今天小编分享的科学经验:澜舟科技周明:大模型正在催生新AI中台,欢迎阅读。
ChatGPT 爆火,吹起了大模型、AIGC 的风口,但伴随着兴奋而来的,还有普遍的焦虑:
大模型时代,我们究竟应该做些什么?
我想现在,一是要看到未来 AGI 的绝对趋势;二是要找到自己的长处,脚踏实地去做;三是要营造一个好的生态环境,大家多交流、互相成就。
这就是面对如此 " 焦虑 ",世界顶级 AI 科学家、曾任 ACL 主席的周明,在首届中国 AIGC 产业峰会现场给出的最新观点。
2021 年 6 月,周明成立澜舟科技,这是一家以 NLP 技术为基础的认知智能公司。同年,澜舟科技的 " 孟子 " 模型以 10 亿参数 " 四两拨千斤 ",登顶中文语言理解权威评测基准 CLUE。
当 ChatGPT 的大潮来袭,作为国内最先一批有准备的人,周明认为,与此前的大模型不同:
首先,ChatGPT 对用户的意图理解非常清晰,也更加准确。
其次,多轮对话的建模非常好,还有若干解析能力。
但同时,站在工业界角度,很多需要解析能力的任务,用单独的引擎能达到比 ChatGPT 更好的效果。
所以,找到 ChatGPT 的应用场景非常关键。
基于这样的思考,周明博士站在 To B 角度,分享了对 AI 2.0 时代进行数智化转型的看法,从自身角度解答了 " 怎么用 ChatGPT"、" 我们应该做什么 " 的问题。
为了分享周明博士的更多精彩观点,量子位在不改变原意的基础上,对他的演讲内容进行了编辑整理,以飨读者。
演讲要点
大模型时代,新的 AI 中台正在出现。
ChatGPT 对用户的意图理解更加清晰准确,多轮对话的建模显现若干解析能力。
对于企业而言,并不是必须用 AI 2.0、一定要抛弃 AI 1.0。
OpenAI 和微软做对了什么?一是看到未来,二是发挥所长,三是互相成就。
(以下为周明演讲全文)
AI 2.0 时代,不一定要抛弃 AI 1.0
过去 N 多年,企业在完成信息化之后,期待的是智能化。但其实,这个智能化过去没有很好地发展起来。
很多企业做所谓 AI 中台,用 AI 中台支持各项业务,效果不是很理想。现在有了大模型,大家都在考虑我能不能搞一个新的 AI 中台来支持所有业务。
认知智能涵盖很多方面的因素:第一是语言理解,第二用推理、预测、决策去解决问题。这在很多方面都有用处,包括翻译、客服、知识图谱、推荐问答,都是企业智能引擎的一部分。
所以如何搞一个大模型,作为某种意义上的 AI 中台来支持企业各项业务,就是我们现在要考虑的一个问题。
回到大模型,支持下游任务无非有两种做法:GPT-3 之前,是做模型的微调,去修改模型参数;而 GPT-3 之后,像 ChatGPT,它就是用 prompt(提示词),不需要对大模型进行修改,通过提示就能把大模型的很多能力牵引出来解决问题。
这样一来下游任务的开发就变得非常简单了,做 prompt 就可以了。
现在大家都去追 ChatGPT,其实大模型是多种多样的,包括一开始 BERT、T5 到 GPT-1、GPT-2 等等。那么ChatGPT 跟以前的大模型有什么区别?
我的理解是:第一,它对用户的意图理解更加清晰准确;第二,多轮对话的建模非常好,有若干解析能力。
不过,站在工业界角度,很多解析能力其实不用 ChatGPT 也能做得很好,比如翻译。用单独的引擎跟 ChatGPT 比,可能还比 ChatGPT 厉害。
在这种情况下,到底要用 ChatGPT 来干什么?
两种考虑:一个是在 ToC 层面上,AGI 能力越多越好,用户在一个简单界面中,就可以想干什么干什么,不用来回来去翻。
另一个是在 ToB 环境下,把问题理解、多轮对话的能力,接上企业自己的核心引擎,好好结合起来。因为对于企业来说,很多 AGI 功能是基本不用的,甚至还有可能捣乱。
现在都在讨论 AI 2.0,AI 2.0 对应的是 AI 1.0。
1.0 是什么?一个模型一个引擎,一个模型一个任务。而 AI 2.0,就是一个模型 N 个任务,甚至可以想象未来一个模型解决无穷个任务。现在当然达不到这个状态,但是有这样的趋势。
好处是,一个模型 N 个任务,可以提高开发效率。另外大模型到一定程度有涌现能力,让人产生了一些对未来人工智能深深的遐想,这是以前单模型、单任务永远出不来的。
但对于企业而言,并不是必须用 AI 2.0、一定要抛弃 AI 1.0。
企业应该把 AI 1.0 功能引擎和 AI 2.0 的部分能力(如问题理解和多轮对话的能力)无缝对接起来,形成一纵一横的合力。
大模型来了,能有效改进企业的智能化研发环境。过去任务太碎片化,一个任务一个模型,研发人员准备各种 feature 的代价太大,维护成本也比较高。现在有了大模型,代价就减少了很多,通过本地部署或者云,整体开发效率提高了很多,维护也容易了。
我们就在想,有这样的开发新范式,在企业经营场景中会有哪些新发现?
举一个例子,金融行业用大模型,你得拿金融数据做 continue training 才会更准。再拿金融领網域常见的任务、长期积累的一些标注数据做监督学习,才能让模型适用于真实场景。这时候再拿模型去完成一些已有任务或新任务,效率才会提高。
类似于 ChatGPT,具体怎么用呢?一个是用 ChatGPT 打底座,做 foundation model 训练金融大模型,另一个是用 ChatGPT,在人机互動环境下对企业的各个引擎进行调度。这样一来,就能让原来的智能客服具有多轮对话、意图理解能力,推动新一代智能客服的出现。
澜舟在做大模型的时候,尤其考虑了企业落地的问题。
第一,是大模型企业数智化应用的边界。是把大模型当作一种分发机制,还是当成基础模型支持下游训练?
第二,是大模型结果的可控性和安全性,不能一会儿对,一会儿错。
还有,企业以前的功能引擎如何无缝地接入大模型。
最后,企业数据要如何巧妙地用起来,如何把模型做得更轻。
为此,我们训练了孟子的一系列模型,并进行了开源。结合用户的需求,我们不追求非得是千亿模型,十亿、百亿、千亿我们都可以提供,然后基于用户的数据快速做 continue training。
基于互联网中文数据,以及来自企业、客户的中文数据,孟子模型很懂中文。
另外,我们也做了很多 AIGC 的工作,包括小说的续写,关键词生成,实体渲染等等。
基于这些工作,我们跟中文在线合作了一个网文版类 ChatGPT 引擎。
澜舟在做企业落地的时候,以孟子大模型为底座,拿用户行业数据和用户任务数据做 continue training 的例子,还包括和同花顺一起做的金融大模型,和传神合作的翻译大模型,和华夏金融合作的舆情分析大模型,以及跟数说故事公司一起做的 AIGC 大模型,这些大模型都已经落地了。
多说一句,行业搜索引擎也会被重新定义。第一是从关键词匹配到语言理解,第二是从数据到深度理解,第三是从简单信息获取到内容生产。
OpenAI 和微软做对了什么?
最后说一点感想。这张图这两天很火,是黄仁勋当时把 DGX-1 的第一台机器赠送给了 OpenAI。
现在,OpenAI 已经是 AI 领網域的翘楚,英伟达是全球科技领網域市值第五的公司,还有微软,也坚持投入 AI,跟 OpenAI 长期合作,三家公司现在发展非常好。
他们做对了什么?
第一,是拥抱未来。他们看到 AI 的主旋律是一定要抓住的,并且持续为之努力。
第二,是脚踏实地。每个企业都有自己的特点,OpenAI、微软和英伟达,都是在把自己的长处发挥出来。
第三,是互相成就,而不是互相拆台。比如说微软突然把 OpenAI 做的事都给做了,或者 OpenAI 往下游走,去跟英伟达形成竞争关系。
我想说这句话的意思是,现在咱们中国 AIGC 开始火了,大家蜂拥而上,大厂、小厂、研究机构、学生、老师都有小小的焦虑。
这时候,一是要看到未来 AGI 的绝对趋势;二是要找到自己的长处,脚踏实地去做;三是要营造一个好的生态环境,大家多交流、互相成就,才能促进整个 AIGC 的发展。
谢谢大家!