今天小编分享的科技经验:30个大模型,抢着落地,欢迎阅读。
在 2023 年上海人工智能大会(WAIC)逛一圈,如果你想找大模型厂商,无需思考——找人扎堆的地方就可以。
作为国内 AI 界当之无愧的风向标,WAIC 这次的主题前所未有地清晰—— AI 大模型。本届 WAIC 邀请超过 400 个企业参会,主办方甚至特设了 AI 大模型展区,大模型参数在 10 亿以上的 AI 厂商数量,就超过 30 家。
" 大模型太多了!如果有哪家 AI 公司不做大模型,都不好意思露面了。" 人声鼎沸的大模型展区中,一位投资人对 36 氪如此感叹。
无论是大厂还是垂直厂商,AI+ 多个行业解决方案已是标配。大模型展区宛如一个大型超市,专属解决方案琳琅满目,陈列其中:大模型 + 云计算、大模型 + 金融、大模型 + 教育……
但火热表象下,国内大模型产品 " 大同小异 " ——是 36 氪得到的普遍反馈。这既是技术发展初期的无奈,也同样是一种理性的现实。
百度文心一言企业级平台展区 拍摄:36 氪
错位
ChatGPT 火爆全球大半年后,如果说还有什么东西成为共识," 先落地 " 可能算第二个。
AI 厂商再也不吹概念,迅速寻求在 B 端落地,这和 2015 年的 AI 浪潮全然不同。比如,腾讯云至今没有公布通用大模型 " 混元 " 的进展,但在 6 月中旬先高调公布了 " 行业大模型 " 的路线,一口气抛出 10 大行业超过 50 个解决方案。
这明显是国内客户更感兴趣的方向。
在百度文心一言、阿里通义千问的展位上," 企业级平台 "、" 专属大模型 " 被围了里三层外三层,来询问的企业客户络绎不绝。
一位文心一言员工告诉 36 氪,来咨询的客户,最关心的问题在于价格,其次是数据安全。" 都直接问卖多少钱,什么时候能开始用。"
但大模型私有部署和使用成本还是太高,再加上算力供不应求。大部分企业其实暂时很难用上大模型,这种错位可能还要持续一段时间。
比如,阿里和腾讯如今都还是只定向邀约客户使用,标准化的 API 服务还没有全面开放。
一位外企 IT 从业者对 36 氪表示,他在日本的老板 " 很着急,很希望能尽快把大模型放到产品里,6 月专门来国内找 AI 大模型服务商,8 月还打算再来一趟。"
但在 WAIC 逛了一圈,上述从业者发现,现在的模型体量还是太大,部署太贵," 我们还是希望先找一个小的切入点,比如用较小的模型做智能客服,嵌入到业务当中。"
另一位阿里云员工则告诉 36 氪,现在做一个行业或者专属大模型,一般需要千万级别以上的预算,更适合业务体量较大的央国企和大公司。" 部署成本比较高,我们也希望尽快把模型压缩到大家能接受的水平。"
为了解决 " 贵 " 的问题,阿里云也在通过开源模型、做生态来补足。阿里发起的大模型开源社区 " 魔搭 ",就想做成一个大模型超市,陈列出更偏行业化的专属模型,目前已经聚集了 900 多个 AI 模型。
大会上,阿里云也发布了新产品 " 魔搭 GPT"(ModelScopeGPT)。用户通过输入指令,可以一键调用其他的 AI 模型,用多个模型协同完成复杂任务,这也是降低大模型使用门槛的方式。
AI 落地难,大模型要再经历一次
从年初业内惊叹 ChatGPT 的涌现算起,AI 大模型的热度也不过半年。国内 AI 厂商离 ChatGPT 仍有不短的距离,但随着国内厂商迅速选择落地,不少难点已经显现。
本质上,AI 大模型训练仍然昂贵,即便是大厂,也不可能不求回报地一直投入。这意味着,国内厂商刚开始做大模型,就面临着更残酷的生存考验。抢着在行业落地,也是希望能尽快商业化,再投入到 AI 模型的开发和训练中。
但资金只是入门券。抢先在行业落地,厂商们更多的是想抢占数据 " 高地 "。
如果是做模型是烹饪,数据好比是食材,大模型对高质量的 " 食材 " 需求更高。但在公开互联网中,中文的高质量数据本就偏少,大模型厂商其实很难建立起数据壁垒。在国内厂商尚在追赶 GPT-3.5 的情况下,没有谁能显著拉开差距。
在很长一段时间中,数据会是更难的一环。一位头部社交公司战略人士告诉 36 氪,ChatGPT 出来后,公司团队迅速就将国内大模型看了一遍,也都进行相应测试," 但他们既没有这个赛道的高质量数据,通用大模型能力又尚不足以支撑业务需求,测试下来,大家效果都一般般。"
为了拿到数据,一位大厂的大模型产品负责人对 36 氪表示,在其合作模式中,如果企业客户愿意提供数据(越有行业属性越好),他们愿意在商务权益上做出极大让步,甚至愿意免费为提供数据的客户部署大模型。
想要大模型顺利落地到场景中,难度也丝毫没有减小。
" 企业需要的,是在实际场景中真正解决某个问题,而不是在 100 个场景中解决了 70%-80% 的问题。" 腾讯云副总裁吴云声在 WAIC 演讲中表示。
问题在于,上一波以视觉识别(CV)为首的 AI 浪潮里,厂商们更先发展的是单点 AI 能力——比如用 AI 进行人脸识别,以 API 形式单次收费是更普遍的形式。但随着技术走向同质化,AI 厂商们到后来只能开始做大项目、私有化部署。由于难标准化,账其实很难算得过来。
将大模型用在业务里,AI 模型会和客户的核心数据结合得更加紧密。这意味着,想要真正解决客户最核心的业务问题,私有化必不可少,程度可能还会更深——厂商们也许需要帮助客户,从头对核心数据进行标注、训练,再进行模型训练。
谈及私有化大模型的投入产出比,账能算得过来吗?腾讯副总裁、腾讯云智能负责人吴运声对 36 氪坦承:" 从现在的时间节点上看的话,确实会有比较大的挑战。"
如今,腾讯采取一种较为折中的办法——上个月,腾讯推出面向文旅、政务、教育、金融等十大行业,超过五十个解决方案。相当于 " 前进半步 ",客户并不需要从头提供行业数据进行训练。在这些模型的基础上,客户只需要加入自己的场景数据进行精调,就可以快速生成 " 专属模型 "。
归根到底,AI 大模型技术仍然在快速发展中,成本上的博弈其实尚无定论。大模型的核心技术,以及算法、芯片等上游产业链都在快速迭代,成本下降其实很快。以百度为例,百度在今年 3 月发布 AI 大模型,到了 5 月,调用文心一言的成本,就已经降低到刚发布时的 10%。
而在另一边,AI 大模型会带来更大的应用层机会,用户付费意愿也会更高,这会带来更大的收入增量。比如,近期行业里就冒出了不少针对营销场景的 AI 产品,有了 AI 大模型加持后效果显著,比如 AI 数字人——近期,不少数字人公司因此焕发新机,产品也迅速带来公司收入提升。