今天小编分享的互联网经验:大模型能成为手机厂商的救命稻草吗?,欢迎阅读。
图片来源 @视觉中国
文 | 硅基研究室,作者 | 白嘉嘉
把大模型装进手机,成为了今年手机厂商最爱讲的故事。
华为、小米、OPPO、vivo、苹果都写起了大模型「上机」的同题作文。其中率先落地的华为智能助手小艺,无需用户准确说出功能名,凭直觉表达需求,小艺就能理解并执行。部分行业人士认为,手机市场格局会被重构,能够更成熟应用大模型的品牌将会占据上风。
但同时,市场上也存在许多质疑的声音,认为这不过是一种营销概念,将基于 AI 芯片的终端运算偷换成了大模型的热点概念。另一部分人则断言,当下的手机硬體,根本不可能在保证电池寿命、手机续航的前提下运行大模型。
手机大模型,究竟是噱头还是科技变革?
大模型上机的岔路口:云端 Or 终端?
虽然都是大模型「上机」的同题作文,但手机厂商们还是写出了不同的风格,其中最大的差异,是将云端大模型接入手机,还是将大模型部署在手机端。
从进度来看,华为毫无疑问是跑得最快的那个。
从 8 月初华为发布鸿蒙 4.0,首次公开透露将得到大模型加持,到 8 月末得到盘古大模型加持智能助手小艺开启众测招募,再到 9 月 15 日悄悄上线 Mate 60 系列手机,接入了盘古人工智能大模型。一个多月时间,华为就兑现了承诺。
据报道,小艺背后的大模型是在华为盘古 L0 基座大模型的基础上,针对终端消费者场景构建了大量的场景数据与精调模型后的 L1 层对话模型。
基于盘古的自然语言大模型、视觉大模型以及多模态大模型,小艺在互動、生产力提升和个性化服务三个方向上增强,并实现了接口调用与用户意图的匹配。
什么叫接口调用与用户意图的匹配?
打个比方,你要让秘书帮你拿一份檔案。过去的人工智能你得告诉它檔案放在哪个房间的哪个柜子的哪个抽屉里,而现在你只需要告诉它需要拿哪份檔案就可以。
也就是说,用户无需准确说出功能名,凭直觉表达需求,小艺就能理解并启用相应的功能。
技术路线上,华为的大模型上机有两个点比较值得留意。
值得留意的第一点是,据市场消息,小艺的语言能力是基于自然语言处理(NLP),而非大语言模型(LLM)。
NLP 和 LLM 是互相关联的两个概念,按学术上的定义,LLM 是 NLP 的一个分支,它们的目标都是让计算机理解和处理人类语言。
之所以说这一点值得留意,主要是因为华为本身并不仅仅是一家手机厂商,而是一家跨通信、手机、企业服务多领網域的综合性企业。这种综合性意味着华为对基础大模型的迭代有更强的需求,因为基础大模型的能力越突出,精调出符合要求的行业、垂类大模型的成本就越低,子类大模型的性能也越好。
某种程度上,将大模型接入手机端,只是华为用「大模型赋能千行百业」过程中一个相对特殊的侧面,真正决定未来企业前路的,仍是背后的基础大模型。
从这个角度来看,和华为站在同一维度展开竞争的,其实是谷歌。
今年 5 月的 Google I/O 开发者大会上,谷歌发布了 Pixel 手机。作为最大的云服务商之一,谷歌在人工智能领網域也有着丰富的积累,已经推出了 Bard 插件,日前宣布正式接入 Gmail、Docs、谷歌地图、YouTube 等应用,多模态大模型 Gemini 正在酝酿当中。
国内的云服务厂商中,百度也朝手机领網域抛出了探测器,于今年 5 月推出了小度青禾学习手机,搭载文心大模型。
华为值得留意的第二点,也是以上这些玩家的共通点,均是「接入」了大模型,而并非在手机端独立运行。
其实,部署在云端还是在终端,一直是大模型上机过程中的一个有争议的部分,两种方式各有优劣。
云端的缺点显而易见,大模型上机是需要互联网作为支撑的,一旦断网就会变回原先的「人工智障」。而终端部署的后果是,大模型运算需要更高端的硬體作为支撑,手机价格水涨船高。
不过对小米来说,终端部署大模型所带来的硬體成本上升,恰好能为高端化战略提供支撑。
今年 8 月 14 日,雷军在年度演讲中透露,小米最新一个 13 亿参数大模型已经成功在手机本地跑通,部分场景可以媲美 60 亿参数模型在云端的运行结果。从名称推断,小米 MiLM-1.3B 是大语言模型(LLM)。
虽然小米并非云服务商,但雷军的野心显然也不仅限于手机。尽管没有完全透露他的答案,不过,小米月活用户数超过 1.1 亿的语音体系小爱同学大概率会是小米未来的主阵地之一。雷军表示,目前已经更新小爱同学的大模型版本,正开启邀请测试。
而这揭露出了雷军选择终端部署的另一个原因。对手机来说,联网是硬需求。但对智能音箱等小米生态产品来说,如果能在断网的情况下实现高质量对话等功能,就能与同类产品拉开差距。
除此之外,OPPO、vivo、苹果也披露了研发大模型的进度,但最终成果如何,还需日后验证。
大模型上机不是简单的组装
这两年,大多数手机厂商都在思考同一个问题,怎么说服消费者换手机?
发展至今,手机已经在之前的技术框架下基本被开发到了极致,再怎么卷硬體,也很难让消费者眼前一亮,更别提萌生换手机的念头了。
Counterpoint 公布的数据显示,2023 年第二季度,全球智能手机销量同比下降 8%,环比下降 5%。这已经是全球智能手机市场连续第八个季度处于下滑通道。
而横空出世的大模型,毫无疑问是今年甚至未来相当长的一段时间内最新鲜的科技故事。
虽然手机市场上还未显露出端倪,但大模型对终端产品的销量带动作用已经得到了验证。科大讯飞 CEO 刘庆峰透露,接入星火大模型后,讯飞学习机 5、6 月份销量均实现三位数增长。
在手机厂商看来,这无异是一根救命稻草。
全联并购公会信用管理委员会专家安光勇认为,手机装入大模型是为了追赶新的潮流、弥补手机市场缺陷,手机市场目前已相对稳定,消费者对于传统的手机参数和产品形态已经有了一定的 " 饱和感 "。大模型的出现为手机厂商提供了一种全新的卖点和市场差异化策略。
对销量的带动作用值得期待,但大模型引起的变化远不止已于此,甚至有部分业内人士认为,手机市场的格局将会被大模型重构。
大模型真的能有这么大的威力吗?
至少从以下两个方面来看,是的。
首先,大模型上机看似是技术门槛,实际是对企业判断、决策能力的考验。
手机厂商在大模型上的博弈,并不只是简单的组装,背后是对厂商技术及軟體等多能力的考验。底层系统上的融合,算法的分配和优化,功耗的控制,对 " 智能 " 的理解差异,这些都会让厂商在体验上拉开差距。
比如,第一部分提到的大模型厂商在「云端接入」和「终端部署」之间的分歧,本质上就是对功耗的控制上的分歧。
虽然运行在手机端的大模型参数量并不像云端大模型那样来到千亿数量级,但对手机硬體来说仍是不小的负担,可能导致手机发烫、电池寿命缩短、续航能力下降。
其次,大模型越用越「贴心」的属性可能会改变大众在选购手机及相关智能终端时的消费心理,继而带来更高的品牌忠诚度。
众所周知,大模型的质量与数据、训练量高度相关。这也意味着,一旦购入某个品牌搭载了大模型的手机后,每次呼唤大模型并要求他执行指令,都可以视为完成了一次训练,机主和手机之间会越来越「默契」。
因此,未来当消费者更换手机或购买新的智能产品时,可能会面临一个新选择:选择和一个新的「人工智能」重新开始,还是数据、模型互通的同品牌手机继续使用?
大模型不是手机厂商的杀手锏
对手机厂商来说,大模型是一道必选题,不论最后能获得怎样的分数,放弃作答肯定都不是明智之选。
但站在消费者的立场上,大模型「上机」,仍有许多疑虑有待解答。
第一个问题在前文其实已经铺垫了许多,比如大模型上机带来的硬體负担,模型参数较小,云端和终端的分歧,这些内容传递出的信息是,至少在设备层面上,大模型上机仍不成熟。
那么,大模型上机究竟是不是噱头?
客观来说,这个问题的答案取决于我们如何定义噱头。
如果将标准定在手机能不能运行大模型,其实,早在今年 5 月,大模型就已经在手机上跑起来过了。
彼时,科技圈大佬陈天奇和他带领的 CMU 机器学习编译小组(MLC),开源发布了一个叫 MLC-LLM 的通用解决方案。通过这个方案,任何语言模型都被允许部署在各种硬體后端和本机应用程式上,并为每个人提供一个高效的框架,以进一步优化自己用例的模型性能。
方案发布后,极客们纷纷跟进,并在社交平台上晒出了在「飞行模式」下运行大模型的效果,收获了一片「Amazing~」。
陈天奇和极客们与各大手机厂商无利益相关,他们的实际体验证明,手机芯片足以支撑大模型的运转。
但如果将标准提高一些,以能否成为一个辅助工作的智能助手来衡量大模型「上机」,答案可能是令人失望的。
本轮大模型热的技术原点,是 OpenAI 将模型参数提升到了千亿级别后,出现了许多意想不到的能力,但这种规模的大模型运转的成本非常高,远非手机所能支撑。
因此,想将大模型装进手机,需要通过剪枝、蒸馏、量化等手段缩小模型规模。这也意味着,手机端大模型不可能像 ChatGPT 或文心一言等云端大模型那么智能,能力范围大幅缩窄。
从这个角度来看,「云端接入」或许是「水分」更少的做法。
不过,即便采用云端接入的做法,可能也很难做到令消费者满意的程度。
目前的大模型研究仍未解决的一个关键问题是「幻觉」,简单来说,「幻觉」的存在会让大模型一本正经的胡说八道。 许多 Chatbot 的使用者都曾被它诚恳的语句所迷惑,导致轻信了它漏洞百出的答案。
这种隐蔽的错误是工作中的定时炸弹。试想,你要求大模型帮你搜集整理资料,并用它凭空捏造的结论来推进事务,会产生多么严重的后果。
此外,「云端接入」给消费者带来的另一个问题是信息安全。
24 小时手机不离身是当代人的常态,它深度参与我们的工作与生活。因此,当它具备一定程度的智能,有权限调取我们的信息并反馈至云端进行演算后,信息泄露的风险也随之而来。
这并非是杞人忧天。今年 4 月,三星就因为启用 ChatGPT 在 20 天内出现 3 起数据泄漏事故,导致其与半导体设备测量、良品率 / 缺陷、内部会议内容等关键信息被上传到 ChatGPT 的伺服器中。
而这也是小米选择通过终端部署的方式实现大模型上机的原因,虽然硬體上困难重重,但仅在本地运行的模式,却能在最大程度上解决信息泄露的问题。
整体来说,手机厂商的大模型上机不是空头支票,但也没有他们所描绘的那么美好。将大模型看作杀手锏,既高估了大模型的能力,也低估了真正落地用户端所面临的难题。