今天小编分享的科技经验:智能手机的“大模型之战”,苹果加速进场,欢迎阅读。
目前所有的主流智能手机厂商中,苹果几乎是唯一一家,还没有正式发布大模型应用的厂商。
过去的 2023 年,华为率先将大模型接入手机,使得手机可以执行文本生成、知识查找、资料总结、智能编排、模糊 / 复杂意图理解等复杂任务。之后,其他厂商迅速跟进,比如小米训练出更为轻量级的语言大模型,参数规模为 13 亿和 60 亿两种。小米内部认为,轻量级模型也有其存在的市场空间,这是端侧大模型的特殊要求,也是一家智能设备厂商入局大模型的必经之路。
在此之后,vivo 则推出了蓝心大模型,同样主打轻量化,利于进行手机本地化的数据处理;荣耀则在近日推出了自研端侧 70 亿参数平台级 AI 大模型,并宣布与百度智能云达成战略合作;几乎是前后脚,OPPO 也将首款 70 亿参数大模型装进新推出的 Find X7 上。三星则计划 2024 年初发布的 Galaxy S24 系列手机中搭载大模型,旗下筆記型電腦、平板电腦也有可能集成该模型。
唯独苹果,对于 iPhone 何时将搭载大模型能力,目前还没有确切的消息。一位业内人士向钛媒体 App 表示," 与折叠屏一样,苹果对于新技术的应用,倾向于做好充足的准备后,才会正式推出。" 苹果公司 CEO 库克曾解释道,苹果有计划在更多产品中加入 AI,但要 " 深思熟虑 "。
不过,苹果已经陆续展开了动作,比如推出了名为 Ferret 的多模态大语言模型,向新闻及出版机构购买内容版权。iPhone 的 "AI 时刻 ",正在加速到来。
追求更快的端侧大语言模型
虽然苹果还未公开详细的大模型路线,但根据其发布的《闪存中的大型语言模型:在有限内存下高效的大型语言模型推理》论文,外界得以窥见苹果的技术进展。
目前,大多数大型语言模型(LLM)都在具有强大伺服器硬體支持的云端运营。想要将这类模型装进手机,让数据分析和推理在终端设备上直接完成,就需要智能手机拥有足够大的内存。
但是,一个 70 亿参数的模型就需要超过 14GB 的内存来加载半精度浮点格式的参数,这超过了大多数网络端点的承受能力。即使通过量化压缩模型,这对于终端设备的内存要求依然过大,且压缩模型通常需要修改模型甚至完全重新训练,也会对于模型的实际应用带来影响。
根据上述论文内容,苹果的研发人员似乎找到了突破方法——将模型参数存储在闪存(手机固态硬碟)中,在需要的时候再将数据调入 DRAM(手机内存),以此解决 LLM 运行时,数据处理量超过 DRAM 可用容量的的难题,不至于压垮系统内存。
具体来说,苹果主要运用了两种技术:" 視窗化 " 技术:重复使用此前激活过的神经元,以此减少数据传输;" 行列捆绑 " 技术:针对闪存的数据特征,定制访问数据块的顺序,从而增加从闪存读取的数据块大小。
研究人员表示,该方法 " 为在内存有限的设备上有效推理 LLM 铺平了道路 "。与 CPU 中的传统加载方法相比,该框架支持 DRAM 两倍大小的模型,在 CPU 和 GPU 中推理速度可分别提升 4-5 倍、20-25 倍。
更保守的训练策略
与利用爬虫技术获取大模型训练数据的方式不同,苹果的策略偏向保守。这家公司希望与新闻出版机构谈判,寻求利用其内容开发生成式 AI 系统。
据报道,苹果公司近期已经开始与主要新闻和出版机构进行谈判,提出了价值至少 5000 万美元的多年期協定,以获得新闻文章档案的授权。这些机构包括 Condé Nast(出版《Vogue》和《纽约客》)、NBC 新闻和 IAC。
不过,美国媒体称,出版商可能要承担苹果公司使用其内容产生的任何法律责任,而且苹果公司对其新闻和生成式人工智能计划 " 含糊其辞 "。美国媒体还称,苹果公司高管一直在争论如何获取生成式人工智能产品所需的数据。由于注重隐私,苹果公司一直不想从互联网上获取信息,因此与新闻出版商的交易,为其提供了一个另一种选择方案。
苹果保守的路线对于生成式 AI 的发展有利有弊,这一做法的好处是,通过在更有针对性的信息集训练人工智能模型,苹果最终可能会推出更可靠的产品;而弊端在于,苹果大模型的推出时间会被延迟。
相较之下,OpenAI 的做法则更激进。这家公司用于训练 chatgpt 的数据,大部分来源于网络信息,但这会导致信息的不准确,甚至出现虚假信息。同时,OpenAI 与新闻机构的版权争议,也是一个绕不开的问题。
比如,美国媒体在 2023 年 12 月就以 " 违法使用数据、抄袭 " 为由,起诉了 OpenAI。美国媒体称,OpenAI 大模型几乎能一字不差地输出美国媒体的报道原文,而且这一输出既没有引用链接,还删除了原文附加的返利链接,这直接影响了自身的流量和实际收入。
因此,美国媒体认为 OpenAI 和微软应该为非法使用,需要对 " 价值数十亿美元的法定和实际损失 " 负责。此外,两家公司应该销毁任何使用到美国媒体版权材料的模型和训练数据。
当地时间 1 月 8 日,OpenAI 在官网发布一篇声明,回击了美国媒体最近提起的版权侵权诉讼。OpenAI 称,美国媒体的证据来自已经在第三方网站流传多年的文章:" 他们似乎故意操纵了提示——要么指使模型反刍,要么从多次尝试中精心挑选了示例 "、" 故意操纵我们的模型来反刍,不是对我们技术的适当使用,也违反了我们的使用条款。"
此前,OpenAI 还表示,如果不使用受版权保护的内容,就不可能训练当今领先的人工智能模型。
事实上,对 OpenAI 发起诉讼的不止有美国媒体。1 月 5 日,两位作家在一项集体诉讼中起诉 OpenAI 和微软,指控将他们的书用于训练大模型;去年 9 月,包括《权力的游戏》作者在内的数十位作家也提起了版权诉讼。
主动开源,全栈布局
与历来封闭的 iOS 生态形成鲜明对比,苹果的 Ferret 多模态大语言模型,是以开源方式发布的。这意味着,全球的工程师可以在 Ferret 的基础上继续发展,而 Apple 也可以从中获益。
另一方面,为了让开发者可以轻松构建针对 Apple 芯片优化的机器学习 ( ML ) 模型,苹果还发布了名为 MLX 的开发框架。它的与众不同之处在于苹果的灵活性,允许开发人员不受限制地选择他们喜欢的编码语言。
同时,MLX 可以利用苹果 M1 和 M2 代芯片中存在的统一内存系统。也就是说,开发者可以通过 CPU 或 GPU 对内存中保存的阵列执行操作,无需将数据从一个移动到另一个。虽然节省的时间只是以毫秒为部門,但每一次节省的时间累积起来,将让模型迭代得更快。
英伟达高级科学家 Jim Fan 表示,这可能是苹果公司迄今为止在开源人工智能方面的最大举措。
由于苹果公司在开源 MIT 许可下发布了其 MLX 机器学习框架,Apple 芯片的一些优势也可以在计算量大的机器学习领網域继续保持。如同英伟达创建了自己的 CUDA 生态,让自家 GPU 得以大规模应用,苹果的 MLX 开发框架 M 系列芯片加上基础大模型底座,苹果在大模型时代可能同时具备軟體加硬體的全栈自研体系。
据报道,苹果公司还在开发自己的生成式人工智能模型,称为 "Ajax",相当于 OpenAI 的 GPT-n 系列的版本。拥有 2000 亿个参数的 Apple 大语言模型 ( LLM ) ,将成为苹果未来人工智能战略的核心,它的性能可能与 OpenAI 最新的模型相当。
Ajax 将使苹果能够在其设备和应用程式生态系统中,支持新的 AI 集成和功能,而无需依赖 Microsoft、OpenAI 或 Google 等第三方模型提供商。
The Information 和苹果分析师 Jeff Pu 表示,Apple 在过去一年中一直在构建 AI 伺服器,并将在 2024 年加快步伐。一位分析师估计,苹果仅 2023 年就在伺服器上花费了约 6.2 亿美元。随着苹果加大在人工智能伺服器领網域的投入,预计 2024 年将在人工智能伺服器上花费超过 40 亿美元。
>