今天小编分享的科技经验:谷歌 vs OpenAI:决战2024?,欢迎阅读。
谷歌与 Open AI"AI 大战 " 的真正交火将会在 2024 年。
2023 年最后一个月,谷歌发布了原生多模态大模型 Gemini,称其在大语言模型领網域的 32 个常用测试指标里,有 30 项领先于 GPT-4。Gemini 针对不同任务设定了 Nano、Pro、Ultra 三个版本,目前上线的只是 Gemini Pro 版," 顶配 "GeminiUltra 将于 2024 年初推出。随后,谷歌发布 2023 年度 AI 研究总结,给出 " 全面碾压 OpenAI" 的万字长文。
OpenAI 首席执行官山姆 · 奥特曼公布的圣诞愿望清单,可以理解为 OpenAI 的 " 应战书 ",并透露将在 2024 年推出 GPT-5。
外界评论,2024 年全球 AI 大模型比拼的焦点是 GPT-5 和 Gemini Ultra,虽然目前两个模型都还被 " 捂 " 在闺中,无法直接比较,但模型之争背后的数据、算力、生态的全方位较量已经开始。
1 月 11 日凌晨,OpenAI 的 GPT Store ( GPT 应用商店 ) 正式上线,首先面向付费用户开放,最终将直接进行创收。这意味着 "App Store" 商业模式引入大模型领網域。也是在这几天,谷歌 DeepMind 宣布了 SARA-RT、RT-Trajectory、AutoRT 三项具身智能成果。
2024 年元旦刚过,OpenAI 与谷歌 AI 之争火药味弥漫,一场关于 AI 核心基础的变革山雨欲来。
round1:多模态数据,谁拥有更多 ?
2024 年大模型的竞争焦点,业界的共识是 " 多模态模型 ",无论是 GPT-5 还是 Gemini Ultra,都主打 " 多模态 ",这意味着训练这些模型需要海量高质量的视频、音频、图片等数据。
谷歌和 Open AI,谁更拥有源源不断的此类资源?
360 集团创始人、董事长周鸿祎在与甲子光年创始人兼 CEO 张一甲的对话中表示," 人才密度、算力密度和数据质量的高低是决定通用大模型胜负的关键,谷歌的人才不是问题,算力也不是问题,在数据方面拥有搜索、YouTube 和 Android 生态系统 "。有消息称,谷歌训练 Gemini 时所用的数据量是 GPT-4 的两倍之多。
Open AI 同样拥有自己的生态。如果说搜索、短视频是互联网时代的 " 超级应用 ",大模型时代,杀手级应用很可能是 "AI 智能体 ",从这个意义上看,Open AI 的 GPT 商店有可能建立庞大的 "AI 超级应用 "。据悉,目前用户自定义构建的 ChatGPT 助手已超过 300 万个。
接下来,数据竞争的焦点有可能是机器数据。蚂蚁集团副总裁、金融大模型负责人王晓航表示:" 有一种说法是预计 2025 年左右,全世界 50% 左右的数据会来自感知和传感等 IoT(物联网)数据,这部分数据能产生新的能力。" 目前的数据来源于传统计算平台,如 PC、伺服器、手机和平板电腦,嵌入式数据则来源于极其广泛的设备类型。
因此,大模型与硬體结合将成为 2024 年重要的创新方向,也将创造智能硬體新物种。去年 11 月,由山姆 · 奥特曼投资的智能穿戴设备公司推出一个基于大模型的智能穿戴设备 AI Pin,有人称其 " 有可能取代智能手机 "。AI Pin 将于 2024 年 3 月批量上市。
基于此,我们就很好理解,为什么谷歌 Gemini 大模型也包括了 Nano 版本。" 当手机上的传感器都跟大模型整合,会产生非常多的应用场景,谷歌推出 Gemini Nano 版本,能够在终端、手机等各种设备上部署,与安卓系统紧密联系在一起。" 周鸿祎表示。
Pixel 8 Pro 在录音机应用中使用 Gemini Nano 来总结会议音频,即使没有网络连接也可以实现
大模型的目标不仅在于理解文本、图片、视频,它必须真正理解物理世界。谷歌 Deep Mind 首席执行官德米斯 · 哈斯比斯表示:" 谷歌 DeepMind 已经在研究如何将 Gemini 与机器人技术结合,与世界进行物理互動,真正的多模态需要包括触摸和触觉的反馈。"
2024 年元旦刚过,谷歌 DeepMind 又拿出了 SARA-RT、RT-Trajectory、AutoRT 三项机器人与大模型结合的成果,其中 AutoRT 是一个机器人数据收集系统,可以一次管理 20 个机器人。而在此前,OpenAI 也投资了一家人形机器人公司 1X。谷歌与 OpenAI,谁都不愿错失任何一个有可能产生 AI 爆品的机会。
Round2:算力是关键底座,谁主动权更大?
在谷歌发布 Gemini 大模型时,特别强调自家的 TPU(AI 专用张量处理器)v4 和 v5e 对大规模训练的给力支撑。为何?因为算力资源是 AI 的关键基础设施,是 AI 研究、AI 模型训练、AI 商业应用的关键利器。有信息透露,谷歌训练 Gemini1.0 时所用算力是 OpenAI 训练 GPT-4 的四到五倍。谷歌除了想凸显自身的算力优势,还要做算力服务的生意。当天,谷歌还发布了号称 " 迄今为止最强大、最高效、可扩展的 TPU 系统 "Cloud TPU v5p,将用于开发更高层次的 AI 大模型。
在大多数基准测试中,Gemini 的性能都超越了 GPT-4
谷歌这样做当然也希望 " 打脸 "OpenAI ——就在谷歌发布 Gemini 前,OpenAI 宣布暂停 ChatGPT Plus 付费新用户的注册,此前还出现了 ChatGPT 周期性的宕机。直到去年 12 月中旬, 山姆 · 奥特曼才发文称:" 我们重新启动了 ChatGPT Plus 付费订阅的注册,感谢您的耐心等待,同时我们找到了更多的 GPU。"
山姆 · 奥特曼没有说明,其 GPU 究竟来自英伟达还是微软,但至少承认了一件事:OpenAI 缺算力。尽管 OpenAI 的 " 好伙伴 " 微软已推出 AI 专用处理器,OpenAI 也用上了,甚至还挖来了前谷歌 TPU 负责人主管 OpenAI 的硬體,但短期来看,其算力资源仍无法与谷歌相提并论。有报道称,即便 OpenAI 在两年内将 GPU 的总数增加四倍,依然无法赶上谷歌的算力资源,目前 OpenAI 、Meta、CoreWeave、甲骨文、亚马逊的 GPU 总和,仍小于谷歌所拥有的 TPU v5 的数量。
Google 数据中心内的一排 Cloud TPU v5p AI 加速器超级计算机
算力资源的差距有可能在 2024 年改变谷歌与 OpenAI 模型差距,因为拥有更多的算力资源意味着能进行更多的试验、更快的迭代模型。按照 SemiAnalysis 预测,到 2024 年年底,谷歌模型训练的 AI 算力资源有可能是 OpenAI 的 20 倍。
业界也有人说,缺算力花钱买就好了,OpenAI 正在启动新一轮融资,并不缺钱,自己赚钱能力也蒸蒸日上。最新消息显示,OpenAI 近期年化收入突破 16 亿美元,主要收入来源包括 ChatGPT Plus 会员服务、API 模型访问以及与微软的合作,预计到 2024 年底 OpenAI 年化收入可达 50 亿美元。
更何况,刚刚上线的 GPT Store,带来 OpenAI 新的商业变现的想象空间。
不过,小冰公司 CEO 李笛认为:"GPT Store 的建立不是为了商业模式,更是为了收集究竟什么样的 GPT 落地应用是有效的,是为了从开发者处获得想法和灵感。" 这样看起来,OpenAI 建立 GPT Store 的目的并不单纯,那么开发者会不会把好的创意拿出来,就是未知数。澜码科技创始人、CEO 周健也认为,当前 GPT-4 的能力对于发展 GPT store 还存在瓶颈,GPT Store 开发者是否能够做出用户愿意买单的应用,需要等到 OpenAI 发布 GPT-5 后才知。
更何况,目前情况看,芯片并不是想买就能买到,OpenAI 更不希望沦为 GPU 和云计算公司的 " 打工人 "。目前看,OpenAI 与微软的关系依然牢固,微软也拿到了 OpenAI 无投票资格的董事会成员资格,但福布斯却预测,2024 年 OpenAI 与微软就有可能走向分手," 随着 OpenAI 大到蚕食微软客户 "。OpenAI 还在寻找英伟达之外其他途径来解决眼下算力不足的问题,包括最近与 AMD 洽谈合作的可能性,也自主研发芯片、评估潜在收购目标。
基于种种不确定性,OpenAI 希望将更多的 " 算力主动权 " 掌握在自己手里。最近,OpenAI 与人工智能芯片初创公司 Rain AI 在 2019 年签署的一份意向书被曝出,OpenAI 将购买该公司总价值 5100 万美元的 NPU 芯片,而在此前,山姆 · 奥特曼自己也投资了这家公司。这一举动引起广泛关注,因为 Rain AI 的 NPU 芯片采用神经拟态技术,模仿人腦的结构和功能,被认为具有低成本高能效的潜力,有望为 OpenAI 提供所需的硬體支持。
与 Rain AI 的这一交易,被视为 OpenAI 为确保其 AI 项目的芯片和硬體供应而进行的关键举措之一。但事实上这家芯片创业公司给出的出货时间至少要到 2024 年底。算力的差距,可能在 2024 年成为 OpenAI 与谷歌 AI 竞争的 " 关键变量 "。
Round3:酝酿底层变革,谁先实现 AGI?
更或许,谷歌与 OpenAI 的真正较量并不是 GPT-5 和 Gemini Ultra,而是谁先实现 AGI(通用人工智能)。
目前看,无论是 GPT 还是 Gemini 都基于 Transformer 架构。谷歌团队在 2017 年发表的论文《Attention Is All You Need》提出了 Transformer 架构,如今的主流大模型产品,大多基于该架构。有人分析,谷歌拥有原创 AI 架构、算力、数据、技术、人才等显著优势,但其推出的 Gemini 也就仅领先 GPT-4 一点点,这或许意味着 Transformer 架构存在天花板。
Google DeepMind 资深工程师卢一峰在与美国工程院院士张宏江对话中坦言," 现在的 Transformer 架构已经比当年有了很大的优化和改进 ",从 2016 年到现在,整个业界在軟體、硬體和数据方面对 Transformer 架构进行了许多组合优化," 已经将其推进到了一个局部最优状态 "。" 我认为我们可以继续改进它,还有很大的空间,但要显著改变它则有一定难度。 这个难度在于这几个维度已经彼此交织在一起。" 卢一峰说。
需要有新的架构来 " 接力 " 这场 AI 加速跑。
福布斯在最近出炉的《2024 年十大 AI 趋势预测》指出," 尽管我们不认为 Transformer 架构在 2024 年将消失,但确信将出现新一代更先进的 AI 架构替代方案,而且新的替代架构将会在 2024 年得到真正的应用。" 福布斯在预测中提及了斯坦福大学的 Chris Ré 实验室正在构建一种新的模型架构,这种架构可随序列长度以次二次方的方式扩展(而不是像 Transformer 那样以四次方的方式扩展)。将使得人工智能模型计算密度更低,并能更好的处理长序列。" 替代候选 " 还包括麻省理工学院开发的液态神经网络以及由 Transformer 联合发明人之一 LlionJones 所创公司推出的 Sakana 架构。据悉,目前 Transformer 架构的五位共同发明者均已离开了谷歌,开启了各自的 AI 创新创业之旅,这些亲手孕育了 Transformer 的人有可能就是 Transformer 的 " 掘墓人 "。
此外,随着大模型能力的不断演进,需要带来 " 跨越式变革 " 的未来计算,量子计算机或许是硬體 " 接盘 " 方案。创世伙伴资本主管合伙人周炜表示:" 量子计算擅长的就是处理排列组合、并发的问题,当量子计算与大模型结合在一起能够解决很多问题。"
" 首先,人工智能领網域的算法,大部分属于并行计算范畴。而量子计算机擅长进行并行计算,因为它可以同时计算和存储 0、1 两种状态,无需像电子计算机那样消耗额外的计算资源,譬如串联多个计算单元,或将计算任务在时间上并列。计算任务越复杂,量子计算就越具备优势。其次,运行 ChatGPT 所需的硬體条件,同样也十分适合导入当前体积庞大的量子计算机,二者都需要安装在高度集成的计算中心里,由一支专业化技术团队进行管理支撑。" 中国现代国际关系研究院科技与网络安全研究所人工智能项目负责人谭笑间表示。
2022 年,来自谷歌、微软、加州理工学院等机构的研究者从原理上证明了 " 量子优势 " 在预测可观测变量、量子主成分分析以及量子机器学习中确实存在。量子计算与人工智能两大前沿技术合流的趋势正在变得越来越明朗。在量子计算、量子机器学习方面,谷歌是先行者。如果量子计算机能够成为未来 AI 硬體的替代方案,谷歌无疑拥有比 OpenAI 更多的优势。
谷歌会比 OpenAI 更快实现 AGI 吗?亦或,最先实现 AGI 的既不是谷歌也不是 OpenAI, 而是另外其他公司?一切皆有可能。