今天小编分享的互联网经验:重返开源战场,谷歌打响AI“斯大林格勒保卫战”,欢迎阅读。
图片来源 @视觉中国
文 | 乌鸦智能说,作者 | 小白
昨天晚上,谷歌毫无预兆地发布了开源模型 Gemma,主打轻量级、高性能,剑指 Meta 的 Llama。Gemma 的发布意味着谷歌大模型策略的转变:从过去押注闭源追赶 OpenAI,到重返开源赛场,兼顾开源和闭源。
显然,谷歌这一转变是被迫的。自去年下定决心闭源后,谷歌明显低估了追赶 OpenAI 的技术难度,持续被 OpenAI 压制,甚至毫无还手之力。就连不久前发布的大模型核弹 Gemini 1.5,风头也全让 Sora 抢走了。
不过相比闭源,谷歌在开源战场也面临着不小挑战。尽管谷歌拥有着明显的技术优势,而且在开源社区构建上也有丰富的经验。但在 Meta、Mistral 等玩家逐渐主导开源市场的情况下,不占天时的谷歌想要追赶,必须投入更多的资源。
回顾科技竞争史,每一个新时代的来临,都意味着上个时代科技霸主的衰落。谷歌能否免于这种结局?从这个角度上说,开源就是谷歌在人工智能战场的 " 斯大林格勒保卫战 "。
最强开源大模型来了!
Gemma 在拉丁语中意为 " 宝石 ", 是由谷歌 DeepMind 和其他团队共同合作开发,采用了与 Gemini 相同的研究和技术构建。
此次 Gemma 发布了 20 亿和 70 亿两种参数规模的版本,每个规模又分预训练和指令微调两个版本。在 Gemini 的技术加持下,Gemma 形成了对现有开源大模型的碾压。Gemma 在 18 个基准测评中平均成绩击败目前的主流开源模型 Llama 2 和 Mistral,特别是在数学、代码能力上表现突出。
其中,Gemma-7B 模型在涵盖一般语言理解、推理、数学和编码的 8 项基准测试中,性能已经超越了 Llama 2 7B 和 13B。安全性方面,经过指令微调的 Gemma-2B IT 和 Gemma-7B IT 模型,在人类偏好评估中都超过了 Mistal-7B v0.2 模型。
不过不同于支持多模态的 Gemini,Gemma 模型不是多模态的,也没有针对多语言任务进行训练。但根据谷歌发布的技术报告 Gemma 的分词器词表大小达到 256k。
这个怎么理解?大模型理解用户提问是将文本转化为数字之后再进行推理的,词汇表就类似它的字典,其规模越大,对于复杂句式和生僻字词的理解就越强,同样也就能够更快理解其它语言。Gemma 的分词器词表大小达到 256k,意味着它可以很快学会使用其他语言。
除了模型本身,另一个值得关注的点是,Gemma 从最开始的设计和训练之时,就非常注重安全性,这意味着它非常适合部署在本地使用。例如,谷歌使用 Google Cloud 数据丢失防护 ( DLP ) 工具,从训练集中自动过滤掉隐私信息和敏感数据。该工具根据隐私数据的类别(例如姓名、电子邮件等)输出三个严重级别。据谷歌发布的技术报告显示,最为敏感的信息几乎完全不会被储存,潜在隐私数据会有部分储存。
在模型发布后,Gemma 也第一时间上线了 HuggingFace 和 HuggingChat,用户可以直接在这些平台上进行下载和试用。发布才几个小时,已有不少用户分享了试用体验,甚至部分用户还对其做出了很高的评价,社交平台 X 用户 @indigo11 称其 " 速度飞快 "、" 输出很稳定 "。
" 拧巴 " 的谷歌压力很大
算上此次发布的 Gemma,已经是谷歌在短短一个月内放出的第三次大招。
2 月 9 日,谷歌宣布其最强大模型 Gemini Ultra 免费用,Gemini Ultra 于 2023 年 12 月发布时在 MMLU(大规模多任务语言理解)测评上超过人类专家,在 32 个多模态基准中取得 30 个 SOTA(当前最优效果),几乎全方位超越 GPT-4。
2 月 16 日大年初七,谷歌放出其大模型核弹—— Gemini 1.5,并将上下文視窗长度扩展到 100 万个 tokens。Gemini 1.5 Pro 可一次处理 1 小时的视频、11 小时的音频、超过 3 万行代码或超过 70 万字的代码库,向还没发布的 GPT-5 发起挑战。
尽管谷歌动作频频,但风头却全让 OpenAI 的的文生视频大模型 Sora 抢走了。而此次谷歌之所以没有预告地突然发布开源模型,恰恰不想重蹈覆辙。毕竟有消息称,Meta 将在本周内发布 Llama 的更新版。
从表面上看,谷歌抢先 Llama 发布开源模型是为了挽回近期 " 颓势 "。但更深层次的原因是,谷歌希望改变长期以来被 OpenAI 压制的局面,探索更多 " 弯道超车 " 的可能性。
一个无比残酷的事实是,自 2022 年 12 月 ChatGPT 发布以来,曾经 AI 领網域的扛把子谷歌就一直被 OpenAI 压制得死死的,毫无还手之力。
去年 2 月,OpenAI 的 ChatGPT 风靡全球,谷歌草草推出了聊天机器人 Bard,产品却不如预期。先是演示中出现事实错误,让谷歌母公司一夜之间市值蒸发千亿美元;而后也没能以性能表现吸引足量用户,据 Similarweb 的数据,Bard 全球月访问量只有 2.2 亿次,仅为 ChatGPT 的 1/8。
去年 12 月 7 日,谷歌又发布了最强大模型 Gemini,尽管效果惊艳却令市场有些意兴阑珊。2024 年 1 月 31 日,谷歌最新财报显示其收入亮眼,却因 AI 方面进展不及预期市值一夜蒸发超 1000 亿美元。
随着 Sora 的发布,越来越多人意识到一个问题:在 Scaling Law 的推动下,OpenAI 在闭源模型上的优势越来越大。也就是说,此次宣布进军开源,更像是谷歌在人工智能竞赛的被迫之举。
一方面,相比 Meta 在去年年中进军开源模型,谷歌进军开源模型晚了整整半年,这意味着其需要花数倍的努力进行模型的差异化以及推广的投入,才有可能在众多开源模型中脱颖而出。另一方面,至少从披露的内容看,相较于其他开源模型,谷歌推出的开源模型也并没有太多超预期的地方。
但即使如此,进军开源模型仍然对谷歌意义重大。毕竟,在对阵 OpenAI 节节败退的情况下,谷歌亟需一场胜利来扭转颓势。而开源模型可能成为谷歌在人工智能战场的斯大林格勒战役。
谷歌重回开源
从历史上看,开源对谷歌来说并不陌生,甚至在相当长时间里,谷歌都是技术开源的坚定支持者。历史上,Transformers、TensorFlow、BERT、T5、JAX、AlphaFold 和 AlphaCode,都是谷歌为开源社区贡献的创新。
2015 年 11 月,谷歌公布了 TensorFlow,一度成为最流行的开源深度学习框架之一。任何人只要拥有电腦和网络连接(并且懂一点点深度学习算法)就能使用有史以来最强大的机器学习平台。自 2015 年至今,成千上万的开源贡献者、开发人员、社区组织者、研究人员都投入到了这一开源軟體库上。
2018 年,谷歌宣布将 BERT 进行开源,这是一种基于神经网络的自然语言预训练处理技术,其使用不仅限于搜索算法,任何人都可以在其他类型的问答系统中使用 Bert。更别说,在移动互联网时代,谷歌还建立了足以匹敌苹果的安卓开放生态。
与 OpenAI 不同,简单粗暴的 Scaling Law 并不是谷歌唯一的路。此次开源 Gemma,不仅意味着想要重塑自己在 AI 社区的影响力,也代表谷歌大模型策略的转变:兼顾开源和闭源。
放在当下的 AI 行业,发力开源模型也确实是谷歌一个不错的选择。
一方面,相比于闭源模型,开源模型的竞争相对较小,竞争主要来自 Meta 的 Llama。像谷歌在闭源模型的技术实力和开源社区方面的经验,使其更有可能形成碾压的局面。
另一方面,在 AI 落地的故事里,开源模型仍然存在着不小的潜力。原因在于,开源模型的成本优势将更有利于模型的落地。在很多场景里,使用 GPT 就像是开兰博基尼送外卖,成本过于高昂。有 AI 研究员做过一笔测算,GPT-3.5 的 API 价格几乎是开源模型 Llama2 推理成本的 3-4 倍,更别提 GPT-4 了。
在移动互联网时代,接近衰落的微软靠着云计算实现了最终的翻盘。如今,在人工智能故事里不如意的谷歌能否复制这一路径,我们拭目以待。