今天小编分享的互联网经验:谷歌发布Gemma 2轻量级模型,以牵制Meta的开源模型Llama 3,欢迎阅读。
蓝鲸新闻 6 月 28 日讯(记者 朱俊熹)全球开发者和研究人员在大语言模型上又多了一项高性价比的选择。
当地时间 6 月 27 日,谷歌终于发布了一个月前在 I/O 开发者大会上预告过的 Gemma 2 大模型。据谷歌介绍,与第一代 Gemma 模型相比,新模型拥有更优的性能,推理效率也更高。Gemma 2 包括 9B 和 27B 两种参数大小,官方宣称,其中 27B 模型在性能上能够与比其大两倍的模型相媲美,9B 模型也优于 Meta 的 Llama 3 8B 等相似尺寸的开源模型。
根据谷歌官方博客,Gemma 2 的突出优势在于其效率上的提升。27B Gemma 2 模型支持在单个 Google Cloud TPU 主机、英伟达的 A100 80GB Tensor Core GPU 或 H100 Tensor Core GPU 上以全精度运行推理,这能够极大地降低部署 AI 模型所需的硬體要求和成本。在成本减少的同时,谷歌称也能确保该模型在游戏筆記型電腦、高端台式机等各种硬體上保持较快的推理速度。
因为无需占用大量内存或处理能力,Gemma 2 让开发者能够将 AI 部署到手机、个人电腦等资源受限的设备上。目前 Gemma 2 已上线 Google AI Studio,开发者还可以通过数据科学社区 Kaggle 和开源平台 Hugging Face Models 下载其模型权重。谷歌还面向研究人员推出了 Gemma 2 学术研究计划,向他们提供 Google Cloud 额度。
对于 Gemma 系列模型,谷歌的定义是开放而非开源。谷歌并不会分享 Gemma 模型的源代码、训练数据等技术细节,在应用层面上,两代模型都要求用户在遵守许可協定的情况下才能进行商业使用和分发。
这也是谷歌为应对 AI 竞争所采取的策略:依靠 Gemini 闭源模型对抗 OpenAI,再通过 Gemma 模型牵制 Meta 的开源模型。Gemma 虽然采用了和 Gemini 同源的技术,但参数规模更为轻量。
今年 2 月发布的第一代 Gemma 模型具有 7B 和 2B 两种参数规模,谷歌称其在各种服务平台上的下载次数已超过数百万次。以这两个小模型为基础,谷歌还陆续推出了多款变体模型,包括用于代码生成的 CodeGemma、支持高效推理的 RecurrentGemma,以及在 5 月先行发布的视觉语言模型 PaliGemma,具备影像处理和语言理解的能力。
谷歌表示,计划在未来几个月内推出 2.6B 参数的 Gemma 2 模型,这款新模型将会更适用于在智能手机本地运行的场景。