今天小编分享的科技经验:中国开源大模型们纷纷商用免费,这步走对了,欢迎阅读。
在中国对生成式模型的监管落地后第二天,在目前最强开源模型 LLaMA 再传出即将允许商用,和 GPT4 的秘方进一步被 " 泄露 " 之际,全球开发社区里最受认可的国产开源大模型 ChatGLM 宣布了一个重要决定:
其最新单卡可运行的模型 ChatGLM2-6B,开放给企业用户免费商用了。
这个消息淹没在 Claude2 的发布,马斯克 xAI 的成立等远方的新闻中,缺少讨论。但它其实是中国基础模型开源进程的又一个重要时刻。
7 月 14 日晚间,智谱 AI 和清华 KEG 发布公告,称为了更好地支持国产大模型开源生态,经智谱 AI 及清华 KEG 实验室决定,自即日起 ChatGLM-6B 和 ChatGLM2-6B 权重对学术研究完全开放,并且在完成企业登记获得授权后,允许免费商业使用。公告提供了企业登记入口,需要的信息只有姓名,国家,邮箱,机构,用途和要申请的模型(ChatGLM-6B 或 ChatGLM2-6B)。
据公告,自 6 月 25 日发布 ChatGLM2-6B 后,不到一个月这个模型在 Huggingface 上的下载量已经先后超过了 120 万。
根据智谱 AI 的官网,GLM2 不限实例 + 不限推理或微调工具包的私有化报价此前是一年 30 万。而据一名在公告发布前刚刚向智谱问价的开发者称,对方回复可以稍等," 会降价 "。
" 然后直接免费了。" 他说。
但事实上这并不突然。
根据近日报道,Meta 准备发布其人工智能模型 LLaMA 的商用版本。而前不久使用了与原始 LLaMA 完全相同的预处理步骤和训练超参数的开源模型 OpenLLaMA 已经率先宣布彻底开源商用。同时,此前曾挖到谷歌那封 " 没有护城河 " 内部信的作者,又 " 揭秘 " 了 GPT-4 的工程和训练细节,业内的讨论中有不少从业者倾向于相信它的可靠性。
一切都在剧烈演进,基础模型的飞速进化同时意味着越来越少的秘密:
一方面是大模型本身并没有那么神秘,从最初惊艳所有人的光环中走出后,更多人会意识到这点;同时,几个主要公司之间频繁的技术核心人才流转,最终也会让秘密不剩多少;而更重要的,就是开源社区的惊人能量,众多的聪明才智在基于开源社区对模型进行优化,这种长久的后劲是闭源模型达不到的,而这些能力最终会组合到一起。这几个月开源社区就已经出现了让任何人都可以对 LLaMa 做指令调优的斯坦福 Alpaca,100 美元就能训练并看到各类模型汇聚一起的 GPT4All,性能堪比 LLaMA 的阿联酋大模型 Falcon,更高质量的数据集 Redpajama,以及像 OpenLLaMA 这类 " 破解 " 模型们。
而最近的这次 " 揭秘 ",也是让很多人觉得 GPT-4 不公开并不是安全考量,而是太容易被学会—— MoE 模型架构等传言都有一些让人冷静下来的意味。于是看起来一个重要的共识已经在形成,那就是模型们在某一个阶段里取得的任何成绩都无法成为护城河。因此对于那些最受瞩目和最受欢迎的开源基础模型来说,允许商用许可就是必须做的事情,因为这样会更进一步吸引开发者,让这些聪明才智基于它的生态生长。
这也意味着很多基于 "LLaMa 很难允许商用 ",以及 " 开源模型接近 GPT4 都是被媒体炒作出来的 " 短期出发点的分析,长期来看没有必要了。
对于模型提供者,这就需要他们快速调整自己的策略。不仅是开源与否上不要纠结,免费商用甚至也要够快够果断。刚刚把最新的 6B 版本模型免费商用的智谱就是个典型例子。从最初觊觎已久终于找到机会工程化,做出 130B 的基座版本模型,到发现 6B 版本的能力甚至可以做到接近老的千亿模型版本,看到一个可以在自己电腦上安装的模型能吸引的开源社区关注如此之多,智谱其实一直在根据变化调整。
据知情人士称,今年 2 月智谱就曾想发布自己的模型,这更像 OpenAI 的路线。但后来各种原因选择开源。而在开源后的表现以及开源社区的进展让团队不少人改变思路。3 月 14 日发布后,3 月 16 日就登上了 GitHub 的榜单第一,后面连续十多天在 HuggingFace 的热门榜上排名第一。
据内部人士称,这种迅速获得的认可让团队内部感到十分震撼。
而接近 ChatGLM 技术负责人唐杰的人称,在开源后他在内部表示,更多的开源是为了让中国的科学家和产业界对大语言模型的训练和运行的机理更加了解,而不是就简单把一个别人的模型拿来微调一下。这是开源的要义。
而未来几个月注定会有越来越多的模型向免费商用进发。
其实只要想明白今天生成式人工智能到底改变了什么也会看得更明白:
今天被大模型强化的人工智能,不是要代替人,而是取代过往那种人与机器的互動。过往基于算力的付费模式本质上都可以理解为建立在对人与机器互動的垄断之上的生意,而大模型就是用所有人都会的自然语言方式打破过去一部分算力精英对人与机器互動的垄断,让所有人都能参与进来。
而开源的逻辑显然更符合这个趋势。
" 如果在几个小时内,就能在消费级硬體上微调出一个个性化的语言模型,这件事的意义就太重大了。尤其是,它还可以实时整合许多最新的、多样化的知识。" 那篇谷歌内部的《没有护城河》里写到。
一名使用过多个开源大模型进行开发的技术负责人对我说,不是所有人都有必要重新训练模型,但大部分要使用模型的开发者有极强意愿做各种优化方案,而最终它们事实上会是集中在为一个或少数几个开源模型做优化。
于是,当闭源的模型与开源生态注定会越来越多的在解决同样的问题时,闭源用一种大力出奇迹的方式证明路线可能性和天花板之后,开源会真正把它变得易用和可用,在大模型的技术原理越来越没有秘密的趋势下,开源的吸引力会继续变强。而开源社区围绕谁的开源模型进行建设就成了关键,提供免费商用是争夺这个核心角色的关键。
目前国产免费商业授权的基础模型也有了一定数量,其中除了智谱,百川智能使用了 1.4 万亿 token 训练的的 Baichuan 13B 模型也是商用免费许可,许多开发者在智谱和百川之间做着对比,而免费商用后,对比的效果会更直接准确有意义。
这些国产模型距离全球顶尖的模型水平仍有不少距离,仔细关注这些团队会知道这些开发团队对此是心知肚明的。而商业可用开源可以让国产模型进一步摆脱只论 benchmark 评分的阶段,进入了是骡子是马拉出来溜溜的阶段,真正的具体的不同的场景,到底推理表现如何,灾难遗忘的问题如何解决,现实环境数据飞轮启动以后是否能提速追逐,将是每个人都能实实在在看到的。
而最终真的凭此吸引来的生态,才是真正的护城河。