今天小编分享的科技经验:百川智能发布Baichuan-13B,开启中国开源大模型商业化时代,欢迎阅读。
2023 年 7 月 11 日,百川智能正式发布参数量 130 亿的通用大语言模型 Baichuan-13B-Base、对话模型 Baichuan-13B-Chat 及其 INT4/INT8 两个量化版本。
未来大模型生态开源闭源并存已经是不争的事实,如同 iOS 与安卓。目前,以 GPT-4 为代表的超大参数量闭源模型和 100 亿 -200 亿参数量开源模型是大模型生态链中两个最佳实践。GPT-4 固然能力强大,但闭源会要求企业访问公网以及难以定制化适配,使用场景受限。而开源能够使企业轻松地借助专有数据进行微调和私有化部署,进而促进百行千业的良性发展生态。
Baichuan-13B 中英文大模型集高性能、完全开源、免费可商用等诸多优势于一身,是目前所有 33B 以下尺寸开源模型中效果最好的可商用大语言模型。在国外已建立起闭源及开源大模型完整生态的背景下,弥补了国内高品质开源商业模型的不足,对助力中国大模型产业发展和技术进步都具有重要意义。
这是百川智能发布的第二款通用大语言模型,而在前不久的 6 月 15 日,百川智能就已经推出了首款 70 亿参数量的中英文语言模型 Baichuan-7B,并一举拿下多个世界权威 Benchmark 榜单同量级测试榜首。
开源地址:
Hugging Face:
预训练模型:https://huggingface.co/baichuan-inc/Baichuan-13B-Base
对话模型:https://huggingface.co/baichuan-inc/Baichuan-13B-Chat
Github:
https://github.com/baichuan-inc/Baichuan-13B
Model Scope:
预训练模型:https://modelscope.cn/models/baichuan-inc/Baichuan-13B-Base/
对话模型:https://modelscope.cn/models/baichuan-inc/Baichuan-13B-Chat/
最强性能中英文百亿参数量开源模型
预训练模型 " 底座 " 因其灵活的可定制性,适合具有一定开发能力的开发者和企业,而普通用户则更关注具有对话功能的对齐模型。因此百川智能在发布预训练模型 Baichuan-13B-Base 的同时还发布了其对话模型 Baichuan-13B-Chat,Baichuan-13B-Chat 部署简单、开箱即用,极大降低了开发者的体验成本。
相比此前发布的 Baichuan-7B,Baichuan-13B 在 1.4 万亿 token 数据集上训练,超过 LLaMA-13B 40%,是当前开源 13B 尺寸下训练数据量最大的模型,
在语言模型中,上下文視窗长度对于理解和生成与特定上下文相关的文本至关重要。Baichuan-13B 上下文視窗长度为 4096,不同于 Baichuan-7B 的 RoPE 编码方式,Baichuan-13B 使用了 ALiBi 位置编码技术,能够处理长上下文視窗,甚至可以推断超出训练期间读取数据的上下文长度,从而能够更好的捕捉文本中上下文的相关性,做出更准确的预测或生成。
作为一款中英文双语大模型,Baichuan-13B 采用了相对平衡的中英文语料配比和多语言对齐语料,从而在中英两种语言上表现均很优异。在同等参数量的开源模型中堪称实力担当,能更好满足商业化场景需求。
MMLU | C-EVAL | CMMLU | |
Baichuan-13B-Base | 51.6 | 53.4 | 55.3 |
Baichuan-13B-Chat | 52.1 | 51.5 | 55.8 |
LLaMA-13B | 46.4 | 28.5 | 31.2 |
Chinese-Alpaca-13B | 43.9 | 38.8 | 33.44 |
Ziya-LLaMA-13B | 42.9 | 30.0 | 32.1 |
Chinese-LLaMA-13B | 39.2 | 32.1 | 33.0 |
Vicuna-13b | 24.9 | 22.2 | 24.9 |
Moss-16B | 23.5 | 27.4 | 29.6 |
主流百亿参数开源模型 benchmark 成绩
中文领網域,在权威评测 C-EVAL 中,Baichuan-13B 性能一骑绝尘,在自然科学、医学、艺术、数学等领網域大幅领先 LLaMA-13B、Vicuna-13B 等同尺寸的大语言模型,在社会科学、人文科学等领網域甚至超越了 ChatGPT。
英文领網域,其表现同样优秀,在英文最权威的榜单 MMLU 上,Baichuan-13B 超过了所有同尺寸开源模型,并且在各个维度都具有显著优势。
必须要说的是,有些模型为了能在评测中取得更好的成绩,会在基座模型和对话模型上引入较多针对 benchmark 的优化。此举虽然可以在榜单上获取更高的分数,但是没有本质地提升模型的基础能力,并且在下游任务中易产生回复长度短、质量低的问题,造 成高分低能的现象。百川智能的 Baichuan-13B-Base 和 Baichuan-13B-Chat 未针对任何 benchmark 测试进行专项优化,保证了模型的纯净度,具有更高的效能和可定制性。
中国亟待建立自己的开源大模型生态
众所周知大模型的训练成本极高,在海量算力的成本压力下 OpenAI 和谷歌都选择了闭源来保证自家大模型的优势地位。但是从计算机科学与人工智能的发展历程来看,开源始终对軟體技术乃至 IT 技术发展有着巨大的推动作用。
大模型时代,Meta 率先走上了开源的道路,LLaMA 基座开源之后因其出色的性能,迅速吸引了大量开发者。在其基础上开发了各种 ChatGPT 开源替代品,并且以极低的训练成本屡次达到匹敌 GPT-3.5 的性能,极大激发了开源模型的创新活力。
未来大模型生态闭源与开源并存已是行业共识。凭借闭源路线的 GPT、Palm2 以及开源路线的 LLaMA,美国在大模型领網域已经构建起了完整的生态。尽管中文世界不乏优秀的开发者、出色的创新能力和广泛的应用场景,但由于缺少高性能和高定制性的开源基座模型,在大语言模型领網域的相关研究和应用上仍存在较大的挑战。中国急需优质开源可商用大模型补齐相关领網域的空白,与开发者和企业共同推动中国人工智能应用的创新生态发展。
Baichuan-13B 开启中文开源大模型商业化时代
作为同级最好的开源可商用中英文预训练语言模型,Baichuan-13B-Base 不仅对学术研究完全开放,所有开发者均可通过邮件向百川智能申请授权,在获得官方商用许可后即可免费商用。
并且,为了尽可能降低模型的使用门槛,百川智能同时开源了 Baichuan-13B-Chat 的 INT8 和 INT4 两个量化版本,在近乎无损的情况下可以很方便的将模型部署在如 3090 等消费级显卡上。
本次百川智能发布的 Baichuan-13B 中英文大语言模型,凭借百亿参数量已经展现出可以媲美千亿模型的能力,大大降低企业部署和调试的使用成本,让中国开源大模型商业化进入真正可用阶段。Baichuan-13B 的开源,实现了国内开源大模型对美国大模型开源领網域的追赶,改变了此前国内在相关领網域一直落后的局面。
同时,其开源模型的代码完全公开,所有人都可以随时查看,算法透明,不仅有利于研究人员深入探索和研究模型原理,并且有利于建立和深化公众对大模型的信任,可以说 Baichuan-13B 不仅是百川大模型之路上的又一里程碑,也是中国大模型快速迭代的重要标志。
百川智能创始人王小川表示,"Baichuan-13B 是百川智能为科技强国送上的一份礼物,我们期待国内大模型行业以及垂直领網域能够在此基础上开发出更多优秀产品及行业应用,让技术在真实、丰富的应用场景中快速迭代创新,我们愿与众多企业、开发者一道为国内开源社区的生态繁荣贡献自己的力量。"