今天小编分享的科学经验:阿里推理模型一战封神!32B硬刚671B DeepSeek,1/10成本,苹果笔记本可跑,欢迎阅读。
起猛了,Qwen 发布最新 32B 推理模型,跑分不输 671B 的满血版 DeepSeek R1。
都是杭州团队,要不要这么卷。
QwQ-32B,基于 Qwen2.5-32B+ 强化学习炼成。
之后还将与 Agent 相关的功能集成到推理模型中:
可以在调用工具的同时进行进行批判性思考,并根据环境反馈调整其思考过程。
QwQ-32B 的权重以 Apache 2.0 许可证开源,并且可以通过 Qwen Chat 在线体验。
手快的网友直接就是一个本地部署在 m4max 芯片苹果笔记本上。
也有网友连夜 at 各大第三方 API 托管方,赶紧起来干活了。
目前 QwQ-32B 还未放出完整技术报告,官方发布页面对强化学习方法做了简短说明:
从一个冷启动检查点开始,实施了由 Outcome Based Reward 驱动的强化学习(RL)扩展方法。
在初始阶段专门针对数学和编码任务扩展强化学习,没有依赖传统的奖励模型,而是使用一个数学问题准确性验证器来确保最终解决方案的正确性,并使用一个代码执行伺服器来评估生成的代码是否成功通过预定义的测试用例。
随着训练轮次的推进,两个领網域的性能都呈现持续提升。
在第一阶段之后,为通用能力增加了另一阶段的强化学习,它使用来自通用奖励模型的奖励和一些基于规则的验证器进行训练。
团队发现,这一阶段少量步骤的强化学习训练可以提高其他通用能力的性能,如遵循指令、符合人类偏好以及智能体性能,同时在数学和编码方面不会出现显著的性能下降。
此外在 ModelScope 页面,还可以看出 QwQ 32B 是一个密集模型,没有用到 MoE,上下文长度有 131k。
对此,有亚马逊工程师评价不用 MoE 架构的 32B 模型,意味着可以在单台机器上高效运行。
DeepSeek 没有问题,很强大,但要托管他且盈利需要一个大型集群,还需要使用 DeepSeek 最近开源的一系列通信库。
……另一方面 QwQ 32B 可以减少由流水线并行、专家并行带来的复杂性。
如果将 QwQ 32B 添加到代码能力与输出 token 成本的图表中,可以看到它以约 1/10 的成本达到了 DeepSeek-R1 与 o3-mini-high 之间的性能。
在线体验:
https://chat.qwen.ai
https://huggingface.co/spaces/Qwen/QwQ-32B-Demo
参考链接:
[ 1 ] https://qwenlm.github.io/blog/qwq-32b/
[ 2 ] https://x.com/Alibaba_Qwen/status/1897366093376991515