今天小编分享的科学经验:不用等R2了!第三方给新版DeepSeek V3添加深度思考,推理101秒破解7米甘蔗过2米门,欢迎阅读。
DeepSeek 即将发布 R2??坊间传闻越来越多了,且难辨真假。
1.2T 万亿参数,5.2PB 训练数据,高效利用华为芯片……只能说如果有一半是真的都很牛了。
HuggingFace 创始人此时推荐 " 以不变应万变 ",打开官方认证账号的更新提醒,就能第一时间获取通知。
抛开具体泄露数据是否准确,大家似乎有一个共识:如果真的有 R2,它的基础模型会是新版 DeepSeek V3-0324。
之所以有很多人相信 R2 会在 4 月底发布,有一部分原因也是出于 R1 与 V3 之间相隔了一个月左右。
现在,等不及 DeepSeek 官方,开源社区已经开始自己动手给 V3-0324 加入深度思考了。
新模型 DeepSeek-R1T-Chimera,能力与原版 R1 相当,但速度更快,输出 token 减少 40%,也是基于 MIT 協定开放权重。
相当于拥有接近 R1 的能力和接近 V3-0324 的速度,结合了两者的优点。
而且做到这一点,不是靠微调或蒸馏,而是 DeepSeek V3-0324 和 R1 两个模型融合而成。
新模型 R1T-Chimera 并非 DeepSeek 官方出品,而是来自德国团队 TNG Technology Consulting。
该团队此前也探索过可调专家混合(MoTE)方法, 让 DeepSeek-R1 在推理部署时可以改变行为。
目前已知是选用了 V3-0324 的共享专家 +R1 与 V3-0324 的路由专家的混合体融合而来。
TNG 团队表示最终结果令人惊讶,不仅没有表现出融合模型的缺陷,相反,思考过程还比原版 R1 更紧凑有序。
暂没有技术报告或更详细的模型融合方法公布,要验证它是否符合描述,就只能拉出来试一试了。
我们选用最新折磨 AI 的难题 "7 米长的甘蔗如何通过 2 米高 1 米宽的门?"。
原版 R1 思考了 13 秒就下了结论;R1T Chimera 在这里却足足思考了 101 秒,最终计算出可以通过。
虽然还是无法像人类一样直观的理解三维空间,让甘蔗与门的平面垂直就可通过,但依然通过计算夹角与投影得出了结论。
在这 100 秒时间里 R1T-Chimera 如何一步步思考出答案呢?
展开推理 token 可以发现,在简单计算二维方案不可行后,它就已经想到了三维方案。
后面依然陷入了各种误区,在旋转甘蔗、弯曲甘蔗、计算 " 门的厚度 " 上走了弯路。
最终通过 " 揣摩出题人心理 " 走进正确的路线。
最终给出的答案非常严谨了。
虽然人类直觉上就能想出把甘蔗垂直起来通过这个方法,但仔细一想,题目中确实没有给出 " 门后有多少空间这个条件 "。
细还是 AI 细。
关于 R1T-Chimera 的更多细节,大家还在等 TNG 团队消息和更多第三方基准测试结果。
不过也有人注意到,KIMI K1.5 技术报告中也探索了模型融合方法。
具体来说是把长思维链(long-cot)模型和短思维链(short-cot)模型融合,直接对两个模型的权重取平均值,获得一个新模型,无需重新训练。
不过在实验中,这种简单融合方法表现并不如这篇论文中提出的 Long2short 强化学习方法。
另一个在模型融合上有经验的团队是 Transformer 作者 Llion Jones 创办的 Sakana AI。
早在 24 年初就结合进化算法提出以 block 为部門融合的方法。
随着更多团队跟进这一路线,模型融合会不会成为 2025 年大模型的一大技术趋势呢?欢迎在评论区留下你的看法。
HuggingFace:
https://huggingface.co/tngtech/DeepSeek-R1T-Chimera
在线试玩:
https://openrouter.ai/tngtech/deepseek-r1t-chimera:free
参考链接:
[ 1 ] https://x.com/tngtech/status/1916284566127444468
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
点亮星标
科技前沿进展每日见