今天小编分享的科技经验:马斯克花钱砸出的Grok 3,超越DeepSeek与OpenAI?,欢迎阅读。
文 | 科技旋涡
北京时间 2 月 18 日午间,马斯克旗下人工智能初创公司 xAI 正式发布新一代聊天机器人 Grok 3。马斯克和他的人工智能团队声称,Grok 3 测试版的高级推理能力超过了现有的人工智能模型。
马斯克这个号称地表最聪明的 AI,完美诠释了什么叫 " 有钱任性 ",只因其使用了 20 万块 GPU 训练模型。那么,它真的能够超越风头正盛的 DeepSeek 和行业先锋 OpenAI 吗 ?
烧钱无数的 Grok 3 有多强 ?
在 Grok 3 的直播中,马斯克等人介绍了 Grok 3 的训练历程。去年马斯克剧透,Grok 3 在 10 万张 H100 上进行训练,是首个达到如此训练集群规模的模型。今天的发布会上又透露,到训练进行到第 92 天时,集群规模扩展到了 20 万卡。
Grok 3 的实力也的确证明了,在当下这个时期,砸钱是一种巨大的优势。这一波 Grok 3 有满血和 mini 两个版本,在数学、科学、代码等数据集上表现均超过了 GPT-4o、DeepSeek-V3 等非推理模型。
Grok-3 mini 的性能基本上领先或媲美其他闭源 / 开源模型。在著名大模型 LMSYS Arena 排行榜中,Grok-3 刷榜,Elo 评分超 1400 位列最高,没有任何一个模型能与之相比,堪称断层式领先。
xAI 团队还展示了 Grok 3 如何执行有趣的任务。例如计算从地球到火星的航天器任务。Grok 3 生成了一张太空发射的动画 3D 轨迹图 ( 即从地球到火星然后再返回地球的可行轨迹 ) 。这涉及一些复杂的物理知识,Grok 3 需要理解这些内容。
Grok 3 还展示了在自动化游戏开发方面的潜力。xAI 团队要求 Grok 3 现场创造一款融合《俄罗斯方块》和《宝石迷阵》的新游戏。Grok 3 生成的 Python 脚本定义了游戏的常量、颜色、方块形状等元素,并呈现出独特玩法:当连接了至少三个相同颜色的方块时,会触发重力机制使方块消除,这种方式类似《宝石迷阵》。
此外,Grok 3 包含一个名为 Big Brain 的功能,这是一个推理模型模式,允许在处理查询时进行更深入的思考。马斯克指出,17 个月前,最初的 Grok 模型几乎不能解决高中问题,而现在它已经进步了很多,他幽默地比喻 "Grok 已经准备好上大学了 "。
性价比与猛砸钱,大模型的路该怎么走 ?
众所周知,DeepSeek 通过独特的算法优化、架构设计以及高效的资源利用方式,大幅降低了对英伟达高端 GPU 的依赖。这也致使英伟达股价暴跌 16.97%,市值单日蒸发约 5926.58 亿美元。
DeepSeek 声称其模型训练成本仅为同类模型的 1/5 至 1/10,这意味着其在摆脱英伟达硬體束缚的情况下,仍然在推理性能等方面都表现出与 ChatGPT-o1 接近的能力,部分领網域还有所超越。
反观马斯克的 Grok 3 不仅砸进去 20 万块 GPU,更是为了尽快推出 Grok 3,在短短四个月内建成数据中心。如此巨大的投入换来的也仅仅只是 lmArena 排行榜中 41 分的提升,这真的值吗 ?
事实上,马斯克疯狂砸钱的举动或许有着提前布局的考量。当下,任何 AI 的训练都离不开 GPU,只不过 DeepSeek 走的是 " 精算师路线 " ——通过算法优化,用行业 1/10 的成本实现 90% 的性能。而马斯克的 20 万块 GPU 不仅是为了快速推出 Grok 3,更可能是为了后续依旧保持快速迭代的选择。
写在最后
诚然,马斯克的 Grok 3 的确超越了 DeepSeek,但似乎更像是一个加强版,而非大跨度的领先。我们期待看到未来 DeepSeek 依旧能够凭借超高的 " 性价比 " 再度震惊世界。