今天小编分享的财经经验:DeepSeek甩出了一张“王炸”,欢迎阅读。
出品|虎嗅科技组
作者|余杨
编辑|苗正卿
头图|《赌神》剧照
12 月 26 日消息,国产大模型 DeepSeek 推出 DeepSeek-V3,一个强大的混合专家(Mixture-of-Experts, MoE)语言模型。主要的技术迭代是 671B 的 MoE,37B 的激活参数,在 14.8 万亿个高质量 token 上进行了预训练。
AI 圈表示," 圣诞节真的来了 "。
翻译翻译,首先,从训练时间看,正如 DeepSeek 在发布报告中指出的那样," 尽管其表现出色,DeepSeek-V3 的完整训练仅需 2.788M H800 GPU 小时。"
打个比方,如果对标 Llama 3 系列模型,其计算预算为 3930 万 H100 GPU Hours —— 大约可以训练 DeepSeek-V3 十五次。
从成本上看,如果我们假设 H800 GPU 的租金为每 GPU 小时 2 美元,DeepSeek-V3 的总训练成本仅为 557.6 万美元。
不仅如此,在最新发布的技术报告里,经过与 DeepSeek-V2.5、Qwen2.5-72B-Inst、Llama-3.1-405B-Inst、GPT-4o-0513 和 Claude-3.5-Sonnet-1022 几个模型的跑分, DeepSeek-V3 在多个性能基准测试中表现出色。在 MATH500、AIME2024 和 Codeforces 三个维度更是遥遥领先,数学和编程能力极强,一度超过 GPT-4o 和 Claude 3.5 Sonnet 这两大领先的闭源模型。虽然在某些语言理解和軟體工程任务中稍有逊色,但也是 TOP2 傑出人士选手。
DeepSeek 自言,这得益于采用了 Multi-head Latent Attention ( MLA ) 和 DeepSeek MoE 架构,实现了高效的推理和经济高效的训练。又引入了辅助损失自由负载平衡策略和多 token 预测训练目标,提升了模型性能。同时,在 14.8 万亿个高质量 token 上进行了预训练时,通过监督微调和强化学习阶段充分挖掘了其潜力。
综合评估显示,DeepSeek-V3 优于其他开源模型,性能接近领先的闭源模型。并且,训练过程非常稳定,没有遇到不可恢复的损失峰值或回滚。相比之下,在同一天,ChatGPT 再次宕机,修复时间尚未确定。
Meta AI 研究科学家田渊栋在 X 上对 DeepSeek-V3 " 极有限的预算 " 和 " 强劲的表现 " 深感惊喜。
曾为 Glean 和 Google Search 的创始团队成员的 VC Deedy 更是将 DeepSeek-V3 赞为 " 世界上最好的开源大模型 "。
DeepSeek-V3 的基础模型以英语和中文为主的多语言语料库上进行预训练,因此主要在一系列以英语和中文为主的基准测试上评估其性能,同时也在一个多语言基准测试上进行评估。而基于其内部集成的 HAI-LLM 框架,具体跑分如下:
如上可以看到 V3 在英语、编程、数学、中文、多语言几个维度的表现。
英语(English):DeepSeek-V3 Base 在大多数测试中表现最佳,例如在 BBH ( EM ) 、MMLU ( EM ) 、MMLU-Redux ( EM ) 、DROP ( F1 ) 、ARC-Easy ( EM ) 、ARC-Challenge ( EM ) 、HellaSwag ( EM ) 、PIQA ( EM ) 、WinoGrande ( EM ) 、TriviaQA ( EM ) 和 AGIEval ( EM ) 等测试中。在 Pile-test ( BPB ) 基准测试中,DeepSeek-V3 Base 的得分为 0.548,也略高于其他模型。
代码(Code):DeepSeek-V3 Base 在 HumanEval ( Pass@1 ) 、MBPP ( Pass@1 ) 、LiveCodeBench-Base ( Pass@1 ) 、CRUXEval-I ( EM ) 和 CRUXEval-O ( EM ) 等测试中表现突出。
数学(Math):DeepSeek-V3 Base 在 GSM8K ( EM ) 、MATH ( EM ) 、MGSM ( EM ) 和 CMath ( EM ) 等测试中表现优异。
中文(Chinese):DeepSeek-V3 Base 在 CLUEWSC ( EM ) 、C-Eval ( EM ) 、CMMLU ( EM ) 、CMRC ( EM ) 、C3 ( EM ) 和 CCPM ( EM ) 等测试中表现良好。
多语言(Multilingual):DeepSeek-V3 Base 在 MMMLU-non-English ( EM ) 测试中表现最佳。
由于 DeepSeek" 大方 " 开源,Open AI 水灵灵地被网友 cue 进行横向对比,有一种被 push 的支配感。
不少玩家还在 X 上分享了自己的使用体验,认为 DeepSeek-V3 很 " 聪明 ",并对 Deepseek 团队表示极大的尊重。
DeepSeek 是一家创新型科技公司,长久以来专注于开发先进的大语言模型(LLM)和相关技术,由知名私募巨头幻方量化孕育而生,作为大厂外唯一一家储备万张 A100 芯片的公司,幻方量化为 DeepSeek 的技术研发提供了强大的硬體支持。
早在通过开源大模型如 DeepSeek Coder 等,DeepSeek 就展示了在人工智能技术领網域的实力。DeepSeek V2 模型的发布,更是提供了一种史无前例的性价比,推动了中国大模型价格战的发展,并因其创新的 MLA 架构和 DeepSeekMoESparse 结构而受到业界的广泛关注。
DeepSeek 被硅谷誉为 " 来自东方的神秘力量 ",其 V2 模型论文在当时即被认为可能是今年最好的一篇。半年后,DeepSeek 带着 V3 再次登场,用行动说明,中国大模型创业者,也可以加入到这场全球技术创新的 AI 竞赛中。