今天小编分享的互联网经验:字节火山引擎谭待隔空回应百度沈抖:少做无端猜测,行业应聚焦基本功,欢迎阅读。
火山引擎总裁谭待
火山引擎总裁谭待首次回应百度沈抖对于 " 卷 " 大模型低价以及 DeepSeek 冲击的观点。
钛媒体 AGI 2 月 13 日消息,百度集团执行副总裁、百度智能云事业群总裁沈抖在全员会上表示," 国内大模型去年‘恶意’的价格战,导致行业整体的创收相较于国外差了多个数量级 "。
沈抖明确表示,面对 DeepSeek 的来势汹汹,首当其冲的 AI 产品,是字节跳动的豆包,理由是其训练成本和投流成本都很高。
对此,钛媒体 AGI 获悉,火山引擎总裁谭待通过朋友圈回应称,大模型降价是通过技术创新实现的,大家应像 DeepSeek 一样聚焦基本功,少做无端猜测。
谭待表示,豆包 1.5Pro 模型的预训练成本、推理成本均低于 DeepSeek V3,更是远低于国内其他模型,在当前的价格下有非常不错的毛利。
" 国内外的厂商都在依靠技术创新,降低模型价格。我们也只是实现了 Gemini 2.0 Flash 的价格水平而已,这个价格,完全是依赖技术进步可以做到的。" 谭待进一步呼吁," 大家应该像 DeepSeek 一样聚焦基本功,聚焦创新,不急不躁,少无端猜测,归因外部。"
据悉,Doubao-1.5-pro-32k 的百万 tokens 输入价格为 0.8 元,命中缓存为 0.16 元,输出价格为 2 元。据披露其毛利率达到 50% 以上。
数据显示,豆包大模型的调用量在过去一年快速增长,去年 12 月的日均 tokens 使用量已超过 4 万亿,较 5 月首次发布时增长了 33 倍。
值得注意的是,近期火山引擎宣布接入了 DeepSeek 的模型。同时,2 月 12 日,豆包大模型团队还公布全新的稀疏模型架构 UltraMem,推理速度较 MoE(混合专家模型)架构提升 2-6 倍,推理成本最高可降低 83%,在技术创新上不断发力。
(本文首发于钛媒体 App,作者|林志佳)