今天小編分享的互聯網經驗:字節火山引擎譚待隔空回應百度沈抖:少做無端猜測,行業應聚焦基本功,歡迎閱讀。
火山引擎總裁譚待
火山引擎總裁譚待首次回應百度沈抖對于 " 卷 " 大模型低價以及 DeepSeek 衝擊的觀點。
钛媒體 AGI 2 月 13 日消息,百度集團執行副總裁、百度智能雲事業群總裁沈抖在全員會上表示," 國内大模型去年‘惡意’的價格戰,導致行業整體的創收相較于國外差了多個數量級 "。
沈抖明确表示,面對 DeepSeek 的來勢洶洶,首當其衝的 AI 產品,是字節跳動的豆包,理由是其訓練成本和投流成本都很高。
對此,钛媒體 AGI 獲悉,火山引擎總裁譚待通過朋友圈回應稱,大模型降價是通過技術創新實現的,大家應像 DeepSeek 一樣聚焦基本功,少做無端猜測。
譚待表示,豆包 1.5Pro 模型的預訓練成本、推理成本均低于 DeepSeek V3,更是遠低于國内其他模型,在當前的價格下有非常不錯的毛利。
" 國内外的廠商都在依靠技術創新,降低模型價格。我們也只是實現了 Gemini 2.0 Flash 的價格水平而已,這個價格,完全是依賴技術進步可以做到的。" 譚待進一步呼籲," 大家應該像 DeepSeek 一樣聚焦基本功,聚焦創新,不急不躁,少無端猜測,歸因外部。"
據悉,Doubao-1.5-pro-32k 的百萬 tokens 輸入價格為 0.8 元,命中緩存為 0.16 元,輸出價格為 2 元。據披露其毛利率達到 50% 以上。
數據顯示,豆包大模型的調用量在過去一年快速增長,去年 12 月的日均 tokens 使用量已超過 4 萬億,較 5 月首次發布時增長了 33 倍。
值得注意的是,近期火山引擎宣布接入了 DeepSeek 的模型。同時,2 月 12 日,豆包大模型團隊還公布全新的稀疏模型架構 UltraMem,推理速度較 MoE(混合專家模型)架構提升 2-6 倍,推理成本最高可降低 83%,在技術創新上不斷發力。
(本文首發于钛媒體 App,作者|林志佳)