今天小編分享的财經經驗:騰訊,大動作!價格為DeepSeek-R1的1/4,歡迎閱讀。
作 者丨白楊
編 輯丨張偉賢
3 月 21 日深夜,騰訊宣布推出自研深度思考模型混元 T1 正式版,并同步在騰訊雲官網上線。
一個有意思的現象是,無論是前幾天阿裡發布推理模型 QwQ-32B,還是這次騰訊發布混元 T1,都選在了國内的深夜時段。據記者了解,他們這樣做的目的,是因為這些模型都會面向海外開發者,這也進一步說明中國大模型已真正走向海外。
據騰訊介紹,混元 T1 正式版通過大規模強化學習,并結合數學、邏輯推理、科學和代碼等理科難題的專項優化,推理能力得到進一步提升。與此前已上線騰訊元寶的混元 T1-preview 模型相比,綜合效果也有了明顯提升。
在一些常見的基準測試上,比如大語言模型評估增強數據集 MMLU-PRO 中,混元 T1 的評分僅次于 OpenAI-o1,優于 DeepSeek-R1。
在評估邏輯推理能力的 DROP F1 測試中,混元 T1 的評分也優于 DeepSeek-R1 和 OpenAI-o1。不過在數學和代碼能力測試中,混元 T1 的評分都低于 DeepSeek-R1。在中文語言理解能力方面,混元 T1 與 DeepSeek-R1 的評分齊平。
整體來看,混元 T1 正式版的成績已經達到了業界領先推理模型的水平。但騰訊官方此次并未披露混元 T1 的參數量級,所以并不清楚其是用多少訓練數據實現這一性能。
另外值得一提的是,混元 T1 是以騰訊快思考模型混元 Turbo S 為基座打造。
混元 Turbo S 于今年 2 月底發布,騰訊混元團隊當時就表示,Turbo S 将作為旗艦模型,成為騰訊混元系列衍生模型的核心基座,為推理、長文、代碼等衍生模型提供基礎能力。
與 DeepSeek R1 等慢思考模型不同,混元 Turbo S 更強調 " 秒回、吐字快 ",并且更善于超長文本處理。
這是因為混元 Turbo S 在架構方面創新性地采用了 Hybrid-Mamba-Transformer 融合模式。通過這種融合,混元 Turbo S 一方面可以發揮 Mamba 高效處理長序列的能力,另一方面也能保留 Transformer 擅于捕捉復雜上下文的優勢。
因此,該架構有效降低了傳統 Transformer 結構的計算復雜度,減少了 KV-Cache 的内存占用,從而顯著降低了訓練和推理成本,讓混元 T1 吐字速度達到最快 80 tokens/s。
據了解,混元 Turbo S 是工業界首次成功将 Mamba 架構無損地應用在超大型 MoE 模型上,而混元 T1 則是工業界首次将混合 Mamba 架構無損應用于超大型推理模型上。
價格方面,混元 T1 的輸入價格為每百萬 tokens 1 元,輸出價格為每百萬 tokens 4 元。這與 DeepSeek-R1 目前夜間時段(00:30-08:30)的價格相同,但在标準時段,混元 T1 的價格則是 DeepSeek-R1 的四分之一。