今天小編分享的科技經驗:發布 Qwen3,阿裡雲拉開新一輪開源模型競賽的序幕,歡迎閱讀。
2025 年已經過去 1/3,如果用關鍵詞來概括 AI 領網域的發展你會想到什麼?這是我想到的:開源、創新加速加速加速。
2 月是「DeepSeek」的,R1 以所有人意想不到的方式,讓全球執牛耳的 AI 開發者、創業者、投資人把目光鎖定在「DeepSeek」「中國」「開源」上。
4 月是「開源模型」的,發令槍是 Meta 喊的。被 DeepSeek 蓋過風頭後,2025 年 2 月 19 日,坐不住的 Meta 率先官宣——首個生成式 AI 開發者大會 LlamaCon 将于當地 4 月 29 日(北京時間 4 月 30 日)舉行,頗有重新奪回「AI 開源界老大」江湖地位的意欲。
但 AI 領網域的產品發布節奏就是很微妙,什麼時候發布似乎取決于對手的動作,作為一種心照不宣的默契,Meta 一聲槍響讓 4 月底成為開源模型的主場。
整個 4 月甚至更早,AI 開發者們都在各大社交平台「蹲」開源領網域「三大頭牌」的新發布:DeepSeek-R2、Qwen3 以及 Llama4。Llama4 由于本月初的發布低于預期,似乎少了一些熱度。
目前看起來,4 月底最受關注的還是中國隊,R2 呼之欲出,Qwen3 終于來了。
4 月 29 日凌晨 5 點,阿裡巴巴開源新一代通義千問模型 Qwen3,參數量僅為 DeepSeek-R1 的 1/3,成本大幅下降,性能全面超越 R1、OpenAI-o1 等全球頂尖模型,登頂全球最強開源模型。X 平台的開發者網友甚至把今天定義為「Happy Qwen3 Day」,不僅因為 Qwen3 全面超越 R1,更因為 Qwen3 家族的多尺寸、内置 MCP 支持、支持混合推理等實用性的功能點。
官方技術報告進一步給出了 Qwen3 的幾大亮點:
「探索智能上限」再突破:通過擴大預訓練和強化學習的規模,實現了更高層次的智能;
國内首個「混合推理模型」:無縫集成了思考模式與非思考模式,為用戶提供了靈活控制思考預算的能力;
增強了 Agent 能力:正從專注于訓練模型的時代過渡到以訓練 Agent 為中心的時代。
對于 Qwen3,個人用戶現在就可以在「通義」APP 或 chat.qwen.ai 網頁直接體驗,誇克也即将全線接入 Qwen3。開發者和企業則可以免費在魔搭社區、HuggingFace 等平台下載模型并商用,或通過阿裡雲百煉調用 Qwen3 的 API 服務。
憋了這麼久的 Qwen3 到底怎麼樣?又代表哪些模型發展的趨勢?
01 Qwen3,登頂全球最強開源模型
Qwen3 包含 2 個 MoE 和 6 個密集模型,阿裡雲開源了兩個 MoE 模型的權重,六個 Dense 模型也已開源,包括 Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B,均在 Apache 2.0 許可下開源。
其中,旗艦型号 Qwen3-235B-A22B 參數量僅為 DeepSeek-R1 的 1/3,成本大幅下降,性能全面超越 R1、OpenAI-o1 等全球頂尖模型,登頂全球最強開源模型。
此外,據阿裡雲官方介紹,Qwen3 是國内首個「混合推理模型」。「快思考」與「慢思考」集成進同一個模型,對簡單需求可低算力「秒回」答案,對復雜問題可多步驟「深度思考」,大大節省算力消耗。
Qwen3 在推理、指令遵循、工具調用、多語言能力等方面均大幅增強,創下所有國產模型及全球開源模型的性能新高:在奧數水平的 AIME25 測評中,Qwen3 斬獲 81.5 分,刷新開源紀錄;在考察代碼能力的 LiveCodeBench 評測中,Qwen3 突破 70 分大關,表現甚至超過 Grok3;在評估模型人類偏好對齊的 ArenaHard 測評中,Qwen3 以 95.6 分超越 OpenAI-o1 及 DeepSeek-R1。
性能大幅提升的同時,Qwen3 的部署成本還大幅下降,僅需 4 張 H20 即可部署千問 3 滿血版,顯存占用僅為性能相近模型的三分之一。
Qwen3 性能|圖片來源:阿裡雲
此外,小型 MoE 模型 Qwen3-30B-A3B 的激活參數數量是 QwQ-32B 的 10%,表現更勝一籌,甚至像 Qwen3-4B 這樣的小模型也能匹敵 Qwen2.5-72B-Instruct 的性能。
據介紹,Qwen3-235B-A22B 是一個擁有 2350 多億總參數和 220 多億激活參數的大模型;Qwen3-30B-A3B 則是一個擁有約 300 億總參數和 30 億激活參數的小型 MoE 模型。
得益于在預訓練、大規模強化學習和推理模式整合方面取得的顯著進展,Qwen3 主打「思考更深、行動更快」,更好地構建 AI 應用。Qwen3 預訓練數據量達 36T,并在後訓練階段多輪強化學習,将非思考模式無縫整合到思考模型中。
值得注意的是,這次 Qwen3 的發布,主打混合推理,但是需要思考的長度最短也是 1024tokens,否則如果問題所需要的推理預算用不滿 1024tokens,根本感受不到可以調節精度的混合推理模型的好。也就無法發揮用 Qwen3 不同程度的思考,靈活滿足 AI 應用和不同場景對性能和成本的多樣需求。
截圖來源:X
02 大模型全面轉向「混合推理模型」和「Agent」
在 Qwen3 發布的前一天,X 平台已有「行業人士」——日本的大模型廠商 SakanaAI 的一位工程師敏銳地捕捉到了 Qwen3 的重點。當天,在 AI 領網域最重要的學術會議之一 ICLR 2025 的一個工作坊上,阿裡雲通義實驗室通義千問負責人林俊旸透露了 Qwen 的下一步方向:推理模型和非推理模型的統一,以及面向 agent 的大模型。
這正是今天發布的 Qwen3 最大的兩個特點,同時也是大模型廠商們正在集體發生的轉向。
2025 年 2 月 25 日,Anthropic 發布了最新的旗艦模型 Claude 3.7 Sonnet,同時也稱作是市場上首個混合推理模型。這意味着 Claude 3.7 Sonnet 能夠生成即時的響應(快思考),也可以進行延展的、逐步的思考(慢思考)。API 用戶還可以細粒度地控制模型的思考時長;當給定更長的思考時間,理論上會有更高質量的答案。
Anthropic 表示,混合推理模型的架構代表下一代前沿模型,可以讓模型像人類用同一個大腦一樣,既能快速反應又能深度思考,這既能為用戶創造更無縫的體驗,也能讓用戶通過 API 使用 Claude 3.7 Sonnet 時,可以控制思考的預算。比如:可以告訴 Claude 最多思考 N 個 token,N 的取值可以達到其輸出限制的 128K token,從而在回答質量與速度(及成本)之間進行權衡。
「混合推理架構」也得到了 OpenAI 的青睐。Sam Altman 在更早的時間看到,當前的模型和產品供應已經變得非常復雜,希望 AI 能「開箱即用」、簡化產品供應,「我們和你一樣讨厭模型選擇器,想要回歸神奇的統一智能,之後,我們的一個重要目标是通過創建能夠使用我們所有工具、知道何時需要長時間思考或不需要的系統,統一 o 系列模型和 GPT 系列模型,整體上能廣泛适用于各種任務。」
就像在 DeepSeek-R1 裡一樣,點選「深度思考」背後調用的是推理模型 R1 做的長推理,不選則調用的是基座模型 V3 即時生成的答案。現在,模型廠商把「思考的顆粒度」這個選擇權更靈活、廣泛地交給用戶來控制推理預算。
在 Qwen3 中,可以滑動「思考預算」的按鈕,來控制思考的最大長度,從而匹配合适的推理質量和成本。
在思考模式下,Qwen3 模型會逐步推理,經過深思熟慮後給出最終答案,适合需要深入思考的復雜問題。在非思考模式下,模型提供快速、近乎即時的響應,适用于那些對速度要求高于深度的簡單問題。這種靈活性使用戶能夠根據具體任務控制模型進行「思考」的程度。這兩種模式的結合大大增強了模型實現穩定且高效的「思考預算」控制能力,在成本效益和推理質量之間實現更優的平衡。
另一個模型廠商的轉向則是 Agent。随着 Manus 驗證了 Claude 3.5 Sonnet 達到了通用 agent 的一些能力,加上模型調用工具、實現 agent 能力的統一協定—— MCP 在越來越大的範圍内被擁抱,下一代模型要面向 agent、面向實際場景來優化。
就 Qwen3 來說,正在邁向以訓練 Agent 為中心的階段,當前 Qwen3 優化了 Agent 和 代碼能力,同時也加強了對 MCP 的支持。據稱,Qwen3 原生支持 MCP 協定,并具備強大的工具調用(function calling)能力,結合封裝了工具調用模板和工具調用解析器的 Qwen-Agent 框架,将大大降低編碼復雜性,實現高效的手機及電腦 Agent 操作等任務。
在該示例中,Qwen3 思考并自主調用工具到 Github 數開源模型獲得的 star,繼續思考并調用繪圖工具制作圖片,并調用工具保存。|視頻來源:阿裡雲
03 開源模型新一輪競賽開啟
Qwen3 的發布,意味着開源模型領網域新一輪「三國殺」已然開始。
事實上,随着 DeepSeek 的橫空出世,加上 OpenAI、字節等大廠調整對開源的态度,開源已然成為大模型賽道的大勢所趨。而 Llama、Qwen 和 DeepSeek,正是目前開源領網域最有競争力的玩家。
Hugging Face 聯合創始人、CEO Clement Delangue 發推暗示 DeepSeek 即将帶來新發布。|截圖來源:X
而此前 OpenAI 和 DeepSeek 的成功已經證明,互聯網時代的生态、用戶和產品壁壘,今天在 AI 時代并沒有互聯網時代那樣牢不可摧,模型能力才是基礎大模型公司的核心競争力。而 Llama、Qwen 和 DeepSeek 的勝者,有可能在下一個發布周期到來前(至少在 OpenAI 的開源模型發布前),成為整個 AI 行業的引領者。
雖然新一代模型能力的強弱,還要等待 Llama 和 DeepSeek 的發布,但值得關注的是,這三家開源模型廠商的生态策略亦有差異,這點從模型的側重點就能看出端倪。
DeepSeek 和 Meta 的側重點也有不同,但一個共同點都是不太重視 ToB,至少是在服務生态的建設上并不成功。而這點也是 Qwen 和其背後的阿裡雲最重視的部分。
極客公園曾在此前的文章裡寫過,脫胎于阿裡雲 Qwen,是最有以開源模型技術領先性、廣泛全面開源的策略,追求生态建設的架勢。阿裡的 AI 戰略裡除了追求 AGI,也同樣重視 AI 基礎設施建設,以及更上層的與阿裡的電商、釘釘、誇克等 AI 應用的結合。
此前,阿裡雲智能集團資深副總裁、公共雲事業部總裁劉偉光表示,「阿裡雲是全世界唯一一家積極研發基礎大模型并全方位開源、全方位貢獻的雲計算廠商。」
而 Qwen 模型下載量和衍生模型數量這兩個衡量的生态的指标也同樣領先。根據阿裡雲官方的最新數據,阿裡通義已開源 200 餘個模型,全球下載量超 3 億次,千問衍生模型數超 10 萬個,已經超越 Llama 位居全球開源模型的第一。
而新模型選擇在進一步優化推理成本、混合推理和 Agent 上發力,顯然 Qwen 瞄準的是開發者和 B 端用戶的部署需求。這也将成為 Qwen 與 DeepSeek、Llama、OpenAI 等競争對手最大的不同,也是阿裡能否赢得 AI 時代的一張船票的關鍵所在。