今天小編分享的互聯網經驗:阿裏發布開源模型QwQ-32B:性能比肩DeepSeek-R1滿血版,消費級顯卡可跑,歡迎閲讀。
3 月 6 日凌晨,阿裏巴巴發布并開源全新的推理模型通義千問 QwQ-32B。通過大規模強化學習,千問 QwQ-32B 在數學、代碼及通用能力上實現質的飛躍,整體性能比肩 DeepSeek-R1,同時,千問 QwQ-32B 還大幅降低了部署使用成本,在消費級顯卡上也能實現本地部署。
目前,阿裏已采用寬松的 Apache2.0 協定,将千問 QwQ-32B 模型向全球開源,所有人都可免費下載及商用。同時,用户也将可通過通義 APP 免費體驗最新的千問 QwQ-32B 模型。
據悉,千問 QwQ-32B 是阿裏探索推理模型的最新成果。在冷啓動基礎上,阿裏通義團隊針對數學和編程任務、通用能力分别進行了兩輪大規模強化學習,在 32B 的模型尺寸上獲得了令人驚喜的推理能力提升,應證了大規模強化學習可顯著提高模型性能。
在一系列權威基準測試中,千問 QwQ-32B 模型表現出色,幾乎完全超越了 OpenAI-o1-mini,比肩最強開源推理模型 DeepSeek-R1:在測試數學能力的 AIME24 評測集上,以及評估代碼能力的 LiveCodeBench 中,千問 QwQ-32B 表現與 DeepSeek-R1 相當,遠勝于 o1-mini 及相同尺寸的 R1 蒸餾模型;在由 Meta 首席科學家楊立昆領銜的 " 最難 LLMs 評測榜 "LiveBench、谷歌等提出的指令遵循能力 IFEval 評測集、由加州大學伯克利分校等提出的評估準确調用函數或工具方面的 BFCL 測試中,千問 QwQ-32B 的得分均超越了 DeepSeek- R1。
千問 QwQ-32B 既能提供極強的推理能力,又能滿足更低的資源消耗需求,非常适合快速響應或對數據安全要求高的應用場景,開發者和企業可以在消費級硬體上輕松将其部署到本地設備中,進一步打造高度定制化的 AI 解決方案。
此外,千問 QwQ-32B 模型中還集成了與智能體 Agent 相關的能力,使其能夠在使用工具的同時進行批判性思考,并根據環境反饋調整推理過程。阿裏通義團隊表示,未來将繼續探索将智能體與強化學習的集成,以實現長時推理,探索更高智能進而最終實現 AGI 的目标。
目前,千問 QwQ-32B 已在魔搭社區、HuggingFace 及 GitHub 等平台基于寬松的 Apache2.0 協定開源,所有人都可免費下載模型進行本地部署,或者通過阿裏雲百煉平台直接調用模型 API 服務。對于雲端部署需求,用户可通過阿裏雲 PAI 平台完成快速部署,并進行模型微調、評測和應用搭建;或是選擇容器服務 ACK 搭配阿裏雲 GPU 算力(如 GPU 雲伺服器、容器計算服務 ACS 等 ),實現模型容器化部署和高效推理。
從 2023 年至今,阿裏通義團隊已開源 200 多款模型,包含大語言模型千問 Qwen 及視覺生成模型萬相 Wan 等兩大基模系列,開源囊括文本生成模型、視覺理解 / 生成模型、語音理解 / 生成模型、文生圖及視頻模型等「全模态」,覆蓋從 0.5B 到 110B 等參數「全尺寸」,截至目前,海内外 AI 開源社區中千問 Qwen 的衍生模型數量突破 10 萬,超越美國 Llama 系列模型,成為全球最大的開源模型族群。(本文首發于钛媒體 APP,作者 | 張帥,編輯 | 蓋虹達)