今天小編分享的科技經驗:阿裏通義團隊開源 R1-Omni:多模态模型 + RLVR,歡迎閲讀。
IT 之家 3 月 11 日消息,随着 DeepSeek R1 的推出,強化學習在大模型領網域的潛力被進一步挖掘。Reinforcement Learning with Verifiable Reward(RLVR)方法的出現,為多模态任務提供了全新的優化思路,無論是幾何推理、視覺計數,還是經典影像分類和物體檢測任務,RLVR 都展現出了顯著優于傳統監督微調(SFT)的效果。
然而,現有研究多聚焦于 Image-Text 多模态任務,尚未涉足更復雜的全模态場景。基于此,通義實驗室團隊探索了 RLVR 與視頻全模态模型的結合,于今日宣布開源 R1-Omni 模型。
R1-Omni 的一大亮點在于其透明性(推理能力)。通過 RLVR 方法,音頻信息和視頻信息在模型中的作用變得更加清晰可見。
比如,在情緒識别任務中,R1-Omni 能夠明确展示哪些模态信息對特定情緒的判斷起到了關鍵作用。
為了驗證 R1-Omni 的性能,通義實驗室團隊将其與原始的 HumanOmni-0.5B 模型、冷啓動階段的模型以及在 MAFW 和 DFEW 數據集上有監督微調的模型進行了對比。
實驗結果顯示,在同分布測試集(DFEW 和 MAFW)上,R1-Omni 相較于原始基線模型平均提升超過 35%,相較于 SFT 模型在 UAR 上的提升高達 10% 以上。在不同分布測試集(RAVDESS)上,R1-Omni 同樣展現了卓越的泛化能力,WAR 和 UAR 均提升超過 13%。這些結果充分證明了 RLVR 在提升推理能力和泛化性能上的顯著優勢。
IT 之家附 R1-Omni 開源地址:
論文:https://arxiv.org/abs/2503.05379
Github:https://github.com/HumanMLLM/R1-Omni
模型:https://www.modelscope.cn/models/iic/R1-Omni-0.5B