今天小編分享的互聯網經驗:自動駕駛的“iPhone 4”時刻:理想MindVLA到底變革了什麼?,歡迎閱讀。
文 / 陳鋒
編輯 / 子夜
AI 對于理想汽車意味着什麼?
幾個月前的 "2024 理想 AI Talk" 上,理想汽車董事長兼 CEO 李想的回答是:(在願景上)意味着未來的全部。
" 電動化是上半場,智能化是下半場,但我認為,這個智能化講的不是傳統的軟體智能,而是真正的人工智能,這是造車往下延續的一個必經之路。汽車将從工業時代的交通工具,進化成為人工智能時代的空間機器人。" 李想這麼說道。
在當下的新能源汽車市場中,理想也是在 AI 戰略上布局更早、投入更堅決的車企之一。
從 2022 年 9 月在内部将發展 AI 定為戰略核心,到 2023 年初正式将這一戰略對外,再到去年底 "2024 理想 AI Talk" 分享了對人工智能的最新思考和戰略成果,理想已經跑出了更快的 AI" 加速度 "。
近期,圍繞 AI 戰略布局,以及 AI 在智能駕駛上的落地,理想汽車又迎來了一個關鍵裡程碑,發布了理想汽車自動駕駛架構—— MindVLA。
圖源理想汽車官方微信公眾号
理想汽車自動駕駛技術研發負責人賈鵬表示:" 就像 iPhone 4 重新定義了手機,MindVLA 也将重新定義自動駕駛 "。在理想汽車 2024 年第四季度及全年财報業績會上,李想表示今年計劃将 MindVLA 和首款純電 SUV 車型理想 i8 同時發布。
MindVLA,
一個司機 Agent 究竟能做什麼?
MindVLA 到底是什麼?
它是視覺 - 語言 - 行為大模型,是機器人大模型的新範式,非簡單的将端到端模型和 VLM 模型結合在一起。它所有的模塊都是全新設計的,将空間智能、語言智能和行為智能統一在了同一個模型裡。
具體來看,3D 空間編碼器通過語言模型,和邏輯推理結合在一起後,給出合理的駕駛決策,并輸出一組 Action Token(動作詞元),Action Token 指的是對周圍環境和自車駕駛行為的編碼,并通過 Difusion ( 擴散模型 ) 進一步優化出最佳的駕駛軌迹,整個推理過程都要發生在車端,并且要做到實時運行。
理想汽車在 VLA 上的率先布局,源于其對自動駕駛以及大模型前沿技術的敏銳洞察,也源于更早、更堅定的 AI 戰略。
" 我們認為,基座模型到一定時刻,一定會變成 VLA。" 此前,李想如此表示。在他看來,語言模型也要看三維世界,也要通過語言、認知理解三維世界,同時自動駕駛走向 L4,也要有極強的認知能力。
這意味着,未來在 MindVLA 模型加持下的理想汽車,能更好地感知、思考和适應環境,成為一個能聽懂用戶說話、看懂用戶需求、幫用戶解決問題的 " 專職司機 "。具體來說:
一來,用戶可以通過語音指令來改變車輛的路線和行為。
比如你正在陌生園區尋找超市,這時你只需要通過理想同學對車輛說 " 帶我去超市 ",車輛将在沒有導航信息的情況下,自主漫遊找到目的地;車輛在行駛的過程中,你還可以跟理想同學說 " 開太快了 "" 應該走左邊這條路 ",MindVLA 都能理解并執行這些指令。
二來,基于強大的通識能力,MindVLA 能更好地識别周圍環境。
比如 MindVLA 能認識星巴克、肯德基等不同的商店招牌,當你在陌生地點找不到車輛時,可以拍一張附近環境的照片發送給車輛,擁有 MindVLA 賦能的車輛能夠搜尋照片中的位置,并自動找到你。
第三,基于空間理解和邏輯推理能力,搭載了 MindVLA 的車輛," 找得到 " 的能力也提升了。
搭載 MindVLA 的車型可以自主地在地庫、園區和公共道路上漫遊。典型的場景是 " 找車位 "。比如用戶在商場地庫找不到車位時,用戶只需要對着車輛說 " 去找個車位停好 ",車輛無需依賴地圖或導航信息,并實現自主尋找合适的車位停下。
總結來看,在有了 MindVLA 賦能後,每一輛車其實都不再是單純的駕駛工具了,而是真正成了能與用戶溝通、理解用戶意圖的智能體。
MindVLA 賦能的車輛,
為何能成為 " 專職司機 "?
MindVLA 能成為一名聽得懂、看得見、找得到的專職司機,強大的功能背後在于 MindVLA 六大關鍵技術賦能。
MindVLA 打破了自動駕駛技術框架設計的傳統模式,使用了能夠承載豐富語義,且具備出色多粒度、多尺度 3D 幾何表達能力的 3D 高斯這一中間表征,能幫系統更高效地感知、理解周圍環境,同時充分利用海量數據進行自監督訓練,進而極大提升了下遊任務性能。
理想從 0 開始設計和訓練了适合 MindVLA 的 LLM 基座模型,采用 MoE 混合專家架構,引入 Sparse Attention(稀疏注意力),實現模型稀疏化,保證模型規模增長的同時,不降低端側的推理效率。
基座模型訓練過程中,理想加入大量 3D 數據,使模型具備 3D 空間理解和推理能力。為了進一步激發模型的空間智能,理想加入了未來幀的預測生成和稠密深度的預測等訓練任務。
LLM 基座模型獲得 3D 空間智能的同時,還需要進一步提升邏輯推理能力。理想訓練 LLM 基座模型學習人類的思考過程,讓快慢思考有機結合到同一模型中,并可以實現自主切換快思考和慢思考。
為了把 NVIDIA Drive AGX 的性能發揮到極致,MindVLA 采取小詞表結合投機推理,以及創新性地應用并行解碼技術,進一步提升了實時推理的速度。至此,MindVLA 實現了模型參數規模與實時推理性能之間的平衡。
MindVLA 利用 Diffusion 将 Action Token 解碼成優化的軌迹,并通過自車行為生成和他車軌迹預測的聯合建模,提升在復雜交通環境中的博弈能力。同時 Diffusion 可以根據外部條件,例如風格指令,動态調整生成結果。為了解決 Diffusion 模型效率低的問題,MindVLA 采用 Ordinary Differential Equation(常微分方程)采樣器,實現了 2-3 步就能完成高質量軌迹的生成。
面對部分長尾場景,理想建立起人類偏好數據集,并且創新性地應用 RLHF(基于人類反饋的強化學習)微調模型的采樣過程,最終使 MindVLA 能夠學習和對齊人類駕駛行為,顯著提升安全下限。
與此同時,基于理想自研的重建 + 生成雲端統一世界模型,MindVLA 深度融合了模型的三維場景還原能力與生成模型的新視角補全,以及未見視角的預測能力,構建了接近真實的仿真環境。
源于理想在世界模型上的技術積累與充足計算資源的支撐,MindVLA 也實現了基于仿真環境的大規模強化學習,即真正意義上的從 " 錯誤中學習 "。
我們了解到,過去一年裡,理想自動駕駛團隊完成了世界模型大量的工程優化,顯著提升了場景重建與生成的質量和效率,其中一項工作,是将 3D GS 的訓練速度提升了 7 倍以上。
理想通過創新性的預訓練和後訓練方法,讓 MindVLA 的泛化能力和湧現特性,都更明顯了。其不僅在駕駛場景下表現優異,在室内環境也展示出了一定的适應性和延展性。
自動駕駛,将被 MindVLA 重新定義?
從 OpenAI 到 DeepSeek,大模型推理能力不斷更新與進化下,VLA 将成為車企探索智駕能力上限的新出口。
" 端到端 +VLM 可以解決 L3,比如實現 500 公裡到 1000 公裡一次接管,讓你在車上相對輕松。但僅靠端到端實現不了 L4。" 李想如此說道。
他還提到,自動駕駛實現 L4,必須使用 VLA。
李想的這一判斷,正加速成為車企共識—— 2025 年以來,VLA 所呈現出來的強大感知、思考和适應環境的能力,正重新定義自動駕駛,也将成為車企競逐自動駕駛的新錨點。
"VLA 模型極有可能在未來兩年内改寫智能駕駛市場的競争格局。" 最近,中國自動駕駛產業創新聯盟調研員高超如此表示。
他提到,預計 2025 年 VLA 模型的量產落地,将推動城區 NOA 滲透率提升。
高盛發布的一則自動駕駛報告也提到,到 2030 年,VLA 模型主導的端到端方案,或将占據 L4 級自動駕駛市場 60% 的份額。
連線 Insight 也注意到,理想汽車之外,元戎啟行、小鵬、華為等玩家已經在加速布局。市場上也有聲音認為,2025 年将是 "VLA 上車元年 "。
基于上述背景讨論 MindVLA,其不僅是理想在通向 L4 級别自動駕駛路上的一次率先搶跑,也是 AI 推動自動駕駛能力持續上探的一個範本。
從最核心的用戶體驗來看,MindVLA 加持之下,傳統的駕乘關系,正加速迎來新一輪變革。過往的智駕體驗中,主駕必須監管、監督車輛行為,但當加持了 MindVLA 的車能夠真正 " 看得見 "" 聽得懂 "" 找得到 ",疊加車本身的智駕能力不斷上探,這帶來的是人與車更絲滑的互動體驗、更舒适的駕乘生活,乃至更便捷的出行方式。
圖源理想汽車官網
某種程度上,這與早些年智能手機領網域的 "iPhone 4 時刻 " 有一定相似之處——同樣是最大限度變革了人與 " 機器 " 的互動方式和互動體驗。
由此,如果說 "iPhone 4" 的推出重新定義了手機行業,那如今 MindVLA 的推出,以及後續陸續上車,實際上已經在 " 重新定義自動駕駛 "。
從更長遠視角來看,MindVLA 所呈現出來的對物理世界和數字世界結合範式的探索,也有望賦予更多行業協同發展。
( 本文頭圖來源于理想汽車官網。)