今天小編分享的汽車經驗:說話就能控制左右快慢!理想汽車MindVLA大模型實測視頻發布,歡迎閱讀。
快科技 3 月 21 日消息,今天下午,理想汽車詳細介紹了 MindVLA 大模型與現有端到端 +VLM 大模型的區别,并公布了相關實測視頻。
按能力表現來看,MindVLA 模型加持下的汽車就像一個助手,能與用戶溝通、理解用戶意圖,幫用戶做更多事情。
比如,它可以在陌生車庫漫遊找車位直至自主完成泊車;
可以按照駕駛員的 " 開快點、開慢點、左拐、右拐 " 等語音指令進行行動;
可以在你發給它地标照片後,按圖索骥找到你等等。
理想汽車還表示,MindVLA 是理想汽車下一代自動駕駛核心架構,使用了 MindGPT 作為語言基座,demo 中的語音通過座艙的 ASR 後變成文字,輸入給 MindVLA。
這一設計繼承自 MindGPT 在語言理解與互動領網域的優勢能力(如語義解析、邏輯推理等),并針對自動駕駛場景進行了專項優化。
這體現了智艙與智駕在功能層的協同創新,而非系統層的完全融合。
未來,我們将持續探索多模态互動與駕駛決策的深度耦合,為用戶提供更自然的 " 人車共駕 " 體驗。