今天小編分享的科技經驗:20+ 車企接入 DeepSeek,為啥沒有「蔚小理華米特」?,歡迎閱讀。
DeepSeek 成為了蛇年開年最火的事物,連家裡的爸媽甚至爺爺奶奶,都在過年的飯桌上叫我給他們講講 AI 是怎麼回事。
由于同時具備強大的推理能力及開源模型兩個特質,導致幾乎所有科技公司都在研究怎樣和 DeepSeek「深度融合」一下。華為、騰訊、百度、字節等互聯網巨頭,盡管都有各自自研的模型,但不妨礙紛紛第一時間在自己的雲伺服器裡接入 DeepSeek,一群因為「伺服器繁忙,請稍後再試」的用戶得以曲線救國,雲服務商得以也接住了潑天流量。
芯片、金融、電信等行業的頭部玩家也因為相似的邏輯接入了模型。畢竟大家都希望體驗一下 R1 模型的最強大腦。不管在業務層面起到了多大的幫助,大部分公司的股價至少都漲了。
不過有一個行業稍顯例外,那就是汽車行業的主機廠們。
截止 2 月 13 日,已經有包括比亞迪、吉利、東風、長城、極氪、智己等超過 20 家車企宣布完成和 DeepSeek 的深度融合。不過,新勢力裡的蔚小理華米,以及特斯拉均沒有宣布和 DeepSeek 的相關融合信息。
大模型上車,現階段最大的問題,是還沒有展示出足夠好的場景。相反,在一些主機廠的微博評論區裡,車主更在意一些已有的功能能否及時通過 OTA 得到優化。
可以看出,技術并不是用戶最在意的點,用戶真正在意的是產品體驗。如何用更好的模型獲得更智能化的體驗,才是用戶真正在意的。相反,如果現階段不能達到更智能的體驗,那麼用戶更在意的是這車好不好開,内飾舒不舒服,還有便宜不便宜。
用戶想得到的是一輛「更智能的車」,但并不代表他們要在車上用車機寫出一篇高考滿分作文。
車企排隊接入 DeepSeek?「如來」
在目前各主機廠釋出的有限信息裡,DeepSeek 上車後,智能座艙中的人機互動,有望成為第一個深度融合的典型場景。
智己、吉利發布的兩條視頻裡,展示了 3 個和智能座艙有關的使用場景,分别是:
場景 1:
激活座艙模型,調用 DeepSeek 進行文本生成,如案例演示中「生成一篇文章慶祝亞冬會金牌誕生」。
智能座艙通過 DeepSeek 進行文本生成 | 圖片來源:視頻截圖
在這個場景中,座艙通過接入 DeepSeek 的 API,把 DeepSeek「好文筆」搬上了車。和絕大多數人習慣在手機、電腦端操作略有不同的點在于添加了語音作為新的互動方式。
場景 2:
提問在某段裡程中遇到的一個湖叫什麼名字。DeepSeek 通過調用車輛行程記錄、地圖等信息,推理給出了相應答案。
通過 DeepSeek 推理回答車主問題 | 圖片來源:視頻截圖
在這個場景中,通過接入 DeepSeek,把車機内儲存的端側信息(行程記錄、地圖)作為推理語料提供給了模型,由此可以得到更個人向的推理問答。
場景 3:
直接對車機表達「我累了,一會叫我」的模糊指令,車機識别後分别調整了車窗、座椅、空調、氛圍燈、鬧鍾的硬體或功能,生成了一個休閒場景。
通過 DeepSeek 實現模糊語義識别及相關車控操作 | 圖片來源:視頻截圖
和手機裡的 DeepSeek 應用不同,接入車機後,最顯著的不同在于模型可以調用車端信息作為推理語料,為車主提供更個性化的服務。
不過,這些推理要消耗多少運算資源、需要怎樣的硬體支撐、以及是否需要聯網服務,目前主機廠還沒有釋出太明确的信息。
更聰明的智能語音,未必是真 PMF
DeepSeek 有希望讓車内的智能語音變得更聰明,更能理解用戶的各種模糊指令。不過,這真的此刻主機廠和用戶最緊迫的真實需求嗎?
從企業端來說,目前積極接入 DeepSeek 主要分為三類,分别是:芯片、雲服務和終端硬體廠商(手機 + 智能汽車)。
對于芯片廠商而言,由于 DeepSeek 是基于英偉達芯片進行推理的,而不同芯片間架構不同,所以其他廠商必須進行軟體和算法層面的适配,才能兼容 DeepSeek 的模型訓練和推理。換句話說,芯片商參與到這輪 DeepSeek 熱裡,是出于用戶最真實且緊迫的需求,這是保住和擴大市場必須要做的一個關鍵動作。
雲服務商的積極接入,也有類似的邏輯。對于 C 端用戶而言,在頻繁遭遇「伺服器繁忙,請稍後再試」的提示時,雲服務商的出現提供了新的入口,接住了這次潑天的流量,讓人多普通消費者認識了自己;對于 B 端用戶如開發者和企業用戶而言,在雲上部署 DeepSeek,可以降低企業使用模型的門檻,提供更好的開發體驗。
因此,在這輪 DeepSeek 熱潮裡,包括華為雲、騰訊雲、阿裡雲、百度雲、火山引擎等主力玩家,都先後對 DeepSeek 進行了雲端部署——哪怕這些雲廠商背後的科技公司都有自己獨立研發的模型,但用戶要用 DeepSeek,他們就要接入這個開源模型。
「不堪重負」的 DeepSeek 伺服器 | 來源:網絡截圖
但到了硬體領網域,對終端廠商和用戶來說,此刻在產品完成對端側 DeepSeek 的部署,既有難度,也不是優先級最高的需求。
首先,目前的端側計算資源并不支持「滿血版」DeepSeek 的本地化部署。不同于雲端伺服器,如果要在個人設備上部署 671B 參數模型的 R1 模型,需要将近 1300G 的顯存,遠超 PC、手機、汽車的端側計算資源。如果退而求其次,用 7B 或 10B 的蒸餾模型,其推理能力又和滿血版有顯著差别。
所以,如果把 DeepSeek 模型接入車機,但實質只是多了一個語音入口,對用戶來說,為什麼非要在車上使用 DeepSeek 而不是打開手機或電腦上的應用呢?
對于智能汽車用戶而言,相比車機是否可以解答一道數學題或者寫出一篇好作文,顯然更在意它是否能發揮好「助理」的角色。這才是真正的需求。例如,手機微信裡接收到的地圖甚至大眾點評的餐廳位置信息,是否可以一鍵流轉到車機導航,并顯示在 HUD 導航裡。這是減少車機端操作,提升體驗的一個具體場景。
而要執行這類任務,需要的核心能力并不在于 DeepSeek 所擅長的「推理」,而是打通不同設備間接口的工程能力。目前,包括鴻蒙智行、小米、蔚來等擁有多端設備的企業實際已經具備了類似功能。這大概也是為什麼華為雲宣布和 DeepSeek 融合,但鴻蒙智行旗下車企卻暫時沒有相關發聲的原因。
其實,無論是手機還是汽車用戶,大家真正期待的是将 AI 的「大腦」和硬體的「身體」結合起來後的智能化體驗,也就是 OpenAI 定義的人工智能階段裡,從 L2(推理者)到 L3(Agent)的提升。但在產品層面,這并不單單取決于某個模型的能力,還和硬體層面的產品定義、接口、功能開發都息息相關。
除了座艙,DeepSeek 還能為車企做點啥?
在產品層面之外,在近年角逐越來越激烈的智能駕駛層面,DeepSeek 能為車圈提供什麼幫助嗎?
要回答這個問題,首先我們得知道目前智能駕駛開發層面最大的問題是什麼?
一句話概括,就是:目前智駕系統還搞不定復雜的城區路況,接管次數頻繁,使用體驗不佳。
接管次數多的原因除了一些難以預測的安全情況,如行人橫穿、車輛加塞、電瓶車逆行等,還包括系統對一些特殊交通規則的識别和判斷,比較典型的場景包括:一線城市的潮汐車道、公交車道;不同城市左轉、掉頭車道設計思路不同(有些在最左側,有些在最右側);以及臨時施工或管制時的各種電子看板信息。
這些燒腦的交通變化,别說是智駕系統了,就算是人類司機,當第一次遇上這些情況,也得打起 100% 的專注度才不會走錯道。
理想汽車的 CEO 李想去年年中有個著名的演講,把人類駕駛者的大腦分為系統 1 和系統 2,系統 1 負責以低能耗的方式處理直覺類工作,而系統 2 則負責在復雜情況中進行推理,處理各種 Corner Case。
而以推理見長的語言模型 DeepSeek-R1,從原理來說是有望提升「系統 2」的能力的。例如,更精準識别和理解不同交通标識(公交車道、潮汐車道),從而做出更好的駕駛判斷。并且,DeepSeek-R1 提高了模型的訓練效率和推理能力,也有望優化車端的推理速度,在算力有限的端側也達到更好的智駕能力。
智駕開發的另一個難度,體現在數據采集側。不同于語言大模型可以直接利用海量的數字文本資源進行訓練,智駕往往需要先在真實物理世界中采集數據,才能進行訓練。
由于引入了 MoE(混合專家架構)、MLA(多頭潛在注意力機制)等技術,DeepSeek 本身降低了對數據标注的需求,因此可以幫助智駕企業進行數據挖掘和生成,降低數采和标注的成本。
而在另一個層面,DeepSeek 的多模态模型(非 R1)可以模拟生成一些難以采集的場景數據,如極端路線、罕見交通标識等。而通過仿真數據進行智能駕駛的訓練或驗證,也是包括華為、蔚來等多家車企進行智駕模型訓練的重要工作之一。
以上這些工作,雖然不像雲服務商接入 DeepSeek,可以直接解決用戶訪問主站時轉圈圈的燃眉之急,但對車企而言同樣重要。畢竟比亞迪已經喊出了「全民智駕」的口号,智駕毫無疑問将成為 2025 年競争的重點。在同價位段車型裡提供更好的智能化功能,将成為消費者選擇決策中新的重要考量因素。
當然,正如前文所言,一輛智能汽車各項功能的發揮,不僅只仰仗于某些單一技術的突破,車端其他硬體層面的優化(如更大算力的智駕芯片)以及模型側其他能力的優化,将共同決定我們何時達到 L3 級别的智駕智艙能力。
DeepSeek 在智能化浪潮裡,給了所有創新者一個小成本高性能的樣本,但不是一套可以照抄的答案,未來的汽車產品應該走向何方,還需要真正懂產品懂 AI 的人來「深度求索」。