今天小編分享的汽車經驗:智能體驗“豹變”,起底新十年格局因果,歡迎閲讀。
以下文章來源于青銅科技 ,作者殷楠
本文字數:9165字
閲讀時間:50分鍾
"
Part 4高滲透率+更新趨勢明顯,智艙短期拼體驗,長期拼生态
編輯|殷 楠
智能化為2024年汽車板塊投資的一條重要主線,基于整車E/E架構、AI大模型、高階智能駕駛、智能座艙的加速落地,"軟體定義汽車"邏輯下的爆款產品和商業模式呼之欲出,将為用户帶來與傳統汽車截然不同的體驗,同時也為車企帶來新的利潤來源。
首先關注發展時間更長,用户感知度更高的智能座艙。當前汽車座艙智能化加速落地,汽車由出行工具向"第三生活空間"進化,同時也從"賣硬體集成"的"一次性交付"向"賣軟體服務和數據流量"的"多次、持續性收費"模式轉變,最終實現收益的長尾效應。智能座艙作為收集用户數據、流量變現、OTA收費、打造差異化體驗的重要端口,成為整車廠和Tier 1的必争之地。
當前,智能座艙呈現出高滲透率+快速更新的趨勢。根據HIS統計,2019年全球和中國新車智能座艙配置率分别為38.4%和35.3%,到2025年配置率将會提高到59.4%和75.9%,中國新車智能座艙配置率增速高于全球平均水平。
智能座艙繼續向低價位車型滲透,預計未來智能座艙将持續成為10~30萬元主力消費價格帶的核心賣點之一,滲透率有望持續提升,推動市場規模保持高速增長。據畢馬威預測,中國智能座艙市場規模将從2022年的1127億元上升至2026年的2127億元,年復合增長率達17%。
智能座艙相關配置不斷更新迭代,視聽、舒适性、人機互動、計算平台和車聯網等方面均有顯著提升和優化。
水滴汽車認為,接下來車企和Tier1的主要内卷方向主要包括:
1. 集中式架構,艙泊、艙駕融合
智能車時代,電子電氣架構向功能更集中、算力更高、OTA 更新更快的網域内集中式乃至中央集中式架構更新,是實現汽車常用常新,千人千面的前提。最終的理想狀态是形成一個汽車中央大腦(one brain),統一管理各種功能。
如今,電子電氣架構建設已被車企視為新時期的技術高地和核心競争力。目前,國内主流車企的電子電氣架構已經完全從分布控制,進入網域集中控制。造車新勢力普遍直接采用功能網域控到網域融合的過渡方案。
比較而言,新勢力車企在汽車電子電氣架構研發和配裝的步子上邁得比較大,傳統主機廠則相對保守,雖然大家都将自家架構稱為中央計算單元加區網域控制器架構,但新勢力普遍采用的是一個中央計算單元來融合智能駕駛和智能座艙的功能,而傳統主機廠基本是都是中央計算群組形态,區抽成智駕、座艙和車控等多個計算單元。
總體上來看,國内企業的電子電氣架構整體方案與國際頭部車企的方案相當,都處在功能網域控或功能網域控到網域融合的過渡階段。但與國際上領先的架構方案及設計方法相比,還要在架構設計模型庫、汽車電子基礎軟體、網絡架構設計、冗餘技術等方面進行進一步提升。
在跨網域融合進程中,由于泊車方案比較成熟,座艙網域控制器算力也有富餘,将泊車融合進座艙網域控制器具有一定的成本優勢,因此艙泊一體有望在近兩年内集中落地。
預計到2025年,頭部車企将陸續落地中央計算+區網域控制器的電子電氣架構,屆時有望實現艙駕融合/艙駕一體,同時軟體所有權将逐步收歸主機廠。
2. 高算力芯片,自研座艙芯片
伴随着座艙集成的設備和功能越來越多,它所需要的硬體資源及算力需求也越來越高,高算力和高性能的SoC芯片已成為智能座艙的剛需與核心部件。
目前,智能座艙SoC芯片市場份額主要集中在幾家海外的芯片企業手中,包括高通、瑞薩、英特爾、恩智浦、TI等。從全球範圍來看,在2022年,高通座艙SoC芯片的市占率最高,占比為43.4%;瑞薩電子排在第二位,占比為19.7%;英特爾排在第三位,占比為18.16%。前三家占比超過80%的市場份額,智能座艙SoC芯片市場高度集中。
2023年,基于高通8155芯片的座艙網域控制器已成主流,2024年,8295芯片也将成為高端旗艦車型的标配。
得益于國内智能座艙的快速普及,本土企業也發力座艙芯片,華為和億咖通占據一定份額,而随着地平線、芯擎、芯馳等國内企業座艙芯片也開始逐漸大規模上車,未來幾年國產座艙芯片的份額有望提升。
分車型價格來看,高通加速滲透中低價位車型,億咖通也在中低價位車型中占據一定份額,但客户主要集中在吉利系車型;英特爾、華為、聯發科等入局中高端車型,對高通的市場地位造成一定壓力。
目前,包括比亞迪、長城、蔚小理在内的多家車企,也都布局了芯片領網域,為的是降低成本,實現更好的軟硬結合,相信很快車企自研座艙芯片就會成為趨勢。
3. AI大模型賦能智能座艙多模态互動
多模态互動是智能座艙關鍵技術,以ChatGPT為代表的AI大模型,憑借強大的學習和泛化能力深度賦能智能座艙實現視覺、聽覺、手勢等多模态行為的快速感知理解和智能控制,重新定義座艙互動體驗的智能化水平。
AI大模型在處理自然語言、視覺、語音、智能推薦等多個領網域具有顯著優勢,通過海量用户真實世界數據積累與訓練,可主動識别駕駛員和乘客的語音,表情,手勢姿态等多模态行為和需求,在應用層實現更敏捷的智能會話管理和AI互動界面。
2024年多模态大模型智能座艙将席卷汽車行業,引領傳統指令式語音助手向主動陪伴式智能管家演進,百餘款新車型将搭載大模型智能座艙量產上市。2023年百度、華為、騰訊、科大訊飛、商湯科技等科技公司陸續發布大語言模型,整車企業通過自研或合作積極加快部署AI大模型在智能座艙上車應用。預計2024年,問界、極越、理想、蔚來、長安、長城、奇瑞等眾多車企争相打造多模态大模型智能座艙,百餘款搭載多模态大模型智能座艙的新車型将實現快速普及應用。
4. 自研車機系統背後的"平台+生态"
如今自研車機系統已是汽車行業的常态,并且自研深度已經從應用型發展至ROM型乃至深度定制型,幾乎所有車機都宣布開放平台,歡迎更多夥伴加入。
各家之所以投入重金深度自研座艙系統,不只希望軟體适配性更強,用户使用體驗更流暢,更在于相比傳統座艙,智能座艙產業生态覆蓋範圍廣、延展性強,很多領網域的技術應用能快速遷移到智能座艙,如各類消費電子平台、可穿戴設備、生命體征檢測等。因此它更強調内容和服務,這極為依賴"平台+生态"的構建。
類比智能手機行業,蘋果和安卓機如今鼎足而立,實際就是兩大系統及其背後龐大的生态圈,跑赢了塞班、黑莓等對手。
随着座艙從孤立的出行載具空間,轉變為連接萬物的智能移動空間,它将撬動成千億級甚至萬億級市場,直接帶動消費電子、汽車電子、芯片產業、生态服務等大量相關產業發展。
在2023年的中國汽車產業發展高峰論壇上,中國汽車工程學會常務副理事長兼秘書長張進華指出:"未來產業競争的核心将是平台和生态,而不是單一技術或產品。"甚至有觀點認為,終端生态網聯化将是智能化的下半場。
目前,智能汽車生态圈的構建主要分為兩類:第一類是由科技公司主導,以它們現有的智能終端和互聯網生态為基礎,通過自研的開發平台和作業系統,最終實現產業鏈整合。
比如華為,堅持"平台+生态"戰略,圍繞汽車數字平台iDVP、智能駕駛計算平台MDC和HarmonyOS智能座艙三大平台,構建生态圈。企業在今年将原來以手機為核心的"1+8+N"生态體系,更新為"車+8+N",汽車成為華為鴻蒙生态化布局的核心。整個生态體系将為華為在汽車智能化時代的比拼中提供持久動力。
又比如小米,雖然涉足生產環節,但其戰略意圖與華為異曲同工。不久前雷軍宣布集團戰略正式更新為"人車家全生态"。這個新戰略以人為中心、将"人車家全生态"有機整合,關鍵内核就是全新的小米澎湃OS作業系統。
另外一類則是以車企為主導,将自主開發的汽車作業系統更新為類似iOS或者安卓那樣的開發者平台,基于自家產品的市場保有量,最終整合產業鏈,構建一套行之有效的生态系統。比如蔚來、比亞迪等都有相應的布局。
總體來看,由于生态概念是從科技圈引入的,科技公司相比車企具有幾大顯著的先發優勢:
首先,科技公司的軟體開發能力和效率遠超傳統車企,它們非常适應"摩爾定律",能夠做到敏捷開發,快速迭代。主機廠則習慣了傳統汽車3~4年的硬體更新周期,雖然現在已有提速,但仍無法跟上智能網聯功能的開發節奏,很容易造成產品管理、生產乃至營銷的堵點。
其次,科技公司已在消費電子領網域構建起了較為成熟的可跨網域的技術底座及海量生态,橋接尚在起步階段的智能車機相當于降維操作,難度和成本都較低。
但車企也有一大優勢是科技公司不具備的——主機廠掌握着車輛的底層數據和接口的控制權,為了保證產品的安全性,也為了保住自己的"靈魂",車企是不可能輕易對外開放這些數據和控制權的。
未來,構建智能汽車生态圈需要雙向奔赴。但"新生态造車"能否跑通,必須要跨過"體量"的門檻,否則成本和體驗是不成正比的。
以上是從技術底座的層面,分析接下來行業在智艙領網域競争的重點。但技術只是基礎,并不能與用户的實際體驗完全劃等号。因此水滴汽車認為,評價智能座艙的标準,必須以用户為核心,以他們的感知為評價維度,而非簡單的比硬體參數和配置表。
水滴汽車結合中國汽車工程學會發布的2023年《汽車智能座艙分級與綜合評價白皮書》,為智能座艙總結出了以下評級體系:
(1)智能座艙的核心是更好的服務駕乘人員,需要具備人機互動、場景拓展、網聯服務三大主要能力。
(2)除傳統功能座艙定義為L0級外,智能座艙可被劃分為4大等級,分别為L1感知智能座艙(任務執行發生在艙内場景;座艙在部分場景下具備主動感知艙内駕乘人員的能力,任務執行需要駕駛員授權;具備面向駕乘人員的艙網域服務能力)、L2部分認知智能座艙(任務可跨艙内外部分場景執行;座艙具備艙内部分場景主動感知駕乘人員的能力,任務可部分主動執行;具備可持續更新的網聯雲服務能力)、L3高階認知智能座艙(任務可跨艙内外部分場景執行;座艙具備艙内全場景主動感知駕乘人員的能力,任務可部分主動執行;具備開放的網聯雲服務能力)、L4全面認知智能座艙(任務可跨艙内外全場景執行,艙内可以無駕駛員;座艙具備艙内全場景主動感知艙内人員的能力,任務可完全主動執行;具備雲控平台服務能力)。
目前行業處于L2級别。
(3)基于水滴汽車對智能座艙發展水平的判斷,目前行業整體智艙水平處于L2部分認知智能座艙階段,在該階段下,任務可跨艙内外部分場景執行,座艙具備艙内部分場景主動感知駕乘人員的能力,任務可部分主動執行并具備可持續更新的網聯雲服務能力。
在該階段下,語音指令仍是智能座艙最重要的互動方式,而決定語音互動能力和影響用户語音互動體驗的主要來自于座艙所支持語音指令的數量、E/E架構不同控制網域對語音指令的開放程度以及語音指令的跨網域執行能力。
除語音控制能力外,系統調用車内硬體的能力則決定着智能座艙體驗的豐富程度,包括不同場景下座艙可提供的功能及營造的氛圍感,也是智能座艙營造"第三空間"能力的關鍵。
此外,随着越來越多互聯網及3C制造企業的加入,智艙軟硬體的生态系統是否強大也将是下一發展階段的勝負手,是否擁有豐富的拓展應用和外接設備将成為智能車機與智能座艙之間的分水嶺。
同時,駕駛員使用智艙的安全性和便利性也至關重要,因此我們會着重測試智艙的可見即可説能力以及全車多音區喚醒的準确性。
此次青銅報告智艙評價體系就将圍繞着上述的幾個維度展開,分别測試智能座艙的語音控制權限、語音控制跨網域能力、可見即可説能力、生态系統及場景的豐富度,從而形成對智能座艙更全面更準确的評價。
以下為青銅報告智艙評價體系具體評測方法和結果:
Part 5自動駕駛邁入最好的時代,但真正實現L3道阻且長
1. 城市NOA集中兑現,自動駕駛迎來行業奇點
自電動汽車進入人們的視線起,自動駕駛就是最具吸引力和想象空間的技術标的之一。但在自動駕駛不算太長的十多年發展史中,行業已經起起落落了很多次。過去幾年中,由于技術陷入瓶頸,量產落地和商業化方面沒有太好的進展,一直處在谷底期。
但2023年起,随着技術出現重大突破,政策法規開始"松口",消費者對于NOA與自動駕駛的接受度逐步提升,自動駕駛行業迎來了最好的時代。
一個最直觀的感受是,造車新勢力和傳統車企都在紛紛加碼自動駕駛領網域,在高速NOA批量下放的同時,城市NOA功能也開始集中兑現,被視為行業質變奇點的L3等級自動駕駛似乎即将被攻破。
其中,新勢力車企前瞻布局技術研發,引領着未來智能駕駛的發展方向。華為智能駕駛軟硬體持續更新迭代,從ADS 1.0到2.0的更新,實現功能端多維度更新。ADS1.0通過融合感知BEV架構實現"看得清",ADS2.0最重大的變化是"有圖無圖都能開",擺脱高精地圖的依賴,通過GOD 2.0與道路拓撲網絡推理實現像真正司機一樣看路識路,問界M5、新問界M7均搭載了HUAWEI ADS2.0高階智能駕駛系統。
小鵬汽車不斷完善其智能駕駛硬體,成為國内首個實現無圖智駕整車落地的廠商。目前,小鵬汽車的XNGP系統在國内智能駕駛技術方面處于領先地位。XNGP是小鵬汽車最新一代智能輔助駕駛系統,它繼承了XPILOT系統的優勢并進行了進一步發展,該系統可以在全國範圍内使用,具備實現全場景智能輔助駕駛的能力。智能架構更新,推出面向全場景智駕的終極架構-XBrain,該系統由深度視覺神經網絡XNet 2.0和基于神經網絡的規控XPlanner等模塊構成。基于全新的XBrain架構,小鵬也提出了新的目标:輕地圖(覆蓋中國、走向全球、哪裏都能用)、全場景(跨越高速/城區、連接小區和内部道路)、輕雷達(拟人感知、極致降本)。
傳統品牌車企逐步加碼智能駕駛,技術水平不斷提升。在頭部車企帶領下,智能化新一輪產業趨勢正在開啓,比亞迪、長安、吉利等頭部車企高度重視智能化,通過引進人才與技術、尋求合作等多種方式,積極提升智能駕駛技術水平。在智能駕駛發展的過程中,部分傳統車企通過孵化智能化品牌布局智能駕駛,同時傳統品牌也在加速實現L2級别智能駕駛從0-1的發展。目前長安汽車旗下的阿維塔,在與華為合作後成為中國唯二兩家實現城市NOA功能的車企品牌。吉利推出子品牌極氪、長城推出魏牌,當前二者的智能駕駛功能與頭部新勢力車企相比也無太大差距。
自動駕駛體驗持續更新,帶動消費者智駕方案接受度迎來拐點。2023年1~9月乘用車NOA标配前裝搭載交付量已經達到37.7萬輛,滲透率接近 2.5%。
2. BEV+Tranformer為主流趨勢,特斯拉仍然"遙遙領先"
市場放量的核心驅動力,永遠是技術創新。近年來國内智能駕駛的發展,整體而言是主機廠逐步減少對供應商的依賴,感知硬體從增配到減配,電子電氣架構逐步集中,算法能力持續增強。
2020年前,關鍵詞為供應商依賴,主要方案為:分布式架構+後融合算法+Mobileye芯片;2021-2022年,關鍵詞為硬體冗餘,主要方案:網域控式ADAS架構+後融合/特征融合+英偉達大算力芯片+激光雷達+高精地圖;2023年後,關鍵詞為無圖化和大模型,主要方案:跨網域式ADAS架構+國内外大算力芯片+ BEV+Transformer大模型。
有關自動駕駛技術底座、芯片、感知硬體等基礎信息,請參照青銅報告之《别被忽悠!讓我們畫一張高階自動駕駛的落地路線圖》,在此我們只介紹分析最新技術進展。
首先,我們需要弄清,BEV/Transformer 分别是什麼?BEV全稱是Bird’s Eye View(鳥瞰視角),是将三維環境信息投影到二維平面的一種方法,以俯視視角來展示環境當中的物體和地形。Transformer大模型本質上是基于自注意力機制的深度學習模型,與傳統神經網絡RNN(遞歸神經網絡)和CNN(卷積神經網絡)不同,Transformer不會按照串行順序來處理數據,而是通過注意力機制,挖掘序列中不同元素的聯系及相關性,使得Transformer可以适應不同長度和不同結構的輸入,從而提高模型在處理序列數據上的能力。
2021年特斯拉将Transformer模型引入智能駕駛并推出BEV鳥瞰圖後,國内主機廠看到通過感知融合技術的更新,減少傳感器和高精地圖依賴在技術上的可能性。同時,乘用車行業競争更加激烈,主機廠降本訴求較大,激光雷達和高精地圖的成本也較高,目前包括比亞迪、蔚小理、智己等車企,以及華為、百度 Apollo、毫末智行、地平線、輕舟智航、覺非科技、商湯科技等自動駕駛企業均已布局 BEV+Transformer。
與傳統2D+CNN小模型相比,BEV+Transformer大模型的優勢主要在于:1)提高感知能力:BEV将激光雷達、雷達和相機等多模态數據融合在同一平面上,可以提供全局視角并消除數據之間的遮擋和重疊問題,提高物體檢測和跟蹤的精度;2)提高泛化能力:Transformer模型提取特征函數,通過注意力機制尋找事物本身的内在關系,使智能駕駛學會總結歸納而不是機械式學習,可加速解決長尾問題。
目前BEV+Transformer已成為行業主流,但它也有兩點先天不足:一是BEV空間無法對障礙物的深度和高度進行表達。也就是説,類似高速路牌這樣的物體,是無法被AEB準确識别的。
二是Backbone的預訓練效果,決定了障礙物能否被識别。AEB只能識别"白名單"裏的物體,換其他物體就可能會失效。
于是在BEV+Transformer大模型的基礎上,特斯拉又在2022年提出了占用網絡(Occupancy Network),從純視覺方案出發解決通用障礙物(任意障礙物)檢測。相較于BEV,占用網絡有了Z軸上的擴展,是一種通用的2D特征轉3D特征的轉換,不局限于通用障礙物檢測,應該可以擴展到更多3D空間任務,可以説是一大技術突破。
占用網絡的主要特點為:硬體廉價,技術門檻較高;通用障礙物檢測具備良好的泛化能力等。
目前,特斯拉之後已有一些對标者。其中,華為融合占用網絡提出了GOD網絡,智己、小鵬、蔚來等也表示将采用占用網絡。
然而就在今年8月,特斯拉FSD最新版本Beta V12又采取了新的技術路線:從原本代碼形式的軟體轉到了神經網絡形式的端到端大模型。FSD不再根據感知層的結果手動編寫規劃和決策層的代碼,而是開始依靠類似人類的經驗和直覺開車。
換言之,此前業界将大模型作為工具,輔助自動駕駛算法的訓練,優化過程;現在,特斯拉将大模型作為決策模型,直接駕駛車輛,改變結果。
其最終的結果是,FSD Beta V12軟體将代碼行數從之前的30萬行縮減到了3000行,車端SoC變成了一個端到端大模型的容器。
目前國内還未能做到真正的端到端,比如毫末DriveGPT仍然分為感知大模型和認知大模型兩部分。
事實上,無論Transformer大模型、占用網絡還是端對端大模型,都不是特斯拉的發明,Transformer出自谷歌,但由于其極其吃算力,在英偉達的Orin X面世之前,只有特斯拉HW3.0芯片能夠支持,特斯拉依靠算力優勢,率先落地了BEV這條技術路線。
占用網絡思想提出于2019年,特斯拉再次在落地上搶了先;端到端大模型也被學術界研究了多年。只不過特斯拉憑借在這個賽道的先發優勢,依靠大規模交付車輛的數據優勢和可自研芯片的算力優勢,将它們率先工程化實現了而且。
清華大學人工智能研究院視覺智能研究中心主任鄧志東教授表示,特斯拉在自動駕駛技術領網域仍處于領軍地位,至少領先行業三年。
3. 大模型加速L3落地,量變到質變須解決多重問題
從技術角度看,大模型的應用就是把整車采集到的數據回傳到雲端,通過雲端部署的大模型,對數據進行相近的訓練,未來将驅動駕駛策略生成逐漸從規則驅動向數據驅動轉變。
大模型有望加快L3及以上自動駕駛落地。主要在于:1)采用大模型預訓練的方式可以實現自動标注,提高數據标注的精度和效率,同時縮減成本;2)對長尾數據進行挖掘,大模型具有較強的泛化性,加速解決長尾問題;3)場景仿真和數據生成,模拟真實道路場景和高危險性場景數據,加速模型優化。
不過,大模型目前仍處于發展初期階段,行業專家指出,雖然在技術先進性上,特斯拉占優,但落地效果國内企業卻不一定會輸。
原因有二,首先,端到端大模型的技術路線需要消耗巨大的數據和算力資源。數據量不僅要多,還要足夠優質。
馬斯克曾透露,V12"訓練100萬個視頻案例,可以勉強工作;200萬個,稍微好一些;300萬個,你就會感到Wow;1000萬個,它将變得難以置信"。也就是説為了訓練這個"删除規則,模仿人類"的端到端大模型,特斯拉已經訓練了1000多萬個視頻案例。
而且這1000萬個視頻片段必須是"老司機"的駕駛行為,因為端到端大模型訓練的本質是模仿,糟糕的駕駛行為會對大模型的訓練效果帶來向下拖拽的破壞。
并且有了足夠優質的數據,還要有足夠的訓練能力。僅靠車端算力是無法支持的,未來的終極方向是雲端計算,車端執行。這就意味着,智算中心也是下一階段競争重點,它承載着訓練自動駕駛系統所需的巨大算力。
有數據顯示,Transformer+BEV的周視環繞感知6V算力要求從20~30TFLOPS提升到200+TFLPS,内存帶寬的要求也要提升十倍。預計到2025年,智算中心算力需求将達到14~43 EFLOPS(1 EFLOPS= 1000PFLOPS=1,000,000 TFLPS)。
行業内一些頭部企業已通過建立智算中心的方式進行大模型的訓練,例如特斯拉的Dojo智算中心,小鵬與阿裏雲的扶搖智算中心,毫末智行與火山引擎聯合建立的雪湖綠洲智算中心等。
其次,BEV+占用網絡已經可以實現很好的用户體驗了。就實際的用户體驗來看,華為等國内企業已經走在了特斯拉的前面。
在新款問界M7的發布會上,餘承東宣布,與4月的ADS2.0版本相比,華為目前的ADS2.0已經可以做到城區内200公裏只需接管一次。在2024款小鵬G9的發布會上,何小鵬給出的城區平均接管裏程為150公裏。而特斯拉FSD在郊區不足一百公裏就要接管一次。
由此可見,技術到實際落地之間,有不小的距離。短期看,提升駕駛安全和降本,才是業内企業的當務之急。
我們預計在"重感知,輕地圖"的路線下,伴随着算法的迭代和成熟,高階自動智能駕駛的硬體成本有望降低50%。
與此同時,從L2級到L3級看似只有一級之差,但安全責任主體卻從人類駕駛員變成了車輛,以目前的數據量和計算能力,企業是否真的有能力實現這種質變為未可知。消費者目前對于高階自動駕駛的認知也還存在誤區,有人認為有了NOA就意味着可以大撒把,這顯然會造成巨大的安全隐患。
因此,捅破L2到L3之間的窗户紙,不僅沒有我們想象中容易,也不應該被當作輕而易舉的事。
(更多評測信息詳見水滴汽車視頻号)