今天小編分享的科技經驗:特斯拉,又被調查,這次是FSD,歡迎閱讀。
美國汽車安全監管機構又對特斯拉展開了調查,這次是針對 FSD。
當地時間 10 月 19 日,美國國家公路交通安全管理局(NHTSA)公開的檔案顯示,該機構已經正式對特斯拉 FSD(Full-Self Driving,完全自動駕駛)啟動調查。
NHTSA 表示,在接到四起事故報告(包括 2023 年的一起致命事故)後,他們決定展開調查。" 這些事故發生時,道路能見度都較低(如陽光刺眼、起霧或空中揚塵),且 FSD 系統都處于運行模式。"
因此,NHTSA 缺陷調查辦公室(ODI)将評估 FSD 的工程控制檢測和适當應對道路能見度降低情況的能力。此次調查涉及約 241 萬輛汽車,包括 2016-2024 年款 Model X、Model S;2017-2024 年款 Model 3;2020-2024 年款 Model Y 等。
NHTSA 正式對特斯拉 FSD 啟動調查
在這次調查之前,NHTSA 已經與特斯拉的駕駛輔助系統 Autopilot" 糾纏 " 了多年。今年 4 月,在對特斯拉進行了長達三年的調查後,NHTSA 剛剛宣布,特斯拉 Autopilot 存在關鍵安全缺口,并進行新一輪的調查。
在特斯拉想要推廣 " 自動駕駛 " 的路上,NHTSA 始終 " 伴 " 其左右。
FSD 是特斯拉完全自動駕駛系統的簡稱,于 2020 年推出,目前處于測試版階段,部分用戶可以參與特斯拉的 "FSD Beta 計劃 ",該計劃允許有限的用戶在實際駕駛中使用 FSD 功能,但駕駛員需要始終保持對車輛的控制和注意力。
根據特斯拉的描述,該系統通過車載攝像頭、傳感器陣列等設備實現對周圍環境的實時解析、道路與障礙物的精準識别,以及路徑規劃和行駛決策。最終目标是實現車輛在沒有人為幹預的情況下,自主識别路況、規劃路線、控制速度和方向,完成從起點到終點的行駛。
馬斯克乘坐 Cybercab 入場
而就在不久前的 10 月 11 日,在特斯拉 "WE,ROBOT" 發布會上,特斯拉創始人馬斯克剛剛表示,Model 3 以及 Model Y 的無人駕駛技術會大幅提升,将實現無人駕駛的完全自動駕駛技術,預計在明年,所有新車型将在加利福尼亞州和德克薩斯州上路,并配備無人監督的全自動駕駛軟體。
馬斯克對 FSD 的自動駕駛水平表現出了高度自信,并表示 FSD 的安全水平可以超過人類駕駛十倍左右。
但顯然,NHTSA 對其并不認可,至少目前還不認可。
NHTSA 的缺陷調查辦公室發現了四起交通事故報告,這些案例都是特斯拉車輛在啟用 FSD 功能後發生的事故。事故中,特斯拉汽車在道路能見度降低的情況下未能有效應對環境,導致了碰撞事故的發生。
其中一起事故甚至造成了人員死亡。2023 年 11 月,一名行人在美國亞利桑那州被一輛 2021 款特斯拉 Model Y 撞死。
這不是唯一的一起涉及 FSD 技術的致死事故。今年 4 月,在美國西雅圖地區,一輛特斯拉 Model S 汽車在 FSD 模式下撞死了一名 28 歲的摩托車手。
據悉,ODI 已經對特斯拉 FSD 進行了初步評估,并将評估該技術在道路能見度降低的情況下進行檢測和适當響應的能力。
今年以來,特斯拉在全球銷量表現疲軟,馬斯克正試圖通過自動駕駛技術和 Robotaxi 來獲得市場進一步認可,如果一旦被認為 FSD 存在風險,無論是對其技術的推進,還是市場價值都會有比較大的負面影響。
這不是 NHTSA 第一次對特斯拉智能駕駛進行調查。
正如開頭所言,NHTSA 曾對特斯拉 Autopilot 進行過調查。
特斯拉 Autopilot 是 L2 級别自動駕駛,在車輛智駕時需要駕駛員 " 始終監控交通環境 ",并随時準備接管控制權。由于產品的名字裡有自動(Auto)一詞,使得不少特斯拉駕駛員認為這車能 " 自動 " 開。
2021 年 8 月中旬,NHTSA 對外表示,已經對特斯拉的自動輔助駕駛系統啟動正式調查。調查涉及大約 76.5 萬輛特斯拉 Model Y、Model X、Model S、Model 3 車輛。NHTSA 稱,這一問題此前已引發 11 起事故或火災,導致 17 人受傷和 1 人死亡。
2021 年 8 月一輛特斯拉 Model 3 在奧蘭多撞上佛羅裡達州公路巡邏車
同年,8 月底,随着美國佛羅裡達州奧蘭多市 " 第 12 起事故 " 的發生,NHTSA 又給特斯拉發送了一封長達 11 頁的信件,要求其給出所有車輛信息,并具體闡述自動駕駛模式下車輛如何應對緊急事故。
據 NHTSA 稱,在這 11 起事故中,特斯拉汽車均啟用了自動駕駛儀或交通感知巡航控制系統。大多數事件發生在天黑後,涉及急救人員燈光、照明彈、發光箭頭板或路錐。
它希望弄清楚,Autopilot 缺陷或設計問題是否與一系列撞車事故有關,甚至是直接原因。
然而當時特斯拉并沒有給出相應回應,反而于 2021 年 9 月通過無線軟體更新方式向客戶推送了 " 應急燈檢測更新 "。
緊接着,當年 10 月中旬,NHTSA 在官網又發布 " 致特斯拉的一封信 ",要求其就上述采取的行動提供更多信息。
有意思的是,信件發布後不久,特斯拉沒有回應置評請求,反而在 Twitter 上發文表示:" 安全将通過無線更新繼續提高。"
與此同時,圍繞 11 起事故展開的 PE21020 更新成了正式的 EA22002 号工程分析(engineering analysis)。
NHTS 認為," 關鍵安全缺口 " 造成 467 起事故
雙方的 " 拉鋸戰 " 一直持續到今年 4 月底,算是階段性的結束。NHTSA 宣布,調查結果顯示,在涉及的 956 起事故中," 關鍵安全缺口 " 造成了 467 起事故。
其中,在 211 起事故中,特斯拉車輛在有足夠反應時間的情況下,正面撞上其他車輛或障礙物;另外還有 256 起事故與駕駛員誤操作 Autosteer(自動轉向)系統,或該系統在雨天等低摩擦力環境下被錯誤激活有關。
與車企強調 " 沒有輔助駕駛馬路上也會有大量致死事故 " 不同,NHTSA 的視角則是這些系統的設計,是否會造成駕駛員 " 過分自信 ",從而導致一系列本可以避免的事故。
在 NHTSA 看來,目前自動駕駛系統的發展水平,并不值得人類完全的信任,而特斯拉的設計可能導致 " 可預見的錯誤使用和可避免的碰撞 "。
盡管此次探查結束,但 NHTSA 透露,它正在啟動一項新調查,以評估特斯拉去年 12 月對超過 200 萬輛汽車實施的召回修復,是否确實足以解決圍繞其 Autopilot 駕駛員輔助系統的安全問題。
實際上,去年 10 月,特斯拉也曾表示,美國司法部發出了與其 FSD 和 Autopilot 系統相關的傳票。
無論是特斯拉的 Autopilot,還是 FSD,采用的都是純視覺方案,有業内人士認為,純視覺在光照條件不好的時候,比如逆光、黑夜、大霧或者是攝像頭遭到遮擋,會出現感知能力下降的問題,導致事故的發生。
今年 7 月底,《華爾街 · 日報》也曾發布一段針對特斯拉 Autopilot 事故的深度調查視頻,通過對這些視頻的逐幀解讀以及向專家咨詢,認為特斯拉的自動駕駛系統導致的碰撞和特斯拉的純視覺方案有關。
視頻中特斯拉與側翻卡車發生事故
《華爾街 · 日報》指出,在一些情況下,特斯拉的 Autopilot 系統在面對障礙物時表現不佳,并暗示該系統在啟用時,車輛可能會偏離道路。" 這些事故中,不少案例顯示特斯拉車輛在使用 Autopilot 時撞上了已經亮起警示燈的緊急車輛 "。
它認為,這些事故中的細節似乎被隐藏了起來,特斯拉和 NHTSA 都未公開一些關鍵信息,包括 " 事故描述 " 以及事件發生的具體日期等細節。原因是特斯拉認為,這些數據是專有的,因此大部分數據對公眾隐藏。
報道采訪了 2022 年因發布特斯拉 Autopilot 功能失效視頻而被特斯拉解雇的約翰 · 貝納爾,後者發現一些特斯拉車型上使用的攝像頭沒有正确校準,導致不同的攝像頭識别到的東西不一樣。而當不同攝像頭識别到的東西不一樣時,Autopilot 就可能在識别障礙物上出現問題。
《華爾街 · 日報》從一名匿名黑客那裡獲得了一組罕見的特斯拉因使用 Autopilot 功能導致撞車事故原始數據,而數據驗證了約翰 · 貝納爾的說法。
《華爾街 · 日報》從匿名黑客處獲得事故原始數據
當一輛被撞壞的車出現在路上時,特斯拉 Autopilot 系統中的其中一個攝像頭識别到了它,但另一個攝像頭沒有識别。然後,随着障礙物越來越近,特斯拉 Autopilot 系統沒有做出動作,全速撞了上去。
今年以來,伴随着體驗的更新,特斯拉 FSD 在北美已經開始廣泛推送,甚至傳出即将落地中國。
盡管最新消息顯示,據《中國日報》報道,中國政府支持其在遵循現有法律法規的前提下,先行先試部分 FSD 功能,但 FSD 入華尚未得到監管部門批準,相關評估工作還在進行中。
但顯然,特斯拉 FSD 入華是遲早的事情。在新技術落地上車,涉及人身安全的時刻,有 NHTSA 對特斯拉不斷敲打,也不失為一件幸事。
本文來自微信公眾号 " 賽博汽車 ",作者:章漣漪,編輯:邱锴俊,36 氪經授權發布。