今天小編分享的财經經驗:無人駕駛由誰負責,歡迎閱讀。
劉誠 / 文 近期,北京、武漢等地的無人駕駛網約車、無人駕駛配送車、無人駕駛遊船、無人機等產業加速跑,在全國甚至全球赢得先發優勢。但其引發的社會治理問題,尤其是責任歸屬問題,仍是未解之謎。
不能因為社會規則的缺失而限制產業的創新發展,但也不能任由相關技術在 " 無政府狀态 " 下肆意而為,故需社會各界加強理論思辨和現實讨論,以期在制度規則上達成一定的社會共識。
無人駕駛不等于無人負責
現行法律和規章制度的約束主體大都是人(自然人或法人),尤其是涉及刑事責任等重大問責機制時,往往需要指向明确的自然人個體。
換言之,對于重大事故和蓄意犯罪等安全底線(盡管相對一般安全事故而言發生率不高)的監管是維系交通和社會秩序的必要條件,它在很大程度上依賴于刑法。其中 , 大部分道路交通犯罪針對的是機動車輛的駕駛員。
因此,确定責任主體是無人駕駛(以及人工智能其他相似產品)監管的首要議題。與正常的車輛駕駛不同,無人駕駛沒有直接的駕駛員,導致直接的責任主體缺失,這似乎成為現實中的 " 無頭懸案 " 或理論上的悖論。
透過現象看本質,我們依然可以找到可能成為無人駕駛的幾個責任主體,具體包括:無人駕駛的使用者;無人駕駛背後的遠程操控者、技術員或安全員;車輛所有者、運營者或受益者。當然,這主要是理論上的思辨,也有少量國外案例作為支撐。但具體到監管的責任主體是誰,這個問題仍需要學術界和政府及立法部門的深入調研和論證。
毫無疑問,無人駕駛車輛(或船舶和飛機等其他交通工具)縱然沒有駕駛員,但有明确的使用者。類似于英國法律委員會提議的 " 負責使用的用戶 ";在美國佐治亞州這意味着 " 導致車輛移動的人 "。
使用者在明知無人駕駛的情況下,選擇使用或啟動了無人駕駛車輛,那就默認其願承擔這個潛在後果。當然,有人會認為使用者只是被服務的對象,是消費者。而一般理論認為,消費者只要不存在不當使用的情況,就不應為消費過程發生的不良後果負責。所以,由使用者承擔無人駕駛的主體責任,在全球各國存在較大争議。
一個折中的做法是無人駕駛車輛的使用者仍然要承擔駕駛員的角色。由于駕駛員的關鍵地位,美國一些允許自動駕駛車輛上路的州,要求必須有人類駕駛員在駕駛座并保持警覺,實則保留備用駕駛員。其後果是,無人駕駛車輛需要駕駛員來承擔責任,使用者成為駕駛員,無人駕駛徒有其名,限制了行業發展。
第二類可能的責任主體是遠程操作者。遠程操作者、技術員和安全員等可謂是自動駕駛技術的 " 駕駛員 "。在一般情形下,人們感受不到他們的存在,但在緊急情況下,他們會及時出現并提供安全幫助。
美國加利福尼亞州允許申請自動駕駛測試許可,但要求在無人類備用駕駛員在場的情況下,需要有持有相應駕照的遠程操作員 " 持續監督車輛的動态駕駛任務執行 "。美國亞利桑那州規定,交通違章或車輛違規行為引發的處罰将歸于 " 測試或操作完全自動駕駛汽車 " 的人。
換言之,這種做法将駕駛員的概念擴展到了被認為負責車輛的遠程操作員,盡管他們并未坐在車裡。
第三類責任主體則跳出了駕駛員的邏輯框架,從利益視角出發找尋車輛所有者、運營者或受益者來負責。
前兩類主體使用者和遠程操作者分别讓車輛動起來和遠程操控車輛,在監管思路上是賦予其駕駛員的影子身份,進而在現行法律框架下對他們以駕駛員的身份進行問責。倘若找到了無人駕駛車輛的駕駛員,現行法規依然适用,所有無人駕駛的監管難題迎刃而解。
但如前所述,前兩類主體畢竟不是真正的駕駛員,如此武斷的身份認定存在很大社會争議。因此,第三類責任主體浮出水面。
若使用者和遠程操作者不能成為 " 替罪羔羊 ",還有誰可以為潛在事故承擔責任?社會上呼較大的呼聲是讓車輛所有者來承擔責任。
目前,車輛所有者、運營者、受益者都是同一個主體——平台企業。他們推出這個新業态,提供服務并獲得收益,理應為此負責,就像餐館要為其餐品負責一樣。
但現實難點在于,平台是一家企業,并非自然人,很難承擔刑事責任。有人提出由企業法人負責,但這就超出了產品質量或服務質量責任的正常範疇。一般而言,消費者在使用產品或服務時,產品或服務的供應商對產品質量負責,但有明确範疇,不可過度追責。
更大的難點在于,當車輛所有者、運營者、受益者分離時,責任歸屬和分擔幾乎無解。例如,如果今後允許個人租賃無人駕駛車輛交由第三方運營,此時會出現車輛所有者、租賃者、運營者和受益者多個主體。
需要說明的是,上述分析僅針對無人駕駛車輛正常使用過程中可能出現的潛在事故責任,而對于使用過程中的故意的違法行為,則需一事一議鑑别具體責任人。例如,若使用者的不當使用導致發生惡意撞人事件,則該使用者應是首要責任人。
智能機器是否有人格,如何對其問責?
無人駕駛的車輛、船舶、飛機以及其他人工智能機器都沒有靈魂和思想,它們不是人。
但如果這些機器具有了人格特征,就具有了獨立的法律人格,從而可為 " 自己 " 的行為負責。這聽上去像是科幻小說,但在學理上和現實中已然存在。
包括無人駕駛車輛在内的機器有沒有人格?對此存在兩種相反觀點。
一種觀點認為,機器沒有人格,不需為其行為負責,從而需要追求機器背後的人的主體責任。
有學者認為,盡管通常以智能機器的 " 自主性 " 來描述它們自主決策的能力,但它們并沒有欲望或價值觀。當描述一個人工智能系統具有自主性時,人們通常的意思并不是它 " 自己 " 作出決策。從這個角度理解,自主性的問題并不是人工智能系統固有的某種神秘特質。
即便機器擁有自主決策能力,也只是在人類程式命令下 " 毫無意識 " 的動作,本質上是在執行人類的決策。所以,人類應為機器的自主行為負責。
當然,人類賦權機器自動決策的過程要透明,不能由人在不知情的情況下對機器的錯誤行為負責。申言之,操縱機器的人為機器負責,普通人則有權知道機器如何決策,從而保障自身的知情權。同理,平台等大企業為智能機器負責,需要告知用戶智能機器的算法和自動決策的原理。
根據歐盟《通用數據保護條例》(GDPR),用戶有權要求解釋是否存在自動化決策機制,以及 " 自動化決策涉及的邏輯原理、對用戶的重要性和產生的預期後果 " 等信息的合理說明。對應于無人駕駛的情境,平台應為車輛負責,并告知用戶車輛運營的基本信息,如車速、避讓行人等信息。
另一種觀點則認為,無人駕駛車輛在内的機器及其人工智能系統具有 " 機器人自主意識 ",以後終将擁有完全的法律人格。
有學者認為,機器具有自主意識,可以對自身行為負責。道路交通法律的功能以及懲罰違法行為的目的是提高道路安全和維護道路秩序,對駕駛員的罰款和監禁及人身改造是為了倒逼人類行為符合安全準則。
作為類比,人類可直接對無人駕駛車輛及其智能系統進行規則約束,并将執法視為訓練系統的反饋環節以進一步修改其算法和架構設計。
在更嚴重的情況下,撤銷某些無人駕駛車輛在道路上行駛的授權,使其退市或消亡,類似于對人身的死刑核準。簡言之,機器若具有人格,可以通過改造或消滅的方式給予懲戒。
一個烏托邦的願景是,無人駕駛車輛在駕駛技術上可能遠優于人類駕駛員,以至于根本不需要考慮刑事責任,只需要維系其中的科技倫理和市場競争秩序。這就将對人的社會監管問題轉化成為對市場的經濟監管問題。
社會規則亟待深刻變革
以無人駕駛為代表的人工智能體系統復雜而高效,可以推動文明的整體進化,影響社會機制,帶來社會分工、就業市場和機會模式的變動,影響文化實踐和社會互動,改變人類的生產、生活及生存方式,從而可能會重塑社會規範。
快速變遷的物質技術總是需要相應的制度、觀念等文化适應,才能帶動整個社會的發展和創新。但如今,人類原本就傾向于滞後的文化,明顯無法适用于新的技術。尤其是當治理制度、倫理觀念無法快速适應時,會不會出現文化滞後阻礙技術變遷的困境?這些問題都亟待學術界和業界的理論研究和現實讨論。
在筆者看來,無人駕駛不代表無人負責,背後大致有兩種思路:一是将責任主體具象化,找到雖不是駕駛員但可承擔駕駛員責任的人;二是将機器人格化,由其對自身負責。
(作者系中國社會科學院财經戰略研究院副研究員)