當前位置: 華文星空 > 社會

無人駕駛由誰負責

2024-08-18社會

劉誠/文 近期,北京、武漢等地的無人駕駛網約車、無人駕駛配送車、無人駕駛遊船、無人機等產業加速跑,在全國甚至全球贏得先發優勢。但其引發的社會治理問題,尤其是責任歸屬問題,仍是未解之謎。

不能因為社會規則的缺失而限制產業的創新發展,但也不能任由相關技術在「無政府狀態」下肆意而為,故需社會各界加強理論思辨和現實討論,以期在制度規則上達成一定的社會共識。

無人駕駛不等於無人負責

現行法律和規章制度的約束主體大都是人(自然人或法人),尤其是涉及刑事責任等重大問責機制時,往往需要指向明確的自然人個體。

換言之,對於重大事故和蓄意犯罪等安全底線(盡管相對一般安全事故而言發生率不高)的監管是維系交通和社會秩序的必要條件,它在很大程度上依賴於刑法。其中,大部份道路交通犯罪針對的是機動車輛的駕駛員。

因此,確定責任主體是無人駕駛(以及人工智慧其他相似產品)監管的首要議題。與正常的車輛駕駛不同,無人駕駛沒有直接的駕駛員,導致直接的責任主體缺失,這似乎成為現實中的「無頭懸案」或理論上的悖論。

透過現象看本質,我們依然可以找到可能成為無人駕駛的幾個責任主體,具體包括:無人駕駛的使用者;無人駕駛背後的遠端操控者、技術員或安全員;車輛所有者、營運者或受益者。當然,這主要是理論上的思辨,也有少量國外案例作為支撐。但具體到監管的責任主體是誰,這個問題仍需要學術界和政府及立法部門的深入調研和論證。

毫無疑問,無人駕駛車輛(或船舶和飛機等其他交通工具)縱然沒有駕駛員,但有明確的使用者。類似於英國法律委員會提議的「負責使用的使用者」;在美國喬治亞州這意味著「導致車輛移動的人」。

使用者在明知無人駕駛的情況下,選擇使用或啟動了無人駕駛車輛,那就預設其願承擔這個潛在後果。當然,有人會認為使用者只是被服務的物件,是消費者。而一般理論認為,消費者只要不存在不當使用的情況,就不應為消費過程發生的不良後果負責。所以,由使用者承擔無人駕駛的主體責任,在全球各國存在較大爭議。

一個折中的做法是無人駕駛車輛的使用者仍然要承擔駕駛員的角色。由於駕駛員的關鍵地位,美國一些允許自動駕駛車輛上路的州,要求必須有人類駕駛員在駕駛座並保持警覺,實則保留備用駕駛員。其後果是,無人駕駛車輛需要駕駛員來承擔責任,使用者成為駕駛員,無人駕駛徒有其名,限制了行業發展。

第二類可能的責任主體是遠端操作者。遠端操作者、技術員和安全員等可謂是自動駕駛技術的「駕駛員」。在一般情形下,人們感受不到他們的存在,但在緊急情況下,他們會及時出現並提供安全幫助。

美國加利福尼亞州允許申請自動駕駛測試授權,但要求在無人類備用駕駛員在場的情況下,需要有持有相應駕照的遠端操作員「持續監督車輛的動態駕駛任務執行」。美國亞利桑那州規定,交通違章或車輛違規行為引發的處罰將歸於「測試或操作完全自動駕駛汽車」的人。

換言之,這種做法將駕駛員的概念擴充套件到了被認為負責車輛的遠端操作員,盡管他們並未坐在車裏。

第三類責任主體則跳出了駕駛員的邏輯框架,從利益視角出發找尋車輛所有者、營運者或受益者來負責。

前兩類主體使用者和遠端操作者分別讓車輛動起來和遠端操控車輛,在監管思路上是賦予其駕駛員的影子身份,進而在現行法律框架下對他們以駕駛員的身份進行問責。倘若找到了無人駕駛車輛的駕駛員,現行法規依然適用,所有無人駕駛的監管難題迎刃而解。

但如前所述,前兩類主體畢竟不是真正的駕駛員,如此武斷的身份認定存在很大社會爭議。因此,第三類責任主體浮出水面。

若使用者和遠端操作者不能成為「替罪羔羊」,還有誰可以為潛在事故承擔責任?社會上呼較大的呼聲是讓車輛所有者來承擔責任。

目前,車輛所有者、營運者、受益者都是同一個主體——平台企業。他們推出這個新業態,提供服務並獲得收益,理應為此負責,就像餐館要為其餐品負責一樣。

但現實難點在於,平台是一家企業,並非自然人,很難承擔刑事責任。有人提出由企業法人負責,但這就超出了產品品質或服務品質責任的正常範疇。一般而言,消費者在使用產品或服務時,產品或服務的供應商對產品品質負責,但有明確範疇,不可過度追責。

更大的難點在於,當車輛所有者、營運者、受益者分離時,責任歸屬和分擔幾乎無解。例如,如果今後允許個人租賃無人駕駛車輛交由第三方營運,此時會出現車輛所有者、租賃者、營運者和受益者多個主體。

需要說明的是,上述分析僅針對無人駕駛車輛正常使用過程中可能出現的潛在事故責任,而對於使用過程中的故意的違法行為,則需一事一議鑒別具體責任人。例如,若使用者的不當使用導致發生惡意撞人事件,則該使用者應是首要責任人。

智慧機器是否有人格,如何對其問責?

無人駕駛的車輛、船舶、飛機以及其他人工智慧機器都沒有靈魂和思想,它們不是人。

但如果這些機器具有了人格特征,就具有了獨立的法律人格,從而可為「自己」的行為負責。這聽上去像是科幻小說,但在學理上和現實中已然存在。

包括無人駕駛車輛在內的機器有沒有人格?對此存在兩種相反觀點。

一種觀點認為,機器沒有人格,不需為其行為負責,從而需要追求機器背後的人的主體責任。

有學者認為,盡管通常以智慧機器的「自主性」來描述它們自主決策的能力,但它們並沒有欲望或價值觀。當描述一個人工智慧系統具有自主性時,人們通常的意思並不是它「自己」作出決策。從這個角度理解,自主性的問題並不是人工智慧系統固有的某種神秘特質。

即便機器擁有自主決策能力,也只是在人類程式命令下「毫無意識」的動作,本質上是在執行人類的決策。所以,人類應為機器的自主行為負責。

當然,人類賦權機器自動決策的過程要透明,不能由人在不知情的情況下對機器的錯誤行為負責。申言之,操縱機器的人為機器負責,普通人則有權知道機器如何決策,從而保障自身的知情權。同理,平台等大企業為智慧機器負責,需要告知使用者智慧機器的演算法和自動決策的原理。

根據歐盟【通用數據保護條例】(GDPR),使用者有權要求解釋是否存在自動化決策機制,以及「自動化決策涉及的邏輯原理、對使用者的重要性和產生的預期後果」等資訊的合理說明。對應於無人駕駛的情境,平台應為車輛負責,並告知使用者車輛營運的基本資訊,如車速、避讓行人等資訊。

另一種觀點則認為,無人駕駛車輛在內的機器及其人工智慧系統具有「機器人自主意識」,以後終將擁有完全的法律人格。

有學者認為,機器具有自主意識,可以對自身行為負責。道路交通法律的功能以及懲罰違法行為的目的是提高道路安全和維護道路秩序,對駕駛員的罰款和監禁及人身改造是為了倒逼人類行為符合安全準則。

作為類比,人類可直接對無人駕駛車輛及其智慧系統進行規則約束,並將執法視為訓練系統的反饋環節以進一步修改其演算法和架構設計。

在更嚴重的情況下,撤銷某些無人駕駛車輛在道路上行駛的授權,使其退市或消亡,類似於對人身的死刑核準。簡言之,機器若具有人格,可以透過改造或消滅的方式給予懲戒。

一個烏托邦的願景是,無人駕駛車輛在駕駛技術上可能遠優於人類駕駛員,以至於根本不需要考慮刑事責任,只需要維系其中的科技倫理和市場競爭秩序。這就將對人的社會監管問題轉化成為對市場的經濟監管問題。

社會規則亟待深刻變革

以無人駕駛為代表的人工智慧體系統復雜而高效,可以推動文明的整體前進演化,影響社會機制,帶來社會分工、就業市場和機會模式的變動,影響文化實踐和社會互動,改變人類的生產、生活及生存方式,從而可能會重塑社會規範。

快速變遷的物質技術總是需要相應的制度、觀念等文化適應,才能帶動整個社會的發展和創新。但如今,人類原本就傾向於滯後的文化,明顯無法適用於新的技術。尤其是當治理制度、倫理觀念無法快速適應時,會不會出現文化滯後阻礙技術變遷的困境?這些問題都亟待學術界和業界的理論研究和現實討論。

在筆者看來,無人駕駛不代表無人負責,背後大致有兩種思路:一是將責任主體具象化,找到雖不是駕駛員但可承擔駕駛員責任的人;二是將機器人格化,由其對自身負責。

(作者系中國社會科學院財經戰略研究院副研究員)