當前位置: 華文星空 > 心靈

人工智慧自動駕駛,法律責任怎麽算

2024-08-30心靈

當前,新一輪科技革命和產業變革正在重構全球創新版圖、重塑全球經濟結構,各種新的生產生活場景不斷湧現,技術發展的不確定性給人類社會帶來許多新的問題。自動駕駛就是人工智慧與傳統汽車行業結合後產生的新技術,該技術旨在依靠人工智慧完整、安全地滿足無駕駛員操作情況下的汽車交通運輸需求。進入21世紀,人工智慧自動駕駛技術飛速發展,近年來已有加速落地實用的趨勢。與之相應,事關人們切身利益的交通事故責任認定與分配,仍是自動駕駛有待探索和規範的社會生活場景,尚需各國在自動駕駛產業發展過程中共同面對。

1·人工智慧並非法律上的「人」

在自動駕駛中,人工智慧把人們的身體和註意力從駕駛操作中解放出來。根據智慧化程度高低,自動駕駛汽車將不同程度地代替人們操縱汽車。國際自動機工程師學會制定了一套自動駕駛分級標準,將自動駕駛按照自動化程度劃分為五個等級:L1是部份駕駛輔助汽車,駕駛員和自動駕駛系統需要共同承擔車輛操縱任務;L2是組合駕駛輔助汽車,系統能夠承擔車輛的一般行駛任務,但需要駕駛員隨時觀察行駛過程中的周邊環境並作出響應;L3是有條件自動駕駛汽車,自動駕駛系統能夠承擔車輛的一般行駛任務並響應周邊環境,但仍需要駕駛員根據情況動態接管車輛;L4是高度自動化汽車,無需駕駛員承擔任何操作任務,但需要在特定的設計執行條件下如指定的公路範圍內執行;L5是完全自動駕駛汽車,自動駕駛系統將承擔一切駕駛任務,駕駛員變為乘客。

一般認為,人工智慧分為弱人工智慧和強人工智慧。弱人工智慧指的是透過編程實作機器的邏輯判斷、數據儲存和搜尋等過程的智慧,如常見的語音助手和影像辨識;強人工智慧指的是使機器能夠產生思維意識,並具有與人類相當甚至超過人類的智慧。在本質上,弱人工智慧與其他工具沒有什麽區別,只是按照程式設計人員的設定對外界資訊進行判斷、計算並運轉;而強人工智慧產品則更進一步,能夠實施所設計和編制的程式範圍之外的行為,甚至能夠自我學習,其行為是相對獨立、不受操控的。據此標準,可以將L3及以上的自動駕駛等級視作人工智慧自動駕駛,其中L3、L4是弱人工智慧,L5是強人工智慧。

從理論上來看,無論是弱人工智慧,還是強人工智慧,都未超出電腦科學的範疇,不能算是法律上可以歸責的「人」。通常認為,要成為法律上的責任主體,相應主體必須具備自由意誌,並能認識行為及其後果的法律意義,能夠承擔責任。固然,當前人工智慧的發展極其迅速,但僅僅是具備根據程式設定發展出來的數據儲存、檢索和最佳化能力,不能算作具備自由意誌,也並不能認識理解行為及其後果的法律意義。例如歐洲有學者就認為,目前的這些智慧機器並沒有具備道德思考和道德決定的能力。即使強人工智慧具有類人類的認識和控制能力,但它仍然不過是根據人類設定的程式來完成任務的機器。

從實踐上來看,人工智慧也並非各國法律規定的可以行使權利、履行義務和承擔責任的主體。在大陸法系國家,成文的法典限定了民事主體範圍。如德國民法典將民事主體規定為自然人、消費者、經營者和法人四類,日本現行民法只將人和法人作為民事主體,俄羅斯聯邦民法典同樣只將公民(自然人)、法人規定為民法上的人。在以判例法為特征的英美法系國家,如美國、英國,尚未有將人工智慧作為民事主體的訴訟案例出現,且在實踐中否定了人工智慧的民事主體地位:2020年,英國薩里大學研究人員在使用人工智慧DABUS進行研究的過程中,DABUS提出了兩項獨特的設計創意,然而歐盟專利局卻駁回了研究人員以DABUS名義提出的專利申請,理由是專利發明者必須是人而非機器。就刑法的犯罪主體而言,雖然人工智慧帶有一個「人」字,但是在各國刑事法律體系和實踐中,還沒有被當作刑事責任主體的先例,目前僅停留在學術探討的層面上。

2·自動「行車」,亦有「刑責」

未來人工智慧自動駕駛的技術取向,在於逐步減少直至取消人的控制因素,從而達到提高效率、節省成本、減少損失的目的。隨著駕駛自動化程度從L3到L5等級的提高,對人們而言,駕駛車輛所需要的駕駛技術要求是逐步降低的。可以想象,在L5完全自動駕駛狀態中,駕駛員實際的角色是乘客——只需要坐上去,然後做好在目的地下車的準備。問題在於,既然人工智慧不是法律可以苛責的物件,那麽一旦發生交通事故,法律上的不利後果應當由誰來承受?如果是駕駛員承擔,那駕駛員又應該負多大的責任?德國學者希爾根多夫將這一問題稱為「控制困境」。

現有L3以下的自動駕駛技術部份減少了人對車的操作責任,但是駕駛員仍需為交通事故承擔刑事責任。自動駕駛雖使人們免於操作機械,但從過往案例來看,各國司法實踐主要持駕駛員負主要責任的立場,采取駕駛員應當負有註意和介入義務的觀點,免除了車輛廠商及其自動駕駛系統技術的責任。例如,2019年12月29日,一輛黑色特斯拉Model S在美國洛杉磯郊區發生一起嚴重事故。當時,駕駛員利雅德開啟了L2級自動駕駛系統,從當地一條高速路駛出,在公共開放道路上闖了一個紅燈後撞上另一輛小轎車,導致這輛小轎車上的兩名乘客當場身亡。在該案中,檢察官以「過失殺人罪」和「交通肇事殺人罪」對利雅德提起了兩項罪名指控,而特斯拉轎車和自動駕駛系統經調查不存在任何問題,無須承擔責任。

在全球首例L3以上高度自動駕駛車輛致人死亡案件中,車上的測試人員也承擔了刑事責任。2018年3月18日,美國亞利桑那州一輛載有安全員的自動駕駛車輛在測試中以70公裏時速撞上一名過馬路的婦女並致其死亡,當時這輛車正處於L4駕駛狀態。本案歷時五年,優步公司最終未承擔任何刑事責任,安全員拉法埃拉·瓦斯奎茲被指控過失殺人,被判處三年監督緩刑,成了全球第一位因自動駕駛事故被判有罪的人。美國國家運輸安全委員認為,優步公司的系統未能及時辨識前方物體及其行動軌跡是重要因素,但安全員在履職期間觀看手機上的娛樂節目導致分心以至於沒有及時制軔車輛才是事故發生的主要原因,因此車禍主要原因在人而非技術。

不過,相較於傳統駕駛中的刑事責任,人工智慧自動駕駛車輛中的駕駛員責任需要減輕。法律責任往往與行為掛鉤,有相應的行為才需要承擔相應的責任。隨著人工智慧自動駕駛技術的進步,駕駛員的駕駛功能逐步被代替,其法律責任勢必相應減輕。例如,日本有學者就認為,從人工智慧系統與人的關系出發,在自動駕駛系統完整承擔一次行程駕駛任務的情況下,駕駛員不應負有任何註意義務,因此也不應承擔任何法律責任;如果自動駕駛系統只是在途中承擔一段的駕駛任務,那麽駕駛員僅在自己駕駛的階段負有註意義務。瑞士和德國有學者也指出,雖然從現行法律來看,駕駛員在L4及以上的自動駕駛狀態下均應當履行對車輛的支配義務,但總的來說其義務應與自動化程度成反比;與自動駕駛車輛帶來的好處相比,將事故產生的刑事法律責任完全落在汽車的操作者身上是不公平的,建議對汽車操作者的刑事責任進行限制或減輕。

3·交通事故悲劇發生,誰來買單

2023年4月21日,海外首例自動輔助駕駛事故民事索賠案宣判。美國洛杉磯高等法院陪審團裁定特斯拉公司的自動輔助駕駛功能的安全氣囊在事故中並未失去安全效能,不支持原告提出的巨額賠償訴求。後者在2020年提起訴訟,稱她的特斯拉轎車在自動駕駛狀態下失控轉彎撞向路邊後,由於自動駕駛儀和安全氣囊的設計存在缺陷,導致自己的頜面和面部神經受傷受損,要求法院支持其超過300萬美元的賠償訴求。陪審團認為,特斯拉使用者手冊已明確提示自動輔助駕駛功能不是自動駕駛系統,並提醒不要在城市街道上使用該功能,事故主要是因為司機分心。訴訟風雲散去後,留下了一個值得討論的問題:隨著未來自動駕駛系統等級的逐步提高,自動駕駛車輛生產廠商是否應對交通事故承擔民事責任,以及應該在什麽限度內承擔責任?

在L3以下的自動駕駛交通事故中,人工智慧不擔責,駕駛員不能擔全責,則廠商對可能存在的過失應當擔責。如果人工智慧不能成為被法律懲罰的物件,而駕駛員的責任又需要減輕,就極容易造成民事賠償責任方的缺位,交通事故導致的侵權就無法得到合理補償,因此車輛廠商需要成為責任方之一,對系統和硬體可能存在的缺陷以及產品宣傳可能產生的誤導負責。在實踐中,同樣以2018年優步測試車輛致死案為例,雖然安全員已經認罪,但美國國家運輸安全委員會仍建議優步公司與安全員共同承擔民事賠償責任。在聯邦制的美國,統一的自動駕駛法還在制定當中,目前是各州自行制定相關法律。例如,華盛頓特區要求駕駛員應做好隨時接管自動駕駛汽車的準備,並明確了制造廠商對產品缺陷的責任;田納西州規定,在自動駕駛系統受控制的情況下,均由制造廠商承擔責任;加州要求制造廠商購買數百萬美元的保險以應對自動駕駛交通事故造成的損害;不過,也有少數州排除了廠商的責任,例如德克薩斯州法律規定車輛所有人應對事故和交通違法行為負責。又如,英國交通部釋出的【安全使用自動車道保持系統:回應和後續步驟】規定,當自動駕駛車輛處於正常的自動駕駛狀態時,駕駛員不需要負責,只要求其在緊急時刻介入操控,這意味著責任將轉移至制造廠商和保險公司。此外,2020年德國慕尼黑法院曾裁定特斯拉在廣告中存在誇大宣傳其輔助駕駛系統、誤導消費者認為這是高度自動駕駛功能的行為,禁止其使用「包含自動駕駛」等宣傳用語。

從全球立法前沿來看,未來L3及以上更高等級的自動駕駛車輛投入商用後,制造廠商也不能因人工智慧更加自主而免除民事責任。因為人工智慧歸根到底是由人開發出來的,無論發展到什麽程度,開發者都需要對它可能存在的缺陷負有完善和改進的義務,並且對缺陷造成的損害承擔一定的責任。如日本【自動駕駛相關制度整備大綱】中雖規定,L3級駕駛狀態發生事故時的責任按普通汽車同等處理,但車輛和駕駛系統存在明確的缺陷之時生產商需要負責。德國【自動駕駛法】規定,事故如果發生在人工駕駛階段,則由駕駛人承擔責任;如果發生在自動駕駛階段,或由於系統失靈釀成事故,則由生產廠商承擔責任。南韓修訂後出台的【汽車事故賠償法】規定,L3級自動駕駛汽車事故的主要責任人是駕駛者;如果自動駕駛車輛有明確的缺陷,則由制造廠商負連帶責任。2022年,英國多個法律監管機構釋出的聯合報告建議,自動駕駛汽車在自動駕駛狀態下發生交通事故時,車輛駕駛員不承擔任何因交通違法導致的責任,由自動駕駛技術研發企業或車輛制造廠商對交通事故承擔法定責任。

4·新興技術更需向善治理

人工智慧造福人類交通運輸出行的時代浪潮已勢不可擋。自動駕駛汽車的研究從20世紀就開始了,得益於近十年人工智慧技術的發展,才取得質的突破。早在2012年,美國谷歌自動駕駛汽車就獲得了授權證;2020年,南韓釋出L3級自動駕駛安全標準並制定商用化標準,這是全球首例;2021年12月10日,德國聯邦汽車運輸管理局允許L3級自動駕駛汽車在德國全境的高速公路上行駛;同年日本釋出的【官民ITS構想·路線圖】重申,到2025年,私家車、卡車運輸實作高速公路L4級自動駕駛……人工智慧自動駕駛的未來已近在眼前。

新興領域更需要向善向上的法律規則治理。與技術發展進步和落地套用的速度相比,所相適配的社會倫理、道德規範的建立往往相對滯後,這就更需要以良法善治規範和保障新技術健康發展,確保新技術在合理的制度框架內服務於人類對美好生活的追求和向往。中國提出的【全球人工智慧治理倡議】值得自動駕駛的法律治理借鑒和遵守,包括堅持「以人為本」理念、堅持「智慧向善」的宗旨、推動建立風險等級測試評估體系、逐步建立健全法律和規章制度等。面向人工智慧時代,更好處理自動駕駛帶來的交通事故及其責任需要註意以下三點:

首先,駕駛員承擔的責任應逐步減少。技術在解放生產力的同時也在解放人類,人們在法律上的權利義務應當隨著技術的進步而適時變化,自動駕駛技術在逐步解放人類的肢體和註意力,那麽駕駛員的交通事故責任認定宜根據自動駕駛的自動化智慧程度之提高而相應減輕。

其次,法律應當及時適應新質生產力的產生和發展。法律責任的合理劃分事關社會的治理與穩定,需要註意法律滯後性對新興事物發展的負面作用。對於有關企業的新技術,既要從社會效益的角度做好法律適用的解釋工作,也要及時修訂或出台有關法律,為新質生產力的成長提供法治保障。

最後,應加強自動駕駛的配套基礎設施建設。自動駕駛的推廣和交通事故的減少,不僅有賴於向善的科技倫理和健全的法律制度,更有賴於公路、橋梁、電力設施和訊號裝置等交通基礎設施的更新與完善。

(作者:劉俊傑、劉思聰,分別系中國人民大學紀檢監察學院副教授、當代政黨研究平台研究員,中國人民大學中共黨史黨建學院博士研究生)

(來源:光明日報)