版權(quán)歸原作者所有,如有侵權(quán),請聯(lián)系我們

自動駕駛車禍誰擔責?AGI專家詳解法律責任,突破倫理困境

返樸
溯源守拙·問學求新?!斗禈恪罚茖W家領(lǐng)航的好科普。
收藏

自動駕駛車禍誰擔責?AGI專家詳解法律責任,突破倫理困境

昨日(4月12日),中國首個自動駕駛公交車項目在重慶市永川區(qū)正式投入運營,3臺L4級自動駕駛公交車(百度巴士)上路載客,標志著中國自動駕駛商業(yè)化落地迎來重大突破。隨著自動駕駛愈發(fā)深入大眾生活,人們不禁要問:自動駕駛安全嗎?萬一出車禍該誰負責?

撰文 | 劉凱(渤海大學教育科學學院、渤海大學通用人工智能研究所)

自動駕駛現(xiàn)已來到關(guān)鍵的歷史局點。從百度Robotaxi到宇通WITGO,從鄭東新區(qū)到重慶永川,我國裝備L3-L4高等級自動駕駛技術(shù)的商用車及開放道路漸成規(guī)模;但與此同時,L2級自動駕駛事故在耳畔警響,何況還有惡劣天氣、臨時管制、交通路口、路面落物或反光等更大挑戰(zhàn)。在應對全天候全場景行駛工況時,自動駕駛?cè)杂休^長的路要走。

據(jù)《汽車之心》2019年總結(jié):

2016年1月20日,京港澳高速河北邯鄲段,23歲的高雅寧駕駛2014款白色特斯拉ModelS撞車身亡,后被確認為全球首例“自動駕駛”致死車禍;

2016年5月7日,美國佛羅里達州 Wiliston 27 號高速上,40歲的Joshua Brown駕駛2015 款黑色特斯拉 Model S撞車身亡;

2018年3月1日,美國佛羅里達州棕櫚灘,50歲的Jeremy Banner駕駛紅色特斯拉 Model 3撞車身亡;

2018年3月18日,美國亞利桑那州坦佩市,一臺Uber 自動駕駛測試車在自動駕駛模式下撞上正推著自行車橫穿馬路的白人女性 Elaine Herzberg ,并致其死亡,這是全球首例自動駕駛測試車撞死行人事故;

2018年3月23日,美國加州山景城 101 高速,38歲的黃偉倫駕駛2017 款藍色特斯拉 Model X P100D加速撞上隔離帶身亡。

“擁抱”還是“排斥”?這是個難題。事實上,盡管大眾當前對自動駕駛的諸多憂慮都是“技術(shù)可解”,即,通過改進技術(shù)方案或強制人工介入的方式妥當解決,但技術(shù)問題之外的相關(guān)領(lǐng)域卻聚訟不斷,并以倫理為最。2020年8月,國家標準化管理委員會、中央網(wǎng)信辦、國家發(fā)展改革委、科技部、工業(yè)和信息化部等五部門聯(lián)合印發(fā)《國家新一代人工智能標準體系建設指南》,指南中也明確設立“H安全/倫理”類,意圖規(guī)范人工智能服務對傳統(tǒng)道德倫理和法律秩序產(chǎn)生的沖擊。

自動駕駛車禍誰擔責?AGI專家詳解法律責任,突破倫理困境

圖片截選自《國家新一代人工智能標準體系建設指南》

然而,人工智能內(nèi)部有著不同的技術(shù)路線,總體上可分為專用人工智能與通用人工智能兩類(詳情參見返樸文章《人工智能與心理學的迷思》)。二者具有不同的前提假設和理論依據(jù),對相同問題便有不同的解讀和回答,因此需要區(qū)別對待。在自動駕駛領(lǐng)域,專用人工智能路線對應L1-L4級,而通用人工智能則對應L5級。本文將針對專用人工智能路線下自動駕駛的倫理問題進行討論,首當其沖的便是經(jīng)典的“電車難題”。

自動駕駛車禍誰擔責?AGI專家詳解法律責任,突破倫理困境

讓我們設想一輛疾駛的電車,前方是兩條支線,每條支線上都站有數(shù)量不等的無辜平民,電車駛?cè)肴魏我粭l支線都會導致平民死亡。請問司機如何抉擇?

這是“電車難題”經(jīng)典卻絕非唯一的表述方式,后續(xù)相繼出現(xiàn)了各種變體。在方向選擇矛盾的基礎上,自動駕駛又疊加了另一個兩難之選:

高速行駛的自動駕駛汽車,避讓行人就會導致主駕身亡,不避讓便會導致行人死亡。自動駕駛汽車該怎么做?

實際上,自動駕駛的“電車難題”背后,就是兩個倫理沖突的算法設定問題:如果相撞不可避免,犧牲自己還是他人;如果犧牲他人不可避免,犧牲多些還是少些。說巧不巧,二者同時也是構(gòu)筑倫理學大廈的兩大基石:主體性及客體價值。

專用人工智能以解決特定領(lǐng)域問題為出發(fā)點,通過技術(shù)迭代,漸進提升智能化程度。由于其技術(shù)路線本身的局限性,解決電車難題存在著以下困難:

專用人工智能對于封閉問題友好,對開放問題十分頭疼。專用人工智能其實并不能“思考”,而只能“計算”。“計算”的模式是直接或間接由人工實現(xiàn)的:前者對應的是“人工算法”,即由領(lǐng)域?qū)<抑苯哟_定算法規(guī)則;后者對應的是“數(shù)據(jù)算法”,即規(guī)則不由人工給出,而從真實數(shù)據(jù)間接提煉獲得。但無論哪種算法,都無法確保對開放問題的涵蓋性足夠廣闊和豐盈。

進一步說,如果放松限制,使得人力和數(shù)據(jù)的豐富程度得到足夠滿足,但規(guī)則本身卻依舊有可能因證據(jù)來源差異而產(chǎn)生內(nèi)部沖突。類似“親媽和媳婦同時落水,先救誰?”這樣的問題,不同回答皆有正面與反面證據(jù),判別的前提出發(fā)點不同,結(jié)論也必然各異。因此,倫理問題屬于經(jīng)驗問題,但經(jīng)驗問題并不等同于計算問題。于是,“電車難題”不可能在專用人工智能框架下直接給出穩(wěn)定的最優(yōu)解。

間接的方式是否可行呢?事實上,窮舉就是這類最典型的方式。其標準做法是:采集自動駕駛各種環(huán)境條件、司機和行人的行為和心理特征,以及汽車的各種參數(shù),繼而窮舉可能空間的組合,并根據(jù)已知“合理”的先驗知識、時間序列特征來調(diào)整權(quán)重網(wǎng)絡模型。

這是目前主流人工智能領(lǐng)域深度學習的核心方法。不過,即便自動駕駛汽車的硬件設備足夠先進,其計算能力在某一特定時刻依舊是相對不足的,如果離開規(guī)范的自動駕駛路段而駛?cè)腴_放路段,窮舉式無法確保在有限時間內(nèi)總能順利地感知、運算并返回結(jié)果。這體現(xiàn)了專用人工智能所謂“感知智能和計算智能”的根本局限之一——將智能與計算相等同。人類擁有智能,但人類不是電腦,我們不靠升級大腦物理設施提升智力水平。

退一步而言,即使窮舉總可執(zhí)行并返回結(jié)果,開放環(huán)境的內(nèi)容仍然是不可能窮盡的,因此自動駕駛系統(tǒng)對開放環(huán)境的經(jīng)驗準備也總是相對不足的。這體現(xiàn)了專用人工智能另一個根本局限——知識工程黑洞,即,開放環(huán)境的可能空間無法窮盡,總會遇到意外的棘手情況,這意味著程序員無法完備地將倫理規(guī)范價值量化后的“道德代碼”置入汽車駕駛軟件。

再退一步,假如處于理想世界,窮舉的方法和內(nèi)容都能逐一枚舉,但此時系統(tǒng)最終決策也會受到巨大挑戰(zhàn)。盡管有“大算力”“大模型”“大數(shù)據(jù)”的加持,仍然無法避免“解釋黑箱”的問題——我們無法解釋系統(tǒng)是怎樣做出決策的。當前自動駕駛路線大多基于統(tǒng)計學習,決策依據(jù)更多來自概率而非邏輯模型,決策的信度和效度并不透明,令自動駕駛事故判定變得難度更高。

再退一萬步,即使決策的有效性和解釋也不是問題,最優(yōu)化也依舊無解!因為系統(tǒng)會不可避免地陷入“目標悖論”——如果摩托車手知道自動駕駛汽車會優(yōu)先保護生存概率最低者,他就只能選擇不戴頭盔,因為佩戴頭盔會提高他的生存概率,結(jié)果頭盔之類的安全措施反而會讓他成為高危的移動犧牲者。最終結(jié)果便是“劣幣驅(qū)逐良幣”:遵規(guī)守紀的人反而會面臨更高的事故風險。

因此,在人工智能的語境下,并不總能將倫理沖突轉(zhuǎn)化為合理的經(jīng)濟等價式去進行形式化價值計算,結(jié)果導致所有嵌入“道德律令”的做法也永遠無法滿足開放條件下自動駕駛多樣問題的解決。說到底,倫理本質(zhì)上是價值的“判斷”,而非價值的“估算”!專用人工智能沒有主體性,無法自主進行價值判斷,所以在專用人工智能框架內(nèi)不存在倫理沖突“技術(shù)解”的可能性。

自動駕駛車禍誰擔責?AGI專家詳解法律責任,突破倫理困境

那我們是否就此對自動駕駛宣判“死刑”了呢?不僅不是,而且恰好相反。問題的要害在于,理論層面的倫理與應用層面的責任是兩個相關(guān)、但不同的問題,很容易被隱蔽地混淆。

“道路千萬條,安全第一條”,有科學證據(jù)表明,自動駕駛系統(tǒng)比人類駕駛員具有更高的安全性,這種安全性還體現(xiàn)為規(guī)模的指數(shù)化,即自動駕駛越多,交通的整體通暢和安全水平越好。因此,自動駕駛出行方式是大勢所趨。

學界的焦慮主要來自對自動駕駛事故責任的認定??紤]到專用人工智能技術(shù)本身的技術(shù)特點,L1-L4級自動駕駛的責任問題可分類討論:

(1)封閉路段。

滿足自動駕駛的封閉路段,道路服務商必須能夠提供下述基本服務:確保路面暢通、無雜物堆積、標記線和指示牌清晰無誤,為重要地點設立智能樞紐,提供異常天氣、地質(zhì)災害等的預警等。如果道路工況不達標,道路服務商應對自動駕駛事故承擔主要責任。

如果道路工況達標,則應檢視自動駕駛是否存在硬件或軟件故障,部件有問題則由相關(guān)廠商承擔責任,部件整合搭配問題則有整車制造商承擔責任。特別地,如在滿足自動駕駛條件下,在車輛前行方向出現(xiàn)了橫穿馬路的行人或動物,如果是行人違規(guī),則由行人承擔責任,如果穿行者是動物,則由道路服務商承擔責任。這類似現(xiàn)在的高速公路,汽車可以高速行駛的預設前提是道路服務商為車輛提供必要的全程封閉管制,不允許非機動車或行人在高速公路上穿行。此時,自動駕駛汽車駕駛員不承擔事故責任,自動駕駛汽車應該優(yōu)先保護駕駛員。

(2)開放路段。

在不滿足完全自動駕駛條件的開放路段進行自動駕駛,其行為本身已經(jīng)包含了發(fā)生潛在交通危險的可能性。此時,駕駛員如果仍然開啟自動駕駛模式前行,不論有意或無意,都已在事實層面實施了自動駕駛行為。如果發(fā)生交通事故:

① 我方和對方都遵守交通規(guī)則。由駕駛員承擔主要責任,由自動駕駛部件或整車制造商承擔次要責任。此種情況下,自動駕駛汽車應優(yōu)先保護駕駛員。

② 我方遵守交通規(guī)則,對方違反交通規(guī)則。由對方承擔主要責任,由駕駛員承擔次要責任。此種情況下,自動駕駛汽車應優(yōu)先保護駕駛員。

③ 我方違反交通規(guī)則,對方遵守交通規(guī)則。如果因破解系統(tǒng)造成與廠商版本不同,則由駕駛員承擔全部責任,否則由自動駕駛部件或整車制造商承擔主要責任。此種情況下,自動駕駛汽車應優(yōu)先保護行人。

④ 我方和對方都違反交通規(guī)則。如果因破解系統(tǒng)造成與廠商版本不同,則由駕駛員和對方共同承擔責任,否則由自動駕駛部件或整車制造商與對方共同承擔責任。此種情況下,自動駕駛汽車應優(yōu)先保護行人。

綜上幾種情況,基于專用人工智能技術(shù)的自動駕駛系統(tǒng)不存在“機器道德主體地位”問題,機器不能作為法律懲戒對象而必須由責任人來承擔責任后果。

事實上,自動駕駛事故責任認定問題,也并未超越現(xiàn)行法律體系的有效調(diào)控范圍。也就是說,應將自動駕駛系統(tǒng)也視為車輛專用系統(tǒng)的一個基本部分。比如,如果輪胎有缺陷,在正常使用情境下出了問題,則應該由相應的產(chǎn)品提供商負責。但駕駛員明知冰雪路面不該使用普通車胎,卻依舊駕駛造成事故的,責任便由本人承擔。自動駕駛事故的責任認定也亦如此。

自動駕駛車禍誰擔責?AGI專家詳解法律責任,突破倫理困境

最后,從計算問題、法律問題再回歸到倫理問題。在計算層面,自動駕駛沒有技術(shù)的“倫理解”。但在法律層面,自動駕駛的實際應用沒有倫理障礙。

專用人工智能框架下,自動駕駛的核心特征強調(diào)工具的自動化(L1-L4)而非自主化(L5)。工具性意味著,只能確保在既定使用范圍內(nèi)正常工作,這是理解自動駕駛合法性和有效性的前提。而在倫理層面的“電車難題”及其變種,本質(zhì)上都是前提為一對互斥矛盾、且前提必須成立的情況下,尋求化解矛盾的方案。換言之,雖在倫理空間無法突破給定的矛盾預設,但可以試圖在法律空間內(nèi)用經(jīng)濟手段尋求倫理解。因此,不論電車疾駛向哪一條支線,電車司機在法律上都是無責的,負責的反而應該是明知不該、卻執(zhí)拗聚在鐵軌上的“無辜”行人。

倫理問題未必都有合理解,有合理解也未必有最優(yōu)解,這反映了開放世界價值判斷的多元化。而多元的價值判斷,必然導致很多情況下不存在最優(yōu)解,而只有可行解甚至無奈解。這意味著,在“元倫理學”范疇內(nèi),倫理學系統(tǒng)的“公理化”理論假設本身就面臨“非公理化”現(xiàn)實的無情挑戰(zhàn)與深刻詰責。因此,盡管我們至今仍在爭論電車司機該選擇哪條支線,卻并不妨礙地鐵、汽車、火車、飛機、輪船等各種交通工具的使用越來越多、智能化程度越來越高。

歸根到底,在專用人工智能框架下,L1-L4級的自動駕駛倫理難題“不足為懼”:倫理難題既非自動駕駛所專有,也無須自動駕駛技術(shù)來終結(jié),更不會成為其應用推廣的阻礙。

作者簡介

劉凱,博士,華中師范大學心理學博士后,渤海大學教育科學學院教師,教育技術(shù)學及心理健康教育碩士生導師,中國通用人工智能(AGI)協(xié)會(籌)召集人,機器認知(北京)科技有限公司創(chuàng)始人,研究方向為:通用人工智能(AGI)、機器教育、計算精神病學。