無人駕駛由誰負責(zé)

劉誠2024-08-17 08:49

劉誠/文 近期,北京、武漢等地的無人駕駛網(wǎng)約車、無人駕駛配送車、無人駕駛游船、無人機等產(chǎn)業(yè)加速跑,在全國甚至全球贏得先發(fā)優(yōu)勢。但其引發(fā)的社會治理問題,尤其是責(zé)任歸屬問題,仍是未解之謎。

不能因為社會規(guī)則的缺失而限制產(chǎn)業(yè)的創(chuàng)新發(fā)展,但也不能任由相關(guān)技術(shù)在“無政府狀態(tài)”下肆意而為,故需社會各界加強理論思辨和現(xiàn)實討論,以期在制度規(guī)則上達成一定的社會共識。

無人駕駛不等于無人負責(zé)

現(xiàn)行法律和規(guī)章制度的約束主體大都是人(自然人或法人),尤其是涉及刑事責(zé)任等重大問責(zé)機制時,往往需要指向明確的自然人個體。

換言之,對于重大事故和蓄意犯罪等安全底線(盡管相對一般安全事故而言發(fā)生率不高)的監(jiān)管是維系交通和社會秩序的必要條件,它在很大程度上依賴于刑法。其中,大部分道路交通犯罪針對的是機動車輛的駕駛員。

因此,確定責(zé)任主體是無人駕駛(以及人工智能其他相似產(chǎn)品)監(jiān)管的首要議題。與正常的車輛駕駛不同,無人駕駛沒有直接的駕駛員,導(dǎo)致直接的責(zé)任主體缺失,這似乎成為現(xiàn)實中的“無頭懸案”或理論上的悖論。

透過現(xiàn)象看本質(zhì),我們依然可以找到可能成為無人駕駛的幾個責(zé)任主體,具體包括:無人駕駛的使用者;無人駕駛背后的遠程操控者、技術(shù)員或安全員;車輛所有者、運營者或受益者。當(dāng)然,這主要是理論上的思辨,也有少量國外案例作為支撐。但具體到監(jiān)管的責(zé)任主體是誰,這個問題仍需要學(xué)術(shù)界和政府及立法部門的深入調(diào)研和論證。

毫無疑問,無人駕駛車輛(或船舶和飛機等其他交通工具)縱然沒有駕駛員,但有明確的使用者。類似于英國法律委員會提議的“負責(zé)使用的用戶”;在美國佐治亞州這意味著“導(dǎo)致車輛移動的人”。

使用者在明知無人駕駛的情況下,選擇使用或啟動了無人駕駛車輛,那就默認其愿承擔(dān)這個潛在后果。當(dāng)然,有人會認為使用者只是被服務(wù)的對象,是消費者。而一般理論認為,消費者只要不存在不當(dāng)使用的情況,就不應(yīng)為消費過程發(fā)生的不良后果負責(zé)。所以,由使用者承擔(dān)無人駕駛的主體責(zé)任,在全球各國存在較大爭議。

一個折中的做法是無人駕駛車輛的使用者仍然要承擔(dān)駕駛員的角色。由于駕駛員的關(guān)鍵地位,美國一些允許自動駕駛車輛上路的州,要求必須有人類駕駛員在駕駛座并保持警覺,實則保留備用駕駛員。其后果是,無人駕駛車輛需要駕駛員來承擔(dān)責(zé)任,使用者成為駕駛員,無人駕駛徒有其名,限制了行業(yè)發(fā)展。

第二類可能的責(zé)任主體是遠程操作者。遠程操作者、技術(shù)員和安全員等可謂是自動駕駛技術(shù)的“駕駛員”。在一般情形下,人們感受不到他們的存在,但在緊急情況下,他們會及時出現(xiàn)并提供安全幫助。

美國加利福尼亞州允許申請自動駕駛測試許可,但要求在無人類備用駕駛員在場的情況下,需要有持有相應(yīng)駕照的遠程操作員“持續(xù)監(jiān)督車輛的動態(tài)駕駛?cè)蝿?wù)執(zhí)行”。美國亞利桑那州規(guī)定,交通違章或車輛違規(guī)行為引發(fā)的處罰將歸于“測試或操作完全自動駕駛汽車”的人。

換言之,這種做法將駕駛員的概念擴展到了被認為負責(zé)車輛的遠程操作員,盡管他們并未坐在車里。

第三類責(zé)任主體則跳出了駕駛員的邏輯框架,從利益視角出發(fā)找尋車輛所有者、運營者或受益者來負責(zé)。

前兩類主體使用者和遠程操作者分別讓車輛動起來和遠程操控車輛,在監(jiān)管思路上是賦予其駕駛員的影子身份,進而在現(xiàn)行法律框架下對他們以駕駛員的身份進行問責(zé)。倘若找到了無人駕駛車輛的駕駛員,現(xiàn)行法規(guī)依然適用,所有無人駕駛的監(jiān)管難題迎刃而解。

但如前所述,前兩類主體畢竟不是真正的駕駛員,如此武斷的身份認定存在很大社會爭議。因此,第三類責(zé)任主體浮出水面。

若使用者和遠程操作者不能成為“替罪羔羊”,還有誰可以為潛在事故承擔(dān)責(zé)任?社會上呼較大的呼聲是讓車輛所有者來承擔(dān)責(zé)任。

目前,車輛所有者、運營者、受益者都是同一個主體——平臺企業(yè)。他們推出這個新業(yè)態(tài),提供服務(wù)并獲得收益,理應(yīng)為此負責(zé),就像餐館要為其餐品負責(zé)一樣。

但現(xiàn)實難點在于,平臺是一家企業(yè),并非自然人,很難承擔(dān)刑事責(zé)任。有人提出由企業(yè)法人負責(zé),但這就超出了產(chǎn)品質(zhì)量或服務(wù)質(zhì)量責(zé)任的正常范疇。一般而言,消費者在使用產(chǎn)品或服務(wù)時,產(chǎn)品或服務(wù)的供應(yīng)商對產(chǎn)品質(zhì)量負責(zé),但有明確范疇,不可過度追責(zé)。

更大的難點在于,當(dāng)車輛所有者、運營者、受益者分離時,責(zé)任歸屬和分擔(dān)幾乎無解。例如,如果今后允許個人租賃無人駕駛車輛交由第三方運營,此時會出現(xiàn)車輛所有者、租賃者、運營者和受益者多個主體。

需要說明的是,上述分析僅針對無人駕駛車輛正常使用過程中可能出現(xiàn)的潛在事故責(zé)任,而對于使用過程中的故意的違法行為,則需一事一議鑒別具體責(zé)任人。例如,若使用者的不當(dāng)使用導(dǎo)致發(fā)生惡意撞人事件,則該使用者應(yīng)是首要責(zé)任人。

智能機器是否有人格,如何對其問責(zé)?

無人駕駛的車輛、船舶、飛機以及其他人工智能機器都沒有靈魂和思想,它們不是人。

但如果這些機器具有了人格特征,就具有了獨立的法律人格,從而可為“自己”的行為負責(zé)。這聽上去像是科幻小說,但在學(xué)理上和現(xiàn)實中已然存在。

包括無人駕駛車輛在內(nèi)的機器有沒有人格?對此存在兩種相反觀點。

一種觀點認為,機器沒有人格,不需為其行為負責(zé),從而需要追求機器背后的人的主體責(zé)任。

有學(xué)者認為,盡管通常以智能機器的“自主性”來描述它們自主決策的能力,但它們并沒有欲望或價值觀。當(dāng)描述一個人工智能系統(tǒng)具有自主性時,人們通常的意思并不是它“自己”作出決策。從這個角度理解,自主性的問題并不是人工智能系統(tǒng)固有的某種神秘特質(zhì)。

即便機器擁有自主決策能力,也只是在人類程序命令下“毫無意識”的動作,本質(zhì)上是在執(zhí)行人類的決策。所以,人類應(yīng)為機器的自主行為負責(zé)。

當(dāng)然,人類賦權(quán)機器自動決策的過程要透明,不能由人在不知情的情況下對機器的錯誤行為負責(zé)。申言之,操縱機器的人為機器負責(zé),普通人則有權(quán)知道機器如何決策,從而保障自身的知情權(quán)。同理,平臺等大企業(yè)為智能機器負責(zé),需要告知用戶智能機器的算法和自動決策的原理。

根據(jù)歐盟《通用數(shù)據(jù)保護條例》(GDPR),用戶有權(quán)要求解釋是否存在自動化決策機制,以及“自動化決策涉及的邏輯原理、對用戶的重要性和產(chǎn)生的預(yù)期后果”等信息的合理說明。對應(yīng)于無人駕駛的情境,平臺應(yīng)為車輛負責(zé),并告知用戶車輛運營的基本信息,如車速、避讓行人等信息。

另一種觀點則認為,無人駕駛車輛在內(nèi)的機器及其人工智能系統(tǒng)具有“機器人自主意識”,以后終將擁有完全的法律人格。

有學(xué)者認為,機器具有自主意識,可以對自身行為負責(zé)。道路交通法律的功能以及懲罰違法行為的目的是提高道路安全和維護道路秩序,對駕駛員的罰款和監(jiān)禁及人身改造是為了倒逼人類行為符合安全準(zhǔn)則。

作為類比,人類可直接對無人駕駛車輛及其智能系統(tǒng)進行規(guī)則約束,并將執(zhí)法視為訓(xùn)練系統(tǒng)的反饋環(huán)節(jié)以進一步修改其算法和架構(gòu)設(shè)計。

在更嚴重的情況下,撤銷某些無人駕駛車輛在道路上行駛的授權(quán),使其退市或消亡,類似于對人身的死刑核準(zhǔn)。簡言之,機器若具有人格,可以通過改造或消滅的方式給予懲戒。

一個烏托邦的愿景是,無人駕駛車輛在駕駛技術(shù)上可能遠優(yōu)于人類駕駛員,以至于根本不需要考慮刑事責(zé)任,只需要維系其中的科技倫理和市場競爭秩序。這就將對人的社會監(jiān)管問題轉(zhuǎn)化成為對市場的經(jīng)濟監(jiān)管問題。

社會規(guī)則亟待深刻變革

以無人駕駛為代表的人工智能體系統(tǒng)復(fù)雜而高效,可以推動文明的整體進化,影響社會機制,帶來社會分工、就業(yè)市場和機會模式的變動,影響文化實踐和社會互動,改變?nèi)祟惖纳a(chǎn)、生活及生存方式,從而可能會重塑社會規(guī)范。

快速變遷的物質(zhì)技術(shù)總是需要相應(yīng)的制度、觀念等文化適應(yīng),才能帶動整個社會的發(fā)展和創(chuàng)新。但如今,人類原本就傾向于滯后的文化,明顯無法適用于新的技術(shù)。尤其是當(dāng)治理制度、倫理觀念無法快速適應(yīng)時,會不會出現(xiàn)文化滯后阻礙技術(shù)變遷的困境?這些問題都亟待學(xué)術(shù)界和業(yè)界的理論研究和現(xiàn)實討論。

在筆者看來,無人駕駛不代表無人負責(zé),背后大致有兩種思路:一是將責(zé)任主體具象化,找到雖不是駕駛員但可承擔(dān)駕駛員責(zé)任的人;二是將機器人格化,由其對自身負責(zé)。

(作者系中國社會科學(xué)院財經(jīng)戰(zhàn)略研究院副研究員)

版權(quán)聲明:以上內(nèi)容為《經(jīng)濟觀察報》社原創(chuàng)作品,版權(quán)歸《經(jīng)濟觀察報》社所有。未經(jīng)《經(jīng)濟觀察報》社授權(quán),嚴禁轉(zhuǎn)載或鏡像,否則將依法追究相關(guān)行為主體的法律責(zé)任。版權(quán)合作請致電:【010-60910566-1260】。

熱新聞

電子刊物

點擊進入