論人工智能的民事責(zé)任:以自動(dòng)駕駛汽車和智能機(jī)器人為切入點(diǎn)
掃描二維碼
隨時(shí)隨地手機(jī)看文章
摘要
隨著自動(dòng)駕駛汽車等智能機(jī)器人的自主性、學(xué)習(xí)和適應(yīng)能力不斷增強(qiáng),一方面很難將其看作是人類手中的簡(jiǎn)單工具;另一方面伴隨而來(lái)的可預(yù)測(cè)性、可解釋性、因果關(guān)系等問(wèn)題將使得證明產(chǎn)品缺陷責(zé)任等既有侵權(quán)責(zé)任變得越來(lái)越困難,可能帶來(lái)責(zé)任鴻溝,使得被侵權(quán)人的損害難以得到彌補(bǔ)。
面對(duì)可預(yù)期的責(zé)任挑戰(zhàn),侵權(quán)法、合同法等法律規(guī)則的不充足性和局限性將逐漸顯現(xiàn)出來(lái),對(duì)新的法律規(guī)則的需求也將變得越來(lái)越迫切。為此,歐盟、英國(guó)、美國(guó)等已經(jīng)開(kāi)始探索新的責(zé)任框架。
為了更合理、有效地對(duì)智能機(jī)器人造成的損害分配法律責(zé)任,嚴(yán)格責(zé)任、差別化責(zé)任、強(qiáng)制保險(xiǎn)和賠償基金、智能機(jī)器人法律人格等都是潛在的法律方案;但立法者或者法院最終選擇何種方案,需要進(jìn)行全方位的論證,以便實(shí)現(xiàn)法律的利益平衡目的。
一
引言
“計(jì)算機(jī)僅能執(zhí)行強(qiáng)制的指令——對(duì)其編程不是為了使其作出判斷。”紐約一家法院曾經(jīng)如是說(shuō)。這或許可以代表公眾對(duì)計(jì)算機(jī)和機(jī)器人的固有看法。但是,人工智能技術(shù)的進(jìn)步,正使這一觀點(diǎn)變得陳腐,甚至可能成為一個(gè)偏見(jiàn)。2010年以來(lái),受到大數(shù)據(jù)、持續(xù)改進(jìn)的機(jī)器學(xué)習(xí)和更強(qiáng)大的計(jì)算機(jī)這三個(gè)相互加強(qiáng)的因素推動(dòng),人工智能技術(shù)在ICT領(lǐng)域快速發(fā)展,不斷被應(yīng)用到自動(dòng)駕駛汽車、醫(yī)療機(jī)器人、護(hù)理機(jī)器人、工業(yè)和服務(wù)機(jī)器人以及互聯(lián)網(wǎng)服務(wù)等越來(lái)越多的領(lǐng)域和場(chǎng)景。國(guó)外一些保險(xiǎn)和金融公司以及律師事務(wù)所甚至開(kāi)始用具有認(rèn)知能力的人工智能系統(tǒng)置換人類雇員。從國(guó)際象棋、智力競(jìng)賽(比如“Jeopardy!”),到圍棋、德州撲克,再到醫(yī)療診斷、圖像和語(yǔ)音識(shí)別,人工智能系統(tǒng)在越來(lái)越多的領(lǐng)域開(kāi)始達(dá)到甚至超過(guò)人類的認(rèn)知水平,讓其輔助甚至代替人類進(jìn)行決策,不再是空中樓閣。
現(xiàn)在有理由預(yù)見(jiàn),在不遠(yuǎn)的將來(lái),交通運(yùn)輸、醫(yī)療、看護(hù)、工業(yè)和服務(wù)業(yè)等諸多領(lǐng)域的各式各樣的智能機(jī)器(Intelligent Machine)或者智能機(jī)器人(Smart Robot)將成為人類社會(huì)中司空見(jiàn)慣的事物。與此同時(shí),智能機(jī)器人的民事責(zé)任(當(dāng)然也有行政責(zé)任和刑事責(zé)任,但不在本文討論之列)將日益浮出水面,成為一個(gè)不容回避的法律問(wèn)題,需要法律和法院認(rèn)真對(duì)待并回應(yīng)。當(dāng)高度自主、脫離人類控制且獨(dú)立運(yùn)作并作出判斷的智能機(jī)器人造成人身或者財(cái)產(chǎn)損害,如何分配并承擔(dān)法律責(zé)任?當(dāng)前以人類行為者為中心的侵權(quán)責(zé)任和以產(chǎn)品生產(chǎn)者為中心的產(chǎn)品責(zé)任,在應(yīng)對(duì)這一問(wèn)題時(shí),暴露出局限性。本文旨在對(duì)此進(jìn)行論證并提出初步的建議。
為了討論的方便,下文將不使用人工智能、人工智能系統(tǒng)等模糊性概念,
轉(zhuǎn)而采用智能機(jī)器人這一概念,并將其界定為具有以下特征的實(shí)體:
(1)通過(guò)傳感器、與其環(huán)境進(jìn)行數(shù)據(jù)交換以及數(shù)據(jù)分析等方式獲得自主性(Autonomy)的能力;
(2)從經(jīng)歷和交互中學(xué)習(xí)的能力;
(3)具有可見(jiàn)形體;
(4)隨其環(huán)境而調(diào)整其行為和行動(dòng)的能力。按照這一定義,自動(dòng)駕駛汽車、醫(yī)療機(jī)器人、護(hù)理機(jī)器人等都可以被智能機(jī)器人涵蓋,而自主性(包括自主進(jìn)行決策)和學(xué)習(xí)能力則是其核心特征;而且在某種意義上,已經(jīng)沒(méi)有很強(qiáng)的理由將其繼續(xù)看作是供人類驅(qū)使的被動(dòng)工具。
二
智能機(jī)器人對(duì)侵權(quán)責(zé)任、產(chǎn)品責(zé)任等傳統(tǒng)責(zé)任框架提出的挑戰(zhàn)
傳統(tǒng)的機(jī)器,無(wú)論多么先進(jìn),在評(píng)定法律責(zé)任時(shí),存在一個(gè)決定性的共同特征。在每一個(gè)案件中,機(jī)器的功能和決策總是可以直接追溯到假借人類之手嵌入到其中的設(shè)計(jì)、編程和知識(shí),或者存在對(duì)機(jī)器施加控制的人類行為者。這些機(jī)器,無(wú)論多么復(fù)雜,終歸是為人類所使用的工具而已。以汽車等工具性機(jī)器為例,當(dāng)發(fā)生事故、造成人身或者財(cái)產(chǎn)損害,要么可以以未盡到合理注意義務(wù)為由追究使用者的過(guò)錯(cuò)侵權(quán)責(zé)任,要么可以以產(chǎn)品具有缺陷為由追究生產(chǎn)者的產(chǎn)品缺陷責(zé)任。這意味著,傳統(tǒng)的機(jī)器不具有法律人格的屬性,僅僅是個(gè)人、公司或者其他法律上的“人”的工具或者代理,這些法律主體在既有法律之下對(duì)其各自的行為負(fù)責(zé)。
但是,在不遠(yuǎn)的將來(lái),完全自主的機(jī)器將被推向市場(chǎng),自動(dòng)駕駛汽車有望成為最早的一批。為此,社會(huì)將需要考慮,在就自動(dòng)駕駛汽車等智能機(jī)器人的侵害行為分配法律責(zé)任時(shí),既有的責(zé)任規(guī)則是否可以游刃有余。畢竟,未來(lái)的自主智能機(jī)器將有能力完全自主行為,不再是為人類所使用的被動(dòng)工具;雖然人類設(shè)計(jì)、制造并部署了它們,但它們的行為卻不受人類的直接指令約束,而是基于對(duì)其所獲取的信息的分析和判斷,而且,它們?cè)诓煌榫持械姆磻?yīng)和決策可能不是其創(chuàng)造者可以預(yù)料到或者事先控制的。完全的自主性意味著新的機(jī)器范式:不需要人類介入或者干預(yù)的“感知-思考-行動(dòng)”。
(一)過(guò)錯(cuò)侵權(quán)責(zé)任難以適用于智能機(jī)器人
在實(shí)際運(yùn)作過(guò)程中脫離人類的控制,是智能機(jī)器人的一個(gè)核心特征。這一現(xiàn)象使得以人類行為者的注意義務(wù)為前提的過(guò)錯(cuò)侵權(quán)責(zé)任難以適用于因智能機(jī)器人的使用而產(chǎn)生的加害行為,因?yàn)橹悄軝C(jī)器人是獨(dú)立自主地運(yùn)作的,缺乏對(duì)其進(jìn)行直接操作或者控制的特定個(gè)人。
以自動(dòng)駕駛汽車為例,國(guó)際汽車工程師協(xié)會(huì)(SAE International)將自動(dòng)駕駛技術(shù)劃分為六個(gè)等級(jí):非自動(dòng)(Level 0),駕駛員輔助(Level 1),部分自動(dòng)(Level 2),有條件自動(dòng)(Level 3),高度自動(dòng)(Level 4),以及完全自動(dòng)(Level 5)。本文不討論在駕駛員輔助和部分自動(dòng)這兩種模式下,駕駛員和汽車制造商之間的責(zé)任分配,僅討論當(dāng)人類使用者完全不參與駕駛時(shí)的責(zé)任承擔(dān)。當(dāng)自動(dòng)駕駛汽車達(dá)到四級(jí)(高度自動(dòng))或者五級(jí)(完全自動(dòng))時(shí),人類使用者的角色從駕駛者轉(zhuǎn)變?yōu)槌丝?,不再需要?duì)行車狀況和環(huán)境進(jìn)行監(jiān)視或者在緊急情況下進(jìn)行操作。因此,當(dāng)四級(jí)以上的自動(dòng)駕駛汽車發(fā)生事故、造成損害時(shí),即使人類使用者處在駕駛位上,也無(wú)法訴諸過(guò)錯(cuò)侵權(quán),讓人類使用者承擔(dān)民事責(zé)任。在此種情形下,加害行為、因果關(guān)系和過(guò)錯(cuò)都不能歸咎于人類使用者。
不參與駕駛使得人類使用者不必負(fù)擔(dān)駕駛者在汽車駕駛過(guò)程中所應(yīng)盡到的合理注意義務(wù),只要不干擾自動(dòng)駕駛系統(tǒng),他甚至可以在駕駛位上隨心所欲,包括睡覺(jué)、玩手機(jī)等。當(dāng)乘客乘坐的是自動(dòng)駕駛出租車時(shí),情況就更是如此,缺少人類駕駛者使得過(guò)錯(cuò)侵權(quán)責(zé)任無(wú)從適用。但在另一個(gè)層面,注意義務(wù)的承擔(dān)者從人類駕駛者轉(zhuǎn)移到了自動(dòng)駕駛系統(tǒng);可以肯定的是,適用于自動(dòng)駕駛汽車的注意義務(wù)標(biāo)準(zhǔn)必然不同于適用于人類駕駛者的注意義務(wù)標(biāo)準(zhǔn)。
半個(gè)多世紀(jì)以前,美國(guó)法院在Arnold訴Reuther案中對(duì)此進(jìn)行了論證。在該案中,原告Arnold女士在不遵守交規(guī)的情況下橫穿馬路時(shí),被被告Reuther先生駕駛的汽車撞傷,Arnold于是指控Reuther過(guò)失侵權(quán)。Arnold主張,Reuther有“最后明顯機(jī)會(huì)”(Last Clear Chance)來(lái)避免車禍,但其未能做到,因而應(yīng)為此承擔(dān)責(zé)任。法院對(duì)這一觀點(diǎn)不予認(rèn)可,認(rèn)為:“一個(gè)人無(wú)論多么高效,都不是一個(gè)機(jī)械的機(jī)器人,不擁有像雷達(dá)機(jī)那樣,在危險(xiǎn)具體出現(xiàn)之前將其發(fā)現(xiàn)的能力。必須為人類的弱點(diǎn)和反應(yīng)留出一定的余地,而如果這樣的余地必須要求人類在零點(diǎn)幾秒內(nèi)作出反應(yīng),并且不能像現(xiàn)代機(jī)械裝置那樣,以機(jī)械的速度和精度作出反應(yīng),那么就必須承認(rèn),Reuther作為一個(gè)普通人,再怎么做也不能避免因Arnold的過(guò)失而給她本人招來(lái)的不幸。”
因此,在涉及自動(dòng)駕駛汽車的第一起事故案件中,法院將不會(huì)問(wèn)自動(dòng)駕駛汽車是否像一個(gè)理性人一樣行為。Arnold訴Reuther案的核心問(wèn)題有關(guān)過(guò)失:Reuther在當(dāng)時(shí)的情況下是否作出了合理的行為?但是對(duì)于自動(dòng)駕駛汽車,由于沒(méi)有人對(duì)其施加直接控制,問(wèn)題的核心將是汽車自身的表現(xiàn)是否達(dá)到應(yīng)然的狀態(tài),比如是否達(dá)到既定的行業(yè)標(biāo)準(zhǔn)。由于自動(dòng)駕駛汽車不是有效的法律主體,詢問(wèn)汽車自身是否盡到所應(yīng)負(fù)擔(dān)的注意義務(wù),將是不切實(shí)際的;于是,需要訴諸產(chǎn)品責(zé)任,尋找讓自動(dòng)駕駛汽車的生產(chǎn)者承擔(dān)責(zé)任的事由。
(二)智能機(jī)器人的產(chǎn)品責(zé)任及其挑戰(zhàn)
在我國(guó),《侵權(quán)責(zé)任法》《產(chǎn)品質(zhì)量法》《消費(fèi)者保護(hù)法》等法律對(duì)產(chǎn)品責(zé)任作出了規(guī)定。具體而言,因產(chǎn)品存在缺陷造成他人損害的,被侵權(quán)人可以向產(chǎn)品的生產(chǎn)者或者銷售者請(qǐng)求賠償。通說(shuō)認(rèn)為,產(chǎn)品責(zé)任屬于無(wú)過(guò)錯(cuò)的嚴(yán)格責(zé)任,只要產(chǎn)品存在缺陷,生產(chǎn)者就應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任,無(wú)需證明其存在過(guò)錯(cuò)。雖然被侵權(quán)人可以選擇向生產(chǎn)者或者銷售者請(qǐng)求賠償,但這兩個(gè)主體之間實(shí)際上構(gòu)成不真正連帶責(zé)任,向被侵權(quán)人承擔(dān)侵權(quán)責(zé)任的一方可以向有過(guò)錯(cuò)的另一方進(jìn)行追償。因此,當(dāng)無(wú)人進(jìn)行操作的自動(dòng)駕駛汽車等智能機(jī)器人造成人身或者財(cái)產(chǎn)損害時(shí),被侵權(quán)人可以向缺陷產(chǎn)品的制造商主張產(chǎn)品缺陷責(zé)任,需要證明:產(chǎn)品有缺陷,損害事實(shí)的存在,以及產(chǎn)品缺陷和損害事實(shí)之間存在因果關(guān)系。
產(chǎn)品缺陷是產(chǎn)品責(zé)任的一個(gè)核心概念,各國(guó)通說(shuō)一般認(rèn)為缺陷主要包括設(shè)計(jì)缺陷、制造缺陷和警示缺陷,我國(guó)關(guān)于產(chǎn)品缺陷的認(rèn)定標(biāo)準(zhǔn)體現(xiàn)在《產(chǎn)品質(zhì)量法》第46條,包括“不合理危險(xiǎn)”標(biāo)準(zhǔn)和產(chǎn)品質(zhì)量標(biāo)準(zhǔn)。此外,《產(chǎn)品質(zhì)量法》還為產(chǎn)品生產(chǎn)者提供了免責(zé)事由,包括:未將產(chǎn)品投入流通;產(chǎn)品投入流通時(shí),引起損害的缺陷尚不存在;以及將產(chǎn)品投入流通時(shí)的科學(xué)技術(shù)水平尚不能發(fā)現(xiàn)缺陷的存在。只要產(chǎn)品生產(chǎn)者能夠證明存在免責(zé)事由,就不承擔(dān)賠償責(zé)任。
在法律考慮賦予自動(dòng)駕駛汽車等智能機(jī)器人法律地位之前,其在法律上的地位就依然是物,落入產(chǎn)品的范疇是不成問(wèn)題的,產(chǎn)品責(zé)任自然也就有適用的余地,只要被侵權(quán)人可以證成產(chǎn)品缺陷責(zé)任。為了討論的方便,筆者將分兩種情況來(lái)論證。
1.智能機(jī)器人涉及人為(非操作者)失誤
證明產(chǎn)品存在缺陷可能是困難且受爭(zhēng)議的,但如果被侵權(quán)人的損害能夠歸因于因制造商的人為失誤而造成的產(chǎn)品缺陷,那么自動(dòng)駕駛汽車等智能機(jī)器人的自動(dòng)化程度再怎么高,也不會(huì)給既有的產(chǎn)品責(zé)任制度帶來(lái)大的挑戰(zhàn)。
按照我國(guó)的《產(chǎn)品質(zhì)量法》,不符合國(guó)家標(biāo)準(zhǔn)或者行業(yè)標(biāo)準(zhǔn)的產(chǎn)品被認(rèn)為具有缺陷。以Arnold訴Reuther案為例,假設(shè)Reuther先生乘坐的是一輛自動(dòng)駕駛汽車,坐在后排,該汽車在距離Arnold女士15英尺時(shí)檢測(cè)到了她并采取了緊急制動(dòng),但未能避免碰撞。再假設(shè)自動(dòng)駕駛汽車行業(yè)存在一個(gè)“碰撞避免”標(biāo)準(zhǔn):如果障礙物(包括人類)在距離汽車12英尺時(shí)被檢測(cè)到,那么自動(dòng)駕駛汽車必須能夠在其行進(jìn)路線上檢測(cè)到障礙物并避免碰撞。
顯然,在這種情況下,該自動(dòng)駕駛汽車不符合這一行業(yè)標(biāo)準(zhǔn),具有不合理危險(xiǎn),因?yàn)榘凑者@一行業(yè)標(biāo)準(zhǔn),碰撞本應(yīng)避免。如果我們將這一行業(yè)標(biāo)準(zhǔn)換為15英尺,而將該自動(dòng)駕駛汽車檢測(cè)到Arnold的距離換為12英尺,此時(shí)證明缺陷的存在將很困難,即使依據(jù)《美國(guó)侵權(quán)法第三次重述》中的“消費(fèi)者期待”標(biāo)準(zhǔn)(主要是指產(chǎn)品存在“不合理危險(xiǎn)”缺陷)和風(fēng)險(xiǎn)-效用標(biāo)準(zhǔn)(產(chǎn)品的可預(yù)見(jiàn)的風(fēng)險(xiǎn)可以通過(guò)采取合理的替代性設(shè)計(jì)予以消除),情況也是如此。
此外,證明存在制造缺陷(比如部件失靈)或者警示缺陷(比如未能合理告知消費(fèi)者如何操作智能機(jī)器人;在部分自動(dòng)駕駛的情況下需要人類駕駛者保持警惕并進(jìn)行操作的,如果制造商未能告知消費(fèi)者如何進(jìn)行操作,就需要承擔(dān)產(chǎn)品缺陷責(zé)任),同樣可以使被侵權(quán)人獲得賠償。
但問(wèn)題是,人工智能技術(shù)的發(fā)展使得自動(dòng)駕駛汽車等完全獨(dú)立自主的智能機(jī)器人的出現(xiàn)成為可能,這帶來(lái)的直接結(jié)果就是,一方面,證明缺陷尤其是人工智能系統(tǒng)層面的缺陷將變得異常困難,另一方面,事故的發(fā)生可能無(wú)法合理因歸于智能機(jī)器人的設(shè)計(jì)或者制造缺陷。這將給產(chǎn)品責(zé)任帶來(lái)直接的挑戰(zhàn)。面對(duì)自主智能機(jī)器人,人們將需要開(kāi)始審視既有的產(chǎn)品責(zé)任制度能否在制造商利益和消費(fèi)者利益之間實(shí)現(xiàn)平衡。
2.智能機(jī)器人涉及無(wú)法解釋的事故
產(chǎn)品責(zé)任只能讓制造商對(duì)因產(chǎn)品存在缺陷而造成的侵害行為承擔(dān)民事責(zé)任,但問(wèn)題是,智能機(jī)器人的一些新特征可能使得無(wú)法將事故的責(zé)任分配給生產(chǎn)者等既有法律主體,尤其是當(dāng)出現(xiàn)不能合理推斷出事故是由設(shè)計(jì)或者制造缺陷造成的情形之時(shí)。雖然自動(dòng)駕駛汽車普遍被認(rèn)為比人類駕駛更安全,比如,麥肯錫公司的一份研究報(bào)告發(fā)現(xiàn),自動(dòng)駕駛汽車將使交通事故減少90%;但是自動(dòng)駕駛汽車對(duì)交通事故并非具有完全的免疫力,而自主性、可預(yù)測(cè)性、可解釋性、因果關(guān)系等因素將極大增加事件的無(wú)法解釋性,帶來(lái)責(zé)任鴻溝。具體論證如下。
第一,自主性與可預(yù)測(cè)性(Foreseeability)。如前所述,自動(dòng)駕駛汽車等智能機(jī)器人區(qū)別于傳統(tǒng)的機(jī)器的最大特征在于具有高度的甚至完全的自主性。無(wú)論采用何種機(jī)器學(xué)習(xí)方法,當(dāng)前主流的深度學(xué)習(xí)算法都不是一步一步地對(duì)計(jì)算機(jī)編程,而是允許計(jì)算機(jī)從數(shù)據(jù)(往往是大量數(shù)據(jù))中學(xué)習(xí),不需要程序員作出新的分步指令。因此,在機(jī)器學(xué)習(xí)中,是學(xué)習(xí)算法(Learning Algorithm)創(chuàng)建了規(guī)則,而非程序員;其基本過(guò)程是給學(xué)習(xí)算法提供訓(xùn)練數(shù)據(jù),然后,學(xué)習(xí)算法基于從數(shù)據(jù)中得到的推論生成一組新的規(guī)則,稱之為機(jī)器學(xué)習(xí)模型。這意味著計(jì)算機(jī)可被用于無(wú)法進(jìn)行手動(dòng)編程的復(fù)雜認(rèn)知任務(wù),比如圖像識(shí)別、將圖片翻譯成語(yǔ)音、汽車駕駛等。
回到自動(dòng)駕駛汽車,自動(dòng)駕駛系統(tǒng)利用一系列雷達(dá)和激光傳感器、攝像頭、全球定位裝置以及很多復(fù)雜的分析性程序和算法等,像人類一樣駕駛汽車,而且做得更好。自動(dòng)駕駛汽車“觀察”路況,持續(xù)注意其他汽車、行人、障礙物、繞行道等,考慮交通流量、天氣以及影響汽車駕駛安全的其他所有因素并不斷調(diào)整其速度和路線。而且自動(dòng)駕駛汽車被編程來(lái)避免與行人、其他車輛或者障礙物發(fā)生碰撞。所有這一切都是機(jī)器學(xué)習(xí)的結(jié)果。因此可以說(shuō),在每一個(gè)現(xiàn)實(shí)情境中,都是自動(dòng)駕駛汽車自身在獨(dú)立判斷和決策,雖然是程序員設(shè)定了學(xué)習(xí)規(guī)則。學(xué)習(xí)能力和適應(yīng)能力的存在使得預(yù)測(cè)自動(dòng)駕駛汽車在特定情境中的行為成為一個(gè)問(wèn)題。
此外,人類決策系統(tǒng)與現(xiàn)代人工智能系統(tǒng)存在一個(gè)本質(zhì)上的區(qū)別,正是這一區(qū)別使得人類無(wú)法準(zhǔn)確預(yù)知人工智能系統(tǒng)針對(duì)某個(gè)問(wèn)題的解決措施。受限于人類大腦的認(rèn)知能力,為了作出決策,人類無(wú)法在有時(shí)間限制的情況下分析所有的相關(guān)信息,所以人類常常退而求其次,選擇一個(gè)自己滿意的解決方法,而非一個(gè)最佳化的解決方法,經(jīng)濟(jì)學(xué)家Herbert Simon稱之為“滿意法”。
電腦計(jì)算能力和機(jī)器學(xué)習(xí)方法的不斷提高,使得現(xiàn)代人工智能系統(tǒng)能夠在有限的時(shí)間內(nèi)精確計(jì)算所有的可能性,而且人工智能系統(tǒng)本質(zhì)上不受提前預(yù)置的概念、經(jīng)驗(yàn)法則、傳統(tǒng)智慧等因素的限制,從而使其能夠選擇人類完全沒(méi)有考慮過(guò)或者可能會(huì)實(shí)施的解決方案。正是這種能夠作出獨(dú)特決策的能力或者說(shuō)自主性,讓人工智能系統(tǒng)能夠應(yīng)用于更加廣泛的領(lǐng)域,同時(shí)也讓人工智能系統(tǒng)的設(shè)計(jì)者具有賦予人工智能系統(tǒng)這項(xiàng)能力的經(jīng)濟(jì)動(dòng)力。
所以,盡管人類設(shè)計(jì)并制造了自動(dòng)駕駛汽車等智能機(jī)器人,但卻可能無(wú)法預(yù)見(jiàn)其具體決策,然而這種無(wú)法預(yù)見(jiàn)性可能正是系統(tǒng)的設(shè)計(jì)者所期待的。隨著更加通用化的人工智能的發(fā)展以及機(jī)器學(xué)習(xí)技術(shù)的進(jìn)步,人工智能的行為和決策的不可預(yù)見(jiàn)性問(wèn)題將會(huì)更加頻繁地出現(xiàn),而且程度會(huì)不斷加深。
更進(jìn)一步,自動(dòng)駕駛汽車可能“打破”預(yù)先設(shè)定的規(guī)則,大大超出其設(shè)計(jì)者的預(yù)期。人們一直擔(dān)心,賦予機(jī)器自主“思考”的能力可能導(dǎo)致其有能力違反被給予的“規(guī)則”,以人們意想不到的方式行為。這不純粹是想象,已經(jīng)有證據(jù)表明高度“智能”的自主機(jī)器可以學(xué)習(xí)“打破”規(guī)則以保護(hù)其自身的生存。以自動(dòng)駕駛汽車為例,盡管模擬測(cè)試對(duì)其行為和決策意味重大,美國(guó)交通部在其發(fā)布的《聯(lián)邦自動(dòng)駕駛汽車政策》中也強(qiáng)調(diào)模擬能夠代表復(fù)雜的現(xiàn)實(shí)環(huán)境的測(cè)試環(huán)境的重要性;但是自動(dòng)駕駛汽車脫離制造商控制、進(jìn)入流通領(lǐng)域之后的學(xué)習(xí)和經(jīng)歷同樣影響其行為和決策。新的數(shù)據(jù)輸入可能使自動(dòng)駕駛汽車進(jìn)行調(diào)整和適應(yīng),導(dǎo)致其行為和決策超出預(yù)先設(shè)置的規(guī)則,這在理論上并非不可能。
再者,測(cè)試環(huán)境并不能窮盡所有的現(xiàn)實(shí)可能性,當(dāng)異常情況(Novel Situation)出現(xiàn)時(shí),自動(dòng)駕駛汽車必須在缺乏預(yù)先設(shè)定的規(guī)則的情況下,依據(jù)其自己創(chuàng)建的規(guī)則,真正獨(dú)立自主地作出決策。對(duì)于這種偏離預(yù)期的行為,以產(chǎn)品缺陷這一事由讓生產(chǎn)者承擔(dān)責(zé)任,難以在侵權(quán)法上得到證成。
第二,可解釋性(Interpretability)。通常,當(dāng)人類駕駛者造成交通事故,訴訟雙方通過(guò)舉證、質(zhì)證等程序性手段,完全可以還原并查明事故發(fā)生的過(guò)程,從而決定人類駕駛者是否履行了合理的注意義務(wù)。事故的可解釋性使得因傳統(tǒng)的交通事故而產(chǎn)生的法律糾紛可以按照既有法律框架得到有效解決。但是,現(xiàn)代人工智能系統(tǒng)越來(lái)越成為一個(gè)“黑箱”,所有決策都存在于這個(gè)“黑箱”中,自動(dòng)駕駛汽車等智能機(jī)器人也不例外。
而且,雖然學(xué)習(xí)算法可能是公開(kāi)和透明的,但它產(chǎn)生的模型可能不是,因?yàn)闄C(jī)器學(xué)習(xí)模型的內(nèi)部決策邏輯并不總是可以被理解的,即使對(duì)于程序員也是如此。因此,即使設(shè)計(jì)者可能也無(wú)從知曉系統(tǒng)如何進(jìn)行決策,更別提普通公眾了。行為和決策的不透明性和不可解釋性帶來(lái)的直接結(jié)果就是,當(dāng)自動(dòng)駕駛汽車造成交通事故時(shí),人們將很難查明事故背后的原因。即使法律要求算法必須公開(kāi)、透明,或者可以在法庭上對(duì)智能機(jī)器人的算法系統(tǒng)及其決策進(jìn)行交叉詢問(wèn),當(dāng)事人也會(huì)面臨技術(shù)性障礙,在成本上并不經(jīng)濟(jì)。此時(shí),誰(shuí)來(lái)承擔(dān)法律責(zé)任,將成為一個(gè)大大的問(wèn)題。
第三,因果關(guān)系(Causality)。一方面,如前所述,人工智能系統(tǒng)的一些新特征使得事故的可解釋性大打折扣,帶來(lái)歸因難題;另一方面,由于自動(dòng)駕駛汽車等智能機(jī)器人自帶學(xué)習(xí)能力和適應(yīng)能力,其“后天的”(區(qū)別于“先天的”系統(tǒng)設(shè)計(jì)和訓(xùn)練)學(xué)習(xí)和經(jīng)歷可能成為此類系統(tǒng)造成的任何損害的一個(gè)替代原因(Superseding Cause),足以使侵權(quán)行為事實(shí)上的行動(dòng)者免于承擔(dān)責(zé)任。
替代原因之所以可能出現(xiàn),是因?yàn)橐粋€(gè)能夠自主學(xué)習(xí)的人工智能系統(tǒng)的行為部分依靠其后天的經(jīng)歷,即使最細(xì)心的設(shè)計(jì)者、編程者以及制造者都沒(méi)有辦法控制或者預(yù)期人工智能系統(tǒng)在脫離他們之后將會(huì)經(jīng)歷些什么。
因此,當(dāng)自動(dòng)駕駛汽車等智能機(jī)器人發(fā)生事故、造成損害,而事故本身又難以解釋或者不能合理追溯到設(shè)計(jì)缺陷或者制造缺陷,或者損害是因人工智能系統(tǒng)難以為設(shè)計(jì)者所預(yù)測(cè)到的特殊經(jīng)歷造成的,此時(shí),讓設(shè)計(jì)者承擔(dān)責(zé)任將會(huì)導(dǎo)致不公平和非正義,但這樣卻會(huì)導(dǎo)致被侵權(quán)人難以獲得賠償。于是,法院面臨的挑戰(zhàn)是,為了保證被侵權(quán)人能夠得到賠償,就必須解決人工智能系統(tǒng)的可解釋性、可預(yù)見(jiàn)性以及因果關(guān)系等問(wèn)題。
(三)替代責(zé)任的適用可能性
如果智能機(jī)器人實(shí)際上“代理或者代表”某個(gè)法律主體從事行為或者進(jìn)行決策,那么可以比照父母對(duì)未成年人子女的責(zé)任或者說(shuō)監(jiān)護(hù)人對(duì)被監(jiān)護(hù)人的責(zé)任,或者雇主對(duì)雇員的責(zé)任,讓部署智能機(jī)器人的人承擔(dān)替代責(zé)任。其實(shí)在合同領(lǐng)域,智能軟件、程序化交易、智能合約等現(xiàn)象就給合同責(zé)任帶來(lái)挑戰(zhàn),引起學(xué)界討論,但是對(duì)于算法和程序做出的交易,各國(guó)一般將智能軟件看作是通信方式,而非認(rèn)為智能軟件和部署智能軟件的人之間存在代理關(guān)系或者雇傭關(guān)系。因此,借助智能軟件形成的所有合同法律關(guān)系都?xì)w屬于部署智能軟件的人,由其享有合同權(quán)利并承擔(dān)合同義務(wù)。
按照這一思路,在某些情況下,可以讓部署智能機(jī)器人的人承擔(dān)替代責(zé)任。比如,如果一個(gè)公司利用無(wú)人機(jī)送貨,或者利用自動(dòng)駕駛出租車運(yùn)送乘客,或者利用服務(wù)機(jī)器人提供家政、酒店、外賣等領(lǐng)域的服務(wù),那么其就必須對(duì)智能機(jī)器人的行為負(fù)責(zé)。但是,如果我們類比雇主對(duì)雇員的責(zé)任,雇主的替代責(zé)任以雇員在從事雇傭活動(dòng)中造成的損害為限,不對(duì)雇員的職務(wù)范圍以外的或者非職務(wù)的加害行為負(fù)責(zé),那么如何確定部署智能機(jī)器人的人對(duì)智能機(jī)器人的責(zé)任限度和范圍,將是法律必須回應(yīng)的一個(gè)問(wèn)題。更進(jìn)一步,如果將智能機(jī)器人看作是事實(shí)上的雇員,為了明確雇主的責(zé)任,就必須提出判斷智能機(jī)器人的職務(wù)行為和非職務(wù)行為的標(biāo)準(zhǔn)。本文僅提出這么一種可能性,這里不做進(jìn)一步探討。
三
歐盟開(kāi)始為智能機(jī)器人探索新的民事責(zé)任規(guī)則
面對(duì)人工智能的快速發(fā)展,一些國(guó)家開(kāi)始探索相關(guān)立法和監(jiān)管。
在美國(guó),美國(guó)交通部2016年9月出臺(tái)的《聯(lián)邦自動(dòng)駕駛汽車政策》雖未涉及責(zé)任問(wèn)題,但其中提出的自動(dòng)駕駛汽車安全標(biāo)準(zhǔn)卻可以為舉證產(chǎn)品責(zé)任提供必要的參考;此外,佛羅里達(dá)州、密歇根州等涉及自動(dòng)駕駛的立法均規(guī)定,車輛在被第三方改造為自動(dòng)駕駛汽車后,車輛的原始制造商不對(duì)自動(dòng)駕駛汽車的缺陷負(fù)責(zé),除非有證據(jù)證明車輛在被改造為自動(dòng)駕駛汽車前就已存在缺陷,這一規(guī)定實(shí)際上有利于厘清各方的法律責(zé)任。
在德國(guó),監(jiān)管機(jī)構(gòu)開(kāi)始考慮出臺(tái)新規(guī),要求汽車廠商在自動(dòng)駕駛汽車中安裝黑匣子,以便在事故發(fā)生后判定法律責(zé)任,開(kāi)展保險(xiǎn)理賠工作,這表明德國(guó)已經(jīng)開(kāi)始關(guān)注自動(dòng)駕駛汽車的透明性、可解釋性以及可追溯性問(wèn)題。
在英國(guó),自動(dòng)駕駛汽車中心(Centre for Connected and Autonomous Vehicles,縮寫(xiě)為CCAV)曾發(fā)布兩份報(bào)告,在其中對(duì)保險(xiǎn)和產(chǎn)品責(zé)任提出建議;報(bào)告提議將強(qiáng)制性的機(jī)動(dòng)車保險(xiǎn)延伸到自動(dòng)駕駛汽車以便將產(chǎn)品責(zé)任囊括進(jìn)去;新的保險(xiǎn)框架旨在保護(hù)自動(dòng)駕駛汽車事故中的受害者,受害者將可以直接向汽車保險(xiǎn)人請(qǐng)求賠償,而保險(xiǎn)人將有權(quán)向依據(jù)既有法律負(fù)有責(zé)任(比如產(chǎn)品責(zé)任)的主體進(jìn)行追償。
在智能機(jī)器人民事立法方面,當(dāng)屬歐盟動(dòng)作最大。早在2015年1月,歐盟議會(huì)法律事務(wù)委員會(huì)(JURI)就決定成立一個(gè)工作小組,專門研究與機(jī)器人和人工智能的發(fā)展相關(guān)的法律問(wèn)題。
2016年5月,法律事務(wù)委員會(huì)發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》,同年10月發(fā)布《歐盟機(jī)器人民事法律規(guī)則》。在這些研究和報(bào)告的基礎(chǔ)上,2017年2月16日,歐盟議會(huì)投票表決通過(guò)一份決議,在其中提出了一些具體的立法建議,要求歐盟委員會(huì)就機(jī)器人和人工智能提出立法提案(在歐盟只有歐盟委員會(huì)有權(quán)提出立法提案,但歐盟委員會(huì)并無(wú)義務(wù)遵守這一要求,不過(guò)如果其拒絕這么做,就必須陳述其理由)。
法律事務(wù)委員會(huì)提出的立法建議涉及多個(gè)方面,主要包括:成立一個(gè)專門負(fù)責(zé)機(jī)器人和人工智能的歐盟機(jī)構(gòu);確立人工智能倫理準(zhǔn)則;為智能機(jī)器人重構(gòu)責(zé)任規(guī)則;長(zhǎng)期來(lái)看,考慮賦予復(fù)雜的自主機(jī)器人法律地位(所謂的“電子人”)的可能性;知識(shí)產(chǎn)權(quán)方面應(yīng)明確人工智能的“獨(dú)立智力創(chuàng)造”;注重隱私和數(shù)據(jù)保護(hù);推進(jìn)標(biāo)準(zhǔn)化工作和機(jī)器人的安全可靠性;針對(duì)具有特定用途的機(jī)器人和人工智能系統(tǒng)(主要包括自動(dòng)駕駛汽車、護(hù)理機(jī)器人、醫(yī)療機(jī)器人、無(wú)人機(jī)、人類修復(fù)和增強(qiáng)等)出臺(tái)特定規(guī)則,進(jìn)行特殊監(jiān)管;關(guān)注人工智能的社會(huì)影響;以及加強(qiáng)法律政策領(lǐng)域的國(guó)際合作。
(一)需要新的責(zé)任規(guī)則
在法律事務(wù)委員會(huì)看來(lái),如今的機(jī)器人已經(jīng)具有自主性和認(rèn)知特征,也即,具有從經(jīng)歷中學(xué)習(xí)并獨(dú)立自主地作出判斷的能力,而且可以實(shí)質(zhì)性調(diào)整其行為,從機(jī)器人的侵害行為中產(chǎn)生的法律責(zé)任由此成為一個(gè)重大問(wèn)題。機(jī)器人的自主性越強(qiáng),就越難將其當(dāng)成是其他主體(比如制造商、所有人、使用者等)手中的簡(jiǎn)單工具,這反過(guò)來(lái)使得既有的責(zé)任規(guī)則開(kāi)始變得不足,因而需要新的規(guī)則。新的規(guī)則著眼于如何讓一臺(tái)機(jī)器為其行為或者疏忽而部分或者全部地承擔(dān)責(zé)任。結(jié)果就是,解決機(jī)器人是否應(yīng)當(dāng)擁有法律地位這一問(wèn)題將變得越來(lái)越迫切。最終,法律需要對(duì)機(jī)器人的本質(zhì)問(wèn)題作出回應(yīng),其是否應(yīng)當(dāng)被當(dāng)成是自然人、法人、動(dòng)物抑或物,或者法律應(yīng)當(dāng)為其創(chuàng)設(shè)新類型的法律主體,在權(quán)利、義務(wù)、責(zé)任承擔(dān)等方面具有其自身的特性和內(nèi)涵。
在目前的法律框架下,機(jī)器人自身不對(duì)因其行為或者疏忽而給第三方造成的損害承擔(dān)責(zé)任。而且,既有責(zé)任規(guī)則要求機(jī)器人的行為或者疏忽能夠歸因于制造商、所有人、使用者等特定法律主體,并且這些主體能夠預(yù)見(jiàn)并避免機(jī)器人的加害行為。更進(jìn)一步,關(guān)于危險(xiǎn)物品的責(zé)任和產(chǎn)品責(zé)任可以讓這些法律主體為機(jī)器人的行為承擔(dān)嚴(yán)格責(zé)任。
但是,如果機(jī)器人自主地作出決策,傳統(tǒng)的責(zé)任規(guī)則就將不足以解決機(jī)器人的責(zé)任問(wèn)題,因?yàn)閭鹘y(tǒng)的規(guī)則將可能不能確定責(zé)任方并讓其作出賠償。此外,現(xiàn)有法律框架的缺點(diǎn)在合同責(zé)任方面更是顯而易見(jiàn)的,因?yàn)闄C(jī)器人現(xiàn)在能夠選擇合同當(dāng)事人,磋商合同條款,締結(jié)合同并決定是否以及如何執(zhí)行所達(dá)成的合同,這些現(xiàn)象使得傳統(tǒng)的合同規(guī)則無(wú)法適用。在非合同責(zé)任方面,既有的產(chǎn)品責(zé)任規(guī)則僅能涵蓋因機(jī)器人的制造缺陷而造成的損害,同時(shí)受害人必須能夠證明存在實(shí)際損害、產(chǎn)品缺陷且缺陷與損害之間具有因果關(guān)系。
但是,目前的法律框架無(wú)法完全涵蓋新一代機(jī)器人所造成的損害,因?yàn)樗鼈兙邆溥m應(yīng)性和學(xué)習(xí)能力,具有一定程度上的行為不可預(yù)測(cè)性,因?yàn)檫@些機(jī)器人將從其自己的變幻莫測(cè)的經(jīng)歷中自主學(xué)習(xí),并且以獨(dú)特且不可預(yù)見(jiàn)的方式與其所處環(huán)境進(jìn)行交互。
(二)構(gòu)建新的責(zé)任規(guī)則
對(duì)于智能機(jī)器人帶來(lái)的責(zé)任挑戰(zhàn),法律事務(wù)委員會(huì)從歐盟自身的法律體系出發(fā),提出了一些可供參考的立法建議。具體論證如下。
第一,對(duì)于智能機(jī)器人,有損害,必有責(zé)任。無(wú)論選擇什么樣的法律方案來(lái)解決機(jī)器人的責(zé)任問(wèn)題,在涉及財(cái)產(chǎn)損害之外的損害案件中,都不應(yīng)該限制可以被彌補(bǔ)的損害的種類或者程度,也不應(yīng)該基于損害是由非人類行動(dòng)者(即智能機(jī)器人自身)造成的這一理由限制受害人可能獲得的賠償。對(duì)于智能機(jī)器人造成的損害,未來(lái)的立法應(yīng)當(dāng)規(guī)定嚴(yán)格責(zé)任,僅要求機(jī)器人的侵害行為和受害人的損害之間具有因果關(guān)系即可。
第二,如果最終負(fù)有責(zé)任的主體得到確認(rèn),其所應(yīng)承擔(dān)的責(zé)任應(yīng)與其給予機(jī)器人的指令級(jí)別以及機(jī)器人的自主性程度相稱。因此,機(jī)器人的自主性或者學(xué)習(xí)能力越強(qiáng),其他主體的責(zé)任就越低;機(jī)器人的“教育”持續(xù)的時(shí)間越長(zhǎng),“教育者”所應(yīng)負(fù)擔(dān)的責(zé)任就越大。此外,當(dāng)將機(jī)器人的侵害行為歸咎于特定主體時(shí),不應(yīng)將通過(guò)“教育”機(jī)器人產(chǎn)生的技能與嚴(yán)格依賴于其自身學(xué)習(xí)能力的技能相混淆。
第三,為自主智能機(jī)器人造成的損害分配法律責(zé)任是一個(gè)復(fù)雜的問(wèn)題,一個(gè)可能的解決方案是適用于智能機(jī)器人的強(qiáng)制保險(xiǎn)制度。但是該保險(xiǎn)制度與當(dāng)前的機(jī)動(dòng)車保險(xiǎn)不同,因?yàn)楹笳邇H覆蓋人類行為和差錯(cuò)。適用于機(jī)器人的保險(xiǎn)制度可以基于要求制造商為其生產(chǎn)的機(jī)器人購(gòu)置保險(xiǎn)的義務(wù)。除了制造商,也可以讓機(jī)器人的所有人購(gòu)買此類保險(xiǎn)。
第四,可以考慮建立賠償基金,作為強(qiáng)制保險(xiǎn)制度的一個(gè)補(bǔ)充。一方面,賠償基金可以確保未被保險(xiǎn)覆蓋的損害可以得到彌補(bǔ),這是設(shè)立賠償基金的首要目的;另一方面,允許機(jī)器人牽涉到的多個(gè)利益相關(guān)方的投入,比如向智能機(jī)器人作出的投資、捐贈(zèng)或者支付,被轉(zhuǎn)移到該基金。此外,賠償基金可以作為限制制造商責(zé)任的一個(gè)條件,即,對(duì)于被賠償基金覆蓋的智能機(jī)器人,其制造商僅承擔(dān)有限責(zé)任,即,財(cái)產(chǎn)損害的賠償責(zé)任以該基金為限度,其他類型的損害的賠償則不受此限。
第五,與保險(xiǎn)、賠償基金等相配套的機(jī)器人登記制度和機(jī)器人法律地位。機(jī)器人登記制度基于機(jī)器人分類。確保機(jī)器人與其賠償基金之間的關(guān)聯(lián)在機(jī)器人登記中得到體現(xiàn),以便任何人都能知曉基金的性質(zhì)、財(cái)產(chǎn)損害的責(zé)任限制以及其他相關(guān)信息。此外,對(duì)于最復(fù)雜的自主智能機(jī)器人,可以考慮賦予其法律地位,在法律上承認(rèn)其為“電子人”(Electronic Person),具有明確的權(quán)利和義務(wù),包括對(duì)其造成的損害作出賠償,以及在智能機(jī)器人作出決策或者獨(dú)立自主地與第三方交往時(shí),適用電子人格(這可以幫助解決合同責(zé)任、侵權(quán)責(zé)任等問(wèn)題)。
四
智能機(jī)器人民事責(zé)任的幾種方案
如前所述,智能機(jī)器人的出現(xiàn)和發(fā)展將給產(chǎn)品責(zé)任等既有侵權(quán)責(zé)任規(guī)則提出挑戰(zhàn)。法院未來(lái)在審理第一起涉及真正完全的自動(dòng)駕駛汽車或者智能機(jī)器人的損害案件時(shí)將需要面對(duì)這些挑戰(zhàn),可預(yù)測(cè)性、可解釋性以及因果關(guān)系等將可能成為彌補(bǔ)損害的最大障礙。與此同時(shí),這些挑戰(zhàn)一方面可能使終端用戶的損害無(wú)法得到補(bǔ)償,另一方面給制造商帶來(lái)法律責(zé)任的不確定性,最終可能影響技術(shù)發(fā)展和進(jìn)步,自動(dòng)駕駛汽車等智能機(jī)器人所能帶來(lái)的諸多好處因此可能延遲普及。
歐盟、英國(guó)、美國(guó)等都已經(jīng)意識(shí)到既有的民事責(zé)任規(guī)則在應(yīng)對(duì)智能機(jī)器人的法律責(zé)任時(shí)具有局限性,這種局限性進(jìn)而會(huì)影響各方對(duì)其合理行為的預(yù)測(cè)可能性,進(jìn)而破壞法律的可預(yù)測(cè)性,最終會(huì)限制行業(yè)發(fā)展的步伐;這些國(guó)家和地區(qū)為此已經(jīng)開(kāi)始探索新的責(zé)任規(guī)則或者法律方案,目的在于在制造商、終端用戶等法律主體之間實(shí)現(xiàn)新的法律平衡,同時(shí)為智能機(jī)器人民事責(zé)任的確定提供更為清晰、明確和有效的規(guī)則。
為了更合理、有效地對(duì)智能機(jī)器人造成的損害分配法律責(zé)任,筆者結(jié)合各國(guó)的探索,試圖提出幾種可供參考的方案;但立法者或者法院最終選擇何種方案,需要從法經(jīng)濟(jì)學(xué)、實(shí)證主義、功用主義等角度進(jìn)行全方位的論證,以便實(shí)現(xiàn)法律平衡各方利益的價(jià)值。
第一,借鑒《侵權(quán)責(zé)任法》上關(guān)于危險(xiǎn)責(zé)任的規(guī)定,讓智能機(jī)器人的制造商或者使用者承擔(dān)嚴(yán)格責(zé)任(Strict Liability)。但智能機(jī)器人的嚴(yán)格責(zé)任的出發(fā)點(diǎn)不是“異常危險(xiǎn)”或者“不合理危險(xiǎn)”。如前所述,當(dāng)真正完全的自主智能機(jī)器人發(fā)生事故、造成損害,證明缺陷、因果關(guān)系等事項(xiàng)將成為受害人難以逾越的法律障礙。在這種情況下,法律或者法院可以強(qiáng)令執(zhí)行保險(xiǎn)制度以解決侵權(quán)法的不充足性。
支持建立智能機(jī)器人的嚴(yán)格責(zé)任的理由如下:
其一,為不是因其自身過(guò)錯(cuò)而遭受損害的個(gè)人提供救濟(jì)是一項(xiàng)重要的價(jià)值,在因果鏈條無(wú)法解釋的情況下讓一個(gè)個(gè)體自己承擔(dān)所遭受的損失,與公正、分配正義、風(fēng)險(xiǎn)分擔(dān)等基本觀念背道而馳;
其二,不同于受害人,智能機(jī)器人的制造商處在了消化成本的有利位置,可以通過(guò)定價(jià)等方式廣泛分散損失負(fù)擔(dān);
其三,嚴(yán)格責(zé)任制度可以節(jié)約所有相關(guān)的交易成本,尤其是在缺陷、因果關(guān)系等難以證明的情況下,訴訟成本將會(huì)非常高昂;從成本-效率的角度來(lái)看,智能機(jī)器人的復(fù)雜性和自主性呈幾何級(jí)數(shù)增長(zhǎng),產(chǎn)品責(zé)任訴訟的成本亦將呈指數(shù)級(jí)增長(zhǎng),與其為律師、專家等投入高昂成本,倒不如來(lái)更多賠償受害者;
最后,相比于一個(gè)預(yù)測(cè)性低的法律制度,一個(gè)可預(yù)測(cè)的責(zé)任機(jī)制將能更好地促進(jìn)創(chuàng)新。
第二,差別化責(zé)任規(guī)則。差別化責(zé)任制度的前提是針對(duì)于自動(dòng)駕駛汽車等智能機(jī)器人的審批機(jī)制。未來(lái)有必要由統(tǒng)一的人工智能監(jiān)管機(jī)構(gòu)或者行業(yè)主管機(jī)構(gòu)對(duì)智能機(jī)器人進(jìn)行必要的監(jiān)管,審批制度是潛在的監(jiān)管措施之一。
審批制度可以發(fā)揮兩方面的作用,一方面,審批制度有利于保障面向終端用戶的智能機(jī)器人的安全可靠性,增進(jìn)公眾對(duì)智能機(jī)器人的信任;另一方面,審批制度可以成為智能機(jī)器人的差別化侵權(quán)責(zé)任的基礎(chǔ)。
對(duì)于通過(guò)監(jiān)管機(jī)構(gòu)審批的智能機(jī)器人,制造商實(shí)質(zhì)上將只承擔(dān)有限的侵權(quán)責(zé)任,對(duì)監(jiān)管規(guī)則的遵守?fù)Q來(lái)的是有限的侵權(quán)責(zé)任,而非完全排除其侵權(quán)責(zé)任。在涉及通過(guò)審批的智能機(jī)器人的訴訟中,被侵權(quán)人需要按照傳統(tǒng)的產(chǎn)品責(zé)任進(jìn)行舉證。否則,制造商等法律主體將只承擔(dān)有限責(zé)任,方式可以是保險(xiǎn)、賠償基金(比如監(jiān)管機(jī)構(gòu)可以拿審批費(fèi)用的一部分或者政府財(cái)政預(yù)算來(lái)設(shè)立賠償基金)等。
對(duì)于沒(méi)有經(jīng)過(guò)審批的人工智能系統(tǒng),制造商等法律主體應(yīng)當(dāng)承擔(dān)嚴(yán)格責(zé)任,而且該責(zé)任是連帶的,以便讓智能機(jī)器人涉及到的多個(gè)相關(guān)主體都承擔(dān)責(zé)任,以實(shí)現(xiàn)最大化救濟(jì)被侵權(quán)人的目的。但是為了不不利地影響技術(shù)創(chuàng)新和產(chǎn)業(yè)發(fā)展,審批制度可以是自愿性的。
第三,強(qiáng)制保險(xiǎn)制度和賠償基金。如前所述,在涉及智能機(jī)器人的訴訟中舉證產(chǎn)品缺陷、因果關(guān)系等事項(xiàng)將變得越來(lái)越困難,為了能夠?qū)o(wú)辜的受害人進(jìn)行賠償,可以考慮針對(duì)智能機(jī)器人提出由制造商或者所有人負(fù)擔(dān)的強(qiáng)制性的保險(xiǎn)機(jī)制,以覆蓋產(chǎn)品責(zé)任;由市場(chǎng)主導(dǎo)的一個(gè)保險(xiǎn)機(jī)制將不需要對(duì)既有法律制度作出大的調(diào)整或者變革。賠償基金可以作為有限責(zé)任承擔(dān)或者賦予智能機(jī)器人法律人格的配套措施,已如前所述,不再贅述。
第四,可以像歐盟那樣,考慮賦予某些智能機(jī)器人法律人格。歷史地看,法律可以賦予公司等法人地位,甚至承認(rèn)非法人組織(比如合伙)也可以享有一定的法律地位,未來(lái)在時(shí)機(jī)成熟時(shí)賦予智能機(jī)器人法律地位,也未嘗不可。到那時(shí),如果賦予智能機(jī)器人電子人格(Electronic Personality),讓其可以享有特定的權(quán)利和義務(wù),并可以對(duì)其行為承擔(dān)法律責(zé)任,包括對(duì)其造成的損害的賠償責(zé)任,人們現(xiàn)在擔(dān)心的很多責(zé)任問(wèn)題都可以得到較好的解決。
五
結(jié)論
制定的法律在制定之時(shí)便已落后于時(shí)代。誠(chéng)然,技術(shù)進(jìn)步總是會(huì)給法律提出這樣或者那樣的挑戰(zhàn),但是法律的可預(yù)測(cè)性和張力使得法院通常可以依循法律解釋學(xué),得心應(yīng)手地應(yīng)對(duì)新出現(xiàn)的情況,而不需要對(duì)既有法律規(guī)則做出較大變動(dòng)。
但是,法律解釋學(xué)并非一顆靈丹妙藥,不但有其局限性,而且也會(huì)失靈,在一些新情況下難以確保法律的利益平衡目的之實(shí)現(xiàn)。完全自主的自動(dòng)駕駛汽車等智能機(jī)器人的出現(xiàn)和發(fā)展,將會(huì)帶來(lái)這樣的新情況。屆時(shí),侵權(quán)法、合同法等法律規(guī)則的不充足性和局限性將逐漸顯現(xiàn)出來(lái),對(duì)新的法律規(guī)則的需求將變得越來(lái)越迫切。
究竟什么樣的規(guī)則最適合應(yīng)對(duì)未來(lái)的智能機(jī)器人帶來(lái)的責(zé)任挑戰(zhàn),筆者在上文提出的幾種方案并非蓋棺之言,而是希望能夠引起人們的關(guān)注和探討,共同尋找并論證恰當(dāng)?shù)囊?guī)則。最終目的是希望在促進(jìn)新技術(shù)發(fā)展的同時(shí),也對(duì)可能被新技術(shù)影響或者侵害的人提供法律救濟(jì),無(wú)論這些影響或者侵害能否被既有的法律所覆蓋。