如何追究AI犯罪的民事責(zé)任?
試想,2023年自動(dòng)駕駛車穿梭于大街小巷。若不幸發(fā)生了交通事故,行人被撞身亡,媒體將爭(zhēng)相報(bào)道。這場(chǎng)官司必將引發(fā)廣泛關(guān)注,但究竟該如何審判,依據(jù)是什么?
如今,英國(guó)布萊頓大學(xué)的John Kingston給出了一個(gè)答案,但有些差強(qiáng)人意,他提出了AI領(lǐng)域的刑事責(zé)任理論,并指出自動(dòng)化、計(jì)算機(jī)和法律領(lǐng)域需改變態(tài)度,謹(jǐn)慎應(yīng)對(duì)等關(guān)鍵問題。
爭(zhēng)論的核心在于人工智能系統(tǒng)能否自行承擔(dān)刑事責(zé)任。Kingston稱,以色列奧濃科學(xué)院的Gabriel Hallevy對(duì)此問題進(jìn)行了深入研究。
構(gòu)成刑事責(zé)任通常需要明確其行為和意圖(法律術(shù)語為actus rea 和 mens rea)。Kingston稱Hallevy描繪了AI系統(tǒng)可能涉及的三種刑事犯罪情況。
第一種情況為間接犯罪,肇事者為存在精神缺陷的人或動(dòng)物,此類肇事者無需承擔(dān)法律責(zé)任。但任何操縱精神病患者或動(dòng)物實(shí)施犯罪的人均需承擔(dān)相應(yīng)刑事責(zé)任。例如,狗主人命令狗襲擊他人。
再比如,智能機(jī)器的設(shè)計(jì)者及使用者。Kingston表示:“AI項(xiàng)目可能被當(dāng)作無辜的工具,而利用它實(shí)施犯罪的軟件編程師或用戶則為間接犯罪的主謀。”
第二種情況為不可抗力與意外事件,即指因不當(dāng)使用AI系統(tǒng)導(dǎo)致的犯罪。Kingston以日本摩托車工廠智能機(jī)器人殺人案件為例,解釋道:“機(jī)器人將工人誤認(rèn)為危險(xiǎn)對(duì)象,采取消除威脅的最有效方式,揮動(dòng)力大無窮的液壓懸臂,將毫無防備的工人推入機(jī)器,迅速結(jié)束了他的生命,然后繼續(xù)執(zhí)行工作任務(wù)。”
此案例的關(guān)鍵問題在于該機(jī)器的編程師是否已知此類機(jī)器的功能缺陷及可能帶來的后果。
第三種情況為行為與意圖兼具的直接犯罪,如果AI系統(tǒng)的作為或疏忽不作為構(gòu)成犯罪,則可直接證明其犯罪事實(shí)。
Kingston認(rèn)為,犯罪意圖雖然難以界定,但仍具參考價(jià)值,他表示:“超速屬嚴(yán)格責(zé)任犯罪。因此根據(jù)Hallevy的說法,自動(dòng)駕駛汽車如果超速行駛,法律上有充分理由追究驅(qū)動(dòng)該汽車AI技術(shù)團(tuán)隊(duì)的刑事責(zé)任。”如此看來,車主無需擔(dān)責(zé)。
接下來,涉及刑事辯護(hù)。被追究刑事責(zé)任的AI系統(tǒng)將如何辯護(hù)?Kingston列舉了幾種可能:AI程序是否可效仿精神病患者,以系統(tǒng)故障為由進(jìn)行辯護(hù)?或效仿人類被迫或醉酒犯罪,將受電腦病毒襲擊作為辯護(hù)理由?
這幾種辯護(hù)情況并非憑空設(shè)想,Kingston分享了英國(guó)的一些案例,有計(jì)算機(jī)犯罪的相關(guān)責(zé)任人就以機(jī)器感染惡意軟件為由,進(jìn)行過成功辯護(hù),并稱惡意軟件該負(fù)責(zé)。
某案例中,一名被控發(fā)起拒絕服務(wù)攻擊的青少年黑客辯稱,木馬程序發(fā)動(dòng)了此次攻擊,該程序還在警方介入前清除了作案痕跡。
最后,涉及刑罰類型。既然AI系統(tǒng)是犯罪行為的直接責(zé)任方,那么應(yīng)由誰來接受何種刑罰?這些問題尚不得而知。
但若AI系統(tǒng)觸犯的是民法,就不應(yīng)再追究其刑事責(zé)任。接著問題來了,AI系統(tǒng)究竟屬于服務(wù)還是產(chǎn)品?
如果將AI系統(tǒng)視作產(chǎn)品,應(yīng)根據(jù)產(chǎn)品保修證所提供的信息,運(yùn)用產(chǎn)品設(shè)計(jì)法規(guī)處理案例。
如果將其視作服務(wù),則存在過失侵權(quán)。這種情況下,原告通常需提供構(gòu)成過失侵權(quán)的三要素。其一,需證明被告有看管義務(wù)。Kingston表示,盡管AI案件中沒有明確界定看管標(biāo)準(zhǔn),通常可直接證明。
其二,需證明被告存在失職。最后,還需證明該失職對(duì)原告造成了傷害。
然而,比這些條文更復(fù)雜的是,隨著AI系統(tǒng)的能力愈發(fā)接近人類,甚至超越人類,其法律地位也將改變。
有一件事是肯定的:未來幾年內(nèi),律師(或是替代他們的AI系統(tǒng))會(huì)卷入越來越多的新奇案例糾紛中。