試想,2023年自動駕駛車穿梭于大街小巷。若不幸發(fā)生了交通事故,行人被撞身亡,媒體將爭相報道。這場官司必將引發(fā)廣泛關注,但究竟該如何審判,依據(jù)是什么?
如今,英國布萊頓大學的John Kingston給出了一個答案,但有些差強人意,他提出了AI領域的刑事責任理論,并指出自動化、計算機和法律領域需改變態(tài)度,謹慎應對等關鍵問題。
爭論的核心在于人工智能系統(tǒng)能否自行承擔刑事責任。Kingston稱,以色列奧濃科學院的Gabriel Hallevy對此問題進行了深入研究。
構成刑事責任通常需要明確其行為和意圖(法律術語為actus rea 和 mens rea)。Kingston稱Hallevy描繪了AI系統(tǒng)可能涉及的三種刑事犯罪情況。
第一種情況為間接犯罪,肇事者為存在精神缺陷的人或動物,此類肇事者無需承擔法律責任。但任何操縱精神病患者或動物實施犯罪的人均需承擔相應刑事責任。例如,狗主人命令狗襲擊他人。
再比如,智能機器的設計者及使用者。Kingston表示:“AI項目可能被當作無辜的工具,而利用它實施犯罪的軟件編程師或用戶則為間接犯罪的主謀。”
第二種情況為不可抗力與意外事件,即指因不當使用AI系統(tǒng)導致的犯罪。Kingston以日本摩托車工廠智能機器人殺人案件為例,解釋道:“機器人將工人誤認為危險對象,采取消除威脅的最有效方式,揮動力大無窮的液壓懸臂,將毫無防備的工人推入機器,迅速結束了他的生命,然后繼續(xù)執(zhí)行工作任務。”
此案例的關鍵問題在于該機器的編程師是否已知此類機器的功能缺陷及可能帶來的后果。
第三種情況為行為與意圖兼具的直接犯罪,如果AI系統(tǒng)的作為或疏忽不作為構成犯罪,則可直接證明其犯罪事實。
Kingston認為,犯罪意圖雖然難以界定,但仍具參考價值,他表示:“超速屬嚴格責任犯罪。因此根據(jù)Hallevy的說法,自動駕駛汽車如果超速行駛,法律上有充分理由追究驅動該汽車AI技術團隊的刑事責任。”如此看來,車主無需擔責。
接下來,涉及刑事辯護。被追究刑事責任的AI系統(tǒng)將如何辯護?Kingston列舉了幾種可能:AI程序是否可效仿精神病患者,以系統(tǒng)故障為由進行辯護?或效仿人類被迫或醉酒犯罪,將受電腦病毒襲擊作為辯護理由?
這幾種辯護情況并非憑空設想,Kingston分享了英國的一些案例,有計算機犯罪的相關責任人就以機器感染惡意軟件為由,進行過成功辯護,并稱惡意軟件該負責。
某案例中,一名被控發(fā)起拒絕服務攻擊的青少年黑客辯稱,木馬程序發(fā)動了此次攻擊,該程序還在警方介入前清除了作案痕跡。
最后,涉及刑罰類型。既然AI系統(tǒng)是犯罪行為的直接責任方,那么應由誰來接受何種刑罰?這些問題尚不得而知。
但若AI系統(tǒng)觸犯的是民法,就不應再追究其刑事責任。接著問題來了,AI系統(tǒng)究竟屬于服務還是產(chǎn)品?
如果將AI系統(tǒng)視作產(chǎn)品,應根據(jù)產(chǎn)品保修證所提供的信息,運用產(chǎn)品設計法規(guī)處理案例。
如果將其視作服務,則存在過失侵權。這種情況下,原告通常需提供構成過失侵權的三要素。其一,需證明被告有看管義務。Kingston表示,盡管AI案件中沒有明確界定看管標準,通??芍苯幼C明。
其二,需證明被告存在失職。最后,還需證明該失職對原告造成了傷害。
然而,比這些條文更復雜的是,隨著AI系統(tǒng)的能力愈發(fā)接近人類,甚至超越人類,其法律地位也將改變。
有一件事是肯定的:未來幾年內(nèi),律師(或是替代他們的AI系統(tǒng))會卷入越來越多的新奇案例糾紛中。