美國(guó)首次對(duì)軍事人工智能應(yīng)用所導(dǎo)致倫理問(wèn)題進(jìn)行回應(yīng)
掃描二維碼
隨時(shí)隨地手機(jī)看文章
隨著人工智能技術(shù)的巨大成功并開(kāi)始在軍事領(lǐng)域廣泛應(yīng)用,人們擔(dān)心它會(huì)導(dǎo)致“機(jī)器殺人”的慘劇出現(xiàn)。著名天體物理學(xué)家斯蒂芬·霍金對(duì)人工智能充滿期待,同時(shí)也對(duì)它的開(kāi)發(fā)應(yīng)用滿懷擔(dān)憂:“有益的人工智能可以擴(kuò)大人類的能力和可能性,但失控的人工智能很難被阻止。所以,在開(kāi)發(fā)人工智能時(shí)必須保證符合道德倫理與安全措施的要求?!?0月31日,美國(guó)國(guó)防創(chuàng)新委員會(huì)率先推出《人工智能原則:國(guó)防部人工智能應(yīng)用倫理的若干建議》,這是對(duì)軍事人工智能應(yīng)用所導(dǎo)致倫理問(wèn)題的首次回應(yīng)。
美國(guó)國(guó)防創(chuàng)新委員會(huì)的這份報(bào)告為美國(guó)國(guó)防部在戰(zhàn)斗和非戰(zhàn)斗場(chǎng)景中設(shè)計(jì)、開(kāi)發(fā)和應(yīng)用人工智能技術(shù),提出了“負(fù)責(zé)、公平、可追蹤、可靠、可控”五大原則。
“負(fù)責(zé)”原則的主要含義是,人工智能是人的產(chǎn)物,人是能動(dòng)的、具有個(gè)人價(jià)值觀和情感好惡的責(zé)任主體。人工智能技術(shù)的決策者和開(kāi)發(fā)專家,必然要體現(xiàn)人的主體作用,他們理所當(dāng)然應(yīng)該為自己的決定和行為造成的結(jié)果負(fù)責(zé)。在軍事應(yīng)用中,因?yàn)樵斐傻暮蠊赡芫哂袣缧?,所以,“?fù)責(zé)”成為第一原則。
“公平”原則是指,對(duì)人而言,不同領(lǐng)域、不同職級(jí)的所有人在人工智能面前是平等的,不應(yīng)有區(qū)別對(duì)待。人工智能系統(tǒng)應(yīng)無(wú)差別地向人機(jī)界面提供它的處理結(jié)果,依據(jù)結(jié)果作出判斷、采取行動(dòng),機(jī)會(huì)也是公平的。
“可追蹤”原則的含義是,不管是純技術(shù)過(guò)程還是人機(jī)交互過(guò)程,人工智能系統(tǒng)都必須是可追溯和可審計(jì)的。人工智能系統(tǒng)要如實(shí)記錄生成決定的整個(gè)過(guò)程和系統(tǒng)所作的決定,包括數(shù)據(jù)收集、數(shù)據(jù)標(biāo)記以及所用算法等,不僅要確保其數(shù)據(jù)和系統(tǒng)的透明度,而且要確保其數(shù)學(xué)模型的透明度。
“可靠”原則指的是,人工智能系統(tǒng)在使用過(guò)程中對(duì)使用者而言是安全、可靠和不作惡的。
“可控”原則要求,不管人工智能系統(tǒng)的功能如何強(qiáng)大、技術(shù)如何發(fā)展,它的作用和能力應(yīng)該永遠(yuǎn)置于人的控制之下。美軍在伊拉克戰(zhàn)場(chǎng)上使用的智能機(jī)器人就有失控向己方開(kāi)火的先例。落實(shí)“可控”原則,就要嚴(yán)格限定對(duì)人工智能的授權(quán),同時(shí)要加強(qiáng)對(duì)技術(shù)失誤的警惕、督查和檢驗(yàn)。
為了貫徹以上軍用人工智能倫理原則,美國(guó)國(guó)防創(chuàng)新委員會(huì)提出了若干條建議,可以歸納為以下4個(gè)方面的舉措。
一是通過(guò)國(guó)防部官方渠道將這些原則正式化?!度斯ぶ悄茉瓌t:國(guó)防部人工智能應(yīng)用倫理的若干建議》是全球第一個(gè)完整描述軍事人工智能倫理原則的文件。美國(guó)國(guó)防創(chuàng)新委員會(huì)是一個(gè)獨(dú)立的聯(lián)邦顧問(wèn)委員會(huì),成員包括來(lái)自谷歌、臉書(shū)、微軟等科技企業(yè)的高管和專家。這一組織雖然在形式上是一個(gè)民間組織,但其功能是為國(guó)防部高層領(lǐng)導(dǎo)提供建議。其提出的軍用人工智能原則,雖然并不自動(dòng)成為美國(guó)國(guó)防部的原則,但成為美國(guó)國(guó)防部認(rèn)可標(biāo)準(zhǔn)的概率是很大的。
二是建立一個(gè)為國(guó)防部服務(wù)的人工智能指導(dǎo)委員會(huì)。美軍之前開(kāi)展的“利用受監(jiān)管的自主能力開(kāi)展城市偵察”項(xiàng)目,需要收集復(fù)雜城市作戰(zhàn)環(huán)境中的人員信息,使自主系統(tǒng)能夠在監(jiān)視和操控下探測(cè)敵人,幫助作戰(zhàn)人員甄別真正的威脅,防止向友軍發(fā)射火力以及造成平民傷亡。為此,美軍在進(jìn)行技術(shù)研發(fā)之始,就成立了相關(guān)的倫理咨詢委員會(huì)。目前,美國(guó)國(guó)防創(chuàng)新委員會(huì)是一個(gè)功能涵蓋較寬的組織,在其中成立專門(mén)的人工智能指導(dǎo)委員會(huì)有其必要性。
三是確保人工智能倫理原則的正確執(zhí)行。為達(dá)成這一目標(biāo),需要相關(guān)各方在原則條款和內(nèi)涵理解上都達(dá)成共識(shí)。與此同時(shí),必須在軍用人工智能開(kāi)發(fā)應(yīng)用的各個(gè)領(lǐng)域,制定明確的、可操作的執(zhí)行細(xì)則和標(biāo)準(zhǔn)規(guī)范,這是人工智能倫理原則得到正確執(zhí)行的基礎(chǔ)。
四是召開(kāi)有關(guān)人工智能安全的年度會(huì)議。由于人們對(duì)人工智能倫理問(wèn)題的認(rèn)識(shí)還處于初級(jí)階段,已經(jīng)制定的原則是否合理有效也有待檢驗(yàn)。因此,召開(kāi)人工智能安全年會(huì)必不可少,這樣可以對(duì)倫理原則執(zhí)行情況進(jìn)行督查,并根據(jù)效果分析不斷改進(jìn)。
新美國(guó)安全中心的“技術(shù)和國(guó)家安全計(jì)劃”主任保羅·斯查瑞是“利用受監(jiān)管的自主能力開(kāi)展城市偵察”項(xiàng)目倫理咨詢委員會(huì)的成員。他認(rèn)為,制定人工智能倫理原則,可使各方面專家在智能系統(tǒng)研發(fā)之初就法律、道德和倫理問(wèn)題進(jìn)行早期溝通,對(duì)于推動(dòng)技術(shù)發(fā)展和結(jié)果可靠具有關(guān)鍵意義。
如果不受限制地將人工智能應(yīng)用于軍事領(lǐng)域,后果可能是人類難以承受的。美國(guó)率先制定軍用人工智能倫理原則,客觀上成為這一問(wèn)題的權(quán)威發(fā)言者,有利于其占據(jù)道德制高點(diǎn)并掌控相關(guān)話語(yǔ)權(quán),這也方便美國(guó)在大力發(fā)展人工智能軍事應(yīng)用的同時(shí),以倫理道德為借口,遏制其他國(guó)家軍隊(duì)在相關(guān)領(lǐng)域的發(fā)展。
由于軍事人工智能所展示的現(xiàn)實(shí)能力和巨大潛力,人們普遍認(rèn)為人工智能技術(shù)將重塑未來(lái)戰(zhàn)爭(zhēng)形態(tài)。在此重要關(guān)頭,美國(guó)率先推出軍用人工智能倫理原則,無(wú)疑同樣具有爭(zhēng)奪智能化戰(zhàn)爭(zhēng)定義權(quán)的用意。達(dá)成這樣的目標(biāo),將使美國(guó)在軍用人工智能發(fā)展上獲得主導(dǎo)權(quán)和領(lǐng)先優(yōu)勢(shì)。