機器人可以用來干家務,也可以用于暴力目的。如何劃定機器人的用途界限?針對這個問題,人工智能(AI)領(lǐng)域產(chǎn)生了很大分歧。
韓國科學技術(shù)院(KAIST)是一所知名學府,擁有首屈一指的科學實驗室。從液態(tài)電池到疾病傳感器,他們開發(fā)了各式各樣的東西。如今,KAIST和韓華集團簽署協(xié)議,為后者研發(fā)人工智能武器。韓華集團曾無視聯(lián)合國禁令,開發(fā)“集束彈藥”這種毀滅性武器。如果加上人工智能,武器恐怕會更加致命。
目前,聯(lián)合國正在商討如何控制自主武器對國際安全造成的威脅,而KAIST卻在加速這類武器的軍備競賽,這非常令人失望。因此,50多位全球頂尖AI專家決定抵制此舉——他們宣布將拒絕和KAIST任何部門進行合作,直到KAIST保證絕不開發(fā)缺乏人類控制的自主武器。
對此,KAIST表示否認。院長Sung-Chul Shin發(fā)表聲明:
作為學術(shù)機構(gòu),我們高度重視人權(quán)和道德標準。KAIST將不會開展任何違背人類尊嚴的科研活動,包括缺乏人類控制的自主武器。
如今,硬件和軟件都發(fā)展得很快。許多專家擔心,人類遲早會開發(fā)出自己無法控制的東西。因此,埃隆·馬斯克、史蒂夫·沃茲尼亞克、斯蒂芬·霍金等名人呼吁政府和聯(lián)合國限制依靠人工智能系統(tǒng)運行的武器。如果導彈、火箭、炸彈能夠脫離人類控制而自行操作,那么后果會很恐怖——特別是落入壞人手里時。
如果開發(fā)出自主武器,那么它將成為戰(zhàn)爭史上的第三場革命。自主武器將使戰(zhàn)爭速度和戰(zhàn)爭規(guī)模達有史以來的最高水平。此外,它也可能成為恐怖分子的武器,擺脫道德約束,傷害無辜人民。潘多拉的魔盒一旦打開,便難以關(guān)閉。
聯(lián)合國曾多次召開會議,商討針對致命自主武器的禁令,然而收效甚微。原因在于:出于軍事目的,個別國家熱衷于開發(fā)這類技術(shù);此外,私營企業(yè)也不想在人工智能方面被規(guī)章條例所束縛。盡管我們都知道,殺手機器人是件邪惡的東西;然而,誰也不知道該怎樣限制這類玩意的開發(fā)。人類陷入了一場所有人都不希望發(fā)生的軍備競賽。
目前,許多科學家希望出臺有關(guān)AI開發(fā)和應用的指導方針。不過,即便制定出相關(guān)方針,也很難保證所有人都遵守規(guī)則。