馬斯克、哈薩比斯等2000多人簽署宣言:決不允許殺人機器人出現(xiàn)
AI與人類的命運,再一次因為自主武器而被推上了輿論風(fēng)口。
周三,來自數(shù)百家公司的2000多名科學(xué)家,其中許多是機器人和人工智能領(lǐng)域的著名的研究人員和工程師,聯(lián)名簽署宣言,誓言絕不將他們的技能用于開發(fā)自主殺人機器。
這場宣誓行動由總部位于波士頓的非盈利組織未來生命研究所(Future of Life InsTItute)發(fā)起,來自36個國家的多達160個人工智能相關(guān)的公司、覆蓋90個國家的2400名個人簽署了宣言,他們承諾:
在世界上的任何一個國家,自主武器都對公民構(gòu)成了“明顯而現(xiàn)實的危險”,他們“絕不參與自主武器的開發(fā)”。
簽署者包括谷歌的頂級人工智能研究團隊DeepMind;歐洲人工智能協(xié)會;ClearPath RoboTIcs/OTTO Motors;瑞典人工智能協(xié)會XPRIZE基金會;以及倫敦大學(xué)學(xué)院。
簽署之一承諾的著名人士還包括頂尖的人工智能研究人員Demis Hassabis、Stuart Russell、Yoshua Bengio、Anca Dragan、Toby Walsh以及特斯拉和SpaceX的創(chuàng)始人伊隆·馬斯克。
馬斯克、哈薩比斯等2000多人簽署宣言:決不允許殺人機器人出現(xiàn)!
“人工智能(AI)將在軍事系統(tǒng)中扮演越來越重要的角色,公民、政策制定者和領(lǐng)導(dǎo)人都迫切需要區(qū)分AI可接受的用途和不可接受用途。”
昨天的瑞典斯德哥爾摩,2000多名AI學(xué)者共同簽署《致命性自主武器宣言》成為會議國際人工智能聯(lián)合會議(IJCAI)上的一項重要議題,這也是學(xué)界史上最大規(guī)模針對“自主武器”的聯(lián)合簽名宣言。
組織這次行動的生命未來研究所的聯(lián)合創(chuàng)始人、MIT教授邁克思·泰格馬克(Max Tegmark)7月18日在會上宣布了這項宣言。
泰格馬克教授
泰格馬克說:“我很高興看到人工智能的領(lǐng)軍人物從對話轉(zhuǎn)向行動,實施一項政治家們迄今未能實施的政策。人工智能有巨大的幫助世界的潛力——如果我們不能容忍其濫用,并致力于防止其濫用。自主殺人的AI武器就像生化武器一樣令人厭惡和不安,我們應(yīng)該以對待生化武器的方式來處理自主武器。
悉尼新南威爾士大學(xué)人工智能科學(xué)教授Walsh說:“我們不能把誰生和誰死的決定權(quán)交給機器。”因為致命性自主武器系統(tǒng)(lethal autonomous weapon systems),簡稱“LAWS”,“不具備這樣做的道德”。
在IJCAI會議上,包括馬斯克、DeepMind三位創(chuàng)始人都簽署了《致命性自主武器宣言》,宣誓不參與致命性自主武器系統(tǒng)(LAWS)的開發(fā)、研制工作。
而就在一年前,116名全球人工智能和機器人領(lǐng)域的專家(包括馬斯克和谷歌AI專家Mustafa Suleyman)發(fā)表聯(lián)名公開信,呼吁聯(lián)合國采取行動禁止“自主殺人機器”,稱其為“恐怖武器”。“留給我們做準(zhǔn)備的時間不多了,”專家們警告說:“一旦這個潘多拉的盒子被打開,就很難再次關(guān)上。”
美國政府在全球范圍內(nèi)使用升級的軍用無人機后,工程師和科學(xué)家們警告說,自主機器很容易受到黑客的攻擊,它們可能被劫持,進而攻擊無辜的人群;并且,它們不可避免地很容易就會被惡意攻擊者獲得,或者惡意攻擊者能夠自己制造這類武器。
為了演示在自主殺人無人機的威脅下的生活,生命未來研究所協(xié)助制作了一個名為“Slaughterbots”(《屠殺機器人》)的影片,視頻中的一個片段描繪了數(shù)千名大學(xué)生被殺人機器人屠殺的景象。這些學(xué)生在社交媒體上分享了一段揭露腐敗的視頻后,被不知名的“黑影人”盯上,機器通過面部識別系統(tǒng)識別學(xué)生的身份,進而實施屠殺。
該視頻是由“制止殺人機器人運動”(Campaign to Stop Killer Robots)組織制作的,該組織是一個致力于禁止自主武器的國際聯(lián)盟,生命未來研究所是其中一員。
以下是《致命性自主武器宣言》全文:
人工智能(AI)有望在軍事系統(tǒng)中發(fā)揮越來越大的作用。 公民、政策制定者和領(lǐng)導(dǎo)者有必要區(qū)分人工智能可接受和不可接受的適用范圍。
從這個角度來看,我們簽署者達成一致意見:永遠不應(yīng)將人類生命的決定權(quán)委托給機器。“道德”是這個立場的一部分,我們不應(yīng)該讓機器為那些應(yīng)當(dāng)受處罰的人做出生死決定。另一個強有力的觀點是:致命的自主武器,在沒有人為干預(yù)的情況下選擇和參與目標(biāo),將危及每個國家和個人的穩(wěn)定。
眾多人工智能研究人員一致認(rèn)為,若是通過致命的自主武器消除人類生命的風(fēng)險或困難,它們可能成為一種暴力和壓迫的有力工具(尤其是在監(jiān)視和數(shù)據(jù)系統(tǒng)相關(guān)聯(lián)時)。此外,致命的自主武器具有與核武器,化學(xué)武器和生物武器截然不同的特點,并且單一團體的單方面行動很容易因國際社會缺乏技術(shù)工具和全球治理體系而引發(fā)軍備競賽。防止發(fā)生這種軍備競賽應(yīng)成為國家和全球安全的優(yōu)先考慮事項。
我們聯(lián)名簽署人,呼吁各國政府和政府領(lǐng)導(dǎo)人共建一個擁有強大的國際規(guī)范、法規(guī)和反對致命自主武器法律的未來。 這些法律目前是沒有的,我們選擇保持高標(biāo)準(zhǔn):我們既不參與也不支持致命自主武器的開發(fā),制造,貿(mào)易往來或使用。 我們要求技術(shù)公司和組織以及領(lǐng)導(dǎo)者,政策制定者和其他個人加入我們的承諾。
《致命性自主武器宣言》的簽署者將進一步敦促將于8月份就自主武器問題舉行會議的聯(lián)合國在各國之間達成一致承諾,促使各國禁止自主武器。
未來生命研究所受到霍金、馬斯克支持,AI WORLD關(guān)注機器智能與人類未來
發(fā)起這次宣言行動的未來生命研究所“身世顯赫”。
2015年,研究所剛創(chuàng)立僅1年就收到了來自馬斯克1千萬美元的捐贈,并且得到了很多社會精英和著名組織的支持,包括偉大的物理學(xué)家霍金以及亞馬遜、谷歌、Facebook、微軟、IBM等企業(yè),以及研發(fā)了AlphaGo的Deepmind公司。
目前,該機構(gòu)已經(jīng)募集資金超過1億美元,匯聚了8000多位全世界頂級的人工智能專家,成功地讓 “人工智能安全性”研究迅速在全世界成為了一場轟轟烈烈的運動。
在未來生命研究所關(guān)注的同時,AI帶來的改變正在前所有未地改變?nèi)祟惿睿篣ber自動駕駛車禍致命事件告訴人們技術(shù)安全的重要性;谷歌千人抗議與軍方合作的項目讓人們思考AI應(yīng)用的邊界;美國制裁中興事件讓國人意識到“缺芯”的現(xiàn)實和掌握自主技術(shù)的迫切,國與國之間在AI領(lǐng)域的競爭比任何時候都要激烈。
凡此種種,都將對世界和中國的AI產(chǎn)業(yè)造成巨大而深遠的影響,在這個過程中間,我們的自研核心技術(shù)、基礎(chǔ)科研和原創(chuàng)理論將如何支撐產(chǎn)業(yè)健康發(fā)展?