人工智能的危險(xiǎn)性在哪?我們?cè)撊绾伟踩拈_發(fā)AI?
成熟的人工智能可以讓世界變得更美好。它可能會(huì)讓我們戰(zhàn)勝癌癥,改善世界各地的醫(yī)療保健,或者干脆讓我們擺脫主宰我們生活的卑微工作。
這是上個(gè)月工程師、投資者、研究人員和政策制定者在人類層面人工智能聯(lián)合會(huì)議上聚集在一起的主要話題。
然而,一股恐懼的潛流也在一些談判中出現(xiàn)了。有些人擔(dān)心被機(jī)器人或代碼取代工作;其他人則害怕機(jī)器人起義。恐懼和合理擔(dān)憂之間的界限在哪里?
為了將兩者分開,F(xiàn)uturism在會(huì)議上向五位人工智能專家詢問了他們對(duì)未來的人工智能的恐懼。
希望,考慮到他們的擔(dān)憂,我們將能夠引導(dǎo)社會(huì)朝著更好的方向發(fā)展,我們將人工智能用于所有的好東西,比如對(duì)抗全球流行病或給予更多的人接受教育,而不是那些壞的東西。
問:當(dāng)我們談人工智能,我們?cè)诤ε率裁矗?/p>
KENNETH STANLEY,佛羅里達(dá)中央大學(xué)教授,高級(jí)工程經(jīng)理和優(yōu)步艾實(shí)驗(yàn)室的工作人員
答:我認(rèn)為最明顯的擔(dān)憂是當(dāng)人工智能被用來傷害人類的時(shí)候。有很多不同的應(yīng)用程序可以想象這種情況的發(fā)生。我們必須非常小心,讓壞的一面消失。解決如何讓人工智能負(fù)責(zé)是一個(gè)非常棘手的問題;它有更多的維度,而不僅僅是科學(xué)。這意味著所有的社會(huì)都需要參與到回答這個(gè)問題中來。
關(guān)于如何開發(fā)安全AI:
所有的技術(shù)都可以被用來做壞事,我認(rèn)為人工智能只是另一個(gè)例子。人類一直在努力不讓新技術(shù)用于邪惡目的。我相信我們可以做到這一點(diǎn):我們可以把正確的制衡機(jī)制放在適當(dāng)?shù)奈恢?,使之更安全?/p>
我想我不知道我們應(yīng)該做些什么,但我可以提醒我們,我們要非常小心、循序漸進(jìn)地對(duì)人工智能的影響做出反應(yīng),并在我們前進(jìn)的過程中學(xué)習(xí)。
IRAKLI BERIDZE,聯(lián)合國(guó)UNICRI的人工智能和機(jī)器人中心主任
答:我認(rèn)為人工智能最危險(xiǎn)的是它的發(fā)展速度。危險(xiǎn)與否取決于它的發(fā)展速度以及我們能以多快的速度適應(yīng)它。如果我們失去了平衡,我們可能會(huì)陷入麻煩。
關(guān)于恐怖主義、犯罪和其他風(fēng)險(xiǎn)來源:
我認(rèn)為,對(duì)人工智能的危險(xiǎn)應(yīng)用,將是犯罪分子或大型恐怖組織利用它來擾亂大型進(jìn)程,或者僅僅是造成純粹的傷害??植婪肿涌赡芡ㄟ^數(shù)字戰(zhàn)爭(zhēng)造成傷害,也可能是機(jī)器人、無人機(jī)、人工智能和其他東西的結(jié)合,這可能是非常危險(xiǎn)的。
當(dāng)然,其他的風(fēng)險(xiǎn)也來自于失業(yè)。如果大量失業(yè)沒有找到解決辦法,那將是極其危險(xiǎn)的。像致命的自動(dòng)武器系統(tǒng)之類的東西應(yīng)該被妥善管理——否則就會(huì)有巨大的濫用的可能性。
關(guān)于如何前進(jìn):
人工智能技術(shù)具有雙重性。當(dāng)然,我的信念是,人工智能不是一種武器;人工智能是一種工具。它是一個(gè)強(qiáng)大的工具,這個(gè)強(qiáng)大的工具可以用于好的或壞的東西。我們的任務(wù)是確保其用于好的事情,從中獲得的好處最多,而且大多數(shù)風(fēng)險(xiǎn)都是可以理解和減輕的。
JOHN LANGFORD,微軟首席研究員
答:我認(rèn)為我們應(yīng)該警惕無人機(jī)。我認(rèn)為自動(dòng)化無人機(jī)在很多方面都是潛在的危險(xiǎn)。船上的無人駕駛武器的計(jì)算效率還不夠高,不足以做一些有用的事情。但在五到十年的時(shí)間里,我可以想象一架無人機(jī)可以在船上進(jìn)行足夠的計(jì)算,這樣它就能真正有用了。你可以看到,無人機(jī)已經(jīng)在戰(zhàn)爭(zhēng)中被使用,但它們?nèi)匀皇侨祟惪刂频?。他們沒有理由不能攜帶某種學(xué)習(xí)系統(tǒng),而且相當(dāng)有效。這是我擔(dān)心的問題。
HAVA SIEGELMANN,美國(guó)國(guó)防部高級(jí)研究計(jì)劃局技術(shù)辦公室項(xiàng)目經(jīng)理
答:每一種技術(shù)都可以被用來做壞事。我認(rèn)為它掌握在使用它的人手中。沒有不好的技術(shù),只有不好的人。這取決于誰能接觸到這項(xiàng)技術(shù)以及我們?nèi)绾问褂盟?/p>
TOMAS MIKOLOV,F(xiàn)ACEBOOK AI研究科學(xué)家
答:當(dāng)有很多人對(duì)某件事有興趣,并進(jìn)行投資時(shí),一些人便開始濫用它。我發(fā)現(xiàn)有些人甚至在我們做人工智能之前就已經(jīng)開始銷售人工智能了,這讓我感到不安,他們正在假裝知道它將解決什么問題。
這些奇怪的創(chuàng)業(yè)公司也有一些很有前景的東西,這些都是很好的人工智能例子,當(dāng)它們的系統(tǒng)基本上是在優(yōu)化一條路徑時(shí),可能有人根本就不關(guān)心它,比如聊天機(jī)器人,它比上一個(gè)版本稍微好一點(diǎn)。也許在花費(fèi)了數(shù)萬個(gè)小時(shí)的工作之后,通過過度優(yōu)化一個(gè)單一的價(jià)值,一些創(chuàng)業(yè)公司就會(huì)有這樣的大主張,他們確實(shí)取得了一些以前沒有人能做的事情。
但是,讓我們誠(chéng)實(shí)地說,這些團(tuán)體最近的許多突破,我不想說,沒有人關(guān)心,他們也沒有賺到錢。它們更像魔術(shù)。特別是那些認(rèn)為人工智能只是過度優(yōu)化單一任務(wù)的人,他們無法將其擴(kuò)展到除了非常簡(jiǎn)單的問題之外的其他任何事情。
小編總結(jié):人工智能在現(xiàn)階段與安防緊緊地聯(lián)系在一起,人工智能服務(wù)于安防,但人們還是會(huì)擔(dān)憂一個(gè)問題,一如電影《終結(jié)者》里的天網(wǎng)(Skynet),一個(gè)人類于20世紀(jì)后期創(chuàng)造的以計(jì)算機(jī)為基礎(chǔ)的人工智能防御系統(tǒng),最初是研究用于軍事的發(fā)展,后自我意識(shí)覺醒,視全人類為威脅,以誘發(fā)核彈攻擊為起步發(fā)動(dòng)了將整個(gè)人類置于滅絕邊緣的審判日。
水能載舟亦能覆舟。
人工智能的開發(fā)進(jìn)程飛速固然可喜,它是一把“劍”,用在哪里,怎么用,是看什么人的!