AI濫用風(fēng)險(xiǎn)已迫在眉睫 研究人員呼吁各國(guó)做好防范
據(jù)外媒報(bào)道,劍橋、牛津和耶魯大學(xué)的25名技術(shù)和公共政策研究人員以及隱私和軍事專家周三發(fā)表了一份最新的研究報(bào)告,他們?cè)趫?bào)告中警告說(shuō),人工智能的快速發(fā)展引發(fā)了日益增長(zhǎng)的風(fēng)險(xiǎn),惡意用戶很快就能利用人工智能技術(shù)來(lái)發(fā)動(dòng)自動(dòng)黑客攻擊,這些攻擊可能會(huì)造成非常嚴(yán)重的后果,比如無(wú)人駕駛汽車相撞或者將商用無(wú)人機(jī)變成有針對(duì)性的武器。
研究人員和專家們稱,人工智能技術(shù)有可能被流氓國(guó)家、犯罪團(tuán)伙或獨(dú)來(lái)獨(dú)往的犯罪分子們?yōu)E用,這已經(jīng)從數(shù)字、物理和政治層面上對(duì)人類社會(huì)構(gòu)成了迫在眉睫的威脅,因?yàn)槿斯ぶ悄芗夹g(shù)讓大規(guī)模、高精準(zhǔn)和高效率的攻擊成為了可能。
牛津大學(xué)人類未來(lái)學(xué)院的研究員邁爾斯-布倫達(dá)奇(Miles Brundage)稱:“我們都承認(rèn),人工智能有很多積極的應(yīng)用,但在惡意使用問(wèn)題的研究上存在一片空白。”
人工智能即AI包括利用計(jì)算機(jī)執(zhí)行一些通常需要人類智能才能完成的任務(wù),比如決策或識(shí)別文本、語(yǔ)音或視覺圖像等等。
人們普遍認(rèn)為人工智能是開啟各種技術(shù)可能性的強(qiáng)大力量,但它也成為了尖銳辯論的焦點(diǎn),人們擔(dān)心它所支持的大規(guī)模自動(dòng)化會(huì)導(dǎo)致廣泛失業(yè)和其他社會(huì)混亂。
研究人員和專家們?cè)谶@份長(zhǎng)達(dá)98頁(yè)的報(bào)告中警告說(shuō),用人工智能來(lái)完成可能需要人工勞動(dòng)和專業(yè)技能才能完成的任務(wù),這可能會(huì)降低攻擊的成本和催生新的攻擊方式。這些新的攻擊方式可能是人力無(wú)法單獨(dú)完成或者需要用到人工智能系統(tǒng)自身弱點(diǎn)才能實(shí)現(xiàn)的。
報(bào)告審查了越來(lái)越多關(guān)于人工智能安全風(fēng)險(xiǎn)的學(xué)術(shù)研究成果,呼吁各國(guó)政府和政策與技術(shù)專家合作并化解這些危險(xiǎn)。
研究人員們?cè)敿?xì)說(shuō)明了人工智能技術(shù)的強(qiáng)大力量,人工智能技術(shù)可以將圖像、文字和音頻合成在一起以模仿他人在線行為,進(jìn)而改變公眾的觀點(diǎn)。研究人員們指出,專制政權(quán)可能會(huì)利用這種技術(shù)。
這份報(bào)告提出了一系列建議,包括將人工智能作為一種軍民兩用的技術(shù)來(lái)管理。
它還提出了一些問(wèn)題,包括學(xué)術(shù)界和其他人是否應(yīng)該控制他們發(fā)布或披露人工智能研發(fā)進(jìn)展,直到該領(lǐng)域的其他專家有機(jī)會(huì)對(duì)潛在危險(xiǎn)進(jìn)行研究并作出反應(yīng)。
布倫達(dá)奇說(shuō):“我們最終得出的問(wèn)題比解決的問(wèn)題多得多。”
這篇論文最早源于2017年初的一個(gè)研討會(huì),當(dāng)作者們正式開始撰寫時(shí),報(bào)告中提出的某些預(yù)測(cè)基本上已經(jīng)實(shí)現(xiàn)了。作者們推測(cè),人工智能可能會(huì)被用來(lái)制作各種逼真的假聲音和假視頻,模仿各行各業(yè)的名人,以達(dá)到宣傳的目的。
去年晚些時(shí)候,所謂的“深度假”色情視頻開始在網(wǎng)上出現(xiàn),這類視頻實(shí)際上是將明星們的面孔融合到不同的身體上。
特斯拉首席執(zhí)行官埃隆-馬斯克(Elon Musk)和硅谷投資者山姆-奧爾特曼(Sam Altman)創(chuàng)立的人工智能公司OpenAI的政策主管杰克-克拉克(Jack Clark)表示:“這發(fā)生的色情行業(yè),并不是處于宣傳目的。但是一切都表明,關(guān)于深度假的東西也有可能被用于宣傳。”