牛津、劍橋、OpenAI聯(lián)合發(fā)出AI預警《人工智能的惡意使用》
無人車、無人機、視頻生成……這些AI應用在讓我們激動萬分的同時,也有可能帶來前所未有的災難——如果無人車隊被惡意操縱來撞你,該怎么辦?這次讓我們看看AI政策研究學者怎么說。
2月20日,26位來自牛津大學、劍橋大學、OpenAI、電子前沿基金會(一個非營利數(shù)字版權(quán)組織)、新美國安全中心(一家美國智庫)等多個研究機構(gòu)的研究人員發(fā)布了一份AI預警報告,針對AI的潛在惡意使用發(fā)出警告,并提出相應的預防及緩解措施。
新興技術(shù)對人類安全的影響一直是個熱門話題。牛津、劍橋、OpenAI這些重量級研究所此次發(fā)布的這份報告名為《人工智能的惡意使用:預測、預防和緩解》,預測了未來十年網(wǎng)絡犯罪的快速增長、無人機的濫用、使用“機器人(bots)”操縱從選舉到社交媒體等惡意利用人工智能的場景,號召政府及企業(yè)重視當前人工智能應用中的危險。
報告也建議采取以下干預措施以減輕惡意使用人工智能造成的威脅:
政策制定者和技術(shù)研究人員現(xiàn)在需要共同努力來理解和為應對惡意使用人工智能做出準備。
人工智能有許多積極的應用,但是是一把雙刃劍,人工智能研究人員和工程師應該注意并積極預測其濫用的可能性。
人工智能應該從具有較長的處理風險的歷史的學科(如計算機安全)中學習。
積極擴大參與預防和減輕惡意使用的利益相關(guān)者范圍。
這份長達100頁的報告關(guān)注與惡意使用人工智能特別相關(guān)三個安全領域:數(shù)字安全(digital)、物理安全(physical)和政治安全(poliTIcal)。它表明,人工智能會破壞規(guī)模(scale)和效率(efficiency)之間的權(quán)衡,并使大規(guī)模、精細目標和高效的攻擊成為可能。
例如,自動黑客攻擊,用于模擬目標的語音合成,使用從社交媒體獲取的信息的精確目標垃圾郵件,或利用AI系統(tǒng)本身的漏洞等新型網(wǎng)絡攻擊。
同樣,無人機和網(wǎng)絡系統(tǒng)的擴散將允許攻擊者部署或重新調(diào)整這些系統(tǒng)用于有害目的,例如讓自動駕駛車隊相撞,將商業(yè)無人機變?yōu)榭梢远ㄎ荒繕说膶?,或劫持重大基礎設施以索要贖金——自主武器系統(tǒng)在戰(zhàn)場上的崛起可能會導致失控。
在政治領域,借由詳細的分析、有針對性的宣傳、便宜且高度可信的虛擬視頻,可以操控公眾輿論,而這種操控的規(guī)模在以前是無法想象的。利用人工智能,可以大規(guī)模聚集、分析和處理個人信息,這可以實現(xiàn)監(jiān)控,可能侵犯隱私,并從根本上改變個人、企業(yè)和國家之間的權(quán)力。
為了減輕這些風險,報告作者探索了幾種干預措施,以減少與AI濫用相關(guān)的威脅。這些措施包括重新思考網(wǎng)絡安全,探索信息共享的不同開放模式,促進責任文化,制定有利于安全防御的政策和技術(shù)。
報告作者之一,劍橋大學生存風險研究中心執(zhí)行主任Seán Ó hÉigeartaigh博士說道:
人工智能是一個改變游戲規(guī)則的機器,這份報告已經(jīng)想象出未來五到十年內(nèi)世界會變成什么樣子。
我們所生活的世界可能變?yōu)橐粋€充滿因濫用人工智能而導致的危害的世界,我們需要處理這些問題,因為風險是真實存在的。我們現(xiàn)在需要做出選擇,而我們的報告號召全球政府、機構(gòu)和個人的行動。
幾十年來,人工智能和機器學習方面的宣傳超過了事實。但現(xiàn)在不再是這樣了。這份報告著眼于那些不再適用的做法,并提出了一些可能有所幫助的方法:例如,如何設計不易被攻擊的軟件和硬件,以及可以采取什么類型的法律和國際法規(guī)。
不過,在報告開篇,作者也承認:“對于人工智能相關(guān)的安全攻擊和相應的防衛(wèi)措施之間的長期平衡,我們并沒有給出解決方案”。
網(wǎng)絡上也存在著批評的聲音。GigaOm評論員Jon Collins指出,對于所有提出的風險,報告并沒有定量描述,而只是以“可能出現(xiàn)(plausibly)”的字眼概述,這不是對風險的科學描述方式。風險有多大?我們也不得而知。此外,報告中的許多地方也明確表示,“報告的多位作者對此持有不同觀點”。所以就此看來,報告起到的喚醒作用可能遠大于對實際操作的指示。