人工智能(AI)將改變世界,但這是“惡”還是“善”,備受爭議。為此,一個專家團隊齊聚亞利桑那州立大學(ASU)的“設想和解決不良AI的結果”研討會,討論了當人工智能成為人類的一個重大威脅時,人類將處于什么樣的困境。
人工智能科學家Eric Horvitz指出,AI具有巨大的潛力,以多種方式影響到社會的各個方面。同時,就像任何技術一樣,人工智能有利也有弊。
作為AI樂觀支持者的一員,Horvitz表示非常看好人工智能的未來。與此同時,他也認為AI要想贏得公眾的信任,那么在技術方面仍要不斷努力。為了實現(xiàn)這一點,所有圍繞著技術的問題都要被討論。
專家希望這次對話能夠解決有關AI的問題。由科學家、網絡安全專家和政策制定者組成的40個人,被分成兩隊,討論AI會以哪些方式給世界造成麻煩。
紅隊的任務是將AI可能導致的災難性情況都列出來,藍隊則被要求設計相應的解決方案。假設的情況也要基于當前的技術,而不是胡亂假設一通。
若人工智能“失控”
紅隊假設AI可能存在的風險有以下幾種:自動網絡攻擊(這是一種足夠智能的網絡武器,在攻擊后能隱藏自己,并能防止被毀滅),股票市場將被操縱,無人駕駛技術無法對關鍵路標進行識別,AI被用來操縱選舉或影響選舉結果。
并不是每一個問題都給予了足夠的解決方案,表明了人類目前面對AI可能帶來的糟糕情況毫無準備。
例如,在智能自動化網絡攻擊的情況下,攻擊者很容易使用不知情的互聯(lián)網游戲玩家來掩蓋自己的蹤跡,使用類似于在線游戲來掩蓋攻擊本身。
將其作為娛樂的人可能認為這些是無稽的末日景象,但實際上這些假設是向認識AI可能構成的威脅邁出了深思熟慮的第一步。
美國國防部高級研究計劃署的John Launchbury希望這場討論能給網絡戰(zhàn)爭、自動化武器和機器人部隊制定具體的協(xié)議。
研討會的目的不是為了煽動恐懼情緒,而是合理、現(xiàn)實地預測技術如何被濫用的各種可能性,并希望能在AI防御方面取得突破。