過去一年,人工智能技術正在復興。無人駕駛、語音識別,以及成為圍棋大師的AlphaGo都反映了人工智能的快速發(fā)展。然而我們也要注意到,人工智能可能會出現問題。我們需要從中吸取經驗,避免未來更多的錯誤。
近期,路易斯維爾大學信息安全實驗室主任羅曼·雅博爾斯基(Roman Yampolskiy)在一篇論文中總結了人工智能遭遇的失敗,這些問題與“人工智能系統(tǒng)設計帶來的問題直接相關”。
雅博爾斯基表示,這些問題可以歸因于人工智能系統(tǒng)學習或應用階段的失誤。
根據雅博爾斯基和其他多名專家的介紹,TechRepulice網站總結了2016年人工智能的10大敗筆。
1、用于預測犯罪的人工智能變成種族主義者
Northpointe開發(fā)了一款人工智能系統(tǒng),能預測有案底的罪犯再次犯罪的可能性。這被認為存在種族歧視傾向:系統(tǒng)一般認為,黑人罪犯再次犯罪的風險更高。
另一家名為ProPublica的媒體評論稱,無論罪犯是什么種族,Northpointe的軟件“通常都不能實現有效的預測”。
2、電子游戲中的NPC制造出突破原計劃的武器
今年6月,一款名為《Elite: Dangerous》的電子游戲發(fā)生了出乎意料的事件。人工智能在游戲中開發(fā)出了超級武器,突破了游戲設計。根據一家游戲網站的報道,“玩家被拉進戰(zhàn)斗中,而對方的艦船配備了可笑的武器,會將玩家撕成碎片”。游戲開發(fā)者隨后將這些武器下線。
3、機器人誤傷幼童
今年7月,Knightscope平臺開發(fā)的“打擊犯罪機器人”在硅谷一家購物中心撞上了一名16個月大的幼童。
根據《洛杉磯時報》的報道,該公司表示,這是一起“奇怪的事故”。