對于人工智能的考驗是什么
這周早些時候(周三,2月19日),歐盟委員會在“塑造歐洲數(shù)字未來”的總框架下,發(fā)布了大量提案和政策文件,以監(jiān)管人工智能。歐盟發(fā)布的文件包括:一份關于人工智能、物聯(lián)網(wǎng)和機器人對安全和責任的影響的報告;一份概述歐盟數(shù)據(jù)戰(zhàn)略的論文;以及一份關于人工智能“卓越與信任”的白皮書??偟膩碚f,這些文件喚起了技術專制,民主虔誠和雄心勃勃的融合,而這正是歐盟交流的特點。話雖如此,就采取一切措施使科技公司受到某種控制而言,歐洲委員會并非是唯一的選擇。
巧合的是,在臉譜網(wǎng)創(chuàng)始人馬克·扎克伯格及其助手尼古拉斯·克萊格的陪同下,在整整24小時前,就發(fā)布了政策閃電戰(zhàn)??巳R格看上去有點眼熟,他曾親切地呼吁歐盟委員會向其官員解釋監(jiān)管科技公司的正確方法。官員們依次向他表示感謝,并禮貌地解釋稱,他們有自己的想法,并護送他回到他的座位上。
對于這個問題來說,歐盟發(fā)布的最有趣的文件是關于人工智能的白皮書。布魯塞爾宣稱,歐盟委員會提出“一種以監(jiān)管和投資為導向的方法”,該方法有兩個目標:促進人工智能的普及,并解決與該技術的某些用途相關的風險。然后,該文件就如何實現(xiàn)這些目標列出了不同的政策選擇。
一旦您擺脫了關于歐盟的“技術和工業(yè)優(yōu)勢”,“高質量的數(shù)字基礎設施”和“基于其基本價值的監(jiān)管框架”等強制性的提倡歐元言論,將使歐洲成為“數(shù)據(jù)經(jīng)濟及其應用創(chuàng)新的全球領軍者”。該白皮書似乎非常明智,但是,對于所有有關如何實際處理人工智能的文件,它都依賴于傳統(tǒng)的有關人類代理和監(jiān)督,隱私和治理,多樣性,非歧視性和公平,社會福祉,問責制以及最受歡迎的“透明度”的傳統(tǒng)陳詞濫調,唯一明顯的遺漏是不確定性。
但是,這在目前的人工智能領域是意料之中的事情:討論總是由三部分概括而成,其中兩部分傳達了一點點虔誠的希望,這已經(jīng)到了人們渴望獲得一些直白和常識的地步??傊?,歐盟和臉譜網(wǎng)都想監(jiān)管人工智能,劍橋大學教授提出通俗易懂的辦法。
幸運的是,它是由著名的劍橋大學統(tǒng)計學家、英國皇家統(tǒng)計學會前主席戴維·斯皮格豪特爵士提出的。他終其一生都在試圖教人們如何理解統(tǒng)計推理,并于上月在《哈佛數(shù)據(jù)科學評論》上發(fā)表了一篇對人們非常有幫助的文章,題目就是“我們應該信任算法嗎?”
哲學家奧諾拉·奧尼爾的觀點為斯皮格豪特的方法奠定了基礎——我們應該關注的是可信賴性而不是信任,因為信任是一個如此模糊、難以捉摸和令人不滿意的概念。(在這方面,它與隱私?jīng)]什么不同。)奧尼爾在一次著名的技術演講中指出,尋求更多的信任“不是人生明智的目標——明智地安排和明智地拒絕信任才是正確的目標”。
通過實際應用奧尼爾的觀點,斯皮格豪特教授認為,當出現(xiàn)一種新算法時,我們最應該關注的是,程序員對系統(tǒng)(開發(fā)人員說它能做什么,它是如何被評估的)和對框架(它對一個特定案例的結論)的可信聲明。
由此,斯皮格豪特提出了一組關于任何算法的7大問題:1、在現(xiàn)實世界的新地方嘗試有什么好處嗎?2、一個更簡單、更透明、更強大的東西是否也一樣好呢?3、我能否向任何感興趣的人解釋一下它的工作原理嗎?4、在特定情況下,我能否向一個人解釋它是如何得出結論的嗎?5、算法能否知道自己何時處于不穩(wěn)定狀態(tài),并能否自己承認這種不確定性嗎?6、人們使用算法是否恰當,人們能否可以持適當?shù)膽岩蓱B(tài)度?7、算法在實踐中是否真的有用嗎?
在我看來,這是一份對于監(jiān)管人工智能或提出任何新算法的非常有用的問題清單。到目前為止,我們遇到的大多數(shù)有嚴重缺陷的機器學習系統(tǒng),都會因為這些方面的某些或全部原因而失敗。斯皮格豪特的問題是具體的,而不是籠統(tǒng)的,比如“透明度”或“可解釋性”。而且,最重要的是,它們對普通人來說是通俗易懂的,而不需要像那些設計算法的極客們那樣學習算法,才能真正弄懂這一切。
那么最重要的問題是哪個呢?斯皮格豪特認為是第5個問題:即人工智能機器應該知道它什么時候不理解算法——并且承認它不理解算法,也就是說,對人工智能的真正考驗在于,機器能否承認何時以及為何不理解算法??杀氖牵@是許多人的失敗考驗。