政府應該監(jiān)管人工智能嗎?這是白宮第一個針對人工智能的法律和監(jiān)管問題開設的工作室的核心議題。“我們觀察到圍繞人工智能和機器學習的問題正從政府的各個角落涌現(xiàn)出來。”白宮副首席技術官 Ed Felten 說,“我們離廣泛監(jiān)管人工智能還相去甚遠……但面臨的挑戰(zhàn)是如何在人工智能變得越來越聰明時確保它是安全的、可控的和可預測的。
艾倫人工智能研究所 CEO Oren Etzioni(左)正與白宮人工智能工作室的與會者交談。圖片來自:MIT Tech Review。
該工作室的組織者之一、華盛頓大學法律學教授 Ryan Calo 說:該工作室的主要目標之一是幫助公眾了解該技術的現(xiàn)狀和發(fā)展方向。“我們的想法不是讓政府介入和監(jiān)管人工智能,而是使用其許多其它的杠桿,比如機構和采購力量的協(xié)調(diào)。”他說,該工作室的參與者包括技術企業(yè)家、學者和公眾成員。
在一個主題演講中,艾倫人工智能研究所 CEO Oren Etzioni 指出我們?nèi)耘f處于機器學習的黑暗時代——人工智能系統(tǒng)一般只能在結(jié)構化良好的問題中才能有效發(fā)揮作用,如棋盤游戲和高速公路駕駛。他倡導可讓人工智能幫助人類變得更安全和更高效的合作方式。“在美國,醫(yī)院的錯誤是第三大導致死亡的原因。”他說,“人工智能可以在這里提供幫助。每年都有很多人因為我們沒在醫(yī)院正確地使用人工智能而死去。”
不過,Etzioni 認為現(xiàn)在就談論監(jiān)管人工智能還為時尚早:“深度學習仍然 99% 是人類的成果和人類的才智。‘是我的機器人干的’完全不能作為借口。我們必須為我們的機器人、人工智能和算法的行為負責。”
一個“人工智慧(artificial wisdom)”小組關注的是人與人工智能的互動何時會出問題,比如為預測未來刑事犯罪所設計的算法表現(xiàn)出了種族偏見的情況。耶魯大學法學院的 Jack Balkin 說:“問題并不在于人工智能代理本身,而在于人類使用技術工具在金融、刑事司法和教育中壓迫其他人。”
一些學者支持“信息受托”的想法:讓收集大數(shù)據(jù)和使用人工智能的人承擔誠實守信的法律責任。比如,如果技術人員使用質(zhì)量糟糕的數(shù)據(jù)訓練人工智能系統(tǒng),或?qū)⒒诜N族、年齡或性別的偏見固化到他們設計的算法中,那么他們就可能會被追究責任。
微軟研究院社會科學家 Kate Crawford 指出,隨著政府機構的決策越來越依賴于人工智能系統(tǒng),這些機構將需要了解數(shù)據(jù)和人工智能技術的固有限制和偏見的人。她建議學生在學習編程技能的同時也應該被教授道德。
來自南卡羅來納大學的 Bryant Walker Smith 提出了對快速發(fā)展的技術(比如無人駕駛汽車)的監(jiān)管靈活性。“個別公司應該為他們的自動駕駛汽車的安全性做一個公案,”他說,“他們應該采取措施,然后在系統(tǒng)的整個使用壽命中監(jiān)測它們。我們需要一些多樣化的方法確保公眾的知悉權,支持公眾意見變了。”
共有四個工作會議計劃于未來幾個月舉辦,這是其中第一個會議。其中有兩個將會圍繞安全和控制方面解決人工智能給社會帶來的好處和問題,最后一個則會更深入地挖掘該技術的社會的經(jīng)濟影響。Felten 也宣布白宮不久之后就會發(fā)出信息請求,讓廣大公眾也可以參與到權衡人工智能的未來中。
當然,這項工作顯然和 11 月份美國總統(tǒng)大選有關。在 Felten 本月早些時候的一篇博客中公布了一個關于機器學習和人工智能的全新“國家科學與技術小組委員會”,其目標是在“現(xiàn)在到本屆政府結(jié)束之間”使用人工智能提升政府服務。