據(jù)外媒報道,一項歐盟出臺的《一般數(shù)據(jù)保護條例》(GDPR)在5月25日正式生效,屆時GDPR將在歐盟全面實施。這意味著在人工智能/深度學習的發(fā)展浪潮下,歐盟對民眾保護和授權(quán)數(shù)據(jù)隱私方面正常再次收緊,AI/深度學習或?qū)⒈惶咨霞湘i。
據(jù)悉,即將出臺的《歐盟一般數(shù)據(jù)保護條例》,將取代已實施20年的《歐盟個人資料保護指令》,來協(xié)調(diào)全歐洲的數(shù)據(jù)隱私律法。在即將實施的GDPR中,要求所有科技公司對其算法自動決策進行解釋,這將使大量依賴深度學習算法的AI應用不合法。
這條法規(guī)的實施,無疑是給當前火熱的全球人工智能市場澆了一盆冷水,起碼在歐盟是這樣。對于普通歐盟公民來說,科技公司在收集他們的數(shù)據(jù)時將變得慎之又慎,不敢輕易逾越法律紅線,這有效的保護了公民的隱私權(quán)利。不過,因為人工智能/深度學習的發(fā)展本質(zhì)就是基于用戶大數(shù)據(jù)而工作,這可能也會影響科技公司開發(fā)AI應用的積極性。
對于即將實施的GDPR,《終極算法》一書作者,華盛頓大學PedroDomingos教授 在社交網(wǎng)絡(luò)上表示,“自 5 月 25 日起,歐盟將會要求所有算法解釋其輸出原理,這意味著深度學習成為非法的方式。”
對于GDPR要點,我們做了大概摘錄?!稐l例》中包含三大項:數(shù)據(jù)轉(zhuǎn)移權(quán)、被遺忘權(quán)、算法公平性。
據(jù)轉(zhuǎn)移權(quán)—規(guī)定用戶可隨時不受阻礙的遷移個人數(shù)據(jù)至新的服務商, 像類似于谷歌、Facebook等依賴于用戶數(shù)據(jù)進行創(chuàng)新服務的公司而言將無疑是重大打擊;被遺忘權(quán)—規(guī)定用戶有權(quán)要求數(shù)據(jù)控制者刪除個人數(shù)據(jù),且不能過分延長數(shù)據(jù)保存時間。像依賴 cookie 數(shù)據(jù)收集、廣告投放的技術(shù)公司將受損失;算法公平性—規(guī)定用戶有權(quán)要求服務商就算法自動決策給出解釋,并在解鎖不滿意時有權(quán)退出。
這樣一來伴隨著GDPR的實施,歐洲將呈現(xiàn)兩大陣營:擁抱數(shù)據(jù)隱私和算法公平性原則的社會公民;對法規(guī)不滿的技術(shù)巨頭。用戶這邊,我們不再多說。對科技公司而言,諸如處理AI黑箱問題需征求用戶同意,相關(guān)AI應用可能也不再合法。
與此同時,科技公司還面臨發(fā)展高性能AI和面臨AI黑箱難解釋問題。目前,大多數(shù)科技公司都借助人工智能/深度學習,利用大量數(shù)據(jù)從中獲益。另外,當前業(yè)界普遍認為神經(jīng)網(wǎng)絡(luò)存在黑箱問題,其架構(gòu)高復雜性令科技公司需花費巨大成本去解釋這個問題。因而,GDPR帶來的不僅是用戶隱私權(quán)與服務商利益的較量問題,還有人工智能技術(shù)本身受政策影響減緩發(fā)展的問題。