當今世界,人工智能(AI)科技發(fā)展的重要性早已不言而喻,AI 目前已應用到多個領域之中,包括視覺、語音識別、自動駕駛以及機器人等。人工智能技術的加持推動了這些領域的快速發(fā)展,并實現(xiàn)了落地應用,但是與此同時 AI 帶來的安全隱患和道德爭議,也讓社會各界在新的AI技術應用上變得更加謹慎。
2018年12 月初微軟總裁兼首席法務官布拉德·史密斯(Brad Smith)呼吁各國政府對面部視覺技術的使用做出規(guī)范。不久之后,谷歌公司也表示不會向云客戶提供通用的面部識別技術。盡管只是個例,但也能看出,科技公司在AI技術開發(fā)和應用上越來越克制。
另一方面,各國的政策制定者也正積極討論相關的規(guī)范和監(jiān)管政策,以期減少AI發(fā)展帶來的潛在風險。
德國創(chuàng)新創(chuàng)業(yè)協(xié)會會長胡海濤對第一財經(jīng)記者表示:“個人數(shù)據(jù)應受到嚴密的保護,我們協(xié)會的創(chuàng)業(yè)人主要從事對醫(yī)療及生物醫(yī)藥AI的研發(fā),如果個人數(shù)據(jù)保護不力,不僅會導致客戶個人社會形象受損,甚至可能影響到職業(yè)生涯;如果是公眾人物,潛在的風險更是不可估量。”、
加強“個人數(shù)據(jù)”保護
借助大數(shù)據(jù)和云計算,人工智能近兩年來再度站上了時代的浪尖,成為任何人都無法忽視的熱點,但與此同時AI帶來的各種社會問題也逐漸浮出了水面。
2018年3月17日,據(jù)外媒披露,英國政治咨詢公司劍橋分析(Cambridge Analytica)曾在未經(jīng)臉書(Facebook)公司同意、并且未告知實情的情況之下,通過一款問答應用軟件竊取了至少8700萬臉書用戶的數(shù)據(jù),然后把這些數(shù)據(jù)賣給了特朗普的競選團隊,以使其得以在2016年總統(tǒng)大選中向臉書用戶實現(xiàn)精準地信息投放,最終贏得了該屆大眩事實上,真正使用了該問答應用軟件的用戶僅占極少數(shù),但因為臉書公司的數(shù)據(jù)管理存在漏洞,使得劍橋分析公司不僅獲得了用戶的所有數(shù)據(jù),還包括他們臉書好友的所有數(shù)據(jù)信息,盡管他們從未使用過該款應用。
這無疑是2018年被曝光的最大數(shù)據(jù)丑聞,臉書公司的市值在丑聞曝光后至今已跌去了近40%,但這只是冰山一角,用戶數(shù)據(jù)泄露和被濫用的例子早已屢見不鮮。用戶的數(shù)據(jù)之所以富有價值,是因為人工智能系統(tǒng)可以通過數(shù)據(jù)分析,監(jiān)控用戶的所有行蹤,從購物習慣到個人興趣愛好,甚至于政治傾向。這讓互聯(lián)網(wǎng)巨頭可以輕易通過AI給用戶推送他大概率會感興趣的項目和廣告,而一旦這些數(shù)據(jù)遭到泄露,被用于非法目的,后果將不堪設想。
對如何收集、處理和儲存?zhèn)€人數(shù)據(jù)方面進行監(jiān)管已刻不容緩,在數(shù)據(jù)保護方面,歐盟已先行一步。
2018年5月25日,歐盟《通用數(shù)據(jù)保護條例》(GDPR)正式生效,為保障新規(guī)的推行,增設的獨立監(jiān)管機構——歐洲數(shù)據(jù)保護委員會也于同一天正式成立。該條例被認為是史上最嚴格的個人數(shù)據(jù)保護條例,不僅大幅拓展了對于“個人數(shù)據(jù)”的定義,除了姓名、手機號、用戶名、IP地址等常規(guī)信息外,健康數(shù)據(jù)、宗教信仰、政治觀點、包括性取向等敏感信息也被劃入了保護范圍,而且用戶可以自主決定企業(yè)是否獲取其個人信息,以及允許使用的范圍,并可以要求企業(yè)刪除已保存的相關信息。
該條例不僅是針對注冊地或總部在歐盟的企業(yè),只要企業(yè)向歐盟用戶提供產(chǎn)品、服務,或持有、處理歐盟用戶的數(shù)據(jù),都屬于管轄的范圍。對任何違反個人信息收集、使用基本原則及沒有保障數(shù)據(jù)主體權利的企業(yè),最高可罰款2000萬歐元或全球營業(yè)額的4%。受到這項條例影響最大的正是手中掌握著大量用戶數(shù)據(jù)的互聯(lián)網(wǎng)巨頭。
2018年11月底,多個歐洲國家消費者團體向監(jiān)管機構投訴谷歌公司,指控它違反了歐盟的數(shù)據(jù)保護規(guī)定,秘密追蹤數(shù)百萬用戶的移動位置。谷歌公司恐面臨巨額罰款。2018年12月中旬,歐洲監(jiān)管機構宣布,由于臉書公司未能保護用戶隱私,它將對該公司展開調查,這意味著臉書公司最高可能會接到一份數(shù)十億美元的罰單。
近日在美國舊金山召開的阿斯彭(Aspen)網(wǎng)絡峰會上,德克薩斯州議會代表兼眾議院監(jiān)督與政府改革委員會主席赫德(Will Hurd)表示,未來美國也很有可能推出一款類似GDPR的數(shù)據(jù)監(jiān)管法案。赫德表示,一年前可能大多數(shù)美國人還對此無法表示認同,但是2018年的一系列數(shù)據(jù)泄露事件已完全改變了人們對此的看法。
谷歌CEO:擔憂AI技術被濫用合情合理
除了個人數(shù)據(jù)保護,對AI的算法偏見目前是另一個亟待解決的難題。
人與人之間,很難完全消除每個人存在的各種偏見,但通常情況下個體的影響力有限,不至于給社會帶來嚴重后果??墒侨绻环N人工智能算法暗含偏見,一旦它被廣泛應用,所產(chǎn)生的負面影響將難以估量。
2018年10 月中旬,亞馬遜關閉了其(試驗性的)人工智能招聘引擎,該工具本來的作用是對應聘者的簡歷做出打分,然后把其中高分對象推送給負責招聘的人力資源部門,而低分的簡歷則直接淘汰。但在實際應用過程中,開發(fā)人員發(fā)現(xiàn)AI竟然對“女性”求職者存在偏見,如果簡歷中在特定語境下出現(xiàn)了“女子”一詞,可能被系統(tǒng)自動降級。這并非是開發(fā)者在設計程序時故意為之,而是人工智能在對公司歷史上的海量求職、招聘數(shù)據(jù)進行學習后,得出的模型。作為一家科技公司,亞馬遜男性員工的比例約占60%,男性求職者也遠遠多于女性。
隨著人工智能應用領域的越來越大,如何能確保AI算法的公正、公平且安全正是當務之急。尤其是在無人駕駛、醫(yī)療診斷、法律咨詢等深具社會影響力的領域,一旦因算法偏見造成了負面影響,又應由誰來承擔責任呢?
從理論上說,想要避免產(chǎn)生算法偏見,前提是要保證輸入算法的數(shù)據(jù)本身不帶任何偏見,但實際情況則要復雜許多,比如任何數(shù)據(jù)來源都是有限的,如果源頭本身就不完全客觀,那么這種偏見自然會遺傳給算法。
胡海濤對第一財經(jīng)記者表示,“當我們不能對不同的AI算法進行客觀唯一的評價之時,增加AI算法的透明性、開放度及對AI算法的審議機制,是人類目前階段最明智的選擇。人工智能的算法應確保公平、公正、公開,并且不存在黑箱操作,只有如此,其給出的參考結果才有說服力。AI應幫助人類做出更好的決策,而不是替人類做出決定?!?/p>
近年來頗為熱門AI自動駕駛技術正是最好的例子,早在2017年,美國眾議院就通過了相關方案,以加速自動駕駛汽車的推廣,但該法案在參議院卻一直未被審批。2018年12月19日,美國國會參議員再度拒絕了在2018年年終休會前對該議案進行投票。盡管車企做出了讓步,但該議案還是遭到了部分民主黨人士的反對,反對人士認為自動駕駛技術未能解決安全問題上的擔憂。
谷歌CEO皮查伊去年12月中旬對媒體表示,對人工智能技術被濫用的擔憂是“非常合理的”。他表示,新的人工智能工具,比如無人駕駛汽車和疾病檢測算法等,都要求科技公司設置道德護欄并思考什么是對該技術的濫用,“我認為科技公司必須意識到不能先創(chuàng)造人工智能工具,然后再去完善它,這樣是行不通的。
埃森哲應用智能部門常務董事喬杜里也表示,在未來一年,預計將在全球范圍內(nèi)看到更多的政府審查和技術監(jiān)管。她認為:“人工智能和全球科技巨頭所掌握的權力,引發(fā)了很多關于如何規(guī)范行業(yè)和技術的問題,在2019年,我們將不得不開始找到這些問題的答案?!?/p>