谷歌發(fā)布基于機器學(xué)習(xí)框架TensorFlow模塊 改善AI模型的隱私保護
編者按:在物聯(lián)網(wǎng)和AI時代,數(shù)據(jù)成為重要的決策和生產(chǎn)工具,但是如何保護個人數(shù)據(jù)不被濫用,是許多機構(gòu)和公民擔(dān)心的問題。谷歌公司在基于機器學(xué)習(xí)框架TensorFlow的谷歌最新模塊,讓開發(fā)者只添加幾行額外代碼就能改善AI模型中的隱私。這是開發(fā)者的福音,但是具體的情況如何,要看開發(fā)者使用后的反饋。微軟、谷歌一些公司都開始對安全問題高度重視。
基于機器學(xué)習(xí)框架TensorFlow的谷歌最新模塊,可以讓開發(fā)者只添加幾行額外代碼就能改善AI模型中的隱私。TensorFlow是目前用于構(gòu)建機器學(xué)習(xí)應(yīng)用程序最流行的工具之一,它被世界各地的開發(fā)人員用于創(chuàng)建文本、音頻和圖像識別算法等程序。而伴隨著TensorFlow Privacy的引入,這些開發(fā)人員能夠使用“差異隱私”的統(tǒng)計數(shù)據(jù)來保護用戶的數(shù)據(jù)。
谷歌產(chǎn)品經(jīng)理Carey Radebaugh向外媒The Verge透露,發(fā)布這款工具是谷歌履行對人工智能的承諾和愿景。他說道:“如果我們沒有為TensorFlow引入差異化隱私技術(shù),那么無論是團隊內(nèi)部還是Google外部用戶在使用過程中就會發(fā)現(xiàn)有些不太簡單。因此對于我們來說將其引入TensorFlow是非常重要的,我們還將會對其進行開源,并開始圍繞著它創(chuàng)建新的社區(qū)?!?/p>
差異隱私的機制有點復(fù)雜,但它本質(zhì)上是一種數(shù)學(xué)方法,這意味著用于培訓(xùn)AI模型的用戶數(shù)據(jù)并不能編碼個人可識別信息。這是在AI模型中保護個人信息的常用方法:蘋果在iOS 10上引入了自家的AI服務(wù)的,而Google在Gmail的Smart Reply等部分AI功能中也使用到了這項技術(shù)。
已經(jīng)在的數(shù)據(jù)隱私領(lǐng)域工作了20年的谷歌研究科學(xué)家úlfarErlingsson表示:差異化隱私技術(shù)以“數(shù)學(xué)確定性”消除了編碼個人數(shù)據(jù)的可能性,他表示這是一種從數(shù)據(jù)集中刪除可識別的異常值而不改變數(shù)據(jù)的聚合含義的技術(shù)。
谷歌的研究科學(xué)家úlfarErlingsson說,他已經(jīng)在數(shù)據(jù)隱私領(lǐng)域工作了20年。 Erlingsson告訴The Verge,這是一種從數(shù)據(jù)集中刪除可識別的異常值而不改變數(shù)據(jù)的聚合含義的技術(shù), “你的結(jié)果獨立于任何一個人的[數(shù)據(jù)],但這仍然是一個很好的結(jié)果?!?br />
本文來自CnBeta, 本文作為轉(zhuǎn)載分享。