谷歌AI學(xué)習(xí)系統(tǒng)TensorFlow存在安全風(fēng)險(xiǎn)
據(jù)報(bào)道谷歌的AI 開源框架 TensorFlow 存在著巨大的自身安全風(fēng)險(xiǎn),攻擊者可以對受害者自身的 AI 應(yīng)用進(jìn)行竊取或篡改、破壞。風(fēng)險(xiǎn)危害面非常大, AI 研究者可能毫無防備,PC 端和移動(dòng)端的最新版本均會受到影響。
從騰訊了解到,騰訊安全平臺部預(yù)研團(tuán)隊(duì)發(fā)現(xiàn)谷歌人工智能學(xué)習(xí)系統(tǒng) TensorFlow 存在自身安全風(fēng)險(xiǎn),可被黑客利用帶來安全威脅,其已向谷歌報(bào)告這一風(fēng)險(xiǎn)并獲得致謝。
騰訊安全平臺部預(yù)研團(tuán)隊(duì)發(fā)現(xiàn),攻擊者可以生成 Tensorflow 的惡意模型文件,對 AI 研究者進(jìn)行攻擊,對受害者自身的 AI 應(yīng)用進(jìn)行竊取或篡改、破壞。騰訊方面認(rèn)為,該風(fēng)險(xiǎn)危害面非常大,一方面攻擊成本低,普通攻擊者即可實(shí)施攻擊;另一方面迷惑性強(qiáng),大部分 AI 研究者可能毫無防備;同時(shí)因?yàn)槔昧?TensorFlow 自身的機(jī)制,其在 PC 端和移動(dòng)端的最新版本均會受到影響。
Google 的 TensorFlow 作為開源框架被互聯(lián)網(wǎng)廣泛使用,該框架在谷歌、ebay、airbnb、twitter、uber、小米、中興等公司均有使用。在TensorFlow中,AI 研究者可以復(fù)用他人建好的模型來進(jìn)行AI訓(xùn)練,或直接提供 AI 服務(wù)。
這是安全研究員最近發(fā)現(xiàn)的第二起?TensorFlow 相關(guān)安全風(fēng)險(xiǎn)事件。
12月初,記者了解到,奇虎 360 安全研究實(shí)驗(yàn)室的 Qixue Xiao 和 Deyue Zhang,美國佐治亞大學(xué)的 Kang Li,以及美國弗吉尼亞大學(xué)的 Weilin Xu 在分析了 TensorFlow,Caffe,Torch 這三大深度學(xué)習(xí)框架所使用的大量第三方開源基礎(chǔ)庫后,發(fā)現(xiàn)它們存在不少的網(wǎng)絡(luò)安全漏洞,容易受到拒絕服務(wù)攻擊、逃逸攻擊、系統(tǒng)損害攻擊的影響。