我們常說「無圖無真相」,但是圖對于技術(shù)人員來說并不是什么困難的事,很多新聞的圖片可能是假圖。不過,既然技術(shù)可以成為造假者的幫兇,反過來也能在識別照片真假時發(fā)揮作用。
Google旗下的技術(shù)公司(原 GoogleIdeas)是是Google的內(nèi)部部門,他們負(fù)責(zé)預(yù)測和應(yīng)對新出現(xiàn)的威脅,并創(chuàng)建定義未來的研究和技術(shù),以確保我們的世界更安全。Jigsaw發(fā)布了一款免費工具,聲稱可以幫助媒體從業(yè)人員識別被動過手腳的圖片,連人工智能制造的圖片也難逃其法眼。
這款照片打假神器名為 Assembler,具有5+2 個檢測器,其中有5個用于識別造假的圖片,之所以有這么多個探測器,是因為各個檢測器通常無法準(zhǔn)確檢測不同類型的圖像處理。例如,能識別通過復(fù)制和粘貼操作的圖像的檢測器通常無法檢測通過操作圖像亮度來修改的圖片,反之亦然。為了解決這個問題,就建立了一個實驗性探測器,即“整體模型”,該探測器使用來自多個探測器的信號進(jìn)行訓(xùn)練。因為集成模型可以識別多種圖像處理類型,所以平均而言,結(jié)果比任何單個檢測器都更準(zhǔn)確。
經(jīng)過處理的圖片例如合成、擦除等,這些操作是會留下蛛絲馬跡,學(xué)習(xí)過大量案例的計算機程序可以在分析圖像后標(biāo)記出它認(rèn)為的更改痕跡,如顏色模式異常、圖像光影異常,縱深比例不正確,已經(jīng)復(fù)制和粘貼多次的區(qū)域以及是否圖像使用了多個攝像頭模型來合成等。
另外兩個檢測器主要識別「deepfake」的造假,也就是這兩年引起熱議的「AI 換臉」,該檢測器使用機器學(xué)習(xí)區(qū)分真人圖像和StyleGAN 技術(shù)生成的deepfake。
據(jù) Jigsaw 產(chǎn)品經(jīng)理圣蒂亞戈·安德里戈介紹,Assembler能處理大量丑聞?wù)掌?,這對面臨核實壓力的新聞機構(gòu)很有幫助,還可用于驗證已經(jīng)在網(wǎng)絡(luò)上大規(guī)模傳播的圖像的真實性。
這場人工智能的戰(zhàn)爭悄然開始,Assembler負(fù)責(zé)找到其他AI圖像處理的的破綻,對于這些AI圖像處理軟件來說,AI圖像處理軟件:“原來這里還有不足,知道下面要怎么修改了?!?/p>