深度神經(jīng)網(wǎng)絡(luò)可辨別Deepfakes偽造的照片
在某位開發(fā)者打開了 Deepfakes 的潘多拉魔盒之后,以假亂真的人工智能偽造照片技術(shù),已經(jīng)引發(fā)了各界的廣泛爭論。好消息是,加州大學(xué)河濱分校 Amit K. Roy-Chowdhury 教授帶領(lǐng)的一支研究團隊,已經(jīng)開發(fā)出了一套高水準(zhǔn)的深度神經(jīng)網(wǎng)絡(luò),能夠分析一張照片是否經(jīng)由 DeepFakes 偽造。
(圖自:加州大學(xué)河濱分校,via New Atlas)
研究期間,團隊向他們的深度神經(jīng)網(wǎng)絡(luò)投喂了大量的篡改和非篡改照片數(shù)據(jù)集,并對其作出相應(yīng)的計算機標(biāo)記。
自被篡改的圖片中,團隊突出顯示了被數(shù)字化添加到鏡頭中的對象的邊界像素。此前已有研究人員證實,偽造照片的不尋常物體邊界,會較真實物體更加平滑或有所不同。
雖然人眼不一定能夠檢測到這些差異,但計算機可以對異常像素進行逐個的檢查,然后將標(biāo)記的數(shù)據(jù)集輸入深度神經(jīng)網(wǎng)絡(luò)。
這是一套模擬人腦的松散建模算法,旨在識別原始數(shù)據(jù)中的模式?;诖耍撋疃壬窠?jīng)網(wǎng)絡(luò)將學(xué)會識別數(shù)字添加進去的圖像指示邊界。
當(dāng)它隨后顯示來自數(shù)據(jù)集外部、此前沒見過的照片時,就能夠在很大程度上辨別出經(jīng)過 Deepfakes 偽造的照片。
需要指出的是,盡管這套系統(tǒng)目前僅適用于靜態(tài)照片,但團隊正在努力將其應(yīng)用于視頻的鑒別。畢竟視頻的本質(zhì),就是一幀幀的連續(xù)圖像。
當(dāng)然,在投入實際試用后,這套深度神經(jīng)網(wǎng)絡(luò)也可能永遠都做不到 100% 的識別準(zhǔn)確率,畢竟訓(xùn)練數(shù)據(jù)及都是被研究人員有意標(biāo)識過的。
有關(guān)這項研究的詳情,已經(jīng)發(fā)表在近日出版的《IEEE Transactions on Image Processing》影像處理期刊上。原標(biāo)題為:
《Hybrid LSTM and Encoder–Decoder Architecture for Detection of Image Forgeries》