Facebook開發(fā)了一套“去識(shí)別”系統(tǒng),能讓你在實(shí)時(shí)視頻中“隱身”
近日,來自挪威科技大學(xué)的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》一篇論文中稱用新的更有挑戰(zhàn)表示的方法欺騙了人臉識(shí)別系統(tǒng):在不改變?cè)瓉淼臄?shù)據(jù)分布的前提下把人臉匿名化,更通俗的說法來說就是輸出一張逼真的人臉,但是不改變?cè)瓐D人的姿態(tài)和背景。在這種技術(shù)的加持下,人臉識(shí)別系統(tǒng)依舊能夠正常運(yùn)行,但是完全無法識(shí)別出原來的人臉身份,偽造者則可以冒充他人自由出入具有人臉識(shí)別系統(tǒng)的設(shè)施。
根據(jù)作者們的測(cè)試,經(jīng)過他們匿名化的人臉仍然保持了接近于原圖的人臉可識(shí)別性,普通的人臉識(shí)別對(duì)于匿名化后的圖像,識(shí)別出人臉的平均準(zhǔn)確率只下降了 0.7% 。而人臉含有的自然信息自然是 100% 不重合的。
用 AI 來欺騙 AI ,這波操作簡(jiǎn)直是 666 。
此前,F(xiàn)acebook 也就反人臉識(shí)別做過嘗試,近日,終于有了結(jié)果。
外媒 VentureBeat 報(bào)道稱,近日,F(xiàn)acebook 的人工智能實(shí)驗(yàn)室 Facebook AI Research(FAIR)開發(fā)出一種“去識(shí)別”系統(tǒng),該系統(tǒng)可以欺騙面部識(shí)別系統(tǒng),例如,讓面部識(shí)別系統(tǒng)將你識(shí)別為一位女明星。
該技術(shù)使用機(jī)器學(xué)習(xí)實(shí)時(shí)地改變視頻中人物的關(guān)鍵面部特征,誘使面部識(shí)別系統(tǒng)錯(cuò)誤地識(shí)別對(duì)象。
據(jù)稱,該技術(shù)將一個(gè)對(duì)抗自編碼器與一個(gè)訓(xùn)練過的面部分類器配對(duì),以使人的面部稍微扭曲,從而在迷惑面部識(shí)別系統(tǒng)的同時(shí),又能維持一個(gè)人們可以認(rèn)出來的自然樣貌,它可以用在視頻,甚至是實(shí)時(shí)視頻中。
事實(shí)上這種“去識(shí)別”技術(shù)過去已經(jīng)存在,以色列的自動(dòng)反人臉識(shí)別系統(tǒng)提供商 D-ID 已經(jīng)研發(fā)出了針對(duì)靜態(tài)圖像的去識(shí)別技術(shù)。另外,還有一種被稱為對(duì)抗性示例,它利用了計(jì)算機(jī)視覺系統(tǒng)的弱點(diǎn),人們通過穿戴印有對(duì)抗圖案,來誘騙面部識(shí)別系統(tǒng)看到并不存在的東西。
過去的技術(shù)通常應(yīng)用于從監(jiān)控?cái)z像頭等渠道獲得的照片、靜止影像,或是已事先計(jì)劃好利用對(duì)抗圖像欺騙人臉識(shí)別系統(tǒng)?,F(xiàn)在,F(xiàn)AIR 的研究針對(duì)實(shí)時(shí)影像和視頻腳本,F(xiàn)AIR 稱這項(xiàng)技術(shù)成果是行業(yè)首例,且它足以抵抗精密的面部識(shí)別系統(tǒng)。
Facebook 還發(fā)表了一篇論文,解釋了其對(duì)新技術(shù)的態(tài)度。它提出了一種觀點(diǎn),即面部識(shí)別可能會(huì)侵犯隱私,人臉替換技術(shù)可能被用來制作誤導(dǎo)性視頻。為了控制人臉識(shí)別技術(shù)的濫用,該公司推出了對(duì)視頻進(jìn)行去識(shí)別的方法,并取得了很好的效果。
此外,據(jù) VentureBeat 報(bào)道,F(xiàn)acebook 并不打算在任何商業(yè)產(chǎn)品中使用這個(gè)反人臉識(shí)別技術(shù),但這項(xiàng)研究可能會(huì)對(duì)未來的個(gè)人隱私保護(hù)工具產(chǎn)生影響。并且,就像該研究在“誤導(dǎo)性視頻”中所強(qiáng)調(diào)的那樣,它能夠防止個(gè)人肖像被用于制造偽造視頻。
其實(shí)反人臉識(shí)別技術(shù)近年來發(fā)展迅速,早在去年,多倫多大學(xué) Parham Aarabi 教授和研究生 Avishek Bose 的團(tuán)隊(duì)開發(fā)了一種算法,可以動(dòng)態(tài)地破壞人臉識(shí)別系統(tǒng)。
簡(jiǎn)單來說,他們選擇的方法是通過干擾人臉識(shí)別算法來達(dá)到阻礙人臉識(shí)別的功能。該算法通過改變一些人眼幾乎不可識(shí)別的微小像素來改變識(shí)別器的檢測(cè)結(jié)果。盡管算法對(duì)于像素的修改十分微小,但對(duì)于檢測(cè)器來說卻是致命的。
研究人員針對(duì) 300-W 數(shù)據(jù)庫上的檢測(cè)結(jié)果也證實(shí)了這種方法的可行性。該數(shù)據(jù)集包含多種族,不同照明條件和背景環(huán)境的超過 600 張人臉照片,是一個(gè)業(yè)界的標(biāo)準(zhǔn)庫。結(jié)果表明,他們的系統(tǒng)可以將原本可檢測(cè)到的人臉比例從接近 100% 降低到 0.5% 。
而且更可怕的是這個(gè)反人臉識(shí)別系統(tǒng)具有神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)能力,可以隨著人臉識(shí)別系統(tǒng)的進(jìn)化而不斷改變自己。
但讓雷鋒網(wǎng)編輯感到更為可怕的是,AI 時(shí)代下,我們竟不能保全自己的“臉面”。