反人臉識別技術(shù)如何來規(guī)避隱私泄露
對人工智能監(jiān)視系統(tǒng)的擔(dān)憂,促使研究人員開發(fā)了一種針對它們的工具。近日多倫多大學(xué)教授帕勒姆·阿比拉和研究生阿維舍克·博斯發(fā)明了一種算法,可讓人臉識別率降至0.5%。
有了這項“反人臉識別”技術(shù),我們能夠決定自己的臉是否會被識別嗎?
反人臉識別不陌生
其實這種反人臉識別技術(shù)早在前幾年就已出現(xiàn)。2016年11月,卡內(nèi)基梅隆大學(xué)研究人員開發(fā)出一款反面部識別眼鏡。這種造價0.22美元的特制眼鏡可以用光滑的照片紙打印,團(tuán)隊稱,眼鏡可讓攝像頭前的人顯示成為另一個人,在對商用級臉部識別軟件的測試中,誤認(rèn)人臉的成功率達(dá)到100%。
2017年,麻省理工學(xué)院和日本九州大學(xué)的研究人員創(chuàng)建了一種叫做EOT(Expectation Over Transformation)的算法,成功騙過谷歌AI系統(tǒng),讓系統(tǒng)將一幅3D打印的海龜照片標(biāo)記為步槍,將3D棒球認(rèn)成濃縮咖啡,而可愛的貓咪則有時被當(dāng)做鱷梨醬。
有研究人員擔(dān)憂,AI對3D物品的錯認(rèn),以及被設(shè)計用來欺騙機(jī)器視覺系統(tǒng)的對抗性圖像技術(shù)的突破,讓面部識別系統(tǒng)正面臨新一輪挑戰(zhàn)。在上述實驗中,將烏龜錯認(rèn)成步槍正是對抗性圖像的一個例子,多倫多大學(xué)教授帕勒姆·阿比拉使用的也是這種方法。
對抗訓(xùn)練技術(shù)受追捧
勒姆·阿比拉在最近發(fā)表的《基于約束最優(yōu)化的神經(jīng)網(wǎng)絡(luò)的反面部識別系統(tǒng)》中介紹,他們在一個超過600張臉的行業(yè)標(biāo)準(zhǔn)庫中進(jìn)行了系統(tǒng)訓(xùn)練,用于測試的600張臉包含了不同種族、不同光照條件以及不同環(huán)境。
文章第一作者阿維舍克·博斯在接受媒體采訪時也表示,測試的關(guān)鍵在于訓(xùn)練兩個神經(jīng)網(wǎng)絡(luò)相互對立,一個創(chuàng)建越來越強大的面部檢測系統(tǒng),而另一個創(chuàng)建更強大的工具來破壞面部檢測。
現(xiàn)代臉部識別軟件主要依賴于深度神經(jīng)網(wǎng)絡(luò)——一種從大量信息中學(xué)習(xí)模式的人工智能技術(shù)。在被呈現(xiàn)過數(shù)百萬張人臉之后,該類軟件就能習(xí)得臉部概念,懂得如何分辨不同的臉?!斑@種反面部識別系統(tǒng)實際上就是通過生成式對抗網(wǎng)絡(luò)去形成一個最小最優(yōu)的變化,從而對現(xiàn)在面部識別的深度網(wǎng)絡(luò)進(jìn)行攻擊。
數(shù)據(jù)堂擁有大規(guī)模面部識別數(shù)據(jù)并已經(jīng)標(biāo)注好情緒標(biāo)簽,可以滿足消費場景下對消費者情緒識別與意圖預(yù)測的需求。
要實際應(yīng)用還欠火候
上面提的一些反面部識別系統(tǒng),訓(xùn)練過程要求識別人臉的網(wǎng)絡(luò)是公開的,并且攻擊次數(shù)是不受限制的,而在實際中,這顯然難以實現(xiàn)。在實際環(huán)境中,面部識別系統(tǒng)是一個隱蔽系統(tǒng),而且也不會允許被這樣反復(fù)攻擊。
“反人臉識別技術(shù)的誕生實質(zhì)是對于隱私的擔(dān)憂?!蹦壳?,人工智能產(chǎn)業(yè)尚處于初級階段,技術(shù)的發(fā)展都具有兩面性,如何防止人們利用AI技術(shù)進(jìn)行破壞行為是整個行業(yè)都需要思考的問題。
數(shù)據(jù)堂自制版權(quán)的系列數(shù)據(jù)集產(chǎn)品為“”人臉識別”這一技術(shù)路徑的實現(xiàn)提供了強有力的支持。
2000人面部遮擋多姿態(tài)人臉識別數(shù)據(jù)集
該數(shù)據(jù)每位被采集者,分別采集在10種遮擋條件下(包括不遮擋條件)*4種光線下*5種人臉姿態(tài),共計10*4*5=200(張)人臉數(shù)據(jù),該套數(shù)據(jù)可應(yīng)用于遮擋人臉檢測及識別等計算機(jī)視覺任務(wù)。
這不僅需要立法層面的支持,也需要倫理方面的討論。同時對人工智能人才也要進(jìn)行道德倫理教育,在立法的同時,通過行業(yè)自律來規(guī)避隱私泄露的風(fēng)險。