人工智能正在被用來識別情緒
情感識別技術(shù)是一個新興的價值數(shù)十億美元的產(chǎn)業(yè),它利用人工智能技術(shù)從人的面部表情去檢測情感。但是,情感識別系統(tǒng)在科學(xué)界存在爭議,即系統(tǒng)中存在偏見。
許多公司正在使用情感識別技術(shù)去測試顧客對他們產(chǎn)品的反應(yīng),這些產(chǎn)品從谷類食品到電子游戲。這項技術(shù)也被用在高風(fēng)險的部門,例如機場的安全部門雇用人員,去檢測面試者的欺騙或恐懼;在邊境管制部門,這項技術(shù)被用來識別“危險人物”。
人臉識別技術(shù)受到越來越多的公眾關(guān)注。最近,從Netflix發(fā)布的影片中,許多面部識別技術(shù)無法準(zhǔn)確檢測到膚色較深的人臉。因為隱私問題,ImageNet模糊了150萬張人臉圖像。
由于人臉識別技術(shù)存在算法偏差和歧視性數(shù)據(jù)集,包括微軟、亞馬遜和IBM在內(nèi)的大型科技公司已經(jīng)停止了相關(guān)產(chǎn)品的銷售。在歐盟,一個由40多個民間組織組成的聯(lián)盟呼吁全面禁止面部識別技術(shù)。

像其它形式的面部識別技術(shù)一樣,情感識別技術(shù)引出了關(guān)于偏見、隱私和大規(guī)模監(jiān)視的問題。與情感識別技術(shù)相關(guān)的另一個問題,它背后的情感科學(xué)是有爭議的。人類學(xué)的研究表明,情感在不同的文化和社會中有不同的表達(dá)方式。2019年,心理科學(xué)協(xié)會對相關(guān)證據(jù)進(jìn)行了審查,結(jié)論是沒有科學(xué)證據(jù)支持一個普遍的假設(shè),即一個人的情緒狀態(tài)可以很容易地從面部動作推斷出來。
與其他形式的面部識別技術(shù)一樣,情感識別技術(shù)帶有種族偏見。一項研究表明,無論黑人的表情如何,系統(tǒng)總是會認(rèn)為黑人的臉比白人的臉更憤怒。美國麻省理工學(xué)院的研究人員指出,這項技術(shù)對少數(shù)族裔有兩種傷害:第一種情況是不起作用,由于有色人種的錯誤率較高,使他們面臨更大的風(fēng)險。第二種情況是,如果你有完整的面部識別系統(tǒng),很容易用武器對付少數(shù)族裔。