偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

AI是否足夠的中立?賓夕法尼亞大學(xué)發(fā)現(xiàn)AI訓(xùn)練數(shù)據(jù)中的隱形偏見(jiàn)

人工智能 新聞
賓夕法尼亞州立大學(xué)和俄勒岡州立大學(xué)的研究人員發(fā)表了一項(xiàng)研究,直接戳破了我們對(duì)自身洞察力的幻想。

《Media Psychology》上的新研究發(fā)現(xiàn),人工智能訓(xùn)練數(shù)據(jù)里的種族偏見(jiàn),即便明晃晃地?cái)[在眼前,我們大多數(shù)人也根本看不出來(lái)。

賓夕法尼亞州立大學(xué)和俄勒岡州立大學(xué)的研究人員發(fā)表了一項(xiàng)研究,直接戳破了我們對(duì)自身洞察力的幻想。

這項(xiàng)研究的核心發(fā)現(xiàn):普通用戶無(wú)法注意到AI訓(xùn)練數(shù)據(jù)中的偏見(jiàn),特別是當(dāng)偏見(jiàn)將某個(gè)種族與某種特定情緒(比如快樂(lè)或悲傷)悄悄綁定時(shí)。

研究由賓夕法尼亞州立大學(xué)的S. Shyam Sundar教授主導(dǎo),他和他的團(tuán)隊(duì),包括俄勒岡州立大學(xué)的Cheng Chen助理教授以及賓夕法尼亞州立大學(xué)的博士生Eunchae Jang,一起設(shè)計(jì)了一系列巧妙的實(shí)驗(yàn)。他們找來(lái)了769名參與者,想看看人的眼睛到底能不能識(shí)破機(jī)器的“花招”。

偏見(jiàn)就在眼前

研究團(tuán)隊(duì)做的第一件事,是創(chuàng)建了12個(gè)不同版本的AI原型系統(tǒng)。這些系統(tǒng)都號(hào)稱能識(shí)別你的面部表情,但它們各自“喂”的訓(xùn)練數(shù)據(jù)都動(dòng)了手腳。

研究人員給參與者看AI的訓(xùn)練數(shù)據(jù)樣本。在一個(gè)版本里,代表“快樂(lè)”情緒的頭像照片,絕大多數(shù)是白人面孔;而代表“悲傷”情緒的,則主要是黑人面孔。

這是一種赤裸裸的偏見(jiàn)植入,它在暗示機(jī)器:白人等于快樂(lè),黑人等于悲傷。

然后,研究人員問(wèn)參與者:“你覺(jué)得這個(gè)AI系統(tǒng)對(duì)每個(gè)種族群體都公平嗎?”

結(jié)果讓人大跌眼鏡。

絕大多數(shù)參與者,看著這些明顯失衡的數(shù)據(jù),回答說(shuō):沒(méi)注意到任何偏見(jiàn)。

領(lǐng)導(dǎo)這項(xiàng)研究的S. Shyam Sundar教授坦言:“我們感到非常驚訝,人們竟然沒(méi)有意識(shí)到種族和情緒在這里被混淆了,即某個(gè)種族比其他種族更有可能在訓(xùn)練數(shù)據(jù)中代表特定情緒——即使證據(jù)就擺在他們眼前?!?/span>

他補(bǔ)充道:“對(duì)我來(lái)說(shuō),這是這項(xiàng)研究最重要的發(fā)現(xiàn)?!?/span>

人們的眼睛似乎被什么東西蒙住了。他們看到了數(shù)據(jù),卻沒(méi)有看到數(shù)據(jù)背后的不公。

研究團(tuán)隊(duì)把偏見(jiàn)推向了另一個(gè)極端:代表性不足。

這次,他們給參與者展示的訓(xùn)練數(shù)據(jù)里,無(wú)論是“快樂(lè)”還是“悲傷”的類別,都只有白人的照片。其他種族的面孔,完全消失了。

這模擬了現(xiàn)實(shí)世界中某些數(shù)據(jù)集完全缺乏多樣性的情況。

結(jié)果同樣,大多數(shù)人還是沒(méi)能指出這里存在問(wèn)題。仿佛在他們看來(lái),一個(gè)只認(rèn)識(shí)白人面孔的AI,是完全正常的。

這兩個(gè)實(shí)驗(yàn)揭示了一個(gè)令人不安的現(xiàn)實(shí):數(shù)據(jù)偏見(jiàn),是一種隱形的存在。它不像一個(gè)程序錯(cuò)誤那樣會(huì)彈出警告,它只是安靜地潛伏在海量數(shù)據(jù)中,而我們的大腦似乎并不擅長(zhǎng)主動(dòng)去搜尋這種系統(tǒng)性的不平衡。

我們只在機(jī)器犯錯(cuò)時(shí)才察覺(jué)不妥

那到底要到什么時(shí)候,人們才會(huì)開(kāi)始懷疑AI有問(wèn)題?

研究找到了答案:直到AI的性能表現(xiàn)出明顯的偏見(jiàn)時(shí)。

在實(shí)驗(yàn)中,當(dāng)AI系統(tǒng)開(kāi)始“犯錯(cuò)”,比如它能精準(zhǔn)識(shí)別白人的情緒,卻頻繁地錯(cuò)誤分類黑人的情緒時(shí),參與者才終于開(kāi)始警覺(jué)。

這時(shí)候,人們會(huì)說(shuō):“哦,這個(gè)AI好像有偏見(jiàn)?!?/span>

主要作者Cheng Chen指出了這個(gè)現(xiàn)象的關(guān)鍵:“偏見(jiàn)在性能方面是非常有說(shuō)服力的。當(dāng)人們看到AI系統(tǒng)表現(xiàn)出種族偏見(jiàn)時(shí),他們忽略了訓(xùn)練數(shù)據(jù)特征,而是基于有偏見(jiàn)的結(jié)果形成他們的看法?!?/span>

它說(shuō)明,我們判斷一個(gè)AI是否公平,依賴的不是其內(nèi)在的構(gòu)成(訓(xùn)練數(shù)據(jù)),而是其外在的表現(xiàn)(輸出結(jié)果)。我們傾向于默認(rèn)技術(shù)是中立和可靠的,把它當(dāng)成一個(gè)黑箱,只要這個(gè)黑箱吐出的結(jié)果看起來(lái)沒(méi)問(wèn)題,我們就不會(huì)去質(zhì)疑黑箱里面裝了什么。

這種“結(jié)果導(dǎo)向”的信任模式非常危險(xiǎn)。

因?yàn)樗馕吨?,只要一個(gè)有偏見(jiàn)的AI系統(tǒng)在大部分時(shí)間里表現(xiàn)得足夠好,或者它的偏見(jiàn)受害者沒(méi)有機(jī)會(huì)發(fā)聲,那么這種偏見(jiàn)就可能永遠(yuǎn)不會(huì)被大多數(shù)用戶發(fā)現(xiàn)。它會(huì)持續(xù)地、悄無(wú)聲息地運(yùn)行下去,加劇現(xiàn)實(shí)世界的不公。

Sundar教授指出,這項(xiàng)研究與其說(shuō)是關(guān)于技術(shù),不如說(shuō)是關(guān)于人類心理學(xué)。

他說(shuō),人們有一種傾向,“信任AI是中立的,即使它不是”。

這種不自覺(jué)的信任,是AI偏見(jiàn)能夠大行其道的心理溫床。我們輕易地交出了判斷權(quán),默認(rèn)機(jī)器是客觀的、超越人類偏見(jiàn)的。但我們忘了,機(jī)器是從人類創(chuàng)造的數(shù)據(jù)中學(xué)習(xí)的,它學(xué)的不是客觀世界,而是我們已經(jīng)記錄下來(lái)的、充滿偏見(jiàn)的人類世界。

冰凍三尺,非一日之寒

AI的偏見(jiàn)問(wèn)題,尤其是面部識(shí)別領(lǐng)域的種族偏見(jiàn),其實(shí)早已不是什么新聞。

美國(guó)國(guó)防部在90年代就啟動(dòng)了面部識(shí)別技術(shù)項(xiàng)目(FERET),建立大型數(shù)據(jù)庫(kù)來(lái)訓(xùn)練和評(píng)估算法。2001年的超級(jí)碗(Super Bowl)比賽上,警方甚至用它來(lái)掃描觀眾,試圖找出通緝犯。雖然這次應(yīng)用因?yàn)榍址鸽[私而備受爭(zhēng)議,但也預(yù)示著一個(gè)新時(shí)代的到來(lái)。

真正的革命發(fā)生在2010年代,隨著機(jī)器學(xué)習(xí)和AI的爆發(fā)。深度學(xué)習(xí),特別是卷積神經(jīng)網(wǎng)絡(luò)(CNNs),讓計(jì)算機(jī)識(shí)別人臉的能力發(fā)生了質(zhì)的飛躍。

14年,F(xiàn)acebook的DeepFace系統(tǒng),在人臉比對(duì)測(cè)試中的準(zhǔn)確率達(dá)到了97%,幾乎和人眼一樣準(zhǔn)。谷歌緊隨其后,推出了FaceNet系統(tǒng),進(jìn)一步提升了性能。今天的面部識(shí)別技術(shù),已經(jīng)可以在光線不足、角度刁鉆的各種復(fù)雜條件下工作。

技術(shù)一路狂奔,但一個(gè)幽靈始終徘徊不去:偏見(jiàn)。

18年,麻省理工學(xué)院媒體實(shí)驗(yàn)室的Joy Buolamwini和Timnit Gebru發(fā)表了一項(xiàng)里程碑式的研究,名為“性別色調(diào)”(Gender Shades)。

她們測(cè)試了當(dāng)時(shí)市面上幾大主流的商業(yè)面部識(shí)別系統(tǒng),結(jié)果震驚了整個(gè)科技界。

數(shù)據(jù)顯示,這些系統(tǒng)在識(shí)別淺膚色男性時(shí),錯(cuò)誤率低至0.8%。

但在識(shí)別深膚色女性時(shí),錯(cuò)誤率飆升至34.7%。

這不是簡(jiǎn)單的誤差,這是系統(tǒng)性的失效。

一年后,美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)的官方測(cè)試也得出了類似結(jié)論:面部識(shí)別技術(shù)在中年白人男性身上效果最好,而對(duì)于有色人種、女性、兒童和老年人,準(zhǔn)確率則要差得多。

根源就在于訓(xùn)練數(shù)據(jù)。

美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院在2022年的一份報(bào)告中明確指出:“AI偏見(jiàn)的很大一部分源于人類偏見(jiàn)和系統(tǒng)性、制度性偏見(jiàn)?!?/span>

機(jī)器本身沒(méi)有偏見(jiàn),是數(shù)據(jù)把人類社會(huì)的偏見(jiàn)“喂”給了它。

而這研究,則是在探究“病因”的另一個(gè)層面:為什么我們作為用戶和旁觀者,會(huì)對(duì)這種病的早期癥狀(有偏見(jiàn)的數(shù)據(jù))如此麻木?

誰(shuí)更容易看到偏見(jiàn)?

這項(xiàng)研究還有一個(gè)更深層次的發(fā)現(xiàn),它關(guān)于我們每個(gè)人的身份和視角。

在最后一個(gè)實(shí)驗(yàn)中,研究團(tuán)隊(duì)做了一個(gè)關(guān)鍵調(diào)整。在前兩個(gè)實(shí)驗(yàn)里,參與者來(lái)自各種族裔背景,但白人占多數(shù)。而在第三個(gè)實(shí)驗(yàn)中,他們特意招募了同等數(shù)量的黑人和白人參與者。

他們想看看,不同族裔的人,在看待AI偏見(jiàn)時(shí),視角是否會(huì)有不同。

實(shí)驗(yàn)呈現(xiàn)了五種不同的情況,包括之前實(shí)驗(yàn)中的“快樂(lè)白人/悲傷黑人”、“全部白人”,以及它們的反例,如“快樂(lè)黑人/悲傷白人”、“全部黑人”,外加一個(gè)沒(méi)有明顯種族與情緒關(guān)聯(lián)的“中立”版本。

結(jié)果出現(xiàn)了顯著的差異。

黑人參與者,比白人參與者,更有可能識(shí)別出AI訓(xùn)練數(shù)據(jù)中的種族偏見(jiàn)。

他們最敏感的情況,是當(dāng)看到自己的族群被與負(fù)面情緒(悲傷)過(guò)度關(guān)聯(lián)時(shí)。也就是說(shuō),當(dāng)黑人參與者看到訓(xùn)練數(shù)據(jù)里,“悲傷”的例子大多是黑人面孔時(shí),他們最容易警覺(jué),并指出這其中有問(wèn)題。

這表明,那些在現(xiàn)實(shí)世界中處于被負(fù)面刻板印象所困擾的群體,對(duì)于技術(shù)世界里同樣的偏見(jiàn)模式,有著更強(qiáng)的“免疫力”或“識(shí)別力”。他們的個(gè)人經(jīng)歷和社會(huì)處境,似乎磨礪出了一種更敏銳的“偏見(jiàn)探測(cè)雷達(dá)”。

反之,那些處于優(yōu)勢(shì)地位或未被負(fù)面表征的群體,則更容易對(duì)這些偏見(jiàn)視而不見(jiàn)。

這不再是一個(gè)技術(shù)問(wèn)題,甚至不只是一個(gè)心理學(xué)問(wèn)題,它觸及了深刻的社會(huì)學(xué)議題。我們每個(gè)人的社會(huì)身份,都在塑造我們看待世界,包括看待技術(shù)世界的方式。技術(shù)并非一個(gè)客觀中立的真空,它是一個(gè)折射和放大社會(huì)現(xiàn)實(shí)的棱鏡。而我們每個(gè)人,看到的都是棱鏡折射后,與自己位置相關(guān)的光。

這項(xiàng)研究用數(shù)據(jù)清晰地量化了這種感知上的差異。它告訴我們,當(dāng)我們討論AI的“公平性”時(shí),我們不能假設(shè)所有人對(duì)“公平”的感知和定義都是一樣的。

研究啟示

這項(xiàng)研究它挑戰(zhàn)了“技術(shù)客觀論”的神話,揭示了人類在認(rèn)知技術(shù)偏見(jiàn)方面的巨大盲區(qū)。我們的大腦似乎沒(méi)有進(jìn)化出一種能輕易識(shí)別算法系統(tǒng)性偏見(jiàn)的能力。

既然普通用戶靠不住,那么指望通過(guò)用戶反饋來(lái)監(jiān)督和修正AI偏見(jiàn),這條路基本上是走不通的。責(zé)任的重?fù)?dān),必須落在AI的開(kāi)發(fā)者、部署者和監(jiān)管者身上。

他們需要采取更主動(dòng)、更前置的措施來(lái)確保公平。這不僅僅是技術(shù)層面的算法去偏,更包括在數(shù)據(jù)收集、標(biāo)注、審核等每一個(gè)環(huán)節(jié),都要建立起嚴(yán)格的“偏見(jiàn)審查”機(jī)制。

研究團(tuán)隊(duì)也表示,他們未來(lái)的方向,是研究如何能更好地向用戶、開(kāi)發(fā)者和政策制定者傳達(dá)AI中固有的偏見(jiàn)。提高整個(gè)社會(huì)的媒體素養(yǎng)和AI素養(yǎng),可能是解決問(wèn)題的一部分。

想象一下這個(gè)循環(huán):

  1. 充滿偏見(jiàn)的社會(huì)數(shù)據(jù)被用來(lái)訓(xùn)練AI。
  2. AI學(xué)習(xí)并放大了這些偏見(jiàn)。
  3. 由于大多數(shù)人無(wú)法識(shí)別這種內(nèi)在偏見(jiàn),他們信任并使用這個(gè)AI。
  4. AI有偏見(jiàn)的結(jié)果(比如在招聘、信貸、司法等領(lǐng)域)影響了現(xiàn)實(shí)世界,進(jìn)一步固化了原有的社會(huì)不公。
  5. 這種被加劇的不公,又會(huì)產(chǎn)生新的、偏見(jiàn)更深的數(shù)據(jù),被用來(lái)訓(xùn)練下一代AI。

這是一個(gè)能自我加強(qiáng)的惡性循環(huán)。而這項(xiàng)研究發(fā)現(xiàn)的人類認(rèn)知盲點(diǎn),正是這個(gè)循環(huán)得以順暢運(yùn)轉(zhuǎn)的關(guān)鍵潤(rùn)滑劑。

我們是否愿意承認(rèn)自己視野的局限?我們是否愿意去傾聽(tīng)那些更容易受到技術(shù)偏見(jiàn)傷害的群體的聲音?

當(dāng)我們凝視AI時(shí),看到的其實(shí)是我們自己。

責(zé)任編輯:張燕妮 來(lái)源: AIGC開(kāi)放社區(qū)
相關(guān)推薦

2012-03-16 16:17:44

銳捷網(wǎng)絡(luò)沃頓商學(xué)院

2022-11-07 17:26:16

機(jī)器學(xué)習(xí)AI

2024-06-04 13:08:26

2024-11-25 19:04:21

2023-11-05 15:25:56

2022-12-19 15:16:19

腦機(jī)接口

2025-03-27 10:09:04

2024-05-06 07:30:00

機(jī)器狗AI

2025-03-26 09:26:26

2022-06-14 14:23:14

圖像存儲(chǔ)

2021-11-16 09:31:24

神經(jīng)網(wǎng)絡(luò)AI算法

2021-10-20 10:22:36

機(jī)器狗人工智能系統(tǒng)

2025-05-19 14:56:45

3D模型訓(xùn)練

2020-05-11 09:35:17

人工智能

2019-11-04 13:51:13

機(jī)器學(xué)習(xí)人工智能計(jì)算機(jī)

2024-06-27 15:10:43

2023-04-03 12:02:25

ChatGPT人工智能

2015-09-22 11:40:15

2024-04-22 08:49:13

大語(yǔ)言模型LLMAI

2020-03-13 09:48:04

大數(shù)據(jù)人工智能安全
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)