這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒
本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
就在這周,麻省理工學院緊急下架了Tiny Images數(shù)據(jù)集。
原因很簡單,有學者研究指出,這個通過大量搜索引擎整合的數(shù)據(jù)集,內(nèi)里竟然隱藏著諸多令人不齒的標簽:兒童猥褻、性暗示、種族歧視……
而這些圖像的標簽(b***h,w**re),則帶有強烈的偏見和反人道的意味。
△ 從統(tǒng)計數(shù)據(jù)來看,包含這類標簽的圖片達成千上萬張
如果含有這樣的標簽和圖像的數(shù)據(jù)集被用于訓練AI,后果將不堪設(shè)想。
然而局面似乎已經(jīng)無法挽回:由于這個數(shù)據(jù)集主打微小圖像,且圖片數(shù)量龐大,在當年計算機硬件還不發(fā)達時,曾被廣泛用于AI訓練,在arXiv上屬于高引用論文。
Reddit上針對此事的說法不一。
有網(wǎng)友認為,這件事有點小題大做的意思。畢竟這些通過網(wǎng)絡(luò)搜集到的圖片、文本信息,也是真實世界的一部分。
在我看來,這有點「道德恐慌」了。難道會有人覺得用來訓練GPT-3的接近1TB的開放式網(wǎng)絡(luò)文本信息里沒有任何冒犯性的內(nèi)容?
但也有支持的網(wǎng)友拍手稱快。
MIT干得好!
除了這類情緒化的觀點,很多人也開始理性思考這種數(shù)據(jù)集形成的原因。
這是不是制作數(shù)據(jù)集的作者們無暇抽空檢查導(dǎo)致的?
這些機器學習的研究人員在處理圖像的時候,難道不會設(shè)置一下搜索過濾嗎?就我經(jīng)驗來看,有些制作不精的數(shù)據(jù)集在沒時間檢查的情況下就發(fā)布了。
很快有網(wǎng)友否認了這種觀點,因為Tiny Images不屬于這種情況。
我認識原作者,情況不是你想的那樣。我覺得,作者只是沒有像我們今天這樣考慮這么多,他們在利用搜索引擎整合圖片的時候,可能沒想過要對標簽列表進行過濾。
無論網(wǎng)友抱持有何種觀點,目前這個數(shù)據(jù)集的下架都已是不爭的事實。
哪怕是比Tiny Images更有影響力的數(shù)據(jù)集ImageNet,在這次研究中也被指出存在部分令人不適的圖片,但沒有Tiny Images數(shù)量這么龐大。
有學者指出,ImageNet維護者眾多、且圖像分類明確,與之相比,Tiny Images則幾乎從未被仔細檢查過。
到底是什么原因,使得這么多年來,Tiny Images數(shù)據(jù)集一直少有人工清查?
這個問題,可能還得從Tiny Images自身的特性說起。
Tiny Images數(shù)據(jù)集的特點
Tiny Images數(shù)據(jù)集自2006年問世后,至今已包含5萬多個WordNet中的不同標簽。
數(shù)據(jù)集中的圖像,來源于搜索引擎搜索標簽、并自動下載所搜到的圖片。
整理后的圖像數(shù)量達8000萬張,每張都以非常低的分辨率(32×32)保存在數(shù)據(jù)集中,形成了Tiny Images數(shù)據(jù)集的特色:數(shù)量龐大,圖像微小。
然而,正是由于圖像數(shù)量過于龐大,導(dǎo)致這些令人反感的圖像隱藏太深;而低分辨率,則會導(dǎo)致這些圖像難以被視覺識別。
下架時,麻省理工學院給出了官方說明。
由于我們無法保證,能徹底刪除Tiny Images中所有令人反感的圖像,所以將它下線了。
同時,也希望網(wǎng)上不要再傳播已有的Tiny Images數(shù)據(jù)集副本。
將Tiny Images下架的最重要的原因,是因為這些帶有強烈偏見的、令人反感的標簽所標注的圖像,與我們計算機視覺行業(yè)致力于達成的包容、無偏見的價值觀背道而馳。
不僅如此,采用這些標簽進行訓練后的AI模型,可能會在圖像分類或目標檢測時,將這些隱含的反人道標簽用于目標識別中。
為什么會使AI產(chǎn)生偏見
無論是Tiny Images還是ImageNet,這次都栽在了一個叫WordNet的分類詞庫上。
詞庫以其強大的詞義關(guān)聯(lián)性著稱,會根據(jù)各種單詞的意義,將不同的詞組成各式各樣的集合,最終構(gòu)成一個詞庫網(wǎng)。
例如,WordNet會將「比基尼」、「色情」和「whore」(貶義)等單詞關(guān)聯(lián)到一起,如果在搜索引擎上進行圖像搜索,所獲得的圖片會帶有強烈的偏見色彩。
△ 「whore」標簽的圖像下可能僅僅是一個穿著比基尼的女人
不可避免的是,WordNet中會收錄許多帶有貶義和偏見標簽的圖片,如果在使用這些圖片進行訓練時,沒有對標簽進行過濾,訓練后的AI就可能會利用這些標簽,戴上「有色眼鏡」識人。
ImageNet以其知名度和做得較好的圖像分類,較為幸運地得到了比較良好的維護,與之相比,Tiny Images中許多帶貶義標簽的圖像卻因為低分辨率難以被識別。
這就導(dǎo)致了這次的緊急下線。
但正如某些網(wǎng)友所說,無論如何,制作無任何偏見的數(shù)據(jù)集,本身就是良好的AI訓練不可或缺的一部分。
目前,許多最新的數(shù)據(jù)集也在不斷致力于以各種方式,接近這種「無偏見」的目標。
Tiny Images作者介紹
△ 作者Antonio Torralba
Antonio Torralba,麻省理工學院的副教授,主要研究方向為計算機視覺和機器學習,Tiny Images是他與另外兩位作者,經(jīng)過8個月時間整理出來的微型圖像數(shù)據(jù)集。