偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒

新聞 人工智能
就在這周,麻省理工學院緊急下架了Tiny Images數(shù)據(jù)集。原因很簡單,有學者研究指出,這個通過大量搜索引擎整合的數(shù)據(jù)集,內(nèi)里竟然隱藏著諸多令人不齒的標簽。

 本文經(jīng)AI新媒體量子位(公眾號ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。

就在這周,麻省理工學院緊急下架了Tiny Images數(shù)據(jù)集。

原因很簡單,有學者研究指出,這個通過大量搜索引擎整合的數(shù)據(jù)集,內(nèi)里竟然隱藏著諸多令人不齒的標簽:兒童猥褻、性暗示、種族歧視……

而這些圖像的標簽(b***h,w**re),則帶有強烈的偏見和反人道的意味。

這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒

△ 從統(tǒng)計數(shù)據(jù)來看,包含這類標簽的圖片達成千上萬張

如果含有這樣的標簽和圖像的數(shù)據(jù)集被用于訓練AI,后果將不堪設(shè)想。

然而局面似乎已經(jīng)無法挽回:由于這個數(shù)據(jù)集主打微小圖像,且圖片數(shù)量龐大,在當年計算機硬件還不發(fā)達時,曾被廣泛用于AI訓練,在arXiv上屬于高引用論文。

Reddit上針對此事的說法不一。

有網(wǎng)友認為,這件事有點小題大做的意思。畢竟這些通過網(wǎng)絡(luò)搜集到的圖片、文本信息,也是真實世界的一部分。

這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒


在我看來,這有點「道德恐慌」了。難道會有人覺得用來訓練GPT-3的接近1TB的開放式網(wǎng)絡(luò)文本信息里沒有任何冒犯性的內(nèi)容?


但也有支持的網(wǎng)友拍手稱快。

這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒


MIT干得好!


除了這類情緒化的觀點,很多人也開始理性思考這種數(shù)據(jù)集形成的原因。

這是不是制作數(shù)據(jù)集的作者們無暇抽空檢查導(dǎo)致的?

這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒


這些機器學習的研究人員在處理圖像的時候,難道不會設(shè)置一下搜索過濾嗎?就我經(jīng)驗來看,有些制作不精的數(shù)據(jù)集在沒時間檢查的情況下就發(fā)布了。


很快有網(wǎng)友否認了這種觀點,因為Tiny Images不屬于這種情況。

這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒


我認識原作者,情況不是你想的那樣。我覺得,作者只是沒有像我們今天這樣考慮這么多,他們在利用搜索引擎整合圖片的時候,可能沒想過要對標簽列表進行過濾。


無論網(wǎng)友抱持有何種觀點,目前這個數(shù)據(jù)集的下架都已是不爭的事實。

哪怕是比Tiny Images更有影響力的數(shù)據(jù)集ImageNet,在這次研究中也被指出存在部分令人不適的圖片,但沒有Tiny Images數(shù)量這么龐大。

有學者指出,ImageNet維護者眾多、且圖像分類明確,與之相比,Tiny Images則幾乎從未被仔細檢查過。

到底是什么原因,使得這么多年來,Tiny Images數(shù)據(jù)集一直少有人工清查?

這個問題,可能還得從Tiny Images自身的特性說起。

Tiny Images數(shù)據(jù)集的特點

Tiny Images數(shù)據(jù)集自2006年問世后,至今已包含5萬多個WordNet中的不同標簽。

數(shù)據(jù)集中的圖像,來源于搜索引擎搜索標簽、并自動下載所搜到的圖片。

整理后的圖像數(shù)量達8000萬張,每張都以非常低的分辨率(32×32)保存在數(shù)據(jù)集中,形成了Tiny Images數(shù)據(jù)集的特色:數(shù)量龐大,圖像微小

然而,正是由于圖像數(shù)量過于龐大,導(dǎo)致這些令人反感的圖像隱藏太深;而低分辨率,則會導(dǎo)致這些圖像難以被視覺識別。

下架時,麻省理工學院給出了官方說明。

由于我們無法保證,能徹底刪除Tiny Images中所有令人反感的圖像,所以將它下線了。

同時,也希望網(wǎng)上不要再傳播已有的Tiny Images數(shù)據(jù)集副本。

將Tiny Images下架的最重要的原因,是因為這些帶有強烈偏見的、令人反感的標簽所標注的圖像,與我們計算機視覺行業(yè)致力于達成的包容、無偏見的價值觀背道而馳。

不僅如此,采用這些標簽進行訓練后的AI模型,可能會在圖像分類或目標檢測時,將這些隱含的反人道標簽用于目標識別中。

為什么會使AI產(chǎn)生偏見

無論是Tiny Images還是ImageNet,這次都栽在了一個叫WordNet的分類詞庫上。

詞庫以其強大的詞義關(guān)聯(lián)性著稱,會根據(jù)各種單詞的意義,將不同的詞組成各式各樣的集合,最終構(gòu)成一個詞庫網(wǎng)。

例如,WordNet會將「比基尼」、「色情」和「whore」(貶義)等單詞關(guān)聯(lián)到一起,如果在搜索引擎上進行圖像搜索,所獲得的圖片會帶有強烈的偏見色彩。

這個比肩ImageNet的數(shù)據(jù)集遭MIT緊急下架,原因令人憤怒

△ 「whore」標簽的圖像下可能僅僅是一個穿著比基尼的女人

不可避免的是,WordNet中會收錄許多帶有貶義和偏見標簽的圖片,如果在使用這些圖片進行訓練時,沒有對標簽進行過濾,訓練后的AI就可能會利用這些標簽,戴上「有色眼鏡」識人。

ImageNet以其知名度和做得較好的圖像分類,較為幸運地得到了比較良好的維護,與之相比,Tiny Images中許多帶貶義標簽的圖像卻因為低分辨率難以被識別。

這就導(dǎo)致了這次的緊急下線。

但正如某些網(wǎng)友所說,無論如何,制作無任何偏見的數(shù)據(jù)集,本身就是良好的AI訓練不可或缺的一部分。

目前,許多最新的數(shù)據(jù)集也在不斷致力于以各種方式,接近這種「無偏見」的目標。

Tiny Images作者介紹

[[332095]]

△ 作者Antonio Torralba

Antonio Torralba,麻省理工學院的副教授,主要研究方向為計算機視覺和機器學習,Tiny Images是他與另外兩位作者,經(jīng)過8個月時間整理出來的微型圖像數(shù)據(jù)集。

??

 

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2020-07-19 10:55:43

數(shù)據(jù)庫工具技術(shù)

2022-05-20 10:45:37

Gitee開源

2017-01-19 19:46:21

Opera Prest代碼瀏覽器

2014-05-29 11:04:14

Windows 8操作系統(tǒng)

2024-05-21 13:15:07

2023-06-19 12:28:21

GPT人工驗證數(shù)據(jù)集

2020-09-21 09:50:41

微信禁令系統(tǒng)

2023-05-23 08:00:00

數(shù)據(jù)集ImageNet算法

2020-10-26 10:04:50

GitHub代碼開源

2012-02-06 17:14:05

360APP Store隱私

2023-08-21 14:09:17

2018-04-19 08:58:51

App蘋果JavaScript

2025-01-09 10:55:53

2012-08-29 09:50:05

憤怒的小鳥免費

2020-03-11 11:00:28

病毒惡意軟件疫情

2012-11-26 09:53:48

亞馬遜云計算私有云

2024-07-15 09:00:00

2012-10-09 10:44:49

大數(shù)據(jù)管理大數(shù)據(jù)服務(wù)器

2025-02-26 15:06:23

點贊
收藏

51CTO技術(shù)棧公眾號