英偉達(dá)版Sora被曝違規(guī)抓取大量數(shù)據(jù),官方表示不服
英偉達(dá)版Sora曝光——
代號(hào)Cosmos,研究副總裁劉洺堉擔(dān)任負(fù)責(zé)人。
不過隨著幾份內(nèi)部文件的泄露,他們還被曝非法抓取數(shù)據(jù)。
(確實(shí)這也不是一次兩次了……)
員工被默許每天在網(wǎng)絡(luò)上抓取任何未經(jīng)授權(quán)、未經(jīng)同意數(shù)據(jù),比如YouTube、奈飛等等這種平臺(tái)上。
合起來,每天抓取的幾乎是一個(gè)人80年能感知到的視覺數(shù)據(jù)。
結(jié)果英偉達(dá)回應(yīng)稱:我們這做法,完全合法!
英偉達(dá)版Sora曝光:代號(hào)Cosmos
據(jù)404Media所獲取的泄密文件顯示,英偉達(dá)每天都會(huì)抓取非法數(shù)據(jù)來訓(xùn)練新模型。
Cosmos的目標(biāo)是構(gòu)建一個(gè)最先進(jìn)的視頻基礎(chǔ)模型。據(jù)泄露的郵件顯示該模型集合了光傳輸、物理和智能的模擬,以解鎖對(duì)各種下游應(yīng)用。
△圖源:404 Media
比如被用到Omniverse 3D 世界生成器、自動(dòng)駕駛汽車系統(tǒng)和數(shù)字人產(chǎn)品。
英偉達(dá)研究副總裁Ming-Yu Liu(劉洺堉)擔(dān)任Cosmos的項(xiàng)目負(fù)責(zé)人。
他同時(shí)也是IEEE Fellow。他帶領(lǐng)英偉達(dá)Deep Imagination研究小組,推出了NVIDIA Picasso [Edify]、NVIDIA Canvas [GauGAN]和NVIDIA Maxine [LivePortrait]等產(chǎn)品。
此前5月份的一封電子郵件中顯示:
我們正在完成 v1 數(shù)據(jù)管道并確保必要的計(jì)算資源,以構(gòu)建一個(gè)視頻數(shù)據(jù)工廠,該工廠每天可以產(chǎn)生相當(dāng)于人類一生視覺體驗(yàn)的訓(xùn)練數(shù)據(jù)。
△圖源:404 Media
這張圖中顯示英偉達(dá)首席科學(xué)家 Francesco Ferroni給了個(gè)表格鏈接,里面匯集了各種視頻數(shù)據(jù)集,包括 MovieNet(一個(gè)包含 60,000 個(gè)電影預(yù)告片的數(shù)據(jù)庫)、WebVid、 InternVid-10M,以及幾個(gè)內(nèi)部捕獲的視頻游戲鏡頭數(shù)據(jù)集。
如今據(jù)一位前員工爆料稱,員工會(huì)被要求從YouTube、奈飛等來源來抓取數(shù)據(jù)。
他們會(huì)使用一個(gè)名為yt-dlp的開源YouTube視頻下載器,它能使用虛擬機(jī)來刷新IP地址,以避免被YouTube屏蔽。
為此,英偉達(dá)向404 Media回應(yīng)稱:
我們尊重所有內(nèi)容創(chuàng)作者的權(quán)利,并相信我們的模型和研究工作完全符合版權(quán)法的條文和精神。
版權(quán)法保護(hù)特定的表達(dá)方式,但不保護(hù)事實(shí)、想法、數(shù)據(jù)或信息。任何人都可以自由地從其他來源了解事實(shí)、想法、數(shù)據(jù)或信息,并用它來表達(dá)自己的觀點(diǎn)。合理使用還保護(hù)將作品用于變革性目的的能力,例如模型訓(xùn)練?!?/p>
而谷歌則是扔給404 Media一個(gè)鏈接,今年4月YouTube CEO表示,如果OpenAI用YouTube視頻來訓(xùn)練Sora,那么明顯違反YouTube的使用條款。
而奈飛則表示,他們并未與英偉達(dá)達(dá)成內(nèi)容提取協(xié)議,而且該平臺(tái)的服務(wù)條款不允許抓取內(nèi)容。
有意思的是,同一天,YouTube博主正在尋求對(duì)OpenAI集體訴訟,指控該公司在未通知或補(bǔ)償視頻所有者的情況下,使用數(shù)百萬條 YouTube 視頻記錄來訓(xùn)練其生成式 AI 模型。
而此前這些大廠被曝非法抓取數(shù)據(jù)的事情也屢見不鮮。
不過必須要說的是,這種原始數(shù)據(jù)真的很有用…
之前英偉達(dá)還用游戲視頻,來改善訓(xùn)練數(shù)據(jù)質(zhì)量。
最近登上Nature封面的那篇研究顯示,這種用最初互聯(lián)網(wǎng)數(shù)據(jù)訓(xùn)練的大模型,具有先發(fā)優(yōu)勢(shì),數(shù)據(jù)質(zhì)量最好,對(duì)應(yīng)的模型性能也最好。
之后隨著AI數(shù)據(jù)越來越泛濫,反而容易讓大模型崩潰。
Garbage in,Garbage out。
對(duì)于這件事,你怎么看呢?