研究人員使用特殊圖像“毒害”人工智能
DALL-E、Midjourney和Stable Diffusion等人工智能生成藝術(shù)工具的興起引發(fā)了激烈的辯論和爭議。這些系統(tǒng)可以通過在互聯(lián)網(wǎng)上收集的大量數(shù)據(jù)集上進(jìn)行訓(xùn)練,簡單地根據(jù)文本提示創(chuàng)建真實(shí)感圖像和藝術(shù)。然而,這引發(fā)了人們對侵犯版權(quán)、濫用藝術(shù)家作品的主要擔(dān)憂。

因此研究人員開發(fā)了一種名為Nightshade的激進(jìn)新技術(shù),允許創(chuàng)意人員“毒害”他們的數(shù)字藝術(shù)。其目的是破壞試圖在未經(jīng)許可的情況下使用他們作品的人工智能系統(tǒng)。
DALL-E 2和Stable Diffusion等工具使用一種稱為神經(jīng)網(wǎng)絡(luò)的人工智能技術(shù)。他們是在大量的圖像數(shù)據(jù)集上訓(xùn)練的,這些圖像與字幕或文本描述配對。這使他們能夠?qū)W習(xí)文本概念和視覺特征之間的關(guān)系。
例如,如果模型看到數(shù)百萬張標(biāo)有“狗”的圖像,顯示皮毛、四條腿、尾巴等,它就會學(xué)會將這些視覺模式與“狗”一詞聯(lián)系起來。然后,當(dāng)收到“一只可愛的小狗坐在草地上”這樣的文本提示時(shí),它就可以從頭開始生成全新的逼真的小狗圖像。
抓取藝術(shù)家作品的擔(dān)憂
隨著對更多數(shù)據(jù)的訓(xùn)練,模型變得更有能力。這導(dǎo)致他們背后的科技巨頭在未經(jīng)藝術(shù)家同意的情況下從互聯(lián)網(wǎng)上抓取了數(shù)百萬張圖片。然而,許多創(chuàng)作者對他們的作品在未經(jīng)許可或補(bǔ)償?shù)那闆r下被用于人工智能培訓(xùn)感到不滿。
這給藝術(shù)家們帶來了一個(gè)困境——公開分享他們的作品,冒著人工智能訓(xùn)練被濫用的風(fēng)險(xiǎn),還是私有化,失去曝光率?Instagram、DeviantArt和ArtStation等平臺已成為人工智能系統(tǒng)的訓(xùn)練數(shù)據(jù)寶庫。
Nightshade如何為人工智能模型注入毒藥
根據(jù)最近的一篇研究論文,Nightshade通過攻擊和破壞人工智能模型本身提供了一個(gè)聰明的解決方案。人類看不見這些數(shù)字藝術(shù)像素中微妙的變化。但這些調(diào)整擾亂了人工智能所依賴的圖像概念和文本提示。
例如,Nightshade可以修改狗的照片,使人工智能模型將其誤認(rèn)為自行車或帽子。如果有足夠多的“中毒”圖像通過人工智能的數(shù)據(jù)集傳播,就會產(chǎn)生文本和圖像之間奇怪聯(lián)系的幻覺。
測試表明,Nightshade可以導(dǎo)致Stable Diffusion等人工智能模型生成完全超現(xiàn)實(shí)和荒謬的藝術(shù)。例如,狗的圖像變成了“章魚”這樣的多腳生物,在50個(gè)中毒樣本后扭曲了卡通臉。在攝入300張“中毒”狗的照片后,Stable Diffusion甚至在提示創(chuàng)建狗時(shí)輸出貓。
Nightshade的攻擊利用了神經(jīng)網(wǎng)絡(luò)的黑盒特性。中毒原因在龐大的數(shù)據(jù)集中很難追蹤。這意味著刪除毒藥數(shù)據(jù)就像大海撈針。
攻擊也在相關(guān)概念之間傳播。因此,毒害“幻想藝術(shù)”圖像也會在“龍”或“城堡”等相關(guān)術(shù)語上混淆人工智能。這使得手動(dòng)清理Nightshade的影響幾乎不可能大規(guī)模進(jìn)行。

































