小紅書等給AI圖像檢測上難度!數(shù)據(jù)集均通過人類感知“圖靈測試” | ICLR 2025
量:圖像分辨率從720P到4K不等,提供了更高質(zhì)量的圖像數(shù)據(jù),增加了檢測模型的挑戰(zhàn)性。
AIDE模型:多專家融合的檢測框架
在AI生成圖像檢測領(lǐng)域,現(xiàn)有的檢測方法往往只能從單一角度進(jìn)行分析,難以全面捕捉AI生成圖像與真實(shí)圖像之間的細(xì)微差異。
為了解決這一問題,研究者們提出了簡單且有效的AIDE(AI-generated Image DEtector with Hybrid Features)模型,該模型通過融合多種專家模塊,從低級像素統(tǒng)計(jì)和高級語義兩個(gè)層面全面捕捉圖像特征,實(shí)現(xiàn)了對AI生成圖像的精準(zhǔn)檢測。
AIDE模型主要由兩個(gè)核心模塊組成:Patchwise Feature Extraction(PFE)模塊和Semantic Feature Embedding(SFE)模塊。這兩個(gè)模塊通過多專家融合的方式,共同為最終的分類決策提供豐富的特征信息。
Patchwise Feature Extraction(PFE)模塊
PFE模塊旨在捕捉圖像中的低級像素統(tǒng)計(jì)特征,特別是AI生成圖像中常見的噪聲模式和紋理異常。具體而言,該模塊通過以下步驟實(shí)現(xiàn):
Patch Selection via DCT Scoring:首先,將輸入圖像劃分為多個(gè)固定大小的圖像塊(如32×32像素)。然后,對每個(gè)圖像塊應(yīng)用離散余弦變換(DCT),將其轉(zhuǎn)換到頻域。通過設(shè)計(jì)不同的帶通濾波器,計(jì)算每個(gè)圖像塊的頻率復(fù)雜度得分,從而識別出最高頻率和最低頻率的圖像塊。
Patchwise Feature Encoder:將篩選出的高頻和低頻圖像塊調(diào)整為統(tǒng)一大?。ㄈ?56×256像素),并輸入到SRM(Spatial Rich Model)濾波器中提取噪聲模式特征。這些特征隨后通過兩個(gè)ResNet-50網(wǎng)絡(luò)進(jìn)行進(jìn)一步處理,得到最終的特征圖。
Semantic Feature Embedding(SFE)模塊
SFE模塊旨在捕捉圖像中的高級語義特征,特別是物體共現(xiàn)和上下文關(guān)系等。具體而言,該模塊通過以下步驟實(shí)現(xiàn):
Semantic Feature Embedding:利用預(yù)訓(xùn)練的OpenCLIP模型對輸入圖像進(jìn)行全局語義編碼,得到圖像的視覺嵌入特征。通過添加線性投影層和平均空間池化操作,進(jìn)一步提取圖像的全局上下文信息。
Discriminator模塊
將PFE和SFE模塊提取的特征在通道維度上進(jìn)行融合,通過多層感知機(jī)(MLP)進(jìn)行最終的分類預(yù)測。具體而言,首先對高頻和低頻特征圖進(jìn)行平均池化,得到低級特征表示;然后將其與高級語義特征進(jìn)行通道級拼接,形成最終的特征向量;最后通過MLP網(wǎng)絡(luò)輸出分類結(jié)果。
實(shí)驗(yàn)結(jié)果
數(shù)據(jù)集:實(shí)驗(yàn)在AIGCDetectBenchmark、GenImage和Chameleon三個(gè)數(shù)據(jù)集上進(jìn)行。AIGCDetectBenchmark和GenImage是現(xiàn)有的基準(zhǔn)測試數(shù)據(jù)集,而Chameleon是研究者們新構(gòu)建的更具挑戰(zhàn)性的數(shù)據(jù)集。
模型對比:研究者選擇了9種現(xiàn)成的AI生成圖像檢測器進(jìn)行對比,包括CNNSpot、FreDect、Fusing、LNP、LGrad、UnivFD、DIRE、PatchCraft和NPR。
評價(jià)指標(biāo):實(shí)驗(yàn)采用分類準(zhǔn)確率(Accuracy)和平均精度(Average Precision, AP)作為評價(jià)指標(biāo)。
團(tuán)隊(duì)評測了AIDE在AIGCDetectBenchmark和GenImage上的結(jié)果,如下表所示:
AIDE模型在這兩個(gè)數(shù)據(jù)集上的優(yōu)異表現(xiàn)表明,融合低級像素統(tǒng)計(jì)和高級語義特征的方法能夠有效捕捉AI生成圖像與真實(shí)圖像之間的差異,從而提高檢測準(zhǔn)確率。
隨后在Chameleon benchmark上測評了9個(gè)現(xiàn)有的detectors,如下表所示。
同時(shí)團(tuán)隊(duì)可視化了,之前的SOTA方法PatchCraft在AIGCDetectBenchmark & GenImage 以及Chameleon上的表現(xiàn)
結(jié)果表明,之前在AIGCDetectBenchmark &GenImage上表現(xiàn)優(yōu)異的模型,在Chameleon benchmark上均表現(xiàn)很差,這表明Chameleon數(shù)據(jù)集中的圖像確實(shí)具有高度的逼真性,對現(xiàn)有檢測模型提出了更大的挑戰(zhàn)。
本論文通過對現(xiàn)有 AI 生成圖像檢測方法的重新審視,提出了一個(gè)新的問題設(shè)定,構(gòu)建了更具挑戰(zhàn)性的 Chameleon 數(shù)據(jù)集,并設(shè)計(jì)了一個(gè)融合多專家特征的檢測器 AIDE。實(shí)驗(yàn)結(jié)果表明,AIDE 在現(xiàn)有的兩個(gè)流行基準(zhǔn)(AIGCDetectBenchmark 和 GenImage)上取得了顯著的性能提升,分別比現(xiàn)有的最先進(jìn)方法提高了 3.5% 和 4.6% 的準(zhǔn)確率。然而,在 Chameleon 基準(zhǔn)上,盡管 AIDE 取得了最好的性能,但與現(xiàn)有基準(zhǔn)相比,仍存在較大的差距。
這表明,檢測 AI 生成圖像的任務(wù)仍然具有很大的挑戰(zhàn)性,需要未來進(jìn)一步的研究和改進(jìn)。希望這一工作能夠?yàn)檫@一領(lǐng)域的研究提供新的思路和方向,推動(dòng) AI 生成圖像檢測技術(shù)的發(fā)展。
盡管AIDE模型在AI生成圖像檢測領(lǐng)域取得了顯著進(jìn)展,但研究者們?nèi)杂?jì)劃在未來的工作中進(jìn)一步優(yōu)化模型架構(gòu),探索更高效的特征提取和融合方法。
此外,研究者們還計(jì)劃擴(kuò)大Chameleon數(shù)據(jù)集的規(guī)模,涵蓋更多類別、更多場景、更多生成模型的圖像,以推動(dòng)AI生成圖像檢測技術(shù)的進(jìn)一步發(fā)展。
論文: https://arxiv.org/pdf/2406.19435
主頁: https://shilinyan99.github.io/AIDE/
代碼: https://github.com/shilinyan99/AIDE