偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

小紅書等給AI圖像檢測上難度!數(shù)據(jù)集均通過人類感知“圖靈測試” | ICLR 2025

人工智能 新聞
來自小紅書生態(tài)算法團(tuán)隊(duì)、中科大、上海交通大學(xué)聯(lián)合提出行業(yè)稀缺的全人工標(biāo)注Chameleon基準(zhǔn)和行業(yè)領(lǐng)先的AIDE檢測方法。

:圖像分辨率從720P到4K不等,提供了更高質(zhì)量的圖像數(shù)據(jù),增加了檢測模型的挑戰(zhàn)性。

AIDE模型:多專家融合的檢測框架

在AI生成圖像檢測領(lǐng)域,現(xiàn)有的檢測方法往往只能從單一角度進(jìn)行分析,難以全面捕捉AI生成圖像與真實(shí)圖像之間的細(xì)微差異。

為了解決這一問題,研究者們提出了簡單且有效的AIDE(AI-generated Image DEtector with Hybrid Features)模型,該模型通過融合多種專家模塊,從低級像素統(tǒng)計(jì)和高級語義兩個(gè)層面全面捕捉圖像特征,實(shí)現(xiàn)了對AI生成圖像的精準(zhǔn)檢測。

AIDE模型主要由兩個(gè)核心模塊組成:Patchwise Feature Extraction(PFE)模塊和Semantic Feature Embedding(SFE)模塊。這兩個(gè)模塊通過多專家融合的方式,共同為最終的分類決策提供豐富的特征信息。

Patchwise Feature Extraction(PFE)模塊

PFE模塊旨在捕捉圖像中的低級像素統(tǒng)計(jì)特征,特別是AI生成圖像中常見的噪聲模式和紋理異常。具體而言,該模塊通過以下步驟實(shí)現(xiàn):

Patch Selection via DCT Scoring:首先,將輸入圖像劃分為多個(gè)固定大小的圖像塊(如32×32像素)。然后,對每個(gè)圖像塊應(yīng)用離散余弦變換(DCT),將其轉(zhuǎn)換到頻域。通過設(shè)計(jì)不同的帶通濾波器,計(jì)算每個(gè)圖像塊的頻率復(fù)雜度得分,從而識別出最高頻率和最低頻率的圖像塊。

Patchwise Feature Encoder:將篩選出的高頻和低頻圖像塊調(diào)整為統(tǒng)一大?。ㄈ?56×256像素),并輸入到SRM(Spatial Rich Model)濾波器中提取噪聲模式特征。這些特征隨后通過兩個(gè)ResNet-50網(wǎng)絡(luò)進(jìn)行進(jìn)一步處理,得到最終的特征圖。

Semantic Feature Embedding(SFE)模塊

SFE模塊旨在捕捉圖像中的高級語義特征,特別是物體共現(xiàn)和上下文關(guān)系等。具體而言,該模塊通過以下步驟實(shí)現(xiàn):

Semantic Feature Embedding:利用預(yù)訓(xùn)練的OpenCLIP模型對輸入圖像進(jìn)行全局語義編碼,得到圖像的視覺嵌入特征。通過添加線性投影層和平均空間池化操作,進(jìn)一步提取圖像的全局上下文信息。

Discriminator模塊

將PFE和SFE模塊提取的特征在通道維度上進(jìn)行融合,通過多層感知機(jī)(MLP)進(jìn)行最終的分類預(yù)測。具體而言,首先對高頻和低頻特征圖進(jìn)行平均池化,得到低級特征表示;然后將其與高級語義特征進(jìn)行通道級拼接,形成最終的特征向量;最后通過MLP網(wǎng)絡(luò)輸出分類結(jié)果。

實(shí)驗(yàn)結(jié)果

數(shù)據(jù)集:實(shí)驗(yàn)在AIGCDetectBenchmark、GenImage和Chameleon三個(gè)數(shù)據(jù)集上進(jìn)行。AIGCDetectBenchmark和GenImage是現(xiàn)有的基準(zhǔn)測試數(shù)據(jù)集,而Chameleon是研究者們新構(gòu)建的更具挑戰(zhàn)性的數(shù)據(jù)集。

模型對比:研究者選擇了9種現(xiàn)成的AI生成圖像檢測器進(jìn)行對比,包括CNNSpot、FreDect、Fusing、LNP、LGrad、UnivFD、DIRE、PatchCraft和NPR。

評價(jià)指標(biāo):實(shí)驗(yàn)采用分類準(zhǔn)確率(Accuracy)和平均精度(Average Precision, AP)作為評價(jià)指標(biāo)。

團(tuán)隊(duì)評測了AIDE在AIGCDetectBenchmark和GenImage上的結(jié)果,如下表所示:

AIDE模型在這兩個(gè)數(shù)據(jù)集上的優(yōu)異表現(xiàn)表明,融合低級像素統(tǒng)計(jì)和高級語義特征的方法能夠有效捕捉AI生成圖像與真實(shí)圖像之間的差異,從而提高檢測準(zhǔn)確率。

隨后在Chameleon benchmark上測評了9個(gè)現(xiàn)有的detectors,如下表所示。

同時(shí)團(tuán)隊(duì)可視化了,之前的SOTA方法PatchCraft在AIGCDetectBenchmark & GenImage 以及Chameleon上的表現(xiàn)

結(jié)果表明,之前在AIGCDetectBenchmark &GenImage上表現(xiàn)優(yōu)異的模型,在Chameleon benchmark上均表現(xiàn)很差,這表明Chameleon數(shù)據(jù)集中的圖像確實(shí)具有高度的逼真性,對現(xiàn)有檢測模型提出了更大的挑戰(zhàn)。

本論文通過對現(xiàn)有 AI 生成圖像檢測方法的重新審視,提出了一個(gè)新的問題設(shè)定,構(gòu)建了更具挑戰(zhàn)性的 Chameleon 數(shù)據(jù)集,并設(shè)計(jì)了一個(gè)融合多專家特征的檢測器 AIDE。實(shí)驗(yàn)結(jié)果表明,AIDE 在現(xiàn)有的兩個(gè)流行基準(zhǔn)(AIGCDetectBenchmark 和 GenImage)上取得了顯著的性能提升,分別比現(xiàn)有的最先進(jìn)方法提高了 3.5% 和 4.6% 的準(zhǔn)確率。然而,在 Chameleon 基準(zhǔn)上,盡管 AIDE 取得了最好的性能,但與現(xiàn)有基準(zhǔn)相比,仍存在較大的差距。

這表明,檢測 AI 生成圖像的任務(wù)仍然具有很大的挑戰(zhàn)性,需要未來進(jìn)一步的研究和改進(jìn)。希望這一工作能夠?yàn)檫@一領(lǐng)域的研究提供新的思路和方向,推動(dòng) AI 生成圖像檢測技術(shù)的發(fā)展。

盡管AIDE模型在AI生成圖像檢測領(lǐng)域取得了顯著進(jìn)展,但研究者們?nèi)杂?jì)劃在未來的工作中進(jìn)一步優(yōu)化模型架構(gòu),探索更高效的特征提取和融合方法。

此外,研究者們還計(jì)劃擴(kuò)大Chameleon數(shù)據(jù)集的規(guī)模,涵蓋更多類別、更多場景、更多生成模型的圖像,以推動(dòng)AI生成圖像檢測技術(shù)的進(jìn)一步發(fā)展。

論文: https://arxiv.org/pdf/2406.19435
主頁: https://shilinyan99.github.io/AIDE/
代碼: https://github.com/shilinyan99/AIDE

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-02-25 10:04:10

2023-09-01 09:52:45

AI模型

2025-03-13 09:16:25

2020-08-27 19:52:34

AI人工智能

2025-03-03 08:50:00

AI目標(biāo)檢測模型

2025-06-13 08:06:41

2025-03-03 08:00:00

小紅書AI圖像檢測模型AI

2023-01-01 13:22:03

AI圖靈

2024-04-07 06:50:00

2023-06-04 13:42:50

人類AI圖靈

2023-08-17 13:30:28

AI測試

2023-12-04 09:13:00

GPT-4測試

2023-11-02 12:10:00

AI訓(xùn)練

2022-09-20 15:28:35

AIDeepMind

2025-01-17 14:38:40

2023-09-25 09:00:00

ChatGPT人工智能

2025-04-03 10:00:52

2025-03-24 09:40:00

2021-05-29 16:30:58

阿里云賈揚(yáng)清大數(shù)據(jù)

2024-05-11 08:40:00

AI圖靈
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號