偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

NeurIPS2025 | 攻破閉源多模態(tài)大模型:一種基于特征最優(yōu)對齊的新型對抗攻擊方法

人工智能 新聞
FOA-Attack 揭示:通過同時精細(xì)對齊全局與局部特征,并在多模型集成中做動態(tài)平衡,可以顯著提升目標(biāo)式對抗樣本對閉源 MLLMs 的遷移性。

近年來,多模態(tài)大語言模型(MLLMs)取得了令人矚目的突破,在視覺理解、跨模態(tài)推理、圖像描述等任務(wù)上表現(xiàn)出強(qiáng)大的能力。然而,隨著這些模型的廣泛部署,其潛在的安全風(fēng)險也逐漸引起關(guān)注。

研究表明,MLLMs 同樣繼承了視覺編碼器對抗脆弱性的特征,容易受到對抗樣本的欺騙。這些對抗樣本在現(xiàn)實應(yīng)用中可能導(dǎo)致模型輸出錯誤或泄露敏感信息,給大規(guī)模模型的安全部署帶來嚴(yán)重隱患。

在此背景下,如何提升對抗攻擊的可遷移性 —— 即對抗樣本跨模型、尤其是跨閉源模型仍能保持攻擊有效性 —— 成為當(dāng)前研究的關(guān)鍵難題。

然而,當(dāng)面對如 GPT-4、Claude-3 等強(qiáng)大的閉源商業(yè)模型時,現(xiàn)有攻擊方法的遷移效果顯著下降。原因在于,這些方法通常僅對齊全局特征(如 CLIP 的 [CLS] token),而忽略了圖像補(bǔ)丁(patch tokens)中蘊(yùn)含的豐富局部信息,導(dǎo)致特征對齊不充分、遷移能力受限。

為解決這一難題,本文提出了一種名為 FOA-Attack(Feature Optimal Alignment Attack)的全新靶向遷移式對抗攻擊框架。該方法的核心思想是同時在全局和局部兩個層面實現(xiàn)特征的最優(yōu)對齊,從而顯著提升攻擊的遷移能力。

  • 在全局層面,通過余弦相似度損失來對齊粗粒度的全局特征。
  • 在局部層面,創(chuàng)新性地使用聚類技術(shù)提取關(guān)鍵的局部特征模式,并將其建模為一個最優(yōu)傳輸(Optimal Transport, OT)問題,實現(xiàn)細(xì)粒度的精準(zhǔn)對齊。
  • 此外,本文還設(shè)計了一種動態(tài)集成權(quán)重策略,在攻擊生成過程中自適應(yīng)地平衡多個模型的影響,進(jìn)一步增強(qiáng)遷移性。

大量實驗表明,F(xiàn)OA-Attack 在攻擊各種開源及閉源 MLLMs 時,性能全面超越了現(xiàn)有 SOTA 方法,尤其是在針對商業(yè)閉源模型的攻擊上取得了驚人的成功率,且本工作對應(yīng)的論文和代碼均已開源。

  • 論文鏈接:https://arxiv.org/abs/2505.21494
  • 代碼鏈接:https://github.com/jiaxiaojunQAQ/FOA-Attack

研究背景

多模態(tài)大語言模型(MLLMs),如 GPT-4o、Claude-3.7 和 Gemini-2.0,通過融合視覺和語言能力,在圖像理解、視覺問答等任務(wù)上展現(xiàn)了非凡的性能。然而,這些模型繼承了其視覺編碼器的脆弱性,容易受到對抗樣本的攻擊。對抗樣本通過在原始圖像上添加人眼難以察覺的微小擾動,就能誘導(dǎo)模型產(chǎn)生錯誤的輸出。

對抗攻擊分為非目標(biāo)攻擊(旨在使模型輸出錯誤)和目標(biāo)攻擊(旨在使模型輸出特定的目標(biāo)內(nèi)容)。對于無法訪問模型內(nèi)部結(jié)構(gòu)和參數(shù)的黑盒場景(尤其是商業(yè)閉源模型),實現(xiàn)高效的目標(biāo)遷移攻擊極具挑戰(zhàn)性。

這意味著,在一個或多個替代模型(surrogate models)上生成的對抗樣本,需要能夠成功欺騙一個完全未知的黑盒目標(biāo)模型。盡管現(xiàn)有工作已證明了這種攻擊的可行性,但其遷移成功率,特別是針對最先進(jìn)的閉源 MLLMs 時,仍有很大的提升空間。

動機(jī)和理論分析

在多模態(tài)大語言模型(MLLMs)依賴的 Transformer 架構(gòu)視覺編碼器(如 CLIP)中,存在明確的特征分工:[CLS] token 提煉圖像宏觀主題(如「大象」「森林」),但會舍棄細(xì)粒度細(xì)節(jié);patch tokens 則編碼局部信息(如「大象耳朵形態(tài)」「植被密度」),是模型精準(zhǔn)理解圖像的關(guān)鍵,缺失會導(dǎo)致對抗樣本語義真實性不足。

現(xiàn)有對抗攻擊方法的核心局限的是,僅聚焦 [CLS] token 全局特征對齊,忽略 patch tokens 的局部價值,引發(fā)兩大問題:一是語義對齊不充分,全局特征難區(qū)分「大象在森林」與「大象在草原」這類細(xì)節(jié)差異,局部特征卻能清晰界定;二是遷移性差,擾動過度適配替代模型的全局特征,閉源 MLLMs(如 GPT-4o)因視覺編碼器設(shè)計不同,易識別「虛假語義」,攻擊效果驟降。

為突破此局限,F(xiàn)OA-Attack 提出「全局 + 局部」雙維度對齊思路(如圖 1 所示):

圖 1 (a) 中「特征最優(yōu)對齊損失」包含兩大模塊,全局層面用余弦相似度損失對齊 [CLS] token,保證整體語義一致;局部層面通過聚類提取關(guān)鍵模式,將對齊建模為最優(yōu)傳輸(OT)問題(右側(cè)「Optimal Transmission」),用 Sinkhorn 算法實現(xiàn)細(xì)粒度匹配。

圖 1 (b) 的「動態(tài)集成模型權(quán)重策略」則讓多編碼器并行生成對抗樣本,依收斂速度自適應(yīng)調(diào)權(quán) —— 易優(yōu)化模型權(quán)重低、難優(yōu)化模型權(quán)重高,避免偏向單一模型特征。兩者互補(bǔ),解決了單一維度對齊缺陷,顯著提升對開源及閉源 MLLMs 的攻擊遷移性。

圖 1:  FQA-Attack 示意圖

方法

FOA-Attack 以生成「語義對齊、遷移性強(qiáng)」的對抗樣本為核心目標(biāo),通過三個協(xié)同模塊構(gòu)建攻擊框架,且所有設(shè)計均基于對多模態(tài)模型特征機(jī)制與對抗遷移性的深度優(yōu)化。

首先是全局粗粒度特征對齊模塊,旨在確保對抗樣本與目標(biāo)圖像的整體語義一致。該模塊從對抗樣本  和目標(biāo)圖像  中,分別提取視覺編碼器(如 CLIP)[CLS] token 所代表的全局特征 X 與 Y,再通過損失函數(shù)最小化兩類特征的差異,避免宏觀語義偏差(如目標(biāo)為「大象」卻被識別為「汽車」)。核心全局損失公式如下:

其中,<X,Y> 為特征內(nèi)積,||X||、||Y|| 為特征的  范數(shù),該公式通過最大化余弦相似度,讓對抗樣本的全局語義與目標(biāo)圖像高度匹配。

其次是局部細(xì)粒度特征對齊模塊,針對 patch tokens 局部特征「豐富但冗余」的問題,采用「聚類 + 最優(yōu)傳輸」策略實現(xiàn)精準(zhǔn)對齊。先通過 K-means 對  和  的局部特征 、 聚類,得到代表語義連貫區(qū)域(如「大象頭部」「森林地面」)的聚類中心 、 ;再將兩類聚類中心視為特征分布,轉(zhuǎn)化為最優(yōu)傳輸問題,用 Sinkhorn 算法求解「最小成本」匹配方案,最終計算局部損失。關(guān)鍵局部損失公式為:

式中, 為特征匹配成本(基于余弦相似度定義), 為傳輸計劃(表示對抗樣本與目標(biāo)圖像局部特征的匹配比例),該損失確保對抗樣本的細(xì)節(jié)與目標(biāo)圖像精準(zhǔn)對應(yīng)。

最后是動態(tài)集成模型權(quán)重模塊,解決傳統(tǒng)多模型集成「權(quán)重均等易偏科」的問題。以 ViT-B/16、ViT-B/32 等 CLIP 變體為替代模型,先定義「學(xué)習(xí)速度」Si (T)(第 i 個模型第 T 步與 T?1 步的損失比值,比值越小學(xué)習(xí)越快),再根據(jù)學(xué)習(xí)速度自適應(yīng)調(diào)整權(quán)重 —— 學(xué)習(xí)慢的模型權(quán)重更高,避免優(yōu)化偏向易適配模型。核心權(quán)重公式與總損失公式分別為:

其中, 為初始權(quán)重(設(shè)為 1.0)、t 為模型數(shù)量、 為單個模型的損失,總損失通過加權(quán)融合多模型優(yōu)化目標(biāo),讓對抗樣本適配不同模型特征偏好,大幅提升遷移性。

實驗效果

開源模型

表 1:在不同開源模型上的攻擊成功率(ASR)與語義相似度(AvgSim)

在 Qwen2.5-VL、LLaVA、Gemma 等開源模型上,F(xiàn)OA-Attack 的攻擊成功率(ASR)和語義相似度(AvgSim)顯著高于 M-Attack、AnyAttack 等方法。

閉源模型

表 2:在不同閉源模型上的攻擊成功率(ASR)和語義相似度(AvgSim)

對 GPT-4o、Claude-3.7、Gemini-2.0 等商業(yè)閉源模型,F(xiàn)OA-Attack 表現(xiàn)尤為突出:尤其在 GPT-4o 上,F(xiàn)OA-Attack 的 ASR 達(dá)到 75.1%。

推理增強(qiáng)模型

表 3:在不同推理增強(qiáng)模型上的攻擊成功率(ASR)和語義相似度(AvgSim)

即使對 GPT-o3、Claude-3.7-thinking 等推理增強(qiáng)模型(理論上更魯棒),F(xiàn)OA-Attack 仍能突破,這表明推理增強(qiáng)模型的視覺編碼器仍存在脆弱性,F(xiàn)OA-Attack 的「全局 + 局部」對齊策略能有效利用這一漏洞。

可視化

圖 3:原始干凈圖像、對抗圖像和擾動圖像的可視化

結(jié)語

FOA-Attack 揭示:通過同時精細(xì)對齊全局與局部特征,并在多模型集成中做動態(tài)平衡,可以顯著提升目標(biāo)式對抗樣本對閉源 MLLMs 的遷移性。研究一方面暴露了當(dāng)前 MLLMs 在視覺編碼階段的脆弱面,另一方面也為防御方向提供了新的思路(例如如何在局部特征層面加固魯棒性)。作者在論文中也討論了效率和計算成本的限制,并給出未來改進(jìn)方向。

目前,論文與代碼已公開,歡迎感興趣的同學(xué)閱讀,復(fù)現(xiàn)以及深入討論。

作者介紹

本文作者分別來自新加坡南洋理工大學(xué)、阿聯(lián)酋 MBZUAI、新加坡 Sea AI Lab 以及美國伊利諾伊大學(xué)香檳分校(UIUC)。第一作者加小俊為新加坡南洋理工大學(xué)博士后。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2023-08-10 08:46:52

2025-07-24 01:00:00

2016-12-26 16:46:12

2021-01-26 16:02:58

安卓機(jī)器學(xué)習(xí)模型

2024-05-17 16:02:00

2015-12-18 16:15:55

架構(gòu)新型計算模型

2025-01-08 08:21:16

2025-08-07 02:00:00

2024-01-18 15:38:17

語言模型大型語言模型

2017-03-13 11:30:39

2017-12-11 10:40:14

2025-10-23 12:32:05

2025-05-21 08:47:00

2016-11-18 09:02:02

2023-10-28 15:30:57

2024-11-13 09:39:13

2022-07-28 12:18:40

視覺語言模型

2025-05-22 04:00:00

PARSCALE大型語言模型LLM

2025-10-17 09:08:05

2023-10-17 12:34:04

點贊
收藏

51CTO技術(shù)棧公眾號