偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

CVPR 2025 | 零開銷,消除圖像幻覺!基于零空間投影挖掘正常樣本特征

人工智能 新聞
當前大型視覺語言模型(LVLMs)存在物體幻覺問題,即會生成圖像中不存在的物體描述。西安交通大學研究團隊提出了一種名為Nullu的方法,通過提取「幻覺子空間」(HalluSpace)并進行零空間投影來編輯模型權(quán)重,從而有效消除幻覺,且不增加額外推理成本。

當前大型視覺語言模型(LVLMs)普遍存在「物體幻覺」問題:模型會憑空生成圖像中不存在的物體描述。

為了高效地實現(xiàn)幻覺消除,西安交通大學研究團隊提出了一種利用「幻覺子空間」(HalluSpace)進行零空間投影的高效模型權(quán)重編輯方法Nullu(Null space of HalluSpace)。

圖片

論文地址:https://arxiv.org/abs/2412.13817

代碼地址:https://github.com/Ziwei-Zheng/Nullu

該方法的核心思路在于:從特征空間尋找到正常樣本表征與幻覺樣本特征的核心差異。

為了實現(xiàn)這一目標,研究人員在提取「真實描述+圖像」與「幻覺描述+圖像」的模型內(nèi)部嵌入特征基礎(chǔ)上,通過對二者嵌入特征的差進行主成分分析,定位導致幻覺的關(guān)鍵子空間,即HalluSpace

實驗發(fā)現(xiàn),HalluSpace內(nèi)包含了LVLM所基于的大語言模型(LLMs)過強的偏好先驗知識,而這在以往研究中已被證明是產(chǎn)生幻覺的主要原因之一。

因此,通過正交化模型權(quán)重,將輸入樣本的特征投影至HalluSpace的零空間,可以有效去除這種偏好先驗,從而抑制幻覺生成。

Nullu實現(xiàn)簡單,無需訓練,便于部署,且不引入額外推理開銷,在多個幻覺消除任務(wù)上取得了出色的效果,成果已發(fā)表于CVPR 2025

基于零空間投影的權(quán)重編輯

Nullu的權(quán)重編輯過程主要分為三個步驟:1)真實-幻覺數(shù)據(jù)對構(gòu)建;2)HalluSpace抽取;3)基于零空間投影的模型權(quán)重編輯。

數(shù)據(jù)對構(gòu)建

對于任意「視覺-文本」結(jié)構(gòu)的輸入數(shù)據(jù),研究人員將構(gòu)建數(shù)據(jù)對來實現(xiàn)幻覺子空間的抽取。每個數(shù)據(jù)對具有相同的圖像和不同的文本信息:其中一個文本包含準確描述圖像中物體的真實描述,作為負樣本;另一個包含幻覺描述,作為正樣本。

圖片

可以直接使用LURE[1]數(shù)據(jù)集作為數(shù)據(jù)對,其中每一對樣本包含圖像及其對應(yīng)的真實描述(Ground Truth,GT)以及通過關(guān)鍵詞替換得到的幻覺描述(Hallucination Description,HD)。

LURE數(shù)據(jù)構(gòu)建的流程如下:圖像從MSCOCO 2014數(shù)據(jù)集的訓練集中隨機選取5000 張圖像,并獲取與對應(yīng)的描述作為GT

在此基礎(chǔ)上,替換GT中最易引發(fā)幻覺的對象,如高頻對象等,作為幻覺描述HD。

HalluSpace抽取

HalluSpace的抽取將主要在LVLM的語言模型部分的MLP層特征空間進行,整體流程如圖所示。

圖片

語言大模型部分由LLM構(gòu)成,各層包括一個自注意力層和一個MLP層。為抽取幻覺子空間HalluSpace,首先分別輸入具有真實響應(yīng)和幻覺響應(yīng)的正負樣本對,在LLM部分的每層分別計算并存儲嵌入特征,隨后在特征的長度維度上,對每個樣本對應(yīng)的特征求平均值,將這些嵌入特征堆疊成正負樣本特征矩陣,并求出差異矩陣。

接著,通過SVD分解對差異矩陣進行主成分分析。

最后,選取具有對應(yīng)于前??個奇異值的右奇異向量,即特征向量V的前??個列向量。

這些方向代表了真實特征和幻覺特征之間的主要差異,可以被視為模型特征空間中引發(fā)幻覺描述的方向,即HalluSpace

基于零空間投影的模型權(quán)重編輯

由于HalluSpace表示了真實數(shù)據(jù)和幻覺數(shù)據(jù)分布之間的主要差異方向,因此可以通過將模型特征投影到幻覺空間的零空間來去除特征中的潛在幻覺信息。

由于所有輸入共享HalluSpace,因此直接將模型權(quán)重向HalluSpace的零空間進行投影,即可消除潛在幻覺風險。

經(jīng)過編輯的新模型參數(shù),可以直接重新加載到原始模型中,因此在推理時,不會引入任何額外計算開銷。

如下圖所示,當輸入內(nèi)容的內(nèi)部特征存在處于HalluSpace的分量時,新的模型參數(shù)可以有效將該分量消除,從而減少幻覺的發(fā)生。

圖片

幻覺子空間的存在性與討論

研究人員進一步利用實驗,驗證了HalluSpace的存在性;同時,論文通過解碼對HalluSpace內(nèi)部所包含的信息進行了分析討論,揭示了Nullu與現(xiàn)有方法的相互關(guān)系;進一步,文章對Nullu的有效性進行了分析,并揭示了其與直接偏好優(yōu)化(DPO)的潛在關(guān)系。

幻覺子空間的存在性分析

假設(shè)HalluSpace存在,在測試集上(非LURE數(shù)據(jù)集),真實樣本和幻覺樣本計算得到的特征差異向量在HalluSpace應(yīng)具有較大分量。

為評估這一點,研究人員在CHAIR測試上,選擇了100個LLaVA-1.5發(fā)生幻覺的描述性問題作為測試對象,計算每個樣本幻覺發(fā)生和沒有幻覺時嵌入特征的差異向量進行測試。

此外,實驗中還隨機選取了100個隨機向量作為比較基線。

為了避免范數(shù)的影響,研究人員進一步對所有的向量都進行了歸一化處理。

圖片

圖中(a)展示了向量在歸一化球面上的分布示意圖。

對于隨機向量,其將隨意的分布在單位球內(nèi)部,因此在幻覺子空間的投影分量將會較低;而所計算的差向量如果成功捕獲了幻覺信息,則在幻覺子空間的投影分量將會很高。

因此研究人員進行了驗證性的計算,結(jié)果顯示,所計算差向量在幻覺子空間的投影分量比隨機對照組高出了10倍以上。

這一證據(jù)表明,幻覺子空間捕捉到了LVLM特征中和幻覺有關(guān)的特征方向,從而證明了幻覺子空間的存在性

其他討論與分析

論文中通過對HalluSpace內(nèi)部所包含的信息進行解碼,發(fā)現(xiàn)其內(nèi)部包含了眾多語言模型的偏好先驗。

因此,將模型參數(shù)向HalluSpace的正交零空間投影實現(xiàn)了去除模型內(nèi)部語言偏好的功能,從而有效解決了物體幻覺問題。這一思路與現(xiàn)有的方法,如VCD[2]具有類似性。

另外,文章進一步揭示了Nullu與直接偏好優(yōu)化(DPO)的潛在關(guān)系,進一步說明了方法的有效性,這里不再贅述。

實驗與分析

研究人員將所提出方法部署于LLaVA-1.5、MiniGPT-4和mPLUG-Owl2,并在多個數(shù)據(jù)集對Nullu的有效性進行了驗證:包括在CHAIR和POPE的幻覺性能驗證,以及在MME和LLaVA-Bench的通用性能測試。

圖片

通過下圖可以看出,由于Nullu可以通過模型編輯直接修改模型參數(shù),因此在推理過程中,不會引入任何額外的推理開銷,實現(xiàn)了零開銷抑制物體幻覺。

圖片

相比現(xiàn)有其他解碼增強方法,Nullu能以更快的速度,實現(xiàn)更好的物體幻覺解決性能。且這一性能提升并非通過減少模型輸出長度來實現(xiàn)的。

為直觀展示物體幻覺的緩解效果,研究人員進一步展示了Nullu在LLaVA-Bench開放式生成任務(wù)數(shù)據(jù)集上的測試案例。

如下圖中所示,對于同一問題,使用經(jīng)過Nullu進行權(quán)重編輯的模型成功消除了原始模型輸出中存在的物體幻覺。

圖片

研究人員還進行了在線測試來對Nullu的有效性進行檢測。在原始模型輸出物體幻覺詞「person」時,改用經(jīng)過編輯的權(quán)重進行推理后,輸出變更為「mountain」,進一步證明了所提出方法的有效性。

結(jié)語

研究人員提出了一種基于特征編輯的物體幻覺消除方法Nullu。

Nullu針對模型各層的多層感知機部分進行幻覺空間識別,通過提取真實特征與幻覺特征差異的低秩子空間,并進一步對LVLM的權(quán)重進行正交化投影,從而緩解物體幻覺問題。

實驗結(jié)果表明,Nullu能夠在不增加額外推理成本的情況下顯著緩解物體幻覺,這使得該方法相較于當前的解碼階段方法和后處理方法,在推理速度上更具優(yōu)勢。

同時,經(jīng)該方法編輯后的模型在通用大型視覺語言模型基準測試中仍能保持良好性能,證明其在提升真實性的同時,并未損害模型的整體能力。

理論分析表明,該方法與直接偏好優(yōu)化在權(quán)重更新方式上存在內(nèi)在一致性。通過與先前研究的對比分析進一步發(fā)現(xiàn),該方法通過調(diào)整模型參數(shù),有效減少了大語言模型中的語言偏差,而語言偏差已被證實是導致對象幻覺的關(guān)鍵因素之一。

作者介紹

論文作者來自西安交通大學人工智能安全實驗室(AI-SEC)團隊,其中第一作者楊樂為西安交通大學特聘研究員,共同第一作者為西安交通大學博士生鄭子維,通訊作者為西安交通大學沈超教授。

責任編輯:張燕妮 來源: 新智元
相關(guān)推薦

2024-06-25 09:35:04

模型訓練

2022-05-08 23:13:43

零信任網(wǎng)絡(luò)安全

2025-02-07 10:10:05

MusicMagus擴散模型音樂編輯

2025-03-24 13:32:43

2025-02-06 11:25:50

2024-03-15 12:49:40

AI訓練

2024-08-20 07:47:12

AI零代碼網(wǎng)關(guān)

2015-11-04 15:08:07

數(shù)據(jù)挖掘內(nèi)容營銷

2024-11-18 08:40:00

2025-10-14 07:53:20

零拷貝CPUI/O 性能

2011-06-06 13:10:48

麗訊投影機

2025-02-08 11:12:34

ZAPS影像模型

2024-11-20 16:51:00

目標檢測模型

2023-02-24 10:22:15

2024-09-12 08:00:00

2014-04-30 15:20:06

數(shù)據(jù)挖掘

2024-06-17 14:07:41

2025-03-17 09:20:00

視覺生成模型

2021-08-09 08:40:33

零知識證明零信任網(wǎng)絡(luò)安全

2012-07-30 16:20:48

點贊
收藏

51CTO技術(shù)棧公眾號