偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

使用人工智能幻覺評估圖像真實感?

譯文 精選
人工智能
本文提出了一種使用人工智能幻覺來評估圖像真實感的新方法,對此方法的實現(xiàn)原理進行詳細闡述,并給出詳細的實驗結(jié)果證明。

譯者 | 朱先忠

審校 | 重樓

引言

最近,俄羅斯的一項新研究提出了通過一種非常規(guī)方法來檢測不切實際的人工智能生成的圖像。這種方法的主要思想是:不是通過提高大型視覺語言模型LVLM的準確性,而是通過有意利用它們產(chǎn)生幻覺的傾向。

這種新方法使用LVLM提取有關(guān)圖像的多個“原子事實”,然后應(yīng)用自然語言推理NLI系統(tǒng)地衡量這些陳述之間的矛盾,從而有效地將模型的缺陷轉(zhuǎn)化為檢測違背常識的圖像的診斷工具。

WHOOPS!數(shù)據(jù)集中的兩幅圖像以及LVLM模型自動生成的語句左側(cè)圖像非常逼真,因此可以產(chǎn)生一致的描述,而右側(cè)圖像則不同尋常,導(dǎo)致模型產(chǎn)生幻覺,產(chǎn)生矛盾或錯誤的語句。圖片來源:https://arxiv.org/pdf/2503.15948

當被要求評估第二幅圖像的真實度時,LVLM發(fā)現(xiàn)有些不對勁,因為所描繪的駱駝有三個駝峰,這在自然界中是未知的。

然而,LVLM最初將大于2個駝峰與大于2只動物混為一談,因為這是在一張“駱駝圖片”中看到三個駝峰的唯一方式。然后,它繼續(xù)產(chǎn)生幻覺,產(chǎn)生比三個駝峰更不可能的東西(即“兩個頭”),并且從未詳細描述似乎引發(fā)其懷疑的內(nèi)容——不太可能的額外駝峰。

這項新研究的研究人員發(fā)現(xiàn),LVLM模型可以原生地執(zhí)行此類評估,并且與針對此類任務(wù)進行微調(diào)的模型相當(甚至更好)。由于微調(diào)復(fù)雜、昂貴且在下游適用性方面相當脆弱因此,他們發(fā)現(xiàn)當前AI革命中最大的障礙之一的原生用途是對文獻中總體趨勢的一次令人耳目一新的轉(zhuǎn)變。

開放式評估

作者斷言,上述方法的重要性在于它可以與開源框架一起部署。雖然像ChatGPT這樣的先進且高投資的模型(該論文承認)可能在這項任務(wù)中提供更好的結(jié)果,但對于我們大多數(shù)人(尤其是業(yè)余愛好者和VFX社區(qū))來說,該文獻的真正價值在于有可能在本地實現(xiàn)中融入和開發(fā)新的突破;相反,所有注定要用于專有商業(yè)API系統(tǒng)的產(chǎn)品都可能被撤回、任意漲價和經(jīng)受審查——這些審查政策更有可能反映公司的企業(yè)關(guān)切,而不是用戶的需求和責(zé)任。

這篇新論文的標題為《不要對抗幻覺,而要利用它們:使用NLI而非原子事實估計圖像真實性》,該文由來自斯科爾科沃科學(xué)技術(shù)學(xué)院Skoltech、莫斯科物理技術(shù)學(xué)院以及俄羅斯公司MTSAI和AIRI的五名研究人員共同撰寫。該論文還提供了一個相應(yīng)GitHub頁面

研究方法

論文作者使用以色列/美國WHOOPS!數(shù)據(jù)集研究這個項目:

WHOOPS!數(shù)據(jù)集中不可能出現(xiàn)的圖像示例。值得注意的是,這些圖像如何組合合理的元素,并且它們的不可能性必須基于這些不兼容方面的串聯(lián)來計算。來源:https://whoops-benchmark.github.io/

該數(shù)據(jù)集包含500張合成圖像和超過10,874條注釋,專門用于測試AI模型的常識推理和構(gòu)圖理解。它是與設(shè)計師合作創(chuàng)建的,這些設(shè)計師的任務(wù)是通過文本到圖像系統(tǒng)(例如Midjourney和DALL-E系列)生成具有挑戰(zhàn)性的圖像——產(chǎn)生難以或不可能自然捕捉的場景:

WHOOPS!數(shù)據(jù)集中的更多示例。來源:https://huggingface.co/datasets/nlphuji/whoops

他們提出的新方法可劃分為三個階段:首先,LVLM(具體來說是LLaVA-v1.6-mistral-7b)被提示生成多個描述圖像的簡單語句(稱為“原子事實”)。這些語句是使用多樣化集束搜索生成的,確保輸出的可變性。

多樣化集束搜索通過優(yōu)化多樣性增強目標,提供了更多種類的字幕選項來源:https://arxiv.org/pdf/1610.02424

接下來,他們使用自然語言推理模型系統(tǒng)地將每個生成的語句與每個其他語句進行比較,該模型分配的分數(shù)反映了語句對是否相互包含、矛盾或中立。

矛盾的話,表明圖像中存在幻覺或不切實際的元素:

實驗中使用的檢測管道的架構(gòu)

最后,他們將這些成對的NLI分數(shù)聚合為單個“現(xiàn)實分數(shù)”,以量化生成的語句的整體一致性。

研究人員探索了不同的聚合方法,發(fā)現(xiàn)基于聚類的方法效果最佳。他們應(yīng)用k-means聚類算法將單個NLI分數(shù)分成兩個聚類,然后選擇值較低的聚類的質(zhì)心作為最終指標。

使用兩個聚類直接符合分類任務(wù)的二元性質(zhì),即區(qū)分真實圖像和非真實圖像。其邏輯類似于簡單地選擇總體最低分;然而,聚類允許指標表示多個事實的平均矛盾,而不是依賴于單個異常值。

數(shù)據(jù)和測試

研究人員使用旋轉(zhuǎn)測試分割(即交叉驗證)在WHOOPS!基線基準上測試了他們的系統(tǒng)。測試的模型是分割的BLIP2 FlanT5-XLBLIP2 FlanT5-XXL,以及零樣本格式的BLIP2 FlanT5-XXL(即無需額外訓(xùn)練)。

對于遵循指令的基線,作者用短語“Is this unusual? Please explain briefly with a short sentence這不尋常嗎?請用一個簡短的句子簡要解釋一下”提示LVLM,先前的研究發(fā)現(xiàn)這對發(fā)現(xiàn)不切實際的圖像很有效。

評估的模型是LLaVA 1.6 Mistral 7BLLaVA 1.6 Vicuna 13B和兩種大?。?/130億個參數(shù))的InstructBLIP。

測試過程圍繞102對真實和非真實(“怪異”)圖像展開。每對圖像由一張正常圖像和一張違背常理的圖像組成。

三位人類注釋者對圖像進行了標注,達成了92%的共識,表明人類對“怪異”的定義具有高度的認同感。評估方法的準確性是通過正確區(qū)分現(xiàn)實和非現(xiàn)實圖像的能力來衡量的。

該系統(tǒng)使用三重交叉驗證進行評估,使用固定種子隨機打亂數(shù)據(jù)。作者在訓(xùn)練期間調(diào)整了蘊涵分數(shù)(邏輯上一致的陳述)和矛盾分數(shù)(邏輯上沖突的陳述)的權(quán)重,而“中性”分數(shù)固定為零。最終準確率計算為所有測試分割的平均值。

對五個生成事實的子集進行不同NLI模型和聚合方法的比較,以準確性作為衡量標準

對于上面顯示的初步結(jié)果,論文指出:

“clust方法脫穎而出,成為表現(xiàn)最佳的方法之一。這意味著,匯總所有矛盾分數(shù)至關(guān)重要,而不是只關(guān)注極端值。此外,最大的NLI模型nli-deberta-v3-large在所有聚合方法中的表現(xiàn)優(yōu)于所有其他模型,這表明它更有效地抓住了問題的本質(zhì)?!?/span>

作者發(fā)現(xiàn),最優(yōu)權(quán)重始終傾向于矛盾而非蘊涵,這表明矛盾對于區(qū)分不切實際的圖像更具參考價值。他們的方法優(yōu)于測試的所有其他零樣本方法,接近經(jīng)過微調(diào)的BLIP2模型的性能:

各種方法在WHOOPS!基準上的表現(xiàn)。微調(diào)ft方法顯示在頂部,而零樣本zs方法列在下面。其中,模型大小表示參數(shù)數(shù)量,準確率用作評估指標

他們還指出,在同樣的提示下,InstructBLIP的表現(xiàn)優(yōu)于同類LLaVA模型,這多少有點出乎意料。在承認GPT-4o的卓越準確性的同時,該論文強調(diào)了作者傾向于展示實用的開源解決方案,而且似乎可以合理地宣稱在明確利用幻覺作為診斷工具方面具有新穎性。

結(jié)論

作者承認他們的項目得益于2024年FaithScore活動,這是德克薩斯大學(xué)達拉斯分校和約翰霍普金斯大學(xué)合作舉辦的活動。

FaithScore評估的工作原理說明。首先,識別LVLM生成的答案中的描述性陳述。接下來,將這些陳述分解為單個原子事實。最后,將原子事實與輸入圖像進行比較以驗證其準確性。其中,帶下劃線的文本突出顯示客觀描述內(nèi)容,而藍色文本表示幻覺陳述,從而使FaithScore能夠提供可解釋的事實正確性衡量標準。來源:https://arxiv.org/pdf/2311.01477

FaithScore通過驗證與圖像內(nèi)容的一致性來衡量LVLM生成的描述的忠實度,而新論文中抽出的方法明確利用LVLM幻覺,通過使用自然語言推理生成的事實中的矛盾來檢測不切實際的圖像。

新成果自然取決于當前語言模型的怪異之處,以及它們產(chǎn)生幻覺的傾向。如果模型開發(fā)最終產(chǎn)生一個完全不產(chǎn)生幻覺的模型,那么新成果的一般原理也將不再適用。然而,這仍然是一個充滿挑戰(zhàn)的前景。

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計算機教師,自由編程界老兵一枚。

原文標題:Using AI Hallucinations to Evaluate Image Realism,作者:Martin Anderson

責(zé)任編輯:姜華 來源: 51CTO內(nèi)容精選
相關(guān)推薦

2022-06-20 11:05:58

通用人工智能機器人

2020-03-25 09:53:33

人工智能AI技術(shù)

2023-10-30 11:37:12

2024-02-02 09:50:59

2022-07-25 14:10:07

人工智能金融語言

2024-01-16 10:22:23

人工智能大型語言模GPT 4

2022-07-04 15:29:59

人工智能機器計算機

2021-10-28 11:00:00

人工智能AI汽車行業(yè)

2023-05-10 16:01:53

物聯(lián)網(wǎng)人工智能

2023-12-11 15:02:11

人工智能AI業(yè)務(wù)流程

2023-08-10 17:40:33

人工智能

2024-08-20 16:44:15

人工智能大腦地圖

2024-01-26 10:35:21

人工智能教育領(lǐng)域AI

2023-04-07 16:13:33

邊緣物聯(lián)網(wǎng)人工智能

2023-03-11 22:44:04

人工智能特斯拉

2018-07-02 10:48:20

2022-07-31 23:46:57

人工智能語言模型感知力

2023-06-06 11:22:23

2024-02-04 10:04:53

人工智能
點贊
收藏

51CTO技術(shù)棧公眾號