偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

語(yǔ)義熵識(shí)破LLM幻覺!牛津大學(xué)新研究登Nature

人工智能
近日,來(lái)自牛津大學(xué)的研究人員推出了利用語(yǔ)義熵來(lái)檢測(cè)LLM幻覺的新方法。作為克服混淆的策略,語(yǔ)義熵建立在不確定性估計(jì)的概率工具之上,可以直接應(yīng)用于基礎(chǔ)模型,無(wú)需對(duì)架構(gòu)進(jìn)行任何修改。

時(shí)至今日,大語(yǔ)言模型胡編亂造的情況仍屢見不鮮。

不知大家面對(duì)LLM的一本正經(jīng)胡說(shuō)八道,是輕皺眉頭,還是一笑而過(guò)?

俗話說(shuō),大風(fēng)起兮云飛揚(yáng),安得猛士兮走四方。LLM幻覺任何時(shí)候都要除掉,不除不行。

試想,當(dāng)你搜索一個(gè)簡(jiǎn)單語(yǔ)法時(shí),網(wǎng)頁(yè)上排名前幾的都是由大模型生成的錯(cuò)誤答案,測(cè)過(guò)之后才發(fā)覺浪費(fèi)了生命。

如果LLM涉及了醫(yī)學(xué)、法律等專業(yè)領(lǐng)域,幻覺將造成嚴(yán)重的后果,所以相關(guān)的研究也從未停止。

近日,來(lái)自牛津大學(xué)的研究人員在Nature上發(fā)表了利用語(yǔ)義熵來(lái)檢測(cè)LLM幻覺的新方法。

圖片圖片

論文地址:https://www.nature.com/articles/s41586-024-07421-0

牛津大學(xué)計(jì)算機(jī)科學(xué)家Sebastian Farquhar等人,通過(guò)設(shè)計(jì)基于LLM確定的語(yǔ)義熵(相似性),來(lái)度量大模型答案中語(yǔ)義層面的不確定性。

做法是讓第一個(gè)LLM針對(duì)同一問題多次產(chǎn)生答案,并由第二個(gè)LLM(裁判)來(lái)分析這些答案的語(yǔ)義相似性。

同時(shí),為了驗(yàn)證以上判斷的準(zhǔn)確性,再啟用第三個(gè)LLM,同時(shí)接收人類的答案和第二個(gè)LLM的評(píng)判結(jié)果進(jìn)行比較,做到了無(wú)監(jiān)督,但有理有據(jù)。

圖片圖片

整個(gè)過(guò)程簡(jiǎn)單來(lái)說(shuō)就是:如果我想檢查你是否在胡編亂造,我就會(huì)反復(fù)問你同一個(gè)問題。如果你每次給出的答案都不一樣......那就不對(duì)勁了。

實(shí)驗(yàn)結(jié)果表明,本文采用的語(yǔ)義熵方案優(yōu)于所有基線方法:

圖片圖片

在Nature的一篇評(píng)論文章中,皇家墨爾本理工大學(xué)計(jì)算機(jī)技術(shù)學(xué)院院長(zhǎng)Karin Verspoor教授表示,這是一種「Fighting fire with fire」的方法:

「結(jié)果表明,與這些簇相關(guān)的不確定性(語(yǔ)義熵)比標(biāo)準(zhǔn)的基于單詞的熵更能有效地估計(jì)第一個(gè)LLM的不確定性。這意味著即使第二個(gè)LLM的語(yǔ)義等價(jià)計(jì)算并不完美,但它仍然有幫助?!?/span>

不過(guò)Karin Verspoor也指出,用一個(gè)LLM來(lái)評(píng)估一種基于LLM的方法似乎是在循環(huán)論證,而且可能有偏差。

「但另一方面,我們確實(shí)能從中受到很多啟發(fā),這將有助于其他相關(guān)問題的研究,包括學(xué)術(shù)誠(chéng)信和抄襲,使用LLM創(chuàng)建誤導(dǎo)或捏造的內(nèi)容」。

Fighting fire with fire

LLM的幻覺通常被定義為生成「無(wú)意義或不忠實(shí)于所提供的源內(nèi)容的內(nèi)容」,本文關(guān)注幻覺的一個(gè)子集——「虛構(gòu)」,即答案對(duì)不相關(guān)的內(nèi)容很敏感(比如隨機(jī)種子)。

檢測(cè)虛構(gòu)可以讓基于LLM構(gòu)建的系統(tǒng),避免回答可能導(dǎo)致虛構(gòu)的問題,讓用戶意識(shí)到問題答案的不可靠性,或者通過(guò)更有根據(jù)的搜索,來(lái)補(bǔ)充或恢復(fù)LLM給出的回答。

語(yǔ)義熵和混淆檢測(cè)

為了檢測(cè)虛構(gòu),研究人員使用概率工具,來(lái)定義并測(cè)量LLM所產(chǎn)生內(nèi)容的語(yǔ)義熵——根據(jù)句子含義計(jì)算的熵。

因?yàn)閷?duì)于語(yǔ)言來(lái)說(shuō),盡管表達(dá)方式不同(語(yǔ)法或詞匯上不同),但答案可能意味著相同的事情(語(yǔ)義上等效)。

而語(yǔ)義熵傾向于估計(jì)自由形式答案的含義分布,而不是單詞或單詞片段的分布,符合實(shí)際情況,同時(shí)也可以看作是隨機(jī)種子變異的一種語(yǔ)義一致性檢查。

如下圖所示,一般的不確定性衡量方法會(huì)將「巴黎」、「這是巴黎」和「法國(guó)首都巴黎」視為不同的回答,這并不適合語(yǔ)言任務(wù)。

圖片圖片

而本文的方法可以讓答案在計(jì)算熵之前根據(jù)含義進(jìn)行聚類。

另外,語(yǔ)義熵還可以檢測(cè)較長(zhǎng)段落中的混淆。如下圖所示,將生成的長(zhǎng)答案分解為事實(shí)陳述。

對(duì)于每個(gè)事實(shí)陳述,LLM會(huì)生成對(duì)應(yīng)的問題。然后另一個(gè)LLM對(duì)這些問題給出M個(gè)可能的答案。

圖片圖片

最后,計(jì)算每個(gè)特定問題答案的語(yǔ)義熵(包括原始事實(shí)),與該事實(shí)相關(guān)的問題的平均語(yǔ)義熵較高表明為虛構(gòu)。

直觀上,本文方法的工作原理是對(duì)每個(gè)問題的幾個(gè)可能答案進(jìn)行采樣,并通過(guò)算法將它們聚類為具有相似含義的答案,然后根據(jù)同一聚類(簇)中的答案是否雙向相互關(guān)聯(lián)來(lái)確定答案。

——如果句子A的含義包含句子B(或者相反),那么我們認(rèn)為它們位于同一語(yǔ)義簇中。

研究人員使用通用LLM和專門開發(fā)的自然語(yǔ)言推理 (NLI) 工具來(lái)測(cè)量語(yǔ)義關(guān)聯(lián)性 。

實(shí)驗(yàn)評(píng)估

語(yǔ)義熵可以檢測(cè)跨一系列語(yǔ)言模型和領(lǐng)域的自由格式文本生成中的混淆,而無(wú)需先前的領(lǐng)域知識(shí)。

本文的實(shí)驗(yàn)評(píng)估涵蓋了問答知識(shí)(TriviaQA)、常識(shí)(SQuAD 1.1 )、生命科學(xué)(BioASQ)和開放知識(shí)域自然問題 (NQ-Open)。

還包括檢測(cè)數(shù)學(xué)文字問題 (SVAMP) 和傳記生成數(shù)據(jù)集 (FactualBio)中的混淆。

TriviaQA、SQuAD、BioASQ、NQ-Open和SVAMP均在上下文無(wú)關(guān)的情況下進(jìn)行評(píng)估,句子長(zhǎng)度96±70個(gè)字符,模型使用LLaMA 2 Chat(7B、13B和70B)、Falcon Instruct(7B和40B)以及Mistral Instruct(7B)。

實(shí)驗(yàn)采用嵌入回歸方法作為強(qiáng)監(jiān)督基線。

評(píng)估指標(biāo)

首先,對(duì)于給定答案不正確的二元事件,使用AUROC來(lái)同時(shí)捕獲精確度和召回率,范圍從0到1,其中1代表完美的分類器,0.5代表無(wú)信息的分類器。

第二個(gè)衡量標(biāo)準(zhǔn)是拒絕精度曲線下的面積 (AURAC),AURAC表示如果使用語(yǔ)義熵來(lái)過(guò)濾掉導(dǎo)致最高熵的問題,用戶將體驗(yàn)到的準(zhǔn)確性改進(jìn)。

圖片

上圖結(jié)果是五個(gè)數(shù)據(jù)集的平均值,表明語(yǔ)義熵及其離散近似都優(yōu)于句子長(zhǎng)度生成的最佳基線。

其中AUROC衡量方法預(yù)測(cè)LLM錯(cuò)誤的程度(與虛構(gòu)相關(guān)),而AURAC衡量拒絕回答被認(rèn)為可能導(dǎo)致混淆的問題,所帶來(lái)的系統(tǒng)性能改進(jìn)。

對(duì)實(shí)驗(yàn)中的30種任務(wù)和模型組合進(jìn)行平均,語(yǔ)義熵達(dá)到了0.790的最佳AUROC值,而樸素熵為0.691、P(True) 為0.698、嵌入回歸基線 為0.687。

在我們不同模型系列(LLaMA、Falcon和Mistral)和尺度(從7B到70B參數(shù))中,語(yǔ)義熵具有穩(wěn)定的性能(AUROC在0.78到0.81之間)。

圖片圖片

上表給出了TriviaQA、SQuAD和BioASQ在LLaMA 2 Chat 70B上測(cè)試的問題和答案示例。

我們可以從中發(fā)現(xiàn)語(yǔ)義熵如何檢測(cè)含義不變但形式變化的情況(表的第一行),

當(dāng)形式和含義一起變化時(shí)(第二行),熵和樸素熵都正確預(yù)測(cè)了虛構(gòu)的存在;

當(dāng)形式和含義在幾個(gè)重新采樣的代中都保持不變時(shí),熵和樸素熵都正確預(yù)測(cè)了虛構(gòu)的不存在(第三行)。

而最后一行的示例顯示了上下文和判斷在聚類中的重要性,以及根據(jù)固定參考答案進(jìn)行評(píng)估的缺點(diǎn)。

圖片

上圖展示了語(yǔ)義熵的離散變體有效地檢測(cè)了FactualBio數(shù)據(jù)集上的虛構(gòu)。

離散語(yǔ)義熵的AUROC和AURAC高于簡(jiǎn)單的自檢基線(僅詢問LLM事實(shí)是否可能為真)或P(True) 的變體,具有更好的拒絕準(zhǔn)確性性能。

結(jié)論

語(yǔ)義熵在檢測(cè)錯(cuò)誤方面的成功表明:LLM更擅長(zhǎng)「知道他們不知道什么」,——他們只是不知道他們知道他們不知道什么(狗頭)。

語(yǔ)義熵作為克服混淆的策略建立在不確定性估計(jì)的概率工具的基礎(chǔ)上。它可以直接應(yīng)用于任何LLM或類似的基礎(chǔ)模型,無(wú)需對(duì)架構(gòu)進(jìn)行任何修改。即使當(dāng)模型的預(yù)測(cè)概率不可訪問時(shí),語(yǔ)義不確定性的離散變體也可以應(yīng)用。

參考資料:

https://www.science.org/content/article/is-your-ai-hallucinating-new-approach-can-tell-when-chatbots-make-things-up

責(zé)任編輯:武曉燕 來(lái)源: 新智元
相關(guān)推薦

2025-01-13 13:00:00

AI模型訓(xùn)練

2018-10-10 13:57:32

區(qū)塊鏈技術(shù)智能

2023-09-08 16:37:54

AI數(shù)據(jù)

2025-10-22 02:00:00

AI全球大裁員AI就業(yè)影響

2024-11-25 15:00:00

模型智能體

2024-06-11 07:45:00

2024-11-29 14:10:00

神經(jīng)網(wǎng)絡(luò)AI

2022-10-13 16:01:38

技術(shù)大腦

2021-10-13 17:28:33

AI 數(shù)據(jù)人工智能

2022-02-10 15:15:41

人工智能強(qiáng)化學(xué)習(xí)谷歌

2024-06-05 19:45:08

2021-03-23 13:49:21

人工智能機(jī)器學(xué)習(xí)

2022-04-11 11:37:13

AI研究NLP

2022-09-30 11:55:36

AI算力

2025-10-11 18:05:23

智能論文AI

2025-02-10 13:40:00

2025-05-15 09:10:00

2019-09-20 09:57:21

微軟開源Windows

2023-08-05 12:54:32

2018-11-07 22:18:58

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)