偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

人大 & 百度 SIGIR 新發(fā)現(xiàn):揭開(kāi) RAG 的 “黑箱”,LLM 知識(shí)利用的四階段與神經(jīng)元密碼

人工智能
中國(guó)人民大學(xué)與百度團(tuán)隊(duì)聯(lián)合發(fā)表于2025年SIGIR的研究《Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation》,首次從宏觀知識(shí)流與微觀模塊功能兩個(gè)維度,系統(tǒng)性拆解了RAG中LLM的知識(shí)利用機(jī)制。

當(dāng)我們?yōu)镽AG(檢索增強(qiáng)生成)系統(tǒng)能輸出更精準(zhǔn)的答案而欣喜時(shí),一個(gè)核心問(wèn)題始終懸而未決:當(dāng)外部檢索到的知識(shí)涌入LLM(大語(yǔ)言模型)時(shí),模型是如何在自身參數(shù)化知識(shí)與外部非參數(shù)化知識(shí)之間做選擇的?是優(yōu)先采信新信息,還是固守舊認(rèn)知?

中國(guó)人民大學(xué)與百度團(tuán)隊(duì)聯(lián)合發(fā)表于2025年SIGIR的研究《Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation》,首次從宏觀知識(shí)流與微觀模塊功能兩個(gè)維度,系統(tǒng)性拆解了RAG中LLM的知識(shí)利用機(jī)制。這項(xiàng)研究不僅讓我們看清了知識(shí)在模型內(nèi)部的“流動(dòng)軌跡”,更提出了可量化、可調(diào)控的技術(shù)方法,為打造更可控、低幻覺(jué)的RAG系統(tǒng)提供了底層支撐。

論文地址:https://arxiv.org/pdf/2505.11995

01、研究動(dòng)機(jī):RAG的“好用”與“未知”的矛盾

RAG技術(shù)的崛起,本質(zhì)上是為了解決LLM的“知識(shí)困境”——模型訓(xùn)練完成后,參數(shù)中固化的“內(nèi)部知識(shí)”難以覆蓋實(shí)時(shí)動(dòng)態(tài)信息或?qū)I(yè)領(lǐng)域細(xì)節(jié),容易產(chǎn)生事實(shí)性錯(cuò)誤(幻覺(jué))。通過(guò)引入檢索模塊補(bǔ)充“外部知識(shí)”,RAG成功擴(kuò)展了模型的知識(shí)邊界,在開(kāi)放域問(wèn)答、智能客服等場(chǎng)景中大放異彩。

但光鮮的性能背后,RAG系統(tǒng)實(shí)則是個(gè)“半黑箱”:

  • 外部知識(shí)進(jìn)入模型后,經(jīng)歷了怎樣的處理流程?  
  • 檢索段落的相關(guān)性究竟如何影響模型的決策傾向?
  • 模型內(nèi)部的MHA(多頭注意力)和MLP(多層感知器)模塊,在知識(shí)整合中分別扮演什么角色?

現(xiàn)有研究雖能通過(guò)調(diào)整檢索策略、優(yōu)化上下文格式提升RAG性能,卻始終未能觸及“知識(shí)如何被利用”的核心機(jī)制。正是這一研究缺口,推動(dòng)團(tuán)隊(duì)開(kāi)展了這場(chǎng)對(duì)RAG內(nèi)部運(yùn)作邏輯的“解剖式探索”。

02、核心定義:先分清兩種“知識(shí)源”

在深入解析前,我們需明確RAG中兩類關(guān)鍵知識(shí)的本質(zhì)差異,這是后續(xù)分析的基礎(chǔ):

  • 內(nèi)部知識(shí)(IK):LLM在預(yù)訓(xùn)練階段沉淀于參數(shù)中的知識(shí),無(wú)需外部輸入即可調(diào)用。生成過(guò)程可表示為:圖片,其中 I 為指令, q 為查詢,圖片為僅依賴內(nèi)部知識(shí)的答案。
  • 外部知識(shí)(EK):推理階段通過(guò)檢索器從外部語(yǔ)料庫(kù)獲取的上下文信息,生成過(guò)程需引入檢索段落圖片,其中為融合外部知識(shí)的答案。

研究正是圍繞這兩類知識(shí)的“交互與博弈”展開(kāi),聚焦開(kāi)放域問(wèn)答(ODQA)任務(wù),選用LLaMA、Qwen兩大開(kāi)源模型家族,在Natural Questions、TriviaQA、HotpotQA三大基準(zhǔn)數(shù)據(jù)集上開(kāi)展實(shí)驗(yàn),并特意構(gòu)造“假段落”(替換真實(shí)答案的錯(cuò)誤文本)驗(yàn)證模型的知識(shí)選擇偏好。

03、宏觀視角:知識(shí)在RAG中的4個(gè)流動(dòng)階段

團(tuán)隊(duì)創(chuàng)新性地采用“信息流分析”方法,通過(guò)追蹤注意力分?jǐn)?shù)與梯度變化,首次將RAG中的知識(shí)利用過(guò)程劃分為四個(gè)清晰的階段,完整呈現(xiàn)了外部知識(shí)從“輸入”到“輸出”的全生命周期。  

信息流分析的兩大工具  

為精準(zhǔn)捕捉知識(shí)流動(dòng),研究設(shè)計(jì)了兩種互補(bǔ)的分析方法:

  • 基于注意力的信息流:通過(guò)量化關(guān)鍵token(K,潛在答案)與上下文token(C,檢索段落)、查詢token(Q,用戶問(wèn)題)、答案token(A,生成結(jié)果)之間的注意力交互,定義了三個(gè)核心指標(biāo):圖片(關(guān)鍵到上下文)、圖片(關(guān)鍵到查詢)、圖片(關(guān)鍵到答案),公式如下:
    圖片
  • 基于顯著性的信息流:結(jié)合監(jiān)督微調(diào)損失的梯度信息,衡量每個(gè)token對(duì)最終預(yù)測(cè)的邊際貢獻(xiàn),彌補(bǔ)了注意力分析僅關(guān)注表層交互的局限,得到更全面的圖片指標(biāo)。

知識(shí)流動(dòng)的四階段模型

兩種分析方法的結(jié)果高度一致,共同揭示了知識(shí)在LLM不同層級(jí)間的動(dòng)態(tài)變化規(guī)律,最終形成“四階段模型”:

圖片

1. 知識(shí)精煉階段(早期層級(jí))

此階段圖片(關(guān)鍵到上下文)指標(biāo)達(dá)到峰值,表明模型正集中精力對(duì)檢索到的外部知識(shí)進(jìn)行“篩選與提煉”。就像我們拿到一份參考資料時(shí),首先會(huì)快速抓取核心信息,這一階段完成了外部知識(shí)的初步“消化”,上下文信息逐漸趨于穩(wěn)定。

2. 知識(shí)激發(fā)階段(中間層級(jí))  

圖片(關(guān)鍵到查詢)指標(biāo)在此階段達(dá)到頂峰,意味著精煉后的外部知識(shí)開(kāi)始與用戶問(wèn)題深度融合,幫助模型重新理解查詢意圖。例如,當(dāng)被問(wèn)“2025年世界杯冠軍是誰(shuí)”時(shí),檢索到的“阿根廷隊(duì)奪冠”信息會(huì)在此階段修正模型對(duì)“2025年賽事結(jié)果”的認(rèn)知,是外部知識(shí)向模型內(nèi)部傳遞的關(guān)鍵環(huán)節(jié)。

3. 知識(shí)表達(dá)階段(中后層級(jí))

圖片(關(guān)鍵到答案)指標(biāo)顯著上升,說(shuō)明模型開(kāi)始將整合后的知識(shí)轉(zhuǎn)化為具體的答案內(nèi)容。此時(shí)外部知識(shí)對(duì)生成結(jié)果的影響力最強(qiáng),若檢索段落準(zhǔn)確,答案的事實(shí)性將得到有效保障。

4. 知識(shí)競(jìng)爭(zhēng)階段(深層級(jí))

在模型最深處,圖片指標(biāo)逐漸下降,而顯著性分析顯示外部知識(shí)的“隱性影響”仍在持續(xù)。這種差異表明,內(nèi)部知識(shí)與外部知識(shí)在此階段展開(kāi)最終博弈,模型需權(quán)衡兩種知識(shí)的可靠性,最終確定輸出內(nèi)容。

值得注意的是,即使外部知識(shí)與內(nèi)部知識(shí)存在沖突(如假段落場(chǎng)景),這四個(gè)階段的流動(dòng)模式依然穩(wěn)定,說(shuō)明知識(shí)處理的“框架”是LLM的固有特性。

圖片

圖片

相關(guān)性的“指揮棒”作用

檢索段落的相關(guān)性如何影響知識(shí)流動(dòng)?研究通過(guò)對(duì)比“正例段落(含正確答案)、困難負(fù)例(相關(guān)無(wú)答案)、易負(fù)例(弱相關(guān))、隨機(jī)段落(無(wú)關(guān))”四類數(shù)據(jù)發(fā)現(xiàn):

  • 無(wú)論相關(guān)性高低,知識(shí)流動(dòng)的四階段模式始終存在,但信息流強(qiáng)度隨相關(guān)性降低而顯著減弱——無(wú)關(guān)段落難以引發(fā)模型對(duì)外部知識(shí)的深度利用。 
  • 相關(guān)性的影響集中體現(xiàn)在知識(shí)激發(fā)階段:正例段落在此階段的圖片指標(biāo)遠(yuǎn)高于其他類型,表明模型會(huì)在這一環(huán)節(jié)主動(dòng)判別外部知識(shí)的價(jià)值,優(yōu)先整合高相關(guān)性信息。

圖片

進(jìn)一步實(shí)驗(yàn)證實(shí),若在知識(shí)激發(fā)階段切斷關(guān)鍵token與查詢token的交互,高相關(guān)性段落對(duì)答案的影響會(huì)急劇下降,這直接證明了該階段是模型進(jìn)行“相關(guān)性判斷與知識(shí)篩選”的核心關(guān)口。

圖片

04、微觀視角:神經(jīng)元與模塊的“分工密碼”

如果說(shuō)知識(shí)流是“宏觀軌跡”,那么模型內(nèi)部的神經(jīng)元與功能模塊就是實(shí)現(xiàn)這一軌跡的“微觀單元”。研究通過(guò)拆解LLM的核心組件,揭開(kāi)了知識(shí)利用的底層分工邏輯。  

知識(shí)特異性神經(jīng)元:可調(diào)控的“知識(shí)開(kāi)關(guān)”  

模型中是否存在專門負(fù)責(zé)處理內(nèi)部或外部知識(shí)的神經(jīng)元?團(tuán)隊(duì)提出KAPE(知識(shí)激活概率熵) 指標(biāo),成功識(shí)別出這類“知識(shí)特異性神經(jīng)元”。

KAPE的工作原理

  1. 神經(jīng)元激活量化:基于LLM中MLP層的GLU(門控線性單元)機(jī)制,計(jì)算每個(gè)神經(jīng)元在處理內(nèi)部知識(shí)與外部知識(shí)時(shí)的激活概率圖片圖片。
  2. 熵值計(jì)算:通過(guò)熵值衡量神經(jīng)元的知識(shí)偏好,公式為:

圖片

低KAPE值意味著神經(jīng)元對(duì)某類知識(shí)有顯著偏好(如僅對(duì)外部知識(shí)激活),即“知識(shí)特異性神經(jīng)元”。

神經(jīng)元調(diào)控的神奇效果

通過(guò)選擇性停用這些特異性神經(jīng)元,模型的知識(shí)依賴偏好可被精準(zhǔn)調(diào)控:

  • 當(dāng)使用含正確答案的黃金文檔時(shí),停用外部知識(shí)神經(jīng)元會(huì)導(dǎo)致答案準(zhǔn)確性大幅下降,說(shuō)明此時(shí)模型高度依賴外部信息;
  • 當(dāng)使用含錯(cuò)誤答案的噪聲文檔時(shí),停用外部知識(shí)神經(jīng)元能有效過(guò)濾誤導(dǎo)信息,提升輸出質(zhì)量;
  • 這種調(diào)控效果在LLaMA、Qwen等不同模型家族,以及單跳、多跳等不同任務(wù)中均保持一致,證明了方法的通用性。

圖片

一個(gè)典型案例顯示:當(dāng)檢索段落包含錯(cuò)誤答案時(shí),模型最初會(huì)被誤導(dǎo);但停用外部知識(shí)特異性神經(jīng)元后,模型立即轉(zhuǎn)向依賴內(nèi)部知識(shí),輸出了正確結(jié)果。反之,當(dāng)外部知識(shí)正確但模型未充分利用時(shí),停用內(nèi)部知識(shí)神經(jīng)元可強(qiáng)制模型采信外部信息。

圖片

MHA與MLP的“互補(bǔ)分工”

Transformer架構(gòu)中的兩大核心模塊在知識(shí)利用中扮演著截然不同的角色,研究通過(guò)殘差流分析與早期解碼技術(shù)揭開(kāi)了它們的分工:

  • MHA(多頭注意力)模塊:專注于“知識(shí)整合”。它負(fù)責(zé)將外部知識(shí)、查詢意圖、內(nèi)部記憶中的相關(guān)信息進(jìn)行跨源融合,為答案生成構(gòu)建統(tǒng)一的上下文基礎(chǔ),類似“信息調(diào)度中心”;
  • MLP(多層感知器)模塊:專注于“知識(shí)驗(yàn)證”。它對(duì)知識(shí)的準(zhǔn)確性極為敏感——當(dāng)檢索到黃金文檔時(shí),MLP模塊對(duì)答案生成的貢獻(xiàn)顯著增強(qiáng);當(dāng)遇到虛假文檔時(shí),其貢獻(xiàn)則明顯下降,相當(dāng)于“事實(shí)審核員”。

這一發(fā)現(xiàn)解釋了為何部分RAG系統(tǒng)會(huì)整合錯(cuò)誤信息:若MLP模塊功能弱化,模型就難以甄別外部知識(shí)的真?zhèn)危荒鼙粍?dòng)依賴MHA整合的信息。

圖片

05、總結(jié):RAG技術(shù)的“可控化”新起點(diǎn)

人大與百度的這項(xiàng)研究,不僅是對(duì)RAG機(jī)制的“解剖報(bào)告”,更是推動(dòng)RAG從“經(jīng)驗(yàn)驅(qū)動(dòng)”走向“原理驅(qū)動(dòng)”的關(guān)鍵一步。其核心貢獻(xiàn)可概括為三點(diǎn):

  1. 宏觀建模:首次明確RAG中知識(shí)利用的四階段流程(精煉→激發(fā)→表達(dá)→競(jìng)爭(zhēng)),并鎖定知識(shí)激發(fā)階段為相關(guān)性影響的核心環(huán)節(jié);
  2. 微觀突破:提出KAPE指標(biāo)實(shí)現(xiàn)知識(shí)特異性神經(jīng)元的精準(zhǔn)識(shí)別,為調(diào)控模型知識(shí)依賴提供了“開(kāi)關(guān)級(jí)”工具;
  3. 模塊解碼:厘清MHA與MLP的互補(bǔ)作用,為針對(duì)性優(yōu)化模型結(jié)構(gòu)、提升事實(shí)準(zhǔn)確性指明了方向。

對(duì)于產(chǎn)業(yè)界而言,這些發(fā)現(xiàn)的價(jià)值尤為深遠(yuǎn):未來(lái)的RAG系統(tǒng)可通過(guò)以下方式實(shí)現(xiàn)升級(jí):

  • 優(yōu)化知識(shí)激發(fā)階段的上下文設(shè)計(jì),強(qiáng)化高相關(guān)性信息的引導(dǎo)作用;
  • 基于KAPE指標(biāo)篩選神經(jīng)元,在金融、醫(yī)療等關(guān)鍵領(lǐng)域定向增強(qiáng)模型對(duì)權(quán)威外部知識(shí)的依賴;
  • 針對(duì)性強(qiáng)化MLP模塊功能,提升模型對(duì)噪聲知識(shí)的“免疫力”。

從“知其然”到“知其所以然”,這項(xiàng)研究讓我們離可控、可靠的AI系統(tǒng)又近了一步。當(dāng)RAG的“黑箱”被逐層揭開(kāi),那些曾困擾我們的幻覺(jué)、不可控等問(wèn)題,終將在原理性突破中找到答案。


責(zé)任編輯:龐桂玉 來(lái)源: 小白學(xué)AI算法
相關(guān)推薦

2024-03-13 08:03:44

LLM人工智能技術(shù)

2019-04-04 13:00:19

Linuxshell命令

2016-10-09 13:19:43

2024-04-29 14:15:07

機(jī)器學(xué)習(xí)工業(yè)4.0人工智能

2017-04-10 15:36:28

神經(jīng)元OpenAI高效學(xué)習(xí)

2021-10-15 10:11:00

遠(yuǎn)程管理監(jiān)控數(shù)據(jù)中心

2019-09-02 10:39:00

2022-04-19 16:10:47

漏洞網(wǎng)絡(luò)攻擊

2016-07-06 11:38:10

移動(dòng) 出海

2022-05-19 23:26:48

5G網(wǎng)絡(luò)優(yōu)化網(wǎng)絡(luò)測(cè)試

2022-08-16 08:35:45

Black Hat網(wǎng)絡(luò)安全

2012-03-23 12:12:37

百度開(kāi)發(fā)者大會(huì)

2010-01-18 10:49:05

2021-03-03 11:13:30

APP手機(jī)打車軟件

2021-01-15 07:22:51

APP時(shí)間規(guī)劃局證件照相機(jī)

2013-02-28 10:24:18

2012-06-20 09:39:02

惡意網(wǎng)站

2013-12-24 13:43:48

百度360BAT

2024-10-21 11:00:00

2010-03-26 17:50:17

Python設(shè)計(jì)理念
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)