RAG(七)Chain-of-Note:筆記鏈讓檢索增強型語言模型更強大!

現(xiàn)有的檢索增強型語言模型(Retrieval-Augmented Language Models, RALMs)在處理外部知識時存在一定的局限性。這些模型有時會因為檢索到不相關(guān)或不可靠的信息而產(chǎn)生誤導性的回答,或者在面對檢索信息和模型內(nèi)在知識的干擾時,無法正確選擇使用哪一種知識。此外,在檢索信息不足或完全不存在的情況下,標準的RALMs可能會嘗試生成一個答案,即使它們并不具備足夠的信息來準確作答。因此,來自Tecent AI Lab的一篇工作,提出CHAIN-OF-NOTE(CON),旨在通過生成一系列閱讀筆記來增強RALMs的魯棒性。
1、方法介紹
CHAIN-OF-NOTE的核心思想是通過創(chuàng)建順序閱讀筆記來對每個檢索文檔進行評估。這種方法不僅評估了每個文檔與查詢的相關(guān)性,還確定了這些文檔中最關(guān)鍵和可靠的信息。這個過程有助于過濾掉不相關(guān)或可信度較低的內(nèi)容,從而導致更準確和上下文相關(guān)的響應(yīng)。
給定一個輸入問題x和k個檢索到的文檔
,模型的目標是生成包含多個段落的文本輸出
。其中,
表示第i個段落的標記,代表相應(yīng)文檔
的閱讀筆記,如圖2所示。在生成各個閱讀筆記后,模型綜合這些信息以生成最終的響應(yīng)y。Chain-of-Note (CoN)的實現(xiàn)包括三個關(guān)鍵步驟:(1) 設(shè)計筆記
,(2) 收集數(shù)據(jù),(3) 訓練模型。

筆記設(shè)計
CON 主要構(gòu)建三種類型的閱讀筆記,基于檢索文檔與輸入問題的相關(guān)性:
- 直接回答型筆記:當一個文檔直接回答了查詢時,模型基于此相關(guān)信息制定最終響應(yīng)。(圖2a)
 - 間接推斷型筆記:如果檢索文檔沒有直接回答查詢但提供了有用的上下文,模型利用這些信息及其內(nèi)在知識推斷答案。(圖2b)
 - 未知型筆記:在檢索文檔無關(guān)且模型缺乏足夠知識的情況下,默認回復“未知”。(圖2c)
 
這種細致的方法模擬了人類信息處理的方式,在直接檢索、推理以及承認知識空白之間取得平衡。
數(shù)據(jù)收集
為了使模型能夠生成這樣的閱讀筆記,需要收集適當?shù)挠柧殧?shù)據(jù)。由于手動注釋資源密集,研究團隊使用 GPT-4 來生成筆記數(shù)據(jù)。具體步驟如下:
- 問題選?。菏紫葟?NQ 數(shù)據(jù)集隨機抽取 10000 個問題。
 - 筆記生成:然后用特定指令和情境例子提示 GPT-4 生成不同類型的筆記,確保覆蓋所有三種類型。
 

- 質(zhì)量評估:對小部分生成的數(shù)據(jù)進行人工評估以保證質(zhì)量。
 
模型訓練
使用這些數(shù)據(jù)訓練LLaMa2 7B模型,將指令、問題和文檔連接起來作為提示,模型學習順序生成每個文檔的閱讀筆記,以評估它們與輸入查詢的相關(guān)性,并基于文檔的相關(guān)性生成回答。
另外,為了減少CON推理成本,使用了一種稱為混合訓練的策略,將50%的訓練時間分配給標準RALM(直接生成答案,不使用筆記),另外50%分配給使用CON的RALM。這種策略允許模型在訓練期間內(nèi)化中間推理步驟。
在推理階段僅使用標準 RALM 提示來指導模型輸出答案,而不依賴顯式的閱讀筆記。這使得模型可以在保持相同推理速度的同時,只略微降低性能。
2、實驗結(jié)果
數(shù)據(jù)集
為了全面評估 Chain-of-Note 的性能,除NQ外,還在三個額外的開放域數(shù)據(jù)集上測試了其性能,包括TriviaQA、WebQ和RealTimeQA,展示了其對域外(OOD)數(shù)據(jù)的泛化能力。
- NQ (Natural Questions):一個大型的問答數(shù)據(jù)集,包含來自搜索引擎的真實用戶查詢。
 - TriviaQA:一個涵蓋多個領(lǐng)域的事實性問題數(shù)據(jù)集。
 - WebQ:一個基于網(wǎng)絡(luò)的問題回答數(shù)據(jù)集,主要涉及簡單的事實性問題。
 - Real-TimeQA:作為特殊情況用于評估“未知”穩(wěn)健性,該數(shù)據(jù)集包括了2023年5月之后收集的問題,這些問題超出了 LLaMa-2 的預訓練知識范圍。
 
為了全面評估模型性能,實驗分為兩個部分:
- 全集評估:使用測試集中的所有問題來評估整體 QA 性能。文檔通過 DPR(Dense Passage Retrieval)檢索,并將 top-k 文檔輸入生成器。
 - 子集評估:為了評估模型的噪聲穩(wěn)健性和未知穩(wěn)健性,從上述測試集中提取包含相關(guān)文檔的子集。根據(jù)噪音比率 r 確定相關(guān)和無關(guān)文檔的數(shù)量。例如,當噪音比率是 20% 且需要 top-5 文檔時,則 4 個為相關(guān)文檔,1 個為無關(guān)文檔。
 

整體 QA 性能評估
表2展示了不同模型在 NQ、TriviaQA 和 WebQ 上的整體表現(xiàn)。實驗結(jié)果表明,裝備CON的RALM在所有三個數(shù)據(jù)集上的平均EM分數(shù)提高了1.97%。
當DPR檢索到相關(guān)文檔時,平均改進為+1.2,當DPR未檢索到相關(guān)文檔時,NQ數(shù)據(jù)集的平均改進為+2.3。這一差異表明,CoN在檢索階段獲取更多噪聲文檔的情況下提高了RALM的性能。

噪聲穩(wěn)健性評估
實驗結(jié)果顯示,CON 方法在引入噪聲文檔后仍能保持較好的性能。在不同噪聲比例下,CON始終優(yōu)于標準RALM,尤其是在完全噪聲文檔的情況下。表明 CON 可以有效過濾無關(guān)信息,提高模型對噪聲數(shù)據(jù)的容忍度。

未知穩(wěn)健性評估
針對 Real-TimeQA 數(shù)據(jù)集的評估表明,CON 方法在面對超出預訓練知識范圍的問題時具有更好的“未知”穩(wěn)健性。具體表現(xiàn)為更高的拒絕率(RR),這意味著模型更傾向于承認自己的知識局限,而不是嘗試猜測答案。這一特性對于實際應(yīng)用尤為重要,因為它減少了誤導性響應(yīng)的風險。

混合訓練策略的效果
最后,混合訓練策略的效果也得到了驗證。實驗表明,經(jīng)過混合訓練的模型能夠在保持與純 CON 方法相似性能的同時,實現(xiàn)與標準 RALM 相同的推理時間。這意味著混合訓練不僅有效地降低了推理成本,還保留了 CON 在處理復雜查詢方面的優(yōu)勢。

3、總結(jié)
Chain-of-Note 技術(shù)通過構(gòu)建詳細的閱讀筆記數(shù)據(jù)集,模擬人類的思考總結(jié)過程,增強了模型的推理能力。它在提高模型對噪聲數(shù)據(jù)的容忍度、增強未知穩(wěn)健性以及保持推理效率等方面表現(xiàn)出色,為檢索增強型語言模型的發(fā)展提供了新的思路和方法。然而,需要注意的是,微調(diào)可能會改變模型的參數(shù)分布,對于模型的通用能力的影響還有待進一步評估。
未來的研究可以關(guān)注如何更好地平衡模型的推理能力和通用能力,以及如何進一步優(yōu)化 Chain-of-Note 技術(shù),使其在更多領(lǐng)域和應(yīng)用場景中發(fā)揮更大的作用。















 
 
 
















 
 
 
 