偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

理解 RAG 第九部分:針對 RAG 微調(diào) LLM

人工智能
本文討論了 RAG 系統(tǒng)中 LLM 的微調(diào)過程。在回顧了獨立 LLM 中的微調(diào)過程并概述了其必要性之后,我們將討論轉(zhuǎn)向 RAG 系統(tǒng)中 LLM 微調(diào)的必要性,并描述了一些在 RAG 應(yīng)用中常用于微調(diào)生成器模型的常用策略。希望這些信息能夠幫助您在構(gòu)建自己的 RAG 系統(tǒng)時有所用。

在“理解 RAG”系列的前幾篇文章中,我們重點探討了檢索增強生成的各個方面。文章中,我們重點介紹了與大型語言模型 (LLM) 集成的檢索器組件,該組件用于檢索有意義且真實的上下文知識,從而提升 LLM 輸入的質(zhì)量,并最終提升其生成的輸出響應(yīng)。具體來說,我們學習了如何管理傳遞給 LLM 的上下文長度、如何優(yōu)化檢索,以及如何利用向量數(shù)據(jù)庫和索引策略來有效地檢索知識。

這一次,我們將把注意力轉(zhuǎn)移到生成器組件,即 LLM,通過研究如何以及何時在 RAG 系統(tǒng)內(nèi)微調(diào) LLM,以確保其響應(yīng)保持一致、事實準確并與特定領(lǐng)域的知識保持一致。

在繼續(xù)了解作為 RAG 系統(tǒng)一部分的 LLM 微調(diào)的細微差別之前,讓我們先回顧一下“傳統(tǒng)”或獨立 LLM 中微調(diào)的概念和過程。

什么是 LLM Fine-Tuning?

就像新購買的手機可以通過個性化設(shè)置、應(yīng)用程序和裝飾外殼進行調(diào)整以適應(yīng)其主人的喜好和個性一樣,對現(xiàn)有以及之前訓練過的LLM 進行微調(diào)包括使用額外的專門訓練數(shù)據(jù)調(diào)整其模型參數(shù),以增強其在特定用例或應(yīng)用領(lǐng)域的性能。

微調(diào)是 LLM 開發(fā)、維護和重用的重要組成部分,原因有二:

它使模型能夠適應(yīng)更特定領(lǐng)域(通常規(guī)模更小)的數(shù)據(jù)集,從而提高其在法律、醫(yī)療或技術(shù)等專業(yè)領(lǐng)域中的準確性和相關(guān)性。請參見下圖中的示例。

它確保大語言模型(LLM) 及時了解不斷發(fā)展的知識和語言模式,避免出現(xiàn)過時的信息、幻覺或與當前事實和最佳實踐不一致等問題。

圖片

通過定期微調(diào)所有或部分參數(shù)來保持 LLM 更新的缺點,正如您可能猜到的那樣,是成本問題,包括獲取新的訓練數(shù)據(jù)和所需的計算資源。RAG 有助于減少 LLM 持續(xù)微調(diào)的需求。然而,在某些情況下,將底層 LLM 微調(diào)到 RAG 系統(tǒng)仍然是有益的。

RAG 系統(tǒng)中的 LLM 微調(diào):為何以及如何進行

雖然在某些應(yīng)用場景中,檢索器提取相關(guān)的、最新的信息來構(gòu)建準確的上下文的工作已經(jīng)足夠,不需要定期進行 LLM 再訓練,但在更具體的情況下,這還不夠。

我們來看一個例子,當你的 RAG 應(yīng)用需要對專業(yè)術(shù)語或特定領(lǐng)域推理有非常深入和全面的理解,而這些是 LLM 的原始訓練數(shù)據(jù)無法捕捉到的。這可能是一個醫(yī)學領(lǐng)域的 RAG 系統(tǒng),它在檢索相關(guān)文檔方面可能表現(xiàn)出色,但 LLM 系統(tǒng)在基于包含有用信息的特定數(shù)據(jù)集進行微調(diào)以吸收此類特定領(lǐng)域推理和語言解釋機制之前,可能難以正確解釋輸入中的知識片段。

RAG 系統(tǒng) LLM 上的平衡微調(diào)頻率也有助于提高系統(tǒng)效率,例如通過減少過多的令牌消耗,從而避免不必要的檢索。

從 RAG 的角度來看,LLM 微調(diào)是如何進行的?雖然大多數(shù)經(jīng)典的 LLM 微調(diào)方法也可以應(yīng)用于 RAG 系統(tǒng),但有些方法在這些系統(tǒng)中尤其流行且有效。

領(lǐng)域自適應(yīng)預(yù)訓練(DAP)

盡管名稱如此,DAP 可以用作 RAG 內(nèi)部通用模型預(yù)訓練和特定任務(wù)微調(diào)之間的中間策略。它利用特定領(lǐng)域的語料庫,使模型更好地理解特定領(lǐng)域,包括專業(yè)術(shù)語、寫作風格等。與傳統(tǒng)的微調(diào)不同,它仍然可能使用相對較大的數(shù)據(jù)集,并且通常在將 LLM 與 RAG 系統(tǒng)的其余部分集成之前完成,之后,將針對較小的數(shù)據(jù)集進行更有針對性、特定任務(wù)的微調(diào)。

檢索增強微調(diào)

這是一種更有趣且更針對 RAG 的微調(diào)策略,通過該策略,LLM 會針對包含檢索到的上下文(增強的 LLM 輸入)和所需響應(yīng)的示例進行重新訓練。這使得 LLM 能夠更熟練地利用并優(yōu)化檢索到的知識,從而生成能夠更好地整合這些知識的響應(yīng)。換句話說,通過這種策略,LLM 能夠更熟練地正確使用其所依賴的 RAG 架構(gòu)。

混合 RAG 微調(diào)

這種方法也稱為混合指令-檢索微調(diào),它將傳統(tǒng)的指令微調(diào)(通過將LLM暴露于指令-輸出對的示例來訓練其遵循指令)與檢索方法相結(jié)合。在用于此混合策略的數(shù)據(jù)集中,兩種類型的示例共存:一些示例包含檢索到的信息,而另一些示例包含指令遵循信息。結(jié)果就會有一個更靈活的模型,可以更好地利用檢索到的信息,并正確地遵循指令。

小結(jié)

本文討論了 RAG 系統(tǒng)中 LLM 的微調(diào)過程。在回顧了獨立 LLM 中的微調(diào)過程并概述了其必要性之后,我們將討論轉(zhuǎn)向 RAG 系統(tǒng)中 LLM 微調(diào)的必要性,并描述了一些在 RAG 應(yīng)用中常用于微調(diào)生成器模型的常用策略。希望這些信息能夠幫助您在構(gòu)建自己的 RAG 系統(tǒng)時有所用。

責任編輯:龐桂玉 來源: 數(shù)據(jù)驅(qū)動智能
相關(guān)推薦

2025-04-24 01:10:00

RAGAI人工智能

2025-05-07 02:00:00

RAGAI人工智能

2025-04-28 09:39:40

2011-03-31 15:36:02

Java

2025-04-24 00:10:00

RAGAI人工智能

2025-04-27 00:30:00

RAG檢索增強生成AI

2025-04-28 09:02:14

2025-04-24 09:04:42

2025-04-29 09:22:17

2024-03-22 16:13:42

LLMRAGXGBoost

2024-04-30 09:48:33

LLMRAG人工智能

2024-06-11 08:21:26

2024-04-30 16:17:34

RAGLLM

2025-02-06 13:50:06

2024-06-05 13:48:04

2025-03-11 08:00:00

LLM開發(fā)深度學習

2025-01-23 08:00:00

2023-10-12 00:01:01

2025-04-09 11:59:29

2025-04-21 08:11:09

點贊
收藏

51CTO技術(shù)棧公眾號