偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

關于RAG系統(tǒng)在多輪對話中的問題改寫(優(yōu)化)方法—使用歷史記錄改寫問題 原創(chuàng)

發(fā)布于 2025-10-15 09:04
瀏覽
0收藏

“ 基于大模型的RAG多輪對話功能,其檢索增強的流程和實際業(yè)務的場景可能會存在一定的沖突,而這個平衡點卻很難把握?!?/strong>

在之前的文章中有講過一個RAG檢索優(yōu)化的方法論,簡單來說就是通過對問題進行改寫和優(yōu)化;比如說用戶輸入一個問題query,但由于我們無法控制用戶的行為,因此用戶輸入的內(nèi)容query可以是任何東西,包括可能存在錯別字,語義錯誤,甚至是一些無意義內(nèi)容。

面對這種情況,特別是在多輪對話過程中會導致一個很嚴重的問題,那就是會嚴重影響到數(shù)據(jù)召回的效果。

RAG檢索優(yōu)化——問題改寫

關于RAG問題改寫的方式有很多,包括但不僅限于問題優(yōu)化,相似性子問題,假設性回復等等;其本質(zhì)就是利用大模型的能力來根據(jù)完善和增強用戶的提問。

關于RAG系統(tǒng)在多輪對話中的問題改寫(優(yōu)化)方法—使用歷史記錄改寫問題-AI.x社區(qū)

但這里存在一個問題就是,在進行問題改寫的時候最好能基于歷史記錄進行改寫;為什么要這么做?

舉個例子,用戶提出一個問題query,怎么學習人工智能技術(shù)?然后經(jīng)過RAG系統(tǒng)的一系列處理,包括文檔檢索,生成增強等;但用戶覺得模型回答的還不夠全面;因此,第二個問題是繼續(xù),也就是在第一個問題回答的基礎之上繼續(xù)回答,也就是典型的多輪對話場景。

那么隨著第二個問題的輸入會出現(xiàn)什么情況?

通過數(shù)據(jù)召回技術(shù),可能會召回一些完全不相關的內(nèi)容,原因就是其沒有完整的上下文,RAG也不知道你這個繼續(xù)是啥意思,只能根據(jù)字面意思進行數(shù)據(jù)召回,然后再進行生成增強;但我們都知道這是有問題的。

原因在于RAG中,檢索和增強是兩個步驟而不是一個步驟;檢索的目的是使用相似度或其它檢索方式從向量庫或其它存儲中獲取參考文檔;而增強是在檢索回來的文檔之上做處理之后,然后讓模型使用這些文檔做數(shù)據(jù)增強。

關于RAG系統(tǒng)在多輪對話中的問題改寫(優(yōu)化)方法—使用歷史記錄改寫問題-AI.x社區(qū)

所以,多輪對話中一定要保證上下文的完整性,或者說盡可能的保證上下文的完整性。

雖然說用戶之間輸入繼續(xù)可能會召回很多無關文檔,但在模型生成階段依然可以正常的進行回復,這個這個回復更多的是基于模型本身的能力,而不是基于外部知識庫;當然,前提是你做了記憶功能。

所以說,這里也體現(xiàn)了問題改寫的重要性,如果不進行問題改寫,那么基于用戶原生的問題,因為丟失上下文因此就會導致文檔召回有問題;所以,這里進行改寫的時候一定要加入歷史記錄,這樣模型就可以使用歷史記錄作為上下文,來理解用戶的問題;然后生成相關的問題,來進行數(shù)據(jù)召回,這樣就可以大大提升文檔召回的準確性,以此來達到增強生成的目的。

關于RAG系統(tǒng)在多輪對話中的問題改寫(優(yōu)化)方法—使用歷史記錄改寫問題-AI.x社區(qū)

但這里同時也存在一個問題,那就是用戶的兩個問題可能是完全無關的,而這時候使用歷史問題來優(yōu)化用戶的當前問題,也可能會導致最終召回的文檔不準確;所以,這里還需要想別的方案來解決,然后使其盡可能的達到最優(yōu)解。


本文轉(zhuǎn)載自??AI探索時代?? 作者:DFires

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責任
已于2025-10-15 09:04:33修改
收藏
回復
舉報
回復
相關推薦