偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

打破瓶頸,讓RAG學會思考:中科大、智源等發(fā)布推理檢索框架BGE-Reasoner

人工智能 新聞
BGE-Reasoner 的卓越表現(xiàn)充分驗證了強化學習與合成數(shù)據(jù)在推理密集型信息檢索中的重要作用,為未來 Agent Search 的發(fā)展提供了關(guān)鍵支撐。

人工智能的浪潮正將我們推向一個由 RAG 和 AI Agent 定義的新時代。然而,要讓這些智能體真正「智能」,而非僅僅是信息的搬運工,就必須攻克一個橫亙在所有頂尖團隊面前的核心難題。這個難題,就是推理密集型信息檢索(Reasoning-Intensive IR)。

它不僅是當前 RAG 和 AI Agent 技術(shù)發(fā)展的關(guān)鍵瓶頸,更對大模型智能體和深度研究(DeepResearch)等應(yīng)用場景的成敗具有決定性意義。

正當全球研究者都在為此尋求突破之際,我們看到了一項來自中國的貢獻:BGE-Reasoner。

BGE-Reasoner 由來自中國科學技術(shù)大學、智源研究院、北京郵電大學與香港理工大學等機構(gòu)的聯(lián)合團隊研發(fā),是一套用于推理密集型信息檢索任務(wù)的創(chuàng)新的端到端解決方案。通過系統(tǒng)性的查詢理解、向量檢索與重排序,該方案可顯著提升搜索引擎在推理密集型信息檢索任務(wù)中的表現(xiàn)。

在權(quán)威評測基準 BRIGHT 上,BGE-Reasoner 取得 45.2 的測試得分,以顯著優(yōu)勢刷新了該基準的最佳紀錄。

作為 BGE 系列模型的又一重要里程碑,BGE-Reasoner 不僅實現(xiàn)了性能上的突破,更為解決推理密集型檢索這一行業(yè)難題提供了一套行之有效的新范式。從技術(shù)洞察來看,本次成果的核心創(chuàng)新主要體現(xiàn)在以下三個方面:

  1. 一個可復制的框架: 提出了一個由 Rewriter、Embedder 和 Reranker 組成的三階段模塊化框架,為處理復雜查詢提供了清晰、高效的工程范式。
  2. 數(shù)據(jù)驅(qū)動創(chuàng)新: 探索并證明了利用大模型合成高質(zhì)量、多領(lǐng)域推理訓練數(shù)據(jù)的可行性,巧妙地解決了該領(lǐng)域訓練數(shù)據(jù)稀缺的核心瓶頸。
  3. 強化學習賦能: 成功將強化學習應(yīng)用于 Reranker 訓練,讓模型在面對困難樣本時具備了更強的推理和泛化能力。

相關(guān)模型權(quán)重、訓練代碼及訓練數(shù)據(jù)即將面向社區(qū)開放,進一步推動該領(lǐng)域的研究與應(yīng)用發(fā)展。

項目主頁:https://github.com/FlagOpen/FlagEmbedding/tree/master/research/BGE_Reasoner

簡介

推理密集型信息檢索(Reasoning-Intensive IR)是近年來興起的一類新型信息檢索任務(wù)。與傳統(tǒng)檢索不同,它不僅依賴語義匹配,還需要綜合運用深層邏輯推理、多步語義鏈以及相關(guān)背景知識,才能在查詢與目標文檔之間建立起正確的語義關(guān)聯(lián)。

為推動該領(lǐng)域研究,香港大學、普林斯頓大學和斯坦福大學聯(lián)合提出了首個面向推理密集型檢索的權(quán)威評測基準 BRIGHT。該基準匯集了來自 StackExchange、LeetCode、數(shù)學競賽等領(lǐng)域的真實查詢,并將其與需要多步推理才能識別的相關(guān)文檔進行配對,用于評估檢索系統(tǒng)在復雜推理場景下的能力。

在 BRIGHT 基準下,傳統(tǒng)依賴關(guān)鍵詞匹配或簡單語義相似度的方法往往難以定位真正相關(guān)的目標文檔,暴露出當前檢索系統(tǒng)在復雜推理場景中的不足。因此,如何在推理密集型檢索中提升系統(tǒng)性能,成為推動檢索增強生成(RAG)在復雜推理任務(wù)中發(fā)展的關(guān)鍵問題。

圖 1. 不同于基于關(guān)鍵詞和直接語義匹配的檢索任務(wù),BRIGHT 評測基準關(guān)注于推理密集型場景下的檢索任務(wù)

在這一背景下,BGE-Reasoner 在推理密集型檢索任務(wù)中展現(xiàn)出卓越性能。在 BRIGHT 榜單中,它超越了此前由螞蟻、百度、字節(jié)跳動、人民大學、滑鐵盧大學等機構(gòu)提交的成果,并以領(lǐng)先第二名 3.6 分的優(yōu)勢刷新紀錄。與此同時,其內(nèi)置向量模型 BGE-Reasoner-Embed 也大幅超越了 Seed1.5-Embedding、Qwen3-Embedding、GTE 等當前最強基線模型,展現(xiàn)了顯著的性能提升。

圖 2. 在 BRIGHT 榜單上,BGE-Reasoner 取得 SOTA 表現(xiàn)于 8 月 21 日榮登第一名,BGE-Reasoner-Embed 使用原生查詢即表現(xiàn)出色,在向量模型中取得 SOTA 結(jié)果,榜單鏈接:https://brightbenchmark.github.io

圖 3. BGE-Reasoner 及 BGE-Reasoner-Embed 與基線模型在 BRIGHT 上的檢索表現(xiàn)對比圖

技術(shù)分析

BGE-Reasoner 采用信息檢索中的經(jīng)典三模塊體系:

  • 查詢理解 —— BGE-Reasoner-Rewriter:對初始查詢進行理解與改寫,生成更適合檢索的優(yōu)化查詢;
  • 向量模型 —— BGE-Reasoner-Embed:與 BM25 協(xié)同利用改寫后的查詢進行檢索,獲取候選文檔集合;
  • 排序模型 —— BGE-Reasoner-Reranker:對候選文檔進行重排序,得到更為準確的排序結(jié)果。

在實際工作流程中,用戶的原始查詢首先經(jīng)過 BGE-Reasoner-Rewriter 改寫,然后由 BGE-Reasoner-Embed 與 BM25 并行檢索得到候選文檔,最后交由 BGE-Reasoner-Reranker 進行精排。系統(tǒng)通過集成多路結(jié)果,輸出最終排序,完成端到端的推理式檢索流程。完整框架如下圖所示:

圖 4. BGE-Reasoner 的端到端檢索流程示意圖

數(shù)據(jù)合成。不同于傳統(tǒng)的開放式問答場景,推理密集型信息檢索場景下的訓練數(shù)據(jù)十分稀缺。為了解決這一問題,智源及合作機構(gòu)的研究團隊訴諸于基于大語言模型的數(shù)據(jù)合成策略。具體來說,基于現(xiàn)實場景中存在的知識密集型語料庫,合成出針對特定場景的高質(zhì)量推理密集型查詢,然后借助于大語言模型強大的理解能力為每個查詢構(gòu)造出高質(zhì)量的正例和負例。最終構(gòu)造出一份覆蓋數(shù)學、代碼等多個領(lǐng)域的高質(zhì)量推理密集型檢索訓練數(shù)據(jù),為后續(xù)各個模塊的訓練提供支撐。

查詢理解。在查詢理解模塊中,研究人員基于前述合成數(shù)據(jù),借助推理能力較強的教師模型生成多條推理路徑,并通過拒絕采樣策略篩選高質(zhì)量結(jié)果以構(gòu)建訓練樣本。隨后,利用這些訓練數(shù)據(jù)對 Qwen2.5-7B-Instruct 模型進行微調(diào),從而顯著提升其在查詢理解與改寫方面的能力,最終得到 BGE-Reasoner-Rewriter。

向量模型。內(nèi)嵌的向量模型 BGE-Reasoner-Embed 基于 Qwen3-8B 基座模型進行微調(diào)。依托高質(zhì)量的合成訓練數(shù)據(jù),模型在推理密集型檢索任務(wù)中的能力得到了顯著增強。在 BRIGHT 基準下,無論是基于原始查詢還是 GPT-4 推理查詢,BGE-Reasoner-Embed 均取得了當前向量模型中的最佳檢索表現(xiàn),充分驗證了所構(gòu)建合成數(shù)據(jù)的有效性。

排序模型。內(nèi)嵌的排序模型 BGE-Reasoner-Reranker 基于 Qwen3 系列基座模型進行微調(diào)。結(jié)合任務(wù)場景下的相關(guān)性定義,模型能夠在查詢與候選文檔之間展開細粒度推理,識別關(guān)鍵信息片段并準確評估相關(guān)性。在訓練過程中,引入強化學習以提升模型在困難樣本上的推理能力;在推理階段,模型通過測試時擴展(test-time augmentation)獲取更加穩(wěn)健的相關(guān)性評分,從而進一步增強排序性能。

圖 5. BGE-Reasoner-Reranker 的推理過程示意圖

總結(jié)

BGE-Reasoner 的卓越表現(xiàn)充分驗證了強化學習與合成數(shù)據(jù)在推理密集型信息檢索中的重要作用,為未來 Agent Search 的發(fā)展提供了關(guān)鍵支撐。

智源研究院將持續(xù)深耕向量模型與檢索增強技術(shù),不斷提升 BGE 系列模型的能力與通用性。未來期待與更多科研機構(gòu)及產(chǎn)業(yè)伙伴合作,共同推動檢索與人工智能的發(fā)展,歡迎研究者與開發(fā)者關(guān)注并使用 BGE 系列模型,共建開放繁榮的開源生態(tài)。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2021-12-06 09:53:09

自然語言神經(jīng)網(wǎng)絡(luò)人工智能

2023-08-21 13:49:00

圖像技術(shù)

2019-11-28 14:31:34

量子計算機芯片超算

2025-05-26 08:40:00

2025-10-29 16:16:49

Auto-RAGRAG大語言模型

2025-10-27 09:15:00

2022-03-08 09:15:29

人工智能語音識別模型

2025-06-10 09:07:00

2025-03-19 09:30:00

2025-10-08 10:44:16

2013-06-19 11:32:32

計算性能ISCHPC

2025-04-18 09:13:00

2024-04-07 09:00:00

數(shù)據(jù)模型

2025-04-01 09:32:00

模型訓練AI

2024-06-17 07:10:00

2025-09-24 09:10:24

2024-08-12 14:00:00

2024-11-04 08:30:00

2024-12-09 10:15:00

AI技術(shù)
點贊
收藏

51CTO技術(shù)棧公眾號