偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

ICML 2025 | 大模型能在信息不完備的情況下問出正確的問題嗎?

人工智能 新聞
我們將簡要介紹 TMLR 課題組和斯坦福大學(xué)合作的 AR-Bench,并展示我們從廣泛地測試實(shí)驗(yàn)中提取出來的重要發(fā)現(xiàn),相關(guān)論文已發(fā)表于 ICML 2025 會議。

大語言模型(Large Language Model, LLM)在復(fù)雜推理任務(wù)中表現(xiàn)卓越。借助鏈?zhǔn)剿季S(Chain-of-Thought, CoT),LLM 能夠?qū)?fù)雜問題分解為簡單步驟,充分探索解題思路并得出正確答案。LLM 已在多個基準(zhǔn)上展現(xiàn)出優(yōu)異的推理能力,尤其是數(shù)學(xué)推理和代碼生成。

然而,當(dāng)前針對 LLM 推理能力的研究主要集中于被動推理(Passive Reasoning, PR),即在提供完整信息的前提下讓模型進(jìn)行推理。相比之下,對信息不完備場景下模型推理能力的研究明顯不足。

這類場景在實(shí)際應(yīng)用中十分常見,例如偵探需要通過詢問和走訪獲取破案線索,醫(yī)生需要通過問診收集診斷依據(jù)。我們將這類需要主動獲取信息的推理稱為主動推理(Active Reasoning, AR)。

目前關(guān)于 AR 的方法和基準(zhǔn)研究較少,探索不足,制約了 LLM 在復(fù)雜現(xiàn)實(shí)場景中的應(yīng)用。如圖 1 所示,被動推理是直接從給定的充分信息中求解,而主動推理則需要從不完整的信息出發(fā),通過多輪交互來獲取關(guān)鍵線索,最終得出結(jié)論??梢哉f,被動推理的核心是找到答案,而主動推理的核心是提出正確的問題。

圖片

圖 1 被動推理(左)與主動推理(右)的示意圖。

盡管主動推理對實(shí)現(xiàn)通用人工智能至關(guān)重要,但目前學(xué)術(shù)界對此關(guān)注甚少,LLM 在這方面的能力也亟待一個系統(tǒng)性的評估。為此,我們提出了 AR-Bench,一個旨在全面評估大模型主動推理能力的基準(zhǔn),并進(jìn)行了一系列深入的實(shí)驗(yàn)分析。

我們的主要貢獻(xiàn)有如下三點(diǎn):

  1. 新問題:我們提出了主動推理這一亟待研究的新問題,并系統(tǒng)定義了其相對于被動推理的核心挑戰(zhàn)。
  2. 新基準(zhǔn):我們提出了專門用于評估主動推理能力的基準(zhǔn) AR-Bench ,系統(tǒng)的測試模型在復(fù)雜場景中的主動推理能力。
  3. 新發(fā)現(xiàn):我們通過在 AR-Bench 上的全面評測,揭示了當(dāng)前頂尖 LLM 在主動推理方面的普遍且嚴(yán)重的短板,并指出了未來的研究方向。

接下來,我們將簡要介紹 TMLR 課題組和斯坦福大學(xué)合作的 AR-Bench,并展示我們從廣泛地測試實(shí)驗(yàn)中提取出來的重要發(fā)現(xiàn),相關(guān)論文已發(fā)表于 ICML 2025 會議。

圖片

  • 論文標(biāo)題:From Passive to Active Reasoning: Can Large Language Models Ask the Right Questions under Incomplete Information?
  • 論文鏈接:https://arxiv.org/abs/2506.08295 
  • 代碼鏈接:https://github.com/tmlr-group/AR-Bench

新問題:主動推理

傳統(tǒng)的 LLM 推理研究,如 CoT,大多遵循被動推理的范式。在這種范式下,模型接收一個包含所有必要信息的問題,然后逐步地推導(dǎo)出最終答案。然而,現(xiàn)實(shí)中許多場景都存在著信息不完整的情況。以醫(yī)療診斷為例,醫(yī)生需要通過與患者互動主動獲取癥狀、病史等關(guān)鍵信息,而非被動接收完整數(shù)據(jù)。這類信息不完整的場景要求 LLM 通過提問、信息探索和動態(tài)交互來補(bǔ)充缺失信息,最終完成推理任務(wù)。

我們將這種推理范式定義為主動推理。在 AR 范式下,模型僅獲得部分信息,并且必須通過與外部環(huán)境(如數(shù)據(jù)庫、API 或人類用戶)的交互來主動提問,以獲取缺失的關(guān)鍵信息來解決問題。AR 綜合了提問、檢索和迭代推理,是一個更全面、更動態(tài)、更具挑戰(zhàn)性的問題解決框架。

對主動推理問題的探索,有助于我們更好地理解和提升 LLM 在真實(shí)、復(fù)雜場景下的智能水平,推動其從一個被動的文本處理器,轉(zhuǎn)變?yōu)橐粋€能夠主動解決問題的人工智能體。

圖片

圖 2 PR 要求模型通過一步步推理從給定的問題得到正確答案,而 AR 要求模型分析當(dāng)前任務(wù),提出一系列關(guān)鍵的問題來獲取重要信息,并利用這些信息得到正確的答案。本質(zhì)上,PR 的核心要求是根據(jù)問題得到正確答案,而 AR 的核心要求是提出正確的問題來獲取關(guān)鍵的信息。

新基準(zhǔn):AR-Bench

為了系統(tǒng)地評估和衡量 LLM 的主動推理能力,我們構(gòu)建了 AR-Bench (Active Reasoning Benchmark)。AR-Bench 旨在模擬真實(shí)世界中的信息獲取場景,它包含三個不同類型的任務(wù),分別對應(yīng)三種核心的推理能力:

偵探案件 (Detective Cases, DC): 模擬刑事案件調(diào)查,模型需要通過提問來搜集線索、分析案情,考驗(yàn)其常識推理能力。

情景謎題 (Situation Puzzles, SP): 也被稱為 「海龜湯」,模型需要通過 「是 / 否」 問題來揭開一個看似矛盾或離奇情景背后的真相,考驗(yàn)其邏輯推理和發(fā)散思維能力。

數(shù)字猜謎 (Guessing Numbers, GN): 經(jīng)典的主動推理游戲,模型需要根據(jù)反饋猜測一個由不重復(fù)數(shù)字組成的四位數(shù),考驗(yàn)其符號推理能力。

圖片

圖 3 AR-Bench 中三種任務(wù)的示例。

我們的評估框架采用多輪交互范式,其中提問方 LLM 與扮演信息源的 「回答者」 智能體進(jìn)行動態(tài)對話。該評估體系包含兩個維度:

1) 結(jié)果評估:在 DC 和 GN 任務(wù)中判斷模型結(jié)論與標(biāo)準(zhǔn)答案的匹配度,對于開放式問題 SP 則采用 F1-Score 衡量回答相似度;

2) 過程評估:基于預(yù)設(shè)關(guān)鍵問題(Key Questions),通過 LLM-as-a-judge 方法以交互輪次為粒度評估對話是否有效解決關(guān)鍵問題(適用于 DC 和 SP ),而在 GN 任務(wù)中則直接計(jì)算反饋信息的數(shù)字準(zhǔn)確率作為過程評分指標(biāo)。這一綜合評估方案不僅關(guān)注最終答案的正確性,更重視模型在交互過程中提出問題的質(zhì)量和信息獲取的有效性,從而全面刻畫模型的主動推理能力。

新發(fā)現(xiàn):

大模型主動推理能力嚴(yán)重不足

我們在 AR-Bench 上對包括 GPT-4o 在內(nèi)的多個先進(jìn) LLM,以及基于 prompting 和基于訓(xùn)練的推理方法進(jìn)行了廣泛測試。

實(shí)驗(yàn)結(jié)果(圖 4,5)表明:目前的語言模型和推理方法都無法有效解決 AR-Bench 提出的問題,我們發(fā)現(xiàn):

1. 即使是最先進(jìn)的 GPT-4o 模型也只能在 GN 任務(wù)上達(dá)到 35% 的準(zhǔn)確率。

2. 細(xì)粒度的指導(dǎo)和基于搜索的方法 (ToT)只能提供非常有限的性能提升。

3. 基于訓(xùn)練的方法(SFT, DPO)甚至在一些任務(wù)上使模型性能變差。

圖片

圖 4 不同模型在 AR-Bench 上的性能對比。

圖片

圖 5 Llama-3.1-8B 和 Llama-3.1-70B 使用不同方法在 AR-Bench 上的性能對比。

我們還測試了兩個先進(jìn)的主動推理方法(Proactive CoT 和 Uncertanty of Thoughts)以及人類在 AR-Bench 上的表現(xiàn)(見圖 6)。我們發(fā)現(xiàn):

1. 即使是目前提出的先進(jìn)的主動推理方法也無法提升模型在 AR-Bench 上的性能。

2. 人類在 AR-Bench 上的推理表現(xiàn)顯著優(yōu)于目前先進(jìn)的語言模型。

圖片

圖 6(左)先進(jìn)的主動推理方法在 AR-Bench 上的性能表現(xiàn),(右)人類在 AR-Bench 上的表現(xiàn)和 GPT-4o 對比。

為了更細(xì)致的研究語言模型在主動推理上的表現(xiàn),理解目前模型和方法的不足,我們測量了模型在主動推理交互過程中模型對該任務(wù)的解決程度(見圖 7,8),我們發(fā)現(xiàn):

1. 在交互過程中,模型的收益呈現(xiàn)遞減趨勢,在后期問題質(zhì)量低下

2. 較弱的模型問出的問題質(zhì)量偏低,并且無法對交互機(jī)會進(jìn)行有效利用

3. 較強(qiáng)的模型能夠利用多輪交互機(jī)會,持續(xù)獲得有用的信息

4. 基于搜索的方法在 AR-Bench 中依賴于每一輪評估問題質(zhì)量的驗(yàn)證器的可靠性,表現(xiàn)在對 GN 任務(wù)有顯著提升 (驗(yàn)證器基于數(shù)值反饋構(gòu)建,簡單可靠),而在 SP 任務(wù)下無法提升推理表現(xiàn) (驗(yàn)證器基于自然語言反饋構(gòu)建,復(fù)雜且相對不可靠)。

圖片

圖 7  Llama-3.1-8B 和 Llama-3.1-70B 使用不同方法在 AR-Bench 推理中過程分的變化趨勢。

圖片

圖 8  不同模型在 AR-Bench 各任務(wù)上推理中過程分的變化趨勢。

我們還進(jìn)行在 AR-Bench 進(jìn)行了三方面的消融實(shí)驗(yàn)(見圖 9,10,11):

1. 固定交互信息,探究不同模型的推理能力的表現(xiàn)。

2. 延長交互的輪數(shù),給予模型更多的機(jī)會進(jìn)行信息獲取,探究模型的表現(xiàn)變化。

3. 探究在實(shí)驗(yàn)中扮演回答者的模型的可靠性。

我們發(fā)現(xiàn):

1. 更大的模型能夠在固定的記錄中提取出更多的有效信息。

2. 簡單延長交互輪數(shù)無法完全解決主動推理任務(wù)。

3. 面對主模型提出的問題,回答者能夠給出可靠的回復(fù)。

圖片

圖 9  使用 Llama-3.1-70B 和 Llama-3.1-405B 在交互過程中獲得的交互記錄測試不同模型在給定信息的情況下給出正確結(jié)論的能力。

圖片

圖 10  延長交互輪數(shù)后,比較模型的推理表現(xiàn)變化。

圖片

圖 11  回答者模型的可靠性驗(yàn)證。

為更直觀評估模型在主動推理中的表現(xiàn),我們系統(tǒng)分析了不同任務(wù)中的典型錯誤模式(見圖 12),并通過具體案例深入剖析了模型的失誤原因(見圖 13)。

我們發(fā)現(xiàn):

1. 模型會問出寬泛,不具體的問題。

2. 模型會問出沒有幫助的問題。

3. 模型在主動推理中會頻繁出現(xiàn)時間線誤解,忽視證據(jù),強(qiáng)行提出未經(jīng)驗(yàn)證的假設(shè),以及沒有完全利用符號反饋等典型問題。

圖片

圖 12  GPT-4o 模型在不同任務(wù)下的推理正確和推理錯誤的案例分析。

圖片

圖 13  Llama-3.1-8B 和 GPT-4o 在不同任務(wù)下的出現(xiàn)的典型錯誤統(tǒng)計(jì)。

總結(jié)

我們的工作系統(tǒng)地定義了主動推理這一重要問題,并構(gòu)建了 AR-Bench 作為社群的評估工具。我們的實(shí)驗(yàn)結(jié)果清晰地表明,當(dāng)前的大語言模型雖然在被動推理上能力強(qiáng)大,但在更貼近現(xiàn)實(shí)的主動推理場景下卻舉步維艱。

展望未來工作,我們認(rèn)為 AR-Bench 存在以下拓展方向:

提升模型的主動推理能力:

1. 采集小規(guī)模但是高質(zhì)量的微調(diào)數(shù)據(jù)集

2. 將強(qiáng)化學(xué)習(xí)推理方法(PPO, GRPO, DAPO)和推理模型適配到主動推理

3. 為搜索方法開發(fā)更先進(jìn)可靠的驗(yàn)證器,以提升搜索方法在主動推理上的表現(xiàn)

將 AR-Bench 拓展到更多的任務(wù)和領(lǐng)域:

1. 醫(yī)療場景和定制化代理

2. 多輪檢索增強(qiáng)生成和工具調(diào)用

3. 模擬真實(shí)環(huán)境和多模態(tài)場景,例如機(jī)器人和游戲

更多的實(shí)驗(yàn)分析和技術(shù)細(xì)節(jié),請參閱我們的論文及源碼,我們也將持續(xù)更新本工作的內(nèi)容。

我們希望 AR-Bench 能夠激發(fā)更多關(guān)于主動推理的研究,推動開發(fā)出能夠主動提問、高效探索、真正解決現(xiàn)實(shí)世界問題的人工智能。非常感謝大家關(guān)注我們的工作!

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2025-05-16 08:44:01

2025-07-17 09:28:09

2025-06-30 08:36:00

AI模型強(qiáng)化學(xué)習(xí)

2019-07-22 10:13:54

2025-05-28 11:42:14

模型框架AI

2025-06-10 11:25:06

主流大模型安全

2024-08-19 09:42:00

模型MIT

2024-09-09 09:00:00

2025-05-07 09:12:00

模型研究LLM

2025-07-23 10:07:31

2025-05-21 08:47:00

2025-07-04 08:53:00

2010-04-30 12:47:22

2023-07-18 12:58:06

2023-03-02 08:19:43

不加鎖程序實(shí)時性

2025-06-26 08:42:00

模型安全AI

2024-01-26 11:11:11

攜程模型

2025-05-14 13:23:19

數(shù)據(jù)模型AI

2025-05-07 13:49:19

模型AI架構(gòu)

2025-10-11 04:11:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號