偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

揭秘大模型強(qiáng)推理能力幕后功臣“缺陷”,過程級獎(jiǎng)勵(lì)模型新基準(zhǔn)來了

人工智能 新聞
復(fù)旦大學(xué)、蘇州大學(xué),上海AI Lab等聯(lián)合提出了 PRMBench,它包含 6,216 條精心設(shè)計(jì)的問題和 83,456 個(gè)步驟級標(biāo)簽,用于評測模型細(xì)粒度的錯(cuò)誤檢測能力。

截止目前,o1 等強(qiáng)推理模型的出現(xiàn)證明了 PRMs(過程級獎(jiǎng)勵(lì)模型)的有效性。

(“幕后功臣” PRMs 負(fù)責(zé)評估推理過程中的每一步是否正確和有效,從而引導(dǎo) LLMs 的學(xué)習(xí)方向。)

但關(guān)鍵問題來了:我們?nèi)绾螠?zhǔn)確評估 PRMs 本身的性能?

作為回應(yīng),復(fù)旦大學(xué)、蘇州大學(xué),上海AI Lab等聯(lián)合提出了 PRMBench,它包含 6,216 條精心設(shè)計(jì)的問題和 83,456 個(gè)步驟級標(biāo)簽,用于評測模型細(xì)粒度的錯(cuò)誤檢測能力。

圖片

具體而言,目前主流的評估方法往往側(cè)重于最終結(jié)果的正確性,而忽略了對推理過程中細(xì)致入微的錯(cuò)誤類型的識別。例如,一個(gè)推理步驟可能存在冗余、部分正確、 甚至完全錯(cuò)誤等多種狀態(tài),簡單的“正確/錯(cuò)誤”標(biāo)簽難以捕捉其復(fù)雜性。

而 PRMBench 提供了一個(gè)更全面、更精細(xì)化的評估工具,可以更有效地識別 PRMs 的潛在缺陷,促進(jìn)相關(guān)算法的改進(jìn)。

實(shí)驗(yàn)發(fā)現(xiàn),目前 PRMs 在細(xì)粒度錯(cuò)誤檢測上仍有較大提升空間。即使是表現(xiàn)最佳的模型 Gemini-2-Thinking,其 PRMScore 也僅為 68.8,勉強(qiáng)高于隨機(jī)猜測的 50.0。

即使是專門在步驟級數(shù)據(jù)上訓(xùn)練過的 PRMs,其表現(xiàn)仍不如優(yōu)秀的閉源通用模型,且多步推理能力專門增強(qiáng)過的模型表現(xiàn)優(yōu)于一般通用模型。

除此之外,研究人員還公布了一些其他發(fā)現(xiàn)和探討。

PRMBench:一次針對PRMs的“全方位體檢”

據(jù)介紹,PRMBench 并非簡單的“升級版”評估數(shù)據(jù)集,而是一套經(jīng)過精心設(shè)計(jì)的“體檢方案”,目的是全面考察 PRMs 在不同維度上的能力。

下圖為 PRMBench 的主要結(jié)構(gòu),左側(cè)部分展示了數(shù)據(jù)整理的流程,右側(cè)部分展示了評估主題的示例以及測試模型的相對性能表。

圖片

其主要特點(diǎn)包括:

  • 海量且精細(xì)的標(biāo)注數(shù)據(jù):包含 6,216 個(gè)精心設(shè)計(jì)的問題,并包含 83,456 個(gè)步驟級別的標(biāo)簽,確保評估的深度和廣度。
  • 多維度、多層次的評估體系:從簡潔性 (Simplicity)、合理性 (Soundness) 和敏感性 (Sensitivity) 三個(gè)主要維度出發(fā),進(jìn)一步細(xì)分為九個(gè)子類別,例如非冗余性、非循環(huán)邏輯、評價(jià)合理性、步驟一致性、領(lǐng)域一致性、置信度不變性、前提條件敏感性、 欺騙抵抗和一題多解一致性,力求全面覆蓋PRMs可能遇到的挑戰(zhàn)。
  • 揭示現(xiàn)有 PRMs 的“盲區(qū)”:研究團(tuán)隊(duì)對 15 個(gè)代表性模型進(jìn)行了廣泛的實(shí)驗(yàn),包括開源 PRMs 以及將強(qiáng)力通用語言模型提示作為 Critic Model 的模型。實(shí)驗(yàn)結(jié)果令人驚訝,也引人深思。

具體來說,研究的主要發(fā)現(xiàn)如下:

1、整體表現(xiàn)堪憂。即使是表現(xiàn)最佳的模型 Gemini-2-Thinking,其 PRMScore 也僅為 68.8,勉強(qiáng)高于隨機(jī)猜測的 50.0。這表明,即使是最先進(jìn)的 PRMs,在多步過程評估中仍然有巨大的提升空間。

2、開源 PRMs 表現(xiàn)更弱。開源 PRMs 的平均 PRMScore 更低至 50.1,部分模型甚至不如隨機(jī)猜測,揭示了其可靠性和潛在訓(xùn)練偏差的問題。

3、“簡潔性”成最大挑戰(zhàn)。在 “簡潔性” 維度上,即使是表現(xiàn)相對較好的 ReasonEval-34B,其 PRMScore 也驟降至 51.5,表明 PRMs 在識別推理過程中的冗余步驟方面能力不足。

4、 “陽性偏好”現(xiàn)象顯著。部分模型,例如 ReasonEval-7B 和 RLHFlow-DeepSeek-8B,在評估中表現(xiàn)出顯著的“陽性偏好”,難以區(qū)分正確和錯(cuò)誤的步驟。

5、數(shù)據(jù)驅(qū)動的洞察。研究發(fā)現(xiàn),錯(cuò)誤步驟出現(xiàn)的位置也會影響PRMs的判斷準(zhǔn)確率??偟膩碚f,隨著錯(cuò)誤步驟位置的后移,PRMs 的表現(xiàn)會逐漸提升。

具體提出過程

下面介紹一下具體研究過程。

提出主要問題

在一項(xiàng)需要舉出反例的證明題實(shí)踐中,研究人員觀察到一個(gè)有趣的現(xiàn)象:

即使大語言模型 (o1) 自身意識到當(dāng)前推理過程存在一些問題,仍然會產(chǎn)生錯(cuò)誤的推理步驟。

更令人擔(dān)憂的是, 當(dāng)調(diào)用現(xiàn)有的 PRMs 去檢測剛剛 o1 生成的推理過程時(shí),結(jié)果卻發(fā)現(xiàn)多數(shù) PRMs 無法檢測出這種細(xì)粒度的錯(cuò)誤。

這一發(fā)現(xiàn)引出了一個(gè)關(guān)鍵問題:當(dāng)前的 PRMs 是否具備檢測推理過程中細(xì)粒度錯(cuò)誤的能力?

下圖為,當(dāng)詢問模型一道拉格朗日中值定理相關(guān)問題時(shí),o1 和 PRMs 可能會產(chǎn)生的錯(cuò)誤。

圖片

然而,現(xiàn)有針對 PRMs 評測而設(shè)計(jì)的 benchmark 大多僅僅關(guān)注步驟評判的對錯(cuò),而忽視步驟評判的錯(cuò)誤類型, 缺乏對錯(cuò)誤類型的細(xì)致分類。

這也就意味著,目前缺少這樣能夠評測 PRMs 在細(xì)粒度錯(cuò)誤上表現(xiàn)的綜合 benchmark。

而這,正是研究人員推出 PRMBench 這一精細(xì)化基準(zhǔn)的根本原因。

他們希望通過 PRMBench,打破現(xiàn)有評估的局限,真正遴選出能夠有效識別細(xì)粒度錯(cuò)誤的“優(yōu)秀” PRM。

下圖為 PRMBench 與其他數(shù)據(jù)集對比。

圖片

PRMBench構(gòu)建

如下所示,PRMBench 包含三大評測主題:簡潔性,合理性和敏感性。

圖片

  • 數(shù)據(jù)來源:基于 PRM800K 構(gòu)建,首先篩選出其完全正確的問題、答案以及解題步驟作為元數(shù)據(jù)。
  • 錯(cuò)誤引入:針對多數(shù)評測主題(前8個(gè))使用 LLMs(特別是 GPT-4o)將各種細(xì)粒度的錯(cuò)誤引入到完全正確的解題推理步驟中。對于一題多解的情況,則使用多步推理增強(qiáng)過的語言模型為同一問題生成不同的正確解法及其推理步驟。
  • 人工驗(yàn)證:嚴(yán)格的人工審查,以確保引入錯(cuò)誤的質(zhì)量和相關(guān)性。
  • 數(shù)據(jù)集統(tǒng)計(jì):包含 6,216 個(gè)精心設(shè)計(jì)的問題,帶有 83,456 個(gè)步驟級別的標(biāo)簽。
  • 評估對象:分為三個(gè)主要領(lǐng)域。簡潔性評估冗余檢測能力(非冗余性、非循環(huán)邏輯);合理性評估PRM產(chǎn)生獎(jiǎng)勵(lì)的準(zhǔn)確性和正確性(評價(jià)合理性、步驟一致性、領(lǐng)域一致性、 置信度不變性);敏感性評估對變化和誤導(dǎo)性信息的魯棒性(前提條件敏感性、欺騙抵抗、多解一致性)。

實(shí)驗(yàn)與結(jié)果

研究人員測試了 15 個(gè)模型,包括開源 PRMs (Skywork-PRM, Llemma-PRM, MATHMinos-Mistral,MathShepherd-Mistral, RLHFlow-PRM) 和提示為 Critic Models 的優(yōu)秀閉源語言模型 (GPT-4o, o1-mini,Gemini-2)。

評估指標(biāo)主要為:

  • 負(fù) F1 分?jǐn)?shù) (Negative F1 Score):評估錯(cuò)誤檢測性能的主要指標(biāo)。
  • PRMScore:將 F1 和負(fù) F1 相結(jié)合的統(tǒng)一、標(biāo)準(zhǔn)化的分?jǐn)?shù),以反映整體能力。

圖片

可以看出,整體而言 PRMs 在多步過程評估中表現(xiàn)出有限的能力,其得分通常僅略高于隨機(jī)猜測。

同時(shí), 開源 PRMs 的表現(xiàn)通常不如將強(qiáng)力通用語言模型(如o1, Gemini-thinking等)提示為 Critic Model 的表現(xiàn)更好。

而且相較于其他評測主題,檢測冗余 (簡潔性) 被證明對 PRMs 來說尤其困難。

另外,通過 PRMBench 下模型對于正確標(biāo)簽測試樣例(陽性數(shù)據(jù))和錯(cuò)誤標(biāo)簽測試樣例(陰性數(shù)據(jù))的得分對比及相似度來看。

許多 PRMs 表現(xiàn)出對正確標(biāo)簽的偏好,難以正確識別錯(cuò)誤標(biāo)簽測試樣例(陰性數(shù)據(jù))。

圖片

且從推理步驟位于推理鏈中不同位置對模型 PRMScore 的影響來看,PRMs 的性能往往會隨著推理步驟位于推理鏈中的位置逐漸靠后而提高。

圖片

最后從不同 Few shot 數(shù)目對于提示為 Critic Model 的通用語言模型表現(xiàn)影響來看,少樣本 ICL 的影響有限。

在 reward 過程中使用不同數(shù)量示例的 In-Context Learning 對閉源模型的性能影響不大。

圖片

小結(jié)一下,PRMBench 的發(fā)布,提醒我們重新審視現(xiàn)有 PRMs 的能力邊界。

按照研究團(tuán)隊(duì)的說法,“我們希望 PRMBench 能夠成為推動 PRM 評估和發(fā)展研究的堅(jiān)實(shí)基石”。

更多細(xì)節(jié)歡迎查閱原論文。

論文鏈接:https://arxiv.org/abs/2501.03124
項(xiàng)目主頁:https://prmbench.github.io/
Code:https://github.com/ssmisya/PRMBench
Data:https://huggingface.co/datasets/hitsmy/PRMBench_Preview

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2025-05-30 02:00:00

獎(jiǎng)勵(lì)模型RRMAI

2025-05-21 08:47:00

2025-06-09 09:32:35

2025-04-30 16:48:07

2024-02-01 08:34:30

大模型推理框架NVIDIA

2023-10-11 12:32:53

AI模型

2025-05-29 03:00:00

混合推理模型LHRMAI

2023-05-05 13:29:04

模型推理

2024-08-14 14:06:01

2024-06-17 13:34:54

2025-05-26 08:33:00

2024-04-01 08:00:00

AI模型

2025-05-30 04:00:00

IBMRLVRGRPO

2023-05-15 15:38:59

AI模型

2025-06-26 09:06:59

2025-08-11 08:00:00

2025-04-14 00:10:00

人工智能AIAI 模型

2023-11-05 15:09:35

模型AI

2023-06-04 13:29:24

OpenAI員工UC

2024-10-22 13:28:53

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號