偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

北大彭一杰教授課題組提出RiskPO,用風(fēng)險(xiǎn)度量?jī)?yōu)化重塑大模型后訓(xùn)練

人工智能 新聞
北大團(tuán)隊(duì)提出 RiskPO,核心突破在于將風(fēng)險(xiǎn)規(guī)避(risk-averse)理念融入優(yōu)化目標(biāo),用「關(guān)注獎(jiǎng)勵(lì)分布左尾(難任務(wù))」替代「追求整體均值」,從根本上引導(dǎo)模型突破推理短板。

該項(xiàng)目由北京大學(xué)彭一杰教授課題組完成,第一作者為任韜,其他作者包括江金陽、楊暉等。

研究背景與挑戰(zhàn):大模型后訓(xùn)練陷入「均值陷阱」,推理能力難破界

當(dāng)強(qiáng)化學(xué)習(xí)(RL)成為大模型后訓(xùn)練的核心工具,「帶可驗(yàn)證獎(jiǎng)勵(lì)的強(qiáng)化學(xué)習(xí)(RLVR)」憑借客觀的二元反饋(如解題對(duì)錯(cuò)),迅速成為提升推理能力的主流范式。從數(shù)學(xué)解題到代碼生成,RLVR 本應(yīng)推動(dòng)模型突破「已知答案采樣」的局限,真正掌握深度推理邏輯 —— 但現(xiàn)實(shí)是,以 GRPO 為代表的主流方法正陷入「均值優(yōu)化陷阱」。

這些基于均值的優(yōu)化策略,過度聚焦高概率輸出序列,卻忽略了「低概率但高信息密度」的推理路徑:模型訓(xùn)練早期就會(huì)出現(xiàn)熵坍縮,過早喪失探索能力;面對(duì)全錯(cuò)的難題時(shí),優(yōu)勢(shì)函數(shù)直接歸零,模型在薄弱環(huán)節(jié)完全無法學(xué)習(xí)。最終結(jié)果是,大模型看似在 Pass@1 等短視指標(biāo)上有提升,實(shí)則推理邊界從未拓寬,更無法應(yīng)對(duì) AIME 競(jìng)賽題、復(fù)雜代碼生成這類高難度任務(wù)。如何讓模型主動(dòng)「啃硬骨頭」,成為大模型后訓(xùn)練的關(guān)鍵瓶頸。

AIME2024 上的學(xué)習(xí)表現(xiàn)

技術(shù)方案概述:用「風(fēng)險(xiǎn)度量」破局,MVaR + 捆綁策略雙管齊下

為解決傳統(tǒng)均值優(yōu)化的缺陷,北大團(tuán)隊(duì)提出 RiskPO,核心突破在于將風(fēng)險(xiǎn)規(guī)避(risk-averse)理念融入優(yōu)化目標(biāo),用「關(guān)注獎(jiǎng)勵(lì)分布左尾(難任務(wù))」替代「追求整體均值」,從根本上引導(dǎo)模型突破推理短板。

  • 論文鏈接:https://arxiv.org/abs/2510.00911v1
  • 代碼鏈接:https://github.com/RTkenny/RiskPO

這一思路的核心載體是「混合風(fēng)險(xiǎn)價(jià)值(MVaR)」目標(biāo)函數(shù)。團(tuán)隊(duì)首先基于區(qū)間風(fēng)險(xiǎn)價(jià)值(RVaR)構(gòu)建基礎(chǔ) —— 對(duì)于獎(jiǎng)勵(lì)分布 ,其 α/β 分位數(shù)區(qū)間  內(nèi)的 RVaR 定義為該區(qū)間內(nèi)獎(jiǎng)勵(lì)的條件期望,公式為:

在此基礎(chǔ)上,MVaR 通過引入權(quán)重參數(shù) ,進(jìn)一步放大左尾(低獎(jiǎng)勵(lì)、難任務(wù))的梯度信號(hào),形成最終目標(biāo):

其中  即為對(duì)左尾區(qū)間  的額外關(guān)注權(quán)重,確保模型優(yōu)先優(yōu)化難任務(wù)。為讓該目標(biāo)可落地,團(tuán)隊(duì)還嚴(yán)謹(jǐn)推導(dǎo)了 MVaR 的梯度估計(jì)式子 —— 基于策略梯度的似然比求導(dǎo)方法,最終得到(式中  為捆綁后的總獎(jiǎng)勵(lì)):

為配合 MVaR 目標(biāo),團(tuán)隊(duì)提出「多問題捆綁」策略,將多個(gè)問題打包成 bundle 計(jì)算獎(jiǎng)勵(lì),把稀疏的二進(jìn)制反饋轉(zhuǎn)化為更豐富的分布信號(hào),徹底解決「難題零梯度」問題 —— 比如將 5 個(gè)數(shù)學(xué)題打包后,模型能從整體得分中捕捉到「部分正確」的學(xué)習(xí)信號(hào),而非單個(gè)題目非對(duì)即錯(cuò)的極端反饋。

算法架構(gòu)圖

實(shí)驗(yàn):三大任務(wù)全面碾壓,難問題上優(yōu)勢(shì)更顯著

好的技術(shù)方案,終要靠硬指標(biāo)說話。北大團(tuán)隊(duì)在數(shù)學(xué)推理、代碼生成、多模態(tài)推理三大領(lǐng)域的 10 余個(gè)數(shù)據(jù)集上,用數(shù)據(jù)證明了 RiskPO 的突破性 —— 尤其在最能體現(xiàn)推理能力的「硬任務(wù)」上,優(yōu)勢(shì)遠(yuǎn)超 GRPO 及其變體。

在數(shù)學(xué)推理領(lǐng)域,RiskPO 在 AIME24(美國(guó)數(shù)學(xué)邀請(qǐng)賽)任務(wù)上表現(xiàn)驚艷:Pass@32 得分比 GRPO 高出近 7 個(gè)百分點(diǎn),比最強(qiáng)基線 DAPO 提升 6.7 個(gè)百分點(diǎn);即便是相對(duì)簡(jiǎn)單的 MATH500 數(shù)據(jù)集,其 Pass@1 也達(dá)到 81.8%,超出 GRPO 2.6 個(gè)百分點(diǎn)。

更關(guān)鍵的是,隨著評(píng)估指標(biāo)從 Pass@1 轉(zhuǎn)向 Pass@8、Pass@16,RiskPO 的優(yōu)勢(shì)持續(xù)擴(kuò)大 —— 這意味著模型不僅能給出更優(yōu)的單條答案,還能探索更多有效推理路徑,真正突破了「采樣效率優(yōu)化」的局限。

數(shù)學(xué)推理任務(wù)

Pass@k 學(xué)習(xí)曲線

在跨領(lǐng)域任務(wù)中,RiskPO 同樣穩(wěn)定領(lǐng)先:代碼生成任務(wù) LiveCodeBench 上,Pass@1 比 GRPO 提升 1 個(gè)百分點(diǎn);多模態(tài)幾何推理任務(wù) Geo3K 上,準(zhǔn)確率達(dá)到 54.5%,優(yōu)于 DAPO 的 54.3%。這種「全場(chǎng)景增益」,證明了風(fēng)險(xiǎn)度量?jī)?yōu)化的泛化能力。

其他任務(wù)

理論 + 消融:熵坍縮緩解有依據(jù),參數(shù)設(shè)計(jì)有章法

RiskPO 的性能突破,并非依賴工程調(diào)參,而是有扎實(shí)的理論支撐和嚴(yán)謹(jǐn)?shù)南趯?shí)驗(yàn)驗(yàn)證。

高熵更新定理

從理論層面,團(tuán)隊(duì)證明了「風(fēng)險(xiǎn)規(guī)避更新」能有效緩解熵坍縮:通過分析策略熵的變化機(jī)制,發(fā)現(xiàn) RiskPO 的 MVaR 目標(biāo)函數(shù)能降低「優(yōu)勢(shì) - 對(duì)數(shù)概率」的相關(guān)性 —— 相比 GRPO,模型不會(huì)過度強(qiáng)化已掌握的易任務(wù),從而保持更高的熵值和探索能力。

實(shí)驗(yàn)中也能清晰看到:訓(xùn)練 500 步后,GRPO 的熵值已趨近于 0,而 RiskPO 仍能維持 0.2 以上的熵水平,確保對(duì)難任務(wù)的持續(xù)探索。

訓(xùn)練集 DAPOMATH-17k 上的各項(xiàng)指標(biāo)

值得注意的是,在訓(xùn)練過程中,若僅觀察以均值為核心的指標(biāo)曲線(如平均獎(jiǎng)勵(lì)),GRPO 與 RiskPO 的表現(xiàn)幾乎難分伯仲,甚至 RiskPO 因更高的探索性還伴隨輕微波動(dòng);但切換到風(fēng)險(xiǎn)敏感指標(biāo)(如下尾 RVaR、MVaR 獎(jiǎng)勵(lì))時(shí),兩者差距立刻凸顯 ——RiskPO 的曲線始終保持顯著領(lǐng)先,且隨訓(xùn)練推進(jìn)持續(xù)攀升。

這種「均值相近、風(fēng)險(xiǎn)指標(biāo)懸殊」的現(xiàn)象,再結(jié)合最終測(cè)試集上 RiskPO 在 Pass@k(尤其是高 k 值)、難任務(wù)(如 AIME 競(jìng)賽題)上的優(yōu)勢(shì),進(jìn)一步印證了:均值目標(biāo)只能讓模型在「已知能力范圍內(nèi)優(yōu)化采樣效率」,而風(fēng)險(xiǎn)度量目標(biāo)才是推動(dòng)模型突破推理邊界、真正提升核心能力的理想方向。

不同風(fēng)險(xiǎn)偏好對(duì)比實(shí)驗(yàn)

為進(jìn)一步驗(yàn)證風(fēng)險(xiǎn)規(guī)避目標(biāo)的必要性,團(tuán)隊(duì)還設(shè)計(jì)了「風(fēng)險(xiǎn)尋求(risk-seeking)」對(duì)比實(shí)驗(yàn):采用與 MVaR 結(jié)構(gòu)對(duì)稱的風(fēng)險(xiǎn)尋求目標(biāo),即  ,重點(diǎn)關(guān)注獎(jiǎng)勵(lì)分布的右尾(易任務(wù))。

結(jié)果顯示,風(fēng)險(xiǎn)尋求模型的熵值在訓(xùn)練早期就劇烈坍縮 —— 訓(xùn)練 150 步后熵值已降至 0.1 以下,遠(yuǎn)低于 RiskPO 的 0.2;性能上,風(fēng)險(xiǎn)尋求模型在訓(xùn)練 50 步后便進(jìn)入平臺(tái)期,MATH 數(shù)據(jù)集 Pass@1 僅從 52% 提升至 54%,而 RiskPO 則持續(xù)優(yōu)化至 56%,實(shí)現(xiàn) 1.5 倍的提升幅度。

這一對(duì)比清晰證明,聚焦易任務(wù)的風(fēng)險(xiǎn)尋求策略會(huì)加速模型「固步自封」,只有風(fēng)險(xiǎn)規(guī)避才能驅(qū)動(dòng)模型突破推理邊界。

責(zé)任編輯:張燕妮 來源: 機(jī)器之心
相關(guān)推薦

2023-10-29 22:38:59

2023-11-27 13:51:00

模型訓(xùn)練

2025-02-18 09:10:00

2025-08-26 09:07:00

2024-08-23 09:20:00

AI搜索

2023-11-07 11:50:14

AI訓(xùn)練

2025-09-22 17:03:09

2023-11-29 14:00:00

AI數(shù)據(jù)

2024-09-12 12:46:36

2022-10-26 13:44:12

訓(xùn)練模型

2025-03-27 10:28:32

2025-08-15 12:38:58

2024-08-07 13:00:00

2020-04-07 13:06:07

AWS藥物篩選新冠病毒

2025-04-16 02:30:00

2024-09-27 10:31:22

2024-09-30 13:50:00

2025-02-12 13:34:40

2025-05-19 14:57:44

架構(gòu)模型AI

2023-12-09 15:21:47

模型分子
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)