偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

騰訊發(fā)布超低成本AI訓(xùn)練法!120元效果秒殺70000元微調(diào)方案

人工智能 新聞
騰訊提出一種升級(jí)大模型智能體的新方法——無(wú)訓(xùn)練組相對(duì)策略優(yōu)化Training-Free GRPO。

只花120元,效果吊打70000元微調(diào)!

騰訊提出一種升級(jí)大模型智能體的新方法——無(wú)訓(xùn)練組相對(duì)策略優(yōu)化Training-Free GRPO。

無(wú)需調(diào)整任何參數(shù),只要在提示詞中學(xué)習(xí)簡(jiǎn)短經(jīng)驗(yàn),即可實(shí)現(xiàn)高性價(jià)比提升模型性能

實(shí)驗(yàn)表明,在數(shù)學(xué)推理和網(wǎng)頁(yè)搜索任務(wù)上,利用無(wú)訓(xùn)練GRPO的DeepSeek-V3.1-Terminus模型展現(xiàn)出顯著的跨領(lǐng)域性能提升。

與微調(diào)32B模型相比,該方法在671B大型模型上所需訓(xùn)練數(shù)據(jù)更少、成本更低。

網(wǎng)友不禁表示:

也太劃算了吧!

下面具體來(lái)看。

將經(jīng)驗(yàn)知識(shí)作為token先驗(yàn)

如今,大語(yǔ)言模型正逐漸成為強(qiáng)大的通用智能體,在復(fù)雜問(wèn)題解決、網(wǎng)頁(yè)研究等通用任務(wù)中表現(xiàn)出色。

然而,在需外部工具(如計(jì)算器、API) 和特定提示策略的專業(yè)場(chǎng)景中,LLM往往會(huì)因?qū)︻I(lǐng)域需求和工具不熟悉,而導(dǎo)致性能欠佳。

為了彌補(bǔ)上述差距,基于GRPO的強(qiáng)化學(xué)習(xí)通過(guò)參數(shù)空間調(diào)整實(shí)現(xiàn)對(duì)模型行為的定向優(yōu)化。盡管這些方法能有效提升特定任務(wù)的能力,但其對(duì)LLM參數(shù)調(diào)優(yōu)的依賴仍存在多方面挑戰(zhàn):

  • 算力成本高;
  • 跨領(lǐng)域泛化能力弱;
  • 數(shù)據(jù)稀缺;
  • 收益遞減。

參數(shù)調(diào)優(yōu)中的這些局限引發(fā)了一個(gè)根本性問(wèn)題:在參數(shù)空間中應(yīng)用強(qiáng)化學(xué)習(xí)是否是唯一可行的方法?能否以非參數(shù)化的方式提升LLM智能體的性能,同時(shí)降低數(shù)據(jù)和計(jì)算成本?

為此,騰訊優(yōu)圖團(tuán)隊(duì)提出了無(wú)訓(xùn)練組相對(duì)策略優(yōu)化,通過(guò)輕量級(jí)的token先驗(yàn)在上下文中學(xué)習(xí)經(jīng)驗(yàn)知識(shí),無(wú)需修改模型參數(shù)即可提升LLM智能體性能。

Training-Free GRPO重新利用了傳統(tǒng)GRPO基于組間相對(duì)評(píng)估的核心邏輯,但將其轉(zhuǎn)化為非參數(shù)化的推理階段過(guò)程。

該方法保持參數(shù)θ永久凍結(jié),轉(zhuǎn)而維護(hù)一個(gè)外部經(jīng)驗(yàn)知識(shí)庫(kù)(初始為空集),通過(guò)動(dòng)態(tài)更新知識(shí)庫(kù)而非模型參數(shù)來(lái)實(shí)現(xiàn)性能優(yōu)化。

隨后,Training-Free GRPO生成自然語(yǔ)言形式的組相對(duì)語(yǔ)義優(yōu)勢(shì)。

具體流程如下所示:

1、對(duì)于每個(gè)輸出,免訓(xùn)練GRPO首先讓同一個(gè)大語(yǔ)言模型M生成對(duì)應(yīng)分析摘要。

2、基于摘要集和當(dāng)前經(jīng)驗(yàn),由M說(shuō)明每個(gè)輸出相對(duì)成功或失敗的原因,然后提取出簡(jiǎn)明的自然語(yǔ)言經(jīng)驗(yàn)。

之后,傳統(tǒng)GRPO會(huì)通過(guò)對(duì)單個(gè)批次中所有優(yōu)勢(shì)計(jì)算得到的目標(biāo)函數(shù)進(jìn)行梯度上升,從而更新模型參數(shù)θ。

而在Training-Free GRPO中,該方法通過(guò)使用當(dāng)前批次中的所有語(yǔ)義優(yōu)勢(shì)A_text來(lái)更新經(jīng)驗(yàn)庫(kù),每條操作可能包括:

  • Add(添加):將A_text中描述的經(jīng)驗(yàn)直接追加到經(jīng)驗(yàn)庫(kù)中。
  • Delete(刪除):根據(jù)A_text,從經(jīng)驗(yàn)庫(kù)中移除低質(zhì)量經(jīng)驗(yàn)。
  • Modify(修改):根據(jù)A_text提供的見(jiàn)解,優(yōu)化或改進(jìn)經(jīng)驗(yàn)庫(kù)中已有的經(jīng)驗(yàn)。
  • Keep(保留):經(jīng)驗(yàn)庫(kù)保持不變。

在更新經(jīng)驗(yàn)庫(kù)后,條件策略會(huì)在隨后的批次或訓(xùn)練輪次中生成偏移后的輸出分布。

可以說(shuō),Training-Free GRPO是通過(guò)改變上下文而非模型參數(shù)本身,將模型引向高獎(jiǎng)勵(lì)輸出。

其中,被凍結(jié)的基礎(chǔ)模型起到了強(qiáng)先驗(yàn)(strong prior)的作用,不僅保證輸出的連貫性,還提供了類似于GRPO中KL散度約束的內(nèi)在穩(wěn)定性,防止策略過(guò)度偏離參考模型。

實(shí)驗(yàn)結(jié)果

為評(píng)估免訓(xùn)練GRPO方法的性能,團(tuán)隊(duì)在數(shù)學(xué)推理和網(wǎng)絡(luò)搜索兩大基準(zhǔn)測(cè)試上開(kāi)展了多維度對(duì)比實(shí)驗(yàn)。

在實(shí)驗(yàn)中,研究主要關(guān)注的是現(xiàn)實(shí)應(yīng)用中難以微調(diào)且成本高昂的大型高性能LLM,例如DeepSeek-V3.1-Terminus。

實(shí)驗(yàn)結(jié)果顯示,Training-Free GRPO在數(shù)學(xué)推理任務(wù)中取得了顯著提升,無(wú)論是否使用工具,均表現(xiàn)出明顯優(yōu)勢(shì)。

基線模型DeepSeek-V3.1-Terminus+ReAct在AIME24和AIME25上的得分分別為80.0%和 67.9%,而應(yīng)用Training Free GRPO后,凍結(jié)模型的表現(xiàn)顯著提升至82.7%和73.3%,分別帶來(lái)2.7%和5.4%的絕對(duì)增益。

值得注意的是,這一提升僅使用了100個(gè)跨域訓(xùn)練樣本,并且無(wú)需任何梯度更新。相比之下,傳統(tǒng)強(qiáng)化學(xué)習(xí)方法如ReTool和AFM在32B LLM上通常需要數(shù)千個(gè)訓(xùn)練樣本,成本超過(guò)10000美元,而Training Free GRPO僅需約18美元。

在AIME24和AIME25實(shí)驗(yàn)中,隨著每一步學(xué)習(xí),模型表現(xiàn)持續(xù)提升,這表明僅從100個(gè)問(wèn)題中學(xué)到的經(jīng)驗(yàn)?zāi)軌蛴行Х夯?,同時(shí)也凸顯了多步學(xué)習(xí)的必要性。

此外,在訓(xùn)練過(guò)程以及跨域評(píng)估中,模型的平均工具調(diào)用次數(shù)都有所下降。這表明Training-Free GRPO不僅促使模型做出正確的推理和決策,還能教會(huì)智能體更高效、更謹(jǐn)慎地使用工具。

學(xué)習(xí)到的經(jīng)驗(yàn)知識(shí)幫助智能體發(fā)現(xiàn)一些捷徑,避免錯(cuò)誤或冗余的工具調(diào)用,從而驗(yàn)證了基于語(yǔ)義優(yōu)勢(shì)優(yōu)化方法的有效性。

在網(wǎng)絡(luò)搜索任務(wù)中,團(tuán)隊(duì)選擇在WebWalkerQA基準(zhǔn)上評(píng)估免訓(xùn)練GRPO方法的有效性。

可以看出,該方法在使用DeepSeek-V3.1-Terminus模型時(shí)實(shí)現(xiàn)了67.8%的Pass@1得分,較基線63.2%有顯著提升。

此外,研究還對(duì)來(lái)自WebWalkerQA的51個(gè)實(shí)例進(jìn)行分層隨機(jī)抽樣,以開(kāi)展消融實(shí)驗(yàn)。

由上圖可知,直接使用生成的經(jīng)驗(yàn)會(huì)略微降低ReAct的性能(Pass@1 為64.7%,相比原來(lái)的66.7%),這說(shuō)明僅靠上下文示例而沒(méi)有經(jīng)過(guò)優(yōu)化,難以帶來(lái)性能提升。

不使用真實(shí)答案的Training-Free GRPO在Pass@1上與ReAct保持一致(66.7%),但在Pass@3上提升到78.4%,表明即使沒(méi)有真實(shí)答案,通過(guò)相對(duì)獎(jiǎng)勵(lì)評(píng)估也能提高輸出的一致性。

完整的Training-Free GRPO則取得了最佳表現(xiàn)(Pass@1為68.6%,Pass@3為78.4%),凸顯了結(jié)合真實(shí)答案指導(dǎo)、語(yǔ)義優(yōu)勢(shì)和經(jīng)驗(yàn)優(yōu)化的重要性。

此外,研究還驗(yàn)證了模型能力是基于經(jīng)驗(yàn)優(yōu)化能否有效的前提條件。

實(shí)驗(yàn)將Training-Free GRPO應(yīng)用于QwQ-32B時(shí),Pass@1僅為25.5%,遠(yuǎn)低于DeepSeek-V3.1-Terminus的66.7%,甚至低于其自身的ReAct基線(27.5%)。這表明該方法的有效性依賴于基礎(chǔ)模型在復(fù)雜工具使用場(chǎng)景中的推理和工具使用能力。

論文鏈接:https://arxiv.org/abs/2510.08191

參考鏈接:https://x.com/rohanpaul_ai/status/1978048482003890625

Github鏈接:https://github.com/TencentCloudADP/youtu-agent/tree/training_free_GRPO

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2022-11-09 13:53:45

AI圖像

2025-03-18 08:19:01

2011-11-30 09:49:57

Android手機(jī)占有率400元

2022-06-30 08:55:15

DDoSWAF網(wǎng)絡(luò)攻擊

2022-06-30 11:03:27

DDoS攻擊WAF

2024-06-21 11:44:17

2024-09-05 16:37:37

2012-01-11 21:56:15

噴墨打印機(jī)推薦

2023-10-18 12:50:12

數(shù)據(jù)模型

2011-07-05 15:39:50

FTTH

2011-12-31 14:00:40

聯(lián)想噴墨打印機(jī)

2009-02-27 10:16:16

微軟Windows Ser低成本

2014-05-20 10:46:05

智能建筑設(shè)備網(wǎng)銳捷

2025-09-15 14:44:09

AI模型訓(xùn)練

2025-06-25 01:00:00

智能體蒸餾AI

2019-12-13 15:58:45

戴爾

2023-12-17 19:38:37

谷歌AI 模型人工智能

2023-09-06 18:25:32

2024-06-06 14:27:21

2013-12-18 18:08:47

騰訊云生態(tài)體系
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)