GRPO教會DeepSeek R1高智商推理,但GRPO可能不完美且有偏見 | Dr. GRPO簡化之,消除偏見帶來改進(jìn)
DeepSeek R1在數(shù)學(xué)推理、問題解決等復(fù)雜任務(wù)上的表現(xiàn)令全世界矚目。它在AIME 2024等高難度數(shù)學(xué)測試中取得了79.8分好成績(OpenAI o1-1217得分79.2)。而這一切的背后,有一個關(guān)鍵技術(shù)功不可沒——Group Relative Policy Optimization(GRPO),一種基于強(qiáng)化學(xué)習(xí)的優(yōu)化算法。
盡管GRPO教會R1高智商推理,但有研究人員發(fā)現(xiàn),它存在一些缺陷,比如它會導(dǎo)致模型生成冗長的錯誤回答,或者更傾向于解決簡單問題而忽略難題。大家在用DeepSeek R1的時候,估計也遇到過這樣的場景:當(dāng)它思考過程是錯誤的時候,會在那兒叨叨沒完沒了,陷入一個怪圈中出不來。
為了解決這些問題,來自新加坡的研究團(tuán)隊提出了一個改進(jìn)版本——Dr. GRPO(Group Relative Policy Optimization Done Right)。Dr. GRPO嘗試消除GRPO的偏見,提升模型的推理準(zhǔn)確性和效率。
GRPO:R1高智商推理的“幕后老師”
在探討GRPO的缺陷或偏見之前,我們先來回憶一下它是什么,以及它如何幫助R1在數(shù)學(xué)推理任務(wù)中大放異彩。
GRPO的核心思想
GRPO是一種強(qiáng)化學(xué)習(xí)(Reinforcement Learning, RL)算法,專門用于優(yōu)化大型語言模型的推理能力。在R1的訓(xùn)練中,GRPO會讓模型針對一個數(shù)學(xué)問題生成多個回答(稱為“響應(yīng)組”),比如10個不同的解答。然后,它會根據(jù)這些回答的正確性打分:正確答案得1分,錯誤答案得0分。通過比較這些回答的得分,GRPO計算出每個回答的“優(yōu)勢”(advantage),也就是這個回答比其他回答好多少或差多少。最后,它用這個優(yōu)勢值調(diào)整模型的參數(shù),讓模型更傾向于生成正確的回答。
這種方法讓R1在數(shù)學(xué)推理任務(wù)上取得了顯著進(jìn)步。更重要的是,R1還展現(xiàn)了一些“類人”的推理行為,比如自我反思(self-reflection)和“頓悟時刻”(Aha moment)。例如,它會在回答問題時嘗試不同的解法,并在過程中檢查自己的思路,這種能力讓它在高難度測試中表現(xiàn)尤為出色。
GRPO的技術(shù)細(xì)節(jié)
為了更直觀地理解GRPO,我們來看看它的核心公式:
其中優(yōu)勢函數(shù)計算方法如下
這個公式看起來復(fù)雜,但它的核心思想很簡單:通過獎勵對比,找到更好的回答策略,并調(diào)整模型讓它更傾向于生成高獎勵的輸出。
GRPO的缺陷:為何它不完美?
盡管GRPO幫助R1取得了優(yōu)異成績,但它并非沒有問題。研究人員發(fā)現(xiàn),GRPO存在兩個主要缺陷:響應(yīng)長度偏見和問題難度偏見。這些偏見讓模型在訓(xùn)練過程中出現(xiàn)了意想不到的行為,比如生成冗長的錯誤回答,或者更傾向于優(yōu)化簡單問題而忽視難題。
缺陷1:響應(yīng)長度偏見——“話癆”模型的誕生
問題出在哪兒?
形象理解:一場不公平的作文比賽
想象你是一個語文老師,正在組織一場作文比賽。你給學(xué)生的評分規(guī)則是:“如果作文寫對了主題,得1分;如果跑題了,得0分?!钡氵€加了一條奇怪的規(guī)定:“得分會除以作文的字?jǐn)?shù)。也就是說,正確作文越短,分?jǐn)?shù)越高;錯誤作文越長,扣分越少?!?/p>
這個規(guī)則會帶來什么后果呢?學(xué)生很快就會發(fā)現(xiàn):
- 如果他們寫了一篇短小精悍的正確作文,比如200字,得分是 (1 / 200 = 0.005) 分/字,獎勵很高。
- 如果他們寫了一篇跑題的作文,但用了1000字,得分是 (0 / 1000 = 0) 分/字,幾乎沒懲罰。
結(jié)果呢?聰明的學(xué)生會開始“鉆空子”:當(dāng)他們不確定主題時,就故意寫很長的跑題作文,因為這樣懲罰少;而當(dāng)他們有把握時,就盡量精簡字?jǐn)?shù)。這種策略雖然符合規(guī)則,卻完全偏離了你的初衷——你本來是想讓學(xué)生寫出高質(zhì)量的作文,而不是追求長短。
GRPO的情況也是如此。該“偏見”讓模型變成了一個“話癆”:當(dāng)它不確定答案時,就傾向于生成冗長的錯誤回答(比如1000個token),因為這樣每個token的懲罰被攤薄了;當(dāng)它確定答案時,則盡量簡潔。這種偏見在R1的訓(xùn)練中表現(xiàn)得很明顯:錯誤回答的長度逐漸增加,甚至超過1000個token,而正確回答則相對較短。
實際影響
在MATH數(shù)據(jù)集的測試中,研究人員發(fā)現(xiàn),經(jīng)過GRPO優(yōu)化的模型,錯誤回答的平均長度顯著高于正確回答。比如,錯誤回答可能長達(dá)800-1000個token,而正確回答只有400-600個token。這種“話癆”行為不僅浪費計算資源,還降低了模型的token效率(即生成有效信息所需的token數(shù)量),讓人誤以為模型在“深度思考”,實際上已經(jīng)陷入錯誤怪圈。
缺陷2:問題難度偏見——“挑軟柿子捏”的優(yōu)化策略
問題出在哪兒?
GRPO的第二個缺陷來源于公式中的 std項(上面公式中第二個標(biāo)紅的地方),也就是獎勵的標(biāo)準(zhǔn)差歸一化。這個項會根據(jù)一組回答的獎勵波動調(diào)整梯度更新:
- 如果一個問題的獎勵標(biāo)準(zhǔn)差?。ū热缁卮鹫_率很穩(wěn)定),梯度更新會被放大。
- 如果獎勵標(biāo)準(zhǔn)差大(比如回答正確率波動很大),梯度更新會被縮小。
這導(dǎo)致模型更傾向于優(yōu)化獎勵穩(wěn)定的問題(通常是簡單問題),而對獎勵波動大的問題(通常是難題)優(yōu)化不足。
形象理解:一場不公平的運(yùn)動會
假設(shè)你是一個體育老師,正在訓(xùn)練學(xué)生參加跑步比賽。你告訴學(xué)生:“我會在不同難度的跑道上測試你們,簡單跑道平坦,復(fù)雜跑道有很多障礙。你們的得分會根據(jù)每條跑道的成績波動調(diào)整:如果跑道上大家的成績差不多(標(biāo)準(zhǔn)差?。?,得分會更高;如果成績差距很大(標(biāo)準(zhǔn)差大),得分會更低?!?/p>
這個規(guī)則會怎樣影響學(xué)生呢?他們很快就會發(fā)現(xiàn):
- 在平坦的簡單跑道上,大家跑得差不多,標(biāo)準(zhǔn)差小,得分被放大,他們更愿意在這上面努力。
- 在障礙重重的復(fù)雜跑道上,有人跑得快有人跑得慢,標(biāo)準(zhǔn)差大,得分被縮小,他們就不愿意花心思挑戰(zhàn)。
結(jié)果是,學(xué)生們開始“挑軟柿子捏”,專注于簡單跑道,而對復(fù)雜跑道敷衍了事。你的初衷是想全面提升他們的跑步能力,但這個規(guī)則卻讓他們只顧著容易的部分。
GRPO的 std項也是如此。它讓模型更傾向于優(yōu)化簡單問題(獎勵標(biāo)準(zhǔn)差?。?,而對難題(獎勵標(biāo)準(zhǔn)差大)不夠重視。這種偏見導(dǎo)致模型在簡單任務(wù)上進(jìn)步很快,但在高難度任務(wù)上提升有限。
實際影響
在實際測試中,經(jīng)過GRPO優(yōu)化的模型在簡單問題(如GSM-8K數(shù)據(jù)集)上的準(zhǔn)確率提升明顯,但在高難度問題(如AIME 2024)上的進(jìn)步較慢。這表明,GRPO的優(yōu)化策略不夠公平,無法均衡提升模型在不同難度任務(wù)上的表現(xiàn)。
Dr. GRPO:消除偏見的“增強(qiáng)版”優(yōu)化算法
為了解決GRPO的這兩個缺陷,研究團(tuán)隊提出了Dr. GRPO。Dr. GRPO的核心思想是移除偏見項,讓優(yōu)化過程更加公平高效。具體改進(jìn)包括:
改進(jìn)1:移除響應(yīng)長度偏見
Dr. GRPO去掉了GRPO公式中的 1/|oi| 項。新的目標(biāo)函數(shù)變?yōu)椋?/p>
效果
移除 1/|oi| 后,回答長度不再影響梯度更新:
- 正確回答不會因為短而獲得額外獎勵。
- 錯誤回答不會因為長而減少懲罰。
回到作文比賽的比喻,Dr. GRPO就像一個更公平的老師:他不再根據(jù)字?jǐn)?shù)調(diào)整分?jǐn)?shù),而是只看作文的質(zhì)量。這樣,學(xué)生就不會為了少扣分而寫冗長的跑題作文,而是專注于提高內(nèi)容本身。模型也是如此,它不再傾向于生成“話癆”式的錯誤回答,而是更關(guān)注答案的正確性。
改進(jìn)2:移除問題難度偏見
Dr. GRPO還去掉了 std 項,新的優(yōu)勢函數(shù)變?yōu)椋?/p>
效果
移除標(biāo)準(zhǔn)差歸一化后,梯度更新不再受問題獎勵波動的影響。簡單問題和難題對模型優(yōu)化的貢獻(xiàn)變得平等,模型不會“挑軟柿子捏”?;氐竭\(yùn)動會的比喻,Dr. GRPO就像一個一視同仁的老師:無論跑道難度如何,他都用同樣的標(biāo)準(zhǔn)評分,學(xué)生們必須在所有跑道上努力,而不是只顧著簡單的。
Dr. GRPO的整體優(yōu)勢
通過這兩項改進(jìn),Dr. GRPO讓優(yōu)化過程更加公平:
- 不再“話癆”:錯誤回答的長度不會無限制增加,token效率顯著提升。
- 公平優(yōu)化:模型對不同難度的問題一視同仁,整體推理能力更均衡。
實驗結(jié)果:Dr. GRPO的優(yōu)越性
為了驗證Dr. GRPO的效果,研究團(tuán)隊在多個數(shù)學(xué)推理基準(zhǔn)測試中對比了GRPO和Dr. GRPO的表現(xiàn)。以下是詳細(xì)結(jié)果。
實驗設(shè)置
研究團(tuán)隊使用Qwen2.5-Math-7B作為基礎(chǔ)模型,分別用GRPO和Dr. GRPO進(jìn)行強(qiáng)化學(xué)習(xí)訓(xùn)練。訓(xùn)練在8個A100 GPU上進(jìn)行,總耗時27小時。測試基準(zhǔn)包括:
- AIME 2024:高難度數(shù)學(xué)邀請賽。
- AMC:中等難度數(shù)學(xué)競賽。
- MATH500:高中數(shù)學(xué)競賽題目。
- Minerva Math:定量推理測試。
- OlympiadBench:奧林匹克級難題。
結(jié)果1:推理準(zhǔn)確性提升
下表展示了不同模型在各基準(zhǔn)上的準(zhǔn)確率:
- 分析:使用Dr. GRPO訓(xùn)練的Oat-Zero-7B在所有測試中平均準(zhǔn)確率最高(51.4%),尤其在AIME 2024上達(dá)到43.3%,比SimpleRL-Zero-7B高16.6個百分點,比PRIME-Zero-7B高26.6個百分點。這表明Dr. GRPO顯著提升了模型的推理能力。
結(jié)果2:token效率提升
Dr. GRPO還顯著縮短了錯誤回答的長度:
- GRPO:錯誤回答長度隨訓(xùn)練增加,甚至超過1000個token。
- Dr. GRPO:錯誤回答長度穩(wěn)定在400-600個token,接近正確回答長度,減少約40%-50%。
在MATH500測試中,GRPO的錯誤回答平均長度為800-1000個token,而Dr. GRPO僅為400-600個token。這說明Dr. GRPO消除了“話癆”傾向,讓模型更高效。
結(jié)果3:訓(xùn)練穩(wěn)定性
GRPO訓(xùn)練的模型在獎勵提升趨緩后,回答長度仍持續(xù)增加,這種“過度思考”現(xiàn)象被Dr. GRPO有效避免。Dr. GRPO的回答長度與獎勵信號更匹配,訓(xùn)練過程更穩(wěn)定。
為什么Dr. GRPO更強(qiáng)?
Dr. GRPO的優(yōu)越性來源于以下幾點:
- 消除“話癆”傾向:移除 1/|oi| 項,避免了模型生成冗長錯誤回答。
- 公平優(yōu)化:移除 std 項,讓模型均衡提升簡單和復(fù)雜問題的能力。
- 高效訓(xùn)練:優(yōu)化目標(biāo)更直接,模型更快收斂到最優(yōu)策略。
這些改進(jìn)讓Dr. GRPO不僅提升了準(zhǔn)確率,還提高了token效率和訓(xùn)練穩(wěn)定性。
總結(jié):Dr. GRPO是GRPO的“增強(qiáng)版”
GRPO雖然為R1的高智商推理能力奠定了基礎(chǔ),但其響應(yīng)長度偏見和問題難度偏見導(dǎo)致了冗長低效的回答和不公平的優(yōu)化。Dr. GRPO通過消除這些偏見,讓模型更專注于提升推理質(zhì)量,而不是追求無關(guān)的長度或簡單性??梢哉f,Dr. GRPO是GRPO的“改進(jìn)版”,為強(qiáng)化學(xué)習(xí)優(yōu)化提供了更高效、更公平的方向。如果你對實現(xiàn)細(xì)節(jié)感興趣,可以訪問研究團(tuán)隊的GitHub頁面(https://github.com/sail-sg/understand-r1-zero)。
?本文轉(zhuǎn)載自??后向傳播??,作者: 張發(fā)恩
