偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

7B的DeepSeek蒸餾Qwen數(shù)學(xué)超o1!在測(cè)試時(shí)間強(qiáng)化學(xué)習(xí),MIT積分題大賽考93分

人工智能
LADDER利用模型現(xiàn)有能力來生成問題變體,形成循序漸進(jìn)的難度梯度,最終實(shí)現(xiàn)自舉學(xué)習(xí)。整個(gè)過程只需對(duì)答案進(jìn)行驗(yàn)證即可,無需人工干預(yù)。

見識(shí)過32B的QwQ追平671的DeepSeek R1后——

剛剛,7B的DeepSeek蒸餾Qwen模型超越o1又是怎么一回事?

圖片圖片

新方法LADDER,通過遞歸問題分解實(shí)現(xiàn)AI模型的自我改進(jìn),同時(shí)不需要人工標(biāo)注數(shù)據(jù)。

使Deepseek-R1蒸餾的Qwen2.5 7B模型在麻省理工學(xué)院積分大賽MIT Integration Bee)上達(dá)到90分超越o1。

圖片圖片

注意,不是積分制的比賽哦,是只做微積分中積分題的比賽,MIT的數(shù)學(xué)高手每年都會(huì)挑戰(zhàn)一次,題目像這樣:

圖片圖片

LADDER論文來自小型獨(dú)立研究團(tuán)體Tufa Labs,論文已上傳到arXiv。

圖片圖片

在推理時(shí)間強(qiáng)化學(xué)習(xí)

LADDER,全稱Learning through Autonomous Difficulty-Driven Example Recursion,即”通過自主難度驅(qū)動(dòng)的樣本遞歸進(jìn)行學(xué)習(xí)”。

這個(gè)名字聽起來有點(diǎn)拗口,但核心其實(shí)很容易理解:就是讓語言模型(LLM)通過自我生成和求解漸進(jìn)簡(jiǎn)化的問題變體,來不斷提升自己解決復(fù)雜問題的能力。

圖片圖片

具體來說,LADDER是一個(gè)結(jié)構(gòu)化框架,由以下組件組成:

  • 變體生成:一種結(jié)構(gòu)化方法,用于生成復(fù)雜問題的逐漸簡(jiǎn)化變體的樹,從而建立自然的難度梯度。
  • 解的驗(yàn)證:一種用于驗(yàn)證積分解的數(shù)值積分方法。
  • 強(qiáng)化學(xué)習(xí):用于在變體樹上訓(xùn)練基礎(chǔ)模型的協(xié)議。

圖片圖片

而LADDER這個(gè)名字,也意味著像是模型學(xué)會(huì)了”爬梯子”:通過自主生成一系列從易到難的問題變體,不斷練習(xí)和強(qiáng)化,最終爬到頂端。

圖片

以往的訓(xùn)練方法,總是離不開大規(guī)模標(biāo)注數(shù)據(jù)。

LADDER利用模型現(xiàn)有能力來生成問題變體,形成循序漸進(jìn)的難度梯度,最終實(shí)現(xiàn)自舉學(xué)習(xí)。整個(gè)過程只需對(duì)答案進(jìn)行驗(yàn)證即可,無需人工干預(yù)。

相比之前的方法,LADDER有三大優(yōu)勢(shì):

不再依賴人工標(biāo)注數(shù)據(jù),降低了數(shù)據(jù)獲取成本;模型通過生成問題變體構(gòu)建針對(duì)性的學(xué)習(xí)路徑,學(xué)習(xí)更高效;生成的問題變體與原始問題相關(guān)性高,避免陷入無關(guān)細(xì)節(jié)。

此外,作者還提出了一種創(chuàng)新的測(cè)試時(shí)強(qiáng)化學(xué)習(xí)方法TTRL。在推理階段遇到復(fù)雜的數(shù)學(xué)積分測(cè)試問題時(shí),TTRL會(huì)動(dòng)態(tài)生成一系列更簡(jiǎn)單的積分變體,模型通過解決這些變體來積累經(jīng)驗(yàn),找到解決原始難題的方法。

這種測(cè)試時(shí)計(jì)算擴(kuò)展的思路,為進(jìn)一步提升模型性能開辟了新的道路。不同于簡(jiǎn)單增加輸出長度,TTRL能夠讓模型在推理時(shí)針對(duì)性地”刷題”,動(dòng)態(tài)擴(kuò)展能力邊界。

通過LADDER,一個(gè)原本只有1%準(zhǔn)確率的Llama 3.2 3B模型,在沒有任何人工標(biāo)注數(shù)據(jù)的情況下,解題準(zhǔn)確率飆升至82%。

圖片圖片

更強(qiáng)大的基礎(chǔ)模型Qwen2.5 7B Deepseek-R1 Distilled,在用上LADDER方法后,

MIT Integration Bee比賽的成績(jī)就從50%提高到73%。

圖片

最后,LADDER加上TTRL方法,讓最終成績(jī)達(dá)到90。

圖片

不過作者也強(qiáng)調(diào),與o1的對(duì)比不是嚴(yán)格的頭對(duì)頭評(píng)估。

o1無法訪問數(shù)字檢查器,這意味著它在不同的約束下運(yùn)行。LADDER的結(jié)果強(qiáng)調(diào)了通過遞歸問題分解和強(qiáng)化學(xué)習(xí)進(jìn)行自我提升的有效性,而不是表明它直接優(yōu)于o1的方法。

論文地址:https://arxiv.org/abs/2503.00735

參考鏈接:
[1]https://x.com/yoshiyama_akira/status/1897662722679959583

責(zé)任編輯:武曉燕 來源: 量子位
相關(guān)推薦

2025-03-11 13:07:58

2025-01-10 11:42:40

2025-01-06 12:46:16

模型數(shù)據(jù)訓(xùn)練

2024-09-14 14:00:00

AI模型

2025-02-08 09:30:00

2024-09-13 06:32:25

2025-01-10 12:58:37

2025-02-20 09:11:28

2025-05-26 08:52:00

2024-09-18 10:37:00

強(qiáng)化學(xué)習(xí)AI模型

2025-02-25 12:30:00

2022-11-02 14:02:02

強(qiáng)化學(xué)習(xí)訓(xùn)練

2025-02-13 09:10:00

2025-06-24 08:45:00

強(qiáng)化學(xué)習(xí)算法AI

2025-04-29 09:06:00

2025-01-21 09:00:00

2025-01-26 08:40:00

AI模型預(yù)測(cè)

2025-01-21 10:10:56

2025-05-28 02:25:00

2025-01-23 14:53:15

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)