偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

讓7B千問模型超越o1,微軟rStar-Math驚艷登場,網(wǎng)友盛贊

人工智能 新聞
今天登頂 Hugging Face 熱門榜一的論文展示了小模型的潛力。來自微軟亞洲研究院的研究團隊提出了 rStar-Math。rStar-Math 向我們證明,1.5B 到 7B 規(guī)模的小型語言模型(SLM)無需從更大模型蒸餾,就能在數(shù)學推理能力上媲美甚至超越 OpenAI o1。

OpenAI o1 給大模型規(guī)模擴展 vs 性能的曲線帶來了一次上翹。它在大模型領域重現(xiàn)了當年 AlphaGo 強化學習的成功 —— 給越多算力,就輸出越多智能,一直到超越人類水平。

但這種突破背后是龐大的算力支持與推理開銷:API 的價格上,o1-preview 每百萬輸入 15 美元,每百萬輸出 60 美元,而最新版的 o3 在處理復雜推理任務時,單次成本更是高達數(shù)千美元。

業(yè)界一直在尋找一個更經(jīng)濟、更高效的解決方案。而這個答案可能比預期來得更快一些。

今天登頂 Hugging Face 熱門榜一的論文展示了小模型的潛力。來自微軟亞洲研究院的研究團隊提出了 rStar-Math。rStar-Math 向我們證明,1.5B 到 7B 規(guī)模的小型語言模型(SLM)無需從更大模型蒸餾,就能在數(shù)學推理能力上媲美甚至超越 OpenAI o1。

圖片

  • 論文標題:rStar-Math: Small LLMs Can Master Math Reasoning with Self-Evolved Deep Thinking
  • 論文鏈接:https://arxiv.org/pdf/2501.04519
  • Github 鏈接:https://github.com/microsoft/rStar(即將開源)

經(jīng)過 4 輪自我進化,吸納了 747k 數(shù)學問題合成的數(shù)百萬數(shù)據(jù),rStar-Math 將 SLM 的數(shù)學推理能力提升到了最先進水平。

例如,在 MATH 基準測試上,它將 Qwen2.5-Math-7B 的成績從 58.8% 提升到了 90.0%,將 Phi3-mini-3.8B 的正確率從 41.4% 提升到了 86.4%,分別超過了 o1-preview 4.5% 和 0.9%。

拉到美國數(shù)學奧林匹克(AIME)的考場上,15 道題,rStar-Math 能夠做對 8 道,在最優(yōu)秀的高中數(shù)學競賽生中也能排到前 20%。

更重要的是,他們只花了 60 塊 A100 就達到了如此效果,項目和代碼即將開源。

AI 投資人 Chetan Puttagunta 銳評:「對創(chuàng)業(yè)公司來說,這將是一個絕佳的機會!」

圖片

當如此強大的推理能力可以用更低的成本實現(xiàn)時,Keras 創(chuàng)始人 Fran?ois Chollet 也感嘆道:「2025 年將是開源 o3 復刻之年。」

圖片

學術圈的人對 rStar-Math 的欣賞,表達起來就直白多了:

圖片

發(fā)布不到 20 個小時,甚至就已經(jīng)有人專門做了一期視頻來深度解讀。

圖片


  • 視頻鏈接:https://www.youtube.com/watch?v=cHgHS6Y3QP0

從技術層面來說,rStar-Math 引入了一種可以自己進化的 System 2 推理方法,通過蒙特卡洛樹搜索(MCTS)來實現(xiàn)「深度思考」能力。在測試階段,它會在獎勵模型的指導下,讓數(shù)學策略模型進行搜索推理。

具體來看,在 MCTS 中,數(shù)學問題求解被分解為多步生成。每一步都將作為策略模型的 SLM 采樣候選節(jié)點。每個節(jié)點生成一步 CoT 和相應的 Python 代碼。為驗證生成質(zhì)量,只保留 Python 代碼執(zhí)行成功的節(jié)點,從而減少中間步驟的錯誤。

此外,大量 MCTS rollout 基于每個中間步驟的貢獻自動分配 Q 值:對正確答案貢獻更多的步驟獲得更高 Q 值,被認為質(zhì)量更高。這確保了 SLM 生成的是正確、高質(zhì)量的推理軌跡。

由于 rStar-Math 的總體架構(gòu)涉及兩個 SLM,一個是數(shù)學策略模型,一個是獎勵模型,該團隊引入了三個關鍵創(chuàng)新:

  1. 創(chuàng)新的代碼增強 CoT 數(shù)據(jù)合成方法,通過大量 MCTS rollout 生成經(jīng)過驗證的逐步推理軌跡,用于訓練策略 SLM;
  2. 過程獎勵模型訓練方法也有所改進,避免了簡單的步級分數(shù)標注,提升了過程偏好模型(PPM)的評估效果;
  3. 模型會自我進化,采用完全自主訓練方案,從零開始構(gòu)建并訓練模型,通過持續(xù)的迭代優(yōu)化來不斷提升推理能力。

方法

該研究的目標是訓練數(shù)學策略 SLM 和過程獎勵模型 (PRM),并將兩者集成到蒙特卡羅樹搜索 (MCTS) 中以實現(xiàn) System 2 深度思考。

選擇 MCTS 有兩個主要原因。

首先,它將復雜的數(shù)學問題分解為更簡單的單步生成任務,與 Best-of-N 或 self-consistency 等其他 System 2 方法相比,MCTS 降低了策略 SLM 的難度。

其次,MCTS 中的逐步生成會自然產(chǎn)生兩個模型的 step-level 訓練數(shù)據(jù)。標準 MCTS rollout 會根據(jù)每個步驟對最終正確答案的貢獻自動為每個步驟分配 Q 值,從而無需人工生成步驟級注釋來進行過程獎勵模型訓練。

理想情況下,GPT-4 等高級 LLM 可以集成到 MCTS 中以生成訓練數(shù)據(jù)。然而,這種方法面臨兩個關鍵挑戰(zhàn)。首先,即使是強大的模型也難以持續(xù)解決難題,例如奧林匹克級別的數(shù)學問題。

因此,生成的訓練數(shù)據(jù)將主要由更簡單的可解決問題組成,限制了其多樣性和質(zhì)量。

其次,注釋每步 Q 值需要廣泛的 MCTS 部署;樹探索(tree exploration)不足可能會導致虛假的 Q 值分配,例如高估次優(yōu)步驟。鑒于每次 rollout 都涉及多個單步生成,并且這些模型的計算成本很高,因此增加 rollout 會顯著提高推理成本。

為此,該研究探索使用兩個 7B SLM(策略 SLM 和 PRM)來生成更高質(zhì)量的訓練數(shù)據(jù),其較小的模型大小允許在可訪問的硬件(例如 4×40GB A100 GPU)上廣泛部署 MCTS。

然而,由于自生成數(shù)據(jù)的能力較弱,SLM 經(jīng)常無法生成正確的解決方案,即使最終答案正確,中間步驟也常常存在缺陷或質(zhì)量較差。此外,與 GPT-4 等高級模型相比,SLM 解決的挑戰(zhàn)性問題較少。

圖片

如圖 1 所示,為了減少錯誤和低質(zhì)量的中間步驟,該研究提出了一種代碼增強的 CoT 合成方法,該方法執(zhí)行廣泛的 MCTS 部署以生成逐步驗證的推理軌跡,用 Q 值注釋。

為了進一步提高 SLM 在挑戰(zhàn)性問題上的性能,該研究提出了四輪自進化方案。在每一輪中,策略 SLM 和獎勵模型都會更新為更強的版本,逐步解決更困難的問題并生成更高質(zhì)量的訓練數(shù)據(jù)。

圖片

最后,該研究提出了一種新穎的流程獎勵模型訓練方法,無需精確的每步獎勵注釋,從而產(chǎn)生更有效的流程偏好模型(PPM)。

實驗評估

該團隊在多個數(shù)學數(shù)據(jù)集上對 rStar-Math 進行了評估,并與多個模型進行了對比。具體設置請參閱原論文,這里我們主要來看研究結(jié)果。

主要結(jié)果

表 5 展示了 rStar-Math 與其它 SOTA 推理模型在不同的數(shù)學基準上的結(jié)果。

圖片

基于這些結(jié)果,該團隊得出了三點觀察:

  1. rStar-Math 顯著提高了小語言模型(SLM)的數(shù)學推理能力,在模型規(guī)模顯著縮小(1.5B-7B)的情況下,其性能可媲美甚至超越 OpenAI o1。
  2. 盡管使用了較小的策略模型(1.5B-7B)和獎勵模型(7B),rStar-Math 的表現(xiàn)仍明顯優(yōu)于最先進的 System 2 基線。
  3. 除了 MATH、GSM8K 和 AIME 等可能存在過度優(yōu)化風險的知名基準之外,rStar-Math 在其他具有挑戰(zhàn)性的數(shù)學基準上表現(xiàn)出很強的通用性,包括 Olympiad Bench、College Math 和 Chinese College Entrance Math Exam(Gaokao),創(chuàng)下了新的最高分。

擴展測試時間計算。rStar-Math 使用了 MCTS 來增強策略模型,在 PPM 的引導下搜索問題的解。通過增加測試時間計算,它可以探索更多軌跡,從而可能實現(xiàn)性能提升。

在圖 3 中,該團隊通過比較官方 Qwen Best-of-N 在四個高難度數(shù)學基準上不同數(shù)量的采樣軌跡的準確度,展示了測試時間計算擴展的影響。

圖片

消融研究和分析

該團隊也進行了消融研究,證明了三項創(chuàng)新的有效性。

自我進化的有效性。表 5 展示了經(jīng)過 4 輪 rStar-Math 自我進化深度思考后得到的結(jié)果??梢钥吹?,表現(xiàn)很不錯。

表 6 給出了每一輪的數(shù)學推理性能,可以明顯看到其準確度在不斷提高。

圖片

表 7 則展示了在不同數(shù)據(jù)集上微調(diào)的 Qwen2.5-Math-7B 的數(shù)學推理準確度。

圖片

該團隊給出了兩項重要觀察:

  • 使用新提出的逐步驗證的軌跡進行微調(diào)明顯優(yōu)于所有其他基線。這主要歸功于用于代碼增強型 CoT 合成的 PPM 增強型 MCTS,它能在數(shù)學解答生成期間提供更密集的驗證。
  • 使用該團隊的小語言模型,即使隨機采樣代碼增強型 CoT 解答,得到的結(jié)果也可媲美或優(yōu)于 GPT-4 合成的 NuminaMath 和 MetaMath 數(shù)據(jù)集。這表明,經(jīng)過幾輪自我進化后,新的策略 SLM 可以生成高質(zhì)量的數(shù)學解答。這些結(jié)果證明新方法在不依賴高級 LLM 蒸餾的情況下,就具備自我生成更高質(zhì)量推理數(shù)據(jù)的巨大潛力。

另外,在最后一輪策略模型的基礎上,該團隊比較了 ORM、PQM 和 PPM 在 System 2 推理上的性能。結(jié)果見表 8。

圖片

可以看到,PQM 和 PPM 都優(yōu)于 ORM,因為它們可提供更密集的步驟級獎勵信號,從而在復雜的數(shù)學推理任務上獲得更高的準確度。然而,由于 Q 值固有的不精確性,PQM 在更難的基準測試(例如 MATH 和 Olympiad Bench)上表現(xiàn)不佳。相比之下,PPM 構(gòu)建了步驟級偏好數(shù)據(jù)進行訓練,使該團隊的 7B 策略模型在所有基準測試中都能夠?qū)崿F(xiàn)與 o1-mini 相當或更優(yōu)的性能。

發(fā)現(xiàn)與討論

模型出現(xiàn)自我反思能力

OpenAI o1 的一個重要突破是它能自省。當它出錯時,o1 能識別錯誤并自我糾正。這在開源 LLM 中一直難以實現(xiàn)。在實驗中,該團隊意外發(fā)現(xiàn) MCTS 驅(qū)動的深度思考展現(xiàn)出了反思能力。如圖 4 所示,模型最初在前三步使用 SymPy 形式化方程會寫出錯誤答案(左分支)。

圖片


在我們的實驗中,我們意外地觀察到我們的 MCTS 驅(qū)動的深度思考在解決問題過程中表現(xiàn)出自反思。如圖 4 所示,模型最初在前三步使用 SymPy 形式化方程,這將導致答案錯誤 (左分支)。

但在第四步,模型就識別出了前幾步的問題(右分支),并主動回溯采用更簡單的方法重新求解,最終得到正確答案。

值得注意的是,這種自反思能力是在沒有專門訓練和提示的情況下自發(fā)產(chǎn)生的,表明高級 System 2 推理可以自然培養(yǎng)出內(nèi)在的自省能力。

PPM 塑造 System 2 深度思考的推理邊界

策略模型和獎勵模型對 System 2 深度推理都至關重要。實驗表明,一旦策略模型達到相當強的能力水平,PPM 就成為決定性能上限的關鍵。

如下圖 5 所示,通過加入 System 2 推理機制,即使是 Phi3.8B 這樣的小模型也能獲得顯著性能提升,在多個數(shù)學基準測試中的準確率提高了約 20-30 個百分點。這表明,獎勵模型(而不是基礎模型的大?。┎攀菦Q定最終性能的關鍵因素。

圖片

更多研究細節(jié),請參閱論文原文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-01-10 11:42:40

2025-05-26 08:52:00

2023-10-13 19:58:33

Mistral7B模型

2024-12-26 16:44:27

2025-07-22 10:22:02

2025-02-27 13:45:00

2025-02-03 14:17:27

2024-09-20 13:30:00

2023-08-28 00:50:14

模型開源

2024-07-17 13:40:01

2024-09-24 11:01:03

2024-07-22 09:00:00

2025-10-24 12:07:12

2025-01-02 13:00:00

2025-02-13 09:10:00

2024-03-25 08:00:00

2025-03-10 01:00:00

2024-11-29 13:57:38

2025-02-25 12:30:00

點贊
收藏

51CTO技術棧公眾號