偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

o1推理框架最新成果:斯坦福&伯克利提出元鏈?zhǔn)剿季S,升級(jí)模型推理能力

人工智能 新聞
在最新的一篇長(zhǎng)達(dá)100頁(yè)的論文中,他們將o1模型背后的推理機(jī)制提煉成了一個(gè)通用的框架——元鏈?zhǔn)剿季S(Meta-CoT)。

o1背后的推理原理,斯坦福和伯克利幫我們總結(jié)好了!

在最新的一篇長(zhǎng)達(dá)100頁(yè)的論文中,他們將o1模型背后的推理機(jī)制提煉成了一個(gè)通用的框架——元鏈?zhǔn)剿季S(Meta-CoT)。

圖片

這個(gè)元鏈?zhǔn)剿季S(Meta-CoT)到底是什么意思呢?

簡(jiǎn)單來(lái)說(shuō),它可以讓模型在推理過(guò)程中反思推理任務(wù)——

這樣不僅能得出結(jié)論,它還可以幫助我們找到更多新的研究思路和方法。

比如在經(jīng)典的24點(diǎn)問(wèn)題中,傳統(tǒng)的CoT雖然也能得出正確的結(jié)論,但是Meta-CoT在推理過(guò)程中不止會(huì)關(guān)注輸入的問(wèn)題,而是在推理過(guò)程中思考更多的子問(wèn)題并進(jìn)行嘗試

圖片

這也是o1模型可以在HARP等數(shù)學(xué)基準(zhǔn)中大幅領(lǐng)先的原因:

圖片

SynthLabs公司的CEO Nathan Lile還自信地表示:

元鏈?zhǔn)剿季S(Meta-CoT)是通往超級(jí)智能(Superintelligence)的正確道路。下一波人工智能就是元鏈?zhǔn)剿季S(Meta-CoT)循環(huán)。

圖片

元鏈?zhǔn)剿季S(Meta-CoT)框架

為什么傳統(tǒng)CoT不管用了

在提出新框架之前,我們先要理解一個(gè)問(wèn)題:為什么傳統(tǒng)模型經(jīng)常在高級(jí)推理任務(wù)中“卡殼”。

其實(shí)啊,主要原因在于大語(yǔ)言模型的預(yù)訓(xùn)練和指令調(diào)整語(yǔ)料庫(kù)數(shù)據(jù)中,不包含真實(shí)數(shù)據(jù)生成過(guò)程。

以數(shù)學(xué)問(wèn)題為例,網(wǎng)上和教科書(shū)中雖有會(huì)有解答,但對(duì)于錯(cuò)誤的論證方法為何失效,卻很少有相關(guān)的資料,

如此一來(lái),在遇到復(fù)雜推理問(wèn)題時(shí),被中間環(huán)節(jié)困住的模型就很難調(diào)整到正確的思考方向。

而在全新的高中奧數(shù)水平數(shù)學(xué)基準(zhǔn)測(cè)試中,OpenAI的o1模型系列表現(xiàn)出眾,不僅遠(yuǎn)超以往的模型,而且問(wèn)題越難優(yōu)勢(shì)越明顯。

圖片

從生成tokens數(shù)量看,其他大語(yǔ)言模型生成的解決方案長(zhǎng)度與人類(lèi)相近,這也就是說(shuō)明,它們只是在搜索匹配訓(xùn)練數(shù)據(jù)。

而o1模型在簡(jiǎn)單問(wèn)題上生成的tokens數(shù)與人類(lèi)相當(dāng),在高難度問(wèn)題上,生成tokens數(shù)則大幅增加,與傳統(tǒng)模型拉開(kāi)差距。

這表明o1模型的CoT覆蓋范圍更廣,能更好地接近真實(shí)數(shù)據(jù)生成過(guò)程。

圖片

Meta-CoT的主要思想

我們先來(lái)看一道2011年國(guó)際數(shù)學(xué)奧林匹克競(jìng)賽的 “風(fēng)車(chē)問(wèn)題”:

平面上有至少兩個(gè)點(diǎn)的有限集合,假設(shè)任意三點(diǎn)不共線(xiàn),從過(guò)其中一點(diǎn)的直線(xiàn)開(kāi)始,讓直線(xiàn)繞該點(diǎn)順時(shí)針旋轉(zhuǎn),碰到集合中另一點(diǎn)時(shí),新點(diǎn)成為旋轉(zhuǎn)軸繼續(xù)旋轉(zhuǎn),此過(guò)程無(wú)限持續(xù)。能否選一個(gè)點(diǎn)和過(guò)該點(diǎn)的直線(xiàn),讓集合中每個(gè)點(diǎn)都無(wú)限次成為旋轉(zhuǎn)軸呢?

圖片

官方給出的解答如下:

圖片
圖片

這道題的解答雖然很簡(jiǎn)短,不依賴(lài)先驗(yàn)知識(shí),但卻是競(jìng)賽中最難的題之一,600 多名參賽者中只有少數(shù)人答對(duì)。

主要難點(diǎn)在于,它的解答過(guò)程不是線(xiàn)性的。很多人會(huì)選擇用凸包構(gòu)造或哈密頓圖論方法,最終都會(huì)失敗。

而答對(duì)的人主要是依靠大量幾何探索和歸納推理,才最終找到了答案。

也就是說(shuō),這個(gè)解答過(guò)程不是從左到右按部就班生成的。

從潛在變量過(guò)程角度看,經(jīng)典思維鏈?zhǔn)菍?duì)潛在推理鏈進(jìn)行邊緣化,得出最終答案的概率。

但對(duì)于復(fù)雜問(wèn)題,真實(shí)解答生成過(guò)程應(yīng)該是解答的聯(lián)合概率分布,取決于潛在生成過(guò)程。

這就是團(tuán)隊(duì)所說(shuō)的元思維鏈(Meta - CoT)過(guò)程,使用這個(gè)思路,就可以大大提升大語(yǔ)言模型在復(fù)雜問(wèn)題上的推理能力。

內(nèi)部化搜索過(guò)程

Meta-CoT的一個(gè)重要步驟是,在面對(duì)高級(jí)推理問(wèn)題時(shí),大語(yǔ)言模型會(huì)努力提高搜索的效率

以前模型通常會(huì)使用Best-of-N方法,也就是獨(dú)立生成多個(gè)完整答案,然后挑出最好的,但這個(gè)方法比較耗時(shí)。

在Meta-CoT中,研究人員把推理過(guò)程想象成一個(gè)“步步走”的游戲,也就是馬爾可夫決策過(guò)程(MDP)。

圖片

在這個(gè)過(guò)程里,他們還引入一個(gè)過(guò)程獎(jiǎng)勵(lì)模型(PRM),它可以用來(lái)評(píng)估中間步驟能能否得出正確答案。

如果發(fā)現(xiàn)某個(gè)解答方向沒(méi)希望,模型就會(huì)盡快停下,回到可能成功的中間狀態(tài),重新尋找解決方案。

這種樹(shù)搜索方法在簡(jiǎn)單推理任務(wù)里已經(jīng)顯出明顯的優(yōu)勢(shì),在實(shí)際應(yīng)用中也有成功案例。

論文的主要作者之一Rafael Rafailov是斯坦福畢業(yè)的博士,也參加過(guò)很多數(shù)學(xué)競(jìng)賽,他表示這個(gè)新的搜索過(guò)程和他自己解答題目時(shí)的狀態(tài)也是一樣的:

評(píng)估解決方案的潛在方法、修剪沒(méi)有取得進(jìn)展的方向、探索其他可能的分支主張、嘗試根據(jù)直覺(jué)構(gòu)建通往最終目標(biāo)的路徑

圖片

合成元鏈?zhǔn)剿季S

另外一個(gè)挑戰(zhàn)在于,大模型通常會(huì)使用強(qiáng)化學(xué)習(xí)方法從過(guò)去經(jīng)驗(yàn)里學(xué)習(xí)好的推理策略,但當(dāng)遇到新領(lǐng)域的推理問(wèn)題時(shí),用傳統(tǒng)RL訓(xùn)練出來(lái)的策略就不太好用了。

為了提高大模型解決不熟悉領(lǐng)域問(wèn)題的能力,研究人員嘗試在Meta-CoT中讓大模型把推理過(guò)程當(dāng)成一場(chǎng)“冒險(xiǎn)游戲”,也就是部分可觀測(cè)馬爾可夫決策過(guò)程(POMDP),非常適合用來(lái)升級(jí)模型。

在這個(gè)過(guò)程中,模型可以根據(jù)不同情況調(diào)整策略。

以下圖中的迷宮游戲?yàn)槔P鸵婚_(kāi)始可以隨意行走,但慢慢地,通過(guò)將不同的頂點(diǎn)加入到路徑數(shù)據(jù)集或刪除數(shù)據(jù)集中,就會(huì)逐漸找到正確的方向。

圖片

而且,通過(guò)過(guò)程監(jiān)督,模型能及時(shí)得到反饋,知道自己是否走在正確的解答道路上。

圖片

研究人員還發(fā)現(xiàn),讓模型主動(dòng)探索不同的推理路徑,能大大提升它的表現(xiàn)。在實(shí)驗(yàn)里,模型會(huì)努力嘗試各種方法,結(jié)果在解決復(fù)雜問(wèn)題時(shí),答對(duì)的概率也提高了很多。

論文還探討了通過(guò)搜索算法(如下圖中的蒙特卡羅樹(shù)搜索(MCTS)和A*搜索)生成合成訓(xùn)練數(shù)據(jù)的更多方法,這些方法可以幫助模型在上下文中學(xué)習(xí)并執(zhí)行復(fù)雜的搜索策略。

圖片

圖片

使用新框架的LLM表現(xiàn)全面提升

那么相比原始的CoT,使用Meta-CoT新框架的LLM性能到底變強(qiáng)了多少呢?下面一起來(lái)看看論文中的實(shí)驗(yàn)部分。

實(shí)驗(yàn)設(shè)計(jì)

數(shù)據(jù)收集方面,本論文主要使用了多個(gè)數(shù)學(xué)問(wèn)題數(shù)據(jù)集,包括HARP、NuminaMath、Omni-MATH和OpenMathInstruct-2。通過(guò)對(duì)這些數(shù)據(jù)集進(jìn)行過(guò)濾和處理,生成了適合訓(xùn)練的合成數(shù)據(jù)。

實(shí)驗(yàn)中的模型包括當(dāng)前主流的多個(gè)LLM,包括Llama 3.1 8B、70B和GPT-4o等。

實(shí)驗(yàn)設(shè)計(jì)包括指令調(diào)優(yōu)和強(qiáng)化學(xué)習(xí)后訓(xùn)練兩個(gè)階段。指令調(diào)優(yōu)階段使用線(xiàn)性化的搜索軌跡進(jìn)行訓(xùn)練,強(qiáng)化學(xué)習(xí)后訓(xùn)練階段使用E-RL2目標(biāo)進(jìn)行訓(xùn)練。

在指令調(diào)優(yōu)階段,團(tuán)隊(duì)使用了多種優(yōu)化目標(biāo),包括標(biāo)準(zhǔn)過(guò)程克隆方法和元鏈?zhǔn)剿季S優(yōu)化目標(biāo)。

在強(qiáng)化學(xué)習(xí)后訓(xùn)練階段,他們使用了不同的折扣率和優(yōu)化算法,如PPO和REINFORCE。

結(jié)果與分析

小規(guī)模的實(shí)驗(yàn)結(jié)果:在小規(guī)模實(shí)驗(yàn)中,使用MCTS和A*搜索算法生成的合成數(shù)據(jù)顯著提高了模型在復(fù)雜數(shù)學(xué)問(wèn)題上的表現(xiàn)。

圖片

上下文探索的實(shí)驗(yàn)結(jié)果:在上下文探索實(shí)驗(yàn)中,模型在數(shù)學(xué)問(wèn)題上的表現(xiàn)隨著上下文探索序列長(zhǎng)度的增加而提高。然而,過(guò)長(zhǎng)的序列長(zhǎng)度也會(huì)導(dǎo)致性能下降,這也提醒我們需要在探索和推理之間找到平衡。

圖片

回溯實(shí)驗(yàn)結(jié)果:在回溯實(shí)驗(yàn)中,o1、DeepSeek-R1、Gemini 2.0 Flash Thinking等模型在解答數(shù)學(xué)題的過(guò)程中,在復(fù)雜數(shù)學(xué)問(wèn)題上的表現(xiàn)都隨著回溯次數(shù)的增加而提高。這表明回溯是一種有效的錯(cuò)誤糾正機(jī)制。

圖片

綜合實(shí)驗(yàn)結(jié)果:綜合實(shí)驗(yàn)結(jié)果表明,使用元鏈?zhǔn)剿季S框架可以顯著提高LLMs在復(fù)雜推理任務(wù)上的表現(xiàn)。例如,使用 E-RL2 目標(biāo)訓(xùn)練的模型在HARP數(shù)學(xué)基準(zhǔn)測(cè)試中的表現(xiàn)比基線(xiàn)模型提高了約25%。

圖片

團(tuán)隊(duì)還在規(guī)劃更多數(shù)學(xué)研究

論文提出的通過(guò)自教推力器、A*算法等方法進(jìn)行合成的元鏈?zhǔn)剿季S(Meta-CoT)的框架,通過(guò)顯式建模推理過(guò)程和搜索過(guò)程,使得LLMs在各項(xiàng)常見(jiàn)的實(shí)驗(yàn)任務(wù)中進(jìn)行復(fù)雜推理的表現(xiàn)都有所提升。

團(tuán)隊(duì)成員也表示,未來(lái)會(huì)進(jìn)一步驗(yàn)證所提出方法效率的必要性,開(kāi)發(fā)出更有效的過(guò)程監(jiān)督和驗(yàn)證技術(shù)。

此外,針對(duì)當(dāng)前LLM普遍在數(shù)學(xué)問(wèn)題等邏輯性較強(qiáng)的任務(wù)上表現(xiàn)不佳的現(xiàn)象,他們還正在構(gòu)建大數(shù)學(xué)(Big Math) 項(xiàng)目。

這個(gè)項(xiàng)目的目標(biāo)是聚合超過(guò)50萬(wàn)個(gè)高質(zhì)量、可驗(yàn)證的數(shù)學(xué)問(wèn)題,并最終完全開(kāi)源!

圖片

對(duì)相關(guān)項(xiàng)目感興趣的朋友們可以點(diǎn)擊下面的鏈接了解更多內(nèi)容~

責(zé)任編輯:張燕妮 來(lái)源: 量子位
相關(guān)推薦

2024-06-11 08:25:00

2025-04-30 09:09:00

2023-04-04 13:17:00

GPUCMU開(kāi)源

2025-02-14 09:20:00

模型數(shù)據(jù)訓(xùn)練

2024-09-24 11:01:03

2025-04-23 09:10:00

AI系統(tǒng)模型

2023-01-13 13:29:33

量子研究

2023-11-15 13:40:00

訓(xùn)練數(shù)據(jù)

2023-12-25 09:23:07

模型技術(shù)

2025-04-18 08:42:52

模型推理AI

2025-03-12 10:38:05

2023-03-31 13:55:00

模型智能

2024-09-23 14:46:27

2018-10-09 14:00:41

SQL深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)

2024-11-15 13:42:25

2023-07-20 12:16:31

GPT-4AI

2025-01-13 00:00:00

訓(xùn)練數(shù)據(jù)模型

2023-09-27 12:56:56

AI模型

2025-01-27 12:03:11

2024-11-07 15:40:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)