斯坦福新論文:微調(diào)已死,自主上下文當(dāng)立
是時(shí)候?yàn)閭鹘y(tǒng)微調(diào)獻(xiàn)上挽歌了。
一項(xiàng)全新研究,剛剛又給微調(diào)致命一擊。
來自斯坦福大學(xué)、SambaNova Systems公司和加州大學(xué)伯克利分校的研究人員,在新論文中證明:
依靠上下文工程,無需調(diào)整任何權(quán)重,模型也能不斷變聰明。

他們提出的方法名為智能體上下文工程ACE。
ACE不依賴模型重新訓(xùn)練,而是讓上下文自主進(jìn)化,通過反復(fù)生成、反思并編輯自己的提示,直至成為一個(gè)自我完善的系統(tǒng)。
在智能體和特定領(lǐng)域的基準(zhǔn)測試中,ACE能同時(shí)優(yōu)化離線上下文(如system prompt)和在線上下文(如agent memory),并穩(wěn)定優(yōu)于強(qiáng)力基線模型。

下面具體來看。
ACE框架
現(xiàn)在很多AI應(yīng)用(比如自動處理財(cái)務(wù)數(shù)據(jù)的工具、能調(diào)用APP的智能助手)都靠 “上下文適配” 來提升能力。
簡單來說,就是不給模型改底層參數(shù),而是在輸入里加指令、策略或證據(jù),但老方法有兩個(gè)大問題:
簡潔偏置
為了讓輸入簡短,把關(guān)鍵細(xì)節(jié)丟了。比如只說 “處理財(cái)務(wù)數(shù)據(jù)”,卻沒說 “要按XBRL格式核對數(shù)值”,導(dǎo)致模型犯錯(cuò)。
上下文崩潰
反復(fù)修改輸入時(shí),模型會把之前積累的有用信息越改越短、越改越?jīng)]用。比如原本有1.8萬個(gè)token的實(shí)用策略,準(zhǔn)確率為66.7,改一次就剩122個(gè)token,效果卻下降到57.1。

ACE就是為了解決這兩個(gè)問題來的,與將知識壓縮為簡短摘要或靜態(tài)指令的方法不同,它將上下文視為不斷演化的操作手冊,能夠隨時(shí)間不斷累積、優(yōu)化并組織策略。
基于Dynamic Cheatsheet的智能體設(shè)計(jì),ACE把模型的 “上下文優(yōu)化” 拆成分工明確的三個(gè)角色。
- 生成器(Generator):負(fù)責(zé)生成推理軌跡;
- 反思器(Reflector):負(fù)責(zé)從成功和錯(cuò)誤中提煉具體見解;
- 整理器(Curator):負(fù)責(zé)將這些見解整合到結(jié)構(gòu)化的上下文更新中。

如上圖所示,工作流程首先由生成器針對新查詢生成推理軌跡,這些軌跡既能呈現(xiàn)有效策略,也會暴露常見錯(cuò)誤。
隨后,反思器對這些軌跡進(jìn)行評析,從中提煉出經(jīng)驗(yàn)教訓(xùn),并可選擇通過多輪迭代加以優(yōu)化。
接著,整理器將這些經(jīng)驗(yàn)合成為簡潔的增量條目,再經(jīng)由輕量級的非LLM邏輯,以確定性的方式將其合并至現(xiàn)有上下文中。
由于更新內(nèi)容被逐項(xiàng)分解并局部化,多個(gè)增量得以并行合并,從而實(shí)現(xiàn)大規(guī)模的批量適應(yīng)。
此外,ACE還支持多輪次適應(yīng)機(jī)制,即對同一組查詢進(jìn)行反復(fù)學(xué)習(xí),逐步強(qiáng)化上下文質(zhì)量。
ACE在兩大場景中全面超越基線
實(shí)驗(yàn)結(jié)果表明,在智能體和財(cái)務(wù)分析兩大場景中,ACE穩(wěn)定優(yōu)于Base LLM(無適配)、ICL(少樣本演示)、GEPA(主流prompt優(yōu)化)、Dynamic Cheatsheet(動態(tài)備忘單)等方法。
在智能體測試中,研究團(tuán)隊(duì)采用的是AppWorld,它是一套自主智能體任務(wù)集合,涵蓋API理解、代碼生成和環(huán)境交互。
結(jié)果顯示,ReAct+ACE相比ReAct+ICL和ReAct+GEPA分別領(lǐng)先12.3%和11.9%,優(yōu)勢顯著。這表明,與固定的演示示例或單一優(yōu)化指令提示相比,結(jié)構(gòu)化、可演進(jìn)且精細(xì)化的上下文能夠更有效地促進(jìn)智能體學(xué)習(xí)。
這一優(yōu)勢在在線場景中同樣得以延續(xù):ACE平均以7.6%的性能提升領(lǐng)先于Dynamic Cheatsheet等現(xiàn)有自適應(yīng)方法。

在財(cái)務(wù)分析中,研究者選用FiNER和Formula來測評模型的金融推理能力,其任務(wù)依賴可擴(kuò)展商業(yè)報(bào)告語言(XBRL)。
- FiNER要求對XBRL財(cái)務(wù)文檔中的token進(jìn)行標(biāo)注,將其歸類為139種細(xì)粒度實(shí)體類型之一,這是在受監(jiān)管領(lǐng)域進(jìn)行金融信息抽取的關(guān)鍵步驟。
- Formula則側(cè)重于從結(jié)構(gòu)化XBRL報(bào)告中提取數(shù)值,并通過計(jì)算回答金融查詢,即進(jìn)行數(shù)值推理任務(wù)。
在離線環(huán)境下,當(dāng)模型獲得訓(xùn)練集中的真實(shí)答案作為輸入時(shí),ACE以平均10.9%的優(yōu)勢明顯超越了ICL、MIPROv2和GEPA。

此外,ACE在降低自適應(yīng)成本(如嘗試次數(shù)和token輸入/生成的費(fèi)用)與延遲方面展現(xiàn)出顯著優(yōu)勢。
具體而言,在AppWorld的離線自適應(yīng)任務(wù)中,與GEPA相比,ACE將自適應(yīng)延遲降低了82.3%,并將嘗試次數(shù)減少了75.1%。
在FiNER的在線自適應(yīng)場景中,與DC相比,ACE實(shí)現(xiàn)了91.5%的自適應(yīng)延遲降低,并在token輸入與生成的相關(guān)費(fèi)用上節(jié)省了83.6%。

華人出品
這項(xiàng)研究的兩位一作都是華人。

Qizheng Zhang,斯坦福大學(xué)計(jì)算機(jī)科學(xué)系四年級博士生。此前在芝加哥大學(xué)獲得了數(shù)學(xué)、計(jì)算機(jī)科學(xué)和統(tǒng)計(jì)學(xué)三個(gè)專業(yè)的學(xué)士學(xué)位。
本科期間,他就與Junchen Jiang和Ravi Netravali兩位教授合作開展計(jì)算機(jī)網(wǎng)絡(luò)研究,專注于面向視頻流與分析的網(wǎng)絡(luò)系統(tǒng)設(shè)計(jì)。
此外,他還在美國阿貢國家實(shí)驗(yàn)室數(shù)學(xué)與計(jì)算機(jī)科學(xué)部(MCS)和微軟研究院實(shí)習(xí)過。

Changran Hu,本科畢業(yè)于清華大學(xué),碩士畢業(yè)于加州大學(xué)伯克利分校。
20歲時(shí),他就成為了一家AI音樂生成公司DeepMusic的聯(lián)合創(chuàng)始人,成功獲得來自中國頂級企業(yè)的1000萬美元投資,并與多位中國流行歌手(如周杰倫、李?。┙⒑献?。
隨后,他以應(yīng)用科學(xué)家實(shí)習(xí)生的身份加入微軟,并于2021年成為Sambanova Systems研究工程師,隨后晉升為技術(shù)主管兼經(jīng)理,主要負(fù)責(zé)模型后訓(xùn)練與智能體AI相關(guān)研發(fā)工作。
































