偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

突破單token預測局限!南洋理工首次將多token預測引入微調(diào),編程任務準確率提升11.67%

人工智能 新聞
南洋理工大學最近提出了一項新技術——概念感知微調(diào)(CAFT),首次實現(xiàn)將multi-token prediction(多token預測)引入微調(diào)階段,讓模型能夠像人類一樣理解和學習完整概念。

告別Next-token,現(xiàn)在模型微調(diào)階段就能直接多token預測!

從GPT到Claude,當前主流LLM都依賴next-token prediction(下一token預測)進行訓練,但它卻讓AI很難真正理解跨越多token的完整概念。

于是南洋理工大學最近提出了一項新技術——概念感知微調(diào)(CAFT),首次實現(xiàn)將multi-token prediction(多token預測)引入微調(diào)階段,讓模型能夠像人類一樣理解和學習完整概念。

圖片

原來LLM只能碎片化理解每個token,現(xiàn)在CAFT可以為模型添加額外的輔助頭,在主模型學習下一個詞的同時,幫助學習后續(xù)token,并通過動態(tài)調(diào)整權重,確保模型始終優(yōu)先優(yōu)化主要任務的損失。

最終LLM可以兼顧多token概念學習,形成更為完整的認知,在推理和生成能力增強的同時,既不會影響模型本身,也不會額外增加多余成本。

圖片

另外研究人員通過實驗發(fā)現(xiàn),CAFT在編程、數(shù)學、生物醫(yī)學等多個領域都能顯著提升模型性能,或許未來將會讓AI訓練范式迎來根本性轉變。

下面是有關CAFT的更多詳細內(nèi)容。

Next-token預測:AI的“基因密碼”

首先,next-token prediction的基本思想是在已知上下文的基礎上,預測最有可能的下一個token。

舉個例子,針對句子“人工智能將改變_”,你可能會直接預測出“世界”、“未來”或“社會”,但是next-token prediction的預測流程則分為以下三步:

  1. 分詞:例如將“人工智能”拆分為“人工”和“智能”。
  2. 序列建模:讓模型逐個學習每個token與其前文的關系。
  3. 概率預測:為所有候選token分配概率,并選擇最高者作為輸出。

Next-token將會在預訓練里的大規(guī)模語料上學習語言統(tǒng)計規(guī)律與通識知識,然后在微調(diào)中通過特定任務數(shù)據(jù)學習具體行為模式,決定模型實際表現(xiàn)。

但無論是預訓練還是微調(diào),next-token prediction都只會在每一步中只預測下一個token,再依次進行。

與此同時,這也帶來了一個根本性缺陷,即它將完整概念拆解為碎片,阻礙模型形成整體認知。

例如“ribonucleic acid”(核糖核酸),Llama 3分詞器就會將其拆解為:“rib”→“on”→“ucle”→“ic”→“acid”,當模型預測“rib”時,無法預見“onucleic acid”,因此無法理解這是一個生物學分子概念。

又比如說將“北京大學”拆成“北”、“京”、“大”、“學”分開記憶,這嚴重破壞了語義完整性。

所以next-token prediction存在前瞻能力差、不擅長處理跨概念的復雜推理、學習效率低、結果高度依賴具體分詞器等問題。

圖片

Meta等機構對此提出可以在預訓練階段嘗試multi-token prediction,但同樣也面臨以下限制:

  1. 預訓練成本過大,是微調(diào)階段的上千倍。
  2. 僅能提升通用語言能力,對具體概念理解幫助有限。
  3. 直接應用于微調(diào)時會造成分布偏移,從而導致性能下降。

這讓multi-token prediction只適用于預訓練階段,難以普及,所以研究團隊提出了新技術CAFT,將multi-token prediction引入微調(diào)。

CAFT:打破瓶頸的概念感知微調(diào)方法

CAFT在架構上主要包括輔助頭損失函數(shù)兩部分,輔助頭含獨立隱藏層,且共享輸出層,以降低參數(shù)成本,損失函數(shù)為:

圖片

其中L?指原始next-token損失,β是控制輔助損失的權重(設為0.01,確保主任務優(yōu)先),γ是反射正弦動態(tài)調(diào)整因子,訓練初期高,后期低,α是幾何衰減因子,越遠的token權重越小,t指token位置。

在微調(diào)結束后,還可以直接丟棄輔助頭,讓推理開銷為零。

圖片

CAFT采取分階段訓練策略,可分為兩個階段:

  • 輔助頭預訓練

在原模型上添加n-1個輔助預測頭,然后使用通用指令數(shù)據(jù)集訓練輔助頭,分別預測第2、3、4…個未來token。

其中需要使用原模型自己生成的回答作為“偽標簽”,避免分布偏移,且輔助頭訓練一次即可,多任務可通用復用。

  • 概念感知微調(diào)

在特定任務上同時優(yōu)化原始預測頭和輔助頭,然后用特殊設計的損失函數(shù)確保主目標仍是第一個token。

利用動態(tài)權重調(diào)整策略,訓練初期關注多token概念學習,后期聚焦任務表現(xiàn)。

圖片

最終CAFT可實現(xiàn)極低的使用門檻,只需要幾行代碼,就能結合任意預訓練模型,在成本上遠低于重新預訓練,只略高于傳統(tǒng)微調(diào)。

CAFT的全面驗證:從代碼到生命科學

研究團隊在五個不同領域任務上測試了CAFT,將其與傳統(tǒng)的next-token微調(diào)(包括全量微調(diào)與LoRA微調(diào))進行對比。

所有結果均為5次獨立評估的平均值及95%置信區(qū)間,部分任務在微調(diào)前會對輔助頭進行1個epoch的預訓練。

圖片

編程任務中,由于存在大量跨token的語義單元,例如Python中的“_name_”會被分為“_”、“name”、“_”三個token,但需整體理解,所以借助HumanEval數(shù)據(jù)集,判斷CAFT能否讓模型能夠整體理解這類編程概念。

圖片

實驗結果表明,LoRA CAFT在準確率上從40.9%提升至45.1%,F(xiàn)ull CAFT則從40.5%提升到49.3%。

圖片

然后將題目按概念密度分類,發(fā)現(xiàn)CAFT在高概念密集題目上提升更顯著(+11.67%vs+7.59%),證實了概念學習的有效性。

數(shù)學推理上,LoRA CAFT在MATH-500數(shù)據(jù)集里性能提升了1.7%(22.9%到24.6%),F(xiàn)ull CAFT則是1.5%(23.7%到25.2%)。

圖片

而當CAFT置于臨床文本中,由于醫(yī)學文本充滿復雜專業(yè)術語,被拆分后往往失去意義,此時讓CAFT完成醫(yī)學術語整體理解極具挑戰(zhàn)性。

但CAFT仍然在MIMIC-IV-BHC數(shù)據(jù)集上表現(xiàn)良好,在ROUGE等指標上全面優(yōu)于傳統(tǒng)方法,其中ROUGE-1從44.57提高到45.93,ROUGE-2從22.94提高到24.44,ROUGE-L從32.17提高到33.76,說明其能更好地捕捉長文本中的概念。

圖片

官能團結構理解上,由于化學分子包含功能性“官能團”,如苯環(huán)、酰胺基團等,而SMILES序列中的官能團是典型的多token概念,傳統(tǒng)方法很難整體學習。

CAFT可以很好地彌補這一點,準確匹配率從原來的0.14%,提升了4倍,到0.54%,有效分子比例從92.38%改進到97.14%,結構相似性也得到了顯著改善。

圖片

進一步進行官能團學習驗證,發(fā)現(xiàn)苯環(huán)識別中F1分數(shù)大幅提升、酰胺識別中準確率和召回率雙重改善、羧酸識別中復雜分子的識別能力增強。

圖片

另外為考驗CAFT泛化能力,讓CAFT根據(jù)功能設計蛋白質序列,由于蛋白質使用氨基酸編碼,與自然語言差異極大,測試環(huán)境相當極限。

實驗結果顯示,序列同一性從20.32%提升到22.14%,序列對比分數(shù)也從原來的負值(-16.01)提升到正值(3.18),結構置信度從52.60變?yōu)?4.30,結構相似性從33.07%變?yōu)?5.12%。

圖片

其中,25.0%的生成序列具有高結構置信度(>70),比傳統(tǒng)方法的20.0%有了顯著提升。

最終,研究團隊通過在廣泛領域中實驗,驗證了CAFT實現(xiàn)multi-token prediction在微調(diào)階段的可行性,其易用性和低成本也展示了其可能替代現(xiàn)有next-token prediction的巨大潛力,為理解模型內(nèi)部機制提供了新視角。

論文鏈接:https://www.arxiv.org/abs/2506.07833

項目鏈接: https://github.com/michaelchen-lab/caft-llm

責任編輯:張燕妮 來源: 量子位
相關推薦

2014-12-31 13:17:18

百度預測開放平臺

2024-04-15 11:48:09

2023-10-28 13:36:48

模型ChatGPT

2025-03-11 08:50:00

2019-01-29 10:27:27

量子計算機芯片超算

2021-10-11 17:27:50

框架計算機開發(fā)

2023-03-03 18:31:23

網(wǎng)絡承運商路由

2024-09-29 16:00:26

2017-05-08 09:36:50

人工智能法官法院

2022-08-23 13:50:49

人工智能模型

2017-04-18 12:27:16

人工智能心臟病機器學習

2024-11-05 09:41:27

2018-12-21 16:30:48

數(shù)據(jù)

2022-04-13 10:31:04

微軟Jigsaw大型語言模型

2022-10-10 12:14:53

量子深度學習

2021-05-07 09:03:27

算法模型技術

2025-04-03 11:16:10

2024-12-23 07:15:00

多模態(tài)大模型MLLM人工智能

2025-09-23 12:42:14

2025-05-19 08:30:00

點贊
收藏

51CTO技術棧公眾號