偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論 原創(chuàng)

發(fā)布于 2025-10-9 07:16
瀏覽
0收藏

Thinking Augmented Pre-Training(TPT,思考增強(qiáng)預(yù)訓(xùn)練)提出源于當(dāng)前 LLM 訓(xùn)練的兩大核心瓶頸,這也是方法設(shè)計(jì)的出發(fā)點(diǎn):

  • 高質(zhì)量數(shù)據(jù)耗盡:LLM 訓(xùn)練依賴海量數(shù)據(jù)(如最新開源模型已用 10 萬億 Token),但人類創(chuàng)作的高質(zhì)量 Web 數(shù)據(jù)已接近枯竭,繼續(xù)擴(kuò)大數(shù)據(jù)規(guī)模成本極高;
  • 高價(jià)值 Token 難學(xué)習(xí):部分關(guān)鍵 Token(如數(shù)學(xué)題答案 “890”、邏輯推理結(jié)論)背后依賴復(fù)雜的多步推理(如多項(xiàng)式除法、余數(shù)定理),固定模型容量下,直接學(xué)習(xí)這類 Token 只能靠 “死記硬背”,無法泛化。簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

思維增強(qiáng)型數(shù)據(jù)樣本:紅色標(biāo)記的 token “890” 既正確又具有價(jià)值,但直接學(xué)習(xí)該信息較為困難。

從上圖例子TPT 的核心邏輯也很直觀:模擬人類學(xué)習(xí)時(shí)的 “思考過程”—— 將原始文本(如 “答案是 890”)與 “推導(dǎo)該答案的專家級思考步驟”(如 “用余數(shù)定理計(jì)算多項(xiàng)式余數(shù)→推導(dǎo) n+10 需整除 900→找到最大除數(shù)”)拼接,形成 “原始文本 + 思考軌跡” 的增強(qiáng)數(shù)據(jù)。

TPT目標(biāo):在不新增原始數(shù)據(jù)的前提下,通過 “數(shù)據(jù)增強(qiáng)” 讓現(xiàn)有數(shù)據(jù)的 “利用率最大化”,同時(shí)降低高價(jià)值 Token 的學(xué)習(xí)難度。

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

在 GSM8k 和 MATH 數(shù)據(jù)集上,模型的平均 few-shot 準(zhǔn)確率得分隨訓(xùn)練 token 總 數(shù)的變化情況。兩個(gè)模型均從零開始進(jìn)行參數(shù)量為 8 B 的預(yù)訓(xùn)練。其中一個(gè)模型采用原始 的下一個(gè) token 預(yù)測目標(biāo),另一個(gè)模型則采用了思維增強(qiáng)型預(yù)訓(xùn)練。

核心是預(yù)訓(xùn)練數(shù)據(jù)增強(qiáng),因此,本文主要看一下數(shù)據(jù)生成策略及一些實(shí)驗(yàn)結(jié)論。

訓(xùn)練數(shù)據(jù)生成-思考軌跡的自動生成概述

這一部分最關(guān)鍵的是prmopt設(shè)計(jì),生成參數(shù)主要平衡 “多樣性” 和 “準(zhǔn)確性”等:

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

提示詞

  • {{CONTEXT}}:替換為原始訓(xùn)練文檔
  • 用 “簡單語言拆解復(fù)雜概念”
  • 過濾瑣碎信息:只保留與核心邏輯相關(guān)的推理步驟

最后,將 “原始文檔” 與 “生成的思考軌跡” 拼接,形成最終訓(xùn)練樣本。

訓(xùn)練目標(biāo)損失函數(shù):

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

其中N是增強(qiáng)樣本x的總 Token 數(shù);

為更清晰理解TPT,需對比其與兩類方法的差異:

方法類別

核心邏輯

算力成本

數(shù)據(jù)效率

適用場景

TPT

生成思考軌跡增強(qiáng)數(shù)據(jù)

低(文檔級)

高(3倍提升)

預(yù)訓(xùn)練/中期訓(xùn)練/SFT全流程

RPT(強(qiáng)化預(yù)訓(xùn)練)

用RL優(yōu)化下一個(gè)Token預(yù)測

高(在線Rollout)

僅預(yù)訓(xùn)練

CoT(思維鏈)

推理時(shí)生成步驟(非訓(xùn)練)

推理時(shí)高

無(不提升訓(xùn)練效率)

僅推理階段

實(shí)驗(yàn)

訓(xùn)練語料: MegaMath-Web-Pro-Max和FineWeb-Edu 模型架構(gòu):LLaMA-3-8B 策略:總訓(xùn)練預(yù)算為 100 B 個(gè) token。兩者唯一的區(qū)別在于:一個(gè)在原始數(shù)據(jù)集上進(jìn)行訓(xùn)練,另一個(gè)在思維增強(qiáng)數(shù)據(jù)集上進(jìn)行訓(xùn)練。

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

預(yù)訓(xùn)練損失曲線和在 5 個(gè)任務(wù)上的綜合得分隨總訓(xùn)練 token 數(shù)(8B 模型)的變化情 況。

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

基礎(chǔ)模型在 5 個(gè)數(shù)據(jù)集上的性能及其平均值

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

監(jiān)督微調(diào)后在 2 B-token 思維混合數(shù)據(jù)集上的表現(xiàn)

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

任務(wù)得分相對于總訓(xùn)練 token 數(shù)(8B 模型)。原始文檔中的 token 數(shù)通過隨機(jī)采樣限制為 10 B。得分如下表

簡單可拓展:思考增強(qiáng)預(yù)訓(xùn)練數(shù)據(jù)生成策略及相關(guān)實(shí)驗(yàn)結(jié)論-AI.x社區(qū)

THINKING AUGMENTED PRE-TRAINING,https://arxiv.org/pdf/2509.20186

本文轉(zhuǎn)載自???大模型自然語言處理??   作者:llmnlp

?著作權(quán)歸作者所有,如需轉(zhuǎn)載,請注明出處,否則將追究法律責(zé)任
收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦