偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

AdaptiVocab:使用輕量級框架自適應(yīng)降低LLM Token數(shù)!

發(fā)布于 2025-5-21 07:34
瀏覽
0收藏

一種叫做AdaptiVocab方法,通過詞匯表適配,在垂直領(lǐng)域顯著提升LLM效率,且不損失生成質(zhì)量與知識能力。其輕量級特性為實(shí)際部署提供了可行方案,尤其在資源受限場景下具有重要應(yīng)用價(jià)值。

AdaptiVocab:使用輕量級框架自適應(yīng)降低LLM Token數(shù)!-AI.x社區(qū)

1. 研究背景與動機(jī)

  • 問題提出:大型語言模型(LLM)在通用領(lǐng)域表現(xiàn)出色,但計(jì)算成本高,尤其在自回歸解碼中每一步都需要前向傳播。
  • 領(lǐng)域特定需求:在專業(yè)領(lǐng)域(如地球科學(xué)、物理史),通用詞匯冗余,導(dǎo)致效率低下。傳統(tǒng)領(lǐng)域適應(yīng)方法關(guān)注性能而非效率。
  • 核心思路:通過調(diào)整詞匯表(Vocabulary Adaptation),用領(lǐng)域相關(guān)的n-gram替換通用token,減少輸入和生成的token數(shù)量,從而提升效率。

2. 方法:AdaptiVocab框架

AdaptiVocab:使用輕量級框架自適應(yīng)降低LLM Token數(shù)!-AI.x社區(qū)

2.1 詞匯修改(Vocabulary Modification)

  • 目標(biāo):用領(lǐng)域高頻n-gram替換低效token。
  • 算法流程

候選n-gram生成:從領(lǐng)域語料中提取n-gram(n≤5)。

節(jié)省分?jǐn)?shù)計(jì)算:基于頻率和覆蓋范圍迭代選擇能最大減少token的n-gram。

替換策略:逐步替換原詞匯表中低頻token,避免冗余(如覆蓋重疊的n-gram)。

  • 示例:在物理史領(lǐng)域,將“electrodynamics”合并為一個(gè)token,減少分段。

2.2 Tokenization修補(bǔ)算法

  • 步驟

原tokenizer處理:先用原tokenizer分詞。

分解被替換token:將被移除的token遞歸拆分為子token。

最長匹配合并:按最長優(yōu)先原則將子token合并為新的n-gram token。

  • 優(yōu)勢:兼容任何tokenizer(如BPE),無需重新訓(xùn)練分詞器。

2.3 嵌入初始化(Exponential Initialization)

  • 輸入嵌入:指數(shù)加權(quán)(末詞權(quán)重更高),因自回歸生成中后續(xù)處理依賴末詞。
  • 輸出嵌入:指數(shù)衰減(首詞權(quán)重更高),因生成時(shí)需優(yōu)先預(yù)測完整n-gram。
  • 公式

AdaptiVocab:使用輕量級框架自適應(yīng)降低LLM Token數(shù)!-AI.x社區(qū)

其中,輸入用正號,輸出用負(fù)號。

2.4 輕量微調(diào)(Lightweight Fine-Tuning)

  • 參數(shù)選擇:僅微調(diào)輸入/輸出嵌入層及首尾Transformer層,減少計(jì)算開銷。
  • 訓(xùn)練成本:單GPU(RTX A6000)4小時(shí)完成,成本低廉。

3. 實(shí)驗(yàn)與結(jié)果

3.1 數(shù)據(jù)集與模型

  • 數(shù)據(jù)集:M2D2中的地球科學(xué)(8.3M tokens)、物理史(8.3M tokens)、游戲與玩具(2.9M tokens)。
  • 模型:Mistral-7B-v0.3和Llama-2-7B。

3.2 評估維度

  • 效率:輸入/輸出token減少量。
  • 生成質(zhì)量:LLM-as-Judge(Gemini-1.5-Pro)評分(邏輯、連貫性、語言可接受性)。
  • 人工評估:9名標(biāo)注者對比生成結(jié)果。
  • 領(lǐng)域問答:構(gòu)建開放書多選數(shù)據(jù)集(900題),評估知識保留。

3.3 主要結(jié)果

  • 效率提升:平均減少25%的token使用(輸入22.9-27.9%,輸出24.9-35.8%)。
  • 生成質(zhì)量:輕量微調(diào)后與原始模型相當(dāng)(如Mistral在物理史領(lǐng)域評分3.16 vs. 3.15)。
  • 問答性能:AdaptiVocab+FT與Vanilla+FT準(zhǔn)確率相近(62% vs. 64%),驗(yàn)證知識保留。

消融實(shí)驗(yàn)

在n-gram長度測試中,n=3的詞匯片段替換效率最優(yōu),長n-gram因出現(xiàn)頻率低導(dǎo)致增益受限;嵌入初始化方法中,指數(shù)加權(quán)策略(邏輯評分2.95)顯著優(yōu)于均值初始化(2.73)和隨機(jī)初始化,驗(yàn)證了其基于生成任務(wù)特性的權(quán)重設(shè)計(jì)合理性;微調(diào)策略對比顯示,僅調(diào)整輸入輸出嵌入層及首尾Transformer層的輕量微調(diào)效果最佳,而LoRA適配器因參數(shù)適配位置偏差表現(xiàn)較差(準(zhǔn)確率下降約5%)。

AdaptiVocab:使用輕量級框架自適應(yīng)降低LLM Token數(shù)!-AI.x社區(qū)

貢獻(xiàn)與創(chuàng)新

方法層面提出首個(gè)覆蓋詞匯修改、嵌入初始化與輕量微調(diào)的端到端詞匯適配框架,解決了傳統(tǒng)領(lǐng)域適應(yīng)方法忽視效率的問題;實(shí)踐層面通過單GPU低成本適配(4小時(shí)訓(xùn)練)降低部署門檻,適用于低資源場景;數(shù)據(jù)層面公開構(gòu)建的地球科學(xué)、物理史、游戲與玩具領(lǐng)域問答數(shù)據(jù)集(900題)填補(bǔ)了領(lǐng)域評測空白。

局限與未來方向

模型規(guī)模受限,僅驗(yàn)證7B參數(shù)模型(如Mistral、Llama-2-7B),未探索更大模型(如70B)的適配規(guī)律;領(lǐng)域泛化能力待驗(yàn)證,當(dāng)前實(shí)驗(yàn)局限于單一領(lǐng)域,跨領(lǐng)域遷移需進(jìn)一步測試;技術(shù)融合潛力未充分挖掘,未來可與模型剪枝(減少參數(shù)量)、知識蒸餾(提升推理速度)等壓縮技術(shù)結(jié)合,形成效率優(yōu)化組合方案。

原文鏈接:https://arxiv.org/pdf/2503.19693

本文轉(zhuǎn)載自????沐白AI筆記????,作者:楊沐白

收藏
回復(fù)
舉報(bào)
回復(fù)
相關(guān)推薦