偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

58行代碼把Llama 3擴展到100萬上下文,任何微調(diào)版都適用

人工智能 新聞
現(xiàn)在只需58行代碼,任何Llama 3 70b的微調(diào)版本都能自動擴展到1048k(一百萬)上下文。

堂堂開源之王Llama 3,原版上下文窗口居然只有……8k,讓到嘴邊的一句“真香”又咽回去了。

在32k起步,100k尋常的今天,這是故意要給開源社區(qū)留做貢獻的空間嗎?

開源社區(qū)當然不會放過這個機會:

現(xiàn)在只需58行代碼,任何Llama 3 70b的微調(diào)版本都能自動擴展到1048k(一百萬)上下文。

圖片

背后是一個LoRA,從擴展好上下文的Llama 3 70B Instruct微調(diào)版本中提取出來,文件只有800mb。

接下來使用Mergekit,就可以與其他同架構(gòu)模型一起運行或直接合并到模型中。

圖片

所使用的1048k上下文微調(diào)版本,剛剛在流行的大海撈針測試中達到全綠(100%準確率)的成績。

圖片

不得不說,開源的進步速度是指數(shù)級的。

圖片

1048k上下文LoRA怎么煉成的

首先1048k上下文版Llama 3微調(diào)模型來自Gradient AI,一個企業(yè)AI解決方案初創(chuàng)公司。

圖片

而對應(yīng)的LoRA來自開發(fā)者Eric Hartford,通過比較微調(diào)模型與原版的差異,提取出參數(shù)的變化。

他先制作了524k上下文版,隨后又更新了1048k版本。

圖片

首先,Gradient團隊先在原版Llama 3 70B Instruct的基礎(chǔ)上繼續(xù)訓(xùn)練,得到Llama-3-70B-Instruct-Gradient-1048k。

具體方法如下:

  • 調(diào)整位置編碼:用NTK-aware插值初始化RoPE theta的最佳調(diào)度,進行優(yōu)化,防止擴展長度后丟失高頻信息
  • 漸進式訓(xùn)練:使用UC伯克利Pieter Abbeel團隊提出的Blockwise RingAttention方法擴展模型的上下文長度

值得注意的是,團隊通過自定義網(wǎng)絡(luò)拓撲在Ring Attention之上分層并行化,更好地利用大型GPU集群來應(yīng)對設(shè)備之間傳遞許多KV blocks帶來的網(wǎng)絡(luò)瓶頸。

最終使模型的訓(xùn)練速度提高了33倍。

圖片

長文本檢索性能評估中,只在最難的版本中,當“針”藏在文本中間部分時容易出錯。

圖片

圖片

有了擴展好上下文的微調(diào)模型之后,使用開源工具Mergekit比較微調(diào)模型和基礎(chǔ)模型,提取參數(shù)的差異成為LoRA。

同樣使用Mergekit,就可以把提取好的LoRA合并到其他同架構(gòu)模型中了。

合并代碼也由Eric Hartford開源在GitHub上,只有58行。

圖片

目前尚不清楚這種LoRA合并是否適用于在中文上微調(diào)的Llama 3。

不過可以看到,中文開發(fā)者社區(qū)已經(jīng)關(guān)注到了這一進展。

圖片

524k版本LoRA:https://huggingface.co/cognitivecomputations/Llama-3-70B-Gradient-524k-adapter

1048k版本LoRA:https://huggingface.co/cognitivecomputations/Llama-3-70B-Gradient-1048k-adapter

合并代碼:https://gist.github.com/ehartford/731e3f7079db234fa1b79a01e09859ac

責任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2023-06-30 09:49:23

模型Meta

2023-07-11 10:02:23

2023-08-29 18:23:46

代碼AI

2024-01-08 12:47:02

代碼模型Mistral

2023-06-28 18:10:27

羊駝家族大模型集體進化

2024-04-29 13:09:10

LLM架構(gòu)性能

2025-05-15 09:16:00

2023-10-21 12:53:27

數(shù)據(jù)研究

2025-10-14 09:54:28

2023-06-15 15:45:42

自然語言語言模型

2023-10-04 09:20:04

模型訓(xùn)練

2025-08-08 01:45:00

上下文工程優(yōu)化框架

2025-08-29 14:17:01

ClaudeOpenAIGemini

2025-07-25 10:06:05

2025-10-11 18:05:23

AI智能體模型

2024-03-14 08:11:45

模型RoPELlama

2025-07-31 09:06:00

2017-05-11 14:00:02

Flask請求上下文應(yīng)用上下文

2012-12-31 10:01:34

SELinuxSELinux安全

2022-09-14 13:13:51

JavaScript上下文
點贊
收藏

51CTO技術(shù)棧公眾號