偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

全球最大開(kāi)源模型再刷爆紀(jì)錄!4800億參數(shù)MoE擊敗Llama 3、Mixtral

人工智能
最大開(kāi)源模型,再次刷爆紀(jì)錄!Snowflake的Arctic,以128位專(zhuān)家和4800億參數(shù),成為迄今最大的開(kāi)源模型。它的特點(diǎn),是又大又稀疏,因此計(jì)算資源只用了不到Llama 3 8B的一半,就達(dá)到了相同的性能指標(biāo)。

就在剛剛,擁有128位專(zhuān)家和4800億參數(shù)的Arctic,成功登上了迄今最大開(kāi)源MoE模型的寶座。

它基于全新的Dense-MoE架構(gòu)設(shè)計(jì),由一個(gè)10B的稠密Tranformer模型和128×3.66B的MoE MLP組成,并在3.5萬(wàn)億個(gè)token上進(jìn)行了訓(xùn)練。

不僅如此,作為一個(gè)比「開(kāi)源」更「開(kāi)源」的模型,團(tuán)隊(duì)甚至把訓(xùn)練數(shù)據(jù)的處理方法也全給公開(kāi)了。

圖片圖片

Arctic的的兩個(gè)特點(diǎn),一個(gè)是大,另一個(gè)就是非常稀疏。

好處就在于,這種架構(gòu)讓你可以用比別人少好幾倍的訓(xùn)練開(kāi)銷(xiāo),就能得到性能差不多的模型。

也就是說(shuō),與其他使用類(lèi)似計(jì)算預(yù)算訓(xùn)練的開(kāi)源模型相比,Arctic的性能更加優(yōu)異。

比起Llama 3 8B和Llama 2 70B,Arctic所用的訓(xùn)練計(jì)算資源不到它們的一半,評(píng)估指標(biāo)卻取得了相當(dāng)?shù)姆謹(jǐn)?shù)!

圖片圖片

圖1 編碼(HumanEval+和MBPP+)、SQL生成(Spider) 和指令遵循(IFEval)的企業(yè)智能平均值與訓(xùn)練成本的比較

具體信息如下——

480B參數(shù),生成期間17B處于活躍狀態(tài);

128位專(zhuān)家,有2位在生成期間活躍;

Instruct & Base版本發(fā)布;

專(zhuān)注于企業(yè)任務(wù)(代碼、SQL、推理、跟蹤);

在Apache 2.0下發(fā)布;

FP16精度下約為900GB內(nèi)存,INT4精度下約為240GB內(nèi)存

使用DeepSpeed-MoE訓(xùn)練。

圖片圖片

主打的就是一個(gè)性價(jià)比

評(píng)測(cè)主要看兩項(xiàng)指標(biāo),一個(gè)是企業(yè)智能指標(biāo),一個(gè)是學(xué)術(shù)基準(zhǔn)。

企業(yè)智能指標(biāo),是對(duì)企業(yè)客戶至關(guān)重要的技能,包括包括編碼(HumanEval+和MBPP+)、SQL生成(Spider)和指令遵循(IFEval)。

同時(shí),團(tuán)隊(duì)也采用了業(yè)界常用的評(píng)估LLM的學(xué)術(shù)基準(zhǔn),包括世界知識(shí)、常識(shí)推理和數(shù)學(xué)能力。

可以看到,Arctic在多項(xiàng)企業(yè)智能指標(biāo)中,都超越了Mixtral 8×7B等開(kāi)源對(duì)手。

在計(jì)算類(lèi)別中,它實(shí)現(xiàn)了頂級(jí)性能,甚至和使用更高計(jì)算預(yù)算訓(xùn)練的模型,都有的一拼。

圖片圖片

在學(xué)術(shù)基準(zhǔn)上,它的表現(xiàn)也不差。

在測(cè)評(píng)中,團(tuán)隊(duì)發(fā)現(xiàn)了一件有意思的事。

MMLU等世界知識(shí)指標(biāo),是人們常用的學(xué)術(shù)基準(zhǔn)測(cè)試。而隨著高質(zhì)量網(wǎng)絡(luò)和STEM數(shù)據(jù)的增加,MMLU的得分會(huì)隨著訓(xùn)練FLOPS的增加而提高。

但是,Arctic的目標(biāo)之一,是在保持較小訓(xùn)練預(yù)算的同時(shí)優(yōu)化訓(xùn)練效率,因此,跟其他模型相比,Arctic在MMLU上的得分較低,也實(shí)屬情理之中。

由此,如果訓(xùn)練計(jì)算預(yù)算高于Arctic的訓(xùn)練,MMLU性能就將超越Arctic。

當(dāng)然,MMLU世界知識(shí)的性能,并不一定和團(tuán)隊(duì)所關(guān)注的企業(yè)智能直接相關(guān)。

圖片表3 Arctic與DBRX、Llama 3 8B、Llama 3 70B、Mixtral 8x7B、Mixtral 8x22B的對(duì)比

企業(yè)級(jí)AI的訓(xùn)練成本,被打下來(lái)了!

在以往,用LLM構(gòu)建頂級(jí)企業(yè)AI的成本,往往高得離譜,而且需要大量資源,令人望而卻步。

通常,花費(fèi)的成本高達(dá)數(shù)千萬(wàn)甚至數(shù)億美元,這一成本是驚人的。

如何解決有效訓(xùn)練和推理的限制?Snowflake AI團(tuán)隊(duì)的研究者一直在做這方面的努力,團(tuán)隊(duì)成員過(guò)去曾開(kāi)源了ZeRO、DeepSpeed、PagedAttention/vLLM和LLM360等系統(tǒng),顯著降低了LLM訓(xùn)練和推理的成本。

圖片圖片

而今天推出的Arctic,在SQL生成、編碼和遵循基準(zhǔn)指令等企業(yè)任務(wù)上,表現(xiàn)非常出色。

它為具有成本效益的訓(xùn)練設(shè)定了新的基準(zhǔn),用戶可以以極低的成本,就能創(chuàng)建滿足企業(yè)需求的高質(zhì)量定制模型。

Arctic也是一個(gè)真正的開(kāi)放模型,在Apache 2.0許可下,提供對(duì)權(quán)重和代碼的無(wú)限制訪問(wèn)。

從今天開(kāi)始,Snowflake Arctic就可以從Hugging Face上獲取了。

計(jì)算資源僅用一半,表現(xiàn)卻和Llama 3 8B相當(dāng)

團(tuán)隊(duì)發(fā)現(xiàn),企業(yè)客戶對(duì)AI有著一致的需求和使用場(chǎng)景——構(gòu)建對(duì)話式SQL數(shù)據(jù)助手、代碼助手和RAG聊天機(jī)器人。

為了便于評(píng)估,團(tuán)隊(duì)通過(guò)對(duì)編碼(HumanEval+和MBPP+)、SQL生成(Spider)和指令跟隨(IFEval)取平均值,將這些能力整合到「企業(yè)智能」這個(gè)單一指標(biāo)中。

在開(kāi)源LLM中,Arctic僅用不到200萬(wàn)美元(相當(dāng)于不到3000個(gè)GPU周)的訓(xùn)練計(jì)算預(yù)算,就實(shí)現(xiàn)了頂級(jí)的企業(yè)智能。

更重要的是,即使與那些使用顯著更高計(jì)算預(yù)算訓(xùn)練的模型相比,它在企業(yè)智能任務(wù)上也表現(xiàn)出色。

結(jié)果顯示,Arctic在企業(yè)級(jí)評(píng)估指標(biāo)上的表現(xiàn),與Llama 3 8B和Llama 2 70B相當(dāng),甚至更優(yōu),而它所使用的訓(xùn)練計(jì)算資源卻不到后兩者的一半。

具體來(lái)說(shuō),Arctic使用的計(jì)算預(yù)算只有Llama3 70B的1/17,但在編程(HumanEval+和MBPP+)、SQL(Spider)和指令跟隨(IFEval)等企業(yè)級(jí)任務(wù)上,都與其不相上下。

圖片表1 Arctic、Llama-2 70B、DBRX和Mixtral 8x22B的模型架構(gòu)和訓(xùn)練計(jì)算量(與活躍參數(shù)和訓(xùn)練token的乘積成正比)

此外,Arctic的高訓(xùn)練效率還意味著,Snowflake客戶和整個(gè)AI社區(qū)可以以更加經(jīng)濟(jì)實(shí)惠的方式訓(xùn)練定制模型。

訓(xùn)練效率

為了實(shí)現(xiàn)如此高的訓(xùn)練效率,Arctic采用了獨(dú)特的Dense-MoE Hybrid transformer架構(gòu)。

該架構(gòu)將一個(gè)10B規(guī)模的稠密Transformer模型與一個(gè)128×3.66B規(guī)模的殘差MoE MLP相結(jié)合,雖然總參數(shù)量達(dá)到480B,但通過(guò)top-2 gating的方式只選擇了其中17B個(gè)參數(shù)保持活躍。

Arctic的設(shè)計(jì)和訓(xùn)練基于以下三個(gè)關(guān)鍵創(chuàng)新:

1. 更多但精煉的專(zhuān)家,以及更多的專(zhuān)家選擇

首先,DeepSpeed團(tuán)隊(duì)在2021年末便證明了,MoE(Mixture of Experts)可以在不增加計(jì)算成本的情況下,顯著提高LLM模型的質(zhì)量。

其次,模型質(zhì)量的提升主要取決于MoE模型中專(zhuān)家的數(shù)量、總參數(shù)量以及這些專(zhuān)家可以組合在一起的方式和數(shù)量。

基于此,Arctic被設(shè)計(jì)為擁有480B個(gè)參數(shù),分布在128個(gè)細(xì)粒度專(zhuān)家中,并使用top-2 gating選擇17B個(gè)活躍參數(shù)。相比之下,最近的MoE模型使用的專(zhuān)家數(shù)量就要少得多了(如表2所示)。

從直觀上看,Arctic利用更大的總參數(shù)量和眾多專(zhuān)家來(lái)擴(kuò)大模型容量,同時(shí)更明智地在眾多精煉的專(zhuān)家中進(jìn)行選擇,并使用適度數(shù)量的活躍參數(shù)來(lái)實(shí)現(xiàn)資源高效的訓(xùn)練和推理,最終獲得頂級(jí)的智能。

圖片圖2 標(biāo)準(zhǔn)MoE架構(gòu) vs. Arctic

2. 架構(gòu)和系統(tǒng)協(xié)同設(shè)計(jì)

即便是用最強(qiáng)大的AI硬件,想要基于普通的MoE架構(gòu)訓(xùn)練大量專(zhuān)家效率依然很低。

其原因在于,專(zhuān)家之間存在的全通信開(kāi)銷(xiāo)非常高昂。不過(guò),如果能將通信與計(jì)算重疊,那么就可以極大地降低這種開(kāi)銷(xiāo)。

因此,團(tuán)隊(duì)在Arctic架構(gòu)中將一個(gè)密集的Transformer與一個(gè)殘差MoE組件(圖2)相結(jié)合,從而使系統(tǒng)能夠通過(guò)通信計(jì)算重疊來(lái)消除大部分通信開(kāi)銷(xiāo),最終實(shí)現(xiàn)了極佳的訓(xùn)練效率。

3. 面向企業(yè)的數(shù)據(jù)課程

要在代碼生成和SQL等企業(yè)指標(biāo)上表現(xiàn)出色,需要與訓(xùn)練通用指標(biāo)的模型截然不同的數(shù)據(jù)課程。

團(tuán)隊(duì)在進(jìn)行了數(shù)百次小規(guī)模的對(duì)比實(shí)驗(yàn)后發(fā)現(xiàn),常識(shí)推理等通用技能可以在開(kāi)始時(shí)學(xué)習(xí),而編碼、數(shù)學(xué)和SQL等更復(fù)雜的指標(biāo)可以在訓(xùn)練的后期有效學(xué)習(xí)。

因此,Arctic采用了三階段課程進(jìn)行訓(xùn)練,每個(gè)階段的數(shù)據(jù)組成不同——

第一階段(1T Tokens)側(cè)重于通用技能,后兩個(gè)階段(1.5T和1T Tokens)側(cè)重于企業(yè)級(jí)技能。

圖片表2 Arctic三階段訓(xùn)練的動(dòng)態(tài)數(shù)據(jù)組成

推理效率

訓(xùn)練效率,只是Arctic高效的其中一個(gè)方面。

如果希望低成本部署模型,推理效率也同樣至關(guān)重要。

作為MoE模型規(guī)模的飛躍,Arctic使用了比其他開(kāi)源自回歸模型更多的專(zhuān)家和參數(shù)。

因此,為了有效地在Arctic上運(yùn)行推理,團(tuán)隊(duì)做了一些系統(tǒng)性的創(chuàng)新——

a) 在較小batch的交互式推理中(比如批大小為1),MoE模型的推理延遲受到了讀取所有活躍參數(shù)所需時(shí)間的瓶頸,其中,推理是受內(nèi)存帶寬限制的。

在這樣的批大小下,Arctic(17B活躍參數(shù))的內(nèi)存讀取次數(shù)比Code-Llama 70B少4倍,比 Mixtral 8x22B(44B活動(dòng)參數(shù))少2.5倍,從而實(shí)現(xiàn)更快的推理性能。

為此,團(tuán)隊(duì)跟英偉達(dá)的TensorRT-LLM和vLLM團(tuán)隊(duì)展開(kāi)合作,為交互式推理提供了Arctic的初步實(shí)現(xiàn)。

通過(guò)FP8量化,團(tuán)隊(duì)可以將Arctic放入單個(gè)GPU節(jié)點(diǎn)中。

雖然仍遠(yuǎn)未完全優(yōu)化,但在批大小為1時(shí),Arctic的吞吐量超過(guò)70+token/秒,這樣就實(shí)現(xiàn)了有效的交互式服務(wù)。

b) 當(dāng)批大小的規(guī)模顯著增加,例如每次前向傳遞要處理數(shù)千個(gè)token時(shí),Arctic就會(huì)從內(nèi)存帶寬受限轉(zhuǎn)變?yōu)橛?jì)算受限,此時(shí)推理的瓶頸就在于每個(gè)token的活躍參數(shù)。

在這一點(diǎn)上,與CodeLlama 70B和Llama 3 70B相比,Arctic的計(jì)算需求減少了4倍。

為了實(shí)現(xiàn)計(jì)算受限的推理和與Arctic中活躍參數(shù)數(shù)量較少相對(duì)應(yīng)的高吞吐量(如下圖所示),需要較大的batch size。

要實(shí)現(xiàn)這一點(diǎn),需要有足夠的KV緩存內(nèi)存來(lái)支持較大的batch size,同時(shí)也需要足夠的內(nèi)存來(lái)存儲(chǔ)近500B的模型參數(shù)。

面對(duì)這重重挑戰(zhàn),最終團(tuán)隊(duì)還是找到了辦法。

通過(guò)使用FP8權(quán)重、分割融合和連續(xù)批處理、節(jié)點(diǎn)內(nèi)的張量并行性以及節(jié)點(diǎn)間的管線并行性等系統(tǒng)優(yōu)化組合,團(tuán)隊(duì)在雙節(jié)點(diǎn)推理中,實(shí)現(xiàn)了這一目標(biāo)。

圖片圖3 推理期間編碼(HumanEval+和MBPP+)、SQL生成(Spider)和指令跟蹤 (IFEval)企業(yè)智能的平均值與活躍參數(shù)的對(duì)比

開(kāi)源代碼

新模型Arctic基礎(chǔ)模型和指令微調(diào)模型代碼全部開(kāi)源,任何人可以將其用于研究、產(chǎn)品、原型當(dāng)中。

圖片項(xiàng)目地址:https://github.com/Snowflake-Labs/snowflake-arctic

研究人員基于LoRA的微調(diào)的pipeline和配方(recipe),并允許在單個(gè)節(jié)點(diǎn)上進(jìn)行高效的模型微調(diào)。

現(xiàn)在,Snowflake正在與英偉達(dá)TensorRT-LLM和vLLM開(kāi)展合作,為Arctic模型開(kāi)發(fā)初始的推理實(shí)現(xiàn),并且針對(duì)批大小為1的交互式使用進(jìn)行了優(yōu)化。

未來(lái),他們還將與社區(qū)合作,解決真正大型MoE更大的批大小的推理復(fù)雜性。

圖片Cookbook:https://medium.com/snowflake/snowflake-arctic-cookbook-series-exploring-mixture-of-experts-moe-c7d6b8f14d16

另外,Arctic現(xiàn)使用的是4k上下文窗口進(jìn)行訓(xùn)練,研究人員還將開(kāi)發(fā)一種基于注意力下沉(attention-sinks)的滑動(dòng)窗口的方法,以支持未來(lái)幾周無(wú)限序列生成能力。

下一步,將會(huì)擴(kuò)展到32K上下文窗口。

團(tuán)隊(duì)介紹

Snowflake的CEO,是Sridhar Ramaswamy,是前谷歌高級(jí)副總裁。

圖片圖片

在谷歌工作15年后,他成為Neeva的聯(lián)合創(chuàng)始人,后來(lái)Neeva被Snowflake收購(gòu)。

圖片圖片

圖片圖片

圖片圖片

他在印度理工學(xué)院馬德拉斯分校獲得計(jì)算機(jī)學(xué)士學(xué)位,并在布朗大學(xué)獲得計(jì)算機(jī)博士學(xué)位。

圖片圖片

AI團(tuán)隊(duì)的一把手Vivek Raghunathan,也是前谷歌副總裁。

圖片圖片

他曾擔(dān)任微軟研究員,后在谷歌從事機(jī)器學(xué)習(xí)、廣告基礎(chǔ)架構(gòu)等方面工作,18年開(kāi)始在谷歌擔(dān)任副總裁,領(lǐng)導(dǎo)YouTube團(tuán)隊(duì)。

隨后,他和Sridhar Ramaswamy共同創(chuàng)辦了Neeva。

圖片圖片

圖片圖片

Raghunathan同樣也是印度理工學(xué)院的校友,不過(guò)是在孟買(mǎi)分校獲得的學(xué)士學(xué)位。之后,他在UIUC取得了碩士和博士學(xué)位。

圖片圖片

為了發(fā)展AI,兩人把DeepSpeed團(tuán)隊(duì)最頂尖的幾個(gè)元老都挖了過(guò)來(lái),包括Zhewei Yao和Yuxiong He。

Zhewei Yao在UC伯克利獲得博士學(xué)位,研究興趣在于計(jì)算統(tǒng)計(jì)、優(yōu)化和機(jī)器學(xué)習(xí)。(在此之前,他2016年曾獲得上交大數(shù)學(xué)學(xué)士學(xué)位。)

圖片圖片

他從2021年開(kāi)始便加入了微軟,在微軟擔(dān)任首席研究員和研發(fā)經(jīng)理,致力于高效的大規(guī)模訓(xùn)練和推理。

目前,他是Snowflake的高級(jí)科學(xué)家和SDE II,同時(shí)也是Snowflake大規(guī)模預(yù)訓(xùn)練創(chuàng)始成員。

圖片圖片

Yuxiong He在微軟任職13年,是DeepSpeed的創(chuàng)始人之一,最近加入了Snowflake。

她曾在新加坡南陽(yáng)理工大學(xué)獲得了計(jì)算機(jī)工程學(xué)士學(xué)位。

圖片圖片

團(tuán)隊(duì)的另一位華人大牛Aurick Qiao,去年11月剛加入Snowflake。

圖片圖片

CMU讀博期間,他曾獲得Osdi 2022的最佳論文優(yōu)勝獎(jiǎng)。此前曾在微軟、Dropbox工作。

曾擔(dān)任Petuum CEO,以及LMNet的聯(lián)合創(chuàng)始人。

圖片圖片

Hao Zhang是UCSD的Hal?c?o?數(shù)據(jù)科學(xué)研究所和計(jì)算機(jī)科學(xué)與工程系的助理教授。

圖片圖片

他曾獲得了CMU計(jì)算機(jī)博士學(xué)位,師從Eric Xing。在攻讀博士學(xué)位期間,他休學(xué)一段時(shí)間并在ML平臺(tái)初創(chuàng)公司Petuum工作。

Hao Zhang在2023年聯(lián)合創(chuàng)立了LMnet.ai,這家公司于同年11月加入了Snowflake。

他此前還共同創(chuàng)辦了非營(yíng)利組織LMSYS Org,該組織訓(xùn)練了此前十分流行的模型Vicuna以及發(fā)起和維護(hù)目前最重要的大語(yǔ)言模型評(píng)測(cè)機(jī)制:Chatbot Arena。

他本人的研究興趣是機(jī)器學(xué)習(xí)與系統(tǒng)的交叉領(lǐng)域。

參考資料:https://www.snowflake.com/blog/arctic-open-efficient-foundation-language-models-snowflake/

責(zé)任編輯:武曉燕 來(lái)源: 新智元
相關(guān)推薦

2023-12-12 13:57:00

GPT-3.5MistralAI

2024-04-19 09:17:33

AI模型

2025-07-28 02:55:00

2025-02-18 13:30:00

2024-06-03 08:25:00

2023-12-12 13:16:00

模型訓(xùn)練

2024-03-18 14:17:06

大模型開(kāi)源人工智能

2024-01-16 12:10:33

模型數(shù)據(jù)

2023-11-06 11:26:55

模型開(kāi)源

2024-12-04 13:34:22

2025-07-24 09:19:54

2023-12-13 12:55:39

模型數(shù)據(jù)

2023-09-04 12:58:05

2025-05-23 13:50:39

英偉達(dá)AI推理

2024-08-30 12:56:03

2023-10-12 14:40:10

AI模型

2024-03-18 10:17:00

開(kāi)源AI

2022-06-25 21:17:15

人工智能訓(xùn)練

2022-08-18 15:13:37

模型參數(shù)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)