偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

120億Stable LM 2上線即開源!2萬(wàn)億token訓(xùn)練,碾壓Llama 2 70B

人工智能 新聞
Stability AI推出Stable LM 2 12B模型,作為其新模型系列的進(jìn)一步升級(jí),該模型基于七種語(yǔ)言的2萬(wàn)億Token進(jìn)行訓(xùn)練,擁有更多參數(shù)和更強(qiáng)性能,據(jù)稱在某些基準(zhǔn)下能超越Llama 2 70B。

繼16億輕量級(jí)Stable LM 2推出之后,12B參數(shù)的版本在今天亮相了。

見狀,不少網(wǎng)友紛紛喊話:干的漂亮!但,Stable Diffusion 3啥時(shí)候出???

圖片

總得來(lái)說(shuō),Stable LM 2 12B參數(shù)更多,性能更強(qiáng)。

120億參數(shù)版本包含了基礎(chǔ)模型和指令微調(diào)模型,并在七種多語(yǔ)言,高達(dá)2萬(wàn)億Token數(shù)據(jù)集上完成訓(xùn)練。

在基準(zhǔn)測(cè)試中,其性能趕超Llama 2 70B等開源模型。

官博介紹,最新版本的模型兼顧了性能、效率、內(nèi)存需求和速度,同時(shí)繼續(xù)采用了Stable LM 2 1.6B模型的框架。

通過(guò)這次更新,研究人員還為開發(fā)者提供了一個(gè)透明而強(qiáng)大的工具,以推動(dòng)AI語(yǔ)言技術(shù)的創(chuàng)新。

圖片

模型地址:https://huggingface.co/stabilityai/stablelm-2-12b

雖然目前只支持4K的上下文窗口,但你先別急。

Stability AI表示很快就會(huì)推出更長(zhǎng)的版本,并且可以第一時(shí)間在Hugging Face上獲取。

圖片

12B參數(shù)即可實(shí)現(xiàn)SOTA

Stable LM 2 12B是一個(gè)專為處理多種語(yǔ)言任務(wù)設(shè)計(jì)的高效開源模型,它能夠在大多數(shù)常見硬件上流暢運(yùn)行。

值得一提的是,Stable LM 2 12B可以處理通常只有大模型才能完成的各種任務(wù)。

比如混合專家模型(MoE),往往需要大量的計(jì)算和內(nèi)存資源。

此外,指令微調(diào)版本在工具使用,以及函數(shù)調(diào)用展現(xiàn)出強(qiáng)大的能力,可以適用于各種用途,包括作為檢索RAG系統(tǒng)的核心部分。

性能評(píng)估

在性能方面,參與對(duì)比的有Mixtral(MoE,總共47B/激活13B)、Llama2(13B和70B)、Qwen 1.5(14B)、Gemma(8.5B)和Mistral(7B)。

根據(jù)Open LLM Leaderboard和最新修正的MT-Bench基準(zhǔn)測(cè)試的結(jié)果顯示,Stable LM 2 12B在零樣本以及少樣本的任務(wù)上展現(xiàn)了出色的性能。

圖片

MT Bench

圖片

Open LLM Leaderboard

圖片

Open LLM Leaderboard

圖片

0-Shot NLP Tasks

在這個(gè)新版本中,他們將StableLM 2系列模型擴(kuò)展到了12B類別,提供了一個(gè)開放、透明的模型,在功率和精度方面絲毫不打折扣。

Stable LM 2 1.6B技術(shù)報(bào)告

最初發(fā)布的Stable LM 2 1.6B已經(jīng)在Open LLM 排行榜上取得了領(lǐng)先地位,證明了其在同類產(chǎn)品中的卓越性能。

圖片

論文地址:https://arxiv.org/abs/2402.17834

模型預(yù)訓(xùn)練

訓(xùn)練大模型(LLM)的第一階段主要是學(xué)習(xí)如何利用大量不同的數(shù)據(jù)源來(lái)預(yù)測(cè)序列中的下一個(gè)token,這一階段也被稱之為訓(xùn)練。

它使模型能夠構(gòu)建適用于基本語(yǔ)言功能甚至更高級(jí)的生成和理解任務(wù)的通用內(nèi)部表示。

訓(xùn)練

研究人員按照標(biāo)準(zhǔn)的自回歸序列建模方法對(duì)Stable LM 2進(jìn)行訓(xùn)練,以預(yù)測(cè)下一個(gè)token。

他們從零開始訓(xùn)練模型,上下文長(zhǎng)度為4096,受益于FlashAttention-2的高效序列并行優(yōu)化。

訓(xùn)練以BFloat16混合精度進(jìn)行,同時(shí)將all-reduce操作保持在FP32中。

數(shù)據(jù)

模型性能受訓(xùn)練前數(shù)據(jù)設(shè)計(jì)決策的影響,包括源選擇和采樣權(quán)重。

訓(xùn)練中所用的數(shù)據(jù)均為公開數(shù)據(jù),大部分訓(xùn)練數(shù)據(jù)由其他LLM訓(xùn)練中使用的數(shù)據(jù)源組成,其中包括德語(yǔ)(DE)、西班牙語(yǔ)(ES)、法語(yǔ)(FR)、意大利語(yǔ)(IT)、荷蘭語(yǔ)(NL)和葡萄牙語(yǔ)(PT)的多語(yǔ)言數(shù)據(jù)。

仔細(xì)選擇不同數(shù)據(jù)域的混合比例至關(guān)重要,尤其是非英語(yǔ)數(shù)據(jù)和代碼數(shù)據(jù)。

下圖展示了Stable LM 2預(yù)訓(xùn)練數(shù)據(jù)集中各領(lǐng)域有效訓(xùn)練詞塊的百分比。

分詞器

研究人員使用了Arcade100k,這是一個(gè)從OpenAI的tiktoken.cl100k_base擴(kuò)展而來(lái)的BPE標(biāo)記器,其中包括用于代碼和數(shù)字拆分處理的特殊token。

詞庫(kù)由100,289個(gè)token組成,在訓(xùn)練過(guò)程中被填充為最接近的64的倍數(shù)(100,352),以滿足NVIDIA A100設(shè)備上推薦的Tensor Core對(duì)齊方式。

架構(gòu)

該模型在設(shè)計(jì)上與LLaMA架構(gòu)類似,下表顯示了一些關(guān)鍵的架構(gòu)細(xì)節(jié)。

其中,與LLaMA的主要區(qū)別如下:

1. 位置嵌入

旋轉(zhuǎn)位置嵌入應(yīng)用于頭嵌入尺寸的前25%,以提高后續(xù)吞吐量

2. 歸一化

相對(duì)于RMSNorm,LayerNorm具有學(xué)習(xí)偏置項(xiàng)

3. 偏置

從前饋網(wǎng)絡(luò)和多頭自注意層中刪除了鍵、查詢和值預(yù)測(cè)以外的所有偏置項(xiàng)。

模型微調(diào)

有監(jiān)督微調(diào)(SFT)

研究人員在Hugging Face Hub上公開的一些指令數(shù)據(jù)集上對(duì)預(yù)訓(xùn)練模型進(jìn)行微調(diào)。

尤其是使用了UltraChat、WizardLM、SlimOrca、ShareGPT、Capybara、Deita和MetaMathQA會(huì)話數(shù)據(jù)集,樣本總數(shù)為826,938個(gè)。

直接偏好優(yōu)化(DPO)

直接偏好優(yōu)化(Direct Preference Optimization,簡(jiǎn)稱 DPO)是 Zephyr-7B、Neural-Chat-7B和Tulu-2-DPO-70B等近期強(qiáng)模型的基本工具。

在應(yīng)用SFT后,通過(guò)DPO對(duì)得到的模型進(jìn)行微調(diào)。

在這個(gè)階段,他們使用UltraFeedback和Intel Orca Pairs這兩個(gè)數(shù)據(jù)集,并通過(guò)刪除了排名并列的配對(duì)、內(nèi)容重復(fù)的配對(duì)以及所選回應(yīng)得分低于80%的配對(duì)來(lái)過(guò)濾數(shù)據(jù)集。

實(shí)驗(yàn)結(jié)果和基準(zhǔn)測(cè)試

少樣本和零樣本評(píng)估

研究人員通過(guò)流行基準(zhǔn)評(píng)估了Stable LM 2的少樣本和零樣本能力,并將結(jié)果與類似大小的開源預(yù)訓(xùn)練模型進(jìn)行了比較。下表列出了模型評(píng)估結(jié)果。

可以看出,Stable LM 2 1.6B (stablelm-2-1-6b)的性能明顯優(yōu)于其他基礎(chǔ)模型。

同樣,經(jīng)過(guò)指令微調(diào)的版本(stablelm-2-1-6b-dpo)比微軟的Phi-1.5平均提高了2%,但在幾發(fā)準(zhǔn)確率上卻落后于更大的Phi-2.0。與谷歌的Gemma 2B(2.5B參數(shù))相比,性能也有顯著提高。

多語(yǔ)種評(píng)估

通過(guò)在 ChatGPT 翻譯版本的 ARC、HS、TQA 和 MMLU 上進(jìn)行評(píng)估,來(lái)評(píng)估在多語(yǔ)言環(huán)境下的知識(shí)和推理能力。

此外,還使用了機(jī)器翻譯的LAMBADA數(shù)據(jù)集測(cè)試了下一個(gè)單詞的預(yù)測(cè)能力。

下表為zero-shot測(cè)試結(jié)果,可以看出與規(guī)模是其兩倍的模型相比,Stable LM 2的性能更加出眾。

MT基準(zhǔn)評(píng)估

他們還在流行的多輪基準(zhǔn)MT-Bench上測(cè)試了模型的對(duì)話能力。

圖片

Stable LM 2 1.6B顯示出具有競(jìng)爭(zhēng)力的性能,與MT-Bench上的大型模型能力相當(dāng)甚至更好。

雖然該模型落后于Mistral 7B Instruct v0.2(比Stable LM 2大4倍多)等更強(qiáng)大的模型,但該模型提供了更好的聊天性能,并以較大優(yōu)勢(shì)擊敗了Phi-2、Gemma 2B和TinyLLaMA 1.1B這兩個(gè)大模型。

責(zé)任編輯:張燕妮 來(lái)源: 新智元
相關(guān)推薦

2023-06-02 13:55:57

開源AI

2023-09-07 13:25:00

AI模型

2024-01-10 17:10:53

數(shù)據(jù)訓(xùn)練

2023-12-13 13:29:00

數(shù)據(jù)訓(xùn)練

2023-09-18 09:36:58

微軟模型

2024-06-05 08:33:29

2024-07-02 09:20:59

2024-09-09 09:20:00

2023-10-12 14:40:10

AI模型

2024-03-28 12:53:00

AI數(shù)據(jù)

2024-03-15 08:30:00

AI數(shù)據(jù)

2023-05-19 10:26:01

谷歌模型

2023-09-15 13:18:53

數(shù)據(jù)訓(xùn)練

2024-02-22 10:09:00

開源模型

2023-09-04 19:09:00

訓(xùn)練模型數(shù)據(jù)

2022-01-20 15:56:14

AI訓(xùn)練GPU

2024-12-09 07:10:00

Llama 3.3GeminiGPT-4.5

2024-04-30 08:28:44

開源大模型Llama

2023-10-11 13:21:12

模型數(shù)據(jù)

2024-06-12 13:58:00

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)