偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

全方位、無死角的開源,邢波團隊LLM360讓大模型實現(xiàn)真正的透明

人工智能 新聞
Cerebras、Petuum 和 MBZUAI 等的研究者們共同提出了 LLM360。這是一項全面開源 LLM 的倡議,主張向社區(qū)提供與 LLM 訓練相關的一切,包含訓練代碼和數(shù)據(jù)、模型檢查點以及中間結果等。

開源模型正展現(xiàn)著它們蓬勃的生命力,不僅數(shù)量激增,性能更是愈發(fā)優(yōu)秀。圖靈獎獲得者 Yann LeCun 也發(fā)出了這樣的感嘆:「開源人工智能模型正走在超越專有模型的路上?!?/span>

專有模型在技術性能和創(chuàng)新能力上展現(xiàn)了非凡的力量,但是它們不開源的性質成為 LLM 發(fā)展的阻礙。一些開源模型雖然為從業(yè)者和研究者提供了多樣化的選擇,但大多數(shù)只公開了最終的模型權重或推理代碼,越來越多的技術報告將其范圍限制在頂層設計和表面統(tǒng)計之內。這種閉源的策略不僅限制了開源模型的發(fā)展,而且還在很大程度上阻礙了整個 LLM 研究領域的進步。

這意味著,這些模型需要更全面和深入地共享,包括訓練數(shù)據(jù)、算法細節(jié)、實現(xiàn)挑戰(zhàn)以及性能評估的細節(jié)。

Cerebras、Petuum 和 MBZUAI 等的研究者們共同提出了 LLM360。這是一項全面開源 LLM 的倡議,主張向社區(qū)提供與 LLM 訓練相關的一切,包含訓練代碼和數(shù)據(jù)、模型檢查點以及中間結果等。LLM360 的目標是讓 LLM 訓練過程透明化,使每個人都能復現(xiàn),從而推動開放和協(xié)作式的人工智能研究的發(fā)展。


  • 論文地址:https://arxiv.org/pdf/2312.06550.pdf
  • 項目網(wǎng)頁:https://www.llm360.ai/
  • 博客:https://www.llm360.ai/blog/introducing-llm360-fully-transparent-open-source-llms.html

研究者們制定了 LLM360 的架構,重點關注其設計原則和完全開源的理由。他們詳細規(guī)定了 LLM360 框架的組成部分,包含數(shù)據(jù)集、代碼和配置、模型檢查點、指標等具體細節(jié)。LLM360 為當前和未來的開源模型樹立了透明度的樣本。

研究者在 LLM360 的開源框架下發(fā)布了兩個從頭開始預訓練的大型語言模型:AMBER 和 CRYSTALCODER。AMBER 是基于 1.3T token 進行預訓練的 7B 英語語言模型。CRYSTALCODER 是基于 1.4T token 預訓練的 7B 英語和代碼語言模型。在本文中,研究者們總結了這兩個模型的開發(fā)細節(jié)、初步評估結果、觀察結果以及從中汲取的經(jīng)驗和教訓。值得注意的是,在發(fā)布時,AMBER 和 CRYSTALCODER 在訓練過程中分別保存了 360 個和 143 個模型檢查點。

圖片

接下來,就一起看看文章的具體內容吧。

LLM360 的框架

LLM360 將為 LLM 預訓練過程中需要收集哪些數(shù)據(jù)和代碼提供一個標準,以確保已有的工作能更好地在社區(qū)中流通、共享。它主要包含以下幾個部分:

圖片

1. 訓練數(shù)據(jù)集和數(shù)據(jù)處理代碼

預訓練數(shù)據(jù)集對大型語言模型的性能至關重要。因此,了解預訓練數(shù)據(jù)集,用以評估潛在的行為問題和偏見非常重要。此外,公開的預訓練數(shù)據(jù)集有助于提高 LLM 在后續(xù)微調和適應各領域時的可擴展性。最近的研究表明,在重復數(shù)據(jù)上進行訓練會不成比例地降低模型最終的性能。因此,公開原始預訓練數(shù)據(jù),有助于避免在下游微調或繼續(xù)在特定領域進行預訓練時使用到重復的數(shù)據(jù)。綜合以上原因,LLM360 倡導公開大型語言模型的原始數(shù)據(jù)集。在合適的情況中,還應公開關于數(shù)據(jù)過濾、處理和訓練順序的詳細信息。

2. 訓練代碼、超參數(shù)與配置

訓練代碼、超參數(shù)和配置對 LLM 訓練的性能和質量有重大影響,但并不總是公開披露。在 LLM360 中,研究者開源預訓練框架的所有訓練代碼、訓練參數(shù)以及系統(tǒng)配置。

3. 模型檢查點

定期保存模型檢查點也相當有用。它們不僅對訓練過程中的故障恢復至關重要,而且對訓練后的研究也很有用,這些檢查點可以讓后來的研究者從多個起點繼續(xù)訓練模型,無需從頭開始訓練,有助于復現(xiàn)和深入研究。

4. 性能指標

訓練一個 LLM 往往需要花費數(shù)周至數(shù)月,訓練期間的演化趨勢可以提供有價值的信息。然而,目前只有親歷者才能獲得訓練的詳細日志和中間指標,這阻礙了對 LLM 的全面研究。這些統(tǒng)計數(shù)據(jù)往往包含了難以察覺的關鍵見解。即使是對這些衡量標準進行方差計算這樣的簡單分析,也能揭示重要的發(fā)現(xiàn)。例如,GLM 的研究團隊就是通過分析梯度規(guī)范行為,提出了一種有效處理損失尖峰和 NaN 損失的梯度收縮算法。

Amber 

AMBER 是 LLM360 「大家庭」的第一位成員,同時發(fā)布的還有它的微調版本:AMBERCHAT 和 AMBERSAFE 。

圖片

數(shù)據(jù)及模型細節(jié)

表 2 列出了 AMBER 包含 1.26 T token 的預訓練數(shù)據(jù)集的詳細信息,包括數(shù)據(jù)的預處理、格式、數(shù)據(jù)混合比例,以及 AMBER 的架構細節(jié)和特定的預訓練超參數(shù)。具體請在項目主頁參閱 LLM360 代碼庫。

圖片

AMBER 采用了與 LLaMA 7B4 一致的模型架構,表 3 總結了 LLM 的詳細架構配置。

圖片

在預訓練過程和超參數(shù)方面,研究者們盡可能地遵循了 LLaMA 的預訓練超參數(shù)。AMBER 使用 AdamW 優(yōu)化器進行訓練,超參數(shù)為:β?= 0.9,β?= 0.95。同時,研究者還發(fā)布了幾個 AMBER 的微調版本:AMBERCHAT 和 AMBERSAFE 。AMBERCHAT 是基于 WizardLM 的指令訓練數(shù)據(jù)集微調得出的。更多參數(shù)細節(jié),請閱讀原文。

實驗及結果

研究者們采用了 Open LLM 排行榜上的四個基準數(shù)據(jù)集來評估 AMBER 的性能。如圖 4 所示,在 HellaSwag 和 ARC 中, AMBER 的得分在預訓練期間單調增加,而在 TruthfulQA 的得分隨著訓練的進行而降低。在 MMLU 數(shù)據(jù)集中, AMBER 的得分在預訓練的初始階段下降,然后開始上升。

圖片

在表 4 中,研究者將 AMBER 的模型性能與 OpenLLaMA、RedPajama-INCITE、Falcon、MPT 等類似時間段內訓練出的模型進行了比較。許多模型的設計靈感都來自 LLaMA ??梢园l(fā)現(xiàn),AMBER 在 MMLU 的得分較為出色,但在 ARC 上的表現(xiàn)稍遜一籌。與其他類似模型相比,AMBER 的表現(xiàn)相對較強。

圖片

CRYSTALCODER 

 LLM360 「大家庭」的第二位成員是 CrystalCoder。

圖片

CrystalCoder 是一個基于 1.4 T token 訓練的 7B 語言模型,實現(xiàn)了編碼和語言能力之間的平衡。與大多數(shù)之前的代碼 LLM 不同,CrystalCoder 是通過精心混合文本和代碼數(shù)據(jù)進行訓練的,以最大化在這兩個領域的實用性。與 Code Llama 2 相比,CrystalCoder 的代碼數(shù)據(jù)在預訓練過程中較早引入。此外,研究者在 Python 和 Web 編程語言上訓練了 CrystalCoder,以提高其作為編程助手的實用性。

模型架構

CrystalCoder 采用了與 LLaMA 7B 非常相似的架構,加入了最大更新參數(shù)化(muP)。除了這種特定的參數(shù)化,研究者還進行了一些修改。另外,研究者還使用 LayerNorm 代替 RMSNorm,因為 CG-1 架構支持高效計算 LayerNorm。

實驗及結果

如圖 6 所示,研究者在 Open LLM Leaderboard 中的四個基準數(shù)據(jù)集以及編碼基準數(shù)據(jù)集上對該模型進行了基準測試。

從表 5 中可以看出,CrystalCoder 在語言任務和代碼任務之間取得了很好的平衡。

ANALYSIS360

Pythia 等先前的工作表明,通過分析模型的中間檢查點,可以進行深入研究。研究者希望 LLM360 還能為社區(qū)提供有用的參考和研究資源。為此,他們發(fā)布了 ANALYSIS360 項目的初始版本,這是一個對模型行為進行多方面分析的有組織存儲庫,包括模型特征和下游評估結果。

作為對一系列模型檢查點進行分析的示例,研究者對 LLM 中的記憶化進行了初步研究。最近的研究顯示,LLM 可能會記憶大部分訓練數(shù)據(jù),通過適當?shù)奶崾究梢蕴崛∵@些數(shù)據(jù)。這種記憶化不僅存在著泄露私人訓練數(shù)據(jù)方面的問題,而且如果訓練數(shù)據(jù)包含重復或特殊性,還會降低 LLM 的性能。研究者發(fā)布了所有檢查點和數(shù)據(jù),因此他們可以對整個訓練階段的記憶化進行全面分析。

以下為本文所采用的記憶化得分方法,該得分表示在長度為 k 的提示后續(xù)長度為 l 的 token 的準確性。具體記憶化得分設置,請參閱原文。

圖片

圖 7 展示了 10 個選定檢查點的記憶化分數(shù)分布情況。

圖片

研究者根據(jù)所選檢查點對數(shù)據(jù)塊進行分組,并在圖 8 中繪制每個檢查點的每個數(shù)據(jù)塊組的記憶化分數(shù)。他們發(fā)現(xiàn) AMBER 檢查點對最新數(shù)據(jù)的記憶化程度超過之前的數(shù)據(jù)。此外對于每個數(shù)據(jù)塊,記憶化分數(shù)在額外訓練后會略有下降,但之后會持續(xù)上升。

圖 9 展示了序列之間在記憶化得分和可提取 k 值的相關性??梢姡瑱z查點之間存在很強的相關性。

總結

研究者總結了對 AMBER 和 CRYSTALCODER 的觀察結果和一些啟示。他們表示,預訓練是一項計算量巨大的任務,許多學術實驗室或小型機構都無力承擔。他們希望 LLM360 能夠提供全面的知識,讓用戶了解 LLM 預訓練過程中發(fā)生的情況,而無需親自動手。

更多詳細內容,請閱讀原文。

責任編輯:張燕妮 來源: 機器之心
相關推薦

2021-01-12 10:08:22

模型人工智能GAN

2025-01-14 13:04:08

2014-06-26 17:25:22

車聯(lián)網(wǎng) ECU

2024-05-10 14:35:56

人工智能大型語言模型

2023-10-06 20:30:33

大模型LLMtoken

2009-10-26 13:41:49

機房監(jiān)控

2024-04-26 11:58:48

云原生容器

2025-04-14 09:26:00

2016-12-14 14:43:11

ButterknifeAndroid

2024-06-06 19:14:27

2024-04-10 09:29:16

LLM開源大模型

2015-07-17 09:13:06

微服務SOA紅帽

2023-03-06 13:59:38

模型參數(shù)

2018-12-17 08:14:49

互聯(lián)網(wǎng)Java Kafka

2020-06-08 19:30:21

大數(shù)據(jù)技術智能建筑

2009-12-11 11:23:22

策略路由配置

2013-11-06 13:58:58

2025-07-18 12:42:59

2017-09-13 15:37:53

2025-07-10 08:40:59

點贊
收藏

51CTO技術棧公眾號