偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

微軟讓訓(xùn)練萬億參數(shù)AI模型的GPU需求從4000個減少到800個

新聞 人工智能
微軟今天發(fā)布了DeepSpeed庫的更新版本,該庫引入了一種新方法來訓(xùn)練包含數(shù)萬億個參數(shù)的AI模型,這種模型內(nèi)部的變量可為預(yù)測提供依據(jù)。

 本文轉(zhuǎn)自雷鋒網(wǎng),如需轉(zhuǎn)載請至雷鋒網(wǎng)官網(wǎng)申請授權(quán)。

微軟今天發(fā)布了DeepSpeed庫的更新版本,該庫引入了一種新方法來訓(xùn)練包含數(shù)萬億個參數(shù)的AI模型,這種模型內(nèi)部的變量可為預(yù)測提供依據(jù)。微軟稱這種技術(shù)稱為3D并行性,可以適應(yīng)各種的工作負(fù)載需求,特別是為功耗大的超大型模型平衡效率。

[[341739]]

具有數(shù)十億個參數(shù)的單個大型AI模型在一系列具有挑戰(zhàn)性的領(lǐng)域中取得了長足的進(jìn)步。研究表明它們之所以表現(xiàn)出色,是因?yàn)樗鼈兛梢岳斫庹Z言、語法、知識、概念和上下文的細(xì)微差別,使他們能夠總結(jié)演講,在實(shí)時游戲聊天中過濾不合適的話語,解析復(fù)雜的法律文檔,甚至可以通過搜索GitHub生成代碼。

但是訓(xùn)練模型需要大量的計算資源。根據(jù)2018年OpenAI的分析,從2012年到2018年,在大型AI訓(xùn)練中,計算量的需求增長了300,000倍,也就是大概每3.5個月的時間翻一番,遠(yuǎn)遠(yuǎn)超過了摩爾定律的步伐。

增強(qiáng)的DeepSpeed利用三種技術(shù)來實(shí)現(xiàn)“萬億級”模型訓(xùn)練:數(shù)據(jù)并行訓(xùn)練、模型并行訓(xùn)練和管線并行訓(xùn)練。

訓(xùn)練一個萬億參數(shù)的模型將需要至少400個Nvidia 今年最新推出的A100 GPU(每個內(nèi)存高達(dá)40GB),并且Microsoft估計需要4,000臺A100以50%的效率運(yùn)行,大約需要100天才能完成訓(xùn)練。這與微軟和OpenAI共同設(shè)計的AI超級計算機(jī)無并不匹配,后者包含10,000多個顯卡,在這樣的超大規(guī)模下,很難獲得很高的計算效率。

DeepSpeed將大型模型分為四個流水線階段,分為較小的組件(層)。每個流水線階段中的層進(jìn)一步劃分為四個“工人(workers)”,它們執(zhí)行實(shí)際的訓(xùn)練。每個管道都在兩個并行數(shù)據(jù)實(shí)例之間復(fù)制,并且工作程序被映射到多GPU系統(tǒng)。由于有了這些和其他性能改進(jìn),微軟表示,一個萬億參數(shù)的AI模型可以減少到僅需要800個Nvidia V100 GPU訓(xùn)練。

DeepSpeed的最新版本還包含了ZeRO-Offload技術(shù),該技術(shù)可利用GPU及其主機(jī)CPU上的計算和內(nèi)存資源,從而在一臺V100上訓(xùn)練多達(dá)130億個參數(shù)的模型。微軟聲稱這比最新技術(shù)強(qiáng)10倍,使得訓(xùn)練人員可以使用更少的計算資源來進(jìn)行數(shù)據(jù)科學(xué)家的訓(xùn)練。 

“這些(DeepSpeed中的新技術(shù))提供了極高的計算、內(nèi)存和通信效率,并支持?jǐn)?shù)十億到數(shù)萬億個參數(shù)的模型訓(xùn)練。” 微軟在博客中寫道,“這些技術(shù)還允許極長的輸入序列,并通過單個GPU,具有數(shù)千個GPU的高端集群或具有非常慢的以太網(wǎng)網(wǎng)絡(luò)的低端集群釋放硬件系統(tǒng)的能量。我們將(繼續(xù))進(jìn)行快速創(chuàng)新,為深度學(xué)習(xí)訓(xùn)練突破了速度和規(guī)模的界限。”

責(zé)任編輯:張燕妮 來源: 雷鋒網(wǎng)
相關(guān)推薦

2021-01-25 13:45:14

模型人工智能深度學(xué)習(xí)

2020-05-08 15:49:50

神經(jīng)網(wǎng)絡(luò)人工智能架構(gòu)

2023-12-29 14:13:41

PyTorch模型開發(fā)

2023-06-27 12:56:23

微軟AI

2023-09-20 16:55:15

華為AI 計算集群

2020-11-20 10:40:20

PyTorch神經(jīng)網(wǎng)絡(luò)代碼

2025-06-03 16:23:05

2023-10-31 12:45:00

智能數(shù)據(jù)

2024-07-16 13:13:26

2025-01-09 08:01:10

2025-06-11 03:00:00

2023-11-16 16:41:36

AI 模型

2024-04-18 12:16:37

MetaAIOpenEQA

2023-09-25 07:31:19

算力AI框架

2024-11-11 18:04:17

2024-02-19 00:21:45

開源圖片

2021-01-27 10:46:07

Pytorch深度學(xué)習(xí)模型訓(xùn)練

2020-11-06 12:00:43

VSCode插件源代碼編輯器

2020-02-24 10:51:25

微軟開源Windows

2022-04-19 14:08:06

大數(shù)據(jù)云計算數(shù)字化轉(zhuǎn)型
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號