偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

算力芯片+服務器+數(shù)據(jù)中心,如何測算ChatGPT算力需求?

新聞 開發(fā)
訓練ChatGPT需要使用大量算力資源。

ChatGPT發(fā)布之后,引發(fā)了全球范圍的關注和討論,國內各大廠商相繼宣布GPT模型開發(fā)計劃。以GPT模型為代表的AI大模型訓練,需要消耗大量算力資源,主要需求場景來自:預訓練+日常運營+Finetune。以預訓練為例,據(jù)測算,進行一次ChatGPT的模型預訓練需要消耗約27.5PFlop/s-day算力?;诖?,隨著國產大模型開發(fā)陸續(xù)進入預訓練階段,算力需求持續(xù)釋放或將帶動算力基礎設施產業(yè)迎來增長新周期。產業(yè)鏈相關公司包括:

?算力芯片廠商:景嘉微、寒武紀、海光信息、龍芯中科、中國長城等;

?服務器廠商:浪潮信息、中科曙光等;

?IDC服務商:寶信軟件等。

ChatGPT:大模型訓練帶來高算力需求

訓練ChatGPT需要使用大量算力資源。據(jù)微軟官網(wǎng),微軟Azure為OpenAI開發(fā)的超級計算機是一個單一系統(tǒng),具有超過28.5萬個CPU核心、1萬個GPU和400 GB/s的GPU服務器網(wǎng)絡傳輸帶寬。據(jù)英偉達,使用單個Tesla架構的V100 GPU對1746億參數(shù)的GPT-3模型進行一次訓練,需要用288年時間。此外,算力資源的大量消耗,必然伴隨著算力成本的上升,據(jù)Lambda,使用訓練一次1746億參數(shù)的GPT-3模型所需花費的算力成本超過460萬美元。我們認為,未來擁有更豐富算力資源的模型開發(fā)者,或將能夠訓練出更優(yōu)秀的AI模型,算力霸權時代或將開啟。

具體來看,AI大模型對于算力資源的需求主要體現(xiàn)在以下三類場景:

1、模型預訓練帶來的算力需求

模型預訓練過程是消耗算力的最主要場景。

預計,訓練一次ChatGPT模型需要的算力約27.5PFlop/s-day。據(jù)OpenAI團隊發(fā)表于2020年的論文《Language Models are Few-Shot Learners》,訓練一次13億參數(shù)的GPT-3 XL模型需要的全部算力約為27.5PFlop/s-day,訓練一次1746億參數(shù)的GPT-3模型需要的算力約為3640 PFlop/s-day??紤]到ChatGPT訓練所用的模型是基于13億參數(shù)的GPT-3.5模型微調而來,參數(shù)量與GPT-3 XL模型接近,因此我們預計訓練所需算力約27.5PFlop/s-day,即以1萬億次每秒的速度進行計算,需要耗時27.5天。

圖片

圖片

此外,預訓練過程還存在幾個可能的算力需求點:

1)模型開發(fā)過程很難一次取得成功,整個開發(fā)階段可能需要進行多次預訓練過程;

2)隨著國內外廠商相繼入局研發(fā)類似模型,參與者數(shù)量增加同樣帶來訓練算力需求;

3)從基礎大模型向特定場景遷移的過程,如基于ChatGPT構建醫(yī)療AI大模型,需要使用特定領域數(shù)據(jù)進行模型二次訓練。

圖片

2、日常運營帶來的算力需求

ChatGPT單月運營需要算力約4874.4PFlop/s-day,對應成本約616萬美元。

在完成模型預訓練之后,ChatGPT對于底層算力的需求并未結束,日常運營過程中,用戶交互帶來的數(shù)據(jù)處理需求同樣也是一筆不小的算力開支。據(jù)SimilarWeb數(shù)據(jù),2023年1月ChatGPT官網(wǎng)總訪問量為6.16億次。據(jù)Fortune雜志,每次用戶與ChatGPT互動,產生的算力云服務成本約0.01美元?;诖?,我們測算得2023年1月OpenAI為ChatGPT支付的運營算力成本約616萬美元。據(jù)上文,我們已知訓練一次1746億參數(shù)的GPT-3模型需要3640 PFlop/s-day的算力及460萬美元的成本,假設單位算力成本固定,測算得ChatGPT單月運營所需算力約4874.4PFlop/s-day。

圖片

3、Finetune帶來的算力需求

模型調優(yōu)帶來迭代算力需求。從模型迭代的角度來看,ChatGPT模型并不是靜態(tài)的,而是需要不斷進行Finetune模型調優(yōu),以確保模型處于最佳應用狀態(tài)。這一過程中,一方面是需要開發(fā)者對模型參數(shù)進行調整,確保輸出內容不是有害和失真的;另一方面,需要基于用戶反饋和PPO策略,對模型進行大規(guī)模或小規(guī)模的迭代訓練。因此,模型調優(yōu)同樣會為OpenAI帶來算力成本,具體算力需求和成本金額取決于模型的迭代速度。

需求場景:預訓練+日常運營+Finetune

具體來看,AI大模型對于算力資源的需求主要體現(xiàn)在以下三類場景:

1)模型預訓練:ChatGPT采用預訓練語言模型,核心思想是在利用標注數(shù)據(jù)之前,先利用無標注的數(shù)據(jù)訓練模型。據(jù)我們測算,訓練一次ChatGPT模型(13億參數(shù))需要的算力約27.5PFlop/s-day;

2)日常運營:用戶交互帶來的數(shù)據(jù)處理需求同樣也是一筆不小的算力開支,我們測算得ChatGPT單月運營需要算力約4874.4PFlop/s-day,對應成本約616萬美元;

3)Finetune:ChatGPT模型需要不斷進行Finetune模型調優(yōu),對模型進行大規(guī)?;蛐∫?guī)模的迭代訓練,預計每月模型調優(yōu)帶來的算力需求約82.5~137.5 PFlop/s-day。

算力芯片+服務器+數(shù)據(jù)中心,核心環(huán)節(jié)率先受益

隨著國內廠商相繼布局ChatGPT類似模型,算力需求或將持續(xù)釋放,供給端核心環(huán)節(jié)或將率先受益:

1)算力芯片:GPU采用了數(shù)量眾多的計算單元和超長的流水線,架構更適合進行大吞吐量的AI并行計算;

2)服務器:ChatGPT模型訓練涉及大量向量及張量運算,AI服務器具備運算效率優(yōu)勢,大模型訓練有望帶動AI服務器采購需求放量;

3)數(shù)據(jù)中心:IDC算力服務是承接AI計算需求的直接形式,隨著百度、京東等互聯(lián)網(wǎng)廠商相繼布局ChatGPT類似產品,核心城市IDC算力缺口或將加大。

算力芯片:AI算力基石,需求有望大規(guī)模擴張

GPU架構更適合進行大規(guī)模AI并行計算,需求有望大規(guī)模擴張。從ChatGPT模型計算方式來看,主要特征是采用了并行計算。對比上一代深度學習模型RNN來看,Transformer架構下,AI模型可以為輸入序列中的任何字符提供上下文,因此可以一次處理所有輸入,而不是一次只處理一個詞,從而使得更大規(guī)模的參數(shù)計算成為可能。而從GPU的計算方式來看,由于GPU采用了數(shù)量眾多的計算單元和超長的流水線,因此其架構設計較CPU而言,更適合進行大吞吐量的AI并行計算。基于此,我們認為,隨著大模型訓練需求逐步增長,下游廠商對于GPU先進算力及芯片數(shù)量的需求均有望提升。

圖片

單一英偉達V100芯片進行一次ChatGPT模型訓練,大約需要220天。我們以AI訓練的常用的GPU產品—NVIDIA V100為例。V100在設計之初,就定位于服務數(shù)據(jù)中心超大規(guī)模服務器。據(jù)英偉達官網(wǎng),V100 擁有 640 個 Tensor 內核,對比基于單路英特爾金牌6240的CPU服務器可以實現(xiàn)24倍的性能提升??紤]到不同版本的V100芯片在深度學習場景下計算性能存在差異,因此我們折中選擇NVLink版本V100(深度學習算力125 TFlops)來計算大模型訓練需求。據(jù)前文,我們已知訓練一次ChatGPT模型(13億參數(shù))需要的算力約27.5PFlop/s-day,計算得若由單個V100 GPU進行計算,需220天;若將計算需求平均分攤至1萬片GPU,一次訓練所用時長則縮短至約32分鐘。

圖片

全球/中國GPU市場規(guī)模有望保持快速增長。據(jù)VMR數(shù)據(jù),2021年全球GPU行業(yè)市場規(guī)模為334.7億美元,預計2030年將達到4773.7億美元,預計22-30年CAGR將達34.4%。2020年中國GPU市場規(guī)模47.39億美元,預計2027年市場規(guī)模將達345.57億美元,預計21-27年CAGR為32.8%。

圖片

服務器:AI服務器有望持續(xù)放量

ChatGPT主要進行矩陣向量計算,AI服務器處理效率更高。從ChatGPT模型結構來看,基于Transformer架構,ChatGPT模型采用注意力機制進行文本單詞權重賦值,并向前饋神經網(wǎng)絡輸出數(shù)值結果,這一過程需要進行大量向量及張量運算。而AI服務器中往往集成多個AI GPU,AI GPU通常支持多重矩陣運算,例如卷積、池化和激活函數(shù),以加速深度學習算法的運算。因此在人工智能場景下,AI服務器往往較GPU服務器計算效率更高,具備一定應用優(yōu)勢。

圖片

單臺服務器進行一次ChatGPT模型訓練所需時間約為5.5天。我們以浪潮信息目前算力最強的服務器產品之一—浪潮NF5688M6為例。NF5688M6是浪潮為超大規(guī)模數(shù)據(jù)中心研發(fā)的NVLink AI 服務器,支持2顆Intel最新的Ice Lake CPU和8顆NVIDIA最新的NVSwitch全互聯(lián)A800GPU,單機可提供5PFlops的AI計算性能。據(jù)前文,我們已知訓練一次ChatGPT模型(13億參數(shù))需要的算力約27.5PFlop/s-day,計算得若由單臺NF5688M6服務器進行計算,需5.5天。

大模型訓練需求有望帶動AI服務器放量。隨著大數(shù)據(jù)及云計算的增長帶來數(shù)據(jù)量的增加,對于AI智能服務器的需求明顯提高。據(jù)IDC數(shù)據(jù),2021年全球AI服務器市場規(guī)模為156億美元,預計到2025年全球AI服務器市場將達到318億美元,預計22-25年CAGR將達19.5%。

圖片

數(shù)據(jù)中心:核心城市集中算力缺口或將加劇

IDC算力服務是承接AI計算需求的直接形式。ChatGPT的模型計算主要基于微軟的Azure云服務進行,本質上是借助微軟自有的IDC資源,在云端完成計算過程后,再將結果返回給OpenAI??梢姡琁DC是承接人工智能計算任務的重要算力基礎設施之一,但并不是所有企業(yè)都需要自行搭建算力設施。從國內數(shù)據(jù)中心的業(yè)務形態(tài)來看,按照機房產權歸屬及建設方式的角度,可分為自建機房、租賃機房、承接大客戶定制化需求以及輕資產衍生模式四種。

若使用某一IDC全部算力,可在11分鐘完成一次ChatGPT模型訓練。我們以亞洲最大的人工智能計算中心之一—商湯智算中心為例。據(jù)商湯科技官網(wǎng),商湯智算中心于2022年1月啟動運營,峰值算力高達3740 Petaflops。據(jù)前文,我們已知訓練一次ChatGPT模型(13億參數(shù))需要的算力約27.5PFlop/s-day,計算得若使用商湯智算中心全部算力進行計算,僅需11分鐘即可完成。

AI訓練需求有望帶動IDC市場規(guī)??焖僭鲩L。據(jù)中國信通院,2021年國內IDC市場規(guī)模1500.2億元,同比增長28.5%。據(jù)信通院預計,隨著我國各地區(qū)、各行業(yè)數(shù)字化轉型深入推進、AI訓練需求持續(xù)增長、智能終端實時計算需求增長,2022年國內市場規(guī)模將達1900.7億元,同增26.7%。

圖片

互聯(lián)網(wǎng)廠商布局ChatGPT類似產品,或將加大核心城市IDC算力供給缺口。據(jù)艾瑞咨詢,2021年國內IDC行業(yè)下游客戶占比中,互聯(lián)網(wǎng)廠商居首位,占比為60%;其次為金融業(yè),占比為20%;政府機關占比10%,位列第三。而目前國內布局ChatGPT類似模型的企業(yè)同樣以互聯(lián)網(wǎng)廠商為主,如百度宣布旗下大模型產品“文心一言”將于2022年3月內測、京東于2023年2月10日宣布推出產業(yè)版ChatGPT:ChatJD。另一方面,國內互聯(lián)網(wǎng)廠商大多聚集在北京、上海、深圳、杭州等國內核心城市,在可靠性、安全性及網(wǎng)絡延遲等性能要求下,或將加大對本地IDC算力需求,國內核心城市IDC算力供給缺口或將加大。

責任編輯:張燕妮 來源: 架構師技術聯(lián)盟
相關推薦

2022-01-14 11:56:21

數(shù)據(jù)中心算力工信部

2025-08-21 10:18:15

2023-08-18 19:57:03

華為

2021-09-22 16:25:17

服務器戴爾科技集團

2023-05-31 17:52:03

技術

2025-07-14 09:59:29

2015-08-24 09:14:24

數(shù)據(jù)中心服務器

2024-09-27 13:00:05

智算中心人工智能云計算

2024-12-03 11:15:04

2023-02-15 16:22:10

人工智能ChatGPT模型開發(fā)

2023-04-25 14:56:24

ChatGPT人工智能

2022-12-28 12:28:58

數(shù)據(jù)中心

2021-06-24 20:28:44

辦公

2024-04-02 14:26:22

數(shù)據(jù)中心數(shù)字化轉型

2023-08-18 17:24:11

聯(lián)想問天WA7780
點贊
收藏

51CTO技術棧公眾號