偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

馬斯克打臉OpenAI,全球最大巨無霸模型Grok-1開源!3140億參數(shù)8個MoE,GitHub狂攬6k星

人工智能 新聞
xAI的Grok,在七天后如期開源了!公開Grok背后代碼,讓馬斯克對OpenAI啪啪打臉。3140億參數(shù)8個MoE,權重架構全開放,項目一上線已經(jīng)在GitHub上狂攬6k星。

說到做到,馬斯克xAI的Grok,果然如期開源了!

圖片

就在剛剛,xAI正式發(fā)布3140億參數(shù)混合專家模型Grok-1的權重和架構。

圖片

3140億的參數(shù),讓Grok-1成為迄今參數(shù)量最大的開源LLM,是Llama 2的4倍。

目前,xAI關于Grok-1沒有透露更多信息。

官網(wǎng)放出的信息如下——

- 基礎模型在大量文本數(shù)據(jù)上訓練,未針對任何特定任務進行微調。

- 314B參數(shù)的MoE,有25%的權重在給定token上處于激活狀態(tài)。

- 2023年10月,xAI使用JAX和Rust之上的自定義訓練堆棧從頭開始訓練。

一經(jīng)上線GitHub,Grok就狂攬了6k星,586個Fork。

圖片

項目地址:https://github.com/xai-org/grok-1

馬斯克還不忘嘲諷OpenAI一番,「告訴我們更多關于OpenAI的「open」部分...」

圖片

紐約時報點評道,開源Gork背后的原始代碼,是這個世界上最富有的人控制AI未來戰(zhàn)斗的升級。

圖片

開源究竟會讓技術更安全,還是會讓它更濫用?

「開源支持者」馬斯克,以身作則地卷入了AI界的這場激烈辯論,并用行動給出了答案。

小扎剛剛也對Grok做出了評價,「并沒有給人留下真正深刻的印象,3140億參數(shù)太多了,你需要一堆H100,不過我已經(jīng)買下了」。

圖片

一條磁力鏈,全球首個最大模型開源

這次xAI開源Grok-1,遵守的是Apache-2.0許可證,因此,用戶可以自由使用、修改和分發(fā)軟件。

存儲庫包含了用于加載和運行Grok-1開源權重模型的JAX示例代碼。

用戶需要下載checkpoint,將ckpt-0目錄放置在checkpoint中,隨后運行以下代碼來測試:

pip install -r requirements.txt
python run.py

這個腳本會在測試輸入上,加載checkpoint和模型中的樣本。

由于模型較大,參數(shù)達到了314B參數(shù),因此需要具有足夠GPU內(nèi)存的計算機,才能使用示例代碼測試模型。

而且,由于此存儲庫中MoE層的實現(xiàn)效率不高,選擇該實現(xiàn)是為了避免需要自定義內(nèi)核來驗證模型的正確性。

通過Torrent客戶端和下面這個磁力鏈接,就可以下載權重了。

magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce

更多細節(jié)

斯坦福研究者Andrew Kean Gao瀏覽了model.py介紹了更多Grok的架構信息,3140億參數(shù)沒有更多附加條款。

8個混合專家(2個活躍專家),860B活躍參數(shù)。它使用旋轉嵌入,而不是固定位置嵌入。

- tokenizer詞匯量:131,072(于GPT-4類似)相當于2^17

- 嵌入大?。?144(48*128)

- Transformer層:64(每一層都有一個解碼層:多頭注意塊和密度塊)

- 鍵值大?。?28

多頭注意模塊:有48個查詢頭和8個鍵值

密集塊(密集前饋塊):

- 寬度因子(Widening Factor):8

- 隱藏層大小為32768

每個token從8個專家中選出2個。

圖片

旋轉位置嵌入大小6144,這是有意義的,它與模型的輸入嵌入大小相同。

- 上下文長度:8192個token

- 精度:bf16

圖片

最后,附上一張總結版圖。

圖片

網(wǎng)友:開源爭霸戰(zhàn)要來

AI社區(qū)已經(jīng)沸騰了!

技術界指出,Grok的亮點是在前向反饋層中使用了GeGLU以及歸一化方法,并且使用了有趣的三明治范式技術(sandwich norm technique)。

連OpenAI的員工,都表示了自己對Grok的強烈興趣。

圖片

英偉達高級科學家Jim Fan表示,「有史以來最大的開源大模型,由世界級團隊訓練,通過磁力鏈Apache 2.0發(fā)布。

314B參數(shù),混合專家模型(8個專家2個是活躍的)。就連活躍參數(shù)規(guī)模(86B)都超過了最大的Llama模型。迫不及待地想看到基準測試結果,以及人們能用它構建出什么樣的應用」。

圖片

圖片

AI研究人員Sebastian Raschka表示,與其他通常有使用限制的開源模重模型相比,Grok更為開源。不過它的開源程度低于Pythia、Bloom和Olmo,后者提供了訓練代碼和可重現(xiàn)的數(shù)據(jù)集。

Craiyon創(chuàng)始人Boris Dayma,詳細分析了Grok-1的代碼。

網(wǎng)友indigo表示,為了「理解宇宙」的理念,看來xAI團隊特意把參數(shù)設定成了「圓周率 314B」,這是目前規(guī)模最大的開源模型,期待今年6月的Llama 3加入Grok的開源爭霸戰(zhàn)。

Grok開源后,一大波微調要來了。

圖片

第一代Grok已超越Llama-2-70B

2023年11月,xAI推出了自己的第一代大語言模型Grok,正式加入大模型的戰(zhàn)爭。

當時,Grok在推特上作為「Premium+」訂閱服務的一部分,月費16美元。

xAI表示,Grok的設計靈感來源于《銀河系漫游指南》,它能夠回答幾乎所有問題,助力人類不分背景或政治立場地追求理解和知識。

Grok最初的版本Grok-0擁有330億參數(shù),緊接著xAI推出了經(jīng)過數(shù)次改進的Grok-1,為X上的Grok聊天機器人提供支持。

根據(jù)xAI公布的數(shù)據(jù),在GSM8K、HumanEval和MMLU等一系列基準測試中,Grok-1的表現(xiàn)超過了Llama-2-70B和GPT-3.5,雖然跟GPT-4還差得遠。

圖片

當時,Grok不僅能夠處理X平臺上實時生成的用戶內(nèi)容,還帶有一點幽默感,給憨憨的AI注入了一絲活力。

在提供最新熱點事件信息(無論是政治還是體育)的同時,它還能抖個機靈,甚至偶爾諷刺一下。

馬斯克為何選擇開源?

在數(shù)次嘲諷OpenAI是「CloseAI」之后,馬斯克果真選擇了開源自家大模型。

當然,這背后肯定也有商業(yè)上的考量。

作為市場領導者的OpenAI,是沒有理由開源ChatGPT背后模型代碼的。

現(xiàn)在,通過發(fā)布Grok的代碼,馬斯克將自己牢牢扎根在后者的陣營中。這一決定,或許能讓他的xAI超越Meta和Mistral AI。

Llama的開源給Meta帶來了很多好處,幾乎讓小扎從元宇宙的泥潭爬了出來。

圖片

而僅僅只是一個小型初創(chuàng)公司的Mistral AI,也因為自己的開源策略而聲名鵲起,被業(yè)界公認為「歐洲的OpenAI」。

圖片

開源版本可能會鼓勵開發(fā)者和潛在客戶更快地采納自己的模型,實際上起到了市場推廣的作用。

開發(fā)者社區(qū)對Grok開源版本的反饋和改進也可能有助于xAI加速開發(fā)新版本,這些新版本xAI可以選擇開放源代碼或保留專有權。

比如像Mistral一樣,承諾繼續(xù)發(fā)布開源版本,同時為付費客戶保留最先進的模型。

馬斯克一直是開源技術的支持者,連Tesla也已經(jīng)開放了汽車某些部分的源代碼,而他的社交媒體平臺X公開了一些用于內(nèi)容排名的算法。

「還有工作要做,但這個平臺已經(jīng)是迄今為止最透明、最注重真相、不是高門檻的平臺,」馬斯克今天在回應對開源X推薦算法的評論時,這樣說道。

圖片

盡管OpenAI目前在AI領域仍遙遙領先,但開源和閉源的戰(zhàn)爭還遠遠沒有結束。

圖片

AI模型是否應該開源?某些人認為,必須防止這種強大技術免受闖入者的侵害,而另一些人則堅持認為,開源的利絕對大于弊。

作為市場領導者的OpenAI,是沒有理由開源ChatGPT背后模型代碼的。

現(xiàn)在,通過發(fā)布Grok的代碼,馬斯克將自己牢牢扎根在后者的陣營中。

這一決定,或許能讓他的xAI最終超越Meta和Mistral AI。

責任編輯:張燕妮 來源: 新智元
相關推薦

2024-03-18 15:00:48

Grok現(xiàn)已開源Grok-1混合專家模型

2024-03-18 08:47:34

馬斯克GrokOpenAI

2024-03-18 14:17:06

大模型開源人工智能

2024-03-19 14:00:59

2023-11-06 12:34:14

模型訓練

2025-02-11 11:19:52

2025-08-25 08:54:00

2024-03-18 13:21:13

2024-03-25 13:04:00

AI模型

2024-05-29 14:11:00

2024-03-12 13:14:40

2025-02-11 11:46:48

OpenAI奧特曼馬斯克

2025-08-25 09:10:00

2025-02-21 10:51:47

2025-09-19 09:10:00

2023-12-13 08:46:33

人工智能ChatGPT機器人

2025-07-25 09:25:05

2025-09-23 09:18:40

2024-05-07 13:30:00

數(shù)據(jù)訓練

2023-11-06 13:44:34

點贊
收藏

51CTO技術棧公眾號