偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

一條磁力鏈接席卷AI圈,87GB種子直接開(kāi)源8x7B MoE模型

人工智能 新聞
專(zhuān)家混合 (MoE) 是 LLM 中常用的一種技術(shù),旨在提高其效率和準(zhǔn)確性。這種方法的工作原理是將復(fù)雜的任務(wù)劃分為更小、更易于管理的子任務(wù),每個(gè)子任務(wù)都由專(zhuān)門(mén)的迷你模型或「專(zhuān)家」處理。

「高端」的開(kāi)源,往往采用最樸素的發(fā)布方式。

昨天,Mistral AI 在 X 平臺(tái)甩出一條磁力鏈接,宣布了新的開(kāi)源動(dòng)作。

圖片

沒(méi)有長(zhǎng)篇官方博客,沒(méi)有刻意加速的 Demo,這家公司算是當(dāng)下大模型領(lǐng)域的「一股清流」。

打開(kāi)一看,發(fā)現(xiàn)是接近 87 GB 的種子:

圖片

參數(shù)配置什么樣?很多人放棄了周末,第一時(shí)間下載運(yùn)行起來(lái)。

看上去,Mistral 8x7B 使用了與 GPT-4 非常相似的架構(gòu),但是「縮小版」: 

  • 8 個(gè)專(zhuān)家總數(shù),而不是 16 名(減少一半) 
  • 每個(gè)專(zhuān)家為 7B 參數(shù),而不是 166B(減少 24 倍)
  • 42B 總參數(shù)(估計(jì))而不是 1.8T(減少 42 倍)
  • 與原始 GPT-4 相同的 32K 上下文

在發(fā)布后 24 小時(shí)內(nèi),已經(jīng)有開(kāi)發(fā)者做出了在線體驗(yàn)網(wǎng)站:https://replicate.com/nateraw/mixtral-8x7b-32kseqlen

有研究者稱(chēng):「閉源大模型走到結(jié)局了?!?/span>

圖片

這周已經(jīng)引發(fā)群嘲的谷歌,也再次被 Cue 到:

圖片

專(zhuān)家混合 (MoE) 是 LLM 中常用的一種技術(shù),旨在提高其效率和準(zhǔn)確性。這種方法的工作原理是將復(fù)雜的任務(wù)劃分為更小、更易于管理的子任務(wù),每個(gè)子任務(wù)都由專(zhuān)門(mén)的迷你模型或「專(zhuān)家」處理。

具體來(lái)說(shuō),「專(zhuān)家層」是較小的神經(jīng)網(wǎng)絡(luò),經(jīng)過(guò)訓(xùn)練在特定領(lǐng)域具有高技能,每個(gè)專(zhuān)家處理相同的輸入,但處理方式與其特定的專(zhuān)業(yè)相一致;「門(mén)控網(wǎng)絡(luò)」是 MoE 架構(gòu)的決策者,能評(píng)估哪位專(zhuān)家最適合給定的輸入數(shù)據(jù)。網(wǎng)絡(luò)計(jì)算輸入與每個(gè)專(zhuān)家之間的兼容性分?jǐn)?shù),然后使用這些分?jǐn)?shù)來(lái)確定每個(gè)專(zhuān)家在任務(wù)中的參與程度。

我們都知道,OpenAI 團(tuán)隊(duì)一直對(duì) GPT-4 的參數(shù)量和訓(xùn)練細(xì)節(jié)守口如瓶。早些時(shí)候,有人爆料 GPT-4 是采用了由 8 個(gè)專(zhuān)家模型組成的集成系統(tǒng)。后來(lái)又有傳聞稱(chēng),ChatGPT 也只是百億參數(shù)級(jí)的模型(大概在 200 億左右)。

傳聞無(wú)從證明,但 Mistral 8x7B 可能提供了一種「非常接近 GPT-4」的開(kāi)源選項(xiàng)。從模型元數(shù)據(jù)中可以看出,對(duì)于每個(gè) token 的推理,Mistral 8x7B 僅使用 2 個(gè)專(zhuān)家。

更讓人感覺(jué)有趣的是,這是該公司官方賬號(hào)自開(kāi)通以來(lái)發(fā)布的第三條內(nèi)容,兩次重要發(fā)布均無(wú)文字說(shuō)明,配圖什么的更是不存在:

圖片

9 月底的那條鏈接發(fā)布的是 Mistral 7B,該模型至今仍被稱(chēng)為「最好的 7B 模型」,在每個(gè)基準(zhǔn)測(cè)試中都優(yōu)于 Llama-2 13B,并且在代碼、數(shù)學(xué)和推理方面優(yōu)于 LLaMA-1 34B。

Mistral AI 成立于 2023 年 5 月,是一家法國(guó)人工智能初創(chuàng)公司,也是為數(shù)不多來(lái)自歐洲的大模型開(kāi)源領(lǐng)域的明星團(tuán)隊(duì)。

Mistral AI 曾在 6 月獲得了創(chuàng)紀(jì)錄的 1.18 億美元種子輪融資,還是在僅有 7 頁(yè) PPT 的情況下,據(jù)說(shuō)這是歐洲歷史上最大的種子輪融資。

圖片

Mistral AI 團(tuán)隊(duì)成員。

公司創(chuàng)始人之一 Arthur Mensch 曾在 10 月份向《金融時(shí)報(bào)》表示,Mistral AI 的技術(shù)比美國(guó)的一些強(qiáng)大競(jìng)爭(zhēng)對(duì)手開(kāi)發(fā)的技術(shù)更高效、成本更低。

技術(shù)實(shí)力的優(yōu)越,也為這家公司帶來(lái)了投資者的持續(xù)關(guān)注。

近日,《金融時(shí)報(bào)》報(bào)道了 Mistral AI 新一輪融資的動(dòng)態(tài):新一輪融資約 4 億歐元,主要由股權(quán)組成,可能在下周官宣。目前,公司的最新估值在 20 億歐元左右。

知情人士透露,新一輪融資由硅谷著名風(fēng)投 Andreessen Horowitz 牽頭,其他參與者還包括英偉達(dá)、Salesforce、General Catalyst、法國(guó)巴黎銀行等。

Mistral AI 的其他投資者還包括谷歌前 CEO 埃里克?施密特 (Eric Schmidt)、法國(guó)電信億萬(wàn)富翁澤維爾?尼爾 (Xavier Niel) 和法國(guó)國(guó)家支持的投資銀行 Bpifrance。

這篇報(bào)道還提到,Arthur Mensch 表示「雖然公司尚未賺到任何錢(qián),但預(yù)計(jì)這種情況將在年底前發(fā)生改變,因?yàn)樵摴緶?zhǔn)備了一個(gè)新平臺(tái),供客戶訪問(wèn)其人工智能模型?!?/span>

參考鏈接:https://www.ft.com/content/ea29ddf8-91cb-45e8-86a0-f501ab7ad9bb

責(zé)任編輯:張燕妮 來(lái)源: 機(jī)器之心
相關(guān)推薦

2024-04-10 13:37:05

2024-01-16 12:10:33

模型數(shù)據(jù)

2023-12-11 19:16:25

2024-01-10 17:10:53

數(shù)據(jù)訓(xùn)練

2024-01-02 09:55:26

AI模型

2019-11-06 15:16:12

16GB8GB內(nèi)存

2024-09-12 14:19:59

2023-12-12 13:16:00

模型訓(xùn)練

2025-04-14 00:30:00

2024-09-05 14:25:00

訓(xùn)練代碼

2020-07-15 09:29:23

Python開(kāi)發(fā)工具

2025-09-18 08:42:46

2025-07-29 09:12:00

2024-01-12 17:25:45

MoE模型開(kāi)源人工智能

2025-03-11 00:22:00

DeepSeekAI圖片

2018-07-30 11:03:08

4GB內(nèi)存8GB

2023-12-09 13:32:21

GPT-4MoE架構(gòu)開(kāi)源大模型

2024-01-19 12:51:00

AI數(shù)據(jù)

2022-05-25 08:01:37

WHERESQL 語(yǔ)句
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)