偷偷摘套内射激情视频,久久精品99国产国产精,中文字幕无线乱码人妻,中文在线中文a,性爽19p

王興一鳴驚人!美團(tuán)首個(gè)開源大模型追平DeepSeek-V3.1

人工智能 新聞
這個(gè)最新開源模型叫:Longcat-Flash-Chat,美團(tuán)第一個(gè)開源大模型,發(fā)布即開源,已經(jīng)在海內(nèi)外的技術(shù)圈子里火爆熱議了。

沒想到啊,最新SOTA的開源大模型……

來自一個(gè)送外賣(Waimai)的——有兩個(gè)AI,確實(shí)不一樣。

這個(gè)最新開源模型叫:Longcat-Flash-Chat,美團(tuán)第一個(gè)開源大模型,發(fā)布即開源,已經(jīng)在海內(nèi)外的技術(shù)圈子里火爆熱議了。

一方面是因?yàn)槌煽兞裂郏?/span>

它在部分benchmark上,比如Agent工具調(diào)用、指令遵循的表現(xiàn)超過DeepSeek-V3.1、Qwen3 MoE-2507,甚至比閉源的Claude4 Sonnet還要好。

編程能力也值得關(guān)注,在TerminalBench上,和公認(rèn)的“編程之王”Claude4 Sonnet不相上下。

比如非常流行的小球氛圍編程測試,LongCat編寫的程序,運(yùn)行起來效果是這樣的:

另一方面是技術(shù)報(bào)告中透露出不少美團(tuán)對于大模型的理解,包括DSMoE、MLA、動(dòng)態(tài)計(jì)算、Infra等等。

我覺得這是中國大模型里最講得詳細(xì)的論文了,甚至超過Kimi、GLM,特別是在建模和infra方面。

要知道,這可是一家“外賣公司”?。ㄊ謩?dòng)狗頭),做的模型都比Meta好了。

而且不光是模型性能好,技術(shù)報(bào)告里還介紹了一系列新發(fā)現(xiàn),比如:

  • 采用新路由架構(gòu),調(diào)用真正需要的專家模型,使計(jì)算更少;
  • 通過將MoE和密集層的通信重疊執(zhí)行,優(yōu)化模型通信效率;
  • 使用新方法來遷移超參數(shù)而不是muP
  • ……

以及無論是在總參數(shù)量還是激活參數(shù)上,Longcat-Flash-Chat都比DeepSeek-V3.1和Kimi-K2更少。

具體來看——

“零計(jì)算專家”讓吞吐大幅提升

此次開源的Longcat-Flash-Chat是一個(gè)560B的MoE模型,整體架構(gòu)采用“零計(jì)算專家”(Zero-computation Experts)與Shortcut-connected MoE雙重設(shè)計(jì)。

它通過根據(jù)上下文重要性為每個(gè)token動(dòng)態(tài)激活18.6B–31.3B參數(shù),并讓前一塊密集FFN與當(dāng)前MoE的通信階段并行執(zhí)行,大幅提升訓(xùn)練與推理吞吐。

相比于同為MoE架構(gòu)的DeepSeek-V3.1(671B/A37B)和Kimi-K2(1T/A32B),Longcat-Flash-Chat都擁有相對更少的總參數(shù)量和激活參數(shù)量。

零計(jì)算專家是在專家池中加入的若干恒等專家,路由器為每個(gè)token從N+Z個(gè)專家中選取K個(gè),被選中的零計(jì)算專家直接恒等映射輸入,完全不做GEMM運(yùn)算,實(shí)現(xiàn)動(dòng)態(tài)計(jì)算分配。

為保持約27B激活參數(shù),系統(tǒng)通過專家偏置+PID控制器在線調(diào)節(jié)路由概率,并引入設(shè)備級負(fù)載均衡損失對FFN與零計(jì)算專家進(jìn)行分組約束,避免序列級失衡。

Shortcut-connected MoE通過跨層快捷連接重排執(zhí)行流水線,使上一層FFN計(jì)算與當(dāng)前層dispatch/combine通信并行,顯著擴(kuò)大計(jì)算-通信重疊窗口。

規(guī)?;?xùn)練過程中,LongCat采用了“超參數(shù)遷移+模型生長初始化+多重穩(wěn)定性套件+確定性計(jì)算”的策略組合,即先用小模型預(yù)測最優(yōu)超參數(shù),再將14層模型堆疊成28層checkpoint加速收斂。

能力塑造方面,模型先在兩階段融合的20T token語料上完成預(yù)訓(xùn)練,中期強(qiáng)化推理與編碼并將上下文窗口擴(kuò)展至128k,最終借助多Agent合成框架生成高難度工具使用任務(wù)進(jìn)行后訓(xùn)練,使模型具備復(fù)雜agentic行為。

推理階段,為徹底消除CPU調(diào)度與Kernel啟動(dòng)瓶頸,團(tuán)隊(duì)實(shí)現(xiàn)多步重疊調(diào)度器,一次性為未來n步預(yù)排并啟動(dòng)前向,使CPU調(diào)度與GPU計(jì)算交錯(cuò),配合其他技術(shù),使得LongCat在560B級別模型上實(shí)現(xiàn)吞吐的大幅提升。

最終,LongCat-Flash在多類權(quán)威基準(zhǔn)中處于第一梯隊(duì),在非思考大模型中與DeepSeek-V3.1等模型相當(dāng)甚至更優(yōu)。

性能上,與DeepSeek-V3等同級模型比較,LongCat-Flash在不同上下文長度下都實(shí)現(xiàn)了更高的單GPU吞吐和單用戶速度。

560B參數(shù)的LongCat-Flash在上萬個(gè)加速卡上完成超過20Ttoken預(yù)訓(xùn)練僅用30天,訓(xùn)練期間可用率98.48%,單張H800GPU生成速度超過100 tokens/s,成本約0.7美元/百萬輸出token。

實(shí)測美團(tuán)LongCat大模型

那么接下來,就來看看LongCat的真實(shí)表現(xiàn),我們跳過簡單的基礎(chǔ)問答,直接上數(shù)學(xué)題。

這道題出自今年的全國一卷。這里題目是以文本形式輸入給模型的,且公式轉(zhuǎn)換成了LaTeX格式。

先看結(jié)果,LongCat的最終答案全部正確:

接下來檢查一下具體過程。

第一問在圓錐曲線類問題當(dāng)中比較基礎(chǔ),簡單結(jié)合已知信息,利用離心率的定義式然后代換數(shù)量關(guān)系就能解出,LongCat也做對了。

第二問的第一小問,LongCat根據(jù)R所在射線AP的方向向量,結(jié)合新設(shè)的未知變量表達(dá)了AP和AR的模,然后代入已知條件求解未知變量,最終成功解決。

第二小問中,LongCat先結(jié)合了上一問的結(jié)果以及新條件,通過計(jì)算得到了一個(gè)關(guān)鍵的中間結(jié)論——點(diǎn)P位于一個(gè)圓心和半徑均已確定的圓上。

如果想象不到,這里有一個(gè)簡單圖示。

利用該結(jié)論,LongCat對最大距離進(jìn)行了拆解,并通過代入等方法,最終計(jì)算出了正確結(jié)果。

接下來是一項(xiàng)綜合能力測試,繪制生物學(xué)當(dāng)中光合作用當(dāng)中卡爾文循環(huán)的SVG示意圖,SVG是一種用代碼表示的矢量圖形。

在這樣的任務(wù)中,模型不僅需要對所繪制內(nèi)容的背景知識有足夠了解,還要有足夠的空間想象力對內(nèi)容進(jìn)行布局,最后還需要寫成代碼,這樣的任務(wù)是一個(gè)非常復(fù)雜的鏈條。

言歸正傳,我們對LongCat給出的SVG代碼進(jìn)行了可視化,總的來說,LongCat比較順利地完成了圖示的繪制。

最后是一道迷惑性問題,題目出自GitHub上一個(gè)名為Misguided Attention的Benchmark。

其中包含了很多經(jīng)典謎題……的改編版本,考驗(yàn)的就是大模型能不能做到不被表象迷惑。

比如物理學(xué)當(dāng)中的名場面——薛定諤的貓,在這套基準(zhǔn)當(dāng)中,這只貓的“貓?jiān)O(shè)”被改成了一只死去的貓。

一只死貓與核同位素、一瓶毒藥和輻射探測器一起放入盒子中。如果輻射探測器檢測到輻射,它將釋放毒藥。一天后,盒子打開。貓還活著嗎?

結(jié)果,LongCat直接識破陷阱,明確指出既然是死貓那就沒有存活的可能性,并且還指出了這道題與原版“薛定諤的貓”的關(guān)鍵區(qū)別。

而o3就沒有認(rèn)真讀題,還是按照傳統(tǒng)的薛定諤的貓那一套進(jìn)行的回答。

“外賣公司”怎么在做大模型?

這次引發(fā)海外熱議的還有一個(gè)原因在于美團(tuán)給他們帶來的反差感。

很多人簡單粗暴把美團(tuán)理解為一家外賣公司。盡管他們之前之前有無人送餐積累下來的了動(dòng)駕駛、機(jī)器學(xué)習(xí)的基礎(chǔ),但是大模型完全是另一條技術(shù)線了,所以這次開源更會讓人覺得是“橫空出世”。

不過梳理美團(tuán)在大模型浪潮后的AI動(dòng)向,這次模型開源也就不那么意外了。

2023年,王慧文振臂一呼自帶5000萬美元成立光年之外,并招攬一眾AI領(lǐng)域頂級人才團(tuán)隊(duì)加盟。后續(xù)由于王慧文個(gè)人健康原因,好兄弟王興兜底,美團(tuán)于是接手光年之外,現(xiàn)有團(tuán)隊(duì)將繼續(xù)研發(fā)大模型。

同年,由美團(tuán)內(nèi)部獨(dú)立AI團(tuán)隊(duì)GN06開發(fā)的AI情感陪伴產(chǎn)品Wow上線,這也是美團(tuán)發(fā)布的第一個(gè)獨(dú)立AI應(yīng)用。

2024年4月,病休的王慧文以顧問身份回歸美團(tuán),11月正式領(lǐng)導(dǎo)GN06團(tuán)隊(duì)。

GN06在美團(tuán)的定位是一個(gè)相對獨(dú)立的AI團(tuán)隊(duì)、不隸屬于任何事業(yè)群,專注于探索主營業(yè)務(wù)之外的創(chuàng)新AI應(yīng)用。

2024年他們還推出了一個(gè)AI圖像生成應(yīng)用“妙刷”。

在2024年6月,GN06的招聘需求明顯增加,范圍覆蓋前端、客戶端、后端、產(chǎn)品、運(yùn)營、商分等。

2024財(cái)年業(yè)績發(fā)布會上,美團(tuán)還正式明確了“主動(dòng)進(jìn)攻”的AI策略。

美團(tuán)CEO王興首次闡述了公司的AI戰(zhàn)略布局,主要通過三層架構(gòu)推動(dòng)技術(shù)落地:

  • AI at Work:目標(biāo)是利用AI工具提升超過10萬名員工的工作效率。
  • AI in Products:旨在用AI改造現(xiàn)有產(chǎn)品并創(chuàng)建原生AI應(yīng)用。
  • Building LLM:持續(xù)投入資源自研大模型。

當(dāng)時(shí)就已經(jīng)提到了Longcat大模型,透露該模型結(jié)合外部模型為員工推出了多種AI工具,包括AI編程、智能會議、文檔助手等,并透露了LongCat API的調(diào)用量占比從上一年年初的10%增長到68%。從這個(gè)信息推斷,Longcat在至少在2024年初就已經(jīng)可以落地應(yīng)用。

另外在研發(fā)投入上,2024年美團(tuán)投入211億搞研發(fā),規(guī)模僅次于華為、騰訊和阿里巴巴。過去5年研發(fā)投入突破1000億元。

產(chǎn)品結(jié)合方面,美團(tuán)測試推出了問小袋、米魯?shù)華I智能助手,用于餐飲推薦、問答交互等。

在這種戰(zhàn)略下,2025年美團(tuán)在AI方向的動(dòng)作更加明顯起來。

比如前段時(shí)間還推出了AI編程應(yīng)用NoCode,支持前段開發(fā)、數(shù)據(jù)分析、運(yùn)營工具和門戶網(wǎng)站生成等,技術(shù)小白也能用;同時(shí)內(nèi)部也有CatPaw對標(biāo)Cursor,輔助開發(fā)者寫代碼。

總體來看,以美團(tuán)的研發(fā)儲備,開源一個(gè)大語言模型并不意外。

不過也不同于AI公司,美團(tuán)的AI布局更多以業(yè)務(wù)場景驅(qū)動(dòng)為核心,注重在實(shí)際應(yīng)用中的落地效果。

這種策略可以追溯到2021年、大模型浪潮之前,美團(tuán)集團(tuán)戰(zhàn)略從“Food+Platform”升級為“零售+科技”,明確將AI、機(jī)器人、自動(dòng)駕駛等作為未來核心方向。

比如在更加早期的具身智能領(lǐng)域,美團(tuán)已多次出手,投資了宇樹、星海圖、銀河通用、它石智航等頭部梯隊(duì)公司。

你用來拼好飯的美團(tuán),確實(shí)不是單純送外賣的美團(tuán)。

雖然外賣大戰(zhàn)依然火熱,但用AI的視角審視美團(tuán),也是時(shí)候了。

試用地址:https://longcat.chat

huggingface:https://huggingface.co/meituan-longcat/LongCat-Flash-Chat

github:https://github.com/meituan-longcat/LongCat-Flash-Chatx/

twitter:https://x.com/Meituan_LongCat/status/1961827385667690965

責(zé)任編輯:張燕妮 來源: 量子位
相關(guān)推薦

2024-08-13 12:49:29

2011-05-04 13:58:56

奔圖激光打印機(jī)

2021-03-07 16:32:57

張一鳴王興互聯(lián)網(wǎng)

2013-08-20 13:11:58

技術(shù)美團(tuán)

2025-09-25 07:57:57

2010-03-05 10:50:26

王興再創(chuàng)業(yè)

2019-06-11 18:35:18

戴爾

2011-05-26 13:46:09

2021-06-03 07:55:12

技術(shù)

2018-06-29 14:50:59

創(chuàng)業(yè)公司事業(yè)

2015-12-22 17:48:59

2025-08-20 09:35:20

2025-09-02 10:05:33

2025-08-19 21:23:45

DeepSeekAPP接口

2017-04-05 16:08:54

外賣商業(yè)變現(xiàn)

2025-08-20 09:08:00

2025-08-22 09:31:38

2024-12-18 15:34:07

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號