螞蟻開源萬億參數(shù)大模型Ling-1T:多項能力全球領(lǐng)先 原創(chuàng)
在國慶假期結(jié)束之際,開源領(lǐng)域迎來了全新萬億級語言模型——螞蟻集團發(fā)布通用語言模型Ling-1T,在多項復雜推理基準中取得突破。
?
今天凌晨,螞蟻集團正式發(fā)布了其百靈大模型Ling 2.0系列的首款旗艦模型——Ling-1T。這個擁有萬億參數(shù)規(guī)模的通用語言模型,不僅是螞蟻百靈團隊迄今規(guī)模最大、能力最強的非思考大模型,更在多項國際權(quán)威測試中展現(xiàn)了卓越的性能。
?

?
根據(jù)官方發(fā)布的信息,Ling-1T在有限輸出Token條件下,于多項復雜推理基準中取得了SOTA表現(xiàn)。在代碼生成、軟件開發(fā)、競賽數(shù)學、專業(yè)數(shù)學、邏輯推理等多項高難度測試上,Ling-1T均取得領(lǐng)先成績,多項指標位居開源模型的榜首。
?

?
尤為引人注目的是,在競賽數(shù)學榜單AIME 25的測試中,Ling-1T以更少的Token消耗實現(xiàn)了70.42%的準確率,這一表現(xiàn)甚至優(yōu)于Gemini-2.5-Pro。這表明其不僅在規(guī)模上實現(xiàn)了突破,在推理效率和精度上也達到了國際領(lǐng)先水平。
?

?
從技術(shù)架構(gòu)來看,Ling-1T延續(xù)了Ling 2.0的架構(gòu)設(shè)計,總參數(shù)量達到1T規(guī)模,采用混合專家模型架構(gòu),每個token激活其中約50B參數(shù)。這種設(shè)計使得模型在保持強大能力的同時,實現(xiàn)了更高的計算效率。
?

?
在訓練數(shù)據(jù)方面,Ling-1T-base在20T+ token高質(zhì)量、高推理濃度的語料上完成了預訓練,支持最高128K上下文窗口。通過“中訓練+后訓練”的演進式思維鏈技術(shù),模型的高效推理能力得到了極大提升。
?
訓練過程中,Ling-1T全程采用FP8混合精度訓練,這也是目前已知規(guī)模最大的使用FP8訓練的基座模型。這一技術(shù)選擇帶來了顯著的顯存節(jié)省、更靈活的并行切分策略和15%以上的端到端加速。
?
此次Ling-1T的發(fā)布,正值國產(chǎn)大模型集體爆發(fā)期。就在不久前,混元圖像3.0剛登頂LMArena文生圖榜單,展現(xiàn)出國產(chǎn)大模型在國際競技場上的競爭力。而今Ling-1T的優(yōu)異表現(xiàn),進一步印證了國產(chǎn)大模型技術(shù)實力的全面提升。
?
目前,模型已在Huggingface、ModelScope等主流開源平臺發(fā)布,同時提供了面向國內(nèi)用戶的Ling chat體驗頁面和面向海外開發(fā)者的ZenMux平臺支持。這種全面開放的態(tài)度,將加速模型在各類實際場景中的應用落地。
?
從行業(yè)視角來看,Ling-1T的成功開發(fā)體現(xiàn)了中國AI企業(yè)在大型語言模型領(lǐng)域的深厚積累。不僅在模型規(guī)模上達到萬億級別,更在訓練技術(shù)、推理效率和應用性能等多個維度實現(xiàn)了均衡突破。
?
不難看出,大模型的發(fā)展正在從單純追求參數(shù)規(guī)模,轉(zhuǎn)向更加注重實用性能與效率的平衡。Ling-1T在有限輸出Token條件下取得的優(yōu)異表現(xiàn),正是這一趨勢的體現(xiàn)。這意味著模型在實際應用場景中能夠以更低的計算成本,提供更高質(zhì)量的推理結(jié)果。
?
隨著Ling-1T的開源,開發(fā)者和研究機構(gòu)可以基于這一先進模型,開展更多面向特定領(lǐng)域的微調(diào)和應用開發(fā)。這將有力推動AI技術(shù)在各行各業(yè)的深度融合,加速智能化轉(zhuǎn)型進程。
?
在國際競爭格局方面,中國大模型正在形成集群優(yōu)勢。螞蟻集團此次發(fā)布Ling-1T,不僅豐富了自身的大模型產(chǎn)品矩陣,也為整個開源社區(qū)注入了新的活力。
?
隨著更多像Ling-1T這樣的先進模型走向開源,全球AI開發(fā)者將獲得更加多樣化的技術(shù)選擇,這對于構(gòu)建健康、多元的全球AI生態(tài)系統(tǒng)具有重要意義。
?


















