Qwen發(fā)布Qwen3-Coder:開源4800億參數(shù)級代碼模型新標桿
阿里巴巴旗下的Qwen團隊剛剛發(fā)布了迄今為止最先進的代碼模型Qwen3-Coder。這款模型提供了多種規(guī)模版本,其中最大的版本參數(shù)高達4800億,樹立了開源代碼模型的新標準,尤其在編程生成、瀏覽器交互以及工具調(diào)用等領(lǐng)域表現(xiàn)突出,足以與Claude 4 Sonnet一較高下。
近期開發(fā)者社區(qū)內(nèi)對Claude 4 Sonnet模型的抱怨逐漸增多,主要源自于Claude的頻繁限流和性能下降,這讓不少開發(fā)者開始轉(zhuǎn)而尋找新的解決方案。如今Qwen3-Coder攜卓越的基準測試成績以及開源開放的特性,成為了新的關(guān)注焦點。
一個重要問題隨之而來:在真實的編程場景中,Qwen3-Coder是否足夠優(yōu)秀,足以挑戰(zhàn)Claude在實際工作流程中的領(lǐng)先地位呢?
什么是Qwen3-Coder?
Qwen3-Coder是阿里云Qwen團隊基于Qwen3系列開發(fā)的代碼專用模型。
該模型完全開源,專為超長上下文場景的智能化編程設(shè)計,借助YaRN技術(shù),其上下文窗口支持長達100萬token,實際運行時啟用了350億個活躍參數(shù)。
Qwen3-Coder延續(xù)了基礎(chǔ)版Qwen3模型的優(yōu)勢,除了擅長代碼生成外,在數(shù)學(xué)推理和通用語言理解等任務(wù)中也有突出表現(xiàn)。
該模型支持358種編程語言,包括但不限于Python、JavaScript、TypeScript、C++、Java、Go、Rust、PHP、SQL、HTML、CSS和Shell等主流語言。
據(jù)Qwen團隊工程師林君陽介紹,盡管現(xiàn)在還不敢說Qwen3-Coder完全能與Claude Sonnet 4媲美,但作為智能化編程助手,它的表現(xiàn)已經(jīng)非常突出,比此前發(fā)布的Qwen2.5-Coder強大許多,采用了MoE架構(gòu),能力得到質(zhì)的飛躍。
如需了解更多技術(shù)細節(jié),可參考官方白皮書。
根據(jù)基準測試結(jié)果顯示,Qwen3-Coder-480B-A35B-Instruct已經(jīng)成為迄今為止性能最強的開源智能代碼模型。
下面,我們將深入了解它的具體表現(xiàn)。
Qwen3-Coder模型特點
Qwen3-Coder-480B-A35B-Instruct的主要參數(shù)如下:
- 類型:因果語言模型(CLM)
- 訓(xùn)練階段:預(yù)訓(xùn)練和后訓(xùn)練(強化學(xué)習(xí))
- 總參數(shù)量:4800億(啟用參數(shù)350億)
- 模型層數(shù):62層
- 注意力頭數(shù)(GQA):Q頭96個,KV頭8個
- 專家網(wǎng)絡(luò)(Experts)數(shù):160個(激活8個)
- 原生上下文長度:262,144 tokens
默認支持對話模式,無需手動禁用思考標簽(think標簽),隨時可以用于聊天式交互。
預(yù)訓(xùn)練階段
Qwen3-Coder使用7.5萬億token進行預(yù)訓(xùn)練,其中70%的數(shù)據(jù)來自代碼相關(guān)領(lǐng)域。在強化編程能力的同時,保留了基礎(chǔ)的數(shù)學(xué)與通用推理能力。此外,該模型默認支持256K tokens超長上下文,通過YaRN技術(shù)還可擴展到1M tokens。
團隊還通過Qwen2.5-Coder清理和重寫了部分低質(zhì)量訓(xùn)練樣本,大幅降低了模型“幻覺”(hallucination)的發(fā)生概率。
后訓(xùn)練階段
后訓(xùn)練階段重點采用了強化學(xué)習(xí)技術(shù)(Code RL),并針對真實世界的編程任務(wù)進行優(yōu)化訓(xùn)練,以提高代碼可執(zhí)行性。
同時引入了長程強化學(xué)習(xí)(Long-Horizon RL),在SWE-Bench等需要長期規(guī)劃的任務(wù)中表現(xiàn)更加優(yōu)秀。
團隊利用阿里云平臺并行運行了20,000個訓(xùn)練環(huán)境,這極大地提升了模型在實際場景中的表現(xiàn)。
Scaling Code RL
Qwen3-Coder基準測試表現(xiàn)
根據(jù)官方發(fā)布的測試數(shù)據(jù)顯示,Qwen3-Coder 480B-A35B-Instruct在開源智能編程模型中遙遙領(lǐng)先。
Qwen3-Coder Benchmarks. Image from Qwen
具體測試中,Qwen3-Coder在編程任務(wù)、瀏覽器交互及工具使用方面的表現(xiàn)遠超其他開源模型,Terminal-Bench評分37.5、Mind2Web評分55.8、TAU-Bench Retail評分達到77.5。
盡管如此,它仍未超越Claude Sonnet-4,后者在復(fù)雜任務(wù)處理、準確度與細致控制方面更具優(yōu)勢,如在SWE-bench、BFCL等工具測試中仍占領(lǐng)先位置。
總體來看,Qwen3-Coder已處于開源模型領(lǐng)先地位,與Claude差距逐步縮小,但目前還無法完全超越頂級閉源模型。
如何訪問Qwen3-Coder?
Qwen團隊同時開源了一個命令行編程工具:Qwen Code。
Qwen Code基于Gemini Code進行了定制化改造,新增了專屬提示詞(prompt)和函數(shù)調(diào)用協(xié)議,更充分發(fā)揮Qwen3-Coder的智能編程能力。
項目現(xiàn)已在GitHub平臺開源,目前貢獻者26位,Star數(shù)量超5600個。
Qwen3-Coder GitHub page. Image by Jim Clyde Monge
克隆項目到本地方法:
git clone https://github.com/QwenLM/qwen-code.git
cd qwen-code && npm install && npm install -g注意:安裝時會下載大量約9-10GB大小的Safetensor模型文件,請確保磁盤空間充足。
Qwen3-Coder safetensor files. Image by Jim Clyde Monge
設(shè)置環(huán)境變量(使用OpenAI SDK調(diào)用):
export OPENAI_API_KEY="your_api_key_here"
export OPENAI_BASE_URL="https://dashscope-intl.aliyuncs.com/compatible-mode/v1"
export OPENAI_MODEL="qwen3-coder-plus"然后即可使用命令qwen進行編程。
Qwen3-Coder CLI. Image by Jim Clyde Monge
也可以通過HuggingFace或Qwen官方應(yīng)用在線使用Qwen3-Coder,無需安裝。
示例1:與Qwen3-Coder-480B-A35B-Instruct對話
若想測試Qwen3-Coder的聊天能力,可進入官方HuggingFace空間。在頁面右側(cè)有聊天窗口,你可以直接向模型提問。
如下例所示:
Qwen3-Coder HuggingFace. Image by Jim Clyde Monge
用戶提問:請用簡單語言解釋一下什么是量子計算。
模型回答:
量子計算就像一臺性能超級強悍的計算器,但它的工作方式和普通電腦完全不同。
普通計算機 vs 量子計算機:
- 普通計算機使用的是“比特”(bits),要么為0要么為1,就像電燈開關(guān)一樣,要么開,要么關(guān)。
- 量子計算機使用的是“量子比特”(qubits),它們能同時處于0和1的疊加狀態(tài),就像一個旋轉(zhuǎn)的硬幣,在落下前同時擁有正面和反面。
量子的神奇特性:
- 疊加:量子比特能同時處于多種狀態(tài),因此量子計算機能一次性探索大量可能性。
- 糾纏:量子比特之間有奇特的聯(lián)系,改變其中一個狀態(tài),無論距離多遠,另一個都會立刻感知。
- 干涉:量子計算機能夠強化正確答案并抵消錯誤答案,這種現(xiàn)象就像調(diào)準電臺信號一樣,快速準確找到想要的信息。
獨特優(yōu)勢:
普通電腦逐步解決問題,而量子計算機能同時探索上千種方案,更高效地解決復(fù)雜問題,就像成千上萬臺電腦同時工作。
現(xiàn)實應(yīng)用領(lǐng)域:
- 藥物研發(fā):模擬分子間的相互作用。
- 密碼學(xué):破解現(xiàn)有的加密技術(shù)。
- 優(yōu)化問題:尋找最短路徑或最優(yōu)排程方案。
- 人工智能:更高效地處理海量數(shù)據(jù)。
當前挑戰(zhàn):
量子計算機十分脆弱,需要極低溫環(huán)境(接近絕對零度),極易出錯,造價昂貴且制造困難。
可以將量子計算視為專用于極為復(fù)雜問題的特殊工具,而非日常使用電腦的替代品。
若想通過Playground界面與模型交互,需在HuggingFace官網(wǎng)生成一個免費的推理API訪問令牌(Inference API Token),否則模型無法正常回應(yīng)。
HuggingFace creating API token. Image by Jim Clyde Monge
獲得令牌后,即可打開Playground界面,并進行更精細的參數(shù)調(diào)整,如temperature、top-p和token數(shù)等。
HuggingFace Qwen3-Coder dashboard. Image by Jim Clyde Monge
用戶提問:單詞strawberry里面有幾個字母R?
模型回答:
單詞“strawberry”逐字檢查如下:
s-t-r-a-w-b-e-r-r-y- s:不是R
- t:不是R
- r:這是第一個R
- a:不是R
- w:不是R
- b:不是R
- e:不是R
- r:這是第二個R
- r:這是第三個R
- y:不是R
因此,單詞“strawberry”共有3個字母R。
示例2:使用Qwen3-Coder快速創(chuàng)建Web應(yīng)用
Qwen3-Coder擅長從零開始生成前端Web應(yīng)用。你可以前往官方HuggingFace空間,直接在Prompt框中描述你想生成的網(wǎng)頁或應(yīng)用。
例如,以下是一個生成包含5只寶可夢(Pokémon)SVG圖像的提示示例:
用戶輸入Prompt: 「幫我生成一個包含5只寶可夢SVG圖像的網(wǎng)頁,要有詳細特征?!?/span>
模型很快開始在界面右側(cè)生成完整的HTML/React代碼,整個過程大約只需30秒。
圖片
以下即為代碼運行后的實際效果:
HuggingFace Qwen3-Coder example. Image by Jim Clyde Monge
生成的SVG圖案非常細致,每只寶可夢在鼠標懸停時還擁有流暢的動畫效果。
此外,也可在Qwen官方的Chat應(yīng)用中進行類似操作。登錄chat.qwen.ai,選擇Qwen3-Coder模型及需要的工具(如創(chuàng)建Web應(yīng)用、深入研究或圖像生成等):
Qwen web app with Qwen3-Coder example. Image by Jim Clyde Monge
作為測試,再試一下圖像生成效果,使用如下Prompt:
Prompt示例: 一個復(fù)古未來主義風格的機械獅子特寫,靈感來自經(jīng)典高達動畫風格。獅子頭部由棱角分明的白色裝甲板組成,配以鮮明的紅藍色細節(jié),眼睛為發(fā)光的綠色護目鏡風格,下方暴露出機械結(jié)構(gòu)。背景是一座霓虹燈裝飾的復(fù)古科幻城市,有鏡頭光暈,色彩鮮艷,線條清晰銳利,整體效果震撼,電影級別的光影處理,色彩對比鮮明。
生成的圖像效果如下:
Qwen web app with Qwen3-Coder example. Image by Jim Clyde Monge
不過整體質(zhì)量不盡如人意,相比谷歌Imagen 4、Midjourney等專業(yè)圖像生成模型還有明顯差距。
作為對比,同樣的Prompt在Flux Labs AI使用谷歌的Imagen 4生成的效果明顯更優(yōu)質(zhì),更準確地體現(xiàn)了原有描述。
Flux Labs image generation example. Image by Jim Clyde Monge
通過對比可見,Qwen3-Coder雖然在代碼生成方面表現(xiàn)突出,但圖像生成能力仍然較弱。
Qwen3-Coder API費用
Qwen3-coder-plus為官方API商業(yè)版,根據(jù)輸入token數(shù)量階梯定價:
- 上下文窗口:1,048,576 tokens
- 免費額度:激活后180天內(nèi)100萬tokens免費使用
具體費用(每百萬tokens):
- 0~32K tokens:輸入,輸出5
- 32K~128K tokens:輸入,輸出9
- 128K~256K tokens:輸入,輸出15
- 256K~1M tokens:輸入,輸出60
(圖片占位)
結(jié)語
向Qwen團隊致敬,他們開放了Qwen3-Coder的全部權(quán)重模型。這對于開源社區(qū)和開發(fā)者而言意義非凡。其超長上下文雖然誘人,但實際使用場景可能并不常見。
建議開發(fā)者嘗試一下免費平臺,親自驗證Qwen3-Coder在實際編程工作中的表現(xiàn)是否能達到甚至超出預(yù)期。
期待Qwen3-Coder未來能與Claude 4 Sonnet更緊密競爭,共同推動智能編程領(lǐng)域發(fā)展。




































