編輯 | 伊風(fēng)
出品 | 51CTO技術(shù)棧(微信號:blog51cto)
“源神”千問,又一次悶聲干大事!
今天刷 Reddit 才發(fā)現(xiàn):昨晚,阿里千問一口氣開源了 32 款,適配蘋果 MLX 架構(gòu)的 Qwen3 模型。
沒錯,32 款,就是這么量大實惠。
圖片
此前,千問已經(jīng)陸續(xù)發(fā)布了 Qwen3 模型的 GGUF、AWQ、GPTQ 等多種量化格式,受到開發(fā)者廣泛好評。
這些格式主要用于兼容開源部署工具(如 llama.cpp、lmdeploy 等),而MLX 是蘋果自研的本地 AI 推理框架,專為 M 系芯片打造——能不能原生適配 MLX,決定了 Qwen3 能不能“跑進蘋果設(shè)備的底層”。
這次,干脆一口氣全配齊了搭配蘋果MLX的模型:每款模型都有4bit、6bit、8bit 和 BF16 等 4 種不同精度的量化版本。
圖片
最炸的消息是:iPhone 上跑千問,終于不是幻想了!
千問官方表示:
“現(xiàn)在,從 Mac Pro、Mac Studio 到 Mac mini、MacBook,再到 iPad,甚至內(nèi)存更小的設(shè)備如 iPhone,都能輕松部署 Qwen3,真正做到全場景覆蓋?!?/p>
而更值得注意的是:這是開源大模型首次系統(tǒng)性“殺入 Apple 端側(cè) AI 生態(tài)”,甚至被媒體一致解讀為——Apple Intelligence 在中國落地的前奏。
Qwen3 的這一動作不僅收獲了X上網(wǎng)友的好評,還被 MLX 框架的核心開發(fā)者 Vaibhav Srivastav 點贊。他在評論區(qū)寫道:
祝賀你們的量化模型!你們把 MLX 放在優(yōu)先級很高的位置,真的很棒!??
雖然 Apple Intelligence 和 Siri 的中國上線一再跳票,令人失望,但這次——中國開源之神 + 蘋果硬件霸主,終于有了正面交匯的一刻。
1.Qwen3 開源了什么?哪些設(shè)備能用?
Qwen3 成為蘋果 Apple Intelligence 在中國市場的“本地模型供應(yīng)商”,如今進一步全面適配 MLX,其實并不令人意外。
MLX 是一個開源的機器學(xué)習(xí)框架,專為蘋果芯片深度適配。MLX 框架充分利用 Apple Silicon 的神經(jīng)引擎和統(tǒng)一內(nèi)存系統(tǒng),兼容 PyTorch/Numpy 風(fēng)格 API,可高效執(zhí)行大模型,被越來越多的 AI 開發(fā)者采用。
從 Hugging Face 的 Qwen3-MLX 模型頁來看,阿里這次開源的模型覆蓋了從 0.6B 到 235B 的完整參數(shù)量級,而且每個模型都提供 4bit、6bit、8bit 和 BF16 四種不同精度版本,開發(fā)者可以根據(jù)設(shè)備性能自由選擇。
地址:https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
圖片
圖片
不同設(shè)備推薦部署范圍如下:
- 高端:Mac Pro、Mac Studio → 推薦運行 32B、235B
- 主流:MacBook Pro/Air(16G/32G)→ 推薦 8B、14B
- 輕量:iPad、iPhone(A17/M芯片)→ 可運行 0.6B / 1.7B 級模型,適合本地小推理
不過,根據(jù) Reddit 上網(wǎng)友實測,即便是配備 128GB 內(nèi)存的 Mac Studio,在運行 Qwen3?235B 的 4bit 版本時依然存在內(nèi)存瓶頸。
有用戶吐槽說:
“可惜 Mac 用戶即使有 128GB RAM,也無法運行 Qwen3 的 235B 模型的 4bit 版本。只差 3% 的內(nèi)存。”
圖片
這也說明,即使 MLX 是蘋果原生優(yōu)化的推理框架,對于參數(shù)量巨大的 MoE 模型(如 Qwen3?235B)而言,設(shè)備硬件依然是決定上限的關(guān)鍵。
圖片
2.Mac以前也能跑Qwen,為什么官方支持更值得關(guān)注?
在Qwen3官宣支持蘋果 MLX 框架之前,你肯定也刷到過在Mac上跑Qwen的各種實測,或者親自上手過。
這是因為此前社區(qū)已經(jīng)通過第三方量化格式(如 GGUF、GPTQ)+ 推理框架(如 llama.cpp、llm.cpp、lmdeploy),實現(xiàn)了在 Mac 上加載 Qwen 模型的方式。
但這次官方 MLX 支持,仍然引發(fā)了 Reddit 上不少開發(fā)者的興奮情緒:
用戶 Ok-Pipe-5151 表示:“這是 Mac 用戶的重大利好!官方支持來了,非常興奮?!?nbsp;
另一位用戶問:“這些模型不是早就通過第三方量化可以用了?”
他回復(fù)道:
“是的,但官方支持更好?!?/p>
圖片
“官方適配 MLX” 到底比第三方支持強在哪里,具體點來說有這幾點:
- 免去格式轉(zhuǎn)換、參數(shù)調(diào)整、推理配置等繁瑣步驟,開箱即用
- 兼容 MLX 原生調(diào)度機制,在 Apple Silicon 芯片上可充分調(diào)用神經(jīng)引擎與統(tǒng)一內(nèi)存架構(gòu),運行效率更高
- 模型結(jié)構(gòu)與量化過程由官方調(diào)優(yōu),在推理穩(wěn)定性、精度保持率上通常優(yōu)于第三方版本
- 長期可維護性更好,未來隨著蘋果系統(tǒng)/MLX 更新,官方適配模型能更快同步迭代
舉個栗子:過去,很多用戶要在 iOS 上跑模型,得靠 MNN 等輕量框架,整個流程包括自己編譯 framework、簽名打包、配置依賴,非常麻煩。
圖片
上圖:此前,千問給的官方教程
而現(xiàn)在,得益于 MLX 的官方適配,Qwen3 終于能“跳過這套鏈路”,直接以蘋果原生方式部署推理。
3.寫在最后:蘋果智能在中國的落地進入倒計時階段?
蘋果剛在本周一發(fā)布了 iOS 18.6 開發(fā)者測試版,但仍未就中國區(qū)上線 Apple Intelligence 給出時間表。
不過,阿里巴巴此次對 Qwen3 的 MLX 深度適配,被廣泛解讀為是為國行版 Apple Intelligence 打基礎(chǔ)、鋪路徑。
此前,就有多家媒體報道稱,蘋果原計劃在 iOS 18.5 或 18.6 中上線 Apple Intelligence,技術(shù)上已基本就緒,但由于本地的合規(guī)流程尚未完全走通,正式上線時間一再延后。
與此同時,值得特別關(guān)注的是:蘋果官方已確認,全新的 deep LLM Siri 將隨 iOS 26.4 于 2026 年春季正式推出。這意味著,一個真正具備對話理解能力、支持本地大模型推理的 Siri 正在緩步走來。
隨著千問在開源上的知名度不斷攀升,更多的人對國行蘋果智能擁有信心。而千問本身也因此從“技術(shù)力”的象征,逐步走向“生態(tài)級別”的落地合作。
你認為國行 Apple Intelligence 會趕在 2025 年底前上線嗎?