「源神」千問,又一次悶聲干大事!
今天刷 Reddit 才發現:昨晚,阿里千問一口氣開源了 32 款,適配蘋果 MLX 架構的 Qwen3 模型。
沒錯,32 款,就是這麼量大實惠。
此前,千問已經陸續發佈了 Qwen3 模型的 GGUF、AWQ、GPTQ 等多種量化格式,受到開發者廣泛好評。
這些格式主要用於兼容開源部署工具(如 llama.cpp、lmdeploy 等),而MLX 是蘋果自研的本地 AI 推理框架,專為 M 系芯片打造——能不能原生適配 MLX,決定了 Qwen3 能不能「跑進蘋果設備的底層」。
這次,乾脆一口氣全配齊了搭配蘋果MLX的模型:每款模型都有4bit、6bit、8bit 和 BF16 等 4 種不同精度的量化版本。
最炸的消息是:iPhone 上跑千問,終於不是幻想了!
千問官方表示:
「現在,從 Mac Pro、Mac Studio 到 Mac mini、MacBook,再到 iPad,甚至內存更小的設備如 iPhone,都能輕鬆部署 Qwen3,真正做到全場景覆蓋。」
而更值得注意的是:這是開源大模型首次系統性「殺入 Apple 端側 AI 生態」,甚至被媒體一致解讀為——Apple Intelligence 在中國落地的前奏。
Qwen3 的這一動作不僅收穫了X上網友的好評,還被 MLX 框架的核心開發者 Vaibhav Srivastav 點贊。他在評論區寫道:
祝賀你們的量化模型!你們把 MLX 放在優先級很高的位置,真的很棒!
雖然 Apple Intelligence 和 Siri 的中國上線一再跳票,令人失望,但這次——中國開源之神 + 蘋果硬件霸主,終於有了正面交匯的一刻。
1.Qwen3 開源了什麼?哪些設備能用?
Qwen3 成為蘋果 Apple Intelligence 在中國市場的「本地模型供應商」,如今進一步全面適配 MLX,其實並不令人意外。
MLX 是一個開源的機器學習框架,專為蘋果芯片深度適配。MLX 框架充分利用 Apple Silicon 的神經引擎和統一內存系統,兼容 PyTorch/Numpy 風格 API,可高效執行大模型,被越來越多的 AI 開發者採用。
從 Hugging Face 的 Qwen3-MLX 模型頁來看,阿里這次開源的模型覆蓋了從 0.6B 到 235B 的完整參數量級,而且每個模型都提供 4bit、6bit、8bit 和 BF16 四種不同精度版本,開發者可以根據設備性能自由選擇。
地址:https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f
不同設備推薦部署範圍如下:
- 高端:Mac Pro、Mac Studio → 推薦運行 32B、235B
- 主流:MacBook Pro/Air(16G/32G)→ 推薦 8B、14B
- 輕量:iPad、iPhone(A17/M芯片)→ 可運行 0.6B / 1.7B 級模型,適合本地小推理
不過,根據 Reddit 上網友實測,即便是配備 128GB 內存的 Mac Studio,在運行 Qwen3‑235B 的 4bit 版本時依然存在內存瓶頸。
有用戶吐槽說:
「可惜 Mac 用戶即使有 128GB RAM,也無法運行 Qwen3 的 235B 模型的 4bit 版本。只差 3% 的內存。」
這也說明,即使 MLX 是蘋果原生優化的推理框架,對於參數量巨大的 MoE 模型(如 Qwen3‑235B)而言,設備硬件依然是決定上限的關鍵。
2.Mac以前也能跑Qwen,為什麼官方支持更值得關注?
在Qwen3官宣支持蘋果 MLX 框架之前,你肯定也刷到過在Mac上跑Qwen的各種實測,或者親自上手過。
這是因為此前社區已經通過第三方量化格式(如 GGUF、GPTQ)+ 推理框架(如 llama.cpp、llm.cpp、lmdeploy),實現了在 Mac 上加載 Qwen 模型的方式。
但這次官方 MLX 支持,仍然引發了 Reddit 上不少開發者的興奮情緒:
用戶 Ok-Pipe-5151 表示:「這是 Mac 用戶的重大利好!官方支持來了,非常興奮。」
另一位用戶問:「這些模型不是早就通過第三方量化可以用了?」
他回復道:
「是的,但官方支持更好。」
「官方適配 MLX」 到底比第三方支持強在哪裡,具體點來說有這幾點:
- 免去格式轉換、參數調整、推理配置等繁瑣步驟,開箱即用
- 兼容 MLX 原生調度機制,在 Apple Silicon 芯片上可充分調用神經引擎與統一內存架構,運行效率更高
- 模型結構與量化過程由官方調優,在推理穩定性、精度保持率上通常優於第三方版本
- 長期可維護性更好,未來隨着蘋果系統/MLX 更新,官方適配模型能更快同步迭代
舉個栗子:過去,很多用戶要在 iOS 上跑模型,得靠 MNN 等輕量框架,整個流程包括自己編譯 framework、簽名打包、配置依賴,非常麻煩。
上圖:此前,千問給的官方教程
而現在,得益於 MLX 的官方適配,Qwen3 終於能「跳過這套鏈路」,直接以蘋果原生方式部署推理。
3.寫在最後:蘋果智能在中國的落地進入倒計時階段?
蘋果剛在本周一發佈了 iOS 18.6 開發者測試版,但仍未就中國區上線 Apple Intelligence 給出時間表。
不過,阿里巴巴此次對 Qwen3 的 MLX 深度適配,被廣泛解讀為是為國行版 Apple Intelligence 打基礎、鋪路徑。
此前,就有多家媒體報道稱,蘋果原計劃在 iOS 18.5 或 18.6 中上線 Apple Intelligence,技術上已基本就緒,但由於本地的合規流程尚未完全走通,正式上線時間一再延後。
與此同時,值得特別關注的是:蘋果官方已確認,全新的 deep LLM Siri 將隨 iOS 26.4 於 2026 年春季正式推出。這意味着,一個真正具備對話理解能力、支持本地大模型推理的 Siri 正在緩步走來。
隨着千問在開源上的知名度不斷攀升,更多的人對國行蘋果智能擁有信心。而千問本身也因此從「技術力」的象徵,逐步走向「生態級別」的落地合作。
你認為國行 Apple Intelligence 會趕在 2025 年底前上線嗎?