iPhone上也能跑Qwen3了!阿里一口氣開源32款MLX模型

“源神”千問,又一次悶聲干大事!

今天刷 Reddit 才發現:昨晚,阿里千問一口氣開源了 32 款,適配蘋果 MLX 架構的 Qwen3 模型。

沒錯,32 款,就是這麼量大實惠。

此前,千問已經陸續發布了 Qwen3 模型的 GGUF、AWQ、GPTQ 等多種量化格式,受到開發者廣泛好評。

這些格式主要用於兼容開源部署工具(如 llama.cpp、lmdeploy 等),而MLX 是蘋果自研的本地 AI 推理框架,專為 M 系芯片打造——能不能原生適配 MLX,決定了 Qwen3 能不能“跑進蘋果設備的底層”。

這次,乾脆一口氣全配齊了搭配蘋果MLX的模型:每款模型都有4bit、6bit、8bit 和 BF16 等 4 種不同精度的量化版本。

最炸的消息是:iPhone 上跑千問,終於不是幻想了!

千問官方表示:

“現在,從 Mac Pro、Mac Studio 到 Mac mini、MacBook,再到 iPad,甚至內存更小的設備如 iPhone,都能輕鬆部署 Qwen3,真正做到全場景覆蓋。”

而更值得注意的是:這是開源大模型首次系統性“殺入 Apple 端側 AI 生態”,甚至被媒體一致解讀為——Apple Intelligence 在中國落地的前奏。

Qwen3 的這一動作不僅收穫了X上網友的好評,還被 MLX 框架的核心開發者 Vaibhav Srivastav 點贊。他在評論區寫道:

祝賀你們的量化模型!你們把 MLX 放在優先級很高的位置,真的很棒!

雖然 Apple Intelligence 和 Siri 的中國上線一再跳票,令人失望,但這次——中國開源之神 + 蘋果硬件霸主,終於有了正面交匯的一刻。

1.Qwen3 開源了什麼?哪些設備能用?

Qwen3 成為蘋果 Apple Intelligence 在中國市場的“本地模型供應商”,如今進一步全面適配 MLX,其實並不令人意外。

MLX 是一個開源的機器學習框架,專為蘋果芯片深度適配。MLX 框架充分利用 Apple Silicon 的神經引擎和統一內存系統,兼容 PyTorch/Numpy 風格 API,可高效執行大模型,被越來越多的 AI 開發者採用。

從 Hugging Face 的 Qwen3-MLX 模型頁來看,阿里這次開源的模型覆蓋了從 0.6B 到 235B 的完整參數量級,而且每個模型都提供 4bit、6bit、8bit 和 BF16 四種不同精度版本,開發者可以根據設備性能自由選擇。

地址:https://huggingface.co/collections/Qwen/qwen3-67dd247413f0e2e4f653967f

不同設備推薦部署範圍如下:

  • 高端:Mac Pro、Mac Studio → 推薦運行 32B、235B
  • 主流:MacBook Pro/Air(16G/32G)→ 推薦 8B、14B
  • 輕量:iPad、iPhone(A17/M芯片)→ 可運行 0.6B / 1.7B 級模型,適合本地小推理

不過,根據 Reddit 上網友實測,即便是配備 128GB 內存的 Mac Studio,在運行 Qwen3‑235B 的 4bit 版本時依然存在內存瓶頸。

有用戶吐槽說:

“可惜 Mac 用戶即使有 128GB RAM,也無法運行 Qwen3 的 235B 模型的 4bit 版本。只差 3% 的內存。”

這也說明,即使 MLX 是蘋果原生優化的推理框架,對於參數量巨大的 MoE 模型(如 Qwen3‑235B)而言,設備硬件依然是決定上限的關鍵。

2.Mac以前也能跑Qwen,為什麼官方支持更值得關注?

在Qwen3官宣支持蘋果 MLX 框架之前,你肯定也刷到過在Mac上跑Qwen的各種實測,或者親自上手過。

這是因為此前社區已經通過第三方量化格式(如 GGUF、GPTQ)+ 推理框架(如 llama.cpp、llm.cpp、lmdeploy),實現了在 Mac 上加載 Qwen 模型的方式。

但這次官方 MLX 支持,仍然引發了 Reddit 上不少開發者的興奮情緒:

用戶 Ok-Pipe-5151 表示:“這是 Mac 用戶的重大利好!官方支持來了,非常興奮。”

另一位用戶問:“這些模型不是早就通過第三方量化可以用了?”

他回復道:

“是的,但官方支持更好。”

“官方適配 MLX” 到底比第三方支持強在哪裡,具體點來說有這幾點:

  • 免去格式轉換、參數調整、推理配置等繁瑣步驟,開箱即用
  • 兼容 MLX 原生調度機制,在 Apple Silicon 芯片上可充分調用神經引擎與統一內存架構,運行效率更高
  • 模型結構與量化過程由官方調優,在推理穩定性、精度保持率上通常優於第三方版本
  • 長期可維護性更好,未來隨着蘋果系統/MLX 更新,官方適配模型能更快同步迭代

舉個栗子:過去,很多用戶要在 iOS 上跑模型,得靠 MNN 等輕量框架,整個流程包括自己編譯 framework、簽名打包、配置依賴,非常麻煩。

上圖:此前,千問給的官方教程

而現在,得益於 MLX 的官方適配,Qwen3 終於能“跳過這套鏈路”,直接以蘋果原生方式部署推理。

3.寫在最後:蘋果智能在中國的落地進入倒計時階段?

蘋果剛在本周一發布了 iOS 18.6 開發者測試版,但仍未就中國區上線 Apple Intelligence 給出時間表。

不過,阿里巴巴此次對 Qwen3 的 MLX 深度適配,被廣泛解讀為是為國行版 Apple Intelligence 打基礎、鋪路徑。

此前,就有多家媒體報道稱,蘋果原計劃在 iOS 18.5 或 18.6 中上線 Apple Intelligence,技術上已基本就緒,但由於本地的合規流程尚未完全走通,正式上線時間一再延後。

與此同時,值得特別關注的是:蘋果官方已確認,全新的 deep LLM Siri 將隨 iOS 26.4 於 2026 年春季正式推出。這意味着,一個真正具備對話理解能力、支持本地大模型推理的 Siri 正在緩步走來。

隨着千問在開源上的知名度不斷攀升,更多的人對國行蘋果智能擁有信心。而千問本身也因此從“技術力”的象徵,逐步走向“生態級別”的落地合作。

你認為國行 Apple Intelligence 會趕在 2025 年底前上線嗎?