IT之家 4 月 6 日消息,Meta 現已發布旗下最新 Llama 4 系列 AI 模型,包含 Llama 4 Scout、Llama 4 Maverick 和 Llama 4 Behemoth,Meta 透露相應模型都經過了“大量未標註的文本、圖像和視頻數據”的訓練,以使它們具備“廣泛的視覺理解能力”。
目前,Meta 已將系列模型中的 Scout 和 Maverick 上架到 Hugging Face(點此訪問),而 Behemoth 模型則還在訓練中。其中 Scout 可以在單個英偉達 H100 GPU 上運行,而 Maverick 則需要英偉達 H100 DGX AI 平台或“同等性能的設備”。
Meta 表示,Llama 4 系列模型是該公司旗下首批採用混合專家(MoE)架構的模型,這種架構在訓練和回答用戶查詢時的效率更高,所謂“混合專家架構”基本上是將數據處理任務分解為子任務,然後將它們委派給更小的、專門的“專家”模型。
例如,Maverick 總共有 4000 億個參數,但在 128 個“專家”模型中只有 170 億個活躍參數(參數數量大致與模型的問題解決能力相對應)。Scout 有 170 億個活躍參數、16 個“專家”模型以及總計 1090 億個參數。
不過值得注意的是,Llama 4 系列中沒有一個模型是像 OpenAI 的 o1 和 o3-mini 那樣真正意義上的“推理模型”。作為比較,“推理模型”會對其答案進行事實核查,並且通常能更可靠地回答問題,但因此也比傳統的“非推理”模型花費更長的時間來給出答案。
Meta 內部測試顯示,Maverick 模型最適合用於“通用 AI 助手和聊天”等應用場景,該模型在創意寫作、代碼生成、翻譯、推理、長文本上下文總結和圖像基準測試中表現超過了 OpenAI 的 GPT-4o 和谷歌的 Gemini 2.0 等模型。然而 Maverick 與谷歌的 Gemini 2.5 Pro、Anthropic 的 Claude 3.7 Sonnet 和 OpenAI 的 GPT-4.5 等功能更強大的最新模型相比仍有一定進步空間。
而 Scout 的優勢則是總結文檔、基於大型代碼庫進行推理。該模型支持 1000 萬個詞元(“詞元”代表原始文本的片段,例如單詞“fantastic”可拆分為“fan”、“tas”和“tic”),因此一次可以處理“多達數百萬字的文本”。
IT之家注意到,Meta 還進一步預告了其 Behemoth 模型,據該公司稱,Behemoth 有 2880 億個活躍參數、16 個“專家”模型,總參數數量接近 2 萬億個。Meta 的內部基準測試顯示,在一些衡量解決數學問題等科學、技術、工程和數學(STEM)技能的評估中,Behemoth 的表現優於 GPT-4.5、Claude 3.7 Sonnet 和 Gemini 2.0 Pro,但不如 Gemini 2.5 Pro。