​Meta 計劃於今年部署自家 AI 晶元,減少對 Nvidia GPU 的依賴

劃重點:

meta 計劃在今年部署定製的第二代 ai 晶元,名為 "artemis",用於其數據中心。

新晶元將用於運行 ai 模型的 "推斷",旨在減少對 nvidia 晶元的依賴和控制 ai 工作負載的成本。

meta 首席執行官馬克・扎克伯格最近宣布,他計劃在今年底使用34萬個 nvidia h100gpu,總共約有60萬個 gpu 用於運行和訓練 ai 系統,使得 meta 成為 nvidia 除微軟外最大的公開客戶。

站長之家(chinaz.com) 2月2日 消息:社交媒體巨頭 meta 計劃於今年在其數據中心部署一款定製的第二代 ai 晶元,代碼名為 "artemis"。

據路透社報道,新晶元將用於 meta 的數據中心中的 "推斷",即運行 ai 模型的過程。該舉措的目標是減少對 nvidia 晶元的依賴,並控制 ai 工作負載的成本。此外,meta 還在其服務中提供生成式 ai 應用,並正在訓練名為 llama3的開源模型,旨在達到 gpt-4的水平。

圖源備註:圖片由ai生成,圖片授權服務商midjourney

meta 首席執行官馬克・扎克伯格最近宣布,他計劃在今年底使用34萬個 nvidia h100gpu,總共約有60萬個 gpu 用於運行和訓練 ai 系統。這使得 meta 成為 nvidia 除微軟外最大的公開客戶。然而,隨著更強大和更大規模的模型,ai 工作負載和成本不斷增加。除了 meta 外,openai 和微軟等公司也試圖通過專有 ai 晶元和更高效的模型來打破這種成本螺旋。

在2023年5月,meta 首次推出了名為 meta training and inference accelerator(mtia)的新晶元系列,旨在加速並降低運行神經網路的成本。據官方公告,第一款晶元預計將在2025年投入使用,並在當時已在 meta 的數據中心進行測試。據路透社報道,artemis 已經是 mtia 的更高級版本。

meta 的這一舉措表明他們希望通過自家 ai 晶元的部署來降低對 nvidia 晶元的依賴,以及控制 ai 工作負載的成本。他們計劃在今年將 artemis 晶元投入生產,並表示:"我們認為我們自主開發的加速器與市面上可購買的 gpu 在 meta 特定工作負載上提供了性能和效率的最佳組合。" 這一舉措將為 meta 帶來更大的靈活性和自主性,同時也有望降低 ai 工作負載的成本。