划重点:
meta 计划在今年部署定制的第二代 ai 芯片,名为 "artemis",用于其数据中心。
新芯片将用于运行 ai 模型的 "推断",旨在减少对 nvidia 芯片的依赖和控制 ai 工作负载的成本。
meta 首席执行官马克・扎克伯格最近宣布,他计划在今年底使用34万个 nvidia h100gpu,总共约有60万个 gpu 用于运行和训练 ai 系统,使得 meta 成为 nvidia 除微软外最大的公开客户。
站长之家(chinaz.com) 2月2日 消息:社交媒体巨头 meta 计划于今年在其数据中心部署一款定制的第二代 ai 芯片,代码名为 "artemis"。
据路透社报道,新芯片将用于 meta 的数据中心中的 "推断",即运行 ai 模型的过程。该举措的目标是减少对 nvidia 芯片的依赖,并控制 ai 工作负载的成本。此外,meta 还在其服务中提供生成式 ai 应用,并正在训练名为 llama3的开源模型,旨在达到 gpt-4的水平。
图源备注:图片由ai生成,图片授权服务商midjourney
meta 首席执行官马克・扎克伯格最近宣布,他计划在今年底使用34万个 nvidia h100gpu,总共约有60万个 gpu 用于运行和训练 ai 系统。这使得 meta 成为 nvidia 除微软外最大的公开客户。然而,随着更强大和更大规模的模型,ai 工作负载和成本不断增加。除了 meta 外,openai 和微软等公司也试图通过专有 ai 芯片和更高效的模型来打破这种成本螺旋。
在2023年5月,meta 首次推出了名为 meta training and inference accelerator(mtia)的新芯片系列,旨在加速并降低运行神经网络的成本。据官方公告,第一款芯片预计将在2025年投入使用,并在当时已在 meta 的数据中心进行测试。据路透社报道,artemis 已经是 mtia 的更高级版本。
meta 的这一举措表明他们希望通过自家 ai 芯片的部署来降低对 nvidia 芯片的依赖,以及控制 ai 工作负载的成本。他们计划在今年将 artemis 芯片投入生产,并表示:"我们认为我们自主开发的加速器与市面上可购买的 gpu 在 meta 特定工作负载上提供了性能和效率的最佳组合。" 这一举措将为 meta 带来更大的灵活性和自主性,同时也有望降低 ai 工作负载的成本。