6月17日消息,openai首席执行官山姆·奥特曼(sam altman)近日首次披露了chatgpt查询的具体能耗数据。
他在博文中透露,chatgpt单次查询平均耗电0.34瓦时(0.00034千瓦时),用水约0.000085加仑——相当于节能灯泡工作两分钟的耗电量,或约1/15茶匙的水量。
作为人工智能行业领军企业,openai此次公开能耗数据具有标志性意义,为评估ai技术对环境的影响提供了重要参考,并在业内引发热议。本文将对这个数据进行剖析,并呈现正反观点。
0.34瓦时数据是否可信?
支持这一数据的主要依据来自第三方研究的相互印证:
1)独立研究数据吻合
该数据的可信度首先体现在与第三方研究的高度吻合。知名研究机构epoch.ai在2025年发布报告显示,gpt-4o单次查询能耗约为0.0003千瓦时,与openai公布的数据基本一致。
epoch.ai的测算基于以下假设:openai模型采用“专家混合”架构,拥有1000亿个活跃参数,典型响应输出500个token。不过该研究存在两个局限:一是仅计算了gpu服务器的直接能耗,二是未纳入数据中心通用的pue能效评估指标。
同样在2025年,由尼达尔·杰拉姆(nidhal jegham)领衔的学术团队得出了更具细分性的数据:gpt-4.1 nano单次查询耗电0.000454千瓦时,推理模型o3功耗增至0.0039千瓦时,而处理长文本任务(约7000词输入+1000词输出)的gpt-4.5能耗达到0.03千瓦时。
多方独立研究数据的趋同性表明,至少在模型推理阶段,openai公布的能耗值处于合理范围。
2)硬件层面数据合理性分析
行业报告显示,chatgpt日均查询量达10亿次。若按单次0.34瓦时计算,单日总能耗约340兆瓦时。技术专家据此推算,openai可能需要部署3200台搭载英伟达dgx a100芯片的服务器集群。这意味着每台服务器需要每秒处理4.5次查询。
按照openai的标准换算:每次请求平均生成500个token,约375个单词,单台服务器需实现每秒生成2250个token。这听起来是否现实?
约万·斯托伊科维奇(jovan stojkovic)等学者2024年的实验显示,搭载8颗h100 gpu芯片的服务器运行llama-2-70b模型时,token生成速度可达每秒6000个。但杰拉姆团队2025年实测openai多个模型时,观测到的生成速度仅为每秒75到200个token(具体测试条件未详细说明)。
综合来看,3200台服务器支撑10亿次日均查询的理论模型虽存在争议,但尚不能完全否定其可能性。
为何部分专家持怀疑态度?
尽管有支持证据,但不少专家对openai公布的能耗数据持保留态度,主要质疑集中在以下方面:
1)openai的数字可能忽略了其他组件能耗
这个数字可能仅涵盖了gpu服务器本身的能耗,未考虑其他基础设施的能耗——比如数据存储、冷却系统、网络设备、防火墙、电力转换损失或备份系统等。
这种情况在科技公司的能耗报告中很常见,例如,meta公布的能耗数据同样存在类似局限。但在实际数据中心运营中,gpu能耗通常仅占总能耗的一部分。
2)openai的服务器能耗估算似乎偏低
许多评论员,比如绿色运营倡导者马克·布彻(mark butcher),认为3200台gpu服务器远不足以支撑所有chatgpt用户的查询,特别是在考虑到全球用户量、高可用性以及诸如编程或图像分析等复杂应用时。
同时,第三方研究报告指出,openai实际部署用于推理的gpu数量可能达到数万甚至数十万颗。如果这一数据属实,那么其真实能耗水平将远高于宣传中单次查询0.34瓦时的数字。
3)关键参数披露不完整
批评者如大卫·米顿(david mytton)指出,openai的声明缺乏必要的背景信息。例如:
“平均查询”具体指的是什么?是单次提问,还是一次完整的对话?
该数据是仅针对某个特定模型(例如gpt-3.5或gpt-4),还是多个模型的平均值?
这个数据是否包括更复杂的新任务,例如多模态输入(如pdf文件分析或图像生成)?
水的使用量是直接用于冷却服务器,还是包括了电力生产过程中的间接用水?
为何没有提供碳排放数据?这会根据地区和能源结构有所不同。
没有这些关键信息,难以判断该数据的可信度,也无法与其他ai系统的能耗进行有效的横向对比。
科技巨头终于开始回应公众诉求了吗?
openai此次披露能耗数据,恰逢英伟达发布gpu全生命周期碳排放报告、谷歌发布tpu硬件环境评估报告之际。
这是否意味着科技巨头终于开始响应社会对透明度的呼声?我们是否正见证新时代的曙光?还是奥特曼只是在玩弄话术——毕竟,淡化气候影响符合它们的商业利益?
推理能耗 vs 训练能耗:被忽视的长期影响
关于ai能耗的讨论通常集中在模型训练阶段。虽然训练阶段的能耗确实惊人,但从长远来看,处理数十亿次查询(即推理阶段)的总能耗可能远超过训练阶段的能耗。
据估算,gpt-4训练大约消耗5000万至6000万千瓦时的电力。如果以每次查询消耗0.34瓦时、日均10亿次查询计算,仅需150至200天,推理阶段的总能耗就会超越训练阶段。
这也使得推理阶段的能耗值得关注,并需要进行详细的测量。
结论:又一颗“绿色烟雾弹”?
正当人们以为openai的能耗争议已没有新意时,这家一向以封闭著称的公司却突然公开了具体数据。许多人对其在产品能耗问题上的公开态度表示欢迎,并期待这是科技巨头开始公开披露资源消耗与气候影响的转折点。
然而,质疑的声音同样存在,而且有理有据。因为该数据仅作为一篇博客文章的附带内容,且与文章主题完全无关,缺乏足够的背景信息。
在openai提供更详实的数据前,0.34瓦时这个数字应被审慎看待——它或许是新时代的起点,也可能只是又一场精心设计的“绿色烟雾弹”。(文/腾讯科技特约编译 金鹿)