6月17日消息,openai首席執行官山姆·奧特曼(sam altman)近日首次披露了chatgpt查詢的具體能耗數據。
他在博文中透露,chatgpt單次查詢平均耗電0.34瓦時(0.00034千瓦時),用水約0.000085加侖——相當於節能燈泡工作兩分鐘的耗電量,或約1/15茶匙的水量。
作為人工智慧行業領軍企業,openai此次公開能耗數據具有標誌性意義,為評估ai技術對環境的影響提供了重要參考,並在業內引發熱議。本文將對這個數據進行剖析,並呈現正反觀點。
0.34瓦時數據是否可信?
支持這一數據的主要依據來自第三方研究的相互印證:
1)獨立研究數據吻合
該數據的可信度首先體現在與第三方研究的高度吻合。知名研究機構epoch.ai在2025年發布報告顯示,gpt-4o單次查詢能耗約為0.0003千瓦時,與openai公布的數據基本一致。
epoch.ai的測算基於以下假設:openai模型採用「專家混合」架構,擁有1000億個活躍參數,典型響應輸出500個token。不過該研究存在兩個局限:一是僅計算了gpu伺服器的直接能耗,二是未納入數據中心通用的pue能效評估指標。
同樣在2025年,由尼達爾·傑拉姆(nidhal jegham)領銜的學術團隊得出了更具細分性的數據:gpt-4.1 nano單次查詢耗電0.000454千瓦時,推理模型o3功耗增至0.0039千瓦時,而處理長文本任務(約7000詞輸入+1000詞輸出)的gpt-4.5能耗達到0.03千瓦時。
多方獨立研究數據的趨同性表明,至少在模型推理階段,openai公布的能耗值處於合理範圍。
2)硬體層面數據合理性分析
行業報告顯示,chatgpt日均查詢量達10億次。若按單次0.34瓦時計算,單日總能耗約340兆瓦時。技術專家據此推算,openai可能需要部署3200台搭載英偉達dgx a100晶元的伺服器集群。這意味著每台伺服器需要每秒處理4.5次查詢。
按照openai的標準換算:每次請求平均生成500個token,約375個單詞,單台伺服器需實現每秒生成2250個token。這聽起來是否現實?
約萬·斯托伊科維奇(jovan stojkovic)等學者2024年的實驗顯示,搭載8顆h100 gpu晶元的伺服器運行llama-2-70b模型時,token生成速度可達每秒6000個。但傑拉姆團隊2025年實測openai多個模型時,觀測到的生成速度僅為每秒75到200個token(具體測試條件未詳細說明)。
綜合來看,3200台伺服器支撐10億次日均查詢的理論模型雖存在爭議,但尚不能完全否定其可能性。
為何部分專家持懷疑態度?
儘管有支持證據,但不少專家對openai公布的能耗數據持保留態度,主要質疑集中在以下方面:
1)openai的數字可能忽略了其他組件能耗
這個數字可能僅涵蓋了gpu伺服器本身的能耗,未考慮其他基礎設施的能耗——比如數據存儲、冷卻系統、網路設備、防火牆、電力轉換損失或備份系統等。
這種情況在科技公司的能耗報告中很常見,例如,meta公布的能耗數據同樣存在類似局限。但在實際數據中心運營中,gpu能耗通常僅佔總能耗的一部分。
2)openai的伺服器能耗估算似乎偏低
許多評論員,比如綠色運營倡導者馬克·布徹(mark butcher),認為3200台gpu伺服器遠不足以支撐所有chatgpt用戶的查詢,特別是在考慮到全球用戶量、高可用性以及諸如編程或圖像分析等複雜應用時。
同時,第三方研究報告指出,openai實際部署用於推理的gpu數量可能達到數萬甚至數十萬顆。如果這一數據屬實,那麼其真實能耗水平將遠高於宣傳中單次查詢0.34瓦時的數字。
3)關鍵參數披露不完整
批評者如大衛·米頓(david mytton)指出,openai的聲明缺乏必要的背景信息。例如:
「平均查詢」具體指的是什麼?是單次提問,還是一次完整的對話?
該數據是僅針對某個特定模型(例如gpt-3.5或gpt-4),還是多個模型的平均值?
這個數據是否包括更複雜的新任務,例如多模態輸入(如pdf文件分析或圖像生成)?
水的使用量是直接用於冷卻伺服器,還是包括了電力生產過程中的間接用水?
為何沒有提供碳排放數據?這會根據地區和能源結構有所不同。
沒有這些關鍵信息,難以判斷該數據的可信度,也無法與其他ai系統的能耗進行有效的橫向對比。
科技巨頭終於開始回應公眾訴求了嗎?
openai此次披露能耗數據,恰逢英偉達發布gpu全生命周期碳排放報告、谷歌發布tpu硬體環境評估報告之際。
這是否意味著科技巨頭終於開始響應社會對透明度的呼聲?我們是否正見證新時代的曙光?還是奧特曼只是在玩弄話術——畢竟,淡化氣候影響符合它們的商業利益?
推理能耗 vs 訓練能耗:被忽視的長期影響
關於ai能耗的討論通常集中在模型訓練階段。雖然訓練階段的能耗確實驚人,但從長遠來看,處理數十億次查詢(即推理階段)的總能耗可能遠超過訓練階段的能耗。
據估算,gpt-4訓練大約消耗5000萬至6000萬千瓦時的電力。如果以每次查詢消耗0.34瓦時、日均10億次查詢計算,僅需150至200天,推理階段的總能耗就會超越訓練階段。
這也使得推理階段的能耗值得關注,並需要進行詳細的測量。
結論:又一顆「綠色煙霧彈」?
正當人們以為openai的能耗爭議已沒有新意時,這家一向以封閉著稱的公司卻突然公開了具體數據。許多人對其在產品能耗問題上的公開態度表示歡迎,並期待這是科技巨頭開始公開披露資源消耗與氣候影響的轉折點。
然而,質疑的聲音同樣存在,而且有理有據。因為該數據僅作為一篇博客文章的附帶內容,且與文章主題完全無關,缺乏足夠的背景信息。
在openai提供更詳實的數據前,0.34瓦時這個數字應被審慎看待——它或許是新時代的起點,也可能只是又一場精心設計的「綠色煙霧彈」。(文/騰訊科技特約編譯 金鹿)