生成式AI有多耗能:谷歌耗電堪比一國電量,ChatGPT答個問題「喝水」10毫升

11日,據環球時報援引《紐約客》雜誌報道,OpenAI的ChatGPT聊天機器人每天消耗超過50萬千瓦時的電力,用於處理約2億個用戶請求,相當於美國家庭每天用電量的1.7萬多倍。

據報道,隨著生成式人工智慧的廣泛應用,預計到2027年,整個人工智慧行業每年將消耗85至134太瓦時的電力,這顯示了AI技術對電力資源的巨大需求。是什麼導致了生成式AI如此高的能耗?在未來有何解決方案?對此,上游新聞進行了了解。

耗電:堪比一國用電量

隨著人工智慧技術的發展,對晶元的需求急劇增加,進而帶動了電力需求的激增。全球數據中心市場的耗電量已經從十年前的100億瓦增加到如今的1000億瓦水平。根據美國機構Uptime Institute的預測,到2025年,人工智慧業務在全球數據中心用電量中的佔比將從2%增加到10%。

經濟觀察網消息,2023年10月10日,阿姆斯特丹自由大學商業與經濟學院的博士候選人德弗里斯(Alex de Vries)在一篇論文中表示,像ChatGPT這樣的大型語言模型需要大量的數據集來訓練人工智慧,在人工智慧模型經過訓練階段後,會過渡到推理階段,然後根據新的輸入生成信息。推理階段消耗的能源似乎更多。

研究公司SemiAnalysis表示,OpenAI公司需要3617台英偉達的HGX A100伺服器,總共28936個圖形處理單元(GPU)來支持ChatGPT,這意味著每天的能源需求就要達到564兆瓦時,這要比訓練階段的能源需求高得多。

過去的工作常常關注的是人工智慧訓練所消耗的能量,但德弗里斯提醒道,需要更多考慮人工智慧的整個生命周期

此外,英偉達生產的GPU晶元作為人工智慧領域的命脈,該公司在2023年第二季度的收入為135億美元,其數據中心業務較上一季度增長了141%,這一點足以證明人工智慧產品需求的迅速增長。

德弗里斯表示:「考慮到未來幾年的預期產量,到2027年,新製造的人工智慧設備的用電量將與荷蘭一樣多,這也與瑞典阿根廷等國的用電量處於同一範圍。」

德弗里斯還承認:「最壞的情況就是,僅谷歌一家公司的人工智慧就可以消耗與愛爾蘭等國家一樣多的電力。」

德弗里斯在論文中設想,如果將生成式人工智慧集成到谷歌的每一個搜索中,那麼屆時谷歌就會大幅增加對電力的需求。

另一家研究機構New Street Research也得出了類似的估計,認為谷歌將需要大約40萬台伺服器,這將導致每天消耗62.4吉瓦時,每年消耗22.8太瓦時的能源。

費水:答50個問題「喝」水500毫升

除了耗電,生成式AI同樣耗費著巨量的水資源。

要對AI進行大量訓練,也就意味著需要更強的算力中心和與之匹配的散熱能力。在AI快速進步的道路上,對水資源的消耗也不斷加碼升級。

谷歌發布的2023年環境報告顯示,公司前一年的用水量同比顯著增加了20%,達到56億加侖(21198305立方米),而其中絕大部分都被用於為該公司的數據中心散熱。而這並不是個例。2023年初,由OpenAI打造的ChatGPT火遍全球,一躍成為人工智慧領域的現象級應用,也引發了全球互聯網公司的AIGC「軍備競賽」。

科羅拉多大學德克薩斯大學的研究人員在一篇名為「讓AI更節水」的預印論文中也發布了訓練AI的用水估算結果,顯示訓練GPT-3所需的清水量相當於填滿一個核反應堆冷卻塔所需的水量。ChatGPT(在GPT-3推出之後)每與用戶交流25到50個問題,就得「喝下」一瓶500毫升的水來降溫。

除了谷歌,另一個巨頭Meta在美國亞利桑那州建設了數據中心,僅2022年用水量就超過260萬立方米。隨著全球人工智慧「軍備競賽」的持續升級和大量科技公司競相建設新數據中心,其消耗的水量很可能會繼續上升。

正在大力開發人工智慧的微軟也在其最新的環境報告中透露,2022年公司用水量同比前一年激增了34%,達到640萬立方米,比2500個奧林匹克標準游泳池的水量還多。外部研究人員認為這與微軟的人工智慧研究有關。

對此,有專家表示,整體來看,當前數據中心耗水已經成為制約數據中心快速發展的因素之一。中國電子節能技術協會數據中心節能技術委員會秘書長呂天文介紹稱,為了節約寶貴的自來水資源,很多企業嘗試用各種方法為數據中心散熱,例如,微軟曾嘗試部署海下數據中心,Facebook數據中心選址北極圈附近,阿里雲千島湖數據中心使用深層湖水製冷,「但上述方法總是會帶來新的問題,目前國內數據中心的用水主要使用的還是自來水,近幾年政府層面更鼓勵數據中心企業利用中水(循環再利用的水)。」

據悉,此前北京市發展改革委修訂印發了《關於進一步加強數據中心項目節能審查的若干規定》,其中就新增了關於引導數據中心充分利用再生水的內容:再生水輸配管網覆蓋範圍內的數據中心,設備冷卻水、機房加濕等非生活用水應採用再生水。

碳排放:兩月1000噸

除了消耗大量的電力和水資源,以生成式AI為代表的智算算力還是碳排放大戶。

新冠病毒的分子信息建模、石油勘探中的環境模擬、航空航天導航,需用到超算算力;互聯網、金融、工業、城市治理等,對通用算力和智算算力需求很大;智能網聯車、視頻監控等,偏重於邊緣計算算力。而今,城市經濟、社會、生活無時無刻不需要算力。

阿里雲中國區解決方案副總餘勇舉例,在淘寶,拍照搜索商品的「拍立淘」,對算力要求是在30億張圖片中搜尋,2秒出結果;在製造能源領域,智算算力已運用於海螺集團150條水泥產線的經營決策優化,運用於對山東德州電力的負荷預測等,算力需求驚人。「國內企業的智算算力需求,平均每3.5個月就會翻一倍。」

伺服器。資料圖

「截至2022年底,全國算力總規模達到180eflops(每秒18000億億次浮點運算),位居全球第二。」中國信通院雲大所副所長李潔博士說。

需求急速擴增同時,越來越多數據中心被戴上「能耗大戶」帽子。有研究機構指出,訓練ChatGPT這樣一個包含1750億參數的大模型,帶來兩個月排碳1000噸的巨大消耗。

對此,早在2021年11月,我國就已出台公共機構碳達峰方案,新建大型、超大型數據中心須全部達到綠色數據中心要求,綠色低碳等級達4a級以上,電能利用效率(pue)1.3以下。

應對:優化架構提升能效

在氣候挑戰日益嚴峻的今天,不斷膨脹的人工智慧正消耗著越來越多的電力、水資源,產生著越來越多的碳排放。據預測,到2030年,智能計算的年耗電量將達到5000億度,佔全球發電總量的5%。如果AlphaGo對弈一盤棋就要耗去1噸煤的發電量,訓練對弈千萬盤棋局就要燃燒20萬噸煤,那麼讓大模型賦能千行百業,地球能否承受得起如此巨大的碳排放?

此外,根據摩爾定律計算機的算力每18個月翻一番,而並行訓練日益複雜的AI網路的需求,每三四個月就會翻一番。中國工程院院士清華大學信息科學技術學院院長戴瓊海指出,近五年來,作為AI發展重要支撐的算力正逐漸變為制約AI繼續向前的瓶頸。

為此,行業大佬及科研人員也在進行著不斷的研究和探索。

近日,人工智慧晶元龍頭英偉達的創始人兼CEO黃仁勛表示,人工智慧的未來發展與狀態和儲能緊密相連。他強調,不應僅僅關注計算力,而是需要更全面地考慮能源消耗問題。

OpenAl的創始人山姆·奧特曼也提出了類似的看法。他認為,未來AI技術的發展將高度依賴於能源,特別是光伏儲能技術的進步。

伺服器。資料圖

「在控制大模型帶來的能耗和成本方面,半導體企業可以通過優化計算架構、提升能效等措施,降低大模型的能耗和成本。」北京大學集成電路學院研究員賈天宇說。

長期以來,人工智慧及其熱門應用常常被喻為「大腦」,比如自動駕駛被喻為「車輪上的大腦」。但是,人腦並不是僅僅依靠大腦工作,腦幹小腦也承擔了許多任務,比如控制心跳和體溫,保持身體的穩定性、協調性等。如果大腦進行所有的決策和控制,人體就很難負擔大腦需要的能量。

比照包含大腦、小腦、腦幹的人腦系統,恩智浦半導體執行副總裁兼首席技術官Lars Reger描述了一種更加高效節能的計算體系:以AI算力晶元為「大腦」,進行高效能的計算和加速;以網關處理器為「小腦」,實現不同功能區的互聯和集成,以及異構網路中的數據處理;以MCU、感知晶元、聯網晶元作為「腦幹」,實現感知和實時任務處理。

此外,目前在大算力晶元研發上,我國在光電智能晶元領域有望與歐美一爭高下。中國工程院院士、清華大學信息科學技術學院院長戴瓊海表示,一旦光電智能計算得到應用,將對當代計算的速度、能量效率和數據通量產生變革性影響,可實現計算速度的成千倍提升、能效的百萬倍提升。「改用光電智能晶元,AlphaGo整體計算能耗將從1噸煤下降到1克。」戴瓊海說。

(1太瓦時=1000吉瓦時=1000000兆瓦時=1000000000千瓦時——編者注)

上游新聞綜合