智算中心太“多”,大模型不夠用了

2024年12月05日00:50:20 科學 2061

英偉達芯片“倒爺”們,開始不發朋友圈了,

2023年大模型火熱的時候,“倒爺”們朋友圈的畫風是“欲購從速、30%定金,有實力的老闆來!”到了2024年就變成了“現貨現款、物美價優。”甚至有一批人已經黯然退場。

以h100整機價格為例,官方售價為30萬美元左右,水貨一度高達300多萬人民幣,超過50%的利潤空間,讓不少人趨之若鶩,但是現在價格已經回落到230萬人民幣左右,再倒賣也就沒什麼利潤空間。

其中既有英偉達芯片更新換代的原因,基於blackwell架構的gb200等新品單位算力成本更低;也有算力行業從過熱到回歸理性的必然,有了gpu並不意味能轉換成大模型算力,大家對這一現實的理解,是用真金白銀砸出來的。

大模型之大,動輒需要64/128/256台服務器(一台服務器8張gpu卡)組成的算力集群來訓練。對於志在基礎大模型的廠商來說,萬卡集群成了入門門檻,不僅海外openai、馬斯克的xai等都在規劃十萬卡集群,國內也同樣走在競逐十萬卡集群的路上。

來自需求端的壓力,也正在重新校正ai算力產業,首當其衝的便是智算中心。作為計算、存儲、網絡的集合體,智算中心直接反映大模型算力的行業現狀,而來自一線的聲音趨於一致:智算中心太“多”,大模型不夠用了。

缺算力是真的,空置也是真的

智算中心並不是絕對意義上的“多”,無論從各種視角看,真正適配大模型訓練的算力在未來一段時間仍有很大的缺口,大規模智算中心的建設不會停止。

以openai為代表,chatgpt發布兩年來,大模型產業發展的腳步似乎變慢了,不排除這是大模型新一輪爆發前的蟄伏,在“scaling law”(規模法則)信仰之下,xai、meta、openai等巨頭都在積極布局十萬卡乃至更大規模的智算集群。

例如7月份,馬斯克宣布位於美國田納西州孟菲斯市的超級集群開始投入訓練,該集群配備了10萬個英偉達 h100 gpu,被稱為 “世界上最強大的 ai 訓練集群”。兩個月後,馬斯克宣布該集群名為 “colossus(巨人)”,將在未來幾個月內再增加 10 萬顆 gpu,其中 5 萬顆將是更為先進的英偉達 h200,grok 3訓練預計在三到四個月內於該集群完成,目標是12月發布。

再看openai,甚至因為算力交付和“鐵杆盟友”微軟產生了分歧。此前微軟與 openai 合作共建一個代號為 “星際之門” 的巨型數據中心項目,項目預計成本超過 1150 億美元,旨在建設一個配備數百萬塊 gpu 的超級計算機。據報道,微軟計划到2025年底向 openai 提供約 30 萬個英偉達最新的 gb200。

但是奧爾特曼似乎對微軟的速度還不滿意,在完成66億美元的最新一筆融資後,openai又與甲骨文達成合作,將在德克薩斯州的一個新數據中心租用服務器,該數據中心未來可容納數十萬個英偉達gpu。

智算中心太“多”,大模型不夠用了 - 天天要聞

圖片系ai生成

超大規模數據中心解決方案運營商秦淮數據對鈦媒體app表示,公司堅定看多智算,預計2027年開始智算需求進一步爆發,到2030年100%的推理需求都需要由超大規模數據中心來完成。

賽迪顧問人工智能與大數據研究中心高級分析師白潤軒此前表示, 截至2024年上半年,國內已經建設和正在建設的智算中心超過250個,2024年上半年智算中心招投標相關事件791起,同比增長高達407.1%。

“這表明智算中心的建設在全國範圍內得到了廣泛的關注和支持。從2023年開始,各地政府加大了對智算中心的投資力度,推動了基礎設施的發展。”白潤軒說。

百度智能雲ai計算部負責人王雁鵬則表示,從需求側來看,十萬卡是今年大模型競爭的規模門檻,從技術角度來看,大模型算力基本估算為模型的大小乘以所需要的數據量,“gpt4是萬億參數,大概用了2-3萬張h卡集群訓出來gpt4,按照scaling law推算,gpt5的集群卡數大概在十萬量級,可能是5-10萬之間,參數級別會提升大概3-5倍。”

然而,與萬卡算力集群火熱相對應的,是大模型市場的“冷清”。

據經濟觀察報統計,截至2024年10月9日,網信辦共通過188項生成式人工智能備案,也就是有188個大模型可以上線提供生成式人工智能服務。但超過三成的大模型在通過備案後未進一步公開其進展情況;僅有約一成的大模型仍在加速訓練模型;接近一半的大模型則轉向了ai應用的開發。

這些跡象可以理解為:大模型預訓練需求越來越集中了。

與此同時,國內市場相較於海外市場更複雜。相似之處是算力需求持續增長,不同之處是算力封鎖、生態不全,加之前期部分炒貨囤卡的行為,這就導致了一種詭異的狀態——算力既緊缺又空置。因為,“把gpu卡塞進機房”和“構建用於大模型訓練所需的算力集群”,是兩個完全不同的概念。

但是,對於智算中心的空置率或者浪費程度,並沒有一個統一的答案。從鈦媒體app獲得的一份資料可以有個大概感知:上半年國內已上線智算中心17億卡時,使用5.6億卡時,利用率32%;另有數據顯示,目前算力基礎設施行業的平均上架率不足 60%。

算力空置引起各方關注

“各地前期已經建設了一批智算中心,不管是國產卡還是英偉達的卡,這些集群都不同程度上存在閑置問題,政府已經注意到了這些問題,智算中心的運營主體也也不少出現虧損,在算力挑戰短時間內很難解決的情況下,投資節奏上還是要有所把控。”一位接近政府的行業側人士對鈦媒體app提到。

國家層面先後推出了十餘項政策推進智算中心建設,例如“東數西算”“數字中國建設整體布局規劃”等,但上述人士告訴鈦媒體app,最近發改委已經基本明確,如果還要進一步新建智算中心,而且是採購國外卡,能耗指標均不予批複。如果採購國產卡,考慮支持國產創新,並且在東數西算的八大節點上,還可以安排能耗指標。

據了解,目前智算中心主要投資模式,一是政府投資建設,建設資金來自地方政府財政資金、專項債券發行等,建成後所有權歸政府所有;二是企業獨立投資建設,由企業聯盟、少數企業聯合、單獨企業等形式進行投資;三是高校或科研機構獨立投資建設,向師生、研究人員提供免費算力支撐,服務高校教育場景,這種情況下建設成本較低。

這其中,有不少智算中心向銀行貸款採購gpu卡,承諾兜底方都是幾家搞基礎大模型的公司,比如阿里巴巴、騰訊、百度等。銀行也很疑惑,大模型公司本身就有雲基礎設施和大量gpu卡,絕大多數中間商的議價權和渠道能力還不如這些大廠,怎麼讓大廠們加錢採購?

智算中心太“多”,大模型不夠用了 - 天天要聞

鈦媒體app獲悉,有地方政府開始斡旋,希望讓雲廠商租用閑置的智算中心算力。“我們都不知道國內還有這麼多卡,某種意義上,算力稀缺的背後存在一些資源錯配。”上述人士表示。

該人士還提到,政府意識到可能會有算力浪費的情況出現,但是,部分地方手握能耗指標,和供應商拉扯的時間較多,智算中心建得慢,而部分地方建設得快反而虧損,由此帶來的負面甚至引起了高層注意。

據悉,工信部日前面向六個城市定向下發了關於智算雲服務試點的批文,希望用公共雲的方式,解決前期各地方的智算中心建設問題,特別是國有資金建設的一些小散算力中心浪費問題。

近幾個月來,政府側已經出台多項政策,正強調有序引導,出清落後產能。

例如《數據中心綠色低碳發展專項行動計劃》發布,對數據中心行業的區域布局、能效水效、綠電使用進行了嚴格、全面的規定,並提出“全面清理地方高耗能電價優惠政策”,輿論普遍認為該政策將加速落後產能淘汰,從而改善行業供給結構,促進行業良性發展。

8 月 1 日,《公平競爭審查條例》正式實施,要求各地方政府“沒有法律法規依據或國務院批准,不得給予特定經營者稅收優惠”,這意味着盛行已久的地方“以稅引商”模式被按下了暫停鍵,企業將更關注經營本身,有利於行業從“卷價格”走向“卷創新”。

雲計算行業也看到了智算中心建設的問題。阿里雲智能科技研究中心主任安琳提到,目前有三種“萬卡集群:

假萬卡集群——公司確實有一萬張ai加速卡(gpu卡),但分布在全國幾個不同的數據中心,每個數據中心有幾百張或幾千卡,加起來超過萬卡。這種集群是“假萬卡集群”。

偽萬卡集群——擁有一萬張ai加速卡且部署在同一個數據中心,但訓練特定模型的時候,只有一部分卡實際參與訓練。例如:1000卡訓練a模型,2000張卡訓練b模型,3000張卡訓練c模型,4000張卡訓練d模型。這種萬卡集群是“偽萬卡集群”。

真萬卡集群——單一集群擁有一萬張ai加速卡(如gpu卡),部署在同一個數據中心,並且能通過大規模資源調度技術,讓萬卡作為“一台”計算機,單一模型能在這一萬張卡上同時進行訓練。正如100個昆明湖連起來,也訓不出一支航母艦隊,大模型也是如此,只有真正的萬卡智算集群,才能訓練出國際先進的大模型。

有數據中心行業人士也表示,數據中心行業對內卷嚴重的感知非常明顯,比如很多數據中心企業無條件為客戶預留資源;簽訂短期租約,客戶擁有隨時調價調量的權益;過度擴大責任範圍;招投標突破合理價格底線等等,這都是一些內卷帶來的亂象。

為什麼大模型算力會閑置?

在回答這一問題之前,有必要捋清下大模型所需的算力類型。

目前大模型所需的算力主要有三種,其一是超大規模的大模型訓練,需要的算力集群越來越大,智算中心供不應求;其二是常規的大模型訓練/微調,一般的裸金屬或者算力集群都能滿足;其三是推理需求,用雲主機等都能滿足,未來需求有望穩定增長。

可以看出,除了第一種基礎大模型的訓練需求之外,其餘的大模型算力需求並不十分緊缺,不用最新的英偉達gpu卡,國產ai芯片也能頂上,企業可以在價格、成本、易用性等因素之間尋找平衡點。

zstack cto王為提到了一個很有意思的現象,也是國內企業不得已為之的權宜之計——他表示,企業對於ai的投入還是相對比較謹慎的,在很多場景下用消費級顯卡,很大程度上解決了大模型非預訓練的需求。

對於雲廠商而言,按照正常的生意邏輯,一邊買卡一邊以雲服務的形式賣出去,不會大肆囤卡,其他的囤卡行為顯然沒有充分認識到,賣卡這門生意有多難。

租卡也是一種節省成本的方法,gpu正在更新換代,但不是簡單的付租金就行,雲廠商還要帶着工程團隊去做大量改造,估算地價、電價等,額外配置交換機、網卡、光纜等,任何資本支出都要盤算是否值得投入。

安琳進一步補充道,智算中心的三大主要門檻包括集群網絡、任務調度、智能運維。王雁鵬也表示,國內構建10萬卡集群面臨著三大難題,跨地域部署、多芯混訓以及集群穩定性,這些難題包括技術和工程上的多重挑戰。

首先是網絡,大模型催生了一種全新的網絡需求,此前從未有過,也就沒有相應的成熟方案,市面上所有方案都是邊研發邊使用,可以說,網絡技術直接決定集群規模能建多大。

“幾百g的帶寬,在每一個毫秒範圍內正向模型訓練帶寬全佔滿,下一個毫秒又反向全佔滿回來,在人類歷史上的通信,沒碰到過這種需求。這涉及到諸多軟件硬件,交換機、網卡芯片硬件和軟件設計,路徑選擇的算法、通信協議的加速。要干這件事,網卡、交換機甚至中間用的光纜都得專門定製。”安琳說道,阿里雲ai高性能網絡架構hpn 7.0成果論文被sigcomm2024收錄,成為sigcomm歷史上首篇關於ai智算集群網絡架構的論文。

其次是調度,算力集群規模小,網絡當然簡單,但是效率和規模就沒有競爭力,如何讓計算任務靈活的在硬件資源調度,資產利用率就能越高,算力價格就可以做到更低。

傳統思路是按照硬件資源做調度,先監測算力卡是否空閑,如果閑着了就給他扔一個任務過去,這是最簡單且效率極低的調度,雲計算行業早已經進化到按任務來調度,可以監測到每一張卡上每一個任務的進程,然後根據任務進程分配新的任務。

安琳強調,“不是簡單地給算力卡安排任務,而是把更細顆粒度的一個個不同的計算任務在這些卡間做調度,需要很多的工程技術能力積累,這也是為什麼現在全世界做得好的ai公司,基本上都屬於雲計算公司。”

最後是運維,在以前的計算中,算力卡壞了可以很快將其隔離,然後繼續用其他卡運行,現在大模型有很多瞬時故障,在毫秒級時間有抖動,一次通信過程中的抖動和丟包,就會導致gpu利用率下降50%。據安琳介紹,阿里雲已經升級到毫秒級檢測,及時從集群里隔離故障算力。

智算中心太“多”,大模型不夠用了 - 天天要聞

此外,國內企業構建算力集群還面臨著一個現實的困難:芯片。

國內企業面臨算力供應不穩定的挑戰,較難構建單一大規模訓練集群。現實情況是,企業內部會出現同一廠商不同代際芯片,或者不同廠商芯片共存的情況。這些芯片如何進行混部訓練,同時保證混部訓練的效率也是難題。

此外,隨着芯片集成度的不斷提高,芯片的故障率也會相應上升,英偉達h系列芯片的故障率比a系列高3-4倍。並且算力集群規模越大,其故障率就越高。按照h系列芯片的故障率水平,十萬卡集群每20分鐘就會出現故障。較高的故障率對穩定性訓練保障提出了更高的要求。

王雁鵬介紹,包括百度在內的國內廠商正在破解這些難題。在跨地域方面,針對由於傳輸距離變長所產生的高延遲,百舸4.0已經構建了十萬卡級別的超大規模hpn高性能網絡,通過提供更高效的拓撲結構、更優的多路徑負載均衡策略及通信策略,能夠實現幾十公里的跨地域通信。同時,在通信效率上,通過優化的擁塞控制算法、集合通信算法策略,將帶寬有效率提升至95%,實現了完全無阻塞。最後,通過10ms級別超高精度網絡監控,保障了網絡穩定性。

智算中心,從內捲走向有序

對於智算中心的建設是否過於超前,不同人有不同看法。一方認為,國內智算中心還無法擺脫海外生態體系,需要三到五年的過渡期,在此過程中,大規模加速建設智算中心必然會帶來大量浪費。

另一方認為,海外封鎖只會愈發嚴峻,國產算力生態必須加速成熟,相比於國家戰略的競爭,超前建設帶來的一些小問題是可以接受的。有消息顯示,受到美方要求,台積電被迫採取臨時策略,將暫停向大陸ai算力芯片客戶供應7nm工藝及以下更先進制程的代工服務。

目前來看,囤積英偉達卡的確帶來一部分算力浪費,如上所述,很多購卡方不具備智算中心所需的網絡、調度和運維能力。一位智算中心技術專家直言,“之前太多的投機倒把,很多都不是干這個行業的,覺得囤貨就能掙錢,把它塞到一個機房裡面去,穩定性,各種容錯,亂七八糟的問題都解決不了,造成了很多浪費。

國產算力也同樣存在問題,該專家談及國產ai算力的浪費時感慨,“華為的運營能力太強,在大家還沒有準備好用國產卡和用華為的時候,花了大力氣搞算力場、智算中心,運營商建了大幾萬卡的集群,它的芯片距離客戶開箱即用,到真正能用好還有一些距離,接下來會有更多的國產芯片進來,這個問題會進一步放大。”

“但是對於整體國產卡這件事情我比較樂觀,基於大模型時代算力格局變化。原來的模型非常分散,cuda生態非常厲害是因為要兼容那麼多模型,現在大模型比較收斂的情況下,大家的主流框架是一樣的;同時英偉達又這麼貴,再考慮到算力可獲得性問題,大家就會更願意嘗試用國產卡。”他補充表示。

近日,《科技日報》也頭版刊登了全國政協委員張雲泉署名文章《智算中心建設不可盲目跟風》,文章強調,智算中心的建設需要巨額資金投入,而投資回報卻不確定。

文章表示,由於智算技術更新迭代很快,智算中心的生命周期一般只有5至10年,如果沒有強大的技術儲備和升級能力,就可能陷入不斷投入卻無法跟上技術發展步伐的困境。另外,智算中心的運營管理離不開專業的技術人才和高效的管理團隊,否則就可能無法發揮其應有作用,甚至出現設備閑置、資源浪費等問題。由此看來,智算中心該不該建、能不能建、什麼時候建、建在哪裡,需要科學、穩慎決策,絕不能頭腦發熱、一哄而上“趕時髦”。總的原則應當是,在市場需求明確且可持續的情況下,因地制宜、按需建設、適當超前。

一些地方也加強了對智算中心運營的要求,比如山東德州價值約2億元的“全國一體化工業大數據山東雲中心省會經濟圈區域分中心數據機房‘德智未來’智算中心項目”,就在招標文件中明確寫明了“採用設計施工採購運營一體化的模式建設”,要求運營期限不低於5年,並規定了項目驗收投運後每年算力的最低收益。

王為也表示,從政策角度上看,政府對智算中心的要求比以前多,以前是先把智算中心建起來就行,現在建設初期就會找好的運營方,或者建設與運營一體,保證算力的使用率。

“去年算力消耗以訓練為主,目前看消解不了算力中心的算力,很多大模型廠商手裡囤的算力也不少,一些大模型廠商也減少了預訓練,不太需要對外租很大的算力了。現在很多智算中心也開始找一些推理的場景,研究落地應用,使用端會更分散,整個市場應該會更健康。”他說。(本文首發於鈦媒體app,作者 | 張帥,編輯 | 蓋虹達) 

科學分類資訊推薦

Science | 告別序列依賴,為你的染色體“掃碼”:每條染色體竟自帶獨一無二的“條形碼” - 天天要聞

Science | 告別序列依賴,為你的染色體“掃碼”:每條染色體竟自帶獨一無二的“條形碼”

引言在人類基因組中,有一片廣袤而神秘的“禁區”,它佔據了每條染色體的核心位置,卻長期以來讓我們束手無策。這片區域就是着絲粒 (Centromere)。它就像基因組中的“百慕大三角”,充滿了高度重複的DNA序列,結構複雜多變,讓傳統的基因測序和分析技術在此屢屢碰壁。然而,這片“禁區”卻掌握着細胞分裂時染色體能否被精確...
Nature | 人類心智的“源代碼”:AI如何學會像我們一樣思考? - 天天要聞

Nature | 人類心智的“源代碼”:AI如何學會像我們一樣思考?

引言人類的心智是如此奇妙,它既能讓我們在清晨糾結於吃什麼早餐,也能驅動我們去攻克癌症、探索遙遠的星辰。我們能從寥寥數次的演示中學會舞步,能進行複雜的因果推理,還能被無盡的好奇心驅使去創造藝術和科學的奇蹟。這種舉重若輕、觸類旁通的“通用性 (generality)” 定義了我們之為人的核心。然而,在人工智能 (AI) 和...
著名情報學家冷伏海逝世,享年62歲 - 天天要聞

著名情報學家冷伏海逝世,享年62歲

澎湃新聞記者從相關方面獲悉,中國科學院科技戰略諮詢研究院研究員、中國科學技術情報學會常務理事、中國國防科學技術信息學會理事、中國圖書館學會學術研究委員會圖書館基礎理論專業委員會原副主任、國家保密戰略專家諮詢委員會專家委員、北京市海淀區第十七
剛剛!中國電信和政府組建一家公司,這個公司來頭不小! - 天天要聞

剛剛!中國電信和政府組建一家公司,這個公司來頭不小!

近日,海南省政府與中國電信共同組建的海南數據產業服務有限公司正式成立,相信大家看到這都會好奇這家公司是幹什麼的?中國電信又有什麼大動作了嗎?下面我們就展開來聊聊吧,僅供參考哦!解決行業痛點。以往的中小企業想用現實數據來優化生產流程,卻面臨合
前國際古生物學協會主席、英國皇家科學院院士邁克爾·本頓:貴州三疊紀化石群改寫地球生命演化認知|2025年生態文明貴陽國際論壇 - 天天要聞

前國際古生物學協會主席、英國皇家科學院院士邁克爾·本頓:貴州三疊紀化石群改寫地球生命演化認知|2025年生態文明貴陽國際論壇

7月5日下午,在2025年生態文明貴陽國際論壇“傳承地質魅力·續寫文明華章——推動地質公園與生態文化多樣性融合發展”主題論壇上,前國際古生物學協會主席、英國皇家科學院院士Michael J. Benton(邁克爾·本頓)教授圍繞“三疊紀化石