文/ 前台積電建廠專家 leslie wu(公眾號:gh_df9a5da4dcbd)
有朋友問:leslie,你是專業建廠出身,之前傳出山姆奧特曼要投資7萬億造芯,雖然本人不明確回應,但大媒體傳出來,一定不是空穴來風。如果有7萬億,造划算,還是買划算,如果造,可能要考慮哪些方面的投入及因素?
奧特曼的「7萬億」傳聞的確是石破天驚,構想很有意思,回答這個問題得具備豐富的半導體建廠,工藝,運營等一系列知識,我們可以嘗試推算一下,如果手握7萬億美元,如何將這筆錢「合理地」花出去?
每萬片晶圓,建廠投資150億美元
首先,第一步必然是生產gpu邏輯芯片,這樣一來需要先蓋一座邏輯晶圓廠。我們以台積電最先進的2nm工廠為例,看看每萬片晶圓的資本投入情況。
按投資額劃分,晶圓廠各項投入比例大致為:製程設備:77%,土地與建築物:4%,潔凈室:5%,水電氣化學品等供應系統設施:14%。
光刻機是晶圓廠最大的製程設備投資項之一,佔比在20%左右,而且2nm需要用到euv光刻機(負責其中25層的光刻),成本相對更高,佔比預計會提升至24%左右。
目前台積電的2nm還是採用低數值孔徑的euv,對應asml最新款的nxe:3800e,其每小時產出晶圓(wph,wafer per hour)大致在190-200片的區間,單台設備每月產能預計2400片左右(具體計算見下表注釋),這意味着每萬片晶圓的產能,需要4台asml的nxe:3800 euv光刻機,而除了euv負責的25層外,其餘層還需要3台每小時產出晶圓295片的nxt:2100,以及一台krf duv光刻機。
按照asml提供的數據,nxe:3800e售價2億美元左右,nxt:2100i約7500萬美元,krf duv約1500萬美元,這意味着2nm工藝的晶圓廠,每萬片晶圓產能,光刻機(含維修以及備件)的投入預計在13億美元左右。
按照光刻機的投入佔全部製程設備24%的比例倒推,製程設備的總投入為54億美元,而製程設備占晶圓廠全部投資額的77%,以此倒推,2nm節點,每萬片晶圓產能,晶圓廠總投資額大致為71億美元。
建完gpu邏輯芯片廠之後,還要考慮生產hbm的dram廠的建設。
我們以最先進的1gamma製程為例,儘管dram的euv光刻層有所減少,但每萬片晶圓需要的設備數量卻不降反增,尤其是刻蝕設備,整體估算下來,1gamma製程的dram廠投資額大概在邏輯芯片晶圓廠的總投資額的85%,即60億美元左右。
補充說一下,duv時代,dram廠的投資額大概為同級別的邏輯晶圓廠110%-120%,直到7nm節點,邏輯廠開始大量使用euv光刻機,每萬片晶圓產能的投資額開始反超dram廠。
解決前段的gpu邏輯芯片和dram存儲芯片之後,還要解決後段的封裝問題,包括cowos先進封裝、hbm封裝兩部分。
目前,最先進的ai芯片採用的事soic+cowos封裝技術,hbm4將會採用混合鍵合(hybrid bonding),每萬片晶圓的投資額將大幅提高至10億美元(含設備廠房)。另外,先進封裝涉及到的中介層,也還需利用duv構建配套的65/45nm的前段晶圓廠,投資額為每萬片晶圓8億美元。也就是說,封裝部分,每萬片晶圓的整體投資額預計在18億美元左右。
這個花錢的活涉及到的數據比較多,幫大家做一個小總結,每萬片晶圓產能,或者說單位投資額,對應2nm製程的邏輯晶圓廠、1gamma製程的dram廠、封裝廠(先進封裝+中介層,10億美元+8億美元)方面的投資合計在150億美元左右。
年產600萬顆gpu,硬件成本500億美元
但是,gpu邏輯芯片、hbm內存以及中介層,對應的比例不是1:1:1的關係,所有總投資額還要在單位投資額的基礎上,按照係數增加,這個係數大致可以從一顆gpu,所需要的cpu、hbm內存、中介層的數量來推算。
以英偉達最新的blackwell架構gpu b200的die size(814mm²)為例,每片晶圓可以切80顆芯片,按照台積電最好的工藝,良率大致在65%左右,即每片晶圓可以切50顆good die。
附帶說一下,由於gpu邏輯芯片是大芯片,為了提高光刻的曝光清晰面積,物鏡成像的景深就需要控制在相對較大水平,這會導致分辨率降低,是缺陷變多,良率下降的重要原因。
英偉達的b200搭配了grace cpu,2顆gpu搭配1顆grace cpu,那麼50顆gpu,需要搭配25顆cpu。按照3nm製程計算,以cpu的die size和良率預估,一片晶圓可以切300顆左右的cpu芯片,這意味着一片gpu晶圓,需要搭配0.08片cpu晶圓。
目前3nm節點,每萬片晶圓的投資是2nm節點的70%,大致50億美元,也就是說投入71億美元生產10000片gpu晶圓的同時,還要對應投資71億美元×70%×0.08,即4億美元,用於cpu晶圓的生產。
ai芯片的另一個重頭戲即hbm,英偉達的h100、h200標配6顆,到blackwell架構的b200,則採用了8顆hbm3e內存。按照台積電最新的路線圖,2026年,一顆gpu可以搭配12顆hbm內存,屆時hbm的規格還將從12層堆疊的hbm3e,升級至16層堆疊的hbm4/4e。
如前文所述,2nm晶圓可以切出50顆gpu邏輯芯片,按照b200的標準,每片晶圓需要搭配400顆hbm3e內存。目前,1gamma製程的dram芯片,每片晶圓大概可以出1200顆dram顆粒,而按照85%的良率計算,最終可以得到1000顆dram顆粒,之後要將這些dram顆粒封裝成12層堆疊的hbm3e內存。目前,封裝的良率大概在80%左右,即一片dram晶圓可以出1000÷12*80%,約等於70顆左右12層堆疊的hbm3e內存。
也就是說,一片gpu晶圓,除了需要0.08片cpu晶圓,還需要5.7片dram晶圓。未來隨着gpu邏輯芯片搭配hbm顆粒數進一步增加,尤其是堆疊數量從12層提升到16層,gpu:dram晶圓1:5.7的比例,還會進一步擴大。
按現有先進封裝的中介層尺寸,一片晶圓可以完成15顆gpu邏輯芯片的封裝,對應一片gpu邏輯芯片的晶圓,需要3.3片晶圓的先進封裝。
一句話總結:每10000片gpu晶圓,需要800片cpu晶圓,5.7萬片dram晶圓,3.3萬片中介層晶圓,3.3萬片soic+cowos先進封裝,5.7萬片hbm封裝,對應的投資額,即1*71+0.08*50+5.7*60+3.3*10+3.3*8+5.7*10≈476億美元。
每10000片gpu晶圓所有配套芯片的生產工廠需要耗費476億美元,加上其他雜七雜八費用直接算整數為500億美元,換算成gpu芯片數量,為每月50萬顆,一年600萬顆。
8年半可以燒完7萬億美元
投資500億美元,一年生產600萬顆gpu,這是個什麼概念?可以根據台積電cowos產能,來推算全世界的ai gpu的量,然後再進行對比。
2024年,台積電cowos總共31萬片的產能,其中95%都是給ai gpu,只有一萬多片是給xilinx的fpga,剩下的近30萬片被英偉達、amd以及全球互聯網大廠諸如google,aws,meta,mircosoft的自研asic芯片瓜分。
也就是說,台積電cowos產能代表全世界ai芯片產能,2024年80%的gpu還是只使用2.5d cowos,英偉達的h100大約是每片29顆,其他自研asic則都高於這個標準,有的還超過40顆,目前只有amd的mi300使用soic封裝,每片約為15顆。
綜合下來,今年台積電30萬片cowos產能,對應大約是1000萬顆gpu,這也就是2024年全球ai gpu的大致總量。前面提到,投入500億美元,每年可生產600萬顆gpu,也就是說,在2024年,想要生產滿足全世界需求的1000萬顆ai gpu,總投入需要830億美元。這個水平相當於台積電2-3年的資本支出,也大概是台積電fab20a,一座月產12萬片的2nm芯片工廠的總投資額。
投入830億美元,就能生產出2024年全世界所需要的ai芯片,想要把奧特曼的7萬億美元花完,還有很多工作要做,畢竟830億美元也僅僅是建設芯片工廠的費用。
芯片廠、dram廠、封裝廠都蓋完之後,就要考慮生產服務器的工廠建設,還得蓋許多座類似工業富聯的這樣的工廠,不過這類服務器組裝工廠與芯片工廠相比來說,只是小巫見大巫,把ai服務器所有產業鏈上的工廠全部建設起來,包含服務器,光模塊,液冷,銅線材,各式各樣的模具廠,年產1000萬顆gpu,按單個服務器8顆gpu算,即120萬台服務器,所有下游工廠的總投資額大致為170億美元。加上上游芯片工廠的830億美元,1000億美元則是2024年全球所有ai 芯片+服務器出貨量所需的工廠建設總成本。
上下游工廠建設只是開端,工藝還需要持續的研發投入,包括設計、製造相關的研發費用,覆蓋gpu、cpu、hbm、先進封裝等等環節,這部分可以打包算一下英偉達、amd、台積電、sk海力士的研發總額,大致300億美元。再加上服務器硬件研發、比如光模塊、也冷等等,研發部分的費用滿打滿算可以達到500億美元。
而對於openai,在推進agi的路上,也需要持續的進行模型研發投入,每年在這上面的費用至少200億美元。
芯片部分的研發+ai部分的研發,每年的總投入至少在700億美元,如果要更快入的推進,加大研發投入是必然,所有推進agi終極目標的研發投入,每年估算需加大投入到1000億美元。
以上的研發費用還不包括訓練費用,且訓練需要大量的水電資源消耗,這部分基礎設施同樣需要自建。
歐美地區目前建設1kw核電機組的成本大約4000美元,每百萬千瓦的核電機組一年發電量約為8.6億度電,根據iea(國際能源協會)計算,2027年全球人工智能將耗費1340億度電,所以要建設155組百萬千瓦的核能機組,這需要6000億美元左右。
根據加州大學河濱分校的研究,2027年人工智能將耗費66億立方米的清潔淡水,大約是全英國一半的用水量,主要場景來自於服務器的冷卻,發電以及芯片製造這三大耗水環節,建設相應的水處理廠費用大約為1000億美元。
相比前面的投資,製造環節的人力成本規模相對較小,重頭戲主要在芯片的設計,包括模型研發部分。
前段晶圓廠把人力配置拉滿 , 每萬片約需要1000人,後段約1500人,2000萬顆gpu年產能的所有前段工廠(含dram,中介層等)大約需要2萬人,人均年芯為15萬美元,後段封裝需要3萬人,人均年薪約為7萬美元,加上5000名各類芯片製造研發人員,人均20萬美元,每年芯片製造的人員薪資費用總共60億美元。
芯片設計以及大語言模型的人力成本方面,按照英偉達+openai+微軟服務器部門的1.5倍計算,約為5萬人,人均年薪30萬美元,共150億美元涉及服務器所有硬件製造的工廠人數為15萬人,電力以及用水保障設施人員15萬人,共30萬人,人均年薪8萬美元,總共為240億美元。
以上所有環節,人力薪資成本為每年60億+150億+240億共450億美元。
物料成本方面,gpu及相關芯片,再加上所有服務器硬件的成本為2000美元/顆,年2000萬顆,即400億美元。服務器的運營費用方面,人工420億美元+物料成本400億美元+其他雜費180億美元,取整數1000億美元。
以上即奧特曼親自下場造芯涉及到的主要環節的費用的拆解,如果替奧特曼花這筆錢,理想的方案是:2000億美元建設年產2000萬顆gpu(2024年全球約1000萬顆)以及涉及所有服務器硬件的製造工廠,然後為了推進agi的終極目標每年投入1000億美元的研發投入,相關設計、研發、製造總人力成本1000億美元,投資7000億建設能源以及用水的基礎設施,同時編列2000億美元現金應付稅費以及各種雜費或者沒有計算到的費用,最後保留4000億美元作為可能漏算的預備金,如此一來,大約需要1.7萬億美元,就可以覆蓋2000萬顆ai gpu所有製造工廠的啟動資金。
運營資金方面,要保持每年1000億美元的芯片以及硬件新產能投入,並持續推進摩爾定律,提升晶體管密度。每年新增2000億美元的新電力及新用水投入,再加上人工以及物料等每年約1000億美元,這樣的話,每年的極限是新增7000億美元的運營費用。
如此一來,不到2萬億美元即可覆蓋2024年全球ai芯片需求量兩倍的所有相關製造,能源基礎設施和運營費用,每年新增控制在7000億美元的水平,這筆預算大致可以再燒7.5年。
怒砸2萬億美元,擁有全世界ai gpu兩倍產能 ,奧特曼也無法壟斷全球人工智能——openai的模型領先全球,建立在以台積電為代表的全球最先進的芯片製造,以及以英偉達為代表的gpu芯片設計的基礎之上,如果奧特曼另起爐灶,全方位生產ai芯片,幾乎是得罪了目前全球的芯片企業。
作為「舊勢力」,台積電、英偉達以及眾多芯片設計公司,有可能會扶持openai的所有競爭對手,包括硅谷乃至於全球的大大小小做大模型以及ai應用的企業,諸如老對手deepmind加上谷歌,aws,mircosoft等巨頭,以及stability、openai前創始人成立的anthropic等創企。
即便openai的芯片設計與製造能力與台積電、英偉達相當,面對全球所有大小模型與算法的一眾企業,本身就不一定有絕對優勢,更何況帶着7萬億下場造芯片,站在英偉達、台積電的對立面。
客觀地說,如果不考慮生態,gpu設計公司倒不是那麼無可替代。在gpu設計上,沒有英偉達還有amd,甚至還有cerebras這類設計整片晶圓面積遠遠超過傳統gpu的ai芯片設計公司,但在芯片製造上,目前台積電呈現一騎絕塵的態勢。
以2024年為例,台積電可生產每平方毫米高達2.84億晶體管密度的n3p工藝,排名第二的英特爾還只能生產每平方毫米1.8億晶體管的intel 4,第一跟第二之間已經出現了代差,如果在最高性能的芯片上不使用台積電工藝,在基礎上就落後競爭對手一個世代。
芯片製造無法用錢堆砌,更需要技術積累的行業,往死里砸錢砸人,最快也要三年才能建設好芯片工廠並生產出芯片,對openai來說,假設「7萬億」真實存在,面對「舊勢力」的反撲,也至少要撐過這三年。