電子發(fā)燒友網(wǎng)報(bào)道(文/周凱揚(yáng))在生成式AI和大模型帶來(lái)的AI洪流下,不少大廠都不約而同地選擇了自研AI芯片。即便這意味著組建新的團(tuán)隊(duì),花費(fèi)大量的資金,但從長(zhǎng)遠(yuǎn)發(fā)展的角度來(lái)看,自研芯片似乎成了勢(shì)在必行。然而掀起這股AI洪流,或者說(shuō)將其推向浪尖的“始作俑者”,OpenAI,卻也已經(jīng)在計(jì)劃著自研芯片。
有了英偉達(dá)供應(yīng)的前提下為何要走向自研之路
稍有關(guān)注OpenAI動(dòng)向的話,想必也對(duì)2023年底OpenAI鬧出的離職風(fēng)波有所耳聞。據(jù)外網(wǎng)報(bào)道,在OpenAI鬧劇期間,Sam Altman已經(jīng)在秘密籌劃一項(xiàng)數(shù)十億美元的芯片項(xiàng)目(據(jù)稱(chēng)項(xiàng)目名為Tigris)。甚至其去年的中東之行,就是為了給這一項(xiàng)目籌集資金。
在各大公司都選擇批量掃貨的前提下,去年用于AI服務(wù)器的英偉達(dá)GPU處于一個(gè)極度缺貨的狀態(tài),比如Meta就在月初宣布計(jì)劃再購(gòu)買(mǎi)35萬(wàn)塊英偉達(dá)的H100 GPU。就連為OpenAI提供服務(wù)器的微軟,也面臨著擴(kuò)大AI服務(wù)器規(guī)模的困難。為此微軟也在加快內(nèi)部AI芯片的研發(fā)進(jìn)程,但微軟的這一芯片必然不是單純?yōu)榱薕penAI打造的,而是面向所有Azure的客戶。
更別說(shuō)OpenAI面臨著超高的運(yùn)維成本,網(wǎng)傳OpenAI每天的服務(wù)器運(yùn)維費(fèi)用高達(dá)70萬(wàn)美元。
在如此高昂的服務(wù)器硬件與運(yùn)維成本下,OpenAI也開(kāi)展了相關(guān)的訂閱收費(fèi)模式ChatGPT Plus,費(fèi)用為20美元每月。
但據(jù)統(tǒng)計(jì),去年10月份ChatGPT Plus的訂閱用戶只有20多萬(wàn),這樣的用戶規(guī)模根本沒(méi)法覆蓋運(yùn)維支出。更何況因?yàn)橛布Y源的限制,OpenAI一直在限制ChatGPT Plus的訂閱用戶規(guī)模,以免出現(xiàn)服務(wù)器負(fù)載過(guò)高的情況。
為此,OpenAI要想進(jìn)一步降本增效,并保證下一代GPT模型能有足夠的算力支撐,走上自研這條路倒也情有可原。由OpenAI自研的芯片,自然會(huì)專(zhuān)為GPT模型作針對(duì)性的優(yōu)化,也有利于未來(lái)的模型與硬件迭代。
從資金、設(shè)計(jì)到制造,OpenAI尋求外援
然而自研造芯不僅需要組建一個(gè)設(shè)計(jì)團(tuán)隊(duì),也需要半導(dǎo)體制造廠商的支持,更別說(shuō)打造高性能AI芯片的資金了。據(jù)了解,阿布扎比的G42和日本的軟銀已經(jīng)與Sam Altman展開(kāi)合作交談,這些投資者將為OpenAI提供足夠的資金來(lái)打造一個(gè)AI芯片的制造網(wǎng)絡(luò)。
據(jù)傳這一投資也拉到了臺(tái)積電的合作,后者將為其提供芯片的支持。要知道目前用于AI芯片的CoWoS先進(jìn)封裝產(chǎn)能可是炙手可熱,即便臺(tái)積電在積極擴(kuò)產(chǎn),但在源源不斷的制造訂單下,可能仍然難以滿足云服務(wù)廠商和互聯(lián)網(wǎng)廠商們的AI芯片需求。
再者就是HBM的產(chǎn)能,除了算力對(duì)邏輯芯片提出的高要求外,AI應(yīng)用所需的高帶寬也對(duì)存儲(chǔ)芯片提出了不少的要求,甚至在近年推出的一大批AI芯片中,HBM內(nèi)存已經(jīng)成了標(biāo)配??蒆BM有限的制造廠商們卻面臨著產(chǎn)能緊缺的問(wèn)題,比如SK海力士就透露其2024年的HBM3和HBM3E產(chǎn)能已經(jīng)全部售罄,甚至已經(jīng)在和客戶商討2025年的訂單。
其實(shí)早在去年6月,Sam Altman就曾訪問(wèn)韓國(guó),并與韓國(guó)總統(tǒng)尹錫悅會(huì)面,并提議韓國(guó)應(yīng)該多多關(guān)注芯片產(chǎn)能問(wèn)題。上周,Sam Altman再度訪韓,據(jù)悉其參觀了三星電子的半導(dǎo)體產(chǎn)線,并會(huì)見(jiàn)了三星的芯片業(yè)務(wù)負(fù)責(zé)人,這之后又與SK海力士的CEO進(jìn)行了會(huì)談。此行的目的已經(jīng)很明顯了,這兩大HBM廠商都已經(jīng)打入了英偉達(dá)的AI芯片HBM內(nèi)存供應(yīng)鏈中,尤其是SK海力士。
OpenAI要想自研AI芯片,勢(shì)必用上最新的HBM內(nèi)存,那么與存儲(chǔ)廠商直接預(yù)訂產(chǎn)能是最好的選擇。這也是自研AI芯片面臨的難處之一,英偉達(dá)這類(lèi)已經(jīng)有大量訂單和多年設(shè)計(jì)經(jīng)驗(yàn)的廠商,在晶圓代工廠往往有著更大的話語(yǔ)權(quán),能夠搶占到更大的產(chǎn)能。如果OpenAI能夠拋出大批量的訂單的話,或許可以說(shuō)動(dòng)臺(tái)積電、三星和SK海力士等廠商為其騰出額外的產(chǎn)能。
自研的其他捷徑
對(duì)于OpenAI來(lái)說(shuō),自研AI芯片固然存在著很多阻礙,但在這個(gè)設(shè)計(jì)路線已經(jīng)與過(guò)去大不相同的時(shí)期,也有不少捷徑可走,比如Chiplet技術(shù)。谷歌TPU項(xiàng)目的負(fù)責(zé)人之一Richard Ho從去年11月起,已被OpenAI聘請(qǐng)為硬件部門(mén)的負(fù)責(zé)人。但從其公開(kāi)招募的職位來(lái)看,OpenAI還沒(méi)有大規(guī)模組建硬件設(shè)計(jì)團(tuán)隊(duì)。
即便如此,OpenAI依然有著縮短芯片設(shè)計(jì)周期的手段,那就是通過(guò)Chiplet技術(shù),降低設(shè)計(jì)芯片的工程量。其自研的部門(mén)只需要涵蓋芯片的邏輯計(jì)算部分,其余的I/O等模塊,均可以靠第三方IP打造的Chiplet進(jìn)行實(shí)現(xiàn)。
如此一來(lái)不僅可以充分利用異構(gòu)集成的高性?xún)r(jià)比,也可以通過(guò)重復(fù)利用IP來(lái)避免反復(fù)造輪子的情況,也更容易實(shí)現(xiàn)芯片的迭代,不需要組建一整個(gè)大型硬件設(shè)計(jì)團(tuán)隊(duì),從而將更多精力放在計(jì)算核心的設(shè)計(jì),以及與軟硬件的聯(lián)調(diào)上。更重要的是KGD的優(yōu)勢(shì)保證了Chiplet的良率,也就直接提高最終AI芯片成品的良率,對(duì)于新晉芯片設(shè)計(jì)廠商而言,這能有效地降低制造分享。
寫(xiě)在最后
從OpenAI或?qū)⒆匝行酒膭?dòng)向或傳言來(lái)看,AI的框架和應(yīng)用走向成熟和爆紅,僅僅只是實(shí)現(xiàn)成功的第一步。要想實(shí)現(xiàn)可持續(xù)的商業(yè)化落地,還是少不了硬件的支撐,尤其是與模型契合的AI芯片。所以只要是可以負(fù)擔(dān)得起大投入和高風(fēng)險(xiǎn)的AI公司,都會(huì)考慮自研專(zhuān)用AI芯片。
同時(shí),我們也可以看出OpenAI的野心確實(shí)不小,不少AI模型/應(yīng)用開(kāi)發(fā)商并沒(méi)有這個(gè)魄力去選擇自研的道路,因?yàn)榻^大多數(shù)競(jìng)爭(zhēng)對(duì)手的運(yùn)營(yíng)方式還是靠服務(wù)器托管,以訂閱制或Token數(shù)來(lái)進(jìn)行收費(fèi),其用戶量也還沒(méi)達(dá)到云服務(wù)廠商難以維系的程度。而OpenAI憑借ChatGPT成為落地AI應(yīng)用的領(lǐng)頭羊,甚至不少云服務(wù)廠商親自下場(chǎng)也沒(méi)能實(shí)現(xiàn)ChatGPT的熱度?;蛟S對(duì)于OpenAI而言,自研芯片固然風(fēng)險(xiǎn)極高,卻依然是推動(dòng)公司進(jìn)入下一階段的最優(yōu)解。
-
英偉達(dá)
+關(guān)注
關(guān)注
22文章
3770瀏覽量
90982 -
OpenAI
+關(guān)注
關(guān)注
9文章
1079瀏覽量
6480
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論