RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

HBM的未來

sakobpqhz ? 來源:算力基建 ? 2023-11-15 15:50 ? 次閱讀

01.HBM

高帶寬內(nèi)存(HBM)正在成為超大規(guī)模廠商的首選內(nèi)存,但其在主流市場的最終命運仍然存在疑問。雖然它在數(shù)據(jù)中心中已經(jīng)很成熟,并且由于人工智能/機器學習的需求導(dǎo)致使用量不斷增加,但其基本設(shè)計固有的缺陷阻礙了更廣泛的采用。另一方面,HBM 提供結(jié)構(gòu)緊湊的 2.5D 結(jié)構(gòu)尺寸,可大幅減少延遲。

Rambus產(chǎn)品營銷高級總監(jiān) Frank Ferro 在 Rambus 設(shè)計展會上發(fā)表演講時表示:“HBM 的優(yōu)點在于,可以在可變的范圍內(nèi)獲得所有這些帶寬,并且表示獲得了非常好的功耗?!?/p>

8e238020-8371-11ee-939d-92fbcf53809c.png

圖1:實現(xiàn)最大數(shù)據(jù)吞吐量的HBM堆棧

“目前困擾高帶寬內(nèi)存的問題之一是成本,”Cadence IP 團隊產(chǎn)品營銷總監(jiān) Marc Greenberg 說道?!?D 成本相當高,相當于有一個邏輯芯片位于芯片的底部,這是你必須支付的額外硅片。然后是硅層,它位于CPUGPU以及HBM內(nèi)存的下面。然后,你需要一個更大的封裝,等等。目前現(xiàn)存的HBM切割了消費者領(lǐng)域,并更早放置在服務(wù)器機房或數(shù)據(jù)中心,存在許多系統(tǒng)成本。相比之下,GDDR6等圖形內(nèi)存雖然無法提供與HBM一樣多的性能,但成本卻顯著降低。GDDR6的單位成本性能實際上比 HBM 好,但 GDDR6 器件的最大帶寬與 HBM 的最大帶寬不匹配?!?/p>

Greenberg表示,這些差異為公司選擇 HBM 提供了令人信服的理由,即使它可能不是他們的第一選擇?!癏BM 提供充足的帶寬,并且每比特傳輸?shù)哪芰繕O低。使用 HBM 是因為你必須這樣做,因為沒有其他解決方案可以為你提供所需的帶寬或所需的功率?!?/p>

而且 HBM 只會變得越來越快。“我們預(yù)計 HBM3 Gen2 的帶寬將提高 50%,”美光計算產(chǎn)品事業(yè)部副總裁兼總經(jīng)理 Praveen Vaidyanathan 說道?!皬拿拦獾慕嵌葋砜?,我們預(yù)計 HBM3 Gen2產(chǎn)品將在2024財年實現(xiàn)量產(chǎn)。在2024日歷年初,我們預(yù)計隨著時間的流逝,它將開始為收入做出貢獻。此外,我們預(yù)測美光的HBM3將貢獻比DRAM更高利潤?!?/p>

盡管如此,成本因素可能會像許多設(shè)計團隊一樣考慮更有性價比的替代方案。

Greenberg指出:“如果有任何方法可以將大問題解析為更小的部分,你可能會發(fā)現(xiàn)它提高了成本效益。例如,面對一個巨大的問題并且必須在一個硬件上執(zhí)行所有這些操作,而且我必須在那里使用 HBM,也許我可以將其中斷兩個部分。讓兩個進程任務(wù)運行,另外一部分可能連接到 DDR6。如果我能夠?qū)栴}闡釋為更小的部分,那么我可能會以更小成本完成相同數(shù)量的計算。但如果你需要那么大的帶寬,那么 HBM 就是你唯一的選擇?!?/p>

另一個主要缺點是HBM 的 2.5D 結(jié)構(gòu)會積聚熱量,而其放置在接近 CPU 和 GPU 的位置會加劇這種情況。事實上,在嘗試給出不良設(shè)計的理論樣本時,很難想出比當前樣本更糟糕的東西,當前布局將 HBM及其熱敏 DRAM 堆棧放置在計算密集型熱源附近,導(dǎo)致散熱很難處理。

“最大的挑戰(zhàn)是數(shù)據(jù),”Greenberg說?!澳阌幸粋€CPU,根據(jù)定義它會生成大量數(shù)據(jù)。你通過這個接口每秒T bits,即使每次消耗只有皮焦耳熱,但每秒都會執(zhí)行十億次計算,因此你的CPU會非常熱。它不僅僅是移動周圍的數(shù)據(jù)。它也必須進行計算。最重要的是最不喜歡熱的半導(dǎo)體組件,即DRAM。85 ℃左右它開始忘記東西,125℃左右則心不在焉。這是兩個完全不同的事情?!?/p>

還有一個可取之處?!皳碛?.5D堆棧的優(yōu)勢在于,CPU很熱,但可以間隔一定物理距離把HBM位于CPU旁邊,這樣會犧牲延時性能?!彼f。

但是Synopsys 內(nèi)存接口 IP 解決方案產(chǎn)品線總監(jiān) Brett Murdock說道,“在延遲和熱量之間的權(quán)衡中,延遲是不能變的。我沒有看到任何人犧牲延遲,我希望他們推動物理團隊尋找更多好的冷卻方式,或者更好的放置方式,以保持較低的延遲?!?/p>

02.HBM和AI

雖然很容易想象計算是 AI/ML 最密集的部分,但如果沒有良好的內(nèi)存架構(gòu),這一切都不會發(fā)生。需要內(nèi)存來存儲和檢索數(shù)萬億次計算。事實上,在某種程度上添加更多 CPU 并不會提高系統(tǒng)性能,因為內(nèi)存帶寬無法支持它們。這就是臭名昭著的“內(nèi)存墻”瓶頸。

Quadric首席營銷官 Steve Roddy 表示,從最廣泛的定義來看,學習機器只是曲線函數(shù)?!霸谟柧氝\行的每次迭代中,你都在努力越來越接近曲線的最佳函數(shù)。這是一個XY圖,就像高中幾何課一樣。大型語言模型基本上是同一件事,但是是100億維,而不是2維?!?/p>

因此,計算相對簡單,但內(nèi)存架構(gòu)可能非常驚人。

Roddy 解釋說:“其中一些模型擁有 1000 億字節(jié)的數(shù)據(jù),對于每次重新訓練迭代,你都必須通過數(shù)據(jù)中心的背板從磁盤上取出 1000 億字節(jié)的數(shù)據(jù)并放入計算箱中?!薄霸趦蓚€月的訓練過程中,你必須將這組巨大的內(nèi)存值來回移動數(shù)百萬次。限制因素是數(shù)據(jù)的移入和移出,這就是為什么人們對 HBM 或光學互連從內(nèi)存?zhèn)鬏數(shù)接嬎憬Y(jié)構(gòu)的東西感興趣。所有這些都是人們投入數(shù)億美元風險投資的地方,因為如果你能進行每周距離或時間,你就可以最大程度地簡化每周訓練過程,無論是切斷電源還是加快速度?!?/p>

由于所有這些原因,高帶寬內(nèi)存被認為是 AI/ML 的首選內(nèi)存?!八峁┝艘恍┯柧?a href="http://hljzzgx.com/v/tag/2562/" target="_blank">算法所需的最大帶寬,”Rambus 的 Ferro 說。“從可以擁有多個內(nèi)存堆棧從角度來看,它是可配置的,這提供了非常高的帶寬。”

這就是人們對 HBM 如此感興趣的原因。Synopsys的大多數(shù)客戶都是人工智能客戶,所以他們正在 LPDDR5X 接口和 HBM 接口之間進行一項重大的基本權(quán)衡。他們忽略了成本。他們真的很渴望 HBM。這是他們對技術(shù)的渴望,因為通過HBM能夠在一個 SoC 周圍創(chuàng)建可以足夠大的帶寬量?,F(xiàn)在,他們可以在SoC 周圍放置了 6 個 HBM 堆棧。

然而,人工智能的需求如此之高,以至于HBM減少延遲的前沿特征又推動了下一代HBM的發(fā)展。

“延遲正在成為一個真正的問題,”Ferro說?!霸?HBM 的前兩代中,我沒有聽到任何人抱怨延遲?,F(xiàn)在我們一直收到有關(guān)延遲的問題?!?/p>

Ferro 建議,抓住當前的限制,了解數(shù)據(jù)結(jié)構(gòu)極其重要?!八赡苁沁B續(xù)的數(shù)據(jù),例如視頻語音識別。也可能是事務(wù)性的,就像財務(wù)數(shù)據(jù)一樣,可能非常隨機。如果你知道數(shù)據(jù)是隨機的,那么設(shè)置內(nèi)存接口的方式將與流式傳輸視頻不同。這些是基本問題,但也有層次的問題。我要在內(nèi)存中使用的字長是多少?內(nèi)存的塊大小是多少?這個了解得越多,你設(shè)計系統(tǒng)的效率就越大。如果你了解了,那么你可以定制處理器,從而最大限度地提高計算能力和內(nèi)存帶寬。我們看到越來越多的 ASIC 式 SoC 正在瞄準特定的目標市場剖析市場,以實現(xiàn)更高效的處理?!?/p>

降低 HBM 成本將是一項挑戰(zhàn)。由于將 TSV 放置在晶圓上的成本很高,因此加工成本已經(jīng)明顯高于標準 DRAM。這使得它無法擁有像標準 DRAM 一樣大的市場。由于市場較小,規(guī)模經(jīng)濟導(dǎo)致成本在一個自給自足的過程中更高。體積越小,成本越高,但成本越高,使用的體積就越少。沒有簡單的方法可以解決這個問題。盡管如此,HBM 已經(jīng)是一個成熟的 JEDEC 標準產(chǎn)品,這是一種獨特的 DRAM 技術(shù)形式,能夠以比 SRAM 低得多的成本提供極高的帶寬。它還可以通過封裝提供比 SRAM 更高的密度。它會隨著時間的推移而改進,就像 DRAM 一樣。隨著接口的成熟,預(yù)計會看到更多巧妙的技巧來提高其速度。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1791

    文章

    47183

    瀏覽量

    238239
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8406

    瀏覽量

    132558
  • HBM
    HBM
    +關(guān)注

    關(guān)注

    0

    文章

    379

    瀏覽量

    14744

原文標題:HBM的未來

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    HBM4到來前夕,HBM熱出現(xiàn)兩極分化

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)高帶寬存儲器HBM由于生成式AI的到來而異軍突起,成為AI訓練不可或缺的存儲產(chǎn)品。三大HBM廠商SK海力士、三星電子、美光科技也因HBM的供應(yīng)迎來了業(yè)績的高增長。只是
    的頭像 發(fā)表于 09-23 12:00 ?2588次閱讀

    HBM3E量產(chǎn)后,第六代HBM4要來了!

    有消息說提前到2025年。其他兩家三星電子和美光科技的HBM4的量產(chǎn)時間在2026年。英偉達、AMD等處理器大廠都規(guī)劃了HBM4與自家GPU結(jié)合的產(chǎn)品,HBM4將成為未來AI、HPC、
    的頭像 發(fā)表于 07-28 00:58 ?4914次閱讀
    <b class='flag-5'>HBM</b>3E量產(chǎn)后,第六代<b class='flag-5'>HBM</b>4要來了!

    特斯拉也在搶購HBM 4

    據(jù)報道,特斯拉已要求三星和SK海力士提供HBM4芯片樣品。這兩家半導(dǎo)體公司都在為特斯拉開發(fā)第六代高帶寬內(nèi)存芯片原型。據(jù)KEDGlobal報道,特斯拉已要求三星和SK海力士供應(yīng)通用的HBM4芯片。預(yù)計
    的頭像 發(fā)表于 11-22 01:09 ?578次閱讀
    特斯拉也在搶購<b class='flag-5'>HBM</b> 4

    ADS1000靜電敏感ESD(HBM)等級是多少?

    ADS1000: 請問靜電敏感ESD(HBM)等級是多少?規(guī)格書上沒有
    發(fā)表于 11-18 06:04

    HBM上車之后,移動HBM有望用在手機上

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)據(jù)韓媒報道,三星和海力士正在開發(fā)低功耗DRAM堆疊技術(shù),以用于移動設(shè)備上,這類DRAM被稱之為移動HBM存儲器,并計劃2026年左右實現(xiàn)商業(yè)化。 ? 移動HBM是堆疊
    的頭像 發(fā)表于 09-06 00:21 ?3335次閱讀
    繼<b class='flag-5'>HBM</b>上車之后,移動<b class='flag-5'>HBM</b>有望用在手機上

    HBM上車?HBM2E被用于自動駕駛汽車

    電子發(fā)燒友網(wǎng)報道(文/黃晶晶)日前,韓媒報道SK海力士副總裁Kang Wook-sung透露,SK海力士HBM2E正用于Waymo自動駕駛汽車,并強調(diào)SK海力士是Waymo自動駕駛汽車這項先進內(nèi)存
    的頭像 發(fā)表于 08-23 00:10 ?6634次閱讀

    美光志在HBM市場:計劃未來兩年大幅提升市占率

    在全球高帶寬內(nèi)存(HBM)市場競爭日益激烈的背景下,美光(Micron)近日宣布了其雄心勃勃的市場拓展計劃。該公司預(yù)計,在2024會計年度,將搶下HBM市場超過20%的份額,而到2025會計年度末,市占率更是計劃挑戰(zhàn)25%的高位。
    的頭像 發(fā)表于 06-07 09:58 ?615次閱讀

    中國AI芯片和HBM市場的未來

     然而,全球HBM產(chǎn)能幾乎被SK海力士、三星和美光壟斷,其中SK海力士占據(jù)AI GPU市場80%份額,是Nvidia HBM3內(nèi)存獨家供應(yīng)商,且已于今年3月啟動HBM3E量產(chǎn)。
    的頭像 發(fā)表于 05-28 09:40 ?905次閱讀

    臺積電準備生產(chǎn)HBM4基礎(chǔ)芯片

    在近日舉行的2024年歐洲技術(shù)研討會上,臺積電透露了關(guān)于HBM4基礎(chǔ)芯片制造的新進展。據(jù)悉,未來HBM4將采用邏輯制程進行生產(chǎn),臺積電計劃使用其N12和N5制程的改良版來完成這一任務(wù)。
    的頭像 發(fā)表于 05-21 14:53 ?727次閱讀

    三星電子組建HBM4獨立團隊,力爭奪回HBM市場領(lǐng)導(dǎo)地位

    具體而言,現(xiàn)有的DRAM設(shè)計團隊將負責HBM3E內(nèi)存的進一步研發(fā),而三月份新成立的HBM產(chǎn)能質(zhì)量提升團隊則專注于開發(fā)下一代HBM內(nèi)存——HBM4。
    的頭像 發(fā)表于 05-10 14:44 ?569次閱讀

    HBM供應(yīng)商議價提前,2025年HBM產(chǎn)能產(chǎn)值或超DRAM 3分

     至于為何供應(yīng)商提前議價,吳雅婷解釋道,首先,HBM買家對于人工智能需求前景十分樂觀;其次,HBM3e的TSV良率目前只有40%-60%,買家期望獲得品質(zhì)穩(wěn)定的貨源;
    的頭像 發(fā)表于 05-07 09:33 ?332次閱讀

    英偉達CEO贊譽三星HBM內(nèi)存,計劃采購

     提及此前有人預(yù)測英偉達可能向三星購買HBM3或HBM3E等內(nèi)存,黃仁勛在會上直接認可三星實力,稱其為“極具價值的公司”。他透露目前已對三星HBM內(nèi)存進行測試,未來可能增加采購量。
    的頭像 發(fā)表于 03-20 16:17 ?836次閱讀

    從兩會看AI產(chǎn)業(yè)飛躍,HBM需求預(yù)示存儲芯片新機遇

    高端AI服務(wù)器GPU搭載HBM芯片已成為主流趨勢。這表明,HBM芯片的需求在未來一段時間內(nèi)繼續(xù)保持旺盛,也將為相關(guān)企業(yè)提供了重要的機遇。
    的頭像 發(fā)表于 03-12 13:59 ?693次閱讀
    從兩會看AI產(chǎn)業(yè)飛躍,<b class='flag-5'>HBM</b>需求預(yù)示存儲芯片新機遇

    HBM、HBM2、HBM3和HBM3e技術(shù)對比

    AI服務(wù)器出貨量增長催化HBM需求爆發(fā),且伴隨服務(wù)器平均HBM容量增加,經(jīng)測算,預(yù)期25年市場規(guī)模約150億美元,增速超過50%。
    發(fā)表于 03-01 11:02 ?1413次閱讀
    <b class='flag-5'>HBM</b>、<b class='flag-5'>HBM</b>2、<b class='flag-5'>HBM</b>3和<b class='flag-5'>HBM</b>3e技術(shù)對比

    深度解析HBM內(nèi)存技術(shù)

    HBM作為基于3D堆棧工藝的高性能DRAM,打破內(nèi)存帶寬及功耗瓶頸。HBM(High Bandwidth Memory)即高帶寬存儲器,通過使用先進封裝(如TSV硅通孔、微凸塊)將多個DRAM芯片進行堆疊,并與GPU一同進行封裝,形成大容量、高帶寬的DDR組合陣列。
    的頭像 發(fā)表于 01-02 09:59 ?5220次閱讀
    深度解析<b class='flag-5'>HBM</b>內(nèi)存技術(shù)
    RM新时代网站-首页