HBM4將是未來市場上最先進的存儲器。
HBM技術(shù)是一種基于3D堆疊工藝的高性能DRAM,它可以為高性能計算、人工智能、數(shù)據(jù)中心等領(lǐng)域提供高帶寬、高容量、低延遲和低功耗的存儲解決方案。本文將介紹HBM技術(shù)的原理、優(yōu)勢、應(yīng)用和發(fā)展趨勢。
01.?HBM技術(shù)原理: 3D堆疊實現(xiàn)高密度存儲
HBM技術(shù)是一種將多層DRAM芯片通過硅通孔(TSV)和微型凸點(uBump)連接在一起,形成一個存儲堆棧(stack),然后將多個堆棧與邏輯芯片(如GPU或CPU)通過硅中介層(interposer)封裝在一起的技術(shù)。HBM技術(shù)的原理示意圖如下:
HBM技術(shù)的核心優(yōu)勢是通過3D堆疊實現(xiàn)了高密度存儲,從而大幅提升了每個存儲堆棧的容量和位寬。例如,第一代HBM(HBM1)可以將四層8Gb(吉比特)的DRAM芯片堆疊在一起,形成一個32Gb(吉比特)的存儲堆棧,每個堆棧有1024位的接口,最多可以支持四個堆棧,從而實現(xiàn)128Gb(吉比特)的總?cè)萘亢?096位的總位寬。
相比之下,傳統(tǒng)的DDR4內(nèi)存只有64位的接口,每個芯片最大容量為16Gb(吉比特),最多只能支持兩個芯片,從而實現(xiàn)32Gb(吉比特)的總?cè)萘亢?28位的總位寬。
02.?HBM技術(shù)優(yōu)勢: 高帶寬、低延遲、低功耗
HBM技術(shù)通過3D堆疊實現(xiàn)了高密度存儲,從而帶來了三大優(yōu)勢:高帶寬、低延遲和低功耗。
高帶寬:HBM技術(shù)通過增加存儲堆棧的數(shù)量和位寬,以及提升數(shù)據(jù)傳輸速率,實現(xiàn)了超高的帶寬。例如,第三代HBM(HBM3)可以支持八個存儲堆棧,每個堆棧有2048位的接口,數(shù)據(jù)傳輸速率可達9.6Gbps(吉比特每秒),從而實現(xiàn)1.2TB/s(太字節(jié)每秒)的總帶寬。相比之下,傳統(tǒng)的DDR4內(nèi)存最多只能支持64GB/s(吉字節(jié)每秒)的總帶寬。
低延遲:HBM技術(shù)通過縮短存儲器和邏輯芯片之間的距離,以及采用并行訪問模式,實現(xiàn)了低延遲。例如,第三代HBM(HBM3)可以將存儲器和邏輯芯片之間的距離縮短到約100微米(微米),并且可以同時訪問16個獨立通道,從而降低了訪問延遲。相比之下,傳統(tǒng)的DDR4內(nèi)存需要通過長達數(shù)厘米(厘米)的電路板連接存儲器和邏輯芯片,并且只能順序訪問一個通道,從而增加了訪問延遲。
低功耗:HBM技術(shù)通過降低工作電壓,以及減少信號線的數(shù)量和長度,實現(xiàn)了低功耗。例如,第三代HBM(HBM3)可以將工作電壓降低到0.7伏(伏特),并且只需要約5000根信號線,從而降低了功耗4。相比之下,傳統(tǒng)的DDR4內(nèi)存需要1.2伏(伏特)的工作電壓,并且需要約20000根信號線,從而增加了功耗。
綜上所述,HBM技術(shù)通過3D堆疊實現(xiàn)了高密度存儲,從而帶來了高帶寬、低延遲和低功耗的優(yōu)勢,這些優(yōu)勢使得HBM技術(shù)非常適合高性能計算、人工智能、數(shù)據(jù)中心等領(lǐng)域的應(yīng)用。
03.?HBM技術(shù)應(yīng)用: 助力高性能計算、人工智能、數(shù)據(jù)中心
HBM技術(shù)由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此被廣泛應(yīng)用于高性能計算、人工智能、數(shù)據(jù)中心等領(lǐng)域,為這些領(lǐng)域提供了強大的存儲支持。
高性能計算:高性能計算是指使用大規(guī)模并行處理的超級計算機或集群系統(tǒng)來解決復(fù)雜的科學(xué)和工程問題。高性能計算對存儲器的要求非常高,需要大容量、高帶寬和低延遲的存儲器來支持大量的數(shù)據(jù)處理和傳輸。HBM技術(shù)正好滿足了這些要求,因此被廣泛應(yīng)用于高性能計算領(lǐng)域。例如,英偉達(NVIDIA)的 H100 / H800 和 AMD 的 MI300 系列 AI 加速卡均采用 HBM3 技術(shù),為高性能計算提供了強大的存儲支持。
人工智能:人工智能是指使用計算機系統(tǒng)模擬人類智能的科學(xué)和技術(shù)。人工智能對存儲器的要求也非常高,需要高帶寬和低延遲的存儲器來支持大規(guī)模的神經(jīng)網(wǎng)絡(luò)訓(xùn)練和推理。HBM技術(shù)也正好滿足了這些要求,因此被廣泛應(yīng)用于人工智能領(lǐng)域。例如,谷歌(Google)的 TPU v4 和 TPU v5 系列 AI 芯片均采用 HBM2E 技術(shù),為人工智能提供了強大的存儲支持。
數(shù)據(jù)中心:數(shù)據(jù)中心是指集中存儲、處理和傳輸大量數(shù)據(jù)的設(shè)施。數(shù)據(jù)中心對存儲器的要求也非常高,需要高容量、高帶寬和低功耗的存儲器來支持海量的數(shù)據(jù)服務(wù)。HBM技術(shù)也正好滿足了這些要求,因此被廣泛應(yīng)用于數(shù)據(jù)中心領(lǐng)域。例如,英特爾(Intel)的 Sapphire Rapids 和 Granite Rapids 系列服務(wù)器處理器均采用 HBM2E 技術(shù),為數(shù)據(jù)中心提供了強大的存儲支持。
綜上所述,HBM技術(shù)由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此被廣泛應(yīng)用于高性能計算、人工智能、數(shù)據(jù)中心等領(lǐng)域,為這些領(lǐng)域提供了強大的存儲支持。
04.?HBM技術(shù)發(fā)展趨勢: 存儲巨頭競相推出下一代HBM
HBM技術(shù)由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此受到了存儲巨頭的高度重視,目前已經(jīng)有多家存儲巨頭正在計劃推出下一代HBM,以進一步提升HBM技術(shù)的性能和市場競爭力。
SK 海力士(SK Hynix):SK 海力士是韓國最大的存儲芯片制造商,也是全球第二大的DRAM供應(yīng)商。SK 海力士在2023年3月宣布,已經(jīng)開始量產(chǎn)第三代HBM(HBM3),并且已經(jīng)向英偉達(NVIDIA)和AMD等客戶提供了樣品。SK 海力士的HBM3可以支持8個存儲堆棧,每個堆棧有2048位的接口,數(shù)據(jù)傳輸速率可達9.6Gbps(吉比特每秒),從而實現(xiàn)1.2TB/s(太字節(jié)每秒)的總帶寬。SK 海力士表示,HBM3是目前市場上最高性能的存儲器,可以滿足高性能計算、人工智能、數(shù)據(jù)中心等領(lǐng)域的需求。
三星(Samsung):三星是全球最大的存儲芯片制造商,也是全球第一大的DRAM供應(yīng)商。三星在2023年4月宣布,已經(jīng)開始量產(chǎn)第二代高性能HBM(HBM2E),并且已經(jīng)向谷歌(Google)和英特爾(Intel)等客戶提供了樣品。三星的HBM2E可以支持8個存儲堆棧,每個堆棧有1024位的接口,數(shù)據(jù)傳輸速率可達4.8Gbps(吉比特每秒),從而實現(xiàn)614.4GB/s(吉字節(jié)每秒)的總帶寬。三星表示,HBM2E是目前市場上最高容量的存儲器,可以滿足海量數(shù)據(jù)處理和存儲的需求。
美光(Micron):美光是全球第三大的存儲芯片制造商,也是全球第四大的DRAM供應(yīng)商。美光在2023年5月宣布,已經(jīng)開始研發(fā)第四代HBM(HBM4),并且計劃在2024年下半年開始量產(chǎn)。美光的HBM4可以支持16個存儲堆棧,每個堆棧有4096位的接口,數(shù)據(jù)傳輸速率可達12Gbps(吉比特每秒),從而實現(xiàn)3TB/s(太字節(jié)每秒)的總帶寬。美光表示,HBM4將是未來市場上最先進的存儲器,可以滿足超高性能計算、人工智能、數(shù)據(jù)中心等領(lǐng)域的需求。
綜上所述,HBM技術(shù)由于具備高帶寬、低延遲和低功耗的優(yōu)勢,因此受到了存儲巨頭的高度重視,目前已經(jīng)有多家存儲巨頭正在計劃推出下一代HBM,以進一步提升HBM技術(shù)的性能和市場競爭力。據(jù)集邦咨詢預(yù)測,2023年HBM需求將同比增長58%,2024年可能進一步增長約30%,未來這個市場規(guī)模將達到數(shù)十億美元。HBM技術(shù)無疑將成為高性能計算的新引擎,引領(lǐng)存儲技術(shù)的新變革。
編輯:黃飛
?
評論
查看更多