RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

GPU服務器AI網(wǎng)絡架構(gòu)設計

架構(gòu)師技術聯(lián)盟 ? 來源:架構(gòu)師技術聯(lián)盟 ? 2024-11-05 16:20 ? 次閱讀

眾所周知,在大型模型訓練中,通常采用每臺服務器配備多個GPU的集群架構(gòu)。在上一篇文章《高性能GPU服務器AI網(wǎng)絡架構(gòu)(上篇)》中,我們對GPU網(wǎng)絡中的核心術語與概念進行了詳盡介紹。本文將進一步深入探討常見的GPU系統(tǒng)架構(gòu)。

8臺配備NVIDIA A100 GPU的節(jié)點/8臺配備NVIDIA A800 GPU的節(jié)點

04a241da-90b6-11ef-a511-92fbcf53809c.png

如上圖所示的A100 GPU拓撲結(jié)構(gòu)中,8塊A100 GPU所組成的拓撲包含以下組件:

兩顆CPU芯片(及其兩側(cè)相關的內(nèi)存,NUMA架構(gòu)):中央處理器負責執(zhí)行通用計算任務。

兩塊存儲網(wǎng)絡適配卡(用于訪問分布式存儲,具備帶內(nèi)管理等功能):這些網(wǎng)卡用于訪問分布式存儲資源。

四顆PCIe Gen4交換芯片:PCIe Gen4是PCIe接口的第四代,提供了更高的數(shù)據(jù)傳輸速率。

六顆NVSwitch芯片:NVSwitch使得GPU與GPU之間能夠以極高的速度直接通信,這對于大規(guī)模深度學習節(jié)點和并行計算任務的有效運行至關重要。

八塊GPU:A100 GPU作為主要處理單元,負責執(zhí)行并行計算,尤其適合人工智能深度學習工作負載。

八塊GPU專用網(wǎng)絡適配卡:每塊GPU配備一塊專用的網(wǎng)絡適配卡,旨在優(yōu)化GPU之間的通信,并提升并行處理任務的整體性能。

接下來的部分我們將對這些組件進行詳細解讀。下一張圖片將提供更詳盡的拓撲結(jié)構(gòu)信息供參考。

04c8d052-90b6-11ef-a511-92fbcf53809c.jpg

存儲網(wǎng)絡卡

在GPU架構(gòu)中,存儲網(wǎng)絡卡的定位主要涉及其通過PCIe總線與中央處理器(CPU)的連接,以及負責促進與分布式存儲系統(tǒng)的通信。以下是存儲網(wǎng)絡卡在GPU架構(gòu)中的主要作用:

讀寫分布式存儲數(shù)據(jù):存儲網(wǎng)絡卡的主要功能之一是高效地從分布式存儲系統(tǒng)讀取和寫入數(shù)據(jù)。這對于深度學習模型訓練過程至關重要,在此過程中頻繁訪問分布在各處的訓練數(shù)據(jù)以及將訓練結(jié)果寫入檢查點文件極為重要。

節(jié)點管理任務:存儲網(wǎng)絡卡的功能不僅限于數(shù)據(jù)傳輸,還包括節(jié)點管理任務。這包括但不限于通過SSH(安全外殼協(xié)議)進行遠程登錄、監(jiān)控系統(tǒng)性能以及收集相關數(shù)據(jù)等任務。這些任務有助于對GPU集群的運行狀態(tài)進行監(jiān)控和維護。

雖然官方推薦使用BF3 DPU,但在實踐中,只要滿足帶寬需求,可以選用其他替代解決方案。例如,為了成本效益考慮,可以考慮使用RoCE;而為了最大限度提升性能,則優(yōu)先選擇InfiniBand。

NVSwitch 網(wǎng)絡結(jié)構(gòu)

在完全互聯(lián)網(wǎng)絡拓撲中,每個節(jié)點都直接與所有其他節(jié)點相連。通常情況下,8塊GPU通過六個NVSwitch芯片以全互聯(lián)配置相連接,這一整體也被稱為NVSwitch架構(gòu)。

在全互聯(lián)結(jié)構(gòu)中,每條線路的帶寬取決于單個NVLink通道的帶寬,表示為n * bw-per-nvlink-lane。對于采用NVLink3技術、每條通道帶寬為50GB/s的A100 GPU,在全互聯(lián)結(jié)構(gòu)中,每條線路的總帶寬為12 * 50GB/s = 600GB/s。需要注意的是,此帶寬是雙向的,既支持數(shù)據(jù)發(fā)送也支持接收,因此單向帶寬為300GB/s。

相比之下,A800 GPU將NVLink通道的數(shù)量從12減少到了8。因此,在全互聯(lián)結(jié)構(gòu)中,每條線路的總帶寬變?yōu)? * 50GB/s = 400GB/s,單向帶寬為200GB/s。

以下是一個由8*A800組成的設備的nvidia-smi拓撲結(jié)構(gòu)圖示。

06122f8a-90b6-11ef-a511-92fbcf53809c.png

GPU與GPU之間的連接(左上區(qū)域):所有連接均標記為NV8,表示有8條NVLink連接。

網(wǎng)絡接口卡(NIC)連接:在同一CPU芯片內(nèi):標記為NODE,表示無需跨越NUMA結(jié)構(gòu),但需要穿越PCIe交換芯片。在不同CPU芯片之間:標記為SYS,表示必須跨越NUMA結(jié)構(gòu)。

GPU至NIC的連接:在同一CPU芯片內(nèi)且處于同一PCIe交換芯片下:標識為NODE,表示僅需穿越PCIe交換芯片。

在同一CPU芯片內(nèi)但不在同一PCIe交換芯片下:指定為NNODE,表示需要同時穿越PCIe交換芯片和PCIe主機橋接芯片。

在不同CPU芯片之間:標記為SYS,表示需要跨越NUMA結(jié)構(gòu)、PCIe交換芯片,并覆蓋最長距離。

GPU節(jié)點互聯(lián)架構(gòu)

以下圖表展示了GPU節(jié)點間的互聯(lián)架構(gòu):

0649952e-90b6-11ef-a511-92fbcf53809c.png

計算網(wǎng)絡

計算網(wǎng)絡主要用于連接GPU節(jié)點,支持并行計算任務之間的協(xié)同工作。這包括在多塊GPU之間傳輸數(shù)據(jù)、共享計算結(jié)果以及協(xié)調(diào)大規(guī)模并行計算任務的執(zhí)行。

存儲網(wǎng)絡

存儲網(wǎng)絡用于連接GPU節(jié)點和存儲系統(tǒng),支持大規(guī)模數(shù)據(jù)的讀寫操作。這包括將數(shù)據(jù)從存儲系統(tǒng)加載到GPU內(nèi)存中,以及將計算結(jié)果寫回存儲系統(tǒng)。

為了滿足AI應用對高性能的需求,在計算網(wǎng)絡和存儲網(wǎng)絡上,RDMA(遠程直接內(nèi)存訪問)技術至關重要。在兩種RDMA技術——RoCEv2和InfiniBand之間進行選擇時,需要權(quán)衡成本效益與卓越性能,每種選項都針對特定應用場景和預算考慮進行了優(yōu)化。

公共云服務提供商通常在其配置中采用RoCEv2網(wǎng)絡,例如CX配置,其中包含8個GPU實例,每個實例配備8 * 100Gbps。與其他選項相比,只要能滿足性能要求,RoCEv2相對較為經(jīng)濟實惠。

數(shù)據(jù)鏈路連接中的帶寬瓶頸

06741e02-90b6-11ef-a511-92fbcf53809c.png

該圖表突出了關鍵連接的帶寬規(guī)格

同一主機內(nèi)GPU之間的通信:通過NVLink技術,雙向帶寬達到600GB/s,單向帶寬達到300GB/s。

同一主機內(nèi)GPU與其各自網(wǎng)絡接口卡(NIC)之間的通信:采用PCIe Gen4交換芯片,雙向帶寬為64GB/s,單向帶寬為32GB/s。

不同主機間GPU之間的通信:數(shù)據(jù)傳輸依賴于NIC,帶寬取決于所使用的具體NIC。當前在中國,對于A100/A800型號常用的NIC提供主流的單向帶寬為100Gbps(12.5GB/s)。因此,相較于同一主機內(nèi)的通信,不同主機間的GPU通信性能顯著下降。

200Gbps(25GB/s)接近PCIe Gen4的單向帶寬。400Gbps(50GB/s)超越了PCIe Gen4的單向帶寬。

因此,在此類配置中使用400Gbps的網(wǎng)卡并不能帶來顯著優(yōu)勢,因為要充分利用400Gbps帶寬需要PCIe Gen5級別的性能支持。

8x NVIDIA H100/8x NVIDIA H800 主機

H100主機內(nèi)部的硬件拓撲結(jié)構(gòu)

H100主機的整體硬件架構(gòu)與A100八卡系統(tǒng)的架構(gòu)非常相似,但也存在一些差異,主要體現(xiàn)在NVSwitch芯片的數(shù)量和帶寬升級上。

在每個H100主機內(nèi)部,配置了4顆芯片,比A100配置減少了兩顆。

H100芯片采用4納米工藝制造,底部一行配備了18條Gen4 NVLink連接,從而提供了900GB/s的雙向總帶寬。

H100 GPU 芯片

06ad8c3c-90b6-11ef-a511-92fbcf53809c.png

該芯片采用尖端的4納米工藝制造,表明其采用了先進的制造技術。

芯片底部一排包含18個Gen4 NVLink連接,提供雙向總帶寬為18條通道 * 每通道25GB/s = 900GB/s。

芯片中央藍色區(qū)域代表L2高速緩存,用于存儲臨時數(shù)據(jù)的高速緩沖區(qū)。

芯片左右兩側(cè)則集成了HBM(高帶寬內(nèi)存)芯片,這些芯片作為圖形內(nèi)存使用,存儲圖形處理所需的數(shù)據(jù)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4729

    瀏覽量

    128888
  • 服務器
    +關注

    關注

    12

    文章

    9123

    瀏覽量

    85322
  • AI
    AI
    +關注

    關注

    87

    文章

    30728

    瀏覽量

    268873
  • 模型
    +關注

    關注

    1

    文章

    3226

    瀏覽量

    48806

原文標題:GPU服務器AI網(wǎng)絡架構(gòu)設計(下)

文章出處:【微信號:架構(gòu)師技術聯(lián)盟,微信公眾號:架構(gòu)師技術聯(lián)盟】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    【產(chǎn)品活動】阿里云GPU服務器年付5折!阿里云異構(gòu)計算助推行業(yè)發(fā)展!

    上云?;顒右?guī)則:地域:國內(nèi)所有地域規(guī)則:實例部分5折,不受臺數(shù)限制活動購買年限:1年 / 2年 (實例5折,其他磁盤+網(wǎng)絡折扣同目前線上)阿里云GPU服務器全力支持AI生態(tài)發(fā)展,進一
    發(fā)表于 12-26 11:22

    gpu服務器是干什么的_gpu服務器和普通服務器有什么區(qū)別

    從字面上里面,GPU服務器服務器當中的一種,GPU服務器跟其他服務器有什么區(qū)別ne?
    發(fā)表于 01-06 09:58 ?4.3w次閱讀

    GPU服務器到底是什么?GPU服務器與普通服務器到底有什么區(qū)別

    服務器具備很強的現(xiàn)實意義,我們每天都在無形中跟服務器打交道。針對用途不同,服務器可分為諸多類型。為增加大家對服務器的了解程度,本文將對GPU
    的頭像 發(fā)表于 11-14 10:04 ?7621次閱讀

    GPU服務器是什么

    其實現(xiàn)在很多人都聽說或者接觸過服務器,眾所周知,服務器網(wǎng)絡中的重要設備,要接受少至幾十人、多至成千上萬人的訪問,因此對服務器具有大數(shù)據(jù)量的快速吞吐、超強的穩(wěn)定性、長時間運行等嚴格要求
    的頭像 發(fā)表于 02-25 09:31 ?5685次閱讀

    AI服務器與傳統(tǒng)服務器的區(qū)別是什么?

    AI 服務器確實是整個服務器市場的一部分,但它們是專門為基于云的 AI 模型訓練或推理而設計的。在規(guī)格方面,廣義的AI
    發(fā)表于 06-21 12:40 ?1888次閱讀

    GPU服務器是什么?

    從字面上來看GPU服務器服務器當中的一種,簡單的介紹,GPU服務器就是基于CGP的應用在視頻編解碼,深度學習,科學計算等多場景穩(wěn)定快速,穩(wěn)
    的頭像 發(fā)表于 08-01 18:03 ?1057次閱讀

    gpu服務器是干什么的 gpu服務器與cpu服務器的區(qū)別

     相比于傳統(tǒng)的CPU服務器,GPU服務器支持同時計算大量相似的計算操作,可以實現(xiàn)更強的并行計算性能。GPU服務器通常配備多個高性能的
    的頭像 發(fā)表于 12-02 17:20 ?1911次閱讀

    物理服務器ai發(fā)展的應用

    物理服務器AI發(fā)展中扮演著重要的角色。傳統(tǒng)的以CPU為計算部件的服務器架構(gòu)已難以滿足人工智能的新需求,因此,"CPU+ GPU/FPGA/
    的頭像 發(fā)表于 12-22 09:19 ?440次閱讀

    gpu服務器是干什么的 gpu服務器與cpu服務器的區(qū)別有哪些

    gpu服務器是干什么的 gpu服務器與cpu服務器的區(qū)別 GPU
    的頭像 發(fā)表于 01-30 15:31 ?856次閱讀

    ai服務器是什么架構(gòu)類型

    架構(gòu)AI服務器通常具有較高的通用性,可以運行各種人工智能算法。但是,CPU架構(gòu)AI服務器在處
    的頭像 發(fā)表于 07-02 09:51 ?1047次閱讀

    gpu服務器與cpu服務器的區(qū)別對比,終于知道怎么選了!

    gpu服務器與cpu服務器的區(qū)別主要體現(xiàn)在架構(gòu)設計、性能特點、能耗效率、應用場景、市場定位等方面,在以上幾個方面均存在顯著差異。CPU服務器
    的頭像 發(fā)表于 08-01 11:41 ?483次閱讀

    AI服務器:開啟智能計算新時代

    一、AI服務器的定義與特點 AI服務器的定義 AI服務器是一種基于云計算技術,專為處理人工
    的頭像 發(fā)表于 08-09 16:08 ?848次閱讀

    GPU服務器架構(gòu)解析及應用優(yōu)勢

    GPU服務器作為一種高性能計算資源,近年來在人工智能、大數(shù)據(jù)分析、圖形渲染等領域得到了廣泛應用。它結(jié)合了云計算的靈活性與GPU的強大計算能力,為企業(yè)和個人用戶提供了一種高效、便捷的計算解決方案。下面我們將從
    的頭像 發(fā)表于 08-14 09:43 ?379次閱讀

    什么是AI服務器?AI服務器的優(yōu)勢是什么?

    AI服務器是一種專門為人工智能應用設計的服務器,它采用異構(gòu)形式的硬件架構(gòu),通常搭載GPU、FPGA、ASIC等加速芯片,利用CPU與加速芯片
    的頭像 發(fā)表于 09-21 11:43 ?813次閱讀

    GPU服務器租用多少錢

    GPU服務器的租用價格受多種因素影響,包括服務提供商、GPU型號和性能、實例規(guī)格、計費模式、促銷活動以及地域差異等。下面,AI部落小編為您
    的頭像 發(fā)表于 12-09 10:50 ?106次閱讀
    RM新时代网站-首页