編輯-這篇針對大模型推理跟GPU對比分析,雖然以Llama2為例,也適用于最新的Llama3,模型的日新月易也更進一步說明硬件平臺的可編程可擴展的重要性,FPGA是其中一個不錯的選擇。
將Achronix Speedster7t FPGA與GPU解決方案進行比較,以運行Llama2 70B參數(shù)模型并超越LLM推理處理需求。
提供 FPGA 加速的LLM 性能
在運行 Llama2 70B 參數(shù)模型時,Speedster7tFPGA 如何與 GPU 解決方案相媲美?證據(jù)是令人信服的——AchronixSpeedster7t FPGA通過提供計算能力、內存帶寬和卓越能效的最佳組合,在處理大型語言模型(LLM)方面表現(xiàn)出色,這是當今LLM復雜需求的基本要求。
像 Llama2 這樣的LLM 的快速發(fā)展正在為自然語言處理 (NLP) 開辟一條新路線,有望提供比以往任何時候都更像人類的交互和理解。這些復雜的LLM 是創(chuàng)新的催化劑,推動了對先進硬件解決方案的需求,以滿足其密集處理需求。
我們的基準測試突出了 Speedster7t 系列處理 Llama2 70B 模型復雜性的能力,重點關注 FPGA 和 LLM 性能。這些測試(可根據(jù)要求提供結果)顯示了AchronixFPGA對于希望將LLM的強大功能用于其NLP應用程序的開發(fā)人員和企業(yè)的潛力。這些基準測試展示了 Speedster7t FPGA 如何超越市場,提供無與倫比的性能,同時降低運營成本和環(huán)境影響。
Llama2 70B LLM 在 Speedster7t FPGA 上
2023 年 7 月,Microsoft和 Meta 推出了他們的開源 LLM,Llama2 開創(chuàng)了 AI 驅動語言處理的新先例。Llama2采用多種配置設計,以滿足各種計算需求,包括 700 億、130億和 700 億個參數(shù),使其處于 LLM 創(chuàng)新的最前沿。Achronix和我們的合作伙伴 Myrtle.ai 對700億參數(shù)的Llama2模型進行了深入的基準分析,展示了使用Speedster7tFPGA進行LLM加速的優(yōu)勢。
基準測試結果:Speedster7t FPGA 與業(yè)界領先的 GPU 對比
我們在 Speedster7t FPGA 上測試了 Llama2 70B 模型的推理性能,并將其與領先的 GPU 進行了比較。該基準測試是通過對輸入、輸出序列長度 (1,128) 和批處理大小=1 進行建模來完成的。結果表明,Speedster7t AC7t1500在LLM處理中的有效性。
FPGA 成本基于由 Speedster7t FPGA 提供支持的 VectorPath 加速卡的標價。同樣,我們在此分析中使用了可比GPU卡的標價。使用這些成本信息和每秒產生的輸出令牌數(shù)量,我們計算出基于 FPGA 的解決方案的$/token 提高了 200%。除了成本優(yōu)勢外,在比較FPGA 和 GPU 卡的相對功耗時,我們觀察到與基于 GPU的解決方案相比,產生的 kWh/token 提高了 200%。這些優(yōu)勢表明 FPGA 如何成為一種經濟且能效高效的 LLM 解決方案。
面向 LLM 的FPGA:Speedster7t 的優(yōu)勢
Achronix Speedster7t系列FPGA旨在優(yōu)化LLM操作,平衡LLM硬件的關鍵要求,包括:
高性能計算 – 具有高性能計算能力的尖端硬件對于管理LLM 推理核心的復雜矩陣計算至關重要。
高帶寬內存 – 高效的LLM 推理依賴于高帶寬內存,通過模型的網絡參數(shù)快速饋送數(shù)據(jù),而不會出現(xiàn)瓶頸。
擴展和適應能力 – 現(xiàn)代LLM 推理需要能夠隨著模型規(guī)模的增長而擴展并靈活適應 LLM 架構的持續(xù)進步的硬件。
高能效處理 – 可持續(xù)的LLM 推理需要硬件能夠最大限度地提高計算輸出,同時最大限度地降低能耗,從而降低運營成本和環(huán)境影響。
Speedster7t FPGA 提供以下功能,以應對實施現(xiàn)代 LLM 處理解決方案的挑戰(zhàn)。
計算性能 – 通過其靈活的機器學習處理器(MLP) 模塊支持復雜的 LLM 任務。
高 GDDR6 DRAM 帶寬– 確保以 4 Tbps 的內存帶寬快速處理大型 LLM 數(shù)據(jù)集。
大量的 GDDR6 DRAM 容量– 可容納 Llama2 等擴展的 LLM,每個 FPGA 的容量為 32 GB。
用于 LLM 的集成SRAM – 提供低延遲、高帶寬的存儲,具有 190 Mb 的SRAM,非常適合存儲激活和模型權重。
多種本機數(shù)字格式 – 適應LLM 需求,支持塊浮點 (BFP)、FP16、bfloat16 等。
高效的片上數(shù)據(jù)傳輸 – 2D NoC 超過20 Tbps,簡化片上數(shù)據(jù)流量。
擴展橫向擴展帶寬 – 支持多達32個112 Gbps SerDes 滿足 LLM 需求,增強連接性。
自適應邏輯級可編程性 – 使用690K 6 輸入 LUT 為 LLM 的快速發(fā)展做好準備。
針對 LLM 推理優(yōu)化的FPGA
在快速變化的人工智能和自然語言處理領域,使用 FPGA 而不是 GPU 來加速 LLM 是一個相當新的想法。該基準測試展示了設計人員如何從使用Achronix的FPGA技術中受益。Achronix Speedster7t系列FPGA是這一變化的關鍵技術,在高性能、高帶寬存儲器、易于擴展和電源效率之間實現(xiàn)了出色的平衡?;谠敿毜幕鶞史治?,將Speedster7t FPGA 與領先的 GPU 在處理Llama2 70B 模型方面的能力進行比較,結果表明 Speedster7t FPGA 能夠提供高水平的性能,同時大大降低運營成本和環(huán)境影響,突出了它在未來 LLM 創(chuàng)建和使用中的重要作用。
-
FPGA
+關注
關注
1629文章
21729瀏覽量
602982 -
gpu
+關注
關注
28文章
4729瀏覽量
128890 -
Achronix
+關注
關注
1文章
76瀏覽量
22530 -
大模型
+關注
關注
2文章
2423瀏覽量
2640
原文標題:Speedster7t FPGA 更經濟且更高能效大模型推理解決方案分析
文章出處:【微信號:Achronix,微信公眾號:Achronix】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論