RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NVIDIA RTX AI套件簡化AI驅動的應用開發(fā)

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA英偉達企業(yè)解決方案 ? 2024-09-06 14:45 ? 次閱讀

NVIDIA 于近日發(fā)布NVIDIA RTX AI套件,這一工具和 SDK 集合能夠幫助 Windows 應用開發(fā)者定制、優(yōu)化和部署適用于 Windows 應用的 AI 模型。該套件免費提供,不要求使用者具備 AI 框架和開發(fā)工具方面的經驗,并且可以為本地和云端部署提供絕佳的 AI 性能。

生成式預訓練轉換器(GPT)模型的普及為 Windows 開發(fā)者創(chuàng)造了將 AI 功能集成到應用中的絕佳機會。但要實現(xiàn)這些功能仍面臨著巨大的挑戰(zhàn)。首先,您需要根據(jù)應用的特定需求來定制模型。其次,需要優(yōu)化模型,使其在適應各種硬件的同時,仍然能夠提供絕佳的性能。之后,需要一條同時適用于云端和本地 AI 的簡便部署路徑。

NVIDIA RTX AI 套件為 Windows 應用開發(fā)者提供了端到端工作流。您可以根據(jù)應用的特定要求,使用常用的微調技術對 Hugging Face 的預訓練模型進行定制,并將它們量化到適合消費類 PC 的規(guī)模。然后,可以對它們進行優(yōu)化,使其能夠在整個NVIDIA GeForce RTX GPU系列以及云端 NVIDIA GPU 上發(fā)揮絕佳性能。

當需要部署時,無論您是選擇將經過優(yōu)化的模型與應用捆綁在一起,還是在應用安裝/更新時下載模型,亦或是建立一個云微服務,RTX AI 套件都能提供多種途徑來滿足您的應用需求。該套件還包含NVIDIA AI 推理管理器(AIM)SDK,能夠根據(jù)用戶的系統(tǒng)配置或當前的工作負載讓應用在本地或云端運行 AI。

適用于各種應用的強大定制 AI

當今的生成式模型在龐大的數(shù)據(jù)集上訓練而成。整個訓練過程可能需要數(shù)周時間,并使用數(shù)百顆全球最強大的 GPU。雖然這些計算資源對大多數(shù)開發(fā)者來說遙不可及,但開源預訓練模型可以讓您獲得強大的 AI 功能。

開源預訓練基礎模型通常在通用數(shù)據(jù)集上訓練而成,因此在各種任務中都能夠提供不錯的結果。但應用往往需要專門的行為,例如游戲角色需要以特定的方式說話、科學寫作助手需要理解特定行業(yè)的術語等。

微調是一種可以根據(jù)應用需求,在額外的數(shù)據(jù)上對預訓練模型進行進一步訓練的技術,例如游戲角色的對話示例。

RTX AI 套件包含NVIDIA AI Workbench等支持微調的工具。今年早些時候發(fā)布的 AI Workbench 是一款用于在本地 RTX GPU 和云端中組織并運行模型訓練、調優(yōu)與優(yōu)化項目的工具。RTX AI 套件還包含使用 QLoRA 進行微調的 AI Workbench 項目,QLoRA 是當今最常用、效果最好的技術之一。

為了實現(xiàn)參數(shù)高效微調,該套件使用 Hugging Face Transformer 庫來充分發(fā)揮 QLoRA 的作用,在減少內存使用的同時實現(xiàn)了定制化,而且可以在搭載 RTX GPU 的客戶端設備上高效運行。

微調完成后的下一步是優(yōu)化。

針對 PC 和云端進行優(yōu)化

AI 模型優(yōu)化需要解決兩大難題。首先,PC 用于運行 AI 模型的內存和計算資源有限。其次,PC 和云端之間存在各種具有不同功能的目標硬件。

RTX AI 套件包含以下用于優(yōu)化 AI 模型并使其作好部署準備的工具。

NVIDIA TensorRT 模型優(yōu)化器:即使較小的 LLM 也需要 14 GB 或以上的內存。適用于 Windows 的 NVIDIA TensorRT 模型優(yōu)化器正式發(fā)布,它所提供的模型量化工具可在不顯著降低準確性的情況下,將模型規(guī)模最多縮小至原來的三分之一。其中的 INT4 AWQ 后訓練量化等方法便于在 RTX GPU 上運行最先進的 LLM。這樣一來,較小的模型不僅可以更加容易地適應典型系統(tǒng)上可用的 GPU 內存,還能通過減少內存帶寬瓶頸來提高性能。

NVIDIA TensorRT Cloud:為了在每個系統(tǒng)上都能獲得絕佳的性能,可以針對每個 GPU 專門優(yōu)化模型。當前推出的NVIDIA TensorRT Cloud開發(fā)者預覽版是一項云服務,用于為 PC 中的 RTX GPU 以及云端中的 GPU 構建經過優(yōu)化的模型引擎。它還為流行的生成式 AI 模型提供了預構建的減重引擎,這些引擎可與微調的權重合并成優(yōu)化的引擎。與預訓練模型相比,使用 TensorRT Cloud 構建并使用 TensorRT 運行時運行的引擎可以實現(xiàn)高達 4 倍的性能提升。

優(yōu)化微調模型后的下一步是部署。

開發(fā)一次即可實現(xiàn)隨處部署

如果您的應用能夠在本地或云端執(zhí)行推理,就能為大多數(shù)用戶提供絕佳的體驗。將模型部署在設備上可以實現(xiàn)更低的延遲,并且不需要在運行時調用云,但對硬件有一定的要求。將模型部署在云端則可以支持在任何硬件上運行的應用,但服務提供商需要承擔持續(xù)的運營成本。在完成模型開發(fā)后,您就可以使用 RTX AI 套件將其部署到任意位置,且該套件中的工具既適用于設備端路徑,也適用于云端路徑,例如:

NVIDIA AI 推理管理器(AIM):當前推出的 AIM 搶先體驗版為 PC 開發(fā)者簡化了 AI 集成的復雜性,并且可以在 PC 端和云端無縫協(xié)調 AI 推理。NVIDIA AIM 利用必要的 AI 模型、引擎和依賴關系對 PC 環(huán)境進行預配置,并支持 GPU、NPU、CPU 等各種不同加速器的所有主要推理后端(TensorRT、ONNX Runtime、GGUF、Pytorch)。它還能執(zhí)行運行時兼容性檢查,以此確定 PC 是否能在本地運行模型,或者根據(jù)開發(fā)者策略切換到云端。

借助 NVIDIA AIM,開發(fā)者既可以利用NVIDIA NIM在云端進行部署,也可以利用 TensorRT 等工具在本地設備上進行部署。

NVIDIA NIM:NVIDIA NIM 是一套易于使用的微服務,能夠加速云、數(shù)據(jù)中心和工作站中的生成式 AI 模型部署。NIM 屬于NVIDIA AI Enterprise軟件套裝的一部分。RTX AI 套件提供的工具可將經過優(yōu)化的模型與其依賴關系打包并上傳至暫存服務器,然后啟動 NIM。這一步將調入經過優(yōu)化的模型,并創(chuàng)建一個端點供應用調用。

您還可以使用 NVIDIA AI 推理管理器(AIM)插件在設備上部署模型,有助于管理本地和云推理的細節(jié),減輕開發(fā)者的集成負擔。

NVIDIA TensorRT:NVIDIA TensorRT 10.0和TensorRT-LLM推理后端為配備張量核的 NVIDIA GPU 提供同類產品中的最佳性能。新發(fā)布的 TensorRT 10.0 簡化了將 AI 模型部署到 Windows 應用中的流程。減重引擎可壓縮 99% 以上的已編譯引擎大小,因此可直接在終端用戶設備上使用模型權重對其進行重新調整。此外,TensorRT 還為 AI 模型提供軟硬件前向兼容性,使其能與較新的運行時或硬件配合使用。TensorRT-LLM 加入了在 RTX GPU 上加速生成式 AI LLM 和 SLM 的專門優(yōu)化措施,可進一步加速 LLM 推理。

?這些工具使開發(fā)者能夠在應用運行時準備好模型。

RTX AI 加速生態(tài)系統(tǒng)

包括 Adobe、Blackmagic Design、Topaz Labs 等在內的頂尖創(chuàng)意獨立軟件開發(fā)商(ISV)正在將 NVIDIA RTX AI 套件集成到他們的應用中,以提供在 RTX PC 上運行的 AI 加速應用,從而提升數(shù)百萬創(chuàng)作者的用戶體驗。

如果您想要在 RTX PC 上構建基于 RAG 和智能體的加速工作流,可以通過 LangChain 和 LlamaIndex 等開發(fā)者框架獲得 RTX AI 套件的功能和組件(如 TensorRT-LLM)。此外,常用的生態(tài)系統(tǒng)工具(如 Automatic1111、Comfy.UI、Jan.AI、OobaBooga 和 Sanctum.AI)也可通過 RTX AI 套件實現(xiàn)加速。通過這些集成,您可以輕松構建經過優(yōu)化的 AI 加速應用,將其部署到設備和云端 GPU 上,并在應用中實現(xiàn)能夠在各種本地和云環(huán)境中運行推理的混合功能。

將強大的 AI

加入到 Windows 應用中

NVIDIA RTX AI 套件為 Windows 應用開發(fā)者提供了一套端到端工作流,使他們能夠充分利用預訓練模型,對這些模型進行定制和優(yōu)化,并將它們部署到本地或云端運行。借助快速、強大的混合 AI,由 AI 驅動的應用既能夠快速擴展,又能在各個系統(tǒng)上提供絕佳的性能。RTX AI 套件使您能夠為更多用戶帶來更多由 AI 驅動的功能,讓用戶在游戲、生產、內容創(chuàng)建等所有活動中都能享受到 AI 所帶來的好處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    4973

    瀏覽量

    102961
  • WINDOWS
    +關注

    關注

    3

    文章

    3540

    瀏覽量

    88597
  • AI
    AI
    +關注

    關注

    87

    文章

    30665

    瀏覽量

    268831
  • 應用開發(fā)

    關注

    0

    文章

    58

    瀏覽量

    9355

原文標題:借助適用于 Windows RTX PC 的 NVIDIA RTX AI 套件簡化 AI 驅動的應用開發(fā)

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    NVIDIA 推出高性價比的生成式 AI 超級計算機

    計算機,具有更高的性價比,通過軟件升級即可實現(xiàn)性能提升。 ? 全新 NVIDIA Jetson Orin Nano Super 開發(fā)套件只有手掌大小,能夠為商業(yè) AI
    發(fā)表于 12-18 17:01 ?86次閱讀
    <b class='flag-5'>NVIDIA</b> 推出高性價比的生成式 <b class='flag-5'>AI</b> 超級計算機

    NVIDIA RTX AI Toolkit擁抱LoRA技術

    RTX AI PC 和工作站上使用最新版 RTX AI Toolkit 微調 LLM,最高可將性能提升至原來的 6 倍。
    的頭像 發(fā)表于 11-20 09:14 ?255次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>RTX</b> <b class='flag-5'>AI</b> Toolkit擁抱LoRA技術

    使用全新NVIDIA AI Blueprint開發(fā)視覺AI智能體

    為提高生產力、優(yōu)化流程和創(chuàng)造更加安全的空間,埃森哲、戴爾科技和聯(lián)想等公司正在使用全新 NVIDIA AI Blueprint 開發(fā)視覺 AI 智能體。
    的頭像 發(fā)表于 11-06 13:58 ?367次閱讀

    Arm推出GitHub平臺AI工具,簡化開發(fā)AI應用開發(fā)部署流程

    軟件提供了無縫的開發(fā)體驗。 GitHub Actions、原生 GitHub 運行器和基于 Arm 平臺的 AI 框架相結合,幫助全球 2,000 萬開發(fā)簡化
    的頭像 發(fā)表于 10-31 18:51 ?1859次閱讀

    NVIDIA生成式AI進入ROS社區(qū)

    NVIDIA 在 ROSCon 上發(fā)布更新,旨在加速 AI 驅動的機械臂和自主移動機器人的開發(fā)
    的頭像 發(fā)表于 10-31 14:41 ?259次閱讀

    RTX AI PC和工作站提供強大AI性能

    NVIDIA RTX 和 GeForce RTX 技術驅動AI PC 時代已經到來。在這一背景下,一種評估
    的頭像 發(fā)表于 08-23 16:57 ?623次閱讀

    揭秘NVIDIA AI Workbench 如何助力應用開發(fā)

    者能夠根據(jù)其具體需求調整 AI 模型。 此類工作在過去可能需要復雜的設置,而新工具使這項工作變得空前簡單。 NVIDIA AI Workbench 可協(xié)助 AI
    發(fā)表于 07-10 18:51 ?638次閱讀
    揭秘<b class='flag-5'>NVIDIA</b> <b class='flag-5'>AI</b> Workbench 如何助力應用<b class='flag-5'>開發(fā)</b>

    HPE 攜手 NVIDIA 推出 NVIDIA AI Computing by HPE,加速生成式 AI 變革

    by HPE 包含了可持續(xù)的加速計算產品組合以及全生命周期服務,將簡化 AI 創(chuàng)造價值的過程,加速生成式 AI 的發(fā)展步伐。 NVIDIA AI
    的頭像 發(fā)表于 06-21 14:39 ?353次閱讀

    NVIDIA推出NVIDIA AI Computing by HPE加速生成式 AI 變革

    簡化 AI 創(chuàng)造價值的過程,加速生成式 AI 的發(fā)展步伐。 NVIDIA AI Computing by HPE 由 HPE 與
    的頭像 發(fā)表于 06-20 17:36 ?708次閱讀

    NVIDIA推出用于支持在全新GeForce RTX AI筆記本電腦上運行的AI助手及數(shù)字人

    》中。NVIDIA 還發(fā)布專為 NVIDIA ACE 數(shù)字人平臺打造的首個基于 PC 的 NVIDIA NIM 推理微服務。 這些技術由?NVIDIA
    的頭像 發(fā)表于 06-04 10:19 ?746次閱讀

    NVIDIA宣布全面推出 NVIDIA ACE 生成式 AI 微服務

    NVIDIA ACE 現(xiàn)已全面在云端推出,并在 RTX AI PC 上提供搶先體驗,已獲戴爾科技、ServiceNow、Aww Inc.、英業(yè)達、完美世界游戲等多家客戶服務、游戲和醫(yī)療健康領域的公司
    的頭像 發(fā)表于 06-04 10:18 ?652次閱讀

    NVIDIA與微軟擴展合作,幫助開發(fā)者更快構建和部署AI應用

    NVIDIA 在 Microsoft Build 開發(fā)者大會上展示了與 Microsoft Azure 和 Windows PC 的集成解決方案,簡化AI 模型部署并優(yōu)化了路徑規(guī)劃
    的頭像 發(fā)表于 05-23 10:14 ?400次閱讀

    聯(lián)發(fā)科發(fā)布天璣AI開發(fā)套件,賦能終端生成式AI應用

    聯(lián)發(fā)科近日推出了全新的天璣AI開發(fā)套件,旨在為合作伙伴打造一站式解決方案,以加速終端生成式AI應用的開發(fā)。這款套件集合了四大核心模塊,為
    的頭像 發(fā)表于 05-10 11:19 ?583次閱讀

    NVIDIA數(shù)字人技術加速部署生成式AI驅動的游戲角色

    NVIDIA 在 GDC 2024 大會上宣布,Inworld AI 等領先的 AI 應用程序開發(fā)者,正在使用 NVIDIA 數(shù)字人技術加速
    的頭像 發(fā)表于 04-09 10:08 ?661次閱讀
    <b class='flag-5'>NVIDIA</b>數(shù)字人技術加速部署生成式<b class='flag-5'>AI</b><b class='flag-5'>驅動</b>的游戲角色

    NVIDIA展示游戲、創(chuàng)作、生成式AI和機器人領域的創(chuàng)新成果

    NVIDIA CES 2024 特別演講亮點 - 全新 GeForce RTX 40 SUPER GPU,RTX AI 筆記本電腦,為數(shù)百萬用戶帶來生成式
    的頭像 發(fā)表于 01-09 09:22 ?493次閱讀
    RM新时代网站-首页