RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Amdocs使用NVIDIA NIM加速生成式AI性能并降低成本

NVIDIA英偉達企業(yè)解決方案 ? 來源:NVIDIA ? 2024-05-24 10:56 ? 次閱讀

電信公司正在利用生成式 AI,通過自動化流程、改善客戶體驗和優(yōu)化網(wǎng)絡(luò)運營來提高員工生產(chǎn)力。

Amdocs 是一家領(lǐng)先的通信和媒體公司軟件和服務(wù)提供商,打造了一個電信專用生成式 AI 平臺——amAIz,為電信公司提供了一個開放、安全、經(jīng)濟高效且跨大語言模型(LLM)的框架。Amdocs 正在利用 NVIDIA DGX CloudNVIDIA AI Enterprise 軟件,提供基于商用 LLM 的解決方案,以及適用于特定領(lǐng)域的模型,使服務(wù)提供商能夠構(gòu)建和部署企業(yè)級生成式 AI 應(yīng)用程序。

Amdocs 也在使用 NVIDIA NIM,這是一組易于使用的推理微服務(wù),旨在加速生成式 AI 在企業(yè)中的大規(guī)模部署。該多功能微服務(wù)支持來自開放社區(qū)的模型和 NVIDIA API 產(chǎn)品目錄中的 NVIDIA AI Foundation 模型,以及自定義 AI 模型。NIM 旨在推動高吞吐量、低延遲的無縫 AI 推理,同時保持預(yù)測的高準確性。

客戶計費用例

電信公司的聯(lián)絡(luò)中心會收到大量客戶的計費查詢電話。他們向客服尋求解釋,因為各種操作可能會影響他們的賬單,包括客戶的移動計劃、促銷期結(jié)束或意外收費。

Amdocs 正在開發(fā)一種基于 LLM 的解決方案,該解決方案通過對賬單問題提供即時準確的解釋來幫助客戶。該解決方案旨在減少客服代理的工作量,使他們能夠?qū)W⒂诟鼜?fù)雜的任務(wù)。

圖 1 顯示了從數(shù)據(jù)收集和準備到 LLM 微調(diào),再到評估的總體流程。

a454eb56-18e3-11ef-b74b-92fbcf53809c.png

圖 1. 從數(shù)據(jù)收集和準備到 LLM 微調(diào)和評估的整體流程

數(shù)據(jù)收集和準備

為了解決這個問題,他們從匿名的通話記錄和賬單中創(chuàng)建了一個新的數(shù)據(jù)集,由電信客服專家標(biāo)記。該數(shù)據(jù)集包含數(shù)百個注釋問題和答案,這些問題和答案被分類到相關(guān)場景中。大部分數(shù)據(jù)用于微調(diào),性能在一個小測試集(幾十個樣本)上報告。

表 1 顯示了所收集數(shù)據(jù)的一個示例。該問題與計費更改有關(guān),注釋的答案基于客戶歷史賬單。

a476ab38-18e3-11ef-b74b-92fbcf53809c.png

表 1. 移動計劃促銷到期場景中收集的數(shù)據(jù)示例

在這個過程中,Amdocs 使用 OpenAI GPT-4 LLM 這一工具來過濾通話記錄并將其分類到不同場景中。然后,LLM 被用于生成潛在的問答對,這些問答對被領(lǐng)域?qū)<抑匦略L問和標(biāo)記。

數(shù)據(jù)格式和提示工程

作為基線,Amdocs 使用 Llama2-7b-chat、Llama2-13b-chat 和 Mixtral-8x7b LLM 來增強具有意向分類和賬單問答功能的客戶服務(wù)聊天機器人。Amdocs 設(shè)計了帶有指令的提示,其中包括目標(biāo)賬單(原始 XML 格式的連續(xù)一到兩個計費月)及其相關(guān)問題。

使用基準 LLM 和零樣本或少樣本推理的初始實驗表現(xiàn)不佳,主要是由于從客戶賬單中提取相關(guān)信息的復(fù)雜性。此外,原始 XML 格式需要詳細說明 LLM 的計費格式。因此,由于某些 LLM(例如,Llama2 的 4K tokens)的最大上下文長度的限制,Amdocs 在將賬單和指令納入提示中時面臨挑戰(zhàn)。

為了適應(yīng)上下文窗口,Amdocs 的第一項工作是簡化提示中的計費格式說明。圖 2 顯示了使用 Llama2 標(biāo)記器(tokenizer),重新格式化后的 token 平均數(shù)量從 3909 個減少到 1153 個。

a4964420-18e3-11ef-b74b-92fbcf53809c.jpg

圖 2. 使用新計費格式減少的 token 數(shù)量

NVIDIA DGX Cloud 上的 LLM 微調(diào)

由于注釋數(shù)據(jù)量有限,Amdocs 探索了參數(shù)高效微調(diào)(PEFT)方法,如低秩自適應(yīng)(LoRA)。他們用兩種基礎(chǔ) LLM 架構(gòu)(Llama2 和 Mixtral)進行了幾次微調(diào)實驗,研究了一到兩個時期的幾個 LoRA 超參數(shù)。

Amdocs 的實驗是在 NVIDIA DGX Cloud 上進行的,這是一個面向開發(fā)者的端到端 AI 平臺,提供基于最新 NVIDIA 架構(gòu)的可擴展能力,并與世界領(lǐng)先的云服務(wù)提供商共同設(shè)計。Amdocs 使用的 NVIDIA DGX Cloud 實例包含以下組件:

8 個 NVIDIA 80GB Tensor Core GPU

88 個 CPU 核心

1TB 系統(tǒng)內(nèi)存

在多 GPU 環(huán)境下執(zhí)行微調(diào)周期,每個周期不到一個小時。

使用 NVIDIA NIM 部署 LLM

NVIDIA NIM 基于NVIDIA Triton推理服務(wù)器所構(gòu)建,采用 TensorRT-LLM 對 NVIDIA GPU 上的 LLM 推理進行優(yōu)化。NIM 通過預(yù)先優(yōu)化的推理容器來推動無縫的 AI 推理,這些容器開箱即用,在加速的基礎(chǔ)設(shè)施上提供極佳的延遲和吞吐量,同時確保預(yù)測的準確性。無論是在本地還是在云中,NIM 都提供了以下優(yōu)勢:

簡化 AI 應(yīng)用程序開發(fā)

為最新的生成式 AI 模型預(yù)先配置的容器

通過服務(wù)級別協(xié)議提供企業(yè)支持,并定期更新 CVE 的安全性

支持最新的社區(qū)前沿的 LLM

成本效益和性能

對于該應(yīng)用程序,Amdocs 使用自托管的 NVIDIA NIM 實例來部署經(jīng)過微調(diào)的 LLM。他們公開了類似 OpenAI 的 API 端點,為他們的客戶端應(yīng)用程序啟用了統(tǒng)一的解決方案,該解決方案使用 LangChain 的 ChatOpenAI 客戶端。

在微調(diào)探索過程中,Amdocs 創(chuàng)建了一個流程,通過 NIM 自動部署 LoRA 微調(diào)檢查點。對于微調(diào)后的 Mixtral-8x7B 模型,該過程花費了大約 20 分鐘。

結(jié)果

Amdocs 已經(jīng)看到了這一過程的多重效率。

準確性提高:通過與 NVIDIA 合作,顯著提高了 AI 生成響應(yīng)的準確性,準確性提高了 30%。這類改進對于加快推動生成式 AI 在電信行業(yè)的廣泛應(yīng)用和滿足面向消費者的生成式 AI 服務(wù)的需求至關(guān)重要。

使用 NVIDIA NIM,Amdocs 在成本和延遲方面都有所改進。

運營成本降低:Amdocs 在 NVIDIA 基礎(chǔ)設(shè)施上的電信檢索增強生成(RAG)使部署用例所消耗的 token 在數(shù)據(jù)預(yù)處理和推理方面分別降低了 60% 和 40%,以更低的成本提供相同水平的準確性。

延遲降低:該協(xié)作成功地將查詢延遲減少了約 80%,從而確保最終用戶體驗到近乎實時的響應(yīng)速度。這項加速提升了用戶在商業(yè)、醫(yī)療、運營等領(lǐng)域的體驗。

LLM 準確性評估

為了在微調(diào)階段評估測試數(shù)據(jù)集上跨模型和提示的性能,Amdocs 使用了圖 3 中的高級流程。

a4c990c8-18e3-11ef-b74b-92fbcf53809c.png

圖 3. 包括 LLM-as-a-Judge 和人類專家在內(nèi)的 LLM 評估過程

對于每個實驗,Amdocs 首先在測試數(shù)據(jù)集上生成 LLM 輸出預(yù)測。

然后,使用外部 LLM-as-a-Juage 來評估預(yù)測,提供準確性和相關(guān)性的指標(biāo)。對符合預(yù)定義標(biāo)準的實驗進行自動回歸測試,以驗證預(yù)測細節(jié)的準確性。由此得出的分數(shù)是多種指標(biāo)的混合,包括以下:

F1 分數(shù)

無幻覺指示器

準確結(jié)論指示器

回答相關(guān)性

對話一致性

無回退指示器

完整性

毒性指標(biāo)

最后,手動評估性能最佳的模型,以確認總體準確性。這一過程確保了微調(diào)后的 LLM 既有效又可靠。

圖 4 顯示了不同 LLM 的總體準確度得分。Amdocs 觀察到,與基礎(chǔ)版本相比,Mixtral-8x7B 和 Llama2-13b-cat 的 LoRA 微調(diào)版本的準確率分別提高了 20-30%。結(jié)果還顯示,與托管 LLM 服務(wù)相比,準確率提高了 6%。

a4e68868-18e3-11ef-b74b-92fbcf53809c.png

圖 4. 前三名模型的平均得分提升情況

Token 消耗

重新格式化計費數(shù)據(jù)導(dǎo)致輸入 token 減少了 60%。雖然經(jīng)過微調(diào)的 LLM 產(chǎn)生了相當(dāng)或更好的性能,但這些模型也使輸入 token 額外節(jié)省了約 40%。這歸因于最小化提示指令的域自定義。

圖 5 顯示了 Mixtral-8x7B、Llama2-13b 和托管 LLM 服務(wù)的 token 消耗之間的比較。輸入 token 數(shù)量的差異主要是由于托管 LLM 服務(wù)為很好地執(zhí)行任務(wù)中所需的詳細指令。對于域定制的 Llama2 和 Mixtral-8x7B 模型,減少是由于持續(xù)的上下文格式改進。

a4f6d736-18e3-11ef-b74b-92fbcf53809c.png

圖 5. Mixtral-8x7B、Llama2 和托管 LLM 服務(wù)的標(biāo)記消耗情況

LLM 延遲

在使用 NVIDIA NIM 對 NVIDIA 80GB GPU 上部署的模型進行評估期間,Amdocs 觀察到平均推理速度比先進的托管 LLM 服務(wù)快 4-6 倍,約 80%。

圖 6 顯示了使用單個 LLM 調(diào)用執(zhí)行的延遲實驗,并計算了整個生成周期的平均延遲。Llama2-13b 模型部署在一個 GPU 上,而 Mixtral-8x7B 部署在兩個 GPU 上。當(dāng)使用自托管端點時,響應(yīng)延遲更加一致,如圖 6 所示的 0.95 置信區(qū)間線所示。

a531c300-18e3-11ef-b74b-92fbcf53809c.png

圖 6.每個模型的平均延遲(以秒為單位)

結(jié)論和下一步行動

NVIDIA NIM 推理微服務(wù)改善了延遲,使 Amdocs 應(yīng)用程序中的處理速度更快。通過優(yōu)化數(shù)據(jù)格式和微調(diào) LLM,Amdocs 提高了其計費問答系統(tǒng)的準確性,同時顯著降低了成本。在整個過程中,Amdocs 面臨著不同的挑戰(zhàn),需要創(chuàng)造性的數(shù)據(jù)格式化、及時的工程設(shè)計和模型相關(guān)的定制。定義一個明確的模型評估策略和嚴格的測試是他們成功的關(guān)鍵。

Amdocs 正在采取下一步行動,通過使用 Multi-LoRA 為不同的應(yīng)用程序創(chuàng)建定制模型,這是一種能夠在推理過程中動態(tài)加載多個模型自適應(yīng)的技術(shù)。這種方法優(yōu)化了內(nèi)存使用,因為只有基本模型是一致加載的,而模型層自適應(yīng)是根據(jù)需要動態(tài)加載的。

通過與 NVIDIA 合作,Amdocs 啟動了將生成式 AI 集成到其核心產(chǎn)品組合中的戰(zhàn)略。該戰(zhàn)略從確定應(yīng)用領(lǐng)域開始,通過用戶體驗設(shè)計使生成式 AI 的功能對用戶更加友好,并優(yōu)先處理快速工程。Amdocs 將繼續(xù)使用 NVIDIA DGX Cloud 和 NVIDIA AI Enterprise 軟件,以電信公司分類法定制大語言模型(LLM), 以進一步提高準確性并優(yōu)化生成式 AI 訓(xùn)練和推理的成本。

Amdocs 計劃在多個戰(zhàn)略方向上繼續(xù)將生成式 AI 集成到 amAIz 平臺中。

使用 AI 驅(qū)動的語言和情感分析增強客戶查詢路由

增強其 AI 解決方案的推理能力,以提供針對客戶特定需求的建議

解決需要廣泛的領(lǐng)域知識、多模式和多步驟解決方案的復(fù)雜場景,如網(wǎng)絡(luò)診斷和優(yōu)化

這些戰(zhàn)略將使運營和創(chuàng)新更加高效和有效。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4978

    瀏覽量

    102982
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1079

    瀏覽量

    6480
  • 生成式AI
    +關(guān)注

    關(guān)注

    0

    文章

    502

    瀏覽量

    471

原文標(biāo)題:Amdocs 使用 NVIDIA NIM 加速生成式 AI 性能并降低成本

文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    電機企業(yè)降低成本的誤區(qū)

    從去年開始,由于去產(chǎn)能、環(huán)保督查等因素引起電機原材料大幅漲價,從而導(dǎo)致生產(chǎn)成本推高,很多企業(yè)在不斷尋求降低成本的途徑。然而,也有不少企業(yè)在降成本的過程中走入了誤區(qū)!企業(yè)衡量成本優(yōu)勢的原
    發(fā)表于 10-11 10:20

    PADS中的ECAD/MCAD高效協(xié)作如何降低成本

    了解 PADS 如何支持電氣和機械 CAD 設(shè)計人員動態(tài)協(xié)作,從而加快產(chǎn)品面市降低成本。
    的頭像 發(fā)表于 05-17 06:24 ?3145次閱讀
    PADS中的ECAD/MCAD高效協(xié)作如何<b class='flag-5'>降低成本</b>

    智慧醫(yī)療可以更好地利用大數(shù)據(jù) 改善醫(yī)療服務(wù)降低成本

    隨著醫(yī)療保健技術(shù)的進步,消費者在健康方面的參與度和意識不斷增強,智慧醫(yī)療行業(yè)隨之崛起。智慧醫(yī)療可以更好地利用大數(shù)據(jù),改善醫(yī)療服務(wù)降低成本。
    發(fā)表于 03-15 16:50 ?2428次閱讀

    AN-0972:AD7329如何幫助降低成本

    AN-0972:AD7329如何幫助降低成本
    發(fā)表于 04-25 09:17 ?4次下載
    AN-0972:AD7329如何幫助<b class='flag-5'>降低成本</b>

    利用可靠隔離技術(shù)縮小尺寸降低成本

    本文介紹如何利用全新隔離技術(shù)來保證這些高電壓系統(tǒng)的安全,從而提高可靠性,同時縮小解決方案尺寸降低成本
    發(fā)表于 12-22 14:38 ?363次閱讀
    利用可靠隔離技術(shù)縮小尺寸<b class='flag-5'>并</b><b class='flag-5'>降低成本</b>

    電路板pcb打樣降低成本的方法

    電路板pcb打樣降低成本的方法
    的頭像 發(fā)表于 12-13 17:25 ?801次閱讀

    英偉達推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1
    的頭像 發(fā)表于 07-25 09:48 ?698次閱讀

    全新NVIDIA NIM微服務(wù)將生成AI引入數(shù)字環(huán)境

    生成物理 AI NIM 微服務(wù)以及 NVIDIA Metropolis 參考工作流旨在協(xié)助創(chuàng)建智能的沉浸
    的頭像 發(fā)表于 08-02 15:20 ?534次閱讀

    CC2340系統(tǒng)降低成本的方案剖析

    電子發(fā)燒友網(wǎng)站提供《CC2340系統(tǒng)降低成本的方案剖析.pdf》資料免費下載
    發(fā)表于 08-27 09:43 ?0次下載
    CC2340系統(tǒng)<b class='flag-5'>降低成本</b>的方案剖析

    NVIDIA加速計算和生成AI領(lǐng)域的創(chuàng)新

    在最新發(fā)布的公司 2024 財年可持續(xù)發(fā)展報告開篇的一封信中,NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛介紹了 NVIDIA加速計算和生成
    的頭像 發(fā)表于 09-09 09:18 ?543次閱讀

    NVIDIA NIM助力企業(yè)高效部署生成AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺集成了 NVIDIA NIM,將允許用戶通過 API 調(diào)用來大規(guī)模地部署大語言模型。
    的頭像 發(fā)表于 10-10 09:49 ?382次閱讀

    降低成本城域網(wǎng)

    電子發(fā)燒友網(wǎng)站提供《降低成本城域網(wǎng).pdf》資料免費下載
    發(fā)表于 10-12 11:46 ?0次下載
    <b class='flag-5'>降低成本</b>城域網(wǎng)

    中國AI企業(yè)創(chuàng)新降低成本打造競爭力模型

    在中國,面對美國實施的芯片限制以及相較于西方企業(yè)更為有限的預(yù)算,人工智能(AI)公司正積極尋求降低成本的方法,以開發(fā)出具有市場競爭力的模型。初創(chuàng)公司如01.ai(零一萬物)和DeepSeek(深度求索)等,通過聚焦小數(shù)據(jù)集進行
    的頭像 發(fā)表于 10-22 14:56 ?398次閱讀

    日本企業(yè)借助NVIDIA產(chǎn)品加速AI創(chuàng)新

    日本領(lǐng)先企業(yè)和大學(xué)正在使用 NVIDIA NeMo、NIM 微服務(wù)和 NVIDIA Isaac 加速 AI 創(chuàng)新。
    的頭像 發(fā)表于 11-19 14:34 ?277次閱讀

    NVIDIA助力Amdocs打造生成AI智能體

    正在使用NVIDIA DGX Cloud 與 NVIDIA AI Enterprise軟件開發(fā)和交付基于商用大語言模型(LLM)和領(lǐng)域適配模型的解決方案。該公司還在使用NVIDIA
    的頭像 發(fā)表于 11-19 14:48 ?327次閱讀
    RM新时代网站-首页