RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【比特熊充電?!繉?shí)戰(zhàn)演練構(gòu)建LLM對(duì)話引擎

微軟科技 ? 2023-09-19 13:40 ? 次閱讀

大模型時(shí)代,安全問(wèn)題不容小覷。但如果把大模型比作孫悟空,那 NVIDIA NeMo Guardrails 就是“安全護(hù)欄”,可以輕松的為基于 LLM 的對(duì)話系統(tǒng)添加可編程護(hù)欄,來(lái)避免大語(yǔ)言模型輸出違法違規(guī)內(nèi)容,并通過(guò)自定義方式響應(yīng)用戶特定請(qǐng)求,按照預(yù)定義的對(duì)話路徑進(jìn)行操作,以及使用特定的語(yǔ)言風(fēng)格進(jìn)行回答。

如何在 Azure 中搭建 NeMo Guardrails 環(huán)境,將 NeMo Guardrails 與 Azure OpenAI 結(jié)合使用,構(gòu)建更加安全可靠的 LLM 對(duì)話引擎?本期【比特熊充電?!縉VIDIA 企業(yè)級(jí)開(kāi)發(fā)者社區(qū)經(jīng)理李奕澎,將為大家解讀 NeMo Guardrails 中的 Colang 語(yǔ)言,以及進(jìn)行將 NeMo Guardrails 與 Azure OpenAI 結(jié)合使用的代碼實(shí)戰(zhàn),見(jiàn)證安全 LLM 對(duì)話引擎的構(gòu)建。

8c70f784-56ae-11ee-939d-92fbcf53809c.png

李奕澎

NVIDIA 企業(yè)級(jí)開(kāi)發(fā)者社區(qū)經(jīng)理

NLP,Conversational-AI,LLM

Colang 語(yǔ)言

定義 LLM 對(duì)話引擎

NeMo Guardrails 中的 Colang 語(yǔ)言,是一種用于對(duì)話式人工智能的建模語(yǔ)言,能夠定義護(hù)欄。它的目標(biāo)是為用戶提供一個(gè)可讀可擴(kuò)展的,使用自然語(yǔ)言定義或控制對(duì)話機(jī)器人的行為的語(yǔ)言。

Colang 語(yǔ)言已經(jīng)作為 NeMo Guardrails 的內(nèi)核來(lái)使用。Colang 語(yǔ)言像電影的編劇,用戶和機(jī)器人是演員,通過(guò) Colang 語(yǔ)言,可以定義用戶的信息、機(jī)器人信息和 Flow,把機(jī)器話語(yǔ)和用戶話語(yǔ)進(jìn)行對(duì)話邏輯上的連接。

Colang 語(yǔ)言中常用的關(guān)鍵詞包括 bot, break, continue, create, define 等,能夠幫助開(kāi)發(fā)快速上手使用,降低對(duì)話式 AI 領(lǐng)域的學(xué)習(xí)門檻。

8c8fd7c6-56ae-11ee-939d-92fbcf53809c.png

NeMo Guardrails 與 Azure OpenAl 的結(jié)合使用

搭建 LLM 對(duì)話引擎

在上一期【比特熊充電棧】中,已經(jīng)詳細(xì)解讀了在 Azure 中搭建 NeMo Guardrails 環(huán)境的步驟,包括申請(qǐng) Azure 賬號(hào),開(kāi)通 Azure Machine Learning 服務(wù),安裝 OpenAI、NeMo Guardrails,開(kāi)通 Azure OpenAI 服務(wù)等。搭建完成后,才能將 NeMo Guardrails 與 Azure OpenAl 結(jié)合使用。

NeMo Guardrails 與 AzureOpenAl 結(jié)合使用,構(gòu)建更加安全可靠的LLM對(duì)話引擎,還需要通過(guò)以下步驟進(jìn)行操作:

?導(dǎo)入 NeMo Guardrails 大模型護(hù)欄及 RailsConfig 護(hù)欄配置文件工具類;

?從 langchain 中導(dǎo)入 Azure Chat OpenAI 工具類;

?傳入 Azure OpenAI 的 API-KEY、endpoint、deployment_name、對(duì)應(yīng)的版本信息等關(guān)鍵參數(shù),就可以實(shí)例化一個(gè)大模型;

?調(diào)用 NeMo Guardrails 大模型中的 from_content 變量,讀取 Colang_Config2 文件和 Yaml_Config 配置文件,就可以實(shí)例一個(gè)安全的聊天機(jī)器人 App;

?調(diào)用 App 中的 generate_async 函數(shù),輸入用戶的問(wèn)題語(yǔ)句,機(jī)器人就會(huì)給出對(duì)應(yīng)的回答。

8cce70ee-56ae-11ee-939d-92fbcf53809c.png

NeMo Guardrails

自定義 LLM 對(duì)話引擎應(yīng)用

NeMo Guardrails 除了支持 Azure OpenAI 外,還支持很多對(duì)話引擎大模型,包括 AI21labs、Cohere、Hugging Face、GPT4All 等。調(diào)用對(duì)話引擎大模型,首先要自定義一個(gè)大語(yǔ)言模型的 class:從 langchain 中導(dǎo)入 BaseLanguageModel,從 NeMo Guardrails 中導(dǎo)入 register_llm_provider,自定義大語(yǔ)言模型的 class 并注冊(cè)。

以 Hugging Face 為例,調(diào)用對(duì)話引擎大模型的步驟如下:

?創(chuàng)建并初始化一個(gè)構(gòu)造函數(shù),調(diào)用父類的構(gòu)造函數(shù)來(lái)初始化這個(gè)類的實(shí)例;

?然后指定大模型的 ID,調(diào)用 HuggingFacePipeline class 中的 from_model_id 函數(shù),輸入對(duì)應(yīng)大模型 id,定義 device、task 和模型參數(shù);

?然后定義返回、自定義函數(shù),以字符串的形式返回大語(yǔ)言模型的類型,在 langchain 中分別同步調(diào)用和異步調(diào)用自定義 LLM。

8d01f4d2-56ae-11ee-939d-92fbcf53809c.png

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6590

    瀏覽量

    104024
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    4978

    瀏覽量

    102987
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1079

    瀏覽量

    6481
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2423

    瀏覽量

    2640
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    0

    文章

    286

    瀏覽量

    327

原文標(biāo)題:【比特熊充電棧】實(shí)戰(zhàn)演練構(gòu)建 LLM 對(duì)話引擎

文章出處:【微信號(hào):mstech2014,微信公眾號(hào):微軟科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    4G模組Air724UG軟件示例:UDP實(shí)戰(zhàn)演練

    關(guān)于4G模組Air724UG軟件的UDP示例,今天我將對(duì)其實(shí)戰(zhàn)演練,整理成文示例展示:
    的頭像 發(fā)表于 11-26 12:10 ?168次閱讀
    4G模組Air724UG軟件示例:UDP<b class='flag-5'>實(shí)戰(zhàn)</b><b class='flag-5'>演練</b>!

    什么是LLMLLM在自然語(yǔ)言處理中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,自然語(yǔ)言處理(NLP)領(lǐng)域迎來(lái)了革命性的進(jìn)步。其中,大型語(yǔ)言模型(LLM)的出現(xiàn),標(biāo)志著我們對(duì)語(yǔ)言理解能力的一次飛躍。LLM通過(guò)深度學(xué)習(xí)和海量數(shù)據(jù)訓(xùn)練,使得機(jī)器能夠以前
    的頭像 發(fā)表于 11-19 15:32 ?523次閱讀

    LLM技術(shù)對(duì)人工智能發(fā)展的影響

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(LLM)技術(shù)已經(jīng)成為推動(dòng)AI領(lǐng)域進(jìn)步的關(guān)鍵力量。LLM技術(shù)通過(guò)深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù),使得機(jī)器能夠理解和生成自然語(yǔ)言,極大地?cái)U(kuò)展了人工智能的應(yīng)用范圍
    的頭像 發(fā)表于 11-08 09:28 ?344次閱讀

    LLM和傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    在人工智能領(lǐng)域,LLM(Large Language Models,大型語(yǔ)言模型)和傳統(tǒng)機(jī)器學(xué)習(xí)是兩種不同的技術(shù)路徑,它們?cè)谔幚頂?shù)據(jù)、模型結(jié)構(gòu)、應(yīng)用場(chǎng)景等方面有著顯著的差異。 1. 模型結(jié)構(gòu)
    的頭像 發(fā)表于 11-08 09:25 ?409次閱讀

    新品|LLM Module,離線大語(yǔ)言模型模塊

    LLM,全稱大語(yǔ)言模型(LargeLanguageModel)。是一種基于深度學(xué)習(xí)的人工智能模型。它通過(guò)大量文本數(shù)據(jù)進(jìn)行訓(xùn)練,從而能夠進(jìn)行對(duì)話、回答問(wèn)題、撰寫文本等其他任務(wù)
    的頭像 發(fā)表于 11-02 08:08 ?308次閱讀
    新品|<b class='flag-5'>LLM</b> Module,離線大語(yǔ)言模型模塊

    llm模型有哪些格式

    LLM(Large Language Model,大型語(yǔ)言模型)是一種深度學(xué)習(xí)模型,主要用于處理自然語(yǔ)言處理(NLP)任務(wù)。LLM模型的格式多種多樣,以下是一些常見(jiàn)的LLM模型格式
    的頭像 發(fā)表于 07-09 09:59 ?594次閱讀

    llm模型和chatGPT的區(qū)別

    LLM(Large Language Model)是指大型語(yǔ)言模型,它們是一類使用深度學(xué)習(xí)技術(shù)構(gòu)建的自然語(yǔ)言處理(NLP)模型。LLM模型可以處理各種語(yǔ)言任務(wù),如文本生成、文本分類、機(jī)器翻譯等。目前
    的頭像 發(fā)表于 07-09 09:55 ?1033次閱讀

    LLM模型的應(yīng)用領(lǐng)域

    在本文中,我們將深入探討LLM(Large Language Model,大型語(yǔ)言模型)的應(yīng)用領(lǐng)域。LLM是一種基于深度學(xué)習(xí)的人工智能技術(shù),它能夠理解和生成自然語(yǔ)言文本。近年來(lái),隨著計(jì)算能力的提高
    的頭像 發(fā)表于 07-09 09:52 ?575次閱讀

    什么是LLMLLM的工作原理和結(jié)構(gòu)

    隨著人工智能技術(shù)的飛速發(fā)展,大型語(yǔ)言模型(Large Language Model,簡(jiǎn)稱LLM)逐漸成為自然語(yǔ)言處理(NLP)領(lǐng)域的研究熱點(diǎn)。LLM以其強(qiáng)大的文本生成、理解和推理能力,在文本
    的頭像 發(fā)表于 07-02 11:45 ?7600次閱讀

    Meta發(fā)布基于Code Llama的LLM編譯器

    近日,科技巨頭Meta在其X平臺(tái)上正式宣布推出了一款革命性的LLM編譯器,這一模型家族基于Meta Code Llama構(gòu)建,并融合了先進(jìn)的代碼優(yōu)化和編譯器功能。LLM編譯器的推出,標(biāo)志著Meta在人工智能領(lǐng)域的又一重大突破,將
    的頭像 發(fā)表于 06-29 17:54 ?1489次閱讀

    【算能RADXA微服務(wù)器試用體驗(yàn)】+ GPT語(yǔ)音與視覺(jué)交互:1,LLM部署

    。環(huán)境變量的配置,未來(lái)在具體項(xiàng)目中我們會(huì)再次提到。 下面我們正式開(kāi)始項(xiàng)目。項(xiàng)目從輸入到輸出分別涉及了語(yǔ)音識(shí)別,圖像識(shí)別,LLM,TTS這幾個(gè)與AI相關(guān)的模塊。先從最核心的LLM開(kāi)始。 由于LLAMA3
    發(fā)表于 06-25 15:02

    Yellow.ai 推出業(yè)界首款 Orchestrator LLM

    無(wú)需培訓(xùn)即可產(chǎn)生情景與人性兼具的客戶對(duì)話 通過(guò)準(zhǔn)確的查詢識(shí)別、保留對(duì)話歷史記錄以及跨渠道的無(wú)縫上下文切換來(lái)解決客戶對(duì)話中斷的問(wèn)題,Orchestrator LLM 將客戶滿意度提高了
    的頭像 發(fā)表于 05-09 10:52 ?508次閱讀

    網(wǎng)絡(luò)攻防模擬與城市安全演練 | 數(shù)字孿生

    在數(shù)字化浪潮的推動(dòng)下,網(wǎng)絡(luò)攻防模擬和城市安全演練成為維護(hù)社會(huì)穩(wěn)定的不可或缺的環(huán)節(jié)?;跀?shù)字孿生技術(shù)我們能夠在虛擬環(huán)境中進(jìn)行高度真實(shí)的網(wǎng)絡(luò)攻防模擬,為安全專業(yè)人員提供實(shí)戰(zhàn)經(jīng)驗(yàn),從而提升應(yīng)對(duì)網(wǎng)絡(luò)威脅的能力。同時(shí),在城市安全演練中通過(guò)
    的頭像 發(fā)表于 02-04 10:48 ?663次閱讀
    網(wǎng)絡(luò)攻防模擬與城市安全<b class='flag-5'>演練</b> | 數(shù)字孿生

    使用LwIP協(xié)議淺析實(shí)戰(zhàn)分析(i.MX RT)

    LWIP協(xié)議與網(wǎng)絡(luò)分層 LwIP(Light weight IP),是一種輕量化且開(kāi)源的TCP/IP協(xié)議,它可以在有限的RAM和ROM條件下,實(shí)現(xiàn)一個(gè)完整的TCP/IP 協(xié)議。此外,LwIP
    的頭像 發(fā)表于 02-02 17:05 ?1708次閱讀
    使用LwIP協(xié)議<b class='flag-5'>棧</b>淺析<b class='flag-5'>實(shí)戰(zhàn)</b>分析(i.MX RT)

    鴻蒙開(kāi)發(fā)實(shí)戰(zhàn)-手寫文心一言AI對(duì)話APP

    本文我們學(xué)習(xí)使用了基本組件的使用,網(wǎng)絡(luò)請(qǐng)求以及狀態(tài)管理,使用了ForEach循環(huán)渲染來(lái)構(gòu)建對(duì)話界面。并且在HarmonyOS設(shè)備上成功運(yùn)行
    的頭像 發(fā)表于 01-24 18:02 ?1074次閱讀
    鴻蒙開(kāi)發(fā)<b class='flag-5'>實(shí)戰(zhàn)</b>-手寫文心一言AI<b class='flag-5'>對(duì)話</b>APP
    RM新时代网站-首页