RM新时代网站-首页

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NLP中基于聯(lián)合知識(shí)的任務(wù)導(dǎo)向型對(duì)話系統(tǒng)HyKnow

深度學(xué)習(xí)自然語言處理 ? 來源:復(fù)旦DISC ? 作者:趙剛 ? 2021-09-08 10:43 ? 次閱讀

引言

對(duì)話系統(tǒng)(dialogue system)是 NLP 中的的重點(diǎn)研究方向之一。其可以分為任務(wù)型對(duì)話系統(tǒng)和開放域?qū)υ捪到y(tǒng)。兩者在現(xiàn)實(shí)生活中都有著廣泛的應(yīng)用。

本次 Fudan DISC 實(shí)驗(yàn)室將分享 ACL 2021 中關(guān)于對(duì)話系統(tǒng)的 3 篇論文,介紹了任務(wù)型對(duì)話系統(tǒng)和基于人設(shè)的開放域?qū)υ捪到y(tǒng)的相關(guān)創(chuàng)新。

文章概覽

HyKnow: End to End Task-Oriented Dialog Modeling with Hybrid

論文地址:https://arxiv.org/pdf/2105.06041v2.pdf

這篇文章提出了一個(gè)基于聯(lián)合知識(shí)的任務(wù)導(dǎo)向型對(duì)話系統(tǒng)HyKnow,該模型通過延伸信念狀態(tài)來管理結(jié)構(gòu)化知識(shí)和非結(jié)構(gòu)化知識(shí),它是第一個(gè)基于兩類知識(shí)進(jìn)行聯(lián)合優(yōu)化的端到端對(duì)話系統(tǒng)。實(shí)驗(yàn)證明,HyKnow 模型展現(xiàn)了優(yōu)于現(xiàn)有模型的強(qiáng)大的端到端性能。其更加出色的非結(jié)構(gòu)化知識(shí)檢索準(zhǔn)確率,也證明了模型勝于管道知識(shí)管理策略的聯(lián)合知識(shí)管理能力。

BoB: BERT Over BERT for Training Persona-based Dialogue Models

論文地址:https://arxiv.org/pdf/2106.06169.pdf

當(dāng)前對(duì)話數(shù)據(jù)的人設(shè)稀疏性,阻礙了魯棒且一致的基于人設(shè)的對(duì)話系統(tǒng)的構(gòu)建。本文提出了 BoB 模型,通過將基于人設(shè)的對(duì)話生成任務(wù)分離為一致性理解子任務(wù)和回應(yīng)生成子任務(wù),利用非對(duì)話關(guān)系數(shù)據(jù)集訓(xùn)練一致性,解決了上述困難。模型在少量訓(xùn)練數(shù)據(jù)和人設(shè)稀疏的數(shù)據(jù)集上均展現(xiàn)了出色的性能。

Modulating Language Models with Emotions

論文地址:https://aclanthology.org/2021.findings-acl.379.pdf

針對(duì)情感對(duì)話生成任務(wù),本文受 CV 領(lǐng)域相關(guān)技術(shù)的啟發(fā),在Transformer 模型的層歸一化模塊中融入了情感信息,使得能夠利用大規(guī)模的預(yù)訓(xùn)練的語言模型來生成情感回應(yīng)。

論文細(xì)節(jié)

論文動(dòng)機(jī)

現(xiàn)有的基于人設(shè)的對(duì)話模型嚴(yán)重依賴和人設(shè)相關(guān)的對(duì)話數(shù)據(jù),比如 PersonaChat 數(shù)據(jù)集。這類眾包數(shù)據(jù)集包含了大量的人設(shè)特征,但是其規(guī)模受到兩個(gè)因素的制約:其一,標(biāo)注者根據(jù)給定的人設(shè)來設(shè)計(jì)一致的對(duì)話會(huì)消耗大量精力;其二,日常生活中的對(duì)話常常不具備鮮明的人設(shè)特征,因此很難獲得現(xiàn)有的涉及豐富人設(shè)的對(duì)話。所以,在這類人設(shè)稀疏的對(duì)話數(shù)據(jù)集上訓(xùn)練的模型不能充分地學(xué)習(xí)一致性。

一個(gè)合格的基于人設(shè)的對(duì)話模型應(yīng)當(dāng)具備以下功能:一是能夠理解“人設(shè)-回應(yīng)”的一致性,二是能夠根據(jù)對(duì)話上下文生成人設(shè)相關(guān)的回應(yīng)。顯然,當(dāng)下缺乏合適的數(shù)據(jù)集支持這些功能的實(shí)現(xiàn)。然而,一旦將基于人設(shè)的對(duì)話生成任務(wù)分解為一致性理解子任務(wù)和對(duì)話生成子任務(wù),就很容易得到大量的訓(xùn)練資源。對(duì)于一致性理解子任務(wù),可以利用大規(guī)模的非對(duì)話關(guān)系數(shù)據(jù)集,比如 SNLI 和 MNLI 作為訓(xùn)練數(shù)據(jù)。至于對(duì)話生成子任務(wù),我們已經(jīng)有了充足的大規(guī)模人設(shè)稀疏的數(shù)據(jù)集。

模型

文章提出的模型主要分為三個(gè)模塊,包括一個(gè)編碼器(),一個(gè)用于回應(yīng)生成的解碼器()和一個(gè)一致性理解解碼器()。模型框架如下圖所示

編碼器

編碼器的輸入包括人設(shè) P 和上下文 Q,對(duì)于人設(shè),只需將人設(shè)句子簡單地拼接即可。模型將一個(gè) special token 放在人設(shè)序列和對(duì)話上下文之間,得到編碼器的輸入

接著嵌入層將輸入轉(zhuǎn)化為表示,這種表示是詞嵌入,類型嵌入和位置嵌入的和,其中在類型嵌入中,用 0 和 1 分別表示人設(shè)和上下文。用和代表人設(shè)和上下文獨(dú)立的表示,用代表和的聯(lián)合表示,即

其中表示輸入的最大長度。

然后編碼器對(duì)做多頭注意力,將其轉(zhuǎn)化為隱向量的序列,

即其中,MultiHead是帶有的全連接層,是編碼器的最終輸出,即。

回應(yīng)生成解碼器

一個(gè)交叉注意力被植入在和之間,其中來自的最后一層,且和均來自:

包含多個(gè)相同的層,每一層的輸出都會(huì)作為下一層的輸入,最終輸出被送往。這里的是模型產(chǎn)生的粗糙回應(yīng),其不一定和人設(shè)保持一致,一致性學(xué)習(xí)和調(diào)整將會(huì)在一致性理解解碼器模塊上進(jìn)行。

一致性理解解碼器

利用進(jìn)行初始化。在的每一層中,多頭注意力被執(zhí)行兩次

以上得到的結(jié)果融合了人設(shè)信息和 粗糙回應(yīng)。最后一層的輸出連接一個(gè)線性層即可得到模型生成的最終回應(yīng)。

訓(xùn)練目標(biāo)

模型針對(duì)文本生成子任務(wù)采用了負(fù)對(duì)數(shù)損失,針對(duì)一致性理解采用了非似然損失。

回應(yīng)生成

模型在和上分別生成粗糙和精確的回應(yīng),兩者的負(fù)對(duì)數(shù)損失可以表示為

非似然訓(xùn)練

在一致性理解模塊的訓(xùn)練中,模型主要利用非對(duì)話的關(guān)系數(shù)據(jù)集。對(duì)于一個(gè)樣本,將 premise 和 hypothesis 輸入解碼器中。如果兩者關(guān)系是 entailment,則應(yīng)當(dāng)促進(jìn)這種生成,那么訓(xùn)練目標(biāo)是最大化這類輸出的概率;如果兩者關(guān)系是 contradiction,則應(yīng)當(dāng)抑制這種生成,那么訓(xùn)練目標(biāo)是最小化這類輸出的概率。經(jīng)過上述訓(xùn)練模式,一致性理解模塊可以隱式地判斷人設(shè)和粗糙回應(yīng)的關(guān)系,并傾向于產(chǎn)生一種和人設(shè)保持一致的回應(yīng)。具體而言,將關(guān)系數(shù)據(jù)集劃分為兩類,一類是關(guān)系為 entailment 的樣本組成的子集,另一類是關(guān)系為 contradiction 的樣本組成的子集。在和上的損失可以表示為(記 premise 和 hypothesis 為,)

生成損失和一致性理解損失可以表示為

總損失可以表示為

其中和是超參數(shù)。

實(shí)驗(yàn)

本文為了驗(yàn)證 BoB 在人設(shè)稀疏的數(shù)據(jù)集上依然能夠保持優(yōu)秀的性能,挑選了兩個(gè)數(shù)據(jù)集 PersonaChat 和 PersonaDialog,前者包含了充足的人設(shè)信息,后者人設(shè)信息較少。本文在兩個(gè)數(shù)據(jù)集上分別進(jìn)行實(shí)驗(yàn)?;€模型選擇了包括 GPT-2 在內(nèi)的預(yù)訓(xùn)練模型和一些非預(yù)訓(xùn)練模型。評(píng)價(jià)指標(biāo)包括人工評(píng)價(jià)和自動(dòng)評(píng)價(jià),人工評(píng)價(jià)主要評(píng)估模型生成的流利度,信息量和相關(guān)性;自動(dòng)評(píng)價(jià)中,利用困惑度評(píng)價(jià)回應(yīng)的內(nèi)容質(zhì)量,利用 Dist 評(píng)價(jià)回應(yīng)的多樣性,利用 C.Score 和來評(píng)價(jià)回應(yīng)和人設(shè)的一致性。在人設(shè)密集的 PersonaChat 數(shù)據(jù)集上實(shí)驗(yàn),得到如下結(jié)果

實(shí)驗(yàn)證明,在各項(xiàng)評(píng)價(jià)指標(biāo)上,BoB 都超過了基線模型。同時(shí)當(dāng)數(shù)據(jù)量減少為 1/2,1/4,1/8 時(shí),模型依然展現(xiàn)出比肩基線模型的強(qiáng)大性能,證明了 BoB 模型的優(yōu)越性。

在人設(shè)稀疏的 PersonaDialog數(shù)據(jù)集上實(shí)驗(yàn),得到如下結(jié)果

我們發(fā)現(xiàn),即使在人設(shè)信息不足的情況下,BoB 依然能夠產(chǎn)生和人設(shè)高度一致的回應(yīng),這得益于一致性理解模塊的訓(xùn)練脫離了有限的人設(shè)對(duì)話數(shù)據(jù),轉(zhuǎn)而依賴大量的非對(duì)話關(guān)系數(shù)據(jù)。因此,一致性的學(xué)習(xí)不受人設(shè)信息多少的影響。這也是 BoB 最核心的創(chuàng)新點(diǎn)!

2

論文動(dòng)機(jī)

近幾年,任務(wù)型對(duì)話系統(tǒng)在達(dá)成用戶目的方面已經(jīng)收獲了不錯(cuò)的效果。大部分這樣的對(duì)話系統(tǒng)基于用戶需求查詢結(jié)構(gòu)化知識(shí),比如表格和數(shù)據(jù)庫等,并利用查詢到的結(jié)果引導(dǎo)系統(tǒng)回應(yīng)的生成。然而,現(xiàn)實(shí)生活中的對(duì)話常常涉及到非結(jié)構(gòu)化的知識(shí),比如餐廳的廣告,用戶用餐反饋等等。這些出現(xiàn)在非結(jié)構(gòu)化知識(shí)中的信息通常無法在結(jié)構(gòu)化知識(shí)中查詢得到。但是現(xiàn)有的任務(wù)型對(duì)話系統(tǒng)缺乏利用非結(jié)構(gòu)化知識(shí)的能力,這樣的缺陷可能導(dǎo)致對(duì)話進(jìn)程的終端,造成追蹤用戶需求和生成系統(tǒng)回應(yīng)的困難。

針對(duì)以上問題,本文考慮在任務(wù)型對(duì)話系統(tǒng)中結(jié)合不同形式的領(lǐng)域知識(shí),構(gòu)建了一個(gè)同時(shí)基于結(jié)構(gòu)化知識(shí)和非結(jié)構(gòu)化知識(shí)的對(duì)話系統(tǒng) HyKnow。在基于結(jié)構(gòu)化知識(shí)的對(duì)話輪中,系統(tǒng)需要用三元組來跟蹤用戶需求,以此查詢數(shù)據(jù)庫條目,最后利用查詢結(jié)果生成回應(yīng);在基于非結(jié)構(gòu)化知識(shí)的對(duì)話輪中,模型管理文檔庫來檢索相關(guān)信息來做回應(yīng)的生成。

模型

下圖給出了模型 HyKnow 的框架。模型總共分為三個(gè)部分:第一,模型使用拓展信念追蹤(extended belief tracking)來追蹤用戶需求;第二,模型基于拓展信念狀態(tài)(extended belief state)來搜索和用戶需求相關(guān)的結(jié)構(gòu)化知識(shí)和非結(jié)構(gòu)化知識(shí);最后,模型利用拓展信念狀態(tài)和相關(guān)知識(shí)來生成系統(tǒng)回應(yīng)。

信念狀態(tài)

信念狀態(tài)有著特定的格式。信念狀態(tài)均由以上形式的三元組構(gòu)成,每個(gè)三元組表示用戶的某個(gè)需求,以(restaurant, food, Italian)為例,該三元組表示用戶需要了解餐飲領(lǐng)域關(guān)于意式食物的訊息。所謂拓展信念狀態(tài),就是隨著對(duì)話輪的進(jìn)行,用戶需求的更新,信念狀態(tài)中添加了一些表示用戶新需求的三元組,我們將這樣的三元組集合記為,其中表示第輪對(duì)話。除此之外,信念狀態(tài)中也會(huì)包含關(guān)于用戶需求的話題,記作。注意到,和在解碼時(shí)所用到的詞表是不同的??!

拓展信念狀態(tài)解碼

遵循 Seq2Seq 框架,首先利用上下文編碼器來編碼對(duì)話上下文,其中的最后一維輸出用來初始化解碼器的隱層?;谏舷挛木幋a器的隱狀態(tài)和上一輪對(duì)話的拓展信念狀態(tài),接著解碼本輪對(duì)話的拓展信念狀態(tài),具體可以采用兩種方案。

因?yàn)楹突诘脑~表是不同的,所以用兩種方法實(shí)現(xiàn)的解碼:

第一,利用一個(gè)信念狀態(tài)解碼器來生成整個(gè),優(yōu)化過程是聯(lián)合的,即

第二,對(duì)和用各自的解碼器分別解碼,兩個(gè)解碼器的參數(shù)是不共享的,優(yōu)化過程是非聯(lián)合的,即

知識(shí)查詢

基于拓展信念狀態(tài),模型查詢數(shù)據(jù)庫得到,檢索文檔庫得到相關(guān)文檔,兩者用來引導(dǎo)系統(tǒng)生成。在數(shù)據(jù)庫的查詢中,只需要用三元組匹配條目即可。在文檔庫的檢索中,只需預(yù)處理文檔庫,提取每個(gè)文檔的話題,和三元組的相關(guān)內(nèi)容匹配即可。

回應(yīng)生成

基于上下文,拓展信念狀態(tài)和查詢結(jié)果,生成回應(yīng)由以下公式給出

其中和表示信念狀態(tài)編碼器和文檔編碼器。

實(shí)驗(yàn)

本文選擇了修改的 MultiWOZ 2.1 數(shù)據(jù)集,并將 HyKnow 模型和以下幾類基線模型相比較:一、現(xiàn)有的端到端任務(wù)型對(duì)話模型(E2E TOD)和對(duì)話狀態(tài)跟蹤模型(DST),以證明結(jié)合非結(jié)構(gòu)化知識(shí)的好處;二、非結(jié)構(gòu)化知識(shí)管理模型,以證明 HyKnow 檢索非結(jié)構(gòu)化知識(shí)方法的優(yōu)越性;三、上述兩者的結(jié)合,以證明 HyKnow 不僅強(qiáng)大在同時(shí)結(jié)合了結(jié)構(gòu)化知識(shí)和非結(jié)構(gòu)化知識(shí),而且知識(shí)的管理,組織和查詢方式以及兩類知識(shí)的融合方式都是非常優(yōu)秀的。實(shí)驗(yàn)結(jié)果如下圖所示

實(shí)驗(yàn)表明,HyKnow 在各項(xiàng)性能指標(biāo)上都超過了基線模型,包括用戶需求的完成度,知識(shí)查詢準(zhǔn)確率等等。除此之外,實(shí)驗(yàn)證明,當(dāng)模型采用聯(lián)合優(yōu)化的時(shí)候,表現(xiàn)會(huì)更高,這說明兩類知識(shí)的模塊在共享參數(shù)時(shí)能夠彼此促進(jìn)。

3

論文動(dòng)機(jī)

當(dāng)前對(duì)話系統(tǒng)領(lǐng)域的一個(gè)重要任務(wù)是基于情感產(chǎn)生合適的回應(yīng)。關(guān)于這個(gè)任務(wù),研究者提出了一些經(jīng)典的模型,比如 Seq2Seq 模型的變體,變分自編碼器,對(duì)抗網(wǎng)絡(luò)等等,不過這些模型生成的回應(yīng)通常較為枯燥乏味,可能是帶有情感標(biāo)簽的數(shù)據(jù)量有限的緣故。最近的研究提出了預(yù)訓(xùn)練模型來解決這類問題,比如 GPT-2 等等。不過,從頭訓(xùn)練一個(gè)預(yù)訓(xùn)練模型成本太高,并且收集用于預(yù)訓(xùn)練的包含豐富情感的對(duì)話數(shù)據(jù)非常困難。

針對(duì)上述困難,本文提出了一個(gè)簡單且易于部署的技術(shù),使得大規(guī)模的預(yù)訓(xùn)練模型能夠產(chǎn)生細(xì)粒度的情感回應(yīng)。首先,利用 emoji 表情作為情感標(biāo)簽;其次,在 Transformer 塊的每個(gè)層歸一化模塊中引入情感 emoji,使得在每次做層歸一化的時(shí)候模型都能向著目標(biāo)情感進(jìn)行自我調(diào)整,這種方法簡單而自然,且易于推廣。

方法

模型的創(chuàng)新主要集中在對(duì) Transformer 模型的層歸一化的改造,我們稱經(jīng)過改造的層歸一化模塊為 Mod-LN。具體操作如下:對(duì)于輸入層歸一化模塊的隱狀態(tài)向量 x,,按照如下方式進(jìn)行歸一化

其中是磨光參數(shù),以避免分母為 0。和是兩個(gè)可訓(xùn)練的模塊,運(yùn)行機(jī)制如下

其中和是屬于層的全連接層,表示情感標(biāo)簽的表示向量,表示偏置,表示激活函數(shù)。模型結(jié)構(gòu)如下圖所示

實(shí)驗(yàn)

本文在 MojiTalk 數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),其中有 64 個(gè)細(xì)粒度的情感 emoji?;€模型選取 R-CVAE。本文分別在 BERT-to-BERT,GPT2-to-GPT2 上利用 Mod-LN,和基線模型相比較,以證明添加的 Mod-LN 的優(yōu)越性。關(guān)于情感分析性能,作者對(duì)模型生成的回應(yīng)用情感分類器預(yù)測情感,將其和正確情感比較,從而得到模型的情感預(yù)測準(zhǔn)確率,準(zhǔn)確率越高,情感分析質(zhì)量越高。除此之外,采用人工評(píng)價(jià)的方式,評(píng)估回應(yīng)的情感性和可讀性。以上兩個(gè)評(píng)價(jià)方面的結(jié)果如下表所示

實(shí)驗(yàn)證明,添加了 Mod-LN 的模型不僅在各項(xiàng)性能指標(biāo)上超過了基線模型,而且在有限數(shù)據(jù)集上依然表現(xiàn)尚佳。這是因?yàn)?,將目?biāo)情感滲透到每個(gè)層歸一化模塊中,每個(gè) Transformer 中,使得模型總是頻繁地向著目標(biāo)情感的方向進(jìn)行自我調(diào)整。

責(zé)任編輯:haq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 解碼器
    +關(guān)注

    關(guān)注

    9

    文章

    1143

    瀏覽量

    40717
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    488

    瀏覽量

    22033

原文標(biāo)題:ACL2021 | 任務(wù)型和開放域?qū)υ捪到y(tǒng)

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    結(jié)合NLU在面向任務(wù)對(duì)話系統(tǒng)的具體應(yīng)用進(jìn)行介紹

    對(duì)面向任務(wù)對(duì)話系統(tǒng)來說,NLU模塊的主要任務(wù)是將用戶輸入的自然語言映射為用戶的意圖和相應(yīng)的槽位值。因此,在面向任務(wù)
    的頭像 發(fā)表于 03-21 09:31 ?5377次閱讀
    結(jié)合NLU在面向<b class='flag-5'>任務(wù)</b>的<b class='flag-5'>對(duì)話</b><b class='flag-5'>系統(tǒng)</b><b class='flag-5'>中</b>的具體應(yīng)用進(jìn)行介紹

    專欄 | 深度學(xué)習(xí)在NLP的運(yùn)用?從分詞、詞性到機(jī)器翻譯、對(duì)話系統(tǒng)

    從分詞、詞性等基礎(chǔ)模塊,到機(jī)器翻譯、知識(shí)問答等領(lǐng)域,本文列舉并分析一些深度學(xué)習(xí)在 NLP 領(lǐng)域的具體運(yùn)用,希望對(duì)大家研究深度學(xué)習(xí)和 NLP 有所幫助。
    的頭像 發(fā)表于 08-18 17:06 ?7551次閱讀
    專欄 | 深度學(xué)習(xí)在<b class='flag-5'>NLP</b><b class='flag-5'>中</b>的運(yùn)用?從分詞、詞性到機(jī)器翻譯、<b class='flag-5'>對(duì)話</b><b class='flag-5'>系統(tǒng)</b>

    OpenAI介紹可擴(kuò)展的,與任務(wù)無關(guān)的的自然語言處理(NLP系統(tǒng)

    近日,OpenAI 在其官方博客發(fā)文介紹了他們最新的自然語言處理(NLP系統(tǒng)。這個(gè)系統(tǒng)是可擴(kuò)展的、與任務(wù)無關(guān)的,并且在一系列不同的 NLP
    的頭像 發(fā)表于 06-17 22:20 ?3862次閱讀
    OpenAI介紹可擴(kuò)展的,與<b class='flag-5'>任務(wù)</b>無關(guān)的的自然語言處理(<b class='flag-5'>NLP</b>)<b class='flag-5'>系統(tǒng)</b>

    四大維度講述了一個(gè)較為完整的智能任務(wù)對(duì)話全景

    這是一個(gè)非常典型的任務(wù)對(duì)話,它滿足兩個(gè)條件,第一,它有一個(gè)明確的目標(biāo);第二,它通過多輪對(duì)話交互來達(dá)成這個(gè)目標(biāo)。像這樣的任務(wù)
    的頭像 發(fā)表于 02-04 09:20 ?7117次閱讀
    四大維度講述了一個(gè)較為完整的智能<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對(duì)話</b>全景

    NLP的深度學(xué)習(xí)技術(shù)概述

    該項(xiàng)目是對(duì)基于深度學(xué)習(xí)的自然語言處理(NLP)的概述,包括用來解決不同 NLP 任務(wù)和應(yīng)用的深度學(xué)習(xí)模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和強(qiáng)化學(xué)習(xí))的理論介紹和實(shí)現(xiàn)細(xì)節(jié),以及對(duì) NLP
    的頭像 發(fā)表于 03-01 09:13 ?4804次閱讀
    <b class='flag-5'>NLP</b><b class='flag-5'>中</b>的深度學(xué)習(xí)技術(shù)概述

    強(qiáng)化學(xué)習(xí)應(yīng)用對(duì)話系統(tǒng)的用戶模擬器

    近幾年來,強(qiáng)化學(xué)習(xí)在任務(wù)導(dǎo)向對(duì)話系統(tǒng)得到了廣泛的應(yīng)用,對(duì)
    發(fā)表于 08-06 14:16 ?2032次閱讀

    如何利用機(jī)器學(xué)習(xí)思想,更好地去解決NLP分類任務(wù)

    NLP分類任務(wù)我們每個(gè)NLPer都異常熟悉了,其在整個(gè)NLP業(yè)務(wù)占據(jù)著舉足輕重的地位,更多領(lǐng)域的子任務(wù)也常常轉(zhuǎn)化為一個(gè)分類
    的頭像 發(fā)表于 08-28 10:02 ?2263次閱讀
    如何利用機(jī)器學(xué)習(xí)思想,更好地去解決<b class='flag-5'>NLP</b>分類<b class='flag-5'>任務(wù)</b>

    對(duì)話系統(tǒng)最原始的實(shí)現(xiàn)方式 檢索式對(duì)話

    對(duì)話系統(tǒng)可以說是NLP領(lǐng)域目前已知最扎實(shí)的落地場景了,整個(gè)流程都脫離不了NLP的核心作用,而且整個(gè)流程涉及NLP的大量
    的頭像 發(fā)表于 09-25 17:08 ?2348次閱讀
    <b class='flag-5'>對(duì)話</b><b class='flag-5'>系統(tǒng)</b>最原始的實(shí)現(xiàn)方式   檢索式<b class='flag-5'>對(duì)話</b>

    口語語言理解在任務(wù)對(duì)話系統(tǒng)的探討

    1.1 研究背景與任務(wù)定義 口語語言理解在任務(wù)對(duì)話系統(tǒng)扮演了一個(gè)非常重要的角色,其目的是識(shí)別
    的頭像 發(fā)表于 03-31 17:48 ?2445次閱讀
    口語語言理解在<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對(duì)話</b><b class='flag-5'>系統(tǒng)</b><b class='flag-5'>中</b>的探討

    知識(shí)圖譜是NLP的未來嗎?

    我的看法:知識(shí)圖譜不是NLP的未來,因?yàn)?b class='flag-5'>知識(shí)圖譜是另外一種與NLP有很多交集的技術(shù)。在目前所有已知的發(fā)展方向
    的頭像 發(fā)表于 04-15 14:36 ?3692次閱讀
    <b class='flag-5'>知識(shí)</b>圖譜是<b class='flag-5'>NLP</b>的未來嗎?

    通過NVIDIA DLI課程學(xué)習(xí)NLP對(duì)話人工智能

      Riva 語音 API 服務(wù)器公開了一個(gè)用于執(zhí)行語音識(shí)別、語音合成和各種 NLP 推斷的簡單 API 。在本課程,開發(fā)人員使用 Python 示例從 Riva 示例客戶機(jī)運(yùn)行其中幾個(gè) API
    的頭像 發(fā)表于 04-11 09:32 ?2791次閱讀

    基于知識(shí)對(duì)話生成任務(wù)

    基于知識(shí)對(duì)話生成任務(wù)(Knowledge-Grounded Dialogue Generation,KGD)是當(dāng)前對(duì)話系統(tǒng)的研究熱點(diǎn),這個(gè)
    的頭像 發(fā)表于 09-05 09:54 ?1661次閱讀

    多語言任務(wù)在內(nèi)的多種NLP任務(wù)實(shí)現(xiàn)

    WeLM是一個(gè)百億級(jí)別的中文模型,能夠在零樣本以及少樣本的情境下完成包括對(duì)話-采訪、閱讀理解、翻譯、改寫、續(xù)寫、多語言閱讀理解在內(nèi)的多種NLP任務(wù),并具備記憶能力、自我糾正和檢查能力。
    發(fā)表于 10-13 11:52 ?624次閱讀

    基于主觀知識(shí)任務(wù)對(duì)話建模

    我們參加了 DSTC11-track5 并在所有 14 個(gè)參賽隊(duì)伍排名第三(客觀指標(biāo)),其中 Turn Detection 子任務(wù)排名第一。本文將介紹 track 5 相關(guān)內(nèi)容以及我們?cè)诟傎?b class='flag-5'>中嘗試的方法。
    的頭像 發(fā)表于 10-31 16:48 ?486次閱讀
    基于主觀<b class='flag-5'>知識(shí)</b>的<b class='flag-5'>任務(wù)</b><b class='flag-5'>型</b><b class='flag-5'>對(duì)話</b>建模

    nlp自然語言處理的主要任務(wù)及技術(shù)方法

    的應(yīng)用,如搜索引擎、機(jī)器翻譯、語音識(shí)別、情感分析等。 NLP的主要任務(wù) NLP的主要任務(wù)可以分為以下幾個(gè)方面: 1.1 詞法分析(Lexical Analysis) 詞法分析是
    的頭像 發(fā)表于 07-09 10:26 ?1060次閱讀
    RM新时代网站-首页