RM新时代网站-首页

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

基于知識的對話生成任務

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:深度學習自然語言 ? 2022-09-05 09:54 ? 次閱讀

研究動機

基于知識的對話生成任務(Knowledge-Grounded Dialogue Generation,KGD)是當前對話系統的研究熱點,這個任務旨在基于對話歷史和外部知識來生成的富含信息量的回復語句。目前的工作通常使用結構化知識圖(KGs)或非結構化文本作為知識來源。這些外部的知識來源可以緩解傳統生成模型產生的無意義和乏味的回復,比如“我不知道”和“是的”。

最近的一些工作使得有些學者認識到實體(Entity)之間的相關性在多輪對話中起著重要的作用,因此他們提出在知識圖譜中挖掘實體之間有價值的結構信息,以預測下一個回復中可能出現的實體,并利用預測的實體進一步指導回復語句的生成。然而,這種方法也存在兩個缺陷:

? 一方面,entity-guided KGD方法將對話中的實體作為唯一的知識去指導模型對上下文的理解和回復的生成,而忽略了KG中實體之間的關系(relation)的重要性。然而,人類對話背后的規(guī)律性可以概括為一系列話題的轉換,其中每個話題可能對應于一個關系邊,而不是KG中的單個實體。

?另一方面,現有的KGD方法僅利用最后一個對話回合中的知識去預測后續(xù)回復中的知識,這種方式并不足以學習人類如何在多輪對話中如何轉換話題。

下圖是一個知識對話的示例。Dialogue Context(a)展示了一個對話上下文,兩個用戶從萊昂納多的職業(yè)聊到了他的代表作泰坦尼克號,然后討論了泰坦尼克號這部電影的類型和主演陣容,并將最后的焦點實體落在凱特溫斯萊特上。KG(b)展示了在這個對話過程中所有涉及到的實體以及它們在KG中的三元組。由這兩個信息源可以得到兩種貫穿這段對話的語言邏輯:

a. 回合級實體過渡路徑:萊昂納多——>泰坦尼克號——>凱特溫斯萊特

b.對話級關系轉換路徑:職業(yè)——>代表作——>電影類型/主演

23d9189c-2c47-11ed-ba43-dac502259ad0.png

由此可見,如果不建模多輪知識,生成的回復可能是冗余且不連貫的,如Badcase1;如果只關注回合級的實體過渡路徑,而忽略整個對話中話題的潛在轉換路徑時,模型生成的回復可能非常突兀,無法和對話上下文的語言邏輯順暢地銜接起來,如Badcase2。

PART 02

貢 獻

因此,本文提出了一種新的KGD模型:RT-KGDRelation Transition aware Knowledge-Grounded Dialogue Generation),該模型通過將對話級的關系轉換規(guī)律與回合級的實體語義信息相結合,來模擬多輪對話過程中的知識轉換。具體來說,作者利用多輪對話上下文中包含的所有關系和實體,構建了MHKT-PathMulti-turn Heterogeneous Knowledge Transition Path),它可以看作是外部KG的一個子圖,同時又結合了多輪對話中關系和實體出現的順序信息?;谒鶚嫿ǖ腗HKT-Path,作者設計了一個知識預測模塊,從外部KG中檢索三元組作為后續(xù)回復中可能出現的知識,最后融合對話上下文和預測的三元組以生成回復語句。本文的主要貢獻有以下三點:

? 本文是第一個將跨多輪對話中的關系轉換引入KGD任務的工作,通過整合關系轉換路徑和實體語義信息來學習人類對話背后的規(guī)律性。

? RT-KGD為每個對話都構建一個多輪異構知識轉換路徑(MHKT-Path),它將外部KG的結構信息和知識的順序信息結合起來?;贛HKT-Path,模型可以從KG中檢索適當的知識,以指導下一個回復的生成。

? 在多領域知識驅動的對話數據集KdConv上的實驗結果表明,RT-KGD在自動評估和人工評估方面都優(yōu)于基線模型。

PART 03

模 型

23ef7f60-2c47-11ed-ba43-dac502259ad0.png

1.任務定義

給定一個對話上下文C={u1,...,un-1}、其中每一條語句ui都對應一個三元組集合Ki和一個非結構化文本集合Si。模型的目標是利用對話上下文、結構化三元組和非結構化文本生成一句合適的回復語句un。

2.Multi-turn Heterogeneous Knowledge Transition Path(MHKT-Path)

作者為每個對話上下文都構建了一個多輪異構知識轉移路徑圖,來將對話級的關系轉換規(guī)律與回合級的實體語義信息結合起來。

MHKT-Path有兩類節(jié)點:

? 三元組節(jié)點 ? 關系節(jié)點(關系節(jié)點是從對應三元組中抽取得到的) MHKT-Path 有四種邊: ? 連接三元組節(jié)點到三元組節(jié)點的邊(邊的方向按照三元組在對話上下文中出現的順序決定) ?連接關系節(jié)點到關系節(jié)點的邊(邊的方向按照關系在對話上下文中出現的順序決定,即與它們對應的三元組之間的邊的方向相同) ?連接三元組節(jié)點到關系節(jié)點的邊 ?連接關系節(jié)點到三元組節(jié)點的邊

這樣,兩種粒度的知識信息就得到了充分交互和融合,共同促進模型對上下文知識和對話邏輯順序的理解。

3. Knowledge Encoder

Knowledge Encoder用知識圖譜表示學習模型和異構圖神經網絡將MHKT-Path中的節(jié)點轉化為向量表示。

1. 初始化MHKT-Path中的所有節(jié)點。作者利用TransR得到KG中所有元素(實體和關系)的表示,這些表示融合了KG中的全局信息。因此,MHKT-Path中的節(jié)點表示就可以用這些元素的表示計算得到:對于關系節(jié)點,其向量表示就是該關系在KG中的表示;對于三元組節(jié)點,其向量表示由該三元組包含的頭尾實體和關系的向量拼接而成。

2. HGT(Heterogeneous Graph Transformer)可利用MHKT-Path中的局部結構信息來更新節(jié)點的表示。

最后,結合上兩步的結果得到節(jié)點的最終表示。

4. Knowledge Predictor

Knowledge Predictor用來預測下一句回復中可能出現的知識,此模塊分為三部分:

1. 由于知識編碼器聚合局部鄰域信息,作者進一步采用Bi-GRU來分別豐富關系節(jié)點和三元組節(jié)點的時序特征。具體來說,將此時間步中出現的所有關系節(jié)點和三元組節(jié)點的平均向量分別作為Bi-GRU的輸入。

2.基于前面的n-1輪(即n-1個時間步)的關系表示,通過Bi-GRU預測第n輪(t=n)的關系節(jié)點的表示:

與關系節(jié)點不同,作者先用Bi-GRU得到前n-1輪每輪三元組節(jié)點的表示:

然后利用多頭注意力機制將對話級的第n輪關系節(jié)點的表示和回合級的前n-1輪三元組節(jié)點的表示結合起來,共同預測第n輪三元組節(jié)點的表示:

3. 因為一輪語句中可能包含多個知識,所以作者用多標簽分類將得到的第n輪的三元組向量映射到一個標簽向量上,其長度為KG中所有的三元組數量,并用二元交叉熵(BCE)損失函數來監(jiān)督分類的效果。

5. Knowledge-Enhanced Encoder-Decoder

在Knowledge-Enhanced Encoder-Decoder中,BART用來給上下文語句和其中對應的非結構化描述文本S分別進行編碼,Si代表第i輪語句中對應的非結構化描述文本。

在解碼階段,作者將上述步驟中得到的前n-1輪對話上下文C的表示、前n-1輪非結構化描述文本S的表示、和預測的第n輪三元組的表示拼接后輸入BART的解碼器中,生成第n輪富含信息量的回復語句:

模型最終的loss為知識分類標簽的BCE損失函數和解碼語句的交叉熵損失函數的加權和:

PART 04

實 驗

為了驗證提出的模型,在數據集的選擇時應該滿足兩個要求:(1)每輪語句都用相關的知識三元組進行標注;(2)在每個對話段中包含足夠多輪次的語句。因此,KdConv是最佳的實驗數據集。從實驗結果來看,RT-KGD生成了更高質量的回復,利用了更合適的知識,并更接近人類的表達方式。

?自動評估指標

2433805c-2c47-11ed-ba43-dac502259ad0.png

? 人工評估指標

245d202e-2c47-11ed-ba43-dac502259ad0.png

審核編輯:彭靜
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4771

    瀏覽量

    100712
  • 模型
    +關注

    關注

    1

    文章

    3226

    瀏覽量

    48806
  • 數據集
    +關注

    關注

    4

    文章

    1208

    瀏覽量

    24689

原文標題:RT-KGD:多輪對話過程中的知識轉換模型

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    結合NLU在面向任務對話系統中的具體應用進行介紹

    對面向任務對話系統來說,NLU模塊的主要任務是將用戶輸入的自然語言映射為用戶的意圖和相應的槽位值。因此,在面向任務對話系統中,NLU模塊
    的頭像 發(fā)表于 03-21 09:31 ?5377次閱讀
    結合NLU在面向<b class='flag-5'>任務</b>的<b class='flag-5'>對話</b>系統中的具體應用進行介紹

    【安富萊原創(chuàng)】【STemWin教程】第39章 對話框基礎知識

    第39章 對話框基礎知識 在上期教程我們講解了控件的基礎知識,本期教程我們接著講解一下對話框的基礎知識,有了這兩部分的基礎
    發(fā)表于 04-29 10:39

    第39章 對話框基礎知識

    轉stemwin教程 在上期教程我們講解了控件的基礎知識,本期教程我們接著講解一下對話框的基礎知識,有了這兩部分的基礎知識后,后面我們就可以進行每個控件的應用講解了。 控件可以創(chuàng)建并獨
    發(fā)表于 10-16 11:48

    基于分層編碼的深度增強學習對話生成

    面向對話生成問題,提出一種構建對話生成模型的方法基于分層編碼的深度增強學習對話模型( EHRED),用以解決當前標準序列到序列(seq2se
    發(fā)表于 11-25 11:53 ?1次下載

    四大維度講述了一個較為完整的智能任務對話全景

    這是一個非常典型的任務型的對話,它滿足兩個條件,第一,它有一個明確的目標;第二,它通過多輪對話交互來達成這個目標。像這樣的任務對話在整個辦
    的頭像 發(fā)表于 02-04 09:20 ?7117次閱讀
    四大維度講述了一個較為完整的智能<b class='flag-5'>任務</b>型<b class='flag-5'>對話</b>全景

    一種可轉移的對話狀態(tài)生成

    過度依賴域本體和缺乏跨域知識共享是對話狀態(tài)跟蹤的兩個實際但尚未研究的問題?,F有方法通常在推理期間無法跟蹤未知時隙值,并且常常難以適應新領域。在本文中,我們提出了一種可轉移的對話狀態(tài)生成
    的頭像 發(fā)表于 04-09 14:23 ?2256次閱讀

    對話系統最原始的實現方式 檢索式對話

    檢索式對話作為對話系統最原始的實現方式,又蘊涵著什么有意思的東西,我們來看看。 什么是對話系統 對話從來就不是一個簡單的任務,這是一個涉及理
    的頭像 發(fā)表于 09-25 17:08 ?2346次閱讀
    <b class='flag-5'>對話</b>系統最原始的實現方式   檢索式<b class='flag-5'>對話</b>

    華為公開 “人機對話”相關專利:可根據對話內容生成準確回復

    ,該裝置預配置有多個對話機器人,每個對話機器人用于根據至少一個話題進行人機對話。對話機器人能夠針對不同的話題,自適應地根據對話內容
    的頭像 發(fā)表于 02-27 11:40 ?3303次閱讀

    口語語言理解在任務對話系統中的探討

    1.1 研究背景與任務定義 口語語言理解在任務對話系統中扮演了一個非常重要的角色,其目的是識別出用戶的輸入文本中蘊含的意圖和提及到的槽位,一般被分為意圖識別和槽位填充兩個子任務[1]
    的頭像 發(fā)表于 03-31 17:48 ?2445次閱讀
    口語語言理解在<b class='flag-5'>任務</b>型<b class='flag-5'>對話</b>系統中的探討

    視覺問答與對話任務研究綜述

    視覺問答與對話是人工智能領堿的重要硏究任務,是計算機視覺與自然語言處理交叉領域的代表性問題之一。視覺問答與對話任務要求機器根據指定的視覺圖像內容,對單輪或多輪的自然語言問題進行作答。視
    發(fā)表于 04-08 10:33 ?10次下載
    視覺問答與<b class='flag-5'>對話</b><b class='flag-5'>任務</b>研究綜述

    一種結合回復生成對話意圖預測模型

    ,但是,在很多場景下回復可能并沒有生成。因此,文中提出了一種結合回復生成對話意圖預測模型。在生成部分,使用Seq2Seq結構,根據對話歷史
    發(fā)表于 04-14 14:02 ?5次下載
    一種結合回復<b class='flag-5'>生成</b>的<b class='flag-5'>對話</b>意圖預測模型

    NLP中基于聯合知識任務導向型對話系統HyKnow

    Dialog Modeling with Hybrid 論文地址:https://arxiv.org/pdf/2105.06041v2.pdf 這篇文章提出了一個基于聯合知識任務導向型對話系統HyKnow,該模型通過延
    的頭像 發(fā)表于 09-08 10:43 ?4291次閱讀

    受控文本生成模型的一般架構及故事生成任務等方面的具體應用

    任務和常識生成任務上的具體應用,指出了受控文本生成技術在具體應用場景下的改進方向。 0. 什么是受控文本生成 文本
    的頭像 發(fā)表于 10-13 09:46 ?3525次閱讀
    受控文本<b class='flag-5'>生成</b>模型的一般架構及故事<b class='flag-5'>生成</b><b class='flag-5'>任務</b>等方面的具體應用

    NVIDIA NeMo 如何支持對話式 AI 任務的訓練與推理?

    ,開發(fā)和運行可落地的語音人工智能服務仍然是一項復雜而艱巨的任務,通常需要面臨實時性、可理解性、自然性、低資源、魯棒性等挑戰(zhàn)。 本期分享我們邀請到了? NVIDIA 的解決方案架構師丁文 ,分享如何使用 NVIDIA NeMo 進行對話式 AI
    的頭像 發(fā)表于 05-11 20:16 ?950次閱讀
    NVIDIA NeMo 如何支持<b class='flag-5'>對話</b>式 AI <b class='flag-5'>任務</b>的訓練與推理?

    基于主觀知識任務對話建模

    我們參加了 DSTC11-track5 并在所有 14 個參賽隊伍中排名第三(客觀指標),其中 Turn Detection 子任務排名第一。本文將介紹 track 5 相關內容以及我們在競賽中嘗試的方法。
    的頭像 發(fā)表于 10-31 16:48 ?486次閱讀
    基于主觀<b class='flag-5'>知識</b>的<b class='flag-5'>任務</b>型<b class='flag-5'>對話</b>建模
    RM新时代网站-首页