• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于雙層記憶網(wǎng)絡的多領域端到端任務型對話系統(tǒng)

    2023-10-17 23:37:00方明弘萬里戴凡杰
    計算機應用研究 2023年10期

    方明弘 萬里 戴凡杰

    摘 要:為了將知識有效地融入到對話推理,提出了一種基于雙層記憶網(wǎng)絡的多領域端到端任務型對話系統(tǒng)。首先,該模型用知識行的形式代替三元組的形式表示知識,提升了知識定位的性能;其次,采用了雙層記憶網(wǎng)絡結構將知識和對話歷史進行分別建模,提高了模型的推理能力;最后,使用了動態(tài)編碼器對多種領域的數(shù)據(jù)進行編碼,提升模型的泛化能力。通過實驗分析,該模型的F1和BLEU指標在InCar和CamRest數(shù)據(jù)集上相較于對比算法均有一定的提升,驗證了該模型的有效性和先進性。

    關鍵詞:對話系統(tǒng); 任務型; 雙層記憶網(wǎng)絡; 多領域; 端到端

    中圖分類號:TP391 文獻標志碼:A 文章編號:1001-3695(2023)10-010-2945-06

    doi:10.19734/j.issn.1001-3695.2023.03.0096

    Multi-domain end-to-end task-oriented dialogue system based on

    double-layer memory network

    Fang Minghong, Wan Li, Dai Fanjie

    (College of Computer Science, Chongqing University, Chongqing 400044, China)

    Abstract:To effectively incorporate knowledge into dialogue reasoning, this paper proposed a multi-domain end-to-end task-oriented dialogue system based on a double-layer memory network. Firstly, it used the form of knowledge rows instead of triples to represent knowledge, which improved the performance of knowledge location. Secondly, it used a double-layer memory network structure to model knowledge and dialogue history separately, which improved the reasoning ability of the model. Finally, it used a dynamic encoder to encode data in various fields to improve the generalization ability of the model. Through experimental analysis, the F1 and BLEU indicators of the model are improved through compared with the comparison algorithm on the InCar and CamRest datasets, which verifies the effectiveness and advancement of the model.

    Key words:dialogue system; task-oriented; double-layer memory network; multi-domain; end-to-end

    0 引言

    隨著科學技術的快速發(fā)展和現(xiàn)代計算機運算能力的不斷增強,人工智能技術開始深入應用于人們生活的方方面面。此外,對話系統(tǒng)由于在真實世界中蘊涵了巨大的商業(yè)價值,在工業(yè)界和學術界都被廣泛研究和探索,出現(xiàn)了許多智能對話系統(tǒng),例如微軟小冰[1]、蘋果Siri[2]、百度小度[3]等對話助手。

    目前,主流的對話系統(tǒng)分為兩大類。第一類是開放域對話系統(tǒng),該對話系統(tǒng)不帶有明確的意圖,特點是沒有特定的任務,只是和用戶隨便聊天,往往是一問一答的形式,較少或者不會參考對話上下文信息。開放域對話系統(tǒng)即使在某種程度上可以發(fā)揮人工智能的作用,但因為其不致力于幫助人們解決真正的現(xiàn)實問題,所以這類對話系統(tǒng)的實際作用相對較?。?]。第二類是任務型對話系統(tǒng),該對話系統(tǒng)通過有限的對話信息幫助用戶完成特定的任務,例如餐廳預定、目的導航、天氣查詢和車票預定等,使得其對人們的生活很有價值。任務型對話系統(tǒng)的核心是需要正確理解用戶的意圖,并提供合理且正確的系統(tǒng)回復,這個過程需要依賴當前對話的上下文信息和外部知識庫信息,特定領域的任務還需要提供特定領域的知識庫信息。

    任務型對話系統(tǒng)主要存在流水線和端到端兩種模式[5]。流水線的任務型對話系統(tǒng)因存在需要大量的人工標注和多模塊之間依賴復雜等缺點,導致系統(tǒng)構建成本昂貴。不同于流水線,端到端的任務型對話系統(tǒng)不需要大量的人工標注和依賴上下游模塊,其結構簡單、可擴展性強、構建成本低,因此成為對話系統(tǒng)領域的研究熱點。然而,現(xiàn)有的端到端任務型對話系統(tǒng)仍然存在一些不足:

    a)基于記憶網(wǎng)絡的端到端任務型對話系統(tǒng)均采用三元組的形式表示外部知識庫,該方法存在對話推理困難和知識定位困難的問題,難以有效地將正確的知識融入到對話中。本文提出用知識行代替三元組的形式表示知識。

    b)知識和對話歷史都存儲于同一個記憶網(wǎng)絡之中,使用共享的記憶網(wǎng)絡對知識和對話歷史進行編碼,但是不同的數(shù)據(jù)格式所包含的信息是有差異的,在同一個網(wǎng)絡上對不同的數(shù)據(jù)進行推理是十分困難和低效率的,并且知識融入程度較低。本文提出雙層記憶網(wǎng)絡,分別對知識和對話歷史進行建模,提高了模型的推理能力。

    c)主流的對話系統(tǒng),要么針對特定領域并且依賴大量標簽數(shù)據(jù)去學習特定的特征,要么混合所有領域的數(shù)據(jù)去學習共有的特征。雖然這兩種方法已經取得了不錯的成績,但是限制了模型的通用性,無法很好地將已經訓練好的模型遷移到新的領域,導致了對話系統(tǒng)不具有較好的普適性和通用性。本文利用動態(tài)編碼器提取共有特征和私有特征,易于將模型遷移到數(shù)據(jù)量較少或者零數(shù)據(jù)的領域。

    1 相關工作

    序列到序列模型[6]是一種由編碼器和解碼器組成的深度學習模型,即sequence to sequence(Seq2Seq)。序列到序列模型可以學習兩個序列之間的映射關系,表現(xiàn)出優(yōu)異的性能,其迅速在語音識別[7]、機器翻譯[8]等領域得到廣泛應用。因為序列到序列模型在多個領域的優(yōu)異表現(xiàn)以及強大的語言建模能力,該模型逐漸被對話系統(tǒng)領域所關注并獲得了廣泛的應用。

    Weston等人[9]提出了記憶網(wǎng)絡模型,為傳統(tǒng)的推理模型增加一個可讀寫的記憶模塊以便更好地存儲長期記憶,然后在推理過程中可以進行相關內容的查詢和讀取。Sukhbaatar等人[10]提出了一種端到端的記憶網(wǎng)絡模型,其在多個嵌入矩陣中寫入外部記憶,并且使用查詢向量,可以多次讀取記憶信息。不同于Weston等人[9]提出的記憶網(wǎng)絡模型,該模型是端到端可學習的,因此可以明顯減少需要用于訓練的監(jiān)督,使其更加具有普遍性和通用性。此外,該模型中包含多個嵌入矩陣,通過多次查詢實現(xiàn)多跳閱讀和知識推理,并且對于需要高性能的推理任務而言多跳機制是十分重要的。Dai等人[11]在Sukhbaatar等人[10]的基礎上,應用端到端的記憶網(wǎng)絡模型作為句子的編碼器,記住現(xiàn)有的響應和對話歷史,然后,使用與模型無關的元學習[12]來訓練框架,以更少次數(shù)的方式檢索正確的響應。

    盡管端到端的記憶網(wǎng)絡模型在問答和語言建模等任務中取得了優(yōu)異的表現(xiàn),使其逐漸應用于任務型對話系統(tǒng)領域,但由于其只是從預先定義的集合中選擇相應回復,而不是逐字生成,所以生成回復的準確性有限。為解決該問題,Madotto等人[13]在端到端的記憶網(wǎng)絡模型中加入記憶組件用于構建端到端可學習的任務型對話系統(tǒng)(Mem2Seq)。Mem2Seq模型在記憶組件中存儲知識三元組信息和對話歷史,并將其與基于序列到序列的生成模型結合直接生成系統(tǒng)回復,從而解決了只從預定義的集合中選擇回復的問題。此外,Mem2Seq模型還結合了復制機制直接從記憶組件的知識庫信息或者對話歷史中復制單詞到系統(tǒng)生成的回復中。越來越多的端到端的任務型記憶網(wǎng)絡方法在Mem2Seq模型的基礎上進行研究和探索。

    2 模型

    2.1 模型架構

    本文提出了一種基于雙層記憶網(wǎng)絡的多領域端到端任務型對話系統(tǒng)(DM2Seq)。知識庫信息用知識行的形式(一組知識信息都存在一行數(shù)據(jù)上)代替三元組的形式表示,提升了知識定位的性能。采用了雙層記憶網(wǎng)絡,對知識庫信息和對話歷史進行分別建模,針對不同類型的數(shù)據(jù)單獨處理,提高了模型的推理能力。使用動態(tài)編碼器和增強解碼器對多種領域的數(shù)據(jù)進行編碼和解碼,并且在解碼的階段使用束搜索算法[14]提高模型的單詞選擇正確率。DM2Seq模型主要結構如圖1所示。

    DM2Seq模型最主要的模塊為動態(tài)編碼器模塊、雙層記憶網(wǎng)絡模塊、動態(tài)融合模塊、增強解碼器模塊等。

    本文模型首先需要對外部知識和對話歷史進行模型訓練,然后將訓練好的模型輸入對話即可生成系統(tǒng)回復作為輸出,模型應用架構如圖2所示。

    2.2 動態(tài)編碼器

    現(xiàn)存的端到端任務型對話系統(tǒng)雖然表現(xiàn)出了一定的優(yōu)勢,但是無法將特定領域訓練的模型移植到數(shù)據(jù)量較少或者沒有數(shù)據(jù)的領域,模型的泛化性較差。將特定領域和混合領域的模型相融合是十分重要的,既可以解決多領域共享特征捕獲問題,又可以解決特定領域特征捕獲問題。

    動態(tài)解碼器首先用特定領域的數(shù)據(jù)訓練私有模型,然后采用混合專家機制(mixture of experts,MoE)[15]進行動態(tài)融合,獲取特定領域的特征,然后對動態(tài)融合后的私有特征與混合特征進行全融合,最后得到輸出的編碼向量。動態(tài)編碼器模塊的基本結構如圖3所示。

    a)對于單個領域進行編碼。

    對于給定的用戶與系統(tǒng)之間的對話信息,動態(tài)編碼器將會對整個對話歷史信息進行上下文編碼,用于系統(tǒng)推理。假定一個對話歷史信息的輸入序列表示為X=(x1,x2,…,xn),n表示對話序列的長度。首先根據(jù)式(1)獲得每個單詞的詞向量表示ei:

    2.4 雙層記憶網(wǎng)絡指針

    雙層記憶網(wǎng)絡模型分別對對話歷史和知識庫信息進行建模,構建對話記憶網(wǎng)絡和知識庫記憶網(wǎng)絡,所以需要分別定義對話記憶網(wǎng)絡指針Glabeld=(gld,1,gld,2,…,gld,|Rd|+1)和知識庫記憶網(wǎng)絡指針Glabelkb=(glkb,1,glkb,2,…,glkb,|Rkb|+1)的真實標簽。其中相關性的行為表示為1,不相關的行為表示為0,|Rd|和|Rkb|分別表示對話記憶的行數(shù)和知識庫記憶的行數(shù),|Rd|+1和|Rkb|+1分別表示對話記憶和知識庫記憶結束標記所在行。

    對于知識庫記憶行而言,若這個知識記憶行包含最多數(shù)量的單詞出現(xiàn)在真實回復Y中,就認為這個知識記憶行與其相關,否則不相關。對于對話記憶行,如果單詞存在生成的回復Y中,那么就認為這個對話記憶行與其相關,否則不相關。

    在解碼器生成回復之前,雙層記憶網(wǎng)絡指針可以根據(jù)對話歷史信息和知識庫信息獲得與當前對話相關的記憶行信息。

    雙層記憶網(wǎng)絡指針模塊將動態(tài)編碼器的最后一個隱藏狀態(tài)向量hfenc,n作為初始查詢向量,然后再進行了K次查詢和推理后,可以分別獲得記憶網(wǎng)絡指針:

    最終,通過交叉熵損失函數(shù)作為其目標函數(shù)來進行訓練,式(17)和(18)分別是對話記憶指針和知識庫記憶指針的損失計算:

    3 實驗

    3.1 數(shù)據(jù)集

    實驗采用的數(shù)據(jù)集是對話系統(tǒng)領域流行的公開數(shù)據(jù)集,分別為車載助手對話數(shù)據(jù)集InCar[16]和餐廳預定對話數(shù)據(jù)集CamRest[17],如表1所示。

    3.2 評價指標

    評價指標采用實體F1值和BLEU精度(使用multi-bleu.perl腳本)對DM2Seq模型的實驗效果進行分析和評估,主要從真實回復與模型生成回復之間的相似度兩個方面進行評估和分析。

    由于F1值和BLEU評價指標只能對模型結果進行粗粒度評估,所以本文在自動評價指標的基礎上繼續(xù)引入人工評估指標,對模型進行更加細粒度的分析和評估。

    3.3 實驗指標

    對于雙層記憶網(wǎng)絡的多領域動態(tài)融合的端到端任務型對話系統(tǒng)模型,實驗環(huán)境如表2所示。在訓練的過程中采用Adam優(yōu)化算法,學習率設置為從0.001線性衰減到0.000 1,dropout設置為0.2,模型中的詞向量維度大小和隱藏層向量大小設置為128,數(shù)據(jù)集InCar和CamRest每個采樣大?。╞atch)設置為16。模型迭代次數(shù)最大設置為100,若最新的F1值連續(xù)8次低于最大的F1值則提前停止訓練。teacher forcing設置為0.5,在模型生成回復的時候有50%的概率使用解碼器當前時刻的輸出作為下一時刻的輸入,而有50%的概率使用Teacher Forcing策略將真實的回復單詞作為解碼器的輸入。

    3.4 對比實驗

    DM2Seq模型與現(xiàn)有的多個端到端的任務型對話系統(tǒng)模型進行對比,結果如表3和4所示。

    表3展示了DM2Seq模型與其他對比模型在InCar數(shù)據(jù)集上的對比實驗結果。與之前的工作相比,DM2Seq模型在兩個自動評估指標BLEU精度和F1值上均取得了最好的效果,分別是最高的15.2 BLEU精度和最高的62.9%實體F1值,在Navigate和Weather領域也取得了最好的F1值,分別是58.0%和64.6%,雖然在Schedule領域沒有取得最高的F1值,但是只比DF-Net模型低2.9%。

    表4展示了DM2Seq模型與其他對比模型在CamRest數(shù)據(jù)集上的對比實驗結果,可以看到,DM2Seq模型在兩個自動評估指標BLEU精度和F1值上均取得了18.9 BLEU精度和59.7%實體F1值,略高于其他對比模型。

    雖然F1值和BLEU精度常常作為端到端的任務型對話系統(tǒng)中的評價指標,但可能對模型只能進行粗粒度評價,其評價不夠全面。因此,本文在自動評價指標的基礎上繼續(xù)引入人工評價指標,對模型進行更加細粒度的分析和評價。

    本節(jié)主要從InCar數(shù)據(jù)集上隨機選取150個對話的測試集,通過選取GLMP和DF-Net作為對比模型生成系統(tǒng)回復,并請5個人類專家對對比模型和DM2Seq模型生成的系統(tǒng)回復分別從正確性、流暢性以及類人性三個方面進行評價,分數(shù)為1~5,對評價的結果取平均值展示。人類評估分布情況如圖5所示。

    在InCar數(shù)據(jù)集上的人工評估結果如表5所示,從評估結果可以看出本文提出的DM2Seq模型在正確性方面比對比模型GLMP和DF-Net高出許多,這表明DM2Seq模型較其他的對比模型的實體信息抽取和知識推理能力有較大提升,特別是關系到多種實體選擇的對話內容的時候,DM2Seq模型能充分理解用戶的意圖并生成正確的回復。DM2Seq模型在其他評價指標流暢性和類人性上的評估結果都略高于對比模型,這表明DM2Seq模型的語言生成能力和識別能力比對比模型略微優(yōu)秀,能生成流利的和與人類回復更加相近的系統(tǒng)回復。

    綜上所述,根據(jù)實驗表明DM2Seq在InCar和CamRest數(shù)據(jù)集上具有不錯的信息提取能力和語言建模能力,具有較高的魯棒性,無論在BLEU精度還是F1值上,都提升了相當大的幅度。BLEU分數(shù)提高表明DM2Seq模型的解碼器生成回復的誤差已經減小了,F(xiàn)1值提高表面DM2Seq模型從外部知識庫檢索實體比其他對比模型更加準確,能夠很好地在系統(tǒng)生成回復中融入正確的外部知識。人工評估實驗也表明,DM2Seq模型具有優(yōu)秀的性能。

    3.5 消融實驗

    對DM2Seq模型進行消融實驗,提出了五種變體:

    a)DM2Seq模型移除動態(tài)編碼器(dynamic encoder,DE),使用一個標準的GRU對數(shù)據(jù)進行編碼操作。

    b)DM2Seq模型移除增強解碼器(enhanced decoder,ED),使用一個標準的GRU對編碼器輸出的隱藏向量進行解碼操作。

    c)DM2Seq模型移除雙層記憶網(wǎng)絡(double-layer memory network,DMN),使用單層記憶網(wǎng)絡,將對話信息和知識庫信息在一個網(wǎng)絡進行建模。

    d)DM2Seq模型移除知識行表示(knowledge line representation,KLR),采用三元組的形式表示知識庫信息。

    e)DM2Seq模型移除束搜索算法。

    根據(jù)表6中消融實驗的結果可知,對于InCar數(shù)據(jù)集,在BLEU精度方面和F1值方面,雙層記憶網(wǎng)絡模塊對DM2Seq模型提升最多,對模型的語言建模能力和實體信息提取能力影響最大。對于CamRest數(shù)據(jù)集,在BLEU精度方面和F1值方面,依然是雙層記憶網(wǎng)絡模塊對DM2Seq模型提升最多,語言建模能力和實體信息提取能力影響最大。但是在CamRest數(shù)據(jù)集上,束搜索對模型提升比InCar數(shù)據(jù)集上略大,其原因可能是CamRest數(shù)據(jù)集上局部最優(yōu)對實體檢索以及語言建模影響更大。

    為了進一步驗證動態(tài)編碼器對多領域數(shù)據(jù)作用,假定DM2Seq模型在某個領域具有較少的資源,然后判定其是否具有良好的性能。對于InCar數(shù)據(jù)集中三個子領域數(shù)據(jù)集,保持其中兩個子領域的數(shù)據(jù)集不變,另一個領域的數(shù)據(jù)集數(shù)據(jù)比例設置為原數(shù)據(jù)集的1%、5%、10%、20%、30%、50%,用于驗證DM2Seq模型是否易于將擁有海量數(shù)據(jù)的領域訓練出來的模型移植到一個全新的或者數(shù)據(jù)較少的領域之中。根據(jù)圖6展示的GLMP和DM2Seq模型的對比結果可以得出:

    a)DM2Seq模型在數(shù)據(jù)量較少的領域比GLMP模型表現(xiàn)出更好的性能,只有1%原始數(shù)據(jù)的時候,DM2Seq模型比GLMP平均高出19.3%,DM2Seq模型顯著高于GLMP模型。

    b)DM2Seq模型只需要20%的原始數(shù)據(jù)就比GLMP模型需要50%原始數(shù)據(jù)展現(xiàn)出更加優(yōu)異的性能,能夠更有效地學習不同領域之間的特征信息。

    這表明,DM2Seq模型能夠有效地將模型移植到數(shù)據(jù)量較少的領域,提高了模型的通用性和普適性。

    上述消融實驗證明DM2Seq模型所提出的動態(tài)編碼器模塊、增強解碼器模塊、雙層記憶網(wǎng)絡模塊、知識行以及束搜索對模型的提升都具有不同程度的有效性。

    3.6 對話展示

    表7展示了在InCar數(shù)據(jù)集上DM2Seq、DF-Net模型和數(shù)據(jù)集真實回復的對話樣例。

    在第一輪對話中,用戶提問“can you find me a Chinese_restaurant that is within 5_miles”,DF-Net模型采用三元組表示知識庫信息就定位錯了實體“jing_jing”和“6_miles”,造成了錯誤的系統(tǒng)回復,而DM2Seq模型提出采用知識行代替三元組的形式,準確定位了真實的實體“chef_chu_s”和“5_miles”,并且DM2Seq模型生成的系統(tǒng)回復更加貼近真實回復。在第二和第三輪對話中,雖然DF-Net和DM2Seq模型都精準定位到了知識庫信息,但是DM2Seq模型生成的回復更加貼合真實回復。

    4 結束語

    本文主要介紹了基于雙層記憶網(wǎng)絡的多領域端到端任務型對話系統(tǒng)的研究和實現(xiàn)。首先,介紹了基于記憶網(wǎng)絡的端到端任務型對話系統(tǒng)方法存在的一些不足和挑戰(zhàn),提出了解決方案(DM2Seq模型),并且詳細闡述了DM2Seq模型的整體結構,主要包括動態(tài)編碼器模塊、雙層記憶網(wǎng)絡模塊、增強解碼器模塊、雙層記憶網(wǎng)絡指針等。此外,通過詳細介紹實驗設置、結果分析、消融實驗等,與多個主流的端到端的任務型對話系統(tǒng)方法進行比對。實驗表明,DM2Seq模型在知識信息提取和語言建模能力等方面都有不錯的提升。

    盡管本文模型在一定程度上解決了現(xiàn)有方法的不足與缺點,但是仍然存在許多問題需要在未來的工作中繼續(xù)探索和研究??梢詮南旅鎺讉€方向展開后續(xù)的探索和研究:

    a)本文模型都是在英文公開數(shù)據(jù)集上進行研究和實驗的,沒有應用于中文領域,所以在將來的工作中可以將模型應用到中文數(shù)據(jù)集上進行研究和實驗,提高模型處理各種自然語言的能力。

    b)本文模型只針對了任務型的對話進行實驗和分析,但是這并不能完全適應現(xiàn)實世界,有時候往往也需要處理開放域的對話,所以探索和研究一個兼顧任務型對話和開放域對話的方法是十分必要的。

    參考文獻:

    [1]Zhou Li, Gao Jianfeng, Li Di, et al. The design and implementation of Xiaoice, an empathetic social chatbot[J].Computational Linguistics,2020,46(1):53-93.

    [2]Sigtia S, Marchi E, Kajarekar S, et al. Multi-task learning for spea-ker verification and voice trigger detection[C]//Proc of IEEE International Conference on Acoustics, Speech and Signal Processing.Piscataway,NJ:IEEE Press,2020:6844-6848.

    [3]陳東升.百度AI黑科技小度在家智能音箱[J].計算機與網(wǎng)絡,2018,44(22):22-24.(Chen Dongsheng. Baidu AI black technology Xiaodu smart speaker at home[J].Computer & Network,2018,44(22):22-24.)

    [4]趙陽洋,王振宇,王佩,等.任務型對話系統(tǒng)研究綜述[J].計算機學報,2020,43(10):1862-1896.(Zhao Yangyang, Wang Zhenyu, Wang Pei, et al. A survey on task-oriented dialogue systems[J].Chinese Journal of Computers,2020,43(10):1864-1896.)

    [5]曹亞如,張麗萍,趙樂樂.多輪任務型對話系統(tǒng)研究進展[J].計算機應用研究,2022,39(2):331-341.(Cao Yaru, Zhang Liping, Zhao Lele. Research progress of multi-turn task-oriented dialogue system[J].Application Research of Computers,2022,39(2):331-341.)

    [6]Sutskever I, Vinyals O, Le Q V. Sequence to sequence learning with neural networks[C]//Proc of Annual Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2014:3104-3112.

    [7]Zhou Shiyu, Dong Linhao, Xu Shuang, et al. Syllable-based sequence-to-sequence speech recognition with the transformer in Mandarin Chinese[EB/OL].(2018-04-28)[2023-03-15].https://arxiv.org/abs/1804.107 52.

    [8]Wang Wenxuan, Jiao Wenxiang, Hao Yongchang, et al. Understan-ding and improving sequence-to-sequence pretraining for neural machine translation[EB/OL].(2022-03-16)[2023-03-15].https://arxiv.org/abs/2203.08442.

    [9]Weston J, Chopra S, Bordes A. Memory networks[EB/OL].(2015-10-15)[2023-03-15].https://arxiv.org/abs/1410.3916.

    [10]Sukhbaatar S, Weston J, Fergus R. End-to-end memory networks[C]//Proc of Annual Conference on Neural Information Processing Systems.Cambridge,MA:MIT Press,2015:2440-2448.

    [11]Dai Yinpei, Li Hangyu, Tang Chengguang, et al. Learning low-resource end-to-end goal-oriented dialog for fast and reliable system deployment[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics.2020:609-618.

    [12]Finn C, Abbeel P, Levine S. Model-agnostic meta-learning for fast adaptation of deep networks[C]//Proc of the 34th International Conference on Machine Learning.2017:1126-1135.

    [13]Madotto A, Wu C S, Fung P. mem2seq: effectively incorporating knowledge bases into end-to-end task-oriented dialog systems[C]//Proc of the 56th Annual Meeting of the Association for Computational Linguistics.2018:1468-1478.

    [14]Freitag M, Al-Onaizan Y. Beam search strategies for neural machine translation[EB/OL].(2017)[2023-03-15].https://arxiv.org/abs/1702.01806.

    [15]Guo Jiang, Shah D J, Barzilay R. Multi-source domain adaptation with mixture of experts[C]//Proc of Conference on Empirical Me-thods in Natural Language Processing.2018:4694-703.

    [16]Eric M, Krishnan L, Charette F, et al. Key-value retrieval networks for task-oriented dialogue[C]//Proc of the 18th Annual SIGdial Meeting on Discourse and Dialogue.2017:37-49.

    [17]Wen T H, Gasic M, Mrksic N, et al. Conditional generation and snapshot learning in neural dialogue systems[C]//Proc of the 2016 Conference on Empirical Methods in Natural Language Processing.2016:2153-2162.

    [18]Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate[C]//Proc of the 3rd International Conference on Learning Representations.2015.

    [19]Wu C S, Socher R, Xiong Caiming. Global-to-local memory pointer networks for task-oriented dialogue[C]//Proc of the 7th International Conference on Learning Representations.2018.

    [20]Qin Libo, Xu Xiao, Che Wanxiang, et al. Dynamic fusion network for multi-domain end-to-end task-oriented dialog[C]//Proc of the 58th Annual Meeting of the Association for Computational Linguistics.2020:6344-6354.

    [21]Qin Libo, Liu Yijia, Che Wanxiang, et al. Entity-consistent end-to-end task-oriented dialogue system with KB retriever[C]//Proc of the 9th International Joint Conference on Natural Language Processing.2019:133-142.

    收稿日期:2023-03-15;修回日期:2023-05-06

    基金項目:重慶市技術創(chuàng)新與應用發(fā)展專項重點項目(CSTB2022TIAD-KPX0141);重慶市科衛(wèi)聯(lián)合重點項目(2021ZY014004)

    作者簡介:方明弘(1997-),男,重慶人,碩士研究生,主要研究方向為自然語言處理;萬里(1981-),男(通信作者),重慶人,副教授,碩導,博士,主要研究方向為知識圖譜、對話系統(tǒng)、計算機視覺(wanli@cqu.edu.cn);戴凡杰(1998-),男,湖南人,碩士研究生,主要研究方向為計算機視覺.

    搡老熟女国产l中国老女人| 久久av网站| 曰老女人黄片| 色播在线永久视频| 午夜久久久在线观看| 日韩一卡2卡3卡4卡2021年| 一级片免费观看大全| 一个人免费在线观看的高清视频 | 五月天丁香电影| 午夜免费鲁丝| 黄片播放在线免费| 午夜成年电影在线免费观看| 99热国产这里只有精品6| 永久免费av网站大全| 高清视频免费观看一区二区| 亚洲少妇的诱惑av| 亚洲国产欧美日韩在线播放| 美女视频免费永久观看网站| 亚洲午夜精品一区,二区,三区| 91九色精品人成在线观看| 国产日韩一区二区三区精品不卡| 日本一区二区免费在线视频| 国产色视频综合| 叶爱在线成人免费视频播放| 一本一本久久a久久精品综合妖精| 精品一区二区三卡| 美女中出高潮动态图| 亚洲欧美色中文字幕在线| 亚洲国产欧美日韩在线播放| 亚洲精品国产区一区二| 久久人人爽人人片av| 日韩免费高清中文字幕av| 男女高潮啪啪啪动态图| 色婷婷av一区二区三区视频| 大香蕉久久成人网| 香蕉国产在线看| 亚洲精品自拍成人| 中亚洲国语对白在线视频| 亚洲国产精品一区二区三区在线| 黄色视频不卡| www.999成人在线观看| 欧美激情 高清一区二区三区| 一区二区日韩欧美中文字幕| 精品亚洲乱码少妇综合久久| 18禁观看日本| 伊人久久大香线蕉亚洲五| 涩涩av久久男人的天堂| 不卡一级毛片| 亚洲国产欧美日韩在线播放| 91字幕亚洲| 99久久人妻综合| 丝袜在线中文字幕| 欧美 日韩 精品 国产| 国产深夜福利视频在线观看| 97在线人人人人妻| 国产精品麻豆人妻色哟哟久久| 在线观看人妻少妇| 在线观看免费视频网站a站| 精品视频人人做人人爽| av视频免费观看在线观看| 欧美黑人欧美精品刺激| 亚洲av片天天在线观看| 大码成人一级视频| 欧美一级毛片孕妇| 免费久久久久久久精品成人欧美视频| av又黄又爽大尺度在线免费看| 日本猛色少妇xxxxx猛交久久| 青春草亚洲视频在线观看| 91老司机精品| 丁香六月欧美| 99九九在线精品视频| 天天躁日日躁夜夜躁夜夜| 99久久99久久久精品蜜桃| 两性午夜刺激爽爽歪歪视频在线观看 | 极品人妻少妇av视频| 两人在一起打扑克的视频| 各种免费的搞黄视频| 一级毛片电影观看| 丰满迷人的少妇在线观看| av国产精品久久久久影院| 亚洲国产欧美网| av在线播放精品| 99九九在线精品视频| 欧美日韩精品网址| 婷婷色av中文字幕| 午夜精品国产一区二区电影| 亚洲av成人不卡在线观看播放网 | 国产熟女午夜一区二区三区| 精品国产一区二区久久| 性少妇av在线| 大片电影免费在线观看免费| 搡老乐熟女国产| 国产成人精品久久二区二区免费| 欧美性长视频在线观看| 黄色视频在线播放观看不卡| 韩国高清视频一区二区三区| 丝袜美足系列| 天天躁日日躁夜夜躁夜夜| 亚洲午夜精品一区,二区,三区| 一边摸一边做爽爽视频免费| 精品少妇一区二区三区视频日本电影| 999久久久精品免费观看国产| 亚洲少妇的诱惑av| 久久亚洲精品不卡| 精品少妇黑人巨大在线播放| 99精国产麻豆久久婷婷| 老鸭窝网址在线观看| 国产av又大| 欧美日韩一级在线毛片| 老司机午夜福利在线观看视频 | 人成视频在线观看免费观看| 国产黄色免费在线视频| 99精品久久久久人妻精品| 爱豆传媒免费全集在线观看| 国产精品一区二区在线不卡| 看免费av毛片| 夜夜骑夜夜射夜夜干| 亚洲三区欧美一区| 久久久久久人人人人人| 天天躁狠狠躁夜夜躁狠狠躁| 欧美午夜高清在线| 女人久久www免费人成看片| 亚洲欧美一区二区三区黑人| 最新的欧美精品一区二区| 最黄视频免费看| 日韩中文字幕视频在线看片| 搡老乐熟女国产| 99九九在线精品视频| 又紧又爽又黄一区二区| 黄色 视频免费看| 巨乳人妻的诱惑在线观看| 在线精品无人区一区二区三| 亚洲人成77777在线视频| 最新的欧美精品一区二区| 99精品久久久久人妻精品| 精品国产一区二区久久| 欧美中文综合在线视频| 精品国产乱子伦一区二区三区 | 久久女婷五月综合色啪小说| 久久天躁狠狠躁夜夜2o2o| 精品国产一区二区久久| 一级毛片电影观看| 美女福利国产在线| 亚洲一区中文字幕在线| 妹子高潮喷水视频| 欧美av亚洲av综合av国产av| 日本精品一区二区三区蜜桃| 亚洲国产精品一区二区三区在线| 69精品国产乱码久久久| 自拍欧美九色日韩亚洲蝌蚪91| 色视频在线一区二区三区| 99久久99久久久精品蜜桃| 老熟妇乱子伦视频在线观看 | 久久女婷五月综合色啪小说| 如日韩欧美国产精品一区二区三区| 成人三级做爰电影| 久久精品国产综合久久久| av免费在线观看网站| 国产在线一区二区三区精| 人妻 亚洲 视频| 午夜福利在线免费观看网站| 美女主播在线视频| 国产精品国产三级国产专区5o| a级毛片黄视频| 亚洲精品成人av观看孕妇| 男女午夜视频在线观看| 蜜桃在线观看..| 99国产精品免费福利视频| 久久中文字幕一级| 日本av免费视频播放| 少妇的丰满在线观看| 国产日韩一区二区三区精品不卡| 中文字幕精品免费在线观看视频| 另类精品久久| 久久国产精品男人的天堂亚洲| 亚洲国产精品999| 欧美xxⅹ黑人| a在线观看视频网站| 国产一区二区在线观看av| 久久久久久久久免费视频了| 色老头精品视频在线观看| 国产精品影院久久| 人人妻人人爽人人添夜夜欢视频| 亚洲国产精品一区二区三区在线| 日本一区二区免费在线视频| 一级毛片电影观看| 午夜福利影视在线免费观看| 久久久久久久国产电影| 久久天堂一区二区三区四区| 亚洲国产精品一区二区三区在线| 热99re8久久精品国产| 欧美大码av| 精品福利观看| 无遮挡黄片免费观看| 99re6热这里在线精品视频| 久久人妻熟女aⅴ| 欧美日韩福利视频一区二区| 国产成人啪精品午夜网站| 亚洲成人手机| 韩国高清视频一区二区三区| 久久亚洲精品不卡| 俄罗斯特黄特色一大片| 超色免费av| e午夜精品久久久久久久| 女人精品久久久久毛片| 91老司机精品| 99国产精品一区二区三区| 曰老女人黄片| 亚洲欧美激情在线| av天堂在线播放| 亚洲av成人不卡在线观看播放网 | 欧美一级毛片孕妇| 在线观看免费高清a一片| 亚洲欧美精品综合一区二区三区| 91成人精品电影| 日本黄色日本黄色录像| a级毛片在线看网站| 最新在线观看一区二区三区| 日日夜夜操网爽| 亚洲中文字幕日韩| 成年动漫av网址| 国产免费福利视频在线观看| 亚洲国产av影院在线观看| 我的亚洲天堂| 日韩 亚洲 欧美在线| 精品一区二区三卡| 国产有黄有色有爽视频| 热99re8久久精品国产| 久久久久久久精品精品| 亚洲五月色婷婷综合| 日本91视频免费播放| 久久女婷五月综合色啪小说| 国产av又大| 国产高清国产精品国产三级| a级毛片黄视频| 国产在线观看jvid| 亚洲人成77777在线视频| 美女主播在线视频| 黑人欧美特级aaaaaa片| 亚洲五月色婷婷综合| 国产av一区二区精品久久| 亚洲精品中文字幕一二三四区 | 亚洲美女黄色视频免费看| 久久久久精品国产欧美久久久 | 日韩欧美一区视频在线观看| 国产av精品麻豆| 久久久精品国产亚洲av高清涩受| 久久午夜综合久久蜜桃| 在线 av 中文字幕| 99国产极品粉嫩在线观看| 欧美日韩中文字幕国产精品一区二区三区 | 亚洲精品自拍成人| 亚洲国产中文字幕在线视频| 久久精品国产综合久久久| 女人被躁到高潮嗷嗷叫费观| 十八禁网站免费在线| 欧美精品一区二区免费开放| 人人妻人人添人人爽欧美一区卜| 老熟妇乱子伦视频在线观看 | 免费观看人在逋| 久久这里只有精品19| 91精品国产国语对白视频| 飞空精品影院首页| 在线天堂中文资源库| 国产黄频视频在线观看| 亚洲精品国产色婷婷电影| 午夜激情av网站| 精品一品国产午夜福利视频| 人成视频在线观看免费观看| 欧美中文综合在线视频| 黄色视频在线播放观看不卡| 午夜影院在线不卡| 香蕉丝袜av| 首页视频小说图片口味搜索| 王馨瑶露胸无遮挡在线观看| 女人高潮潮喷娇喘18禁视频| 丝袜美腿诱惑在线| 97精品久久久久久久久久精品| 人人妻人人爽人人添夜夜欢视频| 麻豆乱淫一区二区| 亚洲成人免费电影在线观看| av国产精品久久久久影院| 老司机亚洲免费影院| 久热爱精品视频在线9| 老熟女久久久| 精品人妻在线不人妻| 黄色视频不卡| 一级片免费观看大全| 亚洲国产av影院在线观看| 久久久久精品国产欧美久久久 | 亚洲第一av免费看| 人人妻人人澡人人爽人人夜夜| 一级,二级,三级黄色视频| e午夜精品久久久久久久| xxxhd国产人妻xxx| 国产精品久久久久久精品电影小说| 婷婷色av中文字幕| 国产主播在线观看一区二区| 视频区欧美日本亚洲| 交换朋友夫妻互换小说| 菩萨蛮人人尽说江南好唐韦庄| 久久久久久久久免费视频了| 美女国产高潮福利片在线看| 成年av动漫网址| 亚洲av美国av| 最近最新免费中文字幕在线| 成人国语在线视频| xxxhd国产人妻xxx| 欧美日韩av久久| tube8黄色片| 欧美日韩中文字幕国产精品一区二区三区 | 美国免费a级毛片| 老熟妇仑乱视频hdxx| 亚洲,欧美精品.| 亚洲精品自拍成人| 一级片'在线观看视频| 老司机深夜福利视频在线观看 | 91国产中文字幕| 高清av免费在线| 欧美国产精品va在线观看不卡| 97在线人人人人妻| 日本黄色日本黄色录像| 亚洲精华国产精华精| 老司机午夜十八禁免费视频| 青春草亚洲视频在线观看| 日韩 亚洲 欧美在线| 欧美黑人精品巨大| 日韩欧美免费精品| 免费不卡黄色视频| 少妇猛男粗大的猛烈进出视频| 在线观看www视频免费| 国产欧美日韩一区二区三 | 久久久精品国产亚洲av高清涩受| 亚洲精品久久午夜乱码| 国产视频一区二区在线看| 亚洲国产看品久久| 99国产综合亚洲精品| 国产精品秋霞免费鲁丝片| 一级毛片女人18水好多| 丰满饥渴人妻一区二区三| 免费在线观看完整版高清| 美女大奶头黄色视频| svipshipincom国产片| 欧美精品亚洲一区二区| 97在线人人人人妻| 欧美+亚洲+日韩+国产| 国产精品.久久久| 久9热在线精品视频| 国产亚洲精品久久久久5区| 制服诱惑二区| √禁漫天堂资源中文www| 亚洲欧美激情在线| 日本91视频免费播放| 51午夜福利影视在线观看| 大型av网站在线播放| a级片在线免费高清观看视频| 成年美女黄网站色视频大全免费| 操美女的视频在线观看| 国产99久久九九免费精品| 国产一级毛片在线| 大香蕉久久网| 国产熟女午夜一区二区三区| 91老司机精品| 亚洲欧美精品综合一区二区三区| 老熟女久久久| 成人亚洲精品一区在线观看| 成人手机av| 国产人伦9x9x在线观看| 亚洲熟女毛片儿| 国产精品久久久人人做人人爽| 亚洲国产欧美一区二区综合| 亚洲avbb在线观看| 一本综合久久免费| 欧美精品高潮呻吟av久久| 性色av乱码一区二区三区2| 国产国语露脸激情在线看| 精品少妇内射三级| 欧美+亚洲+日韩+国产| 91成年电影在线观看| 久久久精品国产亚洲av高清涩受| 王馨瑶露胸无遮挡在线观看| 午夜免费成人在线视频| 美女高潮到喷水免费观看| 制服诱惑二区| 日本av手机在线免费观看| 亚洲三区欧美一区| 黄片小视频在线播放| 成年美女黄网站色视频大全免费| 亚洲欧洲日产国产| 亚洲午夜精品一区,二区,三区| 国产精品影院久久| 午夜福利在线免费观看网站| 国产av又大| 精品少妇久久久久久888优播| 亚洲中文字幕日韩| 在线精品无人区一区二区三| 中文欧美无线码| 黄片播放在线免费| 丰满饥渴人妻一区二区三| 捣出白浆h1v1| 麻豆国产av国片精品| 久久久久久久精品精品| 欧美激情久久久久久爽电影 | 深夜精品福利| 久久香蕉激情| 真人做人爱边吃奶动态| 黑人巨大精品欧美一区二区蜜桃| videosex国产| 国产精品亚洲av一区麻豆| 青春草亚洲视频在线观看| 侵犯人妻中文字幕一二三四区| 精品人妻在线不人妻| 免费看十八禁软件| 欧美少妇被猛烈插入视频| 一二三四在线观看免费中文在| 久久精品国产亚洲av香蕉五月 | 在线观看舔阴道视频| 精品国产一区二区三区四区第35| 久久久久久久久久久久大奶| 国产精品 欧美亚洲| 国产亚洲一区二区精品| 欧美激情极品国产一区二区三区| 精品国产乱码久久久久久小说| 国产一区二区 视频在线| 久热爱精品视频在线9| 午夜福利乱码中文字幕| 伊人亚洲综合成人网| 日本vs欧美在线观看视频| 两性午夜刺激爽爽歪歪视频在线观看 | 婷婷色av中文字幕| 色94色欧美一区二区| 夜夜夜夜夜久久久久| 日韩免费高清中文字幕av| 国产真人三级小视频在线观看| 日韩大码丰满熟妇| 一级毛片女人18水好多| 欧美在线黄色| 国产精品 国内视频| 国精品久久久久久国模美| 精品人妻1区二区| 日本a在线网址| 欧美国产精品一级二级三级| 不卡一级毛片| 精品久久久久久久毛片微露脸 | 亚洲 欧美一区二区三区| av线在线观看网站| 国产伦人伦偷精品视频| 亚洲国产欧美在线一区| 国产精品99久久99久久久不卡| 中文字幕人妻丝袜一区二区| 一级a爱视频在线免费观看| 夜夜夜夜夜久久久久| 激情视频va一区二区三区| 99精国产麻豆久久婷婷| 久久影院123| av线在线观看网站| 欧美精品一区二区免费开放| 色婷婷久久久亚洲欧美| 人人妻人人澡人人爽人人夜夜| 一级片'在线观看视频| 亚洲 国产 在线| 汤姆久久久久久久影院中文字幕| av不卡在线播放| 五月开心婷婷网| svipshipincom国产片| 人人妻,人人澡人人爽秒播| 18在线观看网站| 老司机影院成人| 精品国产一区二区三区久久久樱花| 一级毛片女人18水好多| 日韩欧美一区二区三区在线观看 | 一边摸一边抽搐一进一出视频| 黄色视频不卡| 9色porny在线观看| 精品国产一区二区三区四区第35| 精品一区二区三区四区五区乱码| 黄网站色视频无遮挡免费观看| 男女免费视频国产| av国产精品久久久久影院| 蜜桃在线观看..| 久久这里只有精品19| 亚洲国产欧美日韩在线播放| 久久久久久久久久久久大奶| 亚洲欧美清纯卡通| 亚洲精品粉嫩美女一区| 精品第一国产精品| 考比视频在线观看| 精品久久蜜臀av无| 国产在线一区二区三区精| 如日韩欧美国产精品一区二区三区| 亚洲精品第二区| 国产精品 国内视频| 老司机亚洲免费影院| 中文字幕人妻丝袜制服| 午夜日韩欧美国产| 19禁男女啪啪无遮挡网站| 91大片在线观看| 欧美日韩亚洲高清精品| 国产精品偷伦视频观看了| 午夜激情av网站| 大型av网站在线播放| 一区二区三区乱码不卡18| 精品人妻熟女毛片av久久网站| 国产成人啪精品午夜网站| 欧美97在线视频| 各种免费的搞黄视频| 午夜免费成人在线视频| 亚洲人成电影免费在线| 性色av一级| 又大又爽又粗| 一级黄色大片毛片| 国产免费福利视频在线观看| 一本久久精品| 俄罗斯特黄特色一大片| 91老司机精品| 久久中文看片网| 精品第一国产精品| 在线永久观看黄色视频| 亚洲国产中文字幕在线视频| 国产又爽黄色视频| 亚洲免费av在线视频| 成人国产一区最新在线观看| 最黄视频免费看| 亚洲欧美日韩另类电影网站| 最新的欧美精品一区二区| 亚洲欧美精品综合一区二区三区| 伊人亚洲综合成人网| 丝袜脚勾引网站| 交换朋友夫妻互换小说| 成年人午夜在线观看视频| 99精国产麻豆久久婷婷| 女人爽到高潮嗷嗷叫在线视频| 国产精品av久久久久免费| 人妻人人澡人人爽人人| 成在线人永久免费视频| 中文字幕高清在线视频| 91成年电影在线观看| 精品少妇内射三级| 成人免费观看视频高清| 中文字幕av电影在线播放| 国产欧美亚洲国产| 午夜激情久久久久久久| 女人高潮潮喷娇喘18禁视频| 国产成人一区二区三区免费视频网站| 黄网站色视频无遮挡免费观看| 久久天躁狠狠躁夜夜2o2o| 老司机在亚洲福利影院| 国产成人精品无人区| 五月天丁香电影| 男女之事视频高清在线观看| 黑人操中国人逼视频| 国产免费现黄频在线看| 丁香六月欧美| 久久久国产精品麻豆| 国产片内射在线| 1024香蕉在线观看| 国产日韩一区二区三区精品不卡| h视频一区二区三区| 国产黄色免费在线视频| 欧美日韩av久久| 国产精品久久久久久人妻精品电影 | 欧美日韩视频精品一区| 999精品在线视频| 国产欧美日韩一区二区精品| 婷婷成人精品国产| 三级毛片av免费| 女人高潮潮喷娇喘18禁视频| 国产97色在线日韩免费| 国产日韩欧美在线精品| 婷婷丁香在线五月| 日韩电影二区| 欧美国产精品一级二级三级| kizo精华| 亚洲欧美日韩高清在线视频 | 涩涩av久久男人的天堂| 久久久精品国产亚洲av高清涩受| 亚洲精品国产av蜜桃| 少妇人妻久久综合中文| 久久久国产欧美日韩av| 成人国语在线视频| 欧美av亚洲av综合av国产av| 亚洲第一欧美日韩一区二区三区 | 女性被躁到高潮视频| 国产成人精品久久二区二区91| 老司机亚洲免费影院| 最近最新免费中文字幕在线| 亚洲精品在线美女| 国产成人av教育| 97在线人人人人妻| 777米奇影视久久| 久久精品熟女亚洲av麻豆精品| 搡老乐熟女国产| 国产欧美日韩精品亚洲av| 国产男人的电影天堂91| 国产精品一区二区精品视频观看| 18在线观看网站| 亚洲国产成人一精品久久久| 亚洲欧美成人综合另类久久久| 一个人免费看片子| 高清在线国产一区| 啦啦啦 在线观看视频| 美女福利国产在线| 国产精品一区二区在线观看99| 亚洲av片天天在线观看| 国产精品.久久久| 中文字幕av电影在线播放| 国产精品自产拍在线观看55亚洲 | 男女边摸边吃奶| 亚洲中文字幕日韩| 一区在线观看完整版| 飞空精品影院首页| 在线观看免费午夜福利视频| 精品人妻一区二区三区麻豆| 成年女人毛片免费观看观看9 | 最黄视频免费看|