李凱偉,馬 力,2
1.西北大學(xué) 網(wǎng)絡(luò)和數(shù)據(jù)中心,西安710127
2.西安郵電大學(xué) 計算機(jī)學(xué)院,西安710121
隨著人工智能與機(jī)器人領(lǐng)域的不斷發(fā)展[1-2],研究者在賦予聊天機(jī)器人“智商”的同時,也在繼續(xù)思考如何讓聊天機(jī)器人具備“情商”,讓大眾獲得更加美好的用戶體驗,情感作為人在理解和表達(dá)信息時的重要因素,準(zhǔn)確識別和理解文本中的情感,使機(jī)器具備感知和表達(dá)情感的能力有助于完成心靈安慰和日常閑聊等任務(wù)。而現(xiàn)有的很多研究努力在提高會話內(nèi)容質(zhì)量(例如相關(guān)性、多樣性)[3-4],但忽略了文本中情感因素的生成,多數(shù)關(guān)于情感對話的研究主要是面向任務(wù)的檢索式應(yīng)用程序,限制了域的適應(yīng)性以及模型的可伸縮性。造成這種現(xiàn)狀的原因是產(chǎn)生情感文本是非常有挑戰(zhàn)性的,首先,在大規(guī)模的語料庫中很難獲得高質(zhì)量的情感標(biāo)記數(shù)據(jù),情感標(biāo)注是一項相當(dāng)主觀的任務(wù)。其次,生成回復(fù)語句不僅需要考慮語法,還有情感的感知以及互動[5]。
在文獻(xiàn)[6]中,首次在大規(guī)模會話中引入情感因素,生成文本質(zhì)量得到一定提高,但忽略了回復(fù)反饋等信息,導(dǎo)致生成文本的情感強(qiáng)度不足。文獻(xiàn)[7]提出了情感文本生成框架Senti-GAN,所提出的模型可以生成多樣的和具有不同情感類別的文本。但結(jié)果發(fā)現(xiàn)導(dǎo)致經(jīng)常生成一些沒有意義、通用的安全回答而且回答的情感強(qiáng)度很弱,并不能很好地將情感融合到生成的回復(fù)當(dāng)中。
本文針對會話系統(tǒng)中情感回復(fù)的生成問題,提出了一種基于生成對抗網(wǎng)絡(luò)的情感回復(fù)生成模型,情感類別包含{憤怒,厭惡,快樂,喜歡,悲傷},將其作為條件輸入到生成回復(fù)中,判別結(jié)果作為獎勵值,引導(dǎo)生成回復(fù),增強(qiáng)語句的多樣性和情感豐富度。例如,在一個帖子“我昨天失業(yè)了”和一個指定的回復(fù)情感“悲傷”,用“聽到這個我很難過”來表達(dá)悲傷是合適的。結(jié)果顯示,本文生成的回復(fù)內(nèi)容相關(guān)性和情感豐富度更好。
目前,基于序列到序列的文本生成模型生成文本的質(zhì)量還遠(yuǎn)遠(yuǎn)沒有達(dá)到人們所預(yù)期的效果[8],越來越多的研究者開始嘗試將生成對抗網(wǎng)絡(luò)應(yīng)用到自然語言處理領(lǐng)域[9-10]。Li 等人[11]提出了基于強(qiáng)化學(xué)習(xí)的文本序列生成方法,模型使用策略梯度[12]的方法進(jìn)行訓(xùn)練,從信息量、相關(guān)性和易于理解三個方面定義了獎勵函數(shù)的公式,在相關(guān)數(shù)據(jù)集上效果很好。Zhang 等人[13]以LSTM作為GAN 的生成器(generator),用光滑近似的思路來逼近LSTM 的輸出,CNN 判別對話序列{X,Y}是由機(jī)器生成的還是從對話庫中采樣生成,并在預(yù)訓(xùn)練方面,利用原始的句子和該句子中交換兩個詞的位置后得到的新句子進(jìn)行判別訓(xùn)練。Yu 等人[14]在基于強(qiáng)化學(xué)習(xí)文本生成的基礎(chǔ)上,開創(chuàng)性地提出基于策略梯度更新的SeqGAN模型,直接將生成器作為強(qiáng)化學(xué)習(xí)中的隨機(jī)策略,通過策略梯度來更新生成器,并利用蒙特卡洛搜索對部分序列進(jìn)行采樣得到完整序列,用CNN網(wǎng)絡(luò)判別生成的序列,指導(dǎo)生成模型學(xué)習(xí)。Guo等人[15]針對SeqGAN不能生成可變長度的文本,提出了基于SeqGAN 的LeakGAN 模型,通過利用從判別器中泄露出的高維信息來更好地訓(xùn)練生成器,并且結(jié)合層次化強(qiáng)化學(xué)習(xí)解決了長文本生成問題。Fedus 等人[16]提出了MaskGAN 模型,將文本生成看做填充任務(wù)來進(jìn)行處理,依賴空缺部分周圍的上下文信息來進(jìn)行預(yù)測填充,連續(xù)填充任務(wù)不僅可以避免模式崩潰,并且有助于文本GAN 的訓(xùn)練穩(wěn)定性。
Mayer 等人[17]最先提出了情感智能的概念,認(rèn)為情感智能是人類智慧的一部分,在人機(jī)交互中,對于情感的檢測和合適回復(fù)可以豐富交流。如何正確連貫地表達(dá)情感,首先必須讓機(jī)器人能夠精準(zhǔn)識別情感[18]。目前,通過研究者的努力,情感分析任務(wù)已經(jīng)取得了巨大進(jìn)展,最先進(jìn)的情感分類器在斯坦福的樹圖資料庫數(shù)據(jù)集[19]上已經(jīng)達(dá)到了90%左右的準(zhǔn)確度。與文本情感分類任務(wù)相比,情感文本生成任務(wù)需要在識別情感的基礎(chǔ)上,自然連貫地表達(dá)情感[20-22]。Ghosh等人[23]提出了情感文本生成框架Affect-LM,能夠通過參數(shù)設(shè)計控制生成句子中情感內(nèi)容的程度,生成貼合實際的語句,但卻忽略了句法先驗知識。Peng等人[24]提出TE-ECG模型,采用兩種機(jī)制,使用一個潛在的Twitter Dirichlet 分配(LDA)模型獲取輸入序列的主題詞作為額外的先驗信息,確保輸入內(nèi)容和回復(fù)之間的一致性,再使用動態(tài)情感注意機(jī)制來自適應(yīng)地獲取與內(nèi)容相關(guān)的信息以及輸入文本和附加主題的情感信息產(chǎn)生豐富的情感反應(yīng),但仍然存在枯燥單一的回答。Huang等人[25]比較情感向量嵌入的位置對回復(fù)的影響,用情緒分類器來估計情緒對所產(chǎn)生反應(yīng)的準(zhǔn)確性。并設(shè)置閾值來強(qiáng)制更高的精度,在評估中選擇最可能的情感,但生成句子重復(fù)性高,缺乏多樣性。Xu 等人[26]提出了MTDA 框架,采用了一種基于多任務(wù)學(xué)習(xí)的編碼器將輸入語句分解為內(nèi)容層和情感層,解碼采用雙重注意機(jī)制,確保情緒反應(yīng)與輸入的內(nèi)容和情感相一致,但沒有平衡文本的邏輯性與情感細(xì)致性,仍有改進(jìn)空間。
上述的研究工作雖然在人機(jī)對話中融入情感信息,但取得的效果一般,生成的回復(fù)情感強(qiáng)度很低,內(nèi)容十分呆板。這是因為這些模型忽略了對話過程中一個重要因素——反饋。對話過程中通常需要考慮生成的回復(fù)能否表達(dá)觀點、與前文的消息相關(guān)程度以及是否符合基本語法。這些反饋是回復(fù)生成的重要信息,將其引入到回復(fù)生成模型的訓(xùn)練過程中,能夠引導(dǎo)模型產(chǎn)生有價值的回復(fù)。而本文針對上述問題,提出了相應(yīng)解決方案,第一,采用生成對抗網(wǎng)絡(luò)生成文本,為回復(fù)生成模型提供反饋,從而使其跳出“通用回復(fù)”的狀態(tài)并生成有信息量的回復(fù);第二,利用反饋,設(shè)置獎勵函數(shù),從內(nèi)容和情感方面綜合考慮,進(jìn)一步解決易產(chǎn)生“通用回復(fù)”的問題,加強(qiáng)生成回復(fù)的多樣性和情感豐富度。
本文應(yīng)用GAN 網(wǎng)絡(luò)機(jī)制實現(xiàn)對話生成,如圖1 所示,生成器被訓(xùn)練生成對話中的回復(fù),將判別器結(jié)果作為獎勵,反饋給生成器,指導(dǎo)回復(fù)生成。對于生成器:本文充分利用編解碼結(jié)構(gòu)來形成Seq2Seq模型,用于生成句子的回復(fù)。對于判別器:本文分為兩個部分,第一部分區(qū)分生成的回復(fù)是否屬于“通用回復(fù)”;第二部分,本文判別GAN生成的回復(fù)是否具有感情色彩以及生成語句的情感與指定的情感類別的一致性。
圖1 方法概述Fig.1 Overview of method
本文的生成器采用Encoder-Decoder框架的Seq2Seq序列模型,LSTM 作為編碼器和解碼器,首先將用戶輸入A={a1,a2,…,am}映射為向量X={x1,x2,…,xm},xi代表第i個詞的向量,每個時間步輸入xi到編碼器,編碼器將輸入序列轉(zhuǎn)換為隱藏表示h(h1,h2,…,hm)。對于LSTM網(wǎng)絡(luò),隱藏層的當(dāng)前時刻狀態(tài)確定隱藏層的最后一次狀態(tài)和輸入,即
直到最后一個輸入值為xm,編碼器才將由每個步驟的輸入形成的語義向量C輸出到解碼器,解碼器實際上是執(zhí)行編碼器的逆運算,使用語義向量C的輸入逐步對獲得的語義向量C進(jìn)行解碼,每個步驟都輸出向量yi和隱藏狀態(tài)zi,即
每個時間步的yi輸出形成一個序列Y(y1,y2,…,ym)。最后,將Y轉(zhuǎn)為單詞序列B(b1,b2,…,bm)輸出。解碼器中的條件概率可以定義為:
在本文的模型中,假設(shè)要生成的回復(fù)的情緒是人為指定的,因為情緒是高度主觀的,給定一個話題,可能會有多種情緒類別適合它的回復(fù),它取決于回復(fù)者的很多因素,但有些時候需要指定對話的情感,比如客服行業(yè)需要積極的對話情緒。對于每一個情感類別,都由一個實值的低維向量表示,每個情感類別都被初始化作為一個大小為6的獨熱向量,情感的嵌入大小分類向量在訓(xùn)練階段后設(shè)置為100。然后通過訓(xùn)練學(xué)習(xí)該情感類別的向量,回復(fù)生成中建模情緒的最直觀方法是將要生成的回復(fù)的情緒類別作為附加輸入,直接指導(dǎo)語境信息的選擇,即輸入為X={x1,x2,…,xm,e},e表示希望得到的回復(fù)句子的情感類別,目標(biāo)是最小化ln(P(Y|X,e))。解碼器中的條件概率可以更新為:
一般來說,判別器的目的是判別生成器生成的語句和由人類書寫的真實文本,即判別真假,并提供反饋,指導(dǎo)文本的生成,但這樣的判別顯然過于籠統(tǒng)。在本文中,使用雙鑒器別從內(nèi)容和情感兩個維度進(jìn)行判別,并反饋到生成器指導(dǎo)生成回復(fù)。
2.3.1 內(nèi)容判別器
CNN 最近在文本分類中顯示了巨大的有效性,并且本文對文本分類的判斷不需要使用字符間的高階依賴關(guān)系[27-28]。假設(shè)r為模型生成的回復(fù),文獻(xiàn)[14]提出的SeqGAN 模型,使用卷積神經(jīng)網(wǎng)絡(luò)作為內(nèi)容判別器,區(qū)分r是數(shù)據(jù)集的真實對話,還是由模型生成,為一個二分類模型。而在本文中則區(qū)分r是否屬于通用回復(fù)。
輸入一個序列X1:n=x1⊕x2⊕…⊕xn,x∈Rk表示一個長度為n的句子中,第i個詞語的k維詞向量,xi:j表示在長度為n的句子中,第[i,j]個詞語的詞向量的拼接,使用窗口大小為h的卷積核W∈Rh×k進(jìn)行卷積操作后,再使用激活函數(shù)激活得到相應(yīng)的特征ci,則卷積操作可以表示為:
經(jīng)過卷積運算之后,可以得到一個n-h+1 維的向量c,即c=[c1,c2,…,cn-h+1]。
池化層,通過對卷積層之后得到的句子局部特征矩陣C進(jìn)行下采樣,求得局部值的最優(yōu)解,如公式(6)所示:
最后將特征向量在全連接層進(jìn)行連接,輸出文本類別的概率。
2.3.2 情感判別器
對于情感判別器,旨在判別回復(fù)與預(yù)先要求的情感類別的一致性,側(cè)重于分析整條微博文本所表達(dá)的情緒。本文訓(xùn)練了幾種不同模型的情感分類器,如表1所示,CNN+BiGRU+Attention 分類準(zhǔn)確度在這幾種模型中表現(xiàn)最好。
表1 情感分類器Table 1 Emotion classifier
本文將CNN與RNN結(jié)合使用,對CNN提取的文本局部特征和BiGRU 提取的文本全局特征進(jìn)行特征融合,解決了CNN忽略上下文語義信息的弊端,又避免了RNN梯度消失和梯度爆炸問題,引入注意力機(jī)制,獲取文本中的重點特征,提高分類準(zhǔn)確度。
將CNN網(wǎng)絡(luò)池化后的Mi向量連接成向量Q:Q={M1,M2,…,Mn}作為BiGRU 網(wǎng)絡(luò)的輸入,通過BiGRU學(xué)習(xí)序列Q的特征表示H=[hf;hb],然后利用注意力機(jī)制對文本向量分配權(quán)重,如下:
生成注意力權(quán)重ut,ht是CNN-BiGRU 網(wǎng)絡(luò)輸出的隱藏狀態(tài)。
然后,將注意力權(quán)重概率化。
最后,將注意力權(quán)重給到對應(yīng)的隱層狀態(tài)語義編碼ht,經(jīng)過softmax得到分類結(jié)果。
但是,GAN網(wǎng)絡(luò)在用于對話生成時,生成模型的輸出是離散的,梯度更新從判別模型難以回傳到生成模型。例如,G網(wǎng)絡(luò)生成的圖片像素值為1.0,可以將錯誤希望像素值更新為1.001,但如果輸出是一個句子,例如“thank you!”,因為一個句子或字是一個實體,不能通過數(shù)值變化返回錯誤。本文借鑒提出的SeqGAN模型,認(rèn)為文本生成是一個順序決策過程,并通過強(qiáng)化學(xué)習(xí)優(yōu)化此過程,此外還添加了一個情感標(biāo)簽來表示本文想要的回復(fù),本文將使用它作為獎勵的一部分,以便情感的真實反應(yīng)可以更接近實際。
2.4.1 內(nèi)容相關(guān)性
聊天機(jī)器人的最終目標(biāo)是讓對話持續(xù)不斷地進(jìn)行下去,所以機(jī)器生成的話語是容易被理解的。設(shè)想如果在對話中一個人每次的回復(fù)都是“嗯嗯”“好的”等非常簡單的回復(fù),對方會很難就此做出回復(fù)。因此應(yīng)該避免聊天機(jī)器人生成此類回復(fù)。本文構(gòu)建了一系列包含這類話語的集合,包括收集能作為大部分用戶輸入的通用回復(fù),基本不提供有價值信息的回復(fù),如“我知道了”“我也這么認(rèn)為”,以及連續(xù)出現(xiàn)三次以上的詞與句子,這是因為在實驗中發(fā)現(xiàn)有時會生成連續(xù)重復(fù)的字詞,這些詞句不流暢且沒有信息量。使生成的回復(fù)避開這些低信息量的“通用回復(fù)”。公式為:
其中,S是沒有意義的回答集合,s是某一時刻對應(yīng)的生成回復(fù)響應(yīng),x為輸入。
2.4.2 情感一致性
情感相關(guān)度:為保證句子具有豐富的情感,本文引入了一種情感一致性的指標(biāo),對句子的情感一致性進(jìn)行評價,根據(jù)預(yù)測結(jié)果來考察回答是否符合預(yù)先要求的情感類別。本文使用CNN+BiGRU+Attention對生成的回復(fù)進(jìn)行情感分類,定義生成回復(fù)情感標(biāo)簽為yt,與制定情感類別一致的概率為yp。通過以下方法來計算回復(fù)y的情感一致性:
在本文中,獎勵權(quán)重設(shè)置為0.5,總的獎勵計算如下:
本文的實驗數(shù)據(jù)來自于NLPCC 2017 Shared Task 4—Emotional Conversation Generation 語料[29],這個數(shù)據(jù)集由微博帖子和回復(fù)構(gòu)成,共有1 119 207個回復(fù)對,每個post 和response 對都標(biāo)注有對應(yīng)于情感類別的情感標(biāo)簽(快樂,憤怒,悲傷,喜歡,厭惡,其他)。如表2所示。
表2 情感類別Table 2 Emotional categories
在預(yù)處理階段,本文通過去掉多余的標(biāo)點和粵語文本清理原始數(shù)據(jù)集,每個post 和response 的長度限制為25,以獲得更好的訓(xùn)練數(shù)據(jù),最終保留大約85%的原始訓(xùn)練數(shù)據(jù)。
本實驗的相關(guān)參數(shù)設(shè)置,詞匯量設(shè)置為40 000,字嵌入大小設(shè)置為100,隨機(jī)初始化模型的所有參數(shù),批處理大小設(shè)置為128,并使用Adam優(yōu)化器,初始學(xué)習(xí)率為0.001。
為了充分驗證模型的有效性、增強(qiáng)對比性,本文選擇使用被廣泛研究及應(yīng)用的深度學(xué)習(xí)算法,設(shè)置了以下對比實驗組:
文獻(xiàn)[1]提出的Seq2Seq 模型:Seq2Seq 方法使用編碼器和解碼器生成句子,已被認(rèn)為對話生成的基礎(chǔ)模型,本文將其與生成回復(fù)文本的多樣性進(jìn)行比較。
文獻(xiàn)[6]提出的ECM 模型:首次在大規(guī)模會話生成中引入情感信息,通過嵌入情感向量和內(nèi)外部記憶存儲機(jī)制,以產(chǎn)生情感回復(fù)。本文將其與回復(fù)的情感強(qiáng)度和情感準(zhǔn)確性進(jìn)行比較。
情感分類是具有主觀性的,而情感對話生成任務(wù)測評還需考慮具體對話語境,因此目前尚無統(tǒng)一的評價標(biāo)準(zhǔn)。本文采用兩種評價方式:自動評價和人工評價相結(jié)合的方式來驗證模型生成回復(fù)的效果。
3.3.1 自動評估指標(biāo)
本文旨在減少“通用回復(fù)問題”和提高情感豐富度,而評估“通用回復(fù)”的重要指標(biāo)是多樣性,以及評測回復(fù)的流暢性和回復(fù)情感類別的準(zhǔn)確性,具體評價指標(biāo)如下:
(1)使用困惑度(PPL),評估生成回復(fù)的流暢度,公式如下:
(2)多樣性(Novelty)體現(xiàn)回復(fù)的多樣性,因為PPL低的模型不一定是更好的,本文使用distinct unigrams(Dist-1)和bigrams(Dist-2)評估生成回復(fù)的信息豐富性和多樣性。具體是計算方式如下:
統(tǒng)計模型生成回復(fù)中不同的獨個單詞和雙單詞的數(shù)量,然后用這個數(shù)量除以獨個單詞和雙單詞的總數(shù),分別得到Dist-1 和Dist-2 的值,比值越高表明生成回復(fù)具有更多的內(nèi)容信息和更高的多樣性。
(3)生成文本的情感準(zhǔn)確性,通過CNN+BiGRU+Attention情感分類器來實現(xiàn)。
其中,Ntrues表示回復(fù)情感類別與指定情感類別一致的測試用例數(shù)量,Ntotal表示測試集的大小。
3.3.2 人工評價規(guī)則
在人工評測中,評測者根據(jù)評分規(guī)則對生成回復(fù)語句進(jìn)行評分。具體規(guī)則如表3所示。
表3 人工評價標(biāo)準(zhǔn)Table 3 Artificial evaluation criteria
3.4.1 自動評估
自動評估結(jié)果如表4所示,可以看出,Seq2Seq模型易生成“通用回復(fù)”,情感強(qiáng)度非常低,因為它對于不同的情緒類別只有相同的反應(yīng);ECM采用Beam Search算法一定程度上避免了安全、通用的回復(fù),使用單純的情感嵌入模型,回復(fù)中情感因素較弱;本文加入獎勵機(jī)制后,更有可能生成多樣的含有豐富信息量的語句,且情感更豐富。
表4 自動評估結(jié)果Table 4 Automatic evaluation results
3.4.2 人工評價
由于人工測評時間和人力成本比較高,本文在測試集上對指定生成的六種情感類別進(jìn)行隨機(jī)選擇,每種情感類別選擇100 條,共600 條。在對比實驗?zāi)P蜕铣槿⊥瑯拥臏y試語句對應(yīng)的回復(fù),選取五位微博經(jīng)驗豐富的社交達(dá)人,被要求按照評測標(biāo)準(zhǔn)測評語句的生成回復(fù),包括本文模型以及對比試驗?zāi)P蜕傻幕貜?fù)語句。
表5 展示了三種模型在不同情感類別上的內(nèi)容與情感的得分情況,因“其他”不包含具體情感類別,不對其進(jìn)行打分評價。從表中分析可以看出,在五種情感類別的回復(fù)中,相比于Seq2Seq 模型,本文模型加入情感約束后,在內(nèi)容和情感方面都有很大提高,平均得分上,內(nèi)容得分比Seq2Seq 高出0.35 分,情感得分比Seq2Seq高出0.12分。相比ECM模型,在情感得分上,本文提出的模型在“喜歡”以及“快樂”這兩種情感類別上表現(xiàn)得更好,在平均得分上,內(nèi)容得分比ECM 高出0.12 分,情感得分比ECM 高出0.03 分。同時可以看到,三個模型均在“厭惡”和“憤怒”情感類別中生成回復(fù)的情感得分較低,分析可能是因為這兩種情感類別的對話訓(xùn)練語料相對較少,導(dǎo)致生成句子的選擇忽略了“厭惡”和“憤怒”的約束和優(yōu)化回復(fù)的偏差??傮w上來看,相比兩個基線模型,本文提出的模型在五種情感類別的回復(fù)中,在內(nèi)容和情感兩個方面都有不錯的提升。
表5 人工評測結(jié)果Table 5 Manual evaluation results
3.4.3 案例研究
其次,在3.4.2 小節(jié)測試生成的600 條回復(fù)中,選取了5 個常見的通用回復(fù),比較了各模型出現(xiàn)的頻率,結(jié)果如表6所示。實驗表明,本文提出的方法可以顯著減少通用回復(fù)的頻率。
表6 通用回復(fù)的頻率Table 6 Frequency of general reply
為了進(jìn)一步分析模型生成回復(fù)的效果,表7給出了三種模型生成回復(fù)的實例。下劃線文字表示情感編輯優(yōu)化部分??梢钥吹剑琒eq2Seq模型傾向于生成很短和毫無意義的回答,回復(fù)更像是帖子而不是對話。與Seq2Seq模型相比,ECM模型增加了靜態(tài)的情感向量嵌入表示、動態(tài)的情感狀態(tài)記憶網(wǎng)絡(luò)和情感詞外部記憶,將當(dāng)前輸入通過編碼為隱向量,利用Attention機(jī)制選擇性加強(qiáng),得到語義向量C,解碼器將語義向量C,靜態(tài)情感向量和初始情感記憶向量作為輸入,計算下個單詞的生成概率與控制生成情感詞或通用詞的權(quán)重得到最終詞生成概率,最后輸出情感回復(fù)語句。
表7 三種模型產(chǎn)生的回復(fù)示例Table 7 Examples of responses generated by three models
然而,在生成的實例中可以看出,由ECM產(chǎn)生的大多數(shù)答復(fù)情感很弱甚至沒有,這是因為ECM 模型只引入情感嵌入向量來指導(dǎo)生成情感回復(fù)的模型,缺少詳細(xì)的情緒引導(dǎo)信息生成,導(dǎo)致模糊的情感回復(fù)。相反,本文的模型,經(jīng)過情感編輯的約束,將判別器的結(jié)果差異化,生成回復(fù)的信息量、多樣性和情感一致性等多個方面的反饋到生成器進(jìn)行優(yōu)化,避免“通用回復(fù)”,最大化情感相似度,使得生成的回復(fù)不僅豐富多樣,而且情感類別與指定情感類別相一致,情感強(qiáng)度更大。更進(jìn)一步,可以變換約束條件,如文本風(fēng)格,語句類型等,實現(xiàn)個性化生成。并且觀察輸入和回復(fù)之間的情感變化,注意到輸入與回復(fù)通常帶有相同的情感標(biāo)簽。例如,一個貼有“喜歡”標(biāo)簽的輸入很少會有“憤怒”的回復(fù),同時,每類情感與其余5 種基本情感狀態(tài)也存在一定的情感共鳴度,這是因為情感共鳴度不僅與情感相似性相關(guān),而且也受到情感互補(bǔ)性的影響;并在圖2可視化情感轉(zhuǎn)換信息的分布,可以看到關(guān)于對角線并不是完全對稱的,說明交互情感共鳴度存在方向性,比如,“喜歡”與“憤怒”的情感共鳴度與“憤怒”與“喜歡”的共鳴度并不相等,為未來研究自動選擇合適的情感類別生成回復(fù)做出了探索。
圖2 情感從輸入到回復(fù)的可視化Fig.2 Visualization of emotions from input to response
本文提出了EC-GAN 模型來模擬會話生成中的情感回復(fù),詳細(xì)展示了EC-GAN 如何生成帶情感的回復(fù),加強(qiáng)內(nèi)容質(zhì)量和情感相關(guān)性,驗證交互情感共鳴度存在方向性,為自動決定回復(fù)情感類別做出了探索。實驗結(jié)果表明,本文的模型不僅在內(nèi)容上可以產(chǎn)生適當(dāng)?shù)幕卮?,而且在情感方面更加突出?/p>
在本文未來的工作中,將探索引入其他知識(如音調(diào)、文本風(fēng)格和語句類型等),增強(qiáng)模型的靈活性和定制個性化,滿足實際生活中的需要。然而,這可能具有一定的挑戰(zhàn),因為會涉及用戶的性格和上下文歷史。