李 翔,劉承偉,朱曉旭
(蘇州大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇 蘇州 215006)
反問句作為漢語一種極具表現(xiàn)力的表達(dá)方式,具有巨大的藝術(shù)表現(xiàn)張力和極其靈活的表現(xiàn)形式。反問句通常以疑問的形式表達(dá)肯定或否定的情感,在現(xiàn)代漢語中常常作為一種修辭方式。人們表達(dá)情感時(shí)通過使用反問句來加強(qiáng)語氣的渲染和強(qiáng)調(diào),從而表達(dá)出強(qiáng)度更大、更為具體的情感。李翔[1]等人利用面向新聞評論的漢語反問句語料庫根據(jù)句子中是否含有反問標(biāo)記[2]將反問句分為顯式反問句和隱式反問句。在例1中,“難道”一詞屬于較為典型的反問標(biāo)記,它的出現(xiàn)增加了整個(gè)句子的反詰度,可以很容易地識別出例1為反問句。例2中并沒有可以作為判斷依據(jù)的反問標(biāo)記,其利用三個(gè)疑問句表達(dá)說話人內(nèi)心對國家隊(duì)的失望,屬于“無疑而問”的反問句。
例1: 我不是足球迷,也沒看比賽(沒心情看),為什么韓國人就行?難道韓國就不是黃種人?
例2: 就這水平還叫國家隊(duì)?國家隊(duì)就踢成這樣?你們臉呢?!
反問句中反問標(biāo)記的作用在于其能夠影響周圍詞語甚至整個(gè)句子的反詰度,因此,語言學(xué)研究者們在研究反問句時(shí)多是以顯式反問句為主,從顯式詞語、特有句式結(jié)構(gòu)等角度入手,總結(jié)了許多具有代表性的反問句標(biāo)記[2-4]。與顯式反問句相比,隱式反問句的研究還處于探索階段。一方面,隱式反問句在句法結(jié)構(gòu)上與一般疑問句沒有明顯區(qū)別,可供研究者研究的語言特征較少,另一方面,隱式反問句由于不含反問標(biāo)記,在表達(dá)上更為復(fù)雜,對其進(jìn)行判斷時(shí)需要借助相關(guān)的語用推理、上下文信息等,這也就導(dǎo)致隱式反問句的語料十分匱乏。
反問句往往可以表達(dá)出更細(xì)粒度的情感,對其進(jìn)行正確的識別,可以改善情感分析的結(jié)果。同樣,情感分析也可以促進(jìn)反問句的識別,特別是對于缺乏明顯特征的隱式反問句。例如,例2在句式上雖與疑問句并無不同,但通過上下文可以知道說話人是以疑問句的形式表達(dá)負(fù)面情感,其目的并不是提問,因此例2是無須回答的反問句。
針對隱式反問句識別研究所面臨的挑戰(zhàn),本文首先擴(kuò)充了隱式反問句的語料,接著提出了融合情感分析的隱式反問句識別模型(Implicit Rhetorical Question Recognition Model Combined with Sentiment Analysis, IRQR)。IRQR模型首先利用疑問詞、副詞、語氣詞等可以成為表達(dá)強(qiáng)烈反詰語氣載體的特點(diǎn)引入詞性特征以豐富句子的語義信息,并捕捉句子內(nèi)部的情感變化以確定不同上下文信息的權(quán)重,再輔以情感分析技術(shù)識別隱式反問句,最后引入標(biāo)簽正則化與稀疏正則化,進(jìn)一步提高模型性能。本文的貢獻(xiàn)總結(jié)如下:
(1) 利用李翔等人[1]提出的半自動反問句語料收集方法擴(kuò)充漢語反問句語料庫,語料庫規(guī)模達(dá)到10 000余句,其中隱式反問句5 556句(1)https://github.com/li-xiang1116/IRQR;
(2) 本文提出融合情感分析的隱式反問句識別模型IRQR。該模型深度挖掘了句子的語義信息、情感信息以及上下文信息,并利用這些信息對隱式反問句進(jìn)行識別;
(3) 借助漢語反問句語料庫進(jìn)行了大量實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果證明了IRQR模型在識別隱式反問句中的有效性。
本文組織結(jié)構(gòu)如下: 第1節(jié)介紹關(guān)于反問句研究的相關(guān)工作;第2節(jié)詳細(xì)闡述融合情感分析的隱式反問句識別模型;第3節(jié)介紹反問句識別實(shí)驗(yàn);第4節(jié)為總結(jié)并展望未來工作。
在語言學(xué)領(lǐng)域,語言學(xué)家們分別從不同的角度對反問句進(jìn)行了研究。劉欽榮[5]認(rèn)為在深層語義結(jié)構(gòu)中,由于反問句中不存在未知的語義成分,反問句不表達(dá)疑問而表達(dá)判斷。朱俊雄[6]根據(jù)反問句的否定指向,討論了構(gòu)成反問句的是非問、特指問和選擇問三種疑問句形式。從反問句的交際作用角度出發(fā),劉松江[7]認(rèn)為反問句帶有十分濃厚的感情色彩,說話人通過使用反問句來宣泄自己的情感。殷樹林[3]探究了反問句與疑問句在句法結(jié)構(gòu)上的異同,總結(jié)了17類反問句特有的句法結(jié)構(gòu)。王敏[8]從語用學(xué)角度出發(fā),提出了分辨一句話是否為反問句的關(guān)鍵是語境的觀點(diǎn)。于天昱[4]考察了反問句在對話中的位置和結(jié)構(gòu),認(rèn)為反問句在使用上較為靈活,而且多數(shù)反問句的出現(xiàn)都伴隨著用于表達(dá)情緒的語氣詞出現(xiàn)。相比之下,陳海慶等人[9]的研究更具針對性,其從多模態(tài)的角度分析庭審語境下反問句的語用功能,并對庭審中常用的反問句進(jìn)行歸納和總結(jié)。
在反問句識別算法方面,無論是在英文領(lǐng)域還是在中文領(lǐng)域,反問句識別的相關(guān)研究都還比較少。在英文領(lǐng)域,Bhattasali等人[10]將N-gram語言模型和上下文信息作為反問句特征,利用SVM和貝葉斯分類器進(jìn)行反問句識別,實(shí)驗(yàn)結(jié)果顯示,SVM分類器的效果最優(yōu),F1值提升10%,達(dá)到了53.71%。Ranganath等人[11]利用語言學(xué)特性為用戶動機(jī)進(jìn)行建模,挖掘用戶所表達(dá)的隱式信息,識別社交媒體中的反問,并使用Twitter上發(fā)布的推文評估模型。Oraby等人[12]則在前人工作的基礎(chǔ)上,構(gòu)建了一個(gè)基于Debate Forums和Twitter的英文反問句數(shù)據(jù)集,并利用SVM進(jìn)行反問句識別實(shí)驗(yàn),F1值達(dá)到了76%。同時(shí),Oraby等人[12]還對反問句的用途(諷刺與非諷刺)進(jìn)行研究,將反問特征與上下文特征作為SVM的輸入特征,對反問句的用途進(jìn)行分類,在Twitter數(shù)據(jù)集上達(dá)到了83%的F1值。
在中文領(lǐng)域,文治等人[13]將反問標(biāo)記作為識別反問句的重要特征,設(shè)計(jì)了一種融合句式結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)反問句識別方法,該方法的F1值為86.7%。李旸等人[14]則在文治等人[13]研究的基礎(chǔ)上,提出了基于注意力機(jī)制Bi-LSTM的反問句語言特征自動抽取模型AutoF,同時(shí)設(shè)計(jì)了一種基于語言特征自動獲取的反問句識別方法,達(dá)到90.7%的精確率。李翔等人[1]利用半監(jiān)督學(xué)習(xí)和主動學(xué)習(xí),提出半自動的反問句語料收集方法,構(gòu)建了面向新聞評論的漢語反問句語料庫,并在反問句識別實(shí)驗(yàn)中引入了位置特征與句法路徑特征,取得了92.15%的F1值。本文的工作則主要是針對隱式反問句,以填補(bǔ)這一方面研究的空白。在前人工作的基礎(chǔ)上,本文進(jìn)一步擴(kuò)充了隱式反問句語料,將句子的詞性特征、情感變化特征、上下文特征進(jìn)行融合以強(qiáng)化句子的語言特征表示,同時(shí)以情感分析任務(wù)作為輔助任務(wù),利用GRU(Gated Recurrent Unit, GRU)[15]神經(jīng)網(wǎng)絡(luò)模型對隱式反問句進(jìn)行識別。
本文提出了一種融合情感分析的隱式反問句識別模型IRQR,模型的總體架構(gòu)如圖1所示。IRQR模型主要包含以下幾層。
圖1 模型結(jié)構(gòu)圖
(1)語義特征層(Semantic layer)該層將句子S中每個(gè)詞語{w1,w2,…,wn}的詞性{pos1,pos2,…,posn}作為衡量詞語在句子中權(quán)重的標(biāo)準(zhǔn),利用注意力機(jī)制更準(zhǔn)確地獲取句子的語義特征。
(2)情感分析層(Sentiment layer)在反問句中,意圖表達(dá)的情感與其字面意思相反。語料中反問句多表達(dá)負(fù)面情緒,非反問句則以中性情感為主,因此模型中引入情感分析任務(wù)來輔助反問句識別任務(wù)。在這一層中,本文利用情感詞典(2)http://114.215.64.60: 8094/site2/index.php/zh抽取到的情感詞{Senw1,Senw2,…,Senwk}作為主要的輸入特征。
(3)上下文特征層(Context layer)為最大限度獲得數(shù)據(jù)的上下文信息,本文先對語料進(jìn)行分句得到{Context1,Context2,…,Contextm},考慮到不同上下文信息對反問句的判斷的作用不同,模型對每個(gè)Context所引起的情感變化進(jìn)行捕捉,并利用情感變化的程度體現(xiàn)各Context的貢獻(xiàn)。
(4)正則化層(Regularization layer)本文引入標(biāo)簽正則化與稀疏規(guī)則化來約束注意權(quán)重分配,以幫助學(xué)習(xí)更好的句子表示形式。下面將針對模型進(jìn)行詳細(xì)說明。
由于GRU網(wǎng)絡(luò)可以捕獲遠(yuǎn)間隔依賴關(guān)系的特性,本文將其作為本層的編碼器。首先,將句子S={w1,w2,…,wn}以及詞性Pos={pos1,pos2,…,posn}經(jīng)過嵌入層(Embedding layer)之后分別輸入到GRU網(wǎng)絡(luò)中,得到句子S、詞性Pos的隱藏層表示hw={hw1,hw2,…,hwn},hp={hp1,hp2,…,hpn},詞向量維度設(shè)置為d0,隱藏單元維度設(shè)置為d1,hw∈Rn×d1,hp∈Rn×d1。
(1)
(4)
與其他句型不同,反問句作為表達(dá)情感的載體,往往能夠表達(dá)出更為具體、強(qiáng)烈的情感,不同句子所表達(dá)的情感與其使用的句型有一定的聯(lián)系。反問句表達(dá)的情感往往與其字面意思相反。語料中,反問句多表達(dá)負(fù)面情緒,非反問句則以中性情感為主。本文認(rèn)為,模型在學(xué)習(xí)過程中如能有效地識別句子所表達(dá)的情感,將有助于提升反問句識別的性能。因此,在這一層中,本文將情感分析作為模型學(xué)習(xí)的目標(biāo),得到的情感特征則為隱式反問句的識別提供情感信息。
首先,句子S經(jīng)過映射后獲得相應(yīng)的矩陣表示,接著將句子的矩陣表示輸入到GRU網(wǎng)絡(luò)中學(xué)習(xí)情感的句子表示hsen,具體計(jì)算可參考式(4)。值得注意的是,情感分析層的GRU網(wǎng)絡(luò)與語義特征層的GRU網(wǎng)絡(luò)并不共享隱藏單元。
在情感分析任務(wù)的研究過程中,研究者已經(jīng)證明文本中的情感詞能夠從某種程度上體現(xiàn)作者想要表達(dá)的情感,因此本文將情感詞作為主要的情感特征。根據(jù)卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)[16]網(wǎng)絡(luò)能夠有效捕捉局部特征的特點(diǎn),本文將抽取出的情感詞{Senw1,Senw2,…,Senwk}經(jīng)過映射后輸入到CNN網(wǎng)絡(luò)中,利用t個(gè)不同大小的卷積核對其進(jìn)行卷積,再經(jīng)過池化、激活、拼接等操作最終得到新的特征hw,如式(5)~式(7)所示。
最后,為加強(qiáng)這些情感詞對情感分析的影響,本文將情感的句子表示hsen與基于情感詞的情感特征hw相融合,得到新的情感特征Senf,計(jì)算如式(8)所示。
Senf=hsen+hw
(8)
隱式反問句的特點(diǎn)在于其沒有明顯的反問特征,識別的過程中高度依賴語境,因此模型要盡可能地獲取句子的上下文信息以幫助隱式反問句的識別。對于上下文文本{Context1,Context2,…,Contextm},模型首先借助GRU網(wǎng)絡(luò)獲得Contexti的句子表示hconi,計(jì)算方式可參考式(4)。反問句往往能夠帶來較為明顯的情感波動,如果模型能夠捕捉到上下文文本之間的情感變化就可以判斷出不同上下文對任務(wù)的重要性。首先,模型要獲得Contexti的情感極性,如式(9)所示。
psi=Softmax(Wcon*hconi+bcon)
(9)
其中,Wcon,bcon∈Rc×2d1,c為情感類別。對于Contexti與Contextj之間的情感變化,本文采用式(10)、式(11)計(jì)算。
Δi,ij=DKL(psi||psj)
(10)
(11)
其中,DKL表示對稱KL散度,p(l),q(l)為情感標(biāo)簽分布。
接著利用情感偏移Δi,ij來確定每個(gè)Context在文本中的權(quán)重,其注意力權(quán)重計(jì)算如式(12)所示。
αs=Softmax(tanh([Δ1,12,…,Δ1..m-1,1…m]))
(12)
得到Context的權(quán)重之后,根據(jù)式(13)計(jì)算最終的上下文特征。
Conf=∑αsihconi
(13)
Lin等人[17]在多方面情感分析任務(wù)中引入正則化限制模型中的注意力分布。類似地,本文在這一層將標(biāo)簽正則化和稀疏正則化分別作用于任務(wù)標(biāo)簽集的概率分布和上下文權(quán)重以提高模型的性能。
如果模型對某一樣本是否為隱式反問句的預(yù)測概率為58%,那么本文認(rèn)為模型的魯棒性較差,對該樣本并不是十分“確定”,模型仍然有可以學(xué)習(xí)的空間。本文在模型輸出端得到的任務(wù)標(biāo)簽集的概率分布p上引入標(biāo)簽正則化Rl來體現(xiàn)這種“不確定”,并將Rl定義如式(14)所示。
(14)
稀疏正則化Rs主要針對的是每個(gè)Context的注意力權(quán)重αs。每個(gè)Context對句子的作用不盡相同,如果能夠?qū)⒆⒁饬?quán)重的分布限制在更有意義的Context上,就可以獲得對任務(wù)更有意義的上下文信息,因此,要盡可能地使αs變得稀疏。稀疏正則化Rs在實(shí)現(xiàn)上與Rl類似,這里不再贅述。
隱式反問句預(yù)測將情感特征Senf以及上下文特征Conf拼接在一起,并進(jìn)行最大池化操作,再與語義特征Semf相融合,得到最終的句子表示,計(jì)算如式(15)~式(17)所示。
最后將H輸入Softmax中,判斷是否屬于隱式反問句。計(jì)算如式(18)所示,其中,Wrq∈Rl×2d1,brq∈Rl。
Yrq=Softmax(Wrq*H+brq)
(18)
情感分析預(yù)測將Senf輸入Softmax,判斷句子情感類別。計(jì)算如式(19)所示,其中,Wsa∈Rc×2d1,bsa∈Rc。
Ysa=Softmax(Wsa×Senf+bsa)
(19)
兩個(gè)任務(wù)在訓(xùn)練過程中均采用交叉熵?fù)p失函數(shù),隱式反問句識別任務(wù)的Loss記作Lrq,情感分析任務(wù)的Loss記作Lsa,模型整體Loss如式(20)所示。本文共同為兩個(gè)任務(wù)訓(xùn)練我們的模型,通過最小化損失函數(shù)來訓(xùn)練模型中的參數(shù)。
(20)
其中,λ表示用于調(diào)整從正則化損失到總損失影響的超參數(shù)。
本節(jié)首先介紹隱式反問句識別實(shí)驗(yàn)的數(shù)據(jù)來源,然后給出實(shí)驗(yàn)設(shè)置,其中包括衡量性能的指標(biāo)、使用工具、實(shí)驗(yàn)參數(shù)的設(shè)置等,接著介紹用于與本文提出的模型相對比的基準(zhǔn)系統(tǒng),最后給出模型在語料庫上的實(shí)驗(yàn)結(jié)果與分析。
本文實(shí)驗(yàn)數(shù)據(jù)采用李翔等人[1]構(gòu)建的面向新聞評論的漢語反問句語料庫,并在此基礎(chǔ)上,根據(jù)其提出的基于半監(jiān)督學(xué)習(xí)和主動學(xué)習(xí)的半自動反問句語料收集方法,利用新聞評論數(shù)據(jù)對語料庫進(jìn)行擴(kuò)充,最終獲得反問句10 500句,其中隱式反問句占比52.92%。語料庫相關(guān)數(shù)據(jù)統(tǒng)計(jì)如表1所示。
表1 語料庫相關(guān)數(shù)據(jù)統(tǒng)計(jì)
實(shí)驗(yàn)過程中,所有數(shù)據(jù)均經(jīng)過去噪、去重和分詞等預(yù)處理操作,使用HanLP(3)https://github.com/hankcs/HanLP對文本詞性進(jìn)行標(biāo)注,利用騰訊AI開放平臺(4)https://ai.qq.com/為文本標(biāo)注情感標(biāo)簽。本文將數(shù)據(jù)集的80%作為訓(xùn)練集,10%作為驗(yàn)證集,10%作為測試集,采用精確率(Precision)、召回率(Recall)和F1值(F1-measure)作為實(shí)驗(yàn)結(jié)果的評價(jià)指標(biāo),并且所有實(shí)驗(yàn)均進(jìn)行十倍交叉驗(yàn)證,取平均值作為實(shí)驗(yàn)結(jié)果。
為對比不同模型的隱式反問句識別性能,本文選取表2中的模型作為基準(zhǔn)系統(tǒng)并獲得實(shí)驗(yàn)結(jié)果。
表2 各個(gè)模型的實(shí)驗(yàn)性能比較 (單位: %)
(1)ATT_LSTM[18]: 通過詞向量表將句子轉(zhuǎn)換成相應(yīng)的矩陣表示,再輸入到Bi-LSTM[19]網(wǎng)絡(luò)中,然后利用注意力機(jī)制生成句子的加權(quán)表示,最后輸入到Softmax函數(shù)中進(jìn)行隱式反問句識別。
(2)GRU[15]: GRU是RNN網(wǎng)絡(luò)效果較好的一種變體,和LSTM[19]網(wǎng)絡(luò)一樣,也是為了解決長期記憶和反向傳播中的梯度等問題而提出來的,但GRU模型中只引入兩個(gè)門: 分別是更新門和重置門,因此其結(jié)構(gòu)比LSTM網(wǎng)絡(luò)更為簡單。
(3)Transformer[20]: Transformer摒棄了RNN的遞歸結(jié)構(gòu),采用自注意力(Self-Attention)機(jī)制,克服了RNN訓(xùn)練速度緩慢的缺點(diǎn),使得模型可以并行化訓(xùn)練,而且能夠擁有全局信息。模型超參數(shù)設(shè)置: 隱藏狀態(tài)維度為1 024,迭代次數(shù)為30,注意力頭為5,學(xué)習(xí)率為5e-4。
(4)SPD_GRU[1]: SPD_GRU利用反問句語料庫,以句子的語義特征作為基本特征,將位置特征、句法路徑特征與其相融合,共同作為句子表示,并輸入至神經(jīng)網(wǎng)絡(luò)模型進(jìn)行反問句識別。本文以GRU網(wǎng)絡(luò)為基礎(chǔ),將該方法應(yīng)用于單獨(dú)的隱式反問句識別。
(5)Sarcasm_Task[21]: Sarcasm_Task建立了情感分析任務(wù)與諷刺識別任務(wù)之間的關(guān)聯(lián)性,提出一種基于多任務(wù)學(xué)習(xí)的情感分析與諷刺識別模型。該模型中情感分析模塊與諷刺識別相互輔助,證明了基于多任務(wù)學(xué)習(xí)的方法明顯優(yōu)于獨(dú)立情感和諷刺分類器,同時(shí)證明了情感分析任務(wù)與諷刺識別任務(wù)是相關(guān)的。
(6)Sarcasm_BERT[22]: Sarcasm_BERT是一種新型的分層BERT[23]模型。模型首先從句子中提取局部特征,接著使用卷積模塊總結(jié)上下文中的所有句子。然后,將上下文傳遞給遞歸層,以從輸入中提取時(shí)間特征。最后對時(shí)間特征與輸入的句子表示進(jìn)行卷積,以檢測句子是否具有諷刺意味。
從表2可以看出,本文提出的IRQR模型在性能上都要優(yōu)于基準(zhǔn)模型。Sarcasm_BERT模型利用Bert模型強(qiáng)大的語義表示能力對句子進(jìn)行編碼,并利用卷積模塊、遞歸模塊提取句子特征,使得F1值達(dá)到了88.25%。與Sarcasm_BERT模型相比,IRQR模型則是針對隱式反問句特點(diǎn)搭建,取得了更好的效果,在精確率上提高了2.12%,召回率提高了1.17%,F1值提高了1.61%。
從實(shí)驗(yàn)結(jié)果上來看,只使用LSTM、GRU、Transformer網(wǎng)絡(luò)來對隱式反問句進(jìn)行識別并不能取得十分理想的效果,這是因?yàn)樯窠?jīng)網(wǎng)絡(luò)模型往往很難挖掘深層次的語言特征,對于像隱式反問句這種較為復(fù)雜的修辭手法,單一的神經(jīng)網(wǎng)絡(luò)模型只能學(xué)習(xí)簡單的句子表示,因此對于隱式反問句的識別仍然需要借助有效的語言特征。
SPD_GRU、Sarcasm_Task、IRQR模型均以GRU網(wǎng)絡(luò)為基礎(chǔ),但從F1值來看,Sarcasm_Task的實(shí)驗(yàn)性能較差,只達(dá)到了86.49。Sarcasm_Task模型與IRQR模型都利用情感分析任務(wù)輔助隱式反問句識別任務(wù),但Sarcasm_Task模型只能獲取句子的情感特征,忽略了上下文信息對隱式反問句識別的重要性。SPD_GRU模型通過句法路徑特征以及位置特征來獲取有效的上下文信息,但SPD_GRU模型在提取句法路徑特征與位置特征時(shí)以句子中動詞為核心,這樣就導(dǎo)致其獲取的上下文信息只圍繞核心動詞,無法獲得完整的語境。本文提出的模型則較為充分地利用了每一個(gè)Context的語義特征,并通過捕捉其情感變化確定其權(quán)重,這樣使得模型擁有了充分的上下文信息來識別隱式反問句。
為了研究模型中不同部分對實(shí)驗(yàn)結(jié)果的影響,本文對IRQR模型進(jìn)行了以下消融研究: ①IRQR-C: IRQR模型去掉上下文特征層; ②IRQR-S: IRQR模型去掉情感分析層; ③IRQR-R: IRQR模型去掉正則化層; ④IRQR-CS: 上下文特征層中不捕捉句子內(nèi)部情感變化而直接利用上下文特征; ⑤IRQR-CP: IRQR模型上下文特征層不捕捉句子內(nèi)部情感變化且語義特征層不引入詞性特征; ⑥IRQR-P: 語義特征層不引入詞性特征。消融實(shí)驗(yàn)結(jié)果如表3所示。
表3 IRQR模型消融實(shí)驗(yàn)結(jié)果
從消融實(shí)驗(yàn)的結(jié)果可以看出,即使IRQR模型去掉某一部分,其識別隱式反問句的結(jié)果也要優(yōu)于基準(zhǔn)系統(tǒng)中的Sarcasm_BERT模型,F1值的波動幅度小于1,這表明本文提出的IRQR模型具有較好的魯棒性。
當(dāng)IRQR模型去掉上下文特征層時(shí),即模型IRQR-C,實(shí)驗(yàn)效果下降最為明顯,精確率下降1.04%,召回率下降0.79%,F1值下降0.96%,充分說明上下文特征層的重要性,而如何提取上下文信息也是能否正確識別隱式反問句的關(guān)鍵。如果去掉模型的情感分析層,即不再使用情感分析任務(wù)輔助隱式反問句識別任務(wù),精確率下降顯著,這證明了情感分析任務(wù)與反問句識別任務(wù)之間的關(guān)聯(lián)性。利用反問句與非反問句表達(dá)不同情感這一點(diǎn),能夠?qū)ψR別隱式反問句起到促進(jìn)作用。正則化層對實(shí)驗(yàn)結(jié)果的影響主要體現(xiàn)在召回率上,去掉正則化層的IRQR,召回率下降0.75%。
如果保留上下文特征層但不捕捉句子內(nèi)部情感變化(IRQR-CS),實(shí)驗(yàn)結(jié)果與IRQR-C相比有所上升,但其精確率與IRQR模型相比仍下降0.22%,因此,捕捉句子內(nèi)部的情感變化可以獲取更有效的上下文特征。本文將詞性特征作為隱式反問句的語言特征,并用詞性特征來幫助模型獲取更深層次的語義特征,實(shí)驗(yàn)結(jié)果表明在不使用詞性特征的情況下,模型的性能有所下降。
為了研究IRQR模型的不足,本文選取3個(gè)錯(cuò)誤案例進(jìn)行分析。
例3: 球員是不是他選的?戰(zhàn)術(shù)是不是他定的?訓(xùn)練是不是他帶的?臨場是不是他指揮的?那輸球了不怪他?
例3是由連續(xù)的選擇問句構(gòu)成的反問句,形式上與一般疑問句相同,句子內(nèi)部沒有明顯情感變化。對于這樣的句子,模型很難為其調(diào)整上下文信息的注意力權(quán)重,也就無法將注意力集重到分句“那輸球了不怪他?”。
例4: 至少最后三個(gè)球都是門前有效解圍啊,前面國足明明還在戰(zhàn)斗,后面就有這些妖魔鬼怪在那里挖墻腳,真讓人寒心!此外,大家要明白,剪輯的鏡頭是可以有誘導(dǎo)性的。把失誤剪輯來毀人,把成功剪輯來推銷,當(dāng)大家沒有判斷力?
模型雖然對評論文本進(jìn)行分句處理以減少冗余的語境信息對任務(wù)的影響,但當(dāng)上下文信息過長而反問描述較為簡短時(shí),模型仍會忽略反問描述對句子的影響,造成誤判。此外,例3與例4都屬于事實(shí)型的文本描述,對于這一類反問句的識別往往需要一定的邏輯判斷,雖然已經(jīng)為模型提供了語義特征、情感特征以及上下文特征,但要想正確識別這類反問句,模型仍需要獲得關(guān)聯(lián)性較強(qiáng)的信息。
例5: 說的很對!從第一場就這樣認(rèn)為。其他多數(shù)人就像沒頭的蒼蠅,瞎踢,踢到哪里算哪里。可惜了蒿俊閔的努力!
模型利用詞性來確定每個(gè)詞語的注意力權(quán)重,然而由于詞語詞義的多樣性,模型對于不常出現(xiàn)的詞語詞義并不能很好地理解與學(xué)習(xí),只將注意力集中到了隱式反問句中經(jīng)常出現(xiàn)的詞語上,導(dǎo)致分類錯(cuò)誤。例5中的“哪里”雖然屬于疑問代詞,但并不表示疑問,而是泛指任何場所。
針對反問句研究的現(xiàn)狀,本文提出了隱式反問句識別任務(wù)。本文首先擴(kuò)充了面向新聞評論的漢語反問句語料庫,語料庫規(guī)模達(dá)到了10 000余句,接著本文提出了融合情感分析的隱式反問句識別模型IRQR。模型利用詞性特征豐富句子的語義信息,捕捉句子內(nèi)部的情感變化以確定不同上下文信息的權(quán)重,并借助情感分析任務(wù)識別隱式反問句,同時(shí)引入標(biāo)簽正則化與稀疏正則化增強(qiáng)模型魯棒性。實(shí)驗(yàn)結(jié)果表明,本文提出的IRQR模型在隱式反問句識別任務(wù)上取得了良好的性能。
在對模型進(jìn)行錯(cuò)誤分析時(shí),本文發(fā)現(xiàn)模型雖然可有效捕捉上下文信息,但對于需要借助邏輯事理進(jìn)行語用推理才能理解的上下文信息,模型仍無法有效地挖掘。未來的工作中,本文將針對發(fā)現(xiàn)的問題展開進(jìn)一步的研究。