DOI:10.3969/j.issn.10001565.2025.02.012
摘" 要:首先,經過Glove詞嵌入和雙向長短時記憶網絡獲取評論數(shù)據(jù)中文本詞語的向量表示.然后,基于詞語的句法信息、語義信息和上下文信息,構建異質融合圖,并結合圖注意力機制,學習評論中的文本特征,進而通過多層感知機融合基于自編碼方法獲取的表情符號特征,并輸出關于虛假信息評論內容的情感極性向量.實驗結果表明,與所有的基線模型相比,使用本文所提出的多模態(tài)情感分析模型能夠充分挖掘社交網絡用戶表達觀點和感情時表情符號與文本之間的潛在交互性,從而更為有效地評估虛假信息評論內容的情感傾向性,表征網絡用戶的情感態(tài)度或屬性,進而為提出面向情感分析結果的社交網絡虛假傳播抑制策略提供用戶情感分類方面的理論支撐.
關鍵詞: 圖神經網絡;自編碼器;虛假信息;在線評論;情感傾向
中圖分類號:O29""" 文獻標志碼:A""" 文章編號:10001565(2025)02021609
Multimodal online comment sentiment analysis for disinformation
ZHANG Guofang1,YUAN Guoqiang2,ZHAO Shengli3
(1. School of Cyber Security and Computer, Hebei University, Baoding 071002, China;
2. School of Big Data Science, Hebei Finance University, Baoding 071051, China;
3. College of Civil Engineering and Architecture,Hebei Univerisity,Baoding 071002,China)
Abstract: In this paper, firstly,the vector representations of text words in comment data are obtained by using Glove word embedding and bidirectional long short-term memory networks. Then, the syntactic information, semantic information, and contextual information of the words are used to construct a heterogeneous fusion graph and combined with graph attention mechanism to learn the text features in the comments. Furthermore, the expression symbol features obtained on the basis of the auto-encoder method are fused through a multi-layer perceptron, and an emotional polarity vector about the disinformation comment content is output. The research results indicate that compared with all baseline models, the multimodal sentiment analysis model proposed in this paper can fully explore the potential interaction between emoticon and text when social network users express their opinions and emotions. This can more effectively evaluate the emotional tendency of disinformation comments, characterize the emotional attitudes or attributes of network users, and achieve effective classification of user emotions. Furthermore, the proposed model provides theoretical support for proposing strategies to suppress 1 propagation in social networks based on sentiment analysis results, in terms of user sentiment classification.
Key words: graph neural network; auto-encoder; disinformation; online comments; sentiment inclination
收稿日期:20240701;修回日期:20241112
基金項目:
河北省社科基金資助項目(HB23TQ004)
第一作者:張國防(1979—),男,河北大學副教授,博士,主要從事不確定信息處理、社交網絡分析、輿情分析方向研究.E-mail:zgf@hbu.edu.cn
通信作者:袁國強(1978—),男,河北金融學院教授,博士,主要從事模糊優(yōu)化、信息傳播方向研究.E-mail:75043480@qq.com
虛假信息是一種可證實為錯誤的不良信息,其廣泛傳播將會給個人甚至整個社會帶來很深的負面影響[1].當面對虛假信息時,民眾往往會通過評論來表達自己的情感[2],這些評論中隱含著用戶豐富的情感信息,會觸發(fā)網絡用戶的心理活動,從而影響其轉發(fā)行為[3].尤其評論中所隱含的消極情感在一定程度上放大了虛假信息本身所隱含的消極情感,進而加速了虛假信息在網絡中的傳播[4].因此,通過情感分析方法對這些評論內容進行情感分析,有助于管控主體及時了解網絡用戶的情感傾向,把握虛假信息的傳播趨勢,并采取針對性的必要措施進行調控,對形成良好網絡信息生態(tài)有重要意義.
在關于虛假信息的評論中,往往多含有emoji表情符號,能夠與文本信息相互作用,共同完成評論用戶的情感信息表達,而不是兩者的簡單疊加[5].目前,同時考慮表情符號和文本信息的情感分析方法主要包括3類:1)基于先驗信息的方法,主要依據(jù)用戶先驗信息制定判斷規(guī)則,對表情符號進行預處理并建立相應的情感詞典,輔助純文本的情感分類模型預測表情符號和文本綜合的情感傾向[6].此類方法所構建的表情符號情感詞典使得判斷規(guī)則普適性不高.因此,有必要考慮從表情符號的上下文語境中進行較為準確的情感特征挖掘;2)基于語義轉換的方法,主要是根據(jù)表情符號的定義,將其轉換為相應的語義詞,并置于文本中進行基于純文本的情感傾向性分析[7].此類方法雖然考慮了表情符號的語義信息,但尚未考慮到表情符號的情感特征與其在文本的上下文密切相關性的不足;3)基于深度學習模型的方法,主要是基于大規(guī)模的歷史數(shù)據(jù),通過訓練深度學習相關模型來學習表情符號的特征,進而與原始文本中詞語或短語的嵌入向量相結合進行文本情感傾向性分析[8].此類方法在提取表情符號以及文本特征方面,仍然面臨標注數(shù)據(jù)或上下文語境考慮不夠充足的挑戰(zhàn).此外,基于GPT大模型的情感分析相關研究針對文本數(shù)據(jù)和表情符號數(shù)據(jù)相結合方面的情感分析方法仍需深入探討[9].
近年來,基于圖神經網絡的情感分析模型或方法的性能得到綜合提升,主要是通過句法依存樹來刻畫句子的結構信息[10],并利用圖卷積神經網絡(GCN)[11]或圖注意力網絡(GAN)[12]建模句中詞語之間的依賴關系,經過模型的訓練提取輸入數(shù)據(jù)的高層次的抽象特征用以情感分類,此類模型因結構上的創(chuàng)新而優(yōu)于傳統(tǒng)的基于深度學習的情感分析模型.因此,本文同時考慮虛假信息評論中表情符號和文本內容,基于異質融合圖神經網絡和自編碼器分別提取評論中的文本特征和表情符號特征,經多層感知機融合后用于對評論內容的情感分類任務,提出基于圖神經網絡和自編碼器的虛假信息多模態(tài)在線評論情感分析模型.本文將表情符號這一模態(tài)數(shù)據(jù)以圖片形式處理,上述情感分析模型可以同時處理文本、圖片和表情符號多種模態(tài)數(shù)據(jù).
1" 面向虛假信息的多模態(tài)在線評論情感分析模型
表述面向虛假信息的多模態(tài)在線評論情感分析模型需要使用多種符號,本文所使用的符號含義見表1.
1.1" 虛假信息評論中文本的特征提取
1.1.1" 基于上下文語境的詞向量表示
詞向量表示主要包括詞嵌入層、雙向長短時記憶網絡層(BiLSTM層)和輸出層.在詞嵌入層,利用Glove模型進行詞嵌入,將詞wm映射為dw維向量xm=Glove(wm),BiLSTM層主要將嵌入層的輸出xm映射成2個隱藏的向量表示hm-=LSTM-------------(xm )和hm -= LSTM-------------(xm ),繼而獲得詞的向量表示hm=[hm-,hm - ][12].輸出層將詞嵌入矩陣X=(x1,x2,…,xm,…,xM )∈RM×dw映射成文本句中詞的上下文語境化向量表示h=(h1,h2,…,hm,…,hM )∈RM×dw .
1.1.2" 異質融合圖(SKC圖)的構建
1)基于句法信息的子圖,可表示為四元組GS=(US,ES,AS,HS ),鄰接矩陣AS=[A]M×M∈RM×M中的元素ASij非零時有如下表示:
ASij=DT(uSi,uSj),uSi,uSj∈W,uSi≠uSj,
1,uSi,uSj∈W,uSi=uSj,(1)
其中:W表示文本句中詞的集合; DT(uSi,uSj )表示文本句的句法樹中節(jié)點uSi和uSj之間句法依賴關系強度[13],而文本句的句法樹由baidu-DDParser工具生成,采用文獻[14]的計算方法.
2)基于語義的子圖,可表示為四元組GK=(UK,EK,AK,HK ),子圖GK的節(jié)點特征(屬性)矩陣為
HK=[(1→+Hsp )⊙(HcvH) ](M+K)×dh ∈R(M+K)×dh,(2)
其中:Hcv∈RK是概念的特征向量表示[15],Hsp∈R(M+K).對wj∈W∪C,非零Hspj有
Hspj=score(wj)=SCj,wj為清晰情感短語,
Sfj,wj為模糊情感短語.(3)
其中:C表示文本句用概念的集合;SCj和Sfj的數(shù)值計算參見文獻[16];AK中的元素AKij非零有下面的計算公式:
AKij=PMI(uKi,uKj )uKi,uKj∈C,uKi≠vKj,PMI(uKi,uKj)gt;0,
1uKi∈W,uKj∈C,(4)
其中,PMI(uKi,uKj )依據(jù)常用的基于詞共現(xiàn)統(tǒng)計的方法計算其值[17].
3)基于上下文語境信息的子圖,可用四元組GC=(UC,EC,AC,HC )表示,AC∈R(M+N)×(M+N)中非零元素的定義為
ACij=cos(uCi,uCj)uCi,uCj∈S,uCi≠uCj,
TF-IDFijuCi∈S,uCj∈W,
1uCi≠uCj,(5)
其中,cos(uCi,uCj )為文本句Si和Sj間的余弦相似度[18].
4)SKC圖,可用四元組G=(U,E,A,Q)表示,其中,U=US∪UK∪UC,E=ES∪EK∪EC,G的節(jié)點屬性矩陣Q=[HSHKHC ]|U|×dh∈R|U|×dh,鄰接矩陣A∈R|U|×|U|中非零元素Aij的計算如式(6).
Aij=DT(ui,uj )ui,uj∈W,ui≠uj,
cos(ui,uj )ui,uj∈S,ui≠uj,
TF-IDFijui∈S,uj∈W,
PMI(ui,uj)ui,uj∈C,ui≠uj,
1ui∈W,uj∈C或ui=uj.(6)
1.1.3" 基于SKC圖的圖卷積注意力網絡模型(SKC-CANN)
本文將卷積注意力網絡模型(convolutional attention neural network,CANN)模型應用到異質無向圖SKC中,提出基于SKC圖的圖卷積注意力網絡模型(graph convolutional attention network model based on SKC graph,SKCG-CANN),用于提取文本數(shù)據(jù)的特征,主要包括如下的層結構:
1) SKC圖G節(jié)點嵌入層,將Q和A輸入到一個2層的圖神經網絡[19]中得到
X=Relu(Relu(M·Q·W1+b1)·W2+b2),(7)
其中:M=D-12 AD-12;D為A度矩陣;W1,W2∈R|U|×dh為第1、2層權重矩陣,b1,b2為偏置截距.
2) 卷積層,時間滑動窗口N∈Rq×dh,進行卷積操作,結果如下:
Ci=Relu(NXi:i+|V|+1+b), i=1,2,…,|U|,(8)
其中:為卷積運算;b為偏置;Xi為經過圖G上的2層圖神經網絡后節(jié)點vi的向量表示.
3) 池化層,對C中的所有向量使用最大池化運算而獲得C^=[C^1,C^2,…,C^|U|],保證每個分量具有同樣大小的維度,即,C^i=max(Ci), i=1,2,…,|U|.
4) 位置信息的嵌入,設s中包含k個方面詞wa1,wa2,…,wak,waj∈s,j=1,2,…,k,wi的位置嵌入被記為pi=[di1,di2,…,dik]∈Rk,非零計算如下:
dij=|i-j|maxsn∈S (|sn |) ,wi≠waj.(9)
5) 融合注意力機制的文本向量表示,首先,定義積分函數(shù)
f(C^i,pi )=tanh(W·[piC^i )]+b), i=1,2,…,|U|,(10)
其中:W∈R(k+dh )×(k+dh )為權重矩陣;b為偏置截距;拼接操作.然后,注意力分配計算
αi=exp(f(C^i,pi ))∑|V|j=1exp(f(C^j,pi )), i=1,2,…,|U|.(11)
最后,輸出用戶數(shù)據(jù)中的文本句sn (n=1,2,…,N)的高層次的抽象特征向量表示
g=∑|V|j=1αi C^i. (12)
1.2" 虛假信息評論中表情符號的特征提取
基于卷積神經網絡(convolutional neural network,CNN)和自編碼(auto-encoder,AE),通過基于卷積的表情符號自編碼進行特征學習模型(feature learning model based on convolutional neural network and emoji auto-encoder,CNN-EmAE)獲取表情符號的特征.
1) CNN-EmAE模型的編碼,從原始表情符號圖片至下一層的具體解碼過程為
Hk=Relu(Hk-1Wk+bk ), k=1,2,3,4,(13)
其中:Hk為第k層的特征;Wk為第k層的卷積核參數(shù);bk為第k層偏置;H0為原始表情符號.
2) CNN-EmAE模型的解碼,具體的解碼過程如下:
H^k+1=f(H^kW^k+1+b), k=0,1,2,3,4,(14)
其中:E=H^0;H^k+1為上層輸出;W^k+1為第k+1層參數(shù)矩陣;b為偏置;經過H^5層后輸出原始表情符號的重構結果為H^6.
3) CNN-EmAE模型的訓練,訓練目標為最小化重構誤差,所采用的損失函數(shù)為
J=-∑MJi=1[Hi0log(H^i6)+(1-Hi0 )log(1-H^i6 ) ],(15)
其中:MJ為樣例總數(shù);Hi0為第i個表情符號圖片;H^i6為與第i個表情符號對應的重構結果.
4) 表情符號的向量表示,CNN-EmAE模型的參數(shù)確定后,將表情符號輸入模型,選取隱藏層的輸出作為其向量表示E.若el重復出現(xiàn)Ml次的情況,向量
E=∑MLl=1Ml∑MLl=1Ml Eel. (16)
1.3" 融合文本和表情符號特征的情感分類
本文將得到的g和E進行拼接gE,輸入到含MH個隱藏層的多層感知機,假設第i (i=1,2,…,MH)隱藏層的輸出為Hi,具體迭代計算公式如下:
Hi=Relu(WHi ·Hi-1+bHi), i=1,2,…,MH,(17)
H0=Relu(WH1·[gE]+bH1),(18)
其中:WHi 為由第i-1層至第i層的權重;bHi為第i層的偏置,由輸入層至第1隱藏層的權重.最后,通過Softmax函數(shù)產生出關于虛假信息評論內容的情感極性向量,即
y^=Softmax(WO·HMH+bO ),(19)
其中:WO∈R3×dMH為由第HMH層至感知機輸出層的權重;bO為偏置;dMH為第HMH隱藏層的神經元的個數(shù).模型采用交叉熵函數(shù)作為目標函數(shù)進行訓練,表達式如下:
L=-∑3i=1(yi log(y^i ) )+λ‖θ‖2,(20)
其中:yi為第i類的真實類標矩陣;y^i為由多層感知機輸出的屬于第i類的概率矩陣;λ為L2范數(shù)‖θ‖2的系數(shù),θ為情感分類模型中所有參數(shù)的集合.綜合上述過程,面向虛假信息的多模態(tài)在線評論情感分析方法的流程圖如圖1所示.
1.4" 所提模型算法的時間復雜度和收斂性分析
1.4.1" 時間復雜度分析
結合圖1可知,本文所提情感分析模型相應算法的復雜度取決于如下模型相應算法的復雜度:1)Glove模型算法,理論上的時間復雜度為O(V2 ),其中V為詞匯表的大?。?)BiLSTM模型算法,一個單向LSTM的復雜度為O(nhd),其中n是序列長度,h是隱藏層單元數(shù),d是輸入特征維度.由于BiLSTM同時進行正向和反向傳播,其時間復雜度大致為O(2nhd);3)多層神經網絡模型算法,訓練時間復雜度約為O(L×(n0+n1+…+nL )2 ),預測時間復雜度約為O(L×(n0+n1+…+nL)),其中,L為神經網絡層數(shù),ni為第i層神經元數(shù)量,n0為輸入層的節(jié)點數(shù),nL為輸出層的節(jié)點數(shù);4)基于異質圖的圖卷積神經網絡模型算法,主要涉及鄰接矩陣構建的復雜度約為O(E+TN)和多層圖卷積操作的復雜度約為O(L1TNd),其中,N為異質圖的節(jié)點數(shù),E為異質圖的邊數(shù),T為異質圖邊的類型數(shù),d為特征維度,L1為卷積的層數(shù);5)基于異質圖的圖注意力網絡模型算法,算法的復雜度約為O(L2Ndk2 ),其中,N為異質圖的節(jié)點數(shù),d為每個節(jié)點的平均鄰居數(shù),L2為模型的總層數(shù),k為特征維度;6)自編碼器模型算法,總的復雜度為O(2TL3(∑L3i=1 ni )×ni),其中,L3為自編碼器模型的層數(shù),每層有ni個神經元,T為算法收斂時的迭代次數(shù).
1.4.2" 收斂性分析
由式(15)和式(20)可知本文所提模型算法的收斂性本質是Adagrad優(yōu)化器的收斂性.關于Adagrad的收斂性:1)Adagrad的核心是根據(jù)每個參數(shù)的歷史梯度信息動態(tài)調整學習率,該機制有助于在迭代初期快速學習,并在之后減緩學習以防止過擬合;2)Adagrad通過累加每個參數(shù)的平方梯度,能夠自動減小那些在訓練早期頻繁更新參數(shù)的學習率,從而在后續(xù)迭代中維持穩(wěn)定的進步,達到全局最優(yōu)或接近最優(yōu).
2" 實驗與分析
2.1" 實驗數(shù)據(jù)集及評價指標
本文基于新浪微博平臺,通過Python爬取虛假信息“鄭州輕生女教師曾被要求加班數(shù)石榴”相關主題微博和“兒媳給住院婆婆連送幾天泡面”相關主題微博的評論信息中各收集到7 000條數(shù)據(jù),構建數(shù)據(jù)集.對14 000條評論進行人工標注情感極性,分為積極情感3 128條、消極情感5 693條和中性情感5 179條(情感傾向不明顯)3類,其中訓練集和測試集按照6∶4的比例對數(shù)據(jù)集進行劃分.主要考慮到表情符號在評論內容情感表達方面的作用,本文只考慮了具有情感傾向表達的表情符號,主要包括臉部表情、手勢和人物等共計553個表情符號,排除了諸如動物和水果等無明顯情感傾向的中性含義符號.
本文選取準確率、精確率、召回率和F1指數(shù)4個評價指標[17].
2.2" 對比實驗
2.2.1參數(shù)設置
實驗基于PyTorch框架、Python 3.6環(huán)境實現(xiàn),針對基于圖神經網絡的情感分析模型[17]:預訓練模型GloVe嵌入詞向量的維數(shù)為300維,BiLSTM模型隱藏層狀態(tài)變量的維數(shù)為100維;圖卷積注意力網絡模型(GCAN)的層數(shù)設置為2層,其隱藏層節(jié)點屬性向量維數(shù)為100維,過濾器大?。〞r間滑動窗口)為4,過濾次數(shù)為100次;模型中的所有參數(shù)均以服從均勻分布U(-0.1,+0.1)的數(shù)據(jù)進行隨機初始化,相應的各個偏置項設置為0;使用優(yōu)化器Adam優(yōu)化目標函數(shù),學習效率為0.001,為了防止過擬合而設置刪除率為0.5;所有模型運行5次,輸出結果的平均值作為最終進行比較的結果,使用交叉驗證技術對所有超參進行微調,L2正則化項參數(shù)設置為10-5.CNN-EmAE模型中選取Adagrad為優(yōu)化器,設置學習效率為0.001,批量大小為8,隱藏層單元數(shù)量為100.
2.2.2" 基線模型
基線模型包括支持向量機模型(SVM),長短時記憶網絡(LSTM),雙向長短時記憶網絡(BiLSTM),考慮注意力機制的BiLSTM模型(BiLSTM+Attention),以及基于Glove詞嵌入的BiLSTM網絡模型(BiLSTM+Glove).
2.2.3" 實驗結果與分析
表2列出了本文所提情感分析模型與所有基線模型在3個子數(shù)據(jù)集上的實驗結果,本文所提新模型BiLSTM+Glove+SKCG-CANN+CNN-EmAE優(yōu)于所有基線模型,綜合性能最好.與BiLSTM+Glove模型相比,新模型在精確率指標上最高提升3.9%,在召回率指標上最高提升5.6%,在F1分數(shù)上最高提升4.6%,這表明了新模型整合了BiLSTM+Glove模型的優(yōu)點,同時基于SKC異質無向圖考慮了評論數(shù)據(jù)中文本詞語的句法信息、語義信息和上下文信息,以及基于CNN-EmAE模型的表情符號高層次抽象特征,使新模型能夠更好地捕獲文本和表情符號重要的關鍵信息,進而綜合考慮文本和表情符號對評論數(shù)據(jù)情感傾向性的影響,能有效提升相關情感分類模型的綜合性能.
基于實驗結果,可知與所有的基線模型相比,使用本文所提新模型能夠充分挖掘社交網絡用戶表達觀點和感情時表情符號與文本之間的潛在交互性,一定程度上縮小與實際溝通交流中語言習慣間的差異性,合理展現(xiàn)各類用戶情感表達過程中所具有的自由性和直接性,從而更有效地評估虛假信息評論內容的情感傾向性,表征網絡用戶的情感態(tài)度或屬性,實現(xiàn)對用戶情感的有效分類,為基于虛假信息評論內容的用戶情感分類管理提供重要的情感分析方法.
2.3" 消融實驗
為驗證融合句法信息、語義信息和上下文語境信息的異質圖神經網絡在學習文本數(shù)據(jù)特征方面,自編碼器在提取表情符號數(shù)據(jù)特征方面,以及綜合考慮多模態(tài)數(shù)據(jù)進行虛假信息評論情感分析方面的有效性,本文基于所提新模型給出如下消融模型:1)BiLSTM;2)BiLSTM+Glove;3)BiLSTM+CNN-EmAE;4)BiLSTM+SKCG-CANN;5)BiLSTM+Glove+CNN-EmAE;6)BiLSTM+Glove+SKCG-CANN;7)BiLSTM+SKCG-CANN+CNN-EmAE.表3給出了所提模型及其上述7種消融模型在本文數(shù)據(jù)集上(不考慮積極、消極和中性情感數(shù)據(jù)的分類)的消融實驗結果.
從表3可知,所提模型在精確率、召回率、F1值和準確率性能方面均優(yōu)于消融模型,證明基于SKCG異質無向圖的圖神經網絡學習和基于CNN-EmAE模型的結合能夠有效挖掘虛假信息評論中文本數(shù)據(jù)和表情符號圖片數(shù)據(jù)的深層次特征,有助于提高針對評論數(shù)據(jù)情感類模型的預測性能和泛化能力.其主要原因:1)基于SKCG異質無向圖的圖神經網絡學習模型綜合運用虛假信息評論中文本數(shù)據(jù)語法信息、語義信息、上下文語境信息以及情感詞的位置信息等多維度信息,充分保證了文本數(shù)據(jù)深層次抽象特征的有效挖掘,為最后情感極性的識別提供了重要的證據(jù)信息;2)以emoji為代表的表情符號在一定程度上能夠表達網絡用戶自身較豐富的情感,與文本信息相互關聯(lián)或相互作用,共同完成針對網絡虛假信息評論用戶的情感信息表達,不是與文本信息的簡單疊加.
3" 結論
本文提出了虛假信息多模態(tài)評論情感分析模型,基于微博平臺,從“鄭州輕生女教師曾被要求加班數(shù)石榴”虛假信息和“兒媳給住院婆婆連送幾天泡面”虛假信息相關主題微博的評論信息構建數(shù)據(jù)集,對本文所提多模態(tài)情感分析模型進行對比實驗和消融實驗.結果顯示:本文所提模型基于SKC異質無向圖考慮評論數(shù)據(jù)中文本詞語的句法信息、語義信息和上下文信息,以及基于CNN-EmAE模型獲取表情符號高層次抽象特征,使其能夠更好地捕獲文本和表情符號重要的關鍵信息,進而能有效提升情感分類模型的綜合性能.
本研究仍存在一定的局限性,在構建針對網絡虛假信息評論內容的多模態(tài)情感分析模型方面,本文使用了評論數(shù)據(jù)中的文本數(shù)據(jù)和表情符號數(shù)據(jù),未考慮評論內容中的其他圖片和視頻相關信息,可能會引起包含文本、表情符號、其他圖片或視頻等多模數(shù)據(jù)的評論內容在特征提取方面存在一定偏差,進而可能在一定程度上對后續(xù)相關模型的訓練速度帶來挑戰(zhàn).在將來進一步的研究中,本文以針對虛假信息的評論內容中文本和表情符號為基礎,通過深度學習技術提取評論中的其他圖片或視頻的特征向量,進而與原文本和表情符號的綜合特征向量進行整合,基于更為全面的多模態(tài)評論數(shù)據(jù)特征進行用戶情感分析模型的構建.
參" 考" 文" 獻:
[1]" MIRHOSEINI M, EARLY S, ELSHAMY N, et al. Actively open-minded thinking is key to combating fake news: a multimethod study[J]. Inf Manag, 2023, 60(3): 103761.DOI:10.1016/j.im.2023.103761.
[2]" 徐健,張婧,宋玲鈺,等.基于RoBERTa-BiLSTM-CRF融合模型的在線評論細粒度情感分析[J].系統(tǒng)工程理論與實踐, 2023, 43(12): 3519-3536.DOI: 10.12011/SETP2022-2001.
[3]" 欒碧雅.社交網絡虛假信息傳播影響因素及治理策略研究[D].長春:吉林大學, 2020.DOI:10.27162/d.cnki.gjlin.2020.001597.
[4]" 翟羽佳,過南杉,閻嘉琪.突發(fā)公共衛(wèi)生事件中虛假信息的時滯性擴散與情感關聯(lián)分析[J].情報科學, 2021, 39(5): 62-69.DOI: 10.13833/j.issn.1007-7634.2021.05.009.
[5]" LOU Y X, ZHANG Y, LI F, et al. Emoji-based sentiment analysis using attention networks[J]. ACM Trans Asian Low-Resour Lang Inf Process, 2020, 19(5): 1-13.DOI: 10.1016/j.chb.2021.106722.
[6]" HAAK F. Design and development of an emoji sentiment lexicon[C]// Proceedings of the 16th International Symposium of Information Science (ISI 2021), Glückstadt: Verlag Werner Hülsbusch, 2021:432-438.DOI: 10.5283/epub.44960.
[7]" 徐海杰.基于深度學習的情感分析研究[D].大慶:東北石油大學,2023.DOI: 10.26995/d.cnki.gdqsc.2022.000496.
[8]" CHEN J, YAO Z Q, ZHAO S, et al. Fusion pre-trained emoji feature enhancement for sentiment analysis[J]. ACM Trans Asian Low-Resour Lang Inf Process, 2023, 22(4): 1-14.DOI: 10.1145/3578582.
[9]" RODRGUEZ-IBNEZ M, CASNEZ-VENTURA A, CASTEJN-MATEOS F, et al. A review on sentiment analysis from social media platforms[J]. Expert Syst Appl, 2023, 223: 119862.DOI: 10.1016/j.eswa.2023.119862.
[10]" 柴變芳,楊蕾,王建嶺,等.集成局部和全局關鍵特征的文本情感分類方法[J]. 河北大學學報(自然科學版), 2021,41(2): 201-211.DOI: 10.3969/j.issn.1000-1565.2021.02.014.
[11]" 李濤,薛剛,霍自祥,等.基于卷積神經網絡的石英纖維復合材料損傷缺陷太赫茲智能識別[J].河北大學學報(自然科學版), 2022, 42(6):665-672.DOI: 10.3969/j.issn.1000-1565.2022.06.015.
[12]" 張昱,蘇仡琳,李繼濤,等.基于增強多通道圖注意力的推薦模型[J].河北大學學報(自然科學版), 2024, 44(2):190-198.DOI: 10.3969/j.issn.1000-1565.2024.02.010.
[13]" JACOB Y, WINETRAUB Y, RAZ G, et al. Dependency network analysis (DEPNA) reveals context related influence of brain network nodes[J]. Sci Rep, 2016, 6: 27444.DOI: 10.1038/srep27444.
[14]" 陳明紅.信息生態(tài)系統(tǒng)中資源配置的博弈行為分析[J].情報理論與實踐, 2010, 33(9): 17-22.DOI: 10.16353/j.cnki.1000-7490.2010.09.006.
[15]" MA Y K, PENG H Y, CAMBRIA E. Targeted aspect-based sentiment analysis via embedding commonsense knowledge into an attentive LSTM[J].Proc AAAI Conf Artif Intell,2018, 32(1): 5876-5883.DOI: 10.1609/aaai.v32i1.12048.
[16]" PHAN H T, NGUYEN N T, TRAN V C, et al. An approach for a decision-making support system based on measuring the user satisfaction level on Twitter[J]. Inf Sci, 2021, 561: 243-273.DOI: 10.1016/j.ins.2021.01.008.
[17]" YAO L, MAO C S, LUO Y. Graph convolutional networks for text classification[J].Proc AAAI Conf Artif Intell, 2019, 33(1): 7370-7377.DOI: 10.1609/aaai.v33i01.33017370.
[18]" CAMBRIA E, PORIA S, HAZARIKA D, et al. SenticNet 5: discovering conceptual primitives for sentiment analysis by means of context embeddings[J].Proc AAAI Conf Artif Intell,2018, 32(1): 1795-1802.DOI: 10.1609/aaai.v32i1.11559.
[19]" KIPF T N, WELLING M. Semi-supervised classification with graph convolutional networks[C]// Proceedings of the 5th International Conference on Learning Representations, Toulon: Association for Learning Representations, 2017: 1-14.DOI: 10.48550/arXiv.1609.02907.
(責任編輯:王蘭英)