摘? 要:自互聯(lián)網誕生以來,因其便利性、傳播性和高自由度逐漸成為輿論的主要發(fā)酵地,也引起了網絡空間中的輿論治理問題。在越來越多的社會事件中,輿論影響了整個事件的走向或者處理方式,甚至對事件中的相關人員產生影響,因此對輿情監(jiān)控已然成為一個急需解決的問題。但輿情的負面性、矛盾性和復雜性也為監(jiān)管增加了難度。為了推進輿情監(jiān)控發(fā)展,研究使用基于BERT預處理模型的E2E-ABSA,通過比較其他模型的表現來判斷模型的可靠性,并與其他研究中使用的情感分析模型進行比較,并得出結論細粒度情感分析在評論攜帶多個主題且觀點不一致的場景下具有明顯優(yōu)勢。
關鍵詞:BERT;E2E-ABSA;神經網絡;深度學習;輿情監(jiān)控;網絡治理
中圖分類號:TP391? 文獻標識碼:A? 文章編號:2096-4706(2023)03-0014-06
Network Public Opinion Fine-Grained Emotion Analysis Based on BERT Preprocessing Model
XU Ziang
(Shenzhen Campus, Jinan University, Shenzhen? 518053, China)
Abstract: Since the birth of the internet, because of its convenience, communication and high degree of freedom, it has gradually become the main fermentation place of public opinion, which has also caused problems of public opinion governance in cyberspace. In more and more social events, public opinion has affected the trend or handling method of the whole event, and even affected the relevant personnel in the event. Therefore, the monitoring of public opinion has become an urgent problem to be solved. However, the negative, contradictory and complex features of public opinion also increase the difficulty of supervision. In order to promote the development of public opinion monitoring, this paper researches and uses E2E-ABSA based on BERT preprocessing model. It judges the reliability of this model by comparing the performance with other models, and compares with the emotion analysis model used in other researches, and concludes that fine-grained emotion analysis in comments with multiple topics and scenario of inconsistent views has obvious advantages.
Keywords: BERT; E2E-ABSA; neural network; deep learning; public opinion monitoring; network governance
0? 引? 言
中國互聯(lián)網絡信息中心CNNIC發(fā)布的第49次《中國互聯(lián)網絡發(fā)展狀況統(tǒng)計報告》顯示截至2021年12月,我國網民規(guī)模達到了10.32億,網絡普及率達73%。互聯(lián)網的規(guī)模越來越大,中國互聯(lián)網出現了如微博、知乎、百度貼吧、抖音等信息交流的平臺,互聯(lián)網用戶可以借助這些平臺表達自己對實事的看法,互聯(lián)網也因此具有一定的輿論價值,在群體性事件發(fā)生、發(fā)展過程中,網絡媒體有關群體性事件的報道、評論及相關信息傳播,會形成較具社會影響力的網絡輿情,使群體性事件進一步聚集、擴大,從而加大了相關機構預防與處置群體性事件的難度。例如在2021年5月9日發(fā)生的“成都四十九中學生墜樓”事件:事件經過發(fā)酵,在網絡上迅速傳播,并出現了不同版本的事件猜測。在新浪微博平臺,該事件登上熱搜。三人成虎,許多不明真相的群眾以傳播的非事實為據,聲討甚至網暴與此事無關的人員。最后警方通報認定49中學高二學生林某某系高墜死亡,排除刑事案件,并告知家屬,家屬對調查結論無異議。至此輿論平息,但是此次事件也對許多無關人員造成了身心傷害,一定程度上損害了社會穩(wěn)定性和政府公信力。由此,準確把握群體性事件網絡輿情的特征,加強網絡輿情監(jiān)控與引導,既有利于當事人著手社會擴散性事件的處理,也有利于社會整體的安定。
本研究旨在應用以BERT預處理模型的基礎建立的針對網絡平臺熱搜的端到端的細粒度情感分析(End to End Aspect-Based Sentiment Analysis, E2E-ABSA)模型,這種模型提取數據中的方面項和其感情極性,輸出數據中包含的情緒是正面或負面和程度大小,預期訓練處具有準確性和魯棒性,能較為準確、快速地生成細粒度情感分析詞條的模型。在此基礎上,對研究過程進行分析,討論ABSA在輿情監(jiān)控方面的作用,分析其的優(yōu)點和不足,并嘗試給出解決方向。
1? 背景分析
1.1? 細粒度情感分析研究現狀
對于細粒度情感分析來說,早期的情感細粒度分析任務主要為單一的ABSA任務。單一任務有方面項抽?。ˋspect Term Extraction, ATE)、方面類別識別(Aspect Category
Detection, ACD)、觀點項抽取(Opinoin Term Extraction, OTE)
和方面情感分類(Aspect Sentiment Classificatio, ASC)。例如Xue等人的文章中使用ATE抽取文本中的方面項,使用ASC提取方面項中的情感極性。后來預訓練模型(PLMs)問世,例如基于Transformer的雙向編碼器特征(Bidirectional Encoder Representations from Transformer, BERT)和RoBERTa,使得ABSA模型的魯棒性和泛用性得到了大幅提高,Lee等人首次使用BERT在E2E-ABSA中取得了SOTA的效果。自PLMs問世,其對于ABSA任務的提升得到了學界廣泛認可,因此預訓練成了NLP領域的主流方法,后來的復合ABSA任務大部分都是基于PLMs。復合的ABSA任務的目標涉及多個情感元素,因此復合的ABSA任務可以認為是單一ABSA任務的組合與關聯(lián)。本文采用一種復合的ABSA任務:E2E-ABSA,同時提取方面項和其感情極性,其方法有三種:流水線(Pipeline)、聯(lián)合(Joint)和統(tǒng)一(Unified),其中Pipeline方法是獨立地提取兩個情感元素,在最后耦合,如同上述的AOPE,Joint和Unified方法則進行聯(lián)合訓練,Unified方法特別地消除了兩個任務的邊界,三種方法都具有良好的性能。而且無論采用哪種方法,都要考慮方面邊界和情感極性之間的關系,而且由于意見項為方面術語和情感取向提供了指示性線索,意見術語的提取已經成為E2E-ABSA的一個輔助任務。
1.2? 輿情監(jiān)控研究現狀
對于輿情監(jiān)控方面,研究已經從快速發(fā)展階段轉為穩(wěn)定發(fā)展階段,楊應全對研究現狀做出了較為全面的概括,提出“在目前的研究中,學者引入了大數據、云計算、系統(tǒng)動力學、情感傾向、意見領袖等技術與理念,涉及管理學、計算機科學、統(tǒng)計學、心理學、社會學等多個學科。多學科的交叉融合是該領域研究的發(fā)展方向”。曲成義提出“在信息化高速發(fā)展的情況下,必須對突發(fā)事件網絡輿情進行治理,維護社會穩(wěn)定,從而提升政府的執(zhí)政能力”。徐曉日認為“如果對網絡輿情處置不當,可能會激起網民的負面情緒,進而影響社會秩序的穩(wěn)定”。在以往的研究中,突發(fā)事件、新媒體、網絡輿情治理和輿情監(jiān)測與預測是熱門關鍵詞。
1.3? 應用于輿情監(jiān)控的情感分析研究現狀
而對于相對粗略的情感分析,目前輿情監(jiān)控應用方面的研究,史偉概括性地提出“近年來,國內外網絡輿情相關的研究成果主要分為基礎理論、支持技術和應用研究三個層次,所分析的領域已經從在線產品評論轉向社交媒體文本”,曾子明利用改進后的情感詞典提出一種融合深層演化特征、淺層詞性特征和情感特征的多層次特征組合模型,將情感進行正負性分類并且準確度達到85%,栗雨晴構建雙語情感詞典將微博文本情感分為社會關愛、高興、悲傷、憤怒、恐懼五類,解決了情感分析基于單一語種的問題。
但是對于細粒度情感分析來說,目前較少研究其輿情監(jiān)控方面的應用。但也有如孫雷研究提出“基于分詞的預訓練模型在進行中文下游任務情感分析能取得更好的結果”為未來細粒度情感分析應用提供研究基礎。
1.4? 研究意義
在互聯(lián)網規(guī)模日益增大,互聯(lián)網影響力隨之增大的情況下,網絡輿情的力量是不容忽視的。網絡空間給予互聯(lián)網中的人們極大的自由度和包容性,這對于網民來說是表達自己意見絕佳的場所。而觀點則是大眾對于某一發(fā)生的社會事件在不同的視角下持有的態(tài)度。當一件社會事件發(fā)生時,互聯(lián)網時代帶來的信息浪潮是不可與紙媒時代同日而語的,人們持有的觀點蘊藏著巨大的應用價值和潛在危害。對于這些觀點進行監(jiān)測并對大眾輿情做出正確的反應,可以有效減少輿情的潛在危害,發(fā)揮其應用價值;如果不能及時精確地監(jiān)測輿情,對輿情進行正確的引導,不僅會對當事人造成傷害,妨礙社會事件的處理,還會降低政府公信力,甚至出現輿情錯誤引導群眾對無關人員進行攻擊的現象。提高輿情治理能力是網絡時代的必然要求,特別是重大突發(fā)事件發(fā)生期間輿論密度會加劇,政府、企業(yè)和網絡自媒體等應改進網絡輿情的治理方式,現有單一的治理體系并不能有效地引導輿情,政府應加強網絡環(huán)境建設,與企業(yè)和網絡媒體等主體形成協(xié)同治理格局。
此外,對于輿情監(jiān)控來說,交叉學科是其未來研究方向。目前基于情感分析的研究相對較多,但是將ABSA應用到輿情監(jiān)控方面的相對較少。情感分析往往只能對一個事件的整體得出極性詞,當其應用于輿情監(jiān)控時,會有一定的局限性,例如輿情監(jiān)控人員無法得到事件中大眾對某一主體的詳細觀點,而且網絡輿情評論一般較為簡短,上下文關聯(lián)性強,普通的情感分析與ABSA比較不能較好地針對這些特點進行處理。相較于一般的情感分析來說,ABSA可以得出主體中某一方面的極性詞,特別地,E2E-ABSA能較好地處理文本較短、上下文關聯(lián)強的數據集,并且能適應多個主題、攜帶情感不一致的復雜情況。而此研究對于輿情監(jiān)控方面的應用,也可以較好地補充此方面的空白,拓展ABSA的應用領域。
2? 方法介紹
鑒于上文中提到的,對于輿情監(jiān)控,有大量非細粒度情感分析的模型應用,但是對于細粒度情感分析模型的應用少之又少。輿情中蘊含的情緒具有復雜、多元和程度的區(qū)別,對于ABSA來說,由于其能提取數據中更詳細的方面項,筆者相信其在輿情監(jiān)控方面能提供更全面的輿論分析,補足非細粒度情感分析只能對輿情整體而無法對輿情中某個主體進行分析的空白。
本研究將使用基于BERT的E2E-ABSA模型,收集某段時間內新浪微博上熱搜的評論,并對其進行人工標注,形成訓練數據集,研究的模型將在此數據集的基礎上進行訓練。訓練出來的模型將使用未參與訓練的數據集進行測試,得出當時輿情的情況,并進行任務的評估。除此之外,本研究還將測試模型的參數,并與其他已有的ABSA模型進行比對,最后得出本研究使用的模型是否適用于輿情監(jiān)控。
2.1? BERT預訓練模型
BERT模型的全稱是Bidirectional Encoder Representations from Transformer,基于Transformer的雙向編碼器特征,是一個預訓練的語言表征模型,它強調了不再像以往一樣采用傳統(tǒng)的單向語言模型或者把兩個單向語言模型進行淺層拼接的方法進行預訓練,而是采用新的Masked Language Model(MLM),以致能生成深度的雙向語言表征。Li等人的實驗證實了BERT預處理模型的優(yōu)越性,BERT模型加上具體的任務層在各個方面都優(yōu)于LSTM-CRF和現有其他模型。因此本研究使用的BERT預訓練模型將會使最后的模型在測試和應用方面表現得更加出色。
與基于Word2Vec或GloVe的嵌入層相比,BERT嵌入層會以句子作為輸入,而不是整段文章,并用整個句子計算token級特征,如圖1所示。
BERT會針對兩個任務進行預訓練:語言建模和下一句預測。BERT預訓練結果是使模型學習了詞的上下文嵌入?;诖?,模型可以在較小的數據集上使用更少的資源進行微調,以優(yōu)化其在特定任務上的性能。例如圖1給出的句子“My dog is cute”BERT會先將輸入特征打包為H0={e1,…,eT},
其中eT(t∈[1,T])是與輸入特征xt相關聯(lián)的Token Embedding、Position Embedding和Segment Embedding的組合。然后引入L個Transformer層,逐層細化token級的特征。最后BERT輸出對應token的Transformer輸出。
2.2? E2E-ABSA模型
端到端的ABSA(E2E-ABSA)是本研究模型的主體,用來同時提取輿情評論中方面項和它相應的情感極性,抽取數據中的(a, p)pairs。其可以看作是ATE和ASCE兩個任務的結合。E2E-ABSA有三種方法:Pipeline、Joint和Unified,鑒于三種方法訓練出的模型都具有良好的性能,本研究將采用Unified方法。這種方法將上述兩個任務的邊界抹除,并用“Unified”標簽標記情感元素。基于此,E2E-ABSA可以通過標準序列標記器(Standard Sequence Tagger)使用TokenClass范式處理。
本研究借鑒了Li等人的模型,在BERT模型的基礎上假設了E2E-ABSA模型,以執(zhí)行研究需要的E2E-ABSA任務。該模型分為四個部分:線性層、循環(huán)神經網絡、自注意力網絡和條件隨機場。
2.2.1? 線性層
BERT預訓練輸出的token特征可以直接運用到線性層中,利用softmax激活函數計算出token級的預測,其表示如式(1)所示:
(1)
其中線性層的可學習參數 。
2.2.2? 循環(huán)神經網絡
循環(huán)神經網絡(RNN)是E2E-ABSA任務絕佳的解決方案,本研究采用Cho等人提出的GRU,Jozefowicz等人驗證過了其相比于LSTM和一般的RNN具有優(yōu)越性。第t步特定任務的隱藏特征? 計算公式如式(2)、式(3)和式(4)所示:
(2)
(3)
(4)
其中σ表示sigmoid激活函數,rt,zt,nt分別表示reset gate,update gate和new gate, 和? ?是GRU的參數。在Transformer的輸出上直接使用RNN,BERT輸出的特征? 可能會使訓練結果不能達到理想的水平。因此計算gate時在原本基礎上添加一層Layer-Normalization(LN)。加入softmax層得到預測結果:
(5)
2.2.3? 自注意力網絡
自注意力機制是深度學習領域的又一大有力工具。自注意力網絡(SAN)以其在訓練模型中優(yōu)越的表現被廣泛地運用在RNN和CNN中。本研究使用兩種SAN的變種構建特定任務的token特征。
其中一種包含一層簡單的自注意力層和一層殘差網絡,其計算公式如式(6)和式(7)所示:
H T=LN(H L+SLFATT(Q, K, V))? ? ? ? ? ? ? ? ? (6)
Q, K, V=H LW Q, H LW K,H LW V? ? ? ? ? ? ? ? ? (7)
其中SLFATT表示Self-Attentive Scaled Dot-Product Attention,H表示前文h的向量,Q、K、V分別表示三個矩陣,Q表示注意力矩陣,K表示鍵,V表示值。
另一種是一層與BERT中Encoder層類似的Transformer層,其計算公式如式(8)和式(9)所示:
(8)
(9)
其中FFN表示Point-Wise Feed-Forward Networks。
最后將一層與2.2.1中相同的線性層堆疊在本層上,用于輸出預測結果。
2.2.4? 條件隨機場
條件隨機場(Conditional Random Fields, CRF)被廣泛應用于序列標記的任務中,其被證實是在序列建模中較為有效的方法。本研究采用一種在BERT嵌入層上的線性鏈CRF層。本層用于全局尋找最符合的標簽序列,y={y1, …, yT}的可能性p(y|x)與序列級分數s(x, y)計算公式如式(10)和式(11)所示:
(10)
p(x| y)=softmax(s(x, y))? ? ? ? ? ? ? ? ? ? ?(11)
其中? 是用來建立預測之間依賴關系模型的隨機初始化轉移矩陣, 是根據BERT特征HL線性變換得來的發(fā)射矩陣。此處的softmax函數針對所有可能的標簽序列,解碼時則將得分最高的標簽序列輸出:
y*=argmaxy s(x, y)? ? ? ? ? ? ? ? ? ? ? ? ?(12)
3? 實驗結果與分析
3.1? 數據收集和處理
數據收集是一項極其重要的工作,收集數據的質量決定了訓練出的模型的質量。本研究以新浪微博為數據抓取對象,對微博熱搜頁下的實時評論進行抓取,獲得原始數據,部分原始數據如圖2所示。
在抓取的過程中,將會設置相關的屏蔽條件,例如抓取用戶等級較高的用戶評論,盡可能排除網絡水軍的冗雜數據,為后續(xù)數據處理減少工作量。
利用瀏覽器自帶開發(fā)者工具對微博熱搜頁進行觀察發(fā)現,熱搜頁有共計50條熱搜,每條熱搜的元素中有熱搜詳情頁的url。熱搜詳情頁的url默認為熱門微博,而熱門微博大部分為官方媒體通稿,不符合數據采集要求。觀察發(fā)現熱搜詳情頁旁導航欄有實時動態(tài),對其url解析后發(fā)現熱門頁面與實時頁面url結構為“熱搜頁面域名”+“熱門/實時”+“熱搜詞條”+“熱門/實時”。因此可以對新浪服務器請求得到頁面,然后用xpath表達式獲得指定url,并對url進行修改獲得實時頁面url,從而獲得實時評論數據。
在實際數據抓取中,秉持爬蟲網站友好原則,對數據的抓取頻率為4次/小時。之后將收集的數據整理成模型能夠識別的數據集。對數據進行簡單的清洗,人工去除微博評論中的非評論元素。之后對數據進行人工標注,部分數據集如圖3所示。
標注格式是OT。其中O標記表示token不屬于任何塊?!癟-”前綴是標記一個在另一個塊之后且之間沒有O標記的塊的開始,“T-NEG”表示負面的感情極性而“T-POS”表示正面,“T-NEU”表示中性。
3.2? 模型訓練
在模型中,研究將上游部分BERT的Transformer層數設置為12,dimh為768。而對于下游的E2E-ABSA組件,研究使用單層架構并且設置維度同樣為dimh。學習率為2e-5[16]。數據集的批處理大小設置為16。模型的訓練迭代次數設置為1 000。在模型訓練完后,使用未參與訓練的數據集進行測試。
3.3? 基于BERT的E2E-ABSA效果
3.3.1? 模型效果
在得到訓練的模型后,對采集的未參與模型訓練的數據進行測試。測試數據主要采集于2022年8月3日。測試主要數據為TP(True Positive):正確的正例,一個實例是正類并且也被判定成正類;FN(False Negative):錯誤的反例,漏報,本為正類但判定為假類;FP(False Positive):錯誤的正例,誤報,本為假類但判定為正類;TN(True Negative):正確的反例,一個實例是假類并且也被判定成假類。利用上述樣本計算樣本的精確率P、召回率R和F1值進行測量,并與已有研究的實驗結果進行比對,結果如表1所示。
其中,精確率P計算公式如式(13)所示:
(13)
召回率R計算公式如式(14)所示:
(14)
F1值為P和R的加權調和平均數,計算公式如式(15)表示:
(15)
P、R和F1均為越大則模型在測試中表現越好。從表格中的數據可以看到,本次實驗的模型精確率P、召回率R和F1值在所有已有實驗數據的中下游,但是都超過了不同于本實驗的Unified Model和LSTM-CRF,而且精確率P較于BERT+GRU更為優(yōu)秀,召回率R較于BERT+SAN和BERT+TFM更高,F1值超過了BERT+Linear,證明本研究的模型測試表現亦有可取之處。考慮到模型測試的數據依概率收斂于其真實性能,且本次實驗數據集較少且測試任務的數據跨度相較已有模型較大,可以推斷此模型達到了預期的要求。且本研究采用的BERT預訓練模型為基礎的E2E-ABSA相較于其他方法,如Unified Model和LSTM-CRF均有明顯優(yōu)勢,證明本研究采用的模型相較于一些其他的模型在測試的表現中更好,在未來實際運用過程中可能更加適合。
3.3.2? 輿情監(jiān)控效果
在模型經過測試后,得到了2022年10月3日某時間段內微博熱搜實時評論的細粒度感情極性輸出,利用Python中的wordcloud庫將其可視化并做成詞云,如圖4和圖5所示,圖4為正面詞云,圖5為負面詞云,其中詞的大小表示頻度,顏色的深淺表示情緒的強烈程度。
可以從詞云看到當天的某時間段內,微博用戶主要對國慶和北溪管道被破壞事件關注度比較高。在圖4正面詞云中,“國慶”一詞大小最大,顏色最深,表明其討論度最高、在用戶評論中出現頻率最高且正面的情感詞性最強烈,“生日”一詞大小較小,顏色深度較淺,表明其在用戶評論中出現頻率較少且正面情感詞性較弱,猜測可能是因為有些用戶提及“生日”時并表達正面情緒較少或反映出負面情緒。在圖5負面詞云中,“疫情”一詞大小最大,顏色深度較深,表明了用戶在提及“疫情”一詞的頻率較高,且?guī)в休^大的負面情緒,對于“天然氣”一詞其大小較大但是顏色深度在次云中并不突出,表明用戶提及“天然氣”頻率較高但是負面情緒雖然不強烈但也有一定量級。而從整體來看,正面詞云顏色深度較于負面詞云較深,表明當天某時間段內用戶的情感極性普遍表現為正面。
由上述分析與普通的應用于輿情監(jiān)控的情感分析作對比,可以看出ABSA可以將輿情中的某一個客體剝離出來,或者是更進一步將這個客體的兩種不同的感情極性剝離出來,這為輿情監(jiān)控提供了更加細化的分析。這些特點使得模型在公眾對一個事件持有不同態(tài)度、情感極性程度不同的情況下對輿情的測量更為準確。王巍提出“在網絡空間治理過程中公眾的情緒和觀點如果凌駕于事實之上,擴大化的涉警網絡輿情危機將沖擊公平正義。公安機關在處置輿情危機的過程中稍有不慎,尤其是在突發(fā)事件發(fā)生的同期,將會影響事件的發(fā)展和演變更為嚴重的后果,將導致狂風暴雨式的蝴蝶效應”。
4? 結? 論
本研究使用了基于BERT預處理模型的E2E-ABSA建立模型,并使用某一時間段內新浪微博平臺上熱點事件用戶評論進行測試。模型訓練的成果達到預期要求,各項指標均在預期范圍之內。研究結果證明,該模型可以對于在公眾對一個事件持有不同態(tài)度、情感極性程度不同的情況下可以獨立地提取不同方面的感情極性,輿情監(jiān)控的效果相較傳統(tǒng)情感分析模型具有相當的優(yōu)勢,精確性和可信度較高。
同時,本研究也存在著一定的問題。本研究使用的訓練數據集為筆者自己收集和標注,并且相較于ABSA一般的應用場景——商品或服務評論,事件的評論會隨著事件變化較大,同一個方面詞在不同的事件中可能會表現出不同的感情極性。鑒于此訓練出的模型效果可能并不會和一般應用場景中的好,模型測試的數據也證實了這一點。此外,E2E-ABSA模型雖然可以給出方面項和對應的感情極性,但是其感情極性分為正面和負面兩種,在實際生活中人們對事件的態(tài)度是多維的,可能是憤怒、悲傷、開心等甚至是兩種以上的情感結合,E2E-ABSA任務只能提取正面或負面的感情極性,因此對于應用于輿情監(jiān)控的情感分析還存在著改善的空間。另一方面,目前研究應用于輿情監(jiān)控的ABSA較少,在此領域存在較大空白,因此本研究可以比較和參考的文獻較少,可能存在潛在的問題。對于這些問題,可能的解決方向如下:使用更加完善的數據集、使用更加全面和完善的ABSA模型和持續(xù)學習的ABSA。
互聯(lián)網由于其時域性、互動性和低成本性,成了當下網絡輿論的主要發(fā)酵地。網絡輿情已經和社會穩(wěn)定密切相關,網絡輿情的監(jiān)控有利于國家平穩(wěn)發(fā)展,預防可能存在的公共事件導致的輿情危機,幫助分析輿情中的演變機制等。本研究也持這樣的目的,希望推進網絡輿情監(jiān)控方面的發(fā)展,減少輿情對社會帶來的負面沖擊。此外,本研究也希望推進ABSA應用場景的擴展,不再局限于商品和服務的評論。
參考文獻:
[1] 中國互聯(lián)網絡信息中心.CNNIC發(fā)布第49次《中國互聯(lián)網絡發(fā)展狀況統(tǒng)計報告》 [J].新聞潮,2022(2):3.
[2] 彭知輝. 論群體性事件與網絡輿情 [J].公安理論與實踐:上海公安高等??茖W校學報,2008(1):46-50.
[3] XUE W,ZHOU W B,LI T,et al. MTNA:A Neural Multi-Task Model for Aspect Category Classification and Aspect Term Extraction on Restaurant Reviews [C]//the Eighth International Joint Conference on Natural Language Processing.Taipei:IJCNLP,2017,2:151-156.
[4] DEVLIN J,CHANG M W,LEE K,et al. BERT:Pre-Training of Deep Bidirectional Transformers for Language Understanding [J/OL].arXiv:1810.04805 [cs.CL].[2022-08-09].https://arxiv.org/abs/1810.04805v1.
[5] KAPIL P. A Novel Neural Network Architecture for Sentiment-Oriented Aspect-Opinion Pair Extraction [D].Bangalore:Indian Institute of Science,2021.
[6] ZHANG W X,LI X,DENG Y,et al. A Survey on Aspect-Based Sentiment Analysis:Tasks,Methods,and Challenges [J/OL].arXiv:2203.01054 [cs.CL].[2022-08-07].https://arxiv.org/abs/2203.01054.
[7] FAN F F,FENG Y S,ZHAO D Y. Multi-Grained Attention Network for Aspect-Level Sentiment Classification [C]//the 2018 Conference on Empirical Methods in Natural Language Processing.Brussels:EMNLP,2018:3433-3442.
[8] 楊應全,劉子輝.我國突發(fā)事件網絡輿情研究綜述 [J].重慶科技學院學報:社會科學版,2022(2):40-48+71.
[9] 曲成義.網絡突發(fā)事件的應急對策與治理環(huán)境的建設 [J].信息化建設,2005(10):16-17.
[10] 徐曉日.網絡輿情事件的應急處理研究 [J].華北電力大學學報:社會科學版,2007(1):89-93.
[11] 史偉,薛廣聰,何紹義.情感視角下的網絡輿情研究綜述 [J].圖書情報知識,2022,39(1):105-118.
[12] 曾子明,萬品玉.融合演化特征的公共安全事件微博情感分析 [J].情報科學,2018,36(12):3-8+51.
[13] 栗雨晴,禮欣,韓煦,等.基于雙語詞典的微博多類情感分析方法 [J].電子學報,2016,44(9):2068-2073.
[14] 孫雷.基于主題模型的微博評論細粒度情感分析研究 [D].邯鄲:河北工程大學,2021.
[15] SANG E F T K,VEENSTRA J. Representing Text Chunks [J/OL].arXiv:cs/9907006 [cs.CL].[2022-08-08].https://arxiv.org/abs/cs/9907006.
[16] DEVLIN J,CHANG M W,LEE K,et al. BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding [J/OL].arXiv:1810.04805 [cs.CL].[2022-08-09].https://arxiv.org/abs/1810.04805v1.
[17] LI X,BING L D,ZHANG W X,et al. Exploiting BERT for End-to-End Aspect-Based Sentiment Analysis [J/OL].arXiv:1910.00883 [cs.CL].[2022-08-06].https://arxiv.org/abs/1910.00883.
[18] CHO K,MERRIENBOER B V,GULCEHRE C,et al. Learning Phrase Representations Using RNN Encoder-Decoder for Statistical Machine Translation [J/OL].arXiv:1406.1078 [cs.CL].[2022-08-06].https://arxiv.org/abs/1406.1078.
[19] JOZEFOWICZ R,ZAREMBA W,SUTSKEVER I. An Empirical Exploration of Recurrent Network Architectures [C]//the 32nd International Conference on Machine Learning.Lille:ICML,2015,37:2342-2350.
[20] CHENG J P,DONG L,LAPATA M. Long Short-Term Memory-Networks for Machine Reading [J/OL].arXiv:1601.06733 [cs.CL].[2022-08-06].https://arxiv.org/abs/1601.06733v5.
[21] VASWANI A,SHAZEER N,PARMAR N,et al. Attention is all You Need [J/OL].arXiv:1706.03762 [cs.CL].[2022-08-08].https://arxiv.org/abs/1706.03762.
[22] HUANG Z H,XU W,YU K. Bidirectional LSTM-CRF Models for Sequence Tagging [J/OL].arXiv:1508.01991 [cs.CL].[2022-08-09].https://arxiv.org/abs/1508.01991.
[23] LI X,BING L D,LI P J,et al. A Unified Model for Opinion Target Extraction and Target Sentiment Prediction [J/OL].arXiv:1811.05082 [cs.CL].[2022-08-09].https://arxiv.org/abs/1811.05082.
[24] LAMPLE G,BALLESTEROS M,SUBRAMANIAN S,et al. Neural architectures for Named Entity Recognition [J/OL].arXiv:1603.01360 [cs.CL].[2022-08-05].https://arxiv.org/abs/1603.01360.
[25] 譚翠萍.文本細粒度情感分析研究綜述 [J].大學圖書館學報,2022,40(4):85-99+119.
[26] 張繼東,張慧迪.融合注意力機制的多模態(tài)突發(fā)事件用戶情感分析 [J].情報理論與實踐,2022,45(11):170-177.
[27] 楊曉晨.基于深度學習的文本情感分類方法研究 [D].天津:天津理工大學,2022.
[28] LI X,BING L D,LI P J,et al. A Unified Model for Opinion Target Extraction and Target Sentiment Prediction [J/OL].arXiv:1811.05082 [cs.CL].[2022-08-07].https://arxiv.org/abs/1811.05082.
[29] 華瑋,吳思洋,俞超,吳婕洵,徐健.面向網絡輿情事件的多層次情感分歧度分析方法 [J/OL].數據分析與知識發(fā)現,2022:1-23[2022-07-09].http://kns.cnki.net/kcms/detail/10.1478.g2.20220613.1153.008.html.
[30] 王宇琪,鄭安琪,郝川艷.基于細粒度情感分析的情感目標過程性評價機理與路徑研究 [J].計算機時代,2022(7):94-97+100.
[31] 蘇紅旗,聶金慧,曾志.基于特征聚類的網絡評論信息挖掘研究 [J].信息網絡安全,2013(12):51-54.
[32] 趙宏,傅兆陽,王樂.基于特征融合的中文文本情感分析方法 [J].蘭州理工大學學報,2022,48(3):94-102.
[33] DO H H,PRASAD P W C,MAAG A,et al. Deep Learning for Aspect-Based Sentiment Analysis:A Comparative Review [J].Expert Systems with Applications,2019,118:272-299.
[34] MINAEE S,KALCHBRENNER N,CAMBRIA E,et al. Deep Learning Based Text Classification:A Comprehensive Review [J/OL].arXiv:2004.03705 [cs.CL].[2022-08-11].https://arxiv.org/abs/2004.03705.
[35] XU H,LIU B,SHU L,et al. BERT Post-Training for Review Reading Comprehension and Aspect-Based Sentiment Analysis [J/OL].arXiv:1904.02232 [cs.CL].[2022-08-12].https://arxiv.org/abs/1904.02232.
[36] PHAN M H,OGUNBONA P O. Modelling Context and Syntactical Features for Aspect-Based Sentiment Analysis [C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.ACL,2020:3211-3220.
[37] RAMSHAW L A,MARCUS M P. Text Chunking Using Transformation-Based Learning [M]//ARMSTRONG S,CHURCH K,ISABELLE P. Natural Language Processing Using very Large Corpora.Dordrecht:Springer,1999:157-176.
[38] 王巍.解析網絡輿情下官民互動的蝴蝶效應 [J].武警學院學報,2017,33(11):81-84.
[39] 于龍.涉警網絡輿情危機的治理對策 [J].中國人民警察大學學報,2022,38(6):25-30.
作者簡介:徐子昂(2001.03—),男,漢族,河南信陽人,本科在讀,研究方向:自然語言處理。
收稿日期:2022-09-13