環(huán)志剛,蔣國(guó)權(quán),周澤云,陳 濤,嚴(yán) 浩
(1.國(guó)防科技大學(xué) 第六十三研究所,江蘇 南京 210007;2.東南大學(xué) 網(wǎng)絡(luò)空間安全學(xué)院,江蘇 南京 210096;3.裝備發(fā)展部 信息中心,北京 100034;4.裝備發(fā)展部某局,北京 100034)
事件共指消解(event coreference resolution,ECR)是對(duì)文本中指代現(xiàn)實(shí)中相同事件的提及進(jìn)行聚類(lèi)的任務(wù)[1]。情報(bào)文檔中存在大量重復(fù)的事件提及,增加了情報(bào)數(shù)據(jù)的復(fù)雜性和自動(dòng)處理的難度,并影響后續(xù)情報(bào)應(yīng)用效果。事實(shí)上,文檔中部分事件提及指代同一情報(bào)事件,通過(guò)ECR技術(shù)進(jìn)行事件消歧、信息融合,可以消除情報(bào)數(shù)據(jù)中的事件冗余,降低自動(dòng)處理事件數(shù)據(jù)的難度。情報(bào)信息往往具有多個(gè)來(lái)源,跨文檔事件共指消解技術(shù)允許識(shí)別多個(gè)文檔中共指的情報(bào)事件,從而融合多源情報(bào)信息。不同于文檔內(nèi)事件共指消解只需為每個(gè)文檔內(nèi)的每對(duì)事件提及計(jì)算共指分?jǐn)?shù),大多數(shù)的跨文檔事件共指消解需要計(jì)算語(yǔ)料庫(kù)中所有事件對(duì)(可能來(lái)自同一文檔,也可能不是)的共指得分。本文提出一種利用事件共指消解技術(shù)融合多元情報(bào)信息的框架。首先,利用標(biāo)注好的情報(bào)語(yǔ)料訓(xùn)練事件預(yù)測(cè)模塊,并用其識(shí)別未標(biāo)注語(yǔ)料中的情報(bào)事件、類(lèi)型和論元等信息。然后,將這些信息輸入文檔內(nèi)共指消解模塊,實(shí)現(xiàn)單個(gè)情報(bào)文檔內(nèi)的信息融合。最后,設(shè)計(jì)了一個(gè)跨文檔共指消解的算法,利用文檔內(nèi)事件共指消解的結(jié)果優(yōu)化跨文檔事件共指消解,融合多源情報(bào)文檔中的共指情報(bào)信息。本文所提的模型,只需在訓(xùn)練階段使用少量標(biāo)注語(yǔ)料訓(xùn)練模型,在實(shí)施情報(bào)融合工作時(shí)不需要額外使用任何標(biāo)注信息,模型自動(dòng)實(shí)現(xiàn)情報(bào)事件識(shí)別和融合。
早期文檔內(nèi)事件共指消解使用傳統(tǒng)方法,如基于概率的模型和基于圖的模型[2]。這類(lèi)方法大多源自實(shí)體共指消解并且關(guān)注英文事件共指消解,效果不佳。針對(duì)各種注釋事件屬性,成對(duì)事件共指模型被提出,但是傳統(tǒng)成對(duì)分類(lèi)器沒(méi)有考慮文檔內(nèi)的全局信息,成對(duì)結(jié)果轉(zhuǎn)化為共指事件鏈時(shí)存在很多沖突。近年來(lái),神經(jīng)網(wǎng)絡(luò)在各種英文NLP應(yīng)用中得到了廣泛的應(yīng)用。Lu和Ng[3]探索了基于跨度模型的事件共指消解方法,并驗(yàn)證了跨任務(wù)依賴(lài)和實(shí)體共指信息可以被有益地用于事件共指消解。Wei等[4]提出了一種基于事件觸發(fā)詞來(lái)選擇性表達(dá)句子語(yǔ)義的方法,以判斷短文本中的事件共指關(guān)系。Lai等[5]設(shè)計(jì)了一種基于事件觸發(fā)詞的上下文相關(guān)的門(mén)控神經(jīng)網(wǎng)絡(luò),獲取無(wú)噪聲的事件成對(duì)特征解決英文事件共指。Peng等[6]提出一種是基于最小監(jiān)督的事件檢測(cè)和事件共指消解的聯(lián)合方法,共同改善事件檢測(cè)和事件共指消解兩個(gè)任務(wù)的性能。
大多數(shù)跨文檔事件共指消解方法將其看作是一個(gè)二分類(lèi)問(wèn)題。早期的工作利用手工標(biāo)注的特征(例如文章主旨、詞嵌入相似度等)?,F(xiàn)在更多的方法依賴(lài)神經(jīng)網(wǎng)絡(luò),并利用基于特征的嵌入[7,8]或上下文嵌入[9,10]。最近的方法[9]利用預(yù)訓(xùn)練語(yǔ)言模型編碼整個(gè)文檔,得到較強(qiáng)的基準(zhǔn)模型。但是,這種方法必須為語(yǔ)料庫(kù)所有文檔中共n個(gè)事件提及兩兩組成的每對(duì)提及計(jì)算一個(gè)相似度得分,因此共要計(jì)算n2次。
相比于英文事件共指消解,中文語(yǔ)料上的研究更少。針對(duì)事件的語(yǔ)義信息主要由觸發(fā)詞和論元表示這一個(gè)特點(diǎn),Huan等[11]將事件進(jìn)行結(jié)構(gòu)化表示并輸入一個(gè)基于門(mén)控注意力機(jī)制的模型,進(jìn)行文檔內(nèi)中文事件共指消解。為解決事件提及中事件無(wú)關(guān)信息的影響以及中文句子結(jié)構(gòu)靈活多樣的問(wèn)題,Cheng等[12]設(shè)計(jì)一種門(mén)控注意力神經(jīng)網(wǎng)絡(luò)模型從事件提及中選擇事件相關(guān)信息,然后過(guò)濾噪聲信息。這些方法都是利用語(yǔ)料中已經(jīng)標(biāo)注好的事件信息(事件觸發(fā)詞、類(lèi)型和論元等)解決中文共指問(wèn)題,然而現(xiàn)實(shí)任務(wù)中標(biāo)注語(yǔ)料的代價(jià)昂貴,因此這些方法泛化性差,難以應(yīng)用到現(xiàn)實(shí)任務(wù)中。此外,情報(bào)語(yǔ)料中的事件具有特殊性,在通用語(yǔ)料庫(kù)上訓(xùn)練的模型直接應(yīng)用到情報(bào)領(lǐng)域效果不佳。
目前,事件共指消解應(yīng)用于各種自然語(yǔ)言處理任務(wù),包括主題檢測(cè)[13]、信息抽取[14]和閱讀理解[15]等。本文提出將其應(yīng)用到情報(bào)領(lǐng)域,融合多源情報(bào)文檔中的共指事件,消除冗余,提高自動(dòng)處理信息的效率。針對(duì)現(xiàn)有中文事件共指消解方法過(guò)度依賴(lài)標(biāo)注好的特征的問(wèn)題,提出了端到端的中文事件共指方法,消除模型對(duì)標(biāo)注信息的依賴(lài)。此外,重新定義情報(bào)事件類(lèi)型和論元角色,使模型適應(yīng)解決情報(bào)事件共指,融合多源情報(bào)信息的工作。本文的貢獻(xiàn)主要包括4個(gè)方面:①提出一種用于融合多源情報(bào)的端到端事件共指消解方法;②提出一種用于解決文檔內(nèi)事件共指的方法,融合文檔內(nèi)的情報(bào)信息;③設(shè)計(jì)一種解決跨文檔的事件共指消解算法,利用文檔內(nèi)事件共指消解的結(jié)果融合多源情報(bào)信息;④實(shí)驗(yàn)結(jié)果表明,本文提出的方法對(duì)消除冗余信息、簡(jiǎn)化情報(bào)文本,融合情報(bào)信息具有明顯增益。
模型總共包括3個(gè)模塊:事件預(yù)測(cè)模塊、文檔內(nèi)共指消解模塊和跨文檔共指消解模塊,如圖1所示。
圖1 模型結(jié)構(gòu)
首先,通過(guò)手動(dòng)標(biāo)注的情報(bào)語(yǔ)料庫(kù),重新訓(xùn)練事件抽取模型ONEIE[16],使其適應(yīng)情報(bào)事件的預(yù)測(cè)工作;其次,通過(guò)訓(xùn)練好的事件預(yù)測(cè)模塊預(yù)測(cè)待消解的情報(bào)數(shù)據(jù),得到事件觸發(fā)詞、類(lèi)型和事件論元;然后,將原始文檔和這些信息輸入文檔內(nèi)共指消解模塊得到文檔內(nèi)事件共指鏈;最后,通過(guò)跨文檔共指消解模塊,完成跨文檔的情報(bào)融合。下面將依次介紹事件預(yù)測(cè)模塊、文檔內(nèi)共指消解模塊和跨文檔共指消解模塊。
本文采用ONEIE來(lái)識(shí)別事件提及和它們的子類(lèi)型和論元。ONEIE是一種捕獲跨子任務(wù)和跨實(shí)例的相互依賴(lài)關(guān)系的聯(lián)合神經(jīng)框架,旨在提取全局最優(yōu)的信息抽取結(jié)果。ONEIE分4個(gè)階段進(jìn)行端到端的搜索:將給定的句子編碼為上下文化的單詞表示;識(shí)別實(shí)體提及和事件觸發(fā)詞為圖節(jié)點(diǎn);使用局部分類(lèi)器計(jì)算所有節(jié)點(diǎn)及其成對(duì)鏈接的標(biāo)簽得分;使用解碼器搜索全局最優(yōu)圖。在解碼階段,結(jié)合全局特征來(lái)捕獲跨子任務(wù)和跨實(shí)例的交互。ONEIE是最先進(jìn)的信息抽取聯(lián)合神經(jīng)模型,在ACE2005數(shù)據(jù)集上獲得了最優(yōu)效果。ACE2005數(shù)據(jù)集定義了8種事件類(lèi)型和33種事件子類(lèi)型,并為每種子類(lèi)型的事件定義了若干種論元。為了在情報(bào)文檔中獲取最佳的情報(bào)事件預(yù)測(cè)結(jié)果,本文選擇了情報(bào)事件可能的5種類(lèi)型和16種子類(lèi)型,見(jiàn)表1。
表1 情報(bào)事件的類(lèi)型和子類(lèi)型
此外,本文還為每種類(lèi)型的情報(bào)事件定義了4種角色的論元:arg0、arg1、arg_t和arg_p。各種論元的解釋見(jiàn)表2。
表2 情報(bào)事件的論元
提及編碼的輸入是一個(gè)包含n個(gè)詞元和k個(gè)事件提及 {m1,m2,…,mk} 的文檔D。 文檔內(nèi)事件共指消解模塊如圖2所示。
圖2 文檔內(nèi)事件共指消解模塊
模型首先使用BERT為每個(gè)輸入詞元形成上下文表示,用X=(X1,X2,…,Xn) 表示編碼器的輸出,其中Xi∈Rd,d表示每個(gè)詞元編碼后的向量維度。對(duì)于每個(gè)mi, 用si和ei分別表示觸發(fā)詞的開(kāi)始和結(jié)束索引,它的觸發(fā)詞的表示ti被定義為其詞元嵌入的平均值
(1)
(2)
給定兩個(gè)提及mi和mj, 觸發(fā)詞對(duì)和對(duì)應(yīng)角色r的論元對(duì)的表示分別被定義為
tij=FFNNt(ti,tj,ti°tj)
(3)
(4)
事件抽取任務(wù)中可能包含錯(cuò)誤,且在特定的上下文中,某些論元包含的信息更有利于解決事件共指。受到Lai等[1,5]的啟發(fā),引入一種門(mén)控過(guò)濾機(jī)制,利用觸發(fā)詞有選擇地從論元中提取信息。如圖3所示。
圖3 門(mén)控模塊
(5)
本文使用以下方法獲取兩個(gè)分量的權(quán)重系數(shù)
(6)
(7)
將觸發(fā)詞表示、論元表示簡(jiǎn)單拼接,得到最終的事件提及對(duì)表示fij
(8)
最后,對(duì)于事件提及mi和mj, 將事件提及對(duì)表示fij輸入一個(gè)前饋神經(jīng)網(wǎng)絡(luò)打分器,輸出mi和mj的共指得分
s(i,j)=FFNNc(fij)
(9)
其中,F(xiàn)FNNc是一個(gè)R5×p→R的前饋神經(jīng)網(wǎng)絡(luò)。
(10)
利用2.3節(jié)中的方法,可以得到每個(gè)情報(bào)文檔的事件共指鏈集合,根據(jù)這些鏈可以初步融合每個(gè)文檔內(nèi)的情報(bào)事件。但是,同一情報(bào)事件不僅會(huì)出現(xiàn)在同一文檔中,還可能會(huì)出現(xiàn)在多源情報(bào)中。為了降低計(jì)算,本文提出了跨文檔事件共指消解算法,利用文檔內(nèi)事件共指消解的結(jié)果進(jìn)一步融合多源情報(bào)。如算法1所示。
算法1:跨文檔事件共指消解
輸入:文檔1和文檔2的事件共指鏈集合S1和S2
輸出:跨文檔事件共指鏈集合S
for each chainS1//循環(huán)S1中的每條共指鏈
C={} //存放當(dāng)前鏈和S2中每條鏈的共指得分
for each chainS2//循環(huán)S2中的每條共指鏈
計(jì)算兩條鏈的共指得分
將得分加入集合C
end for
/計(jì)算當(dāng)前鏈(S1中)與S2中最有可能共指的鏈
計(jì)算C中最高的分?jǐn)?shù)cij
ifcij>0 //判斷為共指
合并ci和cj并作為一條新鏈加入集合S,更新S2
else //判斷為不共指
將ci加入集合S
end else
end if
end for
將S2中的剩余鏈加入集合S
在算法1中,對(duì)于每條文檔內(nèi)共指鏈,本文使用該鏈中所有事件提及表示的平均池化作為鏈的表示。計(jì)算鏈與鏈共指得分的打分器與2.3節(jié)中的打分器相同。首先,計(jì)算文檔1中的鏈與文檔2中每條鏈的共指得分;然后,取出共指得分最高的兩條鏈(文檔1中的每條鏈至多只能在文檔2中找到一條共指鏈,即不存在鏈與其它文檔中多條鏈共指)判斷是否共指。如果存在共指,將兩條鏈合并成一條新的事件鏈加入跨文檔事件鏈集合;如果不共指,將文檔1中的鏈加入跨文檔事件鏈集合,繼續(xù)判斷其它鏈。最后,得到跨文檔事件共指鏈集合。利用得到的跨文檔事件鏈完成多源情報(bào)事件融合。
受限于數(shù)據(jù)集,本文在ACE2005中文數(shù)據(jù)集上進(jìn)行所有的實(shí)驗(yàn)。ACE事件被分為8個(gè)大類(lèi),33個(gè)小類(lèi),根據(jù)每類(lèi)事件的特點(diǎn),ACE2005定義了事件論元,包括事件參與者和事件發(fā)生的時(shí)間地點(diǎn)等。下面將介紹相關(guān)定義:
事件提及:描述事件的短語(yǔ)或句子;
事件觸發(fā)詞:清楚表示事件發(fā)生的主要單詞,通常是名詞或者是動(dòng)詞;
事件論元:實(shí)體或短語(yǔ),包括事件參與者和事件發(fā)生的時(shí)間和地點(diǎn);
事件類(lèi)型:由觸發(fā)詞類(lèi)型決定。
ACE中文語(yǔ)料庫(kù)共計(jì)632個(gè)文檔,但不是每個(gè)文檔中都存在共指事件對(duì)。因此本文使用ONEIE識(shí)別文檔中的事件提及其特征,并移除不存在共指事件對(duì)的文檔。本實(shí)驗(yàn)選擇其中含有相同類(lèi)型事件對(duì)的文檔(事件類(lèi)型不相同的事件對(duì)不具有共指關(guān)系,故舍棄),最終共提取出445個(gè)文檔。將同一文檔中的任意兩個(gè)事件組成事件對(duì),剔除事件類(lèi)型不相同的事件對(duì),共計(jì)14 394個(gè)事件對(duì)。
本文實(shí)驗(yàn)在一臺(tái)配備Intel(R)Xeon(R)Gold 5120 CPU @ 2.20GHz和NVIDIA Tesla V100 gpu的服務(wù)器上進(jìn)行。已分配內(nèi)存為187G。GPU內(nèi)存為16G。
根據(jù)表2定義的事件類(lèi)型和論元,標(biāo)注情報(bào)語(yǔ)料,并利用標(biāo)注好的語(yǔ)料訓(xùn)練ONEIE,使其預(yù)測(cè)情報(bào)文檔中事件和抽取事件信息的準(zhǔn)確度達(dá)到最佳。將待消解的文檔輸入訓(xùn)練好的事件預(yù)測(cè)模塊,輸出事件觸發(fā)詞、子類(lèi)型和論元。利用情報(bào)事件重新訓(xùn)練ONEIE得到事件預(yù)測(cè)模塊,事件預(yù)測(cè)模塊中預(yù)測(cè)觸發(fā)詞和論元的F1分?jǐn)?shù)見(jiàn)表3。
表3 事件預(yù)測(cè)模塊的效果
事件預(yù)測(cè)模塊中預(yù)測(cè)觸發(fā)詞和論元的F1分?jǐn)?shù)見(jiàn)表3,觸發(fā)詞的識(shí)別和分類(lèi)任務(wù)的F1分?jǐn)?shù)分別達(dá)到75.6和72.8,論元的F1分?jǐn)?shù)分別為57.3和54.8。
表4是事件預(yù)測(cè)模塊應(yīng)用的一個(gè)示例。如表所示,觸發(fā)詞有5個(gè)參數(shù),分別是觸發(fā)詞的id、文本、類(lèi)型(子類(lèi)型)、始末位置和置信分?jǐn)?shù)。其中始末位置表示,觸發(fā)詞文本在文檔中的起始位置和結(jié)束位置,置信分?jǐn)?shù)表示觸發(fā)詞的置信度。論元中有6個(gè)參數(shù),前5個(gè)參數(shù)定義與觸發(fā)詞類(lèi)似,第6個(gè)參數(shù)是對(duì)應(yīng)的觸發(fā)詞的id。
模型的目標(biāo)輸出文檔中的所有共指事件鏈。當(dāng)一個(gè)事件提及的預(yù)測(cè)先行詞是它的真實(shí)共指事件時(shí),認(rèn)為這個(gè)預(yù)測(cè)的先行詞是正確的先行詞。為了得到最佳的結(jié)果,模型優(yōu)化所有正確的先行詞的邊際對(duì)數(shù)似然[17]
(11)
其中,GOLD(i) 表示mi的真實(shí)共指事件鏈,如果mi不存在真實(shí)共指事件,則GOLD(i)={ε},P(i,j) 表示mi與mj共指的概率。
通過(guò)優(yōu)化這個(gè)目標(biāo)函數(shù),模型可以自動(dòng)學(xué)習(xí)如何利用真實(shí)共指鏈準(zhǔn)確修剪預(yù)測(cè)共指事件鏈,最終獲得最佳的模型性能。
(12)
MUC:事件共指消解最重要的評(píng)估指標(biāo),它是基于事件鏈接的分?jǐn)?shù)。MUC分?jǐn)?shù)計(jì)算了將預(yù)測(cè)的事件共指鏈映射到標(biāo)注的事件共指鏈(正確的事件共指鏈)所需插入或刪除的最少鏈接數(shù)量。它的缺陷是無(wú)法衡量模型預(yù)測(cè)不存在共指關(guān)系的事件的性能。
B3:基于事件節(jié)點(diǎn)的分?jǐn)?shù),它彌補(bǔ)了MUC對(duì)非共指事件評(píng)估的不足。B3主要對(duì)每個(gè)事件提及分別計(jì)算精確率和召回率,然后以所有事件提及的分?jǐn)?shù)平均值作為最終的指標(biāo)。
CEAFe:類(lèi)似于B3,但它添加了實(shí)體相似度來(lái)評(píng)估事件共指消解的性能。CEAFe主要基于這樣一種思想:如果兩個(gè)事件提及是共指的,那么它們對(duì)應(yīng)角色的參數(shù)(實(shí)體)也是共指的。
BLANC:衡量非共指事件和共指事件之間的平均性能。BLANC實(shí)現(xiàn)了蘭德指數(shù),主要用于聚類(lèi)算法。BLANC正確地處理不存在共指關(guān)系的事件,并根據(jù)被提及的數(shù)量獎(jiǎng)勵(lì)正確的事件提及。BLANC背后的一個(gè)基本假設(shè)是,對(duì)于給定的事件提及,所有共指鏈接和非共指鏈接的總和是不變的。
此外,本文還使用了CoNLL(式(13))和AVG(式(14))作為對(duì)比指標(biāo)[1]
(13)
(14)
本文在ACE2005中文數(shù)據(jù)集上測(cè)試文檔內(nèi)共指消解,結(jié)果見(jiàn)表5,模型的CoNLL分?jǐn)?shù)和AVG分?jǐn)?shù)分別達(dá)到了58.2和56.3。Peng的方法是基于最小監(jiān)督的事件檢測(cè)和事件共指消解的聯(lián)合方法。Lai等[5]的工作在ACE2005英文數(shù)據(jù)集上取得了最好的成績(jī),我們?cè)谥形臄?shù)據(jù)集上重新訓(xùn)練并測(cè)試了Lai等的工作。由表5可以看出相比于Peng和Lai等的工作,我們的文檔內(nèi)事件共指消解方法在對(duì)多個(gè)指標(biāo)上獲得了不錯(cuò)的提升,其中相比于最好的模型,本文的模型在CoNLL和AVG兩個(gè)指標(biāo)上分別提升了0.8和0.7。
表5 端到端事件共指消解的效果
圖4展示了文檔內(nèi)事件共指消解的一個(gè)示例,文檔中用粗體標(biāo)注了事件觸發(fā)詞,事件鏈中粗體標(biāo)注了模型判斷共指的事件。
圖4 文檔內(nèi)事件共指消解的應(yīng)用示例
俄烏沖突初期,烏軍可以發(fā)動(dòng)密集、精確的伏擊戰(zhàn)的一個(gè)重要原因是每個(gè)烏克蘭人都可以對(duì)看到的俄軍進(jìn)行拍攝,附加文字說(shuō)明后上傳到特定APP。烏軍就會(huì)對(duì)俄軍在各個(gè)位置的坦克、裝甲車(chē)、補(bǔ)給車(chē)、運(yùn)輸車(chē)隊(duì)等的精確位置和實(shí)時(shí)動(dòng)態(tài),有一個(gè)比較準(zhǔn)確的認(rèn)識(shí)。
情報(bào)上傳的時(shí)間和地點(diǎn)由APP自動(dòng)提供。例如,下面有3條上傳APP的情報(bào):
5月26日15:00,甲地上傳了一條情報(bào):“俄羅斯的坦克從我這經(jīng)過(guò)”。
5月26日15:30,乙地上傳了一條情報(bào):“有5輛俄軍坦克駛過(guò)乙地”。
5月26日16:00,丙地上傳了一條情報(bào):“俄軍正在向南方向前進(jìn)”。
對(duì)于這3條情報(bào),首先使用事件預(yù)測(cè)技術(shù)分別得到3個(gè)事件觸發(fā)詞“經(jīng)過(guò)”、“駛過(guò)”和“前進(jìn)”,它們的事件子類(lèi)型均為“轉(zhuǎn)移”并且有相似語(yǔ)義的論元“俄羅斯的坦克”、“俄軍坦克”和“俄軍”,通過(guò)事件共指消解技術(shù)可以判斷這3條情報(bào)指代同一條情報(bào)。信息融合之后可以得知“5月26日,俄軍5輛坦克于15:00從甲地出發(fā),于15:30經(jīng)過(guò)乙地,于16:00駛向丙地,并且仍在向南方前進(jìn)”。
對(duì)于上述情報(bào),“甲—乙—丙”這條路線(xiàn)上的每個(gè)烏克蘭人都有可能上傳一條相似情報(bào),數(shù)據(jù)量龐大,很難通過(guò)人力處理。對(duì)于這種多源情報(bào),使用跨文檔事件共指消解技術(shù)可以很好地融合情報(bào)信息。然后根據(jù)情報(bào)中不同的時(shí)間、地點(diǎn),繪制出俄軍轉(zhuǎn)移的具體路線(xiàn)和實(shí)時(shí)路線(xiàn),并預(yù)測(cè)俄軍的下一步動(dòng)作,發(fā)動(dòng)靈活、精確的伏擊戰(zhàn)。
本文提出將事件共指消解技術(shù)用于融合多源情報(bào)信息。情報(bào)文檔中存在大量重復(fù)冗余的事件信息,嚴(yán)重影響自動(dòng)處理信息的效率,大量積累的情報(bào)數(shù)據(jù)無(wú)法及時(shí)轉(zhuǎn)化成知識(shí)應(yīng)用。通過(guò)一種端到端的事件共指消解模型,首先識(shí)別每個(gè)情報(bào)文檔中的事件,然后對(duì)每個(gè)文檔進(jìn)行事件共指消解,最后利用各個(gè)情報(bào)文檔共指消解的結(jié)果實(shí)現(xiàn)多源情報(bào)的融合。結(jié)果表明,本文提出的方法可以較好融合多源情報(bào),降低自動(dòng)處理數(shù)據(jù)的難度。