熊 皓,劉 群,呂雅娟
(1.中國科學(xué)院 計算技術(shù)研究所,北京100190;2.橙譯中科信息技術(shù)有限公司,北京100010)
語義角色標(biāo)注和指代消解是自然語言處理中的兩個重要基礎(chǔ)研究,相關(guān)的研究都被廣泛應(yīng)用于其他的自然語言處理應(yīng)用中。基于直覺上來說,這兩個任務(wù)之間具有很強(qiáng)的聯(lián)系性,即語義角色標(biāo)注的結(jié)果可以幫助改進(jìn)指代消解[1-2],而指代消解的結(jié)果可以幫助語義角色標(biāo)注。前者已經(jīng)有相關(guān)的工作驗證,后面一個假設(shè)目前來說沒有相關(guān)的研究工作可以參考。以 OntoNote[3]語料中的一篇文章片段為例:
1.Because[I]ARG0know [this situation]ARG1.
2.Right,like those whom we interviewed just now.
3.[It]ARG1was easy to handle once everyone understood.
其中第3個句子的“It”指代的是第1個句子的“this situation”。在這個例子中,第3個句子的“It”由于出現(xiàn)在謂詞前面,很容易被錯誤的標(biāo)注為“ARG0”,但是如果能夠知道“It”和前面的“this situation”指的是同一實體,而“this situation”指的是事務(wù),更多時候是受事者,因此“It”標(biāo)注為“ARG1”的可能性更大。因此基于語義角色標(biāo)注和指代消解相互關(guān)聯(lián)這個直覺,我們提出使用馬爾科夫邏輯網(wǎng)對它們進(jìn)行聯(lián)合學(xué)習(xí)推導(dǎo)。
馬爾科夫邏輯網(wǎng)絡(luò)(MLN)是Richardson和Domingos[4]提出的一種知識表達(dá)方式,被廣泛的應(yīng)用于一些聯(lián)合任務(wù)中,如指代消解[5-6],語義角色標(biāo)注和語義消歧[7]。由于馬爾科夫邏輯網(wǎng)絡(luò)模型簡單,對于一個新的問題常常只需要定義一些新的邏輯表達(dá)式,特別對于聯(lián)合模型來說,可以通過簡單的增加一些約束表達(dá)式來完成聯(lián)合任務(wù),因此本文選用馬爾科夫邏輯網(wǎng)絡(luò)來聯(lián)合語義角色標(biāo)注和指代消解。本文最后大量的實驗表明,采用聯(lián)合學(xué)習(xí)后,兩者的標(biāo)注性能相比于單獨標(biāo)注系統(tǒng)都有了1.6個F值的提升。據(jù)我們所知,這也是第一篇證明指代消解結(jié)果可以幫助語義角色標(biāo)注的工作。
本文的章節(jié)組織結(jié)構(gòu)如下:我們首先在第2節(jié)簡單介紹一下馬爾科夫邏輯網(wǎng)絡(luò)的背景知識;在第3節(jié)將詳細(xì)介紹我們的模型采用的聯(lián)合學(xué)習(xí)規(guī)則;第4節(jié)是實驗部分;最后在第5節(jié)我們將總結(jié)我們的工作和對未來工作做出一些展望。
僅僅使用本地特征在語義角色標(biāo)注任務(wù)中是不夠的,一些研究者試圖利用一些全局特征[8]來提高標(biāo)注的性能,或者采用聯(lián)合學(xué)習(xí)方式來共同提高兩者的性能。隨著當(dāng)前機(jī)器學(xué)習(xí)研究的進(jìn)展,有多種方式可以實現(xiàn)我們的目標(biāo),例如整數(shù)線性規(guī)劃、馬爾科夫邏輯網(wǎng)絡(luò)等等。在這里我們選用后者,因為其定義簡單,支持判別式訓(xùn)練,更重要的一點是目前有很多相關(guān)的開源軟件可供使用,有利于快速、高效的驗證實驗結(jié)果。
簡單來說,馬爾科夫邏輯網(wǎng)絡(luò)可以認(rèn)為是對傳統(tǒng)一階邏輯模型的擴(kuò)充,馬爾科夫模型對一階邏輯中的公式(formula)增加了權(quán)重,用于衡量約束的強(qiáng)度,試圖用帶有權(quán)重的公式集合去描述已知知識的概率分布。
下面我們結(jié)合本文相關(guān)的任務(wù)實例來具體講解馬爾科夫邏輯網(wǎng)絡(luò)。
邏輯謂詞①為了和語義角色標(biāo)注中的謂詞相區(qū)分,我們對馬爾科夫邏輯網(wǎng)絡(luò)中的謂詞添加了邏輯兩個字用于區(qū)分。(predicate)
以指代消解為例,我們要做的決策是判別兩個提及mi和mj是否構(gòu)成共指關(guān)系。因此我們可以通過一個二元的邏輯謂詞來表達(dá)這個決策:coref(mi,mj),并且這個邏輯謂詞是隱藏的,可以叫做隱藏邏輯謂詞(hidden predicates),因為在測試時我們并不知道此邏輯謂詞的真假。在馬爾科夫邏輯網(wǎng)絡(luò)中還有一類邏輯謂詞叫作已觀察到的邏輯謂詞(observed predicates),表示這些信息是我們在測試集中可以觀察到的。例如我們可以定義一個相應(yīng)的邏輯謂詞headMatch(mi,mj)表示表示兩個提及的中心詞是否匹配。
公式(formula)
根據(jù)上面的邏輯謂詞定義,我們可以使用一些帶有權(quán)重的一階邏輯公式(first-order logic formulae)來表達(dá)我們的研究動機(jī)。例如,我們可以定義如下一條公式:
上面這條公式不一定在所有條件下成立,但是我們可以認(rèn)為在大多數(shù)情況下成立。因此我們給上面的公式一個權(quán)重ω,一般來說當(dāng)ω越大時,上面這條公式在我們的模型中成立的可能性就越大。并且ω的取值不需要人為指定,可以從訓(xùn)練語料中學(xué)習(xí)得到。
雖然上面的公式使用傳統(tǒng)的本地分類器(local classifier)也可以達(dá)到相同的效果,但是使用馬爾科夫邏輯網(wǎng)絡(luò)我們可以完成更強(qiáng)的推導(dǎo),例如:
在上面這個公式中,我們定義了一條本地分類器無法實現(xiàn)的全局約束規(guī)則,即指代消解中常見的指代傳遞性問題[9]。而此類全局約束規(guī)則也是本文的核心思想,通過馬爾科夫邏輯網(wǎng)絡(luò)我們能夠輕松的實現(xiàn)這些目標(biāo)。
形式化定義
形式化來說,馬爾科夫邏輯網(wǎng)M是一個帶權(quán)公式的集合,表示為{(Φi,ωi)}i,其中 Φi為一階邏輯公式,ωi為其對應(yīng)的權(quán)重。馬爾科夫邏輯網(wǎng)絡(luò)試圖通過調(diào)整ωi的大小來描述可能世界的概率。例如假設(shè)y表示一個可能的世界(possible world),或者說是基態(tài)原子(ground atoms)集合,則這個可能的世界出現(xiàn)的概率p(y)可以定義如下:
其中c是Φi中可以實例化自由變量的常量,fΦi表示一個二值特征函數(shù),如果使用c對Φi中的自由變量進(jìn)行替換后,得到的基態(tài)公式(ground formula)在世界y中仍然是正確的,則返回1,否則返回0。nΦi是公式Φi中自由變量的個數(shù)。CnΦi是可以用于實例化自由變量的常量集合,Z是歸一化常量。需要說明的是,分布p(y)對應(yīng)于一個馬爾科夫網(wǎng)絡(luò),其中圖中的節(jié)點表示基態(tài)原子,因子(factor)表示基態(tài)公式。例如,在世界y中,我們有兩個提及實例A,B,并且有邏輯謂詞headMatch構(gòu)成的基態(tài)原子headMatch(A,B),headMatch(B,C)。根據(jù)上面的公式(1),(2),我們可以得到如圖1所示的馬爾科夫圖模型,其中因子1和因子2對應(yīng)于公式(1),因子3對應(yīng)于公式(2)。
圖1 根據(jù)公式(1),(2)和邏輯謂詞headMatch生成的馬爾科夫網(wǎng)絡(luò)模型(其中虛線為馬爾科夫圖模型中的因子(factor))。
模型應(yīng)用
一般來說,利用馬爾科夫邏輯網(wǎng)絡(luò)進(jìn)行任務(wù)求解時,我們只需要定義好類似于公式(1),(2)的啟發(fā)式規(guī)則。雖然我們需要對整個模型進(jìn)行訓(xùn)練,例如給公式分配不同的權(quán)重w,以及給定一些觀察信息時,如何從圖模型中推理出最可能的基態(tài)原子等,但是一般的開源工具,如Alchemy①http://alchemy.cs.washington.edu/和 Markov thebeast②http://code.google.com/p/thebeast/都提供了相應(yīng)的求解算法,因此我們需要做的僅僅是根據(jù)他們的格式定義,在訓(xùn)練語料中抽取出相應(yīng)的基態(tài)原子實例。
在我們的聯(lián)合任務(wù)中,語義角色的分類以及指代消解中的提及分類都是本地化的不涉及到全局特征,而語義角色的推導(dǎo),指代消解中的實體推導(dǎo)以及兩個任務(wù)之間的聯(lián)合推導(dǎo)都是全局化的,需要使用到彼此之間的推導(dǎo)結(jié)果,因此我們將公式分為兩種:本地公式和全局公式。通過將本地公式和全局公式融入到馬爾科夫邏輯網(wǎng)絡(luò)中實現(xiàn)聯(lián)合分析的目的。
本地公式由若干個已觀察到的邏輯謂詞和最多一個隱藏邏輯謂詞組成。對于語義角色標(biāo)注來說,觀察到的邏輯謂詞大部分來自前人工作總結(jié)的比較有效的判別特征[8,10-13],最后結(jié)果如表1所示,隱藏邏輯謂詞只有一個:role。對于指代消解來說,我們參 照現(xiàn)有 一 些 研 究 工 作[6,14-16],使 用 的 觀 察 到 的 邏輯謂詞如表3所示,隱藏邏輯謂詞只有一個:coref。兩個任務(wù)使用的本地公式如表2,表4所示,其中符號“+”表示針對當(dāng)前公式里面可以替換的常量我們單獨給予一個權(quán)重。
表1 語義角色任務(wù)中使用的已觀察到邏輯謂詞
續(xù)表
由于我們是聯(lián)合語義角色標(biāo)注和指代消解任務(wù),首先我們給出語義角色推導(dǎo)中使用的一些全局約束,然后在指代消解任務(wù)中,我們參考宋洋等人的工作[6]使用全局約束的規(guī)則,最后我們定義新的聯(lián)合兩個任務(wù)的全局公式。
3.2.1 語義角色標(biāo)注全局公式
在語義角色標(biāo)注中,一個節(jié)點只可能被標(biāo)注為一個角色,因此我們有如下的公式:
此外對于ARG0~ARG5來說,在一個謂詞中只出現(xiàn)一次。
其中unique(r)為全局謂詞,其中的常量為ARG0~ARG5。此外對于R-*和C-*來說,他們出現(xiàn)時必然有對應(yīng)的核心角色出現(xiàn)。
其中rrole和crole為全局謂詞,其中的常量分別為R-ARG0~R-ARG5和C-ARG0~C-ARG5。
3.2.2 指代消解標(biāo)注全局公式
在指代消解問題的推導(dǎo)過程中,可以采取最近優(yōu)先和最好優(yōu)先兩種策略,前者搜索當(dāng)前提及前面的第一個共指提及,后者搜索前面概率最高的共指提及。在這里我們采用最好優(yōu)先策略,因此定義下面的全局公式:
此外在指代消解的過程中如果不加入任何約束條件,容易出現(xiàn)如下矛盾情況,如對于3個提及i,j,k來說,可能分類的結(jié)果是coref(i,j)和coref(i,k),但是j和k分類為非共指,按照一般的算法判別的結(jié)果就是i,j,k都是指向同一實體,這樣就產(chǎn)生了矛盾。為了解決這個問題,Luo等人[9]通過使用Bell-Tree來搜索可以加入共指鏈的提及,在這里我們通過加入幾條全局公式來約束生成的共指鏈不存在上述的矛盾關(guān)系。
3.2.3 聯(lián)合任務(wù)全局公式
值得注意的是,在我們的語義角色標(biāo)注任務(wù)中,每一個和謂詞沒有區(qū)間交叉的節(jié)點都可以認(rèn)為是謂詞的候選標(biāo)注節(jié)點,而在指代消解任務(wù)中候選提及一般都是名詞短語,并且大部分提及實際上都不是一個語義角色。如果我們直接將兩個模型聯(lián)合起來求解,很有可能在指代的影響下導(dǎo)致大量的非語義角色節(jié)點最后標(biāo)注了語義角色。因此我們首先利用表2的本地公式首先進(jìn)行一次角色分類,將第一次分類標(biāo)為語義角色的節(jié)點保留為候選節(jié)點,然后再聯(lián)合兩個模型起來求解。
首先我們認(rèn)為如果兩個節(jié)點是指代關(guān)系,則他們更可能標(biāo)注為同一個角色,于是有如下公式:
并且我們可以定義的更細(xì)致一些,約束到同一類謂詞:
另外我們發(fā)現(xiàn)角色相對于謂詞的順序以及謂詞是否被動對于標(biāo)注為ARG0還是ARG1影響很大,因此添加下面三條公式:
此外,如果兩個提及都標(biāo)注為同樣的角色,則他們共指的可能性也很大,因此我們考察提及前后兩個謂詞的標(biāo)注角色是否一致:
表2 語義角色任務(wù)中使用的本地公式
續(xù)表
表3 指代消解任務(wù)中使用的已觀察到邏輯謂詞
根據(jù)篇章向中對齊理論,對于在同一個句子中的提及來說,對于句子中的每一個謂詞,如果他們標(biāo)注的角色都相同,那么他們共指的可能性也很大[2]:
由于我們使用了多條聯(lián)合推理公式,當(dāng)數(shù)據(jù)集很大時速度很慢,因此我們使用開源工具先進(jìn)行初步的指代消解,然后將構(gòu)成實體的提及作為我們的候選提及,采用馬爾科夫邏輯網(wǎng)絡(luò)重新訓(xùn)練學(xué)習(xí)。
表4 指代消解任務(wù)中使用的本地公式
由于常用的語義角色標(biāo)注庫PropBank[17]數(shù)據(jù)集沒有指代標(biāo)注,我們選用OntoNote數(shù)據(jù)集作為我們的實驗數(shù)據(jù)。我們使用CoNLL-2012[18]的數(shù)據(jù)切分進(jìn)行實驗對比,由于我們的系統(tǒng)不需要調(diào)節(jié)參數(shù),因此在實驗部分本文只給出測試集上的實驗結(jié)果。
對于語義角色標(biāo)注任務(wù)我們采用準(zhǔn)確率、召回率和F值三個評價指標(biāo);而對于指代消解我們采用CoNLL-2012使 用的 MUC[19],BCUB[20],CEAF[21],BLANC[22]以及 MUC,BCUB和基于實體級別的CEAFE三者的平均值A(chǔ)vg作為評價指標(biāo)。
此外我們使用開源工具thebeast①http://code.google.com/p/thebeast/進(jìn)行馬爾科夫邏輯網(wǎng)訓(xùn)練和推導(dǎo),并且使用平均感知機(jī)[23]算法,迭代10輪進(jìn)行參數(shù)訓(xùn)練,其他都使用默認(rèn)參數(shù)。
4.2.1 語義角色標(biāo)注基準(zhǔn)系統(tǒng)
我們首先利用表2使用的本地特征以及公式(4)、(5)、(6)使用thebeast進(jìn)行一次語義角色標(biāo)注任務(wù),以此來生成聯(lián)合標(biāo)注的候選節(jié)點。表5給出了測試集上使用本地特征在標(biāo)準(zhǔn)句法分析結(jié)果和自動句法分析結(jié)果上面進(jìn)行標(biāo)注的性能,以及不考慮標(biāo)注的結(jié)果是否和參考答案匹配,僅僅考慮其是否為一個語義角色的性能,其中系統(tǒng)上限為基準(zhǔn)系統(tǒng)標(biāo)注的語義角色節(jié)點作為候選節(jié)點可能達(dá)到的性能上限。
表5 語義角色標(biāo)注基準(zhǔn)系統(tǒng)性能
雖然到目前為止,還沒有相關(guān)的研究工作匯報在CoNLL-2012上面語義角色標(biāo)注的性能,但是我們可以參考CoNLL-2012官方報告[18]給出的自動句法分析樹上面標(biāo)注的語義角色F值為70.13%,低于我們的標(biāo)注性能,他們使用的標(biāo)注器是Assert①http://cemantix.org/assert.html開源標(biāo)注器,并且在OntoNote上面使用訓(xùn)練集重新訓(xùn)練,但是最后的性能還是比我們的基準(zhǔn)系統(tǒng)要低。此外我們可以參考 Che等人[7]利用 Onto-Note3.0進(jìn)行聯(lián)合語義角色標(biāo)注和語義消岐的工作,他們將人工標(biāo)注的句法樹轉(zhuǎn)為依存樹進(jìn)行標(biāo)注,使用他們自己的切分方案得到的語義角色標(biāo)注最好F值為84.36%。從對比性能上來看,我們的基準(zhǔn)系統(tǒng)很強(qiáng),因此基于此對比系統(tǒng)進(jìn)行的性能提升很有說服力。
4.2.2 指代消解基準(zhǔn)系統(tǒng)
此外對于指代消解,我們也先使用Standford-CoreNLP②http://www-nlp.stanford.edu/software/corenlp.shtml進(jìn)行初步指代消解任務(wù),然后在其基礎(chǔ)上我們使用表4的本地特征以及公式(8)、(9)使用thebeast進(jìn)行更進(jìn)一步的指代消解任務(wù),表6給出了系統(tǒng)的提及識別性能以及5個指代消解評價指標(biāo)的得分,其中sys1為使用全部人工標(biāo)注的句法樹、命名實體識別等信息,sys2為使用自動標(biāo)注的識別信息。sys3為使用sys1的結(jié)果進(jìn)行馬爾科夫邏輯網(wǎng)訓(xùn)練推導(dǎo)的結(jié)果,sys4為使用sys2的結(jié)果進(jìn)行馬爾科夫邏輯網(wǎng)訓(xùn)練推導(dǎo)的結(jié)果。
表6 指代消解基準(zhǔn)對比系統(tǒng)性能
從表6中可以看到我們使用人工標(biāo)注和自動標(biāo)注的結(jié)果分別進(jìn)行指代消解,自動標(biāo)注的信息對于指代消解的性能還是略微有影響,差距大概在1~2個點左右,和Prahan等人的結(jié)論相當(dāng)[18]。不過總體而言,Standford-CoreNLP的水平還是處于世界最好水平之一,使用自動標(biāo)注時,MUC,BCUB,CEAFE三個指標(biāo)的平均得分59.45%比CoNLL-2012的系統(tǒng)最好水平63.37%[24]相差4個點,但是與其他系統(tǒng)性能水平相差不是很大[18],差距也主要在于Standford-CoreNLP是2011年設(shè)計的系統(tǒng),CoNLL-2012較CoNLL-2011系統(tǒng)水平有了很大改進(jìn)。不過我們采用二次消解的基準(zhǔn)系統(tǒng)仍然取得了60.29%的平均水平相比于Standford-CoreNLP仍然有0.8個點左右的性能提升。并且我們的方法可以應(yīng)用于任何單系統(tǒng),不局限于使用某一個開源工具。
最重要的一點是,通過單獨進(jìn)行語義角色標(biāo)注和指代消解兩個任務(wù),我們可以初步過濾掉大部分候選節(jié)點,并且保持非常高的系統(tǒng)性能上限(指代消解任務(wù)的提及識別召回率即為聯(lián)合推導(dǎo)系統(tǒng)上限),因此在后面的聯(lián)合推導(dǎo)模型中將在去除大量噪音的基礎(chǔ)上推導(dǎo)出更好的結(jié)果。
在前面一章中提到,本文一共使用了8條聯(lián)合推導(dǎo)規(guī)則,其中前5條是指代作用于語義角色標(biāo)注,后3條相反。根據(jù)使用公式的不同,我們對如下幾個系統(tǒng)進(jìn)行實驗,需要說明的是,我們的實驗都是基于自動標(biāo)注的結(jié)果上進(jìn)行的,因為人工標(biāo)注的結(jié)果對于實際應(yīng)用來說用處不是很大,而上文給出的人工標(biāo)注結(jié)果只是作為和其他研究工作對比的參考依據(jù)。
·sys1:使用公式(12)。
·sys2:使用公式(13)。
·sys3:使用公式(14)~(16)。
·sys4:使用公式(17)~(18)。
·sys5:使用公式(19)。
·sys6:使用公式(12)~(16)。
·sys7:使用公式(17)~(19)。
·sys8:使用所有聯(lián)合推導(dǎo)公式。
·gold1:類似系統(tǒng)sys6并且使用人工標(biāo)注的指代進(jìn)行語義角色標(biāo)注。
·gold2:類似系統(tǒng)sys7并且使用人工標(biāo)注的語義角色標(biāo)注進(jìn)行指代消解。
我們先進(jìn)行系統(tǒng)gold1和gold2的實驗,用于查看我們的系統(tǒng)所能達(dá)到的最好性能。表7給出了兩個系統(tǒng)的語義角色標(biāo)注和指代消解的結(jié)果。
表7 使用列表4.3的gold1和gold2系統(tǒng)進(jìn)行的實驗結(jié)果
從表7中我們可以看到指代消解可以幫助語義角色標(biāo)注性能達(dá)到75.67%,相比于表5基準(zhǔn)系統(tǒng)73.34%的性能有了2.3%的F值提升,主要提升來自于篇章級別的語義角色標(biāo)注一致性,避免了指代相同的提及分配的角色不一致的問題。此外使用語義角色標(biāo)注改進(jìn)指代消解在CoNLL-2012綜合得分可以達(dá)到63.34%,接近于當(dāng)前數(shù)據(jù)集的最好實驗水平,不過我們使用的是人工標(biāo)注的語義角色標(biāo)注結(jié)果。實驗的結(jié)果也基本和以往的研究工作結(jié)論相近[1-2]。此外我們發(fā)現(xiàn)從兩者的貢獻(xiàn)度來分析,語義角色標(biāo)注對于指代消解的幫助更大,可以解釋的原因是語義角色本身已經(jīng)具有比較高的正確率,并且指代消解的貢獻(xiàn)多集中于ARG0,ARG1以及ARGM,TMP這幾個數(shù)量較多的角色,然而基準(zhǔn)系統(tǒng)對于這幾個角色的標(biāo)注準(zhǔn)確率已經(jīng)性能不錯了,因此提升空間受限。盡管如此,能夠提升2+的性能對于語義角色標(biāo)注來說已經(jīng)是很顯著的性能提升。
我們繼續(xù)對本文提出的8條聯(lián)合推導(dǎo)公式進(jìn)行單獨和聯(lián)合的實驗,表8給出了詳細(xì)的實驗結(jié)果。
表8 使用列表4.3的系統(tǒng)進(jìn)行的對比實驗結(jié)果
從表8的結(jié)果中首先我們可以發(fā)現(xiàn)本文提出的8條聯(lián)合推導(dǎo)規(guī)則在自動標(biāo)注的情況下仍然有效。其次由于我們優(yōu)化時是單獨對隱含變量role和coref進(jìn)行優(yōu)化的,所以只有混合了所有規(guī)則的sys8才同時改變了兩個任務(wù)的性能,而前面的組合只能單獨改變某一任務(wù)性能。另外從性能提升上面來看,其中在自動指代消解的情況下,可以提升語義角色標(biāo)注最多1.2個點,當(dāng)聯(lián)合起來推導(dǎo)時可以提升1.65個點;反方向的實驗結(jié)果也類似,當(dāng)使用聯(lián)合推導(dǎo)時性能依然能夠提升。但是我們也可以發(fā)現(xiàn),語義角色標(biāo)注最好的結(jié)果為74.99%,低于可能達(dá)到的最好性能75.67%,而指代的差距就更大了,最好的結(jié)果三個指標(biāo)平均值只有61.85%,遠(yuǎn)低于可能達(dá)到的最好性能63.34%。最大原因在于由于我們是聯(lián)合篇章級別的語義角色標(biāo)注,因此一類謂詞的標(biāo)注錯誤,將導(dǎo)致同一鏈條上的指代錯誤,所以由于角色標(biāo)注本身性能并不是很好,最后能提升的結(jié)果距離性能上限有所差距。
總體而言,使用馬爾科夫邏輯網(wǎng)絡(luò)聯(lián)合推導(dǎo)后,兩個任務(wù)的性能都有了顯著的提升,由于語義角色標(biāo)注本身的基準(zhǔn)系統(tǒng)已經(jīng)是已知研究工作中達(dá)到的最好結(jié)果,所以在其基礎(chǔ)上所做的提升仍然是單系統(tǒng)的最好性能。而指代消解的最終結(jié)果也僅次于今年CoNLL-2012的最好系統(tǒng)性能,具有很強(qiáng)的可對比性。
在本文中,我們提出了利用馬爾科夫邏輯網(wǎng)絡(luò)進(jìn)行聯(lián)合語義角色標(biāo)注和指代消解的任務(wù)。通過借鑒以往的研究工作,以及本文綜合創(chuàng)新提出的8條聯(lián)合推導(dǎo)規(guī)則后,本文的實驗證明,通過分析篇章級別的語義角色之間的指代關(guān)系,我們能夠顯著的提升角色標(biāo)注的性能;此外通過語義角色標(biāo)注的特征用于幫助指代消解任務(wù),實驗也驗證了前人研究工作提出的相關(guān)結(jié)論。本文最后通過聯(lián)合兩個任務(wù)的特征,使用聯(lián)合馬爾科夫邏輯規(guī)則推導(dǎo),在兩個任務(wù)中都得到了性能的顯著提升。此外本章的另外貢獻(xiàn)在于給出了在OntoNote5.0數(shù)據(jù)集上使用CoNLL-2012切分方案所能達(dá)到的語義角色標(biāo)注最好性能,以及具有性能可對比性的指代消解實驗結(jié)果。
在未來的工作中我們將在中文中嘗試聯(lián)合標(biāo)注,并且嘗試不同語種之間的聯(lián)合學(xué)習(xí)標(biāo)注。
[1]Simone Paolo Ponzetto and Michael Strube.Exploiting semantic role labeling,wordnet and Wikipedia for coreference resolution[C]//Proceedings of the Main Conference on Human Language Technology Confer-ence of the North American Chapter of the Association of Computational Linguistics.Sydney, Australia:ACL Publication Chairs,2006:192-199.
[2]Fang Kong,GuoDong Zhou,and Qiaoming Zhu.Employing the centering theory in pronoun resolution from the semantic perspective[C]//Proceedings of the 2009 Conference on Empirical Methods in Natural Language Processing. Singapore: ACL Publication Chairs,2006:987-996.
[3]Eduard Hovy,Mitchell Marcus,Martha Palmer,et al.Ontonotes:the 90%solution[C]//Proceedings of the Human Language Technology Conference of the NAACL,Companion Volume:Short Papers.Sydney,Australia:ACL Publication Chairs,2006:57-60.
[4]Matthew Richardson and Pedro Domingos.Markov logic networks[J].Machine learning,2006,62(1):107-136.
[5]Hoifung Poon and Pedro Domingos.Joint unsupervised coreference resolution with markov logic[C]//Proceedings of the Conference on Empirical Methods in Natural Language Processing. Waikiki,Honolulu,Hawaii:EMNLP Publication Chairs,2008:650-659.
[6]Yang Song,Jing Jiang,Wayne Xin Zhao,et al.Joint learning for coreference resolution with markov logic[C]//Proceedings of the 2012Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning.Jeju Island,Korea:EMNLP Publication Chairs,2012:1245-1254.
[7]Wanxiang Che and Ting Liu.Jointly modeling wsd and srl with markov logic[C]//Proceedings of the 23rd International Conference on Computational Linguistics(Coling 2010).Beijing,China:Coling Publication Chairs,2010:161-169.
[8]Kristina Toutanova,Aria Haghighi,and Christopher D Manning.A global joint model for semantic role labeling[J].Computational Linguistics,2008,34(2):161-191.
[9]Xiaoqiang Luo,Abe Ittycheriah,Hongyan Jing,et al.A mention synchronous coreference resolution algorithm based on the bell tree[C]//Proceedings of the 42ndMeeting of the Association for Computational Linguistics(ACL'04).Barcelona,Spain:ACL Publication Chairs,2006:135-142.
[10]Daniel Gildea and Daniel Jurafsky.Automatic labeling of semantic roles[J].Computational Linguistics.2002,28(3):245-288.
[11]Mihai Surdeanu,Sanda Harabagiu,John Williams,and Paul Aarseth.Using predicate-argument structures for information extraction[C]//Proceedings of the 41st Annual Meeting on Association for Computa-tional Linguistics-Volume 1.Sapporo,Japan:ACL Publication Chairs,2003:8-15.
[12]Sameer Pradhan,Wayne Ward,Kadri Hacioglu,et al.Shallow semantic parsing using support vector machines[C]//Proceedings of HLT/NAACL.Boston,USA:NAACL Publication Chairs,2004:233.
[13]劉挺,車萬翔,李生.基于最大熵分類器的語義角色標(biāo)注[J].軟件學(xué)報,2007,18(3):565-573.
[14]Wee Meng Soon,Hwee Tou Ng,and Daniel Chung Yong Lim.A machine learning approach to coreference resolution of noun phrases[J].Computational linguistics.2001,27(4):521-544.
[15]Vincent Ng and Claire Cardie.Improving machine learning approaches to coreference resolution[C]//Proceedings of 40th Annual Meeting of the Association for Computational Linguistics.Philadelphia,Pennsylvania,USA:ACL Publication Chairs,2002:104-111.
[16]Emili Sapena,Lluis Padrdo,and Jordi Turmo.Relaxcor participation in conll shared task on coreference resolution[C]//Proceedings of the 15th Conference on Computational Natural Language Learning:Shared Task.Portland,Oregon,USA:ACL Publication Chairs,2011:35-39.
[17]Martha Palmer,Daniel Gildea,and Paul Kingsbury.The proposition bank:An annotated corpus of semantic role[J].Computational Linguistics.2005,31(1):71-106.
[18]Sameer Pradhan, Alessandro Moschitti,Nianwen Xue,et al.Conll-2012shared task:Modeling multilingual unrestricted coreference in ontonotes[C]//Joint Conference on EMNLP and CoNLL-Shared Task.Jeju Island,Korea:ACL Publication Chairs,2012:1-40.
[19]Marc Vilain,John Burger,John Aberdeen,et al.A model theoretic coreference scoring scheme[C]//Proceedings of the 6th conference on Message understanding.MIT,Cambridge,Massachusetts,USA,Proceedings.Morgan Kaufmann Publisher,1995:45-52.
[20]Amit Bagga and Breck Baldwin.Algorithms for scoring coreference chains[C]//The first international conference on language resources and evaluation workshop on linguistics coreference.Granada,Spain:LREC Publication Chairs,1998:563-566.
[21]Xiaoqiang Luo.On coreference resolution performance metrics[C]//Proceedings of the conference on Human Language Technology and Empirical Methods in Natural Language Processing.Michigan,USA:ACL Publication Chairs,2005:25-32.
[22]Marta Recasens and Eduard Hovy.Blanc:Implementing the rand index for coreference evaluation[J].Natural Language Engineering.2011,17(4):485.
[23]Michael Collins and Terry Koo. Discriminative reranking for natural language parsing[J].Computational Linguistics.2005,31(1):25-70.
[24]Eraldo Fernandes,et al.Latent structure perceptron with feature induction for unrestricted coreference resolution[C]//Joint Conference on EMNLP and CoNLL-Shared Task.Jeju Island,Korea:ACL Publication Chairs,2012:41-48.