• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合上下文依賴和句子語義的事件線索檢測研究*

    2018-03-12 08:38:43邱盈盈姚建民周國棟
    計算機與生活 2018年3期
    關(guān)鍵詞:語義向量特征

    王 凱,洪 宇,邱盈盈,姚建民,周國棟

    蘇州大學 計算機科學與技術(shù)學院,江蘇 蘇州 215006

    1 引言

    事件線索檢測(event nugget detection)作為信息抽取(information extraction)的一個任務(wù),旨在從非結(jié)構(gòu)化的文本中提取觸發(fā)事件的文本片段,并辨別所抽取事件的真?zhèn)涡?。根?jù)KBP 2015(knowledge base population)事件線索檢測任務(wù)的定義,事件線索檢測由兩個子任務(wù)組成:(1)事件線索詞識別(event nugget recognition),需要抽取出觸發(fā)事件的詞或短語,并識別出事件的類型;(2)事件真?zhèn)涡宰R別(event realis recognition),在事件線索詞識別的基礎(chǔ)上,進一步辨別出事件發(fā)生的真?zhèn)涡?。為更好地理解KBP評測事件線索檢查任務(wù),下面給出一個完整的事件線索的結(jié)構(gòu)表述。例句1中,事件線索詞為“sends”(譯為運送),所觸發(fā)的事件類型為Transport-Person,其事件真?zhèn)涡詾锳ctual(表示事件真實發(fā)生)。本文研究將只專注于事件線索詞識別部分,即找出事件線索詞并判定其事件類型。

    例句1France sends soldiers to Haiti Feb29.

    譯文:“法國于2月29日將士兵運送到海地?!?/p>

    事件線索詞:sends

    事件類型:Transport-Person

    事件真?zhèn)涡裕篈ctual

    事件線索檢測的研究還在起步階段,現(xiàn)有的方法主要沿用 ACE 2005(automatic content extraction)事件抽取的方法。大部分前人工作將事件檢測看成一個分類問題,人工精心設(shè)計了很多的詞匯級和句法級的特征(特征工程),并使用已有的自然語言處理工具進行獲?。ㄈ缭~性標注、句法分析、命名實體識別等工具)。這些方法盡管取得很好的性能,但是一方面會耗費大量的時間,另一方面會有特征稀疏和錯誤傳遞的問題(無法利用遠距離的依賴信息和句子的語義信息)。

    最近,深度學習已經(jīng)在很多自然語言處理任務(wù)上被使用,并被證明是有效的,例如機器翻譯、分詞和情感分析。深度學習模型以詞向量作為輸入,自動學習特征,解決特征稀疏的問題,極小化對特征提取工具的依賴,減少錯誤傳遞,提高模型性能。

    前人的很多研究會提取上下文特征,如句法特征,這樣可以利用更大范圍的信息提高識別準確度。如圖1,在S1中,當判定候選事件線索詞“release”的事件類型時,句子前面的詞“court”可以幫助將“release”事件類型識別為“Release-Parole”。然而“court”和“release”之間沒有直接的依存路徑,很難使用依存句法特征建立兩個詞之間的聯(lián)系。而常用的上下文詞窗口方法可以簡單增加窗口大小,將二者連接起來,但這樣會加劇特征稀疏的問題,同時過大的窗口會引入大量噪音。因此,有必要在不增大詞窗口和不使用依存特征的情況下,能夠有效抓取遠距離的依賴關(guān)系。

    Fig.1 An example of event nugget detection圖1 事件線索檢測示例

    對于一些常用詞,如S2中的“l(fā)oss”,由于其詞義很多,僅僅依靠詞的局部特征很難判定其事件類型。如果能獲取S2句子的語義信息(“gambl”),會有助于推理出“l(fā)oss”觸發(fā)“Transfer-Money”事件而不是“Die”事件。獲取句子的語義信息,將有助于提高事件線索詞識別的準確性。

    本文提出一種神經(jīng)網(wǎng)絡(luò)方法,能有效抓取上下文依賴,并學習句子的語義表示,用于事件線索檢測。本文該方法主要由兩部分組成:(1)利用雙向長短時記憶網(wǎng)絡(luò)(bidirectional long short-term memory,Bi-LSTM)獲取待測詞前面和后面的上下文依賴關(guān)系;(2)通過門控循環(huán)神經(jīng)網(wǎng)絡(luò)(gated recurrent neural network,GRNN)自動地從句子所有的詞表示中學習句子的語義表示。這些有用的信息自然地被用來判定待測詞是否是事件線索詞以及是什么事件類型。在KBP 2015 Event Nugget評測提供的數(shù)據(jù)集上的實驗證明,與baseline相比,本文方法取得了明顯的提升。

    綜上所述,本文的貢獻如下:

    (1)提出一種新的神經(jīng)網(wǎng)絡(luò)模型,并應用到事件線索檢測任務(wù)中,避免了特征工程方法帶來的特征稀疏和錯誤傳遞的問題。

    (2)在KBP 2015 Event Nugget評測數(shù)據(jù)集上的實驗結(jié)果顯示,本文網(wǎng)絡(luò)方法比傳統(tǒng)特征工程方法和最近提出的神經(jīng)網(wǎng)絡(luò)方法性能都要好。

    2 相關(guān)工作

    事件線索檢測是信息抽取和自然語言處理的一個基礎(chǔ)任務(wù),旨在檢測出文本中的事件線索詞并判斷事件類型。事件線索詞識別方面的研究才剛剛起步,主要方法還是沿用事件抽取的方法。

    現(xiàn)有事件抽取的方法大多數(shù)把該問題看成一個分類任務(wù),使用詞匯、句法和知識庫、詞典等人工設(shè)計的特征構(gòu)造分類器[1-4]。盡管基于特征的方法很有效,但是實際應用時會遇到兩個問題:(1)特征的選擇是一個人工過程,需要領(lǐng)域的專業(yè)知識。這意味著在應用到新的領(lǐng)域時,需要做額外的研究,這樣會限制快速適應新領(lǐng)域的能力。(2)用于提取特征的自然語言處理的工具和資源可能會出現(xiàn)錯誤,并把這些錯誤傳遞到最后的事件分類。

    神經(jīng)網(wǎng)絡(luò)具有很強的特征和語義學習能力,能從數(shù)據(jù)中自動學習文本表示,而且在很多自然語言處理任務(wù)上取得了很好的性能。在事件抽取任務(wù)中,最近有兩個工作[5-6]探索了神經(jīng)網(wǎng)絡(luò)在事件抽取任務(wù)上的效果,二者都利用神經(jīng)網(wǎng)絡(luò)自動學習特征,并用來判斷待測詞是否是觸發(fā)詞。其中,Chen等人[5]提出DMCNN(dynamic multi-pooling convolutional neural network)模型提取句子層次的特征和語義信息,忽略了待測詞上下文信息;而Nguyen等人[6]提出了一種融合實體類別特征和詞位置特征的卷積神經(jīng)網(wǎng)絡(luò),然而該方法把上下文限制在固定的窗口下,導致長句子中詞義表示的丟失。

    3 任務(wù)描述

    事件線索檢測是KBP的一個任務(wù),旨在從非結(jié)構(gòu)化的文本中自動抽取出觸發(fā)事件的詞或短語,并對事件的真?zhèn)涡赃M行識別。為了理解任務(wù),如下給出事件線索檢測中涉及的相關(guān)術(shù)語定義。

    (1)事件線索詞(Event Nugget):觸發(fā)詞或短語(通常為名詞性或動詞性的詞或短語)。

    (2)事件類型(Event Type):描述事件線索的類別,根據(jù)KBP 2015 Event Nugget評測的定義,共包含8種事件類別和38種子類別(本文針對38種事件的子類別進行研究,不考慮類別之間的層次關(guān)系)。

    (3)事件真?zhèn)涡裕‥vent Realis):描述事件線索發(fā)生的真?zhèn)涡?,包括Actual、General和Other共3種類別。其中Actual表示根據(jù)事件線索在特定時間和地點確實發(fā)生的事件;Generic表示泛化事件,即不要求在特定時間和地點發(fā)生,例如“Use of the death penalty is rare in Indonesia.”(譯文:印度尼西亞的死刑很少),事件線索詞“death”表示Die事件,即為泛化事件;Other表示沒有發(fā)生的事件、未來事件和條件事件等。

    (4)事件線索描述(event mention):包含事件觸發(fā)詞的短語或句子。

    本文專注于事件線索詞的識別及事件類型判定。下面采用例句2進行說明:

    例句2Two policemen were killed in a bomb attack in Palmanova yesterday.

    譯文:“昨天在帕爾馬洛城,兩名警察在炸彈襲擊中喪生?!?/p>

    事件線索檢測應該正確地識別出句子中單詞“killed”觸發(fā)了事件,并判定觸發(fā)的事件類型是“Die”事件。

    4 融合上下文依賴和句子語義的事件線索檢測方法

    本文利用雙向LSTM抓取句子中長距離依賴關(guān)系,并借助GRNN學習句子的語義表示,合并兩個模型的輸出,進而用來判定待測詞是否為事件線索詞并判斷其事件類型。下面將詳細介紹雙向LSTM模型和GRNN模型。

    本文利用word2vec工具并且選用skip-gram模型[7],在英文新聞?wù)Z料上訓練詞向量(word embedding)來表示每個詞。每個詞表示成低維連續(xù)實數(shù)向量,即詞向量。所有詞向量存放在詞向量矩陣Lw∈Rd×|V|中,d是詞向量的維度,|V|是詞典的大小。

    4.1 LSTM模型

    長短時記憶網(wǎng)絡(luò)(long short-term memory,LSTM)[8]是循環(huán)神經(jīng)網(wǎng)絡(luò)的一個變種。普通RNN(recurrent neural network)模型在當前時刻隱藏層的狀態(tài)依賴于前一個時刻。給定一個序列X=(x1,x2,…,xt,…,xn),RNN計算當前隱藏狀態(tài)方法如下:

    其中,f是非線性激活函數(shù)(sigmoid函數(shù)或tanh函數(shù))。盡管RNN在很多任務(wù)上取得了很好的效果,如語音識別、語言建模和文本分類,但是由于RNN在反向傳播算法(back propagation through time,BPTT)訓練時會出現(xiàn)梯度消失和梯度爆炸的問題,很難訓練學習長距離的依賴信息。

    如圖2,LSTM模型通過設(shè)計3個門和記憶細胞,使網(wǎng)絡(luò)能學習何時遺忘以前的信息,何時用新的信息更新記憶細胞,從而解決普通RNN的固有問題。LSTM已經(jīng)成功應用到很多NLP(natural language processing)任務(wù)中,如分詞[9]、文本分類[10]和機器翻譯[11]。因此,可以應用LSTM模型從數(shù)據(jù)中學習長距離的依賴信息。

    Fig.2 Structure of LSTM圖2LSTM網(wǎng)絡(luò)結(jié)構(gòu)

    LSTM模型的核心是記憶細胞(memory cell),用于保存歷史信息。記憶單元的讀寫操作由輸入門、輸出門和遺忘門控制。門的定義和記憶細胞的更新和輸出定義如下:

    其中,σ表示sigmoid函數(shù);⊙表示向量對應元素的乘積(element-wise multiplication);W、U是權(quán)重矩陣;b表示偏置;it、ft、ot分別表示t時刻的輸入門、遺忘門和輸出門;ct存儲細胞的狀態(tài);ht是當前時刻的LSTM單元的輸出。需要注意的是本文LSTM模型不包含窺視孔連接(peephole connection)。

    LSTM模型構(gòu)造了一個能存儲歷史信息的記憶細胞,從而能更好地利用長距離的依賴信息。LSTM模型在很多NLP任務(wù)中取得了比普通RNN更好的性能提升。

    4.2 雙向LSTM模型

    單向的LSTM模型只能利用待測詞之前的上下文,而無法利用待測詞之后的上下文信息。在事件線索詞識別任務(wù)中,人們希望對于某個待測詞進行判定時既可以利用之前的上下文依賴關(guān)系,也可以利用之后的。雙向LSTM模型提供了一個解決方案,通過包含兩個獨立的正反方向的LSTM層,融合待測詞之前和之后的上下文。

    對于給定的句子x1,x2,…,xt,…,xn包含n個詞,每個詞被表示成d維向量,一個LSTM計算待測詞xt及其左邊句子上下文x1:xt的表示-→ht(從左到右計算),另一個LSTM從右到左計算待測詞xt及其右邊的上下文xt:xn的表示←-本文將前者稱為前向LSTM(forward LSTM),將后者稱為后向LSTM(backward LSTM)。這兩個網(wǎng)絡(luò)使用不同的參數(shù),組合起來稱之為雙向LSTM網(wǎng)絡(luò),如圖3所示。

    Fig.3 Bidirectional LSTM network圖3 雙向LSTM網(wǎng)絡(luò)

    4.3 學習句子表示

    下一步將是從輸入的句子學習包含語義信息的分布式向量表示(distributed vector representation)。

    前人工作使用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)和長短時記憶網(wǎng)絡(luò)(LSTM)計算句子的連續(xù)表示[12-13]。LSTM是當前最好的句子語義建模的方法,能從不定長的句子中學習固定長度的向量,能抓取句子中的詞序信息而不依賴于句法分析。

    本文使用一個經(jīng)過修改的LSTM模型,將其命名為GRNN,形式化定義如下:

    該模型可以看作是去掉輸出門的LSTM模型,這樣模型會傾向于不丟棄句子中任何部分的語義信息,從而能得到更好的句子語義表示。圖4左邊的網(wǎng)絡(luò)結(jié)構(gòu)展示了使用最后一個隱藏狀態(tài)作為句子的語義表示,這是基本的表示方法。除此之外,本文將池化(pooling)應用到所有的隱藏狀態(tài)c1,c2,…,cn,獲取句子的語義信息。池化可從變長句子中抽取固定維度的向量。常見的池化方法有最小池、最大池和平均池,在本文提出的模型中將使用最大池。圖5為本文模型的圖示說明,其中h包含雙向LSTM獲取的上下文依賴,s表示GRNN學習得到語義表示,h與s串接后輸出到包含softmax的輸出層。

    Fig.4 Learning semantic representation of sentence with GRNN圖4 使用GRNN學習句子的語義表示

    Fig.5 Illustration of this paper model圖5 本文模型的圖示說明

    4.4 輸出

    將雙向LSTM輸出ht與學習到的句子語義表示連接起來,得到一個包含待測詞上下文依賴關(guān)系和句子的語義向量F=[ht;s]。為了對待測詞事件類型進行分類,首先增加一個線性層將向量F變換成長度等于類別數(shù)量C的實數(shù)向量,然后增加softmax層使實數(shù)向量轉(zhuǎn)換成條件概率分布,計算過程如下:

    其中,W為轉(zhuǎn)移矩陣;O是網(wǎng)絡(luò)的輸出結(jié)果,O的維度C等于事件類型加上“Null”(表示待測詞不是事件線索詞)的個數(shù)。為了防止過擬合,在輸出層之前(倒數(shù)第二層)增加dropout層[14]。

    4.5 訓練

    在模型訓練部分,本文使用事件線索的正確分布Pgold(x)和模型預測分布P(x)之間的交叉熵(cross entropy)加上L2范式作為損失函數(shù),定義如下:

    其中,T表示訓練集數(shù)量;C是事件類型加上“Null”(表示待測詞不是事件線索詞)的個數(shù);xi表示待測詞;θ表示整個模型所使用到的參數(shù);Pgold(xi)采用one-hot表示,維度與類別數(shù)目一致,但是只有正確的事件類型對應的那一維是1,其他維度都為0。

    為了計算模型的參數(shù)θ,本文使用帶有Adadelta更新規(guī)則[15]的隨機梯度下降法來極小化損失函數(shù)。

    5 實驗

    5.1 實驗數(shù)據(jù)和評價方法

    本文針對事件線索檢測中的事件線索詞識別的任務(wù),使用KBP 2015 Event Nugget評測提供的訓練數(shù)據(jù)和測試數(shù)據(jù),訓練數(shù)據(jù)包含158篇文檔,測試數(shù)據(jù)包含202篇文檔。為了便于調(diào)節(jié)模型參數(shù),本文隨機從訓練數(shù)據(jù)中選取15篇作為開發(fā)集,其余143篇作為訓練集。測試數(shù)據(jù)中的全部202篇文檔作為測試集。

    實驗采用準確率(Precision)、召回率(Recall)和F1值作為評價標準,并使用KBP 2015官方提供的評價工具進行計算。為了便于說明,后面將本文提出的模型簡寫成CSNN(context dependency and semantic representation based neural network)。

    5.2 參數(shù)設(shè)置

    神經(jīng)網(wǎng)絡(luò)的超參數(shù)對模型的性能有顯著的影響,本文在開發(fā)集上調(diào)節(jié)模型的超參數(shù)。詞向量的維度設(shè)置為200維,LSTM和GRNN的隱藏層維度均為100。使用帶mini-batch的隨機梯度下降法訓練,并使用AdaDelta更新規(guī)則。AdaDelta包含兩個參數(shù)ρ和ε,實驗中ρ設(shè)定為0.9,ε設(shè)定為1E-6。對dropout層,dropout rate設(shè)定為0.5。使用-0.2到0.2之間均勻分布隨機初始化模型中的矩陣參數(shù)。

    實驗選用的詞向量是利用word2vec工具在英文新聞?wù)Z料上使用skip-gram算法訓練得到的。

    5.3 對比系統(tǒng)

    本文使用以下系統(tǒng)與本文提出的模型進行對比。

    (1)ME(maximum entropy model):使用 Li[1]在ACE事件抽取任務(wù)中所用的詞匯層面和句法層面的特征。

    (2)CRF(conditional random field):特征與 ME一致。

    (3)DMCNN:Chen等人[5]利用DMCNN模型在ACE 2005事件抽取任務(wù)上取得很好的效果,本文實現(xiàn)了該模型并應用到事件線索任務(wù)上。

    (4)CNN:Nguyen等人[6]利用卷積神經(jīng)網(wǎng)絡(luò),并結(jié)合實體和位置信息,學習到有效的特征表示。

    (5)BLENDER:KBP 2015事件線索檢測任務(wù)中取得最好性能的系統(tǒng),利用標簽傳播算法擴大數(shù)據(jù)集,并使用最大熵分類器對候選詞進行分類。

    系統(tǒng)ME和CRF是傳統(tǒng)的基于特征工程的方法,而系統(tǒng)DMCNN和CNN使用神經(jīng)網(wǎng)絡(luò)模型,能自動學習特征。因為BELNDER系統(tǒng)利用標簽傳播算法擴大數(shù)據(jù)集,所以后面的實驗結(jié)果分析中沒有與其進行詳細對比。

    5.4 實驗結(jié)果

    表1給出了所有方法在KBP 2015測試集上的實驗結(jié)果。從表1中可以看出:在事件線索詞識別上,本文方法CSNN相比ME和CRF的準確率雖然有所降低,但召回率提升很多,最終F1值分別提升5.70%和4.90%;在事件線索詞分類上,CSNN的F1值相比ME和CRF分別提升1.58%和2.95%。CSNN能取得這樣的性能結(jié)果,說明本文方法是有效的。ME和CRF是傳統(tǒng)方法,使用了豐富的人工設(shè)計的特征。而CSNN只使用了詞向量,不需要其他特征。CSNN避免了傳統(tǒng)方法非常耗時的特征選取過程,節(jié)省人力和時間。除此之外,CSNN沒有使用復雜的特征提取工具來抽取特征,避免了錯誤傳遞。

    Table 1 Overall performance of different methods on test data表1 各方法在測試集上的性能

    Nguyen提出的CNN模型是通過設(shè)置多個上下文詞窗口,利用卷積神經(jīng)網(wǎng)絡(luò)抓取待測詞周圍的上下文特征。但是這樣一方面無法利用遠距離的上下文,另一方面上下文窗口增大后會引入大量噪音。本文提出的CSNN模型通過雙向LSTM能有效抓取遠距離的上下文依賴信息,并且LSTM中的遺忘門能過濾掉很多噪音。CNN沒有利用句子的語義信息,因此從表1可以看出,CSNN在事件線索識別和分類上的性能(F1值)都比CNN要好很多。

    DMCNN使用神經(jīng)網(wǎng)絡(luò)模型,能從文本中自動抽取詞層面和句子層面的特征。從表1中可以看出,DMCNN比ME和CRF在事件線索詞識別和分類上的性能都有所提升。然后,DMCNN忽略了上下文的詞依賴,而這對線索詞識別是很有幫助的。本文提出的CSNN利用雙向LSTM抓取句子中上下文詞依賴信息,提升時間線索詞識別和分類的性能。從表1中可以看出,在事件線索詞識別和分類上,CSNN較DMCNN的F1值分別提高3.29%、1.05%。

    5.5 CSNN學習語義表示的效果

    本節(jié)將驗證CSNN學習得到的語義表示是有效的。設(shè)計了兩個方法作為baseline系統(tǒng)與CSNN進行對比:Bi-LSTM和Bi-LSTM+CNN。Bi-LSTM可以看作是CSNN去掉GRNN剩下的部分(CSNN-GRNN),不學習句子的語義表示,只考慮句子的上下文依賴;Bi-LSTM+CNN是將CSNN中的GRNN和pooling替換成CNN,通過CNN學習句子的表示。

    表2展示了Bi-LSTM、Bi-LSTM+CNN和CSNN的結(jié)果。從表2中可以看出,Bi-LSTM(CSNN-GRNN)相對CSNN在事件線索詞識別和事件線索詞分類上的F1值分別下降了4.20%和1.74%。這說明CSNN學習得到的語義表示是有效的,能提高事件線索詞的識別性能。Bi-LSTM+CNN在事件線索詞識別和事件線索詞分類上的F1值比要Bi-LSTM(CSNNGRNN)高,但比CSNN分別低3.51%和0.85%,證明了GRNN比CNN能更好地學習句子的語義表示。

    Table 2 Performance of CSNN without semantic learning and replaced by CNN表2 CSNN去掉語義學習以及換成CNN后在測試集上的性能對比

    5.6 CSNN過濾上下文噪音的效果

    CSNN通過使用雙向LSTM,不僅可以抓取遠距離的上下文依賴,還能通過LSTM的遺忘門過濾掉待測詞上下文中的噪音。為了便于比較,本文將CSNN中的雙向LSTM的遺忘門去掉,這樣就會一直記錄歷史信息,即上下文詞信息。這樣的模型命名為CSNN-f,與CSNN相比只是去掉了雙向LSTM中的遺忘門,其他都一樣。

    實驗結(jié)果如表3所示。CSNN去掉遺忘門后,事件線索詞識別和分類的性能都有所下降,尤其是線索詞識別中F1值下降了2.23%。這是因為去掉遺忘門后,CSNN-f將會保存所有的歷史信息,而部分歷史信息包含噪音數(shù)據(jù),是有害的。CSNN可以通過遺忘門的開關(guān)將這些噪音過濾掉。

    Table 3 Performance of CSNN and CSNN without forgetgate表3 CSNN去掉遺忘門后性能對比

    6 總結(jié)

    本文提出了一種新的事件線索詞檢測方法,抓取上下文依賴并學習句子的語義表示。本文方法利用雙向LSTM模型獲取待測詞前后的上下文依賴信息,使用GRNN學習待測詞所在句子的語義表示。從實驗結(jié)果可以看出,本文方法在事件線索詞識別和分類上的性能均比其他baseline方法高,證明了本文方法是有效的。較傳統(tǒng)方法,本文方法不使用任何自然語言處理工具,避免了錯誤傳遞;與現(xiàn)有的神經(jīng)網(wǎng)絡(luò)方法相比,本文方法能有效利用上下文依賴和句子的語義信息,提高了事件線索檢測的性能。

    [1]Li Qi,Ji Heng,Huang Liang.Joint event extraction via structured prediction with global features[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics,Sofia,Aug 4-9,2013.Stroudsburg:ACL,2013:73-82.

    [2]Liao Shasha,Grishman R.Using document level cross-event inferent to improve event extraction[C]//Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics,Uppsala,Jul 11-16,2010.Stroudsburg:ACL,2010:789-797.

    [3]Ji Heng,Grishman R.Refining event extraction through crossdocument inferent[C]//Proceedings of the 46th Annual Meeting of the Association for Computational Linguistics,Columbus,Jun 15-20,2008.Stroudsburg:ACL,2008:254-262.

    [4]Hong Yu,Zhang Jianfeng,Ma Bin,et al.Using cross-entity inference to improve event extraction[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics:Human Language Technologies,Portland,Jun 19-24,2011.Stroudsburg:ACL,2011:1127-1136.

    [5]Chen Yubo,Xu Liheng,Liu Kang,et al.Event extraction via dynamic multi-pooling convolutional neural networks[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing,Beijing,Jul 26-31,2015.Stroudsburg:ACL,2015:167-176.

    [6]Nguyen T H,Grishman R.Event detection and domain adaptation with convolutional neural networks[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics,and the 7th International Joint Conference on Natural Language Processing,Beijing,Jul 27-29,2015.Stroudsburg:ACL,2015:365-371.

    [7]Le Q,Mikolov T.Distributed representations of sentences and documents[C]//Proceedings of the 31st International Conference on Machine Learning,Beijing,Jun 21-26,2014:1188-1196.

    [8]Hochreiter S,Schmidhuber J.Long short-term memory[J].Neural Computation,1997,9(8):1735-1780.

    [9]Chen Xinchi,Qiu Xipenng,Zhu Chenxi,et al.Long shortterm memory neural networks for Chinese word segmentation[C]//Proceeding of the 2015 Conference on Empirical Methods in Natural Language Processing,Lisbon,Sep 17-21,2015.Stroudsburg:ACL,2015:1197-1206.

    [10]Sutskever I,Vinyals O,Le Q.Sequence to sequence learning with neural networks[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems,Montreal,Dec 8-13,2014.Cambridge:MIT Press,2014:3104-3112.

    [11]Liu Pengfei,Qiu Xipeng,Chen Xinchi,et al.Multi-timescale long short-term memory neural network for modelling sentences and documents[C]//Proceeding of the 2015 Conference on Empirical Methods on Natural Language Processing,Lisbon,Sep 17-21,2015.Stroudsburg:ACL,2015:2326-2335.

    [12]Johnson R,Zhang Tong.Effective use of word order for text categorization with convolutional neural networks[C]//Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies,Denver,May 31-Jun 5,2015.Stroudsburg:ACL,2015:103-112.

    [13]Kim Y.Convolutional neural networks for sentence classification[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing,Doha,Oct 25-29,2014.Stroudsburg:ACL,2014:1746-1751.

    [14]Hinton G E,Srivastava N,Krizhevsky A,et al.Improving neural networks by preventing co-adaptation of feature detectors[J].Computer Science,2012,3(4):212-223.

    [15]Zhang Rui,Gong Weiguo,Grzeda V,et al.An adaptive learning rate method for improving adaptability of background models[J].IEEE Signal Processing Letters,2013,20(12):1266-1269.

    猜你喜歡
    語義向量特征
    向量的分解
    聚焦“向量與三角”創(chuàng)新題
    語言與語義
    如何表達“特征”
    不忠誠的四個特征
    當代陜西(2019年10期)2019-06-03 10:12:04
    抓住特征巧觀察
    “上”與“下”語義的不對稱性及其認知闡釋
    向量垂直在解析幾何中的應用
    向量五種“變身” 玩轉(zhuǎn)圓錐曲線
    認知范疇模糊與語義模糊
    午夜视频精品福利| 纯流量卡能插随身wifi吗| 欧美日韩亚洲高清精品| 国产高清激情床上av| 日本黄色日本黄色录像| 青草久久国产| xxx96com| 在线免费观看的www视频| av有码第一页| 久久午夜亚洲精品久久| 大片电影免费在线观看免费| 女人爽到高潮嗷嗷叫在线视频| 久久香蕉精品热| 国产日韩欧美亚洲二区| 午夜福利一区二区在线看| 欧美日韩中文字幕国产精品一区二区三区 | 国产成+人综合+亚洲专区| 一级黄色大片毛片| 精品国产美女av久久久久小说| 丝袜美腿诱惑在线| 日韩一卡2卡3卡4卡2021年| 亚洲情色 制服丝袜| 女人爽到高潮嗷嗷叫在线视频| 国产亚洲一区二区精品| 亚洲欧美色中文字幕在线| 一二三四社区在线视频社区8| 亚洲av欧美aⅴ国产| 日韩一卡2卡3卡4卡2021年| 亚洲色图综合在线观看| 亚洲中文字幕日韩| 人人妻人人爽人人添夜夜欢视频| 国产色视频综合| 国产激情久久老熟女| 欧美乱码精品一区二区三区| 99久久人妻综合| 99re6热这里在线精品视频| 麻豆av在线久日| 中出人妻视频一区二区| 亚洲一区二区三区不卡视频| 天天躁夜夜躁狠狠躁躁| 在线天堂中文资源库| 久久精品成人免费网站| 久久午夜综合久久蜜桃| 动漫黄色视频在线观看| 18禁国产床啪视频网站| 18在线观看网站| 免费久久久久久久精品成人欧美视频| 亚洲精品一卡2卡三卡4卡5卡| 亚洲第一av免费看| 交换朋友夫妻互换小说| 亚洲国产中文字幕在线视频| 色老头精品视频在线观看| 涩涩av久久男人的天堂| 黄色视频,在线免费观看| 亚洲人成电影观看| 亚洲欧美一区二区三区黑人| xxx96com| 久久久国产一区二区| 老司机福利观看| 免费av中文字幕在线| 免费av中文字幕在线| 夜夜躁狠狠躁天天躁| 中文字幕最新亚洲高清| 欧美精品av麻豆av| 制服人妻中文乱码| xxx96com| 国产人伦9x9x在线观看| 高潮久久久久久久久久久不卡| 怎么达到女性高潮| 亚洲国产欧美网| 757午夜福利合集在线观看| 亚洲欧美精品综合一区二区三区| 国产亚洲精品第一综合不卡| 国产精品av久久久久免费| 欧美日韩福利视频一区二区| 窝窝影院91人妻| 麻豆成人av在线观看| 免费少妇av软件| 99国产综合亚洲精品| 国产麻豆69| 国产激情欧美一区二区| 亚洲 国产 在线| 91精品三级在线观看| 国产黄色免费在线视频| 两个人看的免费小视频| 丝袜在线中文字幕| 老司机影院毛片| 久久久精品国产亚洲av高清涩受| 亚洲色图综合在线观看| 99久久人妻综合| 国产免费现黄频在线看| 国产成人一区二区三区免费视频网站| 精品国产国语对白av| 12—13女人毛片做爰片一| 深夜精品福利| 18在线观看网站| av福利片在线| 91精品国产国语对白视频| 国产在视频线精品| 久久久国产欧美日韩av| 国产有黄有色有爽视频| 成人三级做爰电影| 亚洲色图av天堂| 国产不卡一卡二| 交换朋友夫妻互换小说| 夜夜躁狠狠躁天天躁| 12—13女人毛片做爰片一| 国产一区二区三区综合在线观看| 如日韩欧美国产精品一区二区三区| 91老司机精品| 亚洲 国产 在线| 91成年电影在线观看| 黄色片一级片一级黄色片| 国产激情欧美一区二区| 国产野战对白在线观看| 久久精品国产亚洲av高清一级| av片东京热男人的天堂| 精品国产国语对白av| 国产男靠女视频免费网站| 亚洲九九香蕉| 欧美另类亚洲清纯唯美| 一边摸一边做爽爽视频免费| 亚洲精品国产精品久久久不卡| 国产熟女午夜一区二区三区| 在线国产一区二区在线| 亚洲国产看品久久| 久久亚洲真实| 黄片播放在线免费| 久久人人97超碰香蕉20202| av有码第一页| 老司机深夜福利视频在线观看| 搡老岳熟女国产| 最近最新中文字幕大全免费视频| 国产高清国产精品国产三级| 建设人人有责人人尽责人人享有的| 1024香蕉在线观看| 男人操女人黄网站| 亚洲国产欧美网| 村上凉子中文字幕在线| 夜夜爽天天搞| 高清在线国产一区| 丝袜在线中文字幕| 香蕉丝袜av| 精品久久蜜臀av无| 久久香蕉精品热| 99国产精品免费福利视频| tocl精华| 国产亚洲精品一区二区www | 精品久久久久久电影网| 9热在线视频观看99| 丰满的人妻完整版| 三级毛片av免费| 亚洲一区二区三区不卡视频| 亚洲视频免费观看视频| 午夜老司机福利片| 又黄又爽又免费观看的视频| 91麻豆精品激情在线观看国产 | 淫妇啪啪啪对白视频| 亚洲国产欧美日韩在线播放| 日韩视频一区二区在线观看| 免费久久久久久久精品成人欧美视频| 国产精品亚洲一级av第二区| 99国产综合亚洲精品| 欧美日韩亚洲国产一区二区在线观看 | 91成人精品电影| 亚洲av日韩在线播放| 高清在线国产一区| 午夜免费成人在线视频| 久久精品91无色码中文字幕| 日日夜夜操网爽| 国产精品影院久久| 1024视频免费在线观看| 丝袜美足系列| 亚洲片人在线观看| 国产熟女午夜一区二区三区| 香蕉久久夜色| 久久精品国产清高在天天线| 热99re8久久精品国产| 色婷婷久久久亚洲欧美| 人妻一区二区av| 免费观看a级毛片全部| 国产成人免费无遮挡视频| 成人国产一区最新在线观看| 中文字幕另类日韩欧美亚洲嫩草| 精品久久蜜臀av无| 怎么达到女性高潮| 国产成人精品久久二区二区免费| 国产日韩一区二区三区精品不卡| 久久午夜综合久久蜜桃| 亚洲精品国产区一区二| 俄罗斯特黄特色一大片| 久久热在线av| 亚洲国产毛片av蜜桃av| 老鸭窝网址在线观看| 久久国产精品人妻蜜桃| 亚洲专区中文字幕在线| 亚洲国产欧美一区二区综合| 丁香六月欧美| 一a级毛片在线观看| 嫁个100分男人电影在线观看| 一级毛片精品| 国产高清激情床上av| 国产av又大| 亚洲中文日韩欧美视频| 欧美黑人精品巨大| 黄色片一级片一级黄色片| 免费日韩欧美在线观看| 精品国产美女av久久久久小说| av福利片在线| 亚洲欧美精品综合一区二区三区| 十八禁网站免费在线| 国产区一区二久久| 一级黄色大片毛片| 国产有黄有色有爽视频| 人人妻人人添人人爽欧美一区卜| 老熟女久久久| 1024视频免费在线观看| 一级毛片高清免费大全| 精品视频人人做人人爽| 人人妻人人澡人人看| 亚洲欧美一区二区三区久久| 高清视频免费观看一区二区| 久久草成人影院| 天堂俺去俺来也www色官网| 国产精品一区二区在线观看99| 大片电影免费在线观看免费| 欧美+亚洲+日韩+国产| 亚洲av第一区精品v没综合| 久久影院123| 好男人电影高清在线观看| 男女之事视频高清在线观看| 国产激情欧美一区二区| 亚洲精品久久成人aⅴ小说| 在线观看免费午夜福利视频| 水蜜桃什么品种好| 日本精品一区二区三区蜜桃| 免费在线观看亚洲国产| 欧美日韩精品网址| 男女床上黄色一级片免费看| 91麻豆av在线| 伊人久久大香线蕉亚洲五| 亚洲七黄色美女视频| 成人18禁高潮啪啪吃奶动态图| 91字幕亚洲| 高清黄色对白视频在线免费看| av国产精品久久久久影院| 亚洲第一av免费看| 热99re8久久精品国产| 精品福利观看| 日韩视频一区二区在线观看| av天堂久久9| 国产深夜福利视频在线观看| 久久天躁狠狠躁夜夜2o2o| 亚洲精品久久午夜乱码| 亚洲片人在线观看| 久久草成人影院| 身体一侧抽搐| 亚洲av日韩在线播放| 久久青草综合色| 欧美在线黄色| 国产国语露脸激情在线看| a级毛片黄视频| 日本黄色日本黄色录像| 欧美精品av麻豆av| 国产精品久久久av美女十八| 国产av又大| 欧美精品啪啪一区二区三区| 国产精品一区二区在线观看99| av一本久久久久| 自线自在国产av| av网站免费在线观看视频| 亚洲 欧美一区二区三区| 国产不卡一卡二| 日本一区二区免费在线视频| 国产精品99久久99久久久不卡| 19禁男女啪啪无遮挡网站| 免费久久久久久久精品成人欧美视频| 新久久久久国产一级毛片| 国产精华一区二区三区| 欧美激情久久久久久爽电影 | 一级作爱视频免费观看| 黑人巨大精品欧美一区二区mp4| 国产免费现黄频在线看| 久久ye,这里只有精品| 人人妻,人人澡人人爽秒播| a级毛片在线看网站| 亚洲国产欧美网| 日韩欧美三级三区| 欧美另类亚洲清纯唯美| 国产精品久久久av美女十八| 免费在线观看黄色视频的| 精品福利观看| 18禁美女被吸乳视频| 精品国产乱子伦一区二区三区| 丁香欧美五月| 久久这里只有精品19| 又紧又爽又黄一区二区| 18禁美女被吸乳视频| 国产精品电影一区二区三区 | 人人澡人人妻人| 午夜福利视频在线观看免费| 欧美日韩福利视频一区二区| 热re99久久精品国产66热6| 久久99一区二区三区| 国产1区2区3区精品| 黄色女人牲交| 国产亚洲欧美精品永久| 极品少妇高潮喷水抽搐| 一级作爱视频免费观看| 国产成人欧美| 黑丝袜美女国产一区| 成人18禁高潮啪啪吃奶动态图| 日本欧美视频一区| 亚洲欧美激情综合另类| 久久久久久久国产电影| 国产精品偷伦视频观看了| 99国产精品一区二区三区| 日韩三级视频一区二区三区| 最新美女视频免费是黄的| 搡老岳熟女国产| 国产成人av教育| 动漫黄色视频在线观看| 中国美女看黄片| 亚洲一区二区三区不卡视频| 国产精品一区二区在线观看99| 黄片播放在线免费| 精品人妻在线不人妻| 国产精品亚洲av一区麻豆| 午夜精品国产一区二区电影| 在线观看免费日韩欧美大片| 侵犯人妻中文字幕一二三四区| 久久人妻熟女aⅴ| 一级毛片精品| 亚洲av成人av| 精品一区二区三区av网在线观看| 18禁国产床啪视频网站| 高清在线国产一区| 久热这里只有精品99| 可以免费在线观看a视频的电影网站| 12—13女人毛片做爰片一| 久久精品成人免费网站| 色老头精品视频在线观看| 俄罗斯特黄特色一大片| 亚洲国产欧美网| 精品人妻熟女毛片av久久网站| 亚洲国产中文字幕在线视频| 一级a爱视频在线免费观看| 欧美黑人精品巨大| 交换朋友夫妻互换小说| 校园春色视频在线观看| 老汉色∧v一级毛片| 夜夜爽天天搞| 9热在线视频观看99| 欧美激情高清一区二区三区| 午夜日韩欧美国产| 日韩熟女老妇一区二区性免费视频| 欧美大码av| 国产主播在线观看一区二区| 狂野欧美激情性xxxx| 伊人久久大香线蕉亚洲五| 制服诱惑二区| 国产一区二区三区视频了| 免费看十八禁软件| 亚洲五月色婷婷综合| 69av精品久久久久久| 咕卡用的链子| 90打野战视频偷拍视频| 一级毛片精品| 91成年电影在线观看| 99精品在免费线老司机午夜| 99在线人妻在线中文字幕 | 成人免费观看视频高清| 免费观看精品视频网站| 国产欧美日韩精品亚洲av| 国产精品 欧美亚洲| 精品国产亚洲在线| 捣出白浆h1v1| 久久精品国产99精品国产亚洲性色 | 一边摸一边做爽爽视频免费| 视频在线观看一区二区三区| 一级黄色大片毛片| 18在线观看网站| av免费在线观看网站| 男女之事视频高清在线观看| 亚洲va日本ⅴa欧美va伊人久久| 亚洲性夜色夜夜综合| 中文字幕av电影在线播放| 亚洲成av片中文字幕在线观看| 国产高清国产精品国产三级| 久久中文看片网| 国产精品 欧美亚洲| 精品视频人人做人人爽| 欧美成人免费av一区二区三区 | 三级毛片av免费| ponron亚洲| 桃红色精品国产亚洲av| 精品国产亚洲在线| 国产精品成人在线| 热re99久久精品国产66热6| 欧美色视频一区免费| 妹子高潮喷水视频| 久99久视频精品免费| 老熟女久久久| 777米奇影视久久| 国产真人三级小视频在线观看| 免费久久久久久久精品成人欧美视频| 国产91精品成人一区二区三区| 91大片在线观看| 十八禁网站免费在线| 免费一级毛片在线播放高清视频 | 男女床上黄色一级片免费看| 在线观看免费高清a一片| 午夜福利免费观看在线| 国产成+人综合+亚洲专区| 在线看a的网站| 亚洲精品一卡2卡三卡4卡5卡| 国产成人影院久久av| 黄网站色视频无遮挡免费观看| 亚洲色图 男人天堂 中文字幕| 日韩免费av在线播放| 日本vs欧美在线观看视频| 国产野战对白在线观看| 国产精品久久电影中文字幕 | 国产男女内射视频| 久久精品国产清高在天天线| 日日夜夜操网爽| 国产男女超爽视频在线观看| 久久久久国产精品人妻aⅴ院 | 一进一出抽搐gif免费好疼 | 超碰成人久久| 中亚洲国语对白在线视频| 丰满饥渴人妻一区二区三| 欧美日韩视频精品一区| 久久人人97超碰香蕉20202| 久久久久久亚洲精品国产蜜桃av| 午夜福利欧美成人| 黑人欧美特级aaaaaa片| 一个人免费在线观看的高清视频| 久久久久国产精品人妻aⅴ院 | 嫩草影视91久久| 日本vs欧美在线观看视频| 啦啦啦免费观看视频1| 免费久久久久久久精品成人欧美视频| 1024香蕉在线观看| 国产一区二区三区综合在线观看| 精品第一国产精品| videos熟女内射| 美女扒开内裤让男人捅视频| 亚洲第一青青草原| 日韩欧美在线二视频 | 国产麻豆69| 久久国产精品影院| 亚洲精品国产精品久久久不卡| 亚洲欧洲精品一区二区精品久久久| 欧美黄色片欧美黄色片| 国产深夜福利视频在线观看| 母亲3免费完整高清在线观看| 精品少妇一区二区三区视频日本电影| 日韩人妻精品一区2区三区| 精品一区二区三区视频在线观看免费 | 久久精品国产亚洲av香蕉五月 | 亚洲精品久久成人aⅴ小说| 欧美久久黑人一区二区| 热99久久久久精品小说推荐| 免费在线观看日本一区| 91精品三级在线观看| 久久人妻av系列| 久热这里只有精品99| 人妻丰满熟妇av一区二区三区 | 国产国语露脸激情在线看| 国产一区二区三区视频了| 精品久久久久久电影网| 免费在线观看影片大全网站| 麻豆国产av国片精品| videos熟女内射| 99久久精品国产亚洲精品| 精品一品国产午夜福利视频| 亚洲综合色网址| 亚洲av美国av| 亚洲在线自拍视频| 国产免费现黄频在线看| 亚洲国产欧美网| 精品福利永久在线观看| 国产精品一区二区精品视频观看| tocl精华| 欧美日韩亚洲高清精品| 国产色视频综合| 成人特级黄色片久久久久久久| 男女之事视频高清在线观看| 天堂俺去俺来也www色官网| 一区二区三区精品91| 国产在线一区二区三区精| 一进一出抽搐动态| 国产不卡一卡二| 亚洲精品国产一区二区精华液| 天堂动漫精品| 夜夜躁狠狠躁天天躁| 亚洲九九香蕉| 不卡av一区二区三区| 国产精品一区二区在线观看99| 国产1区2区3区精品| 国产精品.久久久| 成年人午夜在线观看视频| 狠狠狠狠99中文字幕| 亚洲熟女毛片儿| 亚洲精华国产精华精| 亚洲精品国产区一区二| 欧美人与性动交α欧美精品济南到| 丰满饥渴人妻一区二区三| 免费不卡黄色视频| 国产日韩欧美亚洲二区| 国产aⅴ精品一区二区三区波| 一区二区日韩欧美中文字幕| 亚洲 欧美一区二区三区| 久久久久精品人妻al黑| 久久精品亚洲精品国产色婷小说| 极品教师在线免费播放| 女同久久另类99精品国产91| 久久精品91无色码中文字幕| 亚洲av成人不卡在线观看播放网| 很黄的视频免费| 久久精品aⅴ一区二区三区四区| 国产男女内射视频| 国产成人系列免费观看| 搡老乐熟女国产| 亚洲国产精品sss在线观看 | 亚洲精品乱久久久久久| 精品亚洲成国产av| 夜夜夜夜夜久久久久| 国产精品影院久久| 亚洲欧美激情综合另类| 18禁国产床啪视频网站| 中文字幕最新亚洲高清| 欧美日韩亚洲综合一区二区三区_| 看黄色毛片网站| 久久精品91无色码中文字幕| 午夜91福利影院| 国产精品久久视频播放| 国产乱人伦免费视频| 亚洲av成人av| 夜夜夜夜夜久久久久| 天天影视国产精品| 亚洲欧美日韩高清在线视频| 久久久水蜜桃国产精品网| 精品久久久精品久久久| 免费人成视频x8x8入口观看| 中文字幕制服av| 夜夜夜夜夜久久久久| 亚洲男人天堂网一区| 亚洲情色 制服丝袜| 男女之事视频高清在线观看| 亚洲一区中文字幕在线| 午夜精品久久久久久毛片777| 久久久久久人人人人人| 国产成人啪精品午夜网站| 国产免费av片在线观看野外av| 王馨瑶露胸无遮挡在线观看| 日韩视频一区二区在线观看| 一本综合久久免费| 欧美日韩成人在线一区二区| 久久久精品区二区三区| 精品午夜福利视频在线观看一区| 日韩成人在线观看一区二区三区| 两人在一起打扑克的视频| 在线视频色国产色| 国产精品电影一区二区三区 | 国产成人av教育| 欧美午夜高清在线| 搡老乐熟女国产| 国产亚洲精品久久久久5区| 高清欧美精品videossex| 国产熟女午夜一区二区三区| 欧美日韩亚洲高清精品| 成人18禁在线播放| 十八禁网站免费在线| 亚洲色图av天堂| 超色免费av| 波多野结衣av一区二区av| 校园春色视频在线观看| 亚洲人成77777在线视频| 高清欧美精品videossex| 一级作爱视频免费观看| 国产亚洲一区二区精品| 91麻豆av在线| 90打野战视频偷拍视频| 一本大道久久a久久精品| 99精品久久久久人妻精品| 好男人电影高清在线观看| 制服人妻中文乱码| 欧美日本中文国产一区发布| 老司机在亚洲福利影院| 欧美日韩成人在线一区二区| 国产xxxxx性猛交| www.熟女人妻精品国产| 久久中文字幕人妻熟女| 香蕉久久夜色| 99香蕉大伊视频| 国产无遮挡羞羞视频在线观看| 熟女少妇亚洲综合色aaa.| 黑丝袜美女国产一区| 欧美日韩av久久| 国产亚洲欧美98| 国产精品香港三级国产av潘金莲| 精品卡一卡二卡四卡免费| 亚洲七黄色美女视频| 大型黄色视频在线免费观看| 女人精品久久久久毛片| 日韩三级视频一区二区三区| 亚洲精品av麻豆狂野| 亚洲精品国产精品久久久不卡| 亚洲精品自拍成人| 操出白浆在线播放| 亚洲精品一卡2卡三卡4卡5卡| 久久香蕉国产精品| 天天躁日日躁夜夜躁夜夜|