• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于強(qiáng)化學(xué)習(xí)的實(shí)體關(guān)系聯(lián)合抽取模型

    2019-09-04 10:14:27陳佳灃滕沖
    計(jì)算機(jī)應(yīng)用 2019年7期
    關(guān)鍵詞:方法模型

    陳佳灃 滕沖

    摘 要:針對現(xiàn)有的基于遠(yuǎn)程監(jiān)督的實(shí)體和關(guān)系抽取方法存在著標(biāo)簽噪聲問題,提出了一種基于強(qiáng)化學(xué)習(xí)的實(shí)體關(guān)系聯(lián)合抽取方法。該模型有兩個模塊:句子選擇器模塊和實(shí)體關(guān)系聯(lián)合抽取模塊。首先,句子選擇器模塊選擇沒有標(biāo)簽噪聲的高質(zhì)量句子,將所選句子輸入到實(shí)體關(guān)系聯(lián)合抽取模型;然后,實(shí)體關(guān)系聯(lián)合抽取模塊采用序列標(biāo)注方法對輸入的句子進(jìn)行預(yù)測,并向句子選擇器模塊提供反饋,指導(dǎo)句子選擇器模塊挑選高質(zhì)量的句子;最后,句子選擇器模塊和實(shí)體關(guān)系聯(lián)合抽取模塊同時訓(xùn)練,將句子選擇與序列標(biāo)注一起優(yōu)化。實(shí)驗(yàn)結(jié)果表明,該模型在實(shí)體關(guān)系聯(lián)合抽取中的F1值為47.3%,與CoType為代表的聯(lián)合抽取模型相比,所提模型的F1值提升了1%;與LINE為代表的串行模型相比,所提模型的F1值提升了14%。結(jié)果表明強(qiáng)化學(xué)習(xí)結(jié)合實(shí)體關(guān)系聯(lián)合抽取模型能夠有效地提高序列標(biāo)注模型的F1值,其中句子選擇器能有效地處理數(shù)據(jù)的噪聲。

    Abstract: Existing entity and relation extraction methods that rely on distant supervision suffer from noisy labeling problem. A model for joint entity and relation extraction from noisy data based on reinforcement learning was proposed to reduce the impact of noise data. There were two modules in the model: an sentence selector module and a sequence labeling module. Firstly, high-quality sentences without labeling noise were selected by instance selector module and the selected sentences were input into sequence labeling module. Secondly, predictions were made by sequence labeling module and the rewards were provided to sentence selector module to help the module select high-quality sentences. Finally, two modules were trained jointly to optimize instance selection and sequence labeling processes. The experimental results show that the F1 value of the proposed model is 47.3% in the joint entity and relation extraction, which is 1% higher than those of joint extraction models represented by CoType and 14% higher than those of serial models represented by LINE(Large-scale Information Network Embedding). The results show that the joint entity and relation extraction model in combination with reinforcement learning can effectively improve F1 value of sequential labeling model, in which the sentence selector can effectively deal with the noise of data.

    Key words: reinforcement learning; joint extraction; sequence tagging; named entity recognition; relation classification

    0 引言

    實(shí)體和關(guān)系的聯(lián)合抽取是從非結(jié)構(gòu)化文本中同時檢測實(shí)體引用和識別它們的語義關(guān)系,如圖1所示。不同于Banko等[1]從給定句子中抽取關(guān)系詞的開放信息抽取,在本任務(wù)中,關(guān)系詞是從預(yù)定義的關(guān)系集中抽取的,該關(guān)系集可能不會出現(xiàn)在給定句子中。它是知識抽取和知識庫自動構(gòu)建中的一個重要途徑。

    傳統(tǒng)方法以串行的方式處理此任務(wù),即Nadeau等[2]先抽取實(shí)體,然后Rink等[3]識別它們的關(guān)系。這個串行的框架使任務(wù)易于處理,并且每個組件可以更靈活;但是它忽略了這兩個子任務(wù)之間的相關(guān)性,并且每個子任務(wù)都是一個獨(dú)立的模型。Li等[4]提出實(shí)體識別的結(jié)果可能會影響關(guān)系分類的效果,并導(dǎo)致錯誤的傳遞。

    與傳統(tǒng)方法不同,聯(lián)合學(xué)習(xí)框架是使用單個模型將實(shí)體識別和關(guān)系抽取結(jié)合在一起。它能有效地整合實(shí)體信息和關(guān)系信息,在這項(xiàng)任務(wù)中取得了較好的效果。大多數(shù)現(xiàn)有的聯(lián)合方法是基于特征的結(jié)構(gòu)化系統(tǒng)[4]。它們需要復(fù)雜的特性工程,并且嚴(yán)重依賴于其他自然語言處理(Natural Language Processing, NLP)工具包,這也可能導(dǎo)致錯誤傳播。為了減少特征抽取中的手工工作,Miwa等[5]提出了一種基于神經(jīng)網(wǎng)絡(luò)的端到端實(shí)體和關(guān)系聯(lián)合抽取方法。雖然聯(lián)合模型可以在單個模型中讓實(shí)體識別模塊與關(guān)系分類模塊共享參數(shù),但它們也是分別抽取實(shí)體和關(guān)系,并生成冗余信息。例如,圖1中的句子包含三個實(shí)體:“United States”“Trump”和“Apple Inc”,但只有“United States”和“Trump”才有固定的關(guān)系“Country-President”。在這句話中,實(shí)體“Apple Inc”與其他實(shí)體沒有明顯的關(guān)系,因此,從這句話中抽取的結(jié)果是{United States,Country-President,Trump},它在這里稱為三元組。Zheng等[6]提出了一個標(biāo)簽方案,將聯(lián)合抽取任務(wù)轉(zhuǎn)換為標(biāo)簽問題。通過建立含有關(guān)系信息的標(biāo)簽,使用序列標(biāo)注模型直接抽取實(shí)體及其關(guān)系,而不單獨(dú)識別實(shí)體和關(guān)系。

    大多數(shù)現(xiàn)有的工作都需要高質(zhì)量的標(biāo)注數(shù)據(jù)。為了獲得大規(guī)模的訓(xùn)練數(shù)據(jù),Mintz等[7]提出了遠(yuǎn)程監(jiān)督的方法,假設(shè)兩個實(shí)體在給定的知識庫中有關(guān)系,則包含這兩個實(shí)體的所有句子都會提到這種關(guān)系。遠(yuǎn)程監(jiān)督雖然能有效地實(shí)現(xiàn)數(shù)據(jù)的自動標(biāo)注,但存在著標(biāo)簽噪聲的問題。以三元組{Barack Obama,BornIn,United States}為例,由遠(yuǎn)程監(jiān)督標(biāo)注的數(shù)據(jù)“Barack Obamba is the 44th president of the United State”就是一個噪聲數(shù)據(jù),遠(yuǎn)程監(jiān)督認(rèn)為這個句子中Barack Obama與United States的關(guān)系是“BornIn”,即使這句話根本沒有描述“BornIn”關(guān)系。

    因此,以往的基于遠(yuǎn)程監(jiān)督的數(shù)據(jù)集上的實(shí)體關(guān)系聯(lián)合抽取的研究存在著標(biāo)簽噪聲的問題。噪聲語句產(chǎn)生錯誤的標(biāo)簽,會對聯(lián)合抽取模型產(chǎn)生不良影響。Feng等[8]提出了一種基于噪聲數(shù)據(jù)的句子級關(guān)系分類模型,其模型包括兩個模塊:句子選擇器和關(guān)系分類器。句子選擇器通過強(qiáng)化學(xué)習(xí)選擇高質(zhì)量的句子,將所選句子輸入到關(guān)系分類器;關(guān)系分類器進(jìn)行句子預(yù)測,并為句子選擇器提供反饋。他們的模型能夠有效地處理數(shù)據(jù)的噪聲,在句子層次上獲得更好的關(guān)系分類效果。

    本文提出了一種由句子選擇器和序列標(biāo)注模型兩個模塊組成的序列標(biāo)注模型。通過使用句子選擇器,可以從一個句子包中選擇高質(zhì)量的句子,然后通過序列標(biāo)注模型預(yù)測句子的標(biāo)簽。目前主要的挑戰(zhàn)是當(dāng)句子選擇器不清楚哪些句子的標(biāo)簽錯誤時,如何有效地聯(lián)合訓(xùn)練這兩個模塊。

    本文將句子選擇任務(wù)當(dāng)作強(qiáng)化學(xué)習(xí)問題來解決[9]。直觀地說,雖然模型沒有對句子選擇器進(jìn)行顯式監(jiān)督,但是可以把所選語句作為一個整體進(jìn)行評估,因此,句子選擇過程具有以下兩個性質(zhì):一是試錯搜索,即句子選擇器試圖從每個實(shí)體的句子集合中選擇一些句子,并獲得對所選句子質(zhì)量的反饋;二是只有當(dāng)句子選擇器完成了句子選擇過程,才能獲得從序列標(biāo)注模塊的反饋,這個反饋通常是延遲的。這兩個特性讓本文使用強(qiáng)化學(xué)習(xí)技術(shù)。

    本文工作中的貢獻(xiàn)包括:

    1)提出了一種新的序列標(biāo)注模型,該模型由句子選擇器和序列標(biāo)注模型組成。這個模型能夠在相對沒有噪聲的數(shù)據(jù)中進(jìn)行實(shí)體和關(guān)系的聯(lián)合抽取。

    2)將句子選擇定義為一個強(qiáng)化學(xué)習(xí)問題,使得模型能夠在沒有明確的句子級標(biāo)注情況下執(zhí)行句子選擇,通過序列標(biāo)注模型較弱的監(jiān)督信號提供反饋。

    3)根據(jù)實(shí)體將數(shù)據(jù)分成不同的集合,句子選擇器選擇實(shí)體集合中的高質(zhì)量句子,然后所有的集合中選擇的數(shù)據(jù)作為干凈的數(shù)據(jù)訓(xùn)練序列標(biāo)注模型。

    1 相關(guān)工作

    實(shí)體識別和關(guān)系分類是構(gòu)建知識庫的重要步驟,對許多NLP任務(wù)都有幫助。兩種主要框架被廣泛應(yīng)用于解決實(shí)體識別及其關(guān)系抽取的問題:一種是流水線方法,另一種是聯(lián)合學(xué)習(xí)方法。

    流水線方法將此任務(wù)視為兩個獨(dú)立的任務(wù),即命名實(shí)體識別(Named Entity Recognition, NER)和關(guān)系分類(Relation Classification, RC)。經(jīng)典的NER模型是線性統(tǒng)計(jì)模型,如隱馬爾可夫模型(Hidden Markov Model, HMM)和條件隨機(jī)場(Conditional Random Field, CRF)[10],其中CRF模型結(jié)合了最大熵模型和隱馬爾可夫模型的優(yōu)點(diǎn)[11]。向曉雯等[12]、佘俊等[13]、張金龍等[14]采用規(guī)則與統(tǒng)計(jì)相結(jié)合的方法研究命名實(shí)體識別任務(wù),取得了較好的結(jié)果。近幾年,Chiu等[15]、Huang等[16]、Lample等[17]幾種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)已成功應(yīng)用于NER,將命名實(shí)體識別任務(wù)處理成序列標(biāo)注任務(wù)。現(xiàn)有的關(guān)系分類方法也可分為手工抽取特征的方法[3]和基于神經(jīng)網(wǎng)絡(luò)的方法。

    聯(lián)合模型使用單個模型抽取實(shí)體和關(guān)系,而大多數(shù)聯(lián)合方法是基于特征的結(jié)構(gòu)化系統(tǒng),例如Ren等[18]、Singh等[19]、Miwa等[5]、Li等[4]提出的方法。最近,Miwa等[5]使用基于長短期記憶(Long Short-Term Memory, LSTM)網(wǎng)絡(luò)的模型抽取實(shí)體和關(guān)系,這可以減少手工工作。Zheng等[6]提出了一個標(biāo)簽方案,可以將聯(lián)合抽取任務(wù)轉(zhuǎn)換為序列標(biāo)注問題?;谶@種標(biāo)簽方案,研究不同的端到端模型,可以直接抽取實(shí)體及其關(guān)系,而不單獨(dú)識別實(shí)體和關(guān)系。本文所提出的方法是基于一種特殊的標(biāo)簽方式,因此可以很容易地使用端到端模型來抽取結(jié)果,而不需要運(yùn)用NER和RC分別進(jìn)行。

    一般來說,訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型需要大量的標(biāo)簽數(shù)據(jù),人工標(biāo)注數(shù)據(jù)是非常耗時的。為了解決這個問題,Mintz等[7]提出了遠(yuǎn)程監(jiān)督方法,該方法假設(shè)所有關(guān)于三元組中的兩個實(shí)體的句子都描述了三元組中的關(guān)系。盡管遠(yuǎn)程監(jiān)督取得了成功,但這種方法存在著標(biāo)簽噪聲問題。為了解決這一問題,Lin等[20]、Ji等[21]提出了多個句子級別的注意力機(jī)制,可以降低噪聲句子的權(quán)重。然而,這種多句子學(xué)習(xí)模型并不能直接過濾掉噪聲數(shù)據(jù)的影響。Feng等[8]提出了一個基于噪聲數(shù)據(jù)的句子級關(guān)系分類模型,首先在強(qiáng)化學(xué)習(xí)框架下選擇正確的句子[22],然后預(yù)測過濾后數(shù)據(jù)中每個句子的關(guān)系。本文提出的方法首先在強(qiáng)化學(xué)習(xí)的框架下選擇正確的句子,然后從干凈的數(shù)據(jù)中預(yù)測每個句子的標(biāo)簽序列。

    2 方法介紹

    本文提出一個句子選擇器和序列標(biāo)注的聯(lián)合抽取模型,雙向長短期記憶條件隨機(jī)場(Bidirectional Long Short-Term Memory Conditional Random Field, Bi-LSTM-CRF)模型來聯(lián)合抽取實(shí)體及其關(guān)系,句子選擇器來選擇高質(zhì)量的句子。在本章中,首先介紹如何將抽取問題改為標(biāo)簽問題,然后介紹用于選擇高質(zhì)量句子的強(qiáng)化學(xué)習(xí)模型。

    2.1 標(biāo)簽?zāi)P?/p>

    圖2是對訓(xùn)練集標(biāo)注的示例。句子中的每個詞都被打上一個有助于提取結(jié)果的標(biāo)簽。標(biāo)簽“O”表示“其他”標(biāo)簽,這意味著相應(yīng)的單詞獨(dú)立于提取的結(jié)果。除“O”外,其他標(biāo)簽還包括三個部分:實(shí)體中的單詞位置、關(guān)系類型和關(guān)系角色。本文使用實(shí)體開始(Begin,B)、實(shí)體內(nèi)部(Inner,I)、實(shí)體結(jié)尾(End,E)、單個實(shí)體(Single,S)等符號來表示實(shí)體中單詞的位置信息。關(guān)系類型信息從一組預(yù)定義的關(guān)系中獲取,關(guān)系角色信息由數(shù)字“1”和“2”表示。提取的結(jié)果由三元組表示:(Entity1;RelationType;Entity2)。“1”是指單詞屬于三元組中的第一個實(shí)體,“2”是指關(guān)系類型后面的第二個實(shí)體,因此,標(biāo)簽總數(shù)為N=2*4*r+1,其中r是預(yù)定義關(guān)系集的大小。

    輸入語句標(biāo)簽以及結(jié)果如圖2所示。輸入語句包含兩個三元組:{United States,Country-President,Trump}和{Apple Inc,Company-Founder,Steven Paul Jobs},其中“Country-President”和“Company-Founder”是預(yù)定義的關(guān)系類型。單詞“United”“States”“Trump”“Apple”“Inc”“Steven”“Paul”和“Jobs”都與最終提取的結(jié)果相關(guān),因此,它們是根據(jù)本文的特殊標(biāo)簽進(jìn)行標(biāo)注的。例如,“United”這個詞是實(shí)體“United States”的第一個詞,與“Country-President”的關(guān)系有關(guān),所以它的標(biāo)簽是“B-CP-1”。另一個與“United States”相對應(yīng)的實(shí)體“Trump”被標(biāo)簽為“S-CP-2”。另外,其他與最終結(jié)果無關(guān)的詞被標(biāo)簽為“O”。

    2.2 從標(biāo)簽獲取結(jié)果

    從圖2的標(biāo)簽序列中,可以知道“Trump”和“United States”共享相同的關(guān)系類型“Country-President”;“Apple Inc”和“Steven Paul Jobs”共享相同的關(guān)系類型“Company-Founder”。最后將具有相同關(guān)系類型的實(shí)體組合成一個三元組以得到最終結(jié)果,因此,“Trump”和“United States”可以合并成三元組,關(guān)系類型為“Country-President”。因?yàn)椤癟rump”的關(guān)系角色是“2”,“United States”是“1”,最終結(jié)果是{United States,Country-President,Trump}。同樣可以得到三元組{Apple Inc,Company-Founder,Steven Paul Jobs}。

    此外,如果一個句子包含兩個或兩個以上具有相同關(guān)系類型的三元組,模型會根據(jù)就近的原則將每兩個實(shí)體組合成一個三元組。例如,如果圖2中的關(guān)系類型“Country-President”是“Company-Founder”,那么在給定的句子中會有四個具有相同關(guān)系類型的實(shí)體?!癠nited States”最接近實(shí)體“Trump”,“Apple Inc”最接近“Steven Paul Jobs”,因此結(jié)果將是{United States,Company-Founder,Trump}、{Apple Inc,Company-Founder,Steven Paul Jobs}。

    2.3 詞向量

    詞向量是神經(jīng)網(wǎng)絡(luò)的輸入。對于詞嵌入的方法,本文選擇CBOW(Continuous Bag-Of-Words model)而不是Skip-Gram。本文的選擇是基于這樣一個考慮:CBOW是根據(jù)上下文預(yù)測一個詞,或者通過查看上下文最大化目標(biāo)詞的概率進(jìn)行預(yù)測,而Skip-Gram的輸入是當(dāng)前詞的詞向量,而輸出是周圍詞的詞向量。也就是說,通過當(dāng)前詞來預(yù)測周圍詞,即用于預(yù)測上下文。Skip-Gram需要更多的數(shù)據(jù)來訓(xùn)練,這樣它就可以學(xué)會理解很多單詞,甚至是罕見的單詞。對于NER任務(wù),是根據(jù)上下文預(yù)測詞的標(biāo)簽,而不是預(yù)測上下文,因此,本文訓(xùn)練CBOW嵌入模型以獲得雙向長短期記憶(Bidirectional Long Short-Term Memory, Bi-LSTM)編碼器的輸入表示。

    2.4 Bi-LSTM-CRF模型

    2.4.1 CRF

    條件隨機(jī)場結(jié)合了最大熵模型和隱馬爾可夫模型的特點(diǎn),是一種無向圖模型,近年來在分詞、詞性標(biāo)注和命名實(shí)體識別等序列標(biāo)注任務(wù)中取得了很好的效果。條件隨機(jī)場是一個典型的判別式模型,其聯(lián)合概率可以寫成若干勢函數(shù)聯(lián)乘的形式,其中最常用的是線性鏈條件隨機(jī)場。若讓x=(x1,x2,…,xn)表示被觀察的輸入數(shù)據(jù)序列,y=(y1,y2,…,yn)表示一個狀態(tài)序列,在給定一個輸入序列的情況下,序列標(biāo)注通常公式化為:

    其中:tj(yi-1,yi,x,i)是一個轉(zhuǎn)移函數(shù),代表在標(biāo)注序列中,第i-1個和第i個的標(biāo)注與整個觀測序列之間的特征關(guān)系;sk(yi,x,i)是一個狀態(tài)函數(shù),代表標(biāo)注序列中第i個標(biāo)注與此時相對應(yīng)的觀測序列中的值的特征;λj和μk的值均是從訓(xùn)練數(shù)據(jù)中進(jìn)行估計(jì),較大的負(fù)值代表其對應(yīng)的特征模板可信度低,而較大的非負(fù)值代表其對應(yīng)的特征事件可信度高,其中Z(x)代表歸一化因子,其公式如下:

    最終的最優(yōu)化輸出序列計(jì)算公式如下:

    以往的研究表明,特征選擇在傳統(tǒng)的概念抽取中起著重要的作用。NER的性能在很大程度上取決于不同意見的領(lǐng)域知識的構(gòu)建和研究。

    2.4.2 LSTM與Bi-LSTM

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)模型是一種在序列標(biāo)注任務(wù)上表現(xiàn)優(yōu)異的神經(jīng)網(wǎng)絡(luò)模型,因?yàn)樾蛄袠?biāo)注任務(wù)中,無論是序列內(nèi)部還是序列的邊界對上下文信息都是敏感的,而循環(huán)神經(jīng)網(wǎng)絡(luò)RNN與傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)相比,恰好有著時間序列這一特性,它更能充分地利用前面序列的信息,因此它更加適用于序列標(biāo)注的任務(wù)。長短期記憶(Long Short Term Memory, LSTM)網(wǎng)絡(luò)模型采用LSTM單元來替代原先循環(huán)神經(jīng)網(wǎng)絡(luò)RNN模型中的隱藏層,該模型能夠有效處理較長距離的依賴關(guān)系以及解決梯度消失問題。

    LSTM區(qū)別于RNN的地方,主要就在于它在算法中加入了一個判斷信息有用與否的“處理器”,這個處理器作用的結(jié)構(gòu)被稱為細(xì)胞(cell)。一個cell當(dāng)中被放置了三扇門,分別叫作輸入門(i)、遺忘門(f)和輸出門(o)。一個信息進(jìn)入LSTM的網(wǎng)絡(luò)當(dāng)中,可以根據(jù)規(guī)則來判斷是否有用。只有符合算法認(rèn)證的信息才會留下,不符的信息則通過遺忘門被遺忘。一個細(xì)胞的結(jié)構(gòu)如圖3所示。

    i、 f、o分別表示輸入門、遺忘門和輸出門。W和b表示權(quán)重矩陣和偏移向量。遺忘門是決定需要從細(xì)胞狀態(tài)中丟棄什么信息,它會讀取ht-1和xt,輸出一個在0到1之間的數(shù)值。1表示“完全保留”,0表示“完全舍棄”。遺忘門的計(jì)算公式如下:

    f=σ(Wf[ht-1,xt]+bf)(4)此處是否遺漏了公式,后面的參數(shù)說明中沒有看到Ct、sig等函數(shù)?;貜?fù):沒有遺漏公式,其中包括了對圖三的說明,Ct,Sig符號可以在圖三中看到

    其中:ht-1表示的是上一個LSTM單元的輸出,xt表示的是當(dāng)前細(xì)胞的輸入,Ct-1是前一個單元的記憶,ht是當(dāng)前網(wǎng)絡(luò)的輸出,Ct是當(dāng)前單元的記憶。Sig表示sigmoid函數(shù),Mul表示向量乘法,Con表示向量加法,tanh為激活函數(shù)。

    輸入門決定讓多少新的信息加入到cell狀態(tài)中來。實(shí)現(xiàn)這個需要包括兩個步驟:首先,一個叫作“輸入門”的sigmoid層決定哪些信息需要更新;一個tanh層生成一個向量,也就是備選的用來更新的內(nèi)容,Ct。在下一步,把這兩部分聯(lián)合起來,對cell的狀態(tài)進(jìn)行一個更新。

    接下來是更新舊細(xì)胞狀態(tài),Ct-1更新為Ct。需要把舊狀態(tài)與ft相乘,丟棄確定需要丟棄的信息。得到新的候選值后,根據(jù)決定更新每個狀態(tài)的程度進(jìn)行變化。公式如下:

    輸出門需要確定輸出什么值。這個輸出將會基于當(dāng)前的細(xì)胞狀態(tài),也是一個過濾后的版本。首先,模型運(yùn)行一個sigmoid層來確定細(xì)胞狀態(tài)的哪個部分將輸出;接著,模型把細(xì)胞狀態(tài)通過tanh進(jìn)行處理(得到一個在-1到1之間的值)并將它和sigmoid層的輸出相乘,最終僅僅會輸出確定輸出的那部分。公式如下:

    雙向長短期記憶(Bi-LSTM)網(wǎng)絡(luò)模型是由前向的LSTM與后向的LSTM結(jié)合而成,Bi-LSTM的計(jì)算流程與單向長短期記憶網(wǎng)絡(luò)LSTM模型在本質(zhì)上是一樣的,也是利用LSTM的公式計(jì)算每個LSTM單元的細(xì)胞狀態(tài)與隱藏層輸出,不同的是,Bi-LSTM首先針對逆時序的隱藏層增加了和正時序的隱藏層處理相對應(yīng)的權(quán)重參數(shù)矩陣與偏置向量,正時序和逆時序?qū)⑼ㄟ^各自的權(quán)重參數(shù)矩陣與偏置向量得到隱藏層的輸出向量ht,再對這兩個輸出向量進(jìn)行合并操作,對于不同的應(yīng)用,它們的合并方式會略有差異,本文將采用連接的方式將兩個輸出向量進(jìn)行合并。

    2.4.3 Bi-LSTM-CRF

    上面介紹了在序列標(biāo)注問題上效果比較優(yōu)異的傳統(tǒng)統(tǒng)計(jì)模型的代表?xiàng)l件隨機(jī)場(CRF)模型和被廣泛應(yīng)用于序列標(biāo)注任務(wù)中的Bi-LSTM網(wǎng)絡(luò)模型。其中,CRF模型的優(yōu)點(diǎn)在于能夠通過特征模板去掃描整個輸入文本,從而對整個文本局部特征的線性加權(quán)組合有著更多的考量,最關(guān)鍵的是,序列標(biāo)注中的X和Y代表的都是整個輸入文本和標(biāo)注序列,并非獨(dú)立的詞語或標(biāo)注,所以CRF模型優(yōu)化的目標(biāo)是出現(xiàn)概率最高的一個序列,而不是找出序列的每個位置出現(xiàn)最高概率的標(biāo)注;而它的缺點(diǎn)在于,首先特征模板的選取需要對訓(xùn)練語料有一定的先驗(yàn)知識,需要從語料中相關(guān)信息的統(tǒng)計(jì)數(shù)據(jù)中分析出對標(biāo)注有著重要影響的特征,特征的數(shù)量多了會使模型出現(xiàn)過擬合的現(xiàn)象,特征數(shù)量少了則會使模型出現(xiàn)欠擬合的現(xiàn)象,特征之間如何組合是一項(xiàng)比較困難的工作;其次,條件隨機(jī)場模型在訓(xùn)練過程中,由于受限于特征模板制定的窗口大小,所以難以考察長遠(yuǎn)的上下文信息。Bi-LSTM網(wǎng)絡(luò)模型的優(yōu)缺點(diǎn)在某種程度上與CRF模型恰恰相反,它在序列標(biāo)注任務(wù)的表現(xiàn)上異常強(qiáng)大,可以有效地將長遠(yuǎn)的上下文信息利用進(jìn)來,同時它還具備了神經(jīng)網(wǎng)絡(luò)本身的對于非線性數(shù)據(jù)的擬合能力,然而從圖3.5中可以看出,然而從圖3.5中可以將看到,這一句話需要去掉Bi-LSTM模型的輸出層輸出的標(biāo)注yt由當(dāng)前時刻的輸入文本向量xt和將正時序LSTM單元與逆時序LSTM單元的記憶輸出合并而成的隱藏層的輸出ht決定,而與其他時刻k的輸出層輸出的標(biāo)注yk沒有關(guān)系,因此,Bi-LSTM模型的優(yōu)化目標(biāo)是對于每個時刻都尋找到在這個時刻出現(xiàn)概率最大的標(biāo)注,再由這些標(biāo)注構(gòu)成序列,這往往會導(dǎo)致模型對標(biāo)注序列的輸出發(fā)生不連貫的現(xiàn)象。

    這兩種模型的優(yōu)缺點(diǎn)恰好互補(bǔ),于是將兩者結(jié)合起來的模型Bi-LSTM-CRF出現(xiàn)了,即在傳統(tǒng)的Bi-LSTM模型的隱藏層上在加入一層線性CRF層,如圖4所示。

    2.5 句子選擇器

    本文將句子選擇作為一個強(qiáng)化學(xué)習(xí)問題來處理。句子選擇器稱為代理“Agent”,它與由數(shù)據(jù)和序列標(biāo)注模型組成的環(huán)境“Environment”進(jìn)行交互。“Agent”遵循一個策略來決定在每個狀態(tài)“State”(包括當(dāng)前句子、所選句子集)時執(zhí)行什么操作“Action”(選擇當(dāng)前句子或不選擇當(dāng)前句子),然后在作出所有選擇時從Bi-LSTM-CRF模型獲得反饋“Reward”。

    如前所述,只有在完成對所有訓(xùn)練語料的選擇后,句子選擇器模型才能從序列標(biāo)注模型中獲得延遲反饋,因此,對于整個訓(xùn)練數(shù)據(jù)的每次遍歷,如果只更新一次策略函數(shù),這顯然是低效的。為了獲得更多的反饋并提高訓(xùn)練過程的效率,本文將訓(xùn)練語料X={x1,x2,…,xn}分到N個集合B={B1,B2,…,BN}中,并且當(dāng)完成一個集合的篩選后就計(jì)算一次反饋。集合根據(jù)實(shí)體進(jìn)行劃分,每個集合對應(yīng)一個不同的實(shí)體,每個包bk是一個包含同一個實(shí)體的句子序列{xk1,xk2,…,xk|Bk|},但是實(shí)體的標(biāo)簽是有噪聲的。本文將動作定義為根據(jù)策略函數(shù)選擇句子或不選擇句子。一旦在一個包上完成選擇,就會計(jì)算反饋。當(dāng)句子選擇器的訓(xùn)練過程完成后,將每個包中的所有選定語句合并,得到一個干凈的數(shù)據(jù)集X,然后,將干凈的數(shù)據(jù)用于訓(xùn)練序列標(biāo)注模型。

    本文將介紹句子選擇器(即狀態(tài)、行動、反饋、優(yōu)化)如下。

    1)狀態(tài)。

    狀態(tài)si表示當(dāng)前句子和已選定的句子。本文將狀態(tài)表示為連續(xù)實(shí)值向量F(si),它編碼以下信息:a)從序列標(biāo)注模型中獲得的當(dāng)前句子的向量表示;b)已選句子集的表示,它是所有已選句子的向量的平均值。

    2)動作。

    本文定義了一個動作ai∈{0,1}來表示句子選擇器是否會選擇包B的第i個句子,通過策略函數(shù)πΘ(si,ai)來決定ai的取值,將一個邏輯函數(shù)作為策略函數(shù)表示如下:

    其中:F(si)表示狀態(tài)向量,σ(·)表示sigmoid函數(shù),參數(shù)Θ={W,b}。

    3)反饋。

    反饋函數(shù)代表所選句子質(zhì)量的標(biāo)志。對于一個集合B={x1,x2,…,x|B|},本文為每個句子選擇一個動作,以確定是否應(yīng)該選擇當(dāng)前句子。假設(shè)模型在完成所有選擇后有一個最終反饋,因此,句子選擇器模型只在最終狀態(tài)S|B|+1收到延遲反饋。其他狀態(tài)的反饋為零,因此,反饋的定義如下:

    其中:B^為選擇的句子集合,是集合B的子集;r是集合代表的實(shí)體;p(r|xj)是由序列標(biāo)注模型計(jì)算出來的,對于特殊情況B^=,將反饋設(shè)置為訓(xùn)練集所有句子的平均值,這樣可以過濾掉全是噪聲的集合。

    在選擇過程中,不僅最終的行為有助于反饋,所有先前的行為都有助于反饋,因此,這種反饋是延遲的,并且可以通過強(qiáng)化學(xué)習(xí)技術(shù)很好地處理。

    4)優(yōu)化。

    對于一個集合B,本模型希望得到最大的反饋,目標(biāo)函數(shù)定義如下:

    2.6 句子選擇器+序列標(biāo)注模型

    如圖5所示,左邊為句子選擇器,右邊為序列標(biāo)注模型,句子選擇器由策略函數(shù)、反饋函數(shù)等組成,用來在訓(xùn)練集中挑選高質(zhì)量的句子,作為序列標(biāo)注模型的輸入,序列標(biāo)注模型接收句子選擇器的輸入,然后給句子選擇器提供反饋,指導(dǎo)句子選擇器選出高質(zhì)量的句子。

    3 實(shí)驗(yàn)介紹

    3.1 數(shù)據(jù)集

    為了評估本文方法的性能,本文使用由遠(yuǎn)程監(jiān)督方法生成的公共數(shù)據(jù)集紐約時報(New York Times, NYT)[18],采用遠(yuǎn)程監(jiān)督方式,無需人工標(biāo)注,即可獲得大量的訓(xùn)練數(shù)據(jù)。測試集是人工標(biāo)注的以確保其質(zhì)量。總的來說,訓(xùn)練數(shù)據(jù)包含353000個三元組,測試集包含3880個三元組。此外,關(guān)系集的大小為24。

    3.2 評估策略

    本文采用準(zhǔn)確率(Precision, P)、召回率(Recall, R)和F1值對結(jié)果進(jìn)行評估。與傳統(tǒng)方法不同的是,本文方法可以在不知道實(shí)體類型信息的情況下抽取三元組。換句話說,本文沒有使用實(shí)體類型的標(biāo)簽來訓(xùn)練模型,因此在評估中不需要考慮實(shí)體類型。當(dāng)三元組的關(guān)系類型和兩個對應(yīng)實(shí)體的位置偏移都正確時,則認(rèn)為它是正確的。本文從測試集隨機(jī)抽取10%的數(shù)據(jù)來創(chuàng)建驗(yàn)證集,并根據(jù)Ren等[18]的建議將剩余數(shù)據(jù)用作評估。本文將每個實(shí)驗(yàn)運(yùn)行10次,然后記錄平均結(jié)果。

    3.3 參數(shù)設(shè)置

    本文的模型由一個Bi-LSTM-CRF序列標(biāo)注模型和一個句子選擇器模型組成。詞向量是通過在NYT訓(xùn)練語料上運(yùn)行Word2vec[23]生成的。詞向量的維度為300。本文在嵌入層上使用droupout來防止過擬合,大小為0.5。LSTM隱藏層維度為300。對于句子選擇器的參數(shù),本文分別在預(yù)訓(xùn)練階段和聯(lián)合訓(xùn)練階段將學(xué)習(xí)率設(shè)置為0.02和0.01。延遲系數(shù)τ為0.001。

    3.4 基準(zhǔn)線

    將本文的方法與幾種經(jīng)典的三元組提取方法進(jìn)行了比較,這些方法可分為以下幾類:基于本文的標(biāo)記方案的流水線方法、聯(lián)合提取方法和Bi-LSTM-CRF方法。

    對于流水線方法,本文遵循Ren等[18]的設(shè)置:通過CoType方法獲得NER結(jié)果,然后使用幾種經(jīng)典的關(guān)系分類方法檢測關(guān)系。這些方法包括:

    1)2009年Mintz等[7]提出的DS-Logistic模型,這是一種遠(yuǎn)程監(jiān)督和基于特征的方法;

    2)2015年Tang等[24]提出的LINE(Large-scale Information Network Embedding)模型,這是一種網(wǎng)絡(luò)嵌入方法,適用于任意類型的信息網(wǎng)絡(luò);

    3)2015年Gormley等[25]提出的FCM(Fuzzy C-Mean)模型,這是一種復(fù)合方法,將詞匯化語言語境和嵌入詞結(jié)合起來進(jìn)行關(guān)系提取的模式。

    本文采用的聯(lián)合提取方法如下:

    4)2014年Li等[4]提出的DS-Joint模型,這是一種有監(jiān)督的方法,它利用人工標(biāo)注數(shù)據(jù)集上的結(jié)構(gòu)化感知器聯(lián)合提取實(shí)體和關(guān)系;

    5)2011年Hoffmann等[26]提出的MULTIR(MULTi-Instance learning which handles overlapping Relations請補(bǔ)充MULTIR的英文全稱)模型,這是一種典型的基于多句子學(xué)習(xí)算法的遠(yuǎn)程監(jiān)控方法,用于對抗噪聲訓(xùn)練數(shù)據(jù);

    6)2017年Ren等[18]提出的CoType模型,這是一個獨(dú)立于領(lǐng)域的框架,將實(shí)體信息、關(guān)系信息、文本特征和類型標(biāo)簽共同嵌入到有意義的表示中。

    此外,本文方法還與經(jīng)典的端到端標(biāo)注模型進(jìn)行了比較:2016年Lample等[17]提出的LSTM-CRF模型,利用雙向LSTM對輸入句子進(jìn)行編碼,利用條件隨機(jī)場預(yù)測實(shí)體標(biāo)簽序列,實(shí)現(xiàn)實(shí)體識別的LSTM-CRF算法。

    3.5 實(shí)驗(yàn)結(jié)果

    本文的實(shí)驗(yàn)分為三個部分進(jìn)行,包括序列標(biāo)注模型的訓(xùn)練、句子選擇器模型的訓(xùn)練以及聯(lián)合訓(xùn)練。其中前面兩個模型的訓(xùn)練為預(yù)訓(xùn)練,目的是為了聯(lián)合模型能夠盡快地收斂。本文通過實(shí)驗(yàn)得到了不同方法的對比結(jié)果,其中LSTM-CRF模型與RL-LSTM-CRF(Reinforcement Learning for LSTM-CRF)本文方法的縮寫是Bi-LSTM-CRF,不是RL-LSTM-CRF吧?這個名稱也沒有英文縮寫,全文是否需要統(tǒng)一,請明確。回復(fù):LSTM-CRF模型上文介紹了是利用雙向LSTM編碼的模型,也就是Bi-LSTM-CRF模型的縮寫。RL-LSTM-CRF中RL指的是加入強(qiáng)化學(xué)習(xí)的模型,RL是Reinforcement Learning的縮寫,LSTM-CRF同上。如果不明確的話,需要給RL-LSTM-CRF加上說明RL-LSTM-CRF(Reinforcement Learning for LSTM-CRF)。

    模型不僅記錄下了準(zhǔn)確率、召回率、F1值,還將實(shí)驗(yàn)的標(biāo)準(zhǔn)差記錄下來,標(biāo)準(zhǔn)差是將每個模型運(yùn)行10次的結(jié)果,如表1所示。

    可以看出,本文的方法RL-LSTM-CRF在F1分?jǐn)?shù)上優(yōu)于所有其他方法,與聯(lián)合抽取CoType模型相比本文模型的F1值提升了1%,與串行抽取LINE模型相比本文模型的F1值提升了14%。實(shí)驗(yàn)結(jié)果證明了本文方法的有效性。此外,從表1中還可以看出,聯(lián)合提取方法優(yōu)于流水線方法,標(biāo)注方法優(yōu)于大多數(shù)聯(lián)合提取方法。它還驗(yàn)證了本文的標(biāo)簽方案對于聯(lián)合提取實(shí)體和關(guān)系的任務(wù)的有效性。與傳統(tǒng)方法相比,端到端模型的精度有了顯著提高,基于神經(jīng)網(wǎng)絡(luò)的方法能很好地擬合數(shù)據(jù),因此,它們可以很好地學(xué)習(xí)訓(xùn)練集的共同特征。

    4 結(jié)語

    本文提出了一個新的模型,該模型由句子選擇器和序列標(biāo)注模型組成,通過強(qiáng)化學(xué)習(xí)框架在噪聲數(shù)據(jù)集中聯(lián)合抽取實(shí)體和關(guān)系。句子選擇器為序列標(biāo)注模型選擇高質(zhì)量的數(shù)據(jù)。Bi-LSTM-CRF模型預(yù)測句子級別的序列標(biāo)簽,并作為弱監(jiān)督信號向選擇器提供反饋,以監(jiān)督句子選擇過程。大量的實(shí)驗(yàn)表明,本文模型能夠過濾掉有噪聲的句子,并比現(xiàn)有的模型更好地執(zhí)行聯(lián)合實(shí)體和關(guān)系提取。

    此外,本文的解決方案可以推廣到使用噪聲數(shù)據(jù)或遠(yuǎn)程監(jiān)督的其他任務(wù)中,這將是未來的工作。后期打算用更優(yōu)的端到端的模型來替換本文現(xiàn)有的序列標(biāo)注模型,例如用LSTM解碼層替換CRF解碼層等。本文只考慮一個實(shí)體屬于一個三元組的情況,并將重疊關(guān)系的識別留給以后的工作。

    參考文獻(xiàn) (References)

    [1] BANKO M, CAFARELLAM J, SODERLAND S, et al. Open information extraction from the Web[C]// Proceedings of the 20th International Joint Conference on Artificial Intelligence. New York: ACM, 2007: 2670-2676.

    [2] NADEAU D, SEKINE S. A survey of named entity recognition and classification[J]. Lingvisticae Investigationes, 2005, 30(1): 3-26.

    [3] RINK B, HARABAGIU A. UTD: classifying semantic relations by combining lexical and semantic resources[C]// Proceedings of the 5th International Workshop on Semantic Evaluation. New York: ACM, 2010: 256-259.

    [4] LI Q, JI H. Incremental joint extraction of entity mentions and relations[C]// Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2014: 402-412.

    [5] MIWA M, BANSAL M. End-to-end relation extraction using LSTMs on sequences and tree structures[C]// Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2016: 1105-1116.

    [6] ZHENG S C, WANG F. Joint extraction of entities and relations based on a novel tagging scheme[C]// Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2017: 1227-1236.

    [7] MINTZ M, BILLS S, SNOW R, et al. Distant supervision for relation extraction without labeled data[C]// Proceedings of the 2009/47th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2009: 1003-1011

    [8] FENG J, HUANG M, ZHAO L, et al. Reinforcement learning for relation classification from noisy data[C]// Proceedings of the 2018/32nd Association for the Advancement of Artificial Intelligence Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2018:5779-5786

    [9] SUTTON R S, BARTO A G. Reinforcement learning: an introduction[J]. IEEE Transactions on Neural Networks, 1998, 9(5): 1054-1054.

    [10] LUO G, HUANG X J, LIN C Y, et al. Joint entity recognition and disambiguation[C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 879-888.

    [11] 馮元勇,孫樂,張大鯤,等.基于小規(guī)模尾字特征的中文命名實(shí)體識別研究[J].電子學(xué)報,2008,36(9):1833-1838.(FENG Y Y, SUN L, ZHANG D K, et al. Study on the Chinese named entity recognition using small scale tail hints[J]. Acta Electronica Sinaca, 2008, 36(9): 1833-1838.)

    [12] 向曉雯,史曉東,曾華琳.一個統(tǒng)計(jì)與規(guī)則相結(jié)合的中文命名實(shí)體識別系統(tǒng)[J].計(jì)算機(jī)應(yīng)用,2005,25(10):2404-2406.(XIANG X W, SHI X D, ZENG H L. Chinese named entity recognition system using statistics-based and rules-based method [J]. Journal of Computer Applications, 2005, 25(10): 2404-2406.)

    [13] 佘俊,張學(xué)清.音樂命名實(shí)體識別方法[J].計(jì)算機(jī)應(yīng)用,2010,20(11):2928-2931.(SHE J, ZHANG X Q. Musical named entity recognition method [J]. Journal of Computer Applications, 2010, 30(11): 2928-2931.)

    [14] 張金龍,王石,錢存發(fā).基于CRF和規(guī)則的中文醫(yī)療機(jī)構(gòu)名稱識[J].計(jì)算機(jī)應(yīng)用與軟件,2014,31(3):159-162.(ZHANG J L, WANG S, QIAN C F. CRF and rules-based recognition of medical institutions name in Chinese [J]. Computer Applications and Software, 2014, 31(3): 159-162.)

    [15] CHIU J P C, NICHOLS E. Named entity recognition with bidirectional LSTM-CNNs[C]// Proceedings of the 2016 Transactions of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2016: 357-370

    [16] HUANG Z, XU W, YU K. Bidirectional LSTM-CRF models for sequence tagging[EB/OL]. [2018-12-02]. https://arxiv.org/pdf/1508.01991.pdf.

    [17] LAMPLE G, BALLESTEROS M, SUBRAMANIAN S, et al. Neural architectures for named entity recognition[C]// Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2016: 260-270.

    [18] REN X, WU Z, HE W, et al. CoType: joint extraction of typed entities and relations with knowledge bases[C]// Proceedings of the 26th International Conference on World Wide Web. New York: ACM, 2017: 1015-1024.

    [19] SINGH S, RIEDEL S, MARTIN B, et al. Joint inference of entities, relations, and coreference[C]// Proceedings of the 2013 Workshop on Automated Knowledge Base Construction. New York: ACM, 2013: 1-6.

    [20] LIN Y, SHEN S, LIU Z, et al. Neural relation extraction with selective attention over instances[C]// Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2016: 2124-2133.

    [21] JI G, LIU K, HE S, et al. Distant supervision for relation extraction with sentence-level attention and entity descriptions[C]// Proceedings of the Thirty-First Association for the Advancement of Artificial Intelligence Conference on Artificial Intelligence. Menlo Park, CA: AAAI, 2017: 3060-3066.

    [22] NARASIMHAN K, YALA A, BARZILAY R. Improving information extraction by acquiring external evidence with reinforcement learning[C]// Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2016: 2355-2365.

    [23] MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality[J]. Advances in Neural Information Processing Systems, 2013, 26: 3111-3119.

    [24] TANG J, QU M, WANG M, et al. LINE: large-scale information network embedding[C]// Proceedings of the 24th International Conference on World Wide Web. New York: ACM, 2015: 1067-1077.

    [25] GORMLEY M R, YU M, DREDZE M. Improved relation extraction with feature-rich compositional embedding models[C]// Proceedings of the 2015 Conference on Empirical Method in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1774-1784.

    [26] HOFFMANN R, ZHANG C, LING X, et al. Knowledge-based weak supervision for information extraction of overlapping relations[C]// Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: Association for Computational Linguistics, 2011: 541-550.

    猜你喜歡
    方法模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    學(xué)習(xí)方法
    可能是方法不對
    3D打印中的模型分割與打包
    用對方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    賺錢方法
    18禁国产床啪视频网站| 亚洲av国产av综合av卡| 亚洲成av片中文字幕在线观看 | 国产成人精品无人区| 久久av网站| 少妇精品久久久久久久| 啦啦啦啦在线视频资源| 丰满饥渴人妻一区二区三| 热99国产精品久久久久久7| 国产精品三级大全| av片东京热男人的天堂| 国产精品国产三级专区第一集| 国产免费一级a男人的天堂| 亚洲国产精品999| 国产成人午夜福利电影在线观看| 久久久久久久亚洲中文字幕| 久久精品国产a三级三级三级| 成人二区视频| 久久精品夜色国产| 最近手机中文字幕大全| 国精品久久久久久国模美| 精品久久国产蜜桃| 十分钟在线观看高清视频www| 少妇被粗大猛烈的视频| 只有这里有精品99| 日韩人妻精品一区2区三区| 九九在线视频观看精品| 亚洲成av片中文字幕在线观看 | 国产成人av激情在线播放| 十分钟在线观看高清视频www| 中文欧美无线码| 波野结衣二区三区在线| 九草在线视频观看| 99re6热这里在线精品视频| 国产精品人妻久久久久久| 亚洲欧美色中文字幕在线| 日韩制服丝袜自拍偷拍| 天堂俺去俺来也www色官网| 国产精品嫩草影院av在线观看| 一区二区三区四区激情视频| 国产亚洲午夜精品一区二区久久| av片东京热男人的天堂| 美女国产视频在线观看| 草草在线视频免费看| 免费观看a级毛片全部| 午夜日本视频在线| 在线看a的网站| 国产男女超爽视频在线观看| 亚洲成色77777| 欧美最新免费一区二区三区| 久久久久国产网址| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 校园人妻丝袜中文字幕| 黑人欧美特级aaaaaa片| 国产片内射在线| 久久午夜综合久久蜜桃| 国产精品女同一区二区软件| 人人澡人人妻人| 高清不卡的av网站| 亚洲 欧美一区二区三区| 中文字幕av电影在线播放| 99久国产av精品国产电影| 国产日韩欧美视频二区| 丝袜在线中文字幕| 国产熟女午夜一区二区三区| 欧美 日韩 精品 国产| 一边摸一边做爽爽视频免费| 国产精品99久久99久久久不卡 | 九草在线视频观看| 国产欧美亚洲国产| 精品酒店卫生间| 欧美最新免费一区二区三区| 欧美日本中文国产一区发布| 日韩,欧美,国产一区二区三区| 人人妻人人爽人人添夜夜欢视频| 宅男免费午夜| 18禁国产床啪视频网站| 日韩一区二区视频免费看| 一个人免费看片子| 国产乱人偷精品视频| 天天躁夜夜躁狠狠躁躁| 国产精品一二三区在线看| av一本久久久久| 一区二区三区精品91| 国产熟女欧美一区二区| 看十八女毛片水多多多| 女人久久www免费人成看片| 国产精品.久久久| 国产成人精品久久久久久| 中文天堂在线官网| 亚洲欧美一区二区三区黑人 | 国产伦理片在线播放av一区| 国产色婷婷99| 欧美97在线视频| 午夜精品国产一区二区电影| 免费在线观看黄色视频的| 欧美少妇被猛烈插入视频| 国产精品一区www在线观看| 久久午夜福利片| 国产一区二区在线观看av| 国产黄频视频在线观看| 26uuu在线亚洲综合色| 亚洲伊人久久精品综合| 一边亲一边摸免费视频| 亚洲av电影在线观看一区二区三区| 中文字幕最新亚洲高清| 久久青草综合色| 日韩中文字幕视频在线看片| 哪个播放器可以免费观看大片| 国产欧美日韩综合在线一区二区| 国产精品人妻久久久影院| 两个人看的免费小视频| 啦啦啦视频在线资源免费观看| 一级毛片我不卡| 国产精品一区www在线观看| 欧美成人精品欧美一级黄| 国产精品麻豆人妻色哟哟久久| 宅男免费午夜| videosex国产| 日本-黄色视频高清免费观看| 亚洲精品久久久久久婷婷小说| av福利片在线| 免费不卡的大黄色大毛片视频在线观看| 一边亲一边摸免费视频| 久久综合国产亚洲精品| 亚洲,一卡二卡三卡| av国产久精品久网站免费入址| 亚洲国产精品成人久久小说| 久久久精品区二区三区| 老女人水多毛片| 欧美激情 高清一区二区三区| 看十八女毛片水多多多| 肉色欧美久久久久久久蜜桃| 一级片免费观看大全| 如日韩欧美国产精品一区二区三区| 精品久久久久久电影网| 国产精品人妻久久久影院| 黑人欧美特级aaaaaa片| 一区二区三区四区激情视频| 免费黄色在线免费观看| 久久久久久久亚洲中文字幕| 日韩一区二区视频免费看| 亚洲中文av在线| 午夜福利在线观看免费完整高清在| 久久久久久久久久久久大奶| av播播在线观看一区| 免费在线观看黄色视频的| 2018国产大陆天天弄谢| 校园人妻丝袜中文字幕| 国内精品宾馆在线| 久久99热6这里只有精品| 亚洲国产成人一精品久久久| videos熟女内射| 国产精品国产av在线观看| 亚洲av电影在线进入| 亚洲精品aⅴ在线观看| 亚洲精品久久久久久婷婷小说| 99热网站在线观看| 成人国产av品久久久| 欧美亚洲 丝袜 人妻 在线| 99热网站在线观看| av一本久久久久| 少妇猛男粗大的猛烈进出视频| 在线 av 中文字幕| 久热久热在线精品观看| 精品亚洲成国产av| 午夜福利乱码中文字幕| 国产成人免费无遮挡视频| 亚洲成人手机| av电影中文网址| 啦啦啦啦在线视频资源| 精品一区二区三卡| 国产白丝娇喘喷水9色精品| 精品熟女少妇av免费看| freevideosex欧美| 国产麻豆69| 激情五月婷婷亚洲| 最近中文字幕高清免费大全6| videossex国产| 中文乱码字字幕精品一区二区三区| 国产亚洲一区二区精品| 国产成人精品一,二区| 性高湖久久久久久久久免费观看| 国产永久视频网站| av又黄又爽大尺度在线免费看| 午夜激情久久久久久久| 日本av手机在线免费观看| 国产片特级美女逼逼视频| 久久人人97超碰香蕉20202| 国产午夜精品一二区理论片| 国产白丝娇喘喷水9色精品| 免费高清在线观看视频在线观看| av又黄又爽大尺度在线免费看| 免费大片18禁| 熟女人妻精品中文字幕| 自线自在国产av| 另类亚洲欧美激情| 国产高清不卡午夜福利| 国产精品成人在线| 日韩三级伦理在线观看| 天美传媒精品一区二区| 国产精品久久久久成人av| 晚上一个人看的免费电影| 久久国产精品男人的天堂亚洲 | 国产视频首页在线观看| 免费日韩欧美在线观看| 熟妇人妻不卡中文字幕| 日韩在线高清观看一区二区三区| 免费女性裸体啪啪无遮挡网站| 国产国语露脸激情在线看| 国产精品女同一区二区软件| 五月天丁香电影| 在线观看人妻少妇| 欧美变态另类bdsm刘玥| 亚洲第一区二区三区不卡| 一区在线观看完整版| 国产精品国产三级国产av玫瑰| 精品一区在线观看国产| 欧美 亚洲 国产 日韩一| 黄色 视频免费看| 国产精品不卡视频一区二区| 精品熟女少妇av免费看| 日韩不卡一区二区三区视频在线| 9色porny在线观看| 久久久久网色| 国产深夜福利视频在线观看| 在线天堂中文资源库| 国产精品国产三级专区第一集| 高清av免费在线| 午夜福利影视在线免费观看| 狠狠精品人妻久久久久久综合| 高清视频免费观看一区二区| 1024视频免费在线观看| av免费在线看不卡| 美女福利国产在线| 国产精品久久久久久精品古装| 免费人成在线观看视频色| 肉色欧美久久久久久久蜜桃| 国产精品秋霞免费鲁丝片| 国产精品女同一区二区软件| 少妇人妻精品综合一区二区| 夜夜爽夜夜爽视频| 纵有疾风起免费观看全集完整版| 日日撸夜夜添| 久久韩国三级中文字幕| 久久久精品区二区三区| 午夜免费男女啪啪视频观看| 亚洲一码二码三码区别大吗| 精品一区二区免费观看| 日本爱情动作片www.在线观看| 国产精品国产三级国产专区5o| 精品一品国产午夜福利视频| 色网站视频免费| 日韩中字成人| 久久精品久久精品一区二区三区| 黄网站色视频无遮挡免费观看| 一区二区日韩欧美中文字幕 | 色婷婷av一区二区三区视频| av在线播放精品| 三级国产精品片| 国产不卡av网站在线观看| 精品福利永久在线观看| 少妇的丰满在线观看| 亚洲国产最新在线播放| 日韩制服丝袜自拍偷拍| 国产在线视频一区二区| 国产极品天堂在线| 色哟哟·www| 美女国产高潮福利片在线看| 国产在线一区二区三区精| 在线精品无人区一区二区三| 日本与韩国留学比较| av天堂久久9| 最近2019中文字幕mv第一页| 日韩电影二区| 满18在线观看网站| 国产一区亚洲一区在线观看| 最近手机中文字幕大全| 免费黄频网站在线观看国产| 美女脱内裤让男人舔精品视频| 精品国产一区二区久久| 国产av国产精品国产| 欧美成人午夜免费资源| 亚洲成色77777| 插逼视频在线观看| 欧美精品一区二区免费开放| 亚洲情色 制服丝袜| 韩国av在线不卡| 欧美人与善性xxx| 国产一区二区三区av在线| 国产视频首页在线观看| 一二三四在线观看免费中文在 | 成年美女黄网站色视频大全免费| 七月丁香在线播放| 亚洲综合精品二区| 丝袜喷水一区| 老司机影院毛片| 中国三级夫妇交换| 美国免费a级毛片| 高清在线视频一区二区三区| 久久久久久久久久人人人人人人| 视频区图区小说| 美女内射精品一级片tv| 丁香六月天网| 肉色欧美久久久久久久蜜桃| 欧美精品av麻豆av| 精品一区二区三区视频在线| 精品视频人人做人人爽| 久久久亚洲精品成人影院| 久久久精品94久久精品| 九色亚洲精品在线播放| 亚洲欧美成人精品一区二区| av播播在线观看一区| 在线观看免费高清a一片| 亚洲国产精品国产精品| 国产有黄有色有爽视频| 高清av免费在线| 在线免费观看不下载黄p国产| 亚洲人成网站在线观看播放| 一区二区三区精品91| 日本av手机在线免费观看| 国产精品久久久久久久久免| 亚洲av电影在线进入| av免费在线看不卡| 一本久久精品| 国产日韩欧美在线精品| 国产免费福利视频在线观看| 国产成人精品婷婷| 久久久久精品性色| 欧美激情 高清一区二区三区| 日本色播在线视频| 久久国产亚洲av麻豆专区| 国产深夜福利视频在线观看| 99精国产麻豆久久婷婷| 十分钟在线观看高清视频www| 五月天丁香电影| 亚洲国产精品999| 一区二区三区精品91| 精品少妇久久久久久888优播| 老熟女久久久| 亚洲欧美精品自产自拍| 久久久国产一区二区| 人妻少妇偷人精品九色| 日韩欧美一区视频在线观看| 一区二区三区精品91| 少妇猛男粗大的猛烈进出视频| 国产亚洲精品第一综合不卡 | 99九九在线精品视频| 久久人人97超碰香蕉20202| 人人妻人人澡人人爽人人夜夜| 久久久久视频综合| 国产 精品1| 赤兔流量卡办理| 观看av在线不卡| 精品国产国语对白av| 老女人水多毛片| 男女啪啪激烈高潮av片| 黑人欧美特级aaaaaa片| 99久久人妻综合| 男女免费视频国产| 国产亚洲最大av| 成年av动漫网址| 最近中文字幕2019免费版| 国产成人免费观看mmmm| 9191精品国产免费久久| 秋霞在线观看毛片| 国产欧美亚洲国产| 婷婷色麻豆天堂久久| 男女国产视频网站| 久久久久久久国产电影| 国产免费一级a男人的天堂| 在线观看美女被高潮喷水网站| 熟妇人妻不卡中文字幕| 成年美女黄网站色视频大全免费| 97在线视频观看| 内地一区二区视频在线| 插逼视频在线观看| 午夜激情久久久久久久| 99热6这里只有精品| 精品酒店卫生间| 啦啦啦在线观看免费高清www| 少妇熟女欧美另类| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 亚洲欧美色中文字幕在线| 亚洲av中文av极速乱| 91在线精品国自产拍蜜月| 久久久a久久爽久久v久久| 视频在线观看一区二区三区| av在线播放精品| 精品亚洲乱码少妇综合久久| 亚洲一码二码三码区别大吗| 亚洲,一卡二卡三卡| 午夜影院在线不卡| av播播在线观看一区| 一区二区三区四区激情视频| 涩涩av久久男人的天堂| 亚洲精品乱码久久久久久按摩| 日本av手机在线免费观看| 丝袜喷水一区| 只有这里有精品99| 日韩免费高清中文字幕av| 久久毛片免费看一区二区三区| 男人操女人黄网站| 中文字幕精品免费在线观看视频 | 午夜激情久久久久久久| 国产精品久久久久久精品古装| 一级毛片黄色毛片免费观看视频| 国产高清国产精品国产三级| 国产在线一区二区三区精| 一级片免费观看大全| 久久 成人 亚洲| 成年女人在线观看亚洲视频| 国产精品无大码| 美国免费a级毛片| 欧美激情国产日韩精品一区| 国产欧美另类精品又又久久亚洲欧美| 欧美成人午夜精品| 亚洲成色77777| 中国国产av一级| videos熟女内射| 免费人妻精品一区二区三区视频| 黄色毛片三级朝国网站| 色婷婷久久久亚洲欧美| 国产精品人妻久久久久久| 亚洲综合色惰| 三级国产精品片| 90打野战视频偷拍视频| 久久久精品94久久精品| 国产爽快片一区二区三区| 婷婷色av中文字幕| 亚洲精品久久成人aⅴ小说| 91aial.com中文字幕在线观看| 国产精品久久久久成人av| 精品视频人人做人人爽| av在线观看视频网站免费| 丰满少妇做爰视频| 日韩在线高清观看一区二区三区| 美女国产视频在线观看| 99热这里只有是精品在线观看| 精品国产一区二区三区久久久樱花| 久久久精品94久久精品| 亚洲av在线观看美女高潮| 最新的欧美精品一区二区| 午夜福利影视在线免费观看| 在线精品无人区一区二区三| 18禁裸乳无遮挡动漫免费视频| 性色av一级| 寂寞人妻少妇视频99o| 久久97久久精品| 午夜免费观看性视频| 美女国产视频在线观看| 欧美成人午夜精品| 熟女电影av网| xxxhd国产人妻xxx| 美女中出高潮动态图| 久久精品久久久久久噜噜老黄| 美女国产高潮福利片在线看| 看十八女毛片水多多多| 亚洲国产精品一区三区| 男人添女人高潮全过程视频| 视频区图区小说| 丰满饥渴人妻一区二区三| 永久免费av网站大全| av卡一久久| 亚洲成av片中文字幕在线观看 | 熟女电影av网| 国精品久久久久久国模美| 青春草视频在线免费观看| 成人国产麻豆网| 国产69精品久久久久777片| 欧美精品人与动牲交sv欧美| 国产成人免费无遮挡视频| 中国美白少妇内射xxxbb| 一边亲一边摸免费视频| 伊人久久国产一区二区| 欧美日韩视频精品一区| 黄色视频在线播放观看不卡| 大陆偷拍与自拍| 亚洲 欧美一区二区三区| 久久久欧美国产精品| 国产精品人妻久久久影院| 日日啪夜夜爽| 婷婷色综合大香蕉| 女性被躁到高潮视频| 国产av精品麻豆| 中文字幕av电影在线播放| 欧美老熟妇乱子伦牲交| 免费久久久久久久精品成人欧美视频 | 看免费av毛片| 欧美变态另类bdsm刘玥| 自拍欧美九色日韩亚洲蝌蚪91| 中文字幕制服av| 91aial.com中文字幕在线观看| 97人妻天天添夜夜摸| 亚洲av日韩在线播放| 性色avwww在线观看| 大香蕉久久网| 免费大片18禁| 午夜免费男女啪啪视频观看| 久久人人爽人人爽人人片va| 国产色爽女视频免费观看| 99热国产这里只有精品6| 婷婷色av中文字幕| 丝袜人妻中文字幕| 亚洲国产精品成人久久小说| 日本免费在线观看一区| av卡一久久| 岛国毛片在线播放| 人人澡人人妻人| 18禁国产床啪视频网站| 激情五月婷婷亚洲| 日韩电影二区| 精品午夜福利在线看| 久久久久久久亚洲中文字幕| 最近最新中文字幕免费大全7| av线在线观看网站| 成人国产麻豆网| 18禁动态无遮挡网站| 欧美亚洲 丝袜 人妻 在线| 久久精品夜色国产| 欧美精品人与动牲交sv欧美| av女优亚洲男人天堂| 永久网站在线| 一本大道久久a久久精品| 成人亚洲欧美一区二区av| 大片免费播放器 马上看| 精品酒店卫生间| 久久青草综合色| 精品人妻熟女毛片av久久网站| 丰满迷人的少妇在线观看| 18+在线观看网站| 亚洲精品国产色婷婷电影| 午夜免费男女啪啪视频观看| 91久久精品国产一区二区三区| 日韩一区二区视频免费看| 自拍欧美九色日韩亚洲蝌蚪91| 又黄又爽又刺激的免费视频.| 亚洲国产精品专区欧美| 久久人人97超碰香蕉20202| 日韩伦理黄色片| 国产成人欧美| 免费在线观看黄色视频的| 三上悠亚av全集在线观看| 精品国产乱码久久久久久小说| 飞空精品影院首页| 久久精品国产自在天天线| 国产精品蜜桃在线观看| 日本av免费视频播放| 麻豆精品久久久久久蜜桃| 亚洲精品,欧美精品| 丰满饥渴人妻一区二区三| 国产精品成人在线| 国产精品久久久久久精品古装| 如日韩欧美国产精品一区二区三区| 99热全是精品| 久久99蜜桃精品久久| 在线观看www视频免费| 免费人妻精品一区二区三区视频| 日韩一区二区三区影片| 18在线观看网站| 日韩一区二区三区影片| 免费高清在线观看视频在线观看| 青春草国产在线视频| 国产一区二区三区av在线| 麻豆精品久久久久久蜜桃| 国产黄频视频在线观看| 国产精品蜜桃在线观看| 波多野结衣一区麻豆| 狠狠精品人妻久久久久久综合| 搡女人真爽免费视频火全软件| 亚洲精品456在线播放app| 亚洲精品自拍成人| 欧美 亚洲 国产 日韩一| 九草在线视频观看| 91久久精品国产一区二区三区| 久久精品国产亚洲av天美| 香蕉国产在线看| 欧美人与性动交α欧美软件 | 亚洲国产精品专区欧美| 国产亚洲精品久久久com| 热99久久久久精品小说推荐| 国产高清国产精品国产三级| 欧美变态另类bdsm刘玥| 夫妻午夜视频| 考比视频在线观看| 制服人妻中文乱码| 亚洲在久久综合| 美女福利国产在线| 插逼视频在线观看| 日本欧美国产在线视频| 交换朋友夫妻互换小说| 在线免费观看不下载黄p国产| 超色免费av| 亚洲成人一二三区av| 少妇被粗大猛烈的视频| 高清毛片免费看| 我的女老师完整版在线观看| 国产又爽黄色视频| 国产精品免费大片| 国产又色又爽无遮挡免| 黑人欧美特级aaaaaa片| 国产欧美亚洲国产| 9191精品国产免费久久| 日本-黄色视频高清免费观看| 国产精品久久久久久精品电影小说| 日韩人妻精品一区2区三区| 99热这里只有是精品在线观看| 黄片无遮挡物在线观看| 天天躁夜夜躁狠狠躁躁| 99久久中文字幕三级久久日本| 一级爰片在线观看| 男女边吃奶边做爰视频| 久久av网站| 91精品伊人久久大香线蕉| 免费观看在线日韩|