• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于雙仿射注意力的迭代式開放域信息抽取

    2024-08-17 00:00:00李欣邵靖淇王昊何麗段建勇
    計算機應用研究 2024年7期

    摘 要:當前的開放域信息抽?。∣penIE)方法無法同時兼顧抽取結果的緊湊性和模型的性能,導致其抽取結果不能更好地被應用到下游任務中。為此,提出一個基于雙仿射注意力進行表格填充及迭代抽取的模型。首先,該模型通過雙仿射注意力學習單詞之間的方向信息、捕獲單詞對之間的相互作用,隨后對二維表格進行填充,使句子中的成分相互共享并識別緊湊成分;其次,使用多頭注意力機制將謂詞和參數(shù)的表示應用于上下文的嵌入中,使謂詞和參數(shù)的提取相互依賴,更好地鏈接關系成分和參數(shù)成分;最后,對于含有多個關系成分的句子,使用迭代抽取的方式在無須重新編碼的情況下捕獲每次提取之間固有的依賴關系。在公開數(shù)據(jù)集CaRB和Wire57上的實驗表明,該方法比基線方法實現(xiàn)了更高的精度和召回率,F(xiàn)1值提升了至少1.4%和3.2%,同時產(chǎn)生了更短、語義更豐富的提取。

    關鍵詞:開放域信息抽?。?雙仿射注意力; 緊湊性; 多頭注意力; 迭代抽取

    中圖分類號:TP391 文獻標志碼:A 文章編號:1001-3695(2024)07-018-2046-06

    doi:10.19734/j.issn.1001-3695.2023.10.0543

    Iterative open information extraction based on biaffine attention

    Abstract:The current OpenIE methods cannot take into account the compactness of the extraction results and the performance of the model at the same time, which makes the extraction results unable to be better applied to downstream tasks. Therefore, this paper proposed a model that used biaffine attention for table filling and iterative extraction. Firstly, the model learned the directional information between words through biaffine attention, captured the interaction between word pairs, and then filled the two-dimensional table to make the components in the sentence share each other and identify compact components. Secondly, it used the multi-head attention mechanism to apply the representation of predicates and parameters to the context embedding, making the extraction of predicates and parameters dependent on each other and better linking the relationship components and parameter components. Finally, for sentences containing multiple relational components, it used iterative extraction to capture the inherent dependencies between each extraction without recoding. Experiments on the public datasets CaRB and Wire57 show that this method achieves higher precision and recall than baseline methods, improving F1 values by at least 1.4% and 3.2%, while producing shorter and semantically richer extractions.

    Key words:open information extraction(OpenIE); biaffine attention; compactness; multi-head attention; iterative extraction

    0 引言

    OpenIE以一種無監(jiān)督的、領域獨立的方式,為自然語言文本生成結構化的、機器可讀的信息表示[1]。這使得OpenIE的抽取結果被應用在一些下游任務中,例如問答[2]、事件模式歸納[3]、自動模式提?。?]等。

    盡管OpenIE從基于學習和規(guī)則的模型到近幾年基于神經(jīng)網(wǎng)絡的模型取得了很大的進步,但是近幾年流行的OpenIE模型往往以犧牲提取的關系三元組的緊湊性為代價,只專注于如何從輸入的句子中抽取覆蓋更多的信息,導致模型產(chǎn)生了更多具有附加信息的特定三元組,這使得抽取結果很難應用在下游任務中。例如,對于句子“The rest of the group reach a small shop,where the crocodile breaks through a wall and devours Annabelle”,近年比較流行的基于神經(jīng)網(wǎng)絡的OpenIE模型IMoJIE[5]的抽取結果為“The rest of the group;reach;a small shop,where the crocodile breaks through a wall and devours Annabelle”和“the crocodile;devours;Annabelle a small shop”。它抽取的結果中包含特定的修飾語以及完整的從句,這種提取嚴重限制了OpenIE結果在識別相似事實和合并共享成分事實等下游任務中的實用性。除此之外,在關注抽取結果緊湊性的同時,忽略了抽取結果的精度和召回率,以降低精度和召回率來換取高的緊湊性是不符合OpenIE任務目標的。

    因此,本文提出了一種新的流水線式方法,該方法可以在抽取緊湊三元組的同時提升模型的精度和召回率。具體來說,首先使用雙仿射注意力對二維表格進行填充,以此來捕獲成分之間的相互作用,最大限度地減少邊界檢測中的歧義并識別參數(shù)和謂詞成分。隨后,使用多頭注意力機制串聯(lián)多級特征,基于謂詞鏈接其相關參數(shù),使謂詞和參數(shù)相互依賴。最后,對于含有多個謂詞的句子,使用迭代抽取的方式捕獲多個關系三元組之間的依賴關系。通過這種方式,提取了緊湊三元組并提升了模型的性能??偟膩碚f貢獻如下:

    a)基于雙仿射注意力進行表填充,這種模式可以識別組成邊界及其角色,更好地編碼單詞對之間的信息,捕獲成分之間的相互作用,并最大限度地減少邊界檢測中的歧義。

    b)基于謂詞鏈接其相關參數(shù),使謂詞和參數(shù)之間相互依賴,并通過多頭注意力機制將謂詞和參數(shù)的表示應用于上下文的詞嵌入中。

    c)使用迭代抽取的方式進行關系三元組的抽取,這種方式能在無須重新編碼的情況下建模每次抽取之間固有的依賴關系,更好地處理含有多個謂詞的句子。

    1 相關工作

    OpenIE已經(jīng)被廣泛研究了十幾年,2007年文獻[6]首次提出OpenIE任務,并提出了該任務的首個模型。隨后,許多基于學習和規(guī)則的模型相繼被提出,這些傳統(tǒng)的OpenIE模型在不使用任何訓練數(shù)據(jù)集的情況下從句子中提取出關系三元組,但是其嚴重依賴于句法或語義解析,因此不可避免地會受到淺層特征錯誤傳播的影響。近年,隨著神經(jīng)網(wǎng)絡應用的發(fā)展,提出了基于神經(jīng)網(wǎng)絡的OpenIE模型,這些基于神經(jīng)網(wǎng)絡的模型大致被分為基于序列標記和基于序列生成兩大類,成為目前解決OpenIE的主要技術。

    1.1 基于學習和規(guī)則的模型

    傳統(tǒng)的基于學習和規(guī)則的模型,例如TextRunner[6]、NestIE[7]、ClausIE[8]、MinIE[9]、Stanford-OIE[10]等,使用語法或語義解析器結合規(guī)則從句子中提取關系三元組。TextRunner是第一個自監(jiān)督學習的OpenIE模型,可以處理非預設的關系,避免了特定領域的訓練數(shù)據(jù),具有良好的可擴展性,但是無法捕獲長距離關系,召回率低。NestIE、ClausIE及MinIE專注于尋找緊湊三元組,并表明了緊湊三元組在一些語義任務中的有用性。NestIE使用的嵌套表示提升了元組的信息度并提升了生成元組的數(shù)量,但是其過度依賴依存解析且嵌套結構中會出現(xiàn)空參數(shù)。ClausIE降低了抽取的復雜度,并且可以并行地抽取,但是其未考慮子句之間的關系。MinIE雖然在提供有效且緊湊抽取的同時保證了高精度和高召回率,但是其數(shù)字的準確度較低且忽略了上下文信息。Stanford-OIE將句子拆分簡化成搜索問題,并結合自然邏輯刪減子句,其高質量的抽取有助于下游任務,但是其分類器錯誤影響了性能。這些基于學習和規(guī)則的傳統(tǒng)模型雖然為OpenIE的發(fā)展作出了很大的貢獻。但是,由于近幾年神經(jīng)網(wǎng)絡模型的出現(xiàn),基于學習和規(guī)則的傳統(tǒng)模型已經(jīng)被近幾年提出的基于神經(jīng)網(wǎng)絡的模型所替代。

    1.2 基于序列標記的模型

    基于序列標記的模型,例如RnnOIE[11]、 SenseOIE[12]、SpanOIE[13]和CompactIE[14]等,將OpenIE視為序列標注任務,通常包含用于生成詞向量的嵌入層,用于生成包含上下文特征的隱向量的編碼器,以及通過詞向量和標注方案來預測標簽的解碼器三個模塊。RnnOIE是首個監(jiān)督神經(jīng)網(wǎng)絡模型,通過首先識別關系詞再使用序列標記獲得它們的參數(shù)的方式來抽取關系三元組,可以為單個參數(shù)生成多個可能的元組并有效識別隱形謂詞,但是其召回率較低,無法處理復雜文本。SenseOIE通過在序列標記設置中使用多個OpenIE模型的提取特征來改進RnnOIE。然而,它的訓練需要手動標注黃金提取,這對于任務來說是不可擴展的,限制了SenseOIE只能在3 000個句子的數(shù)據(jù)集上進行訓練。SpanOIE使用跨度選擇模型,是序列標記范式的一種變體,使用謂詞模塊首先選擇潛在的候選關系跨度,然后對句子中所有可能的關系跨度分類為主語或賓語。然而,SpanOIE不能提取名義關系。此外,它僅在單個OpenIE模型上引導其訓練數(shù)據(jù)。CompactIE使用流水線的方式進行緊湊成分的識別和提取,取得了相對較好的進展,但是在很大程度上犧牲了抽取結果的精度和召回率。這是因為其將關系三元組的提取視為獨立的而不是相互依賴的,忽略了同一個關系三元組中謂詞和參數(shù)之間,以及不同關系三元組之間緊密交織的關系。

    1.3 基于序列生成的模型

    基于序列生成的模型使用seq2seq模型一次生成一個單詞的輸出提取[15~17],生成的序列包含字段標定符,并將生成的平面序列轉換為元組。NeuralOIE[15]避免了誤差傳播并且可以改變單詞的順序,但是其未考慮復雜文本結構。Adversarial-OIE[17]引入生成對抗網(wǎng)絡GAN來解決訓練和推理時文本生成不一致而導致的暴露偏差問題,但是其模型訓練相對困難,性能隨迭代次數(shù)的增加會下降。IMoJIE[5]是生成式OpenIE的最新技術,它使用基于BERT的編碼器和迭代解碼器,對迄今為止生成的抽取結果進行重新編碼。這種重新編碼的方式雖然捕獲了提取之間的依賴項,提高了整體的性能,但也使其速度比RnnOIE慢了50倍,并且存在自回歸方法的誤差累計。

    2 模型

    本文模型取名為IBiAttOIE,模型的整體架構如圖1所示。IBiAttOIE由成分提取和多級特征融合及迭代抽取兩部分組成。具體來說:a)首先使用雙仿射注意力學習單詞對的方向信息并進行表填充,通過這種模式來識別一句話中的參數(shù)和謂詞成分,最終為其分配成分標簽;b)隨后,基于謂詞鏈接其相關參數(shù),使參數(shù)和謂詞之間相互依賴,更好地鏈接關系成分和參數(shù)成分;c)最后,對于含有多個謂詞的句子,將含有每次抽取信息的上下文嵌入特征與之前的特征串聯(lián)進行迭代抽取,這種方式可以在無須重新編碼的情況下建模每次提取之間固有的依賴關系。

    2.1 成分提取

    成分提取是本文模型的第一步,其目的是找到一組成分,使每個成分的跨度是單詞的連續(xù)序列并且具有預定義類型。在成分提取過程中,首先通過雙仿射注意力對標簽進行預測,隨后對二維表格進行填充。這種模式可以簡化OpenIE任務并為多級特征融合及迭代抽取過程提供更多的信息。

    2.1.1 使用雙仿射注意力預測標簽

    對于一個輸入句子S,為了獲得每個單詞的上下文表示hi,使用預訓練語言模型BERT作為句子的編碼器,編碼器的輸出為:{h1,h2,…,hi,ht1,ht2,ht3}=BERT({x1,x2,…,xi,xt1,xt2,xt3}),其中xi是每個單詞的輸入表示,xt1、xt2和xt3是附加的token,分別表示[is]、[of]和[from]。添加最后這三個標記是因為OpenIE有時需要預測輸入句子中不存在的標記,比如“US president Donald Trump gave a speech on Wednesday”將會有一個關系三元組“Donald Trump;[is] president [of];US”。增加附加標記使得這種提取成為可能。

    為了更好地學習單詞之間的方向信息,使用深度雙仿射注意力(deep biaffine attention)機制[18]學習單詞對之間的相互作用。具體來說,使用兩個多層感知機(MLP)來識別每個單詞hi的頭部和尾部:

    hheadi=MLPhead(hi),htaili=MLPtail(hi)(1)

    接下來,使用Biaffine評分函數(shù)計算每個單詞對的評分向量:

    在獲得評分向量vi,j后,將其輸入到softmax函數(shù)中來預測每個標簽。一句話由參數(shù)argument和謂詞predicate組成,其中參數(shù)argument∈{subject,object},subject表示關系三元組中的主體,object表示關系三元組中的客體。標簽的空間定義為Y,Y為argument、predicate、object、subject的集合,計算每個標簽yi,j在標簽空間Y上的概率分布:

    P(yi,j|S)=softmax(vi,j)(3)

    其中:S用于表示輸入的句子。

    2.1.2 進行表填充

    二維表格是根據(jù)每個標簽yi,j在標簽空間Y上的概率分布進行填充的。具體來說,一個句子S帶有s個標記,每個句子S對應一個表格T|s|×|s|。表T中的每個單元格(i,j)被分配一個標簽yi,j,每個單元格的標簽都是根據(jù)單詞對之間的關系來標記的,每個單元格用Arg(argument)、Sub(subject)、Obj(object)、Pre(predicate)或none標簽標記,其中none表示單詞對之間不存在關系。圖2展示了二維表格填充的示例。

    接下來訓練這個二維表格以最小化下面這個訓練目標:

    其中:Yi,j為單元格(i,j)的glod標簽。

    最后,計算表中相鄰行和列之間的距離,找到成分的跨度span,然后為每個跨度span分配一個標簽,并在將輸出結果傳遞給多級特征融合及迭代抽取模塊之前,過濾掉屬于none的所有成分。

    2.2 多級特征融合及迭代抽取

    OpenIE同一個關系三元組中的謂詞和參數(shù)之間的提取以及不同關系三元組之間的提取是緊密交織的。因此,應將關系三元組的提取視為相互依賴的而不是獨立的。多級特征融合及迭代抽取的過程就是基于謂詞鏈接其參數(shù),對含有多個謂詞的句子,將此次抽取結果的上下文嵌入與其他特征進行串聯(lián),作為下一次抽取的輸入進行迭代抽取。

    2.2.1 多級特征融合

    經(jīng)過成分提取過程獲得句子S中的成分標簽后,鏈接關系成分和參數(shù)成分。本文將關系成分和參數(shù)成分鏈接的任務定義為依賴于謂詞鏈接其相應參數(shù)的問題。在多級特征融合過程中,使用多頭注意力機制將謂詞和參數(shù)的表示應用于上下文的嵌入中,使謂詞和參數(shù)相互依賴。

    2.2.2 迭代抽取

    對于含有多個謂詞的句子,迭代抽取的目的在于在無須重新編碼的情況下建模每次提取之間固有的依賴關系。具體來說,將串聯(lián)的特征作為多頭注意力模塊的輸入,多頭注意力模塊由N個多頭注意力塊組成,每個多頭注意力塊都由一個多頭注意力層(multi-head attention layer)和一個位置前饋層(position-wise feed-forward layer)組成。注意力層與原始Transformer中encoder-decoder的注意力層相同[19]。首先將Xq、Xk、Xv分別變換為Q=XqWq、K=XkWk、V=XvWv,其中Wq、Wk、Wv是權重矩陣。變換后計算每個頭部的注意力,然后將每個頭部的注意力輸出連接起來并進行線性轉換:

    每個頭部以h為索引,dmh為多頭注意力的維數(shù);nh表示頭的數(shù)量。位置前饋層由兩個圍繞ReLU激活函數(shù)的線性變換組成。根據(jù)Transformer之前的相關工作,在多頭注意力層和位置前饋層應用了殘余連接(residual connection)[20]和層歸一化(layer normalization)[21]。隨后,多頭注意力模塊的輸出被輸入到標簽分類層,通過標簽分類層獲得對應該謂詞的參數(shù)成分。

    將維護到目前為止提取輸出的信息,進而捕獲多個關系三元組之間固有的依賴關系。

    2.3 訓練目標

    將每一次的預測標簽與真實標簽之間的交叉熵損失相加,得到最終的損失函數(shù),用Lce表示。為了提升模型的整體效果,在表填充過程中對二維表格施加結構性約束,具體為

    a)二維表格為正方形,其關于對角線對稱,約束損失為

    b)除非表中存在關系的組成部分,否則不會出現(xiàn)關系,即對于每個單詞,其成為標簽Arg和Pre的概率不低于成為Sub和Obj的概率,約束損失為

    c)一個關系三元組中必須存在subject,但是可以不存在object,對于predicate成分的每一列或行,出現(xiàn)在非對角線上的詞屬于subject成分的最大可能性不低于屬于object成分的最大可能性,約束損失為

    其中:t表示單詞成分類型;ρ表示句子S中所有單詞對的P(yi,j|S)的堆棧;Ysub、Yobj、Yarg、Ypre分別為標簽空間Y中subject、object、argument、predicate的成分標簽;ζ表示句子中predicate成分跨度的并集。最后,在訓練期間,共同優(yōu)化Lentry+Lce+Lsym+Limp+Ltriple。

    3 實驗

    3.1 訓練數(shù)據(jù)集

    訓練本文提取緊湊三元組的迭代抽取模型需要一個緊湊三元組的基準。目前被廣泛采用的OpenIE基準是通過組合多個OpenIE模型的提取而創(chuàng)建的,但是它包括之前模型中過度特定的和不正確的抽取。CompactIE設計了一種數(shù)據(jù)處理算法,可以從零開始提取緊湊三元組。因此,采用CompactIE提出的基準作為訓練集。它是在OpenIE2016[22]基準測試集中的每個多子句上獲得的一個為提取緊湊三元組而定制的新的訓練數(shù)據(jù)集。該數(shù)據(jù)集每個句子的提取量是OpenIE2016的1.25倍,且它的組成成分更緊湊。其中大約1%的句子進行驗證,其余的句子用于訓練。表1是該訓練數(shù)據(jù)集的整體情況。

    3.2 評估數(shù)據(jù)集和評價指標

    實驗主要在CaRB和Wire57兩個數(shù)據(jù)集上進行評估,用于評價模型抽取效果的指標主要有精度(P)、召回率(R)和由這些評分函數(shù)計算的F1值。由于這些數(shù)據(jù)集不是以緊湊三元組為目標的,所以,為了進行公平比較,排除了至少在一個成分內(nèi)含有一個從句的三元組。表2顯示了處理后的數(shù)據(jù)集統(tǒng)計信息。

    數(shù)據(jù)集句子三元組數(shù)據(jù)集句子三元組

    Wire5756309CaRB5772101

    Wire57數(shù)據(jù)集有著高細粒度的提取,會懲罰過度特定的提取,對緊湊三元組的提取更為嚴格,CaRB數(shù)據(jù)集的抽取具有更高的質量和覆蓋率。但是,CaRB和Wire57數(shù)據(jù)集的評分函數(shù)都是基于系統(tǒng)提取與事實基準的token級匹配。除此之外,這些基準是不完整的,這意味著黃金提取結果并不包括相同事實的所有可接受的表面表示方式。而BenchIE[23]基準和評分范式相對比較完整,因此實驗使用了BenchIE基準和評分范式進行以事實為中心的評估。

    3.3 實驗設置

    實驗在Python 3.6和PyTorch Lightning[24]環(huán)境下進行,在GPU上訓練、驗證及測試。由于表格填充模型的模式設計不支持成分內(nèi)的連詞,所以在將句子傳遞給本文模型之前,將它們預處理為更小的無連詞的句子。

    為了與之前的工作進行公平比較,使用BERT-based-uncased[25]作為本模型的文本編碼器,將batch size設置為32,學習率設置為5×10-5,多頭注意力塊的數(shù)量為4,位置嵌入層的維度為64,并使用AdamW優(yōu)化器優(yōu)化所有模型。

    3.4 實驗結果及分析

    3.4.1 基線模型

    為了驗證IBiAttOIE在OpenIE任務上的有效性,與以下基線模型進行了對比:

    a)最先進的序列標記模型OpenIE6[26]和Multi2OIE[27]。OpenIE6模型基于新的迭代網(wǎng)格標簽(iterative grid labels,IGL)架構,將具有重疊跨度的序列標注任務轉換成網(wǎng)格標注問題以學習抽取之間的依存關系,在保證準確率的同時,通過加入全局覆蓋約束來進一步提高召回率。Multi2OIE模型根據(jù)BERT嵌入層的隱藏狀態(tài)標注所有謂詞,然后抽取與每個已識別的謂詞相關聯(lián)的參數(shù),并利用多語言BERT進行編碼,消除對其他語言的數(shù)據(jù)需求。

    b)最先進的序列生成系統(tǒng)IMoJIE[5]。IMoJIE模型使用基于BERT的編碼器和基于LSTM的迭代解碼器,對至今生成的所有抽取進行重復編碼,可以捕獲抽取之間的依存關系,減少了輸出集的總體冗余。此外,還可以根據(jù)輸入文本的長度或復雜性調整輸出。

    c)用于提取緊湊三元組的傳統(tǒng)非神經(jīng)網(wǎng)絡式系統(tǒng)NestIE[7]和MinIE[9],及基于神經(jīng)網(wǎng)絡的系統(tǒng)CompactIE[14]。NestIE模型使用bootstrapping方法來學習n元元組和嵌套元組的抽取模式,以對依存解析的結構相匹配。此外,設計了一組規(guī)則將生成的元組進行鏈接以捕捉上下文信息。MinIE模型為每個元組提供語義標注,如極性、情態(tài)、歸屬和數(shù)量,從同位語和屬有詞中產(chǎn)生由非介詞動詞構成的隱性抽取,通過設計多種模式刪除冗余的單詞來最小化參數(shù),以權衡準確度和召回率。CompactIE模型是分步抽取模型,使用端到端流水線方法從單個句子中抽取關系三元組。首先提取謂詞和參數(shù),隨后使用分類器確定它們之間的關系,該模型能夠重用相同的組成部分來生成多個元組。

    3.4.2 主實驗

    為了驗證IBiAttOIE抽取結果的緊湊性和模型的性能,將經(jīng)過30個epoch訓練得到的模型在測試集上進行實驗,并與上述基線模型進行了對比。為了驗證IBiAttOIE抽取結果的緊湊性,還采用了之前工作[14]提出的評價指標對模型抽取結果的緊湊性進行評估:a)ACL,它表示所生成的三元組中成分的平均長度,這是在語法上對緊湊性的度量,ACL分數(shù)越低表示三元組的緊湊性越高;b)NCC,它表示每個成分可以作為獨立三元組提取的子句的平均數(shù)量,NCC分數(shù)越低,三元組的緊湊性越高;c)RPA,它表示每個參數(shù)的重復次數(shù),RPA分數(shù)越高,每個句子產(chǎn)生的總成分的共享比例越高。表3和4總結了IBiAttOIE與這些基線模型在CaRB數(shù)據(jù)集和Wire57數(shù)據(jù)集上的性能。

    不難發(fā)現(xiàn),IBiAttOIE與其他基線模型相比實現(xiàn)了更高的精度和召回率,這是由于將謂詞成分和參數(shù)成分鏈接的過程視為相互依賴的,不是獨立進行的,并對含有多個謂詞的句子進行迭代抽取和特征融合,以此捕獲了多個關系三元組之間固有的依賴關系。IBiAttOIE在ACL評分上明顯低于其他基于神經(jīng)網(wǎng)絡的OpenIE系統(tǒng),并與MinIE的ACL評分接近。NestIE的ACL評分最低是因為它將句子分成帶有動詞、名詞、介詞和形容詞中介關系的小三元組,但是它的細粒度策略為了提取三元組的緊湊性極大地犧牲了F1值。IBiAttOIE的NCC評分達到了最低分數(shù),這表明IBiAttOIE抽取的三元組中的成分包含最少的動詞從句。因此,這些三元組比其他三元組更適合下游任務的應用。IBiAttOIE的高RPA評分證明了提出方法的有效性,因為它使系統(tǒng)能夠重用相同的成分來生成多個三元組。MinIE模型有更高的RPA評分,這是因為它提取多個三元組來表示相同的事實,導致唯一成分的重復率更高。綜上所述,IBiAttOIE能夠產(chǎn)生更短、語義更豐富、在下游任務實用性更強的提取。

    3.4.3 多頭注意力對模型性能的影響

    在多級特征融合中使用了多頭注意力機制,并基于謂詞成分鏈接其參數(shù),為了確定多頭注意力機制對模型性能的影響,將使用多頭注意力機制的實驗結果與使用BiLSTM的實驗結果進行了對比,對比結果如表5所示。

    通過表5不難發(fā)現(xiàn),使用多頭注意力機制比使用BiLSTM更能使模型取得好的效果、高的性能。這是因為多頭注意力機制具有融合句子和謂詞特征的優(yōu)點,多頭注意力機制可以在謂詞和參數(shù)提取之間創(chuàng)建協(xié)同作用,能夠依賴于謂詞鏈接其對應參數(shù),使謂詞和參數(shù)相互依賴。因此,在利用謂詞信息方面,使用多頭注意力機制優(yōu)于使用BiLSTM簡單連接。

    3.4.4 迭代抽取對模型性能的影響

    對于含有多個謂詞的句子,采用迭代抽取的方式在無須重新編碼的情況下建模每次提取之間固有的依賴關系。為了驗證本文迭代抽取方式對模型性能的影響,將使用迭代方式進行抽取的模型性能與進行簡單重復抽取的模型性能進行了對比,對比結果如表6所示。

    通過數(shù)據(jù)不難發(fā)現(xiàn),對于含有多個關系三元組的句子使用迭代抽取的方式能使模型取得更好的性能。這是因為,將每次抽取的信息作為新的特征與之前的特征串聯(lián)在了一起,使得在每次抽取時都能獲得在此次抽取之前的相關信息。這將維護到目前為止提取輸出的信息,捕獲多個關系三元組之間固有的依賴關系,因此更有助于模型整體性能的提升。

    4 案例分析

    為了更好地說明本文IBiAttOIE模型,現(xiàn)采取數(shù)據(jù)集中的句子進行案例分析,將未進行緊湊三元組抽取的系統(tǒng)IMoJIE的抽取結果以及僅關注緊湊性的系統(tǒng)CompactIE的抽取結果與本模型的抽取結果進行了對比,對比結果如圖3所示。

    IMoJIE的提取中“where the crocodile breaks through a wall and devours Annabelle”包含了特定的修飾語,甚至是完整的從句,這種提取過于具體和冗長,并且沒有提取出“crocodile;breaks;through a wall”這個關系三元組知識。CompactIE的提取中,將句子中“was not actually born on”這一信息識別提取成了“was born actually on”,這違背了句子的本意,并且沒有識別出“superman,is,hero”這個關系三元組,這是因為CompactIE沒有正確地識別單詞的組成邊界以及沒有捕獲單詞之間的依賴關系。同時由于沒有對輸入句子進行附加標記,所以沒有預測出輸入句子中不存在的標記。這種抽取結果會嚴重限制OpenIE在一些下游任務中的應用,而本文模型的抽取結果更緊湊并且覆蓋了更全面的關系三元組信息,能更好地兼容模型性能和抽取結果的緊湊性。相比之下,本文模型的抽取結果在識別相似事實和合并共享成分的事實等下游任務中更加靈活。

    5 結束語

    為了使OpenIE任務抽取的關系三元組更緊湊,實現(xiàn)關系三元組之間的成分共享,提高模型的精度和召回率,使其更適合應用于下游應用程序,在成分提取模塊使用雙仿射注意力進行表填充來識別組成邊界及其角色,以找到一句話中的參數(shù)和謂詞成分,最終為其分配成分標簽,以此來識別嵌套成分,提高關系三元組的緊湊性。在多級特征融合及迭代抽取模塊使用multi-head attention機制代替?zhèn)鹘y(tǒng)BiLSTM簡單連接的方式,將謂詞的表示應用于上下文的詞嵌入中,并使用迭代抽取的方式在無須重新編碼的情況下建模每次抽取之間固有的依賴關系,提升模型的精度和召回率。實驗結果表明,本文模型取得了優(yōu)異的性能。

    參考文獻:

    [1]胡杭樂, 程春雷, 葉青, 等. 開放信息抽取研究綜述[J]. 計算機工程與應用, 2023,59(16): 31-49. (Hu Hangle, Cheng Chunlei, Ye Qing, et al. Survey of open information extraction research[J]. Computer Engineering and Applications, 2023,59(16): 31-49.)

    [2]Yan Zhao, Tang Duyu, Duan Nan, et al. Assertion-based QA with question-aware open information extraction[C]//Proc of the 32nd AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2018: 6021-6028.

    [3]Balasubramanian N, Soderland S, Etzioni O. Generating coherent event schemas at scale[C]//Proc of Conference on Empirical Me-thods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2013: 1721-1731.

    [4]Nimishakavi M, Saini U S, Talukdar P. Relation schema induction using tensor factorization with side information[EB/OL]. (2016-11-16). https://arxiv.org/abs/1605.04227.

    [5]Kolluru K, Aggarwal S, Rathore V, et al. IMoJIE: iterative memory-based joint open information extraction[EB/OL]. (2020-05-17). https://arxiv.org/abs/2005.08178.

    [6]Etzioni O, Banko M, Soderland S, et al. Open information extraction from the Web[J]. Communications of the ACM, 2008, 51(12): 68-74.

    [7]Bhutani N, Jagadish H V, Radev D. Nested propositions in open information extraction[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2016: 55-64.

    [8]Del Corro L, Gemulla R. ClausIE: clause-based open information extraction[C]//Proc of the 22nd International Conference on World Wide Web. New York: ACM Press, 2013: 355-366.

    [9]Gashteovski K, Gemulla R, Corro L. MinIE: minimizing facts in open information extraction[C]//Proc of Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2017: 2620-2630.

    [10]Angeli G, Premkumar M J J, Manning C D. Leveraging linguistic structure for open domain information extraction[C]//Proc of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 344-354.

    [11]Stanovsky G, Michael J, Zettlemo240a9546b1b8ec20e756af30ef3f2bd03c5e31ea8a7a7d429ddaaba152af8c32yer L, et al. Supervised open information extraction[C]//Proc of Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies. Stroudsburg, PA: Association for Computational Linguistics, 2018: 885-895.

    [12]Roy A, Park Y, Lee T, et al. Supervising unsupervised open information extraction models[C]//Proc of Conference on Empirical Me-thods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2019: 728-737.

    [13]Zhan Junlang, Zhao Hai. Span model for open information extraction on accurate corpus[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2020: 9523-9530.

    [14]Bayat F F, Bhutani N, Jagadish H V. CompactIE: compact facts in open information extraction [EB/OL]. (2022-06-09). https://arxiv.org/abs/2205.02880.

    [15]Cui Lei, Wei Furu, Zhou Ming. Neural open information extraction[EB/OL]. (2018-05-11). https://arxiv.org/abs/1805.04270.

    [16]Sun Mingming, Li Xu, Wang Xin, et al. Logician: a unified end-to-end neural approach for open-domain information extraction[C]//Proc of the 11th ACM International Conference on Web Search and Data Mining. New York: ACM Press, 2018: 556-564.

    [17]韓家寶, 王宏志. 基于生成式對抗網(wǎng)絡的開放式信息抽?。跩]. 智能計算機與應用, 2021,11(10): 155-159. (Han Jiabao, Wang Hongzhi. Generative adversarial network based open information extraction[J]. Intelligent Computers and Applications, 2021,11(10): 155-159.)

    [18]Dozat T, Manning C D. Deep biaffine attention for neural dependency parsing [EB/OL]. (2017-03-10). https://arxiv.org/abs/1611.01734.

    [19]Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [C]//Proc of the 31st Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 6000-6010.

    [20]He Kaiming, Zhang Xiangyu, Ren Shaoqing, et al. Deep residual learning for image recognition[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2016: 770-778.

    [21]Ba J L, Kiros J R, Hinton G E. Layer normalization[EB/OL]. (2016-07-21). https://arxiv.org/abs/1607.06450.

    [22]Mausam M. Open information extraction systems and downstream applications[C]//Proc of the 25th International Joint Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2016: 4074-4077.

    [23]Gashteovski K, Yu Mingying, Kotnis B, et al. BenchIE: open information extraction evaluation based on facts, not tokens[EB/OL]. (2022-04-13). https://arxiv.org/abs/2109.06850.

    [24]Léchelle W, Gotti F, Langlais P. Wire57 : a fine-grained benchmark for open information extraction[EB/OL]. (2019-08-01). https://arxiv.org/abs/1809.08962.

    [25]Devlin J, Chang M W, Lee K, et al. BERT: pre-training of deep bidirectional transformers for language understanding [EB/OL]. (2019-05-24). https://arxiv.org/abs/1810.04805.

    [26]Kolluru K, Adlakha V, Aggarwal S, et al. OpenIE6: iterative grid labeling and coordination analysis for open information extraction[EB/OL]. (2020-10-07). https://arxiv.org/abs/2010.03147.

    [27]Ro Y, Lee Y, Kang P. Multi2OIE: multilingual open information extraction based on multi-head attention with BERT[C]//Proc of Fin-dings of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2020: 1107-1117.

    av天堂久久9| 1024香蕉在线观看| 国产高清视频在线播放一区| 欧美人与性动交α欧美软件| 欧美久久黑人一区二区| 性少妇av在线| 午夜免费激情av| 久久中文字幕人妻熟女| 91麻豆精品激情在线观看国产 | 国产一区二区在线av高清观看| 国产一区在线观看成人免费| 麻豆成人av在线观看| 国产精品国产高清国产av| 美国免费a级毛片| 黄片播放在线免费| 欧美黄色淫秽网站| 99久久精品国产亚洲精品| 别揉我奶头~嗯~啊~动态视频| av有码第一页| 国产一卡二卡三卡精品| 日韩 欧美 亚洲 中文字幕| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲精品一区av在线观看| 乱人伦中国视频| 亚洲美女黄片视频| 国产精品综合久久久久久久免费 | 国产成人欧美在线观看| 午夜老司机福利片| 亚洲人成77777在线视频| 欧美黑人精品巨大| 成人国语在线视频| 女警被强在线播放| 19禁男女啪啪无遮挡网站| 亚洲精品国产精品久久久不卡| 一进一出好大好爽视频| 亚洲国产精品合色在线| 法律面前人人平等表现在哪些方面| 免费看十八禁软件| 最近最新免费中文字幕在线| 久久人妻福利社区极品人妻图片| 淫秽高清视频在线观看| 19禁男女啪啪无遮挡网站| 老汉色av国产亚洲站长工具| 免费av毛片视频| 搡老岳熟女国产| 美女午夜性视频免费| 女人高潮潮喷娇喘18禁视频| 天天躁夜夜躁狠狠躁躁| 精品少妇一区二区三区视频日本电影| 欧美人与性动交α欧美软件| 久久精品亚洲精品国产色婷小说| 热re99久久国产66热| 精品高清国产在线一区| 黄色毛片三级朝国网站| 黑人操中国人逼视频| 亚洲 欧美一区二区三区| 丰满迷人的少妇在线观看| 丰满人妻熟妇乱又伦精品不卡| 自拍欧美九色日韩亚洲蝌蚪91| 欧美黄色淫秽网站| 久久久国产成人精品二区 | 午夜视频精品福利| 免费在线观看影片大全网站| 久久久久久免费高清国产稀缺| 亚洲国产欧美日韩在线播放| 热re99久久精品国产66热6| 亚洲三区欧美一区| 亚洲精品中文字幕在线视频| 久久久久久人人人人人| 亚洲全国av大片| 日韩欧美国产一区二区入口| 国产又色又爽无遮挡免费看| 国产欧美日韩一区二区三| 免费在线观看完整版高清| 国产91精品成人一区二区三区| 久久天堂一区二区三区四区| 国产三级黄色录像| 久久久久久大精品| 亚洲av熟女| 午夜福利在线观看吧| 久久精品成人免费网站| 亚洲一卡2卡3卡4卡5卡精品中文| 久久久国产成人免费| x7x7x7水蜜桃| 亚洲色图 男人天堂 中文字幕| 国产精品美女特级片免费视频播放器 | 日本撒尿小便嘘嘘汇集6| 女警被强在线播放| 99久久国产精品久久久| 欧美丝袜亚洲另类 | 精品久久蜜臀av无| 亚洲成a人片在线一区二区| 热99re8久久精品国产| 国产精品秋霞免费鲁丝片| 桃色一区二区三区在线观看| 国产麻豆69| 国产欧美日韩综合在线一区二区| 精品熟女少妇八av免费久了| 69精品国产乱码久久久| 美女 人体艺术 gogo| 久9热在线精品视频| 一进一出抽搐动态| 日本撒尿小便嘘嘘汇集6| 老司机午夜福利在线观看视频| 大码成人一级视频| 精品久久久久久成人av| 国内久久婷婷六月综合欲色啪| 国产人伦9x9x在线观看| 国产成人啪精品午夜网站| 丰满人妻熟妇乱又伦精品不卡| 在线播放国产精品三级| 黄色片一级片一级黄色片| av在线天堂中文字幕 | 欧美+亚洲+日韩+国产| 亚洲专区字幕在线| 高清在线国产一区| 国产欧美日韩一区二区精品| 嫩草影院精品99| 亚洲自拍偷在线| 久久久水蜜桃国产精品网| 欧美日本亚洲视频在线播放| 精品少妇一区二区三区视频日本电影| 黄色怎么调成土黄色| 国产成人精品久久二区二区免费| 老司机深夜福利视频在线观看| 在线观看免费视频日本深夜| 国产精品影院久久| 男女下面进入的视频免费午夜 | 满18在线观看网站| 国产精品 国内视频| 91国产中文字幕| 国产成人av教育| 成人三级做爰电影| 黄色怎么调成土黄色| 午夜91福利影院| 女同久久另类99精品国产91| 亚洲全国av大片| 欧美在线黄色| 欧美黑人欧美精品刺激| 色综合站精品国产| а√天堂www在线а√下载| 91国产中文字幕| 两人在一起打扑克的视频| 久久影院123| 黑人操中国人逼视频| 亚洲五月色婷婷综合| 好男人电影高清在线观看| 亚洲成人精品中文字幕电影 | 日韩av在线大香蕉| 久久精品亚洲av国产电影网| 免费在线观看亚洲国产| 精品久久久久久久久久免费视频 | 婷婷精品国产亚洲av在线| 丁香欧美五月| 长腿黑丝高跟| 男女之事视频高清在线观看| tocl精华| 国产区一区二久久| 免费观看精品视频网站| 国产精品乱码一区二三区的特点 | 日韩中文字幕欧美一区二区| 婷婷精品国产亚洲av在线| 精品国产美女av久久久久小说| 淫秽高清视频在线观看| 亚洲国产精品一区二区三区在线| 久久午夜亚洲精品久久| 成人国语在线视频| 精品国内亚洲2022精品成人| 757午夜福利合集在线观看| 麻豆久久精品国产亚洲av | 热99re8久久精品国产| 国内久久婷婷六月综合欲色啪| 久久国产亚洲av麻豆专区| 精品福利观看| 午夜两性在线视频| 午夜影院日韩av| 中文字幕人妻丝袜一区二区| 久久人妻福利社区极品人妻图片| 免费看十八禁软件| 免费不卡黄色视频| 久久久久精品国产欧美久久久| 美女福利国产在线| 777久久人妻少妇嫩草av网站| 久久久久久人人人人人| 国产蜜桃级精品一区二区三区| 欧美日韩中文字幕国产精品一区二区三区 | 国产精品野战在线观看 | 天堂中文最新版在线下载| 在线观看免费午夜福利视频| 91大片在线观看| 亚洲国产中文字幕在线视频| 岛国视频午夜一区免费看| 无人区码免费观看不卡| 日本免费一区二区三区高清不卡 | 欧美不卡视频在线免费观看 | 欧美激情久久久久久爽电影 | 日韩中文字幕欧美一区二区| 波多野结衣av一区二区av| 中文字幕人妻丝袜一区二区| 精品福利永久在线观看| 日本wwww免费看| 91大片在线观看| 高清欧美精品videossex| 亚洲一区二区三区色噜噜 | 亚洲一区二区三区欧美精品| 十分钟在线观看高清视频www| 精品国内亚洲2022精品成人| 曰老女人黄片| 婷婷精品国产亚洲av在线| 另类亚洲欧美激情| 欧美在线一区亚洲| 中文字幕另类日韩欧美亚洲嫩草| a在线观看视频网站| aaaaa片日本免费| 狂野欧美激情性xxxx| 看免费av毛片| 一级黄色大片毛片| 国产成人系列免费观看| 久久久水蜜桃国产精品网| 亚洲aⅴ乱码一区二区在线播放 | 国产精品久久电影中文字幕| netflix在线观看网站| 超碰97精品在线观看| 欧美黑人精品巨大| 日韩欧美免费精品| x7x7x7水蜜桃| 高潮久久久久久久久久久不卡| 精品少妇一区二区三区视频日本电影| av在线播放免费不卡| 极品教师在线免费播放| 午夜精品在线福利| av网站在线播放免费| 看黄色毛片网站| 欧美成人午夜精品| 精品一品国产午夜福利视频| 黄色视频,在线免费观看| 无人区码免费观看不卡| 午夜免费鲁丝| 亚洲成人免费电影在线观看| 精品人妻在线不人妻| 天堂中文最新版在线下载| 国产成人一区二区三区免费视频网站| 黑人欧美特级aaaaaa片| www日本在线高清视频| 久久国产乱子伦精品免费另类| 天堂中文最新版在线下载| 亚洲一区高清亚洲精品| 久久国产亚洲av麻豆专区| 久久婷婷成人综合色麻豆| 国产欧美日韩一区二区三| 日韩大码丰满熟妇| 成人亚洲精品av一区二区 | 丝袜美腿诱惑在线| 青草久久国产| 亚洲精品国产色婷婷电影| 757午夜福利合集在线观看| 久久人人精品亚洲av| 中文字幕人妻丝袜制服| 操美女的视频在线观看| 亚洲午夜理论影院| 女人高潮潮喷娇喘18禁视频| 亚洲精品国产精品久久久不卡| 真人一进一出gif抽搐免费| 精品久久久久久久久久免费视频 | 美女午夜性视频免费| 免费观看人在逋| 两人在一起打扑克的视频| 男男h啪啪无遮挡| 99久久久亚洲精品蜜臀av| 深夜精品福利| 亚洲色图 男人天堂 中文字幕| xxx96com| 欧美成人午夜精品| 另类亚洲欧美激情| 亚洲国产欧美一区二区综合| 中出人妻视频一区二区| 国产精品久久久久成人av| 新久久久久国产一级毛片| 欧美日韩中文字幕国产精品一区二区三区 | 激情在线观看视频在线高清| 新久久久久国产一级毛片| 免费观看人在逋| 久久精品国产99精品国产亚洲性色 | videosex国产| 日本wwww免费看| 女人爽到高潮嗷嗷叫在线视频| 男女午夜视频在线观看| 亚洲七黄色美女视频| 免费久久久久久久精品成人欧美视频| 欧美日韩av久久| 国产精品久久久人人做人人爽| 久久亚洲真实| 国产精品一区二区在线不卡| 一边摸一边做爽爽视频免费| 久久精品国产清高在天天线| 在线观看午夜福利视频| svipshipincom国产片| 九色亚洲精品在线播放| 一区福利在线观看| 嫁个100分男人电影在线观看| 成人18禁高潮啪啪吃奶动态图| 国产亚洲精品久久久久久毛片| 欧美黄色片欧美黄色片| 欧美成狂野欧美在线观看| 我的亚洲天堂| 自线自在国产av| 99精国产麻豆久久婷婷| 性欧美人与动物交配| 岛国在线观看网站| 精品人妻在线不人妻| 18禁裸乳无遮挡免费网站照片 | 又紧又爽又黄一区二区| 他把我摸到了高潮在线观看| 日韩大码丰满熟妇| 国产在线精品亚洲第一网站| 久久久久久免费高清国产稀缺| 长腿黑丝高跟| 一进一出抽搐动态| 亚洲午夜理论影院| 久久久久亚洲av毛片大全| 国产有黄有色有爽视频| 精品日产1卡2卡| 在线观看免费视频日本深夜| 深夜精品福利| 黄色片一级片一级黄色片| 亚洲av成人一区二区三| 在线视频色国产色| 啪啪无遮挡十八禁网站| 国产精品 欧美亚洲| 色哟哟哟哟哟哟| 亚洲第一青青草原| 亚洲一区二区三区欧美精品| 亚洲情色 制服丝袜| 亚洲成人久久性| 亚洲一区二区三区色噜噜 | 亚洲一卡2卡3卡4卡5卡精品中文| 一区二区三区国产精品乱码| 精品人妻1区二区| 51午夜福利影视在线观看| 两人在一起打扑克的视频| 又黄又粗又硬又大视频| 国产又爽黄色视频| 日韩人妻精品一区2区三区| 久久久久精品国产欧美久久久| 国产亚洲av高清不卡| 岛国视频午夜一区免费看| 真人一进一出gif抽搐免费| 一级毛片女人18水好多| 大型黄色视频在线免费观看| 亚洲九九香蕉| 欧美日韩亚洲国产一区二区在线观看| 97人妻天天添夜夜摸| 午夜免费观看网址| 在线观看免费午夜福利视频| 亚洲午夜理论影院| 亚洲少妇的诱惑av| 亚洲国产精品一区二区三区在线| 国产高清videossex| 国产成人欧美| 午夜福利在线免费观看网站| 亚洲免费av在线视频| 成年版毛片免费区| 天堂动漫精品| 97超级碰碰碰精品色视频在线观看| 免费在线观看视频国产中文字幕亚洲| 日韩成人在线观看一区二区三区| 一级,二级,三级黄色视频| 欧美最黄视频在线播放免费 | 99精品欧美一区二区三区四区| 很黄的视频免费| 精品福利观看| 99热只有精品国产| 国产区一区二久久| 一级a爱视频在线免费观看| 19禁男女啪啪无遮挡网站| 成年女人毛片免费观看观看9| 97人妻天天添夜夜摸| 亚洲精品粉嫩美女一区| 国产精品秋霞免费鲁丝片| 国产精品久久久久成人av| 国产精品免费一区二区三区在线| 别揉我奶头~嗯~啊~动态视频| 国产精品电影一区二区三区| 国产一区在线观看成人免费| 国产精品偷伦视频观看了| 一区二区三区国产精品乱码| 国产精品香港三级国产av潘金莲| 啪啪无遮挡十八禁网站| 伦理电影免费视频| 免费在线观看影片大全网站| 亚洲精品美女久久久久99蜜臀| x7x7x7水蜜桃| 亚洲精品一卡2卡三卡4卡5卡| 欧美激情极品国产一区二区三区| 精品久久蜜臀av无| 777久久人妻少妇嫩草av网站| 欧美日本中文国产一区发布| aaaaa片日本免费| 中文亚洲av片在线观看爽| videosex国产| www.熟女人妻精品国产| 成人国产一区最新在线观看| 夜夜爽天天搞| 免费观看精品视频网站| 国产精品久久久av美女十八| 真人一进一出gif抽搐免费| 9191精品国产免费久久| 91麻豆精品激情在线观看国产 | 国产99白浆流出| 黄频高清免费视频| 淫妇啪啪啪对白视频| 美女午夜性视频免费| 精品熟女少妇八av免费久了| av电影中文网址| 美女高潮喷水抽搐中文字幕| 国产区一区二久久| 精品国产亚洲在线| 亚洲av电影在线进入| 亚洲精品国产色婷婷电影| 午夜免费成人在线视频| 日韩人妻精品一区2区三区| 色综合婷婷激情| 亚洲精品一二三| 中文字幕色久视频| 久久久久久人人人人人| av超薄肉色丝袜交足视频| 久久久久久久久中文| 国产免费av片在线观看野外av| 激情在线观看视频在线高清| 久久香蕉精品热| 19禁男女啪啪无遮挡网站| 国产亚洲欧美精品永久| 麻豆久久精品国产亚洲av | 成人精品一区二区免费| 国产欧美日韩一区二区三| 精品午夜福利视频在线观看一区| 成人av一区二区三区在线看| 亚洲中文av在线| 精品久久蜜臀av无| 91字幕亚洲| 日韩大码丰满熟妇| 色婷婷久久久亚洲欧美| 美女高潮到喷水免费观看| 国产av一区在线观看免费| 免费看a级黄色片| 欧美成狂野欧美在线观看| 高清欧美精品videossex| 88av欧美| 欧洲精品卡2卡3卡4卡5卡区| 纯流量卡能插随身wifi吗| 午夜亚洲福利在线播放| 国产1区2区3区精品| 久久精品国产清高在天天线| 国产97色在线日韩免费| 日本免费一区二区三区高清不卡 | 久久99一区二区三区| 亚洲情色 制服丝袜| 久久狼人影院| 夜夜夜夜夜久久久久| 久久久久久免费高清国产稀缺| cao死你这个sao货| 国产亚洲精品一区二区www| 久久久水蜜桃国产精品网| 丰满人妻熟妇乱又伦精品不卡| 欧美av亚洲av综合av国产av| 国产精华一区二区三区| 国产亚洲精品一区二区www| 国产成年人精品一区二区 | 99久久人妻综合| 日本精品一区二区三区蜜桃| 免费在线观看亚洲国产| 999精品在线视频| 久久天躁狠狠躁夜夜2o2o| 女性被躁到高潮视频| 俄罗斯特黄特色一大片| 精品国产乱子伦一区二区三区| 国产xxxxx性猛交| 日本vs欧美在线观看视频| 天堂俺去俺来也www色官网| 久久99一区二区三区| 成人精品一区二区免费| 亚洲第一青青草原| 久久久国产一区二区| 欧美日本亚洲视频在线播放| 国产极品粉嫩免费观看在线| 999久久久精品免费观看国产| 一级片免费观看大全| 色婷婷久久久亚洲欧美| 成人亚洲精品一区在线观看| 搡老乐熟女国产| 久久狼人影院| 久久久国产成人精品二区 | 亚洲一卡2卡3卡4卡5卡精品中文| 麻豆成人av在线观看| 在线看a的网站| 韩国av一区二区三区四区| 在线天堂中文资源库| 国产日韩一区二区三区精品不卡| 精品一区二区三卡| 操美女的视频在线观看| 男人舔女人的私密视频| 如日韩欧美国产精品一区二区三区| 9热在线视频观看99| 国产av精品麻豆| 窝窝影院91人妻| 99国产精品免费福利视频| 成人18禁在线播放| 日韩 欧美 亚洲 中文字幕| 性欧美人与动物交配| av中文乱码字幕在线| 99热国产这里只有精品6| 黄网站色视频无遮挡免费观看| 夜夜爽天天搞| 激情在线观看视频在线高清| 成在线人永久免费视频| 在线国产一区二区在线| 久久香蕉国产精品| 精品久久久久久久久久免费视频 | 亚洲aⅴ乱码一区二区在线播放 | 亚洲欧美日韩另类电影网站| 夜夜爽天天搞| 亚洲av五月六月丁香网| 黄频高清免费视频| 亚洲av片天天在线观看| 国产精品日韩av在线免费观看 | 99国产精品99久久久久| 久久香蕉国产精品| 怎么达到女性高潮| 黄片小视频在线播放| 国产精品一区二区在线不卡| 日韩欧美一区二区三区在线观看| 日韩欧美在线二视频| 久久精品aⅴ一区二区三区四区| 精品久久久久久成人av| 精品一区二区三卡| 欧美成人免费av一区二区三区| 在线观看一区二区三区激情| 可以免费在线观看a视频的电影网站| 亚洲精品一区av在线观看| aaaaa片日本免费| 亚洲少妇的诱惑av| 精品久久蜜臀av无| 搡老岳熟女国产| 色综合欧美亚洲国产小说| 男人舔女人下体高潮全视频| 欧美成人免费av一区二区三区| 啦啦啦免费观看视频1| 欧美日韩亚洲国产一区二区在线观看| 日韩 欧美 亚洲 中文字幕| 亚洲avbb在线观看| 午夜a级毛片| 免费av中文字幕在线| 在线永久观看黄色视频| 国产人伦9x9x在线观看| 亚洲视频免费观看视频| 久久人妻av系列| 免费高清视频大片| 50天的宝宝边吃奶边哭怎么回事| 免费高清视频大片| 日日爽夜夜爽网站| 亚洲精品美女久久久久99蜜臀| 精品国内亚洲2022精品成人| 亚洲精品美女久久av网站| 久久青草综合色| 欧美日韩中文字幕国产精品一区二区三区 | 亚洲av美国av| 淫妇啪啪啪对白视频| 亚洲熟妇熟女久久| 精品高清国产在线一区| 久久久精品欧美日韩精品| 国产成+人综合+亚洲专区| 日日干狠狠操夜夜爽| 亚洲va日本ⅴa欧美va伊人久久| 天堂中文最新版在线下载| 久久精品亚洲熟妇少妇任你| 99国产精品一区二区蜜桃av| 又黄又爽又免费观看的视频| 精品福利永久在线观看| 国产主播在线观看一区二区| 99在线视频只有这里精品首页| 纯流量卡能插随身wifi吗| 精品无人区乱码1区二区| 色在线成人网| 成人亚洲精品av一区二区 | 自拍欧美九色日韩亚洲蝌蚪91| avwww免费| 成人影院久久| 岛国视频午夜一区免费看| 一级毛片女人18水好多| 久久久久久久午夜电影 | 亚洲中文av在线| 亚洲av片天天在线观看| 中文字幕人妻丝袜制服| 国产精品国产高清国产av| 1024视频免费在线观看| 在线观看www视频免费| 制服诱惑二区| 国产成人欧美| 精品一区二区三区四区五区乱码| 国产男靠女视频免费网站| 婷婷丁香在线五月| av欧美777| 9色porny在线观看| 国产亚洲欧美在线一区二区| 9191精品国产免费久久| 日日干狠狠操夜夜爽| 麻豆成人av在线观看| 国产欧美日韩一区二区精品| 亚洲伊人色综图| av网站在线播放免费| 国产91精品成人一区二区三区| 精品国内亚洲2022精品成人| 日韩视频一区二区在线观看| 老司机亚洲免费影院| 嫁个100分男人电影在线观看|