• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于槽位語義增強提示學(xué)習(xí)的篇章級事件抽取方法

    2023-09-18 04:35:20李鴻鵬楊雅婷
    計算機工程 2023年9期
    關(guān)鍵詞:論元模板模型

    李鴻鵬,馬 博,楊雅婷,王 磊,王 震,李 曉

    (1.中國科學(xué)院新疆理化技術(shù)研究所,烏魯木齊 830011;2.中國科學(xué)院大學(xué),北京 100049;3.新疆民族語音語言信息處理實驗室,烏魯木齊 830011)

    0 概述

    事件抽取的目標(biāo)是對非結(jié)構(gòu)化文本中的重要事件信息以結(jié)構(gòu)化形式進行識別提?。?]。在事件抽取中,最能代表事件發(fā)生以及事件類型的詞稱為觸發(fā)詞,圍繞著觸發(fā)詞的相關(guān)人物、時間、地點等實體稱為事件論元,事件論元在事件中扮演的角色稱為論元角色[2]。篇章級事件抽取任務(wù)要求從篇章層面對分布在不同句子內(nèi)的事件要素同時進行抽取。早期的事件抽取方法的抽取范圍局限于單個句子,其假定目標(biāo)事件位于單句內(nèi),通過圖對問題進行簡化,與現(xiàn)實情況不符,且早期研究將事件抽取任務(wù)看作實體分類任務(wù),多采用管道式實體識別與事件論元分類方式進行實現(xiàn),在模型訓(xùn)練過程中需要大規(guī)模標(biāo)注數(shù)據(jù),該類方法在低資源領(lǐng)域表現(xiàn)不佳,抽取過程中容易產(chǎn)生累積誤差問題[3]。

    隨著預(yù)訓(xùn)練語言模型的出現(xiàn),基于提示學(xué)習(xí)的序列生成式方法在篇章級事件抽取任務(wù)中得到應(yīng)用。通過對預(yù)訓(xùn)練語言模型添加不同的提示(Prompt),能夠在模型參數(shù)不變的情況下對包含不同事件類型的篇章文本實現(xiàn)事件要素的判別與分類。提示學(xué)習(xí)方法基于預(yù)訓(xùn)練語言模型的自然語言理解能力,通過注意力機制計算篇章文本的全局特征,從而實現(xiàn)篇章級文本的端到端表征學(xué)習(xí),相比傳統(tǒng)方法具有更高的泛化能力與訓(xùn)練效率。然而,現(xiàn)有的提示學(xué)習(xí)方法多數(shù)基于自然語言描述與事件論元槽位構(gòu)造提示模板,模型對提示模板中的槽位進行答案生成與填空,在槽位值預(yù)測過程中存在論元角色分類錯誤的問題,無法對預(yù)訓(xùn)練模型的預(yù)測答案空間起到很好的約束作用。

    針對上述問題,本文提出一種基于槽位語義增強提示學(xué)習(xí)的篇章級事件抽取方法。在提示學(xué)習(xí)方法的基礎(chǔ)上對傳統(tǒng)事件抽取任務(wù)進行重構(gòu),將傳統(tǒng)事件抽取范式的事件論元角色作為語義信息融入提示模板槽位中,對提示模板形成槽位語義提示,對模型的生成答案空間進行約束,從而提高篇章級事件抽取的論元角色分類準(zhǔn)確率。本文模型屬于端到端的編碼解碼器模型,利用序列生成式預(yù)訓(xùn)練語言模型對輸入篇章添加對應(yīng)的提示模板,對篇章文本進行編碼表示。模型根據(jù)輸入篇章及提示模板對論元槽位生成對應(yīng)的填空預(yù)測,實現(xiàn)事件論元抽取。在中英文篇章級事件抽取公開數(shù)據(jù)集上進行實驗,在不同訓(xùn)練數(shù)據(jù)規(guī)模下驗證模型的自適應(yīng)能力,同時在篇章級事件抽取任務(wù)中應(yīng)用知識遷移機制驗證模型的遷移學(xué)習(xí)能力。

    1 相關(guān)工作

    1.1 篇章級事件抽取

    篇章級事件抽取需要同時考慮句子與篇章的文本特征,涉及更多的事件類型和論元角色,是事件抽取領(lǐng)域的難點問題。如圖1 所示,與觸發(fā)詞“約談”相關(guān)的事件論元同時存在于句子S1 與S2 中,且論元角色“約談機構(gòu)”和“公司名稱”在篇章中存在多個對應(yīng)論元。

    圖1 篇章級事件抽取示例Fig.1 Example of document-level event extraction

    JI 等[4]較早將論元時態(tài)信息作為篇章級特征應(yīng)用到事件 抽取中。YANG 等[5]將卷積 神經(jīng)網(wǎng) 絡(luò)(Convolutional Neural Network,CNN)與雙向長短時記憶(Bidirectional Long Short-Term Memory,Bi-LSTM)網(wǎng)絡(luò)相結(jié)合,利用CNN 進行觸發(fā)詞識別,使用Bi-LSTM完成句子的論元抽取,通過上下句論元補齊方式實現(xiàn)篇章級事件抽取。陳斌等[6]提出一種基于長短時記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)的觸發(fā)詞抽取方法,利用上下文信息提高抽取準(zhǔn)確率。

    近年來,具有更強表征學(xué)習(xí)能力的Transformer以及大規(guī)模預(yù)訓(xùn)練語言模型得到研究與應(yīng)用[7]。ZHENG 等[8]利 用Transformer 進行篇 章實體 抽取和事件類型判別,基于有向無環(huán)圖對事件進行建模,通過圖路徑拓展方式實現(xiàn)中文篇章級事件抽取。仲偉峰等[9]提出一個基于聯(lián)合標(biāo)注和全局推理的篇章級事件抽取模型,該模型結(jié)合注意力機制與多層感知機實現(xiàn)篇章級事件抽取。

    在中文篇章級事件抽取公開數(shù)據(jù)集方面:百度提出了中文金融領(lǐng)域的篇章級事件抽取數(shù)據(jù)集Duee-fin;YANG 等[5]提出一個中文金融篇章級事件抽取數(shù)據(jù)集,ZHENG 等[8]在此基礎(chǔ)上利用遠(yuǎn)程監(jiān)督擴充得到數(shù)據(jù)規(guī)模較大的中文事件抽取數(shù)據(jù)集。在英文篇章級事件抽取公開數(shù)據(jù)集方面:EBNER 等[10]提出一個新聞領(lǐng)域篇章級事件抽取數(shù)據(jù)集RAMS;LI 等[11]提出一個新聞篇章級事件抽取數(shù)據(jù)集WikiEvent,并利用生成式預(yù)訓(xùn)練語言模型實現(xiàn)了英文篇章級事件抽取。

    1.2 提示學(xué)習(xí)

    以GPT-3 為代表的序列生成式預(yù)訓(xùn)練語言模型在各項自然語言處理(Natural Language Processing,NLP)任務(wù)中具有優(yōu)秀的閱讀理解能力,通過對下游任務(wù)添加提示,能夠以問答或填空形式進行回答[12]。受到此類工作的啟發(fā),將傳統(tǒng)下游任務(wù)重構(gòu)為語言生成任務(wù)的研究開始出現(xiàn),以解決目標(biāo)領(lǐng)域的低資源問題。

    LEVY 等[13]提出一個基于機器問答(Question Answering,QA)的關(guān)系抽取模型,實現(xiàn)了英文的關(guān)系判別與抽取。PETRONI 等[14]通過將關(guān)系抽取任務(wù)修改為填空式三元組補齊問題,在不修改預(yù)訓(xùn)練語言模型的情形下得到了比知識庫更好的關(guān)系抽取效果。SHIN等[15]將提示學(xué)習(xí)應(yīng)用于關(guān)系抽取任務(wù),基于梯度搜索得到優(yōu)質(zhì)提示模板,提升了模型的關(guān)系分類能力。LI等[16]將提示學(xué)習(xí)方法應(yīng)用于命名實體識別任務(wù),通過機器閱讀理解形式實現(xiàn)命名實體識別。

    在事件抽取領(lǐng)域,DU 等[17]利用問答提示形式提出一個基于BERT 的問答式事件抽取模型,在英文數(shù)據(jù)集上實現(xiàn)了句子級事件抽取。李珂等[18]提出一個基于RoBERTa 的實體抽取模型,以解決新聞文本的時間線挖掘問題。LIU 等[19]在QA 問答形式的基礎(chǔ)上對篇章級事件抽取任務(wù)設(shè)計多輪問答和問答模板生成方法,實現(xiàn)了英文的篇章級事件抽取。

    傳統(tǒng)QA 方法的不足之處在于只能單次對單個目標(biāo)論元進行抽取,當(dāng)事件論元數(shù)量較多時,會產(chǎn)生效率下降與累積誤差的問題。LI 等[11]將事件抽取任務(wù)轉(zhuǎn)化為基于提示模板的條件生成式任務(wù),但是其未充分考慮模型對模板槽位答案空間的準(zhǔn)確約束,提示模板的數(shù)量和形式有限,也缺乏在中英文低資源領(lǐng)域和跨領(lǐng)域知識遷移上的應(yīng)用。

    2 模型結(jié)構(gòu)

    對篇章級事件抽取任務(wù)進行如下定義:設(shè)篇章文檔D包含事件論元集合E,事件類型對應(yīng)事件觸發(fā)詞trge和論元角色集Re。對于論元角色集中的論元角色r?Re,事件抽取需要在文檔D中識別出屬于論元角色r的事件論元α?E,抽取出論元角色與事件論元的關(guān)系對(r,α)。

    以圖1 文本“河北日報7 月19 日消息。近日,石家莊市文明辦會同該市市場監(jiān)管局召集美團、餓了么兩大網(wǎng)絡(luò)訂餐平臺運營商進行了行政約談會議?!睘槔?,傳統(tǒng)事件抽取方法通過預(yù)定義的抽取范式,輸出抽取結(jié)果為:(披露日期:7 月19 日)(約談時間:近日)(約談機構(gòu):石家莊市文明辦,市場監(jiān)管局)(公司名稱:美團,餓了么)。

    本文將傳統(tǒng)事件抽取任務(wù)的輸入部分重構(gòu)為篇章文本與提示模板的組合,如圖2 中的編號2 模塊所示,以[s]與[sep]分別作為起始標(biāo)識符與分隔標(biāo)識符。

    圖2 事件抽取模型結(jié)構(gòu)Fig.2 The structure of event extraction model

    給定篇章D,模型通過提示模板知識庫B對輸入篇章匹配對應(yīng)的提示模板tin?B,其中,tin是一種對事件的精簡自然語言描述,模板構(gòu)成如式(1)所示:

    其中:wi表示組成自然語言描述的單詞;argj表示論元角色集Re中第j個事件論元在提示模板中的槽位;n代表模板單詞長度。模型目標(biāo)在于給定篇章和提示模板(D,tin),對tin的論元槽位arg 進行預(yù)測,輸出填空后的生成模板tout,如式(2)所示:

    其中:αj代表模型對槽位argj所填充的預(yù)測論元。若存在預(yù)測結(jié)果,則αj?D;若不存在預(yù)測結(jié)果,則模型對槽位不進行填充,αj=argj。

    以圖1 文本為例,通過與提示模板“日期[arg]的報告稱[arg]在[arg]約談了[arg]”進行拼接,模型根據(jù)篇章內(nèi)容輸出槽位arg 的預(yù)測填空。新任務(wù)目標(biāo)如式(3)所示:

    其中:(D,tin)代表模型輸入的篇章與提示模板;w?E代表篇章D的對應(yīng)事件論元。模型的目標(biāo)轉(zhuǎn)化為預(yù)測提示模板槽位的對應(yīng)正確論元,最大化事件論元集合E的條件概率。

    文獻[12]闡明經(jīng)過提示學(xué)習(xí)重構(gòu)下游任務(wù),能夠提高預(yù)訓(xùn)練語言模型下游任務(wù)的一致性,更好地挖掘模型的潛在模式與先驗知識,從而獲得更優(yōu)的少樣本性能表現(xiàn)。

    2.1 模板槽位語義增強層

    傳統(tǒng)提示模板方法由自然語言描述與論元槽位組合構(gòu)成,槽位使用相同的編碼值參與模型訓(xùn)練,在模型填空預(yù)測中無法起到足夠的類型提示作用。文獻[15]在關(guān)系抽取任務(wù)中驗證了對模板添加提示的有效性。如式(4)所示,通過在提示模板槽位[M]前添加觸發(fā)向量[T],構(gòu)造新的模板,可以使得模型在關(guān)系抽取中獲得更高的準(zhǔn)確率。

    本文將傳統(tǒng)事件抽取范式中的論元角色作為外部知識,與提示模板槽位標(biāo)簽argi以及論元角色向量rrolei進行拼接,經(jīng)過詞嵌入層進行編碼表示,構(gòu)成增強后的槽位表示向量,將其輸入模型編碼層,如圖3所示。模型解碼層采用單向自回歸式文本生成方法,對論元槽位進行類型約束,從而有效提高預(yù)測準(zhǔn)確率。

    圖3 模板槽位語義增強過程Fig.3 Template slot semantic enhancement process

    為實現(xiàn)提示模板槽位語義增強,本文以事件觸發(fā)詞作為關(guān)鍵值構(gòu)建提示模板知識庫?;诒疚膶嶒灁?shù)據(jù)集的194 類事件類型構(gòu)造提示模板庫,基于216 類論元角色構(gòu)建事件論元角色庫,匹配流程如圖4 所示。

    圖4 提示模板知識庫Fig.4 Knowledge base of prompt template

    以圖1 文本為例,通過事件觸發(fā)詞“約談”,知識庫以鍵值匹配的方式,從事件論元角色庫內(nèi)匹配與“約談”事件相關(guān)的論元角色“披露日期”“約談時間”“約談機構(gòu)”“公司名稱”作為論元角色語義信息,輸入到模板槽位語義增強模塊;從提示模板庫匹配預(yù)定義提示模板“[arg]的報告稱[arg]在[arg]約談了[arg]”,輸入到模板槽位語義增強模塊。

    2.2 雙向詞嵌入編碼層

    給定篇章D={w1,w2,…,wn}及對應(yīng)的提示模板tin,其中,wi??d表示篇 章詞語。將D與tin進行拼接,作為重構(gòu)后的輸入提供給模型。編碼層結(jié)構(gòu)如圖5 所示,經(jīng)過詞嵌入層對(D,tin)進行嵌入表示。模型編碼層與解碼層共享詞嵌入層的參數(shù)。

    圖5 模型編碼層結(jié)構(gòu)Fig.5 Model encoding layer structure

    編碼層通過多頭自注意力機制計算得到編碼向量,學(xué)習(xí)篇章與提示模板的表征關(guān)系[7]。如式(5)~式(7)所示,構(gòu)造Q、K、V作為注意力權(quán)重矩陣,將多組編碼器的注意力頭進行拼接與線性變換,得到的輸出作為(D,tin)編碼后的向量表示。通過編碼層輸出詞編碼表示向量Ei與最末隱含向量提供給自回歸解碼層。

    2.3 自回歸解碼層

    解碼層接收來自雙向編碼層的詞編碼向量和隱含向量,輸入與輸出間通過右移進行自回歸式序列生成,生成填空后的提示模板tout。每層解碼器接收前一個生成向量Ei-1以及編碼層隱含向量作為輸入,利用跨注意力機制進行計算,獲得文本全局特征表示,輸出預(yù)測詞向量[20]。模型通過式(8)進行自回歸式序列生成:

    其中:c代表輸入文本;xi代表對模板第i位詞的生成預(yù)測。

    為防止模型在預(yù)測過程中生成不屬于篇章內(nèi)的預(yù)測詞,設(shè)計模型生成答案約束機制,如式(9)所示。若預(yù)測詞w??d在篇章詞表Vc??d×|D|內(nèi),輸出解碼層向量與預(yù)測詞嵌入向量的點積,經(jīng)過Softmax函數(shù)得到生成概率;若預(yù)測詞不在篇章詞表內(nèi),輸出概率為0,從而將解碼層的生成結(jié)果約束在篇章范圍內(nèi),約束模型的生成答案空間,提升預(yù)測的準(zhǔn)確率。

    2.4 論元生成與槽位映射

    在模型的事件論元生成階段,對于代表特定論元角色的槽位argi,若篇章中存在復(fù)數(shù)事件論元與其對應(yīng),則在英文中使用“and”、在中文中使用“和”來對論元進行合并。在生成預(yù)測環(huán)節(jié),使用top-k采樣法進行預(yù)測采樣,輸出填空后的提示模板tout[21]。對預(yù)測結(jié)果為空的論元槽位進行槽位還原,輸出“arg”表示空值,模型根據(jù)式(10)進行論元槽位填空生成:

    模型的訓(xùn)練使用最大似然估計作為損失函數(shù),如式(11)所示,遍歷篇章D中的所有事件,對給定篇章文本ci條件下的生成序列xi,計算其預(yù)測值與真實標(biāo)簽的最大似然估計值。

    在論元槽位映射層中,依據(jù)各個槽位在提示模板中對應(yīng)的角色,對槽位預(yù)測值進行論元類型分類與論元抽取,得到結(jié)構(gòu)化事件信息,如圖2 模塊1 中的模板槽位結(jié)果映射層所示。

    2.5 跨領(lǐng)域預(yù)訓(xùn)練與知識遷移

    知識遷移指模型在任務(wù)形式相似的源任務(wù)上進行學(xué)習(xí),以獲取有效的領(lǐng)域知識,再將其遷移到目標(biāo)任務(wù)上進行訓(xùn)練[22]。LIU 等[12]驗證了提示學(xué)習(xí)方法在知識遷移上具有較高的自適應(yīng)性以及較小的遷移成本。本文在中文數(shù)據(jù)集上進行跨領(lǐng)域知識遷移實驗,由如下2 個部分組成:

    1)跨領(lǐng)域預(yù)訓(xùn)練。在對目標(biāo)任務(wù)進行訓(xùn)練前,使用領(lǐng)域相似任務(wù)T對模型進行跨任務(wù)預(yù)訓(xùn)練,訓(xùn)練目標(biāo)如式(12)所示:

    其中:T代表預(yù) 訓(xùn)練任 務(wù);代表任 務(wù)中的訓(xùn)練樣本表示給 定輸入條件下預(yù)測 結(jié)果的最大似然估計。訓(xùn)練過程中針對整體損失Lcross進行學(xué)習(xí)。

    2)目標(biāo)任務(wù)訓(xùn)練。對獲得領(lǐng)域知識的模型進行目標(biāo)任務(wù)訓(xùn)練,訓(xùn)練目標(biāo)如式(13)所示:

    其中:D為目標(biāo)任務(wù)輸入篇章;e代表D中的單個事件;(r,α)代表事件e中的事件論元與論元角色對。

    通過提示學(xué)習(xí)的任務(wù)重構(gòu),本文方法保持了預(yù)訓(xùn)練語言模型上下游任務(wù)的一致性,對目標(biāo)損失值Lin進行學(xué)習(xí),能夠利用模型預(yù)訓(xùn)練階段的領(lǐng)域知識提高目標(biāo)領(lǐng)域內(nèi)的收斂效果與自適應(yīng)能力。

    3 實驗驗證

    本文在英文篇章級事件抽取數(shù)據(jù)集WikiEvent與RAMS 上進行實驗,并選擇RAMS 數(shù)據(jù)集驗證模型在100%、50%與25%數(shù)據(jù)規(guī)模下的性能表現(xiàn)。在中文事件抽取任務(wù)上,使用包含大規(guī)模數(shù)據(jù)量的中文篇章級事件抽取數(shù)據(jù)集ChFinAnn 進行跨領(lǐng)域預(yù)訓(xùn)練,該數(shù)據(jù)集包含5 種金融主題的事件類型和35 種論元角色,共有約3 萬條篇章[8]。當(dāng)模型收斂后,在百度金融篇章級數(shù)據(jù)集Duee-fin 上進行目標(biāo)任務(wù)訓(xùn)練,并與基線模型的結(jié)果進行比較。在消融實驗環(huán)節(jié),分別去除模型的提示模板槽位語義增強機制、將提示模板更換為傳統(tǒng)事件抽取范式,對比模型性能變化。在跨領(lǐng)域知識遷移實驗中,分析模型在不同數(shù)據(jù)規(guī)模下的性能表現(xiàn)。

    3.1 實驗設(shè)置

    3.1.1 數(shù)據(jù)集

    WikiEvent 來源于英文維基百科新聞篇章,事件類型的定義依據(jù)語言數(shù)據(jù)協(xié)會的KAIROS 事件抽取范式,包含31 種事件類型與59 種論元角色。RAMS數(shù)據(jù)集的事件類型定義依據(jù)語言數(shù)據(jù)協(xié)會的AIDA 范式,包含150 種事件類型與65 種論元角色。Duee-fin來源于金融財經(jīng)領(lǐng)域的新聞篇章,包含13 種金融事件類型和92 種論元角色。數(shù)據(jù)集的詳細(xì)信息如表1所示。

    表1 實驗數(shù)據(jù)集信息Table 1 Experimental datasets information

    3.1.2 超參數(shù)設(shè)置

    實驗環(huán)境為Ubuntu 18.04,GPU Tesla V100×4,采用Python3.7,PyTorch1.6.0。訓(xùn)練批次大小為8,學(xué)習(xí)率為0.000 5,迭代次數(shù)為10 次,使用Adam 作為優(yōu)化器,優(yōu)化器權(quán)值衰減為0.000 1。

    3.1.3 評價指標(biāo)

    使用精確率(P)、召回率(R)與F1作為評價指標(biāo)。在論元識別(Arg Identify)環(huán)節(jié),模型抽取出正確事件論元視為正例,反之視為負(fù)例;在論元分類(Arg Classify)環(huán)節(jié),模型對論元角色進行正確分類視為正例,反之視為負(fù)例,以論元分類指標(biāo)作為最終評估指標(biāo)。由于WikiEvent 數(shù)據(jù)集在標(biāo)注過程中遵循頭實體(Head Entity)標(biāo)注法,并且額外標(biāo)注了事件論元的指代關(guān)系,因此分別使用HeadF1與CorefF1進行評估。

    3.1.4 對比模型

    本文在英文篇章級事件抽取實驗中,使用WikiEvent 與RAMS 數(shù)據(jù)集上的Sota 模型作為對比基線模型,包括:

    1)BERT_QA,基于預(yù)訓(xùn)練模型機器閱讀理解機制實現(xiàn)的英文事件抽取模型[17]。

    2)BERT-CRF,基于BERT 和條件隨機場實現(xiàn)的序列標(biāo)注式事件抽取模型[23]。

    3)DocMRC,在BERT_QA 基礎(chǔ)上實現(xiàn)問答模板生成的英文篇章級事件抽取模型[19]。

    4)BartGen,基于手工設(shè)計提示學(xué)習(xí)模板的生成式英文篇章級事件抽取模型[11]。

    在中文篇章級事件抽取實驗中,使用Duee-fin數(shù)據(jù)集上的Sota 模型作為對比基線,包括:

    1)Doc2EDAG,基于Transformer 篇章實體標(biāo)注與圖路徑拓展的篇章級中文事件抽取模型[8]。

    2)GIT,利用圖神經(jīng)網(wǎng)絡(luò)對實體進行編碼的中文事件抽取模型[24]。

    3)PTPCG,基于偽觸發(fā)詞完全修剪圖的中文篇章級事件抽取模型[25]。

    3.2 實驗結(jié)果分析

    3.2.1 英文事件抽取實驗

    在WikiEvent 數(shù)據(jù)集上進行實驗,結(jié)果如表2 所示,其中,Arg Identify 評估模型對論元的識別能力,Arg Classify 評估模型對識別論元進行正確分類的能力,最優(yōu)數(shù)據(jù)加粗標(biāo)注。從表2 可以看出:傳統(tǒng)事件抽取方法在低資源數(shù)據(jù)上無法獲得理想的性能表現(xiàn),在2 個指標(biāo)上表現(xiàn)均較差,論元識別指標(biāo)F1均小于60%,論元分類指標(biāo)F1均小于50%;基線BartGen采用傳統(tǒng)提示學(xué)習(xí)方法,本文方法引入了槽位語義增強機制,有效提高了論元分類準(zhǔn)確率,在論元分類指標(biāo)F1上提高2.6 個百分點,在論元識別指標(biāo)F1上提高2.2 個百分點,表明本文方法能夠提高模型的論元抽取準(zhǔn)確率。

    表2 WikiEvent 數(shù)據(jù)集上的實驗結(jié)果 Table 2 Experimental results on the WikiEvent dataset

    在RAMS 數(shù)據(jù)集上進行不同數(shù)據(jù)規(guī)模的實驗。RAMS 數(shù)據(jù)集包含150 種事件類型與65 類論元角色,對模型的泛化性能具有較高要求。從表3 可以看出:傳統(tǒng)方法在面對多分類任務(wù)與低資源場景時,表現(xiàn)出較低的F1與較多的性能折損;基線DocMRC與BartGen 在訓(xùn)練數(shù)據(jù)規(guī)模從100%降低至25%后,F(xiàn)1分別下降4.0 與6.0 個百分點;由于采用了更優(yōu)的提示學(xué)習(xí)方法,本文模型相較基線模型在精確率等指標(biāo)上均得到提高,獲得了49.8%的F1,并在低資源場景下保持了3.9 個百分點的性能損失率,表現(xiàn)出更好的泛化能力。

    表3 RAMS 數(shù)據(jù)集上的實驗結(jié)果 Table 3 Experimental results on the RAMS dataset %

    3.2.2 知識遷移實驗

    利用ChFinAnn 數(shù)據(jù)集作為跨領(lǐng)域預(yù)訓(xùn)練數(shù)據(jù)進行模型預(yù)訓(xùn)練。為得到更大的訓(xùn)練數(shù)據(jù)規(guī)模,提高模型的自然語言理解能力,在訓(xùn)練集中引入不同類型的隨機噪聲,提高模型在下游任務(wù)中的泛化能力。本文在訓(xùn)練過程中以同等概率隨機對數(shù)據(jù)集的輸入篇章做如下處理:

    1)對篇章字符進行15%掩碼操作。

    2)對篇章字符進行15%刪除操作。

    3)替換篇章中15%的字符位置。

    4)保持不變。

    通過20 輪迭代使模型達(dá)到收斂。在目標(biāo)任務(wù)Duee-fin 數(shù)據(jù)集上進行下游訓(xùn)練,選擇遷移后的模型參數(shù)作為初始化參數(shù)并迭代收斂。從表4 可以看出,本文模型對比傳統(tǒng)基線模型在召回率與F1上取得了較大提升。傳統(tǒng)數(shù)據(jù)驅(qū)動型模型在面對復(fù)數(shù)事件論元時性能表現(xiàn)不佳,取得了較低的召回率。本文模型通過跨領(lǐng)域預(yù)訓(xùn)練與知識遷移并引入隨機噪聲,獲得了更高的魯棒性與較好的自適應(yīng)能力,相較于次優(yōu)基線模型在召回率上取得了6.7 個百分點的提升,在F1上取得了2.9 個百分點的提升,驗證了跨領(lǐng)域知識遷移機制在事件抽取中的有效性。

    表4 Duee-fin 數(shù)據(jù)集上的實驗結(jié)果 Table 4 Experimental results on the Duee-fin dataset %

    利用領(lǐng)域相近的大規(guī)模語料訓(xùn)練模型在復(fù)雜文本上的機器閱讀理解能力,在不同的數(shù)據(jù)規(guī)模下,驗證模型相較未經(jīng)知識遷移時能否獲得更好的性能表現(xiàn)。在Duee-fin 數(shù)據(jù)集不同訓(xùn)練數(shù)據(jù)規(guī)模下進行模型遷移前后的性能對比,結(jié)果如圖6 所示。從圖6 可以看出,經(jīng)過知識遷移的模型只需10%的訓(xùn)練數(shù)據(jù)便能達(dá)到60%以上的F1,在低資源情況下具有更好的性能表現(xiàn)。

    圖6 不同數(shù)據(jù)規(guī)模下的知識遷移效果Fig.6 Knowledge transfer effects under different data scales

    3.2.3 消融實驗

    本文在Duee-fin 數(shù)據(jù)集上進行如下消融實驗:

    1)去除提示模板的槽位語義增強機制,將其命名為PlainTemp。

    2)將自然語言描述的提示模板更改為非自然語言描述的傳統(tǒng)抽取范式,將其命名為SchemaTemp。

    3)不進行跨領(lǐng)域知識遷移的預(yù)訓(xùn)練,將其命名為NonTransfer。

    從表5 可以看出:消融項PlainTemp 去除提示模板知識庫以及槽位語義增強機制,槽位預(yù)測答案空間增大,導(dǎo)致F1出現(xiàn)1.8 個百分點的下降;消融項SchemaTemp 使用結(jié)構(gòu)化語言作為提示模板,由于模型預(yù)訓(xùn)練階段無法理解非自然語言描述的結(jié)構(gòu)語義,因此降低了上下游任務(wù)的一致性,導(dǎo)致F1下降5.3 個百分點;NonTransfer 消融項去除知識遷移機制后模型也表現(xiàn)出一定的性能下降,在大規(guī)模樣本上F1降低了0.8 個百分點。此外,圖6 結(jié)果表明,知識遷移機制在低資源情形下也能得到較好的性能提升。

    表5 消融實驗結(jié)果 Table 5 Results of ablation experiment %

    3.3 錯誤分析

    以RAMS 測試集篇章為例,對比本文模型與基線模型DocMRC、BartGen 在同一例子上的預(yù)測結(jié)果。表6 所示為篇章原文和各模型的事件抽取結(jié)果,其中,括號內(nèi)“T”代表抽取結(jié)果正確,“F”代表抽取結(jié)果錯誤,原文下劃線片段對應(yīng)事件論元正確答案。篇章包含的事件類型為“poison/attack”,論元角色包括“attacker”“target”“instrument”“place”。原文為:

    表6 案例分析結(jié)果 Table 6 Case analysis results

    Read more:The stealthy,nefarious way an ex-KGB officer was murdered in London.Full report:Russian President Vladimir Putin implicated in fatal poisoning of former KGB operative.Russian tycoon found dead in Britain after falling out with Putin.The ancient art of poisoning.

    從表6 可知:本文模型能夠正確識別篇章中的事件論元,并根據(jù)論元槽位分類到正確的論元角色;BartGen 的模板設(shè)計并未考慮槽位語義增強機制,導(dǎo)致預(yù)測槽位時無法抽取準(zhǔn)確的論元角色“place”;DocMRC 使用問答形式對每個論元角色設(shè)計問題,模型輸出答案,但是同樣出現(xiàn)了答案錯誤的情況,對“target”角色的論元抽取出了多余結(jié)果,對“attacker”論元角色無法抽取答案,輸出了空值。由此表明,在篇章級事件抽取中,本文模型相比傳統(tǒng)模型具有更好的抽取效率和準(zhǔn)確率。

    4 結(jié)束語

    本文提出一種基于槽位語義增強提示學(xué)習(xí)的篇章級事件抽取方法。將基于提示學(xué)習(xí)的提示模板填空生成機制應(yīng)用到篇章級事件抽取任務(wù)中,并將傳統(tǒng)事件抽取范式以外部知識形式融入提示模板構(gòu)造中。通過對傳統(tǒng)事件抽取任務(wù)進行重構(gòu),更好地利用預(yù)訓(xùn)練模型的自然語言理解能力,在一定程度上緩解不同任務(wù)間范式不統(tǒng)一、難以遷移的問題。實驗結(jié)果表明,該方法可以在低資源場景下取得較好的性能表現(xiàn),能以較低的成本進行知識遷移,具有較好的泛化能力。下一步將探索更好的提示模板形式和知識遷移方式,提高模型在零樣本和跨領(lǐng)域方面的性能表現(xiàn)。

    猜你喜歡
    論元模板模型
    一半模型
    鋁模板在高層建筑施工中的應(yīng)用
    鋁模板在高層建筑施工中的應(yīng)用
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    成分重量和粵方言雙及物結(jié)構(gòu)的論元語序
    基于論元結(jié)構(gòu)和題元指派對漢語處置義“把”字句的句法語義分析
    3D打印中的模型分割與打包
    鋁模板在高層建筑施工中的應(yīng)用
    城市綜改 可推廣的模板較少
    亚洲精品国产一区二区精华液| 天堂8中文在线网| 五月天丁香电影| 精品亚洲成a人片在线观看| 欧美老熟妇乱子伦牲交| 亚洲黑人精品在线| 一本色道久久久久久精品综合| 精品少妇久久久久久888优播| 国产精品熟女久久久久浪| 亚洲精品国产av蜜桃| 欧美变态另类bdsm刘玥| 国产成人精品久久二区二区91| 又大又黄又爽视频免费| 国产99久久九九免费精品| 国产精品国产三级国产专区5o| 午夜福利乱码中文字幕| 亚洲国产精品一区二区三区在线| 18禁裸乳无遮挡动漫免费视频| 久久久久久久精品精品| 午夜91福利影院| 两个人看的免费小视频| 超色免费av| 91国产中文字幕| 亚洲欧美成人综合另类久久久| 十八禁人妻一区二区| 欧美在线一区亚洲| 成年美女黄网站色视频大全免费| 久久人妻熟女aⅴ| 久久久亚洲精品成人影院| 亚洲精品久久久久久婷婷小说| 在线观看免费日韩欧美大片| 成年人黄色毛片网站| 欧美日韩福利视频一区二区| 91国产中文字幕| 日本一区二区免费在线视频| 亚洲国产av新网站| 最新在线观看一区二区三区 | 午夜久久久在线观看| 日韩免费高清中文字幕av| 亚洲av成人不卡在线观看播放网 | 欧美日韩福利视频一区二区| 日日摸夜夜添夜夜爱| 老汉色∧v一级毛片| 亚洲av美国av| 国产欧美日韩综合在线一区二区| 亚洲欧美一区二区三区久久| 新久久久久国产一级毛片| 久久久国产精品麻豆| 操出白浆在线播放| 免费在线观看日本一区| 黑人巨大精品欧美一区二区蜜桃| 日韩熟女老妇一区二区性免费视频| 日本色播在线视频| 久久人人爽av亚洲精品天堂| 另类精品久久| 人人妻人人爽人人添夜夜欢视频| 国产一区二区三区av在线| 久久综合国产亚洲精品| 亚洲av综合色区一区| 国产伦理片在线播放av一区| 日本午夜av视频| 色视频在线一区二区三区| 亚洲精品在线美女| 高清视频免费观看一区二区| 久久精品久久久久久噜噜老黄| 亚洲色图综合在线观看| 国产亚洲av片在线观看秒播厂| 免费高清在线观看日韩| 国产不卡av网站在线观看| 母亲3免费完整高清在线观看| 大片电影免费在线观看免费| 日韩一区二区三区影片| 亚洲av美国av| 性少妇av在线| 亚洲国产欧美网| 老熟女久久久| 国产伦人伦偷精品视频| www.熟女人妻精品国产| 麻豆乱淫一区二区| 亚洲,欧美精品.| 国产黄频视频在线观看| 99国产精品99久久久久| 欧美av亚洲av综合av国产av| 色精品久久人妻99蜜桃| 制服人妻中文乱码| 每晚都被弄得嗷嗷叫到高潮| 国产男女超爽视频在线观看| 国产亚洲欧美精品永久| 建设人人有责人人尽责人人享有的| 国产真人三级小视频在线观看| 亚洲欧美精品自产自拍| xxx大片免费视频| 久久久久网色| 国产av一区二区精品久久| 亚洲一码二码三码区别大吗| av天堂久久9| 国产视频一区二区在线看| 久久毛片免费看一区二区三区| 久久精品成人免费网站| 自拍欧美九色日韩亚洲蝌蚪91| 在线观看国产h片| 欧美精品av麻豆av| 久久国产亚洲av麻豆专区| 手机成人av网站| 国产精品一二三区在线看| 亚洲精品一卡2卡三卡4卡5卡 | 欧美日韩国产mv在线观看视频| 一级黄片播放器| 丝瓜视频免费看黄片| 青春草视频在线免费观看| 精品人妻熟女毛片av久久网站| 一级毛片黄色毛片免费观看视频| 欧美精品人与动牲交sv欧美| 狂野欧美激情性xxxx| 亚洲欧美中文字幕日韩二区| 精品人妻熟女毛片av久久网站| 亚洲av成人精品一二三区| 精品国产国语对白av| 国产野战对白在线观看| 久久天躁狠狠躁夜夜2o2o | 欧美人与善性xxx| videosex国产| 国产精品 国内视频| 啦啦啦在线观看免费高清www| 久久精品亚洲熟妇少妇任你| 亚洲成人国产一区在线观看 | 黑人巨大精品欧美一区二区蜜桃| 亚洲国产精品一区二区三区在线| 天堂8中文在线网| 成人国产一区最新在线观看 | 黄色视频在线播放观看不卡| 国产91精品成人一区二区三区 | 美女大奶头黄色视频| 欧美大码av| 亚洲国产欧美日韩在线播放| 国产精品一区二区在线观看99| 一本—道久久a久久精品蜜桃钙片| 99国产精品一区二区三区| 午夜福利一区二区在线看| 成人手机av| 国产1区2区3区精品| videos熟女内射| av网站免费在线观看视频| av天堂久久9| 18禁观看日本| 成在线人永久免费视频| 观看av在线不卡| 欧美日韩福利视频一区二区| 又粗又硬又长又爽又黄的视频| 国精品久久久久久国模美| 侵犯人妻中文字幕一二三四区| 精品国产超薄肉色丝袜足j| 久久精品aⅴ一区二区三区四区| 亚洲成av片中文字幕在线观看| 国产一区二区激情短视频 | 天天添夜夜摸| 亚洲av国产av综合av卡| 大香蕉久久成人网| 99热网站在线观看| 成人影院久久| 一级毛片我不卡| 日韩一区二区三区影片| 一个人免费看片子| 女人久久www免费人成看片| 少妇的丰满在线观看| 国产精品99久久99久久久不卡| 国产精品二区激情视频| 亚洲国产欧美在线一区| 国产高清视频在线播放一区 | 精品久久蜜臀av无| 国产视频一区二区在线看| 女性生殖器流出的白浆| 久久久国产一区二区| 在线观看www视频免费| 91精品三级在线观看| 老司机午夜十八禁免费视频| 一边摸一边抽搐一进一出视频| 亚洲国产精品999| 国产成人一区二区三区免费视频网站 | av有码第一页| 91国产中文字幕| 国产成人免费观看mmmm| 亚洲情色 制服丝袜| 午夜福利视频精品| 精品国产超薄肉色丝袜足j| 国产精品麻豆人妻色哟哟久久| www.av在线官网国产| 亚洲欧美一区二区三区黑人| 国产国语露脸激情在线看| 国产人伦9x9x在线观看| 最黄视频免费看| 成人国产av品久久久| 1024视频免费在线观看| 一级毛片我不卡| 91麻豆精品激情在线观看国产 | 国产女主播在线喷水免费视频网站| 欧美日韩一级在线毛片| 各种免费的搞黄视频| 黄片播放在线免费| 亚洲一区中文字幕在线| 欧美日韩亚洲高清精品| 久久久欧美国产精品| 国产成人精品久久二区二区91| 国产色视频综合| 夫妻午夜视频| 亚洲精品国产av成人精品| 999久久久国产精品视频| 美女中出高潮动态图| 精品久久久久久久毛片微露脸 | 亚洲黑人精品在线| 亚洲国产av新网站| 91精品国产国语对白视频| 97人妻天天添夜夜摸| 日本五十路高清| 黄色视频不卡| 亚洲av欧美aⅴ国产| 日韩大片免费观看网站| 男男h啪啪无遮挡| 亚洲三区欧美一区| 日韩视频在线欧美| 色94色欧美一区二区| 久久精品亚洲av国产电影网| 欧美日韩亚洲国产一区二区在线观看 | 国产伦人伦偷精品视频| 91国产中文字幕| 99热网站在线观看| 纯流量卡能插随身wifi吗| 天天操日日干夜夜撸| 亚洲,一卡二卡三卡| 亚洲国产看品久久| 最新在线观看一区二区三区 | 天天操日日干夜夜撸| 日日爽夜夜爽网站| 熟女av电影| 久久久久国产一级毛片高清牌| 婷婷色av中文字幕| 一级,二级,三级黄色视频| 精品少妇内射三级| 91精品三级在线观看| 2018国产大陆天天弄谢| av在线app专区| 国产精品偷伦视频观看了| 午夜福利影视在线免费观看| 国产亚洲欧美在线一区二区| 日本av手机在线免费观看| 欧美在线黄色| 国产成人免费观看mmmm| 韩国精品一区二区三区| 午夜av观看不卡| 免费日韩欧美在线观看| 日韩视频在线欧美| 少妇裸体淫交视频免费看高清 | 亚洲av电影在线观看一区二区三区| av在线老鸭窝| 菩萨蛮人人尽说江南好唐韦庄| 国产亚洲av高清不卡| 欧美日韩亚洲综合一区二区三区_| 人人妻人人添人人爽欧美一区卜| 久久狼人影院| 一本色道久久久久久精品综合| 欧美 日韩 精品 国产| 久久99一区二区三区| 免费一级毛片在线播放高清视频 | 精品视频人人做人人爽| 狂野欧美激情性xxxx| 啦啦啦啦在线视频资源| 看免费成人av毛片| 在线看a的网站| 日韩中文字幕视频在线看片| 国产精品三级大全| 欧美日韩精品网址| 日韩,欧美,国产一区二区三区| 日本一区二区免费在线视频| 欧美国产精品一级二级三级| 最近手机中文字幕大全| 丝瓜视频免费看黄片| 视频区欧美日本亚洲| 日本av免费视频播放| 国产精品三级大全| 国产亚洲av高清不卡| 国产一卡二卡三卡精品| 纵有疾风起免费观看全集完整版| 精品久久蜜臀av无| 一本综合久久免费| 精品亚洲乱码少妇综合久久| 18禁国产床啪视频网站| 免费高清在线观看视频在线观看| 人人澡人人妻人| 一区二区日韩欧美中文字幕| 2018国产大陆天天弄谢| 精品一区二区三卡| 久久久久视频综合| 丝袜喷水一区| 桃花免费在线播放| 亚洲av在线观看美女高潮| 亚洲天堂av无毛| 一级黄片播放器| 国产成人精品无人区| 丰满少妇做爰视频| 午夜福利免费观看在线| 久久久久久久精品精品| 精品少妇黑人巨大在线播放| 欧美久久黑人一区二区| 黄片小视频在线播放| 一级片'在线观看视频| 97在线人人人人妻| 两人在一起打扑克的视频| 999久久久国产精品视频| 亚洲美女黄色视频免费看| 中文乱码字字幕精品一区二区三区| 波野结衣二区三区在线| 99久久99久久久精品蜜桃| 亚洲精品美女久久av网站| 亚洲国产精品一区三区| 黄片小视频在线播放| 国产精品欧美亚洲77777| 国产精品麻豆人妻色哟哟久久| 日韩制服骚丝袜av| 精品人妻1区二区| 日韩伦理黄色片| 999精品在线视频| 国产不卡av网站在线观看| 91麻豆av在线| 国产成人系列免费观看| xxx大片免费视频| 91成人精品电影| 日本wwww免费看| 久久久久久免费高清国产稀缺| 亚洲av日韩在线播放| 夜夜骑夜夜射夜夜干| 黑丝袜美女国产一区| 91精品国产国语对白视频| 一二三四社区在线视频社区8| 首页视频小说图片口味搜索 | 男女之事视频高清在线观看 | 一二三四在线观看免费中文在| 欧美激情 高清一区二区三区| 国产麻豆69| 亚洲精品成人av观看孕妇| 欧美老熟妇乱子伦牲交| 久久精品亚洲av国产电影网| 国产成人免费无遮挡视频| 丝袜喷水一区| 日韩av不卡免费在线播放| 国产精品欧美亚洲77777| 国产亚洲一区二区精品| 亚洲av美国av| 日韩伦理黄色片| 中文字幕精品免费在线观看视频| 日韩电影二区| 两性夫妻黄色片| 啦啦啦视频在线资源免费观看| 国产日韩欧美在线精品| 亚洲国产欧美一区二区综合| av国产精品久久久久影院| 国产xxxxx性猛交| 老司机午夜十八禁免费视频| 中文字幕亚洲精品专区| 久久天躁狠狠躁夜夜2o2o | 亚洲一区二区三区欧美精品| 黄网站色视频无遮挡免费观看| 国产成人影院久久av| 99热全是精品| 青草久久国产| 美女视频免费永久观看网站| 欧美日韩福利视频一区二区| 亚洲精品一区蜜桃| 国产成人免费观看mmmm| 国产日韩欧美在线精品| 男女边吃奶边做爰视频| 热99久久久久精品小说推荐| 久久久久久久久免费视频了| 国产欧美亚洲国产| 亚洲中文日韩欧美视频| 99精国产麻豆久久婷婷| 欧美国产精品va在线观看不卡| 亚洲欧美一区二区三区黑人| 欧美日韩av久久| 老鸭窝网址在线观看| 老司机在亚洲福利影院| 视频在线观看一区二区三区| 天堂俺去俺来也www色官网| 91国产中文字幕| 婷婷色av中文字幕| 视频区图区小说| 男人舔女人的私密视频| 桃花免费在线播放| 男人添女人高潮全过程视频| 美女扒开内裤让男人捅视频| 国产91精品成人一区二区三区 | 女人精品久久久久毛片| 黄网站色视频无遮挡免费观看| 纵有疾风起免费观看全集完整版| 在线 av 中文字幕| 中国美女看黄片| 亚洲五月色婷婷综合| 超色免费av| 婷婷成人精品国产| 久久久精品国产亚洲av高清涩受| 新久久久久国产一级毛片| 成人国语在线视频| 日韩精品免费视频一区二区三区| 国产高清国产精品国产三级| 欧美人与善性xxx| 国产av国产精品国产| 国产在线免费精品| 一本综合久久免费| av网站免费在线观看视频| 亚洲精品成人av观看孕妇| 久久精品亚洲av国产电影网| 中文字幕亚洲精品专区| 色婷婷av一区二区三区视频| 美女午夜性视频免费| 亚洲av国产av综合av卡| 国产在视频线精品| 99国产精品一区二区蜜桃av | 1024视频免费在线观看| 国产精品久久久久久精品古装| 在线观看免费午夜福利视频| 精品亚洲成国产av| 国产成人啪精品午夜网站| 久久毛片免费看一区二区三区| 欧美大码av| 在线精品无人区一区二区三| 亚洲国产欧美网| 久久人妻熟女aⅴ| 亚洲一区中文字幕在线| 在线观看免费日韩欧美大片| 成年av动漫网址| 十分钟在线观看高清视频www| 国产真人三级小视频在线观看| 首页视频小说图片口味搜索 | 日本午夜av视频| 少妇猛男粗大的猛烈进出视频| 超色免费av| av又黄又爽大尺度在线免费看| 女人精品久久久久毛片| 日韩人妻精品一区2区三区| 日韩免费高清中文字幕av| 一区二区三区乱码不卡18| 日日爽夜夜爽网站| 欧美精品啪啪一区二区三区 | 热re99久久精品国产66热6| 中文字幕亚洲精品专区| 看免费成人av毛片| 国产免费又黄又爽又色| 一本大道久久a久久精品| 99久久综合免费| 欧美国产精品va在线观看不卡| 成人免费观看视频高清| 十八禁高潮呻吟视频| 夫妻性生交免费视频一级片| 青草久久国产| 亚洲欧洲精品一区二区精品久久久| 日日摸夜夜添夜夜爱| 美国免费a级毛片| 国产亚洲一区二区精品| 女人被躁到高潮嗷嗷叫费观| 精品人妻一区二区三区麻豆| 人妻 亚洲 视频| 亚洲成人国产一区在线观看 | 亚洲国产欧美一区二区综合| 日韩av在线免费看完整版不卡| 制服诱惑二区| 最新在线观看一区二区三区 | 国产麻豆69| 欧美国产精品一级二级三级| 每晚都被弄得嗷嗷叫到高潮| 久久久亚洲精品成人影院| 午夜福利影视在线免费观看| 国产精品一区二区在线观看99| 热re99久久国产66热| 精品人妻熟女毛片av久久网站| 亚洲精品国产色婷婷电影| 巨乳人妻的诱惑在线观看| 色婷婷av一区二区三区视频| 亚洲精品国产av蜜桃| 国产成人影院久久av| 丝袜脚勾引网站| 国产伦人伦偷精品视频| 国产日韩一区二区三区精品不卡| 在线亚洲精品国产二区图片欧美| 国产精品二区激情视频| 日本vs欧美在线观看视频| 下体分泌物呈黄色| 99精国产麻豆久久婷婷| 午夜日韩欧美国产| 少妇被粗大的猛进出69影院| 满18在线观看网站| 熟女少妇亚洲综合色aaa.| 亚洲欧美日韩另类电影网站| 亚洲视频免费观看视频| 国产成人影院久久av| 色视频在线一区二区三区| 在线亚洲精品国产二区图片欧美| 免费人妻精品一区二区三区视频| 女性被躁到高潮视频| av视频免费观看在线观看| 麻豆av在线久日| 中文字幕av电影在线播放| 男人舔女人的私密视频| 精品少妇黑人巨大在线播放| 国产精品免费大片| 美女中出高潮动态图| 最新在线观看一区二区三区 | 在线观看www视频免费| 欧美激情极品国产一区二区三区| 久久久久国产一级毛片高清牌| 又黄又粗又硬又大视频| 精品人妻一区二区三区麻豆| 久久这里只有精品19| 亚洲五月色婷婷综合| 99精国产麻豆久久婷婷| 在线观看国产h片| 午夜两性在线视频| 亚洲成av片中文字幕在线观看| 老司机午夜十八禁免费视频| 美女国产高潮福利片在线看| 国产成人一区二区在线| 伦理电影免费视频| 乱人伦中国视频| 亚洲激情五月婷婷啪啪| 高潮久久久久久久久久久不卡| 极品少妇高潮喷水抽搐| av福利片在线| 欧美性长视频在线观看| 亚洲精品美女久久av网站| 狂野欧美激情性xxxx| 在线观看www视频免费| 最近中文字幕2019免费版| 中文字幕最新亚洲高清| 国产又爽黄色视频| bbb黄色大片| 婷婷成人精品国产| 国产黄频视频在线观看| 午夜激情av网站| 性色av乱码一区二区三区2| av国产精品久久久久影院| 久久狼人影院| 久久久精品国产亚洲av高清涩受| 18禁黄网站禁片午夜丰满| 一区二区三区乱码不卡18| 欧美av亚洲av综合av国产av| 亚洲欧美一区二区三区黑人| e午夜精品久久久久久久| 欧美人与性动交α欧美软件| 欧美精品高潮呻吟av久久| 久久中文字幕一级| 高清不卡的av网站| 国产一区二区三区综合在线观看| 国产人伦9x9x在线观看| 国产精品久久久av美女十八| 在线观看免费日韩欧美大片| 国产精品熟女久久久久浪| 国产男女超爽视频在线观看| 自拍欧美九色日韩亚洲蝌蚪91| av在线老鸭窝| 菩萨蛮人人尽说江南好唐韦庄| 亚洲av综合色区一区| 国产女主播在线喷水免费视频网站| 亚洲精品国产av成人精品| 国产成人精品在线电影| 一本久久精品| 最近最新中文字幕大全免费视频 | 人人妻人人爽人人添夜夜欢视频| 老司机影院毛片| 99国产精品99久久久久| 人人妻人人澡人人爽人人夜夜| 国语对白做爰xxxⅹ性视频网站| 久久人妻熟女aⅴ| 亚洲五月色婷婷综合| 午夜av观看不卡| 亚洲 国产 在线| 亚洲精品乱久久久久久| 国产淫语在线视频| 久久ye,这里只有精品| 国产午夜精品一二区理论片| 免费久久久久久久精品成人欧美视频| 欧美av亚洲av综合av国产av| 这个男人来自地球电影免费观看| 久久青草综合色| 91麻豆精品激情在线观看国产 | 纯流量卡能插随身wifi吗| 国产黄频视频在线观看| 老司机靠b影院| 这个男人来自地球电影免费观看| 曰老女人黄片| 国产成人精品久久久久久| 少妇猛男粗大的猛烈进出视频| 成年人免费黄色播放视频| 99久久综合免费| 国产成人精品久久久久久| 中文字幕精品免费在线观看视频| 在线看a的网站| 老司机影院成人| 国产精品 国内视频| 水蜜桃什么品种好| 亚洲激情五月婷婷啪啪| 侵犯人妻中文字幕一二三四区| 中国美女看黄片| 亚洲欧美激情在线| 国产精品偷伦视频观看了| 女人被躁到高潮嗷嗷叫费观| 精品一区二区三区四区五区乱码 | 美女高潮到喷水免费观看| 亚洲精品av麻豆狂野| 九草在线视频观看| 99久久99久久久精品蜜桃| 满18在线观看网站| 亚洲欧美激情在线| 精品熟女少妇八av免费久了| 男女午夜视频在线观看| 国产亚洲欧美精品永久| 考比视频在线观看| 人人澡人人妻人|