• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于偽實(shí)體數(shù)據(jù)增強(qiáng)的高精準(zhǔn)率醫(yī)學(xué)領(lǐng)域?qū)嶓w關(guān)系抽取

    2024-03-21 02:25:06郭安迪李天瑞
    計(jì)算機(jī)應(yīng)用 2024年2期
    關(guān)鍵詞:特征模型

    郭安迪,賈 真,李天瑞,2*

    (1.西南交通大學(xué) 計(jì)算機(jī)與人工智能學(xué)院,成都 611756;2.綜合交通大數(shù)據(jù)應(yīng)用技術(shù)國家工程實(shí)驗(yàn)室(西南交通大學(xué)),成都 611756)

    0 引言

    實(shí)體關(guān)系抽取屬于信息抽取的關(guān)鍵子任務(wù)之一,它從非結(jié)構(gòu)化的文本中識別出實(shí)體并確立實(shí)體之間的關(guān)系。在醫(yī)療領(lǐng)域,實(shí)體關(guān)系抽取被廣泛應(yīng)用于結(jié)構(gòu)化信息處理、構(gòu)建知識圖譜和其他下游任務(wù)。

    與通用領(lǐng)域相比,醫(yī)學(xué)領(lǐng)域的信息抽取任務(wù)對錯誤信息的容忍度更低,對模型的精準(zhǔn)率要求更高。然而,醫(yī)學(xué)領(lǐng)域的實(shí)體和關(guān)系密度更大,約為通用領(lǐng)域7 倍[1],很多與文本語義不相關(guān)的醫(yī)學(xué)名詞將被識別為假正例的實(shí)體,且不同關(guān)系之間可能會共用主語或賓語,主語和賓語中一旦出現(xiàn)假正例將影響多組關(guān)系分類,這將進(jìn)一步放大由實(shí)體抽取錯誤帶來的誤差傳遞。另外,醫(yī)療的關(guān)系種類多且易混淆,如疾病類型的實(shí)體之間就可能存在“癥狀相關(guān)”“轉(zhuǎn)化相關(guān)”“病發(fā)癥”“病理分型”等多種不同關(guān)系,若關(guān)系分類訓(xùn)練的負(fù)樣本不足則很難獲得較好的精準(zhǔn)率。在實(shí)體抽取方面,醫(yī)學(xué)領(lǐng)域有很多長實(shí)體,存在實(shí)體嵌套、邊界難以劃分的問題。例如,“免疫功能低下患者”可能被錯誤識別為“免疫力”或“免疫力功能低下”。

    根據(jù)實(shí)體和關(guān)系抽取任務(wù)的表示層是否共用,實(shí)體關(guān)系抽取模型可以分為實(shí)體關(guān)系聯(lián)合抽取和實(shí)體關(guān)系流水線抽取兩大類,其中流水線抽取模型可以分別針對實(shí)體和關(guān)系任務(wù)訓(xùn)練最優(yōu)的編碼器,從而取得較好的效果[2];然而,此類模型存在沒有考慮實(shí)體抽取錯誤導(dǎo)致的誤差疊加和錯誤層級傳播的問題。

    本文針對實(shí)體關(guān)系流水線抽取框架存在的誤差傳遞問題,提出用于進(jìn)行數(shù)據(jù)增強(qiáng)的關(guān)系負(fù)例生成模塊,同時針對醫(yī)學(xué)文本特點(diǎn)對實(shí)體抽取和關(guān)系抽取進(jìn)行優(yōu)化。本文的主要工作如下:

    1)關(guān)系負(fù)例生成模塊。為了緩解誤差傳遞,本文通過數(shù)據(jù)增強(qiáng)方法模擬生成容易引起誤差傳遞的關(guān)系負(fù)例。具體地,利用關(guān)系負(fù)例生成模塊中的基于欠采樣的偽實(shí)體生成模型(Under-Sampling-based Pseudo-entity Generation Model,USPGM)生成可以混淆關(guān)系抽取模型的“偽實(shí)體”,再結(jié)合關(guān)系數(shù)據(jù)增強(qiáng)策略對關(guān)系抽取任務(wù)進(jìn)行數(shù)據(jù)增強(qiáng)。USPGM 采用基于片段的解碼方式,可以處理不同粒度的實(shí)體,并利用懸浮標(biāo)記[3]提高偽實(shí)體生成的F1 值。適當(dāng)?shù)那凡蓸勇士梢栽诒WC一定精準(zhǔn)率的情況下大幅增強(qiáng)召回能力,從而滿足生成多樣偽實(shí)體的目的。此外,本文還提出了三種數(shù)據(jù)增強(qiáng)生成策略,以解決主語賓語顛倒、主語賓語邊界錯誤和關(guān)系分類錯誤等問題,提高關(guān)系抽取階段鑒別錯誤關(guān)系的能力。

    2)基于Transformer 特征讀取的實(shí)體抽取模型(Transformer Feature Reader based entity extraction Model,TFRM)。本文針對醫(yī)學(xué)實(shí)體密集、短語形長實(shí)體較多且邊界難以劃分的問題,選用Transformer[4]網(wǎng)絡(luò)作為實(shí)體類別特征讀取器,利用解碼器模塊的交叉注意力計(jì)算單元計(jì)算實(shí)體類別特征對于序列特征向量的注意力,強(qiáng)化原有的向量表示,增強(qiáng)對整體類別語義信息的捕捉能力。與基于片段的模型相比,TFRM 采用的序列解碼方式能更好地平衡醫(yī)學(xué)實(shí)體嵌套造成的粗粒度長實(shí)體和細(xì)粒度短實(shí)體邊界難以區(qū)分的問題,提升實(shí)體抽取階段的精準(zhǔn)率。

    3)基于懸浮標(biāo)記關(guān)系抽取模型(Levitated-Marker-based relation extraction Model,LMM)。數(shù)據(jù)增強(qiáng)在緩解誤差傳遞的同時也帶來了訓(xùn)練時間成倍增加的問題,若仍采用傳統(tǒng)的關(guān)系抽取模型,即使利用GPU 加速運(yùn)算,也幾乎無法完成正常的調(diào)參工作。為了解決這個問題,本文采用LMM,在保證精準(zhǔn)率的前提下,大幅減少了模型訓(xùn)練所需的時間,提高了推理速度。

    1 相關(guān)工作

    1.1 實(shí)體關(guān)系抽取

    早期實(shí)體關(guān)系抽取的工作主要依靠模板和詞典完成,這類工作通常由領(lǐng)域?qū)<医Y(jié)合專業(yè)知識設(shè)計(jì)模板,以匹配實(shí)體和關(guān)系[5-7]。然而,這種方法的精準(zhǔn)率嚴(yán)重依賴詞典和模板設(shè)計(jì)的質(zhì)量,靈活性差,召回率較低。隨著傳統(tǒng)機(jī)器學(xué)習(xí)技術(shù)的快速發(fā)展,以特征工程為核心的機(jī)器學(xué)習(xí)模型被廣泛應(yīng)用于實(shí)體關(guān)系抽取領(lǐng)域[8-11]。這些模型將實(shí)體識別和關(guān)系抽取轉(zhuǎn)化為依賴特征集與核函數(shù)的分類任務(wù);但性能效果仍然依賴于人工設(shè)計(jì)的特征工程和核函數(shù),在模型層面上仍需要大量人力。近年來,深度學(xué)習(xí)方法被大量應(yīng)用于實(shí)體關(guān)系抽取工作。深度神經(jīng)網(wǎng)絡(luò)架構(gòu)中的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)是解決實(shí)體關(guān)系抽取的兩大主流模型。CNN 模型可以獲取局部特征,RNN 模型則具有捕捉序列前后依賴的能力。與傳統(tǒng)方法相比,基于深度學(xué)習(xí)的方法無須進(jìn)行繁瑣的特征工程,可自動從領(lǐng)域文本中提取文本的語義表示。Li 等[12]通過結(jié)合依存句法分析和雙向長短時記憶循環(huán)神經(jīng)網(wǎng)絡(luò)(Bi-directional Long Short-Term Memory RNN,Bi-LSTM-RNN)模型完成實(shí)體關(guān)系抽??;Bekoulis 等[13]構(gòu)建了基于對抗訓(xùn)練的Bi-LSTM(Bi-directional Long Short-Term Memory)模型,提高了抽取的魯棒性;張世豪等[14]在Bi-LSTM 和CNN 的基礎(chǔ)上提出了融合多通道自注意力機(jī)制的中文醫(yī)學(xué)實(shí)體關(guān)系抽取模型。

    預(yù)訓(xùn)練模型可以通過自監(jiān)督的方式從海量文本中獲取知識,并能考慮上下文為文本提供動態(tài)的向量表示,該類模型顯著提升了自然語言處理領(lǐng)域模型的性能。BERT(Bidirectional Encoder Representation from Transformer)[15]和ELMo(Embeddings from Language Models)[16]是該類模型的代表,被廣泛應(yīng)用于實(shí)體關(guān)系抽取。Luo 等[17]使用ELMo 作為表示層,提出了一種基于注意力機(jī)制的模型;Zhao 等[18]通過閱讀理解的方式將實(shí)體關(guān)系抽取轉(zhuǎn)化為序列預(yù)測問題;Eberts 等[19]提出了基于片段的端到端實(shí)體關(guān)系聯(lián)合抽取模型SpERT(Span-based Entity and Relation Transformer),通過拼接預(yù)訓(xùn)練模型向量表示、實(shí)體大小嵌入表示、關(guān)系上下文特征對實(shí)體片段和關(guān)系進(jìn)行分類;Shen 等[20]在SpERT 的基礎(chǔ)上加入了觸發(fā)器感知流捕獲實(shí)體和關(guān)系之間的聯(lián)系,并使用圖神經(jīng)網(wǎng)絡(luò)引入了語法依賴等額外信息,進(jìn)一步提高了模型的性能;Zhong 等[2]提出了一種實(shí)體關(guān)系流水線處理模型,分別訓(xùn)練實(shí)體和關(guān)系的預(yù)訓(xùn)練模型,實(shí)驗(yàn)證明聯(lián)合抽取模型可能會混淆預(yù)訓(xùn)練模型的表示,流水線式的模型性能更佳;Ye 等[3]使用面向相鄰實(shí)體的填充式懸浮標(biāo)記,將相同起始位置的片段的懸浮標(biāo)記填充在一條語句中,以獲取片段之間的聯(lián)系,進(jìn)一步提高了實(shí)體關(guān)系抽取的性能。

    1.2 數(shù)據(jù)增強(qiáng)

    數(shù)據(jù)增強(qiáng)(Data Augmentation,DA)是一種從有限的數(shù)據(jù)挖掘更多數(shù)據(jù)以擴(kuò)展訓(xùn)練數(shù)據(jù)集的技術(shù)。它用于克服訓(xùn)練數(shù)據(jù)不足、緩解數(shù)據(jù)偏見和解決樣本不平衡,在深度學(xué)習(xí)的各個領(lǐng)域都得到了廣泛的應(yīng)用[21]。本文使用DA 技術(shù)解決容易混淆關(guān)系抽取模型的負(fù)樣本數(shù)據(jù)不足的問題,緩解實(shí)體關(guān)系抽取過程中的誤差傳遞。

    數(shù)據(jù)增強(qiáng)主要分為兩類:基于規(guī)則和基于模型。

    基于規(guī)則的數(shù)據(jù)增強(qiáng)方法的代表是:Wei等[22]提出的簡單數(shù)據(jù)增強(qiáng)(Easy Data Augmentation,EDA)方法,通過對文本進(jìn)行隨機(jī)替換、插入、交換和刪除等操作增加樣本數(shù);Abdollahi等[23]提出了基于本體引導(dǎo)的數(shù)據(jù)增強(qiáng)方法,使用統(tǒng)一醫(yī)學(xué)語言系統(tǒng)(Unified Medical Language System,UMLS)識別句子中的醫(yī)學(xué)本體,并將本體替換成詞典中的同義詞,豐富訓(xùn)練數(shù)據(jù);Kang等[24]同樣使用UMLS結(jié)合EDA實(shí)現(xiàn)實(shí)體抽取。

    基于模型的數(shù)據(jù)增強(qiáng)方法通過神經(jīng)網(wǎng)絡(luò)模型直接生成訓(xùn)練樣本或參與樣本生成的過程。直接生成訓(xùn)練樣本的典型例子是Sennrich 等[25]提出的基于“回譯”的數(shù)據(jù)增強(qiáng)的方法,即將序列翻譯成另一種語言后再翻譯回原始語言,從而直接生成樣本。參與樣本生成的數(shù)據(jù)增強(qiáng)模型更常見,例如Wang 等[26]提出的基于強(qiáng)化學(xué)習(xí)的數(shù)據(jù)增強(qiáng)方法,通過強(qiáng)化學(xué)習(xí)訓(xùn)練一個生成器生成數(shù)據(jù)增強(qiáng)動作序列,以解決傳統(tǒng)數(shù)據(jù)增強(qiáng)中神經(jīng)網(wǎng)絡(luò)模型與數(shù)據(jù)增強(qiáng)模塊之間缺乏聯(lián)系的問題。Kobayashi 等[27]通過將單詞替換為根據(jù)上下文語言模型分布得到的單詞來生成增強(qiáng)示例。Yang 等[28]從預(yù)訓(xùn)練的語言模型生成的示例中選擇信息量最大和最多樣化的集合進(jìn)行擴(kuò)充。Quteineh 等[29]類似地使用GPT-2 標(biāo)生成標(biāo)記,證明了DA 方法的有效性。

    2 本文模型

    2.1 模型背景

    2.1.1 任務(wù)介紹

    醫(yī)學(xué)實(shí)體關(guān)系抽取任務(wù)的輸入是醫(yī)學(xué)文本,在經(jīng)過標(biāo)記解析器分詞后得到長度為n的標(biāo)記序列X={x0,x1,…,xn},再由預(yù)訓(xùn)練模型得到特征表示H={h0,h1,…,hn}。實(shí)體關(guān)系流水線抽取可分解為實(shí)體抽取和關(guān)系分類兩個子任務(wù)。

    實(shí)體抽取 給定實(shí)體類別集合E,實(shí)體抽取任務(wù)是從標(biāo)記序列X中提取實(shí)體片段及其類別的集合Y={(si,ei),si∈S,ei∈E},其中實(shí)體片段集合S用于標(biāo)識實(shí)體位置。實(shí)體抽取任務(wù)可以分為基于序列標(biāo)簽預(yù)測的實(shí)體抽取和基于實(shí)體片段的實(shí)體抽取兩種類型。

    基于序列標(biāo)簽預(yù)測的實(shí)體抽取首先對序列中的每個標(biāo)記預(yù)測它的類別,得到標(biāo)簽序列O={o0,o1,…,on},然后通過解碼算法獲得實(shí)體片段和實(shí)體類型,并輸出實(shí)體集合Y=decoder(O)?;趯?shí)體片段的實(shí)體抽取任務(wù)是先定義一個最長的實(shí)體片段長度l,再枚舉出標(biāo)記序列X中所有可能的片段集合S,對于每個片段si∈S,預(yù)測它的實(shí)體類型ye。

    關(guān)系分類 記R為預(yù)定義的關(guān)系抽取框架,關(guān)系抽取任務(wù)是對Ssub×Sobj中的每一組候選實(shí)體片段對(si,sj)預(yù)測關(guān)系類型yr∈R,該任務(wù)的輸出為關(guān)系三元組集合T={(si,sj,yr):si∈Ssub,sj∈Sobj,yr∈R}。

    2.1.2 懸浮標(biāo)記

    標(biāo)記是指通過標(biāo)記解析器拆分字符串后得到的符號,每個標(biāo)記都被分配唯一的ID。例如,將“Miller-Fisher 綜合征”經(jīng)過標(biāo)記解析器后,可以得到標(biāo)記[“Miller”,“ -”,“ Fish”,“##er”,“綜”,“合”,“征”]。除了由文本生成的標(biāo)記,還有一類特殊標(biāo)記,這些標(biāo)記不與實(shí)際輸入建立映射,而是額外加入模型序列,用于提醒預(yù)訓(xùn)練模型捕捉任務(wù)所關(guān)注的信息。例如,在BERT 中,規(guī)定使用“[CLS]”進(jìn)行全局預(yù)測,“[SEP]”用于分隔序列。本文中定義了與任務(wù)相關(guān)的特殊標(biāo)記,例如在后文的USPGM 實(shí)體抽取模型中,使用標(biāo)記實(shí)體頭,標(biāo)記實(shí)體尾;在LMM 掩碼示意圖中,使用x,x標(biāo)記主語標(biāo)記賓語。標(biāo)記可以被插入到原始輸入中實(shí)體所在位置的前后,以便預(yù)訓(xùn)練模型關(guān)注該位置;但是由于標(biāo)記的引入對原序列具有侵入性,因此每條輸入語句只能對應(yīng)一組標(biāo)記,如果要枚舉所有主語賓語組合,則需要額外生成大量的輸入序列。

    懸浮標(biāo)記可以讓模型盡早接觸實(shí)體的位置信息,解決輸入序列過多的問題。具體地,為了避免對原始輸入造成侵入,懸浮標(biāo)記被打包到一起,拼接在原始序列的末尾。懸浮標(biāo)記通過和它所關(guān)注的原始輸入的標(biāo)記共享相同的位置ID,提醒模型關(guān)注原輸入相關(guān)位置。

    2.2 模型主體

    本文提出的實(shí)體關(guān)系抽取框架共分為3 個部分:1)基于Transformer 特征讀取的實(shí)體抽取模型;2)關(guān)系負(fù)例生成模塊;3)基于懸浮標(biāo)記關(guān)系抽取模型。

    整體模型流程示意圖如圖1 所示。在實(shí)線指示的訓(xùn)練階段,首先訓(xùn)練實(shí)體抽取模型TFRM 和USPGM。實(shí)體抽取模型訓(xùn)練結(jié)束后,再使用USPGM 模塊生成用于數(shù)據(jù)增強(qiáng)的偽實(shí)體,并根據(jù)數(shù)據(jù)增強(qiáng)策略生成偽關(guān)系訓(xùn)練樣本。最后LMM 使用數(shù)據(jù)增強(qiáng)后的訓(xùn)練樣本完成關(guān)系分類模型的訓(xùn)練。在虛線指示的測試和抽取階段,LMM 對TFRM 抽取得到的實(shí)體對預(yù)測關(guān)系。

    圖1 整體模型流程示意圖Fig.1 Schematic diagram of overall model process

    2.2.1 基于Transformer特征讀取的實(shí)體抽取模型

    為了更好地捕獲主語頭尾和賓語頭尾的特征,本文設(shè)計(jì)一種基于Transformer 特征讀取的實(shí)體抽取模型。該模型借助Transformer 解碼器單元對實(shí)體類別特征進(jìn)行讀取操作,從而分別獲取相應(yīng)類別的全局特征,并用這些特征增強(qiáng)原有的序列表示。

    TFRM 模塊的訓(xùn)練分為兩個階段。如圖2 虛線所示的第一個階段僅包括特征寫入(更新),目的是優(yōu)化主語頭、主語尾、賓語頭、賓語尾的類別特征表示;第二個階段為特征讀取階段,在該階段繼續(xù)更新類別特征,并通過Transformer 解碼器的交叉注意力計(jì)算單元讀取不同實(shí)體的特征,以進(jìn)一步強(qiáng)化相關(guān)的特征表示。

    圖2 TFRM示意圖Fig.2 Schematic diagram of TFRM

    特征寫入(更新)階段 在圖2 實(shí)線所示的特征寫入階段將實(shí)體分類器的權(quán)重視為實(shí)體的特征,由交叉熵?fù)p失函數(shù)更新主語頭尾、賓語頭尾的特征:

    其中:L代表實(shí)體序列預(yù)測的損失函數(shù),lr代表學(xué)習(xí)率,p(yi=e) 表示第i個標(biāo)記預(yù)測結(jié)果屬于類別e的概率,e∈E=

    特征讀取階段 本文采用N層TFRU 結(jié)構(gòu)讀取實(shí)體類別特征的信息。每層結(jié)構(gòu)由交叉注意力網(wǎng)絡(luò)和全連接前饋神經(jīng)網(wǎng)絡(luò)兩個子層組成。各子層之間采用殘差連接和正則函數(shù)進(jìn)行連接。

    SubLayer 在TFRU 單元中指多頭交叉注意力網(wǎng)絡(luò)或全連接前饋網(wǎng)絡(luò)。其中交叉注意力網(wǎng)絡(luò)的計(jì)算公式如下:

    多頭交叉注意力由u個頭的注意力拼接后,再通過一個權(quán)重為W全連接網(wǎng)絡(luò)計(jì)算得到,其中[?。築]是向量的拼接操作。

    將讀取到的特征HTFRU和原序列標(biāo)記特征HBERT取平均得到序列的向量表示HMEAN。再經(jīng)由兩個線性變換與ReLU激活函數(shù)構(gòu)成前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural Network,F(xiàn)NN)獲得序列最終的特征表示:

    解碼 對于TRFU 模塊得到的序列特征,本文使用參數(shù)為F的全連接層得到序列的標(biāo)簽得分。給定閾值α,當(dāng)VScore>α?xí)r,認(rèn)為該標(biāo)記屬于e類型。

    解碼算法主要基于貪心的思想。先根據(jù)實(shí)體頭的預(yù)測序列找出實(shí)體片段的起始位置,再從該位置開始遍歷相應(yīng)類別的實(shí)體尾預(yù)測序列,以尋找該實(shí)體片段的結(jié)束位置。在遍歷實(shí)體尾預(yù)測序列的過程中,若發(fā)現(xiàn)了另一個實(shí)體片段的起始標(biāo)記,則舍棄當(dāng)前查詢的實(shí)體片段。具體步驟如下:

    輸入 實(shí)體頭預(yù)測標(biāo)記序列Ohead,實(shí)體尾預(yù)測標(biāo)記序列Otail;

    2.2.2 關(guān)系負(fù)例自動生成模塊

    實(shí)體抽取負(fù)例欠采樣 欠采樣是處理非平衡分類問題時的常用手段,通過對數(shù)量多的一類樣本進(jìn)行少量隨機(jī)選擇,使樣本變得平衡,從而使模型更好地關(guān)注缺少樣本的類別。本文通過對實(shí)體片段的負(fù)例進(jìn)行欠采樣,使得模型更傾向于預(yù)測正例,以獲得更多的偽實(shí)體。這些偽實(shí)體將在后續(xù)的數(shù)據(jù)增強(qiáng)策略中使用,用于生成關(guān)系訓(xùn)練樣本。

    在圖3 的例子中,通過枚舉所有可能成為實(shí)體的片段得到共計(jì)個候選實(shí)體片段,其中實(shí)體片段正例樣本集合為Spos,對應(yīng)圖3 中使用條紋填充的片段。負(fù)例樣本集合為Sneg=S/Spos,對應(yīng)圖3 中未使用條紋填充的片段。通過對負(fù)例樣本集合隨機(jī)采樣得到負(fù)例采樣集合Ssample=RandomSampling(Sneg)。最終的實(shí)體訓(xùn)練樣本集合為正例集合與采樣集合的并集,Strain=Spos+Ssanple。

    圖3 USPGM示意圖Fig.3 Schematic diagram of USPGM

    基于欠采樣的偽實(shí)體生成模型 與基于序列的TFRM不同,USPGM 屬于基于片段的實(shí)體抽取模型,支持識別不同粒度的嵌套實(shí)體。為了讓預(yù)訓(xùn)練模型能提前意識到實(shí)體片段的存在,可將對應(yīng)實(shí)體片段的懸浮標(biāo)記拼接到原始標(biāo)記序列后。

    將帶有懸浮標(biāo)簽的序列送入與訓(xùn)練模型后得到對應(yīng)的特征表示H。實(shí)體片段的特征hsipan由頭尾位置處的標(biāo)記和共享位置的懸浮標(biāo)記的特征表示拼接到一起得到,并使用一個全連接層得到該實(shí)體片段的類別。

    偽關(guān)系生成策略 數(shù)據(jù)增強(qiáng)的目的是解決關(guān)系分類模型中誤差傳遞導(dǎo)致的假正例問題,并提高模型的精準(zhǔn)率。造成假正例誤差傳遞的關(guān)系組合有以下幾種:主語賓語位置顛倒、主語或賓語邊界不正確、關(guān)系與句子語義無關(guān),以及關(guān)系分類錯誤。

    在沒有數(shù)據(jù)增強(qiáng)的情況下,關(guān)系抽取的訓(xùn)練樣本僅包括人工標(biāo)注(ground truth,gt)主語和人工標(biāo)注賓語的笛卡爾乘積,其中T指的是關(guān)系三元組。

    本文提供的3 種數(shù)據(jù)增強(qiáng)策略如下。

    1)為了提高模型識別主語賓語顛倒的能力,可以使用逆關(guān)系進(jìn)行數(shù)據(jù)增強(qiáng),即將人工標(biāo)注中的主語作為賓語,將賓語作為主語構(gòu)建新的負(fù)例訓(xùn)練樣本。

    2)進(jìn)一步地,對于主語賓語顛倒的情況,還可以為逆關(guān)系添加標(biāo)簽Rreverse。例如,在三元組(痛風(fēng)主語,鑒別診斷關(guān)系,RA賓語)的逆關(guān)系上添加偽標(biāo)簽“逆-鑒別診斷關(guān)系”,從而獲得新的訓(xùn)練樣本(R A主語,逆-鑒別診斷關(guān)系,痛風(fēng)賓語),記作Tgt_reverse_label。

    3)主語或賓語邊界不正確、關(guān)系分類錯誤的情況通常是由于負(fù)例樣本不足導(dǎo)致的,因此,利用USPGM 生成的偽主語和偽賓語的笛卡爾乘積生成偽關(guān)系樣本:

    2.2.3 基于懸浮標(biāo)記關(guān)系抽取模型

    如表1 所示,使用增廣策略進(jìn)行訓(xùn)練后的訓(xùn)練樣本數(shù)是原模型的7 倍,給模型訓(xùn)練帶來時間和資源上的浪費(fèi)。然而,醫(yī)療文本常圍繞同一實(shí)體介紹知識,通常多個賓語共用同一個主語。從表1 可以看出,賓語數(shù)大于主語數(shù),且一段文本中通常只有一個主語。因此,只將主語的實(shí)際標(biāo)記x,x插入原始輸入中,而對于相同主語的賓語,則使用懸浮標(biāo)記以提高計(jì)算速度。

    表1 實(shí)驗(yàn)中使用的CMeIE數(shù)據(jù)集信息Tab.1 Information of CMeIE dataset used in experiment

    同時,為了避免懸浮標(biāo)記對原輸入帶來噪聲,或者不同賓語的懸浮標(biāo)記之間產(chǎn)生噪聲,在預(yù)訓(xùn)練模型處采用有向注意力掩碼。每個懸浮標(biāo)記只會對它相匹配的懸浮標(biāo)記可見,而不會對正文的字符或其他懸浮標(biāo)記可見。LMM 中的掩碼矩陣如圖4 所示。

    圖4 LMM中的注意力掩碼矩陣Fig.4 Attention mask matrix in LMM

    主語和賓語的特征表示分別用與它對應(yīng)標(biāo)記的頭尾特征表示拼接得到,使用全連接層分別得到它們的關(guān)系分類得分,關(guān)系分類的最終得分為主語和賓語得分之和。

    3 實(shí)驗(yàn)與結(jié)果分析

    本文的實(shí)驗(yàn)評估在CBLUE(Chinese Biomedical Language Understanding Evaluation)的 CMeIE(Chinese Medical Information Extraction)數(shù)據(jù)集(數(shù)據(jù)集網(wǎng)址https://tianchi.aliyun.com/dataset/95414)上進(jìn)行。CBLUE 是國內(nèi)首個醫(yī)療信息處理領(lǐng)域公開的基準(zhǔn)數(shù)據(jù)集,CMeIE 是CBLUE 數(shù)據(jù)集中的一個子任務(wù),該數(shù)據(jù)集是由2 位來自三甲醫(yī)院的專家和20名碩博研究生進(jìn)行標(biāo)注的醫(yī)學(xué)領(lǐng)域數(shù)據(jù)集,其中設(shè)計(jì)了53 類關(guān)系。表1提供了CMeIE數(shù)據(jù)集的詳細(xì)數(shù)據(jù)分布情況。

    3.1 數(shù)據(jù)處理

    由于CMeIE 只提供關(guān)系三元組信息,沒有提供實(shí)體在句子中的具體位置,需要先通過預(yù)處理確定實(shí)體具體位置。默認(rèn)從左到右找到第一個匹配實(shí)體位置作為標(biāo)準(zhǔn)答案。在經(jīng)過標(biāo)記解析器分詞之后,截取最大標(biāo)記序列長度到128。從訓(xùn)練集中剔除超過該長度實(shí)體和包含該實(shí)體的關(guān)系樣本,但測試時仍會考慮這部分?jǐn)?shù)據(jù)。

    3.2 參數(shù)設(shè)置及實(shí)驗(yàn)環(huán)境

    本文模型均使用BERT-base-Chinese[30]作為預(yù)訓(xùn)練模型,采用AdamW 作為優(yōu)化器,并用預(yù)熱策略進(jìn)行訓(xùn)練。對于基于實(shí)體片段的模型需要設(shè)置最大片段長度。如圖5 所示,大多數(shù)實(shí)體的長度集中在1~10。本文將最大實(shí)體片段長度設(shè)為20,可以覆蓋99.96%的實(shí)體。對于TFRM,TFRU 層數(shù)設(shè)置為2,特征讀取開始的Epoch 設(shè)置為5。其他具體實(shí)驗(yàn)參數(shù)如表2 所示。

    表2 實(shí)驗(yàn)參數(shù)詳情Tab.2 Details of experimental parameters

    3.3 評價(jià)指標(biāo)

    本文采用精確率P(Precision)、召回率R(Recall)以及F1(F1 值)作為實(shí)體關(guān)系抽取的評價(jià)指標(biāo)。這些指標(biāo)在CMeIE的dev 數(shù)據(jù)集上通過微平均的方式計(jì)算,具體公式如下:

    其中:TP指正確識別的實(shí)體或關(guān)系數(shù);FP表示預(yù)測為某一類型但識別錯誤的實(shí)體或關(guān)系數(shù),即假正例;FN表示未能預(yù)測出的實(shí)體或關(guān)系數(shù)。

    3.4 實(shí)驗(yàn)結(jié)果

    為了驗(yàn)證本文模型的有效性,將它與基于預(yù)訓(xùn)練的實(shí)體關(guān)系抽取基線模型進(jìn)行對比。

    3.4.1 基線模型

    1)SpERT[19]是一種實(shí)體關(guān)系聯(lián)合抽取模型。在實(shí)體抽取模塊中將實(shí)體片段的最大池化特征、長度特征以及“[CLS]”標(biāo)記的全局特征拼接起來,作為實(shí)體的特征表示。在關(guān)系抽取部分,首先通過實(shí)體篩選器篩選出得分大于閾值的主語和賓語,然后將主語和賓語的最大池化特征、長度特征和兩個實(shí)體之間的上下文特征拼接起來,作為這組關(guān)系的特征表示。

    2)PURE(Princeton University Relation Extraction)系 統(tǒng)[2]屬于流水線式實(shí)體關(guān)系抽取模型。在實(shí)體抽取部分,將實(shí)體的頭尾字符特征拼接起來,并通過一個兩層的前饋網(wǎng)絡(luò)進(jìn)行分類,從而得到實(shí)體的表示;在關(guān)系抽取部分,在主語和賓語的位置同時插入標(biāo)記,并將標(biāo)記處的特征拼接起來,再通過全連接層進(jìn)行分類。

    3)PL-Marker(Packed Levitated Marker)[3]屬于流水線式的實(shí)體關(guān)系抽取模型。在實(shí)體抽取部分,相同起始位置的實(shí)體片段的懸浮標(biāo)簽被打包在一起作為一個樣例,實(shí)體片段頭尾和對應(yīng)懸浮標(biāo)記拼接的特征被用于分類。在關(guān)系抽取部分,使用主語處的實(shí)標(biāo)記和賓語的懸浮標(biāo)記進(jìn)行分類。

    4)CBLUE[31]同樣屬于流水線式的實(shí)體關(guān)系抽取模型。其中實(shí)體抽取任務(wù)被視為序列預(yù)測任務(wù),對每個標(biāo)記的特征使用全連接分類器進(jìn)行預(yù)測。而關(guān)系抽取任務(wù)和PURE 的處理方式類似。

    3.4.2 性能提升

    實(shí)體關(guān)系抽取的實(shí)驗(yàn)結(jié)果如表3 所示,本文模型相較于之前的工作性能顯著提高。相較于基線模型PL-Marker,實(shí)體抽取部分的TFRM 的F1 值提升了2.26%;而實(shí)體關(guān)系抽取整體F1 值提升了5.45%,精準(zhǔn)率提升了15.62%。這些結(jié)果表明,通過數(shù)據(jù)增強(qiáng),模型能夠更好地解決誤差傳遞問題,并針對實(shí)體抽取中得到的錯誤實(shí)體做出更加精準(zhǔn)的判斷。

    表3 各模型總體實(shí)驗(yàn)結(jié)果比較 單位:%Tab.3 Comparison of experimental results among different models unit:%

    3.5 消融實(shí)驗(yàn)

    為了更深入地分析本文模型各個組件的有效性,進(jìn)行了消融實(shí)驗(yàn)。為了避免其他因素對模型的影響,本文在所有的消融實(shí)驗(yàn)中未提及的參數(shù)與表2 中的設(shè)置保持一致。

    3.5.1 負(fù)例欠采樣

    在實(shí)體抽取階段,不同的負(fù)采樣率同樣會影響模型的效果。根據(jù)圖6 采樣數(shù)-模型性能曲線,隨著采樣數(shù)的增加,模型的精準(zhǔn)率和F1 值逐漸提高,但是召回率卻不斷降低。這表明可以通過欠采樣的方式提高模型的召回能力,生成盡可能全面的偽實(shí)體。最終選擇采樣數(shù)為128 的模型生成偽實(shí)體。在該采樣數(shù)下,模型的召回率較高,且精準(zhǔn)率也超過了60%,不會引入過多低質(zhì)量的偽實(shí)體。

    圖6 采樣數(shù)-模型性能折線圖Fig.6 Sampling number-model performance line chart

    3.5.2 TFRM

    為了驗(yàn)證實(shí)體抽取模型TFRM 的有效性,比較了使用相同關(guān)系抽取模型但不同實(shí)體抽取模型的效果。如表4 所示,相較于PURE、PL-Marker 和CBLUE 提出的模型,本文提出的TFRM 在F1 值上分別提高了3.15、2.03 和0.61 個百分點(diǎn)。對于TFRM 的核心模塊TFRU,由表5 可見,添加該模塊后模型的精準(zhǔn)率有了顯著提高,對于使用不同層數(shù)TFRU 的模型,使用2 層的模型召回率較高,且最終應(yīng)用于關(guān)系分類模型的效果較好。值得注意的是,對比未使用TFRU 的模型,雖然模型的精準(zhǔn)率得到了較大程度的提升,但最終對于關(guān)系分類精準(zhǔn)率的提升的貢獻(xiàn)并沒有特別顯著。可能的原因是本文提出的數(shù)據(jù)增強(qiáng)模塊提高了關(guān)系分類模型鑒別實(shí)體抽取部分錯誤信息的能力。

    表4 實(shí)體抽取模型實(shí)驗(yàn)結(jié)果比較 單位:%Tab.4 Comparison of experimental results of entity extraction models unit:%

    表5 TFRU模塊參數(shù)對比實(shí)驗(yàn)結(jié)果 單位:%Tab.5 Comparison experiment results of TFRU module parameters unit:%

    TFRU 注意力模塊可以為不同實(shí)體類型提供針對性的全局信息。以圖7 所示的2 層TFRU 模塊的權(quán)重分布情況為例,layer0 用于獲取低層次的全局上下文信息,而第1 層的權(quán)重分布差異較大,能夠針對實(shí)體類型的不同關(guān)注句子中不同的位置。通過注意力可視化可以發(fā)現(xiàn)模型能夠根據(jù)上下文信息有效地去除不相關(guān)實(shí)體(圖7(a)所示)。如果不使用TFRU,對于賓語,會額外得到“肝功能障礙”“低血糖”兩個假正例的賓語。從整個句子的分析可以推斷出,該語句主要關(guān)注的是和“檢查”相關(guān)的實(shí)體。在TFRU 的第1 層實(shí)體頭特征讀取時,對于假正例實(shí)體的關(guān)注較弱,但它會根據(jù)上下文強(qiáng)化對正確答案“電解質(zhì)測試”的關(guān)注。另外,TFRU 可以正確識別醫(yī)學(xué)文本中大量短語類的長實(shí)體和嵌套實(shí)體(如圖7(b)所示)。若不加入TFRU 機(jī)制,模型抽取的賓語是“免疫力低下”,而根據(jù)文本分析,正確的賓語應(yīng)該是“免疫力低下患者”??梢钥闯鲈趯?shí)體頭讀取過程中,第1 層對于“者”的關(guān)注更強(qiáng),從而修正了錯誤。

    圖7 TFRU注意力可視化Fig.7 TFRU attention visualization

    3.5.3 關(guān)系負(fù)例自動生成模塊

    為了證明關(guān)系負(fù)例自動生成模塊的有效性,進(jìn)行了消融實(shí)驗(yàn),比較了負(fù)例生成模型和偽關(guān)系生成策略對于模型性能的影響。如表6 所示,當(dāng)移除所有數(shù)據(jù)增強(qiáng)數(shù)據(jù)時,模型的F1 值下降了3.24 個百分點(diǎn),而精準(zhǔn)率下降了11.26 個百分點(diǎn)。

    表6 關(guān)系負(fù)例自動生成模塊消融實(shí)驗(yàn)結(jié)果Tab.6 Ablation experimental results of automatic generation module of relation negative examples

    關(guān)系負(fù)例自動生成模塊由模型和增強(qiáng)策略兩部分組成,本文分別分析了這兩個部分對于模型性能的影響。

    不同的增強(qiáng)策略 如表6 所示,采用增強(qiáng)策略1:Tgt+Tgt_reverse后,模型的F1 值提升了1.27 百分點(diǎn);采用增強(qiáng)策略2:Tgt+Tgt_reverse_label則提升了1.02 百分點(diǎn);而僅使用增強(qiáng)策略3:Tgt+TUSPGM_pseudo則提升了2.15 個百分點(diǎn)。其中,增強(qiáng)策略3由于使用了額外的偽實(shí)體,對F1 值提升的效果最佳。相比增強(qiáng)策略1,增強(qiáng)策略2 雖然增加了逆關(guān)系標(biāo)簽這一額外信息,但表現(xiàn)更差,原因在于在最后的分類階段,分類器需要考慮的關(guān)系類型翻倍,因而在優(yōu)化過程中對于逆關(guān)系的關(guān)注影響了正常關(guān)系的判斷。對比不同增強(qiáng)策略的組合效果,其中策略2 和策略3 的組合效果最佳。

    偽實(shí)體生成的模型 基于USPGM 生成的偽實(shí)體的數(shù)據(jù)增強(qiáng)數(shù)據(jù)TUSPGM_pseudo相較于未采用欠采樣機(jī)制的偽實(shí)體生成模型生成的Tpseudo,單獨(dú)使用和組合使用時,F(xiàn)1 值分別提高了0.3 和1.13 個百分點(diǎn),其中精準(zhǔn)率分別提高了7.2 和7.03 個百分點(diǎn)。

    案例分析 關(guān)系負(fù)例自動生成模塊對于關(guān)系抽取的提升體現(xiàn)在兩個方面。

    1)可以提高關(guān)系模型對于實(shí)體抽取階段錯誤主語和賓語的糾正能力。如表7 所示,未使用數(shù)據(jù)增強(qiáng)的模型在案例一中錯誤地將“吉蘭-巴雷綜合征的特殊亞型”作為主語抽取,并在案例二中錯誤地將“地高辛”作為賓語識別。然而,通過語境可以發(fā)現(xiàn)這兩個實(shí)體之間的關(guān)系在文本中并沒有被明確提及,本文模型可以正確地進(jìn)行預(yù)測。

    表7 案例分析Tab.7 Case analysis

    2)可以糾正模型對于正確實(shí)體的假正例或分類出錯的情況,提高模型的精準(zhǔn)率。在表7 的案例二中,未使用數(shù)據(jù)增強(qiáng)的模型錯誤地將關(guān)系類型識別為(室上速主語,同義詞關(guān)系,室性心動過速賓語),屬于分類出錯的情況。另外,在案例二中,(室上速主語,同義詞關(guān)系,室速賓語)則是一個假正例。

    3.5.4 基于懸浮標(biāo)記關(guān)系抽取模型

    如表6 所示,基于懸浮標(biāo)記的關(guān)系抽取模型的訓(xùn)練速度相較于傳統(tǒng)實(shí)標(biāo)記的模型提升了3.2 倍。但在模型性能方面,由于基于懸浮標(biāo)記的模型主語處使用實(shí)標(biāo)記而賓語處使用懸浮標(biāo)記,導(dǎo)致主語和賓語特征表示的能力不平衡。雖然懸浮標(biāo)記沒有對輸入造成侵入性的修改,但同時降低了對預(yù)訓(xùn)練模型的提示能力,使得當(dāng)賓語信息較少時,僅使用Tgt的情況下,基于懸浮標(biāo)記的模型的F1 值略低于基于實(shí)標(biāo)記的模型。然而,當(dāng)使用由USPGM 生成的樣本進(jìn)行數(shù)據(jù)增強(qiáng)后,賓語的多樣性和數(shù)量的增加彌補(bǔ)了使用懸浮標(biāo)記帶來的性能影響。特別是在使用TUSPGM_pseudo增強(qiáng)策略時,基于懸浮標(biāo)記的模型的F1 值均超過了基于實(shí)標(biāo)記的模型。

    4 結(jié)語

    本文提出并驗(yàn)證了一種基于偽實(shí)體數(shù)據(jù)增強(qiáng)的高精度醫(yī)療實(shí)體關(guān)系抽取框架,并對實(shí)體抽取和關(guān)系分類兩個階段進(jìn)一步優(yōu)化。模型在公開醫(yī)學(xué)關(guān)系抽取數(shù)據(jù)集CMeIE 表現(xiàn)出較好的性能,F(xiàn)1 提升了5.45%,精準(zhǔn)率提升了15.62%。

    本文提出的框架主要包括3 個部分:1)針對實(shí)體關(guān)系流水線框架存在誤差傳遞的缺陷,在經(jīng)典的流水線模型的基礎(chǔ)上插入關(guān)系負(fù)例自動生成模塊。使用欠采樣的偽實(shí)體生成模型獲取用于數(shù)據(jù)增強(qiáng)的偽實(shí)體,并提供了三種數(shù)據(jù)增強(qiáng)的策略。消融實(shí)驗(yàn)結(jié)果表明,基于欠采樣模型生成的偽實(shí)體對于關(guān)系分類模型的性能的提升更大,尤其在精準(zhǔn)率指標(biāo)上模型提升幅度較大,證明欠采樣模型可以生成更加多元和全面的偽實(shí)體。由三種不同的數(shù)據(jù)增強(qiáng)策略生成的增強(qiáng)數(shù)據(jù),都對于關(guān)系分類任務(wù)性能有著不同程度的提升,其中Tgt+Tgt_reverse+TUSPGM_pseudo的組合方式取得了最好的效果。說明這種數(shù)據(jù)增強(qiáng)的組合下,數(shù)據(jù)可以更全面地為關(guān)系分類模型提供主語賓語顛倒、主語或賓語邊界不對、關(guān)系分類錯等情況的負(fù)樣本。2)提出了基于Transformer 特征讀取的實(shí)體抽取模型。TFRU 單元通過讀取不同實(shí)體類別的特征信息強(qiáng)化相應(yīng)類別的序列特征表示,實(shí)驗(yàn)和可視化結(jié)果表明該模塊可以有效捕獲全局類別信息,解決醫(yī)學(xué)實(shí)體長、密度大、干擾多的問題,提高實(shí)體抽取的精準(zhǔn)率。3)為緩解數(shù)據(jù)增強(qiáng)帶來的時間成本劇增的問題,選用懸浮標(biāo)記批量打包同主語的關(guān)系,通過一種非侵入式的方式將相同主語的賓語信息拼接到一條訓(xùn)練樣本中,通過實(shí)驗(yàn)證明該模型的訓(xùn)練速度提高了3.2倍,且在訓(xùn)練數(shù)據(jù)充足的情況下,模型的性能甚至略優(yōu)于基于實(shí)標(biāo)記的模型。

    在未來的工作中,將進(jìn)一步提高模型的精準(zhǔn)率。目前本文所使用的數(shù)據(jù)增強(qiáng)算法并沒有引入額外的知識,然而在研究中發(fā)現(xiàn),存在大量實(shí)體和關(guān)系在缺乏先驗(yàn)知識的情況下僅依靠上下文或其他訓(xùn)練樣本無法得到準(zhǔn)確信息,如對缺乏醫(yī)學(xué)專業(yè)知識的人,很可能認(rèn)為“顱內(nèi)出血”是一個“癥狀”而非“疾病”。因此如何將額外的醫(yī)學(xué)知識引入到模型中,將是未來亟待解決的問題。

    猜你喜歡
    特征模型
    一半模型
    抓住特征巧觀察
    重要模型『一線三等角』
    新型冠狀病毒及其流行病學(xué)特征認(rèn)識
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    如何表達(dá)“特征”
    不忠誠的四個特征
    抓住特征巧觀察
    3D打印中的模型分割與打包
    FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
    久久久久久大精品| 欧美激情在线99| 亚洲一区二区三区不卡视频| 久久伊人香网站| 国产麻豆成人av免费视频| 真人一进一出gif抽搐免费| 中亚洲国语对白在线视频| 一个人免费在线观看电影| 免费观看人在逋| 男女床上黄色一级片免费看| 18禁国产床啪视频网站| 婷婷六月久久综合丁香| 美女大奶头视频| 国产三级在线视频| 日韩人妻高清精品专区| 国产一级毛片七仙女欲春2| av福利片在线观看| 国产精品一区二区三区四区免费观看 | 男女做爰动态图高潮gif福利片| 亚洲欧美日韩无卡精品| 男人舔奶头视频| 亚洲av成人不卡在线观看播放网| 嫩草影视91久久| 每晚都被弄得嗷嗷叫到高潮| 成人特级黄色片久久久久久久| 动漫黄色视频在线观看| 国产老妇女一区| 国产乱人伦免费视频| 国产黄片美女视频| 黄色日韩在线| 国语自产精品视频在线第100页| 免费av不卡在线播放| 在线a可以看的网站| h日本视频在线播放| 精品不卡国产一区二区三区| 亚洲专区国产一区二区| 少妇高潮的动态图| 欧美区成人在线视频| 三级男女做爰猛烈吃奶摸视频| h日本视频在线播放| 在线a可以看的网站| 小说图片视频综合网站| 白带黄色成豆腐渣| 亚洲最大成人中文| 欧美精品啪啪一区二区三区| www日本在线高清视频| 欧美精品啪啪一区二区三区| 亚洲色图av天堂| 成人国产综合亚洲| 欧美不卡视频在线免费观看| 婷婷精品国产亚洲av| av福利片在线观看| 精品国产超薄肉色丝袜足j| 动漫黄色视频在线观看| 在线观看av片永久免费下载| 日本与韩国留学比较| 日本 av在线| 日本 av在线| 国产欧美日韩一区二区三| 久久中文看片网| 国产欧美日韩精品亚洲av| 亚洲av中文字字幕乱码综合| 中文在线观看免费www的网站| 99久久成人亚洲精品观看| 亚洲精品乱码久久久v下载方式 | 男女下面进入的视频免费午夜| 久久精品国产亚洲av香蕉五月| 国产高清激情床上av| 3wmmmm亚洲av在线观看| 黄色女人牲交| 亚洲国产欧洲综合997久久,| 欧美一区二区国产精品久久精品| 综合色av麻豆| 日韩欧美免费精品| 在线观看美女被高潮喷水网站 | av欧美777| 美女高潮喷水抽搐中文字幕| 国产成人福利小说| 有码 亚洲区| 日韩欧美免费精品| 免费看十八禁软件| 在线观看免费午夜福利视频| 最新在线观看一区二区三区| 熟女少妇亚洲综合色aaa.| 观看免费一级毛片| 99久久精品一区二区三区| 人人妻人人看人人澡| 欧美高清成人免费视频www| 国产精品99久久久久久久久| 又紧又爽又黄一区二区| 一级黄色大片毛片| 日韩欧美 国产精品| 伊人久久大香线蕉亚洲五| 国产精品香港三级国产av潘金莲| 日韩欧美三级三区| 在线免费观看的www视频| 九色成人免费人妻av| 99国产综合亚洲精品| 日日干狠狠操夜夜爽| 在线观看午夜福利视频| 欧美成人一区二区免费高清观看| 亚洲精品影视一区二区三区av| 日本一二三区视频观看| 国产精品美女特级片免费视频播放器| 日本撒尿小便嘘嘘汇集6| svipshipincom国产片| 天堂网av新在线| 亚洲无线观看免费| 又紧又爽又黄一区二区| 欧美+亚洲+日韩+国产| 欧美bdsm另类| 国产伦精品一区二区三区视频9 | 男女之事视频高清在线观看| 91久久精品国产一区二区成人 | 午夜福利成人在线免费观看| 级片在线观看| 高潮久久久久久久久久久不卡| 两性午夜刺激爽爽歪歪视频在线观看| 久久香蕉精品热| 国产三级中文精品| 久久精品国产亚洲av香蕉五月| 老汉色av国产亚洲站长工具| 黄色视频,在线免费观看| 狠狠狠狠99中文字幕| 欧美成狂野欧美在线观看| 老司机午夜福利在线观看视频| 国产综合懂色| 免费av观看视频| 欧美不卡视频在线免费观看| 两个人的视频大全免费| 啦啦啦免费观看视频1| 岛国视频午夜一区免费看| av在线天堂中文字幕| 精品久久久久久久末码| 久99久视频精品免费| 国产69精品久久久久777片| 国产成人a区在线观看| 久久久久免费精品人妻一区二区| 亚洲专区国产一区二区| 伊人久久大香线蕉亚洲五| eeuss影院久久| 国产蜜桃级精品一区二区三区| АⅤ资源中文在线天堂| 欧美一区二区国产精品久久精品| 欧美激情在线99| 亚洲av免费高清在线观看| 亚洲国产色片| 久久草成人影院| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | av视频在线观看入口| 麻豆国产av国片精品| 内地一区二区视频在线| 搡老熟女国产l中国老女人| 亚洲成人免费电影在线观看| 国产野战对白在线观看| 天堂√8在线中文| 叶爱在线成人免费视频播放| 十八禁人妻一区二区| 最新在线观看一区二区三区| 午夜精品一区二区三区免费看| 亚洲av五月六月丁香网| 精品人妻1区二区| www.999成人在线观看| 91在线精品国自产拍蜜月 | 国产亚洲精品久久久久久毛片| 久久精品国产清高在天天线| 国产一区二区亚洲精品在线观看| 久久久久九九精品影院| 亚洲人成伊人成综合网2020| 99热这里只有是精品50| av天堂中文字幕网| 国产精品香港三级国产av潘金莲| 丰满人妻一区二区三区视频av | 成年人黄色毛片网站| 亚洲精品456在线播放app | 国产精品精品国产色婷婷| 男人和女人高潮做爰伦理| 蜜桃久久精品国产亚洲av| 真人做人爱边吃奶动态| h日本视频在线播放| 久久人人精品亚洲av| 久久精品影院6| 高清毛片免费观看视频网站| 免费看日本二区| a级一级毛片免费在线观看| 波野结衣二区三区在线 | 国产成人福利小说| 一区二区三区免费毛片| 一级黄片播放器| 看免费av毛片| 国产老妇女一区| www日本黄色视频网| 噜噜噜噜噜久久久久久91| 黄片大片在线免费观看| 精品日产1卡2卡| netflix在线观看网站| 久久久久久九九精品二区国产| 最新中文字幕久久久久| 90打野战视频偷拍视频| 禁无遮挡网站| 精品99又大又爽又粗少妇毛片 | 露出奶头的视频| 午夜精品在线福利| www.熟女人妻精品国产| 国内精品一区二区在线观看| 精品人妻1区二区| 亚洲精品色激情综合| 中国美女看黄片| 首页视频小说图片口味搜索| 国产激情欧美一区二区| 手机成人av网站| 国产三级在线视频| 综合色av麻豆| 久9热在线精品视频| svipshipincom国产片| 欧美激情久久久久久爽电影| 亚洲成人精品中文字幕电影| АⅤ资源中文在线天堂| 国产精华一区二区三区| 男女那种视频在线观看| 又紧又爽又黄一区二区| 国产不卡一卡二| 18禁在线播放成人免费| 黄色片一级片一级黄色片| 国产在线精品亚洲第一网站| 日本成人三级电影网站| 久久99热这里只有精品18| 久久6这里有精品| 99精品久久久久人妻精品| 中文在线观看免费www的网站| 亚洲色图av天堂| 少妇丰满av| 日日干狠狠操夜夜爽| 女人被狂操c到高潮| 欧美乱色亚洲激情| 成人国产一区最新在线观看| 宅男免费午夜| 亚洲精品久久国产高清桃花| 亚洲欧美精品综合久久99| 国产伦在线观看视频一区| 男女午夜视频在线观看| 黄色视频,在线免费观看| 久久久久性生活片| 亚洲中文日韩欧美视频| 亚洲专区中文字幕在线| 19禁男女啪啪无遮挡网站| 亚洲av免费高清在线观看| 国产成人a区在线观看| 亚洲国产高清在线一区二区三| av欧美777| 国产精品久久久久久人妻精品电影| 亚洲精品456在线播放app | 亚洲精华国产精华精| 中文字幕人妻熟人妻熟丝袜美 | 亚洲av熟女| 亚洲人成网站在线播| 免费无遮挡裸体视频| 男女做爰动态图高潮gif福利片| 午夜福利在线观看吧| 亚洲男人的天堂狠狠| 亚洲精品一卡2卡三卡4卡5卡| 婷婷六月久久综合丁香| 一个人观看的视频www高清免费观看| 99久久综合精品五月天人人| 欧美精品啪啪一区二区三区| 国产一区在线观看成人免费| 成人午夜高清在线视频| 成熟少妇高潮喷水视频| 亚洲va日本ⅴa欧美va伊人久久| 国产真实伦视频高清在线观看 | av福利片在线观看| 宅男免费午夜| 久久久国产成人免费| 成人欧美大片| 日韩免费av在线播放| 久久香蕉国产精品| 欧美日韩一级在线毛片| 在线国产一区二区在线| 好男人电影高清在线观看| 成人特级av手机在线观看| 麻豆成人午夜福利视频| 免费一级毛片在线播放高清视频| 一边摸一边抽搐一进一小说| 欧美中文日本在线观看视频| 国内精品一区二区在线观看| 国内揄拍国产精品人妻在线| 国模一区二区三区四区视频| 尤物成人国产欧美一区二区三区| 亚洲人成网站在线播放欧美日韩| 88av欧美| 中亚洲国语对白在线视频| 99久国产av精品| 成人高潮视频无遮挡免费网站| 日韩成人在线观看一区二区三区| 俄罗斯特黄特色一大片| 国产精品久久电影中文字幕| 在线十欧美十亚洲十日本专区| 国产真实伦视频高清在线观看 | 免费看光身美女| 无遮挡黄片免费观看| 舔av片在线| 97超级碰碰碰精品色视频在线观看| 欧美乱色亚洲激情| 国产不卡一卡二| 在线观看美女被高潮喷水网站 | 搡老妇女老女人老熟妇| 欧美中文综合在线视频| 婷婷精品国产亚洲av| 丰满人妻一区二区三区视频av | 国产色爽女视频免费观看| 亚洲人成网站在线播放欧美日韩| 亚洲精品色激情综合| 少妇人妻精品综合一区二区 | 一a级毛片在线观看| 国产成人影院久久av| 中文在线观看免费www的网站| 国产午夜福利久久久久久| 天堂√8在线中文| 色视频www国产| 欧美激情久久久久久爽电影| 18禁国产床啪视频网站| 久久午夜亚洲精品久久| 国产精品野战在线观看| 久久人人精品亚洲av| 久久久久久久精品吃奶| 制服人妻中文乱码| 精品电影一区二区在线| 国产精品爽爽va在线观看网站| 老司机福利观看| 亚洲中文字幕日韩| 九色成人免费人妻av| 欧美日韩福利视频一区二区| 亚洲中文日韩欧美视频| 久久国产乱子伦精品免费另类| 亚洲黑人精品在线| 精品人妻一区二区三区麻豆 | 免费av观看视频| 午夜福利在线在线| 精品免费久久久久久久清纯| 亚洲av不卡在线观看| 99视频精品全部免费 在线| 女生性感内裤真人,穿戴方法视频| 亚洲欧美激情综合另类| 亚洲无线观看免费| 村上凉子中文字幕在线| 欧美成人性av电影在线观看| 午夜久久久久精精品| 日韩欧美 国产精品| 亚洲av电影在线进入| 99久久精品国产亚洲精品| 两性午夜刺激爽爽歪歪视频在线观看| 国产一区二区在线观看日韩 | 法律面前人人平等表现在哪些方面| av天堂中文字幕网| 天堂动漫精品| 国产麻豆成人av免费视频| 一个人看视频在线观看www免费 | 在线看三级毛片| 成人国产综合亚洲| 久久婷婷人人爽人人干人人爱| 中亚洲国语对白在线视频| 怎么达到女性高潮| 嫩草影视91久久| 欧美在线一区亚洲| 级片在线观看| 国产高潮美女av| 亚洲av一区综合| 亚洲精品456在线播放app | 老鸭窝网址在线观看| 在线播放国产精品三级| 亚洲精品在线美女| 久久久久久国产a免费观看| 老司机福利观看| 国产午夜福利久久久久久| 九九热线精品视视频播放| 国产精品久久久久久久久免 | 精品午夜福利视频在线观看一区| 婷婷精品国产亚洲av| 五月玫瑰六月丁香| 美女高潮的动态| 在线a可以看的网站| 露出奶头的视频| svipshipincom国产片| 两个人的视频大全免费| 欧美性感艳星| 黄色丝袜av网址大全| 精品电影一区二区在线| 18禁美女被吸乳视频| 精品一区二区三区av网在线观看| 久久人人精品亚洲av| 久久性视频一级片| 中文字幕高清在线视频| 少妇丰满av| 国产精品嫩草影院av在线观看 | 国产一区在线观看成人免费| 日韩亚洲欧美综合| 久久久久久久久中文| av国产免费在线观看| 一级作爱视频免费观看| 成人高潮视频无遮挡免费网站| 精品乱码久久久久久99久播| 少妇人妻精品综合一区二区 | 精品久久久久久久末码| 久久精品国产亚洲av香蕉五月| 日日干狠狠操夜夜爽| 日本一本二区三区精品| 少妇人妻一区二区三区视频| 亚洲最大成人手机在线| www日本在线高清视频| 欧美黑人欧美精品刺激| 国产欧美日韩一区二区精品| 精品久久久久久久久久免费视频| 欧美日本亚洲视频在线播放| 一本久久中文字幕| 亚洲va日本ⅴa欧美va伊人久久| 丰满的人妻完整版| 三级毛片av免费| 亚洲人成网站在线播放欧美日韩| av在线天堂中文字幕| 国产成人av激情在线播放| 欧美av亚洲av综合av国产av| 给我免费播放毛片高清在线观看| 国产精品国产高清国产av| or卡值多少钱| 99热这里只有是精品50| 亚洲自拍偷在线| 亚洲欧美日韩高清专用| 熟妇人妻久久中文字幕3abv| 在线观看日韩欧美| 亚洲av中文字字幕乱码综合| 草草在线视频免费看| 欧美丝袜亚洲另类 | 国产美女午夜福利| 国产乱人伦免费视频| 乱人视频在线观看| 99热精品在线国产| 99久久精品热视频| 国产视频内射| 不卡一级毛片| 欧美成人a在线观看| 国产伦在线观看视频一区| 亚洲18禁久久av| 久久久久精品国产欧美久久久| av中文乱码字幕在线| 久9热在线精品视频| 精品不卡国产一区二区三区| 一个人免费在线观看电影| 天堂av国产一区二区熟女人妻| 国产精品免费一区二区三区在线| 成人亚洲精品av一区二区| 午夜福利在线在线| 99在线视频只有这里精品首页| 757午夜福利合集在线观看| 久久久精品欧美日韩精品| 国产综合懂色| 少妇丰满av| 最新在线观看一区二区三区| 国产高潮美女av| 成年人黄色毛片网站| 变态另类成人亚洲欧美熟女| 少妇裸体淫交视频免费看高清| 精品久久久久久久人妻蜜臀av| 黄片小视频在线播放| 国产精品久久电影中文字幕| 亚洲乱码一区二区免费版| 18禁黄网站禁片午夜丰满| 亚洲成人久久性| 在线观看午夜福利视频| 在线十欧美十亚洲十日本专区| a级毛片a级免费在线| 99精品在免费线老司机午夜| 丰满的人妻完整版| 色av中文字幕| 美女大奶头视频| 日本黄色片子视频| 国产爱豆传媒在线观看| 一边摸一边抽搐一进一小说| 99热精品在线国产| 久久欧美精品欧美久久欧美| 性色av乱码一区二区三区2| 国产成人欧美在线观看| 一区二区三区国产精品乱码| 日韩精品青青久久久久久| 国产高清视频在线观看网站| 一二三四社区在线视频社区8| 女人十人毛片免费观看3o分钟| 亚洲av不卡在线观看| 国产视频一区二区在线看| 在线观看美女被高潮喷水网站 | 久9热在线精品视频| 精品国产超薄肉色丝袜足j| 亚洲五月天丁香| 午夜免费男女啪啪视频观看 | 91在线精品国自产拍蜜月 | 90打野战视频偷拍视频| 免费人成在线观看视频色| 国产欧美日韩精品亚洲av| 高清在线国产一区| av欧美777| 成熟少妇高潮喷水视频| 欧美av亚洲av综合av国产av| 非洲黑人性xxxx精品又粗又长| 久久精品91蜜桃| 午夜老司机福利剧场| 99久久九九国产精品国产免费| 亚洲七黄色美女视频| 国产伦一二天堂av在线观看| 一个人免费在线观看的高清视频| 99热精品在线国产| 天堂√8在线中文| 午夜精品一区二区三区免费看| 欧美在线黄色| 久久草成人影院| 亚洲成人精品中文字幕电影| 很黄的视频免费| 99国产极品粉嫩在线观看| 中文字幕精品亚洲无线码一区| 日韩人妻高清精品专区| 成人av在线播放网站| 日本黄大片高清| 久久久国产成人免费| 精品一区二区三区人妻视频| 好男人在线观看高清免费视频| 国产一级毛片七仙女欲春2| 日韩高清综合在线| 一级黄色大片毛片| 中亚洲国语对白在线视频| 婷婷精品国产亚洲av| 嫩草影院入口| 免费av不卡在线播放| 一边摸一边抽搐一进一小说| 在线观看66精品国产| 母亲3免费完整高清在线观看| 网址你懂的国产日韩在线| av视频在线观看入口| 少妇熟女aⅴ在线视频| 男女之事视频高清在线观看| 日本熟妇午夜| 亚洲七黄色美女视频| 国产精品乱码一区二三区的特点| 日韩欧美免费精品| 国产成+人综合+亚洲专区| 黄色视频,在线免费观看| 搡老熟女国产l中国老女人| 亚洲av一区综合| 欧美乱色亚洲激情| 亚洲欧美一区二区三区黑人| 亚洲va日本ⅴa欧美va伊人久久| 亚洲av一区综合| 在线国产一区二区在线| 国产精品爽爽va在线观看网站| 日韩欧美精品免费久久 | 老熟妇仑乱视频hdxx| 非洲黑人性xxxx精品又粗又长| 美女大奶头视频| 国产在视频线在精品| 久久香蕉国产精品| 搞女人的毛片| 亚洲精品久久国产高清桃花| 麻豆久久精品国产亚洲av| av片东京热男人的天堂| 午夜a级毛片| 亚洲在线观看片| 天天添夜夜摸| 亚洲色图av天堂| 亚洲av免费高清在线观看| 神马国产精品三级电影在线观看| 91麻豆av在线| 国产精品一及| 少妇的逼水好多| 欧美在线一区亚洲| 国产一区二区三区视频了| 99热6这里只有精品| 男女下面进入的视频免费午夜| 99热这里只有是精品50| 一个人免费在线观看的高清视频| 特级一级黄色大片| 天天躁日日操中文字幕| 女同久久另类99精品国产91| 久久久色成人| 欧美一区二区精品小视频在线| 中文字幕精品亚洲无线码一区| 亚洲乱码一区二区免费版| 成人亚洲精品av一区二区| 久久精品夜夜夜夜夜久久蜜豆| www.熟女人妻精品国产| 五月玫瑰六月丁香| 精品国内亚洲2022精品成人| 国产一区二区激情短视频| 日韩欧美在线乱码| 欧美一区二区亚洲| 天天一区二区日本电影三级| 日本 欧美在线| 不卡一级毛片| 精品无人区乱码1区二区| 亚洲欧美日韩无卡精品| 亚洲av电影不卡..在线观看| 欧美午夜高清在线| 精品久久久久久久久久免费视频| 亚洲国产欧美人成| 无限看片的www在线观看| 国产精品 国内视频| 在线天堂最新版资源| tocl精华| 亚洲专区中文字幕在线| 桃色一区二区三区在线观看| 午夜福利欧美成人| 久久人妻av系列| 变态另类丝袜制服| 久久精品亚洲精品国产色婷小说| 最近最新免费中文字幕在线| 麻豆久久精品国产亚洲av| 精品无人区乱码1区二区| 18禁黄网站禁片免费观看直播| 欧美极品一区二区三区四区|