• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于圖注意力網(wǎng)絡(luò)的科技實(shí)體關(guān)系聯(lián)合抽取方法

    2022-06-27 10:31:31周義恒陳顥天周向東
    預(yù)測 2022年3期

    周義恒 陳顥天 周向東

    摘 要:實(shí)體關(guān)系抽取在科技文獻(xiàn)挖掘、文本知識(shí)發(fā)現(xiàn)等應(yīng)用中起著重要作用。本文提出了一種新的實(shí)體關(guān)系聯(lián)合抽取模型,利用關(guān)系之間存在的關(guān)聯(lián)性來提升實(shí)體與關(guān)系聯(lián)合抽取的性能。即將實(shí)體二元組(實(shí)體對(duì))映射到關(guān)系語義子空間,并利用圖注意力網(wǎng)絡(luò)(Graph Attention Network)來探索關(guān)系之間相關(guān)性,實(shí)現(xiàn)了實(shí)體關(guān)系三元組抽取性能的改進(jìn)。在兩個(gè)常用的公開數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明本模型達(dá)到了目前已知的最好性能指標(biāo)。

    關(guān)鍵詞:關(guān)系相關(guān)性;聯(lián)合抽取;圖注意力網(wǎng)絡(luò)

    中圖分類號(hào):TP391文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):2097-0145(2022)03-0039-06doi:10.11847/fj.41.3.39

    Joint Extraction of Science Entity and Relation Based on Graph Attention Network

    ZHOU Yi-heng1,2, CHEN Hao-tian1,2, ZHOU Xiang-dong1,2

    (1.College of Computer Science and Technology, Fudan University, Shanghai 200438, China; 2.Shanghai Key Laboratory of Data Science, Shanghai 200438, China)

    Abstract:Entity and relation extraction plays an important role in science text mining and science knowledge and information discovery. In this paper, we propose a novel entity and relation joint extraction model, utilizing the association information between relations to improve model performance. Specifically, we project entity pair vectors to corresponding relation-spaces, and adopt Graph Attention Network (GAT) to adaptively explore the association information between them, thereby improving the model performance. The experimental results on two commonly used datasets show that our proposed model outperforms other existing models and archives the state-of-the-art performance.

    Key words:association information between relations; joint extraction; graph attention network

    1 引言

    隨著信息技術(shù)的迅速發(fā)展,科學(xué)研究中累積了大量文本數(shù)據(jù)。這些數(shù)據(jù)往往蘊(yùn)含著豐富的知識(shí),相關(guān)的知識(shí)抽取與挖掘技術(shù)具有重要的應(yīng)用價(jià)值。實(shí)體關(guān)系三元組是以三元組形式將文本(如科技文獻(xiàn))中提取的人名、地名等為代表的專用名詞表示為主、賓實(shí)體對(duì)象,兩個(gè)實(shí)體之間的聯(lián)系表示為關(guān)系的數(shù)據(jù)結(jié)構(gòu)。實(shí)體關(guān)系三元組是當(dāng)前構(gòu)建知識(shí)庫或語義網(wǎng)絡(luò)最常用的基本數(shù)據(jù)對(duì)象,因此從非結(jié)構(gòu)化的文本數(shù)據(jù)中自動(dòng)抽取實(shí)體關(guān)系三元組具有重要的研究意義。

    實(shí)體關(guān)系三元組通常以(表示為)形式表達(dá)。如圖1所示的一段文本:“張三出生于上海,一個(gè)位于中國東部的城市”,可以從中抽取諸如<張三,出生于,上海>(Z-BornIn-S),<張三,出生于,中國>(Z-BornIn-C)和<張三,家鄉(xiāng)是,上海>(Z-Home-S)等三個(gè)實(shí)體關(guān)系三元組。通過進(jìn)一步的觀察可以發(fā)現(xiàn)許多句子中蘊(yùn)含的不同三元組之間存在實(shí)體或關(guān)系共享情況,稱為實(shí)體關(guān)系重疊問題。本文將這種重疊問題分為兩類:單實(shí)體重疊Single Entity Overlap(SEO)和實(shí)體對(duì)重疊Entity Pair Overlap(EPO)。圖1中三元組Z-BornIn-S和Z-Home-S屬于 SEO問題,而三元組Z-BornIn-S和Z-BornIn-C屬于EPO問題。由于實(shí)體或關(guān)系重疊會(huì)產(chǎn)生遮蔽或混淆的情況,往往對(duì)三元組自動(dòng)抽取帶來不利的影響。

    隨著深度學(xué)習(xí)技術(shù)的迅速發(fā)展,實(shí)體關(guān)系三元組抽取技術(shù)從早期的流水線模式已經(jīng)發(fā)展到基于各種深度網(wǎng)絡(luò)的聯(lián)合抽取方法[1~4]。基于深度網(wǎng)絡(luò)的抽取方法通常將整個(gè)句子編碼,利用解碼器逐一生成三元組或者先抽取三元的主語部分subject,然后預(yù)測其余部分即。而基于圖網(wǎng)絡(luò)的方法在抽取三元組的過程中可以捕獲不同節(jié)點(diǎn)之間的相關(guān)性,從而提升性能。但是前人工作大多忽略了實(shí)體關(guān)系重疊問題或者缺乏對(duì)該問題的深入探索。Fu等[4]提出了GraphRel方法利用關(guān)系之間的交互以改善關(guān)系抽取模型的性能,為解決和利用實(shí)體關(guān)系重疊帶來了新的啟發(fā)和思路。該工作使用關(guān)系加權(quán)圖卷積神經(jīng)網(wǎng)絡(luò)Graph Convolutional Network(GCN)對(duì)命名實(shí)體與關(guān)系之間的交互進(jìn)行建模。但是GCN無法自適應(yīng)地利用關(guān)系相關(guān)性,三元組抽取性能與一些最新的研究工作相比并不理想。A67D4071-5767-49FE-868D-67CB7CFF2701

    本文在前人工作的基礎(chǔ)上提出一種新的發(fā)掘關(guān)系相關(guān)性來改進(jìn)聯(lián)合抽取模型性能的方法。通過圖注意力網(wǎng)絡(luò)Graph Attention Network(GAT)探索關(guān)系之間的相關(guān)性來提高三元組抽取性能。具體而言,本文提出關(guān)系語義空間的概念用于關(guān)系相關(guān)性建模。關(guān)系語義空間由不同關(guān)系子空間組成,每個(gè)子空間訓(xùn)練標(biāo)記器(分類器)fr(s,o)→(yes/no)以預(yù)測實(shí)體對(duì)是否能映射到對(duì)應(yīng)的關(guān)系上。與前人工作相比,本文以重疊實(shí)體作為橋梁探索關(guān)系相關(guān)性,利用圖模型對(duì)不同關(guān)系子空間之間的相關(guān)性進(jìn)行建模。基于GAT的自適應(yīng)學(xué)習(xí)機(jī)制,使得實(shí)體特征向量獲得不同關(guān)系之間的相關(guān)性信息,進(jìn)而提升了三元組抽取的性能。

    本文的主要貢獻(xiàn)如下:提出了一個(gè)新穎的基于GAT的聯(lián)合實(shí)體關(guān)系抽取模型:RCRel。將不同的關(guān)系子空間組成的關(guān)系語義空間與GAT集成,將主賓實(shí)體對(duì)映射到所有關(guān)系子空間中以進(jìn)行關(guān)系預(yù)測,從而有效地克服關(guān)系重疊問題并提升了抽取性能。分別在公共數(shù)據(jù)集NYT和WebNLG上進(jìn)行實(shí)驗(yàn)以評(píng)估本模型的性能。當(dāng)使用BERT作為編碼層時(shí),F(xiàn)1達(dá)到92.5%和93.3%,超過了已知工作的最好指標(biāo)。

    2 文獻(xiàn)綜述

    早期的關(guān)系三元組抽取模型大多采用流水線(Pipline)方法[5~7]。首先識(shí)別文本中的潛在實(shí)體對(duì),接著對(duì)每個(gè)實(shí)體對(duì)判斷關(guān)系類別。該方法容易受到誤差累計(jì)問題的影響,即實(shí)體識(shí)別的誤差會(huì)傳遞到關(guān)系分類中。隨后出現(xiàn)了新的實(shí)體關(guān)系聯(lián)合學(xué)習(xí)模型,

    包括基于特征的模型[8~11]和基于深度網(wǎng)絡(luò)的模型[1,4,12~14]?;谏疃壬窠?jīng)網(wǎng)絡(luò)的模型將人工構(gòu)造特征替換為模型自動(dòng)學(xué)習(xí)特征,使三元組抽取性能獲得了顯著提高。在聯(lián)合抽取模型中,實(shí)體識(shí)別和關(guān)系分類同時(shí)進(jìn)行,兩個(gè)子任務(wù)之間的交互可以減輕模型偏差(也稱曝光偏差exposure bias),提高抽取性能。Zheng等[12]提出了一種基于標(biāo)記策略的端到端實(shí)體關(guān)系抽取模型,將實(shí)體和關(guān)系抽取轉(zhuǎn)換為標(biāo)記(分類)問題。Zeng等[1]提出了一種基于復(fù)制機(jī)制的端到端學(xué)習(xí)模型,將重疊的三元組分為三類并從各類句子中進(jìn)行聯(lián)合抽取。Dai等[2]提出了一種新的聯(lián)合標(biāo)簽?zāi)P?,從N個(gè)單詞的語句中生成N個(gè)標(biāo)簽序列并利用位置注意機(jī)制對(duì)序列進(jìn)行建模,最后基于CRF模型抽取關(guān)系三元組。Hamilton等[15]提出了 ETL-Span聯(lián)合標(biāo)記策略模型,通過標(biāo)記頭實(shí)體和不同關(guān)系尾實(shí)體來消除重疊問題。Wei等[3]提出了一種新的標(biāo)記策略和解碼方法CasRel,該方法首先使用主語標(biāo)記器標(biāo)記主語并將每個(gè)主語映射到N個(gè)<關(guān)系-賓語>序列中,然后使用標(biāo)記器抽取賓語和關(guān)系。深度神經(jīng)網(wǎng)絡(luò)聯(lián)合標(biāo)注表現(xiàn)出較好的性能,但是對(duì)于復(fù)雜關(guān)系和重疊問題的探索仍有待進(jìn)一步深化。

    近年的研究中出現(xiàn)了基于圖網(wǎng)絡(luò)模型的三元組抽取方法。圖網(wǎng)絡(luò)模型是指在圖上運(yùn)行的深度網(wǎng)絡(luò),它為每個(gè)節(jié)點(diǎn)學(xué)習(xí)一個(gè)包含鄰域信息的嵌入(節(jié)點(diǎn)通過邊直接連接到目標(biāo)節(jié)點(diǎn))。這種嵌入往往用于解決如節(jié)點(diǎn)標(biāo)記、節(jié)點(diǎn)預(yù)測、邊預(yù)測等問題。圖神經(jīng)網(wǎng)絡(luò)領(lǐng)域的經(jīng)典模型有GCN,Graph Sample and Aggregate(GraphSAGE)[16]和GAT等。圖網(wǎng)絡(luò)模型有助于刻畫抽象概念,例如實(shí)體之間的關(guān)系。在實(shí)體關(guān)系抽取時(shí),實(shí)體和關(guān)系重疊是影響抽取效果的重要因素。但是關(guān)系重疊較為復(fù)雜和難以刻畫,因此前人工作往往忽略這類問題。鑒于圖網(wǎng)絡(luò)具備刻畫節(jié)點(diǎn)之間復(fù)雜關(guān)系并進(jìn)行量化計(jì)算的能力,F(xiàn)u等[4]提出了GraphRel來探索關(guān)系之間的相互聯(lián)系并進(jìn)行加權(quán),以提升三元組抽取的性能。該文使用BILSTM(Bidirectional LSTM)模型抽取實(shí)體,使用關(guān)系加權(quán)GCN對(duì)命名實(shí)體與關(guān)系之間的交互進(jìn)行建模,最后對(duì)實(shí)體對(duì)進(jìn)行分類。GraphRel首次在實(shí)體和關(guān)系抽取任務(wù)中提出了實(shí)體和關(guān)系之間交互的問題。在兩個(gè)公開數(shù)據(jù)集上都有較好的實(shí)驗(yàn)性能。但是GCN無法自適應(yīng)地獲取關(guān)系之間的相關(guān)性,與一些最新的非圖網(wǎng)絡(luò)方法相比,整體抽取性能還有待進(jìn)一步提升。

    因此在前人工作的啟發(fā)下,本文提出了一種新的基于關(guān)系相關(guān)性建模的關(guān)系三元組抽取方法。在新的三元組抽取框架下利用GAT自適應(yīng)地學(xué)習(xí)關(guān)系語義空間中關(guān)系之間的相關(guān)性,并獲得較好的抽取性能。

    3 方法論

    本文提出一種新的實(shí)體關(guān)系聯(lián)合抽取模型RCRel。從關(guān)系注意力和關(guān)系相似度的角度出發(fā)探索關(guān)系語義空間相關(guān)性來解決實(shí)體關(guān)系抽取中的重疊問題。本模型利用關(guān)系共現(xiàn)性預(yù)訓(xùn)練關(guān)系嵌入編碼器,構(gòu)建了一個(gè)關(guān)系編碼器對(duì)關(guān)系進(jìn)行編碼。在GAT的基礎(chǔ)上,引入關(guān)系嵌入改善注意力機(jī)制以更好地探索實(shí)體關(guān)系之間的相關(guān)性。

    RCRel對(duì)象關(guān)系聯(lián)合抽取模型的目標(biāo)方程可以用如下最大似然函數(shù)L(D)描述。

    假設(shè)訓(xùn)練集D包含所有句子和xi∈D。令Ti=s,o,r代表與句子xi對(duì)應(yīng)的一組三元組。則

    L(D)=∏|D|i=1[∏(s,o,r)∈Tip((s,o,r)|xi)]=∏|D|i=1[∏(s,o)∈Tip((s,o)|xi)∏r∈Ti|(s,o)p(r|(s,o),xi)]

    =∏|D|i=1[∏(s,o)∈Tip((s,o)|xi)∏r∈Ti|(s,o)p(r|(s,o,xi)∏rTi|(s,o)p(r|(s,o,xi))](1)

    本文將三元組分為兩部分:關(guān)系r和(s,o),然后通過使用鏈?zhǔn)椒▌t對(duì)其進(jìn)行分解。公式(1)描述了一個(gè)新的聯(lián)合抽取框架。它將三元組抽取分為兩部分:實(shí)體抽?。‥E)和關(guān)系抽取(RE)?;谠撃繕?biāo)函數(shù),本文提出的RCRel抽取方法由三個(gè)環(huán)節(jié)構(gòu)成:首先,從句子中抽取所有實(shí)體。然后,將所有實(shí)體向量映射到關(guān)系語義空間,并通過圖注意力網(wǎng)絡(luò)建立不同關(guān)系子空間之間的相關(guān)性。最后,在不同的關(guān)系語義子空間中計(jì)算所有實(shí)體對(duì)之間的得分以獲得關(guān)系三元組。本文模型的總體框架如圖2所示:實(shí)體抽取過程中,由實(shí)體標(biāo)記器標(biāo)記并抽取3個(gè)候選實(shí)體(J:John,S:Sheffield,E:England)。關(guān)系語義空間中,候選實(shí)體嵌入和關(guān)系嵌入被投射到不同的關(guān)系語義空間中。然后,通過R-GAT將每個(gè)關(guān)系語義子空間中的實(shí)體向量融合,并分別映射為主語和賓語。最后,根據(jù)關(guān)系標(biāo)記器計(jì)算得分來確定關(guān)系三元組。A67D4071-5767-49FE-868D-67CB7CFF2701

    3.1 RCRel聯(lián)合抽取模型

    RCRel模型的整體結(jié)構(gòu)如圖2所示。

    實(shí)體抽?。簩?shí)體抽取是關(guān)系三元組抽取的基礎(chǔ)。RCRel模型采用類似于CasRel的二元標(biāo)記策略,但是一次性抽取所有實(shí)體。這樣的改變使整個(gè)抽取過程更加完整并且避免信息丟失。實(shí)體抽取過程描述如下:將BERT獲得的所有TOKEN的特征向量通過兩個(gè)二元線性層,獲取實(shí)體的頭尾位置。標(biāo)記公式如下

    pheadi=σ(Wheadxi+bhead)(2)

    ptaili=σ(Wtailxi+btail)(3)

    關(guān)系語義空間:不同關(guān)系語義子空間下的實(shí)體之間也往往存在一定的相關(guān)性。如“John was born in Sheffield,a city of England.”這句話中,可以直接抽取出諸如(J-BornIn-S)和(J-PartOf-E)之類的三元組。因?yàn)橐恍?shí)體或關(guān)系可以被重疊的三元組共享,所以三元組之間是存在某些語義聯(lián)系的??梢岳眠@種語義聯(lián)系做出一些合理的推斷。例如,可以通過顯式關(guān)系J-BornIn-S和J-PartOf-E推斷出兩個(gè)三元組(J-BornIn-E)和(J-Hometown-S)。因?yàn)椤癝heffield”是“England”的一部分,而“Born in”與“Hometown”兩個(gè)詞關(guān)聯(lián)度很高。

    因此,為了探索實(shí)體關(guān)系之間的關(guān)系相關(guān)性,本文首先設(shè)計(jì)了新的實(shí)體抽取器和關(guān)系編碼器來抽取實(shí)體并對(duì)關(guān)系進(jìn)行嵌入編碼。然后將實(shí)體嵌入和關(guān)系嵌入傳入關(guān)系語義空間建模,從而捕捉不同實(shí)體在關(guān)系語義空間的相關(guān)性。本文將實(shí)體向量v*映射到不同的關(guān)系語義子空間

    hji=Wivj(4)

    其中hji表示第i個(gè)關(guān)系語義子空間下對(duì)應(yīng)的j個(gè)實(shí)體的向量,而Wi表示與第i個(gè)關(guān)系語義子空間相對(duì)應(yīng)的權(quán)重矩陣,vj表示與實(shí)體集中的第j個(gè)實(shí)體相對(duì)應(yīng)的向量。

    本文采用GAT對(duì)不同關(guān)系之間的相關(guān)性進(jìn)行建模。GAT將相鄰頂點(diǎn)的特征通過聚合運(yùn)算匯集到中心頂點(diǎn)上,利用圖上的鄰域信息學(xué)習(xí)新的頂點(diǎn)特征表達(dá)。GAT通過自注意力機(jī)制學(xué)習(xí)到節(jié)點(diǎn)之間的權(quán)重關(guān)系,而無需像其他網(wǎng)絡(luò)一樣進(jìn)行大規(guī)模全圖計(jì)算或者提前知道鄰域信息,使得模型的學(xué)習(xí)能力和推理能力大幅增強(qiáng)。假設(shè)Hj0-N=[hj0,hj1,…,hjN]表示不同關(guān)系子空間中第j 個(gè)實(shí)體的向量序列,其中N表示數(shù)據(jù)集中的關(guān)系數(shù)量。受Transformer的自注意力啟發(fā),本文在GAT的每一層之后添加了一層前饋神經(jīng)網(wǎng)絡(luò)(FFN),以增強(qiáng)模型的性能。此過程可以表示如下

    Gj0-N=FNN(GAT(Hj0-n))(5)

    其中Gj0-N=[gj0,gj1,…,gjN]表示GAT之后的Hj0-N向量序列。

    本文將包含關(guān)系信息的實(shí)體向量分別映射成主語向量和賓語向量。然后在每個(gè)關(guān)系語義子空間中對(duì)主語向量和賓語向量進(jìn)行配對(duì)。通過使用Sigmoid函數(shù)計(jì)算其內(nèi)積來預(yù)測對(duì)應(yīng)的關(guān)系。如果分?jǐn)?shù)超過閾值,則在該關(guān)系語義子空間中找到對(duì)應(yīng)關(guān)系三元組。該過程可用公式表示如下

    ski=Wsigki+bsi(6)

    oli=Woigli+boi(7)

    Scorek,li=σ(ski·oli)(8)

    其中ski表示第i個(gè)關(guān)系語義子空間中第k個(gè)主語的向量。Wsi是第i個(gè)關(guān)系的主語映射矩陣的權(quán)重,而bsi是偏置。類似地,oli表示第i個(gè)關(guān)系語義子空間中第l個(gè)賓語的向量。Woi和boi是賓語的矩陣權(quán)重和偏置。Scorek,li表示第i個(gè)關(guān)系語義子空間中第k個(gè)主語與第l個(gè)賓語的關(guān)系得分。由于同一實(shí)體不能在三元組中同時(shí)用作主語和賓語,本文對(duì)關(guān)系二元標(biāo)記器中得分矩陣的對(duì)角線進(jìn)行了遮蔽。

    模型在處理前文所示例句“John was born in Sheffield, a city of England.” 時(shí),在關(guān)系語義子空間Born in下,第0個(gè)主語John和第1個(gè)賓語Sheffield的關(guān)系得分大于閾值,因此可以抽取得到三元組。此處的分?jǐn)?shù)來自Born in關(guān)系子空間下John和Sheffield的內(nèi)積。通過GAT的注意力機(jī)制,相似的語義信息之間可以帶來更高的權(quán)重。換句話說,三元組將改善三元組在關(guān)系標(biāo)記器下的得分,因?yàn)樗鼈儽舜烁叨认嚓P(guān)。

    4 實(shí)驗(yàn)

    為了驗(yàn)證和評(píng)估本文方法的有效性,本文與前人工作中性能較好和最新的多個(gè)模型進(jìn)行了對(duì)比實(shí)驗(yàn),并對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行了分析。按前人工作的慣例在兩個(gè)常用的數(shù)據(jù)集NYT和WebNLG上進(jìn)行了抽取性能準(zhǔn)確性對(duì)比和本文方法消融實(shí)驗(yàn)。針對(duì)實(shí)體關(guān)系重疊問題進(jìn)行了細(xì)分對(duì)比實(shí)驗(yàn),驗(yàn)證本文方法在解決重疊問題方面的性能。

    實(shí)驗(yàn)數(shù)據(jù)集:為了保證實(shí)驗(yàn)對(duì)比的公平性,我們使用兩個(gè)最常用的基準(zhǔn)數(shù)據(jù)集NYT[17]和WebNLG[18]進(jìn)行實(shí)驗(yàn)。NYT數(shù)據(jù)集是學(xué)者使用遠(yuǎn)程監(jiān)督方法在NYT-NEWS數(shù)據(jù)上制作的。它由11800個(gè)句子和24個(gè)預(yù)定義的關(guān)系類型組成。WebNLG數(shù)據(jù)網(wǎng)最初是為自然語言生成(NLG)任務(wù)創(chuàng)建的,被前人改編為關(guān)系三元組抽取任務(wù)的數(shù)據(jù)集。它包含246個(gè)預(yù)定義的關(guān)系類型。其中NYT包含用于訓(xùn)練的56195個(gè)句子,用于驗(yàn)證的5000個(gè)句子和用于測試的5000個(gè)句子,而WebNLG包含用于訓(xùn)練的5019個(gè)句子,用于驗(yàn)證的500個(gè)句子和用于測試的703個(gè)句子。本文將重疊的問題分為三類:SEO,EPO和Muilt。在NYT和WebNLG中,分別有大約34.1 和67.8 的重疊關(guān)系以及34.5 和65.4 的共現(xiàn)關(guān)系。這兩個(gè)數(shù)據(jù)集包含大量具有相關(guān)性的關(guān)系三元組,可以用來驗(yàn)證本文的想法。NYT和WebNLG的統(tǒng)計(jì)信息,如表1所示。A67D4071-5767-49FE-868D-67CB7CFF2701

    實(shí)驗(yàn)設(shè)置:在編碼器部分,使用Bert-base-cased。通過最小化損失函數(shù)來優(yōu)化模型,并使用AdamW隨機(jī)梯度下降梯度優(yōu)化算法和shuffle mini-batch方法來訓(xùn)練模型。主要的超參數(shù)設(shè)置如下:batch-size=16,學(xué)習(xí)率=1e-5,GAT層數(shù)=4,以及λ=N,其中N代表數(shù)據(jù)集中關(guān)系的數(shù)量。使用NVIDIA RTX3090作為訓(xùn)練GPU。在NYT和WebNLG數(shù)據(jù)集上分別訓(xùn)練了15個(gè)小時(shí)和3.5個(gè)小時(shí)之后,選擇了具有最優(yōu)的模型參數(shù)用于評(píng)估測試集。

    評(píng)估指標(biāo):參照前人工作中常用的評(píng)估指標(biāo)和約定。當(dāng)且僅當(dāng)主語、關(guān)系和賓語都正確時(shí),才認(rèn)為抽取的三元組是正確的。使用標(biāo)準(zhǔn)的Precision,Recall和F1分?jǐn)?shù)來評(píng)估模型的效果,

    模型綜合預(yù)測性能的體現(xiàn)由F1分?jǐn)?shù)反映。

    實(shí)驗(yàn)結(jié)果:表2給出用于比較的基線模型分別為NovelTagging[12], CopyR[1],GraphRel[4],ETL-span[2],CasRel[3]和TPLinker[18]。在NYT數(shù)據(jù)集及WebNLG數(shù)據(jù)集上,RCRel優(yōu)于以前的最優(yōu)方法。具體來說,在兩個(gè)數(shù)據(jù)集的綜合表現(xiàn)上,RCRel均分別超過了之前最優(yōu)模型CasRel和TPLinker。

    對(duì)實(shí)驗(yàn)結(jié)果的分析如下:

    (1)在每一輪訓(xùn)練中,CasRel一次只能處理一個(gè)主語對(duì)應(yīng)的一個(gè)隨機(jī)關(guān)系三元組。顯然會(huì)造成上下文信息丟失。當(dāng)三元組的數(shù)目很大時(shí),抽取句子中信息的操作顯著增加,進(jìn)一步導(dǎo)致性能下降。

    (2)當(dāng)一個(gè)句子中有更多的三元組時(shí),實(shí)體與關(guān)系之間的關(guān)聯(lián)會(huì)變得更加復(fù)雜,CasRel不能有效的抽取隱式關(guān)系。

    本文的RCRel框架更加合理,可以一次性處理一個(gè)句子中的所有三元組信息,并通過語義推斷獲得額外信息。因此,即使一個(gè)句子里的三元組的數(shù)量較多,RCRel的性能也不會(huì)下降。

    消融實(shí)驗(yàn):為了驗(yàn)證GAT模塊的重要性,本文設(shè)置了不同的GAT層數(shù)進(jìn)行消融實(shí)驗(yàn)。表3顯示了消融實(shí)驗(yàn)的結(jié)果。隨著GAT的層數(shù)從0增加到4,模型的F1分?jǐn)?shù)從91.5%增加到92.7%。當(dāng)層數(shù)增加到8時(shí),F(xiàn)1分?jǐn)?shù)降低到92.1%。該現(xiàn)象表明當(dāng)層數(shù)增加時(shí),三元組之間可以通過GAT交換更多的信息,從而使模型的性能更好。隨著層數(shù)不斷增加,模型會(huì)吸收一些不相關(guān)的信息導(dǎo)致模型性能退化。

    重疊問題對(duì)比實(shí)驗(yàn):為驗(yàn)證RCRel處理重疊問題的能力,本文在NYT和WebNLG數(shù)據(jù)集上開展進(jìn)一步實(shí)驗(yàn),將數(shù)據(jù)集劃分為不同的子數(shù)據(jù)集,用于評(píng)估不同的重疊問題:(1)根據(jù)句子中包含的三元組類型,將數(shù)據(jù)集分為三個(gè)子數(shù)據(jù)集:Normal、SEO和EPO。(2)根據(jù)句子中包含的三元組數(shù),將數(shù)據(jù)集分為5個(gè)子數(shù)據(jù)集:分別對(duì)應(yīng)句子中包含1、2、…、5(及以上)個(gè)三元組。本文將不同類別的數(shù)據(jù)集用于測評(píng)和對(duì)比,實(shí)驗(yàn)結(jié)果如表4所示。對(duì)于此三類問題,RCRel在大多數(shù)情況下都優(yōu)于CasRel。在SEO及EPO的情況下,RCRel在NYT和WebNLG上皆超過了CasRel。根據(jù)不同三元組數(shù)的實(shí)驗(yàn)結(jié)果,RCRel在每種情況下也優(yōu)于以前的模型。通過比較RCRel和其他模型的結(jié)果,可以發(fā)現(xiàn)本文方法主要在SEO、EPO 和包含較多關(guān)系的句子抽取情況下獲得了更多的改進(jìn)。這些實(shí)驗(yàn)結(jié)果表明,本文提出的RCRel能夠更好地處理重疊和復(fù)雜句子問題,并表現(xiàn)出更高的抽取性能。

    5 結(jié)論與啟示

    本文提出一個(gè)新的端到端實(shí)體關(guān)系三元組聯(lián)合抽取框架RCRel,通過探索不同關(guān)系語義子空間之間的相關(guān)性來提高實(shí)體關(guān)系抽取的性能。該模型將實(shí)體對(duì)映射到不同的關(guān)系語義子空間,利用關(guān)系相關(guān)來解決重疊問題并獲得較好的抽取性能。實(shí)驗(yàn)驗(yàn)證顯示RCRel在兩個(gè)公共數(shù)據(jù)集上達(dá)到了最優(yōu)的抽取效果,進(jìn)一步證明了三元組關(guān)系重疊問題可以加以利用,即通過發(fā)掘其相關(guān)性來幫助模型改善性能。當(dāng)然本文提出的模型依然存在一些問題,如缺乏自適應(yīng)能力,模型結(jié)構(gòu)以及參數(shù)量的設(shè)計(jì)需要根據(jù)不同數(shù)量的關(guān)系作相應(yīng)的調(diào)整。因此在處理大量關(guān)系抽取問題時(shí)需要進(jìn)一步改進(jìn)模型。本文進(jìn)一步的優(yōu)化工作可能涉及以下方面:(1)使用模型蒸餾技術(shù),優(yōu)化模型的參數(shù)量與計(jì)算量,加速訓(xùn)練和推理。(2)改進(jìn)模型結(jié)構(gòu)以針對(duì)更復(fù)雜的關(guān)系情況,提升模型的泛化能力和魯棒性。(3)獲取更多的高質(zhì)量訓(xùn)練數(shù)據(jù),提升模型的精度。未來將探索如何引入先驗(yàn)的實(shí)體關(guān)系語義知識(shí)來增強(qiáng)模型的性能。

    參 考 文 獻(xiàn):

    [1]Zeng X, Zeng D, He S, et al.. Extracting relational facts by an end-to-end neural model with copy mechanism[A]. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Melbourne, 2018. 506-514.

    [2]Dai D, Xiao X, Lyu Y, et al.. Joint extraction of entities and overlapping relations using position-attentive sequence labeling[A]. Proceedings of the AAAI Conference on Artificial Intelligence[C]. AAAI Press, Honolulu, 2019. 6300-6308.

    [3]Wei Z, Su J, Wang Y, et al.. A novel cascade binary tagging framework for relational triple extraction[A]. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, acl2020.org, 2020.1476-1488.A67D4071-5767-49FE-868D-67CB7CFF2701

    [4]Fu T J, Li P H, Ma W Y, et al.. GraphRel: modeling text as relational graphs for joint entity and relation extraction[A]. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Florence, 2019.1409-1418.

    [5]Zelenko D, Aone C, Richardella A. Kernel methods for relation extraction[J]. Journal of Machine Learning Research, 2003, 3: 1083-1106.

    [6]Zhou G, Su J, Zhang J, et al.. Exploring various knowledge in relation extraction[A]. Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Michigan, 2005.427-434.

    [7]Chan Y S, Roth D. Exploiting syntactico-semantic structures for relation extraction[A]. Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Portland, 2011.551-560.

    [8]Yu X, Lam W. Jointly identifying entities and extracting relations in encyclopedia text via a graphical model approach

    [A]. The 23rd International Conference on Computational Linguistics[C]. Tsinghua University Press, Beijing, 2010.1399-1407.

    [9]Li Q, Ji H. Incremental joint extraction of entity mentions and relations[A]. Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Baltimore, 2014.402-412.

    [10]Miwa M, Sasaki Y. Modeling joint entity and relation extraction with table representation[A]. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing[C]. EMNLP Press, Doha, 2014.1858-1869.

    [11]Ren X, Wu Z, He W, et al.. CoType: joint extraction of typed entities and relations with knowledge bases[A]. Proceedings of the 26th International Conference on World Wide Web[C]. WWW Press, Perth, 2017.1015-1024.

    [12]Zheng S, Wang F, Bao H, et al.. Joint extraction of entities and relations based on a novel tagging scheme[A]. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Vancouver, 2017.1227-1236.

    [13]Gupta P, Schütze H, Andrassy B, et al.. Table filling multi-task recurrent neural network for joint entity and relation extraction[A]. The 26th International Conference on Computational Linguistics: Technical Papers[C]. COLING Press, Osaka, 2016. 2537-2547.

    [14]Katiyar A, Cardie C. Going out on a limb: joint extraction of entity mentions and relations without dependency trees[A]. Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Vancouver, 2017.917-928.

    [15]Hamilton W, Ying Z, Leskovec J. Inductive representation learning on large graphs[J]. arXiv: 1706. 02216, 2017.

    [16]Riedel S, Yao L, McCallum A, et al.. Modeling relations and their mentions without labeled text[A]. Joint European Conference on Machine Learning and Knowledge Discovery in Databases[C]. KDD Press, Springer, 2010. 148-163.

    [17]Gardent C, Shimorina A, Narayan S, et al.. Creating training corpora for nlg micro-planning[A]. The 55th Annual Meeting of the Association for Computational Linguistics[C]. ACL Press, Vancouver, 2017. 179-188.

    [18]Wang Y, Yu B, Zhang Y, et al.. TPLinker: single-stage joint extraction of entities and relations through token pair linking[A]. Proceedings of the 28th International Conference on Computational Linguistics[C]. COLING Press, Barcelona, 2020.1572-1582.A67D4071-5767-49FE-868D-67CB7CFF2701

    18+在线观看网站| 偷拍熟女少妇极品色| 日本色播在线视频| 亚洲欧洲国产日韩| 婷婷六月久久综合丁香| 五月伊人婷婷丁香| 欧美成人精品欧美一级黄| 99国产精品一区二区蜜桃av| 亚洲婷婷狠狠爱综合网| 亚洲欧美一区二区三区国产| 国产人妻一区二区三区在| 久久99热6这里只有精品| 国模一区二区三区四区视频| 午夜爱爱视频在线播放| 免费搜索国产男女视频| 九九热线精品视视频播放| 国产精品日韩av在线免费观看| АⅤ资源中文在线天堂| 亚洲伊人久久精品综合 | www.色视频.com| 国产精品一及| 国产欧美另类精品又又久久亚洲欧美| 亚洲国产欧美人成| 国产国拍精品亚洲av在线观看| 99九九线精品视频在线观看视频| 97热精品久久久久久| 国产黄色视频一区二区在线观看 | 色网站视频免费| 国内少妇人妻偷人精品xxx网站| 波多野结衣高清无吗| 黄片无遮挡物在线观看| 久久精品国产自在天天线| 成人国产麻豆网| 亚洲国产欧美在线一区| 国产成人免费观看mmmm| 狂野欧美激情性xxxx在线观看| 成人漫画全彩无遮挡| 嫩草影院精品99| 综合色丁香网| 色综合站精品国产| 少妇被粗大猛烈的视频| 精品久久久久久电影网 | 亚洲av免费高清在线观看| 噜噜噜噜噜久久久久久91| 成年女人永久免费观看视频| 国产精品日韩av在线免费观看| 日韩欧美三级三区| 九色成人免费人妻av| 我要看日韩黄色一级片| 日本wwww免费看| 日韩强制内射视频| 美女内射精品一级片tv| 成人av在线播放网站| 国产精品国产三级国产专区5o | av在线蜜桃| 亚洲国产精品国产精品| 国产91av在线免费观看| 99久久成人亚洲精品观看| 中文字幕亚洲精品专区| 热99re8久久精品国产| 麻豆精品久久久久久蜜桃| 99久国产av精品| 国产日韩欧美在线精品| 国产精品不卡视频一区二区| 天天一区二区日本电影三级| 亚洲av日韩在线播放| 九九在线视频观看精品| 亚洲av日韩在线播放| 自拍偷自拍亚洲精品老妇| 国产成年人精品一区二区| 国产男人的电影天堂91| 久久综合国产亚洲精品| 午夜免费激情av| 秋霞在线观看毛片| 晚上一个人看的免费电影| 波多野结衣巨乳人妻| 欧美区成人在线视频| 精品人妻视频免费看| 色综合站精品国产| av视频在线观看入口| 嫩草影院入口| 国产中年淑女户外野战色| 自拍偷自拍亚洲精品老妇| 夜夜爽夜夜爽视频| 成人鲁丝片一二三区免费| 久久久久久久亚洲中文字幕| 久久久久国产网址| 神马国产精品三级电影在线观看| 菩萨蛮人人尽说江南好唐韦庄 | 亚洲国产精品成人综合色| 69av精品久久久久久| 亚洲四区av| 韩国av在线不卡| av黄色大香蕉| kizo精华| 国产又色又爽无遮挡免| 夫妻性生交免费视频一级片| 午夜福利在线在线| 波多野结衣高清无吗| 在线免费观看的www视频| 18禁在线播放成人免费| 男插女下体视频免费在线播放| 中文字幕精品亚洲无线码一区| 欧美高清性xxxxhd video| av专区在线播放| h日本视频在线播放| 中文天堂在线官网| 国产一区二区三区av在线| 亚洲av免费在线观看| 18禁在线播放成人免费| 国语对白做爰xxxⅹ性视频网站| 成人无遮挡网站| 我要看日韩黄色一级片| 两个人视频免费观看高清| 免费搜索国产男女视频| 亚洲av熟女| 免费电影在线观看免费观看| 国产成年人精品一区二区| 日韩三级伦理在线观看| 26uuu在线亚洲综合色| 亚洲欧美成人综合另类久久久 | 综合色丁香网| 国国产精品蜜臀av免费| 我要搜黄色片| 99久久精品国产国产毛片| 如何舔出高潮| 99久久精品一区二区三区| 伦理电影大哥的女人| 国产高潮美女av| 少妇人妻一区二区三区视频| 中文精品一卡2卡3卡4更新| 亚洲精品国产成人久久av| 校园人妻丝袜中文字幕| 久99久视频精品免费| 建设人人有责人人尽责人人享有的 | 亚洲激情五月婷婷啪啪| 色综合亚洲欧美另类图片| 国产男人的电影天堂91| 狂野欧美激情性xxxx在线观看| 国产精品久久视频播放| 美女cb高潮喷水在线观看| 亚洲欧美中文字幕日韩二区| 久久精品国产亚洲av天美| 亚洲在线观看片| 免费看光身美女| 午夜福利在线观看免费完整高清在| 久久精品久久久久久噜噜老黄 | 国产在视频线在精品| 欧美日韩国产亚洲二区| 国产精品综合久久久久久久免费| 少妇被粗大猛烈的视频| 亚洲一级一片aⅴ在线观看| 欧美精品国产亚洲| 一级毛片久久久久久久久女| 亚洲va在线va天堂va国产| 韩国高清视频一区二区三区| 亚洲成人久久爱视频| 亚洲天堂国产精品一区在线| 一个人看视频在线观看www免费| 成人亚洲欧美一区二区av| 永久免费av网站大全| 日韩欧美精品v在线| 亚洲国产欧美在线一区| 美女黄网站色视频| 亚洲18禁久久av| 九九久久精品国产亚洲av麻豆| 成人三级黄色视频| 久久精品91蜜桃| av天堂中文字幕网| 亚洲不卡免费看| 卡戴珊不雅视频在线播放| 国产 一区精品| 久久99精品国语久久久| 你懂的网址亚洲精品在线观看 | 国产精品乱码一区二三区的特点| 久久久久国产网址| 极品教师在线视频| 中文字幕制服av| 免费av观看视频| 国内少妇人妻偷人精品xxx网站| 亚洲精品久久久久久婷婷小说 | 久久久国产成人免费| 精品欧美国产一区二区三| 中文字幕av在线有码专区| 男人舔女人下体高潮全视频| 少妇熟女欧美另类| 欧美三级亚洲精品| 亚洲欧美日韩卡通动漫| 国产又色又爽无遮挡免| 日韩三级伦理在线观看| 亚洲人成网站在线播| 成人毛片60女人毛片免费| 视频中文字幕在线观看| 国产激情偷乱视频一区二区| 亚洲综合色惰| 青春草国产在线视频| 国产高清不卡午夜福利| 偷拍熟女少妇极品色| 午夜久久久久精精品| 国产极品天堂在线| 亚洲精品国产av成人精品| 国产亚洲精品av在线| 国产精品久久久久久精品电影| 热99re8久久精品国产| 亚洲成色77777| 成年女人永久免费观看视频| 真实男女啪啪啪动态图| 国产不卡一卡二| 在现免费观看毛片| 亚洲成色77777| 九九热线精品视视频播放| 亚洲精品乱码久久久v下载方式| 国产爱豆传媒在线观看| 最近手机中文字幕大全| 九草在线视频观看| 91久久精品国产一区二区三区| 免费黄网站久久成人精品| 久久热精品热| 99久国产av精品国产电影| 欧美激情国产日韩精品一区| 成人特级av手机在线观看| 精品久久久久久成人av| 汤姆久久久久久久影院中文字幕 | 亚洲国产精品成人久久小说| 网址你懂的国产日韩在线| 麻豆国产97在线/欧美| 成人亚洲精品av一区二区| 欧美精品一区二区大全| 日本一二三区视频观看| 一个人看的www免费观看视频| 久久久精品94久久精品| 久久久久久久亚洲中文字幕| 在线观看一区二区三区| 免费看av在线观看网站| 永久网站在线| 女人十人毛片免费观看3o分钟| 青春草视频在线免费观看| 欧美日韩精品成人综合77777| 能在线免费观看的黄片| 女人久久www免费人成看片 | 全区人妻精品视频| 欧美性猛交黑人性爽| 国产乱来视频区| 国产免费又黄又爽又色| 中文字幕亚洲精品专区| 伦理电影大哥的女人| 美女国产视频在线观看| 能在线免费看毛片的网站| 国产又黄又爽又无遮挡在线| 精品一区二区三区人妻视频| 激情 狠狠 欧美| 日本三级黄在线观看| 欧美三级亚洲精品| 视频中文字幕在线观看| 如何舔出高潮| 波野结衣二区三区在线| 国产av不卡久久| 女人被狂操c到高潮| 小说图片视频综合网站| 丰满乱子伦码专区| 成年av动漫网址| 免费看光身美女| 国产精品一及| 国产黄色视频一区二区在线观看 | 男人舔女人下体高潮全视频| 国产精品久久久久久av不卡| 啦啦啦韩国在线观看视频| 国产三级在线视频| 少妇猛男粗大的猛烈进出视频 | 国产免费视频播放在线视频 | 亚洲,欧美,日韩| 久久99热这里只有精品18| 熟女人妻精品中文字幕| a级一级毛片免费在线观看| 亚洲真实伦在线观看| 日韩av在线大香蕉| 十八禁国产超污无遮挡网站| 国产av在哪里看| 天天躁日日操中文字幕| 亚洲人成网站高清观看| 午夜福利在线在线| 激情 狠狠 欧美| 亚洲不卡免费看| 纵有疾风起免费观看全集完整版 | av又黄又爽大尺度在线免费看 | 伦理电影大哥的女人| 日韩欧美三级三区| 国产在视频线精品| 午夜免费男女啪啪视频观看| 久久久午夜欧美精品| 久久午夜福利片| 亚洲av成人精品一区久久| 国产免费一级a男人的天堂| 久久人人爽人人爽人人片va| 男人和女人高潮做爰伦理| 亚洲,欧美,日韩| 免费av毛片视频| 国产精品久久久久久精品电影小说 | 狂野欧美白嫩少妇大欣赏| 伦精品一区二区三区| 菩萨蛮人人尽说江南好唐韦庄 | 一级黄片播放器| 国产精品野战在线观看| 五月伊人婷婷丁香| 日本一二三区视频观看| 大又大粗又爽又黄少妇毛片口| 日韩av不卡免费在线播放| 国产黄片视频在线免费观看| 久久久久久久亚洲中文字幕| 男人舔奶头视频| 女人十人毛片免费观看3o分钟| 亚洲在线自拍视频| 中文欧美无线码| 美女cb高潮喷水在线观看| 赤兔流量卡办理| 男人舔女人下体高潮全视频| 老司机影院成人| 国产成人一区二区在线| 精品久久久久久电影网 | 一个人观看的视频www高清免费观看| 丝袜喷水一区| 亚洲真实伦在线观看| 18禁裸乳无遮挡免费网站照片| 赤兔流量卡办理| 久久亚洲精品不卡| 久久久久网色| 欧美最新免费一区二区三区| 久久久久久久午夜电影| 亚洲精品456在线播放app| 免费观看在线日韩| 色吧在线观看| 少妇高潮的动态图| 22中文网久久字幕| 日日啪夜夜撸| av在线播放精品| 国产亚洲一区二区精品| 亚洲av免费高清在线观看| 老师上课跳d突然被开到最大视频| 在线天堂最新版资源| 精品午夜福利在线看| 亚洲不卡免费看| 两个人的视频大全免费| 激情 狠狠 欧美| 老师上课跳d突然被开到最大视频| av播播在线观看一区| 好男人在线观看高清免费视频| 色综合色国产| 国产亚洲最大av| 国产亚洲av片在线观看秒播厂 | 秋霞伦理黄片| 亚洲欧美成人综合另类久久久 | 你懂的网址亚洲精品在线观看 | 午夜视频国产福利| 精品一区二区免费观看| 99热全是精品| 亚洲成人av在线免费| 97在线视频观看| 午夜福利成人在线免费观看| 日本-黄色视频高清免费观看| 天美传媒精品一区二区| 99热这里只有是精品50| 91aial.com中文字幕在线观看| 91久久精品国产一区二区成人| 成人综合一区亚洲| 99久久精品热视频| 麻豆乱淫一区二区| 99视频精品全部免费 在线| 午夜亚洲福利在线播放| 成人一区二区视频在线观看| 26uuu在线亚洲综合色| 简卡轻食公司| 伦精品一区二区三区| av免费在线看不卡| 毛片女人毛片| 欧美+日韩+精品| 在线免费观看的www视频| 麻豆av噜噜一区二区三区| 日韩,欧美,国产一区二区三区 | av女优亚洲男人天堂| 国产精品一区二区三区四区免费观看| 长腿黑丝高跟| 别揉我奶头 嗯啊视频| 国产av在哪里看| 男人和女人高潮做爰伦理| 黄色配什么色好看| 国产亚洲最大av| 欧美另类亚洲清纯唯美| 波多野结衣高清无吗| 亚洲婷婷狠狠爱综合网| kizo精华| 久久久久久久久久黄片| 干丝袜人妻中文字幕| 国产午夜福利久久久久久| 免费大片18禁| 国产亚洲av片在线观看秒播厂 | av福利片在线观看| 久久久久久大精品| 亚洲天堂国产精品一区在线| 亚洲国产精品sss在线观看| 中文乱码字字幕精品一区二区三区 | 蜜桃亚洲精品一区二区三区| 一区二区三区高清视频在线| 亚洲高清免费不卡视频| 亚洲欧美成人精品一区二区| 亚洲国产欧美在线一区| 蜜桃久久精品国产亚洲av| 国产av在哪里看| 在现免费观看毛片| 在线a可以看的网站| 日韩成人av中文字幕在线观看| 天堂av国产一区二区熟女人妻| 亚洲av福利一区| 亚洲一区高清亚洲精品| 汤姆久久久久久久影院中文字幕 | 亚洲天堂国产精品一区在线| 国产av不卡久久| 国产在线男女| 日本免费a在线| 国产精品乱码一区二三区的特点| 欧美成人一区二区免费高清观看| 高清午夜精品一区二区三区| 能在线免费观看的黄片| 黄片无遮挡物在线观看| 别揉我奶头 嗯啊视频| 免费电影在线观看免费观看| av专区在线播放| 嫩草影院精品99| 麻豆成人av视频| 免费观看性生交大片5| 国产精品国产高清国产av| videossex国产| 寂寞人妻少妇视频99o| 最近2019中文字幕mv第一页| 亚洲精品日韩av片在线观看| 又爽又黄a免费视频| 亚洲18禁久久av| 国产在线男女| 日日干狠狠操夜夜爽| 国产精品1区2区在线观看.| 亚洲最大成人av| 欧美+日韩+精品| 少妇猛男粗大的猛烈进出视频 | 欧美激情久久久久久爽电影| 男人的好看免费观看在线视频| 中文天堂在线官网| 久久99热6这里只有精品| 3wmmmm亚洲av在线观看| 十八禁国产超污无遮挡网站| 国产亚洲最大av| 伊人久久精品亚洲午夜| 18禁裸乳无遮挡免费网站照片| 纵有疾风起免费观看全集完整版 | 亚洲图色成人| 精品午夜福利在线看| 久久久久久久久中文| 精品免费久久久久久久清纯| 在线观看66精品国产| 99在线视频只有这里精品首页| 国产三级中文精品| 午夜福利成人在线免费观看| 老师上课跳d突然被开到最大视频| 亚洲av男天堂| 国产伦精品一区二区三区四那| 中国国产av一级| 国产精品伦人一区二区| 菩萨蛮人人尽说江南好唐韦庄 | 亚洲怡红院男人天堂| av在线老鸭窝| 最近视频中文字幕2019在线8| 国产精品乱码一区二三区的特点| 男插女下体视频免费在线播放| 久久热精品热| 亚洲国产成人一精品久久久| 97超视频在线观看视频| 亚洲人成网站在线观看播放| 日韩av在线大香蕉| 永久免费av网站大全| 麻豆av噜噜一区二区三区| 国内揄拍国产精品人妻在线| 精品久久久噜噜| 中文字幕熟女人妻在线| 黄色日韩在线| 国产精品美女特级片免费视频播放器| 国产 一区精品| 亚洲天堂国产精品一区在线| 日韩强制内射视频| 国产精品1区2区在线观看.| 久久久国产成人免费| 91aial.com中文字幕在线观看| 国产av一区在线观看免费| 有码 亚洲区| 天天一区二区日本电影三级| 久久国内精品自在自线图片| 欧美又色又爽又黄视频| 中文字幕免费在线视频6| 黑人高潮一二区| 欧美高清成人免费视频www| 成人午夜高清在线视频| 麻豆久久精品国产亚洲av| 欧美丝袜亚洲另类| 久久99热这里只有精品18| 国产欧美日韩精品一区二区| 国产黄片视频在线免费观看| 永久网站在线| 婷婷色av中文字幕| 黑人高潮一二区| 国产午夜精品论理片| videossex国产| 久久精品人妻少妇| 亚洲av电影不卡..在线观看| 少妇的逼好多水| 久久鲁丝午夜福利片| 午夜精品在线福利| av免费观看日本| 国产成人精品一,二区| 中国国产av一级| 小说图片视频综合网站| 久久久久性生活片| 草草在线视频免费看| 国产淫语在线视频| 69av精品久久久久久| 国产免费福利视频在线观看| 久久草成人影院| 国产精品人妻久久久影院| 欧美人与善性xxx| 男人的好看免费观看在线视频| 只有这里有精品99| 丝袜喷水一区| 午夜亚洲福利在线播放| 国产免费福利视频在线观看| 国产精品久久久久久久久免| 长腿黑丝高跟| 欧美不卡视频在线免费观看| 国产精品美女特级片免费视频播放器| 亚洲欧美成人综合另类久久久 | 亚洲aⅴ乱码一区二区在线播放| 我的老师免费观看完整版| 欧美成人精品欧美一级黄| 亚洲av免费在线观看| 亚洲在久久综合| 男人的好看免费观看在线视频| 久久99蜜桃精品久久| 午夜久久久久精精品| 偷拍熟女少妇极品色| 亚洲第一区二区三区不卡| 欧美丝袜亚洲另类| 国产成年人精品一区二区| 内射极品少妇av片p| 男人和女人高潮做爰伦理| 日本午夜av视频| 久久精品熟女亚洲av麻豆精品 | 老司机影院成人| 五月伊人婷婷丁香| 免费一级毛片在线播放高清视频| 国产免费视频播放在线视频 | 亚洲精品国产成人久久av| 在线观看66精品国产| 三级国产精品片| 亚洲精品乱久久久久久| 日本熟妇午夜| 精品人妻熟女av久视频| 菩萨蛮人人尽说江南好唐韦庄 | 床上黄色一级片| 成年版毛片免费区| 久久人人爽人人片av| 免费电影在线观看免费观看| 熟妇人妻久久中文字幕3abv| 在现免费观看毛片| 色噜噜av男人的天堂激情| 成人欧美大片| 亚洲婷婷狠狠爱综合网| 人人妻人人澡欧美一区二区| 久久久精品大字幕| 69av精品久久久久久| 亚洲精品自拍成人| 国产又黄又爽又无遮挡在线| 一夜夜www| 亚洲第一区二区三区不卡| 最近2019中文字幕mv第一页| 精品人妻视频免费看| 国产成人精品一,二区| 欧美激情在线99| 三级国产精品欧美在线观看| 中文字幕精品亚洲无线码一区| 免费观看a级毛片全部| 国产探花在线观看一区二区| 亚洲高清免费不卡视频| 亚洲欧美精品专区久久| 中文字幕久久专区| 久久韩国三级中文字幕| 久久99精品国语久久久| 成人综合一区亚洲| 18禁在线无遮挡免费观看视频| 国产三级在线视频| 大又大粗又爽又黄少妇毛片口| 六月丁香七月| 欧美日韩在线观看h| av专区在线播放| 国语对白做爰xxxⅹ性视频网站| 97人妻精品一区二区三区麻豆| a级一级毛片免费在线观看| 18禁裸乳无遮挡免费网站照片| 日本午夜av视频| 看黄色毛片网站| 美女cb高潮喷水在线观看| 男人舔女人下体高潮全视频| 亚洲欧美成人精品一区二区| 国产精品嫩草影院av在线观看| 国内揄拍国产精品人妻在线| 尾随美女入室| 精品欧美国产一区二区三| 日本wwww免费看| 搞女人的毛片| 乱系列少妇在线播放| 国产精品国产三级国产av玫瑰|