• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于注意力與同指信息的對(duì)話級(jí)關(guān)系抽取

    2024-03-26 02:39:28周孟佳姬東鴻
    中文信息學(xué)報(bào) 2024年1期
    關(guān)鍵詞:單詞文本信息

    周孟佳,李 霏,姬東鴻

    (武漢大學(xué) 國家網(wǎng)絡(luò)安全學(xué)院,湖北 武漢 430072)

    0 引言

    隨著互聯(lián)網(wǎng)的繁榮發(fā)展,網(wǎng)絡(luò)上涌現(xiàn)了大量的非結(jié)構(gòu)化文本,對(duì)這些文本進(jìn)行信息抽取具有重要意義。關(guān)系抽取是信息抽取的一個(gè)關(guān)鍵問題,其目標(biāo)是從文本中判斷給定實(shí)體之間的關(guān)系,得到(實(shí)體1,關(guān)系,實(shí)體2)三元組。關(guān)系抽取在自然語言處理的許多領(lǐng)域中發(fā)揮著重要作用[1-2]。

    傳統(tǒng)的關(guān)系抽取通常為句內(nèi)關(guān)系抽取,即兩個(gè)實(shí)體來自同一個(gè)句子。Hendrickx等[3]構(gòu)建的人工注釋的關(guān)系抽取語料庫,是句內(nèi)關(guān)系抽取方面的經(jīng)典數(shù)據(jù)集。然而,在現(xiàn)實(shí)場景中,實(shí)體通常是跨句子的,需要利用多個(gè)句子的信息進(jìn)行句間或文檔級(jí)關(guān)系抽取[4]。近年來,文檔級(jí)關(guān)系抽取已成為自然語言處理領(lǐng)域的一個(gè)熱點(diǎn)問題[5-6]。

    對(duì)話級(jí)關(guān)系抽取也具有文檔級(jí)關(guān)系抽取的特點(diǎn),并且還具有自身獨(dú)特的因素。最近,Yu等[7]構(gòu)建了一個(gè)基于對(duì)話的關(guān)系抽取語料庫DialogRE,用于提取對(duì)話中出現(xiàn)的兩個(gè)實(shí)體之間的關(guān)系。如圖1所示,與傳統(tǒng)的關(guān)系抽取不同,DialogRE中的句子是以不同說話者的交替發(fā)言展現(xiàn)的??梢钥吹?對(duì)話中出現(xiàn)了大量的人稱代詞,如I、you、her等。以(Speaker 2, per: negative_impression, Speaker 4)關(guān)系三元組為例,模型需要識(shí)別出最后一句話中的“you”指向“Speaker 4”,從而通過后續(xù)發(fā)言“spend half your… bloody window!”識(shí)別出消極的情感傾向,提取出“per: negative_impression”關(guān)系。這說明在對(duì)話級(jí)關(guān)系抽取任務(wù)中,與人稱代詞相關(guān)的同指信息非常重要。

    圖1 DialogRE數(shù)據(jù)示例

    此外,大部分關(guān)系是跨句的,需要從多個(gè)句子中提取有益信息。例如,對(duì)于實(shí)體對(duì)(Speaker 3, Emily),我們只需要從第三句話“Speaker 3: Now…”中,通過觸發(fā)詞“l(fā)ove”、“honeymoon”,推斷出“Speaker 3”對(duì)“Emily”存在積極的情感傾向,并判斷出他們之間是“per: girl/boyfriend”的關(guān)系。而其他句子,以及這句話中的其他單詞,對(duì)判斷關(guān)系類型的作用很小??紤]到不同類型關(guān)系關(guān)注的信息可能不同,本文添加了注意力機(jī)制,用于區(qū)分不同單詞對(duì)不同關(guān)系的貢獻(xiàn),來增強(qiáng)模型性能。

    基于以上觀察,本文提出了一種基于注意力機(jī)制與同指信息的關(guān)系抽取模型。模型自底向上分為三個(gè)部分: 上下文編碼層,詞-關(guān)系注意力層,關(guān)系分類層。首先,將整篇對(duì)話的單詞序列輸入上下文編碼器,融合BERT[8]與TOD-BERT(Task-Oriented Dialogue BERT)[9]預(yù)訓(xùn)練語言模型的輸出得到單詞表征。然后通過詞-關(guān)系注意力層,計(jì)算不同詞與關(guān)系之間的注意力系數(shù),以評(píng)估不同單詞與不同關(guān)系之間的相互影響。接下來,通過融合實(shí)體提及與人稱代詞的同指信息,得到實(shí)體表示,并將其輸入到一個(gè)雙線性分類器中,預(yù)測最終的關(guān)系類型。

    本文的貢獻(xiàn)主要有三個(gè)方面:

    (1) 提出了一種端到端的對(duì)話級(jí)關(guān)系抽取模型。該模型主要從對(duì)話文本的特點(diǎn)出發(fā),采用TOD-BERT預(yù)訓(xùn)練語言模型豐富對(duì)話文本表征,并提出了詞-關(guān)系注意力、同指信息融合兩個(gè)模塊來增強(qiáng)模型性能。

    (2) 該模型在對(duì)話級(jí)關(guān)系抽取數(shù)據(jù)集DialogRE上,比幾個(gè)常見的基線模型,F1值獲得了明顯提升。

    (3) 通過對(duì)模型各部分進(jìn)行消融實(shí)驗(yàn),驗(yàn)證了TOD-BERT預(yù)訓(xùn)練語言模型、詞-關(guān)系注意力機(jī)制,同指信息等部分對(duì)對(duì)話級(jí)關(guān)系抽取的有效性。

    1 相關(guān)工作

    關(guān)系抽取是自然語言處理領(lǐng)域的一項(xiàng)基本任務(wù),按照實(shí)體對(duì)出現(xiàn)的位置不同,可分為句內(nèi)關(guān)系抽取與句間關(guān)系抽取。其中,句間關(guān)系抽取的研究對(duì)象通常為整篇文檔,因此又稱為文檔級(jí)關(guān)系抽取。

    常見的句內(nèi)關(guān)系抽取數(shù)據(jù)集有SemEval-2010 Task 8[3]、ACE 2004[10]、ACE 2005[11]。Zeng等[12]利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)提取詞匯和句子層次特征,并將其用于關(guān)系預(yù)測。Miwa等[13]提出了基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的關(guān)系抽取模型,捕獲單詞序列和依存樹子結(jié)構(gòu)信息。這些研究忽略了句間關(guān)系類型,即兩個(gè)實(shí)體不在同一個(gè)句子中。

    對(duì)于句間關(guān)系抽取,Li等[14],Wu等[15]構(gòu)建了生物領(lǐng)域兩個(gè)流行數(shù)據(jù)集。Yao等[4]基于維基百科構(gòu)建了最大的人工注釋數(shù)據(jù)集DocRED,用于文檔級(jí)關(guān)系抽取,并提供了大規(guī)模遠(yuǎn)程監(jiān)督數(shù)據(jù),使DocRED可同時(shí)應(yīng)用于有監(jiān)督和弱監(jiān)督的場景。最近,Yu等[7]從《老友記》中構(gòu)建了人類注釋的對(duì)話級(jí)關(guān)系抽取數(shù)據(jù)集DialogRE。為了捕獲文本的篇章級(jí)特征,Peng等[16]提出了graph-LSTM網(wǎng)絡(luò)來提取跨句n元關(guān)系。Sahu等[17]構(gòu)建一個(gè)文檔級(jí)圖卷積神經(jīng)網(wǎng)絡(luò)(Graph Convolutional Neural network, GCN)來同時(shí)捕獲句內(nèi)和句間關(guān)系。Tang等[18]認(rèn)為文檔級(jí)關(guān)系抽取必須考慮多粒度信息,提出了一種層次推理網(wǎng)絡(luò),以充分利用實(shí)體級(jí)、句子級(jí)和文檔級(jí)信息。Christopoulou等[5]提出了第一個(gè)面向邊的圖模型(Edge-Oriented Graph model, EOG)來預(yù)測文檔級(jí)關(guān)系。Nan等[19]構(gòu)建了一個(gè)包含實(shí)體(Entity)、提及(Mention)、最短依存路徑(Meta Dependency Path, MDP)節(jié)點(diǎn)的文檔級(jí)圖,通過潛在結(jié)構(gòu)細(xì)化推理來捕獲有益信息,并忽略無關(guān)信息。Xue等[20]構(gòu)造了一個(gè)潛在的多視圖來捕獲令牌之間各種可能的關(guān)系,并在DialogRE與TACRED[21]數(shù)據(jù)集上實(shí)現(xiàn)了最佳性能。針對(duì)DialogRE數(shù)據(jù)集的特點(diǎn),Chen等[22]構(gòu)建了一個(gè)包含說話者(Speaker)、實(shí)體(Entity)、實(shí)體類型(Entity-type)、話語(Utterance)節(jié)點(diǎn)的圖,并將其輸入圖注意網(wǎng)絡(luò),有效捕捉對(duì)話級(jí)上下文信息。Li等[23]提出了一個(gè)圖增強(qiáng)雙注意力網(wǎng)絡(luò)來刻畫句子和潛在關(guān)系實(shí)例之間的復(fù)雜互動(dòng),以改善句子之間的推理。

    本文主要從對(duì)話級(jí)關(guān)系抽取的特征出發(fā),針對(duì)其文本量大、信息密度低、人稱代詞豐富的特點(diǎn),構(gòu)建了基于注意力機(jī)制與同指信息的關(guān)系抽取模型,并應(yīng)用于最新的對(duì)話級(jí)關(guān)系抽取數(shù)據(jù)集DialogRE。

    2 方法

    本文提出了端到端的對(duì)話級(jí)關(guān)系抽取模型,圖2展示了模型的整體架構(gòu)。模型自底向上共分為三個(gè)部分: 上下文編碼層、詞-關(guān)系注意力層和關(guān)系預(yù)測層。本節(jié)將介紹各個(gè)模塊的結(jié)構(gòu)設(shè)置,以及任務(wù)定義、預(yù)測和訓(xùn)練細(xì)節(jié)。

    圖2 模型架構(gòu)

    2.1 任務(wù)定義

    給定一篇文檔d,由m個(gè)句子{d1,d2,…,di,…,dm}組成。對(duì)話級(jí)關(guān)系抽取的目標(biāo)是從文檔d中判斷兩個(gè)實(shí)體(ei,ej)之間可能存在的關(guān)系r。實(shí)體(ei,ej)∈E,由任務(wù)預(yù)先給出。關(guān)系r={r1,r2,…,ri,…}是一個(gè)集合,存在一個(gè)或一個(gè)以上的關(guān)系類型。ri∈R,R是DialogRE數(shù)據(jù)集中預(yù)定義的關(guān)系列表,包含36種關(guān)系與一個(gè)“unanswerable”關(guān)系類型。

    2.2 上下文編碼層

    本文聯(lián)合采用BERT[8]與TOD-BERT[9]預(yù)訓(xùn)練語言模型作為上下文編碼器。BERT模型采用多層雙向Transformer抽取文本特征,只需要一個(gè)額外的輸出層就可以對(duì)其進(jìn)行微調(diào),應(yīng)用于其他NLP下游任務(wù),如對(duì)話系統(tǒng)[24]、命名實(shí)體識(shí)別[25]等。BERT模型已經(jīng)幫助許多關(guān)系抽取任務(wù)獲得了最先進(jìn)的結(jié)果[19]。TOD-BERT是由Wu等提出的任務(wù)導(dǎo)向型對(duì)話的預(yù)訓(xùn)練語言模型,同樣使用多層雙向Transformer作為編碼器,區(qū)別在于添加了用戶([USR])和系統(tǒng)([SYS])標(biāo)記,用以模擬人類和系統(tǒng)的對(duì)話響應(yīng)。TOD-BERT模型在多個(gè)任務(wù)導(dǎo)向型下游對(duì)話任務(wù)上都獲得了相對(duì)于BERT模型更好的結(jié)果。

    針對(duì)BERT模型,本文將d0中的每個(gè)句子di拼接起來,在句子集合的頭尾分別加上BERT模型分隔符“[CLS]”“[SEP]”,組成一個(gè)單詞序列{[CLS],w1,w2,…,wn,[SEP]},其中n是對(duì)話文本的單詞個(gè)數(shù)。圖1中的對(duì)話對(duì)應(yīng)的單詞序列為{[CLS] Speaker 1: Hey-hey… window!.[SEP]}。BERT模型的編碼過程如式(1)所示。

    (1)

    其中,wp為單詞序列對(duì)應(yīng)的word-pieces,即更小的單詞片。ps、sg分別為相應(yīng)的位置(Positions)嵌入、片段(Segments)嵌入。Tk為第k層隱藏表示,Trmk為第k層Transformer塊,包含一個(gè)自注意力(Self-attention)層和一個(gè)前饋網(wǎng)絡(luò)(Position-wise Feed-forward Network)層。

    針對(duì)TOD-BERT模型,我們?cè)诿枯哠peaker對(duì)話之前加上標(biāo)記[USR],表示該句話是人類發(fā)言。輸入單詞序列為{[CLS],[USR],w1,w2,…,[USR],wi,wi+1,…,wn,[SEP]},圖1中的例子對(duì)應(yīng)為{[CLS] [USR] Speaker 1: Hey-hey…[USR] Speaker 2… window!.[SEP]}。TOD-BERT模型的編碼過程與BERT相同。

    最后,我們將BERT與TOD-BERT模型的頂層輸出拼接,并輸入一個(gè)線性層,得到單詞的上下文表示。

    (2)

    其中,Wc、bc為權(quán)重矩陣及偏置。

    2.3 詞-關(guān)系注意力層

    由于跨句關(guān)系抽取的研究對(duì)象為長文本,備選的關(guān)系類型多樣,本文認(rèn)為不同的單詞對(duì)不同的關(guān)系類型貢獻(xiàn)不同,而不同的關(guān)系類型對(duì)不同的單詞敏感程度也不同。識(shí)別這種關(guān)注傾向性,將有益于模型性能提升。以圖1為例,單詞“honeymoon”對(duì)關(guān)系“per: girl/boyfriend”的貢獻(xiàn)會(huì)更高,而其他單詞,如“tell”“that”等,對(duì)該關(guān)系的貢獻(xiàn)是微乎其微的。

    受Vaswani等[26]提出的注意力機(jī)制的啟發(fā),本文提出詞-關(guān)系注意力模塊,用以評(píng)估單詞和關(guān)系之間的相互影響。該模型將DialogRE中的每個(gè)關(guān)系映射為一個(gè)向量rj,所有的關(guān)系向量組合在一起表示為矩陣R。另外,該模型通過上下文編碼層得到每個(gè)單詞的表示ui,整個(gè)上下文文本被表示為矩陣U。然后,該模塊模擬注意力過程,計(jì)算每一個(gè)單詞ui和每一個(gè)關(guān)系rj之間的注意力分?jǐn)?shù)αij,可使用該注意力分?jǐn)?shù)更新單詞表示,使得每個(gè)單詞表示都嵌入了關(guān)系信息。

    A=Softmax(Q,KT),

    H=AV

    (3)

    其中,A表示由αij組成的注意力矩陣,下標(biāo)i和j分別表示該分?jǐn)?shù)在矩陣A中的行和列。Q=UWQ,K=RWK,V=RWV是來自矩陣U和矩陣R的線性映射。

    本文采用多頭(Multi-head)注意力機(jī)制,所有頭的隱層表示連接起來形成最終的輸出。

    H=H1⊕H2⊕…⊕Hm

    (4)

    其中,Hm為第m個(gè)頭的隱藏表示,m為超參數(shù)。hi∈H作為單詞ui更新后的表示。圖3展示了該模塊的主要結(jié)構(gòu)。

    圖3 詞-關(guān)系注意力層

    2.4 關(guān)系預(yù)測層

    關(guān)系預(yù)測層包含兩個(gè)部分,首先從詞-關(guān)系注意力層輸出的單詞表示中匯聚信息,得到實(shí)體表示,然后將實(shí)體表示輸入到一個(gè)雙線性層,得到最終的關(guān)系類型。

    2.4.1 實(shí)體表示與同指信息的融合

    本文將同指信息與實(shí)體提及(Entity Mentions)融合,生成實(shí)體表示。

    其中實(shí)體是指每一個(gè)關(guān)系示例的頭尾實(shí)體,是一個(gè)抽象概念,也是需要預(yù)測關(guān)系的目標(biāo)對(duì)象。提及為每一個(gè)實(shí)體在對(duì)話中的具體表達(dá),與實(shí)體的抽象表示可能存在差異。例如,實(shí)體“apple”可能同時(shí)對(duì)應(yīng)其單數(shù)(apple)、復(fù)數(shù)(apples)等形式。一個(gè)提及(mj)的表示形式是該提及所包含的單詞(hi)的平均值。

    (5)

    其中,|h|表示提及中包含單詞的數(shù)量。

    對(duì)于實(shí)體對(duì)(ei,ej),如果有一個(gè)實(shí)體形式為“Speaker N”,其中“N”為一個(gè)數(shù)字,表示說話者發(fā)言的次序,本文采用兩種啟發(fā)式規(guī)則將人稱代詞“I”“you”與實(shí)體提及鏈接:

    (1)以“Speaker N”開頭的每個(gè)句子中的“I”都與“Speaker N”存在同指關(guān)系。

    (2)對(duì)“Speaker N”所在句子的前后相鄰句子進(jìn)行搜索,將其中的“you”視為“Speaker N”的一個(gè)提及。

    此外,本文采用基于spaCy工具的NeuralCoref模型[27]解析對(duì)話中出現(xiàn)的其他同指信息,作為對(duì)上述啟發(fā)式規(guī)則的補(bǔ)充。人工試驗(yàn)表明,NeuralCoref在跨句指代消解中的表現(xiàn)效果不好,會(huì)將兩個(gè)句子中的“I”解析為同指關(guān)系。因此,針對(duì)對(duì)話中出現(xiàn)的“him”“her”等其他代詞與其他名詞之間的同指關(guān)系,本文將單個(gè)句子輸入NeuralCoref工具獲取同指信息,并將其鏈接。圖4為NeuralCoref解析同指信息的一個(gè)例子。

    圖4 NeuralCoref解析同指信息示例

    一個(gè)實(shí)體(ei)的表示形式為該實(shí)體所包含的所有提及(mj)與同指人稱代詞(ck)的平均值。

    mj∈m,ck∈c

    (6)

    其中,|m|表示實(shí)體中包含提及的數(shù)量,|c|表示與相應(yīng)實(shí)體存在同指關(guān)系的人稱代詞數(shù)量。

    圖5展示了同指信息融合的一個(gè)例子。具有相同輪廓的詞組信息匯聚,形成相應(yīng)的實(shí)體表示。

    圖5 同指信息融合示例

    2.4.2 關(guān)系分類

    經(jīng)過同指信息融合,模型得到所有實(shí)體的表示。根據(jù)Yao等[4]的工作,對(duì)于每一個(gè)實(shí)體對(duì)(ei,ej),該模塊通過一個(gè)雙線性函數(shù)來計(jì)算其匹配每個(gè)關(guān)系類型的概率如式(7)所示。

    P(r|ei,ej)=ReLU(eiTWrej+br)

    (7)

    其中,Wr、br是與關(guān)系類型r相關(guān)的權(quán)重矩陣及偏置。

    根據(jù)Yu等[7]的設(shè)置,本文選取k個(gè)具有最高分?jǐn)?shù)的關(guān)系類型作為最終預(yù)測的關(guān)系集合。k的取值依賴于閾值T,是通過在開發(fā)集上的調(diào)優(yōu)獲得的。如果一個(gè)實(shí)體對(duì)的所有關(guān)系類型得分都低于T,模型認(rèn)為該實(shí)體對(duì)之間的關(guān)系是“unanswerable”。

    2.5 訓(xùn)練

    模型從關(guān)系預(yù)測層得到實(shí)體對(duì)(ei,ej)在36種關(guān)系類型上的概率得分,接下來,本文采用二元交叉熵(Binary Cross Entropy, BCE)作為損失函數(shù)(Loss Function),如式(8)所示。

    (8)

    其中,pn是模型預(yù)測出的每個(gè)關(guān)系類型的概率,yn∈{0,1}是關(guān)系的真實(shí)標(biāo)簽。

    本文采用Adam算法[28]作為優(yōu)化器,初始的學(xué)習(xí)速率(learning rate)為1e-5,并采用小批量(mini-batch)梯度下降來更新模型。參考Christopoulou等[5]的工作,實(shí)驗(yàn)采用早期停止策略來確定最佳的訓(xùn)練周期,也就是說,如果開發(fā)集的F1分?jǐn)?shù)在幾個(gè)訓(xùn)練周期內(nèi)沒有提升,訓(xùn)練就會(huì)停止。

    3 實(shí)驗(yàn)設(shè)置

    3.1 實(shí)驗(yàn)數(shù)據(jù)

    本文采用最新的對(duì)話級(jí)關(guān)系抽取數(shù)據(jù)集DialogRE[7]來評(píng)估提出的模型。該數(shù)據(jù)集從美國電視情景喜劇《老友記》共10季(263集)的文本中構(gòu)建了1 788篇對(duì)話,涵蓋了各種各樣的話題,包括36種關(guān)系類型。數(shù)據(jù)集包括中文和英文兩個(gè)版本,是關(guān)系抽取領(lǐng)域第一個(gè)面向?qū)υ捨谋镜臄?shù)據(jù)集。與傳統(tǒng)的文檔級(jí)關(guān)系抽取數(shù)據(jù)相比,DialogRE數(shù)據(jù)具有語言隨意、信息密度低、人稱代詞豐富、互動(dòng)性強(qiáng)的特點(diǎn)。本文所構(gòu)建的端到端關(guān)系抽取模型,包含TOD-BERT預(yù)訓(xùn)練模型、詞-關(guān)系注意力機(jī)制、同指信息融合幾個(gè)模塊,正是針對(duì)上述特點(diǎn)提出的。表1展示了該數(shù)據(jù)集在訓(xùn)練集、開發(fā)集和測試集上的統(tǒng)計(jì)信息。

    表1 DialogRE數(shù)據(jù)集統(tǒng)計(jì)信息

    可以看到,數(shù)據(jù)集中存在大量人稱代詞,因此,識(shí)別對(duì)話中人稱代詞的指向信息對(duì)提升模型性能是有益的。

    3.2 預(yù)處理

    本文將每個(gè)關(guān)系三元組(ei,r,ej)視為一個(gè)實(shí)例,如(Speaker 3,{per: girl/boyfriend,per: positive_impression}, Emily)。由于實(shí)體的具體名稱直接出現(xiàn)在三元組中,我們采用暴力搜索的方式得到每個(gè)實(shí)體在對(duì)話上下文中的所有提及。

    根據(jù)Wang等[29]、Wu等[9]的工作,本文使用BERT與TOD-BERT作為上下文編碼器,當(dāng)輸入序列長度大于512時(shí),模型對(duì)輸入文本做截?cái)嘁赃m應(yīng)BERT。由于TOD-BERT論文作者沒有提供預(yù)訓(xùn)練模型的中文版本,我們使用RiSAWOZ數(shù)據(jù)集[30]在BERT模型上Fine-tune得到TOD-BERT中文預(yù)訓(xùn)練模型,以豐富上下文編碼器輸出的對(duì)話特征。

    3.3 超參數(shù)設(shè)置

    本文的超參數(shù)設(shè)置如表2 所示。其中,Batch Size為實(shí)驗(yàn)的批處理大小,取決于硬件配置。BERT/TOD-BERT Output Size為上下文編碼器的輸出維度。MLP Hidden Size表示模型中所有線性層的隱層大小。WR.att表示詞-關(guān)系注意力層的相關(guān)指標(biāo)。Greedyness是指在獲取實(shí)體提及同指信息的階段,傳入NeuralCoref解析器的超參數(shù),其值越大,能解析出來的同指實(shí)體越多,但準(zhǔn)確度越低。T為關(guān)系預(yù)測層采用的閾值,其值決定了模型最終預(yù)測的關(guān)系集合。

    表2 超參數(shù)設(shè)置

    3.4 基線模型

    我們分別使用兩種模型作為基線:

    (1)基于BERT的模型:第一種類型的基線是由數(shù)據(jù)集構(gòu)建者Yu等[7]建立的模型,稱為BERT和BERTs。其中,給定的對(duì)話d和實(shí)體(ei,ej)與標(biāo)記“[CLS]”和“[SEP]”連接,以便將實(shí)體信息融合到輸入序列中。此外,在BERTs中,它們將實(shí)體對(duì)中“Speaker N”形式的說話者修改為特定標(biāo)記“[unused1]”或“[unused2]”,并在整個(gè)對(duì)話文本中替換,以定位相關(guān)輪次的起始位置,同時(shí)防止過擬合。

    本文同樣在Wang等[29]的模型上運(yùn)行了DialogRE數(shù)據(jù)集,我們把該方法稱為BERT Bilinear。與Yu等[7]的BERT模型相比,二者的區(qū)別在于,Yu等是將輸入文本d與實(shí)體對(duì)拼接,得到“[CLS]d[SEP]ei[SEP]ej[SEP]”的序列,輸入BERT編碼器進(jìn)行分類預(yù)測。而Wang等只將文本d與“[CLS]”、“[SEP]”連接輸入BERT,得到每個(gè)單詞的表征,然后通過平均匯集每個(gè)實(shí)體的提及表示來得到關(guān)系中的頭尾實(shí)體表示,最后接一個(gè)雙線性分類層預(yù)測相應(yīng)的關(guān)系類型。

    (2)基于圖的模型: 根據(jù)Nan等[19]的工作,本文在LSR(Latent Structure Refifinement)模型上運(yùn)行DialogRE數(shù)據(jù)集。他們構(gòu)建了結(jié)構(gòu)歸納(Structure Induction)模塊來學(xué)習(xí)文檔級(jí)圖的潛在結(jié)構(gòu),然后使用多跳推理模塊對(duì)誘導(dǎo)的潛在結(jié)構(gòu)進(jìn)行推理,根據(jù)信息聚合方案更新每個(gè)節(jié)點(diǎn)的表示。

    3.5 評(píng)價(jià)指標(biāo)

    根據(jù)Yu等[7]的設(shè)置,本文使用F1得分作為性能評(píng)估指標(biāo)。F1得分計(jì)算如式(9)所示。

    (9)

    如果一個(gè)預(yù)測的關(guān)系和一個(gè)真實(shí)標(biāo)簽匹配,它將被計(jì)算為真正例(True-Positive,TP);如果一個(gè)預(yù)測的關(guān)系不匹配任何真實(shí)標(biāo)簽,它將被計(jì)算為假正例(False-Positive,FP);如果一個(gè)真實(shí)標(biāo)簽不匹配任何預(yù)測出的關(guān)系,它將被計(jì)算為假負(fù)例(False-Negative,FN)。例如,給定一個(gè)預(yù)測關(guān)系實(shí)例(e1,{r1,r2},e2)及其對(duì)應(yīng)的真實(shí)關(guān)系實(shí)例(e1,{r2,r3},e2),r2,r1和r3分別算作TP,FP和FN。

    4 實(shí)驗(yàn)結(jié)果與分析

    4.1 主要結(jié)果

    本文在DialogRE中英文數(shù)據(jù)集上驗(yàn)證提出的端到端關(guān)系抽取模型,并將其在開發(fā)集與測試集上的結(jié)果與現(xiàn)有的基線模型比較。相關(guān)結(jié)果如表3所示??梢钥吹?基線模型中LSR模型表現(xiàn)最好,在英文測試集上的F1分?jǐn)?shù)達(dá)到了62.89%。需要注意的是,LSR模型是基于圖的模型,而本文模型在沒有使用圖推理的情況下,就取得了比圖模型更好的結(jié)果。

    表3 實(shí)驗(yàn)結(jié)果 (單位: %)

    本文提出的模型在DialogRE的中英文數(shù)據(jù)集上都達(dá)到了最優(yōu)的結(jié)果,在測試集上的F1分?jǐn)?shù)相較于LSR模型分別提升了0.88%和0.86%。與數(shù)據(jù)集開發(fā)者提出的BERTs模型相比,本文模型在英文開發(fā)集與測試集上的結(jié)果分別提升1.56%與2.57%,在中文數(shù)據(jù)集上分別提升4.71%和7.68%。這充分說明了本文采用的TOD-BERT編碼器、詞-關(guān)系注意力模塊與同指信息融合是有益于模型性能的。

    4.2 消融實(shí)驗(yàn)

    本文在DialogRE英文數(shù)據(jù)集上進(jìn)行了消融實(shí)驗(yàn)來驗(yàn)證提出模塊的有效性,具體結(jié)果如表4所示。

    表4 消融研究 (單位: %)

    4.2.1 詞-關(guān)系注意力

    根據(jù)不同關(guān)系關(guān)注不同單詞的假設(shè),本文提出了詞-關(guān)系注意力機(jī)制,用以評(píng)估關(guān)系類型與單詞之間的相互影響。表4中的結(jié)果表明,去掉詞-關(guān)系注意力模塊之后,模型在開發(fā)集和測試集上的F1分?jǐn)?shù)分別下降了1.05%和0.53%。

    如圖6所示,本小節(jié)選取了對(duì)話中單詞與不同關(guān)系之間注意力權(quán)重分布的一個(gè)例子。橫軸表示單詞文本,縱軸是所選的四個(gè)關(guān)系類型??梢钥吹?在表示關(guān)系“per: children”的第二行中,單詞“dad”取得了最高的注意力分?jǐn)?shù),這就意味著單詞“dad”對(duì)這種關(guān)系的貢獻(xiàn)程度最大。相反,其他三種關(guān)系對(duì)單詞的注意力權(quán)重分布呈現(xiàn)隨機(jī)性,因?yàn)檫@個(gè)例子中并沒有包含這三種關(guān)系。

    圖6 詞-關(guān)系注意力矩陣

    4.2.2 同指信息融合

    如表4所示,在缺少同指信息融合的情況下,模型在測試集與開發(fā)集上的F1分?jǐn)?shù)分別下降了1.37%和0.81%。由于對(duì)話文本的特點(diǎn),人稱代詞在對(duì)話中普遍存在,尤其是“I”和“you”。根據(jù)表1中的統(tǒng)計(jì)數(shù)據(jù)以及我們對(duì)數(shù)據(jù)集的觀察,許多代詞都指向某一個(gè)實(shí)體。因此,識(shí)別人稱代詞與說話人之間的同指關(guān)系,可以增強(qiáng)說話人與對(duì)話文本的聯(lián)結(jié),進(jìn)而提升模型性能。

    在圖7的第一個(gè)例子中,我們可以從第三句話的“I love you”中推斷出“I”與“you”之間存在積極的情感傾向,而只有進(jìn)一步判斷“I”指向“Speaker 1”“you”指向“Speaker 2”,我們才能將“per: positive_impression”關(guān)系類型映射到真正的說話人身上,而不是其他說話人。

    圖7 同指信息實(shí)例

    類似地,在圖7的第二個(gè)例子中,我們只能從第一句話中判斷出“you”與“Joey Tribbiani”是同一個(gè)人,只有將人稱代詞“you”與“Speaker 2”鏈接,才能推斷出“Speaker 2”與“Joey Tribbiani”之間存在“per: alter_names”的關(guān)系,即兩個(gè)實(shí)體互為別稱,指向同一個(gè)實(shí)體對(duì)象。需要注意的是,在DialogRE數(shù)據(jù)集中,關(guān)系類型“per: alter_names”所占比例極高,達(dá)到了所有實(shí)例的21.9%??梢灾庇^看出,識(shí)別人稱代詞與說話人之間的同指信息,對(duì)預(yù)測這種類型的關(guān)系非常有用。我們推測這也是同指信息融合模塊對(duì)模型性能提升最大的原因之一。

    此外,我們還對(duì)啟發(fā)式規(guī)則與NeuralCoref指代消解做了消融實(shí)驗(yàn),分析它們對(duì)模型的貢獻(xiàn)。從表4中可以看出,前者對(duì)模型的貢獻(xiàn)更大,而在使用了啟發(fā)式規(guī)則的情況下,NeuralCoref指代消解工具反而對(duì)測試集的F1分?jǐn)?shù)有負(fù)面作用。我們分析是因?yàn)樵趯?duì)話文本中,NeuralCoref識(shí)別出的同指信息不多,且準(zhǔn)確率不高,可能與啟發(fā)式規(guī)則存在沖突。在超參數(shù)Greedyness設(shè)為0.5的情況下,只有21.24%的實(shí)例識(shí)別出了與兩個(gè)實(shí)體相關(guān)的同指信息。

    4.2.3 TOD-BERT

    我們還對(duì)TOD-BERT預(yù)訓(xùn)練模型在對(duì)話任務(wù)上的提升效果做了消融實(shí)驗(yàn),表4中結(jié)果表明,相較于只采用BERT作為上下文編碼器,融合TOD-BERT預(yù)訓(xùn)練語言模型的輸出特征,在開發(fā)集和測試集上分別可以貢獻(xiàn)0.93%和0.86%。

    本文還實(shí)驗(yàn)了只使用TOD-BERT在英文數(shù)據(jù)集上的效果,如表4所示,在去掉BERT作為上下文編碼器的情況下,模型在開發(fā)集和測試集上的F1分?jǐn)?shù)分別下降到60.08%和59.56%。我們認(rèn)為,這是由于TOD-BERT預(yù)訓(xùn)練的數(shù)據(jù)是任務(wù)導(dǎo)向型對(duì)話,多存在于人和機(jī)器之間,而本文所采用的DialogRE數(shù)據(jù)集構(gòu)建于《老友記》,是人與人之間的日常對(duì)話。因此TOD-BERT的編碼特征并不能完全取代BERT預(yù)訓(xùn)練語言模型。但其針對(duì)對(duì)話中特有的人稱指代、互動(dòng)性等特點(diǎn),又可以作為對(duì)BERT模型輸出特征的補(bǔ)充。

    5 結(jié)語

    本文提出了端到端的對(duì)話級(jí)關(guān)系抽取模型,針對(duì)對(duì)話文本的特點(diǎn),采用TOD-BERT預(yù)訓(xùn)練語言模型增強(qiáng)單詞表征,并提出了詞-關(guān)系注意力層、同指信息融合兩個(gè)模塊來提升模型性能。實(shí)驗(yàn)驗(yàn)證了不同單詞與不同關(guān)系之間相互作用對(duì)關(guān)系抽取的影響,并詳細(xì)分析了同指信息在對(duì)話級(jí)關(guān)系抽取中有效的原因。與現(xiàn)有模型相比,本文提出的模型在DialogRE數(shù)據(jù)集上的F1分?jǐn)?shù)得到顯著提升,達(dá)到最優(yōu)。并通過消融實(shí)驗(yàn),證明提出的每個(gè)模塊都是有效的。

    在今后的工作中,主要從以下三個(gè)方面來進(jìn)一步優(yōu)化模型: ①嘗試將同指信息融合作為輔助任務(wù),與對(duì)話級(jí)關(guān)系抽取任務(wù)聯(lián)合訓(xùn)練,增強(qiáng)模型性能; ②針對(duì)數(shù)據(jù)集DialogRE,增加對(duì)文本中說話人信息等的考慮,構(gòu)建更適合對(duì)話級(jí)關(guān)系抽取的模型; ③增加圖推理模塊,更好地輔助文檔級(jí)信息推理。

    猜你喜歡
    單詞文本信息
    單詞連一連
    在808DA上文本顯示的改善
    基于doc2vec和TF-IDF的相似文本識(shí)別
    電子制作(2018年18期)2018-11-14 01:48:06
    看圖填單詞
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    看完這些單詞的翻譯,整個(gè)人都不好了
    文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
    展會(huì)信息
    如何快速走進(jìn)文本
    單詞拾趣
    海外英語(2006年8期)2006-09-28 08:49:00
    国产 一区精品| 男人狂女人下面高潮的视频| 春色校园在线视频观看| 成人无遮挡网站| 久久午夜福利片| 国产视频内射| 中文字幕久久专区| 国产精品一区二区性色av| 香蕉av资源在线| 99国产精品一区二区蜜桃av| 色视频www国产| 免费一级毛片在线播放高清视频| 精品一区二区三区视频在线观看免费| 久久香蕉精品热| 国产成人av教育| 乱系列少妇在线播放| 99久久无色码亚洲精品果冻| 国产高清有码在线观看视频| 日日干狠狠操夜夜爽| 亚洲av一区综合| 国产一区二区在线av高清观看| 久久精品影院6| 亚洲内射少妇av| 女生性感内裤真人,穿戴方法视频| 国产一区二区激情短视频| 国产成人福利小说| 男女边吃奶边做爰视频| 国产精品一及| 亚洲精品粉嫩美女一区| 亚洲精品国产成人久久av| 国产精品久久久久久av不卡| 欧美中文日本在线观看视频| 欧美精品啪啪一区二区三区| 成人国产麻豆网| 最近中文字幕高清免费大全6 | 国内久久婷婷六月综合欲色啪| 亚洲va日本ⅴa欧美va伊人久久| 免费看a级黄色片| 久久久久久久午夜电影| 99精品久久久久人妻精品| 国产精品一区二区免费欧美| 国产精品综合久久久久久久免费| 久久精品综合一区二区三区| 午夜爱爱视频在线播放| 国产精品人妻久久久久久| 22中文网久久字幕| 美女xxoo啪啪120秒动态图| 国内精品久久久久久久电影| 国产伦一二天堂av在线观看| 久久精品国产自在天天线| 天美传媒精品一区二区| 国产v大片淫在线免费观看| 熟妇人妻久久中文字幕3abv| 久久久午夜欧美精品| 亚洲无线在线观看| 国产色爽女视频免费观看| 国产精品国产高清国产av| 97人妻精品一区二区三区麻豆| 俄罗斯特黄特色一大片| 国产单亲对白刺激| 欧美激情久久久久久爽电影| 一区福利在线观看| 俺也久久电影网| 尤物成人国产欧美一区二区三区| 亚洲中文字幕一区二区三区有码在线看| 国产精品国产三级国产av玫瑰| 高清毛片免费观看视频网站| 成人一区二区视频在线观看| av天堂在线播放| 国产精品自产拍在线观看55亚洲| 欧美成人免费av一区二区三区| 国产免费男女视频| 免费观看在线日韩| 黄色配什么色好看| 在现免费观看毛片| 午夜福利视频1000在线观看| 国模一区二区三区四区视频| 日韩欧美精品免费久久| 精品一区二区三区视频在线| 国产精品一区www在线观看 | 亚洲,欧美,日韩| 国产白丝娇喘喷水9色精品| 久久香蕉精品热| 中文字幕av成人在线电影| 免费看a级黄色片| 国产精品av视频在线免费观看| or卡值多少钱| 国产视频内射| 亚洲专区国产一区二区| 亚洲一级一片aⅴ在线观看| 18禁裸乳无遮挡免费网站照片| 国产大屁股一区二区在线视频| 国产精品亚洲一级av第二区| 久久久久久久午夜电影| 成人亚洲精品av一区二区| 欧美激情久久久久久爽电影| 亚洲av免费在线观看| 亚洲av免费高清在线观看| 国产成人a区在线观看| 不卡一级毛片| 舔av片在线| 女人被狂操c到高潮| 亚洲最大成人中文| 99热只有精品国产| 免费在线观看成人毛片| 老司机深夜福利视频在线观看| 国产 一区精品| 日韩av在线大香蕉| 亚洲在线自拍视频| 国产午夜精品久久久久久一区二区三区 | 国产三级在线视频| 校园人妻丝袜中文字幕| 欧美高清性xxxxhd video| 国产精品98久久久久久宅男小说| АⅤ资源中文在线天堂| 成人鲁丝片一二三区免费| 欧美激情久久久久久爽电影| 久久精品影院6| 在线免费观看不下载黄p国产 | 久久午夜福利片| 九色国产91popny在线| 欧美三级亚洲精品| 久久久精品欧美日韩精品| 成人二区视频| 99视频精品全部免费 在线| 精品午夜福利在线看| 乱系列少妇在线播放| 久久久久免费精品人妻一区二区| 一进一出好大好爽视频| 欧美xxxx性猛交bbbb| 亚洲国产日韩欧美精品在线观看| 草草在线视频免费看| 18禁裸乳无遮挡免费网站照片| 黄色欧美视频在线观看| 村上凉子中文字幕在线| 丝袜美腿在线中文| 午夜久久久久精精品| 亚洲中文字幕一区二区三区有码在线看| 男女边吃奶边做爰视频| 国产精品久久电影中文字幕| 国内精品美女久久久久久| 欧美日韩中文字幕国产精品一区二区三区| 免费黄网站久久成人精品| 麻豆成人av在线观看| 国产高清视频在线观看网站| 久久精品国产99精品国产亚洲性色| 国产免费男女视频| 神马国产精品三级电影在线观看| 中文字幕免费在线视频6| 国产又黄又爽又无遮挡在线| 小说图片视频综合网站| 99国产极品粉嫩在线观看| 在线观看一区二区三区| 亚洲国产欧洲综合997久久,| 狂野欧美激情性xxxx在线观看| 国产精品久久久久久av不卡| 中文字幕精品亚洲无线码一区| 国产在视频线在精品| 特级一级黄色大片| av.在线天堂| 欧美日本亚洲视频在线播放| 久久久久久久久大av| 一级毛片久久久久久久久女| 亚洲欧美日韩高清专用| 直男gayav资源| 欧美激情国产日韩精品一区| 欧美一区二区精品小视频在线| 亚洲av美国av| 一本久久中文字幕| 蜜桃亚洲精品一区二区三区| 日本黄大片高清| 舔av片在线| 亚洲第一电影网av| 日本与韩国留学比较| 嫩草影院入口| 联通29元200g的流量卡| 久久99热这里只有精品18| 久久久国产成人免费| 久久精品国产亚洲av涩爱 | 国内精品一区二区在线观看| 欧美精品国产亚洲| 欧美另类亚洲清纯唯美| 午夜福利在线在线| 在线观看66精品国产| 亚洲熟妇中文字幕五十中出| 如何舔出高潮| 又黄又爽又刺激的免费视频.| 成人国产综合亚洲| 性欧美人与动物交配| 亚洲精品乱码久久久v下载方式| 十八禁国产超污无遮挡网站| 国产亚洲精品综合一区在线观看| 国产一区二区三区视频了| 日日啪夜夜撸| av在线观看视频网站免费| 国产男人的电影天堂91| 国产精品女同一区二区软件 | 久久午夜亚洲精品久久| 夜夜夜夜夜久久久久| 老女人水多毛片| 麻豆成人av在线观看| 欧美一区二区国产精品久久精品| 国产单亲对白刺激| 亚洲 国产 在线| 偷拍熟女少妇极品色| 观看免费一级毛片| 又紧又爽又黄一区二区| 亚洲性夜色夜夜综合| 国产精品久久久久久久久免| 久久精品91蜜桃| 变态另类丝袜制服| 三级毛片av免费| 欧美不卡视频在线免费观看| 亚洲av免费在线观看| 成年人黄色毛片网站| 国产高清三级在线| 午夜福利欧美成人| 毛片女人毛片| 亚洲精品一卡2卡三卡4卡5卡| 国产蜜桃级精品一区二区三区| 非洲黑人性xxxx精品又粗又长| 国产伦在线观看视频一区| 久久中文看片网| 精品人妻熟女av久视频| 夜夜看夜夜爽夜夜摸| 天堂√8在线中文| 国产v大片淫在线免费观看| 亚洲av二区三区四区| 成人特级av手机在线观看| 97超级碰碰碰精品色视频在线观看| av天堂中文字幕网| 亚洲无线在线观看| 国产精品久久电影中文字幕| 国产真实伦视频高清在线观看 | 亚洲人成网站在线播放欧美日韩| 精品久久国产蜜桃| 淫妇啪啪啪对白视频| 成人毛片a级毛片在线播放| 一区二区三区四区激情视频 | 性插视频无遮挡在线免费观看| 久久精品国产亚洲av天美| 久久草成人影院| 搡老妇女老女人老熟妇| 欧美zozozo另类| 在线免费观看不下载黄p国产 | 午夜免费男女啪啪视频观看 | 亚洲国产日韩欧美精品在线观看| 日韩人妻高清精品专区| 久久亚洲精品不卡| 亚洲av一区综合| 国产视频内射| 久久久精品大字幕| 不卡视频在线观看欧美| 一区二区三区高清视频在线| 在线观看一区二区三区| 制服丝袜大香蕉在线| 亚洲四区av| 一级黄片播放器| 亚洲精品色激情综合| 国产精品一区二区三区四区久久| 俄罗斯特黄特色一大片| 亚洲最大成人手机在线| 国产 一区 欧美 日韩| 国产午夜精品论理片| 91久久精品电影网| 欧美bdsm另类| 哪里可以看免费的av片| 欧美成人一区二区免费高清观看| 免费黄网站久久成人精品| 在线观看舔阴道视频| 麻豆久久精品国产亚洲av| 88av欧美| 岛国在线免费视频观看| av女优亚洲男人天堂| 日本三级黄在线观看| 色综合婷婷激情| 日韩欧美 国产精品| 黄色女人牲交| or卡值多少钱| 免费看日本二区| 在线播放无遮挡| 久久欧美精品欧美久久欧美| 一a级毛片在线观看| 男女那种视频在线观看| 成人永久免费在线观看视频| 神马国产精品三级电影在线观看| 九九热线精品视视频播放| 久久久久九九精品影院| 赤兔流量卡办理| 午夜福利高清视频| 天堂动漫精品| 午夜精品在线福利| 蜜桃久久精品国产亚洲av| 欧美高清成人免费视频www| 免费看a级黄色片| 欧美性猛交黑人性爽| 在现免费观看毛片| 天堂av国产一区二区熟女人妻| 国产女主播在线喷水免费视频网站 | 国产一区二区三区在线臀色熟女| 精品无人区乱码1区二区| 在线国产一区二区在线| 欧美日韩精品成人综合77777| 男女之事视频高清在线观看| 精品久久久久久久久久免费视频| 日韩精品有码人妻一区| 日本撒尿小便嘘嘘汇集6| 三级国产精品欧美在线观看| 亚洲五月天丁香| 欧美精品啪啪一区二区三区| 亚洲无线在线观看| 少妇的逼水好多| 亚洲综合色惰| 精品99又大又爽又粗少妇毛片 | 亚洲熟妇中文字幕五十中出| 亚洲av不卡在线观看| 国产视频一区二区在线看| 我要看日韩黄色一级片| 中文资源天堂在线| 国产一区二区在线av高清观看| 男人狂女人下面高潮的视频| 欧美精品啪啪一区二区三区| 日韩一本色道免费dvd| 日本成人三级电影网站| 国内精品美女久久久久久| 久久婷婷人人爽人人干人人爱| 超碰av人人做人人爽久久| 成人鲁丝片一二三区免费| 国产伦精品一区二区三区四那| 两个人的视频大全免费| 午夜免费激情av| 伦精品一区二区三区| 精品久久久久久久久av| 久久人妻av系列| 久久亚洲精品不卡| 久久99热6这里只有精品| 国内少妇人妻偷人精品xxx网站| 一区二区三区免费毛片| 18+在线观看网站| 亚洲精品色激情综合| 日本撒尿小便嘘嘘汇集6| 亚洲中文字幕日韩| 两个人视频免费观看高清| 两性午夜刺激爽爽歪歪视频在线观看| 国产国拍精品亚洲av在线观看| 九色国产91popny在线| 无遮挡黄片免费观看| 亚洲人成伊人成综合网2020| 亚洲成人免费电影在线观看| 午夜老司机福利剧场| 尾随美女入室| 超碰av人人做人人爽久久| 精品国内亚洲2022精品成人| 女生性感内裤真人,穿戴方法视频| 亚洲图色成人| 国产91精品成人一区二区三区| 亚洲精品456在线播放app | 国产精品精品国产色婷婷| 久久久久久久久中文| 国产私拍福利视频在线观看| 淫妇啪啪啪对白视频| 男女下面进入的视频免费午夜| 91麻豆av在线| 色在线成人网| 校园春色视频在线观看| 成人国产一区最新在线观看| 三级毛片av免费| 久久精品国产亚洲av涩爱 | 国产午夜福利久久久久久| 亚洲欧美日韩无卡精品| 成人永久免费在线观看视频| 免费观看在线日韩| 亚洲一级一片aⅴ在线观看| 国产淫片久久久久久久久| 欧美潮喷喷水| 久久精品国产鲁丝片午夜精品 | 亚洲成av人片在线播放无| av在线观看视频网站免费| 国产精品日韩av在线免费观看| 性欧美人与动物交配| 三级国产精品欧美在线观看| 国内毛片毛片毛片毛片毛片| 国模一区二区三区四区视频| 啦啦啦韩国在线观看视频| 色哟哟哟哟哟哟| 久久婷婷人人爽人人干人人爱| 精品欧美国产一区二区三| 中出人妻视频一区二区| 日本一本二区三区精品| 亚洲国产精品合色在线| 国产午夜精品久久久久久一区二区三区 | 免费高清视频大片| 五月伊人婷婷丁香| 日本 av在线| 91久久精品国产一区二区三区| 美女 人体艺术 gogo| 在线国产一区二区在线| 少妇人妻一区二区三区视频| 精品久久久久久久末码| 伊人久久精品亚洲午夜| 人妻夜夜爽99麻豆av| 久久精品夜夜夜夜夜久久蜜豆| 日本免费a在线| 51国产日韩欧美| h日本视频在线播放| 国产 一区精品| 露出奶头的视频| 99热这里只有精品一区| 免费观看在线日韩| 黄色视频,在线免费观看| 久久久久久久久久成人| 亚洲精品粉嫩美女一区| 国产色婷婷99| 男女做爰动态图高潮gif福利片| 国内久久婷婷六月综合欲色啪| 人人妻人人澡欧美一区二区| 久久精品国产亚洲网站| 97碰自拍视频| 精品日产1卡2卡| 日韩一本色道免费dvd| 两人在一起打扑克的视频| 老熟妇仑乱视频hdxx| 亚洲国产色片| 成人国产一区最新在线观看| 午夜激情欧美在线| 成人毛片a级毛片在线播放| 亚洲四区av| 成人av一区二区三区在线看| 亚洲最大成人手机在线| 久久久午夜欧美精品| 亚洲人与动物交配视频| 国产三级在线视频| 久久99热6这里只有精品| eeuss影院久久| 精品无人区乱码1区二区| 欧美一区二区精品小视频在线| 久久久久性生活片| 99国产极品粉嫩在线观看| 极品教师在线视频| 国产 一区精品| 别揉我奶头 嗯啊视频| 久久国产乱子免费精品| 色尼玛亚洲综合影院| 村上凉子中文字幕在线| АⅤ资源中文在线天堂| 乱码一卡2卡4卡精品| 日本精品一区二区三区蜜桃| 中文字幕人妻熟人妻熟丝袜美| 黄色女人牲交| 美女被艹到高潮喷水动态| 中文字幕熟女人妻在线| 国产精品亚洲美女久久久| 国产精品久久久久久av不卡| 老熟妇乱子伦视频在线观看| 在现免费观看毛片| 又黄又爽又免费观看的视频| 男插女下体视频免费在线播放| 黄色配什么色好看| 亚洲精华国产精华精| 欧美区成人在线视频| 午夜福利在线观看吧| 三级国产精品欧美在线观看| 精品人妻熟女av久视频| 日本色播在线视频| 91精品国产九色| 久久婷婷人人爽人人干人人爱| 日本三级黄在线观看| 亚洲熟妇中文字幕五十中出| 国产综合懂色| 亚洲精品国产成人久久av| 欧美日韩瑟瑟在线播放| 亚洲欧美日韩卡通动漫| 亚洲电影在线观看av| 久久久久九九精品影院| 日日啪夜夜撸| 99在线视频只有这里精品首页| 成人国产一区最新在线观看| 欧美极品一区二区三区四区| 久久精品久久久久久噜噜老黄 | 亚洲性夜色夜夜综合| netflix在线观看网站| 美女xxoo啪啪120秒动态图| 亚洲色图av天堂| 欧美成人性av电影在线观看| 亚洲色图av天堂| 亚洲精品久久国产高清桃花| 欧美+日韩+精品| 国产黄色小视频在线观看| 成人永久免费在线观看视频| av视频在线观看入口| 成人国产综合亚洲| 成人无遮挡网站| 国产精品综合久久久久久久免费| 国产精品美女特级片免费视频播放器| 国产不卡一卡二| 欧美丝袜亚洲另类 | 午夜激情欧美在线| 男女下面进入的视频免费午夜| 午夜精品一区二区三区免费看| 变态另类丝袜制服| 久久久久国产精品人妻aⅴ院| 欧美黑人巨大hd| 欧美一区二区精品小视频在线| 亚洲欧美日韩高清专用| 一进一出抽搐gif免费好疼| 91精品国产九色| 久久精品夜夜夜夜夜久久蜜豆| 国产探花在线观看一区二区| a级毛片a级免费在线| 日韩精品中文字幕看吧| 一本一本综合久久| 男人舔奶头视频| 亚洲国产精品久久男人天堂| 日日撸夜夜添| 搡老熟女国产l中国老女人| 国产伦人伦偷精品视频| 中文字幕久久专区| 人妻夜夜爽99麻豆av| 午夜福利欧美成人| 给我免费播放毛片高清在线观看| 亚洲精华国产精华液的使用体验 | 高清毛片免费观看视频网站| 悠悠久久av| 99久国产av精品| 婷婷色综合大香蕉| 精品久久久久久久久久免费视频| 少妇裸体淫交视频免费看高清| 亚洲国产精品合色在线| 国产精品一区www在线观看 | 亚洲人成网站在线播| 美女免费视频网站| 十八禁国产超污无遮挡网站| 免费观看人在逋| 看免费成人av毛片| 国产欧美日韩一区二区精品| 亚洲精品在线观看二区| av黄色大香蕉| 深爱激情五月婷婷| 国产乱人伦免费视频| 国产成人av教育| 午夜福利在线在线| 久久人妻av系列| 97超视频在线观看视频| 天堂av国产一区二区熟女人妻| 嫩草影院入口| 永久网站在线| 热99re8久久精品国产| 国产三级在线视频| 精品一区二区三区av网在线观看| 国产高清视频在线观看网站| 在线播放无遮挡| 男人的好看免费观看在线视频| 人妻夜夜爽99麻豆av| 中文字幕免费在线视频6| 最新中文字幕久久久久| 看片在线看免费视频| 国产精品久久视频播放| 99久久久亚洲精品蜜臀av| 春色校园在线视频观看| 日本免费一区二区三区高清不卡| 两人在一起打扑克的视频| 亚州av有码| 欧美日韩瑟瑟在线播放| 男插女下体视频免费在线播放| 精品人妻视频免费看| av女优亚洲男人天堂| 搡女人真爽免费视频火全软件 | 男插女下体视频免费在线播放| 色在线成人网| 免费在线观看日本一区| 乱人视频在线观看| 999久久久精品免费观看国产| 亚洲国产色片| 久久这里只有精品中国| av在线亚洲专区| 免费大片18禁| 少妇熟女aⅴ在线视频| 日本爱情动作片www.在线观看 | 成年免费大片在线观看| 99视频精品全部免费 在线| 亚洲精华国产精华精| 日韩,欧美,国产一区二区三区 | 国产精品人妻久久久影院| 久久国产精品人妻蜜桃| 婷婷六月久久综合丁香| 色视频www国产| 色噜噜av男人的天堂激情| 老司机福利观看| 91麻豆精品激情在线观看国产| 久久精品国产亚洲av天美| 国产精品人妻久久久影院| 精品久久久噜噜| 久久精品综合一区二区三区| 色综合婷婷激情| 岛国在线免费视频观看| 国内精品一区二区在线观看| 午夜免费激情av| 成年女人看的毛片在线观看| bbb黄色大片| 久久热精品热| 国产精品伦人一区二区| 婷婷色综合大香蕉| 久久国产精品人妻蜜桃| 97超视频在线观看视频| 日韩欧美国产在线观看| 日韩在线高清观看一区二区三区 | 我要看日韩黄色一级片| 亚洲性久久影院| 18禁裸乳无遮挡免费网站照片| 身体一侧抽搐| 久9热在线精品视频| 欧美最新免费一区二区三区| 亚洲最大成人av| 免费在线观看日本一区| 噜噜噜噜噜久久久久久91|