• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于CNN-Head Transformer 編碼器的中文命名實(shí)體識(shí)別

    2022-10-16 12:27:08史占堂馬玉鵬趙凡馬博
    計(jì)算機(jī)工程 2022年10期
    關(guān)鍵詞:集上級(jí)別命名

    史占堂,馬玉鵬,趙凡,馬博

    (1.中國(guó)科學(xué)院新疆理化技術(shù)研究所,烏魯木齊 830011;2.中國(guó)科學(xué)院大學(xué),北京 100049;3.新疆民族語音語言信息處理實(shí)驗(yàn)室,烏魯木齊 830011)

    0 概述

    命名實(shí)體識(shí)別(Named Entity Recognition,NER)是自然語言處理(Natural Language Processing,NLP)中的基礎(chǔ)任務(wù),包括關(guān)系抽?。≧elation Extraction,RE)[1]、事件抽取(Event Extraction,EE)[2]以及實(shí)體鏈接(Entity Link,EL)[3]等下游任務(wù),旨在給定的文本中判定相應(yīng)實(shí)體的類型和該實(shí)體對(duì)應(yīng)的左右邊界。近些年,隨著計(jì)算機(jī)運(yùn)算能力的快速提高,深度學(xué)習(xí)成為命名實(shí)體識(shí)別的主流研究方法,并將命名實(shí)體識(shí)別轉(zhuǎn)化為序列標(biāo)注任務(wù)。由于中文詞之間不存在潛在的分隔符,并且中文命名實(shí)體的邊界是詞的邊界,因此最初中文命名實(shí)體識(shí)別將分詞作為核心,并以詞作為深度學(xué)習(xí)序列標(biāo)注模型的輸入,但該方式存在未登錄詞以及分詞錯(cuò)誤的問題,使得基于字嵌入的方式成為中文命名實(shí)體識(shí)別領(lǐng)域深度學(xué)習(xí)序列標(biāo)注模型編碼層的主流嵌入方式。

    在基于深度學(xué)習(xí)的中文命名實(shí)體識(shí)別方法中,長(zhǎng)短時(shí)記憶(Long Short-Term Memory,LSTM)[4]網(wǎng)絡(luò)是應(yīng)用較廣泛的特征提取器,但是存在不能充分利 用GPU 并行計(jì)算的問 題。ZHANG等[5]提出的Lattice LSTM 通過添加詞典信息在提高準(zhǔn)確率的同時(shí)進(jìn)一步增加了模型訓(xùn)練和測(cè)試時(shí)間?;诙囝^自注意力機(jī)制的Transformer[6]的提出緩解了LSTM 存在的問題,并在多種自然語言處理任務(wù)中取得了優(yōu)異表現(xiàn),逐漸取代了LSTM 成為自然語言處理領(lǐng)域主流的特征提取器,但是YAN等[7]的實(shí)驗(yàn)結(jié)果表明Transformer 在命名實(shí)體識(shí)別領(lǐng)域表現(xiàn)欠佳。

    本文結(jié)合Transformer 編碼器和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[8],提出一種用于中文命名實(shí)體識(shí)別的CHTE(CNN-Head Transformer Encoder)模型。在多頭注意力機(jī)制中根據(jù)不同窗口大小的CNN[8]增強(qiáng)模型的局部特征和潛在詞信息表示,并且利用門控殘差連接融合自適應(yīng)特征以進(jìn)一步提高識(shí)別準(zhǔn)確率。

    1 相關(guān)工作

    1.1 LSTM 與CNN

    在Transformer 未被提出之前,LSTM 作為自然語言處理領(lǐng)域主流的特征提取器被廣泛用于命名實(shí)體識(shí)別任務(wù)。HUANG等[9]使用Bi-LSTM 和條件隨機(jī)場(chǎng)[10](Conditional Random Field,CRF)進(jìn)行命名實(shí)體識(shí)別。PENG等[11]標(biāo)注了中文社交媒體數(shù)據(jù)集Weibo,并使用Bi-LSTM 和CRF 在該數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。MA等[12]使用CNN 獲取單詞的形態(tài)學(xué)特征并結(jié)合單詞的詞嵌入,通過Bi-LSTM 和CRF 進(jìn)行序列標(biāo)注。針對(duì)LSTM 不能充分利用GPU 并行計(jì)算的問題,STRUBELL等[13]提出基于CNN 的ID-CNNs 模型,由于CNN 僅能獲取固定范圍內(nèi)的局部特征,因此該模型通過對(duì)CNN 的堆疊逐層增加CNN 的感受野,使其獲取全局語義信息,在保障相當(dāng)F 值的情況下減少了運(yùn)算時(shí)間。

    依據(jù)中文命名實(shí)體的邊界是詞的邊界,LIU等[14]將中文分詞(Chinese Word Segmentation,CWS)作為中文命名實(shí)體識(shí)別的首要任務(wù),但此方法存在分詞錯(cuò)誤以及未登錄詞的問題。為了緩解該問題,CAO等[15]依據(jù)NER 和CWS 之間的關(guān)聯(lián)關(guān) 系,利用兩種任務(wù)對(duì)抗學(xué)習(xí)的方式提高NER 性能。ZHANG等[5]通過外部詞典并在字級(jí)別模型的基礎(chǔ)上提出添加待抽取句中所有可能詞特征的Lattice LSTM,但由于一個(gè)字可能匹配多個(gè)詞造成實(shí)體識(shí)別錯(cuò)誤的問題。GUI等[16]提出基于CNN 的模型,該模型通過重考慮機(jī)制自適應(yīng)地融合句子中可能的詞信息緩解了這一問題。此外,針對(duì)中文為象形文字特點(diǎn),MENG等[17-18]提出使用CNN 提取中文字形信息的命名實(shí)體識(shí)別方法。張棟等[19]通過將每個(gè)字符拆解為五筆表示來獲取字形特征,增強(qiáng)模型語義信息。盡管LSTM 被廣泛應(yīng)用于命名實(shí)體識(shí)別任務(wù),但只能進(jìn)行單方向建模獲取單方向語義信息,即使通過雙向LSTM 也只是將左右分別獲取的單向特征進(jìn)行拼接,無法完全捕獲上下文語義信息。

    1.2 Transformer

    VASWANI等[6]將基于多頭自 注意力機(jī)制的Transformer 模型用于機(jī)器翻譯(Machine Translation,MT)領(lǐng)域,該模型較好地緩解了LSTM 無法充分利用GPU 并行計(jì)算以及獲取上下文語義信息的問題,使其在自然語言處理領(lǐng)域取得了優(yōu)異表現(xiàn)。在中文命名實(shí)體識(shí)別任務(wù)中,針對(duì)Tansformer 在注意力頭的計(jì)算過程中會(huì)丟失方向和相對(duì)位置的問題,司逸晨等[20]提出一種能夠保留相對(duì)位置和方向信息注意力頭的計(jì)算方法,并將詞級(jí)別的特征拼接到嵌入層字級(jí)別的特征中增強(qiáng)語義表示。XUE等[21]提出PLTE(Porous Lattice Transformer Encoder)模型,該模型中添加了詞級(jí)別的嵌入特征以及定義了7 種token 之間的相對(duì)位置關(guān)系并對(duì)每個(gè)token 的位置進(jìn)行編碼,同時(shí)使用Porous 對(duì)自注意力機(jī)制進(jìn)行限制。但是,在PLTE 中相對(duì)位置關(guān)系的編碼方式不能還原出token 之間真實(shí)的位置信息,因此這種位置編碼方式導(dǎo)致了位置信息的丟失。針對(duì)這一問題,LI等[22]提出使用每個(gè)詞頭和詞尾的絕對(duì)位置來編碼任意兩個(gè)token之間相對(duì)位置信息的FLAT(FLATlattice Transformer)模型。上述將詞典信息添加到Transformer 的方法同樣存在一字多詞的問題,而且還會(huì)增加額外的存儲(chǔ)以及詞典匹配時(shí)間。

    本文在不使用外部詞典和分詞工具的情況下,利用Transformer 和CNN 在捕獲全局語義信息和局部特征以及潛在詞信息方面的優(yōu)勢(shì),通過在多個(gè)注意力頭中融入CNN 充分捕獲全局語義信息并增強(qiáng)模型的局部特征以及潛在的詞信息表示,同時(shí)應(yīng)用自適應(yīng)的門控殘差連接融合當(dāng)前層和子層特征,從而提升Transformer 在命名實(shí)體識(shí)別領(lǐng)域的性能表現(xiàn)。

    2 CHTE 模型架構(gòu)

    本文提出的CHTE 模型架構(gòu)如圖1 所示,其中Q、K、V分別表示Tansformer中的Query、Key和Value 向量。該模型主要分為嵌入層、編碼層以及解碼層3 個(gè)部分,首先將輸入的文本通過嵌入層獲取字級(jí)別的詞嵌入的向量表示,并在其中添加位置編碼特征向量增強(qiáng)模型的位置信息,然后通過編碼層獲取增強(qiáng)局部特征的輸入文本的上下文表示,最后通過解碼層對(duì)輸入文本進(jìn)行序列標(biāo)注。

    圖1 CHTE 模型整體架構(gòu)Fig.1 Overall architecture of CHTE model

    2.1 嵌入層

    在中文命名實(shí)體識(shí)別領(lǐng)域,當(dāng)前主要的詞嵌入方式為字級(jí)別、詞級(jí)別以及兩者融合的嵌入方式。詞級(jí)別的嵌入方式存在分詞錯(cuò)誤以及未登錄詞的問題,字詞融合的嵌入方式則會(huì)增加存儲(chǔ)以及詞典匹配時(shí)間。因此,本文使用字級(jí)別的詞嵌入方式。

    本文使用文獻(xiàn)[5]中預(yù)訓(xùn)練的字級(jí)別詞向量,假設(shè)模型的輸入為s=(c1,c2,…,cn),其中cj表示輸入句子s的第j個(gè)字,通過查表操作獲取該字的特征表示為=[ec(cj);eb(cj,cj+1);eb(cj-1,cj)],其中,[;]表示向量的拼接,ec為字級(jí)別特征的查表操作,eb為bi-gram的查表操作,eb(cj,cj+1)表示以第j個(gè)字開始的bigram 特征,eb(cj-1,cj)表示以第j個(gè)字結(jié)束的bi-gram特征。使用Transformer 中的位置編碼方式,獲取位置j的位置編碼特征,并將字級(jí)別的特征和位置特征相加得到嵌入層對(duì)文本句子的特征表示:

    2.2 編碼層

    Transformer 作為使用多頭自注意力機(jī)制的特征提取模型,緩解了RNN 無法充分利用GPU 平行計(jì)算以及長(zhǎng)距離文本依賴的問題。本文依據(jù)其在實(shí)體識(shí)別任務(wù)中不能充分獲取局部特征,對(duì)Transformer Encoder 中的多頭自注意力機(jī)制進(jìn)行改進(jìn),在保留2 個(gè)注意力頭不變的情況下,將剩余6 個(gè)注意力頭的Value 向量分別使用不同窗口大小的CNN 獲取。注意力頭的計(jì)算如式(2)~式(4)所示。保留原始Transformer 的2 個(gè)注意力頭中Vl的計(jì)算如式(5)所示。剩余6 個(gè)注意力頭首先使用dh個(gè)卷積核獲取第j個(gè)字對(duì)應(yīng)窗口大小為l的局部特征,然后通過池化層進(jìn)行步長(zhǎng)為2 的最大池化操作得到該字的特征表示,并利用滑動(dòng)窗口獲取每個(gè)注意力頭中的Vc,計(jì)算公式如式(6)、式(7)所示。

    其中:Wc,bc分別為卷積操作的卷積核以及偏移;表示向下取整操作。

    將2 個(gè)線性注意力頭和6 個(gè)CNN 注意力頭得到的結(jié)果進(jìn)行拼接,獲得自注意力層對(duì)文本的特征表示=[Att(A,Vl);…;Att(A,Vc)],Transformer 中使用殘差連接是為了將子層特征Xs和當(dāng)前層特征直接相加,這種直接相加的方式賦予兩個(gè)特征相同的權(quán)重,不能自適應(yīng)地選擇子層和當(dāng)前層中對(duì)實(shí)體識(shí)別重要的特征信息。本文提出的門控殘差連接通過在殘差連接中融入門控機(jī)制,即首先通過門控機(jī)制計(jì)算門控得分G,然后通過該得分自適應(yīng)子層特征和當(dāng)前層特征(如式(8)、式(9)所示),之后將門控殘差連接的結(jié)果進(jìn)行歸一化,最后分別通過前饋神經(jīng)網(wǎng)絡(luò)層、門控殘差連接以及歸一化操作后和嵌入層的特征Xs進(jìn)行拼接,得到輸入序列s最終的特征表示U(如式(10)所示)。

    其中:為殘差連接的輸出。

    其中:uj表示句子中第j個(gè)字經(jīng)過編碼層后的最終特征表示。

    2.3 解碼層

    在基于深度學(xué)習(xí)的命名實(shí)體識(shí)別中,CRF 成為主流解碼器,將實(shí)體識(shí)別問題轉(zhuǎn)化為序列標(biāo)注問題,通過狀態(tài)轉(zhuǎn)移概率來限制相鄰標(biāo)簽之間的關(guān)系,進(jìn)一步提高了命名實(shí)體識(shí)別的準(zhǔn)確率。本文使用CRF作為模型的解碼器,對(duì)于輸入句s=(c1,c2,…,cn)標(biāo)記為Y=(y1,y2,…,yn)的概率計(jì)算如式(11)所示:

    其中:為對(duì)應(yīng)于uj的可訓(xùn)練權(quán)重參數(shù)為yj-1~yj的狀態(tài)轉(zhuǎn)移得分;Y′為輸入句s所有可能的標(biāo)記序列,通過Viterbi 算法查找最終的標(biāo)記序列;Y為真實(shí)標(biāo)記。

    本文提出的CHTE 模型的損失函數(shù)是將概率p(Y|s)最大化,如式(12)所示:

    3 實(shí)驗(yàn)設(shè)置與結(jié)果分析

    3.1 數(shù)據(jù)集選取

    選取Weibo 和Resume 數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),其中Weibo 數(shù)據(jù)集[11,23]是從社交媒體新浪微博獲取并標(biāo)注的數(shù)據(jù)集,Resume 數(shù)據(jù)集[5]是從新浪金融網(wǎng)頁(yè)中獲取并標(biāo)注的來自中國(guó)股票市場(chǎng)上市公司高級(jí)管理人員的簡(jiǎn)歷數(shù)據(jù)集。本文采用文獻(xiàn)[5]中的數(shù)據(jù)集劃分方式,詳細(xì)的數(shù)據(jù)集統(tǒng)計(jì)信息如表1 所示。

    表1 數(shù)據(jù)集統(tǒng)計(jì)信息Table 1 Dataset statistics

    3.2 參數(shù)設(shè)置

    采用BMESO(Begin,Middle,End,Single,Outside)進(jìn)行序列標(biāo)注,使用精確率、召回率、F1 值作為評(píng)估指標(biāo),在使用預(yù)訓(xùn)練詞嵌入和BERT 預(yù)訓(xùn)練語言模型兩種情況下進(jìn)行實(shí)驗(yàn)。通過驗(yàn)證集對(duì)模型中超參數(shù)進(jìn)行調(diào)整,為防止過擬合,嵌入層和全連接層中的Dropout 分別設(shè)定為0.3 和0.2,注意力頭中CNN 的窗口大小設(shè)定為(2,3,4,5,6,7),Batch 設(shè)定為16。依據(jù)FLAT 給定的注意力頭的維度范圍進(jìn)行調(diào)整,并將前饋層的維度使用和Transformer 相同的設(shè)定,即8 個(gè)注意力頭維度和的3 倍。在使用預(yù)訓(xùn)練詞嵌入的情況下,需要重新學(xué)習(xí)模型的參數(shù),因此學(xué)習(xí)率設(shè)定為1e-3。在Weibo 數(shù)據(jù)集中每個(gè)注意力頭的維度設(shè)置為16,前饋層的維度設(shè)置為384,在Resume 數(shù)據(jù)集中兩者分別設(shè)置為18 和432。在使用BERT 預(yù)訓(xùn)練語言模型的情況下,在BERT 的基礎(chǔ)上微調(diào),因此學(xué)習(xí)率設(shè)定為4e-5,當(dāng)以BERT 作為嵌入層時(shí),通過實(shí)驗(yàn)發(fā)現(xiàn)若輸入CHTE 模型的維度小于768 時(shí)性能會(huì)下降,因此為了保持模型的性能以及計(jì)算量將模型的輸入維度設(shè)定為768,即每個(gè)注意力頭維度設(shè)置為96,前饋層的維度設(shè)置為2 048。

    3.3 結(jié)果分析

    本文分別與使用外部詞典的命名實(shí)體識(shí)別模型、未使用外部詞典的命名實(shí)體識(shí)別模型以及基于BERT 的命名實(shí)體識(shí)別模型進(jìn)行比較。以未使用外部詞典的命名實(shí)體識(shí)別模型TENER、使用外部詞典的命名實(shí)體識(shí)別模型Lattice LSTM 以及預(yù)訓(xùn)練語言模型BERT 作為基礎(chǔ)模型。使用與文獻(xiàn)[5]相同的預(yù)訓(xùn)練字向量和詞典YJ,對(duì)比實(shí)驗(yàn)數(shù)據(jù)均來自各模型的原文獻(xiàn)。

    3.3.1 對(duì)比模型選取

    對(duì)比模型主要分為基于詞嵌入的命名實(shí)體識(shí)別模型和基于字嵌入的命名實(shí)體識(shí)別模型兩類。除了Word-based 和+char+bichar LSTM 是基于詞嵌入的命名實(shí)體識(shí)別模型以外,其他均是基于字嵌入的命名實(shí)體識(shí)別模型,其中,+bichar+softword 是在charbased 模型上添加了bi-gram 潛入特性以及分詞標(biāo)記特征,Lattice LSTM、FLAT 是添加了詞典信息且識(shí)別效果較好的模型,CAN-NER 和TENER 是未使用詞典但效果較好的模型,F(xiàn)LAT 和TENER 是基于Transformer Encoder 的變換模型,F(xiàn)GN 是基于BERT的效果較好的模型。本文選取以上對(duì)比模型是為了說明本文提出的CHTE 模型在使用和未使用BERT作為嵌入層的情況下都能得到較好的識(shí)別結(jié)果。對(duì)比模型具體描述如下:

    1)Word-based:以詞作為嵌入的基本單位,并以Bi-LSTM、CRF 作為編碼器和解碼器。

    2)+char+bichar LSTM:將字級(jí)別特征以及bi-gram字級(jí)別特征作為Bi-LSTM 的輸入,并將字級(jí)別特征和對(duì)應(yīng)詞級(jí)別的特征拼接作為解碼器CRF 的輸入。

    3)Char-based:對(duì)單個(gè)字進(jìn)行嵌入,未使用詞典信息。使用Bi-LSTM 作為編碼器,CRF 作為解碼器。

    4)+bichar+softword:在字級(jí)別詞嵌入的基礎(chǔ)上添加了bi-gram 嵌入特征以及分詞標(biāo)記的嵌入特征。

    5)Lattice LSTM:以字作為嵌入的基本單位,并將所有出現(xiàn)在詞典中的詞嵌入添加到序列中以該詞開始和結(jié)尾的兩個(gè)字中。使用Bi-LSTM 和CRF 作為編碼器和解碼器。

    6)FLAT:將輸入句子中存在的所有可能的詞信息的相對(duì)位置跨度編碼融入到Transformer 的多頭注意力計(jì)算中。

    7)CAN-NER[24]:使用卷積注意力獲取字級(jí)別特征,并使用GRU 和全局自注意力機(jī)制獲取相鄰字的特征。

    8)TENER[7]:針對(duì)Transformer 對(duì)位置不敏感的問題,提出一種能夠捕獲方向和位置的注意力計(jì)算方式,通過位置信息能夠進(jìn)一步增強(qiáng)命名實(shí)體識(shí)別的效果。

    9)FGN[18]:將BERT 獲取的字級(jí)別特征中融入通過CNN 獲取的有助于實(shí)體識(shí)別的字形特征,并將LSTM+CRF 作為解碼器。

    3.3.2 基于預(yù)訓(xùn)練詞嵌入的模型性能對(duì)比

    在Weibo 和Resume 數(shù)據(jù)集上的命名實(shí)體識(shí)別結(jié)果如表2 所示,其中,最優(yōu)指標(biāo)值用加粗字體標(biāo)示,N 表示未使用外部詞典。在Weibo 數(shù)據(jù)集上,Char-based 模型相較于Word-based 模型的F1 值提高了5.44 個(gè)百分點(diǎn),在Char-based 模型中添加2-gram 的字級(jí)別詞嵌入和分詞標(biāo)記的特征信息后得到+bichar+softword 模型,其F1 值相較于Char-based 模型提升了3.98 個(gè)百分點(diǎn),在Word-based模型中添加了字級(jí)別特征表示后的+char+bichar LSTM 模型的性能顯著提高,但其F1 值還是低于Char-based 模型0.44 個(gè)百分點(diǎn),本文CHTE 模型相較于未使用詞典的TENER 模型的F1 值提高了4.39 個(gè)百分點(diǎn),相較于使用詞典的Lattice LSTM 模型的F1 值提高了3.77 個(gè)百分點(diǎn),相較于融合外部詞典的FLAT 模型的F1 值提高了2.24 個(gè)百分點(diǎn)。在Resume 數(shù)據(jù)集中,CHTE 模型相較于未使用詞典的TENER 模型的F1 值提高了0.76個(gè)百分點(diǎn),相較于使用詞典的Lattice LSTM模型的F1 值提高了1.30 個(gè)百分點(diǎn),相較于融合外部詞典的FLAT 模型的F1 提高了0.31 個(gè)百分點(diǎn)。

    由表2 可以看出,CHTE 模型在Weibo 數(shù)據(jù)集上的提升效果明顯優(yōu)于Resume 數(shù)據(jù)集,導(dǎo)致這一結(jié)果的原因可能為Weibo 作為社交媒體數(shù)據(jù)存在大量不規(guī)則語法、句法以及字丟失的文本內(nèi)容,使得外部詞典不能很好地匹配文本,引入錯(cuò)誤的詞信息,致使添加詞典信息的模型在該數(shù)據(jù)集中的表現(xiàn)欠佳,而CHTE 模型使用CNN 在不需要匹配詞典的情況下獲取潛在的詞信息,因此在Weibo 數(shù)據(jù)集上的識(shí)別性能更好。

    表2 在Weibo和Resume數(shù)據(jù)集上的命名實(shí)體識(shí)別結(jié)果1Table 2 Named entity recognition results 1 of the Weibo and Resume datasets %

    3.3.3 消融實(shí)驗(yàn)分析

    如表3 所示,在Weibo 數(shù)據(jù)集上對(duì)CHTE 模型各模塊進(jìn)行分析,其中,add 表示CHTE 模型使用直接相加的殘差連接方式,wo cat 表示CHTE 模型的編碼層輸出不拼接嵌入層特征,all CNN-Head 表示在所有注意力頭中使用CNN,wo CNN-Head 表示使用原始Transformer 中注意力頭的計(jì)算方式。相較于Transformer Encoder 直接相加的方式,使用本文提出的門控殘差連接后F1 值提高了0.64 個(gè)百分點(diǎn),這一結(jié)果可能是由于采用直接相加的方式對(duì)待子層以及當(dāng)前層特征,不能自適應(yīng)地選擇子層和當(dāng)前層中的特征。相較于Transformer Encoder 中的多頭注意力的計(jì)算方式,使用本文提出的不同窗口大小的CNN的方式,增強(qiáng)了Transformer 局部特征的表示同時(shí)獲取潛在的詞級(jí)別的信息,使F1 值提高了2.32 個(gè)百分點(diǎn)。若將CHTE 模型中的注意力頭的計(jì)算方式全部轉(zhuǎn)化為Transformer Encoder 中的計(jì)算方式,則F1 值下降了1.88 個(gè)百分點(diǎn),這說明即使在注意力頭中增加了窗口大小為(8,9)的CNN 來計(jì)算Value 值,但長(zhǎng)度大于7 的實(shí)體數(shù)量稀少,并且缺少全局語義信息導(dǎo)致最終F1 值降低。

    由表3 可以看出,本文設(shè)計(jì)的基于不同窗口大小CNN 的注意力頭對(duì)CHTE 模型的性能提升最明顯,門控殘差連接對(duì)CHTE 模型的性能提升也較明顯,說明本文在中文命名實(shí)體領(lǐng)域針對(duì)Transformer提出兩種改進(jìn)方法能有效提升模型性能。

    表3 消融實(shí)驗(yàn)結(jié)果Table 3 Results of ablation experiments %

    3.3.4 基于BERT 的模型性能對(duì)比

    由于本文對(duì)比的FLAT 和FGN 模型分別使用Chinese-BERT-wwm[25]和Chines-BERT-base[26]兩個(gè)不同的版本的BERT,因此分別使用兩個(gè)版本的BERT 進(jìn)行實(shí)驗(yàn),并以兩個(gè)版本的BERT 作為基礎(chǔ)模型。

    如表4 所示,本文提出的CHTE 模型在兩個(gè)數(shù)據(jù)集上相較于兩個(gè)版本的基礎(chǔ)模型Chinese-BERT-wwm 以及Chines-BERT-base均有明顯的性能提升,其中在Weibo數(shù)據(jù)集上提升更明顯,相比于Chines-BERT-wwm 模型的F1 值提高了5.29 個(gè)百分點(diǎn),相比于Chinese-BERTbase 模型的F1 值提高了4.40 個(gè)百分點(diǎn)。同樣地,相比于使用BERT 作為嵌入層的Chinese-BERT-wwm+FLAT模 型,Chinese-BERT-wwm+CHTE 模型在Weibo 和Resume 數(shù)據(jù)集上的F1 值分別提高了4.94 和0.31 個(gè)百分點(diǎn)。在Weibo 數(shù)據(jù)集上,Chines-BERT-base+CHTE 模型的F1 值相比于FGN 模型提高了0.27 個(gè)百分點(diǎn),而在相對(duì)較大且規(guī)范的數(shù)據(jù)集Resume中的F1值相比于FGN模型降低了0.50 個(gè)百分點(diǎn),這表明CHTE 模型在使用BERT 作為編碼層后對(duì)實(shí)體識(shí)別效果同樣有明顯的提升,但由于FGN 模型中融合了中文文字的字形信息,因此相比于CHTE 模型在Resume 數(shù)據(jù)集上的識(shí)別效果更好。

    表4 在Weibo和Resume數(shù)據(jù)集上的命名實(shí)體識(shí)別結(jié)果2Table 4 Named entity recognition results 2 of the Weibo and Resume datasets %

    3.3.5 CNN 注意力頭數(shù)量對(duì)模型性能的影響

    圖2 為CHTE 模型中CNN 注意力頭數(shù)量對(duì)F1值的影響。圖3 為在兩個(gè)數(shù)據(jù)集上不同命名實(shí)體字符長(zhǎng)度的占比情況,其中Weibo 數(shù)據(jù)集中實(shí)體字符長(zhǎng)度范圍為1~11,Resume 數(shù)據(jù)集則相對(duì)較大、實(shí)體較多,其中實(shí)體字符長(zhǎng)度范圍為1~36,但由于字符長(zhǎng)度超過16 的實(shí)體數(shù)量較少,因此本文僅統(tǒng)計(jì)了字符長(zhǎng)度為1~16 的實(shí)體數(shù)量。如圖2 所示,當(dāng)CNN 注意力頭數(shù)量為6 時(shí)該模型在兩個(gè)數(shù)據(jù)集中得到了最高的F1 值。如圖3 所示,在兩個(gè)數(shù)據(jù)集中實(shí)體字符長(zhǎng)度主要集中于1~7,而采用6 個(gè)CNN 注意力頭的窗口大小為(2,3,4,5,6,7),正好能夠通過該范圍內(nèi)的窗口大小增強(qiáng)局部范圍內(nèi)的特征表示以及潛在的詞信息,因此當(dāng)CNN 注意力頭數(shù)量取6時(shí)在兩個(gè)數(shù)據(jù)集上具有較好的識(shí)別性能。

    圖2 CNN 注意力頭數(shù)量對(duì)F1 值的影響Fig.2 Effect of the number of CNN attention heads on the F1 value

    圖3 命名實(shí)體字符長(zhǎng)度占比Fig.3 Percentage of named entity character lengths

    3.3.6 實(shí)體字符長(zhǎng)度對(duì)比

    為驗(yàn)證在多頭自注意力機(jī)制中使用不同窗口大小的CNN 對(duì)不同字符長(zhǎng)度的實(shí)體識(shí)別的影響,在Weibo數(shù)據(jù)集上對(duì)比分析本文提出的使用CNN 的CHTE模型以及未使用CNN 的CHTE wo CNN 模型。如圖4 所示,CHTE 模型在字符長(zhǎng)度為1~6 時(shí)實(shí)體識(shí)別F1 值均有提升,其中字符長(zhǎng)度為1、5、6 以及≥7 的實(shí)體數(shù)據(jù)稀疏,出現(xiàn)F1 值較低、提升較大以及未提升的情況。在實(shí)體數(shù)據(jù)較多的字符長(zhǎng)度范圍內(nèi),字符長(zhǎng)度為3 的實(shí)體對(duì)應(yīng)的F1 值提升了0.03 個(gè)百分點(diǎn),這說明使用不同窗口大小的CNN 可增強(qiáng)局部特征,不僅能提高具有較長(zhǎng)字符長(zhǎng)度的實(shí)體識(shí)別效果,而且能增強(qiáng)較短數(shù)據(jù)字符長(zhǎng)度的實(shí)體識(shí)別效果。

    圖4 Weibo 數(shù)據(jù)集上不同命名實(shí)體字符長(zhǎng)度的F1值Fig.4 F1 values of each named entity character length in Weibo dataset

    3.3.7 可視化分析

    圖5、圖6 為通過CHTE 模型得到的未使用CNN(Linear-Head)和使用CNN(CNN-Head)的注意力權(quán)重的可視化結(jié)果圖。如圖5 所示,Linear-Head 得到的注意力權(quán)重相對(duì)比較分散,這說明其更加注重獲取全局語義信息,存在注意力權(quán)重沒有集中在有意義的詞上的問題。如圖6 所示,CNN-Head 得到的注意力權(quán)重分布相較于Linear-Head 相對(duì)集中,這說明使用CNN 來獲取Value 向量的方法能夠有效地捕獲句子中的局部特征,增加字符的局部特征表示,并且能夠增強(qiáng)字符詞級(jí)別的特征表示,進(jìn)而增強(qiáng)模型實(shí)體識(shí)別能力。

    圖5 Linear-Head 注意力權(quán)重Fig.5 Attention weight of Linear-Head

    圖6 CNN-Head 注意力權(quán)重Fig.6 Attention weight of CNN-Head

    4 結(jié)束語

    本文提出一種用于中文命名實(shí)體識(shí)別的CHTE 模型,通過在多個(gè)注意力頭中融入CNN 充分捕獲全局語義信息并增強(qiáng)模型的局部特征以及潛在的詞信息表示,同時(shí)應(yīng)用自適應(yīng)的門控殘差連接融合當(dāng)前層和子層特征,提升了Transformer 對(duì)于命名實(shí)體的識(shí)別準(zhǔn)確率。通過將CHTE 模型與使用外部詞典信息模型、未使用外部詞典模型以及基于BERT的模型在Weibo和Resume兩個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)對(duì)比,結(jié)果證明了CHTE 模型具有更好的中文命名實(shí)體識(shí)別性能。后續(xù)將在CNNHead Transformer 編碼器的基礎(chǔ)上融合詞典信息,進(jìn)一步提升模型對(duì)于中文命名實(shí)體的識(shí)別準(zhǔn)確率。

    猜你喜歡
    集上級(jí)別命名
    痘痘分級(jí)別,輕重不一樣
    命名——助力有機(jī)化學(xué)的學(xué)習(xí)
    Cookie-Cutter集上的Gibbs測(cè)度
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    邁向UHD HDR的“水晶” 十萬元級(jí)別的SIM2 CRYSTAL4 UHD
    新年導(dǎo)購(gòu)手冊(cè)之兩萬元以下級(jí)別好物推薦
    有一種男人以“暖”命名
    東方女性(2018年3期)2018-04-16 15:30:02
    為一條河命名——在白河源
    復(fù)扇形指標(biāo)集上的分布混沌
    你是什么級(jí)別的
    9191精品国产免费久久| 国产黄a三级三级三级人| 国产精品影院久久| 中文资源天堂在线| 国产在线精品亚洲第一网站| 十分钟在线观看高清视频www| av欧美777| 色av中文字幕| 老汉色av国产亚洲站长工具| 欧美日韩亚洲综合一区二区三区_| 久久亚洲真实| 久久香蕉激情| 午夜成年电影在线免费观看| 啦啦啦观看免费观看视频高清| 色婷婷久久久亚洲欧美| 精品国产超薄肉色丝袜足j| 一a级毛片在线观看| 亚洲av电影在线进入| 日韩欧美免费精品| 嫁个100分男人电影在线观看| 久久香蕉激情| 欧美丝袜亚洲另类 | 青草久久国产| 国产蜜桃级精品一区二区三区| 日本 av在线| 亚洲美女黄片视频| 日韩精品免费视频一区二区三区| 亚洲熟女毛片儿| 国产精品亚洲一级av第二区| 不卡一级毛片| 日本免费一区二区三区高清不卡| 国产av在哪里看| 午夜a级毛片| 国产高清激情床上av| 老汉色∧v一级毛片| 日韩欧美 国产精品| 波多野结衣高清无吗| 国产男靠女视频免费网站| 精品久久久久久,| 午夜a级毛片| 亚洲av美国av| 啦啦啦 在线观看视频| 90打野战视频偷拍视频| 极品教师在线免费播放| 男女之事视频高清在线观看| 亚洲av熟女| 久久久久久久精品吃奶| 亚洲精华国产精华精| 一区二区三区精品91| 亚洲色图 男人天堂 中文字幕| 99在线视频只有这里精品首页| x7x7x7水蜜桃| 欧美中文日本在线观看视频| 国产v大片淫在线免费观看| 国产成人啪精品午夜网站| 91大片在线观看| 天堂影院成人在线观看| 天堂影院成人在线观看| 国产精品电影一区二区三区| 亚洲国产欧美网| 午夜视频精品福利| 久久久久久人人人人人| 久久狼人影院| 琪琪午夜伦伦电影理论片6080| 日本免费a在线| 久久精品91无色码中文字幕| 日本一区二区免费在线视频| 色av中文字幕| 夜夜躁狠狠躁天天躁| 亚洲国产欧美网| 国产精品国产高清国产av| 黄网站色视频无遮挡免费观看| 国产精品久久久久久亚洲av鲁大| 欧美av亚洲av综合av国产av| 亚洲男人天堂网一区| 一二三四社区在线视频社区8| 嫩草影院精品99| 日韩av在线大香蕉| 这个男人来自地球电影免费观看| 在线观看日韩欧美| 狂野欧美激情性xxxx| 亚洲第一电影网av| 黑人欧美特级aaaaaa片| 中文资源天堂在线| 婷婷精品国产亚洲av| 久久精品91蜜桃| 老司机靠b影院| 波多野结衣高清无吗| 欧美日本亚洲视频在线播放| 国产一区在线观看成人免费| 日韩欧美一区二区三区在线观看| 波多野结衣高清作品| 久久久精品欧美日韩精品| 男人的好看免费观看在线视频 | 国产亚洲欧美在线一区二区| 香蕉丝袜av| 满18在线观看网站| 亚洲人成电影免费在线| 99久久综合精品五月天人人| 亚洲国产精品久久男人天堂| 精品久久久久久久久久免费视频| 满18在线观看网站| 亚洲性夜色夜夜综合| 丝袜美腿诱惑在线| 久久久久国内视频| 两性夫妻黄色片| 美女 人体艺术 gogo| 亚洲第一欧美日韩一区二区三区| 亚洲天堂国产精品一区在线| 欧美久久黑人一区二区| 久久草成人影院| 很黄的视频免费| 老司机午夜十八禁免费视频| www.熟女人妻精品国产| 久久 成人 亚洲| 午夜激情av网站| 久久人人精品亚洲av| 99在线人妻在线中文字幕| 国产精品久久视频播放| 久久香蕉激情| 欧洲精品卡2卡3卡4卡5卡区| 亚洲国产日韩欧美精品在线观看 | 亚洲国产高清在线一区二区三 | 亚洲av成人av| 国产黄a三级三级三级人| а√天堂www在线а√下载| 午夜福利视频1000在线观看| 国产精品亚洲av一区麻豆| 亚洲人成网站高清观看| netflix在线观看网站| 在线观看66精品国产| 亚洲精品一区av在线观看| 美女午夜性视频免费| 欧美黄色片欧美黄色片| 51午夜福利影视在线观看| 国产亚洲av嫩草精品影院| 国产97色在线日韩免费| 久久人妻av系列| 亚洲一区二区三区不卡视频| 亚洲三区欧美一区| 亚洲欧美日韩无卡精品| 免费高清视频大片| 国产成人精品无人区| 国产国语露脸激情在线看| 日本在线视频免费播放| 亚洲va日本ⅴa欧美va伊人久久| 日本免费一区二区三区高清不卡| 久久久久亚洲av毛片大全| 91麻豆精品激情在线观看国产| 亚洲欧美一区二区三区黑人| 午夜精品久久久久久毛片777| 成人18禁在线播放| 岛国在线观看网站| 国产野战对白在线观看| 在线天堂中文资源库| 给我免费播放毛片高清在线观看| 精品久久蜜臀av无| 长腿黑丝高跟| cao死你这个sao货| 91麻豆av在线| 精品卡一卡二卡四卡免费| 亚洲va日本ⅴa欧美va伊人久久| 国内少妇人妻偷人精品xxx网站 | 脱女人内裤的视频| 欧美精品亚洲一区二区| www日本黄色视频网| or卡值多少钱| 一级作爱视频免费观看| 国产高清videossex| 国产免费男女视频| 婷婷精品国产亚洲av在线| 中文字幕人妻丝袜一区二区| 91av网站免费观看| bbb黄色大片| 国产aⅴ精品一区二区三区波| 激情在线观看视频在线高清| 久久人人精品亚洲av| 国产一区二区激情短视频| 久久性视频一级片| 精品久久久久久久久久久久久 | 在线观看66精品国产| 亚洲自拍偷在线| 亚洲精品美女久久av网站| 亚洲成av人片免费观看| 精品日产1卡2卡| 国产成+人综合+亚洲专区| 欧美+亚洲+日韩+国产| 天堂动漫精品| 国产成人影院久久av| 亚洲男人的天堂狠狠| 亚洲国产日韩欧美精品在线观看 | 久久欧美精品欧美久久欧美| 午夜福利一区二区在线看| 成人午夜高清在线视频 | 亚洲美女黄片视频| 天天添夜夜摸| 久久这里只有精品19| 亚洲中文日韩欧美视频| 成人av一区二区三区在线看| 亚洲成av片中文字幕在线观看| 久久久久九九精品影院| 中文字幕最新亚洲高清| 婷婷精品国产亚洲av| av欧美777| 欧美在线一区亚洲| 国产精品久久电影中文字幕| 美女国产高潮福利片在线看| 在线视频色国产色| 天天添夜夜摸| 搡老妇女老女人老熟妇| 视频在线观看一区二区三区| 日本撒尿小便嘘嘘汇集6| 成人精品一区二区免费| 国产男靠女视频免费网站| 欧美性猛交╳xxx乱大交人| 亚洲成a人片在线一区二区| 色播在线永久视频| 日本五十路高清| 精品久久久久久久毛片微露脸| tocl精华| 免费在线观看日本一区| 精品一区二区三区视频在线观看免费| 久久中文看片网| 午夜福利视频1000在线观看| 一级毛片精品| 好男人电影高清在线观看| 视频区欧美日本亚洲| 三级毛片av免费| 国产伦在线观看视频一区| 女人高潮潮喷娇喘18禁视频| 欧美激情高清一区二区三区| 国产视频内射| 国产精品亚洲美女久久久| 国产在线观看jvid| 大型av网站在线播放| 欧美日韩亚洲国产一区二区在线观看| 成人欧美大片| 亚洲专区国产一区二区| 午夜福利一区二区在线看| 精品久久久久久久毛片微露脸| 日韩av在线大香蕉| 国产成人影院久久av| 国产单亲对白刺激| 黄色毛片三级朝国网站| 妹子高潮喷水视频| 亚洲欧美日韩无卡精品| 日韩欧美一区视频在线观看| 国产精品九九99| 中文字幕另类日韩欧美亚洲嫩草| 两性夫妻黄色片| 国产激情久久老熟女| netflix在线观看网站| 久久久久久免费高清国产稀缺| 一区福利在线观看| 国产精品日韩av在线免费观看| 国产色视频综合| 特大巨黑吊av在线直播 | 麻豆久久精品国产亚洲av| 大型黄色视频在线免费观看| 久久人人精品亚洲av| 日韩欧美三级三区| 日本a在线网址| 可以在线观看的亚洲视频| 精品久久蜜臀av无| 男男h啪啪无遮挡| 国产亚洲av高清不卡| 国产一区在线观看成人免费| 一夜夜www| 欧美中文综合在线视频| 亚洲av片天天在线观看| 一边摸一边做爽爽视频免费| 国产精品久久久av美女十八| 中文字幕人妻丝袜一区二区| 欧美黑人巨大hd| 亚洲片人在线观看| 视频在线观看一区二区三区| 国产成人av激情在线播放| 一进一出抽搐gif免费好疼| 视频区欧美日本亚洲| 首页视频小说图片口味搜索| 男女那种视频在线观看| 国产伦在线观看视频一区| 亚洲国产欧美日韩在线播放| 久久精品aⅴ一区二区三区四区| 国内毛片毛片毛片毛片毛片| 久久久久九九精品影院| 91麻豆av在线| 成人精品一区二区免费| 国产亚洲精品久久久久久毛片| 亚洲av成人不卡在线观看播放网| 美女免费视频网站| 成人免费观看视频高清| 亚洲精品久久国产高清桃花| 精品一区二区三区四区五区乱码| 级片在线观看| 黑人巨大精品欧美一区二区mp4| 久久人人精品亚洲av| 波多野结衣高清作品| 欧美成人一区二区免费高清观看 | 免费观看精品视频网站| 免费无遮挡裸体视频| 欧美日本亚洲视频在线播放| 亚洲av成人av| 精品久久久久久久末码| 首页视频小说图片口味搜索| 一级毛片精品| 亚洲成人免费电影在线观看| 丰满的人妻完整版| 久久精品成人免费网站| 午夜成年电影在线免费观看| 国产精品乱码一区二三区的特点| 亚洲精品中文字幕在线视频| 国产精品香港三级国产av潘金莲| 日韩视频一区二区在线观看| 国产av又大| 亚洲欧美日韩高清在线视频| 国产精品一区二区精品视频观看| 巨乳人妻的诱惑在线观看| 制服丝袜大香蕉在线| xxxwww97欧美| 成人永久免费在线观看视频| 少妇粗大呻吟视频| www.999成人在线观看| 禁无遮挡网站| 50天的宝宝边吃奶边哭怎么回事| 在线观看66精品国产| 美女午夜性视频免费| 久久久国产精品麻豆| 波多野结衣高清无吗| 久久天堂一区二区三区四区| 国产成人精品无人区| 国产激情久久老熟女| 变态另类成人亚洲欧美熟女| 久久亚洲精品不卡| 亚洲成av人片免费观看| 成人一区二区视频在线观看| 麻豆成人av在线观看| av欧美777| av视频在线观看入口| 精品日产1卡2卡| 日韩国内少妇激情av| 美女大奶头视频| 制服丝袜大香蕉在线| 91大片在线观看| 亚洲全国av大片| 91麻豆精品激情在线观看国产| 亚洲aⅴ乱码一区二区在线播放 | 人成视频在线观看免费观看| 十分钟在线观看高清视频www| 国产1区2区3区精品| 精品电影一区二区在线| 国产精品二区激情视频| 日韩大码丰满熟妇| 级片在线观看| 国产成人欧美| 不卡av一区二区三区| a在线观看视频网站| 免费在线观看黄色视频的| 亚洲av片天天在线观看| 亚洲激情在线av| 青草久久国产| 色老头精品视频在线观看| 99精品欧美一区二区三区四区| 免费在线观看成人毛片| 一级毛片精品| 黄色女人牲交| 国产熟女午夜一区二区三区| av电影中文网址| 亚洲熟妇熟女久久| √禁漫天堂资源中文www| 午夜两性在线视频| 亚洲熟妇熟女久久| 亚洲成国产人片在线观看| 欧美又色又爽又黄视频| 亚洲精品美女久久久久99蜜臀| 99久久精品国产亚洲精品| 一级黄色大片毛片| 久久久久久久午夜电影| 色av中文字幕| 亚洲自拍偷在线| 麻豆成人午夜福利视频| 国产亚洲精品av在线| 深夜精品福利| 成人亚洲精品av一区二区| 人人妻人人澡欧美一区二区| 给我免费播放毛片高清在线观看| 午夜激情av网站| 露出奶头的视频| 高清在线国产一区| 最好的美女福利视频网| 十八禁人妻一区二区| 成人永久免费在线观看视频| 日本免费a在线| 在线十欧美十亚洲十日本专区| 日本a在线网址| 激情在线观看视频在线高清| 久久久久国内视频| 身体一侧抽搐| 国产成人一区二区三区免费视频网站| 大型黄色视频在线免费观看| 首页视频小说图片口味搜索| 亚洲精品久久成人aⅴ小说| 国产精品永久免费网站| 欧美黄色片欧美黄色片| 国产精品电影一区二区三区| 国产精品自产拍在线观看55亚洲| 欧美 亚洲 国产 日韩一| 岛国在线观看网站| 丝袜美腿诱惑在线| 国产免费男女视频| 久久精品91无色码中文字幕| 在线观看www视频免费| 亚洲成av人片免费观看| 韩国精品一区二区三区| 久久久久国产一级毛片高清牌| avwww免费| 中文字幕最新亚洲高清| 久久久水蜜桃国产精品网| 日日摸夜夜添夜夜添小说| 老汉色av国产亚洲站长工具| 亚洲av成人一区二区三| 国产高清有码在线观看视频 | 国产单亲对白刺激| 国产精品影院久久| 99热6这里只有精品| 色在线成人网| 欧美黄色淫秽网站| 99国产极品粉嫩在线观看| 国产极品粉嫩免费观看在线| 波多野结衣av一区二区av| 午夜福利成人在线免费观看| 亚洲激情在线av| 淫妇啪啪啪对白视频| 国产一区二区在线av高清观看| 看黄色毛片网站| 国产精品爽爽va在线观看网站 | 国产午夜精品久久久久久| 人人妻人人看人人澡| 欧美激情高清一区二区三区| 亚洲专区国产一区二区| 麻豆国产av国片精品| 成人国产一区最新在线观看| 色综合欧美亚洲国产小说| 久热这里只有精品99| 黑人欧美特级aaaaaa片| 91成年电影在线观看| 亚洲va日本ⅴa欧美va伊人久久| 亚洲五月天丁香| 欧美三级亚洲精品| 亚洲欧美激情综合另类| 国产主播在线观看一区二区| 高潮久久久久久久久久久不卡| 国产午夜精品久久久久久| 一本综合久久免费| 视频在线观看一区二区三区| 国内少妇人妻偷人精品xxx网站 | 日韩有码中文字幕| 国产精品久久久av美女十八| 正在播放国产对白刺激| 国产精品日韩av在线免费观看| 成人国语在线视频| 日韩 欧美 亚洲 中文字幕| 国产高清videossex| 免费高清视频大片| 久久精品国产综合久久久| 69av精品久久久久久| 亚洲成人免费电影在线观看| 中文字幕精品亚洲无线码一区 | 无人区码免费观看不卡| 巨乳人妻的诱惑在线观看| 午夜久久久久精精品| 啦啦啦 在线观看视频| av电影中文网址| a级毛片在线看网站| 欧美亚洲日本最大视频资源| 女人被狂操c到高潮| 久久精品国产亚洲av香蕉五月| 怎么达到女性高潮| 国产黄色小视频在线观看| 女同久久另类99精品国产91| 人人妻人人澡人人看| 欧美在线黄色| 高潮久久久久久久久久久不卡| 成在线人永久免费视频| 欧美日韩精品网址| 99精品久久久久人妻精品| 精品久久久久久,| www.熟女人妻精品国产| 亚洲中文av在线| 欧美精品啪啪一区二区三区| 午夜精品在线福利| 色在线成人网| xxx96com| 久久中文字幕人妻熟女| 精品少妇一区二区三区视频日本电影| 三级毛片av免费| 午夜福利欧美成人| 国内精品久久久久精免费| 叶爱在线成人免费视频播放| 久热爱精品视频在线9| 精品熟女少妇八av免费久了| 久久国产精品男人的天堂亚洲| xxx96com| 制服丝袜大香蕉在线| 国产精品亚洲一级av第二区| 中文字幕精品亚洲无线码一区 | www国产在线视频色| 国产精品,欧美在线| 成人精品一区二区免费| 亚洲国产欧美一区二区综合| 久久精品人妻少妇| 亚洲国产精品久久男人天堂| 亚洲精品粉嫩美女一区| 中文字幕精品免费在线观看视频| 国产亚洲av嫩草精品影院| 国产三级在线视频| 最近最新中文字幕大全电影3 | 可以在线观看毛片的网站| 亚洲精品中文字幕一二三四区| 一区二区三区激情视频| 国产精品亚洲av一区麻豆| 久久天堂一区二区三区四区| 久久精品国产综合久久久| 亚洲精品久久国产高清桃花| 人人妻,人人澡人人爽秒播| 日本在线视频免费播放| 淫秽高清视频在线观看| 亚洲欧美精品综合一区二区三区| 国产成人一区二区三区免费视频网站| 国产av一区二区精品久久| 看片在线看免费视频| 成人午夜高清在线视频 | 久久草成人影院| 国产成年人精品一区二区| 亚洲自偷自拍图片 自拍| 国产亚洲av嫩草精品影院| 亚洲自拍偷在线| 亚洲在线自拍视频| 51午夜福利影视在线观看| 亚洲一区二区三区色噜噜| 精品久久蜜臀av无| 国产精品一区二区三区四区久久 | 国产一区二区三区在线臀色熟女| 女同久久另类99精品国产91| 欧美丝袜亚洲另类 | 亚洲国产精品sss在线观看| 日本一本二区三区精品| 亚洲av第一区精品v没综合| 国产99白浆流出| 婷婷丁香在线五月| 国产三级黄色录像| 在线观看66精品国产| 很黄的视频免费| 久久天堂一区二区三区四区| 女人爽到高潮嗷嗷叫在线视频| 91国产中文字幕| 欧美av亚洲av综合av国产av| 久久青草综合色| 久久久久久久精品吃奶| 伊人久久大香线蕉亚洲五| www.熟女人妻精品国产| 俄罗斯特黄特色一大片| 国产一级毛片七仙女欲春2 | 老汉色av国产亚洲站长工具| 激情在线观看视频在线高清| 午夜激情福利司机影院| 亚洲成人国产一区在线观看| 免费在线观看视频国产中文字幕亚洲| 欧美成狂野欧美在线观看| 日韩 欧美 亚洲 中文字幕| 久久国产亚洲av麻豆专区| 欧美成人一区二区免费高清观看 | 悠悠久久av| 国产亚洲欧美精品永久| 亚洲中文av在线| 一级黄色大片毛片| 夜夜夜夜夜久久久久| 男女床上黄色一级片免费看| 少妇熟女aⅴ在线视频| 女警被强在线播放| 国产私拍福利视频在线观看| 国产伦在线观看视频一区| 1024手机看黄色片| 国产主播在线观看一区二区| 91在线观看av| 男人操女人黄网站| 久热这里只有精品99| 女人爽到高潮嗷嗷叫在线视频| tocl精华| 国产av一区二区精品久久| 亚洲一区二区三区不卡视频| 欧美人与性动交α欧美精品济南到| 久久精品夜夜夜夜夜久久蜜豆 | 国产精品99久久99久久久不卡| 很黄的视频免费| 欧美黑人欧美精品刺激| 色老头精品视频在线观看| 精品一区二区三区四区五区乱码| 欧美黄色片欧美黄色片| 成人国产综合亚洲| 在线看三级毛片| 免费高清视频大片| 少妇 在线观看| 久久草成人影院| 久久久国产精品麻豆| 动漫黄色视频在线观看| 精品日产1卡2卡| 免费高清在线观看日韩| 身体一侧抽搐| 在线播放国产精品三级| 国产伦人伦偷精品视频| 给我免费播放毛片高清在线观看| avwww免费| 国产伦在线观看视频一区| 操出白浆在线播放|