• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合五筆字形與上下文相關(guān)字向量的命名實(shí)體識(shí)別

    2021-03-18 08:03:22王銘濤陳文亮
    計(jì)算機(jī)工程 2021年3期
    關(guān)鍵詞:實(shí)體向量漢字

    張 棟,王銘濤,陳文亮

    (蘇州大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,江蘇蘇州 215006)

    0 概述

    命名實(shí)體識(shí)別(Named Entity Recognition,NER)是自然語言處理中的一項(xiàng)重要任務(wù)[1-2],其目的是在非結(jié)構(gòu)化文本中識(shí)別人名、地名和組織名等專有名詞[3]。NER 問題通常被轉(zhuǎn)換為序列標(biāo)注問題,即給序列中的每個(gè)字或詞打上一個(gè)預(yù)定義的實(shí)體標(biāo)簽。近年來,基于有監(jiān)督學(xué)習(xí)的NER 模型取得較大進(jìn)展,系統(tǒng)性能得到大幅提升[4-6]。

    傳統(tǒng)的NER 系統(tǒng)主要是基于統(tǒng)計(jì)機(jī)器學(xué)習(xí),如最大熵模型[7]、隱馬爾科夫模型[8]和條件隨機(jī)場(chǎng)(Conditional Random Field,CRF)模型[9-10]等。這類模型非常依賴手工特征,如上下文特征、前綴詞和后綴詞等。由于語言的多樣性以及領(lǐng)域的差異性,手工特征通常需要重新設(shè)計(jì),缺乏可遷移性。隨著深度學(xué)習(xí)的快速發(fā)展,基于神經(jīng)網(wǎng)絡(luò)的方法被廣泛應(yīng)用于NER 任務(wù)。文獻(xiàn)[11]使用前饋神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)作為特征編碼器,文獻(xiàn)[12]使用長(zhǎng)短時(shí)記憶(Long Short Term Memory,LSTM)網(wǎng)絡(luò)作為特征編碼器。這些深度學(xué)習(xí)模型不僅擺脫了對(duì)手工特征工程的依賴,而且命名實(shí)體識(shí)別性能明顯優(yōu)于基于統(tǒng)計(jì)機(jī)器學(xué)習(xí)的方法。神經(jīng)網(wǎng)絡(luò)的初始化對(duì)于深度學(xué)習(xí)模型性能影響很大,傳統(tǒng)的詞向量在訓(xùn)練時(shí)對(duì)上下文中的詞進(jìn)行預(yù)測(cè),得到詞的分布式向量表示。但通過這種方式取得的詞向量都是靜態(tài)的,無法體現(xiàn)一詞多義的情況。例如,“自然”在不同上下文中具有“不造作,不呆板”或“理所當(dāng)然”的含義。為了解決這一問題,文獻(xiàn)[13]在大規(guī)模無標(biāo)注語料上預(yù)訓(xùn)練一個(gè)語言模型,將多層上下文的隱狀態(tài)通過線性加權(quán)作為詞的向量表示,基于該預(yù)訓(xùn)練語言模型得到的上下文相關(guān)詞向量在英文NER 任務(wù)中取得了較好的效果。

    在中文NER 任務(wù)中,通常將字作為最小的處理單元,使用大規(guī)模無標(biāo)注語料預(yù)訓(xùn)練字向量。漢字是一種象形文字,其中包含豐富的筆畫、部首等字形信息。具有相似字形的漢字通常具有相似的語義,如“他、你、俺”都有部首“亻”,“亻”是“人”的變體,因此,這些字都包含與“人”相關(guān)的意思。雖然在大規(guī)模無標(biāo)注語料上訓(xùn)練得到的字向量,可以在一定程度上學(xué)習(xí)到自然語言中的語法和語義特征,但是這種特征表示能力是有限的。一些研究人員嘗試將漢字字形應(yīng)用于中文NER 任務(wù)中,目前已取得了一定成果。文獻(xiàn)[14]將漢字拆分成多個(gè)組件,通過雙向LSTM 提取漢字的字形特征,將其與隨機(jī)初始化的上下文無關(guān)字向量進(jìn)行拼接并作為漢字的特征表示,該方法的NER 性能得到有效提升。但是,目前較少有學(xué)者將預(yù)訓(xùn)練語言模型和漢字字形相結(jié)合,從而增強(qiáng)字的語義表達(dá)。同時(shí),漢字存在多種字形表現(xiàn)形式,如部首、五筆和筆畫,其中,部首只提供漢字的部分字形信息,筆畫只有橫類、豎類、撇類、點(diǎn)類和折類等,過于簡(jiǎn)單,而五筆拆解出的漢字較完整且字形具有一定含義。因此,本文將五筆字形信息引入漢字的向量表示中,以改進(jìn)中文命名實(shí)體識(shí)別效果。

    為了充分利用大規(guī)模無標(biāo)注語料,本文將中文特有的字形信息和預(yù)訓(xùn)練語言模型相結(jié)合,提出2 種結(jié)合五筆字形的上下文相關(guān)字向量表示方法。第一種方法分別訓(xùn)練得到2 個(gè)語言模型,一是基于字序列訓(xùn)練一個(gè)基于字的語言模型,二是將文本轉(zhuǎn)換為五筆編碼序列,訓(xùn)練一個(gè)基于五筆的語言模型。第二種方法是將五筆字形作為輔助特征拼接到字向量表示中,將兩者信息直接融合,訓(xùn)練一個(gè)基于字與五筆字形的混合語言模型。通過這2 種方法得到2 種結(jié)合五筆字形的上下文相關(guān)字向量,并以此構(gòu)建中文NER 系統(tǒng)。

    1 相關(guān)工作

    目前,序列標(biāo)注任務(wù)主要通過基于神經(jīng)網(wǎng)絡(luò)的方法來完成。文獻(xiàn)[11]去掉特征工程和先驗(yàn)知識(shí),使用語言模型中訓(xùn)練的詞向量替換手工設(shè)計(jì)特征,在詞性標(biāo)注、分塊以及NER 任務(wù)上取得了較好的效果。文獻(xiàn)[15-16]分別使用CNN 和雙向LSTM 以捕獲英文單詞內(nèi)的拼寫特征,結(jié)果驗(yàn)證了字符級(jí)特征的有效性。借鑒英文中提取單詞拼寫特征的思想,文獻(xiàn)[14]將漢字拆分成多個(gè)組件,通過雙向LSTM提取組件級(jí)別的特征,然后和上下文無關(guān)字向量相拼接,以改進(jìn)中文NER 的性能。文獻(xiàn)[17]通過CNN對(duì)漢字五筆進(jìn)行編碼,然后與上下文無關(guān)字向量相拼接以作為NER 模型的輸入。此外,為了提取命名實(shí)體的前綴和后綴特征,文獻(xiàn)[17]使用多個(gè)卷積核模擬傳統(tǒng)的n-gram 特征。由于LSTM 在處理序列時(shí)無法并行運(yùn)算以及傳統(tǒng)卷積感受野受限,因此文獻(xiàn)[18]使用空洞卷積增大感受野從而進(jìn)行命名實(shí)體識(shí)別,該方法在未降低識(shí)別性能的同時(shí)顯著縮短了模型訓(xùn)練時(shí)間。為了降低人工標(biāo)注語料的成本,文獻(xiàn)[19]提出了一種利用對(duì)抗網(wǎng)絡(luò)在眾包數(shù)據(jù)上進(jìn)行命名實(shí)體識(shí)別的方法。為了避免分詞錯(cuò)誤,很多研究人員都以字為處理單元。文獻(xiàn)[20]建立一種Lattice-LSTM 模型來引入序列中所有潛在的詞信息,其在NER 任務(wù)中取得了很好的效果。

    除了對(duì)NER 模型進(jìn)行改進(jìn)外,自然語言處理的一個(gè)重要任務(wù)是學(xué)習(xí)文本中較好的特征表示。研究表明,在大規(guī)模無標(biāo)注數(shù)據(jù)上預(yù)訓(xùn)練學(xué)習(xí)得到的詞向量可以捕獲語法和語義信息,使得預(yù)訓(xùn)練的詞向量成為自然語言處理模型的一個(gè)基本組成部分[21]。文獻(xiàn)[22]利用漢字的上下文和部首信息來訓(xùn)練上下文無關(guān)字向量,并將其應(yīng)用于漢字的相似性計(jì)算任務(wù)和中文分詞任務(wù)中,且取得了較好效果。文獻(xiàn)[23]基于五筆將漢字轉(zhuǎn)變成五筆序列,使用CBOW 模型預(yù)訓(xùn)練五筆的上下文無關(guān)向量,在中文分詞、短文本分類以及網(wǎng)頁排序任務(wù)中,該方法的效果優(yōu)于基于傳統(tǒng)特征的機(jī)器學(xué)習(xí)方法。文獻(xiàn)[24]在SkipGram 和CBOW 模型中,將漢字的組件信息融合到字向量的預(yù)訓(xùn)練中,在文本分類中取得一定效果。文獻(xiàn)[25]在預(yù)訓(xùn)練上下文無關(guān)詞向量時(shí),同時(shí)考慮詞、字和部首三者的信息,在詞相似性和詞推理任務(wù)中的結(jié)果驗(yàn)證了上下文無關(guān)詞向量的有效性。文獻(xiàn)[26]根據(jù)漢字的圖像表示,通過CNN 提取漢字的可視化特征。上述方法雖然在一定程度上豐富了字向量的表示,但多數(shù)是對(duì)上下文無關(guān)向量的改進(jìn)。此外,很多研究?jī)H聚焦于字或詞級(jí)的語義任務(wù),未在句子、文檔等自然語言處理的高層任務(wù)上進(jìn)行延伸。

    文獻(xiàn)[13]提出基于語言模型的上下文相關(guān)詞向量表示方法,其在多個(gè)英文自然語言處理任務(wù)中取得了較好的效果。但是,該方法不能直接應(yīng)用于中文NER 任務(wù),因此,本文在中文語料上訓(xùn)練一個(gè)基于字的語言模型。此外,為了更好地挖掘中文的字形信息,本文建立2 種結(jié)合五筆字形的預(yù)訓(xùn)練語言模型,并在此基礎(chǔ)上分別構(gòu)建2 種結(jié)合五筆字形的上下文相關(guān)字向量表示模型。

    2 LSTM-CRF 模型

    LSTM-CRF 已經(jīng)成為命名實(shí)體識(shí)別中最主要的模型之一。本文采用LSTM-CRF 構(gòu)建基準(zhǔn)系統(tǒng)(baseline),如圖1 所示。整個(gè)模型主要由輸入層、編碼層和解碼層3 個(gè)部分組成。baseline 模型的輸入為傳統(tǒng)的靜態(tài)字向量,使用雙向LSTM 對(duì)序列的特征進(jìn)行編碼。在解碼層,本文使用CRF 模型。

    圖1 LSTM-CRF 模型Fig.1 LSTM-CRF model

    2.1 輸入層

    假設(shè)LSTM-CRF 模型的輸入為一句話s=c1,c2,…,cn,ck表示句子中的第k個(gè)字。對(duì)每個(gè)字ci,通過word2vec 預(yù)訓(xùn)練字向量將其嵌入為連續(xù)稠密向量表示,本文使用xk表示LSTM-CRF 模型第k個(gè)字向量的輸入,

    2.2 編碼層

    本層使用LSTM 對(duì)特征進(jìn)行編碼,LSTM 單元能夠處理當(dāng)前時(shí)刻的信息,也可以處理歷史信息,非常適合對(duì)序列問題進(jìn)行建模。LSTM 單元通過輸入門、遺忘門和輸出門來控制單元的隱狀態(tài),可以有效捕獲長(zhǎng)距離依賴信息。LSTM 單元的實(shí)現(xiàn)方式如式(1)~式(3)所示:

    其中,σ是sigmoid 函數(shù),*代表元素乘,W是權(quán)重矩陣,b代表偏置。

    在序列標(biāo)注任務(wù)中,上下文特征對(duì)于標(biāo)簽決策很重要。由于LSTM 只能對(duì)序列的一個(gè)方向進(jìn)行編碼,因此本文使用雙向LSTM(BiLSTM)對(duì)輸入進(jìn)行特征編碼,將BiLSTM 的2 個(gè)前后向隱狀態(tài)相連接以作為最終的特征編碼。輸入序列(x1,x2,…,xn)經(jīng)過BiLSTM編碼后可以得到特征序列(h1,h2,…,hn)。

    2.3 解碼層

    根據(jù)BiLSTM 提取到的第k時(shí)刻的特征hk,可以直接對(duì)每個(gè)字的輸出進(jìn)行獨(dú)立的標(biāo)簽預(yù)測(cè)。但是,由于標(biāo)簽之間存在一定的相關(guān)性,如B-ORG 后面不能跟著I-PER,因此本文使用CRF 對(duì)標(biāo)簽序列進(jìn)行一些約束。定義矩陣O是對(duì)隱層表示H={h1,h2,…,hn}進(jìn)行線性變換所得表示第k個(gè)字是yk的得分,O的表達(dá)式如式(4)所示:

    其中,Wo和bo是矩陣O的參數(shù)。對(duì)于標(biāo)簽序列y={y1,y2,…,yn},本文通過式(5)計(jì)算其概率:

    其中,T是轉(zhuǎn)移矩陣表示所有可能的標(biāo)簽序列。

    在訓(xùn)練過程中,給定N個(gè)句子的命名實(shí)體識(shí)別數(shù)據(jù),使用梯度反向傳播算法來最小化損失函數(shù)loss,如式(6)所示:

    在訓(xùn)練完成后,需要對(duì)模型輸出進(jìn)行解碼,通過式(7)來找到得分最高的標(biāo)簽序列:

    3 結(jié)合五筆字形的上下文相關(guān)字向量表示

    本文建立2 種上下文相關(guān)字向量表示系統(tǒng)。第一種是在基于字的語言模型和基于五筆的語言模型的基礎(chǔ)上所構(gòu)建,第二種是在基于字與五筆的混合語言模型的基礎(chǔ)上所構(gòu)建。

    3.1 基于字與基于五筆的語言模型

    將字和五筆的信息分開,分別訓(xùn)練基于字的語言模型和基于五筆的語言模型,在這2 個(gè)語言模型的基礎(chǔ)上構(gòu)建本文所提第一種結(jié)合五筆字形的上下文相關(guān)字向量表示系統(tǒng)。

    3.1.1 基于字的語言模型

    本文使用ELMo(Embeddings from Language Model)作為基于字的語言模型的訓(xùn)練框架。作為傳統(tǒng)上下文無關(guān)詞向量的一種替代方法,ELMo 已經(jīng)在解決一系列句法和語義NLP 問題上取得了成功。與文獻(xiàn)[11]系統(tǒng)不同,本文系統(tǒng)構(gòu)建基于字的ELMo 框架。對(duì)于字序列(c1,c2,…,cn),前向語言模型通過式(8)計(jì)算序列概率:

    前向語言模型只能編碼一個(gè)字的上文信息,因此,還需要一個(gè)后向語言模型來編碼字的下文信息,如式(9)所示:

    訓(xùn)練的目標(biāo)是最大化前向語言模型和后向語言模型對(duì)數(shù)似然概率,如式(10)所示:

    前向語言模型和后向語言模型互相獨(dú)立,即參數(shù)不共享。同時(shí),較低的層可以學(xué)到更多的語法特征,而較高的層能夠?qū)W習(xí)上下文特征。因此,本文前向語言模型和后向語言模型均采用兩層LSTM 堆疊的結(jié)構(gòu),如圖2 所示。

    圖2 基于字的語言模型Fig.2 Character-based language model

    不同于傳統(tǒng)的上下文無關(guān)字向量,上下文相關(guān)字向量直到整個(gè)句子被構(gòu)造出來才確定。因此,每個(gè)字向量都是上下文相關(guān)的,一旦預(yù)訓(xùn)練完成,通過雙向語言模型就可以得到上下文相關(guān)字向量。對(duì)于第k個(gè)時(shí)刻,前向語言模型的隱狀態(tài)為,后向語言模型的隱狀態(tài)為。因此,對(duì)于第k個(gè)時(shí)刻,L層雙向語言模型可以得到2L+1 個(gè)向量表示,如式(11)、式(12)所示:

    3.1.2 基于五筆的語言模型

    在基于五筆的語言模型中,將字轉(zhuǎn)換為其對(duì)應(yīng)的五筆編碼形式,將句子轉(zhuǎn)化為五筆編碼序列。如文本表示“愛國(guó)家”,其對(duì)應(yīng)的五筆序列表示為“epdclgyipeu”。本文基于五筆的編碼方式將句子轉(zhuǎn)換為五筆字符串r1,r2,…,rm。漢字的五筆表示包含多個(gè)五筆碼元(用英文字母表示),每個(gè)五筆碼元刻畫漢字的字形信息,漢字與漢字的五筆編碼之間使用特殊字符“”分隔。本文不再將字或詞當(dāng)成一個(gè)最小的處理單元,而將五筆的碼元當(dāng)成最小的語義單元。

    預(yù)訓(xùn)練一個(gè)基于五筆序列的語言模型(簡(jiǎn)稱五筆語言模型),該語言模型的目標(biāo)是學(xué)習(xí)一個(gè)五筆序列分布p(r1,r2,…,rm),根據(jù)前一個(gè)五筆碼元序列預(yù)測(cè)后一個(gè)五筆碼元。在基于五筆的語言模型中,對(duì)于輸入序列“epdclgyipe”,其對(duì)應(yīng)的輸出序列為“pdclgyipeu”,與基于字的語言模型類似,基于五筆的語言模型同樣通過堆疊的LSTM 來訓(xùn)練前后向的語言模型。

    與基于字的語言模型得到上下文相關(guān)字向量表示不同,本文利用預(yù)訓(xùn)練的五筆語言模型的內(nèi)部狀態(tài)來產(chǎn)生一種新型的上下文相關(guān)字向量。在五筆語言模型訓(xùn)練完成后,根據(jù)五筆的前向語言模型和后向語言模型中最后一層的隱狀態(tài)創(chuàng)建字的向量表示。圖3 中的“國(guó)”對(duì)應(yīng)的五筆編碼“l(fā)gyi”,通過前向語言模型中“l(fā)gyi”前的“”隱狀態(tài)和后向語言模型中“l(fā)gyi”后的“”隱狀態(tài)的拼接,并作為“l(fā)gyi”的向量表示。這種字向量在沒有任何明確的字或詞的概念下訓(xùn)練,從根本上將字建模為五筆碼元序列。此外,其可以隨著上下文碼元的不同而變化。在本文中,對(duì)于第k個(gè)字,基于五筆語言模型得到的上下文相關(guān)字向量為

    圖3 基于五筆的上下文相關(guān)字向量表示Fig.3 Contextualized character embeddings representation based on Wubi

    將上述基于字的語言模型和基于五筆的語言模型相拼接,得到本文第一種結(jié)合五筆的上下文相關(guān)字向量表示

    3.2 基于字與五筆的混合語言模型

    將字信息和五筆信息相結(jié)合,基于字和五筆混合語言模型構(gòu)建本文所提第二種上下文相關(guān)字向量表示。在混合語言模型的訓(xùn)練過程中,字的嵌入表示和五筆編碼表示相拼接作為語言模型的輸入。對(duì)于句子c1,c2,…,cn,第k個(gè)時(shí)刻的輸入包含字的嵌入表示和五筆表示,字的嵌入表示不作介紹,本文主要關(guān)注五筆表示。

    圖4 所示為五筆信息的獲取方式,將句子中的每個(gè)漢字表示成五筆編碼形式,如“愛國(guó)家”對(duì)應(yīng)的五筆形式為“epdc lgyi peu”。對(duì)于“國(guó)”的五筆編碼“l(fā)gyi”,利用多個(gè)卷積核從不同角度對(duì)其進(jìn)行卷積以提取特征,然后通過最大池化進(jìn)一步提取特征。為了防止網(wǎng)絡(luò)過深導(dǎo)致梯度彌散從而難以訓(xùn)練,本文加入高速網(wǎng)絡(luò),高速網(wǎng)絡(luò)的輸出即為五筆編碼的最終表示。

    圖4 五筆信息的獲取方式Fig.4 The way of obtaining Wubi information

    混合語言模型的訓(xùn)練同樣是最大化前向語言模型和后向語言模型的概率分布。在混合語言模型訓(xùn)練完成后,通過類似ELMo 的方式獲得第k個(gè)時(shí)刻包含五筆和字信息的上下文相關(guān)字向量

    4 實(shí)驗(yàn)結(jié)果與分析

    4.1 實(shí)驗(yàn)設(shè)置

    4.1.1 實(shí)驗(yàn)數(shù)據(jù)

    本文實(shí)驗(yàn)數(shù)據(jù)分為無標(biāo)注數(shù)據(jù)和命名實(shí)體識(shí)別數(shù)據(jù)2 類。對(duì)于無標(biāo)注數(shù)據(jù),使用Gigaword(https://catalog.ldc.upenn.edu/LDC2003T09)訓(xùn)練基于word2vec的上下文無關(guān)字向量和語言模型。對(duì)于命名實(shí)體識(shí)別數(shù)據(jù),為了從不同領(lǐng)域評(píng)估本文模型的性能,選取來自新聞?lì)I(lǐng)域的數(shù)據(jù)集Ontonotes 和社交媒體領(lǐng)域的數(shù)據(jù)集Weibo,2 個(gè)數(shù)據(jù)集的句子數(shù)和字?jǐn)?shù)統(tǒng)計(jì)如表1 所示。

    表1 數(shù)據(jù)集信息統(tǒng)計(jì)結(jié)果Table 1 Statistical results of datasets information

    4.1.2 評(píng)價(jià)指標(biāo)

    實(shí)體識(shí)別需要同時(shí)識(shí)別實(shí)體的邊界和類別,只有當(dāng)實(shí)體邊界和類別都識(shí)別正確時(shí)結(jié)果才算正確。本文實(shí)驗(yàn)使用綜合指標(biāo)F1 值來衡量模型性能,F(xiàn)1 值計(jì)算公式如下:

    其中,N表示模型預(yù)測(cè)出的實(shí)體數(shù)目,M表示模型預(yù)測(cè)正確的實(shí)體數(shù)目,K表示標(biāo)注數(shù)據(jù)中包含的實(shí)體數(shù)目。

    4.1.3 標(biāo)簽框架

    實(shí)驗(yàn)采用BIO 標(biāo)簽框架,B 即Begin,表示當(dāng)前字是實(shí)體的第一個(gè)字,I即Inside,表示當(dāng)前字是實(shí)體內(nèi)的字,O 即Other,表示其他。對(duì)于某種具體類型(Type),某個(gè)字可選標(biāo)注集合為{B-Type,I-Type,O}。

    4.1.4 模型訓(xùn)練和參數(shù)設(shè)置

    實(shí)驗(yàn)采用pytorch 深度學(xué)習(xí)框架,使用NVIDIA GeForce GTX 1080 Ti 加速模型訓(xùn)練。在BiLSTMCRF 模型中設(shè)置LSTM 隱層維度為200。采用Adam優(yōu)化器更新神經(jīng)網(wǎng)絡(luò)的參數(shù),對(duì)LSTM 輸入向量和輸出向量采用dropout 策略,概率設(shè)置為0.5。為防止模型過擬合,總訓(xùn)練輪次設(shè)置為50 輪,當(dāng)連續(xù)迭代10 輪模型在開發(fā)集上的性能不再提升時(shí)模型停止訓(xùn)練。預(yù)訓(xùn)練語言模型均采用2 層BiLSTM,Embedding 映射維度為512,負(fù)采樣窗口大小設(shè)置為8 192。其中,基于字與五筆的混合語言模型中使用256 個(gè)n-gram 卷積濾波器進(jìn)行特征抽取。預(yù)訓(xùn)練語言模型的迭代次數(shù)設(shè)置為10,當(dāng)模型困惑度在開發(fā)集上不再明顯降低時(shí)停止訓(xùn)練。

    本文實(shí)驗(yàn)中的對(duì)比模型具體如下:

    1)LSTM-CRF:即本文baseline 模型,其將雙向LSTM 作為編碼器,CRF 作為解碼器,輸入為傳統(tǒng)字向量,即

    2)LSTM-CRF-char:在baseline 的基礎(chǔ)上,輸入增加基于字語言模型得到的上下文相關(guān)字向量,即輸入為

    3)LSTM-CRF-wubi:在baseline 的基礎(chǔ)上,輸入增加基于五筆語言模型得到的上下文相關(guān)字向量,即輸入為

    4)LSTM-CRF-concat:在baseline 的基礎(chǔ)上,增加基于字的語言模型和基于五筆的語言模型得到的2 個(gè)上下文相關(guān)字向量的拼接,對(duì)應(yīng)本文所提第一種結(jié)合五筆的上下文相關(guān)字向量表示,即輸入為xk=

    5)LSTM-CRF-hybrid:在baseline 的基礎(chǔ)上,輸入增加基于字和五筆的混合語言模型得到的上下文相關(guān)字向量,對(duì)應(yīng)本文所提第二種結(jié)合五筆的上下文相關(guān)字向量表示,即輸入為

    4.2 結(jié)果分析

    表2、表3 所示為Ontonotes 和Weibo 2 個(gè)數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果。從表2、表3 下半部分可以看出,模型在增加上下文相關(guān)字向量(LSTM-CRF-char)后,命名實(shí)體識(shí)別的性能在Ontonotes 和Weibo 數(shù)據(jù)集上分別提升9.04 和6.19 個(gè)百分點(diǎn)。從表2、表3 最后兩行可以看出,本文所提2 種結(jié)合五筆的上下文相關(guān)字向量(LSTM-CRF-hybrid 和LSTM-CRF-concat)在2 個(gè)數(shù)據(jù)集上的F1 值相比基于字的上下文相關(guān)字向量(LSTM-CRF-char)有了進(jìn)一步提高,在Weibo 上尤為顯著,最高提升3.03 個(gè)百分點(diǎn),說明在預(yù)訓(xùn)練語言模型中引入五筆字形信息具有有效性。此外,LSTM-CRF-concat 比LSTM-CRF-hybrid 效果更好,原因是基于五筆的語言模型不僅可以學(xué)習(xí)到漢字本身的字形信息,而且可以學(xué)習(xí)到上下文的碼元信息。

    表2 Ontonotes 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Table 2 Experimental results on Ontonotes dataset %

    表3 Weibo 數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Table 3 Experimental results on Weibo dataset %

    在表2 中,文獻(xiàn)[27]模型使用一種基于中英雙語語料的方法,LSTM-CRF-char 在沒有借助英文語料的情況下F1 值仍然比其高0.6 個(gè)百分點(diǎn),說明上下文相關(guān)字向量能大幅提升語義表征能力。文獻(xiàn)[27]模型通過結(jié)合基于多種手工特征以及外部資源的CRF 和基于神經(jīng)網(wǎng)絡(luò)的LSTM-CRF 模型,使得命名實(shí)體識(shí)別性能達(dá)到76.40%。相比之下,LSTMCRF-concat 完全沒有使用手工設(shè)計(jì)特征和模型融合,但是F1 值僅比文獻(xiàn)[29]模型低0.56 個(gè)百分點(diǎn)。在表3 中,文獻(xiàn)[31]模型和文獻(xiàn)[20]模型分別利用分詞和外部詞典來更好地判斷實(shí)體邊界,本文方法的F1 值比文獻(xiàn)[31]模型高4.32 個(gè)百分點(diǎn)。Weibo 數(shù)據(jù)集來自社交媒體領(lǐng)域,文本的表達(dá)通常是非正式的,包含很多噪聲,從表3 可以看出,模型在Weibo 數(shù)據(jù)集上的結(jié)果與Ontonotes 結(jié)果一致,說明結(jié)合五筆增強(qiáng)的上下文相關(guān)字向量在社交媒體領(lǐng)域同樣有效,而沒有因?yàn)轭I(lǐng)域的不同導(dǎo)致命名實(shí)體識(shí)別系統(tǒng)性能下降。

    4.2.1 五筆信息與WC-LSTM 相結(jié)合對(duì)識(shí)別結(jié)果的影響

    基于字的命名實(shí)體識(shí)別方法雖然取得了較好的效果,但是其未利用句子中詞的信息。詞的邊界往往也是命名實(shí)體的邊界,詞的邊界信息可以幫助基于字的命名實(shí)體識(shí)別方法確定命名實(shí)體的邊界。文獻(xiàn)[33]提出一種可以同時(shí)整合字和詞信息的WCLSTM(Word-Character LSTM)模型。為了進(jìn)一步驗(yàn)證本文所提方法的有效性,在WC-LSTM 模型的輸入中增加結(jié)合五筆的上下文相關(guān)字向量表示,從而同時(shí)對(duì)五筆、字和詞的多個(gè)層面進(jìn)行特征表示。

    從表4 可以看出,增加了基于五筆的上下文相關(guān)字向量的WC-LSTM 模型,命名實(shí)體識(shí)別性能進(jìn)一步提升,性能優(yōu)于表2 中的文獻(xiàn)[29]模型,這說明詞、字、五筆攜帶的信息不同,對(duì)中文命名實(shí)體識(shí)別具有不同的作用。

    表4 Ontonotes 數(shù)據(jù)集上的模型性能對(duì)比Table 4 Performance comparison of models on Ontonotes dataset%

    4.2.2 訓(xùn)練數(shù)據(jù)規(guī)模對(duì)識(shí)別結(jié)果的影響

    為了驗(yàn)證在訓(xùn)練不充分的情況下基于五筆的上下文相關(guān)字向量對(duì)命名實(shí)體識(shí)別性能的影響,本文從Ontonotes 訓(xùn)練數(shù)據(jù)中分別隨機(jī)選取5%、10%、20%、50%和100%比例的數(shù)據(jù)作為訓(xùn)練集,固定驗(yàn)證集和測(cè)試集,然后進(jìn)行對(duì)比實(shí)驗(yàn)。從表5 可以看出,訓(xùn)練數(shù)據(jù)規(guī)模越小,基于五筆的上下文相關(guān)字向量對(duì)模型性能提升越大,這說明基于五筆的上下文相關(guān)字向量可以在一定程度上緩解模型在小數(shù)據(jù)集上的欠擬合問題。

    表5 數(shù)據(jù)規(guī)模對(duì)模型性能的影響Table 5 The impact of data size on models performance%

    5 結(jié)束語

    中文預(yù)訓(xùn)練語言模型在命名實(shí)體識(shí)別時(shí)僅對(duì)字符進(jìn)行建模而較少關(guān)注中文特有的字形信息。本文考慮中文五筆字形的優(yōu)勢(shì),將其作為額外的輸入信息,提出2 種融合字形信息的上下文相關(guān)字向量表示方法。第一種方法在預(yù)訓(xùn)練語言模型中引入額外的五筆編碼器以豐富字向量表示,第二種方法對(duì)五筆序列進(jìn)行建模從而抽取字向量表示。實(shí)驗(yàn)結(jié)果表明,2 種方法在實(shí)體識(shí)別任務(wù)中取得了較高的F1 值,且結(jié)合五筆的上下文相關(guān)字向量表示方法的性能優(yōu)于基于字的上下文相關(guān)字向量表示方法。語言模型BERT[34]具有更強(qiáng)的特征編碼能力,在各項(xiàng)識(shí)別任務(wù)中取得了較好效果。下一步考慮在BERT 中結(jié)合五筆編碼特征提取來增強(qiáng)語義表達(dá),以獲取更高的命名實(shí)體識(shí)別性能。

    猜你喜歡
    實(shí)體向量漢字
    向量的分解
    聚焦“向量與三角”創(chuàng)新題
    前海自貿(mào)區(qū):金融服務(wù)實(shí)體
    實(shí)體的可感部分與實(shí)體——兼論亞里士多德分析實(shí)體的兩種模式
    兩會(huì)進(jìn)行時(shí):緊扣實(shí)體經(jīng)濟(jì)“釘釘子”
    振興實(shí)體經(jīng)濟(jì)地方如何“釘釘子”
    漢字這樣記
    漢字這樣記
    向量垂直在解析幾何中的應(yīng)用
    向量五種“變身” 玩轉(zhuǎn)圓錐曲線
    亚洲怡红院男人天堂| 国产91av在线免费观看| 狠狠狠狠99中文字幕| 日日干狠狠操夜夜爽| 黄色一级大片看看| 国产国拍精品亚洲av在线观看| av播播在线观看一区| 国产一区二区亚洲精品在线观看| 久久久久久久久久久免费av| 欧美bdsm另类| 亚洲成人av在线免费| 国产精品久久电影中文字幕| 亚洲欧美日韩高清专用| 精华霜和精华液先用哪个| 国产精品爽爽va在线观看网站| 久久午夜福利片| 成年版毛片免费区| 内射极品少妇av片p| 99热精品在线国产| 国产精品蜜桃在线观看| 高清av免费在线| 亚洲自拍偷在线| 精品一区二区三区人妻视频| 亚洲欧美精品综合久久99| 嫩草影院新地址| 国产亚洲午夜精品一区二区久久 | 久久韩国三级中文字幕| 亚洲精品自拍成人| 久久久久久久久大av| 欧美不卡视频在线免费观看| 久久热精品热| av免费在线看不卡| 亚洲熟妇中文字幕五十中出| 免费av毛片视频| 午夜日本视频在线| 国产伦理片在线播放av一区| 亚洲精品影视一区二区三区av| 精品国内亚洲2022精品成人| av黄色大香蕉| 男人狂女人下面高潮的视频| 听说在线观看完整版免费高清| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 一区二区三区高清视频在线| 日韩av在线免费看完整版不卡| 欧美变态另类bdsm刘玥| 男人舔奶头视频| 午夜福利在线在线| 日本-黄色视频高清免费观看| 国产精品电影一区二区三区| 一个人免费在线观看电影| 在线天堂最新版资源| 一卡2卡三卡四卡精品乱码亚洲| 国产亚洲91精品色在线| 你懂的网址亚洲精品在线观看 | 干丝袜人妻中文字幕| 国产片特级美女逼逼视频| 一区二区三区乱码不卡18| 九九爱精品视频在线观看| 亚洲国产最新在线播放| 国产淫语在线视频| av国产免费在线观看| 久久久久网色| 在线a可以看的网站| 久久99热6这里只有精品| 听说在线观看完整版免费高清| 午夜福利视频1000在线观看| 国产精品一及| 18禁在线播放成人免费| 少妇的逼水好多| 免费看av在线观看网站| 少妇人妻精品综合一区二区| 日日摸夜夜添夜夜爱| 精品久久久久久电影网 | 永久网站在线| 精品国产露脸久久av麻豆 | 美女内射精品一级片tv| 狂野欧美白嫩少妇大欣赏| 免费看日本二区| 久久人妻av系列| 麻豆av噜噜一区二区三区| 久久亚洲国产成人精品v| 国产av码专区亚洲av| 国产极品精品免费视频能看的| 精品一区二区三区人妻视频| 亚洲欧美成人精品一区二区| av福利片在线观看| 国产精品国产三级专区第一集| 婷婷色综合大香蕉| 日本午夜av视频| 嫩草影院新地址| 国产亚洲av嫩草精品影院| av天堂中文字幕网| 一区二区三区高清视频在线| 中国美白少妇内射xxxbb| 国产精品乱码一区二三区的特点| 91精品一卡2卡3卡4卡| 又爽又黄a免费视频| 日韩一区二区三区影片| 久久久久网色| 午夜老司机福利剧场| 精品一区二区免费观看| 亚洲中文字幕日韩| 91精品一卡2卡3卡4卡| 少妇熟女欧美另类| 久久亚洲精品不卡| 美女国产视频在线观看| 男人的好看免费观看在线视频| 天堂影院成人在线观看| 搞女人的毛片| 精品久久久久久久久亚洲| 免费电影在线观看免费观看| 大香蕉97超碰在线| 欧美97在线视频| 亚洲欧美成人精品一区二区| 亚洲精品日韩av片在线观看| 国产一区二区在线av高清观看| 久久久色成人| 91精品一卡2卡3卡4卡| 自拍偷自拍亚洲精品老妇| 噜噜噜噜噜久久久久久91| 人妻系列 视频| 久久久久久久久久成人| 插逼视频在线观看| 久久久久精品久久久久真实原创| 亚洲精品国产av成人精品| 亚洲av成人精品一区久久| 国产免费一级a男人的天堂| 国产亚洲91精品色在线| 在线免费观看不下载黄p国产| 91精品一卡2卡3卡4卡| 国产真实伦视频高清在线观看| 免费观看性生交大片5| 亚洲欧美精品综合久久99| 天堂av国产一区二区熟女人妻| 日韩欧美 国产精品| 免费不卡的大黄色大毛片视频在线观看 | 色播亚洲综合网| 直男gayav资源| 99视频精品全部免费 在线| 国产欧美另类精品又又久久亚洲欧美| 精品无人区乱码1区二区| 久久久久免费精品人妻一区二区| 22中文网久久字幕| 亚洲欧美日韩卡通动漫| 尤物成人国产欧美一区二区三区| 精品熟女少妇av免费看| 亚洲最大成人av| 成年免费大片在线观看| 一级黄色大片毛片| 色综合站精品国产| 国产91av在线免费观看| 欧美精品一区二区大全| 两个人视频免费观看高清| 色尼玛亚洲综合影院| 久久精品91蜜桃| 亚洲av福利一区| 91久久精品国产一区二区成人| 日韩强制内射视频| 伦理电影大哥的女人| 九九在线视频观看精品| 亚洲一级一片aⅴ在线观看| 成人午夜高清在线视频| or卡值多少钱| av卡一久久| 水蜜桃什么品种好| 男人和女人高潮做爰伦理| 水蜜桃什么品种好| 99热精品在线国产| 成人高潮视频无遮挡免费网站| 波多野结衣巨乳人妻| 欧美一区二区亚洲| 亚洲欧美日韩卡通动漫| 一本一本综合久久| 干丝袜人妻中文字幕| 亚洲av成人精品一区久久| 女人久久www免费人成看片 | 日韩精品有码人妻一区| 欧美性猛交╳xxx乱大交人| 亚洲成人久久爱视频| 一卡2卡三卡四卡精品乱码亚洲| 国产成人一区二区在线| 久久久久久九九精品二区国产| 亚洲国产欧美在线一区| 丰满少妇做爰视频| 精品99又大又爽又粗少妇毛片| 亚洲av二区三区四区| 免费电影在线观看免费观看| 久久久国产成人免费| 亚洲无线观看免费| 日韩欧美三级三区| 日本黄色片子视频| 最近中文字幕2019免费版| 精品久久久久久久久av| 啦啦啦啦在线视频资源| 色网站视频免费| 长腿黑丝高跟| 国产精品国产三级国产专区5o | 草草在线视频免费看| 日韩亚洲欧美综合| 欧美不卡视频在线免费观看| 国产成年人精品一区二区| 国产乱来视频区| 国产精品野战在线观看| 亚洲av成人精品一二三区| 亚洲欧美日韩高清专用| 成年版毛片免费区| 国产国拍精品亚洲av在线观看| 成人鲁丝片一二三区免费| 亚洲成人av在线免费| 亚洲欧洲日产国产| 午夜福利成人在线免费观看| 中文亚洲av片在线观看爽| 亚洲欧洲日产国产| 日韩欧美国产在线观看| 免费看a级黄色片| 亚洲国产精品成人综合色| 国产色婷婷99| 国产伦精品一区二区三区视频9| 日韩亚洲欧美综合| 精品少妇黑人巨大在线播放 | 亚洲三级黄色毛片| 五月伊人婷婷丁香| 成人午夜高清在线视频| 尤物成人国产欧美一区二区三区| 国产精品电影一区二区三区| 国产精品熟女久久久久浪| 亚洲高清免费不卡视频| 午夜福利成人在线免费观看| 小蜜桃在线观看免费完整版高清| 在线天堂最新版资源| 国产伦精品一区二区三区视频9| 欧美zozozo另类| 久久久国产成人精品二区| 伦精品一区二区三区| 深夜a级毛片| 综合色丁香网| 99热全是精品| 亚洲成av人片在线播放无| 老司机影院毛片| 村上凉子中文字幕在线| 中文字幕熟女人妻在线| 少妇人妻精品综合一区二区| 久久久久久久久久久丰满| kizo精华| 久久热精品热| 精品久久久久久久久av| 欧美性猛交黑人性爽| 99久国产av精品国产电影| av线在线观看网站| 国产精品1区2区在线观看.| 亚洲伊人久久精品综合 | 69av精品久久久久久| 内地一区二区视频在线| 秋霞伦理黄片| 亚洲成人精品中文字幕电影| 一本一本综合久久| 内射极品少妇av片p| 国产成人91sexporn| 久久久久九九精品影院| 一个人看视频在线观看www免费| 国产高清视频在线观看网站| 久久久久久久久久久丰满| 久久99精品国语久久久| 午夜爱爱视频在线播放| 亚洲第一区二区三区不卡| 一夜夜www| 国产欧美日韩精品一区二区| 男人舔女人下体高潮全视频| 成年免费大片在线观看| 亚洲精品自拍成人| 久久久国产成人免费| 久久久久久久久久久免费av| 欧美一区二区亚洲| 建设人人有责人人尽责人人享有的 | 中文字幕精品亚洲无线码一区| 国产一区有黄有色的免费视频 | 最近中文字幕高清免费大全6| 一卡2卡三卡四卡精品乱码亚洲| 国产白丝娇喘喷水9色精品| 午夜福利网站1000一区二区三区| 美女国产视频在线观看| 一级毛片久久久久久久久女| 人妻少妇偷人精品九色| 少妇的逼水好多| 97人妻精品一区二区三区麻豆| 听说在线观看完整版免费高清| 国产精品美女特级片免费视频播放器| 亚洲三级黄色毛片| 1000部很黄的大片| 成人特级av手机在线观看| 国产精品一区www在线观看| 亚洲精华国产精华液的使用体验| 欧美又色又爽又黄视频| 久久99热这里只频精品6学生 | 久久亚洲国产成人精品v| 成年免费大片在线观看| 丝袜喷水一区| 国产精品一区二区性色av| a级毛片免费高清观看在线播放| 免费看日本二区| 欧美日韩综合久久久久久| 哪个播放器可以免费观看大片| 最近手机中文字幕大全| 欧美日韩国产亚洲二区| av福利片在线观看| 久久热精品热| 亚洲欧洲日产国产| 国产一级毛片在线| 全区人妻精品视频| 综合色av麻豆| 国产91av在线免费观看| 日本黄大片高清| 偷拍熟女少妇极品色| 色尼玛亚洲综合影院| 大话2 男鬼变身卡| av在线天堂中文字幕| 亚洲欧美精品综合久久99| 国产精品久久久久久久电影| 色综合站精品国产| 欧美成人免费av一区二区三区| 免费观看在线日韩| 99九九线精品视频在线观看视频| 成年免费大片在线观看| 天天一区二区日本电影三级| 精品一区二区免费观看| 国产精品久久久久久av不卡| 黄色欧美视频在线观看| 国产精品国产三级专区第一集| av在线播放精品| av在线老鸭窝| 亚洲av中文av极速乱| 国产高清有码在线观看视频| 国产大屁股一区二区在线视频| 午夜福利高清视频| 99久久无色码亚洲精品果冻| 日韩国内少妇激情av| 色综合站精品国产| 青春草视频在线免费观看| 七月丁香在线播放| 国产大屁股一区二区在线视频| 久久亚洲精品不卡| 九九爱精品视频在线观看| 国产真实伦视频高清在线观看| 午夜激情福利司机影院| 一区二区三区高清视频在线| 国产真实乱freesex| 日本-黄色视频高清免费观看| 欧美xxxx黑人xx丫x性爽| 国产毛片a区久久久久| 成人国产麻豆网| 91精品国产九色| 国产av在哪里看| 少妇人妻精品综合一区二区| 亚洲精品日韩在线中文字幕| 男人的好看免费观看在线视频| 网址你懂的国产日韩在线| 两个人视频免费观看高清| 亚洲性久久影院| 嫩草影院精品99| 麻豆一二三区av精品| 亚洲自偷自拍三级| 成年av动漫网址| av国产免费在线观看| 又爽又黄无遮挡网站| 亚洲真实伦在线观看| 精品人妻熟女av久视频| 亚洲精品亚洲一区二区| 麻豆乱淫一区二区| 日韩av不卡免费在线播放| 国产精品一区www在线观看| av在线蜜桃| 好男人在线观看高清免费视频| 欧美三级亚洲精品| 18禁裸乳无遮挡免费网站照片| 黄色日韩在线| 一级毛片我不卡| 三级男女做爰猛烈吃奶摸视频| 亚洲精品影视一区二区三区av| 看免费成人av毛片| 嫩草影院入口| 欧美最新免费一区二区三区| 一区二区三区乱码不卡18| 最近中文字幕2019免费版| 97热精品久久久久久| 夫妻性生交免费视频一级片| 男插女下体视频免费在线播放| 97超碰精品成人国产| 亚洲精品色激情综合| 午夜福利在线在线| 一个人观看的视频www高清免费观看| 99久久精品一区二区三区| 免费av毛片视频| 女人被狂操c到高潮| 成人一区二区视频在线观看| 国产一区有黄有色的免费视频 | 日本欧美国产在线视频| 久久鲁丝午夜福利片| 看非洲黑人一级黄片| 欧美xxxx黑人xx丫x性爽| 国产免费又黄又爽又色| 国产精品无大码| 久99久视频精品免费| 国产极品精品免费视频能看的| 国产黄片视频在线免费观看| 国产在线男女| 精品久久久久久电影网 | 亚洲自拍偷在线| 精品欧美国产一区二区三| 欧美激情国产日韩精品一区| 美女黄网站色视频| a级毛色黄片| 欧美三级亚洲精品| 久久综合国产亚洲精品| 秋霞伦理黄片| 亚洲精品乱久久久久久| 午夜精品国产一区二区电影 | 亚洲内射少妇av| 国产精品美女特级片免费视频播放器| 国产成人freesex在线| 日韩制服骚丝袜av| 乱系列少妇在线播放| 日韩国内少妇激情av| 欧美日韩精品成人综合77777| av女优亚洲男人天堂| 国产伦理片在线播放av一区| av又黄又爽大尺度在线免费看 | 不卡视频在线观看欧美| 国产黄a三级三级三级人| 亚洲国产精品国产精品| 91aial.com中文字幕在线观看| 成人av在线播放网站| 白带黄色成豆腐渣| 国产精品日韩av在线免费观看| 老师上课跳d突然被开到最大视频| 黄片wwwwww| 一边摸一边抽搐一进一小说| 免费搜索国产男女视频| 日韩欧美 国产精品| 成人性生交大片免费视频hd| 国产免费一级a男人的天堂| 欧美成人a在线观看| 免费观看精品视频网站| 国产国拍精品亚洲av在线观看| 精品99又大又爽又粗少妇毛片| 日本色播在线视频| 国产人妻一区二区三区在| 在线天堂最新版资源| 一区二区三区乱码不卡18| 三级男女做爰猛烈吃奶摸视频| 91久久精品国产一区二区成人| 欧美日韩国产亚洲二区| 久久人人爽人人爽人人片va| videos熟女内射| 边亲边吃奶的免费视频| 一卡2卡三卡四卡精品乱码亚洲| 日本黄色片子视频| 美女脱内裤让男人舔精品视频| 乱人视频在线观看| 大又大粗又爽又黄少妇毛片口| 九九久久精品国产亚洲av麻豆| 国产单亲对白刺激| 日韩av不卡免费在线播放| 毛片女人毛片| 国产老妇女一区| 69人妻影院| 波多野结衣巨乳人妻| 欧美一区二区国产精品久久精品| 亚洲成av人片在线播放无| 嫩草影院新地址| 精品酒店卫生间| 久久久久九九精品影院| 国产乱人视频| 非洲黑人性xxxx精品又粗又长| 国产极品精品免费视频能看的| 一本久久精品| 久久精品人妻少妇| 成人二区视频| 亚洲av.av天堂| 夜夜爽夜夜爽视频| 18禁在线播放成人免费| 在线观看66精品国产| 国产亚洲精品久久久com| 日韩人妻高清精品专区| 超碰97精品在线观看| 国产精品av视频在线免费观看| 真实男女啪啪啪动态图| 床上黄色一级片| 欧美日韩国产亚洲二区| 欧美成人一区二区免费高清观看| 三级国产精品欧美在线观看| 色视频www国产| 久久亚洲精品不卡| 大又大粗又爽又黄少妇毛片口| 中国国产av一级| 女人久久www免费人成看片 | 伦理电影大哥的女人| 亚洲四区av| 久久久午夜欧美精品| 中文字幕制服av| 久久久久久伊人网av| 国产欧美日韩精品一区二区| 嫩草影院新地址| 精品国产露脸久久av麻豆 | 午夜激情福利司机影院| 欧美日韩精品成人综合77777| 老女人水多毛片| 男女国产视频网站| 女人久久www免费人成看片 | 国产精品国产三级专区第一集| 99热这里只有精品一区| 久久人人爽人人爽人人片va| 两性午夜刺激爽爽歪歪视频在线观看| 国产亚洲av嫩草精品影院| av在线观看视频网站免费| 直男gayav资源| 国国产精品蜜臀av免费| 女人久久www免费人成看片 | 亚洲精品日韩av片在线观看| 国产一区有黄有色的免费视频 | 99久久无色码亚洲精品果冻| 我的老师免费观看完整版| 免费看av在线观看网站| 丰满人妻一区二区三区视频av| 18+在线观看网站| 亚洲国产精品成人综合色| 1000部很黄的大片| 简卡轻食公司| 国产乱人视频| 久久精品国产亚洲网站| 建设人人有责人人尽责人人享有的 | 九色成人免费人妻av| 级片在线观看| 91aial.com中文字幕在线观看| 乱系列少妇在线播放| 精品一区二区三区人妻视频| 99在线视频只有这里精品首页| 久久精品国产亚洲av涩爱| 狂野欧美激情性xxxx在线观看| 乱码一卡2卡4卡精品| eeuss影院久久| 人妻系列 视频| 麻豆久久精品国产亚洲av| 好男人视频免费观看在线| 91狼人影院| 亚洲国产欧美人成| 日本一本二区三区精品| 日韩三级伦理在线观看| 午夜久久久久精精品| 亚洲综合色惰| 国产高清三级在线| 久久婷婷人人爽人人干人人爱| 国产av一区在线观看免费| 亚洲av男天堂| 亚洲三级黄色毛片| 淫秽高清视频在线观看| 麻豆成人av视频| 丝袜美腿在线中文| 小说图片视频综合网站| 99久国产av精品国产电影| 精品人妻偷拍中文字幕| 精品欧美国产一区二区三| 国产乱人视频| 啦啦啦啦在线视频资源| 色噜噜av男人的天堂激情| 国产在视频线在精品| 国产亚洲91精品色在线| 人人妻人人看人人澡| 69人妻影院| 在线a可以看的网站| 亚洲精品国产av成人精品| 国产乱人视频| 三级国产精品片| 亚洲欧美精品专区久久| 桃色一区二区三区在线观看| eeuss影院久久| 午夜福利成人在线免费观看| 精品国产三级普通话版| 午夜久久久久精精品| 亚洲18禁久久av| 国产在线男女| 青青草视频在线视频观看| 欧美人与善性xxx| 91精品伊人久久大香线蕉| 高清午夜精品一区二区三区| 中文乱码字字幕精品一区二区三区 | 亚洲人成网站高清观看| 麻豆国产97在线/欧美| 亚洲性久久影院| 一二三四中文在线观看免费高清| 一级黄色大片毛片| 日韩亚洲欧美综合| 国产三级中文精品| 一级黄片播放器| 亚洲精品成人久久久久久| av黄色大香蕉| 亚洲内射少妇av| 国产精品99久久久久久久久| 国产成人a∨麻豆精品| 国产一级毛片七仙女欲春2| 最近2019中文字幕mv第一页| 黄片无遮挡物在线观看| 免费黄网站久久成人精品| 爱豆传媒免费全集在线观看| 亚洲av中文字字幕乱码综合| 国产黄色小视频在线观看| 免费观看在线日韩| 午夜福利成人在线免费观看| 国产亚洲午夜精品一区二区久久 | 国产日韩欧美在线精品| 免费大片18禁| 亚洲第一区二区三区不卡| 成人亚洲精品av一区二区| 91久久精品国产一区二区三区| 国产av码专区亚洲av| 欧美成人免费av一区二区三区|