• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于transformer的python命名實體識別模型

    2022-09-25 08:42:18徐關(guān)友馮偉森
    計算機應(yīng)用 2022年9期
    關(guān)鍵詞:集上字符注意力

    徐關(guān)友,馮偉森

    (四川大學(xué)計算機學(xué)院,成都 610065)

    0 引言

    在中國互聯(lián)網(wǎng)技術(shù)的快速發(fā)展和世界范圍內(nèi)線上教育快速普及的大背景下,互聯(lián)網(wǎng)技術(shù)被廣泛地應(yīng)用于教育領(lǐng)域,網(wǎng)絡(luò)上有許多在線題庫能幫助學(xué)生學(xué)習(xí)各種專業(yè)的知識,但是這些在線題庫很難針對每個學(xué)生不同的學(xué)習(xí)進展而進行個性化的試題定制。題庫中的練習(xí)題一般是以章節(jié)或者是知識點來進行劃分,章節(jié)或者是知識點之間會有一部分重疊、遞進的情況出現(xiàn),這些情況會影響學(xué)生練習(xí)試題的效果。因此學(xué)生在學(xué)習(xí)python 知識時,對python 知識進行更加精確的命名實體識別(Named Entity Recognition,NER)是十分重要的前期工作。

    python 命名實體相較于微博等廣泛使用口語的命名實體在句子方面會更加正式。和醫(yī)學(xué)、社交等熱門的領(lǐng)域相比,python 領(lǐng)域的NER 研究和嘗試都相對較少,現(xiàn)有的技術(shù)可以解決部分問題,但仍會面臨數(shù)據(jù)少、可借鑒和參考少的問題,因此取得的效果一般。

    NER 是自然語言處理(Natural Language Processing,NLP)眾多子任務(wù)中一項非常上游的基本任務(wù),NER 同時也是諸如問答系統(tǒng)[1]、信息檢索[2]、關(guān)系提取[3]等非常多下游任務(wù)的前提和重要基礎(chǔ),在近幾年受到了非常多研究人員的重點關(guān)注。NER 的主要目標是從給定文本中找到諸如人物名和地名等命名實體(Named Entity,NE)。在深度學(xué)習(xí)(Deep Learning,DL)技術(shù)未廣泛使用以前,Saito 等[4]提出使用隱馬爾可夫模型(Hidden Markov Model,HMM)來識別NE,而Feng 等[5]則是利用條件隨機場(Conditional Random Fields,CRF)解決該問題,Ekbal 等[6]在2010 年提出使用支持向量機(Support Vector Machines,SVM)識別文本中的NE。近幾年深度學(xué)習(xí)技術(shù)和注意力機制得到發(fā)展后則使用神經(jīng)網(wǎng)絡(luò)技術(shù)[7]來解決NER 問題,使得NER 有很大的進步。

    相較于英文NER,中文NER 難度更大,因為中文并不能像英文那樣自然切分,詞邊界非常模糊,所以現(xiàn)有的一些研究是先使用已有的中文分詞系統(tǒng)進行分詞,然后將詞級序列標注的模型應(yīng)用于分詞的句子[8]。然而,中文分詞(Chinese Word Segmentation,CWS)不可避免地會產(chǎn)生錯誤分割的情況,會使詞邊界和實體類別的預(yù)測出現(xiàn)錯誤。所以有些方法直接使用字符進行NER,文獻[9-10]中的研究表明字符級的NER 模型也能夠有效地識別NE。

    雖然基于字符的中文NER 模型能避免分詞錯誤,但是基于字符的模型有一個缺點就是沒有充分利用數(shù)據(jù)中的單詞信息,而這些單詞信息對于識別NE 非常關(guān)鍵。出于將詞信息加入到模型中的目的,Lattice-LSTM 模型[11]使用類似格子的結(jié)構(gòu)來編碼輸入到模型中的字符以及與詞典所匹配的詞信息。該模型是一個使用長短期記憶(Long Short-Term Memory,LSTM)和條件隨機場(Conditional Random Field,CRF)的字符級模型的拓展模型,它在兩個字符之間設(shè)置一個用于存儲開始和結(jié)束字符之間對應(yīng)單詞的“快捷路徑”,通過“快捷路徑”連接開始字符、存儲單元和結(jié)束字符,并且使用門控循環(huán)單元(Gated Recurrent Unit,GRU)來控制快捷路徑和相鄰字符直接路徑的貢獻。門控循環(huán)單元在如圖1 所示的情況時,模型沒有辦法選擇正確的路徑,此時該模型會退化為基于詞的模型,受到分詞錯誤帶來的負面影響。圖1(a)表示Lattice-LSTM 原模型,而圖1(b)則表示因為錯誤預(yù)測“河水(River Water)”為實體從而造成快捷路徑錯誤的情況,圖中標有雙下劃線的標簽表示正確預(yù)測的標簽,而沒有下劃線的標簽表示模型預(yù)測的錯誤標簽,字符間的虛線路徑則表示未正確預(yù)測的路徑。由于句子中的每一個單詞的長度是不同的,整個路徑的長度不是固定的;每個字符都對應(yīng)有一個可變大小的候選詞集,這意味著模型的輸入和輸出路徑的數(shù)量也不是固定的,上述兩個問題會使得Lattice-LSTM模型失去批量訓(xùn)練的能力,從而導(dǎo)致模型訓(xùn)練的速度降低。

    圖1 一個Lattice-LSTM退化的例子Fig.1 An example of Lattice-LSTM degradation

    新提出的字符-詞 transformer(Character-Word TransFormer,CW-TF)模型可以很好地解決Lattice-LSTM 模型的上述問題。為了防止模型退化為基于詞的模型而受到分詞錯誤帶來的影響,本文模型將詞信息分配給單個的字符,摒除了錯誤路徑的影響。在transformer 編碼前創(chuàng)建字符和詞信息,在編碼時將詞信息分別分配給其對應(yīng)的開始和結(jié)束字符,通過transformer 處理后使用CRF 解碼預(yù)測標簽序列。本文模型還引入了3 種策略來處理字符對應(yīng)的詞信息長度不固定的問題,讓模型能夠保留詞信息的同時提高模型批量訓(xùn)練的速度。

    針對python 的NER,CW-TF 模型在python 數(shù)據(jù)集上展示了其有效性,而且驗證了模型并不會因為python 數(shù)據(jù)集而產(chǎn)生高性能的特殊情況,同時還在另一個數(shù)據(jù)集上訓(xùn)練,確保模型的普適性。實驗的結(jié)果表明本文所提模型確實能較好地識別python 中的NE。

    本文的主要工作有:1)提出了CW-TF 模型將詞信息融合到基于字符的模型中;2)探索了3 種不同的策略將詞信息編碼為固定大小的向量以解決無法批量化訓(xùn)練的問題;3)針對python 已有數(shù)據(jù)集缺乏的問題整理了一個python 的NER數(shù)據(jù)集;4)驗證了所提模型能很好地識別python 中的NE。

    1 相關(guān)工作

    近年來LSTM 等神經(jīng)網(wǎng)絡(luò)技術(shù)的進步促進了NER 的快速發(fā)展,本章將說明神經(jīng)網(wǎng)絡(luò)技術(shù)在NER 中的應(yīng)用以及提出模型使用到的transformer 的結(jié)構(gòu)。

    1.1 NER的神經(jīng)結(jié)構(gòu)

    近些年來神經(jīng)網(wǎng)絡(luò)技術(shù)在NER 中已經(jīng)取得了較好的成績[12-14]。從輸入序列到預(yù)測標簽序列,基于DL(Deep Learning)或者是注意力機制的NER 模型一般是由輸入、上下文編碼器和標簽解碼器3 個部分構(gòu)建而成[15]。

    Xu 等[16]利用詞根、字符、詞等不同粒度級別的信息作為輸入解決了中文微博數(shù)據(jù)集中的NER 明顯的性能下降問題;Sun 等[17]提出了ERNIE2.0 模型,首先從訓(xùn)練的語料庫中提取詞匯信息、句法信息和語義信息,然后逐步構(gòu)建預(yù)訓(xùn)練任務(wù),最后通過在這些構(gòu)建的任務(wù)上持續(xù)多任務(wù)學(xué)習(xí)的方式利用了訓(xùn)練語料庫中其他有價值的信息。

    Liu 等[18]在將信息輸入模型時將詞信息與字符信息相融合,避免了分詞錯誤帶來的影響,但是其批量化的訓(xùn)練速度仍然受限于上下文編碼的方式;所以現(xiàn)有的某些研究[19-20]使用圖像處理的方法來處理NER,將中文字符轉(zhuǎn)化為圖片的格式進行訓(xùn)練,使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)編碼圖片吸收漢字作為象形文字的象形信息;Yan 等[21]使用了transformer 結(jié)構(gòu)作為上下文編碼器編碼輸入信息,對字符級和詞級特征進行建模,通過整合方向感知、距離感知等信息證明了transformer 類的編碼器對于NER和其他NLP 任務(wù)一樣有效;Zhu 等[22]針對詞級嵌入和詞匯特征的模型經(jīng)常出現(xiàn)的分詞錯誤以及預(yù)訓(xùn)練在字典外(Out-Of-Vocabulary,OOV)的問題,提出使用一個基于字符并且?guī)в芯植孔⒁饬拥腃NN 和從相鄰的字符以及句子語境中獲取信息的全局自注意層的GRU 組成的卷積注意網(wǎng)絡(luò)(Convolutional Attention Network,CAN)作為上下文編碼器解決這個問題;Ding 等[23]利用自適應(yīng)的門控圖序列神經(jīng)網(wǎng)絡(luò)(Gated Graph Sequence Neural Network,GGNN)和一個標準的雙向長短期記憶(Bi-directional Long Short-Term Memory,Bi-LSTM)網(wǎng)絡(luò)作為上下文編碼器,學(xué)習(xí)來自不同詞典的加權(quán)信息組合,并且模型基于上下文信息解決了字符和詞匯匹配的沖突;Sui 等[24]和Wu 等[25]也使用Bi-LSTM 作為上下文編碼器解決了中文詞邊界模糊的問題;Xue 等[26]提出一個transformer 的拓展模型多孔格子transformer 編碼器(Porous Lattice Transformer Encoder,PLTE),它通過批處理并行建模所有的字符和匹配的詞匯,并用位置關(guān)系表示來增加自注意以包含格結(jié)構(gòu),它還引入了一種多孔機制來增強本地建模,并保持捕獲豐富的長距離依賴關(guān)系的強度。Zhao 等[27]提出了多任務(wù)數(shù)據(jù)選擇和使用知識庫的約束解碼兩種方式改進Bi-LSTM-CRF 模型架構(gòu)。

    1.2 Transformer

    Vaswani等[28]改進了seq2seq任務(wù)模型,提出了transformer的概念。transformer 的結(jié)構(gòu)如圖2所示,包含編碼和解碼兩個部分,為了專注于NER 任務(wù),本部分只關(guān)注于transformer的編碼部分。transformer 的編碼部分是由多頭注意力(Multi-head Attention)和前饋網(wǎng)絡(luò)(FeedForward Network,F(xiàn)FN)這兩個非常重要的部分組成,F(xiàn)FN 是一種具有非線性轉(zhuǎn)換位置方式的多層感知器。在這之后是殘差連接和層標準化這兩個操作。

    圖2 transformer結(jié)構(gòu)Fig.2 Structure of transformer

    1.2.1 位置嵌入

    自注意力不知道不同標記的位置,所以無法捕獲語言的順序特征,而Vaswani 等[28]則采用由頻率變化的正弦波產(chǎn)生的位置嵌入。第t個詞元的位置嵌入可以用下面的公式計算:

    其中:i∈[0,],d表示輸入的維度。這種基于正弦曲線的位置嵌入使transformer 能夠?qū)υ~元的位置和每兩個詞元的距離進行建模。對于任何固定的偏移量k,PEt+k以通過PEt的一個線性transformer 表示。

    1.2.2 縮放點擊注意力

    transformer 編碼器接收到一個已經(jīng)轉(zhuǎn)化為嵌入向量的矩陣H∈Rl×d,其中的l和d分別表示序列的長度和輸入的維度。使用三個可學(xué)習(xí)的矩陣Wq,Wk,Wv∈可以將矩陣H投影到不同的空間中,dk為一個超參數(shù)。縮放點積注意力可以通過以下公式計算:

    其中:At,j、Q、K、V、A皆為矩陣;Qt表示第t個詞元的查詢向量;j表示第j詞元;Kj表示第j個詞元的值向量表達;歸一化指數(shù)函數(shù)softmax 將應(yīng)用于最后一個維度。

    1.2.3 多頭自注意力

    可以使用多組Wq、Wk、Wv提升自注意力的能力,在使用多組Wq、Wk、Wv時被稱為多頭自注意力,其計算方式為:

    式(6)和(7)中的h表示頭的索引,式(8)中的n表示頭的數(shù)量,[head(1),head(2),…,head(n)]則表示在最后一個維度的連接操作。在一般的情況下有d=n×dk,這可以說明多頭注意力MultiHead(H) ∈Rl×d。在式(8)中的WO∈Rd×d是一個可學(xué)習(xí)參數(shù)。

    1.2.4 前饋網(wǎng)絡(luò)

    多頭注意力的輸出會經(jīng)過FFN 進一步處理,處理過程可以表示為:

    其中:W1,W2∈為可學(xué)習(xí)參數(shù)矩陣,dff是一個超參數(shù);b1∈為可學(xué)習(xí)向量,b2∈Rd同樣為可學(xué)習(xí)向量。

    2 所提模型

    所提模型結(jié)構(gòu)如圖3 所示,和有的模型一樣使用transformer 作為上下文編碼器編碼輸入的數(shù)據(jù),但是本文模型和標準的transformer 模型在嵌入層有所不同。如圖3 所示,實線部分可以看作是一個使用transformer 作為上下文編碼器的基于字符的模型,虛線部分則表示將單詞信息編碼成固定大小的表示,單詞信息被整合到單詞的結(jié)尾字符中,“PAD”表示填充值,“Stgy”表示3 種編碼策略的一種,“⊕”表示連接操作。在嵌入層中,中文句子是將詞信息綁定到每個字符上形成字符-詞對;其次,為了使模型能夠批量訓(xùn)練并滿足不同的應(yīng)用需求,引入了3 種編碼策略來從詞集中提取固定大小但不同的信息;最后,CW-TF 模型能提取字符和單詞的特征,以更好地預(yù)測NE。

    圖3 所提模型結(jié)構(gòu)Fig.3 Structure of the proposed model

    使用S={c1,c2,…,cn}來表示輸入的一句中文句子,ci表示句子中的第i個字符;使用cb,e表示句子S中的一個以第b個字符開始到第e個字符結(jié)束的字符子序列,如圖3 中所示的字符子序列“清澈”,可以將其表示為字符子序列c1,2。使用ciw表示第i個字符對應(yīng)的單詞集,它由一組來自詞典D的字符子序列cb,i所構(gòu)成,而下標b<i,詞典D的構(gòu)建和Lattice-LSTM 模型中自動分割原始文本構(gòu)建的詞典相同,每個字符對應(yīng)的單詞集可以表示為ciw={wi1,wi2,…,},wi1表示字符ci對應(yīng)的字符子序列構(gòu)成詞集的第一個詞,表示詞集中詞的數(shù)量。字符對應(yīng)的詞集在經(jīng)過詞編碼策略選擇以后,把字符和對應(yīng)詞信息連接在一起,最終輸入的句子按字符-詞對這種形 式可以表示為CW={(c1,c1w),(c2,c2w),…,(cn,cnw)}。

    2.1 詞編碼策略

    詞集ciw中詞的原始數(shù)量為,盡管模型在同一個批次中為每個字符ci分配的單詞集ciw中詞的數(shù)量通過填充都為,但是每個批次為字符ci選擇的詞的長度會因為批次不同而可能不同,因此模型的輸入大小并不是相同的,這種情況將會不利于批量訓(xùn)練。為了獲取固定大小的輸入,本節(jié)將會介紹3 種不同的編碼策略,并且在后面的部分統(tǒng)一使用wi,fin作為字符ci對應(yīng)詞信息的最終表示,然后其他對應(yīng)詞的長度則通過填充或者是截取的方式變成相同的長度。在通過詞編碼后字符ci對應(yīng)的詞集中只有一個詞,其詞集可以表示為ciw=wi,fin。

    2.1.1 最短策略

    對于字符ci對應(yīng)的詞集ciw={wi1,wi2,…},最短策略為選擇詞集中長度最短的詞,假如是第一個詞的長度為最短,則有:

    2.1.2 最長策略

    對于字符ci對應(yīng)的詞集ciw={wi1,wi2,…,},最長策略就是選擇詞集中長度最長的詞,如果最后一個詞的長度最長,則有:

    2.1.3 平均策略

    如果選擇長度最短的詞語,一般情況下就是字符本身,必定只能利用部分的信息,而選擇長度最長的詞會對增加計算的時間,所以引入一種平均策略。將平均策略用于選詞的時候,對于字符ci對應(yīng)的詞集ciw={wi1,wi2,…,},選擇對應(yīng)的詞有:

    2.2 詞-字符嵌入層

    在CW中的i個元素都包含兩個部分:對應(yīng)句子中的第i個字符和分配給這個字符的詞ciw。在字符ci的詞集沒有經(jīng)過編碼策略選擇以前,每個詞集ciw中的詞的數(shù)量為,通過填充確保每個詞集ciw有相同數(shù)量的候選詞數(shù)量,經(jīng)過詞編碼策略以后字符ci對應(yīng)的詞為wi,fin。通過預(yù)訓(xùn)練的字符嵌入查找表ec將每個字符ci嵌入到分布空間中獲得向量有:

    同樣字符ci對應(yīng)的詞ciw=wi,fin,通過預(yù)訓(xùn)練的詞嵌入查找表ew將每個詞wi,fin表示為向量:

    2.3 詞-字符transformer

    選擇對應(yīng)的詞編碼策略將詞集編碼并且使字符和對應(yīng)的詞轉(zhuǎn)化為嵌入向量,然后將字符嵌入與對應(yīng)的詞嵌入連接。將字符嵌入與對應(yīng)的詞嵌入連接計算獲取向量Xi如下:

    式(15)中的“⊕”符號表示連接操作,在經(jīng)過連接以后CW={X1,X2,…,Xn}。通過將字符與對應(yīng)詞信息連接,本模型沒有Lattice 模型中的快捷路徑,信息只能在相鄰的字符間流動,確保模型不會退化。將連接的信息輸入到上下文編碼器中,在CW-TF 中的隱藏狀態(tài)向量hi計算有:

    則CW-TF 的輸出可 以表示為H={h1,h2,…,hn}的向量集合。

    2.4 解碼和訓(xùn)練

    模型使用標準的CRF 作為模型的最后一層,將上下文編碼器的結(jié)果H輸入到CRF 中。對于一個由向量li組成可能的標記序列y={l1,l2,…,ln},它的概率計算如下:

    在得到所有可能的標簽序列后,對其使用一階維特比算法找到可能性最大的標簽序列。

    3 實驗結(jié)果和分析

    3.1 數(shù)據(jù)和評估指標

    使用3 個數(shù)據(jù)集評估提出的CW-TF 模型,并且使用精確率(Precision,P)、召回率(Recall,R)和F1 值(F1)作為評價的指標。

    3.1.1 數(shù)據(jù)集

    使用多個數(shù)據(jù)集(python 數(shù)據(jù)集、resume 數(shù)據(jù)集和weibo數(shù)據(jù)集)評估提出的CW-TF 模型。resume 數(shù)據(jù)集、weibo 數(shù)據(jù)集是Lattice-LSTM 模型中使用的數(shù)據(jù)集,python 命名實體數(shù)據(jù)集是針對python 知識領(lǐng)域的數(shù)據(jù)集。

    針對學(xué)生在學(xué)習(xí)python 知識時的個性化定制問題,python 命名實體識別的工作必不可少。中文命名實體識別的工作主要集中在新聞領(lǐng)域以及社交領(lǐng)域,針對教學(xué)領(lǐng)域的數(shù)據(jù)集很少,所以制作了一個有關(guān)python 命名實體的數(shù)據(jù)集。制作python 數(shù)據(jù)集時需要知道:在教育領(lǐng)域中,可以將NE 看作是教學(xué)過程中傳遞信息的載體。具體來說,在教學(xué)材料中NE 的表現(xiàn)形式可以是一個符號、一個事實、一個概念、一個原理或一個技能。通過這些事實、概念實現(xiàn)信息從一端到另外一端的傳遞。

    教育領(lǐng)域中的NE 可以分為概念性、事實型、原理型、技能型以及符號型幾類。在教育材料中:符號型NE 通常以單詞形式出現(xiàn)。概念型NE、原理型NE、事實型NE、技能型NE通常以一句或多個句子的形式出現(xiàn)。其例子如圖4 所示。

    圖4 數(shù)據(jù)集標注例子圖Fig.4 Dataset labeling examples

    標注的python 數(shù)據(jù)集是使用文獻[29]作為標注數(shù)據(jù)集的原始文本材料,對書中的第一章至最后一章的所有內(nèi)容進行標注。在進行數(shù)據(jù)標注以前使用正則表達式將語料中的數(shù)字統(tǒng)一替換為0,然后對清理過后的數(shù)據(jù)使用開源的標注工具YEDDA[30]進行NE 標注,并使用BIO 標記主題。對于數(shù)據(jù)集中的每個字符,可能的標注結(jié)果包括“B-NAME”“INAME”和“O”三種情況。python 數(shù)據(jù)集、resume 數(shù)據(jù)集和weibo 數(shù)據(jù)集的句子數(shù)量和字符數(shù)量如表1 所示,而表中的“K”表示1 000。

    表1 數(shù)據(jù)集的統(tǒng)計信息Tab.1 Statistics of datasets

    3.1.2 評估指標

    使用精確率(P)、召回率(R)和F1 值(F1)來評價模型在3 個數(shù)據(jù)集上的NE 識別效果。P指的是所有正確預(yù)測結(jié)果占所有實際被預(yù)測到的結(jié)果的比例;R指的是正確被預(yù)測的結(jié)果占所有應(yīng)該被預(yù)測到的結(jié)果的比例;P傾向于查準,而R更傾向于查全,在預(yù)測的時候希望兩者都高,但事實上這兩個指標在有些情況下是矛盾的,所以引入了精確率和召回率的調(diào)和平均F1。P、R、F1 三者的計算方法如下:

    其中:Tp表示模型能夠正確識別到的實體數(shù)目,F(xiàn)p表示模型識別到與所需NE 不相關(guān)的實體個數(shù),F(xiàn)N表示模型無法識別的相關(guān)實體個數(shù)。

    3.2 實驗設(shè)置

    本節(jié)將會通過兩個部分詳細地介紹實驗所依托的軟硬件環(huán)境以及在實驗過程中所設(shè)置的各種參數(shù)。

    3.2.1 模型參數(shù)設(shè)置

    模型的超參數(shù)和訓(xùn)練參數(shù)搜索范圍如表2 所示,模型的特征維度在前兩個數(shù)據(jù)集上都在160 時取得最好的效果,而在weibo 這個數(shù)據(jù)集上取得最好效果是在320;同樣前兩個數(shù)據(jù)集在模型層數(shù)設(shè)置為2 時取得較好的效果,而weibo 則是在4 時效果較好;將python 數(shù)據(jù)集和resume 數(shù)據(jù)集的多頭注意力頭數(shù)和維度分別設(shè)置為10 和64,而將weibo 數(shù)據(jù)集的多頭注意力頭數(shù)和維度分別設(shè)置為16 和128。輸入句子的最大長度在resume 數(shù)據(jù)集上設(shè)置為178,而在python 數(shù)據(jù)集上設(shè)置為199,在weibo 數(shù)據(jù)集上設(shè)置為175。字符嵌入和詞嵌入設(shè)置為0.15,而將模型中transformer 的dropout 率為0.4。并且模型將隨機梯度下降(Stochastic Gradient Descent,SGD)這種優(yōu)化算法應(yīng)用于優(yōu)化器,同時在python 數(shù)據(jù)集和resume 數(shù)據(jù)集上都將學(xué)習(xí)率設(shè)置為0.000 7。將梯度裁剪值設(shè)置為5,模型訓(xùn)練10 個輪次,100 個批次。

    表2 模型參數(shù)Tab.2 Model parameters

    3.2.2 實驗環(huán)境

    實驗的硬件和軟件環(huán)境如表3 所示。

    表3 實驗環(huán)境Tab.3 Experimental environment

    3.3 實驗結(jié)果和分析

    與本文所提模型比較的基準模型同樣是使用了詞信息的模型,即在2018 年提出的Lattice-LSTM 模型、在2019 年提出的WC-LSTM 模型、在2019 年提出的LR-CNN 模型以及在2020 年提出的BERT+CRF 和BERT+LSTM+CRF 方法作為比較的基準。表4 為各模型在python 數(shù)據(jù)集、resume 數(shù)據(jù)集和weibo 數(shù)據(jù)集上的實驗結(jié)果。

    表4 在python,resume,weibo數(shù)據(jù)集上的實驗結(jié)果 單位:%Tab.4 Experimental results on python,resume,weibo datasets unit:%

    從表4 中可以看出將字符與對應(yīng)詞連接時,NER 性能將得到提升。在python 數(shù)據(jù)集,針對Lattice-LSTM 模型,將字符直接與其對應(yīng)的詞信息連接消除了原有模型中的快捷路徑,進一步消除了模型退化為基于詞模型的可能性,所以在P、R以及F1 上分別提升1.5、3.81、2.64 個百分點。與WC-LSTM模型相比,在R 值和F1 值上分別提升1.73 和0.58 個百分點,由于訓(xùn)練模型時的參數(shù)問題,導(dǎo)致得到的模型相較于理想情況,更傾向于查全而不是查準,所以所得結(jié)果的P 值會低于該模型。相較于LR-CNN 模型,在P 值上提升0.61 個百分點,而在R 值和F1 值上的性能提升并不明顯。本模型和使用了BERT+CRF 的模型相比在F1 值上提升3.65 個百分點,在P 值和F1 值上相較于BERT+LSTM+CRF 模型分別低2.15 和0.59 個百分點,說明使用BERT 初始化詞嵌入優(yōu)于隨機初始化詞嵌入,并且在使用BERT 的情況下再加入LSTM是有必要的。本模型通過使用BERT 語言預(yù)訓(xùn)練模型可以有進一步的提升,說明預(yù)訓(xùn)練的語言模型在python 領(lǐng)域是有效果的。從表4 還可以看出三種詞編碼策略中平均策略在各項均優(yōu)于最短策略。

    為驗證本文模型的性能提升并非特定于python 數(shù)據(jù)集,使用resume 數(shù)據(jù)集和weibo 數(shù)據(jù)集驗證模型的拓展性。從表4 中在resume 數(shù)據(jù)集上的實驗結(jié)果可以看出與Lattice-LSTM模型相比,在F1 值提升0.83 個百分點;而和使用BERT 的模型相比,由于resume 數(shù)據(jù)集中的數(shù)據(jù)對于方向性有一定的依賴,所以使用BERT 的模型會優(yōu)于使用單向transformer 的CW-TF 模型。雖然模型在resume 數(shù)據(jù)集上的提升不大,但是訓(xùn)練速度明顯提高。

    表4 最后的部分為CW-TF 模型使用預(yù)訓(xùn)練后在weibo 數(shù)據(jù)集上的實驗結(jié)果??梢钥闯鲈贔1 值上本模型略高于Lattice-LSTM 模型,而對于weibo 這種口語化強、語句短的領(lǐng)域表現(xiàn)出的效果低于其他基準模型,但仍然可以說明CW-TF模型具有一定的泛化性。

    通過3 種詞編碼策略提高了模型的批量訓(xùn)練能力,表5第2 列顯示了部分模型在python 數(shù)據(jù)集總訓(xùn)練時間上的對比,而第3 列表示在resume 數(shù)據(jù)模型上的比較,使用“×”表示倍數(shù)關(guān)系。使用Lattice-LSTM 模型的總訓(xùn)練時間作為比較的基準,Lattice-LSTM 模型相較于所提出的模型而言,在python 數(shù)據(jù)集上的總訓(xùn)練時間為CW-TF 模型的4.14 倍,在resume 數(shù)據(jù)集上的總訓(xùn)練時間為CW-TF 模型的3.25 倍。而所提模型與其他模型相比在總的訓(xùn)練時間上都有顯著減少。

    表5 訓(xùn)練速度Tab.5 Training speed

    3.4 多頭注意力的特征維度對比實驗

    本文還研究了多頭注意力的特征維度對CW-TF 模型的影響。實驗在保持transformer 上下文編碼器總規(guī)模不變的情況下,通過python 數(shù)據(jù)集研究了多頭注意力的特征維度對CW-TF 模型的影響,特征維度的取值范圍為[32,64,96,256]。將其他參數(shù)設(shè)置為固定值,所得實驗結(jié)果如表6 所示。從表6 可以看出:前期當多頭注意力的特征維度數(shù)增加時,實驗的效果逐漸變好;在多頭注意力的特征維度取64時,模型取得最佳的效果;而當多頭注意力的特征維度增加到一定程度后,實驗效果達到最優(yōu)值并逐漸變差。

    表6 在python數(shù)據(jù)集上不同transformer多頭注意力的特征維度結(jié)果對比 單位:%Tab.6 Result comparison of different transformer multi-head attention feature dimension on python dataset unit:%

    3.5 三種詞編碼策略對比實驗

    選擇不同的詞編碼策略會對實驗的效果有影響,圖5 為3 種詞編碼策略的實驗效果對比。從圖5 中可以看出在python 數(shù)據(jù)集上選擇最長的詞可以讓F1 值達到最高。由于最長的詞編碼策略可以利用更多的詞信息,所以最長的詞編碼策略在效果上均優(yōu)于最短的詞編碼策略。

    圖5 在python數(shù)據(jù)集詞編碼策略性能比較Fig.5 Word coding strategy performance comparison on python dataset

    4 結(jié)語

    本文對python 領(lǐng)域的NER 進行了研究,提出了一種基于transformer 的python 領(lǐng)域NER 模型。該模型將字符和字符對應(yīng)的詞信息進行連接,獲取連接后的向量化表示,然后輸入到transformer 中編碼,最后通過CRF 獲取預(yù)測的標簽序列。實驗的結(jié)果表明,所提模型相較于其他幾個模型在識別效果和速度上都有提升。所提模型為python 領(lǐng)域NER 的下游任務(wù)打下堅實的基礎(chǔ),為個性化學(xué)習(xí)python 知識進一步提供了技術(shù)上的可行性。與基于機器學(xué)習(xí)方法相比,本文模型可以很容易地遷移到其他領(lǐng)域。為了解決教育領(lǐng)域命名實體識別標記數(shù)據(jù)集少的問題,整理了一個python 的數(shù)據(jù)集。后續(xù)將進一步驗證模型的可遷移性,將該模型應(yīng)用于其他領(lǐng)域,還會擴大數(shù)據(jù)集的規(guī)模,以達到更好的識別效果。

    猜你喜歡
    集上字符注意力
    尋找更強的字符映射管理器
    讓注意力“飛”回來
    Cookie-Cutter集上的Gibbs測度
    鏈完備偏序集上廣義向量均衡問題解映射的保序性
    字符代表幾
    一種USB接口字符液晶控制器設(shè)計
    電子制作(2019年19期)2019-11-23 08:41:50
    消失的殖民村莊和神秘字符
    復(fù)扇形指標集上的分布混沌
    “揚眼”APP:讓注意力“變現(xiàn)”
    傳媒評論(2017年3期)2017-06-13 09:18:10
    A Beautiful Way Of Looking At Things
    丰满乱子伦码专区| 亚洲自偷自拍三级| 另类亚洲欧美激情| 免费大片18禁| 欧美精品一区二区免费开放| 国产成人91sexporn| 亚洲av二区三区四区| 亚洲性久久影院| 人妻 亚洲 视频| 亚洲综合色惰| 一个人看视频在线观看www免费| 久久久久网色| 亚洲不卡免费看| 丰满迷人的少妇在线观看| 精品亚洲乱码少妇综合久久| 日韩av不卡免费在线播放| 免费黄频网站在线观看国产| 亚洲av电影在线观看一区二区三区| 久久久久久久久久人人人人人人| 久久99热6这里只有精品| 99久久中文字幕三级久久日本| 久久精品国产亚洲av涩爱| 毛片一级片免费看久久久久| 日韩欧美一区视频在线观看 | 亚洲欧美日韩卡通动漫| 国产精品人妻久久久久久| 成年人午夜在线观看视频| 日韩中文字幕视频在线看片 | 久久久久久久久大av| 成年av动漫网址| 欧美国产精品一级二级三级 | 成人国产麻豆网| 国产一区二区三区综合在线观看 | 最近2019中文字幕mv第一页| 一边亲一边摸免费视频| 最近中文字幕2019免费版| 国产伦精品一区二区三区四那| 最近2019中文字幕mv第一页| 日韩av免费高清视频| 日韩av不卡免费在线播放| 久久久欧美国产精品| 直男gayav资源| 大片免费播放器 马上看| 成人国产av品久久久| 亚洲精品乱码久久久v下载方式| 80岁老熟妇乱子伦牲交| 国产黄片视频在线免费观看| 欧美精品一区二区免费开放| 亚洲,欧美,日韩| 久久国产乱子免费精品| 国产伦理片在线播放av一区| 久久人人爽人人片av| 九色成人免费人妻av| 亚洲av欧美aⅴ国产| 欧美 日韩 精品 国产| 国产av国产精品国产| 十分钟在线观看高清视频www | 丝袜喷水一区| 亚洲欧美清纯卡通| 精品人妻视频免费看| 国产欧美亚洲国产| 国产深夜福利视频在线观看| 搡老乐熟女国产| 中文欧美无线码| 黄色配什么色好看| 一级毛片aaaaaa免费看小| 欧美极品一区二区三区四区| 久久ye,这里只有精品| 26uuu在线亚洲综合色| 亚洲色图av天堂| 久久精品夜色国产| 久久精品久久精品一区二区三区| 亚洲伊人久久精品综合| 最近中文字幕2019免费版| 免费黄频网站在线观看国产| 三级国产精品欧美在线观看| 日日啪夜夜爽| 好男人视频免费观看在线| 国产成人免费观看mmmm| 纵有疾风起免费观看全集完整版| 亚洲aⅴ乱码一区二区在线播放| 男女下面进入的视频免费午夜| 伊人久久精品亚洲午夜| 直男gayav资源| 中文乱码字字幕精品一区二区三区| 成人18禁高潮啪啪吃奶动态图 | 亚洲丝袜综合中文字幕| 男人狂女人下面高潮的视频| 97热精品久久久久久| 男女边吃奶边做爰视频| 少妇丰满av| 人妻夜夜爽99麻豆av| 亚洲人成网站在线观看播放| 纯流量卡能插随身wifi吗| 久久午夜福利片| 国产成人免费无遮挡视频| av国产精品久久久久影院| 欧美性感艳星| 国产高清国产精品国产三级 | 免费黄网站久久成人精品| 熟妇人妻不卡中文字幕| 亚洲av综合色区一区| 国产精品一二三区在线看| 久久精品国产亚洲网站| 日韩亚洲欧美综合| 最近中文字幕高清免费大全6| 一边亲一边摸免费视频| 五月伊人婷婷丁香| 日本-黄色视频高清免费观看| 午夜免费男女啪啪视频观看| 国产爽快片一区二区三区| 99久国产av精品国产电影| 亚洲av电影在线观看一区二区三区| 精品人妻视频免费看| 国产毛片在线视频| 麻豆精品久久久久久蜜桃| av卡一久久| 2018国产大陆天天弄谢| 26uuu在线亚洲综合色| 国产精品福利在线免费观看| 网址你懂的国产日韩在线| 美女中出高潮动态图| 人妻少妇偷人精品九色| av国产精品久久久久影院| 国产亚洲91精品色在线| 一级a做视频免费观看| 免费观看性生交大片5| 人妻少妇偷人精品九色| 国产老妇伦熟女老妇高清| 国产黄片视频在线免费观看| 777米奇影视久久| 国产精品成人在线| 麻豆成人av视频| 涩涩av久久男人的天堂| 热re99久久精品国产66热6| 亚洲av.av天堂| 国内少妇人妻偷人精品xxx网站| 欧美+日韩+精品| 欧美极品一区二区三区四区| 一级毛片我不卡| 男女国产视频网站| 亚洲精品乱久久久久久| 深夜a级毛片| 91久久精品电影网| 亚洲经典国产精华液单| 亚洲av中文字字幕乱码综合| 伊人久久国产一区二区| 国产久久久一区二区三区| 99久国产av精品国产电影| 亚洲aⅴ乱码一区二区在线播放| 成人影院久久| 爱豆传媒免费全集在线观看| 99热国产这里只有精品6| 久久久午夜欧美精品| 在线观看av片永久免费下载| 成人免费观看视频高清| 国产在线男女| 联通29元200g的流量卡| 新久久久久国产一级毛片| 日日摸夜夜添夜夜爱| 深爱激情五月婷婷| 国产亚洲欧美精品永久| 人体艺术视频欧美日本| av线在线观看网站| 国产人妻一区二区三区在| 欧美成人一区二区免费高清观看| 国产av国产精品国产| 亚洲国产精品一区三区| 美女中出高潮动态图| 精品视频人人做人人爽| 久久精品国产亚洲av天美| 男人狂女人下面高潮的视频| 国产69精品久久久久777片| 亚洲欧美一区二区三区国产| 亚洲欧美清纯卡通| 91精品伊人久久大香线蕉| 成人漫画全彩无遮挡| 成人国产av品久久久| 久久人人爽人人片av| 亚洲欧美成人精品一区二区| 人妻少妇偷人精品九色| 欧美精品亚洲一区二区| 中文乱码字字幕精品一区二区三区| 美女cb高潮喷水在线观看| 午夜福利影视在线免费观看| 欧美xxxx黑人xx丫x性爽| 欧美成人一区二区免费高清观看| 最后的刺客免费高清国语| 啦啦啦啦在线视频资源| 成年av动漫网址| 又黄又爽又刺激的免费视频.| 久久精品熟女亚洲av麻豆精品| 亚洲精品一二三| 日本黄色日本黄色录像| 亚洲成色77777| 男女边摸边吃奶| 最新中文字幕久久久久| 啦啦啦在线观看免费高清www| 黑人猛操日本美女一级片| 天美传媒精品一区二区| 高清不卡的av网站| 欧美成人一区二区免费高清观看| 亚洲国产精品成人久久小说| 韩国高清视频一区二区三区| 国产爽快片一区二区三区| 国产日韩欧美亚洲二区| 大又大粗又爽又黄少妇毛片口| 亚洲精品一二三| 成人免费观看视频高清| 国产精品一区二区性色av| 久久久午夜欧美精品| 亚洲国产av新网站| 七月丁香在线播放| 亚洲欧洲日产国产| 色视频在线一区二区三区| 久久99热这里只频精品6学生| 美女福利国产在线 | 少妇人妻精品综合一区二区| 国产69精品久久久久777片| 亚洲不卡免费看| 欧美一级a爱片免费观看看| kizo精华| 国产精品99久久久久久久久| 少妇高潮的动态图| 九九在线视频观看精品| 纵有疾风起免费观看全集完整版| 亚洲欧美日韩无卡精品| 亚洲av男天堂| 中文精品一卡2卡3卡4更新| 激情 狠狠 欧美| 久久97久久精品| 中文字幕精品免费在线观看视频 | av卡一久久| 91精品国产国语对白视频| 18禁裸乳无遮挡免费网站照片| 午夜福利视频精品| 国内精品宾馆在线| 麻豆精品久久久久久蜜桃| 老熟女久久久| 久久这里有精品视频免费| 看免费成人av毛片| 亚洲电影在线观看av| 街头女战士在线观看网站| 我的女老师完整版在线观看| 一级片'在线观看视频| 黄色怎么调成土黄色| 亚洲va在线va天堂va国产| 少妇 在线观看| 中文字幕亚洲精品专区| 在线观看免费视频网站a站| 日本黄色日本黄色录像| 男女免费视频国产| 国产真实伦视频高清在线观看| 色吧在线观看| 中国国产av一级| 国语对白做爰xxxⅹ性视频网站| 亚洲欧美日韩另类电影网站 | 亚洲va在线va天堂va国产| 午夜老司机福利剧场| 亚洲人与动物交配视频| 国产深夜福利视频在线观看| 亚洲av中文字字幕乱码综合| 国产白丝娇喘喷水9色精品| 亚洲精品久久久久久婷婷小说| 精品久久久久久电影网| 97在线视频观看| 王馨瑶露胸无遮挡在线观看| 一级黄片播放器| 中文字幕人妻熟人妻熟丝袜美| 欧美老熟妇乱子伦牲交| 在线天堂最新版资源| 欧美日韩在线观看h| 国产精品人妻久久久影院| 嫩草影院新地址| 精品一区二区三区视频在线| 纯流量卡能插随身wifi吗| 国产伦精品一区二区三区四那| 国产欧美亚洲国产| 国内少妇人妻偷人精品xxx网站| 亚洲美女视频黄频| 久久久久人妻精品一区果冻| 插阴视频在线观看视频| 欧美3d第一页| 久久国产精品男人的天堂亚洲 | 国产成人一区二区在线| 国产免费福利视频在线观看| 26uuu在线亚洲综合色| 亚洲精品国产成人久久av| 精品久久久久久久末码| 国产精品一二三区在线看| 国产成人a区在线观看| 人妻制服诱惑在线中文字幕| 两个人的视频大全免费| 男女下面进入的视频免费午夜| 亚洲国产欧美人成| 美女内射精品一级片tv| 国产中年淑女户外野战色| 97在线人人人人妻| 97超碰精品成人国产| 国产av码专区亚洲av| 欧美精品人与动牲交sv欧美| 久久久久久久久大av| 午夜免费鲁丝| 国产 精品1| 一个人免费看片子| 国产精品.久久久| 国产午夜精品久久久久久一区二区三区| av又黄又爽大尺度在线免费看| 啦啦啦中文免费视频观看日本| 久久人人爽人人片av| 精品久久久噜噜| 色网站视频免费| 黄片wwwwww| 成人漫画全彩无遮挡| 国产美女午夜福利| 日本欧美视频一区| 精品国产一区二区三区久久久樱花 | 久久久久久久久久久丰满| 97超碰精品成人国产| 中文字幕av成人在线电影| 国产精品欧美亚洲77777| 免费观看的影片在线观看| 熟妇人妻不卡中文字幕| 国产精品99久久久久久久久| 91午夜精品亚洲一区二区三区| 黑人高潮一二区| videossex国产| 亚洲精品国产av蜜桃| 高清视频免费观看一区二区| 国产精品国产三级专区第一集| 狂野欧美激情性xxxx在线观看| a 毛片基地| 国产伦精品一区二区三区四那| 日韩人妻高清精品专区| 欧美少妇被猛烈插入视频| a 毛片基地| 99久久精品一区二区三区| 男的添女的下面高潮视频| 麻豆国产97在线/欧美| 下体分泌物呈黄色| av专区在线播放| 国产永久视频网站| 国产精品爽爽va在线观看网站| 亚洲国产精品成人久久小说| 日本欧美视频一区| av在线蜜桃| 欧美国产精品一级二级三级 | 六月丁香七月| 中文在线观看免费www的网站| 亚洲电影在线观看av| av又黄又爽大尺度在线免费看| 麻豆成人午夜福利视频| 一级毛片aaaaaa免费看小| 日韩一本色道免费dvd| 超碰av人人做人人爽久久| 欧美3d第一页| 久久毛片免费看一区二区三区| 中文字幕av成人在线电影| 一级毛片电影观看| 秋霞在线观看毛片| 在线播放无遮挡| 看非洲黑人一级黄片| 国产成人a∨麻豆精品| 精品亚洲乱码少妇综合久久| 熟女电影av网| 各种免费的搞黄视频| 国内精品宾馆在线| 国产 一区 欧美 日韩| 99精国产麻豆久久婷婷| 亚洲av男天堂| 国产在视频线精品| 夜夜爽夜夜爽视频| 午夜福利高清视频| 爱豆传媒免费全集在线观看| 久久久色成人| 国产伦精品一区二区三区四那| 亚洲精品日韩在线中文字幕| 一级毛片电影观看| 亚洲综合色惰| 国产精品久久久久成人av| 丝袜喷水一区| 纵有疾风起免费观看全集完整版| 高清av免费在线| 国产黄色视频一区二区在线观看| 欧美高清成人免费视频www| 在线观看免费日韩欧美大片 | 亚洲,欧美,日韩| 国产一区二区在线观看日韩| 欧美日韩国产mv在线观看视频 | 日韩伦理黄色片| 美女福利国产在线 | 黄色日韩在线| 亚洲一级一片aⅴ在线观看| 国产精品久久久久久精品电影小说 | 亚洲色图av天堂| 日韩大片免费观看网站| 国产片特级美女逼逼视频| 国产精品国产av在线观看| 精品一区二区免费观看| 欧美3d第一页| 在线观看av片永久免费下载| 一区二区三区免费毛片| 夜夜骑夜夜射夜夜干| 91精品一卡2卡3卡4卡| 久久精品人妻少妇| 一级毛片电影观看| 国产亚洲一区二区精品| 精品少妇黑人巨大在线播放| av免费观看日本| 国产成人免费无遮挡视频| 伊人久久国产一区二区| 亚洲第一区二区三区不卡| 欧美精品国产亚洲| 97精品久久久久久久久久精品| 亚洲无线观看免费| 婷婷色综合大香蕉| 国语对白做爰xxxⅹ性视频网站| 在线观看一区二区三区激情| 欧美精品一区二区大全| 国产高清国产精品国产三级 | 肉色欧美久久久久久久蜜桃| 中文精品一卡2卡3卡4更新| 香蕉精品网在线| 男的添女的下面高潮视频| 大片免费播放器 马上看| 国产成人精品一,二区| 午夜福利高清视频| 久久综合国产亚洲精品| 免费黄网站久久成人精品| 天堂中文最新版在线下载| 激情五月婷婷亚洲| 亚洲精品中文字幕在线视频 | 欧美 日韩 精品 国产| 亚洲激情五月婷婷啪啪| 日韩成人av中文字幕在线观看| 久久精品国产a三级三级三级| 成年美女黄网站色视频大全免费 | 久久久久久久亚洲中文字幕| 日韩人妻高清精品专区| xxx大片免费视频| 王馨瑶露胸无遮挡在线观看| 国产日韩欧美亚洲二区| 一个人看视频在线观看www免费| av国产免费在线观看| 一级毛片我不卡| 亚洲av电影在线观看一区二区三区| av国产久精品久网站免费入址| 一级毛片aaaaaa免费看小| 国产一区二区三区av在线| 丰满少妇做爰视频| 国产av一区二区精品久久 | 97在线视频观看| 久久久久久久大尺度免费视频| 欧美日韩一区二区视频在线观看视频在线| 日本猛色少妇xxxxx猛交久久| 亚洲成人一二三区av| 99精国产麻豆久久婷婷| 丰满乱子伦码专区| 99热这里只有精品一区| 两个人的视频大全免费| 日韩成人av中文字幕在线观看| 97在线人人人人妻| 日韩av在线免费看完整版不卡| 久久 成人 亚洲| h视频一区二区三区| 精品久久久久久久久亚洲| 午夜福利视频精品| h视频一区二区三区| 五月伊人婷婷丁香| 国产精品熟女久久久久浪| 国产精品99久久久久久久久| 国产精品国产三级国产av玫瑰| 青春草国产在线视频| 黑丝袜美女国产一区| 国国产精品蜜臀av免费| 熟妇人妻不卡中文字幕| 精华霜和精华液先用哪个| 青春草国产在线视频| 国内少妇人妻偷人精品xxx网站| 99久久精品国产国产毛片| 久久鲁丝午夜福利片| 高清av免费在线| 亚洲国产精品国产精品| 国产精品福利在线免费观看| 亚洲精品国产av成人精品| 看免费成人av毛片| 国产精品秋霞免费鲁丝片| 国产v大片淫在线免费观看| 最新中文字幕久久久久| 亚洲av不卡在线观看| 看非洲黑人一级黄片| 中文字幕免费在线视频6| 免费播放大片免费观看视频在线观看| 国产一级毛片在线| 亚洲欧美日韩无卡精品| 亚洲精品成人av观看孕妇| 91午夜精品亚洲一区二区三区| 亚洲欧美清纯卡通| 国产精品久久久久久久电影| 精品久久久精品久久久| 日韩,欧美,国产一区二区三区| 久久久久久久精品精品| 国产伦在线观看视频一区| 欧美性感艳星| 久久这里有精品视频免费| 又粗又硬又长又爽又黄的视频| 亚洲av成人精品一区久久| av免费在线看不卡| 18禁动态无遮挡网站| 五月伊人婷婷丁香| 亚洲av不卡在线观看| 男女下面进入的视频免费午夜| 亚洲人成网站在线播| 美女主播在线视频| 纯流量卡能插随身wifi吗| 欧美日韩视频精品一区| 青春草国产在线视频| 男人舔奶头视频| 国产淫片久久久久久久久| 亚洲第一区二区三区不卡| 中文字幕精品免费在线观看视频 | 汤姆久久久久久久影院中文字幕| 久久久色成人| av在线蜜桃| 亚洲国产色片| 亚洲欧美精品自产自拍| 女性被躁到高潮视频| 高清黄色对白视频在线免费看 | 毛片女人毛片| 国产精品久久久久久久电影| 午夜老司机福利剧场| 免费av不卡在线播放| 大片免费播放器 马上看| www.av在线官网国产| 日本av手机在线免费观看| 赤兔流量卡办理| 欧美国产精品一级二级三级 | 日韩欧美一区视频在线观看 | 亚洲av.av天堂| 国产在线一区二区三区精| 国产一区二区在线观看日韩| 啦啦啦啦在线视频资源| 日日啪夜夜撸| 最近的中文字幕免费完整| 天天躁夜夜躁狠狠久久av| 亚洲国产色片| 国产永久视频网站| 春色校园在线视频观看| 岛国毛片在线播放| 啦啦啦视频在线资源免费观看| 国产精品99久久久久久久久| 一本色道久久久久久精品综合| 日韩 亚洲 欧美在线| 午夜福利网站1000一区二区三区| 插阴视频在线观看视频| 欧美高清成人免费视频www| 免费久久久久久久精品成人欧美视频 | 亚洲美女视频黄频| 国产爽快片一区二区三区| 国产 一区精品| 亚洲成人一二三区av| 只有这里有精品99| 天堂俺去俺来也www色官网| 久久99精品国语久久久| 三级国产精品片| 自拍偷自拍亚洲精品老妇| 一级黄片播放器| 亚洲精品久久久久久婷婷小说| 久久精品国产亚洲网站| 一区二区三区精品91| 国产亚洲一区二区精品| 亚洲熟女精品中文字幕| 婷婷色av中文字幕| 亚洲欧美精品专区久久| 国产乱来视频区| 深夜a级毛片| 韩国高清视频一区二区三区| 精品人妻视频免费看| 免费看av在线观看网站| 亚洲欧美精品专区久久| 国产精品一二三区在线看| 国产精品偷伦视频观看了| 国产无遮挡羞羞视频在线观看| 国产精品福利在线免费观看| 欧美3d第一页| 日本午夜av视频| 熟妇人妻不卡中文字幕| 视频区图区小说| 高清毛片免费看| www.色视频.com| 国产 一区 欧美 日韩| xxx大片免费视频| 精品一品国产午夜福利视频| 精品久久国产蜜桃| 黄色欧美视频在线观看| 国产乱来视频区| 日韩人妻高清精品专区| 建设人人有责人人尽责人人享有的 | 夜夜看夜夜爽夜夜摸| 亚洲av免费高清在线观看| 国产女主播在线喷水免费视频网站| 精品一区二区三区视频在线| 天天躁夜夜躁狠狠久久av| 免费黄色在线免费观看| 亚洲精品,欧美精品| 亚洲av不卡在线观看| 日韩大片免费观看网站| 久久婷婷青草| 伦理电影免费视频| 国产成人一区二区在线| 一区二区三区四区激情视频| 亚洲经典国产精华液单| 春色校园在线视频观看| av网站免费在线观看视频| 国产69精品久久久久777片|