• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于RoBERTa的工商業(yè)領(lǐng)域命名實體識別方法

    2023-07-07 03:10:14雷景生唐小嵐
    計算機(jī)應(yīng)用與軟件 2023年6期
    關(guān)鍵詞:文本信息模型

    顧 澤 雷景生 唐小嵐

    (上海電力大學(xué)計算機(jī)科學(xué)與技術(shù)學(xué)院 上海 201300)

    0 引 言

    自然語言理解包括多種多樣的任務(wù),如文本蘊含、問答、語義相似度評估和文檔分類[1]。命名實體識別是自然語言處理的基礎(chǔ)任務(wù)之一,主要是研究從文本中識別實體,如人名、地名、時間和組織機(jī)構(gòu)名等。命名實體識別還被廣泛應(yīng)用于信息提取[2]、問答系統(tǒng)[3]、句法分析[4]和機(jī)器翻譯[5]等應(yīng)用領(lǐng)域,是從文本信息中自動提取潛在知識的第一步,也是信息提取和知識圖領(lǐng)域的重要組成部分[6-7],其研究應(yīng)用范圍廣,具有重要意義。

    工商業(yè)領(lǐng)域的迅速發(fā)展,從商業(yè)、財經(jīng)類新聞文本中抽取關(guān)鍵信息,輔助分析當(dāng)前經(jīng)濟(jì)發(fā)展?fàn)顩r和發(fā)展關(guān)系,越來越引起了廣泛關(guān)注。本文目的是識別工商業(yè)領(lǐng)域中重要的幾類實體,包括公司負(fù)責(zé)人(CPER)、公司名(CORG)和公司地址(CLOC)等,是統(tǒng)計分析商業(yè)經(jīng)濟(jì)發(fā)展詳情的關(guān)鍵概念。例如:“曹萍,于2008年3月5日注冊創(chuàng)辦了蘇州太谷電力股份有限公司,注冊資本達(dá)6 500萬元人民幣,是一家專業(yè)致力于電力行業(yè)電能管理技術(shù)研究的專業(yè)公司,現(xiàn)位于蘇州工業(yè)園區(qū)……”?!疤K州太谷電力股份有限公司”是公司名,“曹萍”是公司法人,“蘇州工業(yè)園區(qū)”是公司位置。

    基于神經(jīng)網(wǎng)絡(luò)模型的中文命名實體識別(NER)依賴于單詞表征,單詞表征又依賴于單詞、字符的任意組合。根據(jù)NER任務(wù)中語料庫的特征,廣泛使用預(yù)先訓(xùn)練好的單詞嵌入來提高一系列NLP任務(wù)的性能已被得到了驗證和改進(jìn)。單獨使用字符嵌入會導(dǎo)致單詞之間的特征關(guān)系缺失,因此單詞嵌入和字符嵌入的組合使用方式被應(yīng)用于NER任務(wù)。

    在NER的任務(wù)中,由于中文命名實體的構(gòu)詞、特殊性,同一個詞在不同的應(yīng)用中有不同的含義。例如“蘋果”是一種常見水果的名稱,也是一家企業(yè)的名字,因此,獲取上下文信息是至關(guān)重要的。最近,Peters等[8]介紹了一種Embeddings from Language Model(ELMo)深語境化的詞表示模型,稱為嵌入語言模型。ELMo模型研究的重點是,根據(jù)一個字在不同句子中的特點生成對應(yīng)的詞向量,且生成的詞向量與放入哪個特定環(huán)境的語義中沒有太多關(guān)聯(lián)。該模型解決了漢語中存在句法結(jié)構(gòu)和語義的關(guān)鍵問題。在不考慮時間成本的情況下,其思想給了后來的研究提供了思路。

    在過去幾年中,傳統(tǒng)的機(jī)器學(xué)習(xí)方法如條件隨機(jī)場(CRF)[9]和最大熵[10]已經(jīng)被用于NER任務(wù)。CRF已被證明在自然語言處理(NLP)的許多領(lǐng)域是有效的,包括序列標(biāo)簽任務(wù)和命名實體識別(NER)。與其他統(tǒng)計模型相比,CRF在主成分分析中使用了具有大量特征的觀察序列,能在特定領(lǐng)域的NER任務(wù)中的提取該領(lǐng)域的知識特征。在最近的神經(jīng)網(wǎng)絡(luò)模型中,特別是LSTM模型,被證明對NER任務(wù)是有效的。LSTM支持自動利用正交特征,能結(jié)合上下文,提取句法特征,并且能從多層結(jié)構(gòu)提取出語義特征。但是,如果訓(xùn)練數(shù)據(jù)缺乏,LSTM模型也很難學(xué)習(xí)完整的標(biāo)記規(guī)則,并且會導(dǎo)致全局序列執(zhí)行不能優(yōu)化處理。文獻(xiàn)[11]提出了單向的GPT,利用Transformer編碼器進(jìn)行預(yù)訓(xùn)練,獲取句子上下文信息。文獻(xiàn)[12]提出BERT,一種多層雙向Transformer微調(diào)的編碼器,使用了self-attention機(jī)制,能依賴于左右兩側(cè)的上下文獲取特征表示,使得模型的上下層直接全部互相連接。BERT的雙向Transformer機(jī)制在11個任務(wù)中均取得了不錯的效果。文獻(xiàn)[13]提出的RoBERTa模型是BERT的改進(jìn)版(A Robustly Optimized BERT)。它在模型規(guī)模、算力和數(shù)據(jù)上,增強(qiáng)了字的語義表示,取消了下一句預(yù)測(NSP)任務(wù),采用動態(tài)Masking,與BERT相比優(yōu)勢更大。

    在實際的應(yīng)用中,用于學(xué)習(xí)這些特定任務(wù)的標(biāo)記數(shù)據(jù)卻很少,而且很難獲得,這導(dǎo)致了模型難以充分運行。文獻(xiàn)[1]提出了一種結(jié)合無監(jiān)督預(yù)訓(xùn)練和監(jiān)督微調(diào)的語言理解任務(wù)的半監(jiān)督方法。受此啟發(fā),本文采用半監(jiān)督的訓(xùn)練方法,使用標(biāo)記和未標(biāo)記的數(shù)據(jù)來提高工商業(yè)領(lǐng)域中NER的性能。

    本文提出一種基于工商業(yè)領(lǐng)域的半監(jiān)督實體識別模型ICFNER。ICFNER模型是基于雙向長短期記憶、條件隨機(jī)場組成(BiLSTM-CRF)的基本結(jié)構(gòu),并融合RoBERTa做預(yù)訓(xùn)練時的特征提取,實現(xiàn)工商業(yè)領(lǐng)域?qū)嶓w識別。實驗表明,ICFNER模型利用較少的標(biāo)記數(shù)據(jù)集,能夠更大限度地提取字與字之間的關(guān)系,更加符合識別工商業(yè)領(lǐng)域中實體識別任務(wù)的需求。

    1 NER模型

    1.1 NER的CRF模型

    深度學(xué)習(xí)已經(jīng)成為NER任務(wù)的一個突出應(yīng)用。利用深度學(xué)習(xí)方法可以不再依賴手工制作的數(shù)據(jù)而實現(xiàn)自動提取復(fù)雜的特征,這些特征同時也具有更豐富的表達(dá)能力。條件隨機(jī)場(CRF)憑借在主成分中的分析的優(yōu)勢已被證明在自然語言處理的許多領(lǐng)域是有效的,命名實體識別(NER)任務(wù)就是其中之一。

    Sobhana等[14]基于條件隨機(jī)場(CRF)開發(fā)了一個應(yīng)用單詞的上下文信息和單詞特征來預(yù)測各種命名實體(NER)類別的文本任務(wù)系統(tǒng)。

    1.2 NER的LSTM模型

    LSTM使用記憶細(xì)胞取代RNN的普通神經(jīng)單元,實驗結(jié)果表明LSTM在處理長時間依賴效應(yīng)問題上表現(xiàn)不錯。這也讓LSTM語言模型能結(jié)合上下文內(nèi)容學(xué)習(xí)到語義更豐富的詞表征。

    Limsopatham等[15]設(shè)計的NER的LSTM模型被用于解決推特上短文本的日??谡Z化的問題。Hammerton[16]提出了一種方法,應(yīng)用LSTM來完成命名實體識別的任務(wù),在實驗結(jié)果上取得了不錯的效果。

    1.3 NER的BiLSTM-CRF模型

    許多研究表明,不同學(xué)習(xí)系統(tǒng)的組合是獲得優(yōu)異性能的更好方法。一種是具有序列條件隨機(jī)場的雙向長短記憶神經(jīng)網(wǎng)絡(luò)(BiLSTM-CRF)就是一種新模型。該模型與Huang等[17]提出了一種雙向長短記憶神經(jīng)網(wǎng)絡(luò)(BiLSTM)語境模型相似,通過該模型獲得語境特征,并利用單詞級標(biāo)簽信息,較少依賴于單詞嵌入,獲得了較好的穩(wěn)健性和更高的精度。類似的方式也被應(yīng)用在多個領(lǐng)域,如:Xu等[18]的醫(yī)學(xué)領(lǐng)域中文實體識別,該方法模型依賴于從監(jiān)督數(shù)據(jù)集訓(xùn)練的字符級單詞表示來學(xué)習(xí)特征;Lample等[19]提供了一種基于LSTM和CRF的混合標(biāo)記模型結(jié)構(gòu),該模型類似于文獻(xiàn)[17]中提出的方法,不僅能從未標(biāo)記語料庫訓(xùn)練的無監(jiān)督單詞表示,而且能從標(biāo)記語料庫訓(xùn)練的字符級單詞表示。

    1.4 NER的RoBERTa模型

    文獻(xiàn)[13]提出一個改進(jìn)的訓(xùn)練BERT模型的方法,我們稱之為RoBERTa,RoBERTa模型包含無監(jiān)督的Pre-train和有監(jiān)督的Fine-tune,改進(jìn)了BERT訓(xùn)練不足。在整個訓(xùn)練過程中,采用了更大的模型參數(shù),嘗試了更大的bacth size和更多的訓(xùn)練集。RoBERTa建立在BERT的語言掩蔽策略的基礎(chǔ)上,修改BERT中的關(guān)鍵超參數(shù),刪除BERT中對結(jié)果影響不大的下一個句子預(yù)測(NSP)任務(wù),采用動態(tài)掩碼方式訓(xùn)練模型,并使用更大的bacth size進(jìn)行訓(xùn)練。RoBERTa也接受了比BERT多一個數(shù)量級的訓(xùn)練,耗時更長。這使得RoBERTa能夠表示比BERT更加豐富的特征信息,而且能更好地推廣到下游任務(wù)中。

    1.5 NER的ICFNER模型

    雙向長短期記憶神經(jīng)網(wǎng)絡(luò)(BiLSTM)模型和條件隨機(jī)場(CRF)模型的結(jié)合的優(yōu)勢,已在本文的1.3節(jié)中詳細(xì)闡述。本文設(shè)計的ICFNER模型是利用RoBERTa、BiLSTM-CRF模型,結(jié)合半監(jiān)督的訓(xùn)練方式來完成我們的工商業(yè)領(lǐng)域語料庫實體提取任務(wù),這類似于Yang等[20]提出的框架。

    該模型主要包括兩個階段:無監(jiān)督的Pre-train模型學(xué)習(xí)到更加普遍、更適用的表征;模型以很小的Fine-tune預(yù)訓(xùn)練后的模型遷移到一些特定的有監(jiān)督學(xué)習(xí)任務(wù)上。方法概述如圖1所示。

    圖1 命名實體識別的模型框架

    在第一階段,將大量被標(biāo)記過數(shù)據(jù)被輸入到預(yù)處理的語言模型中,利用RoBERTa預(yù)訓(xùn)練語言模型對預(yù)料字符進(jìn)行編碼,得到單個字符對應(yīng)的詞向量。在第二階段,將訓(xùn)練好的詞嵌入BiLSTM層,對輸入文本進(jìn)行雙向編碼,增強(qiáng)上下文相關(guān)的語義信息,最后將包含上下文信息的語義詞向量應(yīng)用于下一輪CRF模型層中進(jìn)行解碼,在CRF層中分類器中,輸出概率最大的標(biāo)簽序列,并最終通過該模型獲得測試數(shù)據(jù)的實體標(biāo)簽。

    2 方 法

    2.1 RoBERTa模型

    文獻(xiàn)[12]中的BERT(Bidirectional Encoder Representation from Transformers),一種基于微調(diào)的多層雙向Transformer的編碼器,該模型在預(yù)訓(xùn)練方法上模型提出了創(chuàng)新,采用掩碼語言模型和對下一句預(yù)測分別捕捉詞語和句子級別的表示特征。文獻(xiàn)[13]在文獻(xiàn)[12]的基礎(chǔ)上改進(jìn)了模型,在訓(xùn)練方法的基礎(chǔ)上,從以下幾個方面改進(jìn)了BERT模型:(1) 去掉下一句預(yù)測Next Sentence Prediction(NSP)任務(wù)。(2) 動態(tài)掩碼(mask)。BERT 依賴隨機(jī)掩碼和預(yù)測token。RoBERTa使用了動態(tài)掩碼:每次向模型輸入一個序列時都會生成新的掩碼模式。這樣,在大量數(shù)據(jù)不斷輸入的過程中,模型會逐漸適應(yīng)不同的掩碼策略,學(xué)習(xí)不同的語言表征。(3) 文本編碼。Byte-Pair Encoding(BPE)是字符級和詞級別表征的混合,支持處理自然語言語料庫中的眾多常見詞匯。

    Roberta模型進(jìn)一步增加詞向量模型泛化能力,采用Transformer[21]對文本中的字詞進(jìn)行編碼(Encoder)和解碼(Decoder)。Transformer分別有6層Encoder層和6層Decoder層,具有更深的層數(shù)和更好的并行性,在預(yù)測詞的時候能雙向綜合地考慮上下文特征。

    基于上述的改進(jìn)方式使得Roberta模型獲得了更高的性能,可以通過無監(jiān)督的方式學(xué)習(xí)到一些特征,再遷移到特定的有監(jiān)督任務(wù)上,適用于從商業(yè)、財經(jīng)類新聞中抽取實體信息。

    2.1.1 輸入表示

    RoBERTa模型的輸入表示能夠在一個標(biāo)記序列中清楚地表示單個文本句子或一對文本句子。對于給定的詞,其輸入表示可以通過Token Embeddings、Segment Embeddings和Position Embeddings三個向量求和組成。Embedding的表述如圖2所示。

    中文處理過程中可以是詞向量或是字向量,詞向量用Token Embeddings表示,CLS作為第一個詞的分類標(biāo)志,常常用于分類任務(wù)。在應(yīng)對兩個句子為輸入的分類任務(wù)時,Segment Embeddings常被用來區(qū)分句子之間的不同,Position Embeddings常被用來標(biāo)記序列位置所屬信息。Token Embeddings、Segment Embedding和Position Embeddings三個向量組成RoBERTa模型的輸入表示方式。

    2.1.2動態(tài)mask

    在預(yù)處理時,靜態(tài)mask對每個樣本只會進(jìn)行一次隨機(jī)mask,后續(xù)的每個訓(xùn)練步都采用相同的mask,每一個序列隨機(jī)選擇15%的默認(rèn)遮擋字符(以下稱為Tokens)替換成[MASK],為了消除與下游任務(wù)的不匹配,還對這15%的Tokens進(jìn)行如下遮擋方法:

    (1) 80%的時間替換成[MASK];

    (2) 10%不變;

    (3) 10%的隨機(jī)替換成其他詞。

    后續(xù)的每個訓(xùn)練步都采用相同的mask,之后不會再變化。在修改版靜態(tài)mask中,在預(yù)處理時將數(shù)據(jù)集拷貝10次,每次拷貝采用不同的mask。這等價于原始的數(shù)據(jù)集采用10種靜態(tài)mask來訓(xùn)練。

    動態(tài)mask區(qū)別于靜態(tài)mask,在一開始沒有預(yù)處理的時候就執(zhí)行mask,把預(yù)訓(xùn)練的數(shù)據(jù)復(fù)制10份,每一份都隨機(jī)選擇15%的Tokens進(jìn)行Masking。也就是說,同樣的一句話有10種不同的mask方式,然后每份數(shù)據(jù)都訓(xùn)練N/10個epoch。動態(tài)mask并沒有在預(yù)處理時執(zhí)行mask,而是在每次向模型提供輸入時動態(tài)生成mask,這就相當(dāng)于在這N個epoch的訓(xùn)練中,每個序列被mask的Tokens是會時刻變化的,其表示方式如表1所示。

    表1 動態(tài)mask方式

    2.1.3Attention層

    文獻(xiàn)[21]中Transformer模型完全拋棄了RNN和CNN等網(wǎng)絡(luò)結(jié)構(gòu),Attention層是RoBERTa模型重要的信息提取方式,經(jīng)過編碼來獲取上下文相關(guān)的語義信息特征是Attention層主要功能任務(wù)。Attention函數(shù)可以描述為映射一個請求和一系列鍵值對到一個輸出,其可以表示為{Ki,Vi|i=1,2,…,m},其中請求向量query(Q),鍵向量key(K),值向量value(V)長度相同,都屬于輸出向量。V是所有values的加權(quán),權(quán)重由query和key計算而來,計算方法分為三步:

    第一步,計算比較Q和K的相似度,用f來表示:

    f(Q,Ki)i=1,2,…,m

    (1)

    f函數(shù)可以用點乘方式實現(xiàn),表示為:

    f(Q,Ki)=QTKi

    (2)

    第二步,將得到的相似度進(jìn)行Softmax操作,進(jìn)行歸一化,表示為:

    (3)

    第三步,針對計算出來的權(quán)重αi,對V中所有的values進(jìn)行加權(quán)求和計算,得到Attention向量,表示為:

    (4)

    計算流程如圖3所示。

    圖3 Attention三個階段計算過程

    Attention幫助解決了字符級詞語邊界區(qū)分難的問題,能夠一步到位捕捉到全局的聯(lián)系,能直接將序列進(jìn)行兩兩比較,其計算量為O(n2)。

    2.2 BiLSTM層

    應(yīng)用于序列數(shù)據(jù)的RNN是典型的神經(jīng)網(wǎng)絡(luò)模型,是傳統(tǒng)前饋神經(jīng)網(wǎng)絡(luò)的擴(kuò)展。RNN包含一個循環(huán)的隱藏狀態(tài),隱藏狀態(tài)的激活依賴于前一時間的激活。然而,梯度消失和梯度爆炸使得模型難以處理長文本。

    LSTM中的門控記憶機(jī)制,能夠緩解長期依賴限制[22]。如圖3所示,LSTM單元包括三個門:一個輸入門i、一個遺忘門f和一個輸出門o。這些門包含一個sigmoid神經(jīng)網(wǎng)絡(luò)層和一個逐點乘法運算,并被合并以可選地移除或添加信息。

    在每一步時間t,LSTM的輸出被迭代以通過式(5)-式(9)計算。

    it=σ(Wxixt+Whihi-1+WciCt-1+bi)

    (5)

    ft=σ(Wxfxt+Whfht-1+WcfCt-1+bf)

    (6)

    ot=σ(Wxoxt+Whoht-1+WcoCt+bo)

    (7)

    Ct=ftCt-1+itanh(Wxcxt+Whcht-1+bc)

    (8)

    ht=ot?tanh(ct)

    (9)

    式中:σ表示sigmoid激活函數(shù);?表示元素乘法;xt表示輸入向量。具有不同下標(biāo)的Wt分別表示輸入xt、輸出ot、存儲單元Ct和隱藏狀態(tài)ht的權(quán)重矩陣;b是三個門的偏置矩陣;it、ft和ot分別是時間步長t處的輸入門、遺忘門和輸出門向量,它們都具有與存儲單元向量Ct和隱藏向量ht相同的大小。

    雙向長短期記憶BiLSTM是由前向的LSTM與后向的LSTM結(jié)合成,其編碼過程如圖4所示。前向LSTML接收信息形成向量{hL0,hL1,hL2,…},后向LSTMR依次形成向量{hR0,hR1,hR2,…},前向和后向的隱向量拼接得到{h0,h1,h2,…}。

    圖4 BiLSTM編碼過程

    數(shù)據(jù)中有許多長句,文本序列中提到的每個實體都可以依賴于長距離信息文本。雙向長短期記憶(BiLSTM)學(xué)習(xí)前一時刻的輸出權(quán)重和當(dāng)前時刻每個序列的輸入。此外,句子序列的過去(向后)和未來(向前)信息可以同時被BiLSTM中的前向網(wǎng)絡(luò)和后向網(wǎng)絡(luò)捕獲,從而獲得句子序列建模過程中的上下文信息。因此,該方法被用于在長句序列建模期間捕獲所有信息?;贚STM的這些特點,本文利用BiLSTM來提取文物實體的長距離相關(guān)性。

    2.3 CRF層

    LSTM的輸出是每個標(biāo)簽的預(yù)測分?jǐn)?shù),因此可以得到句子中每個單元的預(yù)測標(biāo)簽。然而,在命名實體識別任務(wù)中,不能保證每次預(yù)測的標(biāo)簽都正確預(yù)測,并且獨立分類是不充分的,因為文本中句子的上下文具有許多標(biāo)記約束。當(dāng)單獨標(biāo)記每個字符時,序列有它們自己的局限性。例如,總是有必要考慮順序標(biāo)簽之間的相關(guān)性,并對輸出標(biāo)簽之間的相關(guān)性建模[23]。CRF是一個判別概率無向圖模型,CRF考慮了鄰域中標(biāo)簽之間的相關(guān)性[24],它更關(guān)心句子的層次,而不是單個的位置。因為在本文的任務(wù)中,并非獨立地對每個標(biāo)簽進(jìn)行解碼,而是將CRF層添加到BiLSTM-CRF網(wǎng)絡(luò)的BiLSTM層,并利用CRF對輸出標(biāo)簽進(jìn)行聯(lián)合建模。

    BiLSTM-CRF網(wǎng)絡(luò)的輸入是序列X={x1,x2,…,xn},其中xi是輸入向量的第i個字,并且預(yù)測的輸出標(biāo)簽序列是Y={y1,y2,…,yn},對于輸入序列X.P,大小為n×k,對應(yīng)于雙向LSTM輸出的分?jǐn)?shù)矩陣,其中k表示輸出標(biāo)簽的數(shù)量。Pi,j表示第i個字符的第j個標(biāo)記的分?jǐn)?shù),該分?jǐn)?shù)定義如下:

    (10)

    式中:A表示大小為K+2的轉(zhuǎn)換分?jǐn)?shù)的方陣;Ayi表示從標(biāo)記y到標(biāo)記i的轉(zhuǎn)換值。句子的開始和結(jié)束標(biāo)記是y0和yn。

    CRF利用一系列潛在函數(shù)來估計輸出標(biāo)簽序列的條件概率分布。公式如下:

    (11)

    式中:φ(x,y)代表特征向量,w是參數(shù)向量。所有可能的y上P(y|x,w)的累積和是Z(w,x)。

    給定的訓(xùn)練集(Y,X)={xi,yi},i=1,2,…,n,用于通過最大化似然條件來訓(xùn)練模型。

    w=arg maxwp(Y|X,w)

    (12)

    給定通過上述方法訓(xùn)練的輸入序列x和參數(shù)w,使模型最大化的標(biāo)簽序列y是訓(xùn)練的CRF的最終預(yù)測。

    y*=arg maxyp(y|x,w)

    (13)

    CRF使用Viterbi算法,該算法可以有效地解決訓(xùn)練和解碼問題,以預(yù)測標(biāo)簽的最佳序列。CRF層考慮了序列之間的限制,可以通過模型訓(xùn)練自動學(xué)習(xí)這些約束,使最終的實體標(biāo)簽結(jié)果更加有效。

    2.4 神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)

    ICFNER模型是以RoBERTa的BiLSTM-CRF架構(gòu),將BiLSTM網(wǎng)絡(luò)和CRF模型結(jié)合起來,模型結(jié)構(gòu)如圖5所示。

    圖5 基于語言模型(RoBERTa)的模型架構(gòu)

    Tokens列表是模型的輸入,預(yù)測的實體類型是模型的輸出。預(yù)處理后的RoBERTa與剩余LSTM一起,用于從每個標(biāo)記的字符序列中學(xué)習(xí)信息豐富的形態(tài)學(xué)表示。然后,單詞表示將被傳遞到包含前向LSTM和后向LSTM的BiLSTM層,并通過利用左右上下文信息返回一個序列。BiLSTM網(wǎng)絡(luò)可以給輸出層提供一個序列點完整的上下文信息,這樣的輸出被輸入到通用CRF層。最后在CRF層,標(biāo)簽將被解碼和輸出。總的來說,BiLSTM-CRF模型輸入的是詞向量,輸出的是每個單詞的預(yù)測的序列標(biāo)注。

    按照圖5的步驟,ICFNER模型具體實現(xiàn)過程:

    第一步:輸入層輸入文本內(nèi)容,向量表示層進(jìn)行編碼,進(jìn)入RoBERT層獲取字符序列之間的特征信息,編碼方式已在2.1.1節(jié)中詳細(xì)闡述。

    第二步:進(jìn)入BiLSTM層,通過學(xué)習(xí)上下文的信息,輸出每個單詞對應(yīng)于每個標(biāo)簽的得分概率score(BiLSTM節(jié)點的輸出得分是一個矩陣)。

    第三步:第二步中的score作為CRF層的輸入,CRF層通過學(xué)習(xí)標(biāo)簽之間的順序依賴信息,得到最終的預(yù)測結(jié)果。

    第四步:擇優(yōu)比較CRF層最終預(yù)測結(jié)果,(如圖5所示,B-PER、I-PER、I-PER、O、O的最優(yōu)預(yù)測結(jié)果為0.9)得出最終預(yù)判。

    3 實驗與結(jié)果分析

    3.1 實驗數(shù)據(jù)及評價指標(biāo)

    數(shù)據(jù)集采用公開的SmoothNLP文本數(shù)據(jù)集,其公開的數(shù)據(jù)集達(dá)到8萬多條。對這些數(shù)據(jù)集中的數(shù)據(jù)文本采用IOB格式(Inside,Outside,Beginning)標(biāo)記方式表示,其中,詞條是一個命名實體的開始那么就標(biāo)記其為B標(biāo)簽,I標(biāo)簽指詞條在一個命名實體的內(nèi)部,O標(biāo)簽指詞條在一個命名實體的外部。標(biāo)注工具采用哈工大開源的產(chǎn)品pyltp,該工具能提供準(zhǔn)確的自然語言處理服務(wù)。在標(biāo)注時候做好標(biāo)簽類別定義(如地址、組織機(jī)構(gòu)等),標(biāo)記時盡量標(biāo)記完全、細(xì)致。對于出現(xiàn)的縮略詞進(jìn)行人工判斷之后直接標(biāo)注,可以實現(xiàn)直接對應(yīng)。

    考慮到在工商業(yè)領(lǐng)域中數(shù)據(jù)集相對匱乏的問題,采用半監(jiān)的訓(xùn)練方式補(bǔ)充大量未標(biāo)記的語料庫來改進(jìn)訓(xùn)練數(shù)據(jù)集。為了避免標(biāo)記錯誤,會采用自學(xué)習(xí)算法,隨機(jī)選取少量標(biāo)記數(shù)據(jù)進(jìn)行預(yù)處理,逐步從非分類樣本中獲得的假設(shè),幫助預(yù)測非分類數(shù)據(jù),保障具有高置信度的樣本被迭代地正確分類。

    采用準(zhǔn)確率(P)、召回率(R)以及調(diào)和平均數(shù)F1值作為每一類命名實體的評價標(biāo)準(zhǔn)。定義如下:

    (14)

    (15)

    (16)

    3.2 模型搭建和參數(shù)設(shè)置

    本文采用由Google開源的專門針對GPU加速的神經(jīng)網(wǎng)絡(luò)框架Tensorflow進(jìn)行搭建。在ICFNER模型中,我們不考慮不斷更新整個模型的參數(shù)模型訓(xùn)練方法,而只研究采用固定RoBERTa的部分參數(shù),更新BiLSTM-CRF的參數(shù)的方法來進(jìn)行訓(xùn)練測試。訓(xùn)練時使用SGD(隨機(jī)梯度下降法)以0.01的學(xué)習(xí)率優(yōu)化參數(shù),以5.0為梯度的閾值。BiLSTM-CRF模型用前向和后向LSTM各一個獨立層,維度各100,并加入了剔除率為0.5的dropout,防止梯度爆炸,輸入維度seq_length和訓(xùn)練集batch_size分別為128和64,具體參數(shù)如表2所示。

    表2 參數(shù)設(shè)置

    3.3 實驗結(jié)果

    在數(shù)據(jù)集上,采用了CRF、BiLSTM、BiLSTM-CRF、BERT-BiLSTM-CRF、ICFNER模型進(jìn)行性能分析。

    1) CRF模型:條件隨機(jī)場通過引入自定義的特征函數(shù),不僅可以表達(dá)觀測之間的依賴,還可表示當(dāng)前觀測與前后多個狀態(tài)之間的復(fù)雜依賴。

    2) BiLSTM模型:LSTM依靠神經(jīng)網(wǎng)絡(luò)超強(qiáng)的非線性擬合能力,能應(yīng)對處理長時間依賴效應(yīng)問題。能夠自動提取觀測序列的特征,其缺點是無法學(xué)習(xí)到狀態(tài)序列之間的關(guān)系,比如B(某實體的開頭)類標(biāo)注后面不會再接一個B類標(biāo)注。為了正確獲得一個詞的表示,有效利用上下文信息。使用兩個LSTM網(wǎng)絡(luò),首先將句子中單詞輸入第一個網(wǎng)絡(luò),然后再將輸出與句子單詞反向輸入第二個網(wǎng)絡(luò),即雙向LSTM,兩個網(wǎng)絡(luò)不同。

    3) BiLSTM-CRF模型:CRF的優(yōu)點就是能對隱含狀態(tài)建模,學(xué)習(xí)狀態(tài)序列的特點,但它的缺點是需要手動提取序列特征。所以在BiLSTM后面再加一層CRF,以獲得兩者的優(yōu)點。

    4) BERT-BiLSTM-CRF模型:BERT模型提出了較為完善的預(yù)訓(xùn)練模型的概念,提高一系列NLP任務(wù)的性能。

    5) ICFNER模型的實驗效果圖,包含準(zhǔn)確率、召回率以及調(diào)和平均數(shù)F1,如圖6所示。

    圖6 準(zhǔn)確率、召回率以及調(diào)和平均數(shù)F1

    可以看出,精確度、召回率和F1得分值在0和1之間較高的值表示更好的性能[25-26]。開始訓(xùn)練階段,精確度、召回率和F1得分的值急劇增高,模型開始發(fā)揮其性能。經(jīng)過一定次數(shù)的充分訓(xùn)練,訓(xùn)練次數(shù)增加到20時,模型性能得到充分發(fā)揮,其性能開始趨于飽和,精確度、召回率和F1得分值三者都開始逐漸平穩(wěn),最終在訓(xùn)練次數(shù)達(dá)到100時,趨于95%。

    ICFNER模型的損失函數(shù)曲線如圖7所示。

    圖7 損失函數(shù)曲線

    可以看出,損失函數(shù)曲線有較為明顯的階段性特征,最后趨于平緩,逼近于0到1之間,符合模型中采用了SGD[27]自動調(diào)節(jié)學(xué)習(xí)率的優(yōu)化效果。將圖6與圖5的曲線圖走勢對比,整體上呈現(xiàn)負(fù)相關(guān)特性。從細(xì)節(jié)中可以看出,在訓(xùn)練次數(shù)達(dá)到20時,loss值開始趨于平緩,當(dāng)訓(xùn)練次數(shù)達(dá)到100時,loss值趨于穩(wěn)定,在整個訓(xùn)練過程中clip參數(shù)的設(shè)置有效避免了梯度爆炸現(xiàn)象的出現(xiàn)。圖5與圖6兩者之間的曲線走勢特性也相互印證了該模型的效果。

    公司法人、公司所在地和公司名三類實體準(zhǔn)確率、召回率、F1值如表3所示。

    表3 不同類型命名實體識別結(jié)果(%)

    可以看出,不同類型命名實體的識別結(jié)果值都比較高。其中,公司名稱的準(zhǔn)確率相較于其他值普遍偏低,猜想是因為機(jī)構(gòu)名稱中的嵌套和簡寫(如:國網(wǎng)、中石化等)較多,會在一定程度上對模型的識別造成干擾。

    綜上所述,該模型在命名實體識別上達(dá)到了較好的結(jié)果,顯示出了該模型的優(yōu)勢。

    3.4 實驗對比分析

    從表4中可以看出,本文中提出的半監(jiān)督訓(xùn)練的ICFNER模型與其他模型相比,在中文命名實體識別上獲得了更高的平均精確度、召回率和F1得分值。

    表4 模型在SmoothNLP數(shù)據(jù)集上的識別效果對比(%)

    對比分析表4和圖8之間的關(guān)系可以分析出,神經(jīng)網(wǎng)絡(luò)模型在中文命名實體中優(yōu)勢比較明顯,從與CRF模型的對比中可以看出,神經(jīng)網(wǎng)絡(luò)的模型在準(zhǔn)確率、召回率、F1值表現(xiàn)性能都好于CRF模型;雙向長短記憶神經(jīng)網(wǎng)絡(luò)BiLSTM模型能夠獲取更多的上下文信息序列的信息,學(xué)習(xí)能力更強(qiáng),BiLSTM模型再結(jié)合CNN模型實現(xiàn)標(biāo)簽分類目標(biāo),其準(zhǔn)確率高于CRF模型;在BiLSTM-CRF模型中,若直接通過取BiLSTM輸出的標(biāo)簽概率最大值作為最終預(yù)測輸出,可能會出現(xiàn)I開頭的詞、兩個連續(xù)的B開頭的詞、B-PER和I-LOC連在一起等情況,模型效果將會降低,因此該組合模型中的BiLSTM層充分學(xué)習(xí)上下文序列信息,CRF層可以并修正BiLSTM層的輸出,從而保證預(yù)測標(biāo)簽的合理性,提升了模型性能;BERT模型充分刻畫了文本數(shù)據(jù)中字符間的關(guān)系特征,BERT與BiLSTM-CRF模型得組合,取得了92.54%的準(zhǔn)確率,增幅大,性能優(yōu)勢明顯;RoBERTa模型改進(jìn)了原來的BERT模型方法訓(xùn)練方法,采用動態(tài)掩碼方式,提取字符級和詞級別的信息表征,刪除了作用不大的NSP任務(wù),RoBERTa模型在與BiLSTM-CRF的結(jié)合使用,繼承了BiLSTM-CRF的綜合優(yōu)勢,相比前者在準(zhǔn)確率性能又有了進(jìn)一步的提升,可以看出本文中ICFNER模型,中文命名實體識別整體性能的提升明顯,可以做進(jìn)一步研究。

    圖8 不同模型的準(zhǔn)確率、召回率和平均數(shù)F1

    4 結(jié) 語

    工商業(yè)領(lǐng)域中的命名實體識別是自然語言處理的重要組成部分??紤]到標(biāo)記的文本數(shù)據(jù)集匱乏,本文提出的命名實體識別的半監(jiān)督ICFNER模型,屬于以RoBERTa模型為基礎(chǔ)的深度學(xué)習(xí)框架。RoBERTa基于Transformer的并采用動態(tài)掩碼的方式,改進(jìn)了BERT,具有很強(qiáng)的特征提取能力。該模型將文本數(shù)據(jù)和深層網(wǎng)絡(luò)模型訓(xùn)練出來的預(yù)訓(xùn)練模型作為輸入,緩解標(biāo)記數(shù)據(jù)集稀缺的問題,挖掘BiLSTM在學(xué)習(xí)詞語的上下文信息的能力強(qiáng)優(yōu)勢,結(jié)合CRF模型通過全局信息推斷標(biāo)簽的能力,增強(qiáng)字符間的推理能力,使模型充分學(xué)習(xí)文本的特征信息,模型性能有了一定的提升,實驗取得了較為滿意的結(jié)果。相比于傳統(tǒng)的實體識別方法,ICFNER神經(jīng)網(wǎng)絡(luò)模型的中文命名實體識別方法提升了實體識別的效果,接下來的實驗將考慮如何簡化模型大小,提升模型的效率。

    猜你喜歡
    文本信息模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    在808DA上文本顯示的改善
    基于doc2vec和TF-IDF的相似文本識別
    電子制作(2018年18期)2018-11-14 01:48:06
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    3D打印中的模型分割與打包
    文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
    展會信息
    中外會展(2014年4期)2014-11-27 07:46:46
    如何快速走進(jìn)文本
    語文知識(2014年1期)2014-02-28 21:59:13
    叶爱在线成人免费视频播放| 国产有黄有色有爽视频| 国产真人三级小视频在线观看| 亚洲欧美一区二区三区国产| 99久久综合免费| 国产精品三级大全| 大香蕉久久成人网| 国产欧美日韩一区二区三 | 这个男人来自地球电影免费观看| 久久精品熟女亚洲av麻豆精品| 美国免费a级毛片| 久久精品久久久久久噜噜老黄| 纵有疾风起免费观看全集完整版| 亚洲av美国av| 欧美成人午夜精品| 热re99久久国产66热| 亚洲欧美成人综合另类久久久| 黑丝袜美女国产一区| 精品亚洲成国产av| 亚洲熟女毛片儿| av国产久精品久网站免费入址| 中文字幕高清在线视频| 各种免费的搞黄视频| 欧美亚洲 丝袜 人妻 在线| 美女高潮到喷水免费观看| 久久国产精品男人的天堂亚洲| 日韩中文字幕欧美一区二区 | 午夜福利一区二区在线看| 一区二区三区激情视频| 色播在线永久视频| 丰满人妻熟妇乱又伦精品不卡| 麻豆国产av国片精品| 国产亚洲精品久久久久5区| a级片在线免费高清观看视频| 久久人人97超碰香蕉20202| 男人爽女人下面视频在线观看| 精品高清国产在线一区| 男女国产视频网站| 亚洲国产av影院在线观看| 亚洲人成电影观看| 高清视频免费观看一区二区| 极品少妇高潮喷水抽搐| 老司机深夜福利视频在线观看 | 国产男人的电影天堂91| 国产熟女午夜一区二区三区| 欧美精品一区二区大全| 欧美变态另类bdsm刘玥| 超碰97精品在线观看| 欧美国产精品va在线观看不卡| 午夜激情久久久久久久| 亚洲av国产av综合av卡| 高清视频免费观看一区二区| tube8黄色片| 国产野战对白在线观看| 又紧又爽又黄一区二区| 精品第一国产精品| 爱豆传媒免费全集在线观看| 青草久久国产| 永久免费av网站大全| 国产亚洲欧美在线一区二区| 欧美97在线视频| 国产无遮挡羞羞视频在线观看| 日本欧美国产在线视频| 亚洲五月色婷婷综合| 在线观看免费高清a一片| e午夜精品久久久久久久| 精品少妇一区二区三区视频日本电影| 精品一区在线观看国产| 两人在一起打扑克的视频| 国产一区二区三区av在线| 国产女主播在线喷水免费视频网站| 日本黄色日本黄色录像| 精品视频人人做人人爽| www.自偷自拍.com| 丰满饥渴人妻一区二区三| 国产黄色视频一区二区在线观看| 一级毛片我不卡| 最近手机中文字幕大全| 精品一区二区三区av网在线观看 | 国产精品三级大全| av片东京热男人的天堂| 久9热在线精品视频| 男女边摸边吃奶| 天堂中文最新版在线下载| 国产在线免费精品| 精品人妻熟女毛片av久久网站| 国产欧美日韩一区二区三区在线| 久久国产精品影院| 亚洲精品日本国产第一区| 777久久人妻少妇嫩草av网站| 精品少妇久久久久久888优播| 欧美日韩亚洲国产一区二区在线观看 | 午夜激情久久久久久久| 老司机午夜十八禁免费视频| 国产精品一国产av| 99国产精品一区二区蜜桃av | 午夜福利免费观看在线| 在线精品无人区一区二区三| 1024香蕉在线观看| 日韩 欧美 亚洲 中文字幕| 国产爽快片一区二区三区| 99久久综合免费| 日日爽夜夜爽网站| 男女边摸边吃奶| 高清黄色对白视频在线免费看| 大香蕉久久网| 亚洲男人天堂网一区| 熟女av电影| 久久精品aⅴ一区二区三区四区| 精品视频人人做人人爽| 国产成人一区二区在线| 搡老岳熟女国产| 久久精品熟女亚洲av麻豆精品| 少妇精品久久久久久久| 国产欧美日韩一区二区三区在线| 91字幕亚洲| 一个人免费看片子| 韩国精品一区二区三区| 精品国产超薄肉色丝袜足j| 欧美 亚洲 国产 日韩一| 丝袜美足系列| 91精品国产国语对白视频| 久久精品久久精品一区二区三区| av天堂久久9| www.精华液| 久久久国产一区二区| 自拍欧美九色日韩亚洲蝌蚪91| 日本vs欧美在线观看视频| 中文字幕人妻熟女乱码| 久9热在线精品视频| 国产精品一国产av| 制服诱惑二区| 欧美日韩视频精品一区| 免费人妻精品一区二区三区视频| 一级,二级,三级黄色视频| 天天躁夜夜躁狠狠久久av| 亚洲七黄色美女视频| 51午夜福利影视在线观看| 欧美日韩亚洲综合一区二区三区_| 女人久久www免费人成看片| 久久精品人人爽人人爽视色| 久久亚洲国产成人精品v| 国产精品二区激情视频| 老汉色av国产亚洲站长工具| 久久久国产精品麻豆| 热99久久久久精品小说推荐| 国产av一区二区精品久久| 亚洲国产看品久久| 日本欧美视频一区| 久久精品aⅴ一区二区三区四区| 国产av一区二区精品久久| 中文字幕人妻丝袜一区二区| 欧美日韩亚洲综合一区二区三区_| 波野结衣二区三区在线| 成人免费观看视频高清| 精品少妇一区二区三区视频日本电影| a级毛片黄视频| 免费日韩欧美在线观看| 老司机亚洲免费影院| 亚洲自偷自拍图片 自拍| 美国免费a级毛片| 欧美人与性动交α欧美软件| 99国产精品一区二区三区| 国产精品熟女久久久久浪| 超碰成人久久| 天堂俺去俺来也www色官网| 手机成人av网站| 国产精品一二三区在线看| 国产在线一区二区三区精| 亚洲欧美色中文字幕在线| 波多野结衣av一区二区av| 男人添女人高潮全过程视频| 精品人妻在线不人妻| 男人添女人高潮全过程视频| 美女中出高潮动态图| 一区福利在线观看| 国产精品久久久人人做人人爽| 高清视频免费观看一区二区| 久久av网站| 宅男免费午夜| 国产精品九九99| 国产成人精品无人区| 天天躁夜夜躁狠狠久久av| 免费看十八禁软件| 91国产中文字幕| 免费在线观看黄色视频的| 亚洲免费av在线视频| 午夜久久久在线观看| 色视频在线一区二区三区| 国产1区2区3区精品| 国产精品熟女久久久久浪| 日韩一区二区三区影片| 亚洲 国产 在线| 久久毛片免费看一区二区三区| 精品人妻熟女毛片av久久网站| 国产在线免费精品| 国产女主播在线喷水免费视频网站| 纵有疾风起免费观看全集完整版| 在线观看免费日韩欧美大片| 成人国语在线视频| 欧美久久黑人一区二区| 久久国产亚洲av麻豆专区| 一区二区三区四区激情视频| 午夜福利视频精品| 色播在线永久视频| 97精品久久久久久久久久精品| 一本综合久久免费| 亚洲五月色婷婷综合| 精品人妻1区二区| 男女床上黄色一级片免费看| 国产欧美亚洲国产| 国产av精品麻豆| 香蕉丝袜av| 天天躁夜夜躁狠狠久久av| 男人操女人黄网站| 久久久久视频综合| 久久ye,这里只有精品| 亚洲,一卡二卡三卡| 日本欧美国产在线视频| 国产一级毛片在线| 久久国产精品男人的天堂亚洲| 亚洲,欧美,日韩| 黑丝袜美女国产一区| 国产免费福利视频在线观看| 国产成人影院久久av| 视频区图区小说| 丝袜脚勾引网站| 久久精品亚洲熟妇少妇任你| 亚洲精品在线美女| 日韩视频在线欧美| www.999成人在线观看| 亚洲人成77777在线视频| 又大又爽又粗| 少妇的丰满在线观看| 青春草亚洲视频在线观看| 啦啦啦中文免费视频观看日本| 最近手机中文字幕大全| 又紧又爽又黄一区二区| 999久久久国产精品视频| 青春草视频在线免费观看| 中文字幕人妻丝袜一区二区| 欧美日韩亚洲综合一区二区三区_| 日韩av不卡免费在线播放| 在线观看免费午夜福利视频| 中文精品一卡2卡3卡4更新| 国产日韩一区二区三区精品不卡| 精品少妇内射三级| 97精品久久久久久久久久精品| 午夜精品国产一区二区电影| 男人添女人高潮全过程视频| 99国产精品免费福利视频| 免费女性裸体啪啪无遮挡网站| 国产精品国产三级专区第一集| 人人妻人人澡人人看| 熟女少妇亚洲综合色aaa.| 啦啦啦中文免费视频观看日本| 久久久久网色| 亚洲伊人色综图| 美女脱内裤让男人舔精品视频| 国产精品免费大片| 国产日韩一区二区三区精品不卡| 女性被躁到高潮视频| 亚洲少妇的诱惑av| 欧美老熟妇乱子伦牲交| 香蕉丝袜av| 只有这里有精品99| 国产麻豆69| 精品一区在线观看国产| 国语对白做爰xxxⅹ性视频网站| 黄网站色视频无遮挡免费观看| 国产成人系列免费观看| 国产精品九九99| 国产精品国产三级专区第一集| 少妇的丰满在线观看| 高清不卡的av网站| 精品国产超薄肉色丝袜足j| 日本欧美视频一区| 国产精品一区二区在线观看99| 汤姆久久久久久久影院中文字幕| 亚洲伊人久久精品综合| 男女高潮啪啪啪动态图| 久久精品亚洲熟妇少妇任你| 乱人伦中国视频| 黄色一级大片看看| 91国产中文字幕| 欧美日韩亚洲国产一区二区在线观看 | 黄网站色视频无遮挡免费观看| 国产日韩欧美亚洲二区| 十八禁网站网址无遮挡| 纵有疾风起免费观看全集完整版| 亚洲一卡2卡3卡4卡5卡精品中文| 男女边吃奶边做爰视频| 亚洲中文日韩欧美视频| 亚洲精品成人av观看孕妇| 免费黄频网站在线观看国产| 在线精品无人区一区二区三| 亚洲黑人精品在线| 日本一区二区免费在线视频| 中国国产av一级| 国产精品久久久久成人av| 欧美 日韩 精品 国产| 少妇被粗大的猛进出69影院| 肉色欧美久久久久久久蜜桃| 亚洲人成电影免费在线| 搡老乐熟女国产| 男人爽女人下面视频在线观看| 少妇粗大呻吟视频| 国产主播在线观看一区二区 | 久久99热这里只频精品6学生| 丰满饥渴人妻一区二区三| 深夜精品福利| 国产成人精品无人区| 女人精品久久久久毛片| 男男h啪啪无遮挡| 丰满饥渴人妻一区二区三| 精品人妻在线不人妻| 大香蕉久久网| 欧美日韩成人在线一区二区| 搡老乐熟女国产| 黄网站色视频无遮挡免费观看| 国产主播在线观看一区二区 | 国产人伦9x9x在线观看| 日本欧美国产在线视频| 亚洲精品一区蜜桃| 九草在线视频观看| 两性夫妻黄色片| 中文字幕最新亚洲高清| 下体分泌物呈黄色| 欧美精品高潮呻吟av久久| 人人妻人人澡人人爽人人夜夜| 香蕉国产在线看| 久久影院123| 国产精品一区二区精品视频观看| 搡老岳熟女国产| 天堂中文最新版在线下载| 少妇人妻久久综合中文| 啦啦啦在线免费观看视频4| 激情视频va一区二区三区| 亚洲人成网站在线观看播放| 纵有疾风起免费观看全集完整版| 首页视频小说图片口味搜索 | av视频免费观看在线观看| 男女下面插进去视频免费观看| 国产成人av教育| 国产精品一区二区在线不卡| 麻豆乱淫一区二区| 一二三四社区在线视频社区8| 亚洲五月婷婷丁香| 少妇的丰满在线观看| 国产精品熟女久久久久浪| 国产精品久久久av美女十八| 纵有疾风起免费观看全集完整版| 最新在线观看一区二区三区 | 99九九在线精品视频| 天天躁夜夜躁狠狠躁躁| 在线精品无人区一区二区三| 亚洲精品久久久久久婷婷小说| av网站在线播放免费| 高清欧美精品videossex| 99久久人妻综合| 黄色一级大片看看| 男人操女人黄网站| 欧美久久黑人一区二区| 秋霞在线观看毛片| av视频免费观看在线观看| 欧美精品一区二区大全| 自拍欧美九色日韩亚洲蝌蚪91| 美国免费a级毛片| 亚洲国产精品国产精品| 日韩人妻精品一区2区三区| 欧美日韩视频高清一区二区三区二| 欧美日韩黄片免| 91麻豆精品激情在线观看国产 | 好男人视频免费观看在线| 在线亚洲精品国产二区图片欧美| 国产欧美日韩一区二区三 | 一区福利在线观看| 国产精品 国内视频| 婷婷丁香在线五月| 亚洲欧美精品综合一区二区三区| 国产又色又爽无遮挡免| 一级,二级,三级黄色视频| 久久国产精品人妻蜜桃| 精品国产超薄肉色丝袜足j| a级片在线免费高清观看视频| 亚洲精品自拍成人| 亚洲精品国产色婷婷电影| 一级黄色大片毛片| 久久av网站| 精品熟女少妇八av免费久了| 国产成人免费无遮挡视频| 日韩制服丝袜自拍偷拍| 丝袜美腿诱惑在线| 又粗又硬又长又爽又黄的视频| 中文乱码字字幕精品一区二区三区| 国产又色又爽无遮挡免| 如日韩欧美国产精品一区二区三区| 脱女人内裤的视频| 在线观看人妻少妇| 伊人亚洲综合成人网| 国产精品一区二区免费欧美 | 亚洲一区中文字幕在线| 亚洲精品久久成人aⅴ小说| 国产黄色免费在线视频| 国产精品一区二区在线不卡| 妹子高潮喷水视频| www.av在线官网国产| 精品一区二区三区四区五区乱码 | 欧美亚洲日本最大视频资源| 精品少妇黑人巨大在线播放| 一区在线观看完整版| 黄色毛片三级朝国网站| 亚洲av在线观看美女高潮| 叶爱在线成人免费视频播放| 日韩中文字幕视频在线看片| 下体分泌物呈黄色| 蜜桃在线观看..| 亚洲美女黄色视频免费看| 久久青草综合色| 韩国精品一区二区三区| 一级毛片黄色毛片免费观看视频| av又黄又爽大尺度在线免费看| 久久精品亚洲熟妇少妇任你| 在线观看免费视频网站a站| 又大又爽又粗| 啦啦啦中文免费视频观看日本| 自线自在国产av| 色网站视频免费| 啦啦啦在线观看免费高清www| 亚洲精品一卡2卡三卡4卡5卡 | 日韩 亚洲 欧美在线| 亚洲av美国av| 又粗又硬又长又爽又黄的视频| 欧美精品av麻豆av| 亚洲精品在线美女| 人人妻人人澡人人看| 2021少妇久久久久久久久久久| 欧美变态另类bdsm刘玥| 欧美日韩一级在线毛片| 热re99久久国产66热| 国产免费又黄又爽又色| 日韩av不卡免费在线播放| 亚洲欧洲精品一区二区精品久久久| 久久人人爽人人片av| 国产伦理片在线播放av一区| 亚洲熟女精品中文字幕| 国产又爽黄色视频| 人成视频在线观看免费观看| 国产片内射在线| 亚洲精品国产区一区二| 国产免费现黄频在线看| 一本—道久久a久久精品蜜桃钙片| 在线 av 中文字幕| 国产主播在线观看一区二区 | 9191精品国产免费久久| 在线观看一区二区三区激情| 日韩一本色道免费dvd| 精品少妇久久久久久888优播| 韩国精品一区二区三区| 亚洲欧美精品自产自拍| 一级毛片电影观看| 黄色 视频免费看| 国产av精品麻豆| 国产黄色免费在线视频| 男人操女人黄网站| 99久久综合免费| 巨乳人妻的诱惑在线观看| 国产黄频视频在线观看| 丁香六月欧美| 精品视频人人做人人爽| 成人黄色视频免费在线看| 欧美日韩国产mv在线观看视频| 丁香六月天网| 亚洲国产欧美日韩在线播放| 一级毛片黄色毛片免费观看视频| 激情五月婷婷亚洲| 国产爽快片一区二区三区| 欧美精品一区二区大全| 我的亚洲天堂| 99久久人妻综合| 亚洲一区二区三区欧美精品| 欧美亚洲 丝袜 人妻 在线| 91九色精品人成在线观看| 人人妻人人爽人人添夜夜欢视频| 国产一区二区三区av在线| 两个人看的免费小视频| 在线观看一区二区三区激情| 久久九九热精品免费| 老司机影院成人| 99国产精品免费福利视频| 桃花免费在线播放| 激情视频va一区二区三区| 久久人妻熟女aⅴ| 一级毛片女人18水好多 | 大话2 男鬼变身卡| 99国产精品99久久久久| 18禁国产床啪视频网站| 久久久久视频综合| 女人被躁到高潮嗷嗷叫费观| 天天操日日干夜夜撸| 久久青草综合色| av天堂在线播放| 免费看十八禁软件| 午夜日韩欧美国产| 18禁国产床啪视频网站| 免费不卡黄色视频| 99久久综合免费| 伊人久久大香线蕉亚洲五| 人成视频在线观看免费观看| 天堂8中文在线网| 国产成人系列免费观看| 最黄视频免费看| 欧美乱码精品一区二区三区| 国产又色又爽无遮挡免| 国产麻豆69| 欧美成人午夜精品| 叶爱在线成人免费视频播放| 国产高清国产精品国产三级| 精品亚洲成国产av| 超色免费av| 亚洲av成人精品一二三区| 又紧又爽又黄一区二区| 老司机影院毛片| 亚洲av电影在线观看一区二区三区| 日本91视频免费播放| 麻豆国产av国片精品| 黄色视频在线播放观看不卡| 美女脱内裤让男人舔精品视频| 青青草视频在线视频观看| 日韩 欧美 亚洲 中文字幕| 精品国产一区二区久久| 建设人人有责人人尽责人人享有的| 久久人妻福利社区极品人妻图片 | 国产精品一区二区精品视频观看| 人人妻人人爽人人添夜夜欢视频| 少妇的丰满在线观看| 五月天丁香电影| 赤兔流量卡办理| 操美女的视频在线观看| 免费看av在线观看网站| 亚洲av日韩在线播放| 久久国产亚洲av麻豆专区| 亚洲成人国产一区在线观看 | 飞空精品影院首页| 国产女主播在线喷水免费视频网站| 亚洲欧美日韩高清在线视频 | 国产97色在线日韩免费| 国产成人欧美| 久久久久久久久久久久大奶| 99九九在线精品视频| 99国产精品免费福利视频| 亚洲国产中文字幕在线视频| 人人妻,人人澡人人爽秒播 | 又粗又硬又长又爽又黄的视频| 三上悠亚av全集在线观看| 亚洲精品日韩在线中文字幕| 又黄又粗又硬又大视频| 大香蕉久久网| 久久影院123| 男人添女人高潮全过程视频| av片东京热男人的天堂| 亚洲av综合色区一区| 国产精品 国内视频| 又黄又粗又硬又大视频| 久久女婷五月综合色啪小说| 黄色a级毛片大全视频| 午夜福利一区二区在线看| 十分钟在线观看高清视频www| 欧美成人精品欧美一级黄| 亚洲av国产av综合av卡| 老司机影院成人| 一级毛片黄色毛片免费观看视频| 日日爽夜夜爽网站| 一二三四社区在线视频社区8| 男女国产视频网站| 日韩视频在线欧美| 操美女的视频在线观看| 伊人久久大香线蕉亚洲五| 国产精品一国产av| 久久人人爽人人片av| 大型av网站在线播放| 亚洲精品国产av成人精品| 日韩熟女老妇一区二区性免费视频| 国产精品一区二区免费欧美 | 国产一区有黄有色的免费视频| 在线观看免费午夜福利视频| 亚洲精品在线美女| 亚洲av国产av综合av卡| 手机成人av网站| 51午夜福利影视在线观看| 人妻人人澡人人爽人人| 看十八女毛片水多多多| 欧美日韩视频高清一区二区三区二| 午夜福利一区二区在线看| 一边亲一边摸免费视频| tube8黄色片| 女人精品久久久久毛片| 国产xxxxx性猛交| 啦啦啦在线观看免费高清www| 成年动漫av网址| 欧美国产精品一级二级三级| 午夜福利乱码中文字幕| 免费av中文字幕在线| 欧美黑人精品巨大| 亚洲成av片中文字幕在线观看| 久久青草综合色| 天天添夜夜摸| 777久久人妻少妇嫩草av网站| 亚洲五月婷婷丁香| 亚洲国产欧美日韩在线播放| 欧美人与性动交α欧美精品济南到| 国产一级毛片在线| 欧美日韩一级在线毛片| 男人舔女人的私密视频| 操美女的视频在线观看|