• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BERT的警情文本命名實(shí)體識(shí)別

    2020-04-09 14:49:28王孟軒
    計(jì)算機(jī)應(yīng)用 2020年2期
    關(guān)鍵詞:語(yǔ)言信息模型

    王 月,王孟軒,張 勝,杜 渂*

    (1.迪愛(ài)斯信息技術(shù)股份有限公司,上海200032;2.電信科學(xué)技術(shù)第一研究所,上海200032)

    0 引言

    命名實(shí)體識(shí)別(Named Entity Recognition,NER)是自然語(yǔ)言處理技術(shù)(Natural Language Processing,NLP)中的一個(gè)重要領(lǐng)域[1],也是警情數(shù)據(jù)智能分析的關(guān)鍵。其核心內(nèi)容是找出一套可有效識(shí)別并抽取文本中人名、地名、時(shí)間等實(shí)體要素的算法。近年來(lái),基于神經(jīng)網(wǎng)絡(luò)的命名實(shí)體識(shí)別方法被相繼提出,其主要思路是先使用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、循 環(huán) 神 經(jīng) 網(wǎng) 絡(luò)(Recurrent Neural Network,RNN)等網(wǎng)絡(luò)結(jié)構(gòu)提取序列隱含特征,然后利用條件隨機(jī)場(chǎng)(Conditional Random Field,CRF)求解最優(yōu)序列[2-6],這些算法較經(jīng)典統(tǒng)計(jì)學(xué)習(xí)方法,如隱馬爾可夫模型(Hidden Markov Model,HMM)、條件隨機(jī)場(chǎng)模型(Conditional Random Field,CRF)等性能上有顯著提升[7]。中文命名實(shí)體與英文不同,依賴(lài)分詞的方案無(wú)法解決詞語(yǔ)錯(cuò)分造成的誤差傳遞問(wèn)題,而僅依賴(lài)傳統(tǒng)字符詞向量(Skip-gram、CBOW(Continuous Bag Of Words)等)的方案無(wú)法很好地解決一詞多義問(wèn)題[8],部分工作開(kāi)始探索新型詞向量表達(dá)方法。Peters 等[9]提出的ELMO(Embeddings from Language MOdel)學(xué)習(xí)訓(xùn)練詞向量與上下文的關(guān)系函數(shù)而非詞向量的方式解決上述問(wèn)題;Google[10]則提出一種新型語(yǔ)言模型 BERT(Bidirectional Encoder Representations from Transformers),在各類(lèi)NLP 任務(wù)上均達(dá)到了目前最好的結(jié)果。

    本文提出的BERT-BiLSTM-Attention-CRF模型采用BERT預(yù)訓(xùn)練語(yǔ)言模型訓(xùn)練中文詞向量,較完整地保存了文本語(yǔ)義信息,提升了模型的上下文雙向特征抽取能力,并較好地解決了命名實(shí)體的邊界劃分問(wèn)題;使用句子級(jí)注意力機(jī)制對(duì)文本語(yǔ)義信息進(jìn)行編碼,相比傳統(tǒng)的BiLSTM 模型,對(duì)語(yǔ)義信息的利用更為充分,提升了模型對(duì)實(shí)體的識(shí)別率,模型總體命名實(shí)體識(shí)別精確率達(dá)91%。本文的另一工作在于制定了一套與警情處理相關(guān)的命名實(shí)體識(shí)別標(biāo)準(zhǔn)規(guī)范,并依據(jù)規(guī)范在脫敏數(shù)據(jù)上標(biāo)注實(shí)體,建立相應(yīng)的警情語(yǔ)料數(shù)據(jù)集。以電信詐騙為例,該模型將識(shí)別實(shí)體類(lèi)別從三類(lèi)(人名、地名、機(jī)構(gòu)名)拓展到目前的七類(lèi)(受害人名、案發(fā)時(shí)間、相關(guān)地名、詐騙方法、轉(zhuǎn)賬途徑、損失金額、處理方法)以滿(mǎn)足實(shí)際場(chǎng)景中的業(yè)務(wù)需求。

    1 BERT-BiLSTM-Attention-CRF模型

    模型主要由四部分構(gòu)成,分別是BERT 預(yù)訓(xùn)練語(yǔ)言模型、BiLSTM 層、Attention 層以及CRF 層。模型首先利用BERT 預(yù)訓(xùn)練語(yǔ)言模型對(duì)單個(gè)字符進(jìn)行編碼,得到單個(gè)字符對(duì)應(yīng)的詞向量;接著利用BiLSTM 層對(duì)輸入文本進(jìn)行雙向編碼,在解碼前使用注意力機(jī)制增加上下文相關(guān)的語(yǔ)義信息;最后將包含上下文信息的語(yǔ)義向量輸入CRF 層進(jìn)行解碼,CRF 層可以輸出概率最大的標(biāo)簽序列,從而得到每個(gè)字符的類(lèi)別。

    為提升訓(xùn)練速度,并確保詞向量編碼具有足夠豐富的表征能力,該模型使用的詞向量是在1998 人民日?qǐng)?bào)語(yǔ)料庫(kù)上預(yù)先習(xí)得的。模型整體結(jié)構(gòu)圖1 所示:其中X1,X2,…,XN表示輸入詞向量;緊接著的為BERT 預(yù)訓(xùn)練語(yǔ)言模型層,主要由兩組Transformer 構(gòu)成;H1,H2,…,HN表示BiLSTM 層的隱含向量;Uchar表示Attention 層的加權(quán)函數(shù),用于計(jì)算兩兩單詞之間的關(guān)系權(quán)重;V 為加權(quán)后的拼接向量;接下來(lái)的部分為CRF層,用于計(jì)算每個(gè)輸入向量的實(shí)體類(lèi)別標(biāo)簽,如地址(LOC)、人名(NAME)等實(shí)體類(lèi)別,其中“B-”表示實(shí)體開(kāi)頭,“I-”表示實(shí)體除頭以外部分。

    圖1 BERT-BiLSTM-Attention-CRF模型Fig.1 BERT-BiLSTM-Attention-CRF model

    1.1 符號(hào)約定

    本文設(shè)定wq、wk、wv分別為權(quán)值矩陣的q、k、v 維,Q、K、V為權(quán)值矩陣,W 為偏置矩陣,x、h 為輸入向量和隱向量,b 表示偏置量,P、A為轉(zhuǎn)移矩陣。

    1.2 BERT預(yù)訓(xùn)練語(yǔ)言模型

    語(yǔ)言模型(Language Model,LM)是自然語(yǔ)言處理領(lǐng)域的一個(gè)重要概念,簡(jiǎn)單來(lái)說(shuō),語(yǔ)言模型是計(jì)算任意語(yǔ)言序列w1,w2,…,wn出現(xiàn)概率p(w1,w2,…,wn)的方法,即:

    神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型(Neural Network Language Model,NNLM)最早是Bengio等[11]于2003年提出的,它是關(guān)于計(jì)算給定序列情況下后一個(gè)詞語(yǔ)出現(xiàn)概率的方法。在由詞w1,w2,…,wT構(gòu)成的句子組成的訓(xùn)練集中,神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型的目的是學(xué)到下面的語(yǔ)言表征模型:

    傳統(tǒng)語(yǔ)言模型是靜態(tài)的,無(wú)法根據(jù)上下文很好地表征字詞的多義性等,針對(duì)這個(gè)問(wèn)題,本文采用了BERT 預(yù)訓(xùn)練語(yǔ)言模型,結(jié)構(gòu)圖如圖2 所示,E1,E2,…,EN為模型的輸入向量,T1,T2,…,TN為模型的輸出向量。

    圖2 BERT預(yù)訓(xùn)練語(yǔ)言模型Fig.2 BERT pretraining language model

    BERT 預(yù)訓(xùn)練語(yǔ)言模型采用雙向Transformer 作為特征抽取器,與傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)相比,可以獲取更長(zhǎng)的上下文信息,提升了特征抽取能力;同時(shí),該模型改進(jìn)了常見(jiàn)的雙向語(yǔ)言模型,轉(zhuǎn)而使用上下文融合語(yǔ)言模型,該語(yǔ)言模型不再是簡(jiǎn)單地將從左到右和從右到左的句子編碼簡(jiǎn)單拼接起來(lái),而是隨機(jī)遮擋部分字符(默認(rèn)遮擋15%字符,以下稱(chēng)token),訓(xùn)練中損失函數(shù)只計(jì)算被遮擋的token。遮擋方法如下:

    1)80%被遮擋詞用符號(hào)masked token代替;

    2)10%用隨機(jī)詞替換;

    3)10%不變。

    每個(gè)字符對(duì)應(yīng)的詞向量由三個(gè)向量組成,分別是Token Embeddings、Segment Embeddings 和Position Embeddings。其中,Token Embeddings 為詞向量,第一個(gè)詞為cls,用于下游的分類(lèi)任務(wù);Segment Embeddings 用于區(qū)分不同句子,便于預(yù)訓(xùn)練模型做句子級(jí)別分類(lèi)任務(wù);Position Embeddings 是人為給定的序列位置向量。示意圖如圖3所示。

    圖3 BERT預(yù)訓(xùn)練語(yǔ)言模型的詞向量構(gòu)成Fig.3 Word vector composition of BERT pretraining language model

    此外,增加了句子級(jí)別的訓(xùn)練任務(wù)。該項(xiàng)任務(wù)是在預(yù)訓(xùn)練模型中加入了一個(gè)二分類(lèi)模型,學(xué)習(xí)句子之間的關(guān)系。具體做法是隨機(jī)替換部分句子,利用上一個(gè)句子對(duì)下一個(gè)句子做“是或否”的預(yù)測(cè)。

    BERT 預(yù)訓(xùn)練語(yǔ)言模型使用的Transformer 特征抽取器[12],Transformer是目前自然語(yǔ)言處理領(lǐng)域流行的網(wǎng)絡(luò)結(jié)構(gòu),每個(gè)單元僅由自注意力機(jī)制(self-Attention)和前饋神經(jīng)網(wǎng)絡(luò)(Feed Forward Network)構(gòu)成,單元可以連續(xù)堆疊。其結(jié)構(gòu)圖如圖4所示。

    Transformer 中最重要的結(jié)構(gòu)是自注意力機(jī)制模塊,結(jié)構(gòu)如圖5,圖中MatMul表示矩陣相乘運(yùn)算。

    圖4 Transformer特征抽取器結(jié)構(gòu)Fig.4 Structure of feature extractor Transformer

    圖5 自注意力機(jī)制示意圖Fig.5 Schematic diagram of self-attention mechanism

    在自注意力機(jī)制中,每個(gè)詞對(duì)應(yīng)3 個(gè)不同的向量,它們分別是Query 向量(Q)、Key 向量(K)和Value 向量(V),長(zhǎng)度相同,由嵌入向量乘以三個(gè)不同的權(quán)值矩陣wq、wk、wv得到。

    每個(gè)詞的重要度score由Query向量和Key向量相乘而得:

    Attention 值通過(guò)使用SoftMax 對(duì)score作平滑而得,平滑后的結(jié)果與Value向量相乘:

    實(shí)際使用中,一般先通過(guò)注意力機(jī)制計(jì)算注意力包含注意力的編碼向量Z,然后將Z 送入前饋神經(jīng)網(wǎng)絡(luò)層,用作訓(xùn)練下游任務(wù),即:

    BERT 預(yù)訓(xùn)練模型使用了由多個(gè)自注意力機(jī)制構(gòu)成的多頭注意力機(jī)制(multihead-attention),用于獲取句子級(jí)別的語(yǔ)義信息。

    為解決深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練困難的問(wèn)題,Transformer 模塊還使用了“短路連接”[13]和“層歸一化”[14]方法,見(jiàn)圖4 虛線部分。“短路連接”是殘差網(wǎng)絡(luò)中常使用的方法,它的思路是將前一層信息無(wú)差地傳遞到下一層從而解決深度神經(jīng)網(wǎng)絡(luò)中梯度消失問(wèn)題;“層歸一化”是指對(duì)每一層的激活值進(jìn)行歸一化處理,這樣可以加速模型訓(xùn)練過(guò)程,使得模型盡快收斂。

    1.3 BiLSTM層

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)[15]是神經(jīng)網(wǎng)絡(luò)中一類(lèi)重要的結(jié)構(gòu),自帶時(shí)序性的特點(diǎn)使得這類(lèi)網(wǎng)絡(luò)模型在自然語(yǔ)言處理、序列預(yù)測(cè)等領(lǐng)域具有廣泛應(yīng)用。

    本文使用的長(zhǎng)短期記憶(Long Short Term Memory,LSTM)神經(jīng)網(wǎng)絡(luò)[16]結(jié)構(gòu)是對(duì)傳統(tǒng)RNN 結(jié)構(gòu)作了較大改進(jìn)。LSTM 神經(jīng)網(wǎng)絡(luò)是指一類(lèi)具有記憶單元的循環(huán)神經(jīng)網(wǎng)絡(luò),由Schmidhuber在1997年提出。

    每個(gè)LSTM 單元里最重要的是門(mén)控單元I-gate、F-gate 和O-gate,分別稱(chēng)作輸入門(mén)、遺忘門(mén)和輸出門(mén),均使用前一時(shí)刻的隱藏單元與當(dāng)前時(shí)刻信號(hào)作為門(mén)控單元的輸入,利用Sigmoid函數(shù)進(jìn)行非線性激活,更新方式如下:

    其中:c(t)為L(zhǎng)STM 中的記憶信息,由兩部分組成,分別為遺忘門(mén)f 控制的歷史信息與輸入門(mén)i 控制的當(dāng)前信息。更新方式為:

    隱藏單元的更新由輸出門(mén)o和記憶信息c(t)決定,即:

    傳統(tǒng)單向循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)只能捕捉序列的歷史信息,而序列標(biāo)注等任務(wù)中每個(gè)字的標(biāo)簽與上下文聯(lián)系同樣緊密。受 此 啟 發(fā),Graves 等[17]提 出 了 雙 向 循 環(huán) 神 經(jīng) 網(wǎng) 絡(luò)(Bidirectional RNN,BRNN)結(jié)構(gòu),該模型成功地應(yīng)用于實(shí)體識(shí)別中,并取得了當(dāng)時(shí)最好的結(jié)果。后續(xù),Graves 等[18]提出了BiLSTM 這一改進(jìn)模型,進(jìn)一步提升了模型利用上下文信息的能力,在語(yǔ)音識(shí)別、詞性標(biāo)注、實(shí)體識(shí)別等領(lǐng)域得到了大規(guī)模應(yīng)用。

    1.4 Attention層

    Attention 層主要是用來(lái)獲取上下文相關(guān)的語(yǔ)義信息,經(jīng)過(guò)編碼的隱向量包含豐富的上下文信息特征,然而這些特征具有相同的權(quán)重,因此區(qū)分實(shí)體種類(lèi)時(shí),存在較大誤差。Attention機(jī)制將對(duì)得到的每個(gè)詞向量xi,通過(guò)

    分配權(quán)重αi,其中S 表示由x1,x2,…,xn構(gòu)成的句子。在Attention 中,每個(gè)字符的距離都為1,字符之間的相關(guān)性通過(guò)權(quán)重αi體現(xiàn),便于劃分詞語(yǔ)邊界,從而解決字符級(jí)數(shù)據(jù)集詞語(yǔ)邊界難以區(qū)分的問(wèn)題。

    1.5 CRF層

    條件隨機(jī)場(chǎng)是序列標(biāo)注任務(wù)中的一種常見(jiàn)算法[19],因此可以用于標(biāo)注實(shí)體類(lèi)別。序列標(biāo)注模型中常使用的是線性鏈條件隨機(jī)場(chǎng),是一種根據(jù)輸入序列預(yù)測(cè)輸出序列的判別式模型。對(duì) 于 指 定 序 列X(x1,x2,…,xn),其 對(duì) 應(yīng) 標(biāo) 簽 為Y(y1,y2,…,yn),若滿(mǎn)足下列條件:

    設(shè)P(N,K)為解碼層輸出的權(quán)重矩陣,進(jìn)而可以得出評(píng)估分?jǐn)?shù)S(x,y),即:

    其中:A為轉(zhuǎn)移矩陣,k為標(biāo)簽個(gè)數(shù),n為序列長(zhǎng)度。

    序列標(biāo)簽y的最大概率可以用SoftMax函數(shù)計(jì)算,即:

    訓(xùn)練時(shí)一般使用極大似然法求解P(y|x)的最大后驗(yàn)概率:

    線性條件隨機(jī)場(chǎng)的訓(xùn)練和解碼一般使用Viterbi算法[20]。

    2 數(shù)據(jù)標(biāo)注規(guī)范及評(píng)估方案

    本文使用的數(shù)據(jù)集由10 萬(wàn)字左右的電信詐騙相關(guān)接處警文本構(gòu)成。識(shí)別的實(shí)體為:報(bào)警人姓名、報(bào)警時(shí)間、相關(guān)地點(diǎn)、詐騙手段、詐騙金額,詐騙途徑(包括轉(zhuǎn)賬方式等)和處理方式。

    2.1 標(biāo)注規(guī)范

    數(shù)據(jù)的標(biāo)注采用BIO 三段標(biāo)記法:對(duì)于每個(gè)實(shí)體,將其第一個(gè)字標(biāo)記為“B-(實(shí)體名稱(chēng))”,后續(xù)的標(biāo)記為“I-(實(shí)體名稱(chēng))”,對(duì)于無(wú)關(guān)字,一律標(biāo)記為O。相比BIOES 五段標(biāo)記法,BIO 三段標(biāo)記法最大的優(yōu)點(diǎn)是支持逐字標(biāo)記,BIOES 法需要將單字標(biāo)為“S(Single)”,而這需要先對(duì)數(shù)據(jù)進(jìn)行分詞處理,容易將分詞產(chǎn)生的誤差向下傳播,影響模型最終效果。

    以電信詐騙為例,結(jié)合例子說(shuō)明命名實(shí)體的標(biāo)注規(guī)范。

    相關(guān)人名 將警情文本中的人名信息,例如“張某某”,“冒充宋清云經(jīng)理”中的“宋清云”按<相關(guān)人名>相關(guān)的人名</相關(guān)人名>方式標(biāo)注。

    相關(guān)時(shí)間 將警情文本中的時(shí)間信息,例如“2018年9月15日”“上午7點(diǎn)左右”“國(guó)慶節(jié)那天”等,按照<相關(guān)時(shí)間>相關(guān)的時(shí)間</相關(guān)時(shí)間>方式標(biāo)注。

    相關(guān)地點(diǎn) 警情文本中的地點(diǎn)信息較為雜亂,例如“江南造船廠附近”“光瑞路2 號(hào)”“鼓樓區(qū)”“長(zhǎng)山花園5 號(hào)”,包括小區(qū)、各類(lèi)道路、各種建筑物等名稱(chēng),按照<相關(guān)地點(diǎn)>相關(guān)的地點(diǎn)</相關(guān)地點(diǎn)>方式標(biāo)注。

    詐騙手段 詐騙手段描述較長(zhǎng),例如“幫忙辦理信用卡……”“以交輔導(dǎo)費(fèi)為由,讓……”“冒充其老板向其借錢(qián)”等,均標(biāo)記文本中的首句緣由部分,例如上面三個(gè)例子依次標(biāo)記“辦理信用卡”“以交輔導(dǎo)費(fèi)為由”“冒充其老板”部分。

    詐騙金額 不僅要記金額數(shù)值,還需要將數(shù)值的單位標(biāo)記出來(lái),例如將“300 元”“十萬(wàn)元人民幣”“一百塊錢(qián)”等按<詐騙金額>詐騙的金額</詐騙金額>方式標(biāo)注。

    詐騙途徑 詐騙途徑主要包括轉(zhuǎn)賬途徑一類(lèi)的信息,例如將“通過(guò)中國(guó)銀行轉(zhuǎn)賬”“支付寶轉(zhuǎn)賬”“微信轉(zhuǎn)賬”等按<詐騙途徑>轉(zhuǎn)賬的途徑</詐騙途徑>的規(guī)則標(biāo)注。

    處理方式 將警情文本中的處理方式按<處理方式>具體處理方式</處理方式>。

    標(biāo)記好的數(shù)據(jù)處理后共分16 大類(lèi),分別為B-Name、I-Name、B-Time、I-Time、B-Location、I-Location、B-Reason、I-Reason、B-Money、I-Money、B-Measure、I-Measure、B-Deal、I-Deal、O 和<Padding>。為保證訓(xùn)練時(shí)采用的長(zhǎng)度一致(256×1維),額外添加了一個(gè)占位符<Padding>。

    2.2 評(píng)估標(biāo)準(zhǔn)

    命名實(shí)體識(shí)別的評(píng)價(jià)標(biāo)準(zhǔn)主要包括精確率(P)、召回率(R)和F 值,并定義Tp為模型識(shí)別正確的實(shí)體個(gè)數(shù),F(xiàn)p為模型識(shí)別到的不相關(guān)實(shí)體個(gè)數(shù)、Fn為模型沒(méi)有檢測(cè)到的相關(guān)實(shí)體個(gè)數(shù)。具體公式如下:

    3 實(shí)驗(yàn)及結(jié)果分析

    3.1 實(shí)驗(yàn)環(huán)境

    所有實(shí)驗(yàn)采用的環(huán)境如表1所示。

    表1 實(shí)驗(yàn)環(huán)境Tab.1 Experimental environment

    3.2 參數(shù)設(shè)置

    本文使用的主要參數(shù)包括:BERT預(yù)訓(xùn)練語(yǔ)言模型默認(rèn)使用12 頭注意力機(jī)制的Transformer,預(yù)訓(xùn)練詞向量長(zhǎng)度為768維;單個(gè)處警文本長(zhǎng)度多位于160~300 字,故每次讀取的序列長(zhǎng)度為256,每批次大小為64;優(yōu)化器采用的是Adam[21],學(xué)習(xí)率設(shè)置為5×10-5,實(shí)驗(yàn)結(jié)果顯示較小的學(xué)習(xí)率有助于模型找到最優(yōu)解;丟棄率[22]為0.5;為緩解梯度消失和爆炸的影響,LSTM 隱含單元設(shè)為128,層數(shù)為2;還使用了梯度裁剪技術(shù),clip 設(shè)置為5;Attention 層參數(shù)為64,即每個(gè)詞向量被壓縮為64 維;經(jīng)過(guò)CRF 層的全連接層參數(shù)為16,即分為16 類(lèi),每類(lèi)為16×1維的one-hot向量。

    3.3 結(jié)果分析

    為驗(yàn)證模型的有效性,主要進(jìn)行了四組對(duì)比實(shí)驗(yàn),使用的模型分別為CRF++、BiLSTM-Attention-CRF、BiLSTM-CRF 和BERT-BiLSTM-Attention-CRF。

    其中,CRF++模型使用的是線性立鏈條件隨機(jī)場(chǎng)算法,采用單字匹配的模式,原理是利用特征函數(shù)構(gòu)建特征方程,特征函數(shù)主要包括句子s、詞在句中的位置i以及前一個(gè)詞、后一個(gè)詞的標(biāo)簽;使用梯度下降法訓(xùn)練,解碼時(shí)使用Viterbi 動(dòng)態(tài)規(guī)劃法。

    BiLSTM-CRF 是深度學(xué)習(xí)領(lǐng)域比較有代表性的序列標(biāo)注模型,實(shí)驗(yàn)中采用的是基于字符標(biāo)注的版本,字向量是采用CBOW 在警情語(yǔ)料上預(yù)先訓(xùn)練好的,每個(gè)字向量為128×1維。

    為了比較Attention 在句子語(yǔ)義編碼中的作用,本文設(shè)計(jì)了包含Attention 機(jī)制的BiLSTM-Attention-CRF 模型與BiLSTM-CRF 模型進(jìn)行對(duì)比,除Attention 層以外,其他參數(shù)設(shè)置均相同。

    本文設(shè)計(jì)的BERT-BiLSTM-Attention-CRF 模型采用的字符向量是利用BERT 模型在大規(guī)模中文語(yǔ)料上預(yù)訓(xùn)練好的,字向量為128×1維。

    BERT-BiLSTM-Attention-CRF 模型的損失函數(shù)曲線如圖6所示,其中:val-loss 表示驗(yàn)證集交叉熵?fù)p失值;loss 為訓(xùn)練集交叉熵?fù)p失值。由于采用的是Adam 優(yōu)化器,它可以根據(jù)訓(xùn)練過(guò)程自動(dòng)地調(diào)節(jié)學(xué)習(xí)率,損失函數(shù)曲線有較為明顯的階段性特征。

    圖6 驗(yàn)證集與訓(xùn)練集損失函數(shù)曲線Fig.6 Loss curve of validation set and training set

    三組實(shí)驗(yàn)的結(jié)果如表2所示。

    表2 各個(gè)模型的命名實(shí)體識(shí)別結(jié)果Tab.2 Results of named entity recognition of each model

    本文對(duì)比了各個(gè)模型在測(cè)試集上的具體表現(xiàn),各類(lèi)實(shí)體標(biāo)記結(jié)果方式如下,其中XX 表示文字,下劃線用于標(biāo)識(shí)各類(lèi)實(shí)體。

    CRF++標(biāo)記結(jié)果如下:

    BiLSTM-Attention-CRF標(biāo)記結(jié)果如下:

    BiLSTM-CRF標(biāo)記結(jié)果如下:

    BERT-BiLSTM-Attention-CRF標(biāo)記結(jié)果如下:

    由上述結(jié)果可以看出,CRF++模型無(wú)法準(zhǔn)確抽取實(shí)體邊界信息,甚至有錯(cuò)抽和誤抽的情況。這主要是由于CRF++模型的實(shí)體抽取建立在分詞基礎(chǔ)上,而時(shí)間、地點(diǎn)包括姓名一類(lèi)的實(shí)體均屬于未登錄詞范疇,模型對(duì)這一類(lèi)的未登錄詞識(shí)別較弱。BiLSTM-Attention-CRF 模型相比BiLSTM-CRF 和CRF++,在實(shí)體識(shí)別上準(zhǔn)確率較高,邊界劃分也更為準(zhǔn)確,但對(duì)于“詐騙途徑”這類(lèi)實(shí)體的識(shí)別較差;本文模型對(duì)實(shí)體邊界的劃分較以上模型更為準(zhǔn)確,例如可以將地點(diǎn)信息“北京”“廣州”準(zhǔn)確抽取出來(lái),且對(duì)“詐騙手段”的識(shí)別也較為靈活,不拘泥于部分常見(jiàn)詞語(yǔ),而將相關(guān)的語(yǔ)義信息全部標(biāo)記出來(lái)。

    根據(jù)表2,本文提出的BERT-BiLSTM-Attention-CRF 模型準(zhǔn)確率比CRF++的基準(zhǔn)模型高7%,F(xiàn)1值高0.18,表明神經(jīng)網(wǎng)絡(luò)在特征抽取能力上比傳統(tǒng)統(tǒng)計(jì)學(xué)模型要更強(qiáng);與BiLSTMAttention-CRF 模型相比,準(zhǔn)確率提升了7%,表明BERTBiLSTM-Attention-CRF 模型使用的BERT 詞向量預(yù)訓(xùn)練模型較word2vec 訓(xùn)練的一類(lèi)靜態(tài)語(yǔ)言模型,在把握語(yǔ)義方面更加精準(zhǔn),對(duì)于實(shí)體識(shí)別等自然語(yǔ)言處理任務(wù)的性能提升有較大影響。

    在測(cè)試集上的實(shí)驗(yàn)表明,使用Attention 機(jī)制在語(yǔ)義編碼時(shí)效果最佳,如BERT-BiLSTM-Attention-CRF模型不僅可以準(zhǔn)確地抽取姓名要素,對(duì)地點(diǎn)、時(shí)間等實(shí)體的抽取也更為靈活,“從南京到廣州”遠(yuǎn)比“南京”“廣州”語(yǔ)義信息豐富,對(duì)于較復(fù)雜的原因類(lèi)實(shí)體,也可以得到“運(yùn)輸信息,謊稱(chēng)”的字樣,比單純的“謊稱(chēng)”要更為實(shí)用。

    BERT-BiLSTM-Attention-CRF 模型對(duì)各類(lèi)實(shí)體的識(shí)別率見(jiàn)表3。

    表3 各類(lèi)實(shí)體的識(shí)別率Tab.3 Recognition rate of different named entities

    本文提出的模型對(duì)于案發(fā)時(shí)間、受害人名、詐騙金額以及處理方式這四類(lèi)實(shí)體具有較高的識(shí)別率和F1 值,對(duì)相關(guān)地點(diǎn)、詐騙手段、轉(zhuǎn)賬途徑等實(shí)體識(shí)別率較低,這主要是因?yàn)檫@些實(shí)體描述方式過(guò)于多樣,難以找到通用規(guī)則表述,例如相關(guān)地點(diǎn)中包括住宅地址、公司名、廣場(chǎng)名等多種類(lèi)型,找出一個(gè)通用規(guī)則的方法尚不理想。這些問(wèn)題可以通過(guò)對(duì)各個(gè)實(shí)體類(lèi)別作進(jìn)一步細(xì)分來(lái)解決。

    4 結(jié)語(yǔ)

    基于BERT 的命名實(shí)體識(shí)別模型與傳統(tǒng)模型相比,在準(zhǔn)確率、召回率和F1 值上均有較大程度的提升,對(duì)報(bào)警文本中的常見(jiàn)實(shí)體例如案發(fā)時(shí)間、受害人名、處理方式等具有較高的識(shí)別率,可以滿(mǎn)足部分業(yè)務(wù)需求。為進(jìn)一步提升模型的性能,后續(xù)可以從細(xì)化、完善各類(lèi)實(shí)體的標(biāo)記規(guī)則和拓展語(yǔ)料規(guī)模等方面著手。

    由于命名實(shí)體的分布數(shù)目分布不均勻,單純地使用各個(gè)實(shí)體權(quán)重相同的損失函數(shù)進(jìn)行訓(xùn)練效果不是很好,可以設(shè)計(jì)基于各類(lèi)實(shí)體數(shù)目分布的加權(quán)損失函數(shù)進(jìn)一步優(yōu)化,提升部分稀疏實(shí)體的識(shí)別率。

    猜你喜歡
    語(yǔ)言信息模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    語(yǔ)言是刀
    文苑(2020年4期)2020-05-30 12:35:30
    讓語(yǔ)言描寫(xiě)搖曳多姿
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    累積動(dòng)態(tài)分析下的同聲傳譯語(yǔ)言壓縮
    3D打印中的模型分割與打包
    我有我語(yǔ)言
    展會(huì)信息
    少妇熟女aⅴ在线视频| 伦理电影免费视频| 欧美国产日韩亚洲一区| 91老司机精品| 波多野结衣巨乳人妻| 99久久99久久久精品蜜桃| 中文字幕高清在线视频| 国产99白浆流出| 婷婷六月久久综合丁香| 淫秽高清视频在线观看| 国内精品久久久久久久电影| 精品卡一卡二卡四卡免费| 亚洲中文字幕一区二区三区有码在线看 | 色精品久久人妻99蜜桃| √禁漫天堂资源中文www| 高潮久久久久久久久久久不卡| 黄色成人免费大全| 999久久久国产精品视频| 中文字幕人妻丝袜一区二区| 国产精品精品国产色婷婷| 在线观看免费午夜福利视频| 精品久久久久久久人妻蜜臀av| 亚洲一区二区三区色噜噜| 午夜免费观看网址| 久久性视频一级片| 看免费av毛片| 999久久久国产精品视频| 亚洲熟妇中文字幕五十中出| 国产精品美女特级片免费视频播放器 | 老鸭窝网址在线观看| 亚洲第一欧美日韩一区二区三区| 欧美不卡视频在线免费观看 | 91成年电影在线观看| 国产精品,欧美在线| 国产成人精品无人区| 成人国语在线视频| 亚洲国产精品合色在线| 国产免费av片在线观看野外av| 亚洲七黄色美女视频| 亚洲一区高清亚洲精品| 久久精品亚洲精品国产色婷小说| 亚洲 国产 在线| 午夜a级毛片| 亚洲精品久久成人aⅴ小说| 最好的美女福利视频网| 美女高潮喷水抽搐中文字幕| 国产亚洲欧美在线一区二区| 国产精品 国内视频| 99热6这里只有精品| 亚洲在线自拍视频| 亚洲欧美精品综合一区二区三区| 神马国产精品三级电影在线观看 | 男女下面进入的视频免费午夜 | 国产成人一区二区三区免费视频网站| 成人三级做爰电影| 精品高清国产在线一区| 身体一侧抽搐| 久久久久久人人人人人| 国产不卡一卡二| 免费高清在线观看日韩| 国产av又大| 很黄的视频免费| 黄片播放在线免费| 侵犯人妻中文字幕一二三四区| 在线视频色国产色| 国产一区二区在线av高清观看| 99国产综合亚洲精品| 国产精品 国内视频| 大香蕉久久成人网| 国产成人av教育| 亚洲免费av在线视频| 免费在线观看亚洲国产| 亚洲天堂国产精品一区在线| 精品不卡国产一区二区三区| 亚洲国产欧洲综合997久久, | 一边摸一边做爽爽视频免费| АⅤ资源中文在线天堂| 一级作爱视频免费观看| 国产成人精品久久二区二区免费| 18禁黄网站禁片免费观看直播| 亚洲欧美一区二区三区黑人| svipshipincom国产片| 午夜激情av网站| 久热这里只有精品99| 麻豆av在线久日| 中文在线观看免费www的网站 | 99热只有精品国产| 真人一进一出gif抽搐免费| 国内精品久久久久精免费| 亚洲一区二区三区色噜噜| 在线天堂中文资源库| 免费在线观看黄色视频的| 黄色毛片三级朝国网站| 国产成人系列免费观看| 人成视频在线观看免费观看| 高潮久久久久久久久久久不卡| 一进一出抽搐gif免费好疼| 欧美激情极品国产一区二区三区| 久久久久久亚洲精品国产蜜桃av| 午夜激情av网站| 国产91精品成人一区二区三区| 亚洲成av人片免费观看| 夜夜躁狠狠躁天天躁| 每晚都被弄得嗷嗷叫到高潮| 视频区欧美日本亚洲| 精品无人区乱码1区二区| 亚洲国产日韩欧美精品在线观看 | 国产高清videossex| 在线观看66精品国产| 国产91精品成人一区二区三区| 制服诱惑二区| 搡老熟女国产l中国老女人| 2021天堂中文幕一二区在线观 | 黄网站色视频无遮挡免费观看| 国产精品二区激情视频| 99久久精品国产亚洲精品| 精品卡一卡二卡四卡免费| 亚洲国产精品999在线| cao死你这个sao货| 最近最新中文字幕大全电影3 | 午夜福利在线观看吧| 啦啦啦免费观看视频1| 他把我摸到了高潮在线观看| 麻豆国产av国片精品| 免费一级毛片在线播放高清视频| 国产成人系列免费观看| 男人的好看免费观看在线视频 | 国产亚洲av高清不卡| 亚洲精品色激情综合| 国产极品粉嫩免费观看在线| 亚洲av片天天在线观看| 男女做爰动态图高潮gif福利片| 嫁个100分男人电影在线观看| 50天的宝宝边吃奶边哭怎么回事| 91成人精品电影| cao死你这个sao货| 丁香六月欧美| 无遮挡黄片免费观看| 69av精品久久久久久| 亚洲男人的天堂狠狠| 中文亚洲av片在线观看爽| 在线天堂中文资源库| 夜夜夜夜夜久久久久| 成年版毛片免费区| 变态另类丝袜制服| 性欧美人与动物交配| av免费在线观看网站| 亚洲成av片中文字幕在线观看| 欧美一区二区精品小视频在线| 欧洲精品卡2卡3卡4卡5卡区| xxx96com| 国产成+人综合+亚洲专区| 国产精品亚洲一级av第二区| 18禁黄网站禁片免费观看直播| 国产一区二区三区在线臀色熟女| 别揉我奶头~嗯~啊~动态视频| 级片在线观看| 国产精品国产高清国产av| 欧美日本亚洲视频在线播放| 国产午夜精品久久久久久| 欧美黑人巨大hd| 91麻豆av在线| 亚洲av片天天在线观看| 老熟妇仑乱视频hdxx| 深夜精品福利| 18禁裸乳无遮挡免费网站照片 | 亚洲国产欧美日韩在线播放| 日韩欧美免费精品| 精品一区二区三区av网在线观看| 欧美日本亚洲视频在线播放| 桃红色精品国产亚洲av| 亚洲av成人一区二区三| 草草在线视频免费看| 午夜精品在线福利| 不卡av一区二区三区| 在线永久观看黄色视频| 最新在线观看一区二区三区| 亚洲人成网站在线播放欧美日韩| 亚洲成人国产一区在线观看| а√天堂www在线а√下载| 一级片免费观看大全| 亚洲精华国产精华精| 国产激情久久老熟女| 亚洲av五月六月丁香网| 日韩成人在线观看一区二区三区| 亚洲性夜色夜夜综合| 人人妻人人澡人人看| 一级毛片精品| 每晚都被弄得嗷嗷叫到高潮| 男女床上黄色一级片免费看| 精品欧美国产一区二区三| 欧美久久黑人一区二区| 亚洲国产高清在线一区二区三 | 国内少妇人妻偷人精品xxx网站 | 精品无人区乱码1区二区| 淫秽高清视频在线观看| 精品欧美国产一区二区三| 一级毛片女人18水好多| 亚洲电影在线观看av| 1024香蕉在线观看| 亚洲精华国产精华精| 国产精品永久免费网站| 国产精品国产高清国产av| 国产又色又爽无遮挡免费看| 亚洲国产精品成人综合色| 亚洲avbb在线观看| 色婷婷久久久亚洲欧美| 精华霜和精华液先用哪个| 亚洲性夜色夜夜综合| 欧美成狂野欧美在线观看| 热99re8久久精品国产| 国产99久久九九免费精品| 久久久久免费精品人妻一区二区 | 久热这里只有精品99| 十八禁人妻一区二区| 久久热在线av| 国产99白浆流出| 久久精品影院6| 久9热在线精品视频| 人妻丰满熟妇av一区二区三区| 亚洲精品在线美女| 天堂动漫精品| 99精品久久久久人妻精品| 丁香六月欧美| 久久香蕉精品热| 免费在线观看完整版高清| 国产熟女午夜一区二区三区| 成人一区二区视频在线观看| 老汉色∧v一级毛片| 天堂√8在线中文| 久久香蕉激情| 免费一级毛片在线播放高清视频| 嫩草影视91久久| 国产精品精品国产色婷婷| 国产精品亚洲av一区麻豆| 无限看片的www在线观看| 欧美在线黄色| 国产精品久久视频播放| 国产精品一区二区免费欧美| 国产一级毛片七仙女欲春2 | 日韩大尺度精品在线看网址| 成人特级黄色片久久久久久久| 久久中文看片网| 好男人在线观看高清免费视频 | 成人免费观看视频高清| 午夜激情福利司机影院| 国产精品亚洲美女久久久| 国产一区在线观看成人免费| 中亚洲国语对白在线视频| 久久热在线av| ponron亚洲| 亚洲人成77777在线视频| 99久久精品国产亚洲精品| 国产免费男女视频| 久久国产精品男人的天堂亚洲| 亚洲黑人精品在线| 50天的宝宝边吃奶边哭怎么回事| 夜夜看夜夜爽夜夜摸| 哪里可以看免费的av片| 午夜老司机福利片| 好看av亚洲va欧美ⅴa在| 国产在线观看jvid| 夜夜爽天天搞| 亚洲在线自拍视频| 自线自在国产av| 亚洲九九香蕉| 黄色丝袜av网址大全| 日韩欧美一区视频在线观看| 香蕉国产在线看| 看黄色毛片网站| 一a级毛片在线观看| 18禁美女被吸乳视频| 亚洲成av人片免费观看| 日日摸夜夜添夜夜添小说| 2021天堂中文幕一二区在线观 | 搞女人的毛片| 国产主播在线观看一区二区| 男人的好看免费观看在线视频 | 不卡av一区二区三区| 黄色女人牲交| 国产av又大| 好看av亚洲va欧美ⅴa在| 久久精品夜夜夜夜夜久久蜜豆 | 日本a在线网址| 一本精品99久久精品77| 亚洲专区中文字幕在线| 亚洲七黄色美女视频| 亚洲国产精品久久男人天堂| 国产99白浆流出| 亚洲性夜色夜夜综合| 精品久久久久久成人av| 999久久久精品免费观看国产| 琪琪午夜伦伦电影理论片6080| 免费看日本二区| 麻豆成人av在线观看| 亚洲精品国产精品久久久不卡| 国产区一区二久久| 成年版毛片免费区| 长腿黑丝高跟| 国产成人欧美在线观看| 国产亚洲精品久久久久久毛片| 亚洲中文av在线| 中出人妻视频一区二区| 久久香蕉精品热| 精品久久久久久久毛片微露脸| 成人三级做爰电影| 欧美日韩黄片免| 成在线人永久免费视频| 国内久久婷婷六月综合欲色啪| 国产爱豆传媒在线观看 | 国产成人影院久久av| 国产激情偷乱视频一区二区| 美女午夜性视频免费| 男人的好看免费观看在线视频 | 动漫黄色视频在线观看| 免费高清在线观看日韩| 成人18禁在线播放| 好男人电影高清在线观看| 欧美黑人巨大hd| 日日摸夜夜添夜夜添小说| 精品国产一区二区三区四区第35| 男人的好看免费观看在线视频 | 精品不卡国产一区二区三区| 欧美日韩中文字幕国产精品一区二区三区| 中出人妻视频一区二区| 999精品在线视频| 免费观看人在逋| 淫妇啪啪啪对白视频| 嫩草影视91久久| 精品久久久久久久末码| 亚洲av中文字字幕乱码综合 | 欧美国产日韩亚洲一区| 身体一侧抽搐| 日本免费a在线| 午夜免费鲁丝| 国产一区在线观看成人免费| 亚洲一卡2卡3卡4卡5卡精品中文| 欧美乱色亚洲激情| 人人妻,人人澡人人爽秒播| 极品教师在线免费播放| 成人18禁高潮啪啪吃奶动态图| 人人妻,人人澡人人爽秒播| 一边摸一边抽搐一进一小说| 91在线观看av| 久久精品夜夜夜夜夜久久蜜豆 | 日韩高清综合在线| 在线观看舔阴道视频| 亚洲,欧美精品.| av片东京热男人的天堂| 亚洲中文字幕日韩| 精品国产乱码久久久久久男人| 精品第一国产精品| 美女大奶头视频| 午夜精品久久久久久毛片777| 天天一区二区日本电影三级| 亚洲熟妇熟女久久| 亚洲avbb在线观看| 成人国产一区最新在线观看| 亚洲精品久久国产高清桃花| 精品国产国语对白av| 久久天堂一区二区三区四区| 十分钟在线观看高清视频www| 亚洲三区欧美一区| 一夜夜www| 日日摸夜夜添夜夜添小说| 久久婷婷人人爽人人干人人爱| 在线看三级毛片| 一区二区三区激情视频| 91av网站免费观看| 啦啦啦观看免费观看视频高清| 巨乳人妻的诱惑在线观看| 麻豆国产av国片精品| 精品福利观看| 久久中文字幕人妻熟女| 日本一本二区三区精品| 亚洲第一av免费看| 女警被强在线播放| 麻豆成人av在线观看| 免费女性裸体啪啪无遮挡网站| 国产成人av激情在线播放| 美女免费视频网站| 人人妻人人澡人人看| 亚洲中文字幕日韩| 国产成人精品久久二区二区91| 可以在线观看毛片的网站| 欧美黑人精品巨大| 国产区一区二久久| 国产精品综合久久久久久久免费| 一级片免费观看大全| 国产伦一二天堂av在线观看| 久久精品影院6| 丰满人妻熟妇乱又伦精品不卡| 村上凉子中文字幕在线| 99精品久久久久人妻精品| 麻豆成人av在线观看| 亚洲欧美一区二区三区黑人| 亚洲中文日韩欧美视频| 亚洲成av片中文字幕在线观看| 午夜久久久在线观看| 国产亚洲精品第一综合不卡| 最近在线观看免费完整版| 亚洲色图av天堂| 听说在线观看完整版免费高清| 淫妇啪啪啪对白视频| 草草在线视频免费看| 欧美黄色淫秽网站| 国内少妇人妻偷人精品xxx网站 | 亚洲国产看品久久| 97超级碰碰碰精品色视频在线观看| 亚洲精品中文字幕在线视频| 久久精品国产亚洲av高清一级| 色播在线永久视频| 十八禁网站免费在线| 国产激情久久老熟女| 午夜福利18| 无人区码免费观看不卡| 亚洲国产高清在线一区二区三 | 777久久人妻少妇嫩草av网站| 女性生殖器流出的白浆| 欧美大码av| 丁香欧美五月| 久久这里只有精品19| 欧美日韩黄片免| 日本 欧美在线| 欧美 亚洲 国产 日韩一| av有码第一页| 精品第一国产精品| 两个人免费观看高清视频| 免费看日本二区| 波多野结衣高清无吗| 麻豆国产av国片精品| 侵犯人妻中文字幕一二三四区| 亚洲七黄色美女视频| 国产熟女xx| 啦啦啦 在线观看视频| 日本一本二区三区精品| 日韩欧美一区视频在线观看| 免费看日本二区| 久久欧美精品欧美久久欧美| 国产真实乱freesex| 精品不卡国产一区二区三区| 免费搜索国产男女视频| 欧美精品亚洲一区二区| 禁无遮挡网站| 波多野结衣高清无吗| 狂野欧美激情性xxxx| 婷婷六月久久综合丁香| 中文字幕久久专区| 国产精品av久久久久免费| 亚洲最大成人中文| 一区二区三区精品91| 午夜福利高清视频| 国产精品亚洲av一区麻豆| 国产高清激情床上av| 最近最新中文字幕大全电影3 | 中文在线观看免费www的网站 | 国产精品美女特级片免费视频播放器 | 99久久精品国产亚洲精品| 久久热在线av| 露出奶头的视频| 国产伦在线观看视频一区| 成在线人永久免费视频| 国产乱人伦免费视频| 国产精华一区二区三区| 婷婷精品国产亚洲av在线| 国产亚洲欧美精品永久| 免费在线观看完整版高清| 免费一级毛片在线播放高清视频| 一夜夜www| 免费无遮挡裸体视频| 99久久无色码亚洲精品果冻| 亚洲精品中文字幕在线视频| 欧美丝袜亚洲另类 | 韩国精品一区二区三区| 久久久久国产一级毛片高清牌| 国产欧美日韩一区二区三| 国产激情欧美一区二区| 少妇裸体淫交视频免费看高清 | 精品电影一区二区在线| 99久久综合精品五月天人人| 香蕉av资源在线| 黄色毛片三级朝国网站| 亚洲一码二码三码区别大吗| 欧美日韩黄片免| 国产视频内射| 他把我摸到了高潮在线观看| 国产1区2区3区精品| 亚洲精品中文字幕一二三四区| 欧美成人午夜精品| 很黄的视频免费| 欧美黑人精品巨大| 亚洲精品av麻豆狂野| 亚洲av第一区精品v没综合| 国产精品亚洲一级av第二区| 非洲黑人性xxxx精品又粗又长| 久久狼人影院| 欧美最黄视频在线播放免费| 免费观看人在逋| 国产精品亚洲一级av第二区| 免费在线观看亚洲国产| 国产免费av片在线观看野外av| 日日摸夜夜添夜夜添小说| 日日干狠狠操夜夜爽| 久久香蕉精品热| 很黄的视频免费| 久久精品国产亚洲av香蕉五月| 亚洲精品av麻豆狂野| 日日干狠狠操夜夜爽| 久久久久久免费高清国产稀缺| 中文字幕精品亚洲无线码一区 | 国产精品亚洲av一区麻豆| 午夜免费观看网址| 9191精品国产免费久久| av超薄肉色丝袜交足视频| 一进一出抽搐gif免费好疼| 婷婷丁香在线五月| 深夜精品福利| 搞女人的毛片| tocl精华| 欧美在线黄色| 日日夜夜操网爽| 两个人视频免费观看高清| 亚洲精品国产区一区二| 免费看日本二区| 男女床上黄色一级片免费看| 亚洲自偷自拍图片 自拍| a在线观看视频网站| 97碰自拍视频| 欧洲精品卡2卡3卡4卡5卡区| 女性生殖器流出的白浆| 国产精品1区2区在线观看.| 国产熟女午夜一区二区三区| 午夜福利欧美成人| 一级毛片精品| 亚洲国产欧美一区二区综合| 亚洲专区中文字幕在线| 国产精品 欧美亚洲| 久久香蕉国产精品| 国产黄片美女视频| 亚洲成人久久爱视频| 午夜a级毛片| 国产激情偷乱视频一区二区| a级毛片在线看网站| 韩国精品一区二区三区| 精品久久久久久久久久久久久 | 一级毛片女人18水好多| 欧美zozozo另类| 亚洲成人久久性| 91麻豆av在线| 亚洲精品色激情综合| 欧美 亚洲 国产 日韩一| 国产av又大| 日韩 欧美 亚洲 中文字幕| 国产激情欧美一区二区| 一级片免费观看大全| 欧美又色又爽又黄视频| 日韩欧美国产在线观看| 精品国产乱码久久久久久男人| 久久久久久免费高清国产稀缺| 久久草成人影院| 波多野结衣高清作品| 国产精品国产高清国产av| 国产麻豆成人av免费视频| 日韩欧美一区二区三区在线观看| 国产亚洲精品综合一区在线观看 | 欧美大码av| 免费观看人在逋| 老司机靠b影院| 亚洲男人的天堂狠狠| 视频区欧美日本亚洲| 国产亚洲av高清不卡| 女人被狂操c到高潮| 天堂动漫精品| 手机成人av网站| 一进一出抽搐动态| 久久精品国产清高在天天线| 熟妇人妻久久中文字幕3abv| 别揉我奶头~嗯~啊~动态视频| 久热这里只有精品99| 欧美乱码精品一区二区三区| 成年人黄色毛片网站| 久久狼人影院| 亚洲av成人一区二区三| 青草久久国产| 国产不卡一卡二| 在线国产一区二区在线| 禁无遮挡网站| 亚洲国产看品久久| 亚洲av成人一区二区三| 亚洲成人免费电影在线观看| 99精品久久久久人妻精品| 两个人免费观看高清视频| 久久久久免费精品人妻一区二区 | 久热爱精品视频在线9| 亚洲免费av在线视频| АⅤ资源中文在线天堂| 亚洲av五月六月丁香网| 欧美色欧美亚洲另类二区| 国产精品二区激情视频| 免费无遮挡裸体视频| xxxwww97欧美| 久久精品影院6| 在线观看66精品国产| 亚洲成国产人片在线观看| 国产一区二区激情短视频| 黄色成人免费大全| 性欧美人与动物交配| 国产午夜精品久久久久久| 日本成人三级电影网站| 精品欧美一区二区三区在线| 女生性感内裤真人,穿戴方法视频| 激情在线观看视频在线高清| 97超级碰碰碰精品色视频在线观看| 亚洲av成人av| 日本成人三级电影网站|