• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BERT和聯(lián)合學(xué)習(xí)的裁判文書命名實(shí)體識別

    2022-11-08 12:42:14曾蘭蘭王以松陳攀峰
    計算機(jī)應(yīng)用 2022年10期
    關(guān)鍵詞:分詞命名實(shí)體

    曾蘭蘭,王以松,陳攀峰

    (貴州大學(xué) 計算機(jī)科學(xué)與技術(shù)學(xué)院,貴陽 550025)

    0 引言

    近年來,大數(shù)據(jù)和人工智能技術(shù)的快速發(fā)展使得法院信息化建設(shè)的進(jìn)程不斷加快,多種自然語言處理技術(shù)被應(yīng)用到了法律領(lǐng)域中[1]。命名實(shí)體識別(Named Entity Recognition,NER)是構(gòu)建法律知識圖譜的一項(xiàng)關(guān)鍵技術(shù)[2],而目前針對裁判文書的命名實(shí)體識別的研究尚且處于起步階段,相關(guān)工作并不多。裁判文書具有一定的格式規(guī)范,對于一些格式規(guī)范、表達(dá)方式單一的實(shí)體可以直接利用規(guī)則進(jìn)行抽取,如佘貴清等[3]利用正則表達(dá)式構(gòu)建規(guī)則模板來對刑事判決書中的被告人信息、辯護(hù)人信息和量刑情節(jié)等進(jìn)行抽?。凰蝹鲗殻?]通過編寫基于規(guī)則的實(shí)體識別引擎(Java Annotation Patterns Engine,JAPE)規(guī)則實(shí)現(xiàn)了對案號、案件類型和審判時間等實(shí)體的抽取。但如受害人、作案工具和案發(fā)起因之類實(shí)體的表達(dá)方式復(fù)雜多樣,并不能通過直接通過規(guī)則進(jìn)行抽取。目前針對這類復(fù)雜的實(shí)體可使用神經(jīng)網(wǎng)絡(luò)模型進(jìn)行識別,但需解決以下兩個方面的問題:

    1)多義詞表示問題。裁判文書中存在大量的多義詞,例如“他一下把刀奪了過來”和“他推了董某一下”中“一下”這個詞的上下文語境理應(yīng)是不一樣,如果使用Word2vec[5]等靜態(tài)詞向量作為模型輸入將無法對這些多義詞進(jìn)行表示。

    2)實(shí)體邊界識別錯誤問題。雖然使用詞向量作為模型的輸入能給模型提供一些實(shí)體的邊界信息,但詞向量的構(gòu)建首先需要對文本進(jìn)行分詞,由于裁判文書中專業(yè)術(shù)語較多,單獨(dú)利用分詞工具進(jìn)行分詞則會帶來分詞錯誤,如分詞工具會將“不銹鋼碗”這個實(shí)體分成“不/銹/鋼碗”,這可能會導(dǎo)致模型將該實(shí)體識別成“鋼碗”。

    針對上述問題,在BiLSTM-CRF(Bidirectional Long Short-Term Memory with a sequential Conditional Random Field)模型[6]的基礎(chǔ)上,本文提出了一種基于聯(lián)合學(xué)習(xí)和BERT(Bidirectional Encoder Representation from Transformers)[7]的BiLSTM-CRF模型,即JLB-BiLSTM-CRF(BiLSTM-CRF based on Joint Learning and BERT)模型。與僅使用雙向長短期記憶(BiLSTM)網(wǎng)絡(luò)來提取文本特征的BiLSTM-CRF 模型不同,除使用BiLSTM 網(wǎng)絡(luò)建模長文本信息外,JLB-BiLSTM-CRF 模型還使用BERT 對輸入的字符序列進(jìn)行編碼,在避免分詞錯誤的同時通過對BERT 進(jìn)行微調(diào)可以提升詞向量的表征能力,從而解決一詞多義問題;此外,該模型將命名實(shí)體識別任務(wù)與分詞任務(wù)進(jìn)行聯(lián)合學(xué)習(xí),通過讓它們共享相同的BERT嵌入層,以此來提升實(shí)體的邊界識別率。由于尚未有公開的裁判文書數(shù)據(jù)集可供使用,本文針對2 700 篇刑事裁判文書進(jìn)行了標(biāo)注。在該數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,本文模型能有效提升多類實(shí)體的識別效果。

    1 相關(guān)工作

    基于詞典和規(guī)則的命名實(shí)體識別方法需要人工去制定規(guī)則或詞典,可移植性差,代價高。隨著語料集的豐富,一些統(tǒng)計學(xué)習(xí)方法如隱馬爾可夫模型(Hidden Markov Model,HMM)[8]、條件隨機(jī)場(Conditional Random Field,CRF)[9]、支持向量機(jī)(Support Vector Machine,SVM)[10]也被應(yīng)用于命名實(shí)體識別中,但特征的提取依賴于人工,泛化能力不強(qiáng)。神經(jīng)網(wǎng)絡(luò)模型能自動進(jìn)行特征的提取,不依賴于繁瑣的特征工程,所以近年來神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于命名實(shí)體識別任務(wù)中,如Hammerton[11]首次將長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)應(yīng)用于命名實(shí)體識別任務(wù)中;相較于LSTM 的單向編碼,Lample等[6]提出的BiLSTM-CRF 模型則使用BiLSTM 捕獲句子的雙向語義,并通過CRF 層預(yù)測出每個詞的標(biāo)簽;Zhang等[12]利用外部詞典將詞向量信息融入到了字向量中,有效避免了分詞錯誤問題;Dong等[13]提出的Radical-BiLSTM-CRF 模型能學(xué)習(xí)到中文字符級別及其部首級別的表示,在無需精心設(shè)計特征的情況下能獲得更好的性能。除了利用BiLSTM 網(wǎng)絡(luò)提取特征之外,也有一些工作將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)應(yīng)用到了命名實(shí)體識別領(lǐng)域中,如Strubell等[14]使用迭代膨脹卷積神經(jīng)網(wǎng)絡(luò)(Iterated Dilated CNN,IDCNN)替代BiLSTM,與CRF層結(jié)合組成IDCNN-CRF 模型,在捕獲到更大范圍的序列信息的同時還能加快模型的訓(xùn)練速度;而Ma等[15]提出的BiLSTM-CNNs-CRF 模型能夠自動學(xué)習(xí)到詞級別和字符級別的表示。由于Word2vec 之類的靜態(tài)語言模型無法對多義詞進(jìn)行表示,而BERT[7]模型具有表征一詞多義的能力,在多個領(lǐng)域的命名實(shí)體識別任務(wù)上都取得了很好的效果,如Liu等[16]利用BERT-BiLSTM-CRF 從非結(jié)構(gòu)化的歷史文本數(shù)據(jù)中提取實(shí)體信息,在歷史文化領(lǐng)域的命名實(shí)體識別任務(wù)中取得了良好的效果;針對中文電子病歷命名實(shí)體識別任務(wù),Li等[17]為了利用到未標(biāo)記的特定領(lǐng)域知識,使用未標(biāo)記的中文電子病歷對BERT 模型進(jìn)行了預(yù)訓(xùn)練,并加入了字典特征和部首特征以提升模型性能;使用相關(guān)任務(wù)聯(lián)合訓(xùn)練命名實(shí)體識別模型能有效提升實(shí)體的識別效果,如Wang等[18]通過讓在不同數(shù)據(jù)集上訓(xùn)練的生物醫(yī)學(xué)命名實(shí)體識別模型共享參數(shù)以學(xué)習(xí)到更通用的詞向量表示;Tong等[19]將實(shí)體的分類任務(wù)作為輔助任務(wù)聯(lián)合訓(xùn)練命名實(shí)體識別模型,能在低資源場景下取得更好性能。

    在司法領(lǐng)域也有一些關(guān)于命名實(shí)體識別的研究,如Huang等[20]使用了句向量 的分布記憶模 型(Distributed Memory model of Paragraph Vector,PV-DM)來學(xué)習(xí)更魯棒的句子向量表示并改進(jìn)了Viterbi 算法來提升模型的效率;Wang等[21]提出的Attention-BiLSTM-CRF 模型除使用BiLSTM進(jìn)行序列建模外還利用了注意力機(jī)制提取句子內(nèi)部的局部特征;王得賢等[22]提出的融合字、詞和自注意力的雙重LSTM(Join Character Word and Attenion-Dual Long Short-Term Memory,JCWA-DLSTM)模型分別使用了字符模型和自注意力機(jī)制獲取詞語的表示和句子的內(nèi)部表示,將這兩種語義表示進(jìn)行拼接融合后的句子語義表示能有效提升法律實(shí)體的邊界識別率。

    上述法律命名實(shí)體識別模型大多利用靜態(tài)的詞向量作為模型的輸入,但靜態(tài)的詞向量表示并不能區(qū)分詞語在不同上下語境中的含義,故本文在BiLSTM-CRF 模型的基礎(chǔ)上利用BERT 來動態(tài)生成含有豐富上下文信息的詞向量。此外,受多任務(wù)學(xué)習(xí)的啟發(fā),本文將分詞任務(wù)作為輔助任務(wù),通過讓分詞任務(wù)和命名實(shí)體識別任務(wù)進(jìn)行聯(lián)合學(xué)習(xí)以提升實(shí)體的邊界識別率。

    2 本文模型

    本章將詳細(xì)介紹JLB-BiLSTM-CRF 模型的組成部分和中文分詞(Chinese Word Segmentation,CWS)任務(wù)作為輔助任務(wù)聯(lián)合訓(xùn)練命名實(shí)體識別模型的實(shí)現(xiàn)過程。

    2.1 JLB-BiLSTM-CRF模型結(jié)構(gòu)

    JLB-BiLSTM-CRF 模型的整體結(jié)構(gòu)如圖1 所示,模型主要由三層構(gòu)成:第一層是嵌入層,該層利用BERT 對輸入的字符序列進(jìn)行編碼,生成字符的語義向量表示;第二層是BiLSTM層,BiLSTM 對輸入的字符向量進(jìn)行雙向編碼,捕獲字符序列的長距離依賴關(guān)系;第三層是CRF層,CRF 用來對上層的輸出進(jìn)行解碼,它通過學(xué)習(xí)標(biāo)簽之間的約束關(guān)系可得到最優(yōu)的標(biāo)注序列。

    2.1.1 BERT預(yù)訓(xùn)練模型

    靜態(tài)語言模型如N-Gram、Word2vec 等無法對多義詞進(jìn)行表示,而BERT 可以動態(tài)生成含有上下文信息的詞向量。如圖2 所示,BERT 的輸入是由詞的嵌入信息(Token Embedding)、句子中詞的位置信息(Position Embedding)以及用于區(qū)分不同句子的向量表示(Segment Embedding)疊加而成。每個序列的第一個token 是[CLS],在分類問題中可當(dāng)作序列的表示,而[SEP]則用來分隔兩個句子。

    BERT-base-Chinese 是使用中文維基百科相關(guān)語料預(yù)訓(xùn)練的中文BERT 模型,本文將在模型訓(xùn)練過程中使用本文的數(shù)據(jù)集對它進(jìn)行微調(diào)。如圖3 所示,BERT 利用Transformer[23]進(jìn)行特征的提取,給定一個句子輸入{w1,w2,…,wn},將它輸入到BERT 模型中可得到輸出向量{x1,x2,…,xn}。

    2.1.2 BiLSTM層

    與循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)相比,LSTM 能捕獲到更長距離的依賴關(guān)系。在LSTM 的單元結(jié)構(gòu)中,t時刻LSTM 的輸入分別是t -1 時刻的隱藏層向量ht-1和t時刻的特征向量xt,輸出是ht,同時ht又是下一個LSTM 單元的輸入;而ct-1和ct屬于記憶單元,ct-1會在遺忘門作用下選擇性地遺忘部分歷史信息,然后在輸入門作用下加入部分當(dāng)前的輸入信息生成ct,最后在輸出門控制下生成新的輸出ht。整個LSTM 的更新過程如下所示:

    其中:σ表示Sigmoid 函數(shù);W、U表示權(quán)重矩陣;b表示偏置向量;it、ft、ot分別表示輸入門、遺忘門、輸出門的輸出向量。

    因?yàn)長STM 在對句子進(jìn)行建模時,無法編碼從后到前的信息,而通過將當(dāng)前時刻LSTM 層的前向和后向輸出進(jìn)行級聯(lián)可以捕捉到雙向的語義信息,所以t時刻BiLSTM 的輸出ht可表示為:

    2.1.3 CRF層

    CRF 能學(xué)習(xí)到標(biāo)簽之間約束關(guān)系,降低輸出的錯誤率。假設(shè)BiLSTM 的輸出矩陣為P,其中Pi,j代表第i個詞對應(yīng)的標(biāo)簽是j的得分,而A表示CRF 學(xué)習(xí)到的轉(zhuǎn)移矩陣,Ai,j表示標(biāo)簽i的下一個標(biāo)簽是j的得分。

    對于輸入序列X={x1,x2,…,xn} 對應(yīng)的預(yù)測序列是Y={y1,y2,…,yn}的得分可表示為:

    利用Softmax 函數(shù)指數(shù)歸一化思想,可以得到預(yù)測序列Y概率值為:

    其中:YX表示X對應(yīng)的所有可能的預(yù)測標(biāo)注序列。

    為了方便計算,利用了對數(shù)似然,則NER 的損失函數(shù)可定義為:

    其中:S表示訓(xùn)練數(shù)據(jù)中所有句子的集合;表示句子s對應(yīng)的輸入序列;表示句子s對應(yīng)的預(yù)測序列。

    2.2 利用分詞任務(wù)進(jìn)行聯(lián)合學(xué)習(xí)

    NER 的識別過程包括兩個部分:一是正確識別出實(shí)體邊界;二是確定實(shí)體類型。由于中文文本不像英文文本那樣具有明確的分隔符,所以對于某些中文實(shí)體而言,很難正確識別對實(shí)體的邊界位置。而在自然語言處理領(lǐng)域,中文分詞(CWS)是對文本中的詞語進(jìn)行劃分,即確定詞的邊界位置。由此可見CWS 和中文命名實(shí)體識別(Chinese Named Entity Recognition,CNER)具有高度的相關(guān)性。

    多任務(wù)學(xué)習(xí)通過共享某些層可以讓模型從相關(guān)任務(wù)中獲取到有用的信息,因?yàn)槟P托枰瑫r兼顧多個任務(wù),所以多任務(wù)學(xué)習(xí)還能夠減少模型的過擬合以及提高模型的魯棒性[24]。受多任務(wù)學(xué)習(xí)思想的啟發(fā),如圖1 所示,本文將CWS和CNER 進(jìn)行聯(lián)合學(xué)習(xí),使其共享相同的BERT 嵌入層,使用不同的CRF 解碼層進(jìn)行輸出。通過這種方式,模型可以對CWS 中有用的信息進(jìn)行編碼,以學(xué)習(xí)到含有詞邊界信息的上下文字符向量表示,這有助于模型提升實(shí)體的邊界識別率。

    分詞任務(wù)也屬于序列標(biāo)注任務(wù),其損失函數(shù)可表示為:

    其中:S表示訓(xùn)練數(shù)據(jù)中所有句子的集合;表示句子s對應(yīng)的輸入序列;表示句子s對應(yīng)的預(yù)測序列。

    為了使命名實(shí)體識別任務(wù)能得到充分訓(xùn)練,本文將命名實(shí)體識別任務(wù)損失的權(quán)重置為1,然后通過λ來調(diào)節(jié)分詞任務(wù)損失所占的權(quán)重,其中λ∈[0,1],兩個任務(wù)的聯(lián)合損失L可表示為:

    JLB-BiLSTM-CRF 模型的訓(xùn)練過程如算法1 所示,對于每個epoch,模型在獲取到訓(xùn)練數(shù)據(jù)Dt后分別進(jìn)行命名實(shí)體識別任務(wù)和分詞任務(wù)的訓(xùn)練,然后根據(jù)這兩個任務(wù)的損失來計算聯(lián)合損失函數(shù),最后進(jìn)行梯度的更新。

    算法1 訓(xùn)練JLB-BiLSTM-CRF 模型。

    3 實(shí)驗(yàn)與結(jié)果分析

    由于法律領(lǐng)域沒有直接可供使用的命名實(shí)體識別數(shù)據(jù)集和分詞數(shù)據(jù)集。本文先構(gòu)建兩個數(shù)據(jù)集,然后設(shè)置了多組對比實(shí)驗(yàn)來驗(yàn)證本文模型的有效性。

    3.1 數(shù)據(jù)集和實(shí)驗(yàn)參數(shù)配置

    3.1.1 數(shù)據(jù)集

    本文所使用的命名實(shí)體識別數(shù)據(jù)集是自主構(gòu)建的,所用的語料來自于上海市高級人民法院公開的裁判文書(http://www.hshfy.cn),共收集了2 萬篇一審刑事判決書,通過統(tǒng)計分析,選取了其中犯罪率較高且實(shí)體類別具有一定相似性的3 種案由(尋釁滋事罪、故意傷害罪和盜竊罪)進(jìn)行標(biāo)注。由于刑事裁判文書中案情描述復(fù)雜,實(shí)體類別豐富,為了減少其他無關(guān)信息的影響,本文先利用規(guī)則將這3 種案由里面的案情提取出來,然后選取了案情描述部分提取完整的2 700條數(shù)據(jù)進(jìn)行人工標(biāo)注,共標(biāo)注了9 類實(shí)體,各類實(shí)體數(shù)目如表1 所示。

    表1 各類實(shí)體數(shù)目Tab.1 Number of entities in each category

    本文中的命名實(shí)體識別數(shù)據(jù)集采用的是“BIO”標(biāo)注法,對于每個實(shí)體,將第一個字標(biāo)記為“B-實(shí)體名稱”,其余部分標(biāo)記為“I-實(shí)體名稱”。對于非實(shí)體,一律標(biāo)記為O。如“王某某”這個受害人實(shí)體每個字對應(yīng)的標(biāo)簽分別是“B-VIC”“IVIC”“I-VIC”。

    在法律領(lǐng)域也尚無公開的分詞數(shù)據(jù)集可供使用,如果利用人工去標(biāo)注分詞數(shù)據(jù)會耗費(fèi)大量的人力,但若是直接利用分詞工具進(jìn)行分詞又會帶來分詞錯誤。通過觀察語料集發(fā)現(xiàn)除了標(biāo)注的實(shí)體詞之外,剩下的大部分屬于日常用詞。為了減少分詞錯誤,本文在jieba 分詞工具中加入了搜狗中文詞 典(https//github.com/liujunxin/CWS_with_Dictionary/blob/master/data/cidian.txt),然后利用jieba 分詞工具來對除實(shí)體詞以外的部分進(jìn)行分詞,而對于已經(jīng)標(biāo)注的實(shí)體則單獨(dú)劃分成一個詞。由于只在模型訓(xùn)練過程中使用到分詞信息,所以只需對2 160 條訓(xùn)練數(shù)據(jù)進(jìn)行分詞即可。

    對于分詞數(shù)據(jù)集采用的是“BMES”標(biāo)注法,即將一個詞語開頭標(biāo)記為B,詞語結(jié)尾標(biāo)記為E,中間部分全部標(biāo)記成M,而S 用來標(biāo)記單個字的詞。例如“李某因情感糾紛”的分詞標(biāo)簽為“BESBMME”。

    3.1.2 實(shí)驗(yàn)參數(shù)配置和評價指標(biāo)

    本實(shí)驗(yàn)使用PyTorch 1.7.0 進(jìn)行模型結(jié)構(gòu)搭建,在顯存容量為24 GB 的NVIDA TITAN RTX 上進(jìn)行模型的訓(xùn)練;實(shí)驗(yàn)采用Adam 優(yōu)化器,學(xué)習(xí)率為8E-5,衰減系數(shù)為1E-5;批處理大小為64;BERT 預(yù)訓(xùn)練詞向量維度為768,多頭注意力個數(shù)為12,由于訓(xùn)練文本的長度普遍在150 與300 之間,故選取最大長度為256,如果文本長度超過256 部分則直接進(jìn)行截斷;LSTM 的隱藏層維度設(shè)為128,丟棄率為0.5;聯(lián)合損失函數(shù)中的超參數(shù)λ為0.3;訓(xùn)練集、驗(yàn)證集、測試集的比例為8∶1∶1。

    實(shí)驗(yàn)的評估指標(biāo)采用的是精確率、召回率和F1值,計算方式如下:

    3.2 實(shí)驗(yàn)結(jié)果與分析

    3.2.1 不同模型的性能

    為了驗(yàn)證模型的有效性,本文與以下對比模型進(jìn)行了對比實(shí)驗(yàn):

    1)BiLSTM-CRF[6]:BiLSTM-CRF 是命名實(shí)體識別領(lǐng)域的常用模型,與LSTM-CRF[11]相比,它能捕捉到雙向的語義依賴關(guān)系。

    2)BiLSTM-CRF(Word2vec):使用2018 年法研杯語料集預(yù)訓(xùn)練100 維Word2vec 詞向量,將其作為BiLSTM-CRF[6]的輸入來探究預(yù)訓(xùn)練的靜態(tài)詞向量對模型識別效果的影響。

    3)ID-CNN-CRF[14]:該模型利用空洞卷積來學(xué)習(xí)全局特征,能在不引入過多超參數(shù)的同時捕獲到更長的上下文序列信息。

    4)Lattice-LSTM[12]:該模型在字向量中融入了外部詞典中的詞向量信息,能在避免分詞錯誤的同時引入詞級別的信息。

    5)BERT-CRF[25]:BERT 具有強(qiáng)大的特征提取能力,能根據(jù)上下文語境預(yù)測出每個字符對應(yīng)的標(biāo)簽類型。

    6)BERT-BiLSTM-CRF[16]:雖然BERT 模型在訓(xùn)練時加入了位置信息,但隨著層數(shù)的加深,這些信息會減弱,而通過加入BiLSTM 層能更好地捕捉到長距離依賴關(guān)系。

    實(shí)驗(yàn)結(jié)果的對比如表2 所示。為了驗(yàn)證聯(lián)合學(xué)習(xí)的效果,本文還對比了3 種不同模型在示例上的表現(xiàn),不同類型的實(shí)體使用不同的下劃線來進(jìn)行標(biāo)記,標(biāo)記結(jié)果如表3 所示。由表2~3 可得出以下結(jié)論:

    表2 不同模型的實(shí)驗(yàn)結(jié)果對比 單位:%Tab.2 Comparison of experimental results of different models unit:%

    1)BiLSTM-CRF(Word2vec)模型的F1 值比隨機(jī)初始化輸入向量的BiLSTM-CRF 模型高1.05 個百分點(diǎn),表明預(yù)訓(xùn)練Word2vec 詞向量里面包含了更多有助于模型進(jìn)行實(shí)體識別的信息。

    2)ID-CNN-CRF 模型的F1值比BiLSTM-CRF 低0.74 個百分點(diǎn),表明雖然該模型使用了空洞卷積進(jìn)行長序列特征的提取,但對于長文本而言,它的識別效果并沒有優(yōu)于BiLSTM-CRF。

    3)Lattice-LSTM 模型在測試集上的F1 值比BiLSTM-CRF(Word2vec)低0.53 個百分點(diǎn),原因是雖然Lattice-LSTM 能引入詞級別信息,但若是文本中詞的匹配數(shù)過多,不僅會減慢模型的訓(xùn)練速度,還會引入過多的噪聲影響模型的性能。

    4)BERT-CRF 模型的F1 值比BiLSTM-CRF(Word2vec)高1.58 個百分點(diǎn),表明與Word2vec 這類靜態(tài)語言模型相比,BERT 的字符表征能力更強(qiáng)。而BERT-BiLSTM-CRF 模型的F1 值則比BERT-CRF 模型高0.35 個百分點(diǎn),原因是在BERT之后加入BiLSTM 能讓模型捕捉到句子的序列信息。

    5)JLB-BiLSTM-CRF 模型的性能均優(yōu)于其他對比模型,一方面是因?yàn)锽ERT 增強(qiáng)了字符的表征能力;另外一方面是因?yàn)槁?lián)合學(xué)習(xí)框架能有效利用CNER 和CWS 的相關(guān)性,從而讓模型學(xué)習(xí)到了有用分詞信息。

    6)由表3 可知,BiLSTM-CRF 和BERT-BiLSTM-CRF 均未識別出“方管托盤”這個實(shí)體,而JLB-BiLSTM-CRF 模型不僅能將其識別出來,并且相較于BERT-BiLSTM-CRF 還能正確識別出“救護(hù)車”“嚴(yán)1”和“嚴(yán)2”的實(shí)體邊界,表明利用分詞任務(wù)進(jìn)行聯(lián)合學(xué)習(xí)的確能夠提升實(shí)體的邊界識別率。

    表3 三個模型對示例的標(biāo)記結(jié)果Tab.3 Marking results of three models on examples

    3.2.2 超參數(shù)λ對實(shí)體識別效果的影響

    JLB-BiLSTM-CRF 模型在訓(xùn)練過程中需要調(diào)節(jié)聯(lián)合損失函數(shù)中超參數(shù)的值,不同的λ值對實(shí)體識別效果的影響如圖4 所示。當(dāng)λ取值在0.1 到0.3 之間時,JLB-BiLSTM-CRF模型的精確率和召回率較為接近;大于0.3時,明顯存在高召回率低精確率的現(xiàn)象,這主要是因?yàn)榉衷~任務(wù)只關(guān)注邊界信息,不關(guān)注詞的類型,當(dāng)分詞任務(wù)占比增大時會使得識別出的實(shí)體數(shù)遠(yuǎn)大于識別正確的實(shí)數(shù),從而導(dǎo)致精確率降低,因此對于本文的模型而言選擇一個合適的λ值是很重要的。通過觀察圖4 中F1 值可以發(fā)現(xiàn),不同λ對應(yīng)的F1 值都比BERT-BiLSTM-CRF 模型的93.88%高出0.25 個百分點(diǎn)以上,這是因?yàn)樵诒WC命名實(shí)體識別任務(wù)得到充分訓(xùn)練的情況下,引入分詞任務(wù)能夠讓模型學(xué)習(xí)到額外的信息,該結(jié)果也說明了本文的模型具有一定魯棒性。

    3.2.3 BERT和聯(lián)合學(xué)習(xí)對實(shí)體識別效果的影響

    通過分析 BiLSTM-CRF、BERT-BiLSTM-CRF、JLBBiLSTM-CRF 對9 類實(shí)體的識別結(jié)果可以得出BERT 和聯(lián)合學(xué)習(xí)對實(shí)體識別效果的影響程度。在圖5中,BERT、NER+CWS、BERT+NER+CWS 分別表示BERT-BiLSTM-CRF 相較于BiLSTM-CRF,JLB-BiLSTM-CRF 相較于BERT-BiLSTM-CFR,JLB-BiLSTM-CRF 相較于BiLSTM-CRF 在各實(shí)體上的F1 值提升率。通過分析圖5 中的BERT 可知,BERT-BiLSTM-CRF 相較于BiLSTM-CRF 在被告人、受害人、損失物品和作案工具這四類實(shí)體上的F1 值提升率均超過5.00 個百分點(diǎn),這表明BERT 依靠強(qiáng)大特征提取能力能學(xué)習(xí)到豐富的語義特征,使得多類實(shí)體的識別效果得到了大幅度提升。由圖5 中的NER+CWS可知,JLB-BiLSTM-CRF 相較于BERT-BiLSTMCRF 在案發(fā)起因、損失物品和作案工具這三類實(shí)體上的F1值提升率均超過了1.00 個百分點(diǎn),這表明對于一些較難識別的實(shí)體而言利用分詞任務(wù)進(jìn)行聯(lián)合學(xué)習(xí)可以進(jìn)一步提升它的識別效果。

    3.2.4 JLB-BiLSTM-CRF模型的性能

    由圖5 中的BERT+NER+CWS 可知,JLB-BiLSTM-CRF 相較于BiLSTM-CRF 在作案時間、作案地點(diǎn)、人身損傷和損失金額這四類實(shí)體上的F1 值提升率僅在1.00 個百分點(diǎn)左右,主要是因?yàn)檫@四類實(shí)體易于識別,基準(zhǔn)模型(BiLSTM-CRF)的識別率很高,所以本文模型對它們影響程度較小。此外,由表4 可知,作案工具和損失物品的F1 值分別為86.99%和85.92%,顯著低于其他幾類實(shí)體,這主要是由于作案工具和損失物品的表達(dá)方式復(fù)雜多樣且標(biāo)注量少,從而導(dǎo)致了它們的識別效果低于其他幾類實(shí)體。但從圖5 中的BERT+NER+CWS 可知,JLB-BiLSTM-CRF 相較于BiLSTM-CRF 在作案工具和損失物品的F1 值提升率均超過了7.00 個百分點(diǎn),在被告人、受害人和案發(fā)起因這三類實(shí)體上的F1 值提升率也都超過了4.00 個百分點(diǎn),表明JLB-BiLSTM-CRF 可以顯著提升多類實(shí)體的識別效果。

    表4 JLB-BiLSTM-CRF模型對各類實(shí)體的識別效果 單位:%Tab.4 Recognition effect of JLB-BiLSTM-CRF model to each category of entities unit:%

    4 結(jié)語

    針對法律裁判文書的命名實(shí)體識別任務(wù),本文提出了JLB-BiLSTM-CRF 模型。該模型不僅利用BERT 動態(tài)生成含有豐富上下文語境信息的詞向量,還通過聯(lián)合學(xué)習(xí)框架利用到了兩個任務(wù)之間的相關(guān)性,讓模型能夠?qū)W習(xí)到有用的分詞信息。實(shí)驗(yàn)結(jié)果表明,該模型能夠有效提升實(shí)體的邊界識別率,對多類實(shí)體的識別效果顯著優(yōu)于BiLSTM-CRF 模型。

    為了避免繁瑣手工調(diào)參,下一步將會考慮如何在模型訓(xùn)練過程中自動化調(diào)整聯(lián)合損失函數(shù)中分詞任務(wù)的權(quán)重。此外,針對本文中存在部分實(shí)體標(biāo)注數(shù)量少、識別效果不佳的問題,未來的研究也會考慮使用數(shù)據(jù)增強(qiáng)或是遷移學(xué)習(xí)的方式來進(jìn)一步提升標(biāo)注量少的實(shí)體的識別效果。

    猜你喜歡
    分詞命名實(shí)體
    命名——助力有機(jī)化學(xué)的學(xué)習(xí)
    前海自貿(mào)區(qū):金融服務(wù)實(shí)體
    中國外匯(2019年18期)2019-11-25 01:41:54
    結(jié)巴分詞在詞云中的應(yīng)用
    智富時代(2019年6期)2019-07-24 10:33:16
    有一種男人以“暖”命名
    東方女性(2018年3期)2018-04-16 15:30:02
    為一條河命名——在白河源
    散文詩(2017年17期)2018-01-31 02:34:08
    實(shí)體的可感部分與實(shí)體——兼論亞里士多德分析實(shí)體的兩種模式
    兩會進(jìn)行時:緊扣實(shí)體經(jīng)濟(jì)“釘釘子”
    振興實(shí)體經(jīng)濟(jì)地方如何“釘釘子”
    值得重視的分詞的特殊用法
    高考分詞作狀語考點(diǎn)歸納與疑難解析
    亚洲av电影在线进入| 免费看av在线观看网站| 赤兔流量卡办理| 伦理电影大哥的女人| 亚洲av中文av极速乱| 国产精品人妻久久久影院| 国产1区2区3区精品| 美女国产高潮福利片在线看| 啦啦啦啦在线视频资源| 波野结衣二区三区在线| 国产亚洲av片在线观看秒播厂| 高清欧美精品videossex| 国产精品一区二区精品视频观看| 建设人人有责人人尽责人人享有的| 美女国产高潮福利片在线看| 另类精品久久| 秋霞伦理黄片| 深夜精品福利| 色94色欧美一区二区| 天堂中文最新版在线下载| 亚洲精品aⅴ在线观看| 成年美女黄网站色视频大全免费| 女性生殖器流出的白浆| 国产伦理片在线播放av一区| 欧美黑人欧美精品刺激| 蜜桃在线观看..| 国产不卡av网站在线观看| av在线老鸭窝| 日日啪夜夜爽| 成年人午夜在线观看视频| 最近2019中文字幕mv第一页| 国产成人欧美| 国产精品.久久久| 美女主播在线视频| av在线播放精品| 国产一级毛片在线| 性高湖久久久久久久久免费观看| 免费不卡黄色视频| 日韩免费高清中文字幕av| 亚洲av在线观看美女高潮| 国产一区二区激情短视频 | 人人妻,人人澡人人爽秒播 | 亚洲av国产av综合av卡| 精品一区二区三区av网在线观看 | 午夜福利网站1000一区二区三区| 日本猛色少妇xxxxx猛交久久| 在线 av 中文字幕| 亚洲视频免费观看视频| 大香蕉久久成人网| 久久午夜综合久久蜜桃| 激情视频va一区二区三区| kizo精华| 99香蕉大伊视频| 亚洲精品久久午夜乱码| 999久久久国产精品视频| 国产探花极品一区二区| 美女主播在线视频| 国产成人免费无遮挡视频| 纯流量卡能插随身wifi吗| 岛国毛片在线播放| 日韩大片免费观看网站| 国产精品一区二区精品视频观看| 亚洲欧美成人精品一区二区| 免费观看a级毛片全部| 免费观看性生交大片5| 老汉色∧v一级毛片| 老汉色av国产亚洲站长工具| 人人妻人人澡人人看| 卡戴珊不雅视频在线播放| 国产爽快片一区二区三区| 五月开心婷婷网| 99热国产这里只有精品6| 在线观看免费视频网站a站| 伊人亚洲综合成人网| 国产精品 欧美亚洲| 国产精品一区二区精品视频观看| 99国产精品免费福利视频| 国产精品国产三级专区第一集| 国产一区二区 视频在线| 亚洲精品国产区一区二| 国产成人精品在线电影| 少妇人妻久久综合中文| 老司机在亚洲福利影院| 欧美黑人欧美精品刺激| 亚洲av男天堂| 一级a爱视频在线免费观看| 考比视频在线观看| 观看av在线不卡| 一区二区三区四区激情视频| 99久久人妻综合| 大陆偷拍与自拍| 各种免费的搞黄视频| 在线 av 中文字幕| 国产淫语在线视频| 亚洲精品久久久久久婷婷小说| 欧美久久黑人一区二区| 97在线人人人人妻| 男女边摸边吃奶| 9色porny在线观看| 日日啪夜夜爽| 一级片免费观看大全| 国产视频首页在线观看| 狠狠精品人妻久久久久久综合| 午夜福利免费观看在线| 国产男女内射视频| 妹子高潮喷水视频| 精品国产乱码久久久久久男人| 久久久久国产一级毛片高清牌| 丝袜脚勾引网站| 国产又色又爽无遮挡免| 哪个播放器可以免费观看大片| 黄色毛片三级朝国网站| 国产精品麻豆人妻色哟哟久久| 亚洲一码二码三码区别大吗| 观看美女的网站| 国产爽快片一区二区三区| 精品国产露脸久久av麻豆| 日韩中文字幕视频在线看片| 国产精品国产三级国产专区5o| 久久久久精品人妻al黑| 国产精品人妻久久久影院| 亚洲欧美一区二区三区国产| 国产免费现黄频在线看| xxx大片免费视频| 黄色视频在线播放观看不卡| 欧美日本中文国产一区发布| 各种免费的搞黄视频| 水蜜桃什么品种好| 精品酒店卫生间| 99热网站在线观看| 国产乱来视频区| 看免费成人av毛片| 久久久国产一区二区| 国产深夜福利视频在线观看| 熟女av电影| av福利片在线| 水蜜桃什么品种好| 欧美激情极品国产一区二区三区| 久久久久视频综合| 亚洲精品中文字幕在线视频| 大话2 男鬼变身卡| 观看美女的网站| 亚洲国产精品国产精品| 欧美日韩一区二区视频在线观看视频在线| 成人漫画全彩无遮挡| 18禁观看日本| 美女大奶头黄色视频| 色视频在线一区二区三区| 九九爱精品视频在线观看| 国产伦人伦偷精品视频| 观看美女的网站| 高清在线视频一区二区三区| 国产精品国产三级专区第一集| 啦啦啦在线免费观看视频4| 91成人精品电影| 最近最新中文字幕大全免费视频 | 久久综合国产亚洲精品| 国产在线一区二区三区精| 人妻一区二区av| 日韩大码丰满熟妇| 人妻人人澡人人爽人人| 日韩一区二区视频免费看| 欧美日韩成人在线一区二区| 丰满少妇做爰视频| 黄片小视频在线播放| 亚洲美女视频黄频| 97精品久久久久久久久久精品| 一本一本久久a久久精品综合妖精| 亚洲av成人精品一二三区| 又黄又粗又硬又大视频| 80岁老熟妇乱子伦牲交| 99久久精品国产亚洲精品| 欧美日韩精品网址| 91精品三级在线观看| 精品久久久久久电影网| 国产乱来视频区| 国产精品一区二区在线观看99| 国产亚洲欧美精品永久| 国产爽快片一区二区三区| 日韩制服骚丝袜av| 国产精品嫩草影院av在线观看| 国产又色又爽无遮挡免| 少妇人妻 视频| 国产老妇伦熟女老妇高清| 少妇被粗大的猛进出69影院| 日日撸夜夜添| 国产精品久久久久久精品古装| 人体艺术视频欧美日本| 精品一区二区三区av网在线观看 | 又大又黄又爽视频免费| 久久久久网色| 久久鲁丝午夜福利片| 一本色道久久久久久精品综合| 久热爱精品视频在线9| 久久鲁丝午夜福利片| 精品久久蜜臀av无| 纯流量卡能插随身wifi吗| 最近最新中文字幕大全免费视频 | 欧美日韩亚洲高清精品| 亚洲av日韩在线播放| 精品一区二区三区av网在线观看 | 亚洲欧洲国产日韩| 国产精品一二三区在线看| 叶爱在线成人免费视频播放| 最近中文字幕高清免费大全6| 久久久国产欧美日韩av| 观看av在线不卡| 免费日韩欧美在线观看| 午夜福利免费观看在线| 综合色丁香网| h视频一区二区三区| 日本午夜av视频| www日本在线高清视频| 精品少妇黑人巨大在线播放| 日韩中文字幕视频在线看片| 亚洲美女搞黄在线观看| 欧美精品一区二区免费开放| 国产老妇伦熟女老妇高清| 老汉色av国产亚洲站长工具| 亚洲欧洲精品一区二区精品久久久 | 国产亚洲av高清不卡| 午夜福利免费观看在线| 久久综合国产亚洲精品| 久久狼人影院| 日日撸夜夜添| 成年av动漫网址| 久久久亚洲精品成人影院| 亚洲,一卡二卡三卡| 秋霞伦理黄片| 成年女人毛片免费观看观看9 | 欧美av亚洲av综合av国产av | 少妇精品久久久久久久| 国产国语露脸激情在线看| 99久国产av精品国产电影| 不卡视频在线观看欧美| 久久久久精品国产欧美久久久 | 婷婷色综合www| 久久av网站| 国产成人欧美在线观看 | 老汉色av国产亚洲站长工具| 搡老乐熟女国产| 涩涩av久久男人的天堂| 国产国语露脸激情在线看| 在线免费观看不下载黄p国产| 国产高清不卡午夜福利| 久久精品久久精品一区二区三区| 久久毛片免费看一区二区三区| 国产成人91sexporn| 韩国高清视频一区二区三区| 国产女主播在线喷水免费视频网站| 国产av国产精品国产| 午夜福利乱码中文字幕| 可以免费在线观看a视频的电影网站 | 亚洲精品自拍成人| 不卡av一区二区三区| 亚洲中文av在线| 丰满乱子伦码专区| 日韩视频在线欧美| 中国三级夫妇交换| 乱人伦中国视频| 大香蕉久久成人网| 免费黄色在线免费观看| 精品福利永久在线观看| 国产在视频线精品| 亚洲av电影在线进入| 久久久久久久久免费视频了| 国产不卡av网站在线观看| 成年女人毛片免费观看观看9 | 在线观看免费视频网站a站| 日韩欧美一区视频在线观看| 久久久久视频综合| 91成人精品电影| 99香蕉大伊视频| 久久人人爽人人片av| 亚洲第一区二区三区不卡| av国产精品久久久久影院| 午夜免费男女啪啪视频观看| 日本猛色少妇xxxxx猛交久久| 国产日韩欧美亚洲二区| 两性夫妻黄色片| 老司机深夜福利视频在线观看 | 亚洲,一卡二卡三卡| 大片免费播放器 马上看| 女的被弄到高潮叫床怎么办| 亚洲,欧美,日韩| 日韩伦理黄色片| 精品少妇内射三级| 丝袜喷水一区| 久久免费观看电影| 观看美女的网站| 高清在线视频一区二区三区| 国产女主播在线喷水免费视频网站| 久久午夜综合久久蜜桃| 女的被弄到高潮叫床怎么办| 精品国产露脸久久av麻豆| 美女扒开内裤让男人捅视频| 亚洲五月色婷婷综合| 国产欧美亚洲国产| e午夜精品久久久久久久| 亚洲欧美中文字幕日韩二区| 午夜免费观看性视频| 少妇人妻久久综合中文| 亚洲精品一区蜜桃| 亚洲伊人久久精品综合| av线在线观看网站| 少妇人妻 视频| 如何舔出高潮| 成人黄色视频免费在线看| 久久人人爽人人片av| 欧美精品一区二区大全| 国产精品久久久久久精品电影小说| 国产在线免费精品| 成年女人毛片免费观看观看9 | 亚洲精品第二区| 亚洲,欧美精品.| 亚洲天堂av无毛| av卡一久久| 国产精品蜜桃在线观看| 亚洲中文av在线| 亚洲av男天堂| 侵犯人妻中文字幕一二三四区| 国产午夜精品一二区理论片| 日韩一本色道免费dvd| 国产精品三级大全| www日本在线高清视频| 亚洲人成网站在线观看播放| 午夜日本视频在线| 中文精品一卡2卡3卡4更新| 一级a爱视频在线免费观看| 九草在线视频观看| 亚洲伊人久久精品综合| av女优亚洲男人天堂| 另类亚洲欧美激情| 视频区图区小说| 国产精品久久久久久精品电影小说| 欧美黑人欧美精品刺激| 一级毛片 在线播放| 一二三四在线观看免费中文在| 看免费成人av毛片| av网站在线播放免费| 18禁观看日本| 日韩人妻精品一区2区三区| 国产成人免费无遮挡视频| 久久精品aⅴ一区二区三区四区| 一级毛片 在线播放| 99久久人妻综合| 国产国语露脸激情在线看| 久久久久久久大尺度免费视频| 如日韩欧美国产精品一区二区三区| 欧美成人午夜精品| 亚洲美女黄色视频免费看| 国产日韩欧美视频二区| 国产精品偷伦视频观看了| 亚洲精品第二区| 亚洲激情五月婷婷啪啪| 麻豆精品久久久久久蜜桃| 国产极品天堂在线| 亚洲欧美清纯卡通| 老汉色av国产亚洲站长工具| 久久久精品国产亚洲av高清涩受| 久久精品亚洲熟妇少妇任你| 尾随美女入室| 亚洲国产精品国产精品| 无限看片的www在线观看| 欧美老熟妇乱子伦牲交| 各种免费的搞黄视频| 久久久久久人人人人人| 久久久久久久久久久久大奶| 99久久99久久久精品蜜桃| 亚洲精品美女久久久久99蜜臀 | 黄片无遮挡物在线观看| 亚洲精品日本国产第一区| 精品人妻在线不人妻| 日本午夜av视频| 国产精品一区二区精品视频观看| 欧美日韩综合久久久久久| 高清不卡的av网站| 黄片小视频在线播放| 美女扒开内裤让男人捅视频| 97在线人人人人妻| av福利片在线| 久热爱精品视频在线9| 亚洲国产精品一区二区三区在线| 我的亚洲天堂| 国产一区有黄有色的免费视频| 少妇被粗大猛烈的视频| 一级a爱视频在线免费观看| 你懂的网址亚洲精品在线观看| 国产av国产精品国产| kizo精华| 在线观看三级黄色| 中文字幕制服av| 肉色欧美久久久久久久蜜桃| 啦啦啦中文免费视频观看日本| 欧美在线黄色| 国产精品一国产av| 五月天丁香电影| 在线精品无人区一区二区三| 操出白浆在线播放| 国产片特级美女逼逼视频| 十八禁网站网址无遮挡| svipshipincom国产片| 极品少妇高潮喷水抽搐| 国产精品偷伦视频观看了| 老司机深夜福利视频在线观看 | 亚洲七黄色美女视频| 丰满乱子伦码专区| 女的被弄到高潮叫床怎么办| 亚洲一码二码三码区别大吗| 91精品国产国语对白视频| 嫩草影视91久久| 久久久亚洲精品成人影院| 中文字幕av电影在线播放| 久久久久视频综合| 久久久精品区二区三区| 国产一区二区激情短视频 | 国产精品蜜桃在线观看| 最近最新中文字幕大全免费视频 | 男女高潮啪啪啪动态图| 国产精品熟女久久久久浪| 晚上一个人看的免费电影| 人成视频在线观看免费观看| 国产成人免费无遮挡视频| 亚洲人成网站在线观看播放| 日本色播在线视频| 美女国产高潮福利片在线看| 大香蕉久久网| 黑人猛操日本美女一级片| 男女午夜视频在线观看| 黄片无遮挡物在线观看| 嫩草影院入口| 午夜福利,免费看| 午夜激情久久久久久久| 激情视频va一区二区三区| 肉色欧美久久久久久久蜜桃| 日本猛色少妇xxxxx猛交久久| 久久久久久人妻| 永久免费av网站大全| 亚洲,一卡二卡三卡| 亚洲欧美色中文字幕在线| 欧美日韩福利视频一区二区| 日韩 亚洲 欧美在线| 亚洲在久久综合| 男女边吃奶边做爰视频| 男女无遮挡免费网站观看| 亚洲国产av新网站| 三上悠亚av全集在线观看| 观看av在线不卡| 丝袜在线中文字幕| 超色免费av| 在线 av 中文字幕| 亚洲七黄色美女视频| 久久 成人 亚洲| 亚洲视频免费观看视频| 熟女少妇亚洲综合色aaa.| 国产又爽黄色视频| 亚洲综合色网址| 日韩 欧美 亚洲 中文字幕| 777米奇影视久久| tube8黄色片| 成人国产av品久久久| 亚洲av成人精品一二三区| 国产成人免费无遮挡视频| 丝袜美腿诱惑在线| 婷婷色综合www| 一级片免费观看大全| 超碰97精品在线观看| 99香蕉大伊视频| av在线app专区| 大片电影免费在线观看免费| 人妻一区二区av| 热re99久久国产66热| 满18在线观看网站| 性色av一级| 视频区图区小说| 国产免费又黄又爽又色| 制服人妻中文乱码| 老司机影院毛片| 中文乱码字字幕精品一区二区三区| 大香蕉久久成人网| 新久久久久国产一级毛片| 高清av免费在线| 国产毛片在线视频| 人妻人人澡人人爽人人| 麻豆av在线久日| 久久久久久人人人人人| 777米奇影视久久| 国产毛片在线视频| 一本久久精品| 18在线观看网站| 韩国精品一区二区三区| 男女边吃奶边做爰视频| 国产在线免费精品| 男人爽女人下面视频在线观看| 街头女战士在线观看网站| 日日啪夜夜爽| 亚洲欧洲精品一区二区精品久久久 | 精品国产一区二区三区久久久樱花| 欧美日韩av久久| 日韩av在线免费看完整版不卡| 欧美日韩亚洲高清精品| 色综合欧美亚洲国产小说| 人人妻人人爽人人添夜夜欢视频| av电影中文网址| 日韩大码丰满熟妇| 精品人妻一区二区三区麻豆| 搡老乐熟女国产| 亚洲人成77777在线视频| 九色亚洲精品在线播放| 国产极品粉嫩免费观看在线| 在线观看免费视频网站a站| 啦啦啦中文免费视频观看日本| 天堂中文最新版在线下载| 激情视频va一区二区三区| 七月丁香在线播放| 尾随美女入室| 最近手机中文字幕大全| 两性夫妻黄色片| 日本91视频免费播放| 青春草亚洲视频在线观看| 午夜福利在线免费观看网站| 国产精品99久久99久久久不卡 | 国产色婷婷99| 亚洲 欧美一区二区三区| 51午夜福利影视在线观看| 在线观看www视频免费| 成人国产av品久久久| 久久影院123| 欧美日韩综合久久久久久| 亚洲欧美日韩另类电影网站| 日韩制服骚丝袜av| 热99久久久久精品小说推荐| 国产1区2区3区精品| 国产精品久久久久久人妻精品电影 | 伊人亚洲综合成人网| 中文字幕亚洲精品专区| 午夜久久久在线观看| 国产一区二区激情短视频 | 亚洲欧美清纯卡通| 亚洲美女黄色视频免费看| 亚洲国产毛片av蜜桃av| 天堂8中文在线网| 最近中文字幕2019免费版| 亚洲熟女毛片儿| 女人精品久久久久毛片| 人妻一区二区av| 免费在线观看视频国产中文字幕亚洲 | 欧美激情 高清一区二区三区| 亚洲欧美一区二区三区久久| 亚洲av国产av综合av卡| 97在线人人人人妻| 国产精品女同一区二区软件| 欧美xxⅹ黑人| 久久久久久久大尺度免费视频| 大片电影免费在线观看免费| 精品酒店卫生间| 一二三四在线观看免费中文在| 精品一区二区免费观看| 免费在线观看完整版高清| 国产精品久久久久成人av| 国产熟女午夜一区二区三区| 亚洲精品久久成人aⅴ小说| 男男h啪啪无遮挡| 汤姆久久久久久久影院中文字幕| 免费黄频网站在线观看国产| 精品少妇久久久久久888优播| 久久精品国产亚洲av高清一级| 999精品在线视频| 又粗又硬又长又爽又黄的视频| 国产一区二区激情短视频 | 成人亚洲欧美一区二区av| 一边摸一边做爽爽视频免费| 亚洲免费av在线视频| 99re6热这里在线精品视频| av不卡在线播放| 少妇被粗大猛烈的视频| 赤兔流量卡办理| 咕卡用的链子| 国产精品无大码| 男人添女人高潮全过程视频| 一二三四中文在线观看免费高清| 午夜日本视频在线| 国产精品麻豆人妻色哟哟久久| 亚洲色图综合在线观看| 精品免费久久久久久久清纯 | 国产一区二区激情短视频 | 亚洲国产精品成人久久小说| 日本一区二区免费在线视频| 国产一卡二卡三卡精品 | 99re6热这里在线精品视频| 一边摸一边抽搐一进一出视频| 亚洲美女视频黄频| 人妻一区二区av| 曰老女人黄片| 99久久精品国产亚洲精品| 99re6热这里在线精品视频| 下体分泌物呈黄色| 色婷婷av一区二区三区视频| 91精品三级在线观看| 水蜜桃什么品种好| 色吧在线观看| www.av在线官网国产| 免费黄色在线免费观看| 可以免费在线观看a视频的电影网站 | 黑人猛操日本美女一级片| 香蕉丝袜av| 纯流量卡能插随身wifi吗| 中文字幕最新亚洲高清| 亚洲七黄色美女视频| 国产深夜福利视频在线观看| 人人澡人人妻人| 国产精品 国内视频| 十八禁高潮呻吟视频| 黄色怎么调成土黄色| 男女边摸边吃奶|