• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    簡要案情的命名實(shí)體識別技術(shù)①

    2022-02-15 06:39:36陳柱輝張明鍵張達(dá)為
    關(guān)鍵詞:案情字符實(shí)體

    陳柱輝,劉 新,張明鍵,張達(dá)為

    1(湘潭大學(xué) 計算機(jī)學(xué)院·網(wǎng)絡(luò)空間安全學(xué)院,湘潭 411105)

    2(湖南警察學(xué)院 信息技術(shù)系,長沙 410138)

    1 引言

    簡要案情是指警務(wù)人員在接到被害人或者目擊者報案時,使用警務(wù)信息系統(tǒng)生成的簡短并蘊(yùn)含重要信息的文本序列,并便于警務(wù)人員管理和存儲的警務(wù)記錄.簡要案情中的案發(fā)地點(diǎn)、涉案人員、涉案財產(chǎn)和涉案事件關(guān)鍵詞等實(shí)體是整個案件的核心信息,通過這幾類實(shí)體,警務(wù)人員可以迅速判斷出案件的嚴(yán)重程度以及犯罪的類型.因此,對簡要案情文本的深度挖掘是掌握案件始末和分析案情的有效手段之一.結(jié)合自然語言處理相關(guān)技術(shù),圍繞簡要案情等警務(wù)文本的相關(guān)研究,可為智慧警務(wù)、案情問答等場景提供有效的支持與應(yīng)用.

    命名實(shí)體識別(named entity recognition,NER)是信息抽取和信息檢索中一項重要的任務(wù),其目的是識別出文本中表示命名實(shí)體的成分,并對其進(jìn)行分類,也是信息提取過程中的關(guān)鍵技術(shù),旨在從非結(jié)構(gòu)化文本中抽取各類所需實(shí)體,為語料庫的建設(shè)和知識圖譜的搭建提供了技術(shù)支持[1,2].通識領(lǐng)域憑借其大量標(biāo)注數(shù)據(jù)集,吸引眾多研究人員爭相投入其中,通識領(lǐng)域的命名實(shí)體識別技術(shù)因此迎來迅速的發(fā)展,然而,受限于警務(wù)領(lǐng)域的簡要案情文本的開放,在簡要案情命名實(shí)體識別上的研究呈一片空白.因此,本文先對小規(guī)模簡要案情文本進(jìn)行合理標(biāo)注,提取的實(shí)體包括案發(fā)地點(diǎn)、涉案人員、涉案財產(chǎn)和涉案事件關(guān)鍵詞4 個類別,為了提高簡要案情文本中復(fù)雜的專業(yè)名詞的識別率,本文對字符向量生成的方法進(jìn)行了改進(jìn),提出RCBiLSTM-CRF 神經(jīng)網(wǎng)絡(luò)模型,通過Roberta 預(yù)訓(xùn)練模型增強(qiáng)訓(xùn)練語料的語義表示并根據(jù)上下文特征動態(tài)生成字向量,通過設(shè)計合理的卷積神經(jīng)網(wǎng)絡(luò)對字向量的局部重要特征進(jìn)行提煉,解決了通過預(yù)訓(xùn)練模型帶來的字符向量冗長的問題,通過減少模型的參數(shù)量進(jìn)而增加了模型整體參數(shù)收斂的速度,在一定程度上彌補(bǔ)了標(biāo)注數(shù)據(jù)集稀缺的缺陷.本文在湖南省省公安機(jī)關(guān)提供的簡要案情數(shù)據(jù)集上做了大量的對比實(shí)驗(yàn),本文提出的網(wǎng)絡(luò)框架取得了比較理想的實(shí)體識別效果.

    本文組織結(jié)構(gòu):第2 節(jié)介紹相關(guān)工作,包括對通識領(lǐng)域命名實(shí)體識別和特定領(lǐng)域命名實(shí)體識別的詳細(xì)闡述;第3 節(jié)主要介紹本文設(shè)計的卷積神經(jīng)網(wǎng)絡(luò),還對Roberta 預(yù)訓(xùn)練模型,BiLSTM 層和CRF 層進(jìn)行詳細(xì)的介紹;第4 節(jié)對實(shí)驗(yàn)數(shù)據(jù)集、模型參數(shù)設(shè)置、模型評估標(biāo)準(zhǔn)和實(shí)驗(yàn)結(jié)果與分析進(jìn)行介紹;第5 節(jié)為結(jié)束語.

    2 相關(guān)工作

    近年來,深度學(xué)習(xí)技術(shù)在命名實(shí)體識別上的應(yīng)用成為新的浪潮.深度學(xué)習(xí)方法為科研理論的驗(yàn)證提供了一種新的解決思路,最典型的深度學(xué)習(xí)模型為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),卷積神經(jīng)網(wǎng)絡(luò)(CNN)的系列架構(gòu)[3,4],本文將對通識領(lǐng)域命名實(shí)體識別跟特定領(lǐng)域命名實(shí)體識別的研究成果進(jìn)行介紹.

    2.1 通識領(lǐng)域命名實(shí)體識別

    Huang 等人[5]提出了BiLSTM-CRF 模型,憑借巧妙設(shè)計的雙向LSTM 結(jié)構(gòu),BiLSTM-CRF 模型可以有效地使用過去和未來的輸入特性,該模型通過CRF 層可以使用句子級標(biāo)記信息.BiLSTM-CRF 模型可以在POS、分塊和NER 數(shù)據(jù)集上產(chǎn)生最先進(jìn)(或接近)的準(zhǔn)確性,并且具有較強(qiáng)的魯棒性,對詞嵌入的依賴性更小,可以實(shí)現(xiàn)準(zhǔn)確的標(biāo)注精度,而不需要借助于word的嵌入.

    Zhang 等人[6]提出了Lattice LSTM 模型,該模型對輸入字符序列以及所有與詞典匹配的潛在單詞進(jìn)行編碼,與基于字符的方法相比,Lattice LSTM 明確地利用了單詞和單詞序列信息,與基于詞的方法相比,Lattice LSTM 不存在切分錯誤.Lattice LSTM 模型使用門控循環(huán)單元從一個句子中選擇最相關(guān)的字符和單詞,以獲得更好的實(shí)體識別結(jié)果.Lattice 方法完全獨(dú)立于分詞,但由于可以在上下文中自由選擇詞典單詞來消除歧義,因此在使用單詞信息方面更加有效,在MSRA數(shù)據(jù)集中取得了93.18%的F1 值.

    Gui 等人[7]提出了LR-CNN 模型,采取CNN 對字符特征進(jìn)行編碼,感受野大小為2 提取bi-gram 特征,堆疊多層獲得multi-gram 信息,同時采取注意力機(jī)制融入詞匯信息(word embed)以解決Lattice LSTM 模型[6]存在不能充分利用GPU 進(jìn)行并行化的問題,LR-CNN最終相比于Lattice LSTM 快3.21 倍;LR-CNN 采取rethinking 機(jī)制增加feedback layer 來調(diào)整詞匯信息的權(quán)值以解決Lattice LSTM 模型存在無法有效處理詞匯信息沖突的問題.

    Li 等人[8]提出了FLAT 模型,該模型將其lattice 結(jié)構(gòu)轉(zhuǎn)換成由跨度(spans)組成的平面結(jié)構(gòu),每個span 相當(dāng)于一個字或者一個詞在其原始lattice中的位置,得益于Transformer和position encoding,FLAT 可以充分利用lattice 信息,具有出色的并行化能力.FLAT 解決了在中文NER中,lattice 模型因?yàn)槠鋸?fù)雜度和動態(tài)性問題,導(dǎo)致其無法很好的利用GPU,限制了其運(yùn)行速度的問題.在數(shù)據(jù)集(OntoNotes、MSRA、Resume和Weibo)上,FLAT 在性能和效率方面均取得了很理想的效果.

    2.2 特定領(lǐng)域命名實(shí)體識別

    在社交領(lǐng)域,李源等人[9]為解決基于詞粒度信息或者外部知識的中文命名實(shí)體識別方法存在中文分詞(CWS)和溢出詞(OOV)的問題,提出一種基于字符的使用位置編碼和多種注意力的對抗學(xué)習(xí)模型,聯(lián)合使用位置編碼和多頭注意力能夠更好地捕獲字序間的依賴關(guān)系,而使用空間注意力的判別器則能改善對外部知識的提取效果,該模型分別在Weibo2015 數(shù)據(jù)集和Weibo2017 數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果中的F1 值分別為56.79%和60.62%.

    在軍事領(lǐng)域,李健龍等人[10]為了減少傳統(tǒng)的命名實(shí)體識別需要人工制定特征的大量工作,通過無監(jiān)督訓(xùn)練獲得軍事領(lǐng)域語料的分布式向量表示,采用雙向LSTM 模型解決軍事領(lǐng)域命名實(shí)體的識別問題,并且通過添加字詞結(jié)合的輸入向量和注意力機(jī)制對雙向LSTM 網(wǎng)絡(luò)模型進(jìn)行擴(kuò)展和改進(jìn),進(jìn)而提高軍事領(lǐng)域命名實(shí)體識別,提出的方法在軍事領(lǐng)域數(shù)據(jù)集上的F1 值達(dá)到了87.38%.

    在軍用軟件測試領(lǐng)域,韓鑫鑫等人[11]針對字詞聯(lián)合實(shí)體識別方法準(zhǔn)確率不高的問題,進(jìn)行字符級特征提取方法的改進(jìn),提出了CWA-BiLSTM-CRF 識別框架,該框架包含兩部分:第一部分構(gòu)建預(yù)訓(xùn)練的字詞融合字典,將字詞一起輸入給雙向長短期記憶網(wǎng)絡(luò)進(jìn)行訓(xùn)練,并加入注意力機(jī)制衡量詞內(nèi)各字對特征的語義貢獻(xiàn),提取出字符級特征;第二部分將字符級特征與詞向量等特征進(jìn)行拼接,輸入給雙向長短期記憶網(wǎng)絡(luò)進(jìn)行訓(xùn)練,再通過條件隨機(jī)場解決標(biāo)簽結(jié)果序列不合理的問題,識別出文中的實(shí)體,所提出的框架在軍用軟件測試數(shù)據(jù)集上的F1 值達(dá)到了88.93%.

    在醫(yī)療領(lǐng)域,寧尚明等人[12]針對電子病歷實(shí)體的高密度分布以及實(shí)體間關(guān)系的交叉互聯(lián)問題,提出一種基于多通道自注意力機(jī)制的“recurrent+transformer”神經(jīng)網(wǎng)絡(luò)架構(gòu),提升對電子病歷專有文本特點(diǎn)的學(xué)習(xí)能力,同時顯著降低模型整體復(fù)雜度,并且在該網(wǎng)絡(luò)架構(gòu)下提出帶權(quán)學(xué)習(xí)的交叉熵?fù)p失函數(shù)以及基于權(quán)重的位置嵌入的輔助訓(xùn)練方法,該框架相繼在2010 i2b2/VA及SemEval 2013 DDI 醫(yī)學(xué)語料中進(jìn)行驗(yàn)證,相較于傳統(tǒng)自注意力機(jī)制,多通道自注意力機(jī)制的引入在模型整體F1 指標(biāo)中最高實(shí)現(xiàn)10.67%的性能提升,在細(xì)粒度單項對比實(shí)驗(yàn)中,引入類別權(quán)重的損失函數(shù)在小類別樣本中的F1 值最高提升近23.55%.

    3 本文提出的網(wǎng)絡(luò)框架

    本文針對簡要案情文本存在實(shí)體稠密分布、實(shí)體間相互嵌套以及實(shí)體簡稱的問題,對字符向量的生成方法進(jìn)行了改進(jìn),提出了RC-BiLSTM-CRF 網(wǎng)絡(luò)框架.RC-BiLSTM-CRF 整體算法框架如圖1所示,主要分為輸入模塊、字符向量生成模塊和輸出模塊,先對待標(biāo)注文本進(jìn)行數(shù)據(jù)清洗,用正則方法將待標(biāo)注的文本的噪聲信息過濾掉,有利于本文所提模型提取出重要特征信息;將清洗后的數(shù)據(jù)輸入到字符向量生成模塊,字符向量生成模塊中首先通過Roberta 預(yù)訓(xùn)練模型將文本生成字符向量,經(jīng)過本文合理設(shè)計的卷積層能夠提取字符向量中的局部關(guān)鍵特征,并能將冗長的字符向量進(jìn)行濃縮,緊隨的激活層能夠有效提高卷積層的特征學(xué)習(xí)能力和提升網(wǎng)絡(luò)的性能;經(jīng)過字符向量生成模塊后,將字符向量輸入到BiLSTM 層,BiLSTM 層對字符序列進(jìn)行上下文特征以及字符間依賴性學(xué)習(xí),通過Dropout 層隨機(jī)刪掉網(wǎng)絡(luò)中一定比例的隱藏神經(jīng)元,可以有效緩解模型過擬合情況,TimeDistributed 層將所有字符的向量維度進(jìn)行約束,使得字符向量的維度等于實(shí)體標(biāo)簽數(shù),最后通過CRF 層得到輸入文本的標(biāo)注序列.

    圖1 本文提出的整體算法框架

    本文提出的RC-BiLSTM-CRF 模型的整體結(jié)構(gòu)如圖2所示,網(wǎng)絡(luò)結(jié)構(gòu)包括一個Roberta 預(yù)訓(xùn)練層,一個CNN 層和BiLSTM-CRF 模型.下面將對RC-BiLSTMCRF 網(wǎng)絡(luò)結(jié)構(gòu)的各個部分進(jìn)行詳細(xì)闡述.

    圖2 模型整體結(jié)構(gòu)

    3.1 Roberta 預(yù)訓(xùn)練層

    預(yù)訓(xùn)練模型本質(zhì)上運(yùn)用了遷移學(xué)習(xí)[13]的思想,利用大規(guī)模訓(xùn)練語料為預(yù)訓(xùn)練模型的參數(shù)進(jìn)行訓(xùn)練,然后將訓(xùn)練好的模型應(yīng)用到下游任務(wù),避免了深度學(xué)習(xí)模型重新訓(xùn)練參數(shù)和減少了對標(biāo)注數(shù)據(jù)的需求,縮短了字、詞向量訓(xùn)練的耗時.Roberta 預(yù)訓(xùn)練模型是BERT (bidirectional encoder representations from transformers)預(yù)訓(xùn)練模型的改進(jìn)模型,Liu 等人對BERT 預(yù)訓(xùn)練模型進(jìn)行精細(xì)調(diào)參和調(diào)整訓(xùn)練集,訓(xùn)練得到的Roberta 模型在性能上相較于BERT 模型提升顯著[14–16].Roberta 預(yù)訓(xùn)練模型充分考慮字符級、詞語級、句字級和句間的關(guān)系特征,增強(qiáng)了字向量的語義表示,把這些學(xué)習(xí)到的語義知識通過遷移學(xué)習(xí)應(yīng)用到數(shù)據(jù)規(guī)模和

    標(biāo)注量較少的簡要案情的命名實(shí)體識別具體任務(wù)上,能使模型更好的挖掘簡要案情文本的特征信息.

    將字符序列chars=(char1,char2,…,charn),輸入到Roberta 預(yù)訓(xùn)練模型中,Roberta 預(yù)訓(xùn)練模型通過在其他大規(guī)模語料上訓(xùn)練好的參數(shù)將chars中所有的字符生成向量,即char=(embedding1,embedding2,…,embedingm).相較于構(gòu)建word2id 詞典,通過id 匹配id2vec 詞典的方法,預(yù)訓(xùn)練模型可以縮短字符向量的維度,有效解決文本特征稀疏問題,學(xué)習(xí)上下文信息來表征字詞的多義性.

    3.2 卷積神經(jīng)網(wǎng)絡(luò)層

    卷積神經(jīng)網(wǎng)絡(luò)在本文所提出的字符向量生成方法中起著關(guān)鍵性作用,卷積神經(jīng)網(wǎng)絡(luò)層可以為Roberta 預(yù)訓(xùn)練模型生成的字符向量進(jìn)一步提煉,去除冗長字向量中的噪聲,提取出簡短并蘊(yùn)含局部重要特征信息的字符向量.卷積操作的計算公式如下所示:

    其中,* 表示卷積計算,Xlj表示第l層的第j個字符特征向量,Xlj-1表示第l-1 層的第j個字符特征向量,Kilj表示用來連接第l層的第i個字符特征向量和第j個字符特征向量的卷積核,Blj表示第l層的第j個字符特征向量的偏置量[17].

    由于從Roberta 預(yù)訓(xùn)練模型中生成的字符向量是一維向量,于是本文使用一維卷積層對字符向量進(jìn)行細(xì)粒度特征捕捉操作.為了合理選擇卷積層的濾波器的數(shù)量,本文選取了10–40 個濾波器進(jìn)行實(shí)驗(yàn),實(shí)驗(yàn)參數(shù)中epochs 均為50,batch_size 均為16,卷積核大小均為3,實(shí)驗(yàn)結(jié)果如圖3所示.

    如圖3所示,使用28 個濾波器的卷積層在本模型中的效果是最好的,所以本文針對簡要案情命名實(shí)體識別設(shè)計了包含28 個濾波器,卷積核大小為3的卷積層.由于池化層是一個下采樣的過程,在減小特征向量長度的同時,會使得部分案情實(shí)體特征信息丟失,從而降低下一步BiLSTM 進(jìn)行上下文特征提取的性能,收斂速度變得緩慢,從而影響模型最終的實(shí)體標(biāo)注的準(zhǔn)確率,因此在本文的網(wǎng)絡(luò)結(jié)構(gòu)中取消了池化層的使用.經(jīng)Roberta 預(yù)訓(xùn)練模型處理得到每個字符向量的維度為3072 維,通過綜合考慮設(shè)計的包含28 個濾波器,卷積核大小為3的卷積層,對字符向量的特征進(jìn)行提取,使得字符向量序列從100×3072 降維到100×28 維,解決了預(yù)訓(xùn)練模型帶來的字符向量冗長的問題,框架參數(shù)量的減少促使模型整體參數(shù)收斂的速率提高了9.46%,同時F1 值提高了1.73%.

    圖3 濾波器實(shí)驗(yàn)對比

    3.3 BiLSTM-CRF 模型

    BiLSTM-CRF 模型拉開了命名實(shí)體識別深度學(xué)習(xí)時代的序幕,使得命名實(shí)體識別模型更加簡潔高效,魯棒性更強(qiáng).本文針對簡要案情本文構(gòu)建基于BiLSTMCRF的實(shí)體識別模型,模型分為2 部分,接下來進(jìn)行詳細(xì)介紹.

    3.3.1 BiLSTM 層

    將已標(biāo)注訓(xùn)練文本輸入到上文提及的字符向量生成方法中,生成字符向量.將字符向量輸入到BiLSTM層中.BiLSTM 包含了前向和后向的長短期記憶(LSTM),通過BiLSTM 可以更好地學(xué)習(xí)上下文信息以及捕捉雙向的語義依賴,彌補(bǔ)了LSTM 不能向前編碼信息的能力.在LSTM中,有兩個狀態(tài)向量C和h,其中C作為LSTM的內(nèi)部狀態(tài)向量,可以理解為LSTM的內(nèi)存狀態(tài)向量Memory,而h表示LSTM的輸出向量.相對于基礎(chǔ)的RNN 來說,LSTM 把內(nèi)部Memory和輸出分開為兩個變量,同時利用3 個門控:輸入門(imput gate)、遺忘門(forget gate)和輸出門(output gate)來控制內(nèi)部信息的流動,公式如式(2)–式(7)所示:

    其中,W、b分別表示LSTM的隱藏層權(quán)重矩陣和偏置向量,ft,it,ot分別表示時間戳t的遺忘門、輸入門和輸出門,σ是Sigmoid 激活函數(shù),t anh是tanh 激活函數(shù),ht和Ct分 別表示時間戳t的輸出和細(xì)胞單元狀態(tài).正向LSTM的輸出值為反向LSTM的輸出值為BiLSTM 則是將正向LSTM跟反向LSTM 所得的向量進(jìn)行拼接,即

    3.3.2 CRF 輸出層

    CRF 在整個模型中起著至關(guān)重要的作用,因?yàn)榻?jīng)過BiLSTM 層處理,得到的字符向量是字符對應(yīng)的所有標(biāo)簽的概率,最終輸出的結(jié)果是每個字符對應(yīng)的最大概率值的標(biāo)簽,這樣會導(dǎo)致輸出的標(biāo)簽序列可能不符合命名實(shí)體識別規(guī)范.CRF的維特比算法在解碼時候擁有較高的效率,通過CRF 層的約束,讓輸出標(biāo)簽序列符合實(shí)體規(guī)則.標(biāo)簽序列的最終標(biāo)注由Emission-Score (發(fā)射狀態(tài)矩陣)跟TransitionScore (轉(zhuǎn)移分?jǐn)?shù))決定.當(dāng)輸入序列,標(biāo)注序列,公式如式(8)和式(9)所示:

    x=(x1,x2,···,xn)y=(y1,y2,···,yn)

    其中,EmissionS core表示BiLSTM 輸出標(biāo)簽的分?jǐn)?shù),TransitionS core表示標(biāo)簽之間轉(zhuǎn)移的分?jǐn)?shù),eSi表示當(dāng)前標(biāo)簽序列分?jǐn)?shù),是所有標(biāo)簽序列的分?jǐn)?shù)的總計,最大P(y|x) 值對應(yīng)的y為序列x的正確標(biāo)注序列.

    4 實(shí)驗(yàn)及分析

    4.1 實(shí)驗(yàn)數(shù)據(jù)集

    本文所使用的數(shù)據(jù)集來自湖南省省公安機(jī)關(guān)的簡要案情數(shù)據(jù)集(JW_data),數(shù)據(jù)的格式為tsv,本文先用正則方法將待清洗的數(shù)據(jù)集的噪聲信息過濾掉,有利于本文模型提取出重要特征信息,清洗后的數(shù)據(jù)集中訓(xùn)練集占60%,測試集占20%,驗(yàn)證集占20%.數(shù)據(jù)統(tǒng)計信息如表1所示.

    表1 數(shù)據(jù)實(shí)體統(tǒng)計

    清洗后的簡要案情數(shù)據(jù)集在標(biāo)注平臺doccano 進(jìn)行人工標(biāo)注,將案發(fā)地點(diǎn)、涉案人員、涉案財產(chǎn)和涉案事件關(guān)鍵詞4 類實(shí)體作為本實(shí)驗(yàn)的標(biāo)注實(shí)體,對簡要案情數(shù)據(jù)集采用BIO 標(biāo)注方式,B (Begin)對應(yīng)字符序列中實(shí)體的起始位置,I (Intermediate)對應(yīng)字符序列中實(shí)體的中間位置或者結(jié)束位置,O (Other)對應(yīng)字符序列中非實(shí)體的字符,案發(fā)地點(diǎn)的標(biāo)簽包括(B-LOC,ILOC),涉案人員的標(biāo)簽包括(B-PER,I-PER),涉案財產(chǎn)的標(biāo)簽包括(B-Property,I-Property),涉案事件關(guān)鍵詞的標(biāo)簽包括(B-Event,I-Event),非實(shí)體字符的標(biāo)簽為(O).實(shí)體統(tǒng)計如表2所示.

    表2 數(shù)據(jù)實(shí)體標(biāo)簽統(tǒng)計

    4.2 模型參數(shù)設(shè)置

    本文選擇Roberta 預(yù)訓(xùn)練模型生成簡要案情數(shù)據(jù)集的字符向量,字符序列長度設(shè)置為100,所生成的字符向量維度設(shè)定為3072,所以輸出字符向量序列的維度為100×3072.本文實(shí)驗(yàn)使用的Batch_size 設(shè)定為16,epochs 設(shè)定為50,學(xué)習(xí)率為0.001.卷積神經(jīng)網(wǎng)絡(luò)中卷積層的過濾器數(shù)量為28,kernel_size為3,padding為“same”,激活函數(shù)為ReLU 函數(shù),卷積層的權(quán)重初始化方法為“glorot_uniform”,偏移初始化方法為“zeros”,輸出的字符序列維度為100×28;雙向長短期記憶的units 設(shè)定為128,故輸出的字符序列維度為100×256,dropout為0.4.

    4.3 模型評估標(biāo)準(zhǔn)

    本文采用準(zhǔn)確率(precision),召回率(recall),F1 值作為模型的評價標(biāo)準(zhǔn),對簡要案情數(shù)據(jù)的實(shí)體識別結(jié)果進(jìn)行全方面的評價.精確度、召回率和F1 值的公式如式(10)和式(12)所示:

    其中,T p表示實(shí)際為正被預(yù)測為正的實(shí)體數(shù)量,Fp表示實(shí)際為負(fù)但被預(yù)測為正的實(shí)體數(shù)量,Fn表示實(shí)際為正但被預(yù)測為負(fù)的實(shí)體的數(shù)量.

    4.4 實(shí)驗(yàn)結(jié)果與分析

    本文采用BiGRU、BiBRU-CRF、BiLSTM、BiLSTMCRF 及CNN-LSTM 作為基線模型與本文所提的模型進(jìn)行對比,各模型的基本信息如下:

    (1)BiGRU:采用BiGRU 提取特征并通過全連接層直接對字符向量序列進(jìn)行標(biāo)注的模型.

    (2)BiBRU-CRF:采用BiGRU 提取特征并結(jié)合CRF 對輸入字符向量序列進(jìn)行標(biāo)注的模型.

    (3)BiLSTM:采用BiLSTM 提取上下文特征并通過全連接層直接對字符向量序列進(jìn)行標(biāo)注的模型.

    (4)BiLSTM-CRF:采用BiLSTM 提取上下文特征并結(jié)合CRF 對輸入字符向量序列進(jìn)行標(biāo)注的模型.

    (5)CNN-LSTM:采用本文設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)對字符

    向量的局部特征進(jìn)行捕捉,再通過LSTM 層對字符向量序列的正向特征進(jìn)行學(xué)習(xí),最后通過全連接層直接對字符向量序列進(jìn)行標(biāo)注的模型.

    為驗(yàn)證本文所提模型加入Roberta 預(yù)訓(xùn)練模型的必要性,本文對所提出的模型和基線模型進(jìn)行了驗(yàn)證,性能對比如表3所示.

    從表3的結(jié)果可以看出以上6 種模型通過加入Roberta 預(yù)訓(xùn)練模型訓(xùn)練數(shù)據(jù)集的字符向量,準(zhǔn)確率、召回率和F1 值都能大幅度提升,Roberta 預(yù)訓(xùn)練模型通過在大規(guī)模訓(xùn)練語料訓(xùn)練模型參數(shù),一定程度上減少了對本文實(shí)驗(yàn)標(biāo)注數(shù)據(jù)的依賴性,避免了本文實(shí)驗(yàn)數(shù)據(jù)較少導(dǎo)致模型效果不理想的情況.以上6 種模型,相較于未加入Roberta 預(yù)訓(xùn)練模型的框架,準(zhǔn)確率提高了5.94%~10.75%,召回率提高了5.56%~9.36%,F1 值提高了5.78%~10.12%,由此可見在本文所提的模型中加入Roberta 預(yù)訓(xùn)練模型是必要的.

    表3 對比實(shí)驗(yàn)結(jié)果(%)

    通過表3,可知基于本文的簡要案情數(shù)據(jù),加入Roberta 預(yù)訓(xùn)練模型可以全方面提升模型的性能,于是本文將R-BiGRU、R-BiBRU-CRF、R-BiLSTM、RBiLSTM-CRF和R-CNN-LSTM 這5 種模型相互之間進(jìn)行性能對比,模型性能對比如表4所示.

    表4 模型性能對比(%)

    由表4所示,在加入Roberta 預(yù)訓(xùn)練模型后,以上5 種模型在簡要案情文本上的準(zhǔn)確率、召回率和F1值上都表現(xiàn)出了不錯的性能,其中R-BiLSTM-CRF 模型的precision 值為85.38%和F1 值為86.29%,相對于其它4 種模型來說有較大的領(lǐng)先優(yōu)勢.

    為了驗(yàn)證本文設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)能大幅度提升模型的效率跟模型的性能,將CNN-BiLSTM-CRF 模型與BiLSTM-CRF 進(jìn)行實(shí)驗(yàn)對比,RC-BiLSTM-CRF 與加入Roberta 預(yù)訓(xùn)練模型的BiLSTM-CRF 模型(RBiLSTM-CRF 模型)進(jìn)行實(shí)驗(yàn)對比,多方面的實(shí)驗(yàn)對比結(jié)果如表5所示.

    由表5可知,CNN-BiLSTM-CRF 模型相較于BiLSTM-CRF 模型,準(zhǔn)確率提高了1.39%,F1 值提高了0.42%,以及耗時減少了7.10%.RC-BiLSTM-CRF模型相較于R-BiLSTM-CRF 模型,準(zhǔn)確率提高了1.85%,召回率提高了1.58%,F1 值提高了1.73%,以及耗時減少了9.46%.由此可見,本文所提出的卷積神經(jīng)網(wǎng)絡(luò)能大幅度提升模型的效率跟模型的性能.

    表5 多方面對比實(shí)驗(yàn)

    綜合表3–表5所述,本文針對簡要案情的實(shí)體識別方法,與基線模型的對比之下,在準(zhǔn)確率、召回率和F1值均表現(xiàn)出了突出的性能優(yōu)勢.得益于本文合理設(shè)計的卷積神經(jīng)網(wǎng)絡(luò),使得本文所提出的RC-BiLSTMCRF 模型相較于R-BiLSTM-CRF 模型,在大幅度提高模型識別性能的同時,還降低了訓(xùn)練模型所耗費(fèi)的時間.

    5 結(jié)束語

    本文主要研究了面向簡要案情的命名實(shí)體識別任務(wù),考慮到目前尚無針對該領(lǐng)域命名實(shí)體識別的研究,本文首次嘗試對該方向進(jìn)行了學(xué)習(xí)和探討,構(gòu)建了用于命名實(shí)體識別的簡要案情文本的標(biāo)注數(shù)據(jù)集,并在前人研究的基礎(chǔ)之上提出了一種改進(jìn)的識別框架(RCBiLSTM-CRF),通過改進(jìn)的字符向量生成方法對簡要案情數(shù)據(jù)的字符進(jìn)行了有效的表示,生成字符向量,通過該方法中合理設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)層對字符向量的局部細(xì)粒度特征進(jìn)行提取,降低了字符向量維度,解決了預(yù)訓(xùn)練模型帶來的字符向量冗長的問題,框架參數(shù)量的減少促使模型整體參數(shù)收斂的速率大幅度提高,為彌補(bǔ)一維卷積層在字符序列上下文特征和依賴關(guān)系提取的缺陷,在模型中引入BiLSTM 層,最后利用CRF 層對文本序列標(biāo)簽進(jìn)行約束輸出.本文提出的RC-BiLSTM-CRF 網(wǎng)絡(luò)框架,相對于未加入本文設(shè)計的卷積神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)框架,在準(zhǔn)確度、召回率和F1 值上分別提高了1.85%、1.58%和1.73%,總耗時減少了9.46%,與其它4 種模型相比較,在準(zhǔn)確率、召回率和F1 值3 個評價標(biāo)準(zhǔn)上均取得了最好的效果.由于本實(shí)驗(yàn)是在標(biāo)注量少的簡要案情數(shù)據(jù)集上進(jìn)行的,在接下來的工作中,可拓展簡要案情的數(shù)據(jù)規(guī)模,使得模型的魯棒性更好.

    猜你喜歡
    案情字符實(shí)體
    尋找更強(qiáng)的字符映射管理器
    字符代表幾
    前海自貿(mào)區(qū):金融服務(wù)實(shí)體
    中國外匯(2019年18期)2019-11-25 01:41:54
    一種USB接口字符液晶控制器設(shè)計
    電子制作(2019年19期)2019-11-23 08:41:50
    是誰下的毒
    消失的殖民村莊和神秘字符
    實(shí)體的可感部分與實(shí)體——兼論亞里士多德分析實(shí)體的兩種模式
    兩會進(jìn)行時:緊扣實(shí)體經(jīng)濟(jì)“釘釘子”
    振興實(shí)體經(jīng)濟(jì)地方如何“釘釘子”
    報案者
    欧美精品一区二区大全| 国产成人精品久久久久久| 新久久久久国产一级毛片| 丰满饥渴人妻一区二区三| 中文字幕精品免费在线观看视频 | 少妇被粗大猛烈的视频| 99精国产麻豆久久婷婷| 最近2019中文字幕mv第一页| 欧美性感艳星| 只有这里有精品99| 国产欧美亚洲国产| 男男h啪啪无遮挡| av在线观看视频网站免费| 夜夜爽夜夜爽视频| 热re99久久精品国产66热6| 校园人妻丝袜中文字幕| 少妇被粗大猛烈的视频| 伦理电影大哥的女人| 极品教师在线视频| 好男人视频免费观看在线| 精品久久国产蜜桃| 观看av在线不卡| 免费大片黄手机在线观看| 99久久人妻综合| 99久久精品国产国产毛片| 亚洲自偷自拍三级| 日韩欧美 国产精品| 青春草视频在线免费观看| 亚洲高清免费不卡视频| 十分钟在线观看高清视频www | 色婷婷久久久亚洲欧美| 一级片'在线观看视频| 三级国产精品欧美在线观看| 国产午夜精品一二区理论片| 在线观看www视频免费| 精品一区在线观看国产| 夜夜看夜夜爽夜夜摸| 久久久久久久大尺度免费视频| 啦啦啦中文免费视频观看日本| 国产真实伦视频高清在线观看| 久久精品国产亚洲av涩爱| 久久精品国产鲁丝片午夜精品| 亚洲精品久久午夜乱码| 亚洲精品视频女| 青春草视频在线免费观看| 亚洲欧美清纯卡通| 少妇的逼好多水| 最新的欧美精品一区二区| 免费少妇av软件| 久久久久网色| 一区二区三区四区激情视频| 国产精品成人在线| 久久鲁丝午夜福利片| 丰满饥渴人妻一区二区三| 国产免费一区二区三区四区乱码| 26uuu在线亚洲综合色| 日韩成人伦理影院| 免费看日本二区| 毛片一级片免费看久久久久| 日本vs欧美在线观看视频 | 午夜福利在线观看免费完整高清在| 亚洲国产毛片av蜜桃av| 国产乱来视频区| 免费观看无遮挡的男女| 亚洲综合色惰| 亚洲第一区二区三区不卡| 色5月婷婷丁香| 国产91av在线免费观看| 曰老女人黄片| 精品少妇久久久久久888优播| 亚洲欧洲国产日韩| 国产av精品麻豆| 男人添女人高潮全过程视频| 简卡轻食公司| 免费观看无遮挡的男女| 免费人妻精品一区二区三区视频| av福利片在线观看| 伊人久久国产一区二区| 成年人午夜在线观看视频| 天美传媒精品一区二区| 大片电影免费在线观看免费| 如日韩欧美国产精品一区二区三区 | 99久久中文字幕三级久久日本| 亚洲国产精品一区二区三区在线| 成年女人在线观看亚洲视频| 蜜桃久久精品国产亚洲av| 欧美xxxx性猛交bbbb| 观看美女的网站| 日本av免费视频播放| 少妇精品久久久久久久| 国产精品一区www在线观看| 国产日韩一区二区三区精品不卡 | 你懂的网址亚洲精品在线观看| 免费黄频网站在线观看国产| 男人和女人高潮做爰伦理| 国产日韩一区二区三区精品不卡 | 在线观看免费高清a一片| av又黄又爽大尺度在线免费看| 女人久久www免费人成看片| 免费人成在线观看视频色| 老熟女久久久| 久久精品夜色国产| 久久6这里有精品| 日韩强制内射视频| 亚洲精品日韩在线中文字幕| 女人久久www免费人成看片| 大又大粗又爽又黄少妇毛片口| 亚洲图色成人| 妹子高潮喷水视频| 国产在视频线精品| 草草在线视频免费看| 亚洲欧美一区二区三区黑人 | 国产av一区二区精品久久| 国产精品久久久久久精品古装| 高清欧美精品videossex| 午夜免费鲁丝| 亚洲精品色激情综合| 精品国产乱码久久久久久小说| 国产精品一区二区性色av| 日韩欧美一区视频在线观看 | 色视频www国产| 日韩亚洲欧美综合| 日日摸夜夜添夜夜爱| xxx大片免费视频| 亚洲精品日韩av片在线观看| 人体艺术视频欧美日本| 女的被弄到高潮叫床怎么办| 人妻人人澡人人爽人人| 国国产精品蜜臀av免费| 亚洲欧美成人综合另类久久久| 国产黄片美女视频| 黄色配什么色好看| 涩涩av久久男人的天堂| 一个人免费看片子| 亚洲色图综合在线观看| 男的添女的下面高潮视频| 欧美激情极品国产一区二区三区 | 天美传媒精品一区二区| 国产男人的电影天堂91| av在线观看视频网站免费| 久久久久久久久久人人人人人人| 黄色欧美视频在线观看| 国产乱人偷精品视频| 国产精品一二三区在线看| 曰老女人黄片| 午夜老司机福利剧场| 青青草视频在线视频观看| 国产精品无大码| 中文字幕人妻丝袜制服| 97超碰精品成人国产| 久久久久久久久久成人| 成年人免费黄色播放视频 | 男女啪啪激烈高潮av片| 国产 一区精品| 国产成人91sexporn| 亚洲精品乱久久久久久| 国产精品免费大片| 人体艺术视频欧美日本| 亚洲精品久久午夜乱码| 欧美精品国产亚洲| 亚洲综合色惰| 纵有疾风起免费观看全集完整版| 女性生殖器流出的白浆| 精品人妻熟女毛片av久久网站| 人妻少妇偷人精品九色| 97超视频在线观看视频| 高清午夜精品一区二区三区| 婷婷色av中文字幕| 国产精品久久久久成人av| 男男h啪啪无遮挡| 国产高清国产精品国产三级| 啦啦啦在线观看免费高清www| 国产一区二区在线观看日韩| 日产精品乱码卡一卡2卡三| 成人亚洲欧美一区二区av| 欧美人与善性xxx| 久久久精品免费免费高清| 新久久久久国产一级毛片| 纯流量卡能插随身wifi吗| 亚洲婷婷狠狠爱综合网| 午夜免费鲁丝| 欧美少妇被猛烈插入视频| 我的女老师完整版在线观看| 天天操日日干夜夜撸| 99视频精品全部免费 在线| 人人妻人人看人人澡| 精品视频人人做人人爽| 夜夜爽夜夜爽视频| 精品久久久噜噜| 香蕉精品网在线| 熟女人妻精品中文字幕| 婷婷色综合www| 一级毛片我不卡| 性色avwww在线观看| 日韩强制内射视频| 亚洲精品乱久久久久久| 日本wwww免费看| 欧美日韩精品成人综合77777| 高清黄色对白视频在线免费看 | 丁香六月天网| 国产亚洲一区二区精品| a级毛片免费高清观看在线播放| 人人妻人人澡人人看| 国产精品无大码| 一级毛片黄色毛片免费观看视频| 久久久国产精品麻豆| 伊人久久精品亚洲午夜| 尾随美女入室| 尾随美女入室| 女的被弄到高潮叫床怎么办| 婷婷色av中文字幕| 国产黄色视频一区二区在线观看| 免费在线观看成人毛片| 久久国内精品自在自线图片| 在线 av 中文字幕| 国产在视频线精品| 国模一区二区三区四区视频| 日日爽夜夜爽网站| 少妇猛男粗大的猛烈进出视频| 日韩强制内射视频| 免费大片18禁| 亚洲性久久影院| 亚洲精品第二区| 王馨瑶露胸无遮挡在线观看| 一级毛片电影观看| 亚洲av福利一区| 国产欧美另类精品又又久久亚洲欧美| 一边亲一边摸免费视频| 国产男人的电影天堂91| 欧美精品一区二区免费开放| 男女免费视频国产| 日韩欧美 国产精品| 欧美+日韩+精品| 久久6这里有精品| 一级a做视频免费观看| 搡老乐熟女国产| av不卡在线播放| 如何舔出高潮| 国产亚洲av片在线观看秒播厂| kizo精华| 日韩一本色道免费dvd| 久久精品久久久久久噜噜老黄| 人人妻人人添人人爽欧美一区卜| 国产片特级美女逼逼视频| 亚洲美女搞黄在线观看| 午夜免费男女啪啪视频观看| 国产av精品麻豆| 3wmmmm亚洲av在线观看| 国产视频首页在线观看| 国产片特级美女逼逼视频| 久久狼人影院| 黄色配什么色好看| 男人舔奶头视频| 又粗又硬又长又爽又黄的视频| 国产精品久久久久久av不卡| 亚洲人与动物交配视频| 欧美97在线视频| 黑丝袜美女国产一区| 欧美日韩精品成人综合77777| 狂野欧美激情性xxxx在线观看| 日韩免费高清中文字幕av| 欧美日韩亚洲高清精品| 精品一品国产午夜福利视频| 午夜福利在线观看免费完整高清在| 蜜臀久久99精品久久宅男| 亚洲精品色激情综合| 毛片一级片免费看久久久久| 国产精品久久久久久精品古装| 大又大粗又爽又黄少妇毛片口| 美女脱内裤让男人舔精品视频| 久久精品国产自在天天线| av一本久久久久| 国产老妇伦熟女老妇高清| 伊人久久国产一区二区| 性高湖久久久久久久久免费观看| 在线观看免费日韩欧美大片 | 国产女主播在线喷水免费视频网站| 汤姆久久久久久久影院中文字幕| 日韩三级伦理在线观看| 国模一区二区三区四区视频| 自线自在国产av| 亚洲无线观看免费| freevideosex欧美| 亚洲国产欧美在线一区| 最近手机中文字幕大全| 老熟女久久久| 精品国产一区二区三区久久久樱花| 3wmmmm亚洲av在线观看| 国产综合精华液| 久久99热6这里只有精品| 在线观看免费视频网站a站| 久久99一区二区三区| 国产精品人妻久久久影院| 久久青草综合色| 成人二区视频| 国产毛片在线视频| 哪个播放器可以免费观看大片| 少妇裸体淫交视频免费看高清| 亚洲精品第二区| 在线观看免费视频网站a站| 你懂的网址亚洲精品在线观看| 亚洲美女视频黄频| xxx大片免费视频| 国内精品宾馆在线| 中文字幕人妻熟人妻熟丝袜美| 日韩,欧美,国产一区二区三区| 国产亚洲5aaaaa淫片| 美女xxoo啪啪120秒动态图| 秋霞在线观看毛片| 在线观看免费视频网站a站| 日韩av不卡免费在线播放| 一级a做视频免费观看| 人妻少妇偷人精品九色| 久久婷婷青草| 国内少妇人妻偷人精品xxx网站| 自拍欧美九色日韩亚洲蝌蚪91 | 伊人久久精品亚洲午夜| 久久99精品国语久久久| 国产精品女同一区二区软件| 韩国av在线不卡| 18+在线观看网站| 日产精品乱码卡一卡2卡三| 国产综合精华液| 18禁动态无遮挡网站| 国产伦理片在线播放av一区| 午夜av观看不卡| 国产视频首页在线观看| 久久99热6这里只有精品| 欧美+日韩+精品| 免费人妻精品一区二区三区视频| 久久午夜综合久久蜜桃| 久久精品久久久久久久性| 精品少妇黑人巨大在线播放| 日本av免费视频播放| 国精品久久久久久国模美| 亚洲人成网站在线播| 伦理电影大哥的女人| 成人国产麻豆网| 老司机影院成人| 日韩欧美一区视频在线观看 | 日本欧美国产在线视频| 日本91视频免费播放| 三级国产精品欧美在线观看| 国产成人精品婷婷| 狂野欧美白嫩少妇大欣赏| 欧美高清成人免费视频www| 日韩人妻高清精品专区| 国产亚洲最大av| 在线免费观看不下载黄p国产| 欧美高清成人免费视频www| 国产精品无大码| 精品少妇内射三级| 精品亚洲成a人片在线观看| 我的老师免费观看完整版| 又粗又硬又长又爽又黄的视频| 久久久久精品性色| 日本欧美视频一区| 91午夜精品亚洲一区二区三区| 亚洲av电影在线观看一区二区三区| 久久99热6这里只有精品| 国产成人精品福利久久| 视频区图区小说| 亚洲国产最新在线播放| 又黄又爽又刺激的免费视频.| 欧美精品人与动牲交sv欧美| 欧美精品国产亚洲| 日本欧美国产在线视频| 中文字幕人妻熟人妻熟丝袜美| .国产精品久久| 少妇的逼好多水| 男男h啪啪无遮挡| 国产精品久久久久久久久免| 另类亚洲欧美激情| 高清午夜精品一区二区三区| 国产精品免费大片| 国产视频内射| 亚洲成色77777| 大片电影免费在线观看免费| 国产成人精品一,二区| 纵有疾风起免费观看全集完整版| 久久午夜综合久久蜜桃| 亚洲国产欧美日韩在线播放 | 免费大片18禁| 国产91av在线免费观看| 在线天堂最新版资源| 日本猛色少妇xxxxx猛交久久| 三级国产精品片| 看十八女毛片水多多多| 国产精品国产三级国产av玫瑰| 黄色视频在线播放观看不卡| 欧美激情国产日韩精品一区| 亚洲国产av新网站| 亚洲欧美中文字幕日韩二区| 亚洲,欧美,日韩| 亚洲国产av新网站| 2021少妇久久久久久久久久久| 99久久精品一区二区三区| 亚洲精品,欧美精品| 毛片一级片免费看久久久久| 国产日韩欧美在线精品| 日本与韩国留学比较| 一区二区三区免费毛片| 精品久久久噜噜| 久久久午夜欧美精品| 久久国产亚洲av麻豆专区| 久久久久久久亚洲中文字幕| 国产成人精品久久久久久| 国产日韩一区二区三区精品不卡 | 久久久久人妻精品一区果冻| 国产欧美日韩一区二区三区在线 | 精品国产露脸久久av麻豆| 各种免费的搞黄视频| 亚洲欧美日韩另类电影网站| 欧美人与善性xxx| 亚洲av男天堂| 亚洲精品成人av观看孕妇| 久久女婷五月综合色啪小说| 九色成人免费人妻av| 91精品国产九色| 在线看a的网站| 色视频在线一区二区三区| 久久精品国产亚洲av天美| 成年美女黄网站色视频大全免费 | 国产男女内射视频| 免费看日本二区| 成年美女黄网站色视频大全免费 | 亚洲av福利一区| 免费黄色在线免费观看| 欧美日本中文国产一区发布| 女人精品久久久久毛片| 天堂俺去俺来也www色官网| 女人久久www免费人成看片| 777米奇影视久久| 国产精品一区www在线观看| 免费大片黄手机在线观看| 免费久久久久久久精品成人欧美视频 | 精品少妇久久久久久888优播| 中文在线观看免费www的网站| 国产极品天堂在线| 精品卡一卡二卡四卡免费| 少妇的逼水好多| 色婷婷av一区二区三区视频| 性色av一级| 免费观看在线日韩| 97在线视频观看| 精品熟女少妇av免费看| 日本vs欧美在线观看视频 | 国产av码专区亚洲av| 美女xxoo啪啪120秒动态图| 日日啪夜夜爽| 国产黄色免费在线视频| 国模一区二区三区四区视频| 国产成人午夜福利电影在线观看| 91aial.com中文字幕在线观看| 性色avwww在线观看| 尾随美女入室| 亚洲国产欧美在线一区| 人妻系列 视频| 亚洲经典国产精华液单| 精品久久国产蜜桃| 免费黄网站久久成人精品| 天堂中文最新版在线下载| 黄色怎么调成土黄色| 大又大粗又爽又黄少妇毛片口| 免费播放大片免费观看视频在线观看| 亚洲国产色片| 日韩,欧美,国产一区二区三区| 大码成人一级视频| 另类精品久久| 中文天堂在线官网| 日日爽夜夜爽网站| 精品久久久噜噜| 亚洲怡红院男人天堂| 色视频www国产| 亚洲国产精品一区二区三区在线| 校园人妻丝袜中文字幕| 在线观看免费视频网站a站| 国产伦精品一区二区三区视频9| 国产日韩欧美视频二区| 欧美日韩一区二区视频在线观看视频在线| 欧美日韩视频高清一区二区三区二| 精品视频人人做人人爽| 亚洲欧美成人综合另类久久久| 午夜激情福利司机影院| 亚洲电影在线观看av| 高清不卡的av网站| a级片在线免费高清观看视频| 日韩制服骚丝袜av| 啦啦啦啦在线视频资源| 精品熟女少妇av免费看| 少妇猛男粗大的猛烈进出视频| 人人妻人人看人人澡| 亚洲自偷自拍三级| 国产爽快片一区二区三区| 国产黄频视频在线观看| 我要看黄色一级片免费的| 三级经典国产精品| 9色porny在线观看| 欧美97在线视频| 99久久中文字幕三级久久日本| 日韩一区二区三区影片| 国产熟女欧美一区二区| 日日摸夜夜添夜夜爱| 蜜桃在线观看..| 国产精品三级大全| 涩涩av久久男人的天堂| 日韩中字成人| 久久精品久久久久久久性| 大话2 男鬼变身卡| 午夜老司机福利剧场| 九草在线视频观看| 色视频在线一区二区三区| av视频免费观看在线观看| av又黄又爽大尺度在线免费看| 中文字幕制服av| 午夜日本视频在线| 亚洲欧美中文字幕日韩二区| 亚洲电影在线观看av| 亚洲高清免费不卡视频| 日本黄色日本黄色录像| 青春草亚洲视频在线观看| 亚洲国产精品国产精品| 精品久久久久久久久亚洲| 国产日韩欧美视频二区| 欧美精品人与动牲交sv欧美| 亚洲四区av| 黑丝袜美女国产一区| 国产av国产精品国产| 人妻一区二区av| 精品一区在线观看国产| 人妻 亚洲 视频| 欧美精品国产亚洲| 极品少妇高潮喷水抽搐| 久久精品久久久久久噜噜老黄| 啦啦啦啦在线视频资源| 汤姆久久久久久久影院中文字幕| 乱系列少妇在线播放| 国产精品一区二区性色av| 性色avwww在线观看| 人人妻人人澡人人爽人人夜夜| 嫩草影院新地址| 中文资源天堂在线| 国产精品欧美亚洲77777| 成年女人在线观看亚洲视频| 国产一区亚洲一区在线观看| 精品亚洲成国产av| 国产极品粉嫩免费观看在线 | 日韩av免费高清视频| 日本91视频免费播放| 亚洲av男天堂| 日日啪夜夜爽| 精品一区二区免费观看| 丝瓜视频免费看黄片| 搡女人真爽免费视频火全软件| 亚洲成人一二三区av| 少妇人妻一区二区三区视频| 美女视频免费永久观看网站| 街头女战士在线观看网站| 性色av一级| 久久99蜜桃精品久久| 韩国高清视频一区二区三区| 日韩av在线免费看完整版不卡| 熟女人妻精品中文字幕| 久久久久久久久久久久大奶| 亚洲国产精品成人久久小说| 在线看a的网站| 亚洲av免费高清在线观看| 亚洲av日韩在线播放| 99久久精品国产国产毛片| 全区人妻精品视频| 一本大道久久a久久精品| 久久久久久久久久人人人人人人| 啦啦啦中文免费视频观看日本| 午夜福利,免费看| 一级毛片电影观看| 另类亚洲欧美激情| 久久久精品94久久精品| 国产成人午夜福利电影在线观看| 国产视频首页在线观看| 国产伦理片在线播放av一区| 在线观看国产h片| 在线精品无人区一区二区三| 嫩草影院新地址| 免费看光身美女| 黄色怎么调成土黄色| 免费看光身美女| 一二三四中文在线观看免费高清| 久久久国产精品麻豆| 成人无遮挡网站| 一级毛片黄色毛片免费观看视频| 丰满少妇做爰视频| 黑丝袜美女国产一区| 日韩免费高清中文字幕av| 欧美xxⅹ黑人| 国产老妇伦熟女老妇高清| 永久免费av网站大全| 最近的中文字幕免费完整| 国产精品福利在线免费观看| 国产无遮挡羞羞视频在线观看| 深夜a级毛片| 熟妇人妻不卡中文字幕| 国产伦精品一区二区三区视频9| 乱人伦中国视频| 自拍欧美九色日韩亚洲蝌蚪91 | 亚洲欧洲国产日韩| 精品亚洲乱码少妇综合久久| 菩萨蛮人人尽说江南好唐韦庄| 亚洲图色成人| 一本—道久久a久久精品蜜桃钙片| 成人二区视频| av网站免费在线观看视频| 日韩 亚洲 欧美在线| 美女大奶头黄色视频| 亚洲高清免费不卡视频| www.av在线官网国产|