• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    融合遷移學(xué)習(xí)與主動(dòng)學(xué)習(xí)的金融科技實(shí)體識(shí)別萬法

    2022-04-18 08:04:50石教祥朱禮軍張玄玄
    中國科技資源導(dǎo)刊 2022年2期
    關(guān)鍵詞:語料不確定性語義

    石教祥 朱禮軍 魏 超 張玄玄

    (中國科學(xué)技術(shù)信息研究所,北京 100038)

    0 引言

    命名實(shí)體識(shí)別(Named Entity Recognition,NER),又稱作專名識(shí)別、命名實(shí)體,是指識(shí)別文本中具有特定意義的實(shí)體,主要包括人名、地名、機(jī)構(gòu)名、專有名詞以及時(shí)間、數(shù)量、貨幣、比例數(shù)值等。NER是語義知識(shí)庫、知識(shí)圖譜的基本組件,旨在發(fā)現(xiàn)自然文本中的專有名詞并將其歸類到預(yù)定類別中。在大數(shù)據(jù)時(shí)代,面向公開領(lǐng)域的NER研究相對(duì)成熟,已作為知識(shí)庫構(gòu)建的一項(xiàng)關(guān)鍵技術(shù)為機(jī)器翻譯、自動(dòng)問答等應(yīng)用系統(tǒng)提供底層支撐,但在如金融科技(Financial Technology,F(xiàn)inTech)、生物醫(yī)藥、軍事等專業(yè)領(lǐng)域,往往缺乏可直接用于模型訓(xùn)練的數(shù)據(jù)集;在特定領(lǐng)域,由于專業(yè)性強(qiáng),重新標(biāo)注數(shù)據(jù)依賴領(lǐng)域?qū)<?,這種勞動(dòng)密集且耗時(shí)的缺陷制約了NER的快速發(fā)展。因此,針對(duì)特定領(lǐng)域,如何利用少量標(biāo)注樣本進(jìn)行NER研究就顯得十分必要。

    在現(xiàn)有的研究中,學(xué)者們通常利用少樣本(Few-shot)學(xué)習(xí)思路來解決少量標(biāo)注情況下的分類任務(wù),少樣本NER方法從變換特征和增強(qiáng)數(shù)據(jù)質(zhì)量的角度劃分為遷移學(xué)習(xí)(transfer learning,TL)和主動(dòng)學(xué) 習(xí)(active learning,AL)兩大類[1-2]。TL的核心思想是將在源域數(shù)據(jù)上建立的知識(shí)模型復(fù)用至目標(biāo)領(lǐng)域,以實(shí)現(xiàn)模型共建和知識(shí)共享。AL則利用漸進(jìn)式采樣抽取“不確定性”(uncertainty)高、易混淆的樣本進(jìn)行標(biāo)注,迭代訓(xùn)練模型進(jìn)而提高擬合能力[3]。TL在通用領(lǐng)域NER任務(wù)中表現(xiàn)良好,但是TL依賴領(lǐng)域之間的強(qiáng)相似性,當(dāng)源域與目標(biāo)域數(shù)據(jù)差異較大時(shí),僅僅通過TL模型很難捕獲到豐富的領(lǐng)域信息,模型之間知識(shí)遷移適應(yīng)性較差。AL通過計(jì)算樣本的“不確定性”程度進(jìn)行標(biāo)注,從而提升單一領(lǐng)域數(shù)據(jù)的質(zhì)量,但是基于“不確定性”原則選取的樣本沒有考慮領(lǐng)域?qū)嶓w中的離群孤立點(diǎn)現(xiàn)象。此外,由于面向單一領(lǐng)域數(shù)據(jù),AL難以充分利用領(lǐng)域外海量數(shù)據(jù)中蘊(yùn)含的知識(shí)信息,限制了模型效果的進(jìn)一步提升。

    在金融科技等專業(yè)領(lǐng)域僅僅使用TL或者AL方法不足以實(shí)現(xiàn)模型最優(yōu),為此本文提出一種全新設(shè)計(jì)的主動(dòng)學(xué)習(xí)采樣策略,并與TL方法進(jìn)行融合形成統(tǒng)一框架,即基于語義相似度與不確定性的主動(dòng)遷移學(xué)習(xí)方法(Active Transfer Learning method based on Semantic Similarity and Uncertainty,ATL-SSU)。該方法在提升單一領(lǐng)域內(nèi)數(shù)據(jù)的信息量的同時(shí),將域外海量知識(shí)進(jìn)行整合,提升NER效果。

    本文的主要貢獻(xiàn)是提出了融合遷移學(xué)習(xí)和主動(dòng)學(xué)習(xí)的統(tǒng)一框架,并提出了更加全面的主動(dòng)學(xué)習(xí)采樣策略。在NER任務(wù)中,遷移學(xué)習(xí)利用海量的外部知識(shí)來訓(xùn)練模型,主動(dòng)學(xué)習(xí)通過增強(qiáng)同一領(lǐng)域數(shù)據(jù)質(zhì)量提高分類器性能,兩者結(jié)合將充分利用領(lǐng)域內(nèi)和領(lǐng)域之間的信息。因此,本文提出了一種融合的分類框架:基本分類器由 BERT(bidirectional encoder representations from transformers)[4]和Bi-LSTM-CRF(bidirectional long-short term memory with a conditional random field)[5]串聯(lián)組成,其中BERT是基于海量通用領(lǐng)域知識(shí)構(gòu)建的預(yù)訓(xùn)練語言模型,Bi-LSTM-CRF是特征學(xué)習(xí)器。之后,利用主動(dòng)學(xué)習(xí)采樣策略迭代輸入語料對(duì)模型進(jìn)行微調(diào)以提高模型性能。此外,本文針對(duì)主動(dòng)學(xué)習(xí)面臨的“不完全特征描述”“離群孤立點(diǎn)”等問題,提出了基于聯(lián)合語義相似度的主動(dòng)學(xué)習(xí)采樣策略。在度量計(jì)算中,聯(lián)合考慮未標(biāo)注樣本和已標(biāo)注樣本的信息含量和語義距離,這種聯(lián)合利用較少的樣本可以更加充分地?cái)M合模型,進(jìn)而減少標(biāo)注成本。

    1 相關(guān)的研究

    NER是一項(xiàng)較為成熟的研究,相關(guān)的模型層出不窮。近年來,深度學(xué)習(xí)的興起帶來了一波又一波的技術(shù)浪潮,它們?cè)谕ㄓ玫腘ER任務(wù)中表現(xiàn)出色,然而這些模型的訓(xùn)練往往依賴于大規(guī)模標(biāo)注數(shù)據(jù)集,在缺乏足量標(biāo)注數(shù)據(jù)集的專業(yè)領(lǐng)域上容易發(fā)生過擬合現(xiàn)象。因此,也有許多研究集中在少樣本學(xué)習(xí),甚至零樣本學(xué)習(xí)(zero-shot learning)中[6]。

    在少樣本NER任務(wù)中,遷移學(xué)習(xí)利用領(lǐng)域相似性,利用分布式詞表示構(gòu)建詞共享語義空間,然后再遷移神經(jīng)網(wǎng)絡(luò)的參數(shù)至目標(biāo)領(lǐng)域,實(shí)現(xiàn)領(lǐng)域之間數(shù)據(jù)共享和模型共建。按照遷移知識(shí)表現(xiàn)形式的不同,遷移學(xué)習(xí)NER方法大致可分為基于微調(diào)、元學(xué)習(xí)和特征變換的方法?;谖⒄{(diào)的遷移學(xué)習(xí)方法是通過訓(xùn)練大規(guī)模語料構(gòu)建共享語義空間來實(shí)現(xiàn)知識(shí)的遷移,如Giorgi等[7]基于LSTM進(jìn)行網(wǎng)絡(luò)權(quán)重的遷移,首先將源域模型參數(shù)遷移至目標(biāo)領(lǐng)域初始化,之后進(jìn)行微調(diào)使適應(yīng)任務(wù)需要。最近,也有不少學(xué)者利用預(yù)訓(xùn)練(pre-trained)遷移學(xué)習(xí)模型來實(shí)現(xiàn)微調(diào),預(yù)訓(xùn)練模型充分利用了詞義和語義特性,能強(qiáng)有力地捕捉潛在語義和句子關(guān)系,這種語境化的詞嵌入在NER任務(wù)中表現(xiàn)突出[6]?;谠獙W(xué)習(xí)的遷移學(xué)習(xí)方法將學(xué)習(xí)水平從數(shù)據(jù)提升至任務(wù)層面,學(xué)習(xí)歸納有關(guān)跨任務(wù)數(shù)據(jù)更一般的規(guī)律性,這種方式試圖建立一種在不同任務(wù)間都具有良好表現(xiàn)的模型。而基于特征變換的遷移學(xué)習(xí)方法主要解決領(lǐng)域適配性差的問題,這種方式通過特征互相轉(zhuǎn)移或者特征映射來減少領(lǐng)域之間差異。也有不少學(xué)者從跨領(lǐng)域、跨應(yīng)用、跨語言等角度測試遷移的可行性,還有利用諸如本體庫、知識(shí)庫、啟發(fā)式規(guī)則等外部知識(shí)來解決少樣本NER問題[8-9]。

    此外,主動(dòng)學(xué)習(xí)也可被用來解決少樣本NER問題。主動(dòng)學(xué)習(xí)通過一定的度量方式對(duì)語料進(jìn)行精煉以提高模型擬合效率。在學(xué)習(xí)過程中,經(jīng)過種子語料訓(xùn)練過的基礎(chǔ)分類器用來預(yù)測未標(biāo)注數(shù)據(jù),而選擇器從預(yù)測樣本池中選擇出信息量大的樣本交給領(lǐng)域?qū)<疫M(jìn)行人工標(biāo)注,這些新樣本被加入初始種子語料中進(jìn)行新一輪的模型訓(xùn)練[10]。在整個(gè)過程中,選擇器的采樣策略最為關(guān)鍵。在當(dāng)前的研究中,基于不確定性(uncertainty)的樣本選擇方法是最常用的策略。其基本思想是選擇當(dāng)前模型易混淆、置信度低的樣本。如在二分類任務(wù)中基于不確定的策略傾向于選擇后驗(yàn)概率接近0.5的樣本,而對(duì)于多分類序列標(biāo)注任務(wù)通常利用信息熵(information entropy,IE)來度量樣本的不確定性程度,熵值大的優(yōu)先被挑選。如Chen等[11]在生物醫(yī)學(xué)文本上利用不確定性標(biāo)準(zhǔn)度量樣本的信息量,這種方式通過降低統(tǒng)計(jì)學(xué)習(xí)的期望誤差對(duì)未標(biāo)記樣本進(jìn)行優(yōu)化選擇,能夠有效減少標(biāo)注數(shù)據(jù)的工作量。基于主動(dòng)學(xué)習(xí)的NER本質(zhì)上增強(qiáng)同一分布數(shù)據(jù)質(zhì)量,選擇出信息量最大的一部分樣本進(jìn)行訓(xùn)練,在缺乏標(biāo)注數(shù)據(jù)時(shí)能節(jié)省一部分標(biāo)注成本。

    整體上,基于TL和AL的方法都能在一定程度上解決少樣本問題。其中,TL利用海量外界通用領(lǐng)域知識(shí)來輔助NER任務(wù),AL則是通過增強(qiáng)同一領(lǐng)域數(shù)據(jù)質(zhì)量以提高模型性能。但在專業(yè)領(lǐng)域,僅僅使用一種方法很難達(dá)到預(yù)期效果,如僅利用TL獲取的外部知識(shí)不足以擬合模型,要實(shí)現(xiàn)良好效果仍需要一定量標(biāo)注數(shù)據(jù)來進(jìn)行微調(diào)。而AL基于不確定標(biāo)準(zhǔn)選擇樣本,這些樣本包含豐富的領(lǐng)域信息,但AL策略忽略了大量的外部知識(shí)。一種可行的思路是將TL和AL結(jié)合起來形成統(tǒng)一框架。在通用領(lǐng)域,已經(jīng)有一些學(xué)者嘗試兩種方法結(jié)合,但針對(duì)金融科技等特殊領(lǐng)域,相關(guān)的研究還較少[1]。為此,本文擬構(gòu)建一種融合遷移學(xué)習(xí)的主動(dòng)學(xué)習(xí)框架,并且為進(jìn)一步提高模型的準(zhǔn)確性,改進(jìn)基于不確定性標(biāo)準(zhǔn)的采樣策略,通過增加語義相似性權(quán)值削減采樣中離群孤立點(diǎn)影響,以實(shí)現(xiàn)最佳的NER效果。

    2 研究萬法

    2.1 研究目的

    針對(duì)少樣本NER任務(wù),大多數(shù)工作考慮使用TL和AL方法,遷移學(xué)習(xí)利用領(lǐng)域相似性實(shí)現(xiàn)模型共建和數(shù)據(jù)共享。這種方式可以利用海量互聯(lián)網(wǎng)文本信息在通用領(lǐng)域?qū)崿F(xiàn)良好的效果,但在專業(yè)領(lǐng)域中,僅利用通用領(lǐng)域信息不足以訓(xùn)練模型,導(dǎo)致NER性能偏低。而主動(dòng)學(xué)習(xí)通?;凇安淮_定性”標(biāo)準(zhǔn),通過挖掘?qū)嶓w內(nèi)蘊(yùn)信息來增強(qiáng)同一領(lǐng)域數(shù)據(jù)的質(zhì)量,這種方式從領(lǐng)域數(shù)據(jù)包含的信息量出發(fā),優(yōu)先選擇信息量豐富的樣本,但對(duì)于金融科技等特殊領(lǐng)域,部分實(shí)體屬于未登錄詞、實(shí)體差異性較大,基于“不確定性”的主動(dòng)學(xué)習(xí)采樣策略對(duì)于實(shí)體特征的描述不完全,領(lǐng)域數(shù)據(jù)之間存在的離群孤立點(diǎn)未被充分考慮。針對(duì)遷移學(xué)習(xí)領(lǐng)域?qū)嶓w識(shí)別性能偏低、基于“不確定性”的主動(dòng)學(xué)習(xí)采樣策略特征描述不完全的問題,提出了一種可行的思路,就是融合遷移學(xué)習(xí)和主動(dòng)學(xué)習(xí),考慮更加全面的采樣策略。鑒于此,借助預(yù)訓(xùn)練TL模型輔助語義表示,并通過主動(dòng)學(xué)習(xí)采樣策略增強(qiáng)領(lǐng)域數(shù)據(jù)。這種經(jīng)過精心挑選的樣本包含豐富的信息量(informativeness),對(duì)模型性能的提升效果明顯。本文將整個(gè)框架命名為基于語義相似度與不確定性的主動(dòng)遷移學(xué)習(xí)方法Active Transfer Learning method based on Semantic Similarity and Uncertainty,ATL-SSU)。該框架從提高基礎(chǔ)分類器性能和全面采樣入手,將為少樣本NER提供新的解決方案。

    如圖1所示,本文的研究主要包含分類器模塊(Classifier)和選擇器模塊(Selector)。Classifier模塊的作用是訓(xùn)練每一輪更新后的數(shù)據(jù)并提高分類性能,而Selector模塊是為了挑選出最有價(jià)值的樣本。在實(shí)踐中,維護(hù)一個(gè)動(dòng)態(tài)樣本池迭代地參與訓(xùn)練:首先利用種子語料Initial Corpus訓(xùn)練出基礎(chǔ)分類器Classifier;然后使用該分類器對(duì)未標(biāo)記樣本Unlabeled pool進(jìn)行預(yù)測;最后通過選擇器Selector挑選出置信度最高的一組新示例,并加入Labeled pool樣本池中迭代訓(xùn)練。特別地,在Classifier中,引入了BERT預(yù)訓(xùn)練語言模型(pre-train model),以充分表征中文字詞的語義,并利用Bi-LSTM-CRF進(jìn)行序列約束以提高分類精度。此外,在選擇器Selcetor中,充分考慮離群孤立點(diǎn)(outlier)現(xiàn)象,利用結(jié)合語義相似度(semantic similarty)和不確定性(uncertainty)度量的主動(dòng)采樣策略來削減離群孤立點(diǎn)的影響。

    圖1 基于深度遷移主動(dòng)學(xué)習(xí)的NER框架

    2.2 基于BERT-Bi-LSTM-CRF的分類器

    在ATL-SSU中,基礎(chǔ)分類器Classifier的構(gòu)建極為關(guān)鍵。為此,借鑒TL微調(diào)機(jī)制,提出基于BERT-Bi-LSTM-CRF網(wǎng)絡(luò)結(jié)構(gòu)的中文NER識(shí)別方法。這種TL微調(diào)機(jī)制將預(yù)訓(xùn)練模型與循環(huán)神經(jīng)網(wǎng)絡(luò)模型融合,能夠?qū)崿F(xiàn)較高的準(zhǔn)確率,有助于后續(xù)Selector進(jìn)行更精準(zhǔn)的樣本挑選。該方法由BERT預(yù)訓(xùn)練模型、Bi-LSTM神經(jīng)網(wǎng)絡(luò)和CRF線性鏈組合而成,BERT-Bi-LSTM-CRF框架如圖2所示。其中,BERT作為語義表示輸入,Bi-LSTM抽取特征,CRF獲取概率最大標(biāo)簽。與傳統(tǒng)的NER模型相比,BERT-Bi-LSTM-CRF關(guān)鍵是BERT預(yù)訓(xùn)練語言模型的引入,BERT通過無監(jiān)督建模的方式學(xué)習(xí)海量互聯(lián)網(wǎng)語義信息,能夠充分表征實(shí)體的語義信息,基于BERT進(jìn)行TL微調(diào)可以有效地提高NER性能。

    圖2 BERT-Bi-LSTM-CRF模型結(jié)構(gòu)

    BERT是一種基于TL微調(diào)機(jī)制的多層雙向Transformer編碼器,它的特征表示依賴于左右上下文信息。Transformer則利用attention機(jī)制對(duì)文本建模,如式(1)所示,對(duì)于輸入的字向量矩陣Query(Q)、Key(K)、Value(V)和向量維度dk,通過softmax歸一化獲取每個(gè)向量的全局權(quán)重表示為

    之后再利用MultiHead位置嵌入來實(shí)現(xiàn)高速并行計(jì)算,Multi-Attention機(jī)制由幾個(gè)按比例縮放的點(diǎn)積注意力組成,每個(gè)注意力從不同的維度和表示空間學(xué)習(xí)語義信息,計(jì)算方式如式(2)、式(3)所示,WiK,WiQ,WiV為權(quán)重矩陣。

    為 了 訓(xùn)練Transformer,BERT采用Masked LM和Next Sentence Prediction方式。Masked LM的目的是根據(jù)上下文來預(yù)測masked字詞的原始詞語,而Next Sentence Prediction用來判斷兩個(gè)語句對(duì)是否連續(xù),如表1所示。

    表1 下一句預(yù)測

    與其他LM相比,BERT這種語境化的詞嵌入在NLP中表現(xiàn)突出[4],在中文NER任務(wù)中,谷歌的Chinese BERT-Base應(yīng)用最為廣泛。該模型由海量中文Wikipedia頁訓(xùn)練而成,具有良好的語義表征能力。鑒于此,本文引入Chinese BERTBase模型參與訓(xùn)練。

    2.3 基于主動(dòng)遷移學(xué)習(xí)的選擇器

    在Selecor模塊中,基礎(chǔ)采樣是基于不確定性(Uncertainty)標(biāo)準(zhǔn)的采樣策略,這種策略通過計(jì)算樣本的信息熵(Information Entropy)來衡量樣本的不確定性程度[3]。然而,在專業(yè)領(lǐng)域,數(shù)據(jù)差異性大,僅利用不確定性采樣策略存在不完全特征描述問題,在采樣中會(huì)挑選出大量離群孤立點(diǎn)(Outliers),而Outiliers會(huì)降低模型的分類性能。為此,本文從樣本的代表性和不確定性的角度出發(fā),考慮更加全面特征描述,提出結(jié)合語義相似度和不確定性度量的主動(dòng)采樣策略。

    2.3.1 基于不確定性的主動(dòng)學(xué)習(xí)

    在主動(dòng)學(xué)習(xí)中,基于不確定性標(biāo)準(zhǔn)的采樣策略最為常見。其基本思想是挑選當(dāng)前模型最不能確定的樣本進(jìn)行人工標(biāo)注。如在二分類任務(wù)中基于不確定的策略傾向于選擇后驗(yàn)概率接近0.5的樣本,如果用SVM來訓(xùn)練模型的話,可以挑選距離分類面最近的一些樣本進(jìn)行標(biāo)注。而對(duì)于多分類序列標(biāo)注任務(wù),可以用信息熵來度量樣本的不確定性程度。如對(duì)于給定的序列X =( x1,x2, … ,xi)和 標(biāo)記序列Y =( y1,y2,… ,yi),x被預(yù)測為Y的不確定性,可以用式(4)、式(5)、式(6)來度量。

    基于最低置信度原則(Least Confidence,LC)[12]:

    其中,P(y*|x)表示的是序列樣本x對(duì)應(yīng)的最可能標(biāo)簽序列,如在使用LSTM-CRF模型時(shí),表示當(dāng)前序列x屬于標(biāo)簽y*的概率。

    最大歸一化樣本采樣策略(Maximum Normalized Log-Probability,MNLP)[1]:

    LC策略傾向于選擇長句子,因此經(jīng)過歸一化的采樣策略逐漸成為主流。在本文中,針對(duì)NER這種序列標(biāo)注任務(wù),利用概率計(jì)算信息熵(Information Entropy,IE)的最大歸一化樣本采樣策略進(jìn)行挑選,具體公式是:

    其中,P(y)為預(yù)測標(biāo)簽的條件分布概率,M為標(biāo)簽的個(gè)數(shù),n為序列的長度。在NER等這種序列標(biāo)注任務(wù)中,MNLP考慮平均信息熵,能夠準(zhǔn)確表示句子所含信息量。因此,在本文研究中,使用這種方法作為baseline方法。

    2.3.2 結(jié)合語義相似度的不確定性

    基于不確定性的采樣策略可以優(yōu)先挑選出最有標(biāo)注價(jià)值的樣本。但是針對(duì)特定領(lǐng)域的數(shù)據(jù),僅僅考慮不確定性標(biāo)準(zhǔn)作為度量對(duì)特征描述是不完全的。因此,有必要考慮更加全面的采樣策略。如在圖3所示的樣本分布中(圖中圓形表示未標(biāo)注樣本,三角形為已標(biāo)注樣本,虛線表示初始的分類線)。如果根據(jù)不確定性標(biāo)準(zhǔn)采樣,應(yīng)該計(jì)算樣本的信息熵大小,優(yōu)先選擇信息熵最大的樣本。如圖3中左圖所示,當(dāng)信息熵時(shí),離分類面最近的樣本A被優(yōu)先選擇。但在實(shí)際中,樣本A在整個(gè)樣本分布中屬于離群樣本,這種樣本所包含的信息不具有代表性,為避免出現(xiàn)孤立點(diǎn)的消極影響,有必要考慮全局樣本的信息量。

    如圖3中右圖所示,在基于不確定性采樣得到樣本的信息熵后,添加語義相似度的權(quán)值來消減離群孤立點(diǎn)的負(fù)面影響,也即當(dāng)Φ B · Sim(B, C ) >Φ A ·Sim( A,C)時(shí),優(yōu)先選擇樣本B。這是一種計(jì)算信息密度(Information Density,ID)的度量方式,它對(duì)于樣本的描述更為全面,有助于Selector挑選出信息量更豐富的樣本。對(duì)于給定的不確定性值ΦSE,信息密度ΦID的計(jì)算如式(7):

    圖3 基于信息密度的采樣策略

    整體上結(jié)合語義相似度與不確定性度量的算法(ATL-SSU)計(jì)算步驟是:

    輸入:Labed samples(L)和Unlabeled samples(U)。

    輸出:更新后的ATL-SSU模型。

    While的終止條件是:①訓(xùn)練基礎(chǔ)模型ATL?SSUi(L);②利 用ATL?SSUi預(yù)測U;③計(jì)算U的不確定性ΦU;④計(jì)算U與L的 相似度ΦU·sim(X(U), X(L));⑤挑 選出Top K的無標(biāo)注樣本集K;⑥更新樣本池,L= L+ K, U = U ?K, i=i+1。

    3 實(shí)驗(yàn)與分析

    3.1 數(shù)據(jù)集和參數(shù)設(shè)置

    本文實(shí)驗(yàn)數(shù)據(jù)選用《人民日?qǐng)?bào)》(Chinese Daily News)、金融科技文本(FinTech Corpus)兩種不同的語料。其中,Chinese Daily News是公開的數(shù)據(jù)集,而FinTech Corpus是2019年12月從人民網(wǎng)科技板塊以“金融科技”為關(guān)鍵詞檢索到的68篇文本經(jīng)專家標(biāo)注形成的實(shí)驗(yàn)語料。本文研究中的金融科技命名實(shí)體指的是與金融科技行業(yè)緊密相關(guān)的各種實(shí)體的統(tǒng)稱。語料庫包括:技術(shù)(FT_technology)、產(chǎn)品(FT_product)、金融行為(FT_behavior)、金融現(xiàn)象(FT_phenomenon)、金融事件(FT_event)、法律法規(guī)(FT_norm)等6類領(lǐng)域?qū)嶓w和人名(Person)、組織機(jī)構(gòu)名(Organization)、地名(Location)、時(shí)間(Time)等4類通用實(shí)體。兩種語料的實(shí)體統(tǒng)計(jì)信息如表2所示。

    表2 語料中實(shí)體數(shù)目分布情況

    在實(shí)驗(yàn)之前,將標(biāo)注好的數(shù)據(jù)隨機(jī)劃分為4個(gè)子數(shù)據(jù)集,分別為InitTrain、IterTrain、Valid、Tests。其中,InitTrain數(shù)據(jù)集共有500句,用于模型的初始訓(xùn)練;IterTrain數(shù)據(jù)集共有1 000句,可看作是未標(biāo)注數(shù)據(jù)集,供模型每輪迭代使用;Valid數(shù)據(jù)集共有200句,用作交叉驗(yàn)證;Test數(shù)據(jù)集共有400句,用作測試集。在實(shí)驗(yàn)過程中,每次從IterTrain數(shù)據(jù)集中選出100句數(shù)據(jù)添加到InitTrain數(shù)據(jù)集中,之后進(jìn)行迭代訓(xùn)練,迭代一共進(jìn)行10輪。

    3.2 基于BERT-Bi-LSTM-CRF分類器的有效性驗(yàn)證

    本輪實(shí)驗(yàn)為驗(yàn)證結(jié)合預(yù)訓(xùn)練TL的有效性,也即對(duì)比BERT-Bi-LSTM-CRF與Bi-LSTMCRF的性能。具體地,從Chinese Daily News和FinTech Corpus 語料庫中各選擇1 500句訓(xùn)練集,500句作為測試集,對(duì)比在相同規(guī)模訓(xùn)練數(shù)據(jù)下,BERT-Bi-LSTM-CRF和Bi-LSTM-CRF模 型在中文NER中的準(zhǔn)確率(P)、召回率(R)和F1值。為避免隨機(jī)性,在每種語料中實(shí)驗(yàn)3次取平均值。實(shí)驗(yàn)結(jié)果如表3所示。

    由表3可知,無論是通用領(lǐng)域數(shù)據(jù)集還是專業(yè)領(lǐng)域數(shù)據(jù)集,使用BERT預(yù)訓(xùn)練語言模型的框架其準(zhǔn)確率(P)、召回率(R)、F1值都比不使用預(yù)訓(xùn)練模型的效果有顯著提升。在Chinese Daily News和FinTech Corpus數(shù)據(jù)集中Bi-LSTMCRF模型的F1值比較低,分別為41.58%和39.32%,而使用BERT-Bi-LSTM-CRF模型,F(xiàn)1值分別為85.03%和62.97%。這是因?yàn)樵贐ERTBi-LSTM-CRF模型中,引入了BERT這種經(jīng)過大規(guī)模語料訓(xùn)練的預(yù)訓(xùn)練語言模型,BERT采用了雙向Transformer結(jié)構(gòu),可表征的語義空間足夠大,并且self-attention機(jī)制有效克服了長距離依賴問題,能夠?qū)ι舷挛恼Z義進(jìn)行充分學(xué)習(xí),因此在NER任務(wù)中相較于常規(guī)詞向量或者單獨(dú)的one-hot編碼效果顯著。這也表明采用大規(guī)模語料預(yù)訓(xùn)練的特征向量包含更加豐富的信息,模型的刻畫能力更強(qiáng),有助于識(shí)別效果的提升。

    表3 兩種模型的對(duì)比實(shí)驗(yàn)結(jié)果

    對(duì)于通用領(lǐng)域數(shù)據(jù)集Chinese Daily News而言,使用BERT對(duì)F1值提升43.45%,提升近一倍。而對(duì)于金融科技領(lǐng)域數(shù)據(jù)集FinTech Corpus,F(xiàn)1值提升23.65%,提升效果為60.3%。金融科技領(lǐng)域性較強(qiáng),數(shù)據(jù)差異性較大,領(lǐng)域數(shù)據(jù)常常含有不規(guī)范用語,而BERT采用的是大規(guī)模通用語料訓(xùn)練而成,因此在金融科技領(lǐng)域基于BERT模型NER的性能提升不如在人民日?qǐng)?bào)新聞通用語料。但從標(biāo)準(zhǔn)差的角度來看,無論是Bi-LSTMCRF模型還是BERT-Bi-LSTM-CRF模型,在金融科技數(shù)據(jù)集中其標(biāo)準(zhǔn)差普遍高于通用領(lǐng)域數(shù)據(jù)集。這在一定程度上表明,在金融科技等專業(yè)領(lǐng)域,數(shù)據(jù)的差異性較大,存在著較多的奇異點(diǎn)數(shù)據(jù)。從整體上來看,使用BERT預(yù)訓(xùn)練語言模型對(duì)NER任務(wù)有顯著提升,但是不容忽視的是在實(shí)驗(yàn)中選取的是一次挑取1 500句樣本參與訓(xùn)練。因此,有必要在不損失模型精度的同時(shí)進(jìn)一步減少標(biāo)注量。鑒于此,將利用當(dāng)前有效融合預(yù)訓(xùn)練遷移學(xué)習(xí)的主動(dòng)學(xué)習(xí)NER框架進(jìn)行實(shí)驗(yàn)。

    3.3 結(jié)合語義相似度與不確定性的有效性驗(yàn)證

    本實(shí)驗(yàn)為驗(yàn)證結(jié)合相似度的深度主動(dòng)學(xué)習(xí)的有效性,即對(duì)比結(jié)合相似度的主動(dòng)學(xué)習(xí)和單獨(dú)的主動(dòng)學(xué)習(xí)方法的差異。其中,模型均為BERTBi-LSTM-CRF,主動(dòng)學(xué)習(xí)迭代次數(shù)為10次,初始訓(xùn)練集為InitTrain,共500句,每次迭代從IterTrain中隨機(jī)挑選100句樣本,加入到InitTrain中進(jìn)行訓(xùn)練,用這種方式模擬人工標(biāo)注的過程。用F值評(píng)價(jià)模型的標(biāo)注效果,為消減誤差,每輪實(shí)驗(yàn)進(jìn)行3次取平均值作為結(jié)果。具體地,設(shè)置如下對(duì)比實(shí)驗(yàn)。

    Baseline all方法(簡稱ALL):采用完全標(biāo)注數(shù)據(jù)集,即一次訓(xùn)練完成InitTrain和IterTrain中的所有數(shù)據(jù)。

    Baseline random方法(簡稱Random):采用隨機(jī)主動(dòng)學(xué)習(xí)方法,即每次從IterTrain中隨機(jī)挑選100句樣本,添加進(jìn)InitTrain中。

    Baseline active方法(簡稱Active-U):采用基于不確定性的主動(dòng)學(xué)習(xí)方法,即每次訓(xùn)練中通過基于不確定性的采樣方法[3],挑選出Top 100的數(shù)據(jù)進(jìn)行迭代。

    Active Transfer Learning method based on Semantic Similarity and Uncertainty方 法(簡 稱ATL-SSU):是本文提出的方法,采用基于不確定性和相似度結(jié)合的主動(dòng)遷移學(xué)習(xí)方法。

    分別在Chinese Daily News和FinTech Corpus語料上進(jìn)行實(shí)驗(yàn),如圖4、圖5所示。Chinese Daily News數(shù)據(jù)集中僅使用初始的500句訓(xùn)練數(shù)據(jù)訓(xùn)練模型的F1值為0.784 2,而全部的1 500條訓(xùn)練數(shù)據(jù)F1值為0.850 3。對(duì)于FinTech Corpus 數(shù)據(jù)集,初始的500句訓(xùn)練數(shù)據(jù)的F1值為0.521 7,而10輪迭代后的1 500句的F1值為0.629 5。對(duì)于Active-U和ATL-SSU方法而言,10輪迭代中的F1值顯著高于Random方法。如在第一輪迭代,同樣的600條數(shù)據(jù),Active-U和ATL-SSU方法F1值皆高于Random方法。這證明在相同樣本數(shù)量情況下,經(jīng)過主動(dòng)學(xué)習(xí)挑選的數(shù)據(jù)具有更多的信息量,能讓模型盡快收斂。

    圖4 在Chinese Daily News數(shù)據(jù)集上對(duì)比實(shí)驗(yàn)結(jié)果

    圖5 在FinTech Corpus數(shù)據(jù)集上對(duì)比實(shí)驗(yàn)結(jié)果

    另外,隨著主動(dòng)學(xué)習(xí)迭代次數(shù)的增加F1值也在緩慢增加。其中,在Chinese Daily News數(shù)據(jù)集中,Active-U方法在第7次迭代時(shí)就能達(dá)到所有數(shù)據(jù)量訓(xùn)練的效果,而ATL-SSU方法(本文方法)達(dá)到最佳的模型訓(xùn)練效果時(shí)次數(shù)是6。對(duì)于FinTech Corpus 數(shù)據(jù)集而言,Active-U方法在第8次達(dá)到最優(yōu)的效果,ATL-SSU方法在第7次。如圖6所示,在兩數(shù)據(jù)集中,通用語料Chinese Daily News的ATL-SSU方法僅用1 100條數(shù)據(jù)就能接近使用全部1 500條數(shù)據(jù)的效果,而在FinTech Corpus中要接近最優(yōu)效果是1 200條。這表明在通用領(lǐng)域數(shù)據(jù)的差異性要小于專業(yè)領(lǐng)域,經(jīng)過樣本選擇策后能更快挑選出代表性樣本。如表4所示,Active-U和ATL-SSU方法都能減少一定的標(biāo)注成本。其中在Chinese Daily News數(shù)據(jù)集中,Active-U方法能節(jié)省20.00%的標(biāo)注成本,ATL-SSU則為26.67%;在FinTech Corpus數(shù)據(jù)集中,Active-U方法能節(jié)省13.33%的標(biāo)注成本,ATL-SSU為20.00%。從整體來看,ATL-SSU方法節(jié)省的成本更多,相較于只要基于不確定性標(biāo)準(zhǔn)的Active-U方法,ATL-SSU方法可進(jìn)一步減少6.67%的標(biāo)注成本。此外,如圖4、圖5所示,結(jié)合語義相似度的ATL-SSU方法F1值曲線普遍高于Active-U方法,也更加平滑穩(wěn)定。這表明ATL-SSU方法能有效規(guī)避離群樣本點(diǎn)的影響,并且呈現(xiàn)出更為穩(wěn)定的F1表現(xiàn),證明了結(jié)合不確定性和相似度權(quán)值的主動(dòng)學(xué)習(xí)方法的有效性。

    圖6 模型達(dá)到最優(yōu)時(shí)所需句子數(shù)

    表4 Active和ATL-SSU萬法節(jié)省的差額數(shù)據(jù)占整體比例

    4 結(jié)語

    實(shí)體識(shí)別是文本挖掘中的一個(gè)階段。本文研究面向特定領(lǐng)域標(biāo)注數(shù)據(jù)少問題,利用融合遷移學(xué)習(xí)和主動(dòng)學(xué)習(xí)的方法抽取出領(lǐng)域?qū)嶓w,減少了大規(guī)模語料中的人工成本,提高了實(shí)體識(shí)別效率,有助于顛覆性技術(shù)識(shí)別、熱點(diǎn)事件發(fā)現(xiàn)、地平線掃描等工作的進(jìn)行。本文提出的融合預(yù)訓(xùn)練遷移學(xué)習(xí)模型的中文領(lǐng)域主動(dòng)學(xué)習(xí)NER框架,主要包含TL分類器和AL選擇器兩部分,重點(diǎn)解決領(lǐng)域NER中特征描述不完全導(dǎo)致的準(zhǔn)確率低的問題。在金融科技領(lǐng)域,本文的方法F1值相較于LSTM-CRF提高23.65%,這表明富含外部語義信息的BERT表征能有效提升領(lǐng)域?qū)嶓w特征的廣度,進(jìn)而顯著提高識(shí)別精度。此外,本文的方法還可以節(jié)省26.67%的標(biāo)注成本,相較于基線方法提高6.67%,這表明語義相似度的添加能有效削減離群點(diǎn)的影響。本文提出的基于預(yù)訓(xùn)練語言模型的中文領(lǐng)域主動(dòng)學(xué)習(xí)NER框架能夠有效節(jié)省標(biāo)注成本,同時(shí)能夠提升F1值。因此,該模型是有效的。

    中文領(lǐng)域NER較通用領(lǐng)域更加困難,本文研究中相同標(biāo)注數(shù)據(jù),模型在金融科技領(lǐng)域的數(shù)據(jù)集中的F1值為62.97%,而通用領(lǐng)域語料的F1值為85.03%,相差22.07%,這表明在面向特定領(lǐng)域時(shí)還需要考慮更多的領(lǐng)域特性,在后續(xù)的研究中還要充分考慮領(lǐng)域詞邊界、未登錄詞等問題,以期進(jìn)一步提升模型的性能。

    猜你喜歡
    語料不確定性語義
    法律的兩種不確定性
    法律方法(2022年2期)2022-10-20 06:41:56
    語言與語義
    英鎊或繼續(xù)面臨不確定性風(fēng)險(xiǎn)
    中國外匯(2019年7期)2019-07-13 05:45:04
    基于語料調(diào)查的“連……都(也)……”出現(xiàn)的語義背景分析
    具有不可測動(dòng)態(tài)不確定性非線性系統(tǒng)的控制
    “上”與“下”語義的不對(duì)稱性及其認(rèn)知闡釋
    華語電影作為真實(shí)語料在翻譯教學(xué)中的應(yīng)用
    認(rèn)知范疇模糊與語義模糊
    《苗防備覽》中的湘西語料
    國內(nèi)外語用學(xué)實(shí)證研究比較:語料類型與收集方法
    亚洲五月色婷婷综合| 久久人妻熟女aⅴ| 美女主播在线视频| av国产精品久久久久影院| 老司机影院成人| av线在线观看网站| 久久鲁丝午夜福利片| 亚洲国产精品一区二区三区在线| 日韩大片免费观看网站| av不卡在线播放| 亚洲图色成人| 90打野战视频偷拍视频| 国产一区二区在线观看av| 欧美久久黑人一区二区| 亚洲av综合色区一区| 久热这里只有精品99| 精品免费久久久久久久清纯 | 亚洲美女视频黄频| 成人18禁高潮啪啪吃奶动态图| 亚洲精品日本国产第一区| av在线app专区| 人妻一区二区av| 国产成人精品久久二区二区91 | 老司机靠b影院| 熟女av电影| 日韩人妻精品一区2区三区| 中文字幕色久视频| 男人爽女人下面视频在线观看| 涩涩av久久男人的天堂| 国产熟女欧美一区二区| 成年女人毛片免费观看观看9 | 曰老女人黄片| 精品人妻在线不人妻| 男女免费视频国产| av网站在线播放免费| 欧美 亚洲 国产 日韩一| 老熟女久久久| av.在线天堂| 精品一区二区免费观看| 亚洲婷婷狠狠爱综合网| 在线观看人妻少妇| 男的添女的下面高潮视频| 国产男人的电影天堂91| 国产精品99久久99久久久不卡 | 天堂8中文在线网| 99热全是精品| 国产探花极品一区二区| 少妇被粗大猛烈的视频| 亚洲国产最新在线播放| 新久久久久国产一级毛片| 国产免费现黄频在线看| 精品一区二区免费观看| 老司机亚洲免费影院| 无遮挡黄片免费观看| 成人亚洲欧美一区二区av| 国产国语露脸激情在线看| 亚洲精品av麻豆狂野| 女的被弄到高潮叫床怎么办| 午夜福利在线免费观看网站| 国产一区亚洲一区在线观看| 日韩 亚洲 欧美在线| 国产精品香港三级国产av潘金莲 | 成年女人毛片免费观看观看9 | 麻豆精品久久久久久蜜桃| 少妇被粗大的猛进出69影院| 老鸭窝网址在线观看| 亚洲精品国产一区二区精华液| 亚洲四区av| 国产黄色视频一区二区在线观看| 亚洲第一青青草原| 日本一区二区免费在线视频| 美国免费a级毛片| videos熟女内射| 中文字幕另类日韩欧美亚洲嫩草| 日本猛色少妇xxxxx猛交久久| 中文乱码字字幕精品一区二区三区| 天天影视国产精品| 午夜福利网站1000一区二区三区| 免费av中文字幕在线| 一二三四在线观看免费中文在| 一区二区日韩欧美中文字幕| 亚洲天堂av无毛| 亚洲精品久久午夜乱码| 纯流量卡能插随身wifi吗| 国产成人精品福利久久| 一级毛片 在线播放| 国语对白做爰xxxⅹ性视频网站| 伊人久久国产一区二区| 欧美精品一区二区大全| 亚洲免费av在线视频| 日韩欧美精品免费久久| 在线观看一区二区三区激情| 日韩一本色道免费dvd| 久久久精品94久久精品| 欧美成人午夜精品| 夫妻性生交免费视频一级片| 国产男女内射视频| 久久人人爽人人片av| 亚洲精品一二三| 国产黄频视频在线观看| 黄色毛片三级朝国网站| 亚洲第一av免费看| 最新的欧美精品一区二区| 国产一区二区 视频在线| 国产精品久久久久久精品古装| 十八禁网站网址无遮挡| 色婷婷av一区二区三区视频| 超碰成人久久| 人妻一区二区av| 欧美日韩一级在线毛片| 热99国产精品久久久久久7| 成年动漫av网址| 色精品久久人妻99蜜桃| 成人漫画全彩无遮挡| 蜜桃国产av成人99| 成年美女黄网站色视频大全免费| 人人澡人人妻人| 久久久久久久大尺度免费视频| 国产欧美亚洲国产| 久久久久视频综合| 亚洲欧美一区二区三区国产| 高清视频免费观看一区二区| 七月丁香在线播放| 欧美成人午夜精品| 九草在线视频观看| 18禁裸乳无遮挡动漫免费视频| 热99国产精品久久久久久7| 人妻 亚洲 视频| 国产一区二区三区av在线| av国产精品久久久久影院| 亚洲精品一区蜜桃| 亚洲国产欧美一区二区综合| 久久久久久久久免费视频了| 18禁动态无遮挡网站| 性高湖久久久久久久久免费观看| 国产精品免费大片| 日韩中文字幕欧美一区二区 | 又大又黄又爽视频免费| 国产精品久久久久久精品电影小说| 人妻 亚洲 视频| 国产精品一国产av| 无限看片的www在线观看| 男女无遮挡免费网站观看| 日韩大码丰满熟妇| 亚洲成人手机| 久久精品aⅴ一区二区三区四区| 一区二区三区精品91| 久久国产亚洲av麻豆专区| 天天躁狠狠躁夜夜躁狠狠躁| 日韩av在线免费看完整版不卡| 久久综合国产亚洲精品| 自线自在国产av| 免费观看人在逋| 国产精品亚洲av一区麻豆 | 黄片无遮挡物在线观看| 天美传媒精品一区二区| 国产日韩欧美视频二区| 久久久国产精品麻豆| 国产黄频视频在线观看| 天堂8中文在线网| 亚洲伊人色综图| 亚洲七黄色美女视频| 成人影院久久| 涩涩av久久男人的天堂| 在线观看免费日韩欧美大片| 又黄又粗又硬又大视频| 国产精品二区激情视频| av又黄又爽大尺度在线免费看| 亚洲欧美日韩另类电影网站| 老司机影院毛片| 国产男女内射视频| 亚洲图色成人| 免费人妻精品一区二区三区视频| 中文字幕精品免费在线观看视频| 男女床上黄色一级片免费看| 中国三级夫妇交换| 国产无遮挡羞羞视频在线观看| 久久久久久久久久久免费av| 午夜激情久久久久久久| 女的被弄到高潮叫床怎么办| 久久免费观看电影| 久久 成人 亚洲| 国产日韩欧美在线精品| 69精品国产乱码久久久| 美女国产高潮福利片在线看| 大香蕉久久网| 男女国产视频网站| 亚洲av成人不卡在线观看播放网 | videosex国产| 国产亚洲午夜精品一区二区久久| www.自偷自拍.com| 国产精品偷伦视频观看了| netflix在线观看网站| 亚洲国产看品久久| 极品人妻少妇av视频| 欧美精品亚洲一区二区| 日韩熟女老妇一区二区性免费视频| 国产男人的电影天堂91| 免费黄网站久久成人精品| 精品福利永久在线观看| 久久久久久久精品精品| 久久精品aⅴ一区二区三区四区| 最黄视频免费看| 五月天丁香电影| 高清视频免费观看一区二区| 国产亚洲午夜精品一区二区久久| 涩涩av久久男人的天堂| 少妇被粗大猛烈的视频| a 毛片基地| 成人免费观看视频高清| 国产成人啪精品午夜网站| 丝袜在线中文字幕| 久久99一区二区三区| 久久青草综合色| 亚洲第一av免费看| 久久久精品国产亚洲av高清涩受| 天美传媒精品一区二区| 午夜福利一区二区在线看| 99热国产这里只有精品6| 久久久久网色| 欧美日本中文国产一区发布| 激情五月婷婷亚洲| 国产成人系列免费观看| 国产极品粉嫩免费观看在线| 韩国av在线不卡| 国产av精品麻豆| √禁漫天堂资源中文www| 亚洲精品国产av蜜桃| 电影成人av| 99久久综合免费| 欧美变态另类bdsm刘玥| av又黄又爽大尺度在线免费看| 黄色 视频免费看| 午夜福利网站1000一区二区三区| 精品久久久精品久久久| 日韩熟女老妇一区二区性免费视频| www.熟女人妻精品国产| 老熟女久久久| 亚洲色图 男人天堂 中文字幕| 欧美日韩国产mv在线观看视频| 熟女av电影| 国产一区亚洲一区在线观看| 九九爱精品视频在线观看| 老鸭窝网址在线观看| 亚洲国产欧美网| 久久精品aⅴ一区二区三区四区| 久久这里只有精品19| 亚洲熟女毛片儿| 精品免费久久久久久久清纯 | 老汉色∧v一级毛片| 亚洲第一区二区三区不卡| 人人妻人人添人人爽欧美一区卜| 国产av一区二区精品久久| 人人妻人人澡人人看| 麻豆乱淫一区二区| 欧美在线一区亚洲| 嫩草影院入口| 亚洲精品美女久久av网站| 日韩av免费高清视频| 久久精品久久久久久久性| 精品国产露脸久久av麻豆| 日韩av免费高清视频| 国产在线一区二区三区精| 免费人妻精品一区二区三区视频| 国产精品久久久久久精品电影小说| 人人妻人人澡人人爽人人夜夜| 国产亚洲最大av| 午夜福利视频在线观看免费| 超色免费av| 亚洲四区av| 久久久久久久久久久免费av| 久久久久人妻精品一区果冻| 国产一区有黄有色的免费视频| 日韩伦理黄色片| 97精品久久久久久久久久精品| 精品国产乱码久久久久久男人| 免费观看性生交大片5| 久久毛片免费看一区二区三区| 国产麻豆69| 激情视频va一区二区三区| 国产免费福利视频在线观看| 无限看片的www在线观看| 大香蕉久久网| 国产av国产精品国产| 欧美变态另类bdsm刘玥| 日韩av免费高清视频| 亚洲图色成人| 亚洲美女黄色视频免费看| 曰老女人黄片| 精品国产乱码久久久久久男人| av在线播放精品| h视频一区二区三区| 国产欧美日韩综合在线一区二区| 女的被弄到高潮叫床怎么办| 欧美人与性动交α欧美精品济南到| av女优亚洲男人天堂| 国产男女超爽视频在线观看| 国精品久久久久久国模美| 亚洲精品一二三| 午夜久久久在线观看| av在线app专区| 欧美人与性动交α欧美精品济南到| 一级黄片播放器| 久久99一区二区三区| 女人爽到高潮嗷嗷叫在线视频| 美女高潮到喷水免费观看| 久久午夜综合久久蜜桃| 国产又色又爽无遮挡免| 国产视频首页在线观看| 国产精品久久久人人做人人爽| 女人精品久久久久毛片| 三上悠亚av全集在线观看| 黄片无遮挡物在线观看| 亚洲成人一二三区av| 色精品久久人妻99蜜桃| 久热爱精品视频在线9| 免费观看av网站的网址| netflix在线观看网站| 黄色一级大片看看| 精品少妇久久久久久888优播| 1024香蕉在线观看| 激情五月婷婷亚洲| 久久久精品免费免费高清| 一本色道久久久久久精品综合| 男人舔女人的私密视频| 成人国产麻豆网| 晚上一个人看的免费电影| 18在线观看网站| 国产黄色视频一区二区在线观看| 久久天躁狠狠躁夜夜2o2o | 美女午夜性视频免费| 女人精品久久久久毛片| 人人妻,人人澡人人爽秒播 | 男女边吃奶边做爰视频| 久久久精品免费免费高清| av网站在线播放免费| 天天影视国产精品| 可以免费在线观看a视频的电影网站 | 伊人久久大香线蕉亚洲五| 国产精品无大码| 亚洲欧美激情在线| 这个男人来自地球电影免费观看 | 91aial.com中文字幕在线观看| 欧美成人午夜精品| 在线观看免费日韩欧美大片| 亚洲成人一二三区av| 国产黄频视频在线观看| 激情视频va一区二区三区| 国产极品天堂在线| 免费看av在线观看网站| 99精品久久久久人妻精品| 亚洲精品国产区一区二| 欧美精品一区二区免费开放| 亚洲国产欧美日韩在线播放| 欧美日韩一级在线毛片| 黑人巨大精品欧美一区二区蜜桃| 少妇被粗大猛烈的视频| 老熟女久久久| 成人国语在线视频| 欧美97在线视频| 亚洲综合色网址| 国产xxxxx性猛交| 色综合欧美亚洲国产小说| 一个人免费看片子| 777米奇影视久久| 亚洲欧美色中文字幕在线| 亚洲精品乱久久久久久| 欧美在线黄色| 免费久久久久久久精品成人欧美视频| avwww免费| 日本猛色少妇xxxxx猛交久久| 久久婷婷青草| 久久ye,这里只有精品| 久久天堂一区二区三区四区| 青青草视频在线视频观看| 亚洲人成网站在线观看播放| 成人影院久久| 十八禁网站网址无遮挡| 国产免费视频播放在线视频| 99精国产麻豆久久婷婷| 日韩欧美精品免费久久| 亚洲国产精品一区二区三区在线| 国产精品嫩草影院av在线观看| 高清黄色对白视频在线免费看| 我要看黄色一级片免费的| 中文字幕另类日韩欧美亚洲嫩草| 国产老妇伦熟女老妇高清| 交换朋友夫妻互换小说| 国产精品免费视频内射| 青草久久国产| 欧美成人精品欧美一级黄| 国产熟女午夜一区二区三区| 国产探花极品一区二区| 91精品国产国语对白视频| 黄色一级大片看看| 天天躁日日躁夜夜躁夜夜| 人体艺术视频欧美日本| 国产老妇伦熟女老妇高清| 男的添女的下面高潮视频| 一边摸一边抽搐一进一出视频| 男的添女的下面高潮视频| 亚洲欧美精品综合一区二区三区| av在线观看视频网站免费| 亚洲熟女毛片儿| 国产一区二区三区av在线| 美女视频免费永久观看网站| 久久这里只有精品19| videos熟女内射| 精品午夜福利在线看| 天天影视国产精品| av一本久久久久| 美女午夜性视频免费| 男女边吃奶边做爰视频| 欧美黑人欧美精品刺激| 国产成人a∨麻豆精品| 成人免费观看视频高清| 一本大道久久a久久精品| 亚洲欧美一区二区三区黑人| 国产精品99久久99久久久不卡 | 国产深夜福利视频在线观看| 菩萨蛮人人尽说江南好唐韦庄| 91成人精品电影| 少妇的丰满在线观看| 精品一品国产午夜福利视频| 两个人看的免费小视频| 不卡视频在线观看欧美| 大片免费播放器 马上看| 在线天堂最新版资源| 亚洲精品日本国产第一区| 久久天躁狠狠躁夜夜2o2o | 久久毛片免费看一区二区三区| 国产日韩一区二区三区精品不卡| 欧美激情极品国产一区二区三区| 好男人视频免费观看在线| 男女之事视频高清在线观看 | 蜜桃国产av成人99| 菩萨蛮人人尽说江南好唐韦庄| av在线老鸭窝| 国产精品欧美亚洲77777| 欧美激情 高清一区二区三区| 亚洲精品久久午夜乱码| 成人亚洲欧美一区二区av| 国产精品嫩草影院av在线观看| 久久免费观看电影| 亚洲精品自拍成人| 天天躁日日躁夜夜躁夜夜| 香蕉丝袜av| 9热在线视频观看99| 久久99精品国语久久久| 久久久久久人妻| 免费在线观看黄色视频的| 新久久久久国产一级毛片| 成人三级做爰电影| 1024香蕉在线观看| 美女福利国产在线| 国产免费福利视频在线观看| 亚洲三区欧美一区| 日本wwww免费看| 久久国产精品男人的天堂亚洲| 亚洲国产中文字幕在线视频| 午夜福利,免费看| 国产成人a∨麻豆精品| 亚洲第一区二区三区不卡| 久热爱精品视频在线9| 亚洲天堂av无毛| av线在线观看网站| 亚洲国产中文字幕在线视频| 久久精品国产亚洲av涩爱| 国产成人a∨麻豆精品| 51午夜福利影视在线观看| 亚洲精品第二区| 最黄视频免费看| 丝袜喷水一区| 制服人妻中文乱码| 亚洲成色77777| 久久久久网色| 男人操女人黄网站| tube8黄色片| 久久久久精品国产欧美久久久 | 亚洲av综合色区一区| 国产麻豆69| 国产精品香港三级国产av潘金莲 | 国产精品久久久久久精品古装| 亚洲国产av影院在线观看| 欧美在线黄色| 综合色丁香网| 中文字幕另类日韩欧美亚洲嫩草| 韩国av在线不卡| 视频区图区小说| 国产xxxxx性猛交| 黑人欧美特级aaaaaa片| 午夜福利在线免费观看网站| 欧美精品亚洲一区二区| 看非洲黑人一级黄片| tube8黄色片| 制服人妻中文乱码| 亚洲成人av在线免费| 日韩 亚洲 欧美在线| 别揉我奶头~嗯~啊~动态视频 | 999久久久国产精品视频| 精品久久蜜臀av无| 久久av网站| 丰满少妇做爰视频| 日韩大码丰满熟妇| 女人高潮潮喷娇喘18禁视频| 伦理电影免费视频| 夫妻性生交免费视频一级片| 最近的中文字幕免费完整| 欧美日韩福利视频一区二区| 日韩 欧美 亚洲 中文字幕| 色视频在线一区二区三区| 国产有黄有色有爽视频| 亚洲欧美日韩另类电影网站| 久久久精品国产亚洲av高清涩受| 久热这里只有精品99| 丁香六月欧美| 国产精品久久久久久人妻精品电影 | 色94色欧美一区二区| 老司机亚洲免费影院| 国产一区二区三区av在线| 久久久国产欧美日韩av| 9色porny在线观看| 中文字幕人妻丝袜制服| 热re99久久精品国产66热6| 最新在线观看一区二区三区 | 欧美激情极品国产一区二区三区| 中文乱码字字幕精品一区二区三区| 国产 一区精品| 91成人精品电影| 国产日韩一区二区三区精品不卡| 国产精品av久久久久免费| 久热爱精品视频在线9| 少妇人妻 视频| 在线观看免费视频网站a站| 亚洲精品av麻豆狂野| 纵有疾风起免费观看全集完整版| 亚洲国产成人一精品久久久| 熟女少妇亚洲综合色aaa.| 看免费成人av毛片| 女性被躁到高潮视频| 日本午夜av视频| 国产精品久久久av美女十八| 久久人人爽av亚洲精品天堂| 丝袜美腿诱惑在线| 啦啦啦啦在线视频资源| 亚洲免费av在线视频| 欧美黄色片欧美黄色片| 最近手机中文字幕大全| 香蕉国产在线看| 欧美精品高潮呻吟av久久| 天美传媒精品一区二区| 成人毛片60女人毛片免费| 国产成人欧美| 日韩av免费高清视频| 伦理电影大哥的女人| 欧美日韩av久久| 午夜老司机福利片| 国产成人午夜福利电影在线观看| 热re99久久国产66热| 日韩人妻精品一区2区三区| 韩国精品一区二区三区| 欧美精品av麻豆av| 美女脱内裤让男人舔精品视频| 国产亚洲一区二区精品| 在线观看三级黄色| 精品酒店卫生间| 久久久久国产精品人妻一区二区| 日本vs欧美在线观看视频| 亚洲精华国产精华液的使用体验| 亚洲国产最新在线播放| 两性夫妻黄色片| 欧美97在线视频| 在线观看免费高清a一片| 亚洲精品自拍成人| 丁香六月天网| 综合色丁香网| 天天操日日干夜夜撸| 亚洲美女搞黄在线观看| 国产高清国产精品国产三级| av.在线天堂| 18禁动态无遮挡网站| svipshipincom国产片| 欧美日韩综合久久久久久| 超碰97精品在线观看| 高清av免费在线| 久久女婷五月综合色啪小说| 建设人人有责人人尽责人人享有的| 十分钟在线观看高清视频www| 久久av网站| 国产片特级美女逼逼视频| 少妇人妻 视频| 亚洲第一青青草原| 在线 av 中文字幕| 亚洲国产av新网站| 免费在线观看完整版高清| 老司机亚洲免费影院| 日韩伦理黄色片| 亚洲精华国产精华液的使用体验| 久久人妻熟女aⅴ| 久久久久久久大尺度免费视频| 欧美另类一区| 老汉色av国产亚洲站长工具| 最近手机中文字幕大全| 99精品久久久久人妻精品| 热99久久久久精品小说推荐| 无限看片的www在线观看| 欧美日韩一级在线毛片| kizo精华| 国产老妇伦熟女老妇高清| 国产一区二区在线观看av| 精品人妻在线不人妻| 亚洲综合精品二区| 国产 一区精品| 午夜福利一区二区在线看| 欧美人与性动交α欧美软件|