• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合BERT和特征投影網(wǎng)絡(luò)的新聞主題文本分類方法

    2022-05-07 07:07:24張海豐郝儒松溫超東
    計(jì)算機(jī)應(yīng)用 2022年4期

    張海豐,曾 誠,2,3*,潘 列,郝儒松,溫超東,何 鵬,2,3

    (1.湖北大學(xué)計(jì)算機(jī)與信息工程學(xué)院,武漢 430062;2.湖北省軟件工程工程技術(shù)研究中心,武漢 430062;3.智慧政務(wù)與人工智能應(yīng)用湖北省工程研究中心,武漢 430062)

    0 引言

    新聞文本分類包括主題分類和內(nèi)容分類,而新聞主題文本分類任務(wù)中,新聞主題文本通常是由一些高度概括新聞內(nèi)容的詞匯組成,由于用詞缺乏規(guī)范、語義模糊,使得現(xiàn)有的文本分類方法表現(xiàn)不佳。新聞主題文本長(zhǎng)度短,在有限長(zhǎng)度的新聞主題文本中提取其完整語義特征進(jìn)行分類挑戰(zhàn)極大。

    新聞主題分類屬于自然語言處理(Natural Language Processing,NLP)短文本分類任務(wù),文本分類任務(wù)首先需要對(duì)相關(guān)文本進(jìn)行文本處理,并進(jìn)行文本向量化表示。隨著深度學(xué)習(xí)方法的興起,目前普遍使用的詞嵌入方式有兩種,一種是靜態(tài)的語言模型Word2Vec、GloVe;另一種是預(yù)訓(xùn)練模型BERT(Bidirectional Encoder Representations from Transformers)、XLNet 等動(dòng)態(tài)語言模型。Word2Vec 方法可以較好地體現(xiàn)上下文信息,被大量應(yīng)用于自然語言任務(wù)中。而預(yù)訓(xùn)練模型BERT 的出現(xiàn),解決了靜態(tài)詞向量無法解決的一詞多義問題,在多個(gè)NLP 任務(wù)中表現(xiàn)優(yōu)異。

    本文結(jié)合BERT 和特征投影網(wǎng)絡(luò)(Feature Projection network,F(xiàn)Pnet),提出了新聞主題分類方法BERT-FPnet,通過梯度反轉(zhuǎn)網(wǎng)絡(luò)提取共性特征,以特征投影方式,將BERT 模型提取特征進(jìn)行特征投影提純,提取強(qiáng)分類特征,提升新聞主題文本分類效果。

    1 相關(guān)工作

    新聞主題分類是指將新聞主題通過NLP 技術(shù)對(duì)新聞文本進(jìn)行特征處理、模型訓(xùn)練、輸出分類。新聞主題分類是當(dāng)前NLP 文本分類的重要研究方向之一,互聯(lián)網(wǎng)發(fā)展至今,每天產(chǎn)生海量新聞,各種新聞?lì)悇e混雜其中,如何更好地對(duì)其分類有著重要研究意義。

    1.1 文本向量化

    文本向量化表示就是用數(shù)值向量來表示文本的語義,對(duì)文本進(jìn)行向量化,構(gòu)建合適的文本表示模型,讓機(jī)器理解文本,是文本分類的核心問題之一。傳統(tǒng)的機(jī)器學(xué)習(xí)中樸素貝葉斯模型不需要將文本向量化表示,它記錄詞語的條件概率值,對(duì)輸入各詞語的條件概率值進(jìn)行計(jì)算即可得到預(yù)測(cè)數(shù)值。但是目前絕大多數(shù)線性分類模型還是需要對(duì)文本進(jìn)行向量化表示,必須輸入一個(gè)數(shù)值向量才能計(jì)算得到預(yù)測(cè)數(shù)值。傳統(tǒng)的特征表示中,使用詞袋表示文本,這種方式容易導(dǎo)致特征出現(xiàn)高維、稀疏問題,不僅影響文本分析的效率和性能,可解釋性也比較差。隨著深度學(xué)習(xí)的發(fā)展,一些優(yōu)秀的神經(jīng)網(wǎng)絡(luò)語言模型被提出,極大地推動(dòng)了NLP 領(lǐng)域的發(fā)展。Mikolov 等提出一種神經(jīng)網(wǎng)絡(luò)概率語言模型Word2Vec,它包括連續(xù)詞袋(Continuous Bag-Of-Words,CBOW)和Skip-Gram 兩種模型訓(xùn)練方法,讓詞向量很好地表達(dá)上下文信息,并提出了負(fù)采樣的方式來減少Softmax 的計(jì)算時(shí)間,但它只考慮了文本的局部信息,未有效利用整體信息。針對(duì)此問題,Pennington 等提出全局詞向量(Global Vectors,GloVe)模型,同時(shí)考慮了文本的局部信息與整體信息。

    Word2Vec、GloVe 模型等訓(xùn)練詞向量的方法,得到的詞向量文本特征表示為下游文本分類任務(wù)性能帶來了有效提升,但是它們的本質(zhì)是一種靜態(tài)的預(yù)訓(xùn)練技術(shù),在不同的上下文中,同一詞語具有相同的詞向量,這顯然是不合常理的,它無法解決自然語言中經(jīng)常出現(xiàn)的一詞多義問題,也導(dǎo)致下游分類任務(wù)的性能受到限制。隨著預(yù)訓(xùn)練技術(shù)的發(fā)展,GPT(Generative Pre-Training)、BERT、XLNet 等一些優(yōu)秀的預(yù)訓(xùn)練模型相繼被提出,其中最具代表的BERT預(yù)訓(xùn)練模型,它的動(dòng)態(tài)字向量可以更好地表示文本特征,有效地解決一詞多義問題,并在多個(gè)NLP 任務(wù)上效果顯著,尤其適合新聞主題短文本分類任務(wù)。因此本文利用BERT 模型在短文本處理上的優(yōu)勢(shì),在其基礎(chǔ)上結(jié)合FPnet 進(jìn)行改進(jìn)。

    1.2 文本分類方法

    現(xiàn)有的深度學(xué)習(xí)文本分類方法主要包括卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)、注意力機(jī)制以及根據(jù)這些模型的優(yōu)缺點(diǎn)互相融合的組合模型。Kim提出一種文本卷積神經(jīng)網(wǎng)絡(luò)TextCNN,利用多窗口一維CNN 在Word2Vec 詞向量上進(jìn)行特征提取分類,效果卓越;Zhang 等提出了一種字符級(jí)的卷積神經(jīng)網(wǎng)絡(luò)(character-level CNN,char-CNN)分類模型,采用字符級(jí)向量輸入的6 層卷積網(wǎng)絡(luò),并將多卷積層網(wǎng)絡(luò)連接到一個(gè)雙向循環(huán)層在短文本分類上進(jìn)行文本分類。在RNN 的應(yīng)用上,Mikolov 等利用RNN進(jìn)行文本分類,取得了不錯(cuò)的效果。但CNN 不能直接獲得數(shù)據(jù)中的長(zhǎng)期依賴關(guān)系,RNN 在處理文本時(shí)可能會(huì)出現(xiàn)梯度爆炸和消失問題。針對(duì)這些問題,一些組合模型相繼被提出,Lai等針對(duì)可能導(dǎo)致上下文語義缺失的問題,使用RNN 提取上下文語義信息,并融合原有的特征,通過結(jié)合單層池化網(wǎng)絡(luò)提出了一個(gè)循環(huán)卷積神經(jīng)網(wǎng)絡(luò)模型TextRCNN;Xiao 等提出了一個(gè)char-CRNN(character-level Convolutional RNN)模型,用另一種方式將CNN 與雙向長(zhǎng)短期記憶(Bidirectional Long Short-Term Memory,BiLSTM)結(jié)合,先進(jìn)行卷積操作,然后再進(jìn)行RNN 特征提取。

    注意力機(jī)制的提出,讓神經(jīng)網(wǎng)絡(luò)模型對(duì)訓(xùn)練文本中的不同語句有不同的關(guān)注度,實(shí)現(xiàn)了更加合理的自然語言建模,越來越多的神經(jīng)網(wǎng)絡(luò)中開始加入注意力機(jī)制。Zhou等提出的TextRNN-Attention 模型結(jié)合雙向RNN 與注意力機(jī)制,在特定任務(wù)上取得了不錯(cuò)的效果。而BERT 模型所基于的Transformer 架構(gòu)更是一種完全基于注意力機(jī)制的模型。

    在新聞主題分類任務(wù)上過去一般使用TextCNN 在Word2Vec 訓(xùn)練的字向量上進(jìn)行特征提取,分類效果比詞粒度效果更好,但詞向量也有其價(jià)值。楊春霞等提出了一種字粒度和詞粒度融合的新聞主題分類方法,將字粒度的Word2Vec 向量和詞粒度的Word2Vec 向量進(jìn)行融合。付靜等將詞向量和位置向量作為BERT 的輸入,通過多頭自注意力機(jī)制獲取長(zhǎng)距離依賴關(guān)系,提取全局語義特征;然后利用Word2Vec 模型融合LDA(Linear Discriminant Analysis)主題模型擴(kuò)展短文本的特征表示方法,解決短文本數(shù)據(jù)稀疏和主題信息匱乏的問題。

    BERT 模型性能強(qiáng)大,許多優(yōu)秀的模型都是在BERT 模型基礎(chǔ)上進(jìn)行改進(jìn)。Lan 等提出一種基于BERT 的輕量級(jí)預(yù)訓(xùn)練語言模型ALBERT(A Lite BERT),通過嵌入層參數(shù)因式分解減少BERT 參數(shù)量,擴(kuò)展了BERT 模型的可用性。溫超東等結(jié)合ALBERT 與門控循環(huán)單元(Gated Recurrent Unit,GRU)模型在專利文本分類任務(wù)上取得了不錯(cuò)的效果,但模型分類精度相較于BERT 會(huì)有一定程度的下降。Chen等提出了一種半監(jiān)督文本分類方法MixText,使用一種全新文本增強(qiáng)方式TMix,在BERT 編碼層進(jìn)行隱空間插值,生成全新樣本,相較于直接在輸入層進(jìn)行Mixup,TMix 的數(shù)據(jù)增強(qiáng)的空間范圍更加廣闊。Meng 等提出一種不需要任何標(biāo)注數(shù)據(jù),只利用標(biāo)簽進(jìn)行文本分類的方法LOTClass,使用BERT 模型訓(xùn)練標(biāo)簽的類別詞匯,利用BERT 的MLM(Mask Language Model)進(jìn)行標(biāo)簽名稱替換、類別預(yù)測(cè),然后通過自訓(xùn)練加強(qiáng)分類效果,達(dá)到了接近有監(jiān)督學(xué)習(xí)的分類效果。

    本文主要研究有監(jiān)督方法對(duì)BERT 模型進(jìn)行改進(jìn)提升。Qin 等在2020 年首次提出一種提升文本分類的特征投影網(wǎng)絡(luò)(FPnet),在多個(gè)文本分類模型上加入FPnet,有效提升了分類模型的文本分類效果。本文在其基礎(chǔ)上以雙BERT模型融合FPnet,提取域共性特征和特性特征,結(jié)合特征投影方法,以端到端的方式采用兩種融合方式進(jìn)行融合。

    2 相關(guān)技術(shù)

    2.1 預(yù)訓(xùn)練語言模型BERT

    BERT 模型采用雙向Transformer 編碼器獲取文本的特征表示,模型結(jié)構(gòu)如圖1 所示,將訓(xùn)練文本以字符級(jí)別輸入到多層雙向Transformer 編碼器中進(jìn)行訓(xùn)練,輸出文本字符級(jí)特征。

    圖1 BERT模型結(jié)構(gòu)Fig.1 BERT model structure

    在預(yù)訓(xùn)練階段,BERT 模型通過MLM 任務(wù)結(jié)合Transformer 架構(gòu)注意力機(jī)制本身全局可視性,增加了BERT模型的信息獲取,且隨機(jī)掩碼使得BERT 模型不能獲得全量信息,避免過擬合。通過NSP(Next Sentence Prediction)任務(wù)讓模型更好地理解句子之間的聯(lián)系,從而使預(yù)訓(xùn)練模型更好地適應(yīng)下游任務(wù)。因此,BERT 模型具有強(qiáng)大的文本語義理解能力,在文本分類任務(wù)上效果顯著。

    2.2 FPnet

    FPnet 是一種強(qiáng)化文本分類效果的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。主要利用梯度反轉(zhuǎn)網(wǎng)絡(luò)來實(shí)現(xiàn),使用梯度反向?qū)樱℅radient Reversal Layer,GRL)提取多個(gè)類的共性特征。Ganin等詳細(xì)介紹了GRL 的實(shí)現(xiàn)原理,并將其用于領(lǐng)域自適應(yīng)(Domain Adaptation)中提取共性特征。它將領(lǐng)域自適應(yīng)嵌入到學(xué)習(xí)表示的過程中,以便最終分類決策對(duì)于域的改變?nèi)阅芴崛〉讲蛔兲卣?。FPnet 利用GRL 的這一特點(diǎn)來提取共性特征,并采用類似對(duì)抗學(xué)習(xí)方法通過特征投影改進(jìn)表示學(xué)習(xí)。

    如圖2 所示,F(xiàn)Pnet 由兩個(gè)子網(wǎng)絡(luò)組成:右邊為共性特征學(xué)習(xí)網(wǎng)絡(luò)(Common feature learning network,C-net);左邊為投影網(wǎng)絡(luò)(Projection network,P-net)。

    圖2 特征投影網(wǎng)絡(luò)的結(jié)構(gòu)Fig.2 Structure of FPnet

    FPnet 的主要重點(diǎn)在于使用雙網(wǎng)絡(luò)進(jìn)行不同的任務(wù),兩個(gè)神經(jīng)網(wǎng)絡(luò)所提取的特征不同,通過特征投影的方式,強(qiáng)化主網(wǎng)絡(luò)的分類特征,從而提升文本分類效果。FPnet 可以與現(xiàn)有的LSTM、CNN、Transformer、BERT 神經(jīng)網(wǎng)絡(luò)進(jìn)行融合,在與不同的神經(jīng)網(wǎng)絡(luò)相結(jié)合時(shí)候,只需要將FPnet 結(jié)構(gòu)中的神經(jīng)網(wǎng)絡(luò)P 和神經(jīng)網(wǎng)絡(luò)C 特征提取器換成LSTM、CNN、Transformer、BERT 即可。FPnet 作為一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)并沒有固定的形式,其主要思想在于強(qiáng)化提純特征,從而達(dá)到強(qiáng)化神經(jīng)網(wǎng)絡(luò)的分類效果。在TextCNN-FPnet中使用了2 個(gè)TextCNN 網(wǎng)絡(luò)作為FPnet 的C-net 和P-net 特征提取器來提取共性特征和特性特征。OPL(Original Projection Layer)處于卷積池化層之后,在神經(jīng)網(wǎng)絡(luò)最后一層進(jìn)行特征投影,從而提升了TextCNN 模型的分類性能。

    C-net 模塊在正常的文本分類神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中加入GRL會(huì)使得神經(jīng)網(wǎng)絡(luò)C 所提取的特征

    F

    為共性特征。由于C-net輸出通過損失函數(shù)計(jì)算,在反向傳播過程中受到GRL 反轉(zhuǎn)作用,使得整個(gè)網(wǎng)絡(luò)損失函數(shù)loss 值逐漸增大,無法正確分類,神經(jīng)網(wǎng)絡(luò)C 所提取的特征

    F

    在神經(jīng)網(wǎng)絡(luò)參數(shù)更新過程中逐漸丟棄類別信息,只帶有共性信息,在向量空間中表現(xiàn)為沒有正確的類別指向。

    圖3 特征投影Fig.3 Feature projection

    FPnet 使用雙網(wǎng)絡(luò)合作進(jìn)行文本分類任務(wù),神經(jīng)網(wǎng)絡(luò)Pnet 和神經(jīng)網(wǎng)絡(luò)C-net 結(jié)構(gòu)相同但參數(shù)并不共享,C-net 中加入梯度反轉(zhuǎn)層GRL,P-net 中加入特征投影層OPL,雙網(wǎng)絡(luò)使用相同的交叉熵?fù)p失函數(shù),C-net 中的梯度反轉(zhuǎn)使得網(wǎng)絡(luò)提取的特征并不能正確分類,即提取到了共性特征。

    在新聞主題文本分類任務(wù)難點(diǎn)主要包括兩個(gè)方面:1)主題文本長(zhǎng)度過短,語義信息少,普通文本分類模型不易提取其有效分類語義信息,一些主題詞可能屬于多個(gè)類別,而另一些主題詞并不能指向任何類別,更適合使用BERT 模型作為特征提取器;2)部分新聞包含多個(gè)類別信息,例如財(cái)經(jīng)類新聞與房產(chǎn)類新聞通常不易區(qū)分,科技新聞?dòng)秩菀缀推囶愋侣劵煜?。使用FPnet 后,通過計(jì)算凈化提純后的向量特征,可以將學(xué)習(xí)到的輸入新聞主題文本的信息向量投影到更具區(qū)分性的語義空間中來消除共同特征的影響。

    BERT 模型與一般的文本分類模型不同,不僅可以使用分類器最終提取的特征進(jìn)行特征投影融合,也可以在BERT網(wǎng)絡(luò)的隱藏層中融合FPnet 進(jìn)行改進(jìn)。

    3 BERT-FPnet框架及其實(shí)現(xiàn)

    本文BERT-FPnet 新聞主題文本分類方法主要包括兩種實(shí)現(xiàn)方式:

    1)BERT-FPnet-1。使用BERT-FPnet 的MLP 層輸出進(jìn)行特征投影結(jié)合,使用預(yù)訓(xùn)練模型BERT 構(gòu)建文本分類模型時(shí)需要在BERT 的輸出后加入MLP(MultiLayer Perceptron)層進(jìn)行進(jìn)一步特征提取,MLP 層使用多個(gè)全連接網(wǎng)絡(luò)。

    2)BERT-FPnet-2。使用BERT-FPnet 模型中BERT 的隱藏層進(jìn)行特征投影結(jié)合。

    BERT-FPnet-1 的整體模型結(jié)構(gòu)如圖4 所示,模型網(wǎng)絡(luò)主要分為兩部分,左邊為BERT 投影網(wǎng)絡(luò)P-net,右邊為BERT 共性特征學(xué)習(xí)網(wǎng)絡(luò)C-net。

    圖4 BERT-FPnet模型框架Fig.4 BERT-FPnet model framework

    BERT-FPnet-1 模型工作流程如下:在新聞文本輸入到BERT 層之前需要進(jìn)行特征處理,將輸入新聞文本的開頭加上[CLS]字符,然后根據(jù)BERT 字典將所有的字符轉(zhuǎn)化為字典中對(duì)應(yīng)id,輸入到BERT 模型中。如式(1)~(2)所示:

    由于BERT 模型輸出的最后一層的[CLS]位置向量帶有全局語義信息,因此這里將新聞文本通過BERT 模型后將[CLS]對(duì)應(yīng)輸出特征

    E

    取出,放入MLP 層中進(jìn)行進(jìn)一步特征提取,得到文本特征

    E

    E

    。如式(3)~(5)所示:

    在MLP 層中包含2 個(gè)全連接層和激活函數(shù)tanh,第一個(gè)全連接層維度參數(shù)設(shè)置為[768,768],輸出特征通過激活函數(shù)tanh 后進(jìn)入第二個(gè)全連接層,其維度參數(shù)設(shè)置為[768,class_dim],class_dim 根據(jù)新聞文本標(biāo)簽類別數(shù)來設(shè)置,如式(6)~(7)所示:

    分別通過P-net 模塊和C-net 模塊的MLP 層提取原始特征和共性特征,如式(8)~(9)所示:

    如前文所述,C-net 模塊主要提取共性特征,共性特征是指對(duì)分類任務(wù)不做區(qū)分的特征,它是所有類的共性特征,C-net 通過MLP 層后特征提取完畢,將特征放入GRL 中進(jìn)行梯度反轉(zhuǎn)。如式(10)~(11)所示:

    其中:

    λ

    值為GRL 梯度反轉(zhuǎn)超參數(shù)。梯度反轉(zhuǎn)層在正向傳播時(shí)對(duì)特征

    f

    不做修改,在反向傳播時(shí)傳遞了-

    λ

    使得整個(gè)C-net 網(wǎng)絡(luò)的損失函數(shù)LOSS 求反。

    特征投影方法是將特征向量投影到共性特征向量上,投影公式如式(12)所示:

    通過特征投影公式,將提取特征在共性特征上進(jìn)行二次投影。第一次投影是將原始特征在共性特征上進(jìn)行投影,從而使

    f

    向量中只包含公共語義信息。而第二次投影得到提純后的特征向量,只包含分類語義信息,如式(13)~(14)所示:

    兩個(gè)網(wǎng)絡(luò)在結(jié)構(gòu)上相同,參數(shù)上并不共享。C-net 中加入GRL 梯度反轉(zhuǎn)層后,和P-net 的輸出一樣,P-net 和C-net 的輸出都使用Softmax 歸一化激活函數(shù),如式(15)~(16)所示:

    雙網(wǎng)絡(luò)使用交叉熵?fù)p失函數(shù)進(jìn)行計(jì)算。C-net 通過GRL使網(wǎng)絡(luò)損失增大,所提取的特征不能正確分類,即提取到了共性特征。如式(17)~(18)所示:

    在反向傳播過程中,P-net 網(wǎng)絡(luò)參數(shù)和C-net 網(wǎng)絡(luò)參數(shù)并不共享,

    Loss

    反向傳播只更新右側(cè)C-net 網(wǎng)絡(luò)參數(shù),

    Loss

    反向傳播只更新左側(cè)P-net 網(wǎng)絡(luò)參數(shù)。C-net 中雖然同樣使用Softmax 和交叉熵?fù)p失函數(shù),但是由于在反向傳播時(shí)候C-net模塊中GRL 層進(jìn)行梯度反轉(zhuǎn),因此

    Loss

    的值會(huì)逐漸變大。進(jìn)行

    Loss

    計(jì)算和反向傳播只是為讓神經(jīng)網(wǎng)絡(luò)得到共性特征。P-net 模塊中

    Loss

    為最終整個(gè)模型預(yù)測(cè)分類損失函數(shù)值,

    Y

    值為整個(gè)特征投影網(wǎng)絡(luò)的最終預(yù)測(cè)輸出。

    BERT-FPnet-2 主要區(qū)別在于OPL 特征投影層處于BERT內(nèi)部的隱藏層之間。BERT-BASE 中文預(yù)訓(xùn)練模型為12 層Transformer 結(jié)構(gòu),由于BERT 模型各個(gè)隱藏層中所提取的語義信息各不相同,從低層到高層分別提取的是短語級(jí)別、句法級(jí)別以及深度語義級(jí)別的特征語義信息,而文本特征的長(zhǎng)期依賴需要對(duì)模型多層輸出進(jìn)行建模。因此本文分別對(duì)BERT 的低、中、高隱藏層進(jìn)行特征投影結(jié)合,通過實(shí)驗(yàn)對(duì)比提出了BERT-FPnet模型第二種特征投影方式BERT-FPnet-2。

    BERT 隱藏層特征投影是將當(dāng)前隱藏層輸出進(jìn)行特征投影后,輸入到下一層隱藏層中,BERT-BASE 中文預(yù)訓(xùn)練模型隱藏層為12 層,如圖5 所示,以BERT 模型第6 層特征投影為例,在BERT-FPnet-2 的第6 層加入OPL 層進(jìn)行特征投影提純,BERT-Cnet 網(wǎng)絡(luò)結(jié)構(gòu)不變。

    圖5 BERT-FPnet-2隱藏層特征投影Fig.5 BERT-FPnet-2 hidden layer feature projection

    由于BERT模型有多個(gè)隱藏層,本文通過多種實(shí)驗(yàn)選取不同的隱藏層進(jìn)行特征投影實(shí)驗(yàn)對(duì)比,從而得到最優(yōu)實(shí)驗(yàn)效果。

    4 實(shí)驗(yàn)與結(jié)果分析

    4.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)

    本文實(shí)驗(yàn)環(huán)境如表1 所示。為了評(píng)估本模型方法在新聞主題文本分類任務(wù)上的有效性,本文使用四個(gè)新聞主題數(shù)據(jù)集進(jìn)行模型實(shí)驗(yàn),如表2 所示。

    表1 實(shí)驗(yàn)環(huán)境Tab 1 Experimental environment

    表2 數(shù)據(jù)集詳情Tab 2 Dataset details

    1)今日頭條數(shù)據(jù)集:根據(jù)今日頭條客戶端收集而來,分別包括民生、文化、娛樂、體育、財(cái)經(jīng)、房產(chǎn)、汽車、教育、科技、軍事、旅游、國(guó)際、證券、農(nóng)業(yè)、電競(jìng)共15 個(gè)類別。

    2)搜狐新聞數(shù)據(jù)集:通過網(wǎng)絡(luò)開源搜狐新聞數(shù)據(jù)集進(jìn)行數(shù)據(jù)清洗,去除數(shù)據(jù)中部分缺少標(biāo)簽數(shù)據(jù),去除新聞內(nèi)容,只保留新聞主題。數(shù)據(jù)集共包含娛樂、財(cái)經(jīng)、房地產(chǎn)、旅游、科技、體育、健康、教育、汽車、新聞、文化、女人共12 個(gè)類別。

    3)THUCNews-L 數(shù)據(jù)集:THUCNews 是根據(jù)新浪新聞RSS訂閱頻道2005—2011 年的歷史數(shù)據(jù)篩選過濾生成,包含約74 萬篇新聞文檔。本文在原始數(shù)據(jù)集上進(jìn)行數(shù)據(jù)清洗,重新整合劃分出財(cái)經(jīng)、房產(chǎn)、股票、教育、科技、社會(huì)、時(shí)政、體育、游戲、娛樂,共計(jì)10 個(gè)類別,每個(gè)類別數(shù)據(jù)約2 萬條。

    4)THUCNews-S 數(shù)據(jù)集:在THUCNews 基礎(chǔ)上進(jìn)行數(shù)據(jù)清洗的小型數(shù)據(jù)集,共包含財(cái)經(jīng)、股票、科技、社會(huì)、時(shí)政、娛樂6 個(gè)類別,每個(gè)類別數(shù)據(jù)1 萬條。

    4.2 對(duì)比實(shí)驗(yàn)設(shè)置

    為驗(yàn)證本文所提出的結(jié)合BERT 和特征投影網(wǎng)絡(luò)的新聞主題分類方法的有效性,選擇了8 個(gè)在新聞文本分類上效果較好的分類模型作為對(duì)比。其中:TextCNN、FastText、Transformer 和DPCNN,結(jié)合Word2Vec 字粒度詞向量進(jìn)行文本分類實(shí) 驗(yàn);ALBERT-FC、BERT-FC、BERT-CNN 和BERTBIGRU 結(jié)合預(yù)訓(xùn)練模型進(jìn)行文本分類實(shí)驗(yàn)。具體如下:

    1)TextCNN:多窗口超參數(shù)設(shè)置為[2,3,4],4 窗口可以很好地提取中文新聞數(shù)據(jù)的四字成語語義,卷積核數(shù)量設(shè)置為256。

    2)FastText:將輸入文本的序列投射到詞嵌入空間,然后通過池化層得到文本特征向量分類,F(xiàn)astText 沒有卷積操作,模型結(jié)構(gòu)簡(jiǎn)單、速度快。

    3)Transformer:使用encoder 作為特征提取器,本次實(shí)驗(yàn)使用了單組注意力機(jī)制和3 個(gè)encoder 塊作為模型組成。

    4)深層金字塔模型(Deep Pyramid Convolutional Neural Network,DPCNN):該模型參考深度殘差網(wǎng)絡(luò)(Residual Network,ResNet),解決深層模型的梯度消失問題。通過固定特征圖(feature map)的數(shù)量,采用步長(zhǎng)為2 的最大池化操作,使每個(gè)卷積層的數(shù)據(jù)大小減半,同時(shí)相應(yīng)的計(jì)算時(shí)間減半,從而形成一個(gè)金字塔(Pyramid)。

    5)ALBERT:使用ALBERT-BASE 中文預(yù)訓(xùn)練模型,在模型最后一層pooling 層輸出連接全連接層(Fully Connected layer,F(xiàn)C)進(jìn)行Softmax 分類。

    6)BERT-FC:使用BERT 模型最后的[CLS]向量連接FC進(jìn)行分類。

    7)BERT-CNN:使用BERT 模型的最后一層的encoder輸出的每個(gè)字向量特征,通過卷積池化進(jìn)一步提取特征進(jìn)行分類任務(wù),其中CNN 也使用[2,3,4]窗口卷積池化,卷積核數(shù)量256。

    8)BERT-BIGRU(BERT-Bidirectional Gated Recurrent Unit):使用BERT 模型的最后一層的encoder 輸出,提取每個(gè)字向量特征,輸入雙向門控單元(Bidirectional Gated Recurrent Unit,BiGRU)提取上下文語義特征從而進(jìn)行文本分類。

    在實(shí)驗(yàn)之前對(duì)四個(gè)新聞數(shù)據(jù)集進(jìn)行預(yù)處理,過濾掉非ASCII 字符,清洗換行符等標(biāo)點(diǎn)符號(hào),對(duì)英文字符進(jìn)行大小寫轉(zhuǎn)換,并對(duì)中文文字進(jìn)行簡(jiǎn)繁字體轉(zhuǎn)換。

    對(duì)比實(shí)驗(yàn)中TextCNN、FastText、Transformer 和DPCNN 模型結(jié)合Word2Vec 字粒度詞向量進(jìn)行文本分類實(shí)驗(yàn),并分別在訓(xùn)練集上訓(xùn)練Word2Vec 字向量,本次對(duì)比實(shí)驗(yàn)中Word2Vec 字典大小設(shè)置為5 000,字符映射為300 維字向量。

    對(duì)比實(shí)驗(yàn)中ALBERT-FC、BERT-FC、BERT-CNN 和BERT-BIGRU 結(jié)合預(yù)訓(xùn)練模型進(jìn)行文本分類實(shí)驗(yàn)。ALBERT-FC 使用ALBERT-BASE-CHINESE 中文預(yù)訓(xùn)練模型,BERT-FC、BERT-CNN 和BERT-BIGRU 使 用BERT-BASECHINESE 中文預(yù)訓(xùn)練模型。對(duì)比模型超參數(shù)均在新聞主題文本分類數(shù)據(jù)集上進(jìn)行調(diào)優(yōu)。

    4.3 評(píng)價(jià)指標(biāo)

    本文采用準(zhǔn)確率Acc(Accuracy)、精確率

    P

    (Precision)與召回率

    R

    (Recall)的

    F

    1 值對(duì)模型效果進(jìn)行評(píng)價(jià),其計(jì)算公式如下:

    其中:對(duì)于每個(gè)新聞主題分類類別,

    TP

    表示實(shí)際正樣本預(yù)測(cè)為正,

    TN

    表示負(fù)樣本預(yù)測(cè)為負(fù),

    FP

    表示負(fù)樣本預(yù)測(cè)為正,

    FN

    表示正樣本預(yù)測(cè)為負(fù)。由于本次實(shí)驗(yàn)任務(wù)為多類別新聞主題文本分類任務(wù),因此使用精確率

    P

    、召回率

    R

    F

    1 值的宏平均(Macroaveraging)值M_F1 作為評(píng)價(jià)指標(biāo)。宏平均計(jì)算方式將每個(gè)類別的精確率、召回率和

    F

    1 值分別計(jì)算出來,然后對(duì)所有類求算術(shù)平均值,如式(23)~(25)所示。宏平均值更適合作為多類別分類任務(wù)評(píng)價(jià)指標(biāo)。

    4.4 實(shí)驗(yàn)參數(shù)

    本文所提出的結(jié)合BERT 和FPnet 的新聞主題分類方法的兩種實(shí)現(xiàn)方式的基本參數(shù)設(shè)置相同,主要包括BERT 模型參數(shù)和綜合模型訓(xùn)練參數(shù)設(shè)置,BERT 模型采用谷歌開源的BERT-BASE 中文預(yù)訓(xùn)練語言模型。模型主要參數(shù)如表3所示。

    表3 BERT模型主要參數(shù)Tab 3 Major parameters of BERT model

    優(yōu)化策略使用更適合于BERT 模型的BertAdam 優(yōu)化器,warmup 模型預(yù)熱設(shè)置為0.05,模型學(xué)習(xí)率設(shè)置為5E-5,并且使用動(dòng)態(tài)學(xué)習(xí)率策略進(jìn)行學(xué)習(xí)率衰減,衰減系數(shù)為0.9。

    由于四個(gè)數(shù)據(jù)集的平均長(zhǎng)度都在20 左右,多次微調(diào)長(zhǎng)度超參數(shù)后選取文本輸入長(zhǎng)度超參數(shù)

    pad_size

    =32,梯度反轉(zhuǎn)GRL 超參數(shù)

    λ

    設(shè)置為[0.05,0.1,0.2,0.4,0.8,1.0],隨著模型訓(xùn)練梯度下降變化,可以有效提取共性特征,具體如表4所示。

    表4 BERT-FPnet模型超參數(shù)Tab 4 Hyperparameters of BERT-FPnet model

    在BERT-FPnet-2 中,對(duì)BERT 模型各個(gè)隱藏層進(jìn)行特征投影,對(duì)比各個(gè)隱藏層特征投影分類效果:

    1)單層投影:分別對(duì)BERT 模型第3、6、9、12 層隱藏層進(jìn)行特征投影;

    2)雙層投影:分別在第3、6、9、12 層隱藏層以及最后一層MLP 層進(jìn)行特征投影;

    3)所有層投影:在BERT 模型的12 個(gè)隱藏層均進(jìn)行特征投影。

    4.5 實(shí)驗(yàn)結(jié)果分析

    如表5 所示,在搜狐新聞數(shù)據(jù)集上進(jìn)行BERT-FPnet-2 隱藏層特征投影實(shí)驗(yàn),3、6、9、12 分別表示在BERT 的單層隱藏層特征投影層;3-MLP、6-MLP、9-MLP、12-MLP 分別是表示雙層特征投影;ALL 代表所有層均進(jìn)行特征投影;MLP 為BERT-FPnet最后一層MLP 層。

    表5 搜狐新聞數(shù)據(jù)集上BERT-FPnet-2隱藏層特征投影實(shí)驗(yàn)結(jié)果Tab 5 Experimental results of BERT-FPnet-2 hidden layer feature projection on Sohu News dataset

    在單層特征投影對(duì)比可以看出,第12 層隱藏層特征投影效果最好,準(zhǔn)確率和F1 值分別達(dá)到了0.861 7 和0.862 7。從雙層特征投影對(duì)比實(shí)驗(yàn)可以看出,6-MLP 投影和12-MLP層特征投影效果最好,但是雙層投影效果相較于單層第12層隱藏層投影效果有所降低。而使用所有層進(jìn)行特征投影分類效果下降較多。對(duì)比BERT-FPnet-1 可以發(fā)現(xiàn),在BERTFPnet-2 使用第12 層隱藏層進(jìn)行特征投影效果最好。

    為進(jìn)一步驗(yàn)證BERT-FPnet 第12 層隱藏層特征投影的效果,將其在THUCNews-S 數(shù)據(jù)集上進(jìn)行對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表6 所示??梢钥吹皆赥HUCNews-S 數(shù)據(jù)集下隱藏層投影分類效果和BERT-FPnet-1 效果接近。

    表6 THUCNews-S數(shù)據(jù)集上BERT-FPnet的特征投影結(jié)果對(duì)比Tab 6 Comparison of BERT-FPnet feature projection results on THUCNews-S dataset

    上述實(shí)驗(yàn)通過在BERT 模型部分隱藏層進(jìn)行層次特征投影實(shí)驗(yàn)對(duì)比,表明BERT 模型融合特征投影層適合在語義特征提取層進(jìn)行特征投影。

    在四個(gè)數(shù)據(jù)集上進(jìn)行多個(gè)模型實(shí)驗(yàn)對(duì)比實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表7 所示,其中BERT-FPnet-1 為在模型MLP 層最終特征輸出進(jìn)行特征投影,而BERT-FPnet-2 為在BERT 輸出的第12 層隱藏層進(jìn)行特征投影后再放入MLP 層進(jìn)行分類。

    表7 各模型在不同數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果Tab 7 Experimental results of different models on different datasets

    從表7 可以看出本文所提出的結(jié)合BERT 和FPnet 的新聞主題分類方法的兩種實(shí)現(xiàn)方式,在準(zhǔn)確率、宏平均F1 值都優(yōu)于其他文本分類模型,尤其優(yōu)于目前基于BERT 模型融合較好的BERT-CNN 和BERT-BIGRU。為更加直觀地對(duì)各模型性能進(jìn)行分析,采用柱狀圖的形式對(duì)各模型的M_F1(宏平均F1 值)實(shí)驗(yàn)結(jié)果進(jìn)行展示,如圖6 所示。

    圖6 各模型在不同數(shù)據(jù)集上的宏平均F1值Fig.6 M_F1 value of different models on different datasets

    從圖6 可以看出,本文模型在各個(gè)數(shù)據(jù)集上效果均優(yōu)于其他對(duì)比模型,在THUCNews-L 和THUCNews-S 數(shù)據(jù)集上只有BERT-CNN 模型F1 值接近本文模型。

    并且分析表7 中數(shù)據(jù)可知,使用Word2Vec 向量的TextCNN、FastText、Transformer、DPCNN,分類效果顯然差于融合預(yù)訓(xùn)練模型的ALBERT-FC、BERT-FC、BERT-CNN 和BERT-BIGRU 方法,說明預(yù)訓(xùn)練語言模型在提取的句子語義特征表示比Word2Vec 更好,這也是本文使用BERT 模型融合特征投影的原因。而ALBERT 模型雖然在BERT 模型上進(jìn)行創(chuàng)新,消減了BERT 模型的參數(shù),但是在一定程度上降低了模型準(zhǔn)確率。

    在今日頭條、THUCNews-L、THUCNews-S 這3 個(gè)數(shù)據(jù)集上BERT-FPnet-1 在MLP 層投影效果更好,而搜狐新聞數(shù)據(jù)集上在BERT-FPnet-2 使用BERT 模型第12 層隱藏層投影效果更好,因此可以針對(duì)不同數(shù)據(jù)集選擇不同的特征投影方式得到最好的分類效果。

    4.6 超參數(shù)影響

    本文所提新聞主題文本分類模型影響最終分類效果的參數(shù)主要包括:新聞主題文本輸入長(zhǎng)度

    pad_size

    、GRL 梯度反轉(zhuǎn)參數(shù)

    λ

    以及雙網(wǎng)絡(luò)學(xué)習(xí)率。新聞主題文本一般長(zhǎng)度不一,模型輸入長(zhǎng)度

    pad_size

    不宜過長(zhǎng)也不宜過短:過短的輸入長(zhǎng)度顯然無法有效獲取完整語義信息;而設(shè)置過長(zhǎng)的

    pad_size

    進(jìn)行數(shù)據(jù)對(duì)齊時(shí),填充值會(huì)造成噪聲影響語義提取效果,并且由于BERT 模型注意力機(jī)制的特性,模型的計(jì)算時(shí)間也會(huì)呈指數(shù)增長(zhǎng),從而影響模型分類性能。GRL 梯度反轉(zhuǎn)參數(shù)主要作用在于幫助C-net 提取有效的共性特征。雙網(wǎng)絡(luò)學(xué)習(xí)率在微調(diào)時(shí)可分為同步學(xué)習(xí)率和異步學(xué)習(xí)率。同步學(xué)習(xí)率是指雙網(wǎng)絡(luò)采用相同梯度下降策略和學(xué)習(xí)率,異步學(xué)習(xí)率是指雙網(wǎng)絡(luò)采用不同的梯度下降策略和學(xué)習(xí)率。雖然在DANN 中采用的是ADam 和SGD的雙網(wǎng)絡(luò)不同優(yōu)化策略,文獻(xiàn)[22]中也是使用這種方式,但是本文使用同步學(xué)習(xí)率獲得了更好的效果。在THUCNews-S 數(shù)據(jù)集上進(jìn)行參數(shù)對(duì)比實(shí)驗(yàn),結(jié)果如表8 所示??梢钥闯?p>pad_size

    取值從平均長(zhǎng)度18 到40,本文模型的準(zhǔn)確率和F1 值變化。從實(shí)驗(yàn)結(jié)果中可以看到

    pad_size

    值依次取18、24、32 時(shí),模型的準(zhǔn)確率和F1 值逐步提升,但當(dāng)

    pad_size

    值取40 時(shí),模型準(zhǔn)確率和F1 值并未得到有效提升。

    表8 各pad_size 下本文模型在THUCNews-S數(shù)據(jù)集上的性能對(duì)比Tab 8 Perfomance comparison of proposed models under different pad_size on THUCNews-S dataset

    GRL 超參數(shù)

    λ

    分別取靜態(tài)值1 和兩種動(dòng)態(tài)

    λ

    進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)結(jié)果如表9 所示??梢钥闯霾煌?p>λ

    值對(duì)模型分類效果會(huì)產(chǎn)生細(xì)微影響,更加細(xì)膩度的

    λ

    變化幅度對(duì)模型的分類效果更好,更有助于C-net 提取共性特征。

    表9 各λ下本文模型在THUCNews-S數(shù)據(jù)集上的性能對(duì)比Tab 9 Performance comparison of proposed models under different λ on THUCNews-S dataset

    在雙網(wǎng)絡(luò)優(yōu)化策略方面,本文對(duì)比了文獻(xiàn)[22]中所用的ADam 和SGD 的雙網(wǎng)絡(luò)不同優(yōu)化策略,以及本文所用的雙BERTAdam、同步學(xué)習(xí)率方式。實(shí)驗(yàn)結(jié)果如表10 所示??梢钥闯霰疚乃梅椒▽?duì)以BERT為基礎(chǔ)的FPnet分類效果更好。

    表10 各優(yōu)化策略下本文模型在THUCNews-S數(shù)據(jù)集上的性能對(duì)比Tab 10 Performance comparison of proposed models under different optimization strategies on THUCNews-S dataset

    因此最終各數(shù)據(jù)集實(shí)驗(yàn)對(duì)比部分并未參照文獻(xiàn)[22]中在FPnet 的雙網(wǎng)絡(luò)結(jié)構(gòu)中使用Adam 和SGD 兩種梯度下降優(yōu)化策略,而是使用了更適合于BERT 模型的雙BERTAdam 優(yōu)化器。

    5 結(jié)語

    本文提出兩種結(jié)合BERT 和FPnet 的新聞主題文本分類方法。利用BERT 模型對(duì)新聞主題文本的完美語義特征提取能力,使用雙BERT 模型以特征投影的方式結(jié)合完成新聞主題文本分類任務(wù)。在其中一個(gè)BERT 網(wǎng)絡(luò)中加入GRL 梯度反轉(zhuǎn)層,提取新聞主題文本的共性特征;然后使用另一個(gè)BERT 網(wǎng)絡(luò)OPL 將提取的特征在共性特征上進(jìn)行投影,從而提取特性特征,提升文本分類效果。在四個(gè)新聞主題數(shù)據(jù)集上進(jìn)行大量對(duì)比實(shí)驗(yàn),驗(yàn)證了本文所提出的結(jié)合BERT 和FPnet 的新聞主題文本分類方法的有效性。

    本文模型缺點(diǎn)在于模型參數(shù)量較大,可嘗試使用知識(shí)蒸餾消減模型參數(shù)。在下一步工作中,將使用BERT 的字序列向量通過CNN、RNN 進(jìn)行特征提取后融合特征投影進(jìn)行網(wǎng)絡(luò)融合,以完成新聞主題分類任務(wù)。

    国产日韩欧美亚洲二区| av又黄又爽大尺度在线免费看| 伊人亚洲综合成人网| 久久中文字幕一级| 日韩视频一区二区在线观看| 十八禁网站免费在线| 国产一卡二卡三卡精品| 久久久国产精品麻豆| 亚洲av日韩精品久久久久久密| 免费女性裸体啪啪无遮挡网站| 国产亚洲欧美在线一区二区| 窝窝影院91人妻| 免费av中文字幕在线| 成年女人毛片免费观看观看9 | 欧美国产精品va在线观看不卡| 一级黄色大片毛片| 亚洲免费av在线视频| 法律面前人人平等表现在哪些方面 | 又大又爽又粗| 嫩草影视91久久| 国产精品二区激情视频| 美女主播在线视频| 日日夜夜操网爽| 国产日韩欧美视频二区| 久久av网站| 一级,二级,三级黄色视频| 亚洲精品乱久久久久久| 在线 av 中文字幕| 国产在线观看jvid| 永久免费av网站大全| 18禁裸乳无遮挡动漫免费视频| av在线播放精品| 动漫黄色视频在线观看| 国产一区二区三区综合在线观看| 操出白浆在线播放| netflix在线观看网站| 18禁观看日本| 国产在线视频一区二区| 人人妻人人澡人人看| 精品国内亚洲2022精品成人 | 9色porny在线观看| 黄网站色视频无遮挡免费观看| 久久精品国产亚洲av香蕉五月 | 99国产综合亚洲精品| 人人妻人人澡人人看| 啦啦啦视频在线资源免费观看| 黄色 视频免费看| 欧美午夜高清在线| 国产成人精品在线电影| 女人爽到高潮嗷嗷叫在线视频| 亚洲欧洲日产国产| 国产成人啪精品午夜网站| 亚洲色图综合在线观看| 国产免费一区二区三区四区乱码| 日韩中文字幕欧美一区二区| 岛国在线观看网站| 日韩一区二区三区影片| av在线老鸭窝| 国产成人系列免费观看| 男女午夜视频在线观看| 91字幕亚洲| 国产精品久久久av美女十八| 国产免费av片在线观看野外av| 久久亚洲精品不卡| 在线精品无人区一区二区三| 99国产综合亚洲精品| 最新的欧美精品一区二区| 69精品国产乱码久久久| 十分钟在线观看高清视频www| 亚洲国产中文字幕在线视频| 国产成人啪精品午夜网站| 亚洲va日本ⅴa欧美va伊人久久 | 这个男人来自地球电影免费观看| 青青草视频在线视频观看| 欧美日韩黄片免| 亚洲成av片中文字幕在线观看| 中文欧美无线码| 久久久久久久久免费视频了| 精品人妻1区二区| 老司机影院毛片| 亚洲欧美成人综合另类久久久| 午夜免费鲁丝| 纯流量卡能插随身wifi吗| 国产亚洲av片在线观看秒播厂| 男女床上黄色一级片免费看| 男女之事视频高清在线观看| 国产成人av教育| 国产免费视频播放在线视频| 亚洲av成人不卡在线观看播放网 | 一边摸一边抽搐一进一出视频| 久久狼人影院| 亚洲精品自拍成人| 国产成人av激情在线播放| 亚洲精品中文字幕在线视频| 19禁男女啪啪无遮挡网站| 国产成人一区二区三区免费视频网站| 日韩免费高清中文字幕av| 在线观看人妻少妇| 免费观看av网站的网址| 大片电影免费在线观看免费| 建设人人有责人人尽责人人享有的| 免费在线观看完整版高清| 国产欧美日韩一区二区精品| 国产免费视频播放在线视频| 亚洲国产看品久久| 一区二区三区精品91| 精品一区二区三区av网在线观看 | 精品亚洲成a人片在线观看| 久久人妻福利社区极品人妻图片| 欧美国产精品一级二级三级| 国产精品一二三区在线看| 日本精品一区二区三区蜜桃| 操美女的视频在线观看| 精品少妇一区二区三区视频日本电影| 国产在线视频一区二区| 18禁裸乳无遮挡动漫免费视频| 一边摸一边抽搐一进一出视频| 欧美午夜高清在线| 极品人妻少妇av视频| 亚洲av成人一区二区三| 日韩电影二区| 欧美日韩视频精品一区| av电影中文网址| 精品一区二区三卡| 国产一区二区三区av在线| 91精品伊人久久大香线蕉| 天天躁狠狠躁夜夜躁狠狠躁| 十八禁人妻一区二区| 丁香六月欧美| 国产亚洲av片在线观看秒播厂| 亚洲av欧美aⅴ国产| 国产片内射在线| 丝袜在线中文字幕| 性色av乱码一区二区三区2| 国产精品免费大片| 超碰97精品在线观看| 美女高潮到喷水免费观看| 日本撒尿小便嘘嘘汇集6| 免费在线观看视频国产中文字幕亚洲 | 欧美日韩视频精品一区| 久久精品亚洲熟妇少妇任你| 热99久久久久精品小说推荐| 国产亚洲av片在线观看秒播厂| 狠狠狠狠99中文字幕| 黑人猛操日本美女一级片| 性色av一级| 国产三级黄色录像| 国产成人啪精品午夜网站| 亚洲欧美精品综合一区二区三区| 国产精品.久久久| 久久久久久亚洲精品国产蜜桃av| 一级a爱视频在线免费观看| 亚洲男人天堂网一区| 99热国产这里只有精品6| 王馨瑶露胸无遮挡在线观看| 天天影视国产精品| 汤姆久久久久久久影院中文字幕| netflix在线观看网站| 在线观看免费视频网站a站| av超薄肉色丝袜交足视频| 91老司机精品| 国产在线一区二区三区精| 天堂中文最新版在线下载| 欧美少妇被猛烈插入视频| 蜜桃国产av成人99| 男女免费视频国产| av国产精品久久久久影院| 十八禁高潮呻吟视频| 国产成人精品无人区| 淫妇啪啪啪对白视频 | 欧美人与性动交α欧美精品济南到| 亚洲av片天天在线观看| 欧美午夜高清在线| 久久这里只有精品19| 岛国在线观看网站| 国产免费现黄频在线看| 老司机福利观看| 一区二区三区激情视频| 国产成人精品无人区| 91老司机精品| tube8黄色片| 桃红色精品国产亚洲av| 亚洲自偷自拍图片 自拍| 他把我摸到了高潮在线观看 | 午夜日韩欧美国产| 国产伦理片在线播放av一区| 狂野欧美激情性xxxx| 9热在线视频观看99| 亚洲成人免费av在线播放| 久久亚洲精品不卡| 久久天堂一区二区三区四区| 大香蕉久久网| 制服诱惑二区| 国产日韩一区二区三区精品不卡| 亚洲一区中文字幕在线| av在线老鸭窝| 成在线人永久免费视频| 天堂中文最新版在线下载| 欧美日韩福利视频一区二区| 国产人伦9x9x在线观看| 天天躁日日躁夜夜躁夜夜| 中文字幕制服av| 人妻一区二区av| 1024视频免费在线观看| 日本猛色少妇xxxxx猛交久久| 中文字幕精品免费在线观看视频| 丝瓜视频免费看黄片| 日韩三级视频一区二区三区| 久久九九热精品免费| 伦理电影免费视频| 日韩一区二区三区影片| 欧美变态另类bdsm刘玥| 国产精品 国内视频| 亚洲国产中文字幕在线视频| 伊人久久大香线蕉亚洲五| 久久人妻福利社区极品人妻图片| 国产av国产精品国产| 国产成人系列免费观看| 日韩制服骚丝袜av| 国产无遮挡羞羞视频在线观看| 亚洲人成77777在线视频| 午夜成年电影在线免费观看| 久久久久久人人人人人| 亚洲av国产av综合av卡| 夜夜骑夜夜射夜夜干| 中文字幕人妻丝袜一区二区| 国产亚洲午夜精品一区二区久久| 99久久人妻综合| a在线观看视频网站| 夜夜骑夜夜射夜夜干| 91精品三级在线观看| 人妻久久中文字幕网| 老汉色∧v一级毛片| 男女之事视频高清在线观看| 99久久99久久久精品蜜桃| 国产精品国产av在线观看| 热99re8久久精品国产| 国产精品一区二区精品视频观看| 黄色视频,在线免费观看| 久久久精品94久久精品| 在线观看一区二区三区激情| 欧美日韩视频精品一区| 麻豆乱淫一区二区| 99国产精品一区二区蜜桃av | 亚洲精品国产色婷婷电影| 韩国精品一区二区三区| 又大又爽又粗| 99国产精品一区二区三区| 1024香蕉在线观看| a在线观看视频网站| 两个人免费观看高清视频| 国产xxxxx性猛交| 成人亚洲精品一区在线观看| 中文欧美无线码| 免费在线观看日本一区| 久久国产精品影院| 亚洲国产精品999| 后天国语完整版免费观看| 久久久久久久久免费视频了| 欧美+亚洲+日韩+国产| a级片在线免费高清观看视频| 大型av网站在线播放| 欧美少妇被猛烈插入视频| 国产精品久久久久久精品古装| 美女高潮喷水抽搐中文字幕| 欧美成狂野欧美在线观看| www.精华液| 我要看黄色一级片免费的| 999精品在线视频| 国产又色又爽无遮挡免| 少妇裸体淫交视频免费看高清 | 国产亚洲精品一区二区www | av福利片在线| 国产视频一区二区在线看| 国产有黄有色有爽视频| 在线观看一区二区三区激情| 国产欧美日韩综合在线一区二区| 久久精品亚洲熟妇少妇任你| 成在线人永久免费视频| 精品卡一卡二卡四卡免费| 亚洲,欧美精品.| 777米奇影视久久| 久久人人97超碰香蕉20202| 亚洲精品久久久久久婷婷小说| 我要看黄色一级片免费的| 国产一区二区激情短视频 | 女人久久www免费人成看片| av一本久久久久| 亚洲欧美色中文字幕在线| 热99re8久久精品国产| 动漫黄色视频在线观看| 日韩人妻精品一区2区三区| 美国免费a级毛片| 亚洲中文av在线| av天堂久久9| 成年动漫av网址| 免费不卡黄色视频| 好男人电影高清在线观看| 成年人黄色毛片网站| 曰老女人黄片| 精品福利永久在线观看| 在线十欧美十亚洲十日本专区| 成人免费观看视频高清| 91老司机精品| 男女床上黄色一级片免费看| 人人澡人人妻人| 欧美黑人精品巨大| 大片电影免费在线观看免费| 精品一区二区三卡| 国产亚洲欧美精品永久| 美女中出高潮动态图| 99热网站在线观看| 男女午夜视频在线观看| 欧美黄色淫秽网站| 涩涩av久久男人的天堂| 久久久精品国产亚洲av高清涩受| 三上悠亚av全集在线观看| 久久九九热精品免费| 又紧又爽又黄一区二区| 男女下面插进去视频免费观看| 色播在线永久视频| 大香蕉久久网| av国产精品久久久久影院| 高清视频免费观看一区二区| 正在播放国产对白刺激| 1024香蕉在线观看| 亚洲情色 制服丝袜| 久热这里只有精品99| 日韩中文字幕视频在线看片| av在线老鸭窝| 国产极品粉嫩免费观看在线| a级毛片黄视频| 精品卡一卡二卡四卡免费| 丰满少妇做爰视频| 亚洲国产成人一精品久久久| 国产一区二区激情短视频 | 欧美激情久久久久久爽电影 | 免费女性裸体啪啪无遮挡网站| 黑人猛操日本美女一级片| 三上悠亚av全集在线观看| 亚洲国产精品一区二区三区在线| 久久久精品94久久精品| 久久久久久久大尺度免费视频| 黑丝袜美女国产一区| 国产成人啪精品午夜网站| 中文字幕制服av| 亚洲黑人精品在线| 国产成人a∨麻豆精品| 国产在线观看jvid| 色综合欧美亚洲国产小说| 丁香六月天网| 日韩大片免费观看网站| 久久精品国产a三级三级三级| 18禁黄网站禁片午夜丰满| 亚洲国产成人一精品久久久| 99久久国产精品久久久| 亚洲少妇的诱惑av| 亚洲免费av在线视频| 精品人妻一区二区三区麻豆| 亚洲精品乱久久久久久| 搡老岳熟女国产| 亚洲第一欧美日韩一区二区三区 | 精品乱码久久久久久99久播| 午夜免费鲁丝| 十八禁网站网址无遮挡| 在线观看免费高清a一片| 精品人妻熟女毛片av久久网站| 午夜免费鲁丝| 五月开心婷婷网| 精品国内亚洲2022精品成人 | 亚洲国产成人一精品久久久| 亚洲人成电影免费在线| 自线自在国产av| 久久精品久久久久久噜噜老黄| 国产成人欧美| 麻豆国产av国片精品| 欧美日韩亚洲高清精品| 18禁黄网站禁片午夜丰满| 亚洲一区中文字幕在线| 亚洲精品一卡2卡三卡4卡5卡 | 一级黄色大片毛片| 国产91精品成人一区二区三区 | 一级片免费观看大全| 人人妻人人添人人爽欧美一区卜| 午夜激情av网站| 国产精品久久久人人做人人爽| 欧美精品一区二区大全| 青春草亚洲视频在线观看| 亚洲少妇的诱惑av| 青草久久国产| 欧美 亚洲 国产 日韩一| 成年人免费黄色播放视频| 亚洲avbb在线观看| 99久久人妻综合| 青草久久国产| a 毛片基地| 99精国产麻豆久久婷婷| 我的亚洲天堂| avwww免费| 亚洲国产av新网站| 亚洲精品在线美女| 国产精品久久久久久人妻精品电影 | 久久久精品国产亚洲av高清涩受| 日韩中文字幕欧美一区二区| 高清黄色对白视频在线免费看| 欧美精品av麻豆av| 国产av一区二区精品久久| 欧美另类一区| 十八禁网站网址无遮挡| 精品卡一卡二卡四卡免费| 国内毛片毛片毛片毛片毛片| 久久精品亚洲熟妇少妇任你| 视频在线观看一区二区三区| 久久久精品区二区三区| bbb黄色大片| av在线app专区| 国产精品亚洲av一区麻豆| 国产成人系列免费观看| 国产男女内射视频| kizo精华| 亚洲精品久久午夜乱码| 成人亚洲精品一区在线观看| 久久精品亚洲熟妇少妇任你| 久久久久国内视频| 丝袜在线中文字幕| e午夜精品久久久久久久| 日本欧美视频一区| 国产高清国产精品国产三级| 十八禁网站网址无遮挡| 丰满少妇做爰视频| 啪啪无遮挡十八禁网站| 国产日韩欧美视频二区| 免费在线观看黄色视频的| 男女午夜视频在线观看| 国产成人啪精品午夜网站| a级片在线免费高清观看视频| xxxhd国产人妻xxx| 亚洲人成77777在线视频| 超碰成人久久| 亚洲av欧美aⅴ国产| 99热全是精品| 午夜精品久久久久久毛片777| 亚洲全国av大片| 免费不卡黄色视频| 日韩欧美一区视频在线观看| 亚洲情色 制服丝袜| 国产欧美亚洲国产| 欧美人与性动交α欧美软件| 亚洲av国产av综合av卡| 亚洲欧美激情在线| 大片免费播放器 马上看| 大香蕉久久网| 欧美国产精品va在线观看不卡| 久久天躁狠狠躁夜夜2o2o| 不卡一级毛片| 精品久久久久久电影网| 亚洲精品久久成人aⅴ小说| 久久国产精品人妻蜜桃| 国产精品.久久久| 亚洲自偷自拍图片 自拍| 一级,二级,三级黄色视频| 亚洲精品中文字幕在线视频| 桃花免费在线播放| 欧美变态另类bdsm刘玥| 久久 成人 亚洲| 俄罗斯特黄特色一大片| 久久国产精品影院| 国产国语露脸激情在线看| 男女午夜视频在线观看| 男女国产视频网站| 女人久久www免费人成看片| 99国产精品一区二区三区| 久久精品成人免费网站| 好男人电影高清在线观看| 少妇的丰满在线观看| 欧美午夜高清在线| 热re99久久国产66热| 最近最新中文字幕大全免费视频| 国产日韩欧美视频二区| 亚洲国产av影院在线观看| 在线观看一区二区三区激情| 黑人欧美特级aaaaaa片| 精品国产一区二区三区久久久樱花| 欧美精品啪啪一区二区三区 | 欧美人与性动交α欧美软件| 欧美亚洲 丝袜 人妻 在线| 国产欧美日韩一区二区三区在线| 亚洲成国产人片在线观看| 国产欧美日韩一区二区三 | 亚洲男人天堂网一区| 亚洲国产欧美网| 亚洲av日韩在线播放| 激情视频va一区二区三区| 菩萨蛮人人尽说江南好唐韦庄| 在线观看免费视频网站a站| 精品国产乱子伦一区二区三区 | 日韩 亚洲 欧美在线| tocl精华| 国产日韩欧美亚洲二区| 国产精品一区二区在线不卡| 国产精品.久久久| 成年人午夜在线观看视频| 国产一区二区三区av在线| 涩涩av久久男人的天堂| 中文字幕最新亚洲高清| 日韩视频一区二区在线观看| 亚洲精品第二区| 热99re8久久精品国产| 日韩精品免费视频一区二区三区| 亚洲 欧美一区二区三区| 国内毛片毛片毛片毛片毛片| 日韩中文字幕欧美一区二区| 两人在一起打扑克的视频| 日韩欧美一区视频在线观看| 久久国产精品人妻蜜桃| 99精品欧美一区二区三区四区| 两个人看的免费小视频| 亚洲成av片中文字幕在线观看| 久久影院123| 亚洲精品一二三| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲精品国产av蜜桃| 香蕉国产在线看| 超碰97精品在线观看| 中文欧美无线码| 超碰97精品在线观看| 国产欧美日韩一区二区精品| 久久久久久久大尺度免费视频| 在线观看免费午夜福利视频| 丝袜在线中文字幕| 99热国产这里只有精品6| 成人国产一区最新在线观看| 性少妇av在线| av天堂在线播放| 少妇的丰满在线观看| 一本久久精品| 久久狼人影院| 中文精品一卡2卡3卡4更新| 午夜免费观看性视频| svipshipincom国产片| 欧美av亚洲av综合av国产av| 夜夜夜夜夜久久久久| 日本91视频免费播放| 免费不卡黄色视频| 极品少妇高潮喷水抽搐| 首页视频小说图片口味搜索| 嫩草影视91久久| av片东京热男人的天堂| 日本91视频免费播放| 日韩中文字幕视频在线看片| 美女午夜性视频免费| 大片电影免费在线观看免费| 一区二区日韩欧美中文字幕| 制服人妻中文乱码| 亚洲,欧美精品.| 国产av国产精品国产| 亚洲性夜色夜夜综合| 多毛熟女@视频| 亚洲精品中文字幕在线视频| 国产精品 国内视频| 一区二区三区激情视频| 一区在线观看完整版| 91字幕亚洲| 一本色道久久久久久精品综合| 国产av一区二区精品久久| 午夜免费鲁丝| 黑丝袜美女国产一区| 热99国产精品久久久久久7| 亚洲七黄色美女视频| 日韩一区二区三区影片| 午夜老司机福利片| 天天躁狠狠躁夜夜躁狠狠躁| 欧美国产精品一级二级三级| 国产不卡av网站在线观看| 淫妇啪啪啪对白视频 | 天天操日日干夜夜撸| 国产视频一区二区在线看| 男人操女人黄网站| 亚洲av成人不卡在线观看播放网 | 日本91视频免费播放| 欧美日韩亚洲国产一区二区在线观看 | 国产精品一区二区在线观看99| 超碰成人久久| 最近最新免费中文字幕在线| 妹子高潮喷水视频| 国产欧美日韩综合在线一区二区| 日本91视频免费播放| 欧美中文综合在线视频| 考比视频在线观看| xxxhd国产人妻xxx| 99精国产麻豆久久婷婷| 黄色视频在线播放观看不卡| 中文欧美无线码| 国产在线观看jvid| 午夜福利视频精品| 大香蕉久久成人网| 国产精品香港三级国产av潘金莲| 大片免费播放器 马上看| 久久九九热精品免费| 成年动漫av网址| 丰满少妇做爰视频| 一区在线观看完整版| 少妇被粗大的猛进出69影院| 欧美人与性动交α欧美软件| 一进一出抽搐动态| 久久av网站| 欧美日韩av久久| 亚洲免费av在线视频| 国产欧美亚洲国产| 欧美成人午夜精品| 三级毛片av免费| 美女中出高潮动态图| 黄色a级毛片大全视频| 亚洲九九香蕉| 亚洲欧美激情在线|