• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于BERT的長(zhǎng)文本分類方法

    2023-04-29 15:07:11劉博蒲亦非
    關(guān)鍵詞:分類特征文本

    劉博 蒲亦非

    由于預(yù)訓(xùn)練模型輸入分詞數(shù)量限制,基于 BERT 的長(zhǎng)文本分類任務(wù)效果與長(zhǎng)文本分割后的文本段集合的處理及特征融合密切相關(guān),現(xiàn)有的長(zhǎng)文本分類研究在融合文本段特征時(shí)更關(guān)注文本段之間原始的順序關(guān)系,而本文提出了一種基于 BERT 和集合神經(jīng)網(wǎng)絡(luò)的長(zhǎng)文本分類模型.該方法以 BERT 為基礎(chǔ),可處理從同一文本樣本分割得到的任意數(shù)量文本段,經(jīng)過 BERT 后得到文本段特征,再將所有文本段特征輸入到具有置換不變性的集合神經(jīng)網(wǎng)絡(luò)層中,提取出集合級(jí)別特征來(lái)優(yōu)化長(zhǎng)文本的特征表達(dá).通過在三個(gè)數(shù)據(jù)上的實(shí)驗(yàn)分析,論文在平均分詞長(zhǎng)度較長(zhǎng)的數(shù)據(jù)集上取得了90.82%的準(zhǔn)確率,高出目前最優(yōu)方法4.37%.

    文本分類; BERT; 集合神經(jīng)網(wǎng)絡(luò); 長(zhǎng)文本

    TP391.4A2023.022003

    收稿日期: 2022-05-12

    基金項(xiàng)目: 國(guó)家自然科學(xué)基金面上項(xiàng)目(62171303); 中國(guó)兵器裝備集團(tuán)(成都)火控技術(shù)中心項(xiàng)目(非密)(HK20-03); 國(guó)家重點(diǎn)研發(fā)項(xiàng)目(2018YFC0830300)

    作者簡(jiǎn)介: 劉博 (1998-), 女, 四川瀘州人, 碩士研究生, 主要研究領(lǐng)域?yàn)樽匀徽Z(yǔ)言處理. E-mail: liu_bo@stu.scu.edu.cn

    通訊作者: 蒲亦非.E-mail: puyifei@scu.edu.cn

    BERT-based approach for long document classification

    LIU Bo, PU Yi-Fei

    (College of Computer Science, Sichuan University, Chengdu 610065, China)

    Concerning the input limitation of pre-training model, a long document needs to be spit into a set of text segments. The performance of long document classification is closely related to the further processing of the segment set and feature fusion. Existing document classification models keep more attention on the sequential of segments in the text segment set. However, the athors consider that the sequential order of segments have a mild influence on drawing the feature of a long document. The authors propose a BERT based long document classification model, which utilizes deep sets to obtain the collection-level feature from the segment set. In the model, the authors obtain a set of text segment features after BERT, and this proposed network which is immune to permutation learns the identical feature of the set to represent the long document feature. The accuracy of our model on the 20 newsgroups dataset achieved 90.82%, which outperforms the state-of-the-art method by 4.37%.

    Document classification; BERT; Deep Sets; Long Document

    1 引 言

    文本分類在自然語(yǔ)言處理中是一個(gè)經(jīng)典且重要的任務(wù),要求模型能夠從各種文本信息中學(xué)習(xí)到句子或篇章級(jí)特征信息,從而對(duì)文本語(yǔ)義、情感和意圖等進(jìn)行識(shí)別分類[1].網(wǎng)絡(luò)中存在海量的各類型文本數(shù)據(jù),包括新聞、論文、網(wǎng)頁(yè)、演講、對(duì)話等, 對(duì)文本進(jìn)行快速識(shí)別和分類整理需要大量時(shí)間消耗,因此,借助計(jì)算機(jī)技術(shù)來(lái)完成文本快速分類成為了重要的研究方向.

    近年來(lái),深度學(xué)習(xí)的文本分類模型大量涌現(xiàn),比如基于卷積神經(jīng)網(wǎng)絡(luò)的 S2Net 模型[2],循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的 TextCNN 模型[3],基于長(zhǎng)短時(shí)記憶(LSTM)的 Bi-LSTM 模型[4]和 LT-LSTM 模型[5], 基于膠囊網(wǎng)絡(luò)的文本分類模型[6-8]等.上述模型在實(shí)現(xiàn)文本分類任務(wù)時(shí),對(duì)文本長(zhǎng)度都比較敏感,往往在處理較短文本時(shí)才能取得比較好的效果.RNN和LSTM 等模型著重考慮了句子的詞序信息,但網(wǎng)絡(luò)結(jié)構(gòu)決定了它們對(duì)內(nèi)存資源消耗極高.不僅如此,RNN 模型還存在梯度消失的問題.2018年谷歌提出了基于雙向Transformer[9]的BERT(Bidirectional Encoder Representations from Transformers)[10] 預(yù)訓(xùn)練模型,由于其優(yōu)秀的基于詞向量的句級(jí)特征提取能力,在大量非生成式自然語(yǔ)言處理任務(wù)上都有突破性的貢獻(xiàn).BERT 模型很好地克服了 RNN 和LSTM 模型無(wú)法并行計(jì)算的缺點(diǎn),并且由于其內(nèi)部Transformer自注意力模塊的特性,在長(zhǎng)距離依賴問題上表現(xiàn)出更好的“記憶”能力.但是 BERT 模型相對(duì)復(fù)雜,本身參數(shù)規(guī)模較大,模型對(duì)輸入句子中包含的分詞個(gè)數(shù)進(jìn)行了限制,想要訓(xùn)練超過輸入限制詞數(shù)的長(zhǎng)文本時(shí)只能截取其中一部分內(nèi)容作為輸入.因此相比短句子分類問題,BERT 模型在長(zhǎng)文本的分類問題上表現(xiàn)較差.

    同時(shí),除文本分類問題以外,自然語(yǔ)言處理的很多方向都有處理長(zhǎng)文本的需求和困難[11].大量預(yù)處理模型和基于預(yù)處理模型改進(jìn)的長(zhǎng)文本分類模型也開始嘗試克服長(zhǎng)文本處理的難題[12-15].受到BERT 預(yù)處理模型的啟發(fā),卡內(nèi)基梅隆大學(xué)聯(lián)合谷歌發(fā)布了 XLNET預(yù)處理模型[16],XLNET模型吸取BERT自編碼語(yǔ)言模型雙向信息提取的優(yōu)點(diǎn), 并改進(jìn)了需要設(shè)置 mask 從損壞的輸入中重建數(shù)據(jù)的缺點(diǎn),同時(shí)將 Transfoermer-XL 的分割循環(huán)機(jī)制(Segment Recurrence Mechanism)和相對(duì)編碼范式(Relative Encoding)整合到模型中,從而解決超長(zhǎng)序列的依賴問題,在處理長(zhǎng)文本場(chǎng)景下有天然的優(yōu)勢(shì).雖然 XLNET 模型在處理長(zhǎng)文本甚至超長(zhǎng)文本問題上,都有比較好的能力,但模型復(fù)雜度也遠(yuǎn)超于 BERT 模型,模型訓(xùn)練的硬件設(shè)備資源要求非常高,訓(xùn)練難度較高.因此本文選擇基于 BERT-base 預(yù)訓(xùn)練模型來(lái)完成長(zhǎng)文本分類任務(wù).

    目前主要的基于BERT 的文本分類算法在處理數(shù)據(jù)集中長(zhǎng)文本樣本時(shí), 都將 BERT 模型無(wú)法處理的長(zhǎng)文本分割成多個(gè)文本段后再分別輸入BERT,將經(jīng)過 BERT 提取到的所有特征以一定方式融合后投入下游的分類任務(wù)網(wǎng)絡(luò)中.這些長(zhǎng)文本處理模型往往在下游網(wǎng)絡(luò)中使用 RNN、LSTM 和 Transformer 等結(jié)構(gòu),分析提取文本段順序中隱含的特征.

    由于文字的特殊性,不同文本之間句子結(jié)構(gòu)和段落間關(guān)聯(lián)關(guān)系都不盡相同,例如有的文本中總結(jié)段落在文本開頭,有的文本總結(jié)段落在文本結(jié)尾.因此同一類別中,文本樣本中段落之間的順序關(guān)系對(duì)應(yīng)的深層邏輯關(guān)系并不相同.因此本文認(rèn)為可以讓模型學(xué)習(xí)文本段之間的深層邏輯特征.下游網(wǎng)絡(luò)輸入應(yīng)該忽視文本段順序關(guān)系并能接收不同數(shù)量的文本段特征輸入,使模型學(xué)習(xí)文本段之間的真實(shí)邏輯特征.并且大部分長(zhǎng)文本的主要信息都凝聚在局部的句子或段落,由文獻(xiàn)[1,10]的實(shí)驗(yàn)結(jié)果可見,使用不超過 BERT 輸入限制的局部文本段學(xué)習(xí)到的特征信息在文本分類任務(wù)中已經(jīng)可以得到較好的結(jié)果.

    受到集合神經(jīng)網(wǎng)絡(luò)模型[17]的啟發(fā),為學(xué)習(xí)文本段之間的真實(shí)邏輯特征、提取篇章級(jí)特征,我們認(rèn)為可以將長(zhǎng)文本的文本段特征集合,用具有置換不變性輸入的集合神經(jīng)網(wǎng)絡(luò)來(lái)進(jìn)行處理.

    綜上所述,使用預(yù)訓(xùn)練模型完成長(zhǎng)文本分類任務(wù)時(shí),對(duì)分割后文本段的特征信息融合處理尤為重要,以往的算法為了達(dá)到較高的準(zhǔn)確度犧牲了模型的復(fù)雜度,太過簡(jiǎn)單的下游網(wǎng)絡(luò)又難以學(xué)習(xí)到較好的分類特征.過去基于 LSTM 和 RNN 等模型的下游處理網(wǎng)絡(luò)更關(guān)注與文本段之間的真實(shí)順序關(guān)系特征,但由于行文風(fēng)格等差異,長(zhǎng)文本之間順序關(guān)系特征可能不盡相同.同時(shí)我們注意到人腦是可以分析亂序文本段落之間的邏輯關(guān)系的,并且人腦在對(duì)文章進(jìn)行分類時(shí),段落之間的時(shí)序信息并不會(huì)帶來(lái)特別大的影響.因此我們猜測(cè),長(zhǎng)文本分類任務(wù)中,不需要著重對(duì)文本段時(shí)序信息進(jìn)行提取.本文提出了一種基于 BERT的新穎且簡(jiǎn)單的長(zhǎng)文本分類算法,利用集合神經(jīng)網(wǎng)絡(luò)層來(lái)融合文本段集合的多尺度特征實(shí)現(xiàn)分類任務(wù).本文的主要貢獻(xiàn)如下:(1) 提出了一種簡(jiǎn)單高效的基于集合神經(jīng)網(wǎng)絡(luò)聚合多尺度特征信息進(jìn)行長(zhǎng)文本分類的方法;(2) 網(wǎng)絡(luò)可以處理同一文本樣本分割得到的任意多數(shù)量的文本段;(3) 在多個(gè)數(shù)據(jù)集中效果達(dá)到了 SOTA(State-Of-The-Art)水平,本文模型在參數(shù)量上有優(yōu)勢(shì).

    2 相關(guān)工作

    長(zhǎng)文本分類算法主要分為基于傳統(tǒng)機(jī)器學(xué)習(xí)的文本分類和基于深度學(xué)習(xí)的文本分類.基于深度學(xué)習(xí)的長(zhǎng)文本分類算法是近年來(lái)的研究熱點(diǎn),本節(jié)將分析領(lǐng)域內(nèi)主要的幾種深度學(xué)習(xí)模型.

    2.1 基于LSTM 的長(zhǎng)文本分類模型

    LSTM 模型能夠有效對(duì)序列信息進(jìn)行建模,并很好地解決長(zhǎng)文本的遠(yuǎn)距離依賴問題.大量基于LSTM 模型的變體在長(zhǎng)文本分類任務(wù)中被提出.為了對(duì)樹結(jié)構(gòu)對(duì)語(yǔ)義進(jìn)行建模,樹形結(jié)構(gòu)的 LSTM 模型被提出,不同于標(biāo)準(zhǔn) LSTM 模型中節(jié)點(diǎn)只能從前一個(gè)節(jié)點(diǎn)獲取依賴信息,樹形 LSTM 可以選擇性地從子節(jié)點(diǎn)中獲取信息.Tai 等[18] 提出了兩種 Tree-LSTM 模型,其中依存句法分析樹適用于子節(jié)點(diǎn)個(gè)數(shù)不定或子節(jié)點(diǎn)亂序的樹結(jié)構(gòu),成分句法分析書僅適用于在子單元之間有序的情況下,且單元的子單元個(gè)數(shù)最多為N.Chen等[19]提出了能夠處理序列級(jí)別句子的 LSTM 模型,引入符號(hào)間關(guān)系的注意力機(jī)制,解決輸入的結(jié)構(gòu)化問題.除此以外,為了對(duì)非連續(xù)性短語(yǔ)結(jié)構(gòu)進(jìn)行建模,Peng等[20]首次將圖卷積神經(jīng)網(wǎng)絡(luò)引入長(zhǎng)文本分類任務(wù)中.

    2.2 基于BERT的長(zhǎng)文本分類模型

    BERT是由Transformer 塊組成的雙向自編碼預(yù)訓(xùn)練語(yǔ)言模型,相較于過去的 RNN、LSTM 語(yǔ)言處理模型,BERT不僅能夠同時(shí)利用上下文信息進(jìn)行并發(fā)訓(xùn)練,還能解決遠(yuǎn)距離依賴問題.BERT 預(yù)訓(xùn)練模型提取文本特征示意圖如圖 1,從目前相關(guān)研究中[1,12,21]我們可以發(fā)現(xiàn),在進(jìn)行下游任務(wù)之前,使用預(yù)訓(xùn)練好的 BERT 模型提取到的句子特征進(jìn)行簡(jiǎn)單的分類任務(wù)時(shí)就非常有效,即使只用一層全連接層實(shí)現(xiàn)分類,也在大部分?jǐn)?shù)據(jù)集上取得了較好的結(jié)果.

    但由于BERT 模型對(duì)輸入分詞數(shù)量的限制,在處理長(zhǎng)文本分類問題時(shí),必須對(duì)文本提前進(jìn)行分割,再對(duì)分割后的文本進(jìn)行處理.如何分割文本, 以及分割后經(jīng)過BERT得到的所有文本段特征如何融合都是需要認(rèn)真考慮的問題.目前基于BERT的長(zhǎng)文本分類算法對(duì)文本的處理方式主要可以被分為以下兩類.一類是直接將文本循環(huán)截?cái)喑晌谋径?,所有文本段通過 BERT 提取到其文本特征,再利用循環(huán)神經(jīng)網(wǎng)絡(luò)或長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)等結(jié)構(gòu)作為下游網(wǎng)絡(luò),實(shí)現(xiàn)對(duì)文本特征按序結(jié)合生成新的總特征.另一類是從文中切割出單個(gè)且等于 BERT 輸入限制的文本段代表整篇文章,只對(duì)這一個(gè)文本段進(jìn)行特征提取、分析.

    2018年,相關(guān)研究者提出的 BERT 模型在文本分類等許多自然語(yǔ)言處理任務(wù)上展現(xiàn)出巨大潛力.在此之后基于 BERT 的模型也被大量提出,其中 Adhikari 等[10]提出的 DocBERT 模型通過微調(diào) BERT 以及知識(shí)蒸餾實(shí)現(xiàn)長(zhǎng)文本分類任務(wù).其他一些基于微調(diào) BERT 模型的長(zhǎng)文本分類算法,通過將文本序列輸入預(yù)訓(xùn)練好的 BERT 模型,輸出序列級(jí)別的文本特征,再在下游任務(wù)中進(jìn)行分類.由于 BERT 模型限制了輸入文本長(zhǎng)度,在長(zhǎng)文本分類處理上有限制,Pappagari 等[22]提出了將長(zhǎng)文本又重復(fù)地分割,經(jīng)過 BERT 模型后,下游任務(wù)中采用Transformer 來(lái)實(shí)現(xiàn)分類,Khandve等[23]采用LSTM 在 BERT 下游對(duì)文本段信息進(jìn)行融合,這兩種層級(jí)訓(xùn)練方法高效地將 BERT 擴(kuò)展到了長(zhǎng)文本分類任務(wù)上,并取得了比較好的效果.但下游參數(shù)量較多,難以對(duì)模型進(jìn)行加速,同時(shí)將文本段原始順序特征作為主要特征進(jìn)行提取.

    2.3 基于集合神經(jīng)網(wǎng)絡(luò)的分類方法

    Zaheer 等[17]提出了集合神經(jīng)網(wǎng)絡(luò)的編碼器-解碼器結(jié)構(gòu),編碼器部分先單獨(dú)作用于集合中所有元素,解碼器聚合編碼器輸出的所有元素特征,得到集合級(jí)別的特征,常使用池化結(jié)構(gòu)來(lái)聚合集合特征,在集合統(tǒng)計(jì)量估計(jì)和集合異常檢測(cè)實(shí)驗(yàn)中取得了比較好的結(jié)果.Zaheer 等也給出了解碼器部分處理樣本為元素集合的函數(shù)規(guī)則,對(duì)集合級(jí)別特征的提取函數(shù)建模,需要遵循排列不變性,使集合級(jí)別特征與輸入樣本集合的排列順序無(wú)關(guān),只與輸入樣本集合數(shù)量和特征值有關(guān).為了同時(shí)學(xué)習(xí)到元素之間的交互信息,Lee 等[24]提出了 Set Transformer 模型,在編碼器部分設(shè)計(jì)了集合注意力模塊(Set attention Block),在集合元素之間執(zhí)行自注意力,輸出元素個(gè)數(shù)相同的集合.集合神經(jīng)網(wǎng)絡(luò)在集合統(tǒng)計(jì)量估計(jì)、點(diǎn)云分類、小樣本圖像分類和集合異常檢測(cè)等領(lǐng)域都取得了比較好的結(jié)果.因此本文也使用集合神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)文本樣本的所有文本段集合進(jìn)行處理,利用排列不變性函數(shù)提取出集合級(jí)別特征解決長(zhǎng)文本分類任務(wù).

    3 方 法

    3.1 基于 BERT 的長(zhǎng)文本分類算法

    對(duì)文本段的截取以及對(duì)各文本段特征的處理,是長(zhǎng)文本分類處理任務(wù)中的重點(diǎn).本文提出的算法中,BERT下游采用置換不變性的集合神經(jīng)網(wǎng)絡(luò)提取文本段集合級(jí)別特征,利用集合級(jí)別特征完成長(zhǎng)文本分類,并引入ResNet 殘差網(wǎng)絡(luò)[25]解決退化問題.目前的算法大多都是對(duì)長(zhǎng)文本的有序文本段特征進(jìn)行分析處理,但是即使是同一類別的文本, 由于行文思路和寫作手法的不同,文本的邏輯結(jié)構(gòu)和敘事順序并不具備一致性,文章有序文本段之間的依賴關(guān)系也并不能在分類中其決定性作用.于是本文提出了一種基于 BERT 的長(zhǎng)文本分類模型, 如圖2所示,我們將長(zhǎng)文本按照BERT可處理的最大長(zhǎng)度進(jìn)行不重疊的分割,經(jīng)過BERT處理后得到文本段特征集合,再對(duì)該文本段特征集合進(jìn)行無(wú)序的多尺度集合級(jí)別特征提取,最后完成文本分類.

    我們將數(shù)據(jù)集中單個(gè)長(zhǎng)文本X分割為N個(gè)文本段,表示為xi,i = 1,2,...,N,將經(jīng)過 BERT模型后得到的文本段特征表示為yi,i = 1,2,...,N,于是構(gòu)建出函數(shù)模型如下.

    yi =B(xi)(1)

    F(X)=S(R(y1),R(y2),...,R(yN))(2)

    其中,B表示 BERT 網(wǎng)絡(luò),輸入長(zhǎng)文本樣本分割得到的文本段集合,得到對(duì)應(yīng)的文本段特征集合;R()為殘差結(jié)構(gòu)的全連接網(wǎng)絡(luò),用于獲取不同尺度特征并避免網(wǎng)絡(luò)退化;S()依據(jù)置換不變性原理,利用無(wú)序文本段特征集合得到集合級(jí)別特征.

    3.2 殘差網(wǎng)絡(luò)提取多尺度特征

    為處理任意多的文本段特征,我們采用所有文本段特征提取網(wǎng)絡(luò)之間參數(shù)共享的方案.為避免下游分類網(wǎng)絡(luò)退化,我們?cè)O(shè)計(jì)殘差網(wǎng)絡(luò)結(jié)構(gòu)來(lái)提取多尺度文本段特征.文本段特征提取網(wǎng)絡(luò)層函數(shù)R為

    y=R(y)+W*y(3)

    其中,W為轉(zhuǎn)換特征維度的參數(shù)矩陣.

    3.3 集合神經(jīng)網(wǎng)絡(luò)提取元素集合級(jí)別特征

    為設(shè)計(jì)提取集合級(jí)別特征的網(wǎng)絡(luò)結(jié)構(gòu),我們遵循置換不變性原則,使用最大池化層統(tǒng)計(jì)函數(shù),從數(shù)量不定的無(wú)序文本段特征集合中提取集合級(jí)別特征 ,集合特征提取函數(shù)可表示為

    z=S(Y)=γmaxpool(yi|i=1,2,...,N)(4)

    其中γ是最大歸一化的系數(shù);maxpool最大池化函數(shù)的提出是為了緩解卷積層對(duì)位置的過度敏感性,本質(zhì)是減少特征的同時(shí)并保持特征不變性.本文使集合級(jí)別特征,maxpool函數(shù)遵循置換不變性的原則,對(duì)文本段特征順序不敏感,提取的集合特征具有唯一性,并且可處理任意多數(shù)量多文本段特征.

    4 實(shí)驗(yàn)與結(jié)果

    4.1 數(shù)據(jù)集

    本論文使用三個(gè)文本數(shù)據(jù)集來(lái)評(píng)估我們的模型,分別是20 NG(20 newsgroups)數(shù)據(jù)集[26],IMDB數(shù)據(jù)集[27]以及R8數(shù)據(jù)集.

    其中20 NG 數(shù)據(jù)集[26] 總共包含約 19 000 篇新聞,由20個(gè)不同類別的新聞文本組成,包括了一些相關(guān)主題,如“comp.sys.mac.hardware”和“comp.sys.ibm.pc. hardware”, 也包括一些完全無(wú)關(guān)的類別,如“sci.electronics”和“talk.politics.misc”等.其中文本的平均長(zhǎng)度為 266 個(gè)詞,最長(zhǎng)長(zhǎng)度為10 334個(gè)詞.本文按照6∶4的比例將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集.

    IMDB數(shù)據(jù)集[27]包含50 000篇電影評(píng)論,分為正向和負(fù)向兩種情感傾向,平均長(zhǎng)度為231個(gè)詞,最長(zhǎng)長(zhǎng)度.我們按照 1∶1 的比例將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集.

    R8 數(shù)據(jù)集包含了7 674 篇路透社的文章,分為8種不同的類別,平均長(zhǎng)度為 64 個(gè)詞,我們按照7∶3的比例將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集.

    4.2 分組實(shí)驗(yàn)

    本文提出的長(zhǎng)文本分類模型是在BERT 模型的基礎(chǔ)上,使用 BERT 模型輸出的文本段特征,在下游網(wǎng)絡(luò)中提取文本段集合級(jí)別特征并完成分類任務(wù).由于數(shù)據(jù)集中存在大量樣本的文本長(zhǎng)度比BERT-base 能夠處理的輸入單詞數(shù)量更長(zhǎng),于是進(jìn)行無(wú)覆蓋的分割,得到長(zhǎng)文本的文本段集合,再對(duì)經(jīng)過 BERT 輸出的文本段特征集合進(jìn)行融合,完成分類任務(wù).

    本文所有實(shí)驗(yàn)都使用單張NVIDIA GeForce RTX-3090,預(yù)訓(xùn)練模型使用轉(zhuǎn)換到 Pytorch 框架下的 BERT-base 模型,該模型輸入限制為 512 個(gè)分詞,包含 12 層 Transformer 編碼器結(jié)構(gòu)塊,輸出文本段特征維度為 768.同時(shí),在訓(xùn)練過程中同時(shí)對(duì) BERT 預(yù)訓(xùn)練模型進(jìn)行微調(diào),并使用了交叉熵?fù)p失函數(shù),具體參數(shù)取值見表1.

    4.3 實(shí)驗(yàn)結(jié)果與分析

    本文方法與其他方法模型參數(shù)量對(duì)比如表2所示.本文提出算法是基于BERT-base模型,相較于其他一些基于BERT-base的算法,本文算法只增加了0.2 M的參數(shù)量.

    本部分的其他算法模型準(zhǔn)確率都來(lái)自于提出型的原論文中在同一數(shù)據(jù)集上的最好結(jié)果.我們將本文模型與其他表現(xiàn)SOTA水平的模型進(jìn)行比較,BERT作為分類任務(wù)的基線,LongFormer是專為長(zhǎng)文本處理提出的模型,SGC(Simple Graph Convolution)是簡(jiǎn)單圖卷積神經(jīng)網(wǎng)絡(luò)模型.如表3所示,通過對(duì)比本模型與其他幾種不同模型在數(shù)據(jù)集上的準(zhǔn)確率,我們可以看出,本文提出的算法模型在三個(gè)數(shù)據(jù)集上都表現(xiàn)出了SOTA水平,其中在20NG數(shù)據(jù)集上,遠(yuǎn)遠(yuǎn)超過了其他幾種模型的分類準(zhǔn)確率,將準(zhǔn)確率提升了.除此以外,在IMDB數(shù)據(jù)集上,效果也略好于其他四個(gè)模型,在R8數(shù)據(jù)集上,與其他模型效果相當(dāng).這些模型都著重提取了輸入順序帶來(lái)的時(shí)間順序特征,即原始長(zhǎng)文本的文本段順序特征.而本文采用具有置換不變性的集合神經(jīng)網(wǎng)絡(luò)作為BERT下游網(wǎng)絡(luò),來(lái)對(duì)長(zhǎng)文本集合級(jí)別特征進(jìn)行提取,并且取得的效果優(yōu)于目前主要的幾種長(zhǎng)文本分類算法.因此在訓(xùn)練時(shí),不需要著重去提取文本段之間的順序特征,也可以在長(zhǎng)文本分類任務(wù)中取得比較好的效果.

    同時(shí),為了驗(yàn)證模型的有效性,我們?cè)?0NG數(shù)據(jù)集上對(duì)模型的收斂性進(jìn)行測(cè)驗(yàn).如圖3 損失曲線圖,我們可以看出,在總共20 輪次的迭代輪次-損失的曲線圖中,模型訓(xùn)練迭代輪次為 10 時(shí), 模型損失已經(jīng)降低到較低水平,模型基本收斂.但是在第13 輪時(shí)突然產(chǎn)生損失小幅度增加的情況,同時(shí)在19 輪也有一定的損失小幅度增加,我們認(rèn)為這是因?yàn)閿?shù)據(jù)集比較小從而產(chǎn)生了一定的過擬合,但是整體的損失都維持在比較合理的變化范圍內(nèi).

    4.4 消融實(shí)驗(yàn)

    為了更好地分析本文提出的模型中集合特征提取模塊的效果,我們?cè)O(shè)計(jì)了一組消融實(shí)驗(yàn),實(shí)驗(yàn)采用 20NG 數(shù)據(jù)集,如表4所示.

    表4中,前兩列對(duì)比了不同文本樣本的表示方法對(duì)準(zhǔn)確率的影響,可以看出如果只從文本中提取單個(gè)512個(gè)分詞的文本段來(lái)代表這個(gè)樣本,效果比使用樣本的文本段集合要差很多.第三、四列比較了提取集合級(jí)別特征時(shí),采用兩種不同的置換不變的池化函數(shù)產(chǎn)生的不同效果.由表4可見,在其他條件同等時(shí),最大池化與平均池化效果相當(dāng).第五、六列比較了提取集合級(jí)別特征的區(qū)別,在不同網(wǎng)絡(luò)層提取多尺度的集合級(jí)別特征,比僅僅使用最后一層單尺度集合級(jí)別特征來(lái)進(jìn)行分類任務(wù)效果更好.

    由表4可見,沒有下游網(wǎng)絡(luò)處理的簡(jiǎn)單BERT-base 模型在實(shí)現(xiàn)分類任務(wù)時(shí),也能有一定的效果, 在 BERT模型下提取單尺度的集合級(jí)別特征用于分類,模型的準(zhǔn)確度有一定提高,說(shuō)明在長(zhǎng)文本分類任務(wù)中,截?cái)嗟奈谋径沃g的位置關(guān)系特征對(duì)集合級(jí)別特征提取并沒有那么重要,使用簡(jiǎn)單的置換不變池化函數(shù)就可以得到比較有效的集合級(jí)別特征[30-32].不僅如此,在加入了多尺度集合級(jí)別特征提取模塊后,模型的分類準(zhǔn)確度有了較大的提升,可以說(shuō)明多尺度文本段集合級(jí)別特征信息有利于長(zhǎng)文本分類.

    5 結(jié) 論

    本文提出了一種基于BERT 的長(zhǎng)文本分類方法,通過將長(zhǎng)文本分割后的所有文本段輸入 BERT 得到文本段特征集合,再使用置換不變的函數(shù)提取多尺度集合級(jí)別特征用于分類任務(wù),減少了模型參數(shù)量.本方法可以對(duì)文本樣本分割得到的任意數(shù)量文本段進(jìn)行特征融合.從實(shí)驗(yàn)結(jié)果可見,本文模型在長(zhǎng)文本數(shù)據(jù)集中取得了非常好的效果,表明引入集合神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)提取到的集合級(jí)別特征,極大地改善了長(zhǎng)文本分類任務(wù).下一階段,我們考慮拓展并檢驗(yàn)本模型的分類能力,將本文模型應(yīng)用到多標(biāo)簽分類問題上.

    參考文獻(xiàn):

    [1] Minaee S, Kalchbrenner N, Cambria E, et al. Deep learning-based text classification: a comprehensive review [J]. ACM Comput Surv, 2021, 54: 1.

    [2] He H, Gimpel K, Lin J. Multi-perspective sentence similarity modeling with convolutional neural networks [C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon: ACL, 2015.

    [3] Chen Y. Convolutional neural network for sentence classification [D]. Waterloo: University of Waterloo, 2015.

    [4] Liu P, Qiu X, Chen X, et al. Multi-timescale long short- term memory neural network for modelling sentences and documents[C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisbon: ACL, 2015.

    [5] ZhouP, Qi Z, Zheng S, et al. Text classification improved by integrating bidirectional lstm with two-dimensional maxpooling [C]//Proceedings of the 26th International Conference on Computational Linguistics.[S.l.]: Technical Papers, 2016.

    [6] 朱海景, 余諒, 盛鐘松, 等. 基于靜態(tài)路由分組膠囊網(wǎng)絡(luò)的文本分類模型[J]. 四川大學(xué)學(xué)報(bào): 自然科學(xué)版, 2021, 58: 062001.

    [7] 高云龍, 吳川, 朱明. 基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的短文本分類模型[J]. 吉林大學(xué)學(xué)報(bào): 理學(xué)版, 2020, 58: 923.

    [8] 王進(jìn), 徐巍, 丁一, 等. 基于圖嵌入和區(qū)域注意力的多標(biāo)簽文本分類[J]. 江蘇大學(xué)學(xué)報(bào):自然科學(xué)版, 2022, 43: 310.

    [9] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need [J]. Adv Neural Inf Process Syst, 2017, 30.

    [10] Devlin J, Chang M, Lee K, et al. BERT: pretraining of deep bidirectional transformers for language understanding [EB/OL]. [2022-02-23].http://arxiv.org/abs/1810.04805.

    [11] Kowsari K, Jafari K, Heidarysafa M, et al. Text classification algorithms: a survey [J]. Information, 2019, 10: 150.

    [12] Adhikari A, Ram A,Tang R, et al. Docbert: bert for document classification [EB/OL]. [2022-02-23].http://arxiv.org/abs/1904.08398.

    [13] Liu Y, Ott M, Goyal N, et al. Roberta:? a robustly optimized bert pretraining approach [EB/OL]. [2022-02-23].http://arxiv.org/abs/1907.11692.

    [14] Beltagy I, Peters M E, Cohan A. Long-former: the long-document transformer [EB/OL].[2022-02-23].http://arxiv.org/abs/2004.05150.

    [15] Ding S, Shang J, Wang S, et al. Ernie-doc: a retrospec-tive long-document modeling transformer[EB/OL].[2022-02-23]. http://arxiv.org/abs/2012.15.

    [16] Yang Z, Dai Z, Yang Y, et al. XLNet: generalized autoregressive pretraining for language understanding [C]//Proceedings of the 33rd International Conference on Neural Information Processing Systems. Vancouver: Neurlps, 2019.

    [17] Zaheer M, Kottur S, Ravanbakhsh S, et al. Deep sets [J]. Adv Neural Inf Process Syst, 2017, 30: 3391.

    [18] Tai K S, Socher R, Manning C D. Improved semantic representations from tree-structured long short-term memory networks[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. [S.l: S.n.], 2015.

    [19] Cheng J, Dong L, Lapata M. Long short-term memory-networks for machine reading[C]// Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. [S.l]: EMNLP, 2016.

    [20] Peng H, Li J, He Y, et al. Large-scale hierarchical text classification with recursively regularized deep graph-cnn[C]// Proceedings of the 2018 World Wide Web Conference. [S.l: S.n.], 2018.

    [21] Adhikari A, Ram A,Tang R, et al. Exploring the limits of simple learners in knowledge distillation for document clas- sification with docbert [C]//Proceedings of the 5th Workshop on Representation Learning for NLP. Seattle: ACL, 2020.

    [22] Pappagari R, Zelasko P, Villalba J, et al. Hi-erarchical transformers for long document classification[C]//Proceedings of the 2019 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU). [S.l.]: IEEE, 2019.

    [23] Khandve S,Wagh V, Wani A, et al. Hierarchical neural network approaches for long document classification [C]//Proceedings of the 2022 14th International Conference on Machine Learning and Computing (ICMLC). Guangzhou: ICML, 2022.

    [24] Lee J, Lee Y, Kim J, et al. Set transformer: a framework for attention-based permutation-invariant neural networks[C]//Proceedings of the International Conference on Machine Learning. Edinburgh: Opnnipress, 2019.

    [25] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. San Juan: IEEE, 2016.

    [26] Pedregosa F, Varoquaux G, Gramfort A, et al.Scikit-learn: Machine learning in python[J]. J Mach Learn Resh, 2011, 12: 2825.

    [27] Maas A, Daly R E, Pham P T, et al. Learning word vectors for sentiment analysis[C]//Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies. [S.l: S.n.], 2011.

    [28] Sanh V, Debut L, Chaumond J, et al. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter [EB/OL]. [2022-02-23]. http://arxiv.org/abs/1910.01108.

    [29] Wu F, Souza A, Zhang T, et al. Simplifying graph con-volutional networks [C]//Proceedings of the International Conference on Machine Learning. Long Beach: PMLR, 2019.

    [30] Adhikari A, Ram A,Tang R, et al. Rethinking com-plex neural network architectures for document classification [C]//Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers).? Minneapolis: ACL, 2019.

    [31] Wagh V, Khandve S, Joshi I, et al. Comparative study of long document classification[C]//TENCON 2021-2021 IEEE Region 10 Conference (TENCON). Auckland: IEEE, 2021.

    [32] Liu L, Liu K, Cong Z, et al. Long length document classification by local convolutional feature aggregation [J]. Algorithms, 2018, 11: 109.

    猜你喜歡
    分類特征文本
    分類算一算
    如何表達(dá)“特征”
    在808DA上文本顯示的改善
    不忠誠(chéng)的四個(gè)特征
    分類討論求坐標(biāo)
    基于doc2vec和TF-IDF的相似文本識(shí)別
    電子制作(2018年18期)2018-11-14 01:48:06
    數(shù)據(jù)分析中的分類討論
    教你一招:數(shù)的分類
    抓住特征巧觀察
    文本之中·文本之外·文本之上——童話故事《坐井觀天》的教學(xué)隱喻
    级片在线观看| 男女那种视频在线观看| 国产真人三级小视频在线观看| 亚洲av中文字字幕乱码综合| 国产亚洲精品久久久久久毛片| 久久久国产欧美日韩av| 成在线人永久免费视频| 1024视频免费在线观看| 午夜a级毛片| 国产亚洲精品久久久久久毛片| 天堂av国产一区二区熟女人妻 | 欧美大码av| 成年女人毛片免费观看观看9| 操出白浆在线播放| 最近最新中文字幕大全电影3| 亚洲专区字幕在线| 五月伊人婷婷丁香| 一个人观看的视频www高清免费观看 | 他把我摸到了高潮在线观看| 一个人观看的视频www高清免费观看 | 成人国产综合亚洲| 精品午夜福利视频在线观看一区| 久久九九热精品免费| 免费看a级黄色片| 女同久久另类99精品国产91| 丁香六月欧美| 人人妻人人看人人澡| 国产又黄又爽又无遮挡在线| 国产激情久久老熟女| 又爽又黄无遮挡网站| 免费在线观看成人毛片| 又黄又粗又硬又大视频| 午夜福利在线在线| 国产av不卡久久| 久久久久九九精品影院| 亚洲在线自拍视频| ponron亚洲| 变态另类丝袜制服| 在线看三级毛片| 国产亚洲精品综合一区在线观看 | 国产熟女午夜一区二区三区| 免费观看精品视频网站| 国产99白浆流出| 在线永久观看黄色视频| 亚洲成av人片免费观看| 国产1区2区3区精品| 欧美三级亚洲精品| 黄色视频不卡| 青草久久国产| 精品久久久久久久久久久久久| 日韩国内少妇激情av| 婷婷精品国产亚洲av在线| 国产av一区二区精品久久| 久久天堂一区二区三区四区| 波多野结衣高清无吗| 999久久久精品免费观看国产| 一边摸一边做爽爽视频免费| 亚洲av电影不卡..在线观看| www.熟女人妻精品国产| 免费无遮挡裸体视频| 一a级毛片在线观看| av视频在线观看入口| 精品午夜福利视频在线观看一区| 午夜激情av网站| 天天躁狠狠躁夜夜躁狠狠躁| 制服丝袜大香蕉在线| 桃色一区二区三区在线观看| 婷婷亚洲欧美| 一区福利在线观看| 男女视频在线观看网站免费 | 黄片小视频在线播放| 男女视频在线观看网站免费 | 亚洲精品美女久久av网站| 男人的好看免费观看在线视频 | videosex国产| 别揉我奶头~嗯~啊~动态视频| 亚洲av成人精品一区久久| 国产乱人伦免费视频| 成人三级黄色视频| 亚洲无线在线观看| 最近视频中文字幕2019在线8| 免费在线观看完整版高清| 丁香欧美五月| 色在线成人网| 免费看a级黄色片| 色综合亚洲欧美另类图片| or卡值多少钱| 18美女黄网站色大片免费观看| 午夜福利免费观看在线| 久久精品影院6| www.999成人在线观看| 国产精品自产拍在线观看55亚洲| 免费在线观看黄色视频的| 人妻丰满熟妇av一区二区三区| 在线观看免费视频日本深夜| 哪里可以看免费的av片| 可以免费在线观看a视频的电影网站| netflix在线观看网站| 日韩精品青青久久久久久| 亚洲狠狠婷婷综合久久图片| 亚洲精品国产一区二区精华液| 日本熟妇午夜| 99久久精品热视频| 亚洲人成电影免费在线| 在线观看舔阴道视频| 亚洲成人精品中文字幕电影| 中国美女看黄片| xxx96com| 每晚都被弄得嗷嗷叫到高潮| 亚洲精品美女久久av网站| 真人一进一出gif抽搐免费| 亚洲 欧美一区二区三区| 欧美三级亚洲精品| 叶爱在线成人免费视频播放| 亚洲男人的天堂狠狠| 国产精品1区2区在线观看.| 97人妻精品一区二区三区麻豆| 亚洲美女黄片视频| 可以免费在线观看a视频的电影网站| 久久人妻av系列| 九色国产91popny在线| 特级一级黄色大片| 男女午夜视频在线观看| 国产一区二区在线av高清观看| 久久精品91无色码中文字幕| 首页视频小说图片口味搜索| 岛国在线免费视频观看| 最近最新免费中文字幕在线| 麻豆国产av国片精品| 天堂影院成人在线观看| 欧美性长视频在线观看| 欧美三级亚洲精品| 色综合亚洲欧美另类图片| 老鸭窝网址在线观看| 午夜精品久久久久久毛片777| 狂野欧美白嫩少妇大欣赏| 亚洲成av人片免费观看| 最新在线观看一区二区三区| 久久热在线av| 国产精品亚洲美女久久久| 久久精品人妻少妇| 亚洲中文字幕一区二区三区有码在线看 | 他把我摸到了高潮在线观看| 岛国在线免费视频观看| 国产亚洲av嫩草精品影院| 精品欧美一区二区三区在线| 精品久久久久久久人妻蜜臀av| 中文在线观看免费www的网站 | 久久久久久久久久黄片| 俄罗斯特黄特色一大片| 老司机午夜十八禁免费视频| 国内久久婷婷六月综合欲色啪| 国产精品一区二区三区四区免费观看 | 久久久久免费精品人妻一区二区| avwww免费| 18禁裸乳无遮挡免费网站照片| 男女那种视频在线观看| 亚洲成人精品中文字幕电影| a级毛片在线看网站| 国产精品一区二区免费欧美| 国产三级在线视频| 在线观看免费日韩欧美大片| 国产午夜精品论理片| 亚洲片人在线观看| 精品熟女少妇八av免费久了| 亚洲av五月六月丁香网| 琪琪午夜伦伦电影理论片6080| 夜夜夜夜夜久久久久| 亚洲av五月六月丁香网| 舔av片在线| 国产激情久久老熟女| 日韩中文字幕欧美一区二区| 国内毛片毛片毛片毛片毛片| 精品国产乱子伦一区二区三区| 亚洲专区中文字幕在线| 久久亚洲真实| 日日夜夜操网爽| 亚洲成人中文字幕在线播放| 毛片女人毛片| 91在线观看av| 国产欧美日韩一区二区三| 在线观看日韩欧美| 国产熟女xx| 黄色女人牲交| 国产麻豆成人av免费视频| 欧美性长视频在线观看| 欧美日韩中文字幕国产精品一区二区三区| 亚洲av电影不卡..在线观看| 国产精品久久久久久亚洲av鲁大| 国产成人精品久久二区二区91| 高清在线国产一区| 久久人人精品亚洲av| 日韩高清综合在线| 久久久久国产精品人妻aⅴ院| 亚洲激情在线av| 国产精品美女特级片免费视频播放器 | 又黄又爽又免费观看的视频| 久久精品影院6| 婷婷丁香在线五月| 国产午夜福利久久久久久| av在线天堂中文字幕| 中文在线观看免费www的网站 | 精品午夜福利视频在线观看一区| 韩国av一区二区三区四区| 亚洲色图av天堂| 性欧美人与动物交配| 欧美久久黑人一区二区| 波多野结衣巨乳人妻| 熟女电影av网| 男女下面进入的视频免费午夜| 老汉色av国产亚洲站长工具| 久久香蕉国产精品| 1024视频免费在线观看| bbb黄色大片| 日本在线视频免费播放| 成年版毛片免费区| 无遮挡黄片免费观看| a级毛片在线看网站| 亚洲中文日韩欧美视频| 亚洲国产欧洲综合997久久,| 又爽又黄无遮挡网站| 麻豆久久精品国产亚洲av| 国产成人精品无人区| 国产1区2区3区精品| 欧美在线黄色| 欧美乱妇无乱码| 两性午夜刺激爽爽歪歪视频在线观看 | 99久久无色码亚洲精品果冻| 黄色毛片三级朝国网站| 两个人免费观看高清视频| 久9热在线精品视频| 一级片免费观看大全| 亚洲国产精品久久男人天堂| 色在线成人网| 亚洲一卡2卡3卡4卡5卡精品中文| av福利片在线观看| 日本免费a在线| 亚洲欧美日韩高清在线视频| 国产私拍福利视频在线观看| 亚洲avbb在线观看| 在线视频色国产色| 97超级碰碰碰精品色视频在线观看| 在线观看66精品国产| 国产一区二区三区在线臀色熟女| 精品第一国产精品| 天天躁夜夜躁狠狠躁躁| 99在线人妻在线中文字幕| av国产免费在线观看| 两个人的视频大全免费| 1024香蕉在线观看| 久久天堂一区二区三区四区| 琪琪午夜伦伦电影理论片6080| 一本久久中文字幕| 中文在线观看免费www的网站 | 国产av不卡久久| 亚洲avbb在线观看| av国产免费在线观看| 黄色片一级片一级黄色片| 亚洲熟女毛片儿| 亚洲性夜色夜夜综合| 91老司机精品| 国产在线观看jvid| 亚洲成a人片在线一区二区| 一区二区三区激情视频| 国产成人精品久久二区二区91| 国产激情欧美一区二区| 久久久久久久久久黄片| 午夜久久久久精精品| 在线视频色国产色| 国产成人一区二区三区免费视频网站| 亚洲成人免费电影在线观看| 老鸭窝网址在线观看| 波多野结衣巨乳人妻| 18禁国产床啪视频网站| 久久草成人影院| 国产三级中文精品| 18禁黄网站禁片午夜丰满| 亚洲国产高清在线一区二区三| 黄频高清免费视频| 男男h啪啪无遮挡| 日本精品一区二区三区蜜桃| 欧美久久黑人一区二区| 国产蜜桃级精品一区二区三区| 久久久久性生活片| 男人舔奶头视频| 成年人黄色毛片网站| 国产精品98久久久久久宅男小说| 亚洲欧美一区二区三区黑人| 日日爽夜夜爽网站| 国产一区二区在线av高清观看| 色尼玛亚洲综合影院| 日韩成人在线观看一区二区三区| 在线观看免费午夜福利视频| 久久精品国产综合久久久| 亚洲乱码一区二区免费版| 国产精品自产拍在线观看55亚洲| 在线永久观看黄色视频| 人成视频在线观看免费观看| 中文字幕久久专区| 2021天堂中文幕一二区在线观| 久久久国产精品麻豆| 亚洲欧美精品综合久久99| 女人爽到高潮嗷嗷叫在线视频| 亚洲自拍偷在线| 日本一二三区视频观看| 精品高清国产在线一区| 五月伊人婷婷丁香| 色精品久久人妻99蜜桃| 亚洲人成网站高清观看| 欧美av亚洲av综合av国产av| 久久久国产成人免费| 免费无遮挡裸体视频| 女生性感内裤真人,穿戴方法视频| 欧美中文日本在线观看视频| 国产精品国产高清国产av| 一二三四社区在线视频社区8| 免费在线观看亚洲国产| 成人特级黄色片久久久久久久| 亚洲熟妇熟女久久| www.精华液| 亚洲专区中文字幕在线| 久久亚洲真实| 女人爽到高潮嗷嗷叫在线视频| 少妇粗大呻吟视频| 国产高清有码在线观看视频 | 亚洲国产日韩欧美精品在线观看 | 好看av亚洲va欧美ⅴa在| 国产精品一及| 欧美日韩一级在线毛片| 国产伦在线观看视频一区| 日韩欧美一区二区三区在线观看| 精品熟女少妇八av免费久了| 欧美绝顶高潮抽搐喷水| 亚洲国产看品久久| 欧美色视频一区免费| 亚洲最大成人中文| 国产蜜桃级精品一区二区三区| a级毛片在线看网站| 夜夜躁狠狠躁天天躁| 村上凉子中文字幕在线| 又大又爽又粗| 日本一本二区三区精品| 欧美日韩黄片免| 九色成人免费人妻av| 欧美黄色淫秽网站| 国产乱人伦免费视频| 国产黄a三级三级三级人| 精品第一国产精品| 久久精品国产清高在天天线| 欧美久久黑人一区二区| 黄片小视频在线播放| 国产精品久久电影中文字幕| 日本 av在线| 校园春色视频在线观看| 欧美黑人精品巨大| 欧美极品一区二区三区四区| 国产精品av视频在线免费观看| 性欧美人与动物交配| 无遮挡黄片免费观看| 国内精品久久久久久久电影| 久久久国产欧美日韩av| 成人国语在线视频| 2021天堂中文幕一二区在线观| 国产麻豆成人av免费视频| 999久久久国产精品视频| 毛片女人毛片| 久久婷婷成人综合色麻豆| 国产av又大| 老司机靠b影院| 久久性视频一级片| 夜夜看夜夜爽夜夜摸| 国产成人影院久久av| 国产亚洲精品久久久久久毛片| a级毛片在线看网站| 国产精品免费视频内射| 一级片免费观看大全| 欧美激情久久久久久爽电影| 国产精品久久久久久人妻精品电影| 一本大道久久a久久精品| 99国产综合亚洲精品| 亚洲av片天天在线观看| 叶爱在线成人免费视频播放| 亚洲成av人片在线播放无| 最近视频中文字幕2019在线8| 亚洲av中文字字幕乱码综合| 极品教师在线免费播放| 岛国在线观看网站| 一边摸一边抽搐一进一小说| 一区二区三区激情视频| 香蕉国产在线看| 成人特级黄色片久久久久久久| 日本在线视频免费播放| 黄色女人牲交| 精品第一国产精品| 99热只有精品国产| 欧美最黄视频在线播放免费| 久久久久久久午夜电影| 久久久久免费精品人妻一区二区| 免费观看人在逋| 好看av亚洲va欧美ⅴa在| 在线观看美女被高潮喷水网站 | 国产精品一及| 国产成人av激情在线播放| 国产91精品成人一区二区三区| 亚洲国产中文字幕在线视频| avwww免费| 国产激情久久老熟女| 亚洲片人在线观看| 男女那种视频在线观看| 久久精品综合一区二区三区| netflix在线观看网站| 亚洲人成77777在线视频| 波多野结衣巨乳人妻| 黄色视频,在线免费观看| 免费在线观看视频国产中文字幕亚洲| 最近最新中文字幕大全免费视频| 老司机深夜福利视频在线观看| 香蕉丝袜av| 久久精品国产综合久久久| 亚洲狠狠婷婷综合久久图片| 少妇熟女aⅴ在线视频| 一级片免费观看大全| 亚洲欧美精品综合一区二区三区| 久久天躁狠狠躁夜夜2o2o| 国产视频一区二区在线看| 毛片女人毛片| 国产三级中文精品| 精品日产1卡2卡| 久久婷婷人人爽人人干人人爱| 丰满人妻熟妇乱又伦精品不卡| 色综合亚洲欧美另类图片| 精品一区二区三区av网在线观看| 亚洲精品粉嫩美女一区| 无限看片的www在线观看| 欧美日韩乱码在线| 国产黄片美女视频| 久久性视频一级片| 国产精品久久久人人做人人爽| 国产成人欧美在线观看| 欧美黑人精品巨大| 久久午夜综合久久蜜桃| 亚洲国产欧美人成| 国产精品乱码一区二三区的特点| 99久久无色码亚洲精品果冻| 亚洲中文字幕一区二区三区有码在线看 | 国产精品美女特级片免费视频播放器 | 天天躁狠狠躁夜夜躁狠狠躁| 国产v大片淫在线免费观看| 国产av一区二区精品久久| 亚洲av成人精品一区久久| 琪琪午夜伦伦电影理论片6080| 亚洲av片天天在线观看| 久久中文字幕人妻熟女| 一二三四在线观看免费中文在| 久久精品91无色码中文字幕| 身体一侧抽搐| 99久久精品国产亚洲精品| 在线视频色国产色| 制服人妻中文乱码| 日韩三级视频一区二区三区| 熟妇人妻久久中文字幕3abv| 色精品久久人妻99蜜桃| 亚洲中文字幕一区二区三区有码在线看 | 两人在一起打扑克的视频| 午夜福利欧美成人| 午夜精品一区二区三区免费看| 亚洲中文av在线| 国产免费男女视频| 久久精品成人免费网站| 国内少妇人妻偷人精品xxx网站 | 特级一级黄色大片| a在线观看视频网站| 日韩欧美 国产精品| 桃色一区二区三区在线观看| 男女做爰动态图高潮gif福利片| 亚洲天堂国产精品一区在线| 欧美性猛交黑人性爽| 757午夜福利合集在线观看| 桃红色精品国产亚洲av| 亚洲av成人不卡在线观看播放网| 国产单亲对白刺激| 在线免费观看的www视频| 国产成人精品久久二区二区免费| 日本a在线网址| 精品少妇一区二区三区视频日本电影| 亚洲色图 男人天堂 中文字幕| 日韩免费av在线播放| 国产v大片淫在线免费观看| 国产精品免费一区二区三区在线| 中文字幕久久专区| 精品免费久久久久久久清纯| 中文亚洲av片在线观看爽| 非洲黑人性xxxx精品又粗又长| 亚洲国产精品sss在线观看| 久久午夜综合久久蜜桃| 舔av片在线| 一二三四在线观看免费中文在| 欧美成狂野欧美在线观看| 日本五十路高清| 欧美中文综合在线视频| 久久久久久久久久黄片| 国产伦一二天堂av在线观看| 99riav亚洲国产免费| 91字幕亚洲| 欧美另类亚洲清纯唯美| 国产一区二区在线av高清观看| 一本综合久久免费| www.www免费av| 亚洲av成人不卡在线观看播放网| 色av中文字幕| 久久精品影院6| 亚洲va日本ⅴa欧美va伊人久久| 久久天躁狠狠躁夜夜2o2o| 亚洲专区中文字幕在线| 国产成人啪精品午夜网站| 亚洲18禁久久av| 搞女人的毛片| 一本一本综合久久| 精华霜和精华液先用哪个| 观看免费一级毛片| 香蕉丝袜av| 久久国产精品影院| 国产日本99.免费观看| 国产免费av片在线观看野外av| 啦啦啦韩国在线观看视频| 一个人免费在线观看电影 | 国产av一区二区精品久久| 看片在线看免费视频| 大型av网站在线播放| 一进一出抽搐gif免费好疼| 欧美一级毛片孕妇| www.999成人在线观看| 亚洲欧美日韩东京热| 亚洲欧美日韩高清专用| 亚洲国产精品999在线| 高清在线国产一区| 亚洲性夜色夜夜综合| 熟女电影av网| 欧美中文日本在线观看视频| 亚洲国产欧洲综合997久久,| 国内精品一区二区在线观看| 精品熟女少妇八av免费久了| 欧美黑人精品巨大| 丁香六月欧美| 人成视频在线观看免费观看| 亚洲成人久久性| 特大巨黑吊av在线直播| 亚洲精品国产精品久久久不卡| 亚洲va日本ⅴa欧美va伊人久久| 黄片大片在线免费观看| 久久人人精品亚洲av| 国产精品一区二区免费欧美| 精品免费久久久久久久清纯| 国产精品综合久久久久久久免费| 中出人妻视频一区二区| 国产黄a三级三级三级人| 亚洲色图av天堂| 中文字幕精品亚洲无线码一区| 国产主播在线观看一区二区| 亚洲av片天天在线观看| 嫁个100分男人电影在线观看| 99国产极品粉嫩在线观看| 国产又黄又爽又无遮挡在线| 制服丝袜大香蕉在线| 我的老师免费观看完整版| 特大巨黑吊av在线直播| 久久精品综合一区二区三区| 黑人巨大精品欧美一区二区mp4| 女警被强在线播放| 香蕉av资源在线| 中文资源天堂在线| 午夜福利视频1000在线观看| 美女午夜性视频免费| 亚洲在线自拍视频| 人成视频在线观看免费观看| 国内少妇人妻偷人精品xxx网站 | 亚洲欧美精品综合一区二区三区| 一进一出抽搐动态| 少妇被粗大的猛进出69影院| 夜夜躁狠狠躁天天躁| 国产精品av久久久久免费| 一本大道久久a久久精品| 日韩欧美一区二区三区在线观看| 俄罗斯特黄特色一大片| 亚洲国产欧美网| 天天添夜夜摸| 欧美乱色亚洲激情| 久久精品成人免费网站| 人人妻人人看人人澡| 国产成人影院久久av| 国产一级毛片七仙女欲春2| 久久九九热精品免费| 久久欧美精品欧美久久欧美| 色综合欧美亚洲国产小说| 国产亚洲精品第一综合不卡| av片东京热男人的天堂| 亚洲国产看品久久| 亚洲第一电影网av| 亚洲成人国产一区在线观看| 窝窝影院91人妻| 99国产精品一区二区蜜桃av| 999精品在线视频| 老司机午夜十八禁免费视频| 黄色女人牲交| 国产av麻豆久久久久久久| 日本免费a在线| 中文亚洲av片在线观看爽| 国内精品久久久久久久电影| 久久精品夜夜夜夜夜久久蜜豆 | 国产av麻豆久久久久久久| 国产精品av久久久久免费| 不卡av一区二区三区| 最近最新免费中文字幕在线| 久热爱精品视频在线9| 欧美成人一区二区免费高清观看 |