• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    DistillBIGRU: 基于知識蒸餾的文本分類模型

    2022-06-17 09:09:46黃友文魏國慶胡燕芳
    中文信息學(xué)報 2022年4期
    關(guān)鍵詞:準(zhǔn)確率分類節(jié)點(diǎn)

    黃友文,魏國慶,胡燕芳

    (江西理工大學(xué) 信息工程學(xué)院,江西 贛州 341000)

    0 引言

    文本分類是文本管理的基本工作。文本分類是自然語言處理(NLP)領(lǐng)域的一個重要分支。目前,隨著互聯(lián)網(wǎng)和媒體的快速發(fā)展,新聞網(wǎng)站已成為人們獲取新聞信息的主要平臺,每天向數(shù)百萬用戶提供信息。鑒于網(wǎng)絡(luò)平臺強(qiáng)大的實(shí)時性能,大量新聞文本呈現(xiàn)出快速增長的趨勢,這些文本往往沒有經(jīng)過處理,人工整理耗時耗力。因此,如何高效準(zhǔn)確地對這些海量文本進(jìn)行分類,以及如何快速獲取有效信息一直是學(xué)術(shù)界和產(chǎn)業(yè)界關(guān)注的焦點(diǎn)。

    通過在大量文本上進(jìn)行預(yù)訓(xùn)練的大型語言模型在各種自然語言處理任務(wù)中的效果好于小型語言模型,然而這些大型語言模型變得越來越復(fù)雜,計算成本也越來越高,嚴(yán)重阻礙了這些模型的廣泛應(yīng)用。知識蒸餾作為一種有效的模型壓縮方法,可以緩解這個問題,該方法不但可以將大型模型壓縮成較小的模型,而且不會顯著降低模型的性能。知識蒸餾的過程如下: 先訓(xùn)練一個結(jié)構(gòu)較為復(fù)雜、分類性能較好的模型作為教師模型,然后構(gòu)建一個小型模型作為學(xué)生模型,最后對教師模型進(jìn)行蒸餾,把教師模型學(xué)到的知識轉(zhuǎn)移到小模型中。Hintion等[1]首次提出采用知識蒸餾的方式對模型進(jìn)行壓縮。Sanh等[2]使用BERT[3]模型通過知識蒸餾的方式得到一個具有6層Transformer的小模型DistilBERT。Jiao等[4]采用Transformer蒸餾的方法把BERT模型學(xué)到的知識遷移到小型模型TinyBERT中。Liu等[5]提出一種采用獨(dú)特自蒸餾機(jī)制進(jìn)行微調(diào)的語言模型FastBERT。

    基于以上問題和解決方法,本文提出了基于知識蒸餾的文本分類模型DistillBIGRU。本文主要工作如下:

    (1) 本文在MPNet模型的基礎(chǔ)上,融合圖卷積網(wǎng)絡(luò)GCN提出了一種結(jié)合大規(guī)模預(yù)訓(xùn)練和直推式學(xué)習(xí)的文本分類模型MPNetGCN作為教師模型;

    (2) 選擇并構(gòu)建了一個復(fù)雜度和參數(shù)量較低的BiGRU網(wǎng)絡(luò)作為學(xué)生模型;

    (3) 在目標(biāo)數(shù)據(jù)集上微調(diào)(Fine-tune)教師模型,把教師模型輸出的文本所屬類別概率預(yù)測值作為學(xué)生模型輸入文本的標(biāo)簽,對學(xué)生模型進(jìn)行訓(xùn)練,最終把教師模型學(xué)到的知識遷移到學(xué)生模型中,得到一個分類效果好的小型DistillBIGRU模型。

    1 相關(guān)工作

    目前,文本分類的方法主要有兩種,一種是基于傳統(tǒng)機(jī)器學(xué)習(xí)的方法,另一種是基于深度學(xué)習(xí)的方法。在傳統(tǒng)機(jī)器學(xué)習(xí)領(lǐng)域,史瑞芳[6]提出了一種改進(jìn)的貝葉斯文本分類器,Miao等[7]提出了一種基于PCA和KNN的混合文本分類算法,周慶平等[8]提出了一種改進(jìn)的支持向量機(jī)文本分類方法。

    傳統(tǒng)機(jī)器學(xué)習(xí)方法常采用詞頻-逆文本頻率(TF-IDF)或詞袋模型來表示文本,因此往往會導(dǎo)致語義表示不充分和“維度災(zāi)難”。近年來,隨著深度學(xué)習(xí)方法的興起,基于該方法的模型在計算機(jī)視覺和NLP等領(lǐng)域都取得了許多重要成果。在NLP領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)中常用的神經(jīng)網(wǎng)絡(luò)。CNN能夠利用多層感知結(jié)構(gòu)來捕捉文本的顯著特征。然而,CNN的特征捕獲能力往往取決于卷積內(nèi)核的大小,同時CNN忽略了本地信息之間的依賴性特征,這些缺點(diǎn)對文本分類的準(zhǔn)確性有一定的影響。與CNN相比,RNN的輸出值取決于當(dāng)前時間單位的輸入和以前時間單位的輸出,該結(jié)構(gòu)可以捕獲文本上下文信息。Guo等[9]提出了基于CNN-RNN的混合文本分類模型。Wu等[10]提出了一種基于字符級CNN和支持向量機(jī)的文本分類模型,但RNN在訓(xùn)練過程中存在梯度爆炸和破壞的問題。在此基礎(chǔ)上,研究人員提出了改進(jìn)的RNN模型,包括長短時記憶網(wǎng)絡(luò)(LSTM)和門控循環(huán)單元(GRU),通過選擇保存信息來克服梯度爆炸和破壞的問題。雙向長短時記憶網(wǎng)絡(luò)(BiLSTM)和雙向門控循環(huán)單元(BiGRU)分別是LSTM和GRU的進(jìn)一步發(fā)展,它們可以從文本序列的前向和后向獲得上下文特征,并更好地解決文本分類的任務(wù)。王海濤等[11]提出了基于LSTM和CNN的文本分類方法。

    基于深度學(xué)習(xí)的文本分類模型分為兩種: 預(yù)訓(xùn)練語言模型和非預(yù)訓(xùn)練語言模型。在非預(yù)訓(xùn)練語言模型方面,Liu等[12]提出了一種具有注意力機(jī)制和卷積層的雙向LSTM文本。孔韋韋等[13]提出了一種融合注意力機(jī)制、CNN和LSTM的混合分類模型。張昱等[14]提出一種基于組合卷積神經(jīng)網(wǎng)絡(luò)的文本分類方法。硬件設(shè)備的快速迭代推動了預(yù)訓(xùn)練語言模型的快速發(fā)展。2018年,Google AI推出了自編碼(AutoEncoder)語言模型BERT,該模型在當(dāng)時刷新了多項(xiàng)NLP任務(wù)榜單。BERT模型采用多層雙向Transformer結(jié)構(gòu),在預(yù)訓(xùn)練階段創(chuàng)新性地提出了Mask機(jī)制和Next Sentence Predict任務(wù)。與此同時,Mask也帶來了一些缺點(diǎn),由于該模型只在預(yù)訓(xùn)練階段進(jìn)行Mask,導(dǎo)致了預(yù)訓(xùn)練和后續(xù)Fine-tune的差異。另外,Mask機(jī)制假設(shè)在一句話中被掩蓋的詞之間相互獨(dú)立,而實(shí)際上被掩蓋的詞之間可能是有聯(lián)系的。為了解決這些問題,2019年谷歌推出了自回歸(AutoRegressive)語言模型XLNet[15],該模型引入了排列語言建模PLM(Permutation Language Modeling)用于預(yù)訓(xùn)練來解決Mask機(jī)制帶來的負(fù)面影響,通過使用Transformer-XL解決了超長序列的依賴問題。但是XLNet沒有充分利用句子的位置信息,因此在訓(xùn)練前和調(diào)優(yōu)之間存在位置差異。2020年,Song等[16]提出了一種新的預(yù)訓(xùn)練語言模型MPNet,它繼承了BERT和XLNet的優(yōu)點(diǎn),避免了它們的局限性。與BERT中的掩碼語言模型MLM(Masked Language Model)相比,MPNet通過排列語言建模利用了預(yù)測標(biāo)記之間的依賴關(guān)系,并將輔助位置信息作為輸入,使模型看到完整的句子,從而減少了位置差異。以上模型大都存在模型復(fù)雜度高、參數(shù)量大、訓(xùn)練數(shù)據(jù)龐大的特點(diǎn),為了使這些模型能夠被推廣使用,需要對這些模型進(jìn)行壓縮。Ma等[17]和Li等[18]相繼提出了基于知識蒸餾的模型壓縮方法,通過該方法能夠使得分類效果不好的、復(fù)雜度較低的模型經(jīng)過知識蒸餾后能夠?qū)崿F(xiàn)較好的分類效果。

    與傳統(tǒng)的語言模型訓(xùn)練方式不同,圖卷積網(wǎng)絡(luò)GCN的概念被Thomas[19]首次提出并在文本分類任務(wù)中取得了很好的效果。該網(wǎng)絡(luò)通過構(gòu)建圖的方式來對詞與詞之間以及詞與文檔之間的關(guān)系進(jìn)行建模,然后對圖中的節(jié)點(diǎn)進(jìn)行分類。圖中的節(jié)點(diǎn)代表文本單詞和文檔,邊的數(shù)值為語義相似度權(quán)重。由于圖中節(jié)點(diǎn)的決策不僅受節(jié)點(diǎn)自身的影響,還受與其相鄰的節(jié)點(diǎn)影響,所以該網(wǎng)絡(luò)的抗干擾能力更強(qiáng)。另外無標(biāo)簽的數(shù)據(jù)也有助于圖的構(gòu)建進(jìn)而提高模型的分類效果?;贕CN,Yao等[20]提出一種用于文本分類的圖形卷積網(wǎng)絡(luò)Text GCN。Tang等[21]提出了基于圖卷積網(wǎng)絡(luò)的混合文本分類模型IGCN。Lin等[22]結(jié)合BERT模型和GCN提出一種新的文本分類模型BERTGCN。

    考慮到預(yù)訓(xùn)練語言模型以及GCN在文本分類領(lǐng)域的優(yōu)勢,本文在MPNet模型的基礎(chǔ)上融合圖卷積網(wǎng)絡(luò)GCN,提出了MPNetGCN文本分類模型。同時,為了加快推理速度,推廣其在下游任務(wù)中的應(yīng)用,本文采用知識蒸餾的方法,把MPNetGCN模型學(xué)到的知識遷移到一個較小的模型BiGRU中,得到適用于下游任務(wù)的文本分類模型DistillBIGRU。

    2 MPNetGCN模型

    2.1 MPNet模型

    一個輸入長度為4的MPNet[16]模型結(jié)構(gòu)如圖1所示。文本在輸入模型前會被打亂,重新排列組合成一個新的文本作為模型的輸入。輸入文本由4個詞組成,即可產(chǎn)生4!種組合方式,可以隨機(jī)排列組合成24種句子,輸入的句子為其中的一種。假設(shè)輸入的文本序列表示為x=(x1,x4,x3,x2),文本在輸入模型后被分為預(yù)測部分和非預(yù)測部分。假設(shè)非預(yù)測部分的長度c=2,表示為(xz<=c)=(x1,x4)(圖1中左邊虛線的左側(cè)部分),z<=c表示x中的前c個單詞。預(yù)測部分表示為(xz>c)=(x3,x2)(圖1中右邊虛線的右側(cè)部分),z>c表示x中的后c個單詞。為了使預(yù)訓(xùn)練中的輸入信息與下游任務(wù)中的輸入信息保持一致,在非預(yù)測部分添加了預(yù)測單詞(token)的掩碼符號M和位置信息P,此時序列可表示為(xz<=c,Mz>c,xz>c)=(x1,x4,M,M,x3,x2)。添加了M后的非預(yù)測部分可表示為(xz<=c,Mz>c)=(x1,x4,M,M),預(yù)測部分保持不變。圖1中兩條虛線中間的部分Mz>c=(M,M)表示預(yù)測單詞部分的掩碼符號,相應(yīng)的位置序列同時也更新為(p1,p4,p3,p2,p3,p2)。通過位置補(bǔ)償,模型在預(yù)測每個單詞時都能看到全句的位置信息,避免了PLM中位置信息的缺失。模型對于非預(yù)測部分采用雙流注意力機(jī)制(內(nèi)容流、查詢流)來提取特征,使得輸出和輸入的依賴性一致。

    圖1 MPNet結(jié)構(gòu)圖

    2.2 圖卷積網(wǎng)絡(luò)GCN

    圖2為一個單層的GCN。GCN[19]是一個由邊和節(jié)點(diǎn)構(gòu)成的異構(gòu)圖。圖中的節(jié)點(diǎn)分為詞節(jié)點(diǎn)和文檔節(jié)點(diǎn),節(jié)點(diǎn)與節(jié)點(diǎn)之間用邊連接,邊的數(shù)值代表節(jié)點(diǎn)與節(jié)點(diǎn)之間的關(guān)系權(quán)重。

    圖2 單層圖卷積網(wǎng)絡(luò)結(jié)構(gòu)

    節(jié)點(diǎn)與節(jié)點(diǎn)之間的關(guān)系權(quán)重的計算方式如式(1)所示。其中PMI(i,j)代表節(jié)點(diǎn)i和節(jié)點(diǎn)j之間的互信息,其計算如式(2)所示,式中p(i,j)代表節(jié)點(diǎn)i和節(jié)點(diǎn)j同時出現(xiàn)的概率,p(i),p(j)分別代表節(jié)點(diǎn)i和節(jié)點(diǎn)j單獨(dú)出現(xiàn)的概率。TF-IDF代表詞頻-逆文本頻率。

    (1)

    (2)

    2.3 MPNetGCN模型結(jié)構(gòu)

    本文提出的MPNetGCN模型的結(jié)構(gòu)如圖3所示,該模型由MPNet模型、GCN、全連接層、softmax分類層以及詞向量存儲庫組成。MPNetGCN模型是一個GCN和MPNet模型相結(jié)合的模型,該模型利用單詞或文檔的語料庫構(gòu)建一個GCN異構(gòu)圖,然后通過預(yù)先訓(xùn)練的MPNet模型來初始化圖中節(jié)點(diǎn)的向量表示,最后用GCN對這些節(jié)點(diǎn)進(jìn)行分類。通過聯(lián)合訓(xùn)練BERT和GCN模塊,使得模型能夠結(jié)合大規(guī)模預(yù)訓(xùn)練和圖卷積網(wǎng)絡(luò)的優(yōu)勢,提高模型自身的分類效果。該模型的訓(xùn)練方式如下: ①利用MPNet模型生成詞節(jié)點(diǎn)對應(yīng)的特征向量; ②利用這些特征向量去初始化GCN; ③迭代訓(xùn)練數(shù)據(jù),更新GCN中的權(quán)重。

    圖3 MPNetGCN模型結(jié)構(gòu)圖

    MPNetGCN在構(gòu)建和后續(xù)的訓(xùn)練中考慮到了以下兩個方面的問題: ①GCN和MPNet對訓(xùn)練數(shù)據(jù)的加載和迭代方式不同。GCN在訓(xùn)練時需要加載整個圖中的所有節(jié)點(diǎn),而MPNet受到模型大小和內(nèi)存容量的限制,每次只能加載一個批(batch)的數(shù)據(jù)。即MPNet每次只能更新一個批的特征向量,而GCN需要加載所有批的特征向量。②MPNet的權(quán)重可通過模型的損失函數(shù)進(jìn)行反向傳播來更新,但GCN存在梯度消失和過度平滑的缺點(diǎn),因此如果采用GCN的輸出結(jié)果計算損失進(jìn)行反向傳播更新權(quán)重,可能導(dǎo)致GCN無法更新權(quán)重。

    對于問題一,本文通過構(gòu)建詞向量存儲庫的方法分批次地存放詞向量(詞向量存儲庫的大小根據(jù)詞節(jié)點(diǎn)的數(shù)量設(shè)定)。每個批的詞向量放在同一個存儲單元內(nèi),每迭代一個批的數(shù)據(jù)更新對應(yīng)的存儲單元。由于詞節(jié)點(diǎn)對應(yīng)的存儲單元內(nèi)的特征向量是不斷變化的,所以會對GCN的訓(xùn)練產(chǎn)生干擾,通過采用小學(xué)習(xí)率和增加迭代數(shù)據(jù)的次數(shù)的方法來訓(xùn)練模型可以減少這種干擾。對于問題二,本文聯(lián)合MPNet模型的輸出以及GCN的輸出與標(biāo)簽做交叉損失進(jìn)行反向傳播來更新GCN的權(quán)重。即通過把MPNet模型對輸入文本的概率預(yù)測值和GCN模型對輸入文本的概率預(yù)測值相加進(jìn)行歸一化后作為GCN模型對輸入文本的最終預(yù)測概率值,然后利用該預(yù)測值計算GCN的損失并更新權(quán)重。計算過程如式(5)~式(7)所示,式(5)中,X代表輸入文本經(jīng)MPNet模型后得到的特征向量,WM代表與MPNet模型相連的全連接層的內(nèi)部權(quán)重。式(6)中,ZMPNetGCN、ZMPNet分別代表GCN和MPNet模型對輸入文本所屬類別的預(yù)測概率。式(7)中,losscem代表GCN的損失函數(shù),T代表批數(shù)量(batchsize),C代表數(shù)據(jù)集中包含C類文本,第t個樣本屬于i的概率yti的值為0或1,如果第t個樣本的真實(shí)類別等于i則取1,否則取0。

    ZMPNet=softmax(WM·X)

    (5)

    Z=ZGCN+ZMPNet

    (6)

    (7)

    3 知識蒸餾

    本文采用第2節(jié)提出的MPNetGCN模型作為教師模型。在文本分類任務(wù)中使用知識蒸餾的目的是為了在一定的分類準(zhǔn)確率范圍內(nèi)盡可能地使蒸餾過后得到的模型更小。目前,常用的基于深度學(xué)習(xí)且結(jié)構(gòu)較為簡單的文本分類模型大都基于LSTM。GRU作為LSTM的一種變體,將忘記門和輸入門合成為一個單一的更新門,同樣還混合了細(xì)胞狀態(tài)和隱藏狀態(tài)。GRU網(wǎng)絡(luò)的結(jié)構(gòu)只包含了兩個門,其結(jié)構(gòu)比標(biāo)準(zhǔn)的LSTM模型要簡單,模型的參數(shù)更少,但性能基本相同。從計算成本和時間成本來看,GRU網(wǎng)絡(luò)更有效率。由于在處理文本序列時需要考慮上下文的語義關(guān)系,因此本文選擇BiGRU作為學(xué)生模型的主體部分,其結(jié)構(gòu)如圖4所示。

    圖4 BiGRU網(wǎng)絡(luò)結(jié)構(gòu)圖

    (8)

    (9)

    (10)

    z(r)(x)=[max(H1),max(H2),…,max(Ht)]

    (11)

    對于輸入序列x,利用學(xué)生模型預(yù)測該序列屬于每個類別的概率的計算如式(12)所示,Wr代表全連接層中的權(quán)重信息。

    p(r)(x)=softmax(W(r)·z(r)(x))

    (12)

    (13)

    在知識蒸餾前,首先根據(jù)Dl訓(xùn)練數(shù)據(jù)對MPNetGCN 教師模型進(jìn)行微調(diào),調(diào)優(yōu)的目標(biāo)是最小化損失函數(shù)的值。

    本文通過“標(biāo)簽”把教師模型學(xué)到的知識遷移到學(xué)生模型中。知識蒸餾的目的是為了讓學(xué)生模型學(xué)到更多的外部知識,提高模型的泛化能力。數(shù)據(jù)集中的每個樣本的真實(shí)標(biāo)簽(hard target)為獨(dú)熱的編碼形式,根據(jù)式(13)計算交叉熵?fù)p失時,學(xué)生模型的輸出結(jié)果中只有一維參與了損失loss的計算,忽略了標(biāo)簽與標(biāo)簽之間的關(guān)系。比如類別貓和類別狗的相似性較高,類別貓和類別車的相似性較低,因此在計算損失時前者應(yīng)該給予更小的loss。采用教師模型對輸入文本所屬類別的預(yù)測概率(soft label)作為學(xué)生模型的label,在計算loss時可以使學(xué)生模型輸出結(jié)果中不為0的每一維都參與運(yùn)算,可以使學(xué)生模型學(xué)到更多的信息,在一定程度上提高模型的泛化能力。

    為了給學(xué)生模型提供一個更好的“視野”,本文采用教師模型對輸入文本所屬類別的預(yù)測概率(soft label)經(jīng)過式(14)變換后的結(jié)果作為學(xué)生模型輸入文本的“標(biāo)簽”,p(x)代表教師模型對輸入文本x所屬類別的預(yù)測概率。Logit強(qiáng)調(diào)模型在不同情況下應(yīng)該學(xué)習(xí)到不同關(guān)系。例如,評論“我喜歡這部電影”的負(fù)面可能性很小,而評論“這部電影本可以更好”可以是正的或負(fù)的,具體取決于上下文。Logit把這種正和負(fù)的關(guān)系反映到了標(biāo)簽中,通過這種方式可以使模型學(xué)到更多的信息。

    (14)

    學(xué)生模型的損失函數(shù)采用均方誤差損失函數(shù),計算過程如式(15)、式(16)所示。式(15)中zs(x)表示對于輸入文本x,學(xué)生模型輸出的特征向量。rs(xu)表示學(xué)生網(wǎng)絡(luò)對輸入文本xu的標(biāo)簽預(yù)測值,WT、bT為可訓(xùn)練參數(shù)。式(16)中,N代表批數(shù)量(batchsize),pt(xu)表示教師模型對輸入文本xu預(yù)測得到的屬于每個類別的概率,Du表示一個批(batch)的數(shù)據(jù)(該部分?jǐn)?shù)據(jù)只需要文本部分,不需要文本對應(yīng)的標(biāo)簽)。

    rs(x)=WT·zs(x)+bT

    (15)

    (16)

    迭代訓(xùn)練數(shù)據(jù)進(jìn)行知識蒸餾,當(dāng)損失函數(shù)的值最小的時候,學(xué)生模型的學(xué)習(xí)能力達(dá)到飽和,蒸餾完成。

    4 實(shí)驗(yàn)及結(jié)果分析

    4.1 數(shù)據(jù)集和實(shí)驗(yàn)環(huán)境

    為了檢驗(yàn)本文提出的文本分類模型的分類效果,選取了4個廣泛使用的文本分類數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),數(shù)據(jù)集的相關(guān)介紹如下:

    20NG(20newsgroups): 該數(shù)據(jù)集包含20個不同種類的文檔,新聞種類按照新聞主題劃分。

    R8: 該數(shù)據(jù)集為Reuters-21578數(shù)據(jù)集的子集,Reuters-21578數(shù)據(jù)集由8個不同種類的路透社財經(jīng)新聞文檔組成。

    R52: 該數(shù)據(jù)集與R8數(shù)據(jù)集類似,同為Reuters-21578數(shù)據(jù)集的子集。

    MR: 該數(shù)據(jù)集為電影評論數(shù)據(jù)集,評論分為“積極”和“消極”兩個種類。

    對數(shù)據(jù)集進(jìn)行數(shù)據(jù)清洗(去掉文本中的停用詞、文本分割等),然后對數(shù)據(jù)集的相關(guān)信息進(jìn)行統(tǒng)計,包括: 樣本數(shù)量(text_num)、訓(xùn)練集樣本數(shù)量(train_num)、測試集樣本數(shù)量(test_num)、數(shù)據(jù)集包含單詞的數(shù)量(word_num)、節(jié)點(diǎn)數(shù)量(node_num)、數(shù)據(jù)集中樣本種類的數(shù)量(class)以及數(shù)據(jù)集中樣本的平均長度(AL),統(tǒng)計結(jié)果如表1所示。

    表1 數(shù)據(jù)集各項(xiàng)指標(biāo)統(tǒng)計結(jié)果表

    實(shí)驗(yàn)平臺的配置為Intel Xeon3104處理器、16 GB內(nèi)存、GTX2080Ti顯卡,并使用64位操作系統(tǒng)Ubuntu 18.04。

    本文實(shí)驗(yàn)分為兩部分進(jìn)行,第一部分為MPNetGCN,第二部分為知識蒸餾部分。

    4.2 MPNetGCN教師模型實(shí)驗(yàn)結(jié)果

    該部分實(shí)驗(yàn)所選取的對比基線模型如下(其中對預(yù)訓(xùn)練模型加載預(yù)訓(xùn)練權(quán)重,然后在數(shù)據(jù)集上進(jìn)行Fine-tune處理)。

    BiLSTM: 由前向LSTM和后向LSTM構(gòu)成的模型。

    TextGCN[20]: 由雙層GCN構(gòu)成的文本分類模型。

    BERT[3]: 實(shí)驗(yàn)使用谷歌開源的BERT-Base模型,使用官方提供的預(yù)訓(xùn)練權(quán)重加載模型。

    RoBERTa[23]: 強(qiáng)化BERT模型,實(shí)驗(yàn)使用facebook官方提供的預(yù)訓(xùn)練權(quán)重加載模型。

    BERTGCN[22]: 實(shí)驗(yàn)中使用作者提供的預(yù)訓(xùn)練權(quán)重初始化該模型。

    RoBERTaGCN[23]: 一種基于GCN和RoBERTa的混合文本分類模型。

    MPNet[16]: 實(shí)驗(yàn)使用作者提供的預(yù)訓(xùn)練權(quán)重加載模型。

    該部分實(shí)驗(yàn)中的各模型初始超參數(shù)設(shè)置如表2所示。

    表2 各模型的初始超參數(shù)表

    實(shí)驗(yàn)中的各模型分類準(zhǔn)確率統(tǒng)計結(jié)果如表3所示(1M=1百萬)。

    表3 各模型分類準(zhǔn)確率統(tǒng)計表

    續(xù)表

    根據(jù)表3可以看出本文提出的語言模型MPNetGCN在除MR外的實(shí)驗(yàn)數(shù)據(jù)集上均取得了最高的分類準(zhǔn)確率。與RoBERTaGCN相比,MPNetGCN模型平均準(zhǔn)確率提高了0.4%。從表2可以看出,MR數(shù)據(jù)集中樣本的平均長度最短,GCN在該數(shù)據(jù)集上的分類效果最差。另外,BERT模型、RoBERTa模型、MPNet模型在融合GCN后模型的分類效果的提升相比其他數(shù)據(jù)集最低。這是因?yàn)樵谖谋鹃L度較短的情況下GCN能利用的節(jié)點(diǎn)信息較少,導(dǎo)致GCN捕捉文本特征的能力有所下降,說明GCN不善于處理短文本。RoBERTa和BERT結(jié)構(gòu)基本相同[23],由于RoBERTa在預(yù)訓(xùn)練階段與其他預(yù)訓(xùn)練語言模型相比使用了更大的數(shù)據(jù)集,事先學(xué)習(xí)到了更多的“知識”,在集成GCN后,RoBERTaGCN在MR數(shù)據(jù)集上取得了最好的分類效果,分類準(zhǔn)確率達(dá)到了89.7%。另外,通過表3還可以發(fā)現(xiàn),預(yù)訓(xùn)練語言模型的平均分類準(zhǔn)確率明顯高于非預(yù)訓(xùn)練語言模型BiLSTM和TextGCN。以上結(jié)果都體現(xiàn)出了大規(guī)模預(yù)訓(xùn)練對于提升模型的性能有很大作用,同時也說明可以通過使用更大的數(shù)據(jù)集對模型進(jìn)行預(yù)訓(xùn)練來進(jìn)一步提高模型的性能。但從表3也可以看出預(yù)訓(xùn)練語言模型的參數(shù)量也遠(yuǎn)遠(yuǎn)高于非預(yù)訓(xùn)練語言模型。

    在面對長度適中且分類邊界較為清晰(70詞左右,8個類別)的數(shù)據(jù)集R8、R52時,MPNetGCN表現(xiàn)最好,分類準(zhǔn)確率最高,分別達(dá)到了98.3%和97.4%。通過表3還可以看出,各模型的分類準(zhǔn)確率都明顯高于在其他數(shù)據(jù)集上的分類準(zhǔn)確率,說明了現(xiàn)有的文本分類模型更善于處理這種類型的數(shù)據(jù)。

    從表1中可以看出,20NG數(shù)據(jù)集中的文本平均長度達(dá)到221詞,遠(yuǎn)遠(yuǎn)高于其他數(shù)據(jù)集。在該數(shù)據(jù)集上MPNetGCN的平均分類準(zhǔn)確率達(dá)到了91.0%,高于實(shí)驗(yàn)中的其他模型。此外,BERTGCN模型和MPNetGCN模型的分類準(zhǔn)確率相較于BERT和MPNet提升最為明顯;且GCN的分類準(zhǔn)確率比BERT模型提高了1%,體現(xiàn)出GCN在處理長文本時更有優(yōu)勢。

    結(jié)合表1以及表3中各模型在多個數(shù)據(jù)集上的分類準(zhǔn)確率,可以看出本文提出的MPNetGCN模型在面對不同長度的文本時文本的分類效果綜合表現(xiàn)最好,平均分類準(zhǔn)確率達(dá)到了93.8%,高于其他模型。通過各模型之間的對比還可以發(fā)現(xiàn),在融合了GCN后各模型的平均分類準(zhǔn)確率都得到了一定的提升,說明通過多個模型來提取文本特征進(jìn)行文本分類的方式能夠避免單一模型自身的一些局限性,從而提高模型的整體分類性能。

    4.3 知識蒸餾模型實(shí)驗(yàn)結(jié)果

    該部分實(shí)驗(yàn)選擇的對比基線模型如下(其中對預(yù)訓(xùn)練模型進(jìn)行加載預(yù)訓(xùn)練權(quán)重,然后在數(shù)據(jù)集上進(jìn)行Fine-tune的處理):

    BiGRU: 由前向GRU網(wǎng)絡(luò)和后向GRU網(wǎng)絡(luò)構(gòu)成的模型。

    DistillLSTM[24]: 以BERT-Base作為教師模型,BiLSTM作為學(xué)生模型,通過知識蒸餾得到的模型。

    DistillBERT6[2]: 通過BERT-Base模型蒸餾得到的含有6層transformer的BERT6模型。

    實(shí)驗(yàn)超參數(shù)設(shè)置如表2所示。

    在該部分實(shí)驗(yàn)中,各模型的分類準(zhǔn)確率結(jié)果如表4所示。其中,T表示教師模型。

    表4 各模型分類準(zhǔn)確率統(tǒng)計表

    從表4可以看出,以MPNetGCN作為教師模型,BIGRU、BILSTM作為學(xué)生模型,在進(jìn)行知識蒸餾后,DistillBIGRU和DistillLSTM對文本的分類效果二者相當(dāng),平均分類準(zhǔn)確率均達(dá)到了91%,高于實(shí)驗(yàn)中的其他模型。但BiGRU結(jié)構(gòu)上更加簡單,因此選擇BiGRU作為學(xué)生模型更有效率。結(jié)合表3看出,無論是以MPNetGCN作為教師模型,還是以BERT作為教師模型,在進(jìn)行知識蒸餾后學(xué)生模型的性能相比蒸餾前都得到了提升。DistillBIGRU(T=MPNetGCN)模型和DistillLSTM(T=BERT)模型相比于BIGRU模型和BILSTM模型分類準(zhǔn)確率分別提升了5.4%,4.3%;DistillLSTM(T=MPNetGCN) 模型相比于BILSTM模型平均分類準(zhǔn)確率提升了5.2%,說明了采用“教師-學(xué)生”知識蒸餾的方法對學(xué)生模型的性能提升是有幫助的。

    DistillLSTM(T=MPNetGCN)模型與DistillLSTM(T=BERT)模型相比平均分類準(zhǔn)確率提高了0.9%,說明了教師模型性能的提升可以提高學(xué)生模型的學(xué)習(xí)能力。

    DistillBERT6模型和DistillLSTM模型在教師模型均為BERT模型的情況下,由于BERT6模型參數(shù)更多,分類性能更高,導(dǎo)致在進(jìn)行知識蒸餾后DistillBERT6模型的平均分類準(zhǔn)確率相比DistillLSTM模型提升了0.6%,說明了學(xué)生模型自身分類性能的提高對于提升最終模型的分類效果是有利的。

    BERT-Base模型的參數(shù)量約為108M,DistillBiGRU模型的參數(shù)量約為13M。根據(jù)表3和表4,BERT模型在數(shù)據(jù)集上的平均分類準(zhǔn)確率達(dá)到了91.2%,DistillBiGRU模型的平均分類準(zhǔn)確率達(dá)到了91.0%,在文本分類方面DistillBIGRU模型與BERT模型的分類效果相當(dāng),驗(yàn)證了本文提出方法的合理性及有效性。

    5 總結(jié)

    針對現(xiàn)有預(yù)訓(xùn)練語言模型參數(shù)量龐大、算法復(fù)雜以及訓(xùn)練成本高等問題,本文提出了基于知識蒸餾的文本分類模型DistillBiGRU。首先結(jié)合MPNet模型和GCN提出了MPNetGCN語言模型作為教師模型,該模型在實(shí)驗(yàn)中的多個數(shù)據(jù)集上取得了最好的分類效果,與BERTGCN模型相比平均分類準(zhǔn)確率提高了1.3%。在知識蒸餾階段,本文選擇BiGRU作為學(xué)生模型,在實(shí)驗(yàn)中,通過蒸餾得到的模型DistillBiGRU在多個數(shù)據(jù)集上的平均分類準(zhǔn)確率達(dá)到了91.0%,在參數(shù)量遠(yuǎn)小于BERT模型(約為BERT模型的1/9)的前提下,平均分類準(zhǔn)確率與BERT模型相當(dāng)。但是,在利用MPNetGCN進(jìn)行文本分類時,存在GCN和MPNet模型加載數(shù)據(jù)不同步的問題,雖然該問題對最終的分類結(jié)果影響不大,但不可忽略。另外,不同的蒸餾方法對蒸餾后的學(xué)生模型的性能也有影響。這些問題在后續(xù)的研究中值得關(guān)注。

    猜你喜歡
    準(zhǔn)確率分類節(jié)點(diǎn)
    CM節(jié)點(diǎn)控制在船舶上的應(yīng)用
    Analysis of the characteristics of electronic equipment usage distance for common users
    分類算一算
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
    2015—2017 年寧夏各天氣預(yù)報參考產(chǎn)品質(zhì)量檢驗(yàn)分析
    基于AutoCAD的門窗節(jié)點(diǎn)圖快速構(gòu)建
    分類討論求坐標(biāo)
    高速公路車牌識別標(biāo)識站準(zhǔn)確率驗(yàn)證法
    數(shù)據(jù)分析中的分類討論
    另类亚洲欧美激情| 国产乱人偷精品视频| 黑人巨大精品欧美一区二区蜜桃 | 久久久国产精品麻豆| 精品熟女少妇av免费看| 久久久久久伊人网av| 久久影院123| 国产免费一区二区三区四区乱码| 激情视频va一区二区三区| 亚洲第一av免费看| 国产有黄有色有爽视频| 日韩大片免费观看网站| 午夜福利视频精品| a级毛色黄片| 久久狼人影院| 最近最新中文字幕大全免费视频 | 国产日韩欧美亚洲二区| 国产一区二区激情短视频 | 国产激情久久老熟女| 久久精品国产综合久久久 | 18禁裸乳无遮挡动漫免费视频| 人人澡人人妻人| 一本大道久久a久久精品| 成人二区视频| 欧美+日韩+精品| 天天操日日干夜夜撸| 婷婷色综合大香蕉| 国产成人a∨麻豆精品| 欧美丝袜亚洲另类| 超碰97精品在线观看| 亚洲第一av免费看| 精品福利永久在线观看| 一级毛片电影观看| 9热在线视频观看99| av在线老鸭窝| 男的添女的下面高潮视频| 国产精品国产三级国产av玫瑰| 青青草视频在线视频观看| 欧美国产精品va在线观看不卡| 久久久久久人人人人人| 亚洲,欧美,日韩| 天天躁夜夜躁狠狠久久av| 18禁裸乳无遮挡动漫免费视频| 人人妻人人添人人爽欧美一区卜| 啦啦啦啦在线视频资源| 欧美+日韩+精品| 你懂的网址亚洲精品在线观看| 欧美日韩视频精品一区| 久久人人爽av亚洲精品天堂| 日韩一区二区三区影片| 日韩精品免费视频一区二区三区 | 在线观看国产h片| 亚洲国产色片| 亚洲三级黄色毛片| 18在线观看网站| 国产亚洲欧美精品永久| 精品久久久精品久久久| 一级爰片在线观看| 亚洲精品乱码久久久久久按摩| 久久99精品国语久久久| 黄片播放在线免费| 中文字幕制服av| 日韩成人伦理影院| 国产精品一国产av| 最近中文字幕高清免费大全6| 一级黄片播放器| 久久狼人影院| 男女啪啪激烈高潮av片| 欧美另类一区| 欧美丝袜亚洲另类| 久久女婷五月综合色啪小说| 一本—道久久a久久精品蜜桃钙片| 两个人看的免费小视频| 国产日韩欧美视频二区| 蜜桃在线观看..| 亚洲精品日韩在线中文字幕| 国产综合精华液| 最近2019中文字幕mv第一页| 国产精品国产av在线观看| 国产欧美亚洲国产| 精品人妻偷拍中文字幕| 大片电影免费在线观看免费| 最近的中文字幕免费完整| 久久精品aⅴ一区二区三区四区 | 日本色播在线视频| 久久久精品94久久精品| 久热久热在线精品观看| 欧美日本中文国产一区发布| 久久久亚洲精品成人影院| √禁漫天堂资源中文www| 午夜激情av网站| h视频一区二区三区| 91午夜精品亚洲一区二区三区| 亚洲精品色激情综合| 一本久久精品| 日韩电影二区| 最新的欧美精品一区二区| 亚洲av电影在线观看一区二区三区| 下体分泌物呈黄色| 赤兔流量卡办理| 国产精品国产三级专区第一集| 岛国毛片在线播放| 久久免费观看电影| 美女国产视频在线观看| 免费高清在线观看视频在线观看| 国产精品秋霞免费鲁丝片| 综合色丁香网| 久久精品国产鲁丝片午夜精品| 国产成人精品福利久久| 美女国产视频在线观看| 一级黄片播放器| 久久亚洲国产成人精品v| 街头女战士在线观看网站| 国产精品女同一区二区软件| 国产精品一区www在线观看| 夜夜爽夜夜爽视频| 日本与韩国留学比较| 黑人欧美特级aaaaaa片| 妹子高潮喷水视频| 岛国毛片在线播放| 亚洲伊人久久精品综合| 最后的刺客免费高清国语| 新久久久久国产一级毛片| 国产精品久久久久久久电影| 国产激情久久老熟女| 最近的中文字幕免费完整| 欧美老熟妇乱子伦牲交| 五月伊人婷婷丁香| 人体艺术视频欧美日本| 国产男女内射视频| 久久久久久人人人人人| 国产熟女欧美一区二区| 少妇的逼好多水| 亚洲精品成人av观看孕妇| 中国美白少妇内射xxxbb| 欧美日韩视频精品一区| 亚洲欧美清纯卡通| 国产又色又爽无遮挡免| 少妇人妻 视频| 亚洲综合精品二区| 另类亚洲欧美激情| 国产极品粉嫩免费观看在线| av国产久精品久网站免费入址| 国产亚洲精品第一综合不卡 | 久久午夜综合久久蜜桃| 亚洲国产欧美日韩在线播放| 精品酒店卫生间| 国产成人免费观看mmmm| 人妻少妇偷人精品九色| 99re6热这里在线精品视频| 少妇被粗大猛烈的视频| 夜夜骑夜夜射夜夜干| 国产xxxxx性猛交| freevideosex欧美| 少妇猛男粗大的猛烈进出视频| 国产爽快片一区二区三区| av有码第一页| 亚洲内射少妇av| 51国产日韩欧美| 热99久久久久精品小说推荐| 男女边摸边吃奶| 搡老乐熟女国产| 飞空精品影院首页| 久久99一区二区三区| 有码 亚洲区| 国产成人aa在线观看| 日韩欧美一区视频在线观看| 婷婷色综合大香蕉| videossex国产| 欧美bdsm另类| 在线亚洲精品国产二区图片欧美| 免费人成在线观看视频色| av网站免费在线观看视频| 国产精品免费大片| 亚洲精品国产av蜜桃| 大陆偷拍与自拍| 欧美精品国产亚洲| 丝袜人妻中文字幕| 嫩草影院入口| 考比视频在线观看| 日韩制服骚丝袜av| 亚洲精品成人av观看孕妇| 成年人免费黄色播放视频| 欧美日韩精品成人综合77777| 免费大片18禁| 18禁观看日本| 国产免费福利视频在线观看| 色视频在线一区二区三区| 韩国精品一区二区三区 | 国语对白做爰xxxⅹ性视频网站| 国产精品久久久av美女十八| 91aial.com中文字幕在线观看| 热re99久久国产66热| av线在线观看网站| 中文天堂在线官网| 黄色毛片三级朝国网站| 国产亚洲av片在线观看秒播厂| 成人毛片60女人毛片免费| 亚洲国产精品一区三区| 国产亚洲精品第一综合不卡 | 国产精品蜜桃在线观看| 亚洲一码二码三码区别大吗| 黄色毛片三级朝国网站| 考比视频在线观看| 免费在线观看黄色视频的| 美国免费a级毛片| 久久精品熟女亚洲av麻豆精品| 久久99精品国语久久久| 日本欧美国产在线视频| 岛国毛片在线播放| 国产亚洲最大av| 欧美成人精品欧美一级黄| 99视频精品全部免费 在线| 男女高潮啪啪啪动态图| 日韩制服丝袜自拍偷拍| 久久久久久久久久久久大奶| 校园人妻丝袜中文字幕| 亚洲精品久久成人aⅴ小说| 国产一区二区三区av在线| 日韩欧美精品免费久久| 久久久久久久久久成人| 高清av免费在线| 亚洲国产欧美日韩在线播放| 美女大奶头黄色视频| 亚洲色图综合在线观看| 在线观看免费视频网站a站| 免费在线观看黄色视频的| 国产精品久久久久成人av| 亚洲国产精品999| 亚洲国产av新网站| 久久精品久久久久久久性| 99视频精品全部免费 在线| 国产视频首页在线观看| 国产成人精品一,二区| 天天躁夜夜躁狠狠久久av| 中文字幕av电影在线播放| 老女人水多毛片| 超色免费av| 国产精品久久久久久av不卡| 亚洲精品久久成人aⅴ小说| 最黄视频免费看| 国产精品一区www在线观看| 久久av网站| 五月伊人婷婷丁香| 久久人人爽人人片av| 女人久久www免费人成看片| 国产欧美另类精品又又久久亚洲欧美| 亚洲精品国产av蜜桃| 母亲3免费完整高清在线观看 | 99久久综合免费| 亚洲伊人色综图| 国产av码专区亚洲av| 成人国产av品久久久| 日本av免费视频播放| 欧美日韩国产mv在线观看视频| 另类亚洲欧美激情| 哪个播放器可以免费观看大片| 久久精品国产综合久久久 | 亚洲婷婷狠狠爱综合网| 少妇的逼水好多| 欧美亚洲 丝袜 人妻 在线| av卡一久久| 少妇精品久久久久久久| 美女主播在线视频| 亚洲高清免费不卡视频| 亚洲精品美女久久久久99蜜臀 | 亚洲国产看品久久| 免费播放大片免费观看视频在线观看| 亚洲精品第二区| 欧美日本中文国产一区发布| √禁漫天堂资源中文www| 免费黄网站久久成人精品| 视频在线观看一区二区三区| 久久影院123| 丝袜喷水一区| 最黄视频免费看| 黄色视频在线播放观看不卡| 久久久久久久久久久免费av| 久久人人爽av亚洲精品天堂| 日韩一区二区视频免费看| 26uuu在线亚洲综合色| 在现免费观看毛片| 欧美日本中文国产一区发布| 有码 亚洲区| 涩涩av久久男人的天堂| 成人黄色视频免费在线看| 99久国产av精品国产电影| 亚洲精品美女久久久久99蜜臀 | 日韩伦理黄色片| 免费日韩欧美在线观看| 午夜福利,免费看| 一本色道久久久久久精品综合| 中文乱码字字幕精品一区二区三区| 亚洲在久久综合| 中文精品一卡2卡3卡4更新| 亚洲成人一二三区av| 国产免费一级a男人的天堂| 中文字幕av电影在线播放| 国产av一区二区精品久久| 国产一区二区在线观看av| 亚洲欧美一区二区三区国产| 寂寞人妻少妇视频99o| 久久久久久久精品精品| 亚洲图色成人| freevideosex欧美| 美女国产高潮福利片在线看| 成年人免费黄色播放视频| 精品久久国产蜜桃| 91成人精品电影| 午夜福利网站1000一区二区三区| 9191精品国产免费久久| 久久久久精品人妻al黑| 欧美另类一区| 一个人免费看片子| 成人国产麻豆网| 99热这里只有是精品在线观看| 欧美xxⅹ黑人| 久久 成人 亚洲| 国产不卡av网站在线观看| 99久久中文字幕三级久久日本| 国产精品久久久久久久久免| 一区二区三区精品91| 在线 av 中文字幕| 香蕉丝袜av| 热re99久久国产66热| 国产精品不卡视频一区二区| 黑人猛操日本美女一级片| 97在线人人人人妻| 精品国产一区二区久久| 丝袜在线中文字幕| 久久99精品国语久久久| 99热6这里只有精品| 插逼视频在线观看| 18禁在线无遮挡免费观看视频| 尾随美女入室| 国产高清国产精品国产三级| 久久这里有精品视频免费| 桃花免费在线播放| 内地一区二区视频在线| 一区在线观看完整版| 日韩 亚洲 欧美在线| 国产免费现黄频在线看| 亚洲av电影在线观看一区二区三区| 又黄又爽又刺激的免费视频.| 99热国产这里只有精品6| 麻豆乱淫一区二区| 亚洲av中文av极速乱| 91在线精品国自产拍蜜月| 在线观看免费视频网站a站| 亚洲综合色惰| 欧美成人午夜免费资源| 69精品国产乱码久久久| 亚洲成人一二三区av| 日韩av在线免费看完整版不卡| xxxhd国产人妻xxx| 亚洲久久久国产精品| 国产男人的电影天堂91| 国产日韩欧美在线精品| 七月丁香在线播放| 久久人人97超碰香蕉20202| 大香蕉久久成人网| 三级国产精品片| 成人毛片a级毛片在线播放| 欧美人与性动交α欧美软件 | 亚洲国产色片| 免费女性裸体啪啪无遮挡网站| 精品国产国语对白av| 日韩成人伦理影院| 一区二区av电影网| 热re99久久精品国产66热6| 在线看a的网站| 夜夜骑夜夜射夜夜干| 国产一区二区三区综合在线观看 | 亚洲国产欧美日韩在线播放| 日韩人妻精品一区2区三区| 国产精品久久久久成人av| 美女脱内裤让男人舔精品视频| 伦理电影免费视频| 一二三四在线观看免费中文在 | 十分钟在线观看高清视频www| 下体分泌物呈黄色| 日韩一本色道免费dvd| 美女国产高潮福利片在线看| 一级片免费观看大全| a 毛片基地| 欧美精品一区二区大全| 欧美日韩av久久| 永久免费av网站大全| 色婷婷久久久亚洲欧美| 一级片免费观看大全| 水蜜桃什么品种好| 亚洲av国产av综合av卡| 99热这里只有是精品在线观看| 亚洲精品,欧美精品| 另类精品久久| 国产欧美日韩综合在线一区二区| 国产爽快片一区二区三区| 少妇人妻 视频| 乱人伦中国视频| 国产成人免费观看mmmm| 国产色婷婷99| 激情五月婷婷亚洲| 免费在线观看完整版高清| 9色porny在线观看| 欧美激情极品国产一区二区三区 | 最近最新中文字幕大全免费视频 | 超色免费av| 激情视频va一区二区三区| 最新的欧美精品一区二区| 久久精品久久久久久久性| 亚洲天堂av无毛| 三上悠亚av全集在线观看| 久久这里只有精品19| 亚洲伊人色综图| 99久久中文字幕三级久久日本| 久久久久久久亚洲中文字幕| 国产亚洲午夜精品一区二区久久| 久久av网站| 免费观看性生交大片5| 成年人免费黄色播放视频| 久久韩国三级中文字幕| 国产有黄有色有爽视频| 亚洲国产精品成人久久小说| 久久99精品国语久久久| 18禁观看日本| 免费不卡的大黄色大毛片视频在线观看| 久久国产精品男人的天堂亚洲 | 午夜福利,免费看| 亚洲精品久久午夜乱码| 亚洲av电影在线进入| 国产在视频线精品| 一级片免费观看大全| 黄网站色视频无遮挡免费观看| 免费观看a级毛片全部| 久久久久久久国产电影| 中国三级夫妇交换| h视频一区二区三区| 久久久久人妻精品一区果冻| 成年人免费黄色播放视频| 精品卡一卡二卡四卡免费| av.在线天堂| 色婷婷久久久亚洲欧美| 欧美日韩成人在线一区二区| 久久久久久久大尺度免费视频| 视频区图区小说| 乱码一卡2卡4卡精品| 久久人人爽人人爽人人片va| 赤兔流量卡办理| 免费大片18禁| 久久久国产精品麻豆| 亚洲婷婷狠狠爱综合网| 纵有疾风起免费观看全集完整版| 激情视频va一区二区三区| 看非洲黑人一级黄片| 欧美成人午夜免费资源| av免费在线看不卡| 天天躁夜夜躁狠狠躁躁| 国产欧美另类精品又又久久亚洲欧美| 久久久欧美国产精品| 久久综合国产亚洲精品| 欧美老熟妇乱子伦牲交| 精品少妇久久久久久888优播| 免费大片黄手机在线观看| 精品久久久精品久久久| 国内精品宾馆在线| 天天躁夜夜躁狠狠久久av| 超碰97精品在线观看| 亚洲精品,欧美精品| 国语对白做爰xxxⅹ性视频网站| 欧美少妇被猛烈插入视频| 国产老妇伦熟女老妇高清| 国产黄色免费在线视频| 亚洲精品国产av蜜桃| 少妇精品久久久久久久| 国产精品一区二区在线不卡| 少妇精品久久久久久久| 欧美国产精品一级二级三级| 十八禁网站网址无遮挡| 欧美少妇被猛烈插入视频| 国产探花极品一区二区| 国产av精品麻豆| 好男人视频免费观看在线| 九草在线视频观看| 久久久亚洲精品成人影院| 亚洲欧美一区二区三区国产| 看非洲黑人一级黄片| 国产精品一区www在线观看| 亚洲精品,欧美精品| 亚洲精品国产av蜜桃| 亚洲色图 男人天堂 中文字幕 | 精品99又大又爽又粗少妇毛片| 美女国产视频在线观看| 欧美变态另类bdsm刘玥| 有码 亚洲区| 国产无遮挡羞羞视频在线观看| 国产 一区精品| av女优亚洲男人天堂| 永久免费av网站大全| 麻豆精品久久久久久蜜桃| 精品国产乱码久久久久久小说| 国产精品一区www在线观看| 国产精品成人在线| 高清毛片免费看| 亚洲美女视频黄频| 免费人成在线观看视频色| 国产一区二区在线观看av| 亚洲精品久久成人aⅴ小说| 狂野欧美激情性xxxx在线观看| 亚洲国产精品999| 日日爽夜夜爽网站| 大陆偷拍与自拍| 春色校园在线视频观看| av播播在线观看一区| 国产深夜福利视频在线观看| 亚洲国产av新网站| 亚洲人成网站在线观看播放| 91精品国产国语对白视频| 亚洲欧美成人精品一区二区| 久久精品国产综合久久久 | 看免费av毛片| 欧美日韩一区二区视频在线观看视频在线| 亚洲欧美日韩卡通动漫| 欧美日韩综合久久久久久| 少妇人妻精品综合一区二区| 一区二区av电影网| 亚洲美女搞黄在线观看| 免费av中文字幕在线| 在线天堂中文资源库| 七月丁香在线播放| 国产免费又黄又爽又色| 亚洲综合色网址| 伦精品一区二区三区| 精品久久久精品久久久| kizo精华| 热re99久久国产66热| 交换朋友夫妻互换小说| 免费观看a级毛片全部| 久久久久网色| 人人妻人人澡人人爽人人夜夜| 热re99久久国产66热| 日韩av不卡免费在线播放| 成人二区视频| 人人妻人人澡人人看| 成年女人在线观看亚洲视频| 国产亚洲最大av| 丁香六月天网| 中文字幕最新亚洲高清| 国产又爽黄色视频| av在线播放精品| 人成视频在线观看免费观看| 曰老女人黄片| 免费在线观看黄色视频的| 久久精品aⅴ一区二区三区四区 | 91精品三级在线观看| av国产久精品久网站免费入址| 亚洲精品aⅴ在线观看| 人妻少妇偷人精品九色| 久久这里只有精品19| 免费看不卡的av| 日本午夜av视频| 欧美日韩亚洲高清精品| 国产精品欧美亚洲77777| 久久毛片免费看一区二区三区| 国产av国产精品国产| 永久免费av网站大全| 国产精品嫩草影院av在线观看| 欧美精品一区二区免费开放| 在线观看一区二区三区激情| 免费不卡的大黄色大毛片视频在线观看| 国产av一区二区精品久久| av国产久精品久网站免费入址| 日本黄色日本黄色录像| 亚洲国产精品专区欧美| 99久久人妻综合| 精品福利永久在线观看| 九色亚洲精品在线播放| 国产极品天堂在线| 在线观看免费高清a一片| 九草在线视频观看| 亚洲内射少妇av| 在线观看一区二区三区激情| 熟妇人妻不卡中文字幕| 汤姆久久久久久久影院中文字幕| 亚洲欧美中文字幕日韩二区| 伊人亚洲综合成人网| 国产av国产精品国产| 亚洲精品一二三| 天美传媒精品一区二区| 国产一区二区三区综合在线观看 | 国产免费又黄又爽又色| 国产片内射在线| 日韩在线高清观看一区二区三区| 亚洲内射少妇av| 人妻一区二区av| 夫妻午夜视频| 久久久精品免费免费高清| 男女国产视频网站| 精品一品国产午夜福利视频| 亚洲情色 制服丝袜| 国产精品人妻久久久久久| 国产麻豆69| 国产精品久久久av美女十八| 亚洲av福利一区| 日韩欧美一区视频在线观看| 亚洲国产欧美在线一区| 在线观看人妻少妇| 国产国拍精品亚洲av在线观看| 亚洲国产精品999| 国国产精品蜜臀av免费| a级片在线免费高清观看视频| 黄色怎么调成土黄色| 国产精品国产av在线观看| 在线观看国产h片| 欧美精品高潮呻吟av久久| 一边亲一边摸免费视频|