• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合SS-GAN和BERT的文本分類模型

    2023-03-04 06:37:30宛艷萍閆思聰于海闊許敏聰
    關(guān)鍵詞:后繼前驅(qū)分類

    宛艷萍,閆思聰,于海闊,許敏聰

    (河北工業(yè)大學(xué) 人工智能與數(shù)據(jù)科學(xué)學(xué)院,天津 300401)

    0 引 言

    文本分類是自然語言處理領(lǐng)域(Natural Language Processing,NLP)中的重要分支之一,其目的是將文本按照一定的分類標(biāo)準(zhǔn),依次歸屬到一個(gè)或多個(gè)類別中。目前文本分類在垃圾郵件檢測、情感分析及其他領(lǐng)域有著廣泛的應(yīng)用。目前文本分類方法可分為三類:基于規(guī)則的文本分類方法、基于機(jī)器學(xué)習(xí)的文本分類方法和基于深度學(xué)習(xí)的文本分類方法[1]。

    近年來,國內(nèi)外關(guān)于文本分類的研究逐漸由傳統(tǒng)機(jī)器學(xué)習(xí)向深度學(xué)習(xí)轉(zhuǎn)變,許多經(jīng)典深度學(xué)習(xí)模型如遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)[2]、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)[3]和長短期記憶模型(Long Short-Term Memory,LSTM)[4]被應(yīng)用到文本分類中。楊興銳等人[5]提出了基于自注意力機(jī)制和殘差網(wǎng)絡(luò)(ResNet)的BiLSTM_CNN復(fù)合模型。通過自注意力賦予卷積運(yùn)算后信息的權(quán)重,進(jìn)一步提高模型的分類性能。李啟行等人[6]基于注意力機(jī)制的雙通道DAC-RNN文本分類模型,利用Bi-LSTM通道提取文本中的上下文關(guān)聯(lián)信息,并結(jié)合CNN通道提取文本中連續(xù)詞間的局部特征。

    隨著基于Transformer[7]的BERT模型[8]的出現(xiàn),一系列大型預(yù)訓(xùn)練語言模型如ELMo[9]、GPT[10]、XLNET[11]和RoBERTa[12]等顯著提升了自然語言處理任務(wù)的性能。越來越多的研究者開始采用預(yù)訓(xùn)練模型進(jìn)行文本分類,但這些模型訓(xùn)練需要大量標(biāo)注數(shù)據(jù)并且參數(shù)規(guī)模龐大,這導(dǎo)致了預(yù)訓(xùn)練時(shí)間過長且計(jì)算成本高昂,因此一直為人所詬病。

    大量標(biāo)注數(shù)據(jù)一般需要人工標(biāo)注,獲取難度高且費(fèi)用貴。為解決這個(gè)問題,Weston[13]和Yang[14]等人提出可以利用半監(jiān)督的方法,在標(biāo)注數(shù)據(jù)量較少的情況下,同時(shí)利用未標(biāo)注數(shù)據(jù)來提高模型的泛化能力。半監(jiān)督生成對抗網(wǎng)絡(luò)(Semi-Supervised Generative Adversarial Networks,SS-GANs)[15]利用了半監(jiān)督的方法對生成對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[16]進(jìn)行擴(kuò)展,在判別器中為每一個(gè)樣本增加一個(gè)新類別并且判斷該樣本是否為自動(dòng)生成的數(shù)據(jù)。在自然語言處理領(lǐng)域中,Croce等人[17]首次將SS-GANs應(yīng)用于NLP任務(wù)中,使用SS-GANs的方法擴(kuò)展基于內(nèi)核的深度體系結(jié)構(gòu)[18]。Croce等人[19]也從SS-GANs的角度對BERT模型進(jìn)行了簡單微調(diào),將BERT模型提取特征向量,并利用半監(jiān)督的方法來降低模型訓(xùn)練所需要的標(biāo)注數(shù)據(jù)量。針對BERT模型參數(shù)過大這一問題,目前已經(jīng)提出許多神經(jīng)網(wǎng)絡(luò)壓縮技術(shù),一般可以分為權(quán)重量化[20]、權(quán)重剪枝[21]和知識(shí)蒸餾[22]。Jiao等人[23]提出了更加復(fù)雜的特性模型蒸餾損失函數(shù)來提高性能。

    針對目前BERT模型的缺點(diǎn),利用半監(jiān)督的方法在生成對抗性環(huán)境下,利用少量標(biāo)注數(shù)據(jù)和大量無標(biāo)注數(shù)據(jù)對BERT模型進(jìn)行訓(xùn)練,提出了一種基于SS-GAN的BERT改進(jìn)模型GT-BERT。該模型利用知識(shí)蒸餾的思路將BERT模型進(jìn)行壓縮,將文本輸入至SS-GAN框架下的壓縮模型進(jìn)行訓(xùn)練。從而降低模型對標(biāo)注數(shù)據(jù)的依賴以及模型參數(shù)規(guī)模與時(shí)間復(fù)雜度。

    該文的主要貢獻(xiàn)有:第一,提出了一種改進(jìn)的BERT模型,在SS-GAN的框架下豐富了BERT的微調(diào)過程,改進(jìn)了模型的整體架構(gòu),使模型能夠有效利用大量無標(biāo)注數(shù)據(jù);第二,改進(jìn)了SS-GAN中生成器與判別器的選擇方式,選擇不同的生成器與判別器的最優(yōu)配置來提高整個(gè)訓(xùn)練過程的效果,從而提升模型的整體性能;第三,使用模型壓縮方法Bert-of-theseus對模型進(jìn)行壓縮,有效降低了模型的參數(shù)規(guī)模與時(shí)間復(fù)雜度。

    1 相關(guān)工作

    1.1 GAN網(wǎng)絡(luò)

    GAN網(wǎng)絡(luò)通過生成器與判別模型器兩個(gè)模塊間的相互博弈,產(chǎn)生良好的輸出。模型架構(gòu)如圖1所示。

    圖1 GAN網(wǎng)絡(luò)模型框架結(jié)構(gòu)

    圖1中判別器D是一個(gè)傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)分類器,其輸入的數(shù)據(jù)一部分來自真實(shí)樣本數(shù)據(jù)集,另一部分來自生成器G生成的假樣本數(shù)據(jù)。判別器的訓(xùn)練目標(biāo)為對于真實(shí)樣本,判別器輸出概率值接近1,而對于生成器生成的假樣本,輸出概率值接近于0。生成器與判別器恰恰相反,其通過訓(xùn)練最大程度地生成接近真實(shí)樣本的假樣本來欺騙判別器。在GAN網(wǎng)絡(luò)中,同時(shí)使用兩個(gè)優(yōu)化器來最小化判別器與生成器的損失,從而得到良好輸出。

    1.2 Bert-of-theseus

    Bert-of-theseus[24]是基于模塊的可替換性,逐步使用小模塊替代BERT中的大模塊來進(jìn)行模型壓縮。在此方法中,被替換模塊和替換模塊分別被稱為前驅(qū)模塊(predecessor)和后繼模塊(successor)。

    theseus壓縮方法的主要流程如圖2所示,以將6層的BERT模型壓縮至3層模型為例:首先,為兩個(gè)前驅(qū)模塊指定一個(gè)后繼模塊,在訓(xùn)練階段,逐步以一定概率將后繼模塊替換為所對應(yīng)的前驅(qū)模塊。將替換后的后繼模塊繼續(xù)放入模型中與其他剩余的前驅(qū)模塊共同訓(xùn)練,然后依次將前驅(qū)模塊替換為后繼模塊,直至將所有前驅(qū)模塊替換完畢。當(dāng)整個(gè)訓(xùn)練收斂后,將所有后繼模塊串聯(lián)起來作為新模型。假設(shè)前驅(qū)模型P和后繼模型S都含有n個(gè)模塊,即P={prd1,prd2,…,prdn},S={scc1,scc2,…,sccn},其中,scci用來替換prdi。假設(shè)第i個(gè)模塊輸入為yi,前驅(qū)模型的前向過程為:

    yi+1=prdi(yi)

    (1)

    圖2 Bert-of-theseus壓縮流程

    壓縮時(shí),對于第i+1個(gè)模塊,ri+1是一個(gè)獨(dú)立服從伯努利分布的變量,即以概率p取值為1,以概率1-p取值為0:

    ri+1~Bernoulli(p)

    (2)

    則第ri+1個(gè)模塊輸出為:

    yi+1=ri+1⊙scci(yi)+(1-ri+1)⊙prdi(yi)

    (3)

    其中,⊙表示逐元素相乘,ri+1∈{0,1}。通過這種方式,前驅(qū)模塊和后繼模塊同時(shí)訓(xùn)練,訓(xùn)練的損失函數(shù)即特定任務(wù)所設(shè)定的損失函數(shù)。

    在反向傳播時(shí),所有前驅(qū)模塊的權(quán)重參數(shù)會(huì)被凍結(jié),只有后繼模塊參數(shù)會(huì)被更新。前驅(qū)模塊參數(shù)權(quán)重凍結(jié)后,其嵌入層和輸出層在訓(xùn)練階段會(huì)被直接當(dāng)作后繼模塊。

    當(dāng)訓(xùn)練收斂時(shí),所有后繼模塊被串起來組成后繼模型S:

    S={scc1,scc2,…,sccn}

    (4)

    yi+1=scci(yi)

    (5)

    由于scci比prdi規(guī)模小,因此整個(gè)前驅(qū)模型被壓縮為更小的后繼模型,之后后繼模型將會(huì)再次使用損失函數(shù)進(jìn)行微調(diào)優(yōu)化,最后使用微調(diào)后的后繼模型進(jìn)行后續(xù)的文本分類任務(wù)。

    2 文中模型框架

    2.1 SS-GAN

    SS-GAN是對GAN網(wǎng)絡(luò)的一種改進(jìn)與擴(kuò)展,利用GAN網(wǎng)絡(luò)進(jìn)行半監(jiān)督學(xué)習(xí),從而使大量無標(biāo)注數(shù)據(jù)能夠作為訓(xùn)練數(shù)據(jù)參與模型訓(xùn)練,降低模型對標(biāo)注數(shù)據(jù)的依賴。判別器D對輸入的每一個(gè)樣本進(jìn)行分類,同時(shí)區(qū)分該樣本是否為生成器G生成的假樣本。SS-GAN將GAN的判別器D改為k+1類,其中第k+1類為異常類:當(dāng)判別器D將輸入數(shù)據(jù)鑒別為真實(shí)樣本時(shí),將數(shù)據(jù)分至(1,2,…,k)中其中一類;當(dāng)將輸入數(shù)據(jù)鑒別為生成器G生成的假樣本時(shí),將數(shù)據(jù)分至第k+1類中。為了訓(xùn)練半監(jiān)督的k類分類器,將生成器D的目標(biāo)擴(kuò)展如下:

    LD=LDsup+LDunsup

    (6)

    其中:

    (7)

    (8)

    其中,pr和pg分別表示真實(shí)數(shù)據(jù)和生成數(shù)據(jù)。LDsup表示判別器D的有監(jiān)督損失,即在判別過程中判別器D將真實(shí)樣本在(1,2,…,k)類中分類錯(cuò)誤的損失。LDunsup表示D的無監(jiān)督損失,即判別器D將無標(biāo)注的真實(shí)樣本分至k+1類中,或?qū)⑸善魃傻募贅颖惧e(cuò)誤判斷為真實(shí)樣本的損失。利用判別器中間層的輸出,使得生成數(shù)據(jù)與真實(shí)數(shù)據(jù)的特征相匹配,直觀上來講判別器的中間層為特征提取器,用來區(qū)別真實(shí)數(shù)據(jù)與生成數(shù)據(jù)的特征。因此G應(yīng)該盡可能生成近似真實(shí)的數(shù)據(jù)樣本,f(α)表示D中間層的輸出,G的特征匹配損失函數(shù)定義為:

    (9)

    此外,G的損失也應(yīng)考慮生成器D正確判別出G所生成的假樣本所產(chǎn)生的損失,因此:

    (10)

    因此,G的損失函數(shù)為:

    LG=LGfeaturemmathing+LGunsup

    (11)

    2.2 GT-BERT

    為了使BERT模型能夠得到廣泛的應(yīng)用,在保證模型分類準(zhǔn)確率不降低的情況下,減少模型參數(shù)規(guī)模并降低時(shí)間復(fù)雜度,提出一種基于半監(jiān)督生成對抗網(wǎng)絡(luò)與BERT的文本分類模型GT-BERT。模型的整體框架如圖3所示。

    圖3 GT-BERT模型架構(gòu)

    首先,對BERT進(jìn)行壓縮,通過實(shí)驗(yàn)驗(yàn)證選擇使用Bert-of-theseus[24]方法進(jìn)行壓縮得到BERT-theseus模型。損失函數(shù)設(shè)定為文本分類常用的交叉熵?fù)p失:

    L=-sumj∈|x|∑c∈C[1[zj=c]·logp(zj=c|xj)]

    (12)

    其中,xj為訓(xùn)練集的第j個(gè)樣本,zj是xj的標(biāo)簽,C和c表示標(biāo)簽集合和一個(gè)類標(biāo)簽。

    接著,在壓縮之后,從SS-GANs角度擴(kuò)展BERT-theseus模型進(jìn)行微調(diào)。在預(yù)訓(xùn)練過的BERT-theseus模型中添加兩個(gè)組件:(1)添加特定任務(wù)層;(2)添加SS-GANs層來實(shí)現(xiàn)半監(jiān)督學(xué)習(xí)。本研究假定K類句子分類任務(wù),給定輸入句子s=(t1,t2,…,tn),其中開頭的t1為分類特殊標(biāo)記“[CLS]”,結(jié)尾的tn為句子分隔特殊標(biāo)記“[SEP]”,其余部分對輸入句子進(jìn)行切分后標(biāo)記序列輸入BERT模型后得到編碼向量序列為HBERT=(hCLS,ht1,…,htn,hSEP)。

    將生成器G生成的假樣本向量與真實(shí)無標(biāo)注數(shù)據(jù)輸入BERT-theseus中所提取的特征向量,分別輸入至判別器D中,利用對抗訓(xùn)練來不斷強(qiáng)化判別器D。與此同時(shí),利用少量標(biāo)注數(shù)據(jù)對判別器D進(jìn)行分類訓(xùn)練,從而進(jìn)一步提高模型整體質(zhì)量。

    其中,生成器G輸出服從正態(tài)分布的“噪聲”hfake,采用CNN網(wǎng)絡(luò),將輸出空間映射到樣本空間,記作hfake∈Rd。判別器D也為CNN網(wǎng)絡(luò),它在輸入中接收向量h*∈Rd,其中h*可以為真實(shí)標(biāo)注或者未標(biāo)注樣本hreal,也可以為生成器生成的假樣本數(shù)據(jù)hfake。在前向傳播階段,當(dāng)樣本為真實(shí)樣本時(shí),即h*=hreal,判別器D會(huì)將樣本分類在K類之中。當(dāng)樣本為假樣本時(shí),即h*=hfake,判別器D會(huì)把樣本相對應(yīng)的分類于K+1類別中。在此階段生成器G和判別器D的損失分別被記作LG和LD,訓(xùn)練過程中G和D通過相互博弈而優(yōu)化損失。

    在反向傳播中,未標(biāo)注樣本只增加LDunsup。標(biāo)注的真實(shí)樣本只會(huì)影響LDsup,在最后LG和LD都會(huì)受到G的影響,即當(dāng)D找不出生成樣本時(shí),將會(huì)受到懲罰,反之亦然。在更新D時(shí),改變BERT-theseus的權(quán)重來進(jìn)行微調(diào)。訓(xùn)練完成后,生成器G會(huì)被舍棄,同時(shí)保留完整的BERT-theseus模型與判別器D進(jìn)行分類任務(wù)的預(yù)測。

    3 實(shí) 驗(yàn)

    3.1 數(shù)據(jù)集設(shè)置

    本節(jié)驗(yàn)證了GT-BERT在不同數(shù)據(jù)集下文本分類的性能。分別在20 News Group(20N)、Stanford Sentiment Treebank(SST-5)、Movie Review sentiment classification data(MR)和TREC四個(gè)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)。具體數(shù)據(jù)集設(shè)置如表1所示。

    表1 數(shù)據(jù)集設(shè)置

    為了更好地研究模型在小樣本數(shù)據(jù)下的分類性能,并且避免抽取小樣本而帶來原有數(shù)據(jù)集類別分布失衡的情況發(fā)生,該文在保證實(shí)驗(yàn)數(shù)據(jù)集與原有數(shù)據(jù)集中各個(gè)數(shù)據(jù)類別比例相同的情況下,分別抽取數(shù)據(jù)集中2%、10%和50%的三組數(shù)據(jù)進(jìn)行訓(xùn)練,來對比不同數(shù)據(jù)量下各個(gè)模型的訓(xùn)練效果。此外,還為GT-BERT模型額外提供一組無標(biāo)簽數(shù)據(jù)(|U|=100|L|,其中|U|表示無標(biāo)簽數(shù)據(jù)量,|L|為有標(biāo)簽數(shù)據(jù)量)參與訓(xùn)練。針對特定的數(shù)據(jù)集,設(shè)定了該數(shù)據(jù)集常用的評(píng)價(jià)指標(biāo),即SST-5、TREC和MR數(shù)據(jù)集的評(píng)價(jià)指標(biāo)為準(zhǔn)確率(accuracy),20N數(shù)據(jù)集的評(píng)價(jià)指標(biāo)為F1值。

    3.2 Baseline設(shè)置

    將GT-BERT模型與目前較為先進(jìn)的文本分類模型進(jìn)行了對比實(shí)驗(yàn),對比模型分別為BERT、GAN-BERT、CNN、LSTM、RoBERTa、XLNet、ALBERT[25]、BERT-theseus[24]、GAN-Bt、GAN-DB、GAN-MB、GAN-TB。其中GAN-Bt、GAN-DB、GAN-MB和GAN-TB分別為將BERT-theseus、DistillBERT[26]、MobileBERT[27]和TinyBERT[23]壓縮模型放入半監(jiān)督GAN網(wǎng)絡(luò)的環(huán)境下進(jìn)行微調(diào)所得到的新模型。

    3.3 實(shí)驗(yàn)過程

    使用BERT-base作為訓(xùn)練起點(diǎn)。首先進(jìn)行壓縮,在模型壓縮中,采用漸進(jìn)式替換策略來改進(jìn)Bert-of-theseus方法中固定概率p的替換方法,后繼模塊替換前驅(qū)模塊概率pd會(huì)隨著時(shí)間增加:

    pd=min(1,φ(t))=min(1,kt+b)

    (13)

    其中,t為訓(xùn)練步長,k>0為系數(shù),b為基本替換概率。在壓縮的初始階段,當(dāng)φ(t)<1時(shí),替換模塊的數(shù)量是pd,n個(gè)后繼模塊的平均學(xué)習(xí)率為:

    (14)

    在擴(kuò)展階段,G和D都為CNN,激活函數(shù)為leaky-relu函數(shù)。G的輸出為噪聲,是由從服從N(0,1)中提取的噪聲向量通過CNN后變成的768維向量組成的。D也為一個(gè)CNN,隱藏層激活函數(shù)與D相同,在最后一層利用softmax進(jìn)行分類。在訓(xùn)練過程中epoch設(shè)置為4,學(xué)習(xí)率為2×10-5(20N數(shù)據(jù)集的學(xué)習(xí)率為5e-6),batch size為32,dropout設(shè)定為0.1,其他超參數(shù)和Devlin等人[8]設(shè)定的超參數(shù)一致。

    除去有特殊說明的情況外,最終每一個(gè)模型都在各個(gè)測試集上執(zhí)行5次獨(dú)立測試,并計(jì)算5次測試得到的平均值。

    3.4 結(jié)果與分析

    3.4.1 模型文本分類性能比較

    表2展示了各個(gè)模型在四種數(shù)據(jù)集上針對文本分類任務(wù)的性能對比。如表2所示:GT-BERT模型在20N數(shù)據(jù)集所有數(shù)據(jù)設(shè)置下以及其他數(shù)據(jù)集絕大部分情況下相比于其他模型都取得了最佳性能。

    表2 模型分類性能對比

    由表2可知,在使用較少的標(biāo)注數(shù)據(jù)時(shí),BERT模型與其他單獨(dú)的預(yù)訓(xùn)練模型的效果都不盡如人意,而GAN-BERT等其他將預(yù)訓(xùn)練模型放入半監(jiān)督環(huán)境下微調(diào)所得到的模型此時(shí)分類效果整體較為良好,尤其在使用50%的TREC數(shù)據(jù)集進(jìn)行訓(xùn)練,GAN-BERT模型取得了最優(yōu)效果。這證明將預(yù)訓(xùn)練語言模型放入半監(jiān)督生成對抗框架下利用額外的無標(biāo)注數(shù)據(jù)進(jìn)行微調(diào),能夠有效提升模型在低標(biāo)注數(shù)據(jù)量下的模型分類性能。

    該文著重對比了GT-BERT與BERT、GAN-BERT模型,在20N數(shù)據(jù)集、SST-5數(shù)據(jù)集和TREC數(shù)據(jù)集下,當(dāng)使用2%的數(shù)據(jù)進(jìn)行訓(xùn)練時(shí),BERT模型的F1值和準(zhǔn)確率分別僅為32.5%、25.1%和10.2%。而GT-BERT和GAN-BERT模型相對應(yīng)值分別為54.2%、36.2%、45.9%和51.0%、35.2%、45.6%,遠(yuǎn)高于BERT模型。因此,當(dāng)標(biāo)注數(shù)據(jù)使用量低時(shí),BERT模型的分類效果較差,與其他兩個(gè)模型的差距較大。隨著訓(xùn)練使用的標(biāo)注數(shù)據(jù)量的增加,三者分類性能隨之提升同時(shí)之間的差距逐漸縮小,但絕大多數(shù)情況下GT-BERT仍取得了最佳效果。尤其在20N與TREC數(shù)據(jù)集下,當(dāng)只采用數(shù)據(jù)集中2%的數(shù)據(jù)(約220條和109條數(shù)據(jù))訓(xùn)練時(shí),GT-BERT模型性能指標(biāo)分別為54.2%和45.9%。相較于BERT模型提升了21.7百分點(diǎn)和35.7百分點(diǎn)。這可能表明,當(dāng)涉及到大量類別時(shí),即當(dāng)分類任務(wù)越復(fù)雜時(shí),半監(jiān)督學(xué)習(xí)方法的提升效果越好。

    3.4.2 壓縮方法對比實(shí)驗(yàn)

    BERT-theseus與BERT在各個(gè)數(shù)據(jù)集下表現(xiàn)大致相似,但參數(shù)量卻降低一倍[24]。由表2可得:與其他將其他壓縮模型放入SS-GANs框架下微調(diào)后模型相比,GAN-Bt在各個(gè)數(shù)據(jù)集下都獲得了良好結(jié)果。與原始未經(jīng)壓縮的GAN-BERT相比,GAN-Bt在20N數(shù)據(jù)集下使用10%的數(shù)據(jù)時(shí),F(xiàn)1值為68.6%,在MR數(shù)據(jù)集下使用2%的數(shù)據(jù)時(shí),準(zhǔn)確率為65.6%,都略高于GAN-BERT模型,其他情況下兩者相似。因此,選用theseus方法對BERT進(jìn)行壓縮并放入SS-GANs的環(huán)境下進(jìn)行微調(diào)。

    3.4.3 生成器與判別器最佳配置選擇實(shí)驗(yàn)

    為了探究不同生成器和判別器對模型的影響并獲取最優(yōu)配置,針對不同的生成器判別器配置組合在四種數(shù)據(jù)集下進(jìn)行實(shí)驗(yàn),結(jié)果如表3所示。為了不增加模型整體參數(shù)規(guī)模與運(yùn)行時(shí)間,生成器與判別器選擇MLP、CNN和LSTM這三種傳統(tǒng)神經(jīng)網(wǎng)絡(luò)。表中GAN-Bt-MC表示GAN-Bt模型的生成器為MLP、判別器CNN,GAN-Bt-MM表示GAN-Bt模型的生成器、判別器均為MLP,其他模型的表示方式與此同理(GT-BERT模型中生成器和判別器皆為CNN。GAN-Bt模型生成器與判別器為MLP,為了實(shí)驗(yàn)對比方便明顯,在此表示為GAN-Bt-MM)。

    表3 不同生成器與判別器對模型的影響

    由表3可知,生成器與判別器都為CNN時(shí),模型在絕大多數(shù)數(shù)據(jù)集設(shè)置下取得了最優(yōu)性能。此外,當(dāng)判別器為CNN時(shí),各個(gè)模型取得了相對良好的結(jié)果。如GAN-Bt-MC在MR數(shù)據(jù)集下使用50%的數(shù)據(jù)時(shí),準(zhǔn)確率達(dá)到85.8%;GAN-Bt-LC在SST-5數(shù)據(jù)集與TREC數(shù)據(jù)集下,分別使用2%和10%的數(shù)據(jù)時(shí),各自性能指標(biāo)分別達(dá)到36.4%和73.2%。當(dāng)生成器為LSTM時(shí),各個(gè)模型取得了不錯(cuò)的訓(xùn)練結(jié)果,如GAN-Bt-LM在使用10%的20N數(shù)據(jù)集的情況下,F(xiàn)1值為70.8%;GAN-Bt-LL在TREC數(shù)據(jù)集使用率為2%時(shí),準(zhǔn)確率為46.2%。雖然當(dāng)僅考慮單獨(dú)的生成器或判別器時(shí),或許GAN-Bt-LC配置為最優(yōu)選擇,但整體而言GT-BERT性能仍遠(yuǎn)高于GAN-Bt-LC。原因可能為與CNN相比,LSTM參數(shù)較多、訓(xùn)練難度較大。實(shí)驗(yàn)中為了公平起見,該文對于生成器與判別器的更新頻率參數(shù)設(shè)置相同,這有可能導(dǎo)致GT-BERT模型最終結(jié)果最優(yōu)。因此,選擇生成器與判別器都為CNN作為最終模型的配置。

    3.4.4 模型參數(shù)規(guī)模與時(shí)間復(fù)雜度

    為了比較模型的參數(shù)規(guī)模,就目前幾種模型的層數(shù)與參數(shù)進(jìn)行了對比,見表4。

    由表4可以看到,新模型的參數(shù)規(guī)模相較于原始BERT模型以及未進(jìn)行壓縮的GAN-BERT模型有很大降低。BERT模型與GAN-BERT模型為120 M參數(shù),而GT-BERT模型參數(shù)僅有66 M大小。雖然ALBERT、TinyBERT和MobileBERT模型的參數(shù)規(guī)模較小,但各個(gè)數(shù)據(jù)集中分類性能較差,在標(biāo)記數(shù)據(jù)量小時(shí),不能很好地應(yīng)用于實(shí)際生產(chǎn)中。

    表4 模型參數(shù)規(guī)模對比

    圖4為在四個(gè)數(shù)據(jù)集下、使用10%的數(shù)據(jù)時(shí),各個(gè)模型之間文本預(yù)測時(shí)長的對比圖。由圖4可知,GT-BERT的預(yù)測耗時(shí)在不同數(shù)據(jù)集下都明顯小于其他模型。在SST-5數(shù)據(jù)集下,預(yù)測時(shí)間僅為48 s,其他模型中耗時(shí)最低的BERT為60 s,耗時(shí)最高的XLNet為80 s。

    圖4 模型預(yù)測時(shí)間對比

    由上述結(jié)果可以看出,在標(biāo)注數(shù)據(jù)量較低的小樣本數(shù)據(jù)集中,所提模型可以有效地利用無標(biāo)注數(shù)據(jù),提升模型的分類性能,同時(shí)降低模型的參數(shù)規(guī)模和時(shí)間復(fù)雜度。

    4 結(jié)束語

    該文提出了一種用于文本分類任務(wù)的GT-BERT模型。首先,使用theseus方法對BERT進(jìn)行壓縮,在不降低分類性能的前提下,有效降低了BERT的參數(shù)規(guī)模和時(shí)間復(fù)雜度。然后,引入SS-GAN框架改進(jìn)模型的訓(xùn)練方式,使BERT-theseus模型能有效利用無標(biāo)注數(shù)據(jù),并實(shí)驗(yàn)了多組生成器與判別器的組合方式,獲取了最優(yōu)的生成器判別器組合配置,進(jìn)一步提升了模型的分類性能。實(shí)驗(yàn)結(jié)果表明,提出的GT-BERT模型能夠有效利用無標(biāo)注數(shù)據(jù),降低了模型對標(biāo)注數(shù)據(jù)的依賴程度,在標(biāo)注數(shù)據(jù)量較小的數(shù)據(jù)集上的文本分類性能顯著高于其他模型,并且擁有較低的參數(shù)規(guī)模與時(shí)間復(fù)雜度。

    猜你喜歡
    后繼前驅(qū)分類
    分類算一算
    分類討論求坐標(biāo)
    數(shù)據(jù)分析中的分類討論
    教你一招:數(shù)的分類
    皮亞諾公理體系下的自然數(shù)運(yùn)算(一)
    湖南教育(2017年3期)2017-02-14 03:37:33
    SiBNC陶瓷纖維前驅(qū)體的結(jié)構(gòu)及流變性能
    甘岑后繼式演算系統(tǒng)與其自然演繹系統(tǒng)的比較
    濾子與濾子圖
    可溶性前驅(qū)體法制備ZrC粉末的研究進(jìn)展
    前驅(qū)體磷酸鐵中磷含量測定的不確定度評(píng)定
    久久精品久久久久久久性| 久久久久久久久久久丰满| 极品人妻少妇av视频| 女人久久www免费人成看片| 欧美97在线视频| 自线自在国产av| 亚洲四区av| 国产亚洲最大av| 日韩精品有码人妻一区| 一区二区三区精品91| 人人妻人人澡人人爽人人夜夜| 美女中出高潮动态图| 99热这里只有精品一区| 欧美日韩av久久| 91aial.com中文字幕在线观看| 亚洲第一区二区三区不卡| 国产探花极品一区二区| 99久久精品一区二区三区| 韩国av在线不卡| 王馨瑶露胸无遮挡在线观看| 爱豆传媒免费全集在线观看| 亚洲精品亚洲一区二区| 欧美人与善性xxx| 国产视频内射| 久久久国产一区二区| av有码第一页| 少妇猛男粗大的猛烈进出视频| 母亲3免费完整高清在线观看 | 日韩av在线免费看完整版不卡| 一级毛片aaaaaa免费看小| 妹子高潮喷水视频| 久久国产亚洲av麻豆专区| 久久97久久精品| 国产成人免费无遮挡视频| 国产成人精品婷婷| 亚洲国产av影院在线观看| 免费观看a级毛片全部| 在线天堂最新版资源| 少妇的逼水好多| 在线 av 中文字幕| 日日爽夜夜爽网站| 最近中文字幕高清免费大全6| 国产国拍精品亚洲av在线观看| 色吧在线观看| 哪个播放器可以免费观看大片| 亚洲美女黄色视频免费看| 国产精品成人在线| 三级国产精品欧美在线观看| 午夜福利,免费看| 亚洲av不卡在线观看| 国模一区二区三区四区视频| 国产成人aa在线观看| 精品久久久精品久久久| 亚洲高清免费不卡视频| 97在线视频观看| 男女高潮啪啪啪动态图| 色哟哟·www| 国产熟女午夜一区二区三区 | 久久久精品免费免费高清| 婷婷色av中文字幕| 大片免费播放器 马上看| 啦啦啦在线观看免费高清www| 久久久亚洲精品成人影院| 日本91视频免费播放| 午夜精品国产一区二区电影| 女性被躁到高潮视频| 中国国产av一级| 高清av免费在线| 中文精品一卡2卡3卡4更新| 国产精品成人在线| 亚洲av国产av综合av卡| 制服诱惑二区| 人妻夜夜爽99麻豆av| 久久鲁丝午夜福利片| 秋霞伦理黄片| av在线老鸭窝| 国产色婷婷99| a级毛色黄片| 大片免费播放器 马上看| 色视频在线一区二区三区| 国产熟女午夜一区二区三区 | 伦理电影大哥的女人| 建设人人有责人人尽责人人享有的| 久久综合国产亚洲精品| 又大又黄又爽视频免费| 精品熟女少妇av免费看| 伦精品一区二区三区| 精品99又大又爽又粗少妇毛片| 亚洲欧美一区二区三区国产| 最近中文字幕高清免费大全6| 国产男人的电影天堂91| 伊人亚洲综合成人网| 成年人免费黄色播放视频| 在线观看免费视频网站a站| 午夜激情福利司机影院| 久久精品久久精品一区二区三区| 18在线观看网站| 黄色一级大片看看| 精品人妻熟女毛片av久久网站| 熟女av电影| 香蕉精品网在线| 午夜激情av网站| 99九九在线精品视频| videossex国产| 亚洲国产精品成人久久小说| 蜜桃国产av成人99| 亚洲精品一区蜜桃| 99久国产av精品国产电影| 黑人高潮一二区| 18在线观看网站| 日日摸夜夜添夜夜添av毛片| 亚洲少妇的诱惑av| 免费日韩欧美在线观看| 日本午夜av视频| 看十八女毛片水多多多| 免费观看无遮挡的男女| 成人毛片a级毛片在线播放| 伊人久久精品亚洲午夜| 91精品三级在线观看| 久久久国产欧美日韩av| 久久人人爽人人片av| 观看美女的网站| 亚洲av男天堂| 国产一区二区三区av在线| 色5月婷婷丁香| 插阴视频在线观看视频| 97超视频在线观看视频| 色网站视频免费| 国产在线一区二区三区精| 美女国产高潮福利片在线看| 毛片一级片免费看久久久久| 午夜福利影视在线免费观看| 久久午夜福利片| 亚洲国产精品一区三区| 亚洲欧洲日产国产| 亚洲精品日韩av片在线观看| 日韩人妻高清精品专区| 又粗又硬又长又爽又黄的视频| 99热国产这里只有精品6| 日韩中字成人| 18禁裸乳无遮挡动漫免费视频| 国产国拍精品亚洲av在线观看| 久久久国产一区二区| 久久精品国产自在天天线| 草草在线视频免费看| 街头女战士在线观看网站| 天天操日日干夜夜撸| av.在线天堂| 精品国产一区二区三区久久久樱花| 全区人妻精品视频| 久久人妻熟女aⅴ| 男女啪啪激烈高潮av片| 免费久久久久久久精品成人欧美视频 | 国内精品宾馆在线| 亚洲国产毛片av蜜桃av| 日本-黄色视频高清免费观看| 一本—道久久a久久精品蜜桃钙片| 9色porny在线观看| 国产精品久久久久久精品电影小说| 亚洲国产毛片av蜜桃av| 男女免费视频国产| 男女高潮啪啪啪动态图| 国产精品久久久久成人av| 丝瓜视频免费看黄片| 国产在线免费精品| 亚洲美女视频黄频| 国内精品宾馆在线| 亚洲三级黄色毛片| 国产黄频视频在线观看| 在线观看国产h片| 一级黄片播放器| 18+在线观看网站| 亚洲av中文av极速乱| 夫妻午夜视频| 欧美3d第一页| 性高湖久久久久久久久免费观看| 欧美日韩成人在线一区二区| 亚洲av.av天堂| 看非洲黑人一级黄片| 日韩精品有码人妻一区| 精品国产乱码久久久久久小说| 国产免费福利视频在线观看| 久久久久久久久久成人| 国产高清三级在线| 少妇熟女欧美另类| 制服人妻中文乱码| 搡女人真爽免费视频火全软件| a级毛片在线看网站| 大香蕉久久成人网| 亚洲成人手机| 少妇被粗大的猛进出69影院 | av卡一久久| 国产精品一区www在线观看| 热99久久久久精品小说推荐| 视频在线观看一区二区三区| 最近中文字幕高清免费大全6| 纯流量卡能插随身wifi吗| videos熟女内射| 熟妇人妻不卡中文字幕| 国产精品一二三区在线看| 我要看黄色一级片免费的| 久久国产亚洲av麻豆专区| 久久久久久久久大av| 国产成人91sexporn| 观看av在线不卡| 一级毛片 在线播放| 搡女人真爽免费视频火全软件| 欧美另类一区| 午夜福利影视在线免费观看| 熟女人妻精品中文字幕| 亚洲人成网站在线播| 精品久久久噜噜| 国产欧美亚洲国产| 欧美激情 高清一区二区三区| 国产av码专区亚洲av| 亚洲国产av新网站| 18禁在线无遮挡免费观看视频| 三级国产精品片| 国产日韩欧美亚洲二区| 性高湖久久久久久久久免费观看| 国产极品天堂在线| 国产成人精品婷婷| 精品少妇久久久久久888优播| 欧美精品亚洲一区二区| 成年av动漫网址| 国产伦理片在线播放av一区| 交换朋友夫妻互换小说| 最新中文字幕久久久久| 久久午夜综合久久蜜桃| 秋霞在线观看毛片| av黄色大香蕉| 九草在线视频观看| 精品人妻偷拍中文字幕| 一本色道久久久久久精品综合| 精品少妇久久久久久888优播| 欧美日韩av久久| 精品一区二区三卡| 国产高清不卡午夜福利| 亚洲国产精品专区欧美| 亚洲欧美日韩卡通动漫| 中文字幕制服av| 久久久久久久久久久免费av| 精品人妻偷拍中文字幕| 777米奇影视久久| 国产免费一区二区三区四区乱码| av播播在线观看一区| 3wmmmm亚洲av在线观看| 国产高清有码在线观看视频| 丝袜脚勾引网站| 久久久久久久亚洲中文字幕| 久久久久久久久久久免费av| 五月伊人婷婷丁香| 久久ye,这里只有精品| av电影中文网址| 亚洲精品国产av蜜桃| 人人妻人人爽人人添夜夜欢视频| 亚洲国产精品一区二区三区在线| 亚洲精品日韩av片在线观看| 亚洲欧洲精品一区二区精品久久久 | 纯流量卡能插随身wifi吗| 高清视频免费观看一区二区| 91午夜精品亚洲一区二区三区| 日韩中文字幕视频在线看片| 成人无遮挡网站| 亚洲国产成人一精品久久久| 国产在线视频一区二区| 最新的欧美精品一区二区| 大片电影免费在线观看免费| 老司机影院成人| 国产亚洲av片在线观看秒播厂| 老司机影院毛片| 亚洲天堂av无毛| 亚洲欧洲精品一区二区精品久久久 | 色网站视频免费| 26uuu在线亚洲综合色| 欧美性感艳星| 国产乱来视频区| 国产不卡av网站在线观看| 这个男人来自地球电影免费观看 | 亚洲av成人精品一区久久| 欧美日韩一区二区视频在线观看视频在线| 日本av免费视频播放| 久久久精品94久久精品| 少妇人妻精品综合一区二区| 久久久欧美国产精品| 日韩人妻高清精品专区| 爱豆传媒免费全集在线观看| 嫩草影院入口| 精品亚洲成a人片在线观看| 免费av不卡在线播放| av福利片在线| 91精品国产国语对白视频| 国产69精品久久久久777片| 亚洲久久久国产精品| 91aial.com中文字幕在线观看| 久久午夜综合久久蜜桃| 51国产日韩欧美| 天天影视国产精品| 国产精品人妻久久久久久| 国产极品天堂在线| 日韩成人av中文字幕在线观看| 另类精品久久| 少妇被粗大的猛进出69影院 | 亚洲四区av| 一个人免费看片子| 日本黄色日本黄色录像| 制服诱惑二区| 丝袜美足系列| 91成人精品电影| 一级毛片黄色毛片免费观看视频| 人人妻人人澡人人看| 日本av手机在线免费观看| 国产日韩欧美视频二区| 亚洲人成网站在线观看播放| 免费人妻精品一区二区三区视频| 亚洲av.av天堂| 美女内射精品一级片tv| 丝袜在线中文字幕| 五月开心婷婷网| 中国三级夫妇交换| 日韩 亚洲 欧美在线| 熟女av电影| 91久久精品电影网| 最新的欧美精品一区二区| 中国三级夫妇交换| 老司机影院成人| 午夜福利视频在线观看免费| 亚洲成人av在线免费| 日本wwww免费看| 日韩免费高清中文字幕av| 丝袜喷水一区| 午夜福利在线观看免费完整高清在| 日韩中文字幕视频在线看片| 成年人午夜在线观看视频| 99久久精品一区二区三区| 久久久午夜欧美精品| 伦理电影免费视频| 国产精品嫩草影院av在线观看| 国产色婷婷99| 婷婷色麻豆天堂久久| 国产精品三级大全| 亚洲国产色片| 成年女人在线观看亚洲视频| 欧美精品一区二区大全| 国产高清有码在线观看视频| 国产精品久久久久久精品古装| 国产免费现黄频在线看| √禁漫天堂资源中文www| 嘟嘟电影网在线观看| 成人亚洲精品一区在线观看| 日韩精品有码人妻一区| 亚洲综合精品二区| 亚洲丝袜综合中文字幕| 边亲边吃奶的免费视频| 天堂8中文在线网| 午夜精品国产一区二区电影| www.色视频.com| 日韩中字成人| 国产成人a∨麻豆精品| 国产乱人偷精品视频| 久久久久久久久久久免费av| 中国三级夫妇交换| 精品人妻熟女av久视频| 成年人免费黄色播放视频| 26uuu在线亚洲综合色| 婷婷色综合www| 如何舔出高潮| 成年人免费黄色播放视频| 日本色播在线视频| 91久久精品国产一区二区成人| 精品人妻一区二区三区麻豆| 免费高清在线观看日韩| 啦啦啦在线观看免费高清www| 国产成人a∨麻豆精品| 下体分泌物呈黄色| 中文字幕人妻熟人妻熟丝袜美| 亚洲丝袜综合中文字幕| 高清午夜精品一区二区三区| av免费在线看不卡| 久久国产亚洲av麻豆专区| 高清毛片免费看| 日日摸夜夜添夜夜添av毛片| 免费观看a级毛片全部| av卡一久久| 欧美97在线视频| 亚洲精品亚洲一区二区| 青青草视频在线视频观看| 亚洲人成网站在线播| 久久女婷五月综合色啪小说| 国产男人的电影天堂91| 男人爽女人下面视频在线观看| 欧美变态另类bdsm刘玥| 亚洲精品自拍成人| 校园人妻丝袜中文字幕| 国产日韩欧美亚洲二区| 人妻夜夜爽99麻豆av| 黄片播放在线免费| 丝袜喷水一区| 亚洲精品视频女| 亚洲欧洲日产国产| 青春草国产在线视频| 国产成人freesex在线| 91国产中文字幕| 黄色毛片三级朝国网站| 久久久国产欧美日韩av| 满18在线观看网站| 男女高潮啪啪啪动态图| 国产成人aa在线观看| kizo精华| 如日韩欧美国产精品一区二区三区 | 国产成人freesex在线| 精品国产一区二区久久| 一本久久精品| 99久久精品一区二区三区| 欧美日韩成人在线一区二区| 国产成人免费无遮挡视频| 欧美精品高潮呻吟av久久| 18在线观看网站| 日日摸夜夜添夜夜爱| 一个人免费看片子| freevideosex欧美| 美女福利国产在线| 久久久a久久爽久久v久久| 亚洲精品视频女| av卡一久久| 免费少妇av软件| 国产精品偷伦视频观看了| 精品少妇内射三级| 中文字幕久久专区| 国产精品偷伦视频观看了| 在线观看免费高清a一片| 考比视频在线观看| 免费观看a级毛片全部| 一区二区三区乱码不卡18| 久久这里有精品视频免费| 午夜av观看不卡| 欧美日韩国产mv在线观看视频| 欧美97在线视频| 国产一区二区三区av在线| 午夜91福利影院| 国产淫语在线视频| 午夜av观看不卡| 国产老妇伦熟女老妇高清| 人妻一区二区av| 中文精品一卡2卡3卡4更新| 欧美日韩亚洲高清精品| 全区人妻精品视频| 人人澡人人妻人| 欧美精品高潮呻吟av久久| 免费观看a级毛片全部| 97精品久久久久久久久久精品| 97超碰精品成人国产| 爱豆传媒免费全集在线观看| 久久久久久久久久久丰满| 亚洲天堂av无毛| 熟女人妻精品中文字幕| av有码第一页| 成人影院久久| 精品视频人人做人人爽| 日韩不卡一区二区三区视频在线| 亚洲精品成人av观看孕妇| 国产精品久久久久久久电影| 男女国产视频网站| 九九爱精品视频在线观看| 91久久精品电影网| 国产免费视频播放在线视频| 国产伦理片在线播放av一区| 九色成人免费人妻av| 免费黄网站久久成人精品| 18在线观看网站| 中文字幕精品免费在线观看视频 | 国产淫语在线视频| 美女国产视频在线观看| 国产亚洲一区二区精品| 插逼视频在线观看| 亚洲国产精品一区三区| 成年av动漫网址| 免费高清在线观看视频在线观看| 久久韩国三级中文字幕| 国产日韩欧美在线精品| 99热国产这里只有精品6| 老司机影院成人| 久久av网站| 亚洲精品色激情综合| 香蕉精品网在线| av网站免费在线观看视频| 色视频在线一区二区三区| 久久久久久久久久成人| 久久国产精品男人的天堂亚洲 | 免费观看av网站的网址| 91精品伊人久久大香线蕉| 两个人免费观看高清视频| 精品国产乱码久久久久久小说| 久久久久国产精品人妻一区二区| 欧美xxⅹ黑人| 精品卡一卡二卡四卡免费| 国产免费现黄频在线看| 啦啦啦视频在线资源免费观看| 久久毛片免费看一区二区三区| 街头女战士在线观看网站| 在现免费观看毛片| 性高湖久久久久久久久免费观看| 99热网站在线观看| 免费看av在线观看网站| 成人毛片60女人毛片免费| 亚洲精品久久午夜乱码| 国产av一区二区精品久久| 一区二区av电影网| 免费看av在线观看网站| av网站免费在线观看视频| 91精品国产国语对白视频| 欧美人与善性xxx| 成人影院久久| 一级爰片在线观看| 一区二区av电影网| 国产亚洲一区二区精品| 亚洲精品aⅴ在线观看| 一区二区三区乱码不卡18| 欧美日本中文国产一区发布| 欧美国产精品一级二级三级| av在线老鸭窝| 亚洲欧美成人综合另类久久久| 国产精品一二三区在线看| 成人毛片60女人毛片免费| av国产久精品久网站免费入址| 亚洲久久久国产精品| 青春草亚洲视频在线观看| 人妻 亚洲 视频| 国产男人的电影天堂91| 内地一区二区视频在线| 欧美日韩视频精品一区| 九色亚洲精品在线播放| 国产免费福利视频在线观看| 最后的刺客免费高清国语| 黄色配什么色好看| 91久久精品国产一区二区三区| 日韩欧美一区视频在线观看| 少妇的逼好多水| 丝袜喷水一区| 国产欧美另类精品又又久久亚洲欧美| 国产一区有黄有色的免费视频| 一级毛片 在线播放| 久久久久久久大尺度免费视频| 国产精品 国内视频| 亚洲欧美清纯卡通| 国产精品一区二区在线观看99| 国产精品女同一区二区软件| 日韩一区二区视频免费看| 一本—道久久a久久精品蜜桃钙片| 熟妇人妻不卡中文字幕| 看非洲黑人一级黄片| 欧美亚洲日本最大视频资源| 婷婷色麻豆天堂久久| 亚洲欧美一区二区三区国产| 人妻夜夜爽99麻豆av| 欧美 亚洲 国产 日韩一| 人人妻人人澡人人爽人人夜夜| 亚洲精品久久午夜乱码| 中国美白少妇内射xxxbb| 国产精品欧美亚洲77777| 国产日韩欧美在线精品| 一级毛片 在线播放| 乱码一卡2卡4卡精品| 18禁裸乳无遮挡动漫免费视频| 亚洲精品乱码久久久v下载方式| 欧美日韩精品成人综合77777| 999精品在线视频| 午夜日本视频在线| 亚洲欧美一区二区三区国产| 欧美精品人与动牲交sv欧美| 亚洲av免费高清在线观看| 人体艺术视频欧美日本| 午夜老司机福利剧场| 久久久久久久久久人人人人人人| 男男h啪啪无遮挡| 国产精品一区二区三区四区免费观看| 中国国产av一级| 在线播放无遮挡| 久久久精品94久久精品| 中国美白少妇内射xxxbb| 观看美女的网站| 国产成人精品福利久久| 午夜福利视频精品| 人人妻人人澡人人爽人人夜夜| 嫩草影院入口| 国产男女超爽视频在线观看| 嫩草影院入口| 99视频精品全部免费 在线| 婷婷色综合www| 天堂中文最新版在线下载| 国产亚洲精品久久久com| 永久网站在线| 国产 精品1| 亚洲精品自拍成人| 亚洲精品成人av观看孕妇| 久久99精品国语久久久| 性色av一级| av福利片在线| 国产乱人偷精品视频| 99久久中文字幕三级久久日本| 国产亚洲精品第一综合不卡 | 国产探花极品一区二区| 久久午夜综合久久蜜桃| 中国美白少妇内射xxxbb| 成人影院久久| 欧美老熟妇乱子伦牲交| 综合色丁香网| 国产精品.久久久| 春色校园在线视频观看| 狠狠婷婷综合久久久久久88av| 一区二区三区乱码不卡18| 天堂中文最新版在线下载| 在线 av 中文字幕| 亚洲激情五月婷婷啪啪| 午夜激情福利司机影院|