• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于雙層數(shù)據(jù)增強(qiáng)的監(jiān)督對(duì)比學(xué)習(xí)文本分類模型

    2024-01-01 00:00:00吳量張方方程超宋詩楠
    關(guān)鍵詞:文本分類

    摘要:針對(duì)DoubleMix算法在數(shù)據(jù)增強(qiáng)時(shí)的非選擇性擴(kuò)充及訓(xùn)練方式的不足,提出一種基于雙層數(shù)據(jù)增強(qiáng)的監(jiān)督對(duì)比學(xué)習(xí)文本分類模型,有效提高了在訓(xùn)練數(shù)據(jù)稀缺時(shí)文本分類的準(zhǔn)確率。首先,對(duì)原始數(shù)據(jù)在輸入層進(jìn)行基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng),不考慮句子結(jié)構(gòu)的同時(shí)對(duì)數(shù)據(jù)進(jìn)行有選擇增強(qiáng);其次,在BERT隱藏層對(duì)原始數(shù)據(jù)與增強(qiáng)后的數(shù)據(jù)進(jìn)行插值,然后送入TextCNN進(jìn)一步提取特征;最后,使用Wasserstein距離和雙重對(duì)比損失對(duì)模型進(jìn)行訓(xùn)練,進(jìn)而提高文本分類的準(zhǔn)確率,對(duì)比實(shí)驗(yàn)結(jié)果表明,該方法在數(shù)據(jù)集SST-2,CR,TREC和PC上分類準(zhǔn)確率分別達(dá)93.41%,93.55%,97.61%和95.27%,優(yōu)于經(jīng)典算法.

    關(guān)鍵詞:數(shù)據(jù)增強(qiáng);文本分類;對(duì)比學(xué)習(xí);監(jiān)督學(xué)習(xí)

    中圖分類號(hào):TP39文獻(xiàn)標(biāo)志碼:A文章編號(hào):1671-5489(2024)05-1179-09

    Supervised Contrastive Learning Text Classification ModelBased on Double-Layer Data Augmentation

    WU Liang,ZHANGFangfang,CHENGChao,SONGShinan

    (College of Com puter Science and Engineering,Changchun University of Technology,Changchun 130012,China)

    Abstract:Aiming at the non-selective expansion and training deficiencies of the DoubleMix algorithm during data augmentation,we proposed a supervised contrastive learning text classification model based on double-layer data augmentation,which effectively improved the accuracy of text classification when training data was scarce.Firstly,keyword-based data augmentation was applied to the original data at the input layer,while selectively enhancing the data without considering sentence structure.Secondly,we interpolated the original and augmented data in the BERT hidden layers,and then send them to the TextCNN for further feature extraction.Finally,the model was trained by using Wasserstein distance and double contrastive loss to enhance text classification accuracy.The comparative experimental results on SST-2,CR,TREC,and PC datasets show that the classification accuracy of the proposed method is 93.41%,93.55%,97.61%,and 95.27%respectively,which is superior to classical algorithms.

    Keywords:dataaugmentation;textclassification;comparativelearning;supervised learning

    文本分類是自然語言處理(NLP)的基本任務(wù)之一,在新聞過濾、論文分類、情感分析等方面應(yīng)用廣泛2,深度學(xué)習(xí)模型在文本分類中已取得了巨大成功,其通常建立在大量高質(zhì)量的訓(xùn)練數(shù)據(jù)上,而這些數(shù)據(jù)在實(shí)際應(yīng)用中并不容易獲得,因此,為提高文本分類模型的泛化能力,當(dāng)訓(xùn)練數(shù)據(jù)有限時(shí),數(shù)據(jù)增強(qiáng)技術(shù)得到廣泛關(guān)注[3,文本分類要獲得較好的分類精度,好的特征表示和分類器的訓(xùn)練也至關(guān)重要[4].

    在自然語言處理領(lǐng)域中,存在標(biāo)記級(jí)別增強(qiáng)(token-level augment)、句子級(jí)別增強(qiáng)(sentence-level augment)、隱藏層增強(qiáng)(hidden-level augment)等類型[5].EDA6](easy data augmentation)是最常見的標(biāo)記級(jí)別數(shù)據(jù)增強(qiáng),通過對(duì)句子中的單詞進(jìn)行隨機(jī)替換、刪除、插入等操作實(shí)現(xiàn)數(shù)據(jù)增強(qiáng).句子級(jí)別的增強(qiáng)通過修改句子的語法或結(jié)構(gòu)實(shí)現(xiàn),最常見的是反向翻譯技術(shù),隱藏層數(shù)據(jù)增強(qiáng)的方法是基于對(duì)數(shù)據(jù)插值(interpolation)實(shí)現(xiàn)的,Mixup是最早出現(xiàn)的一種基于插值的增強(qiáng)方式,TMix(interpolation in textual hidden space)是在其基礎(chǔ)上發(fā)展的線性插值數(shù)據(jù)增強(qiáng)方式.Ssmix(saliency-based span mixup)是一種輸入級(jí)的混合插值方式.上述幾種插值方式都伴隨偽標(biāo)簽(softlabel)生成,會(huì)限制數(shù)據(jù)增強(qiáng)的有效性.DoubleMix5增強(qiáng)方法的提出避免了偽標(biāo)簽生成,首先利用EDA與回譯技術(shù)從原始數(shù)據(jù)中生成幾個(gè)擾動(dòng)樣本,然后在隱藏空間中混合擾動(dòng)樣本與原始樣本,最后采用JSD(Jensen-Shannon divergence)散度為正則項(xiàng)與交叉熵?fù)p失一起訓(xùn)練,但DoubleMix生成擾動(dòng)樣本的方式有的對(duì)句子結(jié)構(gòu)要求較高,有的對(duì)文本進(jìn)行非選擇性的補(bǔ)充。低資源條件下,會(huì)限制數(shù)據(jù)增強(qiáng)的有效性,且不易短時(shí)間生成大量高質(zhì)量的增強(qiáng)數(shù)據(jù),并且在訓(xùn)練時(shí)JSD散度會(huì)出現(xiàn)梯度為零的情況,交叉熵?fù)p失也存在噪聲等問題。

    針對(duì)上述問題,本文提出一種基于雙層數(shù)據(jù)增強(qiáng)(TDACL)的有監(jiān)督對(duì)比學(xué)習(xí)文本分類模型.首先,在輸入層對(duì)原始數(shù)據(jù)進(jìn)行基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng);其次,在BERT2編碼層中插值原始數(shù)據(jù)和輸入層增強(qiáng)后的數(shù)據(jù)以生成新的樣本特征表示,并將每一層的空間特征和分類器特征送到TextCNN[13]中進(jìn)一步提??;最后,利用Wasserstein距離和雙重對(duì)比損失DualCL4進(jìn)行訓(xùn)練.在公開的文本分類數(shù)據(jù)集上進(jìn)行多次重復(fù)實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,該模型能提升文本分類性能,尤其是在低資源情況下.

    1模型設(shè)計(jì)

    DoubleMix數(shù)據(jù)增強(qiáng)生成擾動(dòng)樣本的方式有EDA和回譯.EDA通過對(duì)句子中的單詞進(jìn)行隨機(jī)操作生成增強(qiáng)樣本,但其未考慮關(guān)鍵詞的作用,進(jìn)行操作時(shí)可能會(huì)刪掉關(guān)鍵詞,導(dǎo)致不理想的擴(kuò)充,回譯的方式也不宜在短時(shí)間內(nèi)獲得大量高質(zhì)量的樣本,且其在訓(xùn)練時(shí)JSD散度會(huì)出現(xiàn)梯度為零的情況,交叉熵?fù)p失也存在噪聲等問題,因此,本文提出一種基于雙層數(shù)據(jù)增強(qiáng)的有監(jiān)督對(duì)比學(xué)習(xí)文本分類模型,在輸入層進(jìn)行基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)。該方法不需要考慮句子的結(jié)構(gòu),能快速生成大量高質(zhì)量的樣本,有選擇地對(duì)樣本進(jìn)行擴(kuò)充,進(jìn)而提高數(shù)據(jù)增強(qiáng)的有效性;將樣本經(jīng)過BERT和TextCNN共同提取特征后,利用Wasserstein距離與雙重對(duì)比損失DualCL進(jìn)行訓(xùn)練,從而解決梯度消失問題,并最小化增強(qiáng)樣本與輸入樣本的差異,進(jìn)而學(xué)到更利于分類的特征表示,最終提高文本分類的準(zhǔn)確率.

    1.1模型的主要框架

    本文基于雙層數(shù)據(jù)增強(qiáng)的有監(jiān)督對(duì)比學(xué)習(xí)文本分類模型總體架構(gòu)如圖1所示.給定BERT語言模型和監(jiān)督數(shù)據(jù)集D,在數(shù)據(jù)集D上對(duì)BERT進(jìn)行微調(diào),以獲得D的多樣化特征表示,更適合下游分類任務(wù).下面首先介紹該方法的總體框架,然后描述輸入層和BERT編碼層的數(shù)據(jù)增強(qiáng)策略,最后結(jié)合雙重監(jiān)督對(duì)比損失和Wasserstein距離對(duì)模型進(jìn)行訓(xùn)練,本文模型框架主要由以下四部分組成:

    1)輸入層的數(shù)據(jù)增強(qiáng)模塊,通過對(duì)樣本進(jìn)行基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng),生成大量高質(zhì)量的樣本;

    2)一個(gè)共享的BERT編碼器,對(duì)原始樣本和增強(qiáng)的高質(zhì)量樣本進(jìn)行插值提高模型的魯棒性;

    3)TextCNN特征提取層,將BERT得到的向量表示輸入TextCNN進(jìn)行進(jìn)一步特征提取,得到更好的句子向量表示和特征向量表示;

    4)使用雙重對(duì)比度損失和Wasserstein距離對(duì)模型進(jìn)行訓(xùn)練,最小化原始數(shù)據(jù)和增強(qiáng)數(shù)據(jù)之間的

    1.2輸入層基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)方法

    基于輸入層關(guān)鍵詞操作的數(shù)據(jù)增強(qiáng)方法可在不考慮句子結(jié)構(gòu)的情況下,在短時(shí)間內(nèi)生成大量高質(zhì)量的樣本.EDA是一種簡單而有效的數(shù)據(jù)增強(qiáng)方法,該方法通過替換同義詞、刪除輸入、隨機(jī)替換和隨機(jī)插入生成增強(qiáng)的數(shù)據(jù).但EDA未考慮關(guān)鍵詞的作用,隨機(jī)刪除等操作會(huì)對(duì)增強(qiáng)后的文本產(chǎn)生很多不利影響.本文基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)方法,首先提取原始數(shù)據(jù)的關(guān)鍵詞,然后對(duì)數(shù)據(jù)進(jìn)行基于關(guān)鍵詞的增強(qiáng).

    KeyBERT提取關(guān)鍵詞的方法不需要針對(duì)特定的文檔集進(jìn)行培訓(xùn),也不依賴于文本大小、領(lǐng)域或語言,它使用BERT嵌入和余弦相似度在文本中找到與文本本身最相似的單詞或短語.因此,本文使用KeyBERT提取文本中的關(guān)鍵詞,并執(zhí)行基于關(guān)鍵詞的文本數(shù)據(jù)增強(qiáng).增強(qiáng)步驟為:首先利用BERT模型進(jìn)行文本嵌入,得到文本的表示形式;然后采用詞嵌入模型提取關(guān)鍵詞;最后使用余弦相似度查找與文本最相似的單詞作為樣本的關(guān)鍵詞.之后對(duì)文本進(jìn)行基于關(guān)鍵詞的增強(qiáng).基于關(guān)鍵詞的替換(KRE):選擇原句子中的n個(gè)關(guān)鍵詞,并將其替換為同義詞.基于關(guān)鍵詞的插入(KIN):根據(jù)原句子的長度比例選擇插入的單詞數(shù)量,在原文本的任意位置插入關(guān)鍵詞的同義詞.基于關(guān)鍵詞的交換(KSW):在句子中選擇n個(gè)關(guān)鍵詞,根據(jù)句子長度和概率交換它們的位置.基于關(guān)鍵詞的選擇(KSE):只選擇句子中的關(guān)鍵詞生成新句子.這種方法通過添加標(biāo)點(diǎn)使句子更自然.n的選擇由句子的長度l和超參數(shù)p定義,即n=p×l.p的強(qiáng)度可根據(jù)任務(wù)變化,本文設(shè)p=0.1.

    基于關(guān)鍵詞選擇的數(shù)據(jù)增強(qiáng)會(huì)生成不同的增強(qiáng)樣本,如圖2所示.KRE保證增強(qiáng)的原始語義不會(huì)改變.為確保增強(qiáng)后的數(shù)據(jù)不與原數(shù)據(jù)過于相似,KIN采用插入關(guān)鍵詞同義詞的方法.因?yàn)殛P(guān)鍵詞在文本分類的擬合中起決定性作用,KSE可被認(rèn)為是選擇性地過濾掉有噪聲的單詞,在對(duì)文本進(jìn)行分類時(shí)幫助學(xué)習(xí)最能代表文本特征的單詞.本文的關(guān)鍵詞提取算法是一種動(dòng)態(tài)算法,不需要將所有的訓(xùn)練數(shù)據(jù)和標(biāo)簽信息都投入到詞頻統(tǒng)計(jì)等計(jì)算中[15].本文方法具有提取關(guān)鍵詞速度快,并保證在短時(shí)間內(nèi)生成大量高質(zhì)量樣本的優(yōu)點(diǎn).

    1.3隱藏層數(shù)據(jù)增強(qiáng)

    在對(duì)數(shù)據(jù)進(jìn)行基于關(guān)鍵詞的增強(qiáng)后,將原始數(shù)據(jù)與增強(qiáng)后的數(shù)據(jù)在隱藏層進(jìn)行空間插值,實(shí)現(xiàn)隱藏層的數(shù)據(jù)增強(qiáng).不同于DoubleMix數(shù)據(jù)增強(qiáng)方式,本文將句子的標(biāo)簽與輸入拼接到一起送入到編碼器中(見圖1).例如,當(dāng)數(shù)據(jù)集的標(biāo)簽為“positive”和“negative”時(shí),拼接的輸入變成“[CLS]positive negative[SEP]I like this movie”.本文使用編碼樣本對(duì)應(yīng)標(biāo)簽的token值作為分類器特征.如果一個(gè)標(biāo)簽包含多個(gè)單詞,則將token特征的平均池化作為分類器特征6].這種處理方法便于后續(xù)提取空間特征和分類器特征,從而進(jìn)行有監(jiān)督對(duì)比學(xué)習(xí).

    實(shí)驗(yàn)結(jié)果表明,BERT編碼層的{9,10,12}層插值效果最好.將原始樣本與輸入層增強(qiáng)后的樣本送入編碼器,各編碼層之間共享參數(shù).采用Dirichlet分布進(jìn)行增強(qiáng)數(shù)據(jù)的權(quán)重組合.定義權(quán)重(w1,w2,··,wn)~Dir(a),在輸入層增強(qiáng)后的數(shù)據(jù)與原始數(shù)據(jù)在{9,10,12}層對(duì)其插值,得到插值后的增強(qiáng)表示(Haug)記為

    然后對(duì)第一步插值后的結(jié)果(Hm)與原始數(shù)據(jù)的隱藏狀態(tài)進(jìn)行權(quán)重服從Beta分步的方式進(jìn)行插值,插值后的結(jié)果為

    這種插入方式可保證原始的數(shù)據(jù)集占據(jù)主要地位,同時(shí)又混入增強(qiáng)的數(shù)據(jù)集,增強(qiáng)其擾動(dòng)性.

    1.4基于TextCNN的特征提取

    本文將BERT編碼層每層提取的樣本空間特征和分類器特征輸入TextCNN進(jìn)行進(jìn)一步處理.文獻(xiàn)[17]研究表明,在處理下游任務(wù)時(shí),直接從BERT獲得的最后一層的向量表示并不能給出最好的結(jié)果.BERT的編碼層越淺,句子的語義信息層次越低;層越深,表示的語義信息層次越高.TextCNN的核心思想是捕捉局部特征.TextCNN的優(yōu)勢(shì)是其可自動(dòng)組合并過濾N-gram特征,從而獲得不同抽象層次的語義信息.當(dāng)TextCNN應(yīng)用于文本分類任務(wù)時(shí),使用幾個(gè)不同大小的核提取句子中的關(guān)鍵信息,可以更好地捕捉本地相關(guān)性.處理后的空間特征包含語義特征和關(guān)鍵詞信息.

    本文從BERT的每個(gè)編碼器層(不包括第一層輸入)中提取樣本空間特征fcs和分類器特征fPos,fNEG(假設(shè)是二分類),并將其作為TextCNN的輸入進(jìn)行進(jìn)一步的特征提取.BERT可以更好地對(duì)模糊樣本進(jìn)行分類,而TextCNN可以更關(guān)注關(guān)鍵詞信息.因此,經(jīng)過兩步特征提取,本文獲得的空間特征包括句子的語義信息和關(guān)鍵詞信息,該方法還嘗試從編碼器的最后一層提取空間特征和分類器特征,但結(jié)果沒有每層都提取的結(jié)果好.

    1.5模型的訓(xùn)練

    將TextCNN提取到的fcts,fctsmix使用Wasserstein距離作一致正則項(xiàng),將空間特征fcus與分類器特征fPOS,fNEG使用雙重對(duì)比損失,一同對(duì)模型進(jìn)行訓(xùn)練.這樣可以解決梯度消失問題,并最小化增強(qiáng)樣本與輸入樣本的差異,雙重對(duì)比損失的加入可以更好地學(xué)習(xí)特征表示,服務(wù)于下游分類任務(wù).

    將經(jīng)過空間插值后獲得的樣本x1特征記為f1,f1為輸入樣本x1的一個(gè)錨點(diǎn),{Φ}∈c為正樣本集合,{Φ}j∈R/C為負(fù)樣本集合.關(guān)于空間特征的對(duì)比損失定義為

    同理,Φ為輸入樣本x1的一個(gè)錨點(diǎn),{f3}∈c為正樣本集合,{f1}∈R,c為負(fù)樣本集合.關(guān)于分類器參數(shù)的對(duì)比損失定義為

    為充分利用監(jiān)督信號(hào),交叉熵?fù)p失定義為

    在進(jìn)行隱藏空間的插值時(shí),為最小化原始數(shù)據(jù)與混合后增強(qiáng)數(shù)據(jù)之間的差異,并解決梯度消失問題,使用Wasserstein距離作為一致正則項(xiàng)與雙重對(duì)比損失和交叉熵?fù)p失一起訓(xùn)練.Wasserstein距離定義為

    其中I(P1,P2)為P1和P2分布組合所有可能的聯(lián)合分布的集合.對(duì)每個(gè)可能的聯(lián)合分布y,可以從中采樣(x,y)~y得到樣本x和y,并計(jì)算出這對(duì)樣本的距離‖x-y,所以可以計(jì)算該聯(lián)合分布y下,樣本對(duì)距離的期望值minE.~y(‖x-y‖).在所有可能的聯(lián)合分布中能對(duì)該期望值取得的下界即為Wasserstein距離.

    Wasserstein距離相比KL(Kullback-Leibler)散度和JSD散度的優(yōu)勢(shì):即使兩個(gè)分布的支撐集沒有重疊或重疊非常少,仍能反映兩個(gè)分布的遠(yuǎn)近.而JSD散度在這種情況下是常量,KL散度可能無意義,其定義為

    其中pa分別表示增強(qiáng)數(shù)據(jù)的概率和原始數(shù)據(jù)的預(yù)測(cè)概率.=(+m)因此總體提失函數(shù)為

    2實(shí)驗(yàn)

    2.1實(shí)驗(yàn)數(shù)據(jù)集

    為充分評(píng)估本文模型在文本分類任務(wù)中的性能,實(shí)驗(yàn)選擇不同大小的基準(zhǔn)數(shù)據(jù)集進(jìn)行驗(yàn)證.SST-2[8]是美國斯坦福大學(xué)情感分析電影評(píng)論數(shù)據(jù)集,可預(yù)測(cè)消極和積極情緒;數(shù)據(jù)集SUBJ將電影評(píng)論分為主觀評(píng)論和客觀評(píng)論;CR[20]是客戶評(píng)論數(shù)據(jù)集,其中評(píng)論被分類為積極和消極;數(shù)據(jù)集TREC21]是6個(gè)不同領(lǐng)域的六分類問題,包括描述、實(shí)體、縮寫、人、位置和數(shù)字.PC[22]是一個(gè)情緒數(shù)據(jù)集,包含了正反兩種情緒.各數(shù)據(jù)集的統(tǒng)計(jì)信息列于表1.

    2.2參數(shù)設(shè)置

    使用BERT-base-uncase作為微調(diào)模型,隱藏層尺寸為768維.考慮過濾器的大小會(huì)影響實(shí)驗(yàn)結(jié)果,本文將TextCNN過濾器的大小設(shè)為[2,3,4],使用二維卷積.隨機(jī)選取訓(xùn)練集的20%作為驗(yàn)證集.本文選取在測(cè)試集上的準(zhǔn)確率作為評(píng)價(jià)指標(biāo).實(shí)驗(yàn)使用的主要配置參數(shù)為Epoch=10,優(yōu)化器為Adam,最大層數(shù)設(shè)置為[9,10,12],β插值為0.75,基線模型學(xué)習(xí)率為1×106,分類器學(xué)習(xí)率為0.01,=0.5,=5,Batch_size=32.

    2.3對(duì)比基線

    將本文模型與BERT融合經(jīng)典數(shù)據(jù)增強(qiáng)分類方法和雙重對(duì)比學(xué)習(xí)文本分類方法進(jìn)行比較(配置設(shè)備和數(shù)據(jù)集均相同),以驗(yàn)證本文分類模型的有效性。

    BERT+CE2]:BERT模型被認(rèn)為是NLP里程碑式的進(jìn)步.BERT+DualCL14]:DualCL是一種雙對(duì)比度損失文本分類模型,利用標(biāo)記數(shù)據(jù)增強(qiáng),是一種有監(jiān)督的對(duì)比度損失.BERT+EDA+DualCL[6]:EDA是一種簡單的記號(hào)級(jí)數(shù)據(jù)擴(kuò)充方法,通過對(duì)原始樣本執(zhí)行同義詞替換、隨機(jī)插入、隨機(jī)刪除和隨機(jī)交換4種方式擴(kuò)充數(shù)據(jù).BERT+TMix+DualCL:挖掘未標(biāo)記數(shù)據(jù)與已標(biāo)記數(shù)據(jù)之間的隱藏關(guān)系,并將未標(biāo)記數(shù)據(jù)應(yīng)用于已標(biāo)記數(shù)據(jù)上,通過對(duì)隱藏空間中的不同訓(xùn)練樣本進(jìn)行線性插值,生成大量新的訓(xùn)練數(shù)據(jù).BERT+SSMix10]:在輸入層對(duì)原始樣本進(jìn)行增強(qiáng)運(yùn)算,而不是對(duì)隱藏空間中的隱藏向量進(jìn)行增強(qiáng)運(yùn)算;SSMix通過基于廣度的Mixup保持兩個(gè)原始文本的局部性,并根據(jù)顯著性信息保留更多與預(yù)測(cè)相關(guān)的標(biāo)記.BERT+DoubleMix+DualCL5]:一種簡單的基于插值的數(shù)據(jù)增強(qiáng)方法,首先將擾動(dòng)數(shù)據(jù)混合到合成樣本中,然后將原始數(shù)據(jù)與擾動(dòng)數(shù)據(jù)混合;DoubleMix通過學(xué)習(xí)隱藏空間中的“移位”特征增強(qiáng)模型的魯棒性.

    3實(shí)驗(yàn)結(jié)果分析

    在4種常用的文本分類任務(wù)數(shù)據(jù)集上評(píng)估本文方法,并展示在低資源場景下基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)性能.為更好地說明有監(jiān)督對(duì)比學(xué)習(xí)與數(shù)據(jù)增強(qiáng)的優(yōu)越性,本文驗(yàn)證了在低資源場景下分類的效果,并設(shè)計(jì)了消融實(shí)驗(yàn)驗(yàn)證各模塊的作用.

    3.1實(shí)驗(yàn)結(jié)果

    表2列出了本文分類模型與基線模型在4個(gè)文本分類數(shù)據(jù)集上的對(duì)比結(jié)果.本文還將其與常用的數(shù)據(jù)增強(qiáng)方法和雙重監(jiān)督對(duì)比損失結(jié)合訓(xùn)練進(jìn)行比較.由表2可見,雖然相對(duì)于僅用交叉熵?fù)p失訓(xùn)練的BERT,所有的文本增強(qiáng)方法都能提高準(zhǔn)確性,但本文模型的準(zhǔn)確率最高.與交叉熵訓(xùn)練的BERT模型相比,本文方法的平均改進(jìn)率為1.32%.引入雙重對(duì)比度損失可改善僅使用交叉熵訓(xùn)練的BERT模型魯棒性低的缺點(diǎn).與僅使用雙重對(duì)比損失訓(xùn)練相比,本文方法的平均改良率為0.76%.這是因?yàn)樵趯?duì)樣本進(jìn)行雙層數(shù)據(jù)增強(qiáng)后,增加了樣本的多樣性.通過BERT和TextCNN的共同抽取,可得到更有利于文本分類的句子向量和特征向量.與DoubleMix算法相比,本文方法的平均改善率為0.70%.基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)生成擾動(dòng)樣本的方式對(duì)文本進(jìn)行選擇性的補(bǔ)充,以保證生成樣本的質(zhì)量.使用雙重對(duì)比度損失和Wasserstein距離對(duì)模型進(jìn)行訓(xùn)練,在保證梯度不消失的情況下最小化原始數(shù)據(jù)與增強(qiáng)數(shù)據(jù)之間的差距,使提取的特征表示更緊湊,更有利于文本分類任務(wù).

    為考察本文方法是否能產(chǎn)生更好的特征表示,使用DoubleMix與本文方法進(jìn)行訓(xùn)練,在PC訓(xùn)練數(shù)據(jù)集(N=12000)上繪制了學(xué)習(xí)表征的tSNE圖,如圖3所示.由圖3可見,本文方法可以學(xué)習(xí)到的

    3.2基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)性能分析

    為驗(yàn)證基于關(guān)鍵詞數(shù)據(jù)增強(qiáng)方法的有效性,對(duì)低資源條件下基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)的文本分類性能進(jìn)行評(píng)估.基線是無數(shù)據(jù)增強(qiáng)、EDA方法和STA數(shù)據(jù)增強(qiáng)方法.數(shù)據(jù)集為SST-2,CR和SUBJ,樣本數(shù)量N=100.使用DistilBERT-base,從BERT中提取的輕量級(jí)轉(zhuǎn)換器模型作為文本分類器的主干.圖4為不同算法在低資源場景下對(duì)不同數(shù)據(jù)集的測(cè)試精度.由圖4可見,在數(shù)據(jù)量相對(duì)少的情況下,本文算法比基于token級(jí)別的數(shù)據(jù)增強(qiáng)算法平均準(zhǔn)確率提高了0.8個(gè)百分點(diǎn).由于EDA在擴(kuò)充句子時(shí)未考慮關(guān)鍵詞的影響,可能會(huì)刪除與分類任務(wù)相關(guān)的關(guān)鍵詞信息.STA基于4個(gè)角色詞擴(kuò)展數(shù)據(jù),為使用靜態(tài)提取關(guān)鍵詞的算法,因此提取角色詞所用的時(shí)間較長,不易在短時(shí)間內(nèi)生成大量樣本.表3列出了本文算法提取關(guān)鍵詞和STA提取角色詞在不同數(shù)據(jù)集上所用的時(shí)間.由表3可見,本文方法在保證分類結(jié)果基本一致的情況下,提取關(guān)鍵詞的時(shí)間較短.

    3.3低資源條件下性能分析

    為證明本文模型在低資源場景下可以取得更好的效果,實(shí)驗(yàn)選擇SST-2,CR和PC3個(gè)數(shù)據(jù)集進(jìn)行驗(yàn)證.分類數(shù)據(jù)大小分別為N=100和N=500.表4列出了低資源場景下不同算法在數(shù)據(jù)集CR上的測(cè)試精度.由表4可見,本文算法優(yōu)于BERT+Dual和BERT+DualCL+DoubleMix.圖5為不同算法在數(shù)據(jù)集CR上當(dāng)N={10,20,30,40,50,60,70,80,90,100}時(shí)分類準(zhǔn)確率的折線圖.由圖5可見,隨著輸入樣本數(shù)量的增加,本文算法分類準(zhǔn)確率始終是最高的.當(dāng)數(shù)據(jù)增強(qiáng)量達(dá)到500后,其分類準(zhǔn)確率提高速度緩慢,因此,將數(shù)據(jù)增強(qiáng)服務(wù)于有監(jiān)督對(duì)比學(xué)習(xí)可有效提高低資源條件下文本分類任務(wù)的準(zhǔn)確率.

    3.4消融實(shí)驗(yàn)

    為驗(yàn)證每個(gè)模塊都能對(duì)本文模型發(fā)揮作用,本文進(jìn)行了消融實(shí)驗(yàn).實(shí)驗(yàn)在數(shù)據(jù)集SST-2上進(jìn)行.實(shí)驗(yàn)設(shè)置:無輸入層基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng),無TextCNN特征提取,無隱藏層插值(訓(xùn)練時(shí)不使用Wasserstein距離),訓(xùn)練時(shí)不加入雙重對(duì)比損失.實(shí)驗(yàn)結(jié)果列于表5.

    由表5可見,改變實(shí)驗(yàn)策略后,模型性能有所下降,表明模型的每一部分模塊都影響模型的訓(xùn)練結(jié)果.首先移除輸入層數(shù)據(jù)增強(qiáng)模塊,即使用原始數(shù)據(jù)本身在隱藏層進(jìn)行插值增強(qiáng),模型的分類準(zhǔn)確率下降0.86個(gè)百分點(diǎn).然后,去掉TextCNN信息提取模塊,此時(shí)分類準(zhǔn)確率下降0.71個(gè)百分點(diǎn),結(jié)果表明,與直接使用BERT向量表示相比,將得到的每一層的向量表示饋送到TextCNN中會(huì)有積極效果,模型訓(xùn)練時(shí)不使用隱藏層插值(無Wasserstein距離)及訓(xùn)練時(shí)不加入雙重對(duì)比損失,平均準(zhǔn)確率降低1.45個(gè)百分點(diǎn).因此,模型中每個(gè)模塊在文本分類任務(wù)中都具有積極作用.

    綜上所述,針對(duì)DoubleMix現(xiàn)有算法存在的問題,本文提出了一種基于雙層數(shù)據(jù)增強(qiáng)的監(jiān)督對(duì)比文本分類模型.該方法通過基于關(guān)鍵詞的數(shù)據(jù)增強(qiáng)對(duì)數(shù)據(jù)進(jìn)行更有效、簡便地?cái)U(kuò)充,并使用新的訓(xùn)練方式提取到更利于文本分類的特征表示,在常用的文本分類數(shù)據(jù)集上進(jìn)行驗(yàn)證,實(shí)驗(yàn)結(jié)果表明該方法能在提高樣本多樣性的同時(shí)學(xué)習(xí)到緊湊的特征表示,最終提高文本分類的準(zhǔn)確率,尤其是低資源情況下的文本分類.消融實(shí)驗(yàn)也說明了模型的每一部分都起到了積極作用.因此,該模型通過對(duì)數(shù)據(jù)進(jìn)行有效地?cái)?shù)據(jù)增強(qiáng)并對(duì)模型更好地訓(xùn)練,有效提高了模型的分類能力.

    參考文獻(xiàn)

    [1]高云龍,吳川,朱明,基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的短文本分類模型[J].,2020,58(4):923-930.(GAO Y L,WU C,ZHU M.Short Text Classification Model Based on Improved Convolutional Neural Network[J].Journal of Jilin University(Sicence Edition),2020,58(4):923-930.)

    [2]王進(jìn),徐巍,丁一,等,基于圖嵌入和區(qū)域注意力的多標(biāo)簽文本分類[J],江蘇大學(xué)學(xué)報(bào)(自然科學(xué)版),2022,43(3):310-318.(WANG J,XU W,DING Y,etal.Multi-label Text Classification Based on Graph Embeddingand Regional Attention[J].Journal of Jiangsu University(Natural Science Edition),2022,43(3):310-318.)

    [3]車穎,馮皛,鄭宏亮,基于卷積神經(jīng)網(wǎng)絡(luò)的超聲造影圖像去噪方法[1].,2021,59(5);1256-1259.(CHE Y,F(xiàn)ENG X,ZHENG H L,Ultrasonography Image Denoising Method Based on Convolutional Neural Network[J].Journal of Jilin University(Science Edition),2021,59(5):1256-1259.)

    [4]王進(jìn),陳重元,鄧欣,等,多狀態(tài)圖神經(jīng)網(wǎng)絡(luò)文本分類算法[J].重慶郵電大學(xué)學(xué)報(bào)(自然科學(xué)版),2023,35(2):193-201.(WANG J,CHEN C Y,DENG X,etal.Multi-state Graph Neural Network Text ClassificationAlgorithm[J].Journal of Chongqing University of Postsamp;Telecommunications Natural Science Edition).2023,35(2):193-201.)

    [5]CHEN H,HAN W,YANG D Y,etal.DoubleMix:Simple Interpolation-Based Data Augmentation for Text Classification[C]//Proceedings of the 29th International Conference on Computational Linguistics.[S.1.]ACL.2022:4622-4632.

    [6]WEI J,ZOU K.EDA:Easy Data Augmentation Techniques for Boosting Performance on Text Classification Tasks[C]/Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing.[S.1.]:ACL,2019:6382-6388.

    [7]SERGEY E,MYLE O,MICHAEL A,etal.Understanding Back-Translation at Scale[C]//Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing.[S.1.]:ACL,2018:489-500.

    [8]YIN W P.WANG H,QU J,etal.BatchMixup:Improving Training by Interpolating Hidden States of the EntireMini-batch[C]//Findings of the Association for Computational Linguistics.[S.1.]:ACL,2021:4908-4912.

    [9]CHEN J A,YANG Z C,YANG D Y.MixText:Linguistically-Informed Interpolation of Hidden Space for Semi-supervised Text Classification[C]//Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics.[S.1.]:ACL,2020:2147-2157.

    [10]YOON S Y,KIM G,PARK K.SSMix:Saliency-Based Span Mixup for Text Classification[C]//Findings of the Association for Computational Linguistics.[S.1.]:ACL,2021:3225-3234.

    [11]ZHANG Z L,MERT R S.Generalized Cross Entropy Loss for Training Deep Neural Networks with Noisy Labels[EB/OL].(2018-05-20)[2023-02-10].https:/arxiv.org/abs/1805.07836.

    [12]JACOB D,CHANG M W,KENTON L,etal.BERT:Pre-training of Deep Bidirectional Transformers for Language Understanding[C]//Proceedings of the 2019 Conference of the North American Chapter of theAssociation for Computational Linguistics:Human Language Technologies.[S.1.]:ACL,2019:4171-4186.

    [13]YOONK.Convolutional Neural Networks for Sentence Classification[C]//Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing(EMNLP).[S.1.]:ACL,2014:1746-1751.

    [14]CHEN Q B,ZHANG R C,ZHENG Y W,etal.Dual Contrastive Learning:Text Classification via Label-Aware Data Augmentation[EB/OL].(2022-01-21)[2023-02-10].https://arxiv.org/abs/2201.08702.

    [15]GUO B Y,HAN S Q,HUANG H L.Selective Text Augmentation with Word Roles for Low-Resource Text Classification[EB/OL].(2022-09-04)[2023-01-01].https://arxiv.org/abs/2209.01560.

    [16]XIONG Y J,F(xiàn)ENG Y K,WU H,etal.Fusing Label Embedding into BERT:An Efficient Improvement for TextClassification[C]//Findings of the Association for Computational Linguistics.[S.1.]:ACL,2021:1743-1750.

    [17]GANESH J,BENOIT S,DJAME S.What Does BERT Learn about the Structure of Language[C]//Proceedingsof the 57th Annual Meeting of the Association for Computational Linguistics.[S.1.]:ACL,2019:3651-3657.

    [18]RICHARD S,JOHN B,CHRISTOPHER D,etal.Parsing with Compositional Vector Grammars[C]//Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics.[S.1.]ACL,2013:455-465.

    [19]BO P,LILLIANA.SentimentalEducation:Sentiment Analysis Using Subjectivity Summarization Based on Minimum Cuts[C]//Proceedings of the 42nd Annual Meeting of the Association for Computational Linguistics.[S.1.]:ACL,2004:271-278.

    [20]DING X W,LIU B,YU P S.A Holistic Lexicon-Based Approach to Opinion Mining[C]//Proceedings of the 2008 International Conference on Web Search and Data Mining.New York:ACM,2008:231-240.

    [21]LI X,ROTHD.Learning Question Classifiers[C]//The 19th International Conference on Computational Linguistics.New York:ACM,2022:1-7.

    [22]MURTHY G,LIU B.Mining Opinions in Comparative Sentences[C]//Proceedings of the 22nd InternationalConference on Computational Linguistics.[S.1.]ACL.2008:241-248.

    (責(zé)任編輯:韓嘯)

    猜你喜歡
    文本分類
    基于樸素貝葉斯的Web文本分類及其應(yīng)用
    基于組合分類算法的源代碼注釋質(zhì)量評(píng)估方法
    基于貝葉斯分類器的中文文本分類
    基于蟻群智能算法的研究文本分類
    基于樸素貝葉斯分類的Java課程網(wǎng)絡(luò)答疑反饋系統(tǒng)
    基于K—means算法的文本分類技術(shù)研究
    文本分類算法在山東女子學(xué)院檔案管理的應(yīng)用
    科技視界(2016年24期)2016-10-11 09:36:57
    不同情境下中文文本分類模型的表現(xiàn)及選擇
    基于內(nèi)容的英語錄音教材標(biāo)注研究與應(yīng)用
    多核SVM文本分類研究
    軟件(2015年5期)2015-08-22 08:02:45
    听说在线观看完整版免费高清| 叶爱在线成人免费视频播放| 禁无遮挡网站| 91国产中文字幕| www国产在线视频色| 中文字幕av电影在线播放| 熟女电影av网| 国产野战对白在线观看| 精品国产乱码久久久久久男人| 欧美成狂野欧美在线观看| 国产成人欧美在线观看| 午夜日韩欧美国产| 老熟妇仑乱视频hdxx| 欧美午夜高清在线| 日日干狠狠操夜夜爽| 国产日本99.免费观看| 夜夜躁狠狠躁天天躁| 日韩精品中文字幕看吧| 18禁观看日本| 女性生殖器流出的白浆| 国产成人影院久久av| 一卡2卡三卡四卡精品乱码亚洲| 精品国产国语对白av| 久久久久久九九精品二区国产 | 欧美黑人巨大hd| 欧美黄色淫秽网站| 亚洲一区二区三区不卡视频| 午夜福利18| 亚洲人成77777在线视频| 中文字幕人妻熟女乱码| 亚洲在线自拍视频| 久久久久久免费高清国产稀缺| 国产精品久久久人人做人人爽| 精品免费久久久久久久清纯| 熟女少妇亚洲综合色aaa.| 又黄又粗又硬又大视频| 啦啦啦免费观看视频1| 香蕉丝袜av| 亚洲欧美激情综合另类| 黑人操中国人逼视频| 日本免费一区二区三区高清不卡| 99在线人妻在线中文字幕| 亚洲七黄色美女视频| 日本一区二区免费在线视频| 在线播放国产精品三级| av电影中文网址| 成人国产综合亚洲| 欧美激情久久久久久爽电影| 亚洲五月色婷婷综合| 老汉色∧v一级毛片| 婷婷精品国产亚洲av在线| 国产av一区二区精品久久| 在线免费观看的www视频| 岛国视频午夜一区免费看| 国产一区二区在线av高清观看| 丝袜美腿诱惑在线| 人成视频在线观看免费观看| 香蕉国产在线看| 精品一区二区三区四区五区乱码| √禁漫天堂资源中文www| 黑人欧美特级aaaaaa片| 一级毛片女人18水好多| 久久精品国产综合久久久| 国产精品国产高清国产av| 欧美三级亚洲精品| 日韩成人在线观看一区二区三区| 亚洲精品色激情综合| 两个人视频免费观看高清| 在线观看日韩欧美| 男男h啪啪无遮挡| 99久久久亚洲精品蜜臀av| 日本 av在线| 免费在线观看完整版高清| 琪琪午夜伦伦电影理论片6080| 色综合亚洲欧美另类图片| av欧美777| 我的亚洲天堂| 久久久久国产一级毛片高清牌| 两人在一起打扑克的视频| 特大巨黑吊av在线直播 | 此物有八面人人有两片| 美女大奶头视频| 美女高潮喷水抽搐中文字幕| 欧美日韩乱码在线| 中亚洲国语对白在线视频| 88av欧美| 日本免费一区二区三区高清不卡| 99热只有精品国产| 欧美黑人巨大hd| 麻豆成人午夜福利视频| 精品日产1卡2卡| 91在线观看av| 亚洲专区中文字幕在线| 十八禁网站免费在线| 夜夜爽天天搞| 一进一出抽搐动态| 老司机午夜福利在线观看视频| 国内久久婷婷六月综合欲色啪| 精品国产乱子伦一区二区三区| 亚洲一区二区三区不卡视频| 在线观看www视频免费| 最好的美女福利视频网| 欧美午夜高清在线| 国产精品久久久久久人妻精品电影| 成年免费大片在线观看| 色av中文字幕| 精品高清国产在线一区| 欧美日韩精品网址| 日韩精品青青久久久久久| 他把我摸到了高潮在线观看| 黄色视频,在线免费观看| 高清毛片免费观看视频网站| 亚洲一区高清亚洲精品| 国产精品电影一区二区三区| 欧美成人午夜精品| 国产精品久久久av美女十八| 琪琪午夜伦伦电影理论片6080| e午夜精品久久久久久久| 人人妻人人看人人澡| 自线自在国产av| 90打野战视频偷拍视频| 国产亚洲欧美精品永久| 757午夜福利合集在线观看| 国产亚洲精品久久久久久毛片| 国产精品久久久久久亚洲av鲁大| 免费电影在线观看免费观看| 人成视频在线观看免费观看| 国产亚洲欧美98| 亚洲av中文字字幕乱码综合 | 国产精品香港三级国产av潘金莲| 天堂动漫精品| 日韩视频一区二区在线观看| 两性夫妻黄色片| 午夜成年电影在线免费观看| 欧美乱码精品一区二区三区| 麻豆久久精品国产亚洲av| 亚洲片人在线观看| 日韩视频一区二区在线观看| 亚洲色图 男人天堂 中文字幕| 熟女少妇亚洲综合色aaa.| 亚洲av片天天在线观看| 国产一级毛片七仙女欲春2 | 欧美丝袜亚洲另类 | 午夜福利18| 亚洲av熟女| 色av中文字幕| ponron亚洲| 黄色视频,在线免费观看| 老司机福利观看| 亚洲五月色婷婷综合| 在线天堂中文资源库| 欧美色欧美亚洲另类二区| www日本在线高清视频| 欧美黑人精品巨大| 国产真实乱freesex| 亚洲av成人一区二区三| 国产精品久久久人人做人人爽| 1024手机看黄色片| 熟妇人妻久久中文字幕3abv| 99热只有精品国产| 久久精品国产99精品国产亚洲性色| 亚洲一区中文字幕在线| 丰满的人妻完整版| 精品免费久久久久久久清纯| 国产极品粉嫩免费观看在线| 国产单亲对白刺激| 亚洲第一电影网av| 亚洲国产日韩欧美精品在线观看 | 亚洲欧美日韩无卡精品| 男女床上黄色一级片免费看| 老鸭窝网址在线观看| 国产麻豆成人av免费视频| 黄片播放在线免费| 变态另类成人亚洲欧美熟女| 精品国产一区二区三区四区第35| 俄罗斯特黄特色一大片| 日韩有码中文字幕| 成人一区二区视频在线观看| 国产视频一区二区在线看| 久久亚洲精品不卡| а√天堂www在线а√下载| 亚洲第一欧美日韩一区二区三区| 久久久久免费精品人妻一区二区 | 免费看美女性在线毛片视频| 精品熟女少妇八av免费久了| 国产99久久九九免费精品| 日韩欧美 国产精品| 亚洲,欧美精品.| 十八禁人妻一区二区| 精品久久久久久成人av| 啦啦啦韩国在线观看视频| 国内久久婷婷六月综合欲色啪| 精品久久久久久久人妻蜜臀av| 亚洲va日本ⅴa欧美va伊人久久| 999精品在线视频| 亚洲精品美女久久久久99蜜臀| 国产高清有码在线观看视频 | 久久香蕉国产精品| 麻豆成人午夜福利视频| 亚洲天堂国产精品一区在线| 欧美日韩黄片免| 国产精品一区二区三区四区久久 | 黄色a级毛片大全视频| 国产视频一区二区在线看| 少妇被粗大的猛进出69影院| 欧美成人一区二区免费高清观看 | 久久99热这里只有精品18| 精品乱码久久久久久99久播| 精品国产一区二区三区四区第35| 丝袜美腿诱惑在线| 18禁黄网站禁片午夜丰满| 亚洲av中文字字幕乱码综合 | 国内毛片毛片毛片毛片毛片| 色av中文字幕| 欧美精品亚洲一区二区| 日本免费一区二区三区高清不卡| 国产精品,欧美在线| 免费观看人在逋| aaaaa片日本免费| 精品高清国产在线一区| 亚洲全国av大片| 免费高清视频大片| 国产精华一区二区三区| 精品久久久久久久久久免费视频| 国产午夜福利久久久久久| 长腿黑丝高跟| 日韩有码中文字幕| 久久精品国产综合久久久| 久久人人精品亚洲av| 制服丝袜大香蕉在线| 人妻丰满熟妇av一区二区三区| 久久国产精品影院| 午夜福利欧美成人| 色播亚洲综合网| √禁漫天堂资源中文www| 不卡一级毛片| 麻豆av在线久日| 久久国产精品人妻蜜桃| 精品国产亚洲在线| 日韩 欧美 亚洲 中文字幕| 丝袜美腿诱惑在线| 97超级碰碰碰精品色视频在线观看| 亚洲欧洲精品一区二区精品久久久| 国产精品国产高清国产av| 日韩成人在线观看一区二区三区| 男女之事视频高清在线观看| 美女扒开内裤让男人捅视频| 国产乱人伦免费视频| 欧美黑人欧美精品刺激| 国产av一区在线观看免费| 国产亚洲精品第一综合不卡| 国产熟女午夜一区二区三区| 亚洲色图av天堂| 成人亚洲精品一区在线观看| 亚洲人成网站高清观看| 国产主播在线观看一区二区| 亚洲成国产人片在线观看| 亚洲精品国产区一区二| 视频在线观看一区二区三区| 欧美绝顶高潮抽搐喷水| 亚洲av日韩精品久久久久久密| 日本三级黄在线观看| 日韩精品青青久久久久久| 午夜免费激情av| 超碰成人久久| 国产精品自产拍在线观看55亚洲| 国产精品电影一区二区三区| 深夜精品福利| 精品第一国产精品| av欧美777| 非洲黑人性xxxx精品又粗又长| 在线观看免费视频日本深夜| 51午夜福利影视在线观看| 精品第一国产精品| 久久精品国产亚洲av香蕉五月| aaaaa片日本免费| 在线观看www视频免费| 亚洲aⅴ乱码一区二区在线播放 | 亚洲 欧美 日韩 在线 免费| 成人午夜高清在线视频 | 亚洲av第一区精品v没综合| 欧美最黄视频在线播放免费| 久久狼人影院| 亚洲黑人精品在线| 精品久久久久久久久久久久久 | 国产亚洲精品第一综合不卡| 国产一区二区在线av高清观看| 国产精品美女特级片免费视频播放器 | 国产v大片淫在线免费观看| 一本综合久久免费| 男人舔女人下体高潮全视频| 国产色视频综合| 热re99久久国产66热| 久久久久久久久久黄片| 亚洲avbb在线观看| 亚洲国产看品久久| 国产精品亚洲av一区麻豆| 国产爱豆传媒在线观看 | 熟女少妇亚洲综合色aaa.| 亚洲 国产 在线| a级毛片在线看网站| 中文资源天堂在线| 午夜福利免费观看在线| 亚洲在线自拍视频| 日韩欧美一区视频在线观看| 国产精品亚洲av一区麻豆| 午夜福利高清视频| 制服诱惑二区| 国产视频一区二区在线看| 少妇裸体淫交视频免费看高清 | 国产伦一二天堂av在线观看| 天堂动漫精品| 亚洲人成网站高清观看| 91麻豆精品激情在线观看国产| 欧美另类亚洲清纯唯美| 久久国产精品男人的天堂亚洲| 操出白浆在线播放| 丝袜在线中文字幕| 色精品久久人妻99蜜桃| 亚洲va日本ⅴa欧美va伊人久久| 亚洲精品国产精品久久久不卡| 两个人看的免费小视频| 少妇被粗大的猛进出69影院| 成熟少妇高潮喷水视频| 亚洲国产毛片av蜜桃av| 欧美一级毛片孕妇| 97人妻精品一区二区三区麻豆 | 午夜两性在线视频| 国产精品 国内视频| 一本综合久久免费| 精品久久久久久久毛片微露脸| 91老司机精品| 免费电影在线观看免费观看| 天堂影院成人在线观看| 婷婷六月久久综合丁香| 亚洲欧美精品综合久久99| 欧美+亚洲+日韩+国产| 国产熟女午夜一区二区三区| 一进一出抽搐gif免费好疼| 欧美乱妇无乱码| 国产精品98久久久久久宅男小说| 免费高清视频大片| 亚洲欧美精品综合久久99| 麻豆久久精品国产亚洲av| 免费观看人在逋| 观看免费一级毛片| 精品国产亚洲在线| 亚洲人成77777在线视频| 国产国语露脸激情在线看| 女人爽到高潮嗷嗷叫在线视频| 精品电影一区二区在线| 啦啦啦 在线观看视频| 最新在线观看一区二区三区| 免费无遮挡裸体视频| 一级a爱片免费观看的视频| 国产亚洲av嫩草精品影院| 韩国av一区二区三区四区| 美女午夜性视频免费| 久久性视频一级片| 亚洲欧美日韩高清在线视频| 亚洲精品一区av在线观看| 久久亚洲真实| 人妻丰满熟妇av一区二区三区| 大型黄色视频在线免费观看| 国产高清有码在线观看视频 | 亚洲成av人片免费观看| 国产亚洲精品一区二区www| 国产亚洲精品第一综合不卡| 99国产精品一区二区蜜桃av| 亚洲va日本ⅴa欧美va伊人久久| 国产一区二区在线av高清观看| 熟女少妇亚洲综合色aaa.| 国产三级在线视频| 欧美色欧美亚洲另类二区| 18禁观看日本| 黄片大片在线免费观看| 黄网站色视频无遮挡免费观看| 日本 欧美在线| 国产乱人伦免费视频| АⅤ资源中文在线天堂| xxx96com| 十八禁网站免费在线| 中文字幕最新亚洲高清| 99热只有精品国产| 啦啦啦观看免费观看视频高清| 美女高潮喷水抽搐中文字幕| 两个人看的免费小视频| 岛国视频午夜一区免费看| 级片在线观看| 88av欧美| 精品国产乱子伦一区二区三区| 国产精品二区激情视频| 免费在线观看日本一区| 国产精品,欧美在线| 亚洲天堂国产精品一区在线| 十八禁网站免费在线| 亚洲欧美日韩高清在线视频| 国产一区二区在线av高清观看| 麻豆一二三区av精品| 长腿黑丝高跟| 窝窝影院91人妻| 国产精品九九99| 丁香六月欧美| 90打野战视频偷拍视频| 一本综合久久免费| 亚洲av熟女| 日本熟妇午夜| 日韩av在线大香蕉| 欧美成人午夜精品| 欧美乱妇无乱码| 动漫黄色视频在线观看| 别揉我奶头~嗯~啊~动态视频| 国产一区二区三区视频了| 国产色视频综合| 色哟哟哟哟哟哟| 久久久国产成人免费| 老熟妇仑乱视频hdxx| 中文字幕精品亚洲无线码一区 | 国产亚洲精品久久久久5区| 国产高清videossex| 欧美日本亚洲视频在线播放| av超薄肉色丝袜交足视频| 人人澡人人妻人| 久久人人精品亚洲av| 久久久久久久精品吃奶| 久久 成人 亚洲| av欧美777| 欧美色欧美亚洲另类二区| 亚洲人成网站在线播放欧美日韩| 91麻豆精品激情在线观看国产| 国产成人啪精品午夜网站| 欧美+亚洲+日韩+国产| 嫁个100分男人电影在线观看| 精品国内亚洲2022精品成人| 免费观看精品视频网站| 韩国精品一区二区三区| 51午夜福利影视在线观看| 久久国产精品人妻蜜桃| www.自偷自拍.com| 草草在线视频免费看| 69av精品久久久久久| 精品国内亚洲2022精品成人| 18禁黄网站禁片免费观看直播| 中亚洲国语对白在线视频| 韩国av一区二区三区四区| 在线天堂中文资源库| 久久伊人香网站| xxx96com| 天天躁狠狠躁夜夜躁狠狠躁| 久久久国产成人免费| 丝袜在线中文字幕| 国产成人影院久久av| 亚洲国产精品合色在线| 国产免费av片在线观看野外av| 亚洲国产精品久久男人天堂| 天天躁夜夜躁狠狠躁躁| 在线观看日韩欧美| 国产高清视频在线播放一区| 男人的好看免费观看在线视频 | 亚洲国产日韩欧美精品在线观看 | xxxwww97欧美| 婷婷精品国产亚洲av在线| 给我免费播放毛片高清在线观看| 一区二区三区激情视频| 成人手机av| 妹子高潮喷水视频| 久久香蕉激情| 成人特级黄色片久久久久久久| 一边摸一边抽搐一进一小说| 欧美精品啪啪一区二区三区| 大型av网站在线播放| 欧美精品啪啪一区二区三区| 亚洲欧美一区二区三区黑人| 人人妻人人看人人澡| 在线免费观看的www视频| 老司机福利观看| 久久婷婷成人综合色麻豆| 给我免费播放毛片高清在线观看| 国产精品98久久久久久宅男小说| 大型av网站在线播放| 精品国产国语对白av| 久久国产乱子伦精品免费另类| 久久久精品国产亚洲av高清涩受| 身体一侧抽搐| 麻豆国产av国片精品| 亚洲 欧美 日韩 在线 免费| 老鸭窝网址在线观看| 色老头精品视频在线观看| 国产伦人伦偷精品视频| 91九色精品人成在线观看| 美女高潮到喷水免费观看| 天堂影院成人在线观看| 国产乱人伦免费视频| 精品一区二区三区视频在线观看免费| 成人亚洲精品一区在线观看| 啦啦啦观看免费观看视频高清| www.999成人在线观看| 色尼玛亚洲综合影院| 久久99热这里只有精品18| 校园春色视频在线观看| 久久久久久人人人人人| 日本a在线网址| 日韩一卡2卡3卡4卡2021年| 亚洲中文日韩欧美视频| 老汉色av国产亚洲站长工具| 黄片播放在线免费| 日韩欧美三级三区| 精品一区二区三区av网在线观看| 日本精品一区二区三区蜜桃| 欧洲精品卡2卡3卡4卡5卡区| 亚洲自拍偷在线| 中出人妻视频一区二区| 99国产极品粉嫩在线观看| 禁无遮挡网站| 国产精品一区二区精品视频观看| 日韩欧美免费精品| 欧美国产日韩亚洲一区| 午夜a级毛片| 人人妻人人澡人人看| 999久久久国产精品视频| 中文字幕人妻熟女乱码| 12—13女人毛片做爰片一| 日韩有码中文字幕| 精品一区二区三区视频在线观看免费| 欧美成狂野欧美在线观看| 身体一侧抽搐| x7x7x7水蜜桃| 最好的美女福利视频网| 成年女人毛片免费观看观看9| 巨乳人妻的诱惑在线观看| 欧美中文日本在线观看视频| 亚洲成人久久性| 久99久视频精品免费| 国产亚洲av高清不卡| 丝袜人妻中文字幕| 在线观看免费视频日本深夜| 国产色视频综合| 亚洲电影在线观看av| 欧美日韩一级在线毛片| 天天躁夜夜躁狠狠躁躁| 欧美日韩福利视频一区二区| 国产精品综合久久久久久久免费| 国产精品av久久久久免费| 亚洲国产欧美网| 午夜福利免费观看在线| 欧美乱码精品一区二区三区| 极品教师在线免费播放| 国产激情欧美一区二区| 国产精品精品国产色婷婷| 久久精品国产综合久久久| 一夜夜www| 国产黄片美女视频| 又大又爽又粗| 亚洲国产高清在线一区二区三 | 99精品久久久久人妻精品| 日韩欧美国产一区二区入口| 欧美丝袜亚洲另类 | 三级毛片av免费| 大型黄色视频在线免费观看| 亚洲成av人片免费观看| 国产精品国产高清国产av| 久久人妻福利社区极品人妻图片| 老司机福利观看| 欧洲精品卡2卡3卡4卡5卡区| 好男人电影高清在线观看| 老司机午夜福利在线观看视频| 欧美黑人精品巨大| 最近最新中文字幕大全电影3 | 国产精品爽爽va在线观看网站 | 国产又色又爽无遮挡免费看| 亚洲国产中文字幕在线视频| 免费在线观看完整版高清| 亚洲人成网站高清观看| 国内少妇人妻偷人精品xxx网站 | 久久久久久人人人人人| 国产日本99.免费观看| 国内揄拍国产精品人妻在线 | 一区二区三区高清视频在线| 很黄的视频免费| 国产精品久久久av美女十八| 国产精品 欧美亚洲| 国产欧美日韩一区二区三| 日日摸夜夜添夜夜添小说| 黄色视频不卡| 国产人伦9x9x在线观看| 免费在线观看完整版高清| 一级毛片精品| 叶爱在线成人免费视频播放| 变态另类成人亚洲欧美熟女| 嫁个100分男人电影在线观看| 丝袜在线中文字幕| 国产真实乱freesex| 999久久久国产精品视频| 免费在线观看成人毛片| 国产精品香港三级国产av潘金莲| 正在播放国产对白刺激| 久久久久久久久久黄片| 99国产精品99久久久久| 最近最新中文字幕大全免费视频| 精品国产亚洲在线| 老司机午夜十八禁免费视频| 草草在线视频免费看| 欧美一级a爱片免费观看看 | 叶爱在线成人免费视频播放| 两性午夜刺激爽爽歪歪视频在线观看 | 日韩中文字幕欧美一区二区| 国产成人影院久久av| 777久久人妻少妇嫩草av网站| 99在线视频只有这里精品首页| 亚洲精品中文字幕在线视频| 三级毛片av免费| www日本黄色视频网| 91大片在线观看| 欧美日韩中文字幕国产精品一区二区三区| 亚洲国产精品合色在线|