• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于提示學(xué)習(xí)的小樣本文本分類方法

    2023-09-27 06:31:08于碧輝蔡興業(yè)魏靖烜
    計算機應(yīng)用 2023年9期
    關(guān)鍵詞:標簽模板分類

    于碧輝,蔡興業(yè)*,魏靖烜

    (1.中國科學(xué)院大學(xué),北京 100049;2.中國科學(xué)院 沈陽計算技術(shù)研究所,沈陽 110168)

    0 引言

    文本是信息傳播的重要途徑和載體,將文本數(shù)據(jù)正確歸類,從而更好地組織、利用這些信息,具有重要的研究意義。文本分類致力于解決上述問題,是自然語言處理(Natural Language Processing,NLP)領(lǐng)域的經(jīng)典任務(wù)之一,被廣泛應(yīng)用于輿情監(jiān)測、情感分析等場景中。目前比較有效的文本分類方法,如經(jīng)典的應(yīng)用于文本的卷積神經(jīng)網(wǎng)絡(luò)(Text Convolutional Neural Network,Text-CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Text Recurrent Neural Network,Text-RNN)[1]等,多為建立在具有大量的標注數(shù)據(jù)下的有監(jiān)督學(xué)習(xí)。在很多實際場景中,由于領(lǐng)域特殊性和標注成本高,導(dǎo)致標注訓(xùn)練數(shù)據(jù)缺乏,模型無法有效地學(xué)習(xí)參數(shù),從而易出現(xiàn)過擬合現(xiàn)象。因此,如何通過小樣本數(shù)據(jù)訓(xùn)練得到一個性能較好的分類模型是目前的研究熱點。

    在算法層面,超大規(guī)模預(yù)訓(xùn)練模型成為備受關(guān)注的熱點之一,推動技術(shù)效果不斷提升。依托預(yù)訓(xùn)練模型,NLP 的各項任務(wù)取得了飛速發(fā)展,小樣本任務(wù)也因此受益。利用預(yù)訓(xùn)練模型進行遷移微調(diào)逐漸成為NLP 領(lǐng)域開展小樣本學(xué)習(xí)的主要手段,提示學(xué)習(xí)的興起更是減小了預(yù)訓(xùn)練階段和下游任務(wù)之間的差異,在小樣本任務(wù)上取得了顯著的成果。

    在上述研究基礎(chǔ)上,本文提出了基于提示學(xué)習(xí)的小樣本文本分類方法,分析了提示學(xué)習(xí)的優(yōu)勢與不足,并提出了一種基于預(yù)訓(xùn)練模型的自適應(yīng)模板生成的方法用于小樣本場景下的文本分類。采取構(gòu)建模板和空缺的方式將分類任務(wù)轉(zhuǎn)化為完形填空問題,并使用預(yù)訓(xùn)練模型自動構(gòu)建模板代替?zhèn)鹘y(tǒng)的人工定義方法。在FewCLUE 的文本分類數(shù)據(jù)集上的實驗表明,所提方法相較于直接微調(diào)的方法以及諸如度量學(xué)習(xí)等傳統(tǒng)小樣本學(xué)習(xí)方法,展現(xiàn)出了更優(yōu)的性能。

    1 相關(guān)工作

    1.1 小樣本學(xué)習(xí)方法

    小樣本學(xué)習(xí)(Few-Shot Learning,F(xiàn)SL)是研究利用目標類別的少量監(jiān)督信息來訓(xùn)練機器學(xué)習(xí)模型的方法[2],主要分為基于模型優(yōu)化、度量學(xué)習(xí)及數(shù)據(jù)增強三類學(xué)習(xí)方法。

    基于模型優(yōu)化的研究方法多采用元學(xué)習(xí)的方式。它期望模型具備學(xué)習(xí)能力[3],模型在訓(xùn)練過程中會根據(jù)樣本集制定學(xué)習(xí)策略,即讓模型學(xué)習(xí)得到優(yōu)化器,自行學(xué)習(xí)調(diào)參策略,有學(xué)者基于該框架提出了新算法。如Andrychowicz 等[4]最早采用訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的方式,學(xué)習(xí)優(yōu)化神經(jīng)網(wǎng)絡(luò)的規(guī)則,在當時取得了較好的效果。在此研究基礎(chǔ)上,Ravi 等[5]發(fā)現(xiàn)長短期記憶(Long Short-Term Memory,LSTM)網(wǎng)絡(luò)的更新規(guī)則與前饋網(wǎng)絡(luò)的梯度下降過程相似,于是嘗試利用LSTM 的結(jié)構(gòu)訓(xùn)練神經(jīng)網(wǎng)絡(luò)的更新機制,學(xué)習(xí)到新的網(wǎng)絡(luò)參數(shù)。Finn等[6]提出的模型無關(guān)元學(xué)習(xí)算法是元學(xué)習(xí)領(lǐng)域中標志性文章與代碼框架,相較于梯度下降的基步長,該方法新增了采用隨機梯度下降優(yōu)化的元步長,即通過雙層的梯度下降實現(xiàn)跨任務(wù)的元優(yōu)化。

    基于度量學(xué)習(xí)的研究方法通過計算訓(xùn)練樣本和測試樣本的相似度來確定樣本的類別標簽,從而實現(xiàn)分類。此類方法降低了模型復(fù)雜性,提高了泛化能力。Vinyals 等[7]提出的匹配網(wǎng)絡(luò)為支持集和查詢集構(gòu)造了不同的特征編碼器,采用對最近鄰加權(quán)的方法計算待測樣本與支持集樣本的相似度。Cai 等[8]提出的記憶匹配網(wǎng)絡(luò)將樣本上下文信息集成到嵌入式體系結(jié)構(gòu)中,提高了匹配網(wǎng)絡(luò)的單樣本學(xué)習(xí)能力。Snell等[9]提出的原型網(wǎng)絡(luò)以嵌入空間支持集中各類別均值的中心作為類別的原型表達,將小樣本學(xué)習(xí)問題轉(zhuǎn)化為嵌入空間中的最近鄰問題。但是度量學(xué)習(xí)存在數(shù)據(jù)分布易對度量準則產(chǎn)生顯著影響的問題,難以確定一種度量準則來滿足多個維度特征的分布。

    基于數(shù)據(jù)增強的小樣本學(xué)習(xí)方法主要包括擴充數(shù)據(jù)集及特征增強。Mehrotra 等[10]提出了生成對抗殘差成對網(wǎng)絡(luò),將生成對抗網(wǎng)絡(luò)引入到單樣本學(xué)習(xí)問題中。Hou 等[11]基于直推式學(xué)習(xí)的思想,提出了一種交叉注意力網(wǎng)絡(luò),利用注意力機制為每對特征和查詢生成交叉注意映射,對特征進行采樣,從而達到特征增強的效果。

    上述方法主要應(yīng)用于計算機視覺的科研工作中,原因在于圖像處理問題更多強調(diào)感知智能,依靠統(tǒng)計特征發(fā)現(xiàn)和函數(shù)擬合進行問題求解。目前針對NLP 下的小樣本文本分類問題,阿里小蜜團隊在對話場景中的意圖識別任務(wù)中提出了歸納網(wǎng)絡(luò)來解決少樣本文本分類的問題,結(jié)合動態(tài)路由算法和元學(xué)習(xí)框架模擬人類的歸納能力[12]。Yu 等[13]提出了多指標文本分類方法,通過任務(wù)聚類組合多個指標,自動地從一組新出現(xiàn)的少量任務(wù)的元訓(xùn)練任務(wù)中確定最佳加權(quán)組合。Bailey 等[14]提出了基于預(yù)訓(xùn)練詞嵌入和人工監(jiān)督的小樣本文本分類方法,通過聚類和度量學(xué)習(xí)的思想得到某一類別的向量表示,依據(jù)主題模型的思想進一步確定樣本類別。

    盡管上述科研工作均面向小樣本領(lǐng)域,但它們的主要思想仍為在已知數(shù)據(jù)集上提高模型的學(xué)習(xí)上限,但是NLP 更注重感知之后的認知和理解,并非淺層的統(tǒng)計語義,少量的樣本難以讓模型學(xué)習(xí)到理解的能力,這就要求NLP 領(lǐng)域的小樣本問題仍需要大量數(shù)據(jù)的支持。近年來預(yù)訓(xùn)練模型的提出在一定程度上解決了知識的獲取和重復(fù)利用問題,因此本文利用預(yù)訓(xùn)練模型的先驗知識,通過遷移的方式為模型引入更多的外部信息,從而解決小樣本場景下的文本分類問題。

    1.2 預(yù)訓(xùn)練模型

    預(yù)訓(xùn)練語言模型(Pre-trained Language Model,PLM)是先在多元任務(wù)上預(yù)訓(xùn)練獲得通用知識,然后使用少量目標任務(wù)上的標注數(shù)據(jù)進行微調(diào)的模型。模型訓(xùn)練和使用分別對應(yīng)兩個階段:預(yù)訓(xùn)練階段和微調(diào)階段。在自然語言處理領(lǐng)域,首先通過一批文本語料進行模型訓(xùn)練,用自監(jiān)督的方法從海量無監(jiān)督數(shù)據(jù)中獲取知識;然后在初步訓(xùn)練好的模型基礎(chǔ)上繼續(xù)訓(xùn)練,通過調(diào)整PLM 的參數(shù)來解決下游任務(wù),包括文本分類、實體識別、關(guān)系抽取等。

    預(yù)訓(xùn)練模型成功的關(guān)鍵在于自監(jiān)督學(xué)習(xí)與Transformer的結(jié)合,具有代表性的工作是GPT(Generative Pre-trained Transformer)[15]和BERT(Bidirectional Encoder Representation from Transformer)[16]系列模型,同時還有XLNet[17]、MPNet[18]等。

    GPT 采用單向Transformer 作為主要結(jié)構(gòu),應(yīng)用了生成式預(yù)訓(xùn)練和鑒別式微調(diào)。BERT 使用雙向深度Transformer 作為主要結(jié)構(gòu),在預(yù)訓(xùn)練階段包含兩個任務(wù):MLM(Masked Language Model)和NSP(Next Sentence Prediction)。前者類似完形填空,遮蓋掉待預(yù)測單詞,然后利用這句話的其他單詞去預(yù)測被遮蓋部分的這個單詞;后者是給定兩句話,判斷這兩句話在原文中是否是相鄰的關(guān)系。二者的主要區(qū)別在于GPT 是單向自回歸語言模型,BERT 是自編碼模型[19],MLM任務(wù)使它能夠?qū)W習(xí)到雙向的語義信息。因此,普遍認為GPT擅長自然語言生成,而BERT 更側(cè)重于自然語言理解。

    在小樣本任務(wù)場景下,由于少量的數(shù)據(jù)無法支持模型學(xué)習(xí)到足夠的參數(shù),容易在訓(xùn)練集上過擬合,因此需要引入外部知識,應(yīng)用遷移學(xué)習(xí)的思想將預(yù)訓(xùn)練模型遷移應(yīng)用在小樣本場景下。鑒于BERT 的雙向編碼能力能夠更好地學(xué)習(xí)提示模板,而且模板的相對位置可以自由調(diào)整,因此本文采用BERT 模型作為學(xué)習(xí)器,然后利用BERT 的兩個預(yù)訓(xùn)練任務(wù),相較于微調(diào)的方法能更好地利用預(yù)訓(xùn)練模型。

    1.3 提示學(xué)習(xí)

    提示學(xué)習(xí)(Prompt Learning)[20]是最近興起的模型訓(xùn)練方法,它實現(xiàn)了NLP 技術(shù)中由之前的先預(yù)訓(xùn)練再微調(diào)的模式轉(zhuǎn)變?yōu)轭A(yù)訓(xùn)練、提示再預(yù)測的模式。自預(yù)訓(xùn)練模型提出后,NLP 任務(wù)就開始傾向于采用對預(yù)訓(xùn)練模型進行微調(diào)的方法,從而避免了重新學(xué)習(xí)的缺點,降低了NLP 任務(wù)的訓(xùn)練與應(yīng)用難度,使NLP 各項任務(wù)取得了不同程度的突破。由于預(yù)訓(xùn)練與下游任務(wù)不一致,在基于預(yù)訓(xùn)練模型解決下游任務(wù)時的策略為讓預(yù)訓(xùn)練模型調(diào)整參數(shù)去適應(yīng)下游任務(wù)。提示學(xué)習(xí)的核心思想是按照特定模板處理輸入的文本信息,把任務(wù)重構(gòu)成一個更能充分利用預(yù)訓(xùn)練語言模型處理的形式。將下游任務(wù)轉(zhuǎn)換為語言模型的任務(wù),即完形填空。提示學(xué)習(xí)能廣泛激發(fā)出預(yù)訓(xùn)練語言模型中的先驗知識,讓預(yù)訓(xùn)練語言模型和下游任務(wù)更接近,從而更好地利用預(yù)訓(xùn)練模型。

    提示學(xué)習(xí)最初由人工設(shè)計模板。人工設(shè)計一般依賴于語言學(xué)知識,力求得到語義流暢且高效的模板。Schick 等[21]提出了PET(Pattern Exploiting Training),主要的思想是借助由自然語言構(gòu)成的模板,將下游任務(wù)轉(zhuǎn)化為一個完形填空任務(wù),從而使用BERT 的MLM 進行預(yù)測。但是PET 方法的局限性在于需要人工選擇模板,而且PET 的準確率對于模板的質(zhì)量依賴性較高。為了解決人工設(shè)計模板的不足,探究如何自動學(xué)習(xí)到合適的模板成為一大研究熱點。Li 等[22]提出Prefix tuning 和Liu 等[23]提出的P-tuning(Prompt-tuning)均放棄了模板由自然語言構(gòu)成這一常規(guī)要求,使用了連續(xù)空間內(nèi)的向量作為模板,二者都是連續(xù)空間內(nèi)的模板優(yōu)化方法,區(qū)別在于:P-tuning 中模板在句中的相對位置可變,主要面向自然語言理解任務(wù);而Prefix tuning 的模板是前綴,只能放在句子開頭,針對的是自然語言生成任務(wù)。

    提示學(xué)習(xí)的方法使模型更多地利用先驗知識,緩解了小樣本場景下可學(xué)習(xí)到的知識不足的問題。本文借助了提示學(xué)習(xí)的思想,將文本分類任務(wù)轉(zhuǎn)化為完形填空任務(wù),進一步提出了利用預(yù)訓(xùn)練模型在標注數(shù)據(jù)上自動學(xué)習(xí)提示模板的方法,用于提高模板的提示能力,進而提高模型的性能。

    2 BERT-P-tuning模型

    本章主要介紹整體模型結(jié)構(gòu)、各個層的實現(xiàn)方法和作用以及優(yōu)化策略等。

    2.1 模型整體結(jié)構(gòu)

    本文提出了基于提示學(xué)習(xí)的分類方法BERT-P-tuning,即基于BERT 的連續(xù)提示微調(diào)方法,采用可學(xué)習(xí)的連續(xù)向量作為提示模板。圖1 為整體的模型結(jié)構(gòu),主要由三部分組成:模板學(xué)習(xí)層、BERT-MLM 層和標簽映射層。其中:BERT模板學(xué)習(xí)層的作用是利用模型的雙向Transformer 結(jié)構(gòu)和在預(yù)訓(xùn)練階段學(xué)習(xí)到的先驗知識,在標注數(shù)據(jù)上學(xué)習(xí)到一組向量作為提示模板;BERT-MLM 層主要用于完形填空任務(wù),在候選詞集合中選擇使句子概率最高、語義最合理的詞填入空缺中;標簽映射層用于定義描述候選詞和標簽之間的對應(yīng)關(guān)系,通過映射來確定樣本的類別標簽,從而實現(xiàn)分類。

    圖1 BERT-P-tuning模型結(jié)構(gòu)Fig.1 Structure of BERT-P-tuning model

    2.2 模板學(xué)習(xí)層

    本文的自動構(gòu)建提示模板方法基于P-tuning 的思想,利用連續(xù)空間內(nèi)的向量表示作為提示模板,將模板的構(gòu)建轉(zhuǎn)化為連續(xù)參數(shù)優(yōu)化問題。即在標注樣本集上學(xué)習(xí)到使整個句子表示置信度最高的一組向量作為模板提示,如圖2 所示。

    圖2 模板提示Fig.2 Template prompt

    圖2 中的[u1]~[u4]代表BERT 詞表中的[unused1]~[unused4]。該部分標記在BERT 預(yù)訓(xùn)練階段未使用,通常用于擴充詞表等。即本文通過未使用過的標記來初始化構(gòu)成模板表示,之后通過標注數(shù)據(jù)計算出該模板。

    在P-tuning[23]中,作者通過一個小型的LSTM 模型計算出提示模板部分的詞嵌入,目的在于提高每個字符的相關(guān)性,幫助模板的向量表示更貼近自然語言。但LSTM 的捕捉距離與抽取特征能力較弱,并且它順序處理的特性導(dǎo)致難以處理模板置于句首的情況;而BERT 模型經(jīng)過預(yù)訓(xùn)練階段同樣可以讓模板貼近自然語言,而且它的特征抽取能力更強,因此本文采用BERT 模型作為模板層的學(xué)習(xí)器。

    將任務(wù)定義為在連續(xù)向量空間內(nèi)搜尋最優(yōu)向量使得在標注樣本上獲得最小損失的問題。具體如下:

    定義語言模型為M,輸入樣本表示為X={X0,X1,…,XN},標簽對應(yīng)的詞為Y,模板為P={P0,P1,…,Pk},定義E(X)表示X的詞嵌入,E(Y)表示Y的詞嵌入,因此完整的輸入構(gòu)成如下:

    其中,E(P)為可求解的模板向量,在輸入中與原始文本和標簽詞的相對位置可以自由確定。首先,隨機初始化生成(k,768)維度的向量,利用下游損失函數(shù)L,采用隨機梯度下降的方法訓(xùn)練連續(xù)優(yōu)化模板部分對應(yīng)的參數(shù)。求解目標為式(2):

    在得到提示模板對應(yīng)的向量后,將它拼接到BERT 的詞嵌入層中作為完形填空模型的輸入。自動構(gòu)建模板的優(yōu)勢在于打破了人工構(gòu)建模板的局限性,可以學(xué)習(xí)到超出原始詞匯表限制的提示模板,得到模型可學(xué)習(xí)到的向量空間內(nèi)的最優(yōu)解。雖然可解釋性不如人工構(gòu)建模板的方案,但是模型在分類性能上具有優(yōu)勢。

    2.3 BERT-MLM層

    BERT 在訓(xùn)練階段為了使模型具備有效的學(xué)習(xí)到雙向編碼的能力,使用了基于遮蓋的語言模型,即隨機對輸入序列中的某些位置進行遮蔽,然后通過模型來進行預(yù)測。因此BERT 模型在完形填空任務(wù)上具備先驗優(yōu)勢。

    本文采用BERT-MLM 層用于完成完形填空任務(wù)。預(yù)測句中空缺部分為候選詞集合對應(yīng)的概率,以及它們填入文中的語義合理性。具體實現(xiàn)如下:

    定義候選詞集合W={W0,W1,…,Wm},對于每個句子S,M(S|W)表示語言模型在空缺位置為W時的得分。因此每個候選詞對應(yīng)的得分為:

    之后通過Softmax 函數(shù)將它轉(zhuǎn)化為概率分布,選擇概率最大的詞填入到空缺中。

    2.4 標簽映射層

    在得到空缺部分的詞之后,將結(jié)果輸入標簽映射層。標簽映射層的主要作用為定義MLM 任務(wù)中的候選詞和標簽之間的對應(yīng)關(guān)系。例如根據(jù)不同任務(wù)將[好,壞],[體育,軍事,…,金融]等集合作為完形填空的候選詞,構(gòu)建[好→積極,壞→消極]的標簽映射關(guān)系。因此文本分類任務(wù)可通過預(yù)測選取候選詞集合中的詞,之后通過映射關(guān)系得到最終的標簽。

    2.5 優(yōu)化策略

    在模型訓(xùn)練階段,本文采取MLM 的損失作為最終的目標。通過預(yù)測空缺部分是候選集里的哪個詞之后,標簽映射得到最終的標簽。由于標注數(shù)據(jù)的不足,僅通過少量數(shù)據(jù)很難學(xué)習(xí)到整個模型的參數(shù),而且易出現(xiàn)過擬合。因此,在模型訓(xùn)練階段借助了Adapter[24]的思想,固定模型原始權(quán)重,在BERT 的基礎(chǔ)上添加殘差模塊,即本文的提示模板部分;并且在訓(xùn)練過程中只優(yōu)化殘差模塊的參數(shù),它的梯度回傳過程如圖2 反向傳播部分所示。本文將需要優(yōu)化的模板部分參數(shù)重新構(gòu)建一個嵌入層,為圖中E(P)。將它拼接到BERT 模型的嵌入層中,在訓(xùn)練過程中通過矩陣遮蓋住原始模型的嵌入層E(M),使得它在回傳過程中的梯度為0,不參與反向傳播的計算,從而實現(xiàn)在更新階段只更新模板部分的參數(shù)。

    此外模型訓(xùn)練目標在于收斂模型預(yù)測標簽和真實標簽間的差距,采用交叉熵損失函數(shù)。由于僅預(yù)測空缺位置的詞,全文計算損失無意義,因此在將模型的輸入文本轉(zhuǎn)化為序列的同時,將其他詞以-1 的標注遮蓋掉,使它們不參與交叉熵損失的計算。

    3 實驗與結(jié)果分析

    3.1 數(shù)據(jù)集

    本文采用的數(shù)據(jù)集來自中文語言理解權(quán)威測評榜單的子榜FewCLUE[25]。由于提示模板的長度有限,在長文本分類句子中的占比較小,因此選擇其中的短文本二分類任務(wù)情緒分析電子商務(wù)產(chǎn)品評論數(shù)據(jù)集(EPRSTMT)和多分類任務(wù)新聞標題多分類數(shù)據(jù)集(Tnews)。EPRSTMT 共有兩類標簽:正向和負向;每條數(shù)據(jù)有3 個屬性,分別是id、sentence 和label,對于label 標簽,Positive 表示正向,Negative 表示負向。Tnews 來自今日頭條的新聞版塊,共包含15 個類別的新聞,包括軍事、體育、文化等;每條數(shù)據(jù)有3 個屬性,分別是分類ID、分類名稱與新聞標題字符串。數(shù)據(jù)集具體信息如表1 所示。

    表1 實驗中使用的數(shù)據(jù)集Tab.1 Datasets used in experiments

    3.2 實驗環(huán)境及參數(shù)

    實驗基于PyTorch 框架搭建神經(jīng)網(wǎng)絡(luò)模型,詳細實驗環(huán)境參數(shù)如表2 所示。

    表2 實驗環(huán)境Tab.2 Experimental environment

    實驗采用的BERT 模型為RoBERTa-wwm-ext[26]。RoBERTa-wwm-ext 相較于BERT 主要有兩方面的優(yōu)化:1)在模型規(guī)模、算力和數(shù)據(jù)上均有提升;2)基于全詞掩碼的中文訓(xùn)練方式更適用于中文任務(wù)。

    在模型訓(xùn)練的過程中,由于訓(xùn)練樣本較少,為保證學(xué)習(xí)到更多的特征,因此采用較大的樣本長度來避免截斷所帶來的語義信息丟失問題;其他參數(shù)通過實際實驗中的手動調(diào)參,最終確定最優(yōu)情況下的訓(xùn)練參數(shù)如表3 所示。

    表3 實驗參數(shù)Tab.3 Experimental parameters

    3.3 實驗結(jié)果分析

    為探究不同模板對模型性能的影響,同時選取對比實驗中PET 部分采用的人工模板。本文使用BERT 的預(yù)訓(xùn)練任務(wù)NSP[27],即下一句預(yù)測,來完成零樣本文本分類任務(wù)。人工構(gòu)造模板“這是一條[MASK]的評價:”,分別在測試樣本前加入由模板和候選詞組成的前綴來構(gòu)成新的句子。

    例1 “這是一條正面的評價:很好,已經(jīng)第二次購買了?!?/p>

    “這是一條負面的評價:很好,已經(jīng)第二次購買了?!?/p>

    通過BERT 模型的NSP 任務(wù),計算兩句話的概率,其中概率較大的前綴的候選詞對應(yīng)的標簽,即為該條樣本的標簽。實驗結(jié)果如表4 所示。

    表4 零樣本實驗結(jié)果Tab.4 Results of zero-shot experiment

    從表4 可以看出,在提示階段,不同的提示模板對應(yīng)的分類準確率不同且相差較大,模板的長度、候選詞的選擇均影響最終的實驗結(jié)果,且模板中存在轉(zhuǎn)折時在一定程度上影響了拼接后的語義,導(dǎo)致準確率較低。因此尋求最優(yōu)模板是提示學(xué)習(xí)能否取得較好性能的關(guān)鍵。

    人工構(gòu)建模板時,通常傾向于選擇模板句和待測樣本的語義匹配度更高、更符合人類語言學(xué)知識的自然語句,在此限制下得到的模板由離散空間內(nèi)的字符組成,它的解空間遠小于連續(xù)空間,因此難以尋求到提示效果最好的模板。而采用連續(xù)向量作為模板則跳出這一限制,直接在編碼階段通過模型學(xué)習(xí)得到向量模板,從而使模型取得更優(yōu)的實驗效果。

    為了體現(xiàn)提示學(xué)習(xí)方法在小樣本任務(wù)上的優(yōu)勢,在同一實驗環(huán)境下,本文復(fù)現(xiàn)對比了目前小樣本學(xué)習(xí)領(lǐng)域的幾類主流方法的實驗結(jié)果。包括LSTM 分類方法、基于BERT 的微調(diào)方法(簡寫為BERT)、基于BERT 的度量學(xué)習(xí)(簡寫為Metric BERT)及PET[21]。其中Metric BERT 采用BERT 的CLS層的對應(yīng)輸出作為文本表征,使用歐氏距離作為度量標準;PET 采用模板為表4 中的最優(yōu)模板,使用BERT-MLM 實現(xiàn)完形填空任務(wù)。在五個單條訓(xùn)練集上進行測評,實驗的評價標準為平均準確率(Acc)和F1。

    對比實驗結(jié)果如表5 所示。通過表5 的實驗結(jié)果可以看出,度量學(xué)習(xí)的方法在小樣本任務(wù)上的表現(xiàn)效果較差,其原因主要在于標注樣本不充足,覆蓋的樣本空間過小導(dǎo)致難以搜尋到與測試樣本相似度最高的支持數(shù)據(jù),從而出現(xiàn)匹配偏差問題。LSTM 相較于BERT 微調(diào)的方法的準確率較低,說明它的特征抽取能力弱于預(yù)訓(xùn)練模型,且在實驗過程中應(yīng)對多分類任務(wù)時經(jīng)過多輪迭代訓(xùn)練仍無法收斂,表明該類傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型難以直接處理低資源場景下的問題;基于人工構(gòu)建模板的PET 方法,以及本文提出的自動構(gòu)建模板方法BERT-P-Tuning,相較于直接使用BERT 微調(diào)性能都有一定程度的提升。與BERT 相比,在二分類任務(wù)上,BERT-P-Tuning的準確率與F1 分別提高了25.2 和26.7 個百分點;在多分類任務(wù)上,準確率與F1 分別提高了6.6 和8.0 個百分點。與PET 相比,BERT-P-Tuning 在兩個任務(wù)上準確率提升了2.9 和2.8 個百分點,F(xiàn)1 值提升了4.4 和4.2 個百分點。以上結(jié)果說明在小樣本任務(wù)上,基于提示學(xué)習(xí)的分類模型性能要優(yōu)于傳統(tǒng)的模型,更適用于小樣本的場景。

    表5 不同模型的結(jié)果對比 單位:%Tab.5 Comparison of results of different models unit:%

    為了進一步驗證本文方法提高了模板的提示能力,針對優(yōu)化策略部分和模板學(xué)習(xí)層開展消融實驗,其中BERT-PTuning-1、2、Final 分別對應(yīng)全模型優(yōu)化、全文計算損失和優(yōu)化后的方法,實驗結(jié)果如表6 所示。

    表6 消融實驗結(jié)果 單位:%Tab.6 Results of ablation experiment unit:%

    在對模板進行編碼過程中,分別采用LSTM 和BERT 模型,通過實驗結(jié)果表明其中BERT-P-Tuning-1、2、Final 學(xué)習(xí)到的模板性能略優(yōu)于LSTM-P-Tuning,體現(xiàn)了基于注意力機制的預(yù)訓(xùn)練模型在上下文的語義方面具有更強的理解能力,模型的雙向編碼在學(xué)習(xí)模板方面具備更強的優(yōu)勢。

    在進行MLM 預(yù)測中,實驗結(jié)果表明只對空缺詞計算交叉熵損失的方法性能優(yōu)于計算全文計算損失的方法,其原因在于非空缺詞對于模型來說是可見的,無預(yù)測意義,這一點和BERT 預(yù)訓(xùn)練階段的MLM 任務(wù)保持一致,而且在實際訓(xùn)練過程中損失收斂得更快。此外,只優(yōu)化模板層部分參數(shù)的方法取得了更好的表現(xiàn),因為它的參數(shù)較少,即使在樣本不充足條件下也能學(xué)習(xí)到模板,不易出現(xiàn)過擬合的現(xiàn)象。`

    綜上所述,本文所提BERT-P-Tuning 相較于傳統(tǒng)的文本分類方法,在小樣本場景下取得了更優(yōu)的表現(xiàn),其中所采用的優(yōu)化策略也進一步提高了模型的性能。

    4 結(jié)語

    本文對文本分類方法進行了研究,提出了一種基于提示學(xué)習(xí)的文本分類方法BERT-P-Tuning。該方法利用BERT 模型根據(jù)上下文信息和標簽自適應(yīng)地生成提示模板,通過拼接提示模板和空缺,將傳統(tǒng)分類任務(wù)轉(zhuǎn)化為完形填空任務(wù),充分利用預(yù)訓(xùn)練模型的先驗知識,最后通過標簽映射關(guān)系得到樣本的標簽,從而實現(xiàn)文本分類。

    實驗結(jié)果表明,本文方法性能優(yōu)于傳統(tǒng)分類模型在小樣本任務(wù)上的表現(xiàn),且相較于其他小樣本方法性能也有一定的提升。未來的研究工作將進一步擴大研究范圍,包括長文本分類、英文任務(wù)等,提高模型的泛化能力;并研究將該方法擴展到自然語言處理的其他領(lǐng)域的方法,如實體識別、關(guān)系抽取等。

    猜你喜歡
    標簽模板分類
    鋁模板在高層建筑施工中的應(yīng)用
    鋁模板在高層建筑施工中的應(yīng)用
    分類算一算
    分類討論求坐標
    無懼標簽 Alfa Romeo Giulia 200HP
    車迷(2018年11期)2018-08-30 03:20:32
    數(shù)據(jù)分析中的分類討論
    不害怕撕掉標簽的人,都活出了真正的漂亮
    海峽姐妹(2018年3期)2018-05-09 08:21:02
    教你一招:數(shù)的分類
    標簽化傷害了誰
    鋁模板在高層建筑施工中的應(yīng)用
    水蜜桃什么品种好| 欧美不卡视频在线免费观看| 在线免费观看不下载黄p国产| 欧美激情在线99| 男女边吃奶边做爰视频| 国产成人免费观看mmmm| 亚洲美女视频黄频| 亚洲av中文av极速乱| 日本-黄色视频高清免费观看| 大香蕉久久网| 国产精品99久久久久久久久| 国产精品人妻久久久久久| 日韩一区二区视频免费看| 极品少妇高潮喷水抽搐| 久久草成人影院| 亚洲精品中文字幕在线视频 | 日本-黄色视频高清免费观看| 免费av不卡在线播放| 日韩,欧美,国产一区二区三区| 亚洲av中文字字幕乱码综合| 高清在线视频一区二区三区| 精品久久久久久久久久久久久| 亚洲成人一二三区av| 老司机影院成人| 男女视频在线观看网站免费| 亚洲欧美日韩卡通动漫| 欧美日韩视频高清一区二区三区二| 色播亚洲综合网| 国产一区二区亚洲精品在线观看| 免费电影在线观看免费观看| 久久精品久久久久久噜噜老黄| 亚洲欧美日韩无卡精品| 日韩中字成人| 少妇丰满av| 精品国产三级普通话版| 哪个播放器可以免费观看大片| 日韩欧美精品v在线| 精品一区二区三区人妻视频| 熟女电影av网| 天天一区二区日本电影三级| 赤兔流量卡办理| 赤兔流量卡办理| 久久精品熟女亚洲av麻豆精品 | 黄色一级大片看看| 黄色配什么色好看| 伦理电影大哥的女人| 欧美最新免费一区二区三区| 久久久久国产网址| 99久久九九国产精品国产免费| 欧美三级亚洲精品| 国产有黄有色有爽视频| 国产免费一级a男人的天堂| 日本与韩国留学比较| 婷婷色综合大香蕉| av免费在线看不卡| 97在线视频观看| 一夜夜www| 亚洲婷婷狠狠爱综合网| 简卡轻食公司| 日本黄色片子视频| 久久久久久久国产电影| 亚洲久久久久久中文字幕| av线在线观看网站| 一级爰片在线观看| 97超碰精品成人国产| 成人欧美大片| 波野结衣二区三区在线| 中文资源天堂在线| 亚洲性久久影院| 亚洲色图av天堂| 一级毛片黄色毛片免费观看视频| 国产老妇女一区| 国产男女超爽视频在线观看| 在线a可以看的网站| 国产高潮美女av| 黄片无遮挡物在线观看| 婷婷色综合大香蕉| 亚洲国产av新网站| 99热网站在线观看| 国产精品一区二区三区四区免费观看| 女人被狂操c到高潮| 国产黄色视频一区二区在线观看| 色视频www国产| 晚上一个人看的免费电影| 午夜福利成人在线免费观看| 国产高清三级在线| 国产在线男女| 久久精品国产亚洲av涩爱| 免费看光身美女| 人妻少妇偷人精品九色| 国产精品女同一区二区软件| 一个人观看的视频www高清免费观看| 青春草亚洲视频在线观看| 亚洲国产精品成人综合色| 久久久色成人| 麻豆av噜噜一区二区三区| 国产综合懂色| 久久精品国产亚洲av涩爱| 中文字幕久久专区| 一级毛片aaaaaa免费看小| av线在线观看网站| 午夜视频国产福利| 日本熟妇午夜| 精品熟女少妇av免费看| 男女边摸边吃奶| 亚洲欧美成人综合另类久久久| 日本猛色少妇xxxxx猛交久久| 综合色丁香网| 99久久精品国产国产毛片| 国产精品国产三级国产专区5o| 亚洲久久久久久中文字幕| 一级毛片aaaaaa免费看小| 白带黄色成豆腐渣| 永久网站在线| 精华霜和精华液先用哪个| 亚洲av免费在线观看| 嫩草影院新地址| 国产淫片久久久久久久久| 18禁动态无遮挡网站| 久久久久久久亚洲中文字幕| 伦精品一区二区三区| 亚洲欧美精品自产自拍| 欧美日韩在线观看h| 在线免费观看的www视频| 最近中文字幕高清免费大全6| 日韩亚洲欧美综合| 特大巨黑吊av在线直播| 欧美高清成人免费视频www| 一个人看的www免费观看视频| av在线蜜桃| 久久精品国产自在天天线| 床上黄色一级片| 啦啦啦中文免费视频观看日本| 春色校园在线视频观看| 国产精品久久久久久久久免| 乱码一卡2卡4卡精品| 久久这里有精品视频免费| 久久久久久久久久久免费av| 永久免费av网站大全| 亚洲成人中文字幕在线播放| 久久久国产一区二区| 久久97久久精品| 日韩一区二区视频免费看| 精品国产一区二区三区久久久樱花 | 性色avwww在线观看| 超碰97精品在线观看| 秋霞伦理黄片| 国产精品1区2区在线观看.| 中文欧美无线码| 久久人人爽人人爽人人片va| 美女内射精品一级片tv| 男人狂女人下面高潮的视频| 精品一区二区三卡| 夫妻性生交免费视频一级片| 久久国产乱子免费精品| 一级毛片电影观看| 最近手机中文字幕大全| 精品99又大又爽又粗少妇毛片| 亚洲性久久影院| 精品一区二区三区人妻视频| 噜噜噜噜噜久久久久久91| 久久久久久久国产电影| av在线蜜桃| 听说在线观看完整版免费高清| 婷婷色av中文字幕| 亚洲国产高清在线一区二区三| 色综合站精品国产| 精品亚洲乱码少妇综合久久| 精品一区二区三区人妻视频| 欧美日韩视频高清一区二区三区二| 精品亚洲乱码少妇综合久久| 街头女战士在线观看网站| 国产成人a∨麻豆精品| 精品一区二区三卡| 亚洲欧洲国产日韩| 在线免费观看不下载黄p国产| 黄色一级大片看看| 淫秽高清视频在线观看| 观看免费一级毛片| 亚洲熟女精品中文字幕| 国产精品久久久久久精品电影小说 | 乱系列少妇在线播放| 麻豆成人av视频| 久久精品夜夜夜夜夜久久蜜豆| 久久久久网色| 网址你懂的国产日韩在线| 亚洲熟妇中文字幕五十中出| 久热久热在线精品观看| 久久精品人妻少妇| 性色avwww在线观看| 亚洲精华国产精华液的使用体验| 免费电影在线观看免费观看| 国产亚洲一区二区精品| 亚洲精品aⅴ在线观看| 少妇裸体淫交视频免费看高清| 老师上课跳d突然被开到最大视频| 日韩av不卡免费在线播放| 久久97久久精品| 欧美97在线视频| 亚洲精品日韩av片在线观看| 亚洲国产色片| 久久久久久久久久人人人人人人| 久久综合国产亚洲精品| 大又大粗又爽又黄少妇毛片口| 97人妻精品一区二区三区麻豆| 精品欧美国产一区二区三| 欧美人与善性xxx| 亚洲一级一片aⅴ在线观看| 非洲黑人性xxxx精品又粗又长| 波野结衣二区三区在线| 日本av手机在线免费观看| 国产日韩欧美在线精品| 国产伦精品一区二区三区视频9| 水蜜桃什么品种好| 全区人妻精品视频| 日本av手机在线免费观看| 精品久久久噜噜| 精品人妻视频免费看| 日本欧美国产在线视频| 看十八女毛片水多多多| 视频中文字幕在线观看| 亚洲av中文字字幕乱码综合| www.色视频.com| 国产视频内射| 国产免费福利视频在线观看| 女人十人毛片免费观看3o分钟| 日本一本二区三区精品| 久久99蜜桃精品久久| 亚洲四区av| 十八禁网站网址无遮挡 | 亚洲国产日韩欧美精品在线观看| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 精品99又大又爽又粗少妇毛片| 精品人妻偷拍中文字幕| 毛片女人毛片| 国内精品一区二区在线观看| 最近视频中文字幕2019在线8| 乱码一卡2卡4卡精品| 日韩欧美精品v在线| 好男人在线观看高清免费视频| 国产成人精品久久久久久| 欧美性猛交╳xxx乱大交人| 99热这里只有是精品50| 又大又黄又爽视频免费| 麻豆av噜噜一区二区三区| 日本黄大片高清| 一区二区三区四区激情视频| av在线亚洲专区| 国产一区亚洲一区在线观看| 天堂影院成人在线观看| 欧美bdsm另类| 嘟嘟电影网在线观看| 中文天堂在线官网| 2021少妇久久久久久久久久久| 亚洲欧美日韩东京热| 精品久久国产蜜桃| 中文字幕久久专区| 日韩三级伦理在线观看| 日韩欧美国产在线观看| 国内揄拍国产精品人妻在线| 如何舔出高潮| 亚洲欧美日韩无卡精品| 麻豆精品久久久久久蜜桃| 午夜福利在线观看免费完整高清在| 亚洲精品久久午夜乱码| 国产伦在线观看视频一区| 一边亲一边摸免费视频| 久久久久久久亚洲中文字幕| 国产伦精品一区二区三区视频9| 天堂俺去俺来也www色官网 | 久久久色成人| 亚洲电影在线观看av| 国产高清有码在线观看视频| 久久亚洲国产成人精品v| 午夜激情久久久久久久| 国产色爽女视频免费观看| 男人舔女人下体高潮全视频| 极品教师在线视频| 国产 一区精品| 97精品久久久久久久久久精品| av.在线天堂| 久久韩国三级中文字幕| 大香蕉久久网| 国产av国产精品国产| kizo精华| 麻豆国产97在线/欧美| 精品人妻一区二区三区麻豆| 亚洲美女视频黄频| 亚洲久久久久久中文字幕| 日本与韩国留学比较| 亚洲av.av天堂| 如何舔出高潮| 人妻夜夜爽99麻豆av| 99九九线精品视频在线观看视频| 免费看不卡的av| 国产成人精品婷婷| 欧美一级a爱片免费观看看| 精品一区二区免费观看| 欧美成人精品欧美一级黄| 日韩欧美 国产精品| 午夜福利在线观看吧| 久久鲁丝午夜福利片| 亚洲av电影在线观看一区二区三区 | 欧美高清成人免费视频www| 亚洲国产欧美在线一区| 亚洲在线观看片| 久久久久久伊人网av| 成人亚洲精品av一区二区| 国产av在哪里看| 亚洲欧美清纯卡通| 人体艺术视频欧美日本| av国产久精品久网站免费入址| 国产成人freesex在线| 国产视频首页在线观看| 免费看不卡的av| 九色成人免费人妻av| 男女那种视频在线观看| 日韩三级伦理在线观看| 精品久久久噜噜| 免费电影在线观看免费观看| 99久久人妻综合| av国产免费在线观看| 麻豆av噜噜一区二区三区| 神马国产精品三级电影在线观看| 97精品久久久久久久久久精品| 1000部很黄的大片| 久久久久精品性色| 精品人妻偷拍中文字幕| 免费黄色在线免费观看| 婷婷色麻豆天堂久久| 熟女人妻精品中文字幕| 亚洲av日韩在线播放| 日本一二三区视频观看| 国产一级毛片七仙女欲春2| 插阴视频在线观看视频| 国产av码专区亚洲av| av卡一久久| www.av在线官网国产| 99九九线精品视频在线观看视频| 国产伦一二天堂av在线观看| 成人漫画全彩无遮挡| 欧美高清成人免费视频www| 国产一区二区亚洲精品在线观看| 波多野结衣巨乳人妻| 精品久久久久久久久av| 小蜜桃在线观看免费完整版高清| 男女国产视频网站| 中国美白少妇内射xxxbb| 激情 狠狠 欧美| 日韩欧美一区视频在线观看 | 国产精品不卡视频一区二区| 超碰av人人做人人爽久久| 日韩成人伦理影院| 免费大片18禁| 日本熟妇午夜| 男女视频在线观看网站免费| 精品不卡国产一区二区三区| 久久国内精品自在自线图片| 1000部很黄的大片| 最近2019中文字幕mv第一页| 免费高清在线观看视频在线观看| 免费在线观看成人毛片| 亚洲自拍偷在线| 亚洲成人一二三区av| 亚洲自拍偷在线| 超碰97精品在线观看| 欧美日韩在线观看h| 国产单亲对白刺激| 亚洲成人中文字幕在线播放| 内地一区二区视频在线| 免费av毛片视频| 直男gayav资源| www.色视频.com| 亚洲天堂国产精品一区在线| 在线免费观看的www视频| 国产综合懂色| 国产一区二区在线观看日韩| 少妇熟女欧美另类| 中文欧美无线码| 午夜激情欧美在线| 国产精品久久久久久久电影| 一区二区三区免费毛片| 午夜福利在线观看免费完整高清在| 国产亚洲av嫩草精品影院| 免费观看在线日韩| 人妻少妇偷人精品九色| 久久99精品国语久久久| 国产精品蜜桃在线观看| 九九久久精品国产亚洲av麻豆| 国产久久久一区二区三区| 菩萨蛮人人尽说江南好唐韦庄| 亚洲不卡免费看| 日本wwww免费看| 日韩欧美国产在线观看| 午夜激情久久久久久久| 人人妻人人看人人澡| 国产精品精品国产色婷婷| 亚洲,欧美,日韩| 久久精品久久精品一区二区三区| www.av在线官网国产| 欧美成人a在线观看| 精品不卡国产一区二区三区| 好男人在线观看高清免费视频| 91久久精品电影网| 99热这里只有是精品在线观看| 国产精品福利在线免费观看| 久久久久久久国产电影| 国产成人免费观看mmmm| 大又大粗又爽又黄少妇毛片口| 男女边吃奶边做爰视频| 国产伦一二天堂av在线观看| 久久韩国三级中文字幕| 日本-黄色视频高清免费观看| 男人爽女人下面视频在线观看| 国产永久视频网站| 女人被狂操c到高潮| 黄片wwwwww| av线在线观看网站| 欧美精品国产亚洲| 亚洲精华国产精华液的使用体验| 国产黄色小视频在线观看| 岛国毛片在线播放| 亚洲精品国产av成人精品| 精品熟女少妇av免费看| 三级毛片av免费| 在线观看av片永久免费下载| 国产精品熟女久久久久浪| 国产黄片美女视频| 天美传媒精品一区二区| 免费看不卡的av| 黑人高潮一二区| 亚洲美女搞黄在线观看| 自拍偷自拍亚洲精品老妇| 老司机影院成人| 国产毛片a区久久久久| av在线天堂中文字幕| 成人美女网站在线观看视频| 免费播放大片免费观看视频在线观看| 最近的中文字幕免费完整| 插逼视频在线观看| 国精品久久久久久国模美| 国产又色又爽无遮挡免| www.色视频.com| 久久久久久久大尺度免费视频| 日韩av在线免费看完整版不卡| 美女cb高潮喷水在线观看| 欧美激情久久久久久爽电影| 青春草亚洲视频在线观看| 精品国内亚洲2022精品成人| 久久精品夜夜夜夜夜久久蜜豆| 国产视频内射| 国内少妇人妻偷人精品xxx网站| 男人爽女人下面视频在线观看| 午夜福利在线在线| 国产精品蜜桃在线观看| 丰满人妻一区二区三区视频av| 国产色婷婷99| 亚洲av电影在线观看一区二区三区 | 亚洲经典国产精华液单| 好男人在线观看高清免费视频| 午夜福利在线在线| 蜜桃久久精品国产亚洲av| 一级二级三级毛片免费看| 小蜜桃在线观看免费完整版高清| 国产亚洲91精品色在线| 亚洲国产精品国产精品| 美女主播在线视频| av播播在线观看一区| 乱系列少妇在线播放| 欧美日韩一区二区视频在线观看视频在线 | 日韩成人av中文字幕在线观看| h日本视频在线播放| 一本一本综合久久| 国产三级在线视频| 精品久久久久久久久久久久久| 少妇的逼好多水| 高清视频免费观看一区二区 | 纵有疾风起免费观看全集完整版 | 边亲边吃奶的免费视频| 成人二区视频| 97超视频在线观看视频| 人人妻人人看人人澡| 欧美激情在线99| 国产有黄有色有爽视频| 免费黄色在线免费观看| 日韩不卡一区二区三区视频在线| 日韩电影二区| 69人妻影院| 美女脱内裤让男人舔精品视频| 男人爽女人下面视频在线观看| 国产三级在线视频| 中文字幕人妻熟人妻熟丝袜美| 久久精品综合一区二区三区| 国产毛片a区久久久久| 国产亚洲精品久久久com| 日产精品乱码卡一卡2卡三| 成人鲁丝片一二三区免费| 久久久成人免费电影| 美女被艹到高潮喷水动态| 超碰av人人做人人爽久久| 色网站视频免费| 最近的中文字幕免费完整| 日韩中字成人| 大又大粗又爽又黄少妇毛片口| 在线观看美女被高潮喷水网站| 夫妻性生交免费视频一级片| 欧美xxxx性猛交bbbb| 最新中文字幕久久久久| 亚洲丝袜综合中文字幕| 一区二区三区四区激情视频| 精品熟女少妇av免费看| 亚洲欧美中文字幕日韩二区| 久久热精品热| 亚洲欧美一区二区三区国产| 亚洲av国产av综合av卡| 免费看日本二区| 男人舔女人下体高潮全视频| 别揉我奶头 嗯啊视频| 亚洲国产精品专区欧美| 赤兔流量卡办理| 午夜福利视频精品| 成人毛片a级毛片在线播放| 女的被弄到高潮叫床怎么办| 国产成人精品婷婷| 看免费成人av毛片| 简卡轻食公司| 亚洲av成人精品一二三区| 国产伦精品一区二区三区四那| 久久6这里有精品| 国产高潮美女av| 午夜福利成人在线免费观看| 麻豆国产97在线/欧美| 国产成人精品福利久久| 乱系列少妇在线播放| 久久精品久久久久久噜噜老黄| 免费人成在线观看视频色| 亚洲欧美日韩卡通动漫| 久久久久久九九精品二区国产| 午夜精品国产一区二区电影 | 日日干狠狠操夜夜爽| 免费观看av网站的网址| 免费看av在线观看网站| 爱豆传媒免费全集在线观看| 亚洲无线观看免费| 免费观看的影片在线观看| 国产三级在线视频| 亚洲人成网站高清观看| 最近中文字幕高清免费大全6| 身体一侧抽搐| 狠狠精品人妻久久久久久综合| 有码 亚洲区| 久久久久久久久久久免费av| 午夜激情福利司机影院| 高清日韩中文字幕在线| 高清视频免费观看一区二区 | 国产精品无大码| 天堂网av新在线| 69人妻影院| 中文天堂在线官网| 久久精品国产亚洲av天美| 成人特级av手机在线观看| 成人亚洲精品一区在线观看 | 国产高清国产精品国产三级 | 欧美不卡视频在线免费观看| 精品人妻熟女av久视频| www.色视频.com| 日日摸夜夜添夜夜添av毛片| 国内精品宾馆在线| 26uuu在线亚洲综合色| 国产在线男女| av国产久精品久网站免费入址| av在线观看视频网站免费| 又黄又爽又刺激的免费视频.| 亚洲精品久久午夜乱码| 午夜福利高清视频| 伊人久久国产一区二区| 一级毛片久久久久久久久女| 我的老师免费观看完整版| 内地一区二区视频在线| 亚洲最大成人av| 精品国产露脸久久av麻豆 | 国产乱人视频| 亚洲国产精品国产精品| 一级毛片久久久久久久久女| 成人毛片60女人毛片免费| 九九爱精品视频在线观看| 乱人视频在线观看| 国产一级毛片七仙女欲春2| 亚洲精品国产av蜜桃| 色综合站精品国产| 全区人妻精品视频| 亚洲av不卡在线观看| 精品一区在线观看国产| 国产精品一区二区在线观看99 | ponron亚洲| av黄色大香蕉| 国产黄片视频在线免费观看| 在线观看av片永久免费下载| 日韩欧美国产在线观看| 免费观看性生交大片5| 男的添女的下面高潮视频| 又爽又黄a免费视频| 亚洲av一区综合| 国产高潮美女av| 天堂影院成人在线观看| 最近中文字幕高清免费大全6| 精品人妻偷拍中文字幕| 老师上课跳d突然被开到最大视频| 校园人妻丝袜中文字幕| 日韩一本色道免费dvd| 精品久久久久久久久久久久久| 嫩草影院新地址| 日韩精品青青久久久久久| 亚洲在线自拍视频| 六月丁香七月|