• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于預(yù)訓(xùn)練模型和聯(lián)合調(diào)參的改進訓(xùn)練算法

    2020-04-09 04:53:08蘇海波劉譯璟
    中國信息化 2020年2期
    關(guān)鍵詞:語義效果實驗

    蘇海波 劉譯璟

    一、 引言

    諸如BERT和Open-GPT等預(yù)訓(xùn)練語言模型的引入,為NLP研究和工業(yè)界帶來了巨大的進步,這些模型的貢獻可以分為兩個方面。首先,經(jīng)過預(yù)訓(xùn)練的語言模型使建模人員可以利用少量數(shù)據(jù)獲得合理的準確性,這種策略與經(jīng)典的深度學(xué)習方法相反,經(jīng)典的深度學(xué)習方法需要大量的數(shù)據(jù)才能達到可比的結(jié)果。其次,對于許多NLP任務(wù),例如SQuAD,CoQA,命名實體識別,Glue,機器翻譯,預(yù)訓(xùn)練的模型如果給定合理數(shù)量的標記數(shù)據(jù),可以創(chuàng)造新的State-of-the-art記錄。

    在預(yù)訓(xùn)練語言模型時代,新的技術(shù)會遵循兩個方向發(fā)展,第一個方向是改進預(yù)訓(xùn)練過程,例如ERNIE和GPT2.0。第二個方向是在預(yù)先訓(xùn)練的語言模型之上構(gòu)建新的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。

    目前有三種算法可以在預(yù)訓(xùn)練的語言模型之上訓(xùn)練帶有上層神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu),如表1所示,其中,算法NFT-TM是指在BERT模型的上層添加復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),在訓(xùn)練時,固定BERT的參數(shù),僅單獨訓(xùn)練上層任務(wù)模型網(wǎng)絡(luò)。算法FT-NTM是指在在BERT模型后接一個簡單的特定任務(wù)層(如全連接網(wǎng)絡(luò)),在訓(xùn)練時,根據(jù)任務(wù)的訓(xùn)練樣本集對BERT進行fine-tune即可。Peter等比較了算法FT-NTM和NFT-TM的可能性,并得出結(jié)論,算法FT-NTM比NFT-TM的效果更好。然而,Peter等沒有比較算法FT-TM和FT-NTM。另一方面,在預(yù)訓(xùn)練語言模型流行之前,研究人員經(jīng)常使用與方法FT-TM類似的策略,也就是說,建模人員首先對模型進行訓(xùn)練,直到收斂為止,然后在幾個訓(xùn)練周期內(nèi)對詞嵌入進行微調(diào)。由于預(yù)訓(xùn)練的語言模型類似于詞嵌入,那么不考慮算法FT-TM將是不明智的。

    在這項研究中,我們的目標是比較算法FT-TM和FT-NTM的效果,更具體地說,我們執(zhí)行三個NLP任務(wù),包括序列標記、文本分類和句子語義等價性。在第一個任務(wù)中,實驗結(jié)果表明即使不修改網(wǎng)絡(luò)結(jié)構(gòu),在預(yù)訓(xùn)練語言模型之上構(gòu)建上層網(wǎng)絡(luò)也可以提高準確性。在第二個任務(wù)中,實驗結(jié)果表明通過集成不同的神經(jīng)網(wǎng)絡(luò),甚至可以進一步提高微調(diào)方法FT-NTM的效果。在最后一項任務(wù)中,實驗結(jié)果表明如果可以定制一個專門適合于預(yù)訓(xùn)練語言模型特征的上層神經(jīng)網(wǎng)絡(luò),則可以進一步提高效果。因此,所有實驗結(jié)果都表明算法FT-TM優(yōu)于FT-NTM。

    本文接下來的內(nèi)容安排如下,首先,我們回顧了有關(guān)預(yù)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的相關(guān)文獻,包括Peter等人的觀點以及帶有詞嵌入的微調(diào)策略。其次,我們給出了三個實驗的結(jié)果,并顯示了算法FT-TM與FT-NTM相比,能達到更好的效果,證明了算法FT-TM的優(yōu)勢。

    二、文獻綜述

    在引入深度神經(jīng)網(wǎng)絡(luò)之前,NLP領(lǐng)域的研究人員一直在使用預(yù)訓(xùn)練模型。在它們當中,最著名的是詞嵌入,它把每個單詞映射到一個連續(xù)的向量中,而不是使用one-hot編碼。這樣,我們不僅可以減少輸入函數(shù)的維數(shù)(這有助于避免過擬合),而且還可以捕獲每個單詞的內(nèi)部含義。

    但是,由于每個單詞在詞嵌入中僅被賦予固定的數(shù)值矢量,因此詞嵌入無法捕獲單詞在文本中的上下文含義。例如,考慮“蘋果”一詞,句子“我吃了一個蘋果”和“我買了一個蘋果電腦”。 顯然,“ 蘋果”一詞代表完全不同的含義,而詞嵌入技術(shù)卻無法捕捉到這種語義的差別。

    上述缺陷促使研究人員提出了一種深度神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)能夠以無監(jiān)督的方式進行訓(xùn)練,同時能夠捕獲文本中包含單詞的上下文含義。一些早期的嘗試包括各種預(yù)訓(xùn)練模型,例如基于LSTM構(gòu)建的ELMo[ULMFiT,但是,最成功的是BERT和Open-GPT,與ELMo和ULMFiT不同,BERT和Open-GPT構(gòu)建在Transformer結(jié)構(gòu)之上,不同之處在于BERT使用雙向自注意力,而Open-GPT僅使用單向注意力,如圖1所示。Transformer的結(jié)構(gòu)與LSTM有兩個重要不同,首先,它允許使用殘余連接和批處理歸一化來連接多層網(wǎng)絡(luò),從而允許自由梯度流動。其次,Transformer的核心計算單元是矩陣乘法,這使研究人員可以充分利用TPU的全部計算潛力。經(jīng)過大型語料庫的訓(xùn)練后,BERT和Open-GPT都能夠更新許多重要自然語言任務(wù)的基準,例如SQuAD,CoQA,命名為實體識別[6],Glue,機器翻譯。

    在存在預(yù)訓(xùn)練語言模型的情況下,那么如何最好地利用預(yù)訓(xùn)練模型獲得更好的效果呢?在這方面,Peters等研究了如何使用預(yù)訓(xùn)練模型最佳地適應(yīng)目標任務(wù),并提出了兩種不同的適應(yīng)算法:特征提取算法和直接微調(diào)預(yù)訓(xùn)練模型算法,這對應(yīng)于表1中的算法NFT-TM和FT-NTM,Peters等進行了五個實驗,包括:(1)命名實體識別;(2)情緒分析;(3)自然語言推論;(4)復(fù)述檢測;(5)語義文本相似度。通過執(zhí)行所有這些任務(wù),Peters等得出的結(jié)論是,算法FT-NTM比NFT-TM的效果更好。

    Peters等的工作展示了如何應(yīng)用預(yù)訓(xùn)練語言模型,我們認為這方面還需要深入研究。在預(yù)訓(xùn)練語言模提出型之前,建模人員通常采用以下策略,首先,他們在詞嵌入之上訓(xùn)練了語言模型,通常采用CNN或LSTM的形式,并固定單詞嵌入,在訓(xùn)練過程收斂之后,再將詞嵌入微調(diào)訓(xùn)練幾個時期,實驗結(jié)果顯示出該策略可以提高整體預(yù)測精度。如果將預(yù)訓(xùn)練語言模型視為詞嵌入的增強版本,那么可以類似的提高訓(xùn)練效果的算法,更具體地說,就是首先在預(yù)訓(xùn)練語言模型之上訓(xùn)練上層神經(jīng)網(wǎng)絡(luò)直到某個收斂點,然后聯(lián)合訓(xùn)練整個神經(jīng)網(wǎng)絡(luò)(包括預(yù)訓(xùn)練語言模型),這會進一步改善結(jié)果。

    三、 改進訓(xùn)練算法FT-TM

    在傳統(tǒng)的NLP語言處理中,通常采用的方法是詞向量加上層模型的方式。在這個訓(xùn)練的過程中,由于詞向量是已經(jīng)經(jīng)過大量訓(xùn)練,而上層模型的參數(shù)初始化是隨機的,所以一般來說,如果直接同時訓(xùn)練詞向量的參數(shù)和上層模型的參數(shù),其效果將會大打折扣。對于這種情況,常常采用的策略是,首先固定詞向量,并訓(xùn)練上層模型若干輪數(shù)達到理想效果,然后訓(xùn)練詞向量或詞向量加上層模型少數(shù)epoch。

    如果我們將以上思維應(yīng)用于BERT的話,我們會發(fā)現(xiàn)如果我們僅僅是同時訓(xùn)練BERT和上層模型將會產(chǎn)生較差的效果。BERT相比于詞向量具備更大的參數(shù),因此如果我們同時訓(xùn)練上層模型和BERT,就會面臨兩種困境。如果我們采用較小的學(xué)習率,上層模型收斂就會較慢,其效果不好。如果我們采用較大的學(xué)習率,就會嚴重破壞已經(jīng)預(yù)訓(xùn)練好的BERT結(jié)構(gòu)。因此我們必須采用其他的方法進行訓(xùn)練。

    根據(jù)剛剛的分析,我們在本文中提出了一種基于預(yù)訓(xùn)練模型和聯(lián)合調(diào)參的改進訓(xùn)練算法FT-TM,在該算法中,首先固定BERT的參數(shù),然后訓(xùn)練上層的模型。在這里上層的模型既可以是比較通用的,例如LSTM和CNN,也可以是其他的模型。當訓(xùn)練達到一定的精度后,再同時開始訓(xùn)練BERT和上層模型,我們發(fā)現(xiàn)FT-TM已經(jīng)可以顯著的提高訓(xùn)練的效果。

    但是在訓(xùn)練的過程中,有一些問題需要注意,首先如果是對于詞向量來說,一般的方法是訓(xùn)練上層模型直至其收斂,換句話說,直至其在驗證集上達到的最高的準確率。但是在對BERT進行試驗的時候我們發(fā)現(xiàn),這種方法效果并不理想,通過分析其訓(xùn)練集和驗證集的預(yù)測精度對比,我們發(fā)現(xiàn)問題的根源在于可能存在的過擬合現(xiàn)象,這也是有一定直觀原因的,從參數(shù)數(shù)量來說,BERT的參數(shù)數(shù)量遠大于上層模型和常用的NLP模型,所以如果在上層模型精度達到最高后再開始訓(xùn)練,BERT就很有可能導(dǎo)致嚴重的過擬合。

    這點在具體的NLP任務(wù)實驗中也是很明顯的,在實驗中,這樣的做法下,訓(xùn)練集的精度甚至會達到接近100%,為了解決這個問題,F(xiàn)T-TM中的做法是,不在上層模型收斂后再開始訓(xùn)練BERT和上層模型,而是在其達到一定的準確度就開始這個過程。

    除此之外,在訓(xùn)練BERT的時候還會有另外的一種情況,如果BERT預(yù)訓(xùn)練語料和目標語料差別較大,就可能BERT在fine-tune的時候收斂很慢。在這種情況下,采用以上的方法進行訓(xùn)練效果并不好,為了應(yīng)對這種情況,F(xiàn)T-TM中采取的做法是:首先,采用BERT加上全連接層對BERT的參數(shù)進行fine-tune,然后再采用前面講到的措施進行fine-tune。

    同時,在句子語義等價的NL P任務(wù)上,我們對FT-TM算法進行了進一步的具體化,在具體的實現(xiàn)中,預(yù)訓(xùn)練模型采用BERT,上層神經(jīng)網(wǎng)絡(luò)基于BIMPM進行了改進,在下文的實驗部分會介紹這種方法的效果,目的是說明FT-TM這種聯(lián)合訓(xùn)練的算法相比FT-NTM能達到更好的效果,甚至能達到業(yè)界的State-of-the-art。在具體介紹算法之前,首先對句子等價的任務(wù)進行說明。判斷句子是否等價的任務(wù)要遠遠比單純的詞語匹配復(fù)雜。舉例來說,問題“市政府的管轄范圍是什么?”和“市長的管轄范圍是什么?”僅有兩個字的差異,但兩者語義是不相同的,因此其回答也應(yīng)該不一樣的。另一方面來說,“市政府的職責是什么”和“請問,從法律上來講,市政府究竟可以管哪些事情“這兩個問題,除去在“市政府”一詞外,幾乎是沒有任何重合的,但兩者語義是等價的,因此其答案也應(yīng)該是一樣的。從這幾個例子來看,句子匹配的任務(wù)需要模型能夠真正理解其句子的語義。

    在BERT等預(yù)訓(xùn)練模型出現(xiàn)之前,語義本身的表達一般是用word vector來實現(xiàn)。為了得到句子的深層語義表達,所采用的方法往往是在上層架設(shè)網(wǎng)絡(luò),以BIMPM為例,BIMPM是一種matching-aggregation的方法,它對兩個句子的單元做匹配,如經(jīng)過LSTM處理后得到不同的time step輸出,然后通過一個神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)化為向量,然后再將向量做匹配。下面來詳細介紹一下BiMPM的大體流程,如圖中所示,從Word Representation Layer 開始,將每個句子中的每個詞語表示成d維向量,然后經(jīng)過Context Representation Layer 將上下文的信息融合到需要對比的P和Q兩個問題中的每個time-step表示。Matching Layer 則會比較問題P和問題Q的所有上下文向量,這里會用到multiperspective 的匹配方法,用于獲取兩個問題細粒度的聯(lián)系信息,然后進入Aggregation Layer 聚合多個匹配向量序列,組成一個固定長度的匹配向量,最后用于Prediction Layer 進行預(yù)測概率。

    通過BIMPM模型可以捕捉到句子之間的交互特征,但是這樣的匹配僅僅也只是在表層特征進行比較,并不涉及深層次的特征比較。為了進行深層次的特征比較,我們借鑒了圖像中的MMD思想,Maximum Mean Discrepancy,即最大平均差異,通過深度神經(jīng)網(wǎng)絡(luò)的特征變換能力,對變換后的特征分布進行匹配。MMD的最大優(yōu)點在于它不僅進行表層特征的匹配,還進行深層次特征的匹配,這樣可以更精確地計算出特征之間的匹配程度,提升模型的效果。拿圖像對比來舉例,圖像中所蘊含的信息不單單是由表層特征就可以來涵蓋的,往往是通過表層、多個隱藏層以及它們之間不同的參數(shù)相加得到的結(jié)果。

    BIMPM將每個句子中的每個詞語表示成d維向量,然后經(jīng)過Context Representation Layer,將上下文的信息融合到需要對比的P和Q兩個句子中的timestep表示,最終比較句子P和句子Q的所有上下文向量,但它也只是對表層特征進行匹配,從而忽略很多額外的語義特征,但是BERT 預(yù)訓(xùn)練模型的流行,讓深層特征匹配成為了現(xiàn)實。

    如果我們將MMD的思想應(yīng)用到句子匹配的任務(wù)上,并用BERT預(yù)訓(xùn)練深層模型來實現(xiàn),就會得到一個重要的啟發(fā),MMD思想的主要效果來源于它將BERT預(yù)訓(xùn)練深層模型的不同層表示進行匹配,形象地來說,這是一種“向下匹配”的思維。而BIMPM由于在BERT之前出現(xiàn),其語義表示只能通過詞(字)向量和LSTM等網(wǎng)絡(luò)進行,因此它捕捉特征表示的方法只能通過“向上匹配”。這是否意味著自從BERT出現(xiàn)以后,將這兩種方式進行結(jié)合呢?

    基于這個思路,我們在本文中提出了問題語義等價的FT-TM具體實現(xiàn),它的思想是將特征“向下匹配”和“向上匹配”相結(jié)合。在具體的實現(xiàn)上,我們分別從BERT深層模型的最后幾層中提取特征通過加法進行拼接,替代原始的字向量輸入到BIMPM模型當中。這種做法是和MMD很相似的,只不過MMD中采用各種距離函數(shù),而在這里我們采用的是多種匹配函數(shù)。除此之外,我們對BIMPM模型也做了以下修改:

    首先,我們?nèi)サ袅嗽糂IMPM模型中接在字向量層的Bi-LSTM模型,之所以這樣做,其原因在于LSTM并沒有設(shè)計機制保證梯度向深度模型的后向傳導(dǎo);

    其次,我們用Transformer模型替代了BIMPM最上層的Bi-LSTM模型。這樣做的原因主要是考慮到Bi-LSTM能夠捕捉數(shù)據(jù)當中的序列特征。但是由于BIMPM采用多種匹配后,其序列性并不強,所以Transformer更適合該模型。

    四、實驗

    (一) 概述

    本節(jié)內(nèi)容會通過三個不同NLP任務(wù)的實驗來檢驗我們的設(shè)想,首先,通過在BERT模型頂部添加BiLSTM來運行命名實體識別任務(wù)。在本實驗中,我們希望測試通過對常用網(wǎng)絡(luò)結(jié)構(gòu)進行修改,提出的訓(xùn)練策略是否可以提高整體準確性。其次,我們進行文本分類實驗,實驗中訓(xùn)練了三個模型,并執(zhí)行了模型集成。我們希望驗證,如果添加的網(wǎng)絡(luò)無法顯著提高準確性,但可以通過模型集成來提高效果。最后,我們進行了文本語義相似性測試,實驗結(jié)果表明,如果可以定制一個專門適合于預(yù)訓(xùn)練語言特征的網(wǎng)絡(luò),則可以期待更大的改進。

    (二) 實驗A:序列標注

    在序列標記任務(wù)中,我們使用共享基準數(shù)據(jù)集CoNLL03數(shù)據(jù)集探索實體識別子任務(wù)。相關(guān)文獻在此數(shù)據(jù)集上測試了它們的新網(wǎng)絡(luò)結(jié)構(gòu)。該實驗以僅對BERT進行fine-tune(即方法FT-NTM)的結(jié)果為baseline,對比了在BERT基礎(chǔ)上增加一個傳統(tǒng)用于NER任務(wù)的Bi-LSTM網(wǎng)絡(luò)(即方法FT-TM)的效果,實驗結(jié)果如表2中所示。

    實驗結(jié)果表明,結(jié)合BERT的fine-tune和上層神經(jīng)網(wǎng)絡(luò)的FT-TM算法在該任務(wù)上的F1值較baseline提升了近7個百分點。

    (三)實驗B:文本分類

    在文本分類任務(wù)中,我們使用了Yahoo Answer分類數(shù)據(jù)集. Yahoo Answers由10個類構(gòu)成,但是由于數(shù)據(jù)集數(shù)量巨大,我們只選擇其中兩個。對于上層模型,我們選擇DenseNet和HighwayLSTM。

    DenseNet結(jié)構(gòu)包含四個獨立的塊,每個塊具有四個通過殘差連接的CNN。我們使用BERT初始化詞表示層中的詞嵌入。我們將每個字符初始化為768維向量。在訓(xùn)練DenseNet的實驗中,我們將使用[CLS]進行預(yù)測的DenseNet輸出向量,隱藏大小設(shè)置為300。在所有實驗中,我們還使用了dropout技巧以避免每個完全連接的層過度擬合,并將dropout率設(shè)置為0.5。

    實驗結(jié)果如表3中所示,可以看出,雖然模型集成后的效果并不十分明顯,但也有一定的效果提升。

    (四)實驗C:句子語義等價任務(wù)

    我們使用“Quora-Question-Pairs”標準數(shù)據(jù)集,這是一個包含40萬個問題對的數(shù)據(jù)集,人工注釋是否等效。 由于數(shù)據(jù)集的質(zhì)量很高,它是測試各種語義相似性模型效果的標準數(shù)據(jù)集,相關(guān)文獻提出了在該數(shù)據(jù)集上進行效果測試的各種模型。我們提出的FT-TM算法在公開的Quora數(shù)據(jù)集達到了目前的Stateof-the-art,這個數(shù)據(jù)集包括了超過400,000問題組,專門用來研究兩個句子是否語義等價的二分問題。因為該數(shù)據(jù)集的標注質(zhì)量非常高,它經(jīng)常用來測試語義理解的模型效果,我們按照7:2:1的比例來分配訓(xùn)練集、驗證集和測試集。

    本次實驗將僅對BERT進行fine-tune的方法FTNTM為baseline,對比了在BERT之后接BIMPM網(wǎng)絡(luò)的效果。同時以方法NFT-TM為baseline,對比了兩種改進BIMPM之后模型結(jié)構(gòu)的效果(移除BIMPM中的第一層Bi-LSTM模型和將BIMPM的matching層與transformer相結(jié)合的模型)。注意,在模型訓(xùn)練時有個重要的技巧,考慮到預(yù)訓(xùn)練模型本身的效果和其與頂層模型的融合問題,在訓(xùn)練模型時,需要分兩步進行:先固定預(yù)訓(xùn)練模型的參數(shù),僅訓(xùn)練其上層特定任務(wù)網(wǎng)絡(luò),第二步再將整個網(wǎng)絡(luò)聯(lián)合訓(xùn)練。實驗結(jié)果如表4中所示,可以看出,由實驗結(jié)果可得,Bert+SimTransformer結(jié)合fine-tune Bert的FT-TM算法效果相較僅對BERT進行fine-tune的方法FT-NTM,準確率提升了近5個百分點,達到了目前的State-of-the-art。

    為了確保實驗結(jié)論的有效性,除去Quora的數(shù)據(jù)集之外,我們還采用了SLNI數(shù)據(jù)集當中包含句子等價性的數(shù)據(jù)集,該數(shù)據(jù)集包括55萬條訓(xùn)練集和10000條測試集。很多學(xué)者都用了這些數(shù)據(jù)來測試他們的模型包效果,對比這些模型,F(xiàn)T-TM算法的準確率上有將近兩個點的提升,達到了目前的State-of-the-art,具體實驗結(jié)果如下表所示:

    因此,從上面一系列的實驗結(jié)果可以看出,我們提出的結(jié)合上層復(fù)雜模型和fine-tune的算法FT-TM是有效的,并且在NLP任務(wù)中優(yōu)于fine-tune的算法FTNTM,同時在BERT預(yù)訓(xùn)練模型上面集成的神經(jīng)網(wǎng)絡(luò)模型好壞也會影響到最終的任務(wù)效果。

    五、總結(jié)

    在NLP的預(yù)訓(xùn)練語言模型時代,針對已有的兩種主流算法NFT-TM和FT-NTM,本文提出了一種新算法FT-TM,它首先在BERT的基礎(chǔ)上建立一個上層神經(jīng)網(wǎng)絡(luò)(LSTM或者CNN等等),然后在適當?shù)牟呗韵聦烧哌M行同時訓(xùn)練,該算法融合了NFT-TM和FT-NTM兩種算法的優(yōu)勢,通過一系列NLP任務(wù)的實驗結(jié)果表明,新算法FT-TM能取得更好的效果,而且在公開的Quora和SLNI兩個問題語義等價數(shù)據(jù)集上,新算法FT-TM的效果都達到了目前的State-of-the-art。

    作者單位:北京百分點信息科技有限公司

    猜你喜歡
    語義效果實驗
    記一次有趣的實驗
    按摩效果確有理論依據(jù)
    語言與語義
    做個怪怪長實驗
    迅速制造慢門虛化效果
    抓住“瞬間性”效果
    中華詩詞(2018年11期)2018-03-26 06:41:34
    模擬百種唇妝效果
    Coco薇(2016年8期)2016-10-09 02:11:50
    NO與NO2相互轉(zhuǎn)化實驗的改進
    實踐十號上的19項實驗
    太空探索(2016年5期)2016-07-12 15:17:55
    “上”與“下”語義的不對稱性及其認知闡釋
    国产爱豆传媒在线观看| 亚洲欧美日韩东京热| 国产黄片美女视频| 欧美bdsm另类| 校园人妻丝袜中文字幕| 欧美丝袜亚洲另类| 天堂av国产一区二区熟女人妻| 国产白丝娇喘喷水9色精品| 最好的美女福利视频网| 中国国产av一级| 别揉我奶头~嗯~啊~动态视频| 国产综合懂色| 女同久久另类99精品国产91| 我的女老师完整版在线观看| 亚洲精品国产av成人精品 | 精品一区二区三区人妻视频| 99热只有精品国产| 国产成人影院久久av| 亚洲人成网站在线播| 搡老熟女国产l中国老女人| 久久热精品热| 欧美性猛交黑人性爽| 欧美色视频一区免费| 国产又黄又爽又无遮挡在线| 成人特级黄色片久久久久久久| 欧美bdsm另类| 欧美成人一区二区免费高清观看| 亚洲天堂国产精品一区在线| 网址你懂的国产日韩在线| 国产av在哪里看| 一级毛片电影观看 | 久久精品影院6| 午夜免费激情av| 别揉我奶头 嗯啊视频| 国产精品乱码一区二三区的特点| 国产一区二区在线观看日韩| av卡一久久| 精品午夜福利视频在线观看一区| 国产精品一区二区三区四区免费观看 | 久久久久久久久大av| 日韩av在线大香蕉| 直男gayav资源| 国产毛片a区久久久久| 无遮挡黄片免费观看| 中国国产av一级| 99热6这里只有精品| 欧美潮喷喷水| 精品一区二区三区人妻视频| 哪里可以看免费的av片| 男女视频在线观看网站免费| 尤物成人国产欧美一区二区三区| 欧美日韩一区二区视频在线观看视频在线 | 婷婷精品国产亚洲av在线| 精品久久国产蜜桃| 在现免费观看毛片| 欧美高清性xxxxhd video| 又黄又爽又免费观看的视频| 国内揄拍国产精品人妻在线| 一本久久中文字幕| 国产欧美日韩精品一区二区| 欧美日本亚洲视频在线播放| 日本a在线网址| 老司机福利观看| 不卡视频在线观看欧美| 国产伦精品一区二区三区视频9| 91久久精品国产一区二区成人| 亚洲av不卡在线观看| 亚洲欧美日韩东京热| 国产一区二区在线观看日韩| 性插视频无遮挡在线免费观看| 精品99又大又爽又粗少妇毛片| 日韩精品中文字幕看吧| 久久精品国产清高在天天线| 好男人在线观看高清免费视频| 精品一区二区三区av网在线观看| 悠悠久久av| 女生性感内裤真人,穿戴方法视频| 亚洲欧美中文字幕日韩二区| 中文资源天堂在线| 久久精品国产自在天天线| 一个人观看的视频www高清免费观看| 精品99又大又爽又粗少妇毛片| 亚洲经典国产精华液单| 久久久久久久久大av| 久久国内精品自在自线图片| 精品久久久久久久久久免费视频| 国产女主播在线喷水免费视频网站 | 蜜桃久久精品国产亚洲av| 白带黄色成豆腐渣| 久久精品夜夜夜夜夜久久蜜豆| av卡一久久| 中文在线观看免费www的网站| 欧美区成人在线视频| 亚洲一级一片aⅴ在线观看| 日韩在线高清观看一区二区三区| 日本色播在线视频| 亚洲欧美日韩卡通动漫| 亚洲美女搞黄在线观看 | 国产精品一区www在线观看| 人人妻人人看人人澡| 婷婷精品国产亚洲av在线| 激情 狠狠 欧美| 一级av片app| 99久久九九国产精品国产免费| 九九久久精品国产亚洲av麻豆| 最后的刺客免费高清国语| 成人美女网站在线观看视频| 天天躁夜夜躁狠狠久久av| 淫秽高清视频在线观看| 欧美中文日本在线观看视频| 日韩精品中文字幕看吧| 长腿黑丝高跟| 亚洲精品456在线播放app| 亚洲av五月六月丁香网| 天堂√8在线中文| 三级毛片av免费| 特级一级黄色大片| 免费电影在线观看免费观看| 在线免费观看不下载黄p国产| 久久久久久久久久成人| 91麻豆精品激情在线观看国产| 午夜老司机福利剧场| 十八禁国产超污无遮挡网站| 日本与韩国留学比较| 亚洲欧美日韩卡通动漫| 国产大屁股一区二区在线视频| 精品一区二区三区视频在线观看免费| 久久久精品欧美日韩精品| 欧美成人免费av一区二区三区| 日本成人三级电影网站| 久久久久久久午夜电影| 极品教师在线视频| 国产视频一区二区在线看| 久久人人爽人人爽人人片va| 美女高潮的动态| 成年版毛片免费区| 九色成人免费人妻av| 亚洲成a人片在线一区二区| 国产精品国产高清国产av| 久久久久久伊人网av| 亚洲欧美日韩高清专用| 国产成人freesex在线 | 不卡视频在线观看欧美| 国产男人的电影天堂91| 性欧美人与动物交配| 小蜜桃在线观看免费完整版高清| 亚洲激情五月婷婷啪啪| 日日摸夜夜添夜夜爱| 非洲黑人性xxxx精品又粗又长| 日韩欧美在线乱码| 色吧在线观看| 成人二区视频| 悠悠久久av| 深爱激情五月婷婷| 国产色爽女视频免费观看| ponron亚洲| а√天堂www在线а√下载| 精品人妻一区二区三区麻豆 | 久久久久国内视频| 色5月婷婷丁香| 久久精品国产亚洲av香蕉五月| 欧美色视频一区免费| 国产伦一二天堂av在线观看| 国产一区亚洲一区在线观看| 亚洲欧美精品综合久久99| 女同久久另类99精品国产91| or卡值多少钱| 午夜久久久久精精品| 午夜福利高清视频| 最后的刺客免费高清国语| 成人一区二区视频在线观看| 在线观看一区二区三区| 久久午夜亚洲精品久久| 国产精品一区二区三区四区免费观看 | 成人二区视频| 成人av一区二区三区在线看| 男女视频在线观看网站免费| 国产亚洲精品av在线| 久久精品夜夜夜夜夜久久蜜豆| 日韩亚洲欧美综合| 国语自产精品视频在线第100页| 深夜精品福利| 国产单亲对白刺激| 国产极品精品免费视频能看的| 露出奶头的视频| 女的被弄到高潮叫床怎么办| 日本免费一区二区三区高清不卡| 性色avwww在线观看| 可以在线观看毛片的网站| 亚洲欧美日韩无卡精品| 麻豆成人午夜福利视频| 网址你懂的国产日韩在线| 精品午夜福利在线看| 99热这里只有是精品在线观看| av福利片在线观看| 黄色视频,在线免费观看| 亚洲美女搞黄在线观看 | 少妇人妻精品综合一区二区 | 精品熟女少妇av免费看| 日本爱情动作片www.在线观看 | 日日撸夜夜添| 欧美色欧美亚洲另类二区| 亚洲av五月六月丁香网| 偷拍熟女少妇极品色| 欧洲精品卡2卡3卡4卡5卡区| 久久欧美精品欧美久久欧美| 99riav亚洲国产免费| 波多野结衣巨乳人妻| 婷婷六月久久综合丁香| 国产亚洲欧美98| 日本成人三级电影网站| 激情 狠狠 欧美| 久久久久久久久久久丰满| 国产爱豆传媒在线观看| 欧美成人一区二区免费高清观看| 两性午夜刺激爽爽歪歪视频在线观看| 久久人人爽人人爽人人片va| 别揉我奶头 嗯啊视频| 成人av一区二区三区在线看| 免费人成视频x8x8入口观看| 免费av观看视频| 日韩欧美一区二区三区在线观看| 国产单亲对白刺激| 嫩草影视91久久| 中国美女看黄片| 日日摸夜夜添夜夜添av毛片| 国产成年人精品一区二区| 成人二区视频| 又粗又爽又猛毛片免费看| 午夜福利在线观看吧| 青春草视频在线免费观看| 日韩精品有码人妻一区| 在线看三级毛片| 女同久久另类99精品国产91| 欧美一区二区亚洲| 中文字幕久久专区| 最新中文字幕久久久久| 久久99热6这里只有精品| 夜夜看夜夜爽夜夜摸| 美女xxoo啪啪120秒动态图| 久久精品国产鲁丝片午夜精品| 日本五十路高清| 亚洲欧美清纯卡通| 网址你懂的国产日韩在线| 插阴视频在线观看视频| 成人高潮视频无遮挡免费网站| 天堂√8在线中文| 亚洲国产精品久久男人天堂| 亚洲国产精品sss在线观看| 午夜精品在线福利| 在线a可以看的网站| 免费大片18禁| 中文字幕久久专区| 在线免费观看的www视频| 一级av片app| 12—13女人毛片做爰片一| 少妇猛男粗大的猛烈进出视频 | 自拍偷自拍亚洲精品老妇| 性色avwww在线观看| 一个人看视频在线观看www免费| 精品午夜福利在线看| 亚洲人成网站在线播| 亚洲真实伦在线观看| 精品欧美国产一区二区三| 三级经典国产精品| 国产高清有码在线观看视频| 国产精品99久久久久久久久| 国产一区二区三区在线臀色熟女| 看片在线看免费视频| 国产蜜桃级精品一区二区三区| 国产日本99.免费观看| 夜夜看夜夜爽夜夜摸| 欧美激情在线99| 人人妻人人看人人澡| 黑人高潮一二区| 午夜福利成人在线免费观看| 97人妻精品一区二区三区麻豆| 国产人妻一区二区三区在| 变态另类成人亚洲欧美熟女| 国产成人a∨麻豆精品| 搡老熟女国产l中国老女人| 亚洲熟妇熟女久久| 国产高清三级在线| 国产精品免费一区二区三区在线| 九九爱精品视频在线观看| 色在线成人网| 成年免费大片在线观看| 日韩精品青青久久久久久| 男人和女人高潮做爰伦理| 国产精品一区二区三区四区免费观看 | 精品久久久久久久久久免费视频| 我的女老师完整版在线观看| 久久久久久久久久久丰满| 搡老岳熟女国产| 国产美女午夜福利| 国产一级毛片七仙女欲春2| 亚洲婷婷狠狠爱综合网| 国语自产精品视频在线第100页| 欧美日韩乱码在线| 尾随美女入室| 18禁在线播放成人免费| 久久久久免费精品人妻一区二区| 露出奶头的视频| 欧美最黄视频在线播放免费| 波多野结衣高清作品| 亚洲第一电影网av| 九九久久精品国产亚洲av麻豆| 99久国产av精品| 亚洲精品一区av在线观看| 亚洲国产精品成人久久小说 | 精品午夜福利在线看| 久久久久精品国产欧美久久久| 日韩中字成人| 91精品国产九色| 日日啪夜夜撸| 久久精品国产亚洲网站| 国产三级中文精品| 久久精品国产亚洲网站| 免费看a级黄色片| 最近2019中文字幕mv第一页| 久久热精品热| 热99re8久久精品国产| 色哟哟哟哟哟哟| 亚洲va在线va天堂va国产| 老熟妇乱子伦视频在线观看| 毛片一级片免费看久久久久| 色综合色国产| 嫩草影院入口| 欧美最新免费一区二区三区| 精品久久久久久久末码| 亚洲精品一卡2卡三卡4卡5卡| 99国产精品一区二区蜜桃av| 国产白丝娇喘喷水9色精品| 69人妻影院| 欧美日韩国产亚洲二区| 欧美日韩乱码在线| 天天一区二区日本电影三级| 久久久精品欧美日韩精品| 色尼玛亚洲综合影院| 国产高清视频在线播放一区| 国产黄a三级三级三级人| 亚洲电影在线观看av| av在线天堂中文字幕| 黄色欧美视频在线观看| avwww免费| 亚洲成a人片在线一区二区| 国产高清视频在线播放一区| 日韩高清综合在线| 欧美人与善性xxx| 日韩三级伦理在线观看| 99热这里只有是精品在线观看| 久久久久久久久久成人| 97超视频在线观看视频| 一级av片app| 久久欧美精品欧美久久欧美| 男插女下体视频免费在线播放| 日本熟妇午夜| 女生性感内裤真人,穿戴方法视频| 中文字幕免费在线视频6| 一区二区三区高清视频在线| 一级毛片久久久久久久久女| 精品人妻一区二区三区麻豆 | 日韩中字成人| 99久国产av精品国产电影| 精品少妇黑人巨大在线播放 | 国产成人一区二区在线| 丰满的人妻完整版| 国产黄色视频一区二区在线观看 | 韩国av在线不卡| 老熟妇乱子伦视频在线观看| 麻豆国产97在线/欧美| 国产69精品久久久久777片| 中文亚洲av片在线观看爽| 国产一区二区三区在线臀色熟女| 在线播放国产精品三级| 嫩草影视91久久| 性插视频无遮挡在线免费观看| 97超碰精品成人国产| 亚洲精品粉嫩美女一区| 国产精品人妻久久久久久| 欧美一区二区国产精品久久精品| 中文资源天堂在线| а√天堂www在线а√下载| 不卡视频在线观看欧美| 色播亚洲综合网| h日本视频在线播放| 久久天躁狠狠躁夜夜2o2o| 婷婷精品国产亚洲av| 欧美xxxx黑人xx丫x性爽| 在线观看66精品国产| 天天躁日日操中文字幕| 你懂的网址亚洲精品在线观看 | 美女内射精品一级片tv| 免费观看在线日韩| 国产片特级美女逼逼视频| 久久久久久九九精品二区国产| 成人性生交大片免费视频hd| 此物有八面人人有两片| 久久久国产成人精品二区| 91av网一区二区| 中文字幕免费在线视频6| 日本 av在线| 直男gayav资源| 国产精品免费一区二区三区在线| 国产精品电影一区二区三区| 国产精品精品国产色婷婷| 国产成人一区二区在线| 丝袜美腿在线中文| 在线观看免费视频日本深夜| 国产片特级美女逼逼视频| 国产乱人视频| 啦啦啦啦在线视频资源| 热99在线观看视频| 亚洲在线自拍视频| 熟女电影av网| 一本久久中文字幕| 久久久久久九九精品二区国产| 国产中年淑女户外野战色| 亚洲美女黄片视频| 成人亚洲精品av一区二区| 婷婷六月久久综合丁香| 天堂网av新在线| 97在线视频观看| av在线亚洲专区| 岛国在线免费视频观看| 精品不卡国产一区二区三区| 国产真实乱freesex| 男人舔奶头视频| 亚洲一区高清亚洲精品| 少妇丰满av| 午夜久久久久精精品| 波多野结衣高清作品| 午夜视频国产福利| 精品免费久久久久久久清纯| 一个人看的www免费观看视频| 亚洲va在线va天堂va国产| av在线蜜桃| 一级黄片播放器| 国产一区二区三区av在线 | 中国美白少妇内射xxxbb| 亚洲七黄色美女视频| 国语自产精品视频在线第100页| 一本久久中文字幕| 91午夜精品亚洲一区二区三区| 色视频www国产| eeuss影院久久| 国产精品1区2区在线观看.| 色播亚洲综合网| 欧美日韩一区二区视频在线观看视频在线 | av在线天堂中文字幕| 成人高潮视频无遮挡免费网站| 一区二区三区免费毛片| 成人亚洲欧美一区二区av| 99在线视频只有这里精品首页| 日日啪夜夜撸| 欧美高清性xxxxhd video| 久久久久久久久久黄片| 欧美高清成人免费视频www| 最近中文字幕高清免费大全6| 亚洲专区国产一区二区| 能在线免费观看的黄片| 搡老岳熟女国产| 又爽又黄a免费视频| 哪里可以看免费的av片| 搞女人的毛片| 日韩欧美精品免费久久| 中文字幕av成人在线电影| 亚洲一区高清亚洲精品| 91麻豆精品激情在线观看国产| 一级毛片aaaaaa免费看小| 99九九线精品视频在线观看视频| 人人妻人人澡人人爽人人夜夜 | 在线a可以看的网站| 精品一区二区三区视频在线| 亚洲欧美日韩无卡精品| 国产在视频线在精品| 亚洲内射少妇av| 欧美人与善性xxx| 一边摸一边抽搐一进一小说| 国产精品综合久久久久久久免费| 久久久国产成人精品二区| 国产成人91sexporn| 精品国内亚洲2022精品成人| 国产黄色小视频在线观看| 亚洲成人av在线免费| 99在线视频只有这里精品首页| 久久人人精品亚洲av| 亚洲国产精品国产精品| 女生性感内裤真人,穿戴方法视频| 国产伦一二天堂av在线观看| 亚洲国产精品成人综合色| 身体一侧抽搐| 亚洲精品456在线播放app| 国产精品免费一区二区三区在线| 亚洲精华国产精华液的使用体验 | 久久精品国产鲁丝片午夜精品| 亚洲内射少妇av| 伊人久久精品亚洲午夜| 禁无遮挡网站| 亚洲真实伦在线观看| 亚洲第一电影网av| 亚洲精品国产成人久久av| 老熟妇乱子伦视频在线观看| 亚洲国产精品成人久久小说 | 亚洲av熟女| av.在线天堂| aaaaa片日本免费| 日韩制服骚丝袜av| 看黄色毛片网站| 天天躁日日操中文字幕| 中文字幕av成人在线电影| 欧美极品一区二区三区四区| 99热只有精品国产| 伦精品一区二区三区| 一本久久中文字幕| 欧美日本亚洲视频在线播放| 国产综合懂色| 欧美一区二区亚洲| av.在线天堂| 啦啦啦啦在线视频资源| 国产精品,欧美在线| 免费av观看视频| 午夜福利在线观看吧| 亚洲激情五月婷婷啪啪| 色尼玛亚洲综合影院| a级毛片免费高清观看在线播放| 亚洲色图av天堂| 别揉我奶头~嗯~啊~动态视频| 2021天堂中文幕一二区在线观| 九九爱精品视频在线观看| 女生性感内裤真人,穿戴方法视频| 久久久久国产精品人妻aⅴ院| 国产欧美日韩一区二区精品| 日韩中字成人| 国产av麻豆久久久久久久| 成人午夜高清在线视频| 国产女主播在线喷水免费视频网站 | 两个人的视频大全免费| 如何舔出高潮| 国产av不卡久久| 国产探花极品一区二区| 99riav亚洲国产免费| 最好的美女福利视频网| 国产又黄又爽又无遮挡在线| 日韩欧美免费精品| 不卡一级毛片| 人妻久久中文字幕网| 麻豆国产97在线/欧美| 亚洲色图av天堂| 午夜激情欧美在线| 国产蜜桃级精品一区二区三区| 在线国产一区二区在线| 成人无遮挡网站| 久久久午夜欧美精品| 中文字幕人妻熟人妻熟丝袜美| 中国国产av一级| 亚洲电影在线观看av| 老司机午夜福利在线观看视频| 欧美精品国产亚洲| 色综合色国产| 非洲黑人性xxxx精品又粗又长| 亚洲综合色惰| av在线亚洲专区| 久久久色成人| 成人国产麻豆网| 国产亚洲精品综合一区在线观看| 亚洲精品影视一区二区三区av| 午夜福利在线在线| 亚洲人成网站高清观看| а√天堂www在线а√下载| 91久久精品电影网| 高清毛片免费看| 狂野欧美激情性xxxx在线观看| 国产老妇女一区| 成人二区视频| 有码 亚洲区| 欧美最新免费一区二区三区| 久久99热6这里只有精品| 国产一区亚洲一区在线观看| 国产毛片a区久久久久| 少妇人妻精品综合一区二区 | 中文字幕熟女人妻在线| av.在线天堂| 成熟少妇高潮喷水视频| 综合色av麻豆| 国产极品精品免费视频能看的| 成熟少妇高潮喷水视频| a级毛片a级免费在线| 高清午夜精品一区二区三区 | 欧美不卡视频在线免费观看| 狂野欧美白嫩少妇大欣赏| 91麻豆精品激情在线观看国产| 一个人看视频在线观看www免费| 亚洲国产精品成人久久小说 | 亚洲欧美清纯卡通| 精品久久久久久久久亚洲| 小蜜桃在线观看免费完整版高清| 最近手机中文字幕大全| 看非洲黑人一级黄片| 亚洲人成网站在线观看播放| 99riav亚洲国产免费| av国产免费在线观看| 午夜视频国产福利| 99久久精品国产国产毛片| 最新中文字幕久久久久| 欧美日本视频| 久久久国产成人免费| 亚洲综合色惰| 亚洲欧美日韩东京热| 国产中年淑女户外野战色| 免费不卡的大黄色大毛片视频在线观看 | 久久人人爽人人爽人人片va| 黄色日韩在线| 免费看日本二区| 91久久精品国产一区二区三区|