• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于自注意力與動態(tài)路由的文本建模方法

    2019-06-07 15:08:13沈煒域
    軟件導刊 2019年1期
    關(guān)鍵詞:注意力機制

    沈煒域

    摘 要:有別于RNN和CNN,動態(tài)路由與注意力機制為捕捉文本序列的長程和局部依賴關(guān)系提供了新思路。為更好地進行文本編碼,盡可能多地保留文本特征、增加特征多樣性,基于動態(tài)路由與注意力機制的思想,整合膠囊網(wǎng)絡(luò)和自注意力網(wǎng)絡(luò)的語言信息特征抽取能力,構(gòu)建一種深度網(wǎng)絡(luò)模型CapSA,并通過3種不同領(lǐng)域的文本分類實驗驗證模型效果。實驗結(jié)果顯示,相較于幾種基于RNN或CNN的模型,基于CapSA模型的文本分類模型取得了更高的F1值,表明該模型具有更好的文本建模能力。

    關(guān)鍵詞:膠囊網(wǎng)絡(luò);動態(tài)路由;注意力機制;文本建模

    DOI:10. 11907/rjdk. 182730

    中圖分類號:TP301文獻標識碼:A文章編號:1672-7800(2019)001-0056-05

    Abstract: Compared with RNN and CNN, dynamic routing and attention mechanism provide some new ways to capture the long-term and local dependencies. Based on the ideas of dynamic routing and self-attention, this paper proposed CapSA(Capsule-Self-Attention), a deep neural network, to better model text sequences, retain features as many as possible and increase the diversity of features. This paper verified the effectiveness of the proposed model by text classification experiments in different fields. The results show that the text classification model based on CapSA gained higher F1-score than several strong models based on RNN and CNN, indicating that CapSA has better text modeling performance.

    0 引言

    在將文本轉(zhuǎn)化為向量表示的過程中需對文章或句子建模,這是許多自然語言處理的重要步驟。好的文本建模不僅需提取足夠充分且最有類別代表性的文本特征,還應(yīng)能編碼上下文的依賴關(guān)系。傳統(tǒng)自然語言處理中的文本建模方式如n-gram,需占用大量內(nèi)存空間。而近來神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于文本表示學習。這些方法基本上以詞嵌入表示作為輸入,利用RNN[1]或CNN[2]產(chǎn)生上下文有關(guān)的文本表示,最后通過一定的操作,如池化等,將變長文本轉(zhuǎn)化為定長向量。從2017年開始,許多工作使用自注意力機制[3-4]學習文本表示。自注意力機制可以不考慮詞之間的距離、直接計算依賴關(guān)系,與RNN、CNN等配合使用,學習一個句子的內(nèi)部結(jié)構(gòu)。自注意力網(wǎng)絡(luò)甚至可脫離CNN和RNN,單獨作為一個網(wǎng)絡(luò)層,出色地解決NLP領(lǐng)域的任務(wù)。

    為在文本建模過程中保留更多文本的局部依賴關(guān)系、特征等變性及詞之間、特征與詞之間的相對信息,本文借鑒動態(tài)路由[5]與注意力機制的思想,構(gòu)建一種深度網(wǎng)絡(luò)模型CapSA對文本進行建模。該網(wǎng)絡(luò)主要包括多尺寸多層卷積的膠囊網(wǎng)絡(luò)與自注意力網(wǎng)絡(luò),兩部分網(wǎng)絡(luò)同時對文本序列進行編碼。為驗證模型有效性,本文在文本分類任務(wù)中使用該模型進行文本建模,并在3種數(shù)據(jù)集上對比該網(wǎng)絡(luò)模型和多種基于CNN或RNN模型的分類效果。

    1 相關(guān)研究

    1.1 表示學習

    表示學習是人工智能和自然語言處理中十分重要的任務(wù)。主流文本表示學習方法可分為4種類型:①詞袋模型。該模型不考慮文本詞序,比較成功的應(yīng)用有深度平均網(wǎng)絡(luò)[6]、自編碼器[7],如Mikolov等提出的fastText[8]可在10min內(nèi)完成10億級詞匯量的文本分類任務(wù);② 序列表示模型。該模型通過CNN[9-10]或RNN捕捉詞序特征,但沒有利用文本結(jié)構(gòu)特征。LeCun等提出一種29層的極深卷積神經(jīng)網(wǎng)絡(luò)[11]以捕捉更長程的信息;③結(jié)構(gòu)表示模型。該模型使用預先獲得的語法樹構(gòu)建文本結(jié)構(gòu)表示,如典型的樹結(jié)構(gòu)LSTM[12-13];④注意力模型。該模型基于注意力機制計算詞或句子的注意力得分[14-15],以獲得文本表示。

    1.2 動態(tài)路由與膠囊網(wǎng)絡(luò)

    以動態(tài)路由[5]代替池化的膠囊網(wǎng)絡(luò)能夠適應(yīng)低層特征的狀態(tài)參數(shù)變化,其建模思想是以向量形式將特征狀態(tài)封裝成“膠囊”,將其輸出向量的模長作為特征存在的概率,將向量方向作為實例參數(shù)。所以,當抽取的特征在實例參數(shù)上發(fā)生變化時,存在概率仍然保持不變、達到特征等變性。在膠囊網(wǎng)絡(luò)中,子膠囊要對父膠囊的實例參數(shù)進行預測。當多個預測相近時,對應(yīng)的高層膠囊被激活。同時,作為一種耦合效應(yīng),當一些子膠囊同意存在一個高層實體時,對應(yīng)于該實體的父膠囊會向低級別膠囊發(fā)送反饋,如果確實存在高層實體,同意該實體存在的子膠囊對該高層實體預測將增大。如此循環(huán)若干次后,某一個高層實體存在的概率將明顯高于其它高層實體。

    1.3 注意力機制

    作為一種高效的可并行化序列編碼方式,注意力機制與深度神經(jīng)網(wǎng)絡(luò)結(jié)合被廣泛應(yīng)用于自然語言處理的多個任務(wù)中,并取得了良好的性能效果。如Bengio 等[16]使用該機制提升機器翻譯對齊效果和翻譯準確性。李航等[17]在對話生成中利用該機制生成更有意義的回復。隨著注意力機制的深入研究,各種注意力被提出。自注意力是一種特殊的注意力機制,在該機制下,序列中的每一個單元和該序列中的其它單元進行注意力計算,其特點在于無視詞間距離而直接計算其依賴關(guān)系,能夠?qū)W習一個句子的內(nèi)部結(jié)構(gòu),且對于增加計算的并行性也有直接幫助作用。Google提出的多頭注意力[18]通過多次計算捕獲不同子空間的相關(guān)信息。張成奇等[19]提出同時使用兩種注意力機制對句子進行建模,在自然語言推理、語義關(guān)系分析等任務(wù)中也取得了較好效果。

    2 CapSA網(wǎng)絡(luò)模型

    一方面,多層多尺寸的卷積提升模型對輸入樣本的特征提取能力,且動態(tài)路由機制確保在特征圖轉(zhuǎn)換成文本表示時保持特征等變性;另一方面,自注意力機制能夠在文本建模過程中引入詞或短語在文本中的重要程度及詞—詞間、詞—特征間的相互關(guān)系。因此,本文基于動態(tài)路由與自注意力機制的思想,結(jié)合深度卷積膠囊網(wǎng)絡(luò)和雙序自注意力網(wǎng)絡(luò),構(gòu)建一種深度神經(jīng)網(wǎng)絡(luò)文本表示模型CapSA。

    2.1 深度卷積膠囊網(wǎng)絡(luò)

    為更好地抽取特征,本文使用多個不同尺寸的卷積核提取文本的N-gram特征,如圖1所示。

    該模型在第一層卷積層使用K1種不同尺寸的卷積核,每種大小各N1個卷積核,每個卷積核的尺寸為 ([F[0]i,]d) ,[F[0]i]是一個卷積核一次能覆蓋的詞個數(shù)。第二層卷積操作與第一層卷積層基本一致,使用高度為[F[1]i]的多個卷積核對第一層卷積層的輸出[A[1]]進行卷積操作,將輸出各尺寸的卷積核抽取的特征拼接為一個(L2,K2)的特征映射[A[2]]。

    兩個卷積層之后是第一層膠囊層,用于將標量輸出轉(zhuǎn)換成向量輸出。為得到固定維度的膠囊,使Dc個不同尺寸的卷積核配合Dc種填充方案在[A[2]]上進行卷積操作,獲得相同維度的特征映射。如圖1所示,[F2i]表示其中一種尺寸的卷積核高度,每種尺寸的卷積核有K3個,通過卷積后得到L3×K3個Dc維向量,每個向量表征對應(yīng)特征的顯著程度。緊接著對每個向量使用壓縮函數(shù)進行非線性變換,壓縮函數(shù)將模長限制在0~1之間。將每個向量表示為[sj],非線性變換后向量方向保持不變。

    初級膠囊層之后是類別膠囊層、該層設(shè)置與類別個數(shù)相同的膠囊數(shù)C。以路由迭代的方式從初級膠囊層獲得輸入。模型中的路由迭代過程在初級膠囊層和類別膠囊層之間進行,使用初級膠囊激活值計算類別膠囊激活值。首先通過一個矩陣變換獲得初級膠囊對類別膠囊實例參數(shù)預測。對于每一個類別膠囊j, 第一步計算由低層特征預測出高層特征實例參數(shù)[uj|i](預測向量),即[uj|i=u[L]iWij] ,其中[u[L]i]表示樣本中的一個激活值(低層特征),變換矩陣[Wij]([W∈?C×Dc×Dp])是待訓練的參數(shù),兩者進行矩陣乘法;第二步計算j 的輸出向量[sj],其由所有初級膠囊對類別膠囊j預測向量加權(quán)求和得到,即[sj=ic(r)ijuj|i],其中標量[cij]是每個子膠囊輸出到各個父膠囊的權(quán)重系數(shù),其由路由迭代過程決定;第三步計算膠囊j的激活值[vj]。使用壓縮函數(shù)對j 的輸出向量進行壓縮。類別膠囊的激活值將對初級膠囊進行反饋。初級膠囊i對類別膠囊j的預測向量與膠囊j的激活向量相似程度越高,預測向量[uj|i]的權(quán)重越大。本文采用點積衡量其相似程度。假設(shè)共迭代T輪路由算法,整個路由迭代算法為:

    其中,為保證低層膠囊對高層實體存在的概率預測之和為1,使用Routing SoftMax作歸一化,其計算公式為:

    2.2 自注意力網(wǎng)絡(luò)

    傳統(tǒng)注意力機制基于詞嵌入計算出每一個詞的重要性數(shù)值,因此無法有效區(qū)分同一個詞在不同語境下的不同語義。這部分網(wǎng)絡(luò)結(jié)構(gòu)由雙序自注意力網(wǎng)絡(luò)和序列到詞注意力網(wǎng)絡(luò)組成。模型結(jié)構(gòu)如圖2所示。

    首先通過一個全連接層將詞嵌入[x=[x1,x2,?,xn]]轉(zhuǎn)換為隱狀態(tài)[h=[h1,h2,?,hn]],其中[x∈?d×L0],[h∈?dh×L0]。[Wh]和[b(h)]分別是可訓練權(quán)重與偏置,[σh]是激活函數(shù);再計算[hi]和[hj]之間的相似度,有別于傳統(tǒng)的注意力機制,本文使用向量[f(hi,hj)]表征相似程度。

    2.3 文本分類模型

    為驗證CapSA的文本建模效果,本文基于CapSA網(wǎng)絡(luò)構(gòu)建一個深度神經(jīng)網(wǎng)絡(luò)文本分類模型。該模型將CapSA網(wǎng)絡(luò)的輸出向量送入全連接層進行分類,然后使用標準的SoftMax進行歸一化以用于多分類任務(wù)。在整個網(wǎng)絡(luò)的部分層間使用BatchNorm和隨機失活避免過擬合,提升模型泛化能力。整體模型結(jié)構(gòu)如圖4所示。

    3 實驗

    3.1 實驗數(shù)據(jù)

    模型在3種不同領(lǐng)域、不同文本長度的數(shù)據(jù)集上訓練與預測,其中包含情感傾向(Review Sentiment,共2個類別,文本平均長度約100個字符)[20]、作者識別(EUPT),共4個類別,文本平均長度約400個字符及標題分類(NLPCC Headlines)[21],共18個類別,文本平均長度約20個字符。

    3.2 實現(xiàn)細節(jié)與基線模型

    實驗在Ubuntu16.04、Pytorch0.4上開展。實驗中詞嵌入由Word2vec在中文維基百科迭代30輪得到,詞向量維度為300維。實驗使用Adam作為優(yōu)化算法更新網(wǎng)絡(luò)權(quán)重。在深度卷積膠囊網(wǎng)絡(luò)部分中,將Dc設(shè)為8,Dp設(shè)為16,路由迭代輪數(shù)T∈{1,2,3,4,5},針對不同數(shù)據(jù)集調(diào)整具體的迭代輪數(shù)。在自注意力網(wǎng)絡(luò)中,將c設(shè)為5,使用ELU[22]作為激活函數(shù),使用交叉熵作為損失函數(shù)。

    3.3 實驗結(jié)果

    實驗使用了5種基于CNN或RNN的模型和1種膠囊網(wǎng)絡(luò)模型,在3個數(shù)據(jù)集上對測試分類結(jié)果的宏平均F1值進行對比。實驗結(jié)果如表1所示。其中MultiCNN+maxpool是兩層多卷積結(jié)合最大池化模型,Multilayer Bi-LSTM是一個兩層雙向長短期記憶的循環(huán)神經(jīng)網(wǎng)絡(luò)模型,Bi-LSTM+concate參照文獻[23]中RCNN模型,可將雙向LSTM隱藏狀態(tài)與詞向量拼接后送入一個全連接層中,CapsNet是參照文獻[5]實現(xiàn)的單層卷積膠囊網(wǎng)絡(luò)。

    3.4 參數(shù)分析

    3.4.1 路由迭代輪數(shù)

    在實驗中發(fā)現(xiàn),由于動態(tài)路由的迭代(routing iteration)過程,膠囊網(wǎng)絡(luò)相較于其它網(wǎng)絡(luò)計算時間更長。為探究路由過程迭代次數(shù)對模型性能的影響,實驗僅調(diào)整路由迭代輪數(shù),在Headlines和Review Sentiment數(shù)據(jù)集上進行測試。 固定學習率10-4迭代5輪數(shù)據(jù)(epoch)后,記錄錄訓練時間(Time)、分類結(jié)果的F1值及正確率(Acc.)。實驗在單機單顯卡(nVidia GTX1080Ti)上進行。F1與正確率如表2所示,花費的訓練時間如表3所示。

    表2與表3的統(tǒng)計結(jié)果表明,在限制數(shù)據(jù)迭代輪數(shù)的情況下,基于CapSA的文本分類模型在2輪路由迭代的情況下能得到較好的分類效果,而增加路由迭代輪數(shù)并沒有在有限的數(shù)據(jù)迭代輪數(shù)訓練后提升分類效果。因此推測更多的路由迭代輪數(shù)需更多的數(shù)據(jù)迭代輪數(shù)才可讓模型收斂到理想狀態(tài),但這帶來了更大的計算代價。

    3.4.2 壓縮函數(shù)

    本文在深度卷積膠囊網(wǎng)絡(luò)模型上試驗了4種壓縮方案。4種壓縮方案在Headlines和Review Sentiment數(shù)據(jù)集上的訓練損失變化情況如圖5所示。

    4 結(jié)語

    本文探索了動態(tài)路由與自注意力機制在文本建模中的應(yīng)用,提出CapSA深度網(wǎng)絡(luò)模型。該模型一方面利用動態(tài)路由保證樣本特征的等變性,另一方面通過自注意力網(wǎng)絡(luò)縮短遠距離依賴特征之間的距離,增加特征多樣性和模型魯棒性。CapSA深度網(wǎng)絡(luò)模型也可以應(yīng)用于文本蘊涵、語義匹配等其它類型的自然語言處理任務(wù)中。本文通過多次實驗對比了動態(tài)路由迭代輪數(shù)及向量壓縮方案對模型效果的影響,發(fā)現(xiàn)模型收斂對動態(tài)路由迭代輪數(shù)十分敏感,使用合適的向量壓縮方案也會影響效果。下一步工作是增加模型中不同網(wǎng)絡(luò)間的耦合程度,嘗試該模型在閱讀理解、機器翻譯等序列到序列任務(wù)中的應(yīng)用。

    參考文獻:

    [1] CHUNG J,GULCEHRE C,BENGIO Y,et al. Empirical evaluation of gated recurrent neural networks on sequence modeling[J/OL]. ArXiv Preprint ArXiv:1412.3555. https://arxiv.org/abs/1412.3555.

    [2] KIM, Y. Convolutional neural networks for sentence classification[C]. Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, 2014: 1746-1751.

    [3] LIN Z, FENG M, BENGIO Y, et al. A structured self-attentive sentence embedding[J/OL]. ArXiv Preprint ArXiv:1703.03130. https://arxiv.org/abs/1703.03130.

    [4] YANG Z, YANG D, DYER C, et al. Hierarchical attention networks for document classification[C]. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2016.

    [5] SABOUR S, FROSST N, HINTON G E. Dynamic routing between capsules[C]. Advances in Neural Information Processing Systems, 2017:1-11.

    [6] IYYER M, MANJUNATHA V, BOYD-GRABER J, et al. Deep unordered composition rivals syntactic methods for text classification[C]. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, 2015:1681-1691.

    [7] LIU B, HUANG M, SUN J, et al. Incorporating domain and sentiment supervision in representation learning for domain adaptation[C]. Proceedings of the 24th International Conference on Artificial Intelligence, 2015:1277-1284.

    [8] JOULIN A, GRAVE E, BOJANOWSKI P, et al. Bag of tricks for efficient text classification[C]. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, 2017:1-5.

    [9] BLUNSOM P, GREFENSTETTE E, KALCHBRENNER N. A convolutional neural network for modelling sentences[C]. Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, 2014:1-11.

    [10] LEI T, BARZILAY R, JAAKKOLA T. Molding CNNs for text: non-linear, non-consecutive convolutions[J]. Indiana University Mathematics Journal, 2015, 58(3): 1151-1186.

    [11] CONNEAU A, SCHWENK H, BARRAULT L, et al. Very deep convolutional networks for text classification[C]. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, 2017:1-10.

    [12] ZHU X, SOBIHANI P, GUO H. Long short-term memory over recursive structures[C]. ICML'15 Proceedings of the 32nd International Conference on International Conference on Machine Learning, 2015:1604-1612.

    [13] TAI K S, SOCHER R, MANNING C D. Improved semantic representations from tree-structured long short-term memory networks[C]. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics, 2015:1577-1586.

    [14] YANG Z, YANG D, DYER C, et al. Hierarchical attention networks for document classification[C]. Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2016:1-11.

    [15] ZHOU X, WAN X, XIAO J. Attention-based LSTM network for cross-lingual sentiment classification[C]. Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, 2016:1-23.

    [16] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[J/OL]. ArXiv Preprint ArXiv: 1409.0473. https://arxiv.org/abs/1409.0473.

    [17] SHANG L, LU Z, LI H. Neural responding machine for short-text conversation[C]. Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, 2015.

    [18] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]. Advances in Neural Information Processing Systems, 2017:1-15.

    [19] SHEN T, ZHOU T, LONG G, et al. DiSAN: Directional self-attention network for RNN/CNN-free language understanding[C]. The 32nd AAAI Conference on Artificial Intelligence, 2018:1-10.

    [20] JUN L I, SUN M. Experimental study on sentiment classification of chinese review using machine learning techniques[C]. 2007 IEEE international conference on natural language processing and knowledge engineering, 2007:393-400.

    [21] QIU X, GONG J, HUANG X. Overview of the NLPCC 2017 shared task: Chinese news headline categorization [J/OL]. Computer Science:2018,10619. https://link.springer.com/chapter/10.1007/978- 3-319-73618-1_85.

    [22] CLEVERT D A, UNTERTHINER T, HOCHREITER S. Fast and accurate deep network learning by exponential linear units(ELUs)[J]. ArXiv Preprint ArXiv:1511.07289. https://arxiv.org/abs/1511.07289.

    [23] LAI, S, XU, et.al. Recurrent convolutional neural networks for text classification[C]. Proceedings of the 29th AAAI Conference on Artificial Intelligence, 2015:2267-2273.

    (責任編輯:江 艷)

    猜你喜歡
    注意力機制
    基于注意力機制的改進CLSM檢索式匹配問答方法
    基于注意力機制的行人軌跡預測生成模型
    基于注意力機制和BGRU網(wǎng)絡(luò)的文本情感分析方法研究
    多特征融合的中文實體關(guān)系抽取研究
    基于序列到序列模型的文本到信息框生成的研究
    基于深度學習的手分割算法研究
    從餐館評論中提取方面術(shù)語
    面向短文本的網(wǎng)絡(luò)輿情話題
    基于深度學習的問題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    91精品伊人久久大香线蕉| 最近中文字幕高清免费大全6| 性高湖久久久久久久久免费观看| 中文字幕人妻熟人妻熟丝袜美| 婷婷色综合www| 欧美另类一区| 人人妻人人澡人人看| 伦理电影大哥的女人| 亚洲成人一二三区av| 成人无遮挡网站| 天美传媒精品一区二区| 啦啦啦在线观看免费高清www| 亚洲av中文av极速乱| 内射极品少妇av片p| 日日啪夜夜爽| 亚洲婷婷狠狠爱综合网| 一级a做视频免费观看| 在线观看免费日韩欧美大片 | 成人无遮挡网站| 九色成人免费人妻av| 久久久久久伊人网av| 自拍偷自拍亚洲精品老妇| 国产精品久久久久久久电影| 日韩一区二区视频免费看| 丝袜在线中文字幕| 中文乱码字字幕精品一区二区三区| 国产成人a∨麻豆精品| 久久人人爽人人爽人人片va| 伊人亚洲综合成人网| 国产探花极品一区二区| 欧美一级a爱片免费观看看| 亚洲欧美日韩另类电影网站| 99九九在线精品视频 | 女的被弄到高潮叫床怎么办| 亚洲av免费高清在线观看| 啦啦啦视频在线资源免费观看| 激情五月婷婷亚洲| 成人特级av手机在线观看| 久久久久久伊人网av| 亚洲精品,欧美精品| 国产黄片美女视频| 国产精品国产av在线观看| videos熟女内射| 国产中年淑女户外野战色| 精品少妇内射三级| 丰满迷人的少妇在线观看| 3wmmmm亚洲av在线观看| 欧美精品一区二区大全| 精品国产露脸久久av麻豆| 国产精品一区二区在线观看99| 国产一区二区三区综合在线观看 | 亚洲av.av天堂| 2022亚洲国产成人精品| 日韩熟女老妇一区二区性免费视频| 久久久欧美国产精品| 高清毛片免费看| 欧美xxxx性猛交bbbb| 熟女人妻精品中文字幕| 插阴视频在线观看视频| 国产精品欧美亚洲77777| h视频一区二区三区| 久久99热6这里只有精品| 欧美日韩国产mv在线观看视频| 狂野欧美激情性xxxx在线观看| 丰满人妻一区二区三区视频av| 最新的欧美精品一区二区| 久久av网站| 免费看av在线观看网站| 精品国产国语对白av| 噜噜噜噜噜久久久久久91| 男女边吃奶边做爰视频| 69精品国产乱码久久久| av网站免费在线观看视频| 久久这里有精品视频免费| 亚洲国产成人一精品久久久| 热re99久久国产66热| 亚洲内射少妇av| 一本—道久久a久久精品蜜桃钙片| 国产精品.久久久| 国产精品国产av在线观看| 在线观看一区二区三区激情| 亚洲av综合色区一区| 国产精品一二三区在线看| 一本一本综合久久| 国精品久久久久久国模美| √禁漫天堂资源中文www| www.色视频.com| 日本与韩国留学比较| 两个人的视频大全免费| 99精国产麻豆久久婷婷| 精品酒店卫生间| 男女无遮挡免费网站观看| 自线自在国产av| 国产精品一二三区在线看| 久久久久精品性色| 嫩草影院入口| 久久青草综合色| 在线观看国产h片| 国产亚洲欧美精品永久| 一级毛片 在线播放| 日韩中字成人| 伊人亚洲综合成人网| 成人毛片60女人毛片免费| 久久久久久久久久人人人人人人| 亚洲性久久影院| 欧美一级a爱片免费观看看| 亚洲精品一区蜜桃| 超碰97精品在线观看| 99久久精品国产国产毛片| 成人无遮挡网站| 性色avwww在线观看| 毛片一级片免费看久久久久| 综合色丁香网| 成人影院久久| 成人特级av手机在线观看| 黑人高潮一二区| 极品人妻少妇av视频| 街头女战士在线观看网站| 欧美精品人与动牲交sv欧美| 国产精品久久久久久久电影| 在线天堂最新版资源| 性高湖久久久久久久久免费观看| 女性生殖器流出的白浆| 精品少妇黑人巨大在线播放| 久久久欧美国产精品| 久热这里只有精品99| 成人午夜精彩视频在线观看| 久久婷婷青草| 国产一区有黄有色的免费视频| 亚洲精品乱码久久久v下载方式| 超碰97精品在线观看| 免费看日本二区| 国产亚洲一区二区精品| 欧美3d第一页| a 毛片基地| 亚洲国产精品成人久久小说| 国产片特级美女逼逼视频| 人妻人人澡人人爽人人| 日韩欧美精品免费久久| 嫩草影院入口| 91精品国产国语对白视频| 国产精品女同一区二区软件| 久久人人爽av亚洲精品天堂| 欧美少妇被猛烈插入视频| 高清av免费在线| 伦理电影免费视频| √禁漫天堂资源中文www| 少妇的逼好多水| 国产亚洲午夜精品一区二区久久| 国产亚洲欧美精品永久| 国产免费视频播放在线视频| 国产 精品1| 久久99热这里只频精品6学生| 久久人人爽人人爽人人片va| 啦啦啦在线观看免费高清www| 国产精品国产三级国产av玫瑰| 亚洲综合色惰| 日韩中文字幕视频在线看片| 免费av中文字幕在线| 国产精品欧美亚洲77777| 国产高清国产精品国产三级| 激情五月婷婷亚洲| 日韩强制内射视频| 九色成人免费人妻av| av又黄又爽大尺度在线免费看| 夫妻午夜视频| 国产高清国产精品国产三级| 人人妻人人添人人爽欧美一区卜| 国产高清有码在线观看视频| 免费观看性生交大片5| 久久97久久精品| 高清欧美精品videossex| 插阴视频在线观看视频| 美女cb高潮喷水在线观看| 黄色视频在线播放观看不卡| 国产黄色视频一区二区在线观看| 国产精品一二三区在线看| 久久精品国产亚洲av天美| 久久久久久久久久久丰满| 97在线人人人人妻| 一个人免费看片子| 久久国产精品男人的天堂亚洲 | 一级,二级,三级黄色视频| 欧美精品人与动牲交sv欧美| 夜夜看夜夜爽夜夜摸| 一个人看视频在线观看www免费| 亚洲成色77777| 日韩人妻高清精品专区| 日产精品乱码卡一卡2卡三| 在线观看免费日韩欧美大片 | 少妇人妻一区二区三区视频| 人人妻人人澡人人看| 美女国产视频在线观看| 国产男女内射视频| 91在线精品国自产拍蜜月| 日韩欧美精品免费久久| a 毛片基地| 亚洲欧美日韩另类电影网站| 国产欧美日韩一区二区三区在线 | 香蕉精品网在线| av在线app专区| 精品视频人人做人人爽| 美女中出高潮动态图| 亚洲在久久综合| 亚洲欧美精品自产自拍| 91午夜精品亚洲一区二区三区| 欧美精品一区二区免费开放| 91aial.com中文字幕在线观看| 日韩中字成人| 18禁裸乳无遮挡动漫免费视频| 欧美国产精品一级二级三级 | 免费少妇av软件| 大又大粗又爽又黄少妇毛片口| 午夜免费观看性视频| 国产成人freesex在线| 在线天堂最新版资源| 亚洲欧美精品专区久久| 五月伊人婷婷丁香| 日韩三级伦理在线观看| 免费av中文字幕在线| 亚洲欧美日韩卡通动漫| 午夜91福利影院| av女优亚洲男人天堂| 香蕉精品网在线| 国产高清三级在线| 18+在线观看网站| av福利片在线观看| 天天躁夜夜躁狠狠久久av| 国产熟女午夜一区二区三区 | 如日韩欧美国产精品一区二区三区 | 深夜a级毛片| 一级毛片 在线播放| 少妇裸体淫交视频免费看高清| 国产精品久久久久久av不卡| 国产精品嫩草影院av在线观看| 另类精品久久| 丁香六月天网| 18+在线观看网站| 欧美xxⅹ黑人| 精华霜和精华液先用哪个| 国产成人免费观看mmmm| 伦理电影免费视频| 成人无遮挡网站| 下体分泌物呈黄色| 蜜桃久久精品国产亚洲av| 亚洲成色77777| 日韩中文字幕视频在线看片| 午夜91福利影院| 晚上一个人看的免费电影| 一级毛片aaaaaa免费看小| 国产av码专区亚洲av| 日日撸夜夜添| 国模一区二区三区四区视频| 人人妻人人看人人澡| 亚洲,欧美,日韩| 久久免费观看电影| 日韩三级伦理在线观看| av在线播放精品| 麻豆乱淫一区二区| 久热这里只有精品99| 黄色日韩在线| 欧美精品一区二区大全| 亚洲美女黄色视频免费看| 亚洲av福利一区| 热re99久久国产66热| 99热这里只有是精品在线观看| 欧美一级a爱片免费观看看| 性高湖久久久久久久久免费观看| 蜜臀久久99精品久久宅男| 精品久久久久久电影网| 国产亚洲午夜精品一区二区久久| 国产免费一区二区三区四区乱码| 久久99热6这里只有精品| 免费人成在线观看视频色| 色94色欧美一区二区| 国产 一区精品| 一级毛片久久久久久久久女| 亚洲欧美日韩另类电影网站| 成人综合一区亚洲| 亚洲成色77777| 欧美日韩在线观看h| 国产成人精品婷婷| videossex国产| 久久久久久久国产电影| 国产成人精品一,二区| 免费av不卡在线播放| 国产一区二区在线观看日韩| 国产精品一区二区在线不卡| 美女cb高潮喷水在线观看| 高清在线视频一区二区三区| 麻豆成人av视频| 久久免费观看电影| 最黄视频免费看| 久久影院123| 秋霞在线观看毛片| 美女中出高潮动态图| 欧美日韩一区二区视频在线观看视频在线| 亚洲怡红院男人天堂| 视频中文字幕在线观看| a级毛色黄片| 亚洲丝袜综合中文字幕| 亚洲性久久影院| 久久99蜜桃精品久久| 黑人猛操日本美女一级片| 午夜91福利影院| 亚洲图色成人| 亚洲av二区三区四区| 街头女战士在线观看网站| 丰满迷人的少妇在线观看| 久久99热6这里只有精品| 91精品一卡2卡3卡4卡| 成人毛片a级毛片在线播放| 免费不卡的大黄色大毛片视频在线观看| 人人妻人人添人人爽欧美一区卜| 欧美日韩av久久| 一个人免费看片子| 免费看光身美女| 最新的欧美精品一区二区| 欧美国产精品一级二级三级 | 欧美最新免费一区二区三区| 成人国产av品久久久| 亚洲在久久综合| 国产有黄有色有爽视频| 亚洲欧洲国产日韩| 啦啦啦视频在线资源免费观看| 又爽又黄a免费视频| 国产伦理片在线播放av一区| 尾随美女入室| 欧美xxⅹ黑人| 男女国产视频网站| 九九爱精品视频在线观看| 欧美激情国产日韩精品一区| 国产一区二区在线观看av| 女性被躁到高潮视频| www.av在线官网国产| 五月玫瑰六月丁香| 午夜精品国产一区二区电影| 男女啪啪激烈高潮av片| 午夜福利影视在线免费观看| 精品少妇黑人巨大在线播放| 国产欧美另类精品又又久久亚洲欧美| 韩国高清视频一区二区三区| 日本黄大片高清| 99九九线精品视频在线观看视频| 国产精品久久久久久久久免| 亚洲在久久综合| 精品久久久久久电影网| 老司机影院成人| 国产精品国产av在线观看| 26uuu在线亚洲综合色| 亚洲av免费高清在线观看| 成人午夜精彩视频在线观看| 国产一区二区三区av在线| 国模一区二区三区四区视频| 99热这里只有是精品50| 免费高清在线观看视频在线观看| 大片免费播放器 马上看| 成人美女网站在线观看视频| 内射极品少妇av片p| 国产熟女欧美一区二区| 看非洲黑人一级黄片| 日本爱情动作片www.在线观看| 男人狂女人下面高潮的视频| 亚洲欧美日韩东京热| 欧美日韩精品成人综合77777| 精品一区在线观看国产| 国产在视频线精品| 中文字幕人妻熟人妻熟丝袜美| 欧美激情极品国产一区二区三区 | 国产极品粉嫩免费观看在线 | 欧美日韩视频精品一区| 免费久久久久久久精品成人欧美视频 | 国产女主播在线喷水免费视频网站| 日韩大片免费观看网站| 亚洲精品成人av观看孕妇| 久久久国产精品麻豆| 国产亚洲午夜精品一区二区久久| 欧美3d第一页| 久久久久国产网址| 一本—道久久a久久精品蜜桃钙片| 亚洲精品成人av观看孕妇| 国产精品一区二区三区四区免费观看| 一级毛片 在线播放| a级毛色黄片| 久久久久久久久久久免费av| av天堂久久9| 少妇精品久久久久久久| 国产精品国产三级专区第一集| 精品少妇久久久久久888优播| 亚洲三级黄色毛片| 桃花免费在线播放| 欧美日韩亚洲高清精品| 波野结衣二区三区在线| 中国国产av一级| 久久久久久久久久久丰满| 亚洲真实伦在线观看| 在线 av 中文字幕| 看十八女毛片水多多多| 精品久久国产蜜桃| 在线亚洲精品国产二区图片欧美 | 精品国产露脸久久av麻豆| 精品久久久久久久久av| 丰满饥渴人妻一区二区三| 国产有黄有色有爽视频| 国产日韩一区二区三区精品不卡 | 久久国产亚洲av麻豆专区| 18+在线观看网站| 亚洲av男天堂| 国产69精品久久久久777片| 熟女av电影| 久久久国产一区二区| 国产91av在线免费观看| 日韩人妻高清精品专区| 亚洲成人手机| 97超碰精品成人国产| 桃花免费在线播放| 国产精品一二三区在线看| 亚洲av二区三区四区| 精品一区在线观看国产| 亚洲图色成人| 一级,二级,三级黄色视频| 成人无遮挡网站| 日韩在线高清观看一区二区三区| 亚洲国产av新网站| 国产日韩欧美视频二区| 天堂中文最新版在线下载| 免费大片18禁| 亚洲av成人精品一区久久| 哪个播放器可以免费观看大片| 丝袜脚勾引网站| 十八禁网站网址无遮挡 | 久久久久人妻精品一区果冻| 亚洲精品国产av蜜桃| 日本av免费视频播放| 校园人妻丝袜中文字幕| 如何舔出高潮| 午夜福利网站1000一区二区三区| 2018国产大陆天天弄谢| 国产精品蜜桃在线观看| 中文字幕人妻丝袜制服| 国产精品人妻久久久影院| 丝袜在线中文字幕| 亚洲中文av在线| 久久久久精品久久久久真实原创| 好男人视频免费观看在线| 亚洲无线观看免费| 各种免费的搞黄视频| 日韩一区二区三区影片| 亚洲情色 制服丝袜| 一区二区三区四区激情视频| a级片在线免费高清观看视频| 一级a做视频免费观看| 久久久久久久亚洲中文字幕| 成人国产av品久久久| 成人毛片60女人毛片免费| 亚洲高清免费不卡视频| 国产欧美亚洲国产| 偷拍熟女少妇极品色| 精品一区二区三卡| 99热国产这里只有精品6| 在线免费观看不下载黄p国产| 纵有疾风起免费观看全集完整版| 最后的刺客免费高清国语| 99国产精品免费福利视频| 午夜久久久在线观看| 少妇精品久久久久久久| 3wmmmm亚洲av在线观看| 97精品久久久久久久久久精品| 美女脱内裤让男人舔精品视频| 18禁在线播放成人免费| 在线观看一区二区三区激情| 国产真实伦视频高清在线观看| 春色校园在线视频观看| 人妻一区二区av| 中文精品一卡2卡3卡4更新| 香蕉精品网在线| 欧美精品人与动牲交sv欧美| 嫩草影院入口| 国产精品不卡视频一区二区| 日韩精品有码人妻一区| 性色av一级| 国产有黄有色有爽视频| 国产成人免费无遮挡视频| 免费看不卡的av| 精品一区二区免费观看| 嘟嘟电影网在线观看| 日产精品乱码卡一卡2卡三| 国产中年淑女户外野战色| 午夜日本视频在线| 高清欧美精品videossex| 亚洲成人av在线免费| 91精品伊人久久大香线蕉| 欧美+日韩+精品| 中文精品一卡2卡3卡4更新| 91成人精品电影| 丰满人妻一区二区三区视频av| 高清在线视频一区二区三区| 99久久精品热视频| 国产亚洲av片在线观看秒播厂| 日日撸夜夜添| 九九爱精品视频在线观看| 国产色爽女视频免费观看| 国产精品国产三级专区第一集| 建设人人有责人人尽责人人享有的| 亚洲精品,欧美精品| 99热全是精品| 中文字幕亚洲精品专区| 国产精品人妻久久久久久| 欧美日韩在线观看h| 91精品国产国语对白视频| 国产精品不卡视频一区二区| 久久国产乱子免费精品| 熟女人妻精品中文字幕| 看十八女毛片水多多多| 中国国产av一级| 黄色欧美视频在线观看| 亚洲av成人精品一二三区| 国产亚洲一区二区精品| 两个人的视频大全免费| 午夜91福利影院| 亚洲在久久综合| 国产视频首页在线观看| tube8黄色片| 成人国产麻豆网| 国产亚洲一区二区精品| 伊人亚洲综合成人网| 插阴视频在线观看视频| 五月开心婷婷网| 日韩成人av中文字幕在线观看| av专区在线播放| 自拍欧美九色日韩亚洲蝌蚪91 | 欧美97在线视频| 国产成人91sexporn| 新久久久久国产一级毛片| 少妇人妻一区二区三区视频| 亚洲综合精品二区| 五月开心婷婷网| 国产成人免费无遮挡视频| 免费看光身美女| 免费观看无遮挡的男女| 黄色日韩在线| 久久韩国三级中文字幕| 伦精品一区二区三区| 综合色丁香网| 欧美+日韩+精品| 人人澡人人妻人| 在线播放无遮挡| 啦啦啦在线观看免费高清www| 国产成人精品一,二区| 午夜激情久久久久久久| 午夜免费观看性视频| 久久久精品94久久精品| 国产成人午夜福利电影在线观看| 激情五月婷婷亚洲| 免费看不卡的av| 久久人人爽av亚洲精品天堂| 久久久久久久久久成人| 综合色丁香网| 免费看光身美女| 91久久精品国产一区二区成人| 大香蕉久久网| 免费观看无遮挡的男女| 五月开心婷婷网| 久久国产亚洲av麻豆专区| 免费av不卡在线播放| 91精品国产国语对白视频| 精品人妻熟女毛片av久久网站| 免费大片18禁| 国产伦在线观看视频一区| 久久久久人妻精品一区果冻| 另类亚洲欧美激情| 国产亚洲最大av| 尾随美女入室| 黄色怎么调成土黄色| 看十八女毛片水多多多| 欧美日韩国产mv在线观看视频| 日本免费在线观看一区| 中文乱码字字幕精品一区二区三区| 天天躁夜夜躁狠狠久久av| 亚洲精品成人av观看孕妇| 国产黄色免费在线视频| 久久人人爽人人片av| 国产精品福利在线免费观看| 中文字幕制服av| 哪个播放器可以免费观看大片| 国产91av在线免费观看| 亚洲怡红院男人天堂| 91成人精品电影| 国产亚洲欧美精品永久| 赤兔流量卡办理| 成人漫画全彩无遮挡| 欧美激情极品国产一区二区三区 | 三级经典国产精品| 王馨瑶露胸无遮挡在线观看| 大陆偷拍与自拍| 久久国内精品自在自线图片| 成人毛片60女人毛片免费| 少妇人妻精品综合一区二区| 日日啪夜夜撸| 欧美成人精品欧美一级黄| 草草在线视频免费看| av在线老鸭窝| 日本猛色少妇xxxxx猛交久久| 蜜桃在线观看..| 久久精品久久精品一区二区三区| 波野结衣二区三区在线| 一本大道久久a久久精品| 美女大奶头黄色视频| 99热6这里只有精品| 午夜日本视频在线| 水蜜桃什么品种好| 亚洲欧美精品专区久久| 国产69精品久久久久777片| 自拍偷自拍亚洲精品老妇| 亚洲成人一二三区av|