• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多任務(wù)學習的生成文本摘要研究

    2020-12-28 11:53李伯涵李紅蓮
    電腦知識與技術(shù) 2020年31期

    李伯涵 李紅蓮

    摘要:基于注意力機制的編碼-解碼模型的神經(jīng)網(wǎng)絡(luò)具有很好的生成文本摘要能力。但是,這些模型在生成過程中很難控制,這導(dǎo)致在生成文本中缺少關(guān)鍵信息。一些關(guān)鍵信息,例如時間,地點和人物,對于人類理解主要內(nèi)容是必不可少的。本文提出了一個基于多任務(wù)學習框架的用于生成文本摘要的關(guān)鍵信息指南網(wǎng)絡(luò)。主要思想是以端到端的方式自動提取人們最需要的關(guān)鍵信息,并用其指導(dǎo)生成過程,從而獲得更符合人類需求的摘要。在本文提出的模型中,文檔被編碼為兩個部分:普通文檔編碼器的編碼結(jié)果和關(guān)鍵信息的編碼,關(guān)鍵信息包括關(guān)鍵句和關(guān)鍵詞。引入了多任務(wù)學習框架以獲得更先進的端到端模型。為了融合關(guān)鍵信息,提出了一種多視角注意指南網(wǎng)絡(luò),以獲取源文本和關(guān)鍵信息的向量。另外,向量被合并到生成模塊中以指導(dǎo)摘要生成的過程。本文在CNN 與Daily Mail數(shù)據(jù)集上評估了模型,實驗結(jié)果表明此模型有重大改進。

    關(guān)鍵詞:關(guān)鍵信息;多任務(wù)學習;文本摘要;關(guān)鍵信息指南網(wǎng)絡(luò)

    中圖分類號:TP391.1 ? ? ?文獻標識碼:A

    文章編號:1009-3044(2020)31-0020-06

    Abstract: The neural network of the encoding-decoding model based on the attention mechanism has a good ability to generate text summaries. However, these models are difficult to control during the generation process, which leads to the lack of key information in the generated text. Some key information, such as time, place, and people, is essential for humans to understand the main content. This paper proposes a key information guide network for generating text summaries based on a multi-task learning framework. The main idea is to automatically extract the key information that people need most in an end-to-end manner, and use it to guide the generation process, so as to obtain a summary that is more in line with human needs. In the model proposed in this paper, the document is coded into two parts: the coding result of the ordinary document encoder and the coding of key information. The key information includes key sentences and keywords. A multi-task learning framework is introduced to obtain a more advanced end-to-end model. In order to fuse key information, a multi-perspective attention guide network is proposed to obtain the vector of source text and key information. In addition, vectors are incorporated into the generation module to guide the process of abstract generation. This paper evaluates the model on the CNN and Daily Mail datasets, and the experimental results show that this model has significant improvements.

    Key words: key information;multi-task learning;text summary;key information guide network

    1引言

    文本摘要是一項自動從給定文本生成簡短摘要的任務(wù)。文本摘要有兩種主要方法:抽取式和生成式。抽取式模型[1-2]通常通過從原始文本中提取一些句子來獲得摘要,而生成式模型[3-4]通過生成新的句子來生成摘要。最近,編碼-解碼神經(jīng)網(wǎng)絡(luò)框架[5]推進了對生成式文本摘要的進一步研究。

    原始文本和摘要都是人類語言。為了得到更高質(zhì)量的結(jié)果,模型必須能夠“理解”并以類似于人的方式表示原始文本。時間,地點和人物等實體是人類理解主要內(nèi)容的關(guān)鍵。因此,必須利用這些關(guān)鍵信息生成摘要。盡管當前的生成式模型被證明能夠捕獲文本摘要的規(guī)律性,但是在生成過程中卻很難對其進行控制。換句話說,沒有外部指導(dǎo),很難確保生成式模型可以識別關(guān)鍵信息并將其生成到摘要中[6]。

    一些研究試圖解決這些問題。Zhou等人[7]提出了一個選擇性門網(wǎng)絡(luò)來保留摘要中的更多關(guān)鍵信息。但是,由輸入文本控制的選擇性門網(wǎng)絡(luò)僅控制一次從編碼器到解碼器的信息流。如果某些關(guān)鍵信息沒有通過網(wǎng)絡(luò),那么它們將很難出現(xiàn)在摘要中。See等人[8]提出了一種指針生成器模型,該模型使用指針機制[9]從輸入文本中復(fù)制單詞,以處理未登錄詞(OOV)。沒有外部指導(dǎo),指針很難識別關(guān)鍵字。在先前的工作中,本文將抽取式模型和生成式模型結(jié)合在一起,并使用前一個模型來獲取關(guān)鍵詞作為后一個模型的指導(dǎo)[10]。然而,這種模型還不夠完善。并且這是一個通過TextRank算法提取關(guān)鍵字的流水線系統(tǒng)。

    3.3指針機制

    為了處理OOV(未登錄詞)問題,將指針網(wǎng)絡(luò)[9]與基于關(guān)鍵信息的生成方法相結(jié)合,這樣便能夠復(fù)制單詞并生成文本。在指針生成器模型中,需要計算一個開關(guān)[psw]以在生成的單詞和原文本的單詞之間進行選擇:

    4使用KIGN進行生成式文本摘要的多任務(wù)學習

    第3節(jié)中介紹的KIGN使文本摘要生成器可以更加關(guān)注關(guān)鍵信息。但是,該模型還不夠完善。例如,關(guān)鍵信息是通過Textrank算法而不是基于學習的方法獲得的。本節(jié)介紹了一種基于KIGN框架的用于生成式文本摘要的多任務(wù)學習模型(圖2),該模型包括文檔編碼器,關(guān)鍵信息提取器以及聯(lián)合訓(xùn)練和預(yù)測指南機制等方法。

    如圖2所示,首先,提出一種文檔編碼器,它包括單詞級編碼器和句子級編碼器。這樣,可以分別獲取每個單詞和每個句子編碼的全局特征。然后,關(guān)鍵信息提取層選擇關(guān)鍵詞和關(guān)鍵句子。接下來,生成器將指導(dǎo)生成過程。最后,通過以端到端的方式最小化三個損失函數(shù)來訓(xùn)練和關(guān)鍵信息提取器。

    4.1文檔編碼器

    本文提出了一種新穎的文檔編碼器,分別對單詞和句子進行編碼,而不是僅使用分層編碼器對兩者進行編碼[4]。該方法將有助于后續(xù)的關(guān)鍵詞提取和關(guān)鍵句子提取。

    4.1.1全局詞編碼器

    關(guān)鍵詞提取的任務(wù)需要整個文檔的信息以及單個單詞的信息。使用雙向LSTM作為全局詞編碼器。輸入文本[w1,w2,...,wn]的詞語被前饋到全局單詞編碼器中,全局單詞編碼器將文本映射到一系列隱藏狀態(tài)[hw1→,hw2→,...,hwn→]:

    關(guān)鍵詞標簽生成。要獲取關(guān)鍵詞,需要去除參考摘要中的停用詞,然后將其余部分[rw=rwii]用作關(guān)鍵字正確數(shù)據(jù)標簽。對于關(guān)鍵句子正確數(shù)據(jù)標簽[rs=rsii],測量文本中每個句子的信息量,并選擇關(guān)鍵句子[11]。為了獲得正確數(shù)據(jù)標簽,首先通過計算句子和參考摘要之間的ROUGE-L得分,來測量文章中每個句子的信息量。其次,根據(jù)信息量對句子進行排序,并按信息量從高到低的順序選擇句子。最后,獲得了正確數(shù)據(jù)標簽并通過最小化損失函數(shù)來訓(xùn)練提取器。方法類似于[11],該方法旨在提取文章的最終摘要,以便使用ROUGE F-1得分來選擇句子。在本文提出的模型中,使用ROUGE得分來獲得盡可能多的參考摘要信息。

    4.5測試預(yù)測指南機制

    在測試的過程中,模型在預(yù)測下一個單詞時,不僅要考慮上述概率(公式(9)),還要考慮預(yù)測指南機制[13]預(yù)測的長期值。

    本文的預(yù)測指南機制是具有sigmoid激活函數(shù)的單層前饋網(wǎng)絡(luò),可預(yù)測最終摘要中關(guān)鍵信息的范圍。在每個解碼時間[t]處,對解碼器隱藏狀態(tài)進行平均求和[st=1tl=1tsl],編碼器隱藏狀態(tài)[hn=1ni=1nhi],并且關(guān)鍵信息[k]作為輸入獲得長期值。

    為每個[x]摘要采樣yp1和yp2兩個部分,并隨機停止得到[st]。然后,從yp完成構(gòu)建,以獲取M個平均解碼器隱藏狀態(tài)[s]并計算平均得分:

    5實驗

    5.1實驗設(shè)置

    這里使用CNN /Daily Mail數(shù)據(jù)集[4,25],并且以與[8]相同的方式處理數(shù)據(jù)。對于全局單詞編碼器和句子編碼器,使用三個300維LSTM,并使用一個5萬詞的詞匯表。在訓(xùn)練和測試過程中,將單詞編碼器的輸入設(shè)為400個詞匯,并將摘要的長度設(shè)為100個詞匯。使用Adagrad算法[15]以學習速率0.15和初始累加值0.1來訓(xùn)練模型。一次訓(xùn)練樣本數(shù)設(shè)置為16,關(guān)鍵詞和關(guān)鍵句子的數(shù)量分別為40和10。共同訓(xùn)練這三個任務(wù),并設(shè)置[λ1=1]和[λ2=λ3=0.5]。本文采用的主要評估指標是ROUGE的F得分。

    此外,對于預(yù)測機制,使用單層前饋網(wǎng)絡(luò),并將節(jié)點數(shù)設(shè)置為800。對于超參數(shù)[α],在解碼期間使用不同的[α]來測試KIGN預(yù)測指南模型在運行期間的性能。從圖3可以看出,[α]為0.8到0.95時此模型的性能是穩(wěn)定的。另外,將[α]設(shè)置為0.9時,可以獲得最高的F分數(shù)。這里將M設(shè)置為8并采用mini-batch算法與AdaDelta算法來訓(xùn)練模型。

    在訓(xùn)練和測試的過程中,將輸入詞語設(shè)置為400個,并將輸出摘要的長度設(shè)置為100個詞語。在測試階段類似于[8],將輸入詞語設(shè)置為400個,并將輸出摘要的長度設(shè)置為100個詞語。以少于200,000的迭代次數(shù)訓(xùn)練關(guān)鍵詞網(wǎng)絡(luò)模型。然后,基于KIGN模型訓(xùn)練一個單層前饋網(wǎng)絡(luò)。最后,在測試過程中,將KIGN模型與預(yù)測指南機制相結(jié)合以生成摘要。

    5.2結(jié)果與討論

    實驗結(jié)果如表1所示。前五種是常用的序列到序列方法:具有注意力機制的Seq2Seq模型(詞匯表含150k詞匯),具有注意力機制的Seq2Seq模型(詞匯表含50k詞匯),具有圖注意力機制的Seq2Seq模型,分層注意力機制網(wǎng)絡(luò)[4]和具有指針機制的Seq2Seq模型。

    表1表明本文模型的基線模型(稱為關(guān)鍵信息指南網(wǎng)絡(luò))(如圖1所示)比具有指針機制的Seq2Seq模型獲得更好的分數(shù),分別為+1.3 ROUGE-1,+0.9 ROUGE-2和+1.0 ROUGE-L。借助指針機制(如圖1所示),關(guān)鍵信息指南網(wǎng)絡(luò)(KIGN + Prediction-guide)再次取得了更好的分數(shù),分別為+2.5 ROUGE-1,+1.5 ROUGE-2和+2.2ROUGE-L。而具有多任務(wù)學習框架的關(guān)鍵信息指南網(wǎng)絡(luò)(如圖2所示)獲得了最佳分數(shù)。并且,如果給出了關(guān)鍵詞和關(guān)鍵句子,則結(jié)果會更好,這也證明使用關(guān)鍵信息指導(dǎo)文本摘要生成是合理的。

    5.3案例研究

    為了證明本文的方法獲得關(guān)鍵信息的能力,圖4顯示了特定文本的處理結(jié)果。原始文本列在圖4的上半部分,并對關(guān)鍵信息加粗處理。接下來是給出的原本摘要和兩個模型的輸出。原始文字是關(guān)于在Android手機上的Google手寫輸入和一些功能介紹,關(guān)鍵信息是“goole claims”,“read anyones handwriting”,“android handsets can under 82 languages in 20 distinct scripts”和“works with both printed and cursive writing input with or without a stylus”可以觀察到,具有指針機制的基線模型的輸出僅涉及“google have cracked the problem of reading handwriting”,然而本文的模型總結(jié)了幾乎所有關(guān)鍵信息。

    6結(jié)論

    本文提出了一種具有關(guān)鍵信息指南網(wǎng)絡(luò)的多任務(wù)學習模型,該模型以新穎的方式將抽取式方法和生成式方法相結(jié)合。此模型基于關(guān)鍵信息指南網(wǎng)絡(luò)。關(guān)鍵信息指南網(wǎng)絡(luò)使用抽取式方法從文本中獲取關(guān)鍵字,然后將關(guān)鍵詞編碼為關(guān)鍵信息向量,并將其輸入到生成模型中以指導(dǎo)生成過程。指導(dǎo)主要從兩個方面進行:注意力機制和指針機制。在關(guān)鍵信息指導(dǎo)網(wǎng)絡(luò)的基礎(chǔ)上,本文提出了一種多任務(wù)學習模型來聯(lián)合訓(xùn)練抽取式模型和生成式模型,具體而言,使用文檔編碼器分別對輸入文本的詞匯和句子進行編碼。然后,基于編碼器,提取包括關(guān)鍵字和關(guān)鍵句在內(nèi)的關(guān)鍵信息。通過這種方式,關(guān)鍵信息的提取并不是通過TextRank方法,而是從序列到序列模型中獲取。最后,共同訓(xùn)練關(guān)鍵詞提取,關(guān)鍵句子提取和生成摘要這三項任務(wù)。在測試階段,使用一種預(yù)測指南機制,來進一步指導(dǎo)摘要生成,該機制可以獲取長期值用于后續(xù)的解碼。實驗表明,本文提出的模型可以顯著提升摘要的質(zhì)量。

    參考文獻:

    [1] R. Mihalcea, P. Tarau, in Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing. Text rank: bringing order into text (Association for Computational Linguistics, Barcelona, Spain, 2004), pp. 404–411. https://www.aclweb.org/anthology/W04-3252.

    [2] YasunagaM,ZhangR,MeeluK,etal.Graph-based neural multi-document summarization[EB/OL].2017:arXiv:1706.06681[cs.CL].https://arxiv.org/abs/1706.06681.

    [3] A. M. Rush, S. Chopra, J. Weston, in Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. A neural attention model for abstractive sentence summarization (Association for Computational Linguistics, Lisbon, Portugal, 2015), pp. 379–389. https://www.aclweb.org/anthology/D15-1044. https://doi.org/10.18653/v1/D15-1044

    [4] R. Nallapati, B. Xiang, B. Zhou, Sequence-to-sequence rnns for text summarization. CoRR.abs/1602.06023 (2016). 1602.06023

    [5] I. Sutskever, O. Vinyals, Q. V. Le, in Advances in Neural Information Processing Systems 27. Sequence to sequence learning with neural networks (Curran Associates, Inc., 2014), pp. 3104–3112. http://papers.nips.cc/paper/5346-sequence-to-sequence-learning-with-neural-networks.pdf

    [6] J. Tan, X. Wan, J. Xiao, in Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers).Abstractive document summarization with a graph-based attentional neural model (Association for Computational Linguistics, Vancouver, Canada, 2017), pp. 1171–1181. https://www.aclweb.org/anthology/P17-1108. https://doi.org/10.18653/v1/P17-1108

    [7] Q. Zhou, N. Yang, F. Wei, M. Zhou, in Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Selective encoding for abstractive sentence summarization (Association for Computational Linguistics, Vancouver, Canada, 2017), pp. 1095–1104. https://www.aclweb.org/anthology/P17-1101. https://doi.org/10.18653/v1/P17-1101

    [8]A. See, P. J. Liu, CD. Manning, in Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). Get to the point: summarization with pointer-generator networks (Association for Computational Linguistics, Vancouver, Canada, 2017), pp. 1073–1083. https://www.aclweb.org/anthology/P17-1099. https://doi.org/10.18653/v1/P17-1099

    [9] O. Vinyals, M. Fortunato, N. Jaitly, in Advances in Neural Information Processing Systems 28, ed. by C. Cortes, N. D. Lawrence, D. D. Lee, M.Sugiyama, and R. Garnett. Pointer networks (Curran Associates, Inc., 2015), pp. 2692–2700. http://papers.nips.cc/paper/5866-pointer-networks.pdf

    [10] C. Li, W. Xu, S. Li, S. Gao, in Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers). Guiding generation for abstractive text summarization based on key information guide network (Association for Computational Linguistics, New Orleans, Louisiana, 2018), pp. 55–60. https://www.aclweb.org/anthology/N18-2009. https://doi.org/10.18653/v1/N18-2009

    [11] W.-T. Hsu, C.-K.Lin, M.-Y. Lee, K. Min, J. Tang, M. Sun, in Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). A unified model for extractive and abstractive summarization using inconsistency loss (Association for Computational Linguistics, Melbourne, Australia, 2018), pp. 132–141. https://www. aclweb.org/anthology/P18-1013. https://doi.org/10.18653/v1/P18-1013

    [12] S. Chopra, M. Auli, A. M. Rush, in Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics:Human Language Technologies. Abstractive sentence summarization with attentive recurrent neural networks (Association for Computational Linguistics, San Diego, California, 2016), pp. 93–98. https://www.aclweb.org/anthology/N16-1012. https://doi.org/10.18653/v1/N16-1012

    [13] D. He, H. Lu, Y. Xia, T. Qin, L. Wang, T.-Y. Liu, in Advances in Neural Information Processing Systems 30, ed. by I. Guyon, U. V. Luxburg, S. Bengio,H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett. Decoding with value networks for neural machine translation (Curran Associates, Inc.,2017), pp. 178–187. http://papers.nips.cc/paper/6622-decoding-with value-networks-for-neural-machine-translation.pdf

    [14] B. Dzmitry, C. Kyunghyun, B. Yoshua, Neural machine translation by jointly learning to align and translate. Comput.Sci. (2014). 1409.0473v6

    [15] J. Duchi, E. Hazan, Y. Singer, Adaptive subgradient methods for online learning and stochastic optimization. J. Mach. Learn. Res. 12(Jul),2121–2159 (2011)

    [16] C. Y. Lin, E. Hovy, in Proceedings of the 2003 Human Language Technology Conference of the North American Chapter of the Association for Computational Linguistics. Automatic evaluation of summaries using n-gram co-occurrence statistics, (2003), pp. 150–157. https://www. aclweb.org/anthology/N03-1020

    [17] M. D. Zeiler, ADADELTA: an adaptive learning rate method. CoRR.abs/1212.5701 (2012). 1212.5701

    [18] M. Zhanyu, L. Yuping, K. W. Bastiaan, W. Liang, G. Jun, Variational Bayesian learning for Dirichlet process mixture of inverted Dirichlet distributions in non-Gaussian image feature modeling. IEEE Trans. Neural Netw. Learn. Syst. 30(2), 449–463 (2019). https://doi.org/10.1109/TNNLS.2018.2844399

    [19] M. Zhanyu, Y. Hong, C. Wei, G. Juo, Short utterance based speech language identification in intelligent vehicles with time-scale modifications and deep bottleneck features. IEEE Trans. Veh. Technol.68(1), 121–128 (2019). https://doi.org/10.1109/TVT.2018.2879361

    [20] K. Zhang, N. Liu, X. Yuan, X. Guo, C. Gao, Z. Zhao, Fine-grained age estimation in the wild with attention LSTM networks. IEEE Trans. Circ. Syst.Video Technol. (TCSVT) (2019). Accepted. https://doi.org/10.1109/tcsvt.2019.2936410

    [21] L. Xiaoxu, Y. Liyun, C. Dongliang, M. Zhanyu, C. Jie, Dual cross-entropy loss for small-sample fine-grained vehicle classification. IEEE Trans. Veh.Technol. (TVT). 68(5), 4204–4212 (2019)

    [22] M. Zhanyu, X. Jing-Hao, L. Arne, T. Zheng-Hua, Y. Zhen, G. Jun,Decorrelation of neutral vector variables: theory and applications. IEEE Trans. Neural Netw. Learn. Syst. 29(1), 129–143 (2018). https://doi.org/10.1109/TNNLS.2016.2616445

    [23] M. Zhanyu, C. Dongliang, X. Jiyang, D. Yifeng, W. Shaoguo, L. Xiaoxu, S.Zhongwei, G. Jun, Fine-grained vehicle classification with channel max pooling modified CNNs. IEEE Trans. Veh. Technol. 68(4), 3224–3233 (2019)

    [24] M. Zhanyu, X. Jiyang, L. Yuping, T. Jalil, X. Jing-Hao, G. Jun, Insights into multiple/single lower bound approximation for extended variational inference in non-Gaussian structured data modeling. IEEE Trans. Neural Netw. Learn. Syst., 1–15 (2019). https://doi.org/10.1109/TNNLS.2019.2899613

    [25] K. M. Hermann, T. Kocisky, E. Grefenstette, L. Espeholt, W. Kay, M.Suleyman, P. Blunsom, in Advances in Neural Information Processing Systems 28, ed. by C. Cortes, N. D. Lawrence, D. D. Lee, M. Sugiyama, and R.Garnett. Teaching machines to read and comprehend (Curran Associates, Inc., 2015), pp. 1693–1701. http://papers.nips.cc/paper/5945-teaching machines-to-read-and-comprehend.pdf

    【通聯(lián)編輯:梁書】

    国产日韩欧美在线精品| 男女那种视频在线观看| 国产精品一区二区在线观看99 | 免费不卡的大黄色大毛片视频在线观看 | 老师上课跳d突然被开到最大视频| 亚洲无线观看免费| 自拍偷自拍亚洲精品老妇| 有码 亚洲区| 高清欧美精品videossex| 高清毛片免费看| 人妻一区二区av| 我的老师免费观看完整版| av免费在线看不卡| 2021少妇久久久久久久久久久| 午夜福利成人在线免费观看| 国产探花极品一区二区| 97人妻精品一区二区三区麻豆| 狂野欧美激情性xxxx在线观看| 乱系列少妇在线播放| 黄色欧美视频在线观看| 91久久精品电影网| av一本久久久久| 在线 av 中文字幕| 天堂网av新在线| 全区人妻精品视频| 欧美精品国产亚洲| 最近的中文字幕免费完整| 免费人成在线观看视频色| 日韩一区二区视频免费看| 亚洲精品国产av蜜桃| 久久久久久久久久成人| 3wmmmm亚洲av在线观看| 久久99热这里只频精品6学生| 久久久久性生活片| 国产精品不卡视频一区二区| 亚洲欧美日韩无卡精品| 卡戴珊不雅视频在线播放| 欧美 日韩 精品 国产| 欧美激情国产日韩精品一区| 久久精品久久久久久噜噜老黄| 一夜夜www| 美女高潮的动态| 亚洲欧美成人精品一区二区| 美女主播在线视频| 卡戴珊不雅视频在线播放| 久久久久久久国产电影| 九九在线视频观看精品| 97超视频在线观看视频| 午夜精品在线福利| 午夜免费男女啪啪视频观看| 久久国产乱子免费精品| 久久精品久久精品一区二区三区| 国产在线一区二区三区精| 国产精品.久久久| eeuss影院久久| 69人妻影院| 极品教师在线视频| 久久久久久久久久人人人人人人| 亚洲熟妇中文字幕五十中出| 免费在线观看成人毛片| 97超碰精品成人国产| 亚洲精品亚洲一区二区| 观看美女的网站| 国产69精品久久久久777片| 日日摸夜夜添夜夜添av毛片| 国产男女超爽视频在线观看| 国产熟女欧美一区二区| 一级片'在线观看视频| 在线 av 中文字幕| 成人美女网站在线观看视频| 成人毛片a级毛片在线播放| 精品久久久久久久久av| 久久精品久久久久久久性| 欧美人与善性xxx| 少妇人妻一区二区三区视频| 亚洲婷婷狠狠爱综合网| 日韩电影二区| 欧美日韩在线观看h| 最近中文字幕高清免费大全6| 欧美 日韩 精品 国产| 国产精品.久久久| 亚洲国产av新网站| 精品一区二区三区视频在线| 午夜免费观看性视频| 日韩一本色道免费dvd| 床上黄色一级片| 国产成人aa在线观看| 80岁老熟妇乱子伦牲交| 亚洲乱码一区二区免费版| 日本爱情动作片www.在线观看| 亚洲av不卡在线观看| 久久久久久久久久久免费av| 国产成人精品婷婷| 亚洲欧美一区二区三区国产| 天天一区二区日本电影三级| 丰满人妻一区二区三区视频av| 免费观看的影片在线观看| 亚洲在线观看片| 国产女主播在线喷水免费视频网站 | 麻豆乱淫一区二区| 亚洲色图av天堂| 日日撸夜夜添| 狂野欧美白嫩少妇大欣赏| 国产又色又爽无遮挡免| 国内揄拍国产精品人妻在线| 国产片特级美女逼逼视频| 国产欧美日韩精品一区二区| 五月伊人婷婷丁香| 亚洲欧美清纯卡通| 欧美日本视频| 亚洲av成人精品一二三区| 非洲黑人性xxxx精品又粗又长| 91狼人影院| 少妇人妻一区二区三区视频| 毛片女人毛片| 99re6热这里在线精品视频| 欧美bdsm另类| 国产精品久久久久久精品电影小说 | 嫩草影院入口| videos熟女内射| 我的老师免费观看完整版| 91久久精品国产一区二区三区| 成年免费大片在线观看| 色网站视频免费| 亚洲熟妇中文字幕五十中出| 亚洲精品456在线播放app| 少妇高潮的动态图| 日韩av免费高清视频| 秋霞在线观看毛片| 三级男女做爰猛烈吃奶摸视频| 国产欧美另类精品又又久久亚洲欧美| 久久精品久久久久久久性| 亚洲色图av天堂| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 亚洲成人一二三区av| 精品酒店卫生间| 美女黄网站色视频| 人妻系列 视频| 九草在线视频观看| 男女边吃奶边做爰视频| 国产精品伦人一区二区| 亚洲av二区三区四区| 亚洲av成人av| 亚洲久久久久久中文字幕| 成年女人看的毛片在线观看| 亚洲精品久久午夜乱码| av线在线观看网站| 亚洲av中文av极速乱| 最近中文字幕高清免费大全6| 精品久久久久久久久久久久久| 永久网站在线| 一个人免费在线观看电影| 亚洲精品乱码久久久v下载方式| 亚洲电影在线观看av| 夫妻午夜视频| 丝瓜视频免费看黄片| 日本黄大片高清| 成人特级av手机在线观看| 亚洲精品456在线播放app| 大陆偷拍与自拍| 日本猛色少妇xxxxx猛交久久| 免费看av在线观看网站| av在线蜜桃| 欧美性感艳星| 一级爰片在线观看| 国产一区二区在线观看日韩| 在线 av 中文字幕| 成人亚洲精品一区在线观看 | 永久免费av网站大全| 亚洲av电影在线观看一区二区三区 | 天堂影院成人在线观看| 日产精品乱码卡一卡2卡三| 亚洲欧美日韩卡通动漫| 精品久久久久久久人妻蜜臀av| 精品人妻视频免费看| 亚洲va在线va天堂va国产| 亚洲人成网站在线观看播放| 亚洲av男天堂| 免费黄色在线免费观看| 人人妻人人看人人澡| 国产黄色免费在线视频| 国内精品宾馆在线| 国产在视频线在精品| 精品国产一区二区三区久久久樱花 | 国产伦精品一区二区三区视频9| 嫩草影院精品99| 亚洲精品成人av观看孕妇| 精品久久久久久成人av| 免费看不卡的av| 午夜福利在线观看免费完整高清在| www.色视频.com| 日日摸夜夜添夜夜爱| 非洲黑人性xxxx精品又粗又长| 老师上课跳d突然被开到最大视频| 国产亚洲av片在线观看秒播厂 | 波野结衣二区三区在线| 亚洲激情五月婷婷啪啪| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 久久久久久伊人网av| 97热精品久久久久久| 欧美 日韩 精品 国产| 伊人久久精品亚洲午夜| 久久久久久久午夜电影| videos熟女内射| av在线观看视频网站免费| 97热精品久久久久久| 18+在线观看网站| 亚洲国产av新网站| 99热6这里只有精品| 亚洲成人av在线免费| 日韩强制内射视频| 欧美一级a爱片免费观看看| 街头女战士在线观看网站| 国语对白做爰xxxⅹ性视频网站| 久久亚洲国产成人精品v| 亚洲综合色惰| 18禁动态无遮挡网站| 纵有疾风起免费观看全集完整版 | 免费av观看视频| 日韩制服骚丝袜av| 嘟嘟电影网在线观看| 寂寞人妻少妇视频99o| 天美传媒精品一区二区| 欧美高清成人免费视频www| 免费av毛片视频| 日韩一区二区三区影片| 日本黄大片高清| 免费观看无遮挡的男女| 成人午夜精彩视频在线观看| 777米奇影视久久| 中文字幕亚洲精品专区| 人人妻人人澡欧美一区二区| 男插女下体视频免费在线播放| 内射极品少妇av片p| 国产成人精品婷婷| 国产亚洲av片在线观看秒播厂 | 亚洲人与动物交配视频| 永久网站在线| 国语对白做爰xxxⅹ性视频网站| 国产伦在线观看视频一区| 免费不卡的大黄色大毛片视频在线观看 | 国产免费一级a男人的天堂| 久久97久久精品| 日韩视频在线欧美| 久久久久久久久大av| 久久精品久久久久久久性| 插逼视频在线观看| 精品一区二区免费观看| 亚洲精品成人av观看孕妇| 一级毛片黄色毛片免费观看视频| 卡戴珊不雅视频在线播放| 91精品一卡2卡3卡4卡| 国产一区亚洲一区在线观看| 亚洲国产精品国产精品| 日韩伦理黄色片| 韩国av在线不卡| 成年女人看的毛片在线观看| 国产黄色小视频在线观看| 一级毛片aaaaaa免费看小| 成人国产麻豆网| 非洲黑人性xxxx精品又粗又长| 肉色欧美久久久久久久蜜桃 | 国产精品蜜桃在线观看| 国产三级在线视频| 久久人人爽人人片av| 亚洲欧美精品自产自拍| 婷婷色综合www| 国内精品一区二区在线观看| a级毛片免费高清观看在线播放| 亚洲美女搞黄在线观看| 免费观看a级毛片全部| 乱系列少妇在线播放| 国产有黄有色有爽视频| 一区二区三区免费毛片| 国产毛片a区久久久久| 乱人视频在线观看| 久久精品熟女亚洲av麻豆精品 | 久久草成人影院| 日韩人妻高清精品专区| 精品一区二区三区视频在线| 国产成人精品久久久久久| 亚洲婷婷狠狠爱综合网| 国产黄片美女视频| 丝袜美腿在线中文| 黄色配什么色好看| 日本爱情动作片www.在线观看| 久久久久久久久中文| 久久久久久久久久黄片| 尤物成人国产欧美一区二区三区| 日韩欧美精品v在线| 国产成人aa在线观看| 免费观看在线日韩| 婷婷色综合www| 国产白丝娇喘喷水9色精品| 免费看美女性在线毛片视频| 欧美日本视频| 久久精品综合一区二区三区| 久久草成人影院| 午夜福利在线观看免费完整高清在| 一级二级三级毛片免费看| 亚洲av电影不卡..在线观看| 亚洲av二区三区四区| 亚洲综合色惰| 亚洲av免费高清在线观看| 国产激情偷乱视频一区二区| 免费高清在线观看视频在线观看| 午夜亚洲福利在线播放| 高清在线视频一区二区三区| av在线蜜桃| 国产精品日韩av在线免费观看| 国产中年淑女户外野战色| 免费看光身美女| 国内揄拍国产精品人妻在线| 久久久色成人| 麻豆成人av视频| 搡女人真爽免费视频火全软件| 99久久精品国产国产毛片| 真实男女啪啪啪动态图| 中文字幕av成人在线电影| 久久韩国三级中文字幕| 伦理电影大哥的女人| 视频中文字幕在线观看| 国产伦一二天堂av在线观看| 少妇裸体淫交视频免费看高清| 可以在线观看毛片的网站| 亚洲精品色激情综合| 亚洲天堂国产精品一区在线| 精品久久久久久电影网| 欧美成人午夜免费资源| 日韩不卡一区二区三区视频在线| 日本三级黄在线观看| 人人妻人人澡欧美一区二区| 日韩 亚洲 欧美在线| 三级男女做爰猛烈吃奶摸视频| 少妇猛男粗大的猛烈进出视频 | 男人舔女人下体高潮全视频| 成人亚洲精品av一区二区| 黄片无遮挡物在线观看| 国产精品伦人一区二区| 久久精品国产自在天天线| 男人狂女人下面高潮的视频| 日本午夜av视频| 麻豆av噜噜一区二区三区| 男女边摸边吃奶| 国产老妇伦熟女老妇高清| 亚洲国产高清在线一区二区三| 日韩欧美精品免费久久| 精品国产露脸久久av麻豆 | 成人高潮视频无遮挡免费网站| 亚洲av一区综合| 尾随美女入室| 日本av手机在线免费观看| 亚洲,欧美,日韩| 亚洲av电影在线观看一区二区三区 | www.av在线官网国产| 欧美日韩视频高清一区二区三区二| 日日摸夜夜添夜夜添av毛片| 国产黄色小视频在线观看| 99re6热这里在线精品视频| 青青草视频在线视频观看| 色5月婷婷丁香| 美女xxoo啪啪120秒动态图| 人人妻人人看人人澡| 综合色av麻豆| 特级一级黄色大片| 女人十人毛片免费观看3o分钟| 国产成人freesex在线| 午夜亚洲福利在线播放| 白带黄色成豆腐渣| 能在线免费看毛片的网站| .国产精品久久| 欧美成人一区二区免费高清观看| 亚洲第一区二区三区不卡| 一本久久精品| 麻豆久久精品国产亚洲av| 久久久色成人| 亚洲精品自拍成人| 国产69精品久久久久777片| 欧美日韩在线观看h| 国产单亲对白刺激| 精品久久久久久久久亚洲| 91精品国产九色| 看非洲黑人一级黄片| 国产精品久久久久久久久免| 国内揄拍国产精品人妻在线| 乱码一卡2卡4卡精品| 亚洲一级一片aⅴ在线观看| 国产 一区 欧美 日韩| 黑人高潮一二区| 亚洲av成人精品一区久久| 国产男人的电影天堂91| 精品久久久久久久人妻蜜臀av| 91久久精品国产一区二区三区| 亚洲精华国产精华液的使用体验| 超碰av人人做人人爽久久| 久久精品国产亚洲av涩爱| 久久精品久久精品一区二区三区| .国产精品久久| 亚洲综合精品二区| 大话2 男鬼变身卡| 97精品久久久久久久久久精品| 午夜福利在线在线| 国产精品久久久久久久久免| 久久久成人免费电影| videos熟女内射| 亚洲自偷自拍三级| 久久久久久久久中文| 美女xxoo啪啪120秒动态图| 日韩国内少妇激情av| 在线观看免费高清a一片| 免费av不卡在线播放| 插阴视频在线观看视频| 国产精品一区二区性色av| 国产精品美女特级片免费视频播放器| 2022亚洲国产成人精品| 欧美 日韩 精品 国产| 日韩不卡一区二区三区视频在线| 十八禁国产超污无遮挡网站| 久久精品综合一区二区三区| 特级一级黄色大片| 丝袜美腿在线中文| 亚洲电影在线观看av| 亚洲国产精品成人久久小说| 亚洲精品,欧美精品| 91精品国产九色| 热99在线观看视频| 精品久久久噜噜| 色哟哟·www| 亚洲无线观看免费| 黄色欧美视频在线观看| 男女国产视频网站| 日本熟妇午夜| 日韩欧美精品免费久久| ponron亚洲| 精品人妻熟女av久视频| 国产精品福利在线免费观看| 亚洲美女搞黄在线观看| 亚洲av福利一区| 成人午夜精彩视频在线观看| 嫩草影院新地址| 免费无遮挡裸体视频| 97热精品久久久久久| 三级国产精品欧美在线观看| 久久人人爽人人片av| 亚洲精品成人久久久久久| 免费黄网站久久成人精品| 国产精品久久久久久精品电影| 午夜精品一区二区三区免费看| 久久人人爽人人爽人人片va| 色5月婷婷丁香| 一二三四中文在线观看免费高清| 亚洲国产高清在线一区二区三| 国产人妻一区二区三区在| 亚洲精品,欧美精品| 熟妇人妻不卡中文字幕| 国产男人的电影天堂91| 国产午夜精品论理片| 日本熟妇午夜| 毛片一级片免费看久久久久| 亚洲欧美精品自产自拍| 高清欧美精品videossex| 亚洲成人av在线免费| 亚洲精品影视一区二区三区av| 少妇熟女aⅴ在线视频| 少妇裸体淫交视频免费看高清| 午夜免费男女啪啪视频观看| 一级片'在线观看视频| 真实男女啪啪啪动态图| 菩萨蛮人人尽说江南好唐韦庄| 99久国产av精品| 国产精品无大码| 日韩一区二区三区影片| 中文字幕av成人在线电影| 成人性生交大片免费视频hd| 日本免费在线观看一区| 97热精品久久久久久| 国产精品一区二区在线观看99 | 丝瓜视频免费看黄片| 国产不卡一卡二| 免费看日本二区| 91aial.com中文字幕在线观看| 麻豆精品久久久久久蜜桃| 亚洲激情五月婷婷啪啪| 日韩 亚洲 欧美在线| 中文字幕av成人在线电影| 人妻少妇偷人精品九色| 永久免费av网站大全| 中文乱码字字幕精品一区二区三区 | 亚洲av男天堂| 欧美一级a爱片免费观看看| 亚洲av电影在线观看一区二区三区 | 国产午夜福利久久久久久| 亚洲人与动物交配视频| 免费播放大片免费观看视频在线观看| 黄色欧美视频在线观看| 亚洲精品久久午夜乱码| 日本黄大片高清| 干丝袜人妻中文字幕| 亚洲av男天堂| 91精品一卡2卡3卡4卡| 嫩草影院入口| 亚洲激情五月婷婷啪啪| 亚洲不卡免费看| 一级a做视频免费观看| 亚洲最大成人中文| 一本一本综合久久| 欧美日韩在线观看h| 在线观看人妻少妇| 一级二级三级毛片免费看| 在线a可以看的网站| 日韩 亚洲 欧美在线| 男女下面进入的视频免费午夜| 青春草视频在线免费观看| 国产黄色小视频在线观看| 欧美日韩一区二区视频在线观看视频在线 | 亚洲va在线va天堂va国产| 亚洲av国产av综合av卡| 亚洲美女搞黄在线观看| a级毛片免费高清观看在线播放| 免费无遮挡裸体视频| 国产精品久久久久久精品电影小说 | 99re6热这里在线精品视频| 插阴视频在线观看视频| 国产三级在线视频| 真实男女啪啪啪动态图| 国产综合精华液| 国产精品久久久久久久电影| 99热这里只有是精品在线观看| 国产精品一及| 人妻一区二区av| 美女cb高潮喷水在线观看| 日本与韩国留学比较| 在线观看人妻少妇| 久久综合国产亚洲精品| 日本-黄色视频高清免费观看| 青春草国产在线视频| av免费在线看不卡| 国产午夜精品论理片| 午夜福利视频1000在线观看| 亚洲国产精品sss在线观看| 又黄又爽又刺激的免费视频.| 欧美日韩视频高清一区二区三区二| 免费观看av网站的网址| 一级av片app| 国产亚洲91精品色在线| 岛国毛片在线播放| 国产精品美女特级片免费视频播放器| 婷婷六月久久综合丁香| 亚洲欧美成人精品一区二区| 亚洲综合精品二区| 91aial.com中文字幕在线观看| 亚洲av成人精品一区久久| 嫩草影院新地址| 国产女主播在线喷水免费视频网站 | 亚洲精品自拍成人| 99久久人妻综合| 亚洲精品国产成人久久av| 国产精品1区2区在线观看.| 午夜激情欧美在线| 国产精品一及| 国产探花极品一区二区| 成人av在线播放网站| 热99在线观看视频| 97超碰精品成人国产| 亚洲欧美清纯卡通| 日本午夜av视频| 国产欧美日韩精品一区二区| 大片免费播放器 马上看| freevideosex欧美| 国产精品麻豆人妻色哟哟久久 | 一级毛片黄色毛片免费观看视频| 又爽又黄无遮挡网站| 国产av不卡久久| 成年版毛片免费区| 久久久久性生活片| 国产成年人精品一区二区| 亚洲最大成人中文| 欧美xxxx性猛交bbbb| 高清日韩中文字幕在线| 十八禁网站网址无遮挡 | 亚洲精品成人久久久久久| 久久这里有精品视频免费| videossex国产| 91aial.com中文字幕在线观看| 免费观看精品视频网站| 亚洲婷婷狠狠爱综合网| 国产午夜精品久久久久久一区二区三区| 99热这里只有是精品50| 免费观看无遮挡的男女| freevideosex欧美| 亚洲在线观看片| 男女视频在线观看网站免费| 亚洲精品久久久久久婷婷小说| 又黄又爽又刺激的免费视频.| 国精品久久久久久国模美| 午夜日本视频在线| 久久久久久久亚洲中文字幕| 色播亚洲综合网| 人人妻人人澡欧美一区二区| 国产免费又黄又爽又色| 六月丁香七月| 91aial.com中文字幕在线观看| 久久精品熟女亚洲av麻豆精品 | 免费大片黄手机在线观看| 日韩 亚洲 欧美在线| 国产 亚洲一区二区三区 | 亚洲,欧美,日韩| 亚洲欧美中文字幕日韩二区| 亚洲国产av新网站| 搞女人的毛片| 久久精品夜色国产| 国产成年人精品一区二区| 三级经典国产精品| 国产亚洲一区二区精品| 色哟哟·www|