• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于上下文的深度語義句子檢索模型

    2017-11-27 08:58:56范意興郭嘉豐蘭艷艷程學(xué)旗
    中文信息學(xué)報 2017年5期
    關(guān)鍵詞:語義信息模型

    范意興,郭嘉豐,蘭艷艷,徐 君,程學(xué)旗

    (1. 中國科學(xué)院網(wǎng)絡(luò)數(shù)據(jù)科學(xué)與技術(shù)重點實驗室 中國科學(xué)院 計算技術(shù)研究所,北京 100190;2. 中國科學(xué)院大學(xué),北京 100190)

    基于上下文的深度語義句子檢索模型

    范意興1,2,郭嘉豐1,蘭艷艷1,徐 君1,程學(xué)旗1

    (1. 中國科學(xué)院網(wǎng)絡(luò)數(shù)據(jù)科學(xué)與技術(shù)重點實驗室 中國科學(xué)院 計算技術(shù)研究所,北京 100190;2. 中國科學(xué)院大學(xué),北京 100190)

    傳統(tǒng)的信息檢索的研究多集中在文檔級的檢索場景中,然而,句子級的檢索在如移動應(yīng)用以及信息需求更加明確的檢索場景下具有非常重要的意義。在句子級的檢索場景下,我們認為句子的上下文能夠提供更加豐富的語義信息來支撐句子與查詢的匹配,基于此,該文提出了一個基于句子上下文的深度語義句子檢索模型(context-aware deep sentence matching model, CDSMM)。具體的,我們使用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)來建模句子內(nèi)部以及句子上下文的語義信息,基于句子和查詢的語義信息得到它們的匹配程度,在WebAP句子檢索數(shù)據(jù)集上的實驗表明,我們的模型性能顯著地優(yōu)于其他的方法,并取得了目前最好的效果。

    信息檢索;文本匹配;循環(huán)神經(jīng)網(wǎng)絡(luò)

    1 引言

    網(wǎng)頁信息檢索作為人們獲取信息的一個重要渠道,已經(jīng)得到了研究人員深入且廣泛的研究。傳統(tǒng)的信息檢索系統(tǒng)通常對用戶提交的查詢返回多個相關(guān)的網(wǎng)頁,根據(jù)網(wǎng)頁內(nèi)容與查詢的相近程度將網(wǎng)頁排序并呈現(xiàn)給用戶。近年來,隨著移動終端如智能手機的大量普及,人們通過移動設(shè)備進行信息查詢的需求也不斷加大,相對于電腦而言,移動設(shè)備屏幕大小的限制使得傳統(tǒng)以網(wǎng)頁作為結(jié)果的檢索方式變得越來越不能滿足人們的需求。同時,不同的查詢結(jié)果可以是不同粒度大小的文本內(nèi)容,比如,事實型的查詢結(jié)果可能是一個簡單命名實體,而導(dǎo)航類的查詢結(jié)果則可能是一個完整的網(wǎng)頁。在實際的檢索場景中,存在大量的語義豐富的長查詢(查詢詞個數(shù)超過5個),相比其他關(guān)鍵詞類型的短查詢,這類查詢具有更加明確的信息需求,能夠通過一個相對短的句子或者段落來回答?;诰渥蛹墑e的檢索不僅能解決移動設(shè)備屏幕大小的限制問題,同時針對語義豐富的長查詢能返回更加精確的答案。

    近年來,深度學(xué)習(xí)技術(shù)在文本匹配相關(guān)領(lǐng)域取得了顯著的進步,例如自動問答[1],復(fù)述問題[2],信息檢索[3]等。在自動問答與復(fù)述問題等任務(wù)中,深度學(xué)習(xí)技術(shù)建模句子間匹配的能力已經(jīng)得到研究人員的驗證[1,3];在信息檢索中,已有的模型大都是對整個文檔內(nèi)容與查詢的相關(guān)性進行建模,對于信息需求不是十分明確的短查詢而言,完整的文檔內(nèi)容能提供給用戶更加滿意的答案,基于文檔級的檢索是比較合適的;然而對于信息需求更加明確的長查詢,相關(guān)的信息經(jīng)常出現(xiàn)在一個或是多個簡短的句子中。本文中,我們認為對于信息需求更加明確的查詢,一個文檔段落或者是多個連續(xù)的句子比整個文檔作為查詢結(jié)果更加合適。在此假設(shè)的基礎(chǔ)上,我們提出了一個基于上下文句子的深度句子匹配的模型,具體的,我們使用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)來建模每個句子內(nèi)部以及上下文句子的語義信息,對于查詢同樣使用循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)得到其語義信息,在此基礎(chǔ)上,我們構(gòu)建了一個查詢與句子的匹配交互矩陣,經(jīng)過多層感知機網(wǎng)絡(luò)得到該句子與查詢的相關(guān)程度。我們在WebAP數(shù)據(jù)集上進行了實驗,結(jié)果表明,使用RNN能夠很好地捕捉句子上下文的語義信息,我們的方法取得了更高的準確度和穩(wěn)定性。

    本文的主要貢獻是我們提出了一個基于上下文句子的深度句子檢索模型,基于雙向循環(huán)神經(jīng)網(wǎng)絡(luò)有效地將上下文句子的語義信息整合到當前句子中,從而更好地建模了句子與查詢的匹配。同時,我們在基于句子級的檢索任務(wù)上進行了詳細的實驗,我們的模型比當前最佳模型的效果有顯著提升,我們也對此進行了詳細的分析。

    2 相關(guān)工作

    本文相關(guān)工作主要包括社區(qū)問答任務(wù)、事實型問答任務(wù)以及基于段落的信息檢索。接下來將對這幾個相關(guān)的工作進行詳細的介紹。

    社區(qū)問答任務(wù)是針對一個給定的問題,將所有候選的答案進行排序,返回相關(guān)的答案作為結(jié)果。Surdeanu[4]等人從Yahoo! Answers 提取了一個較大的問答任務(wù)的數(shù)據(jù)集,同時,他們綜合了一些相似度特征以及翻譯特征并用學(xué)習(xí)排序模型來解決這個問題,取得了不錯的結(jié)果。Molino[5]等人發(fā)現(xiàn)基于詞向量構(gòu)建的具有豐富語義信息的特征能夠顯著提高問答任務(wù)的準確度。Jansen[6]等人整合了詞匯的語義信息以及兩類語篇信息作為特征,提出了一個對結(jié)果進行重排的模型。社區(qū)問答任務(wù)與基于句子的檢索任務(wù)還是存在一定的差異: 句子檢索任務(wù)的候選答案通常分布在文檔的不同位置甚至多個文檔中,且候選的文檔集數(shù)量很大,而社區(qū)問答任務(wù)的候選答案集合相對較小。

    事實型問答任務(wù)的特點是其答案往往是某個具體的對象,如人名或者地名等命名實體。事實型問答任務(wù)已經(jīng)吸引了大量的研究人員關(guān)注[7-9],Yao[8]等人基于問題與候選答案構(gòu)建了一個線性鏈條件隨機場模型來學(xué)習(xí)問題與答案的關(guān)聯(lián),將答案的抽取問題變成一個序列標注問題。Yu[9]等人基于分布式表達的思想,將問題與答案都映射到一個分布式的語義表達中,然后基于二者的表達來學(xué)習(xí)問題與答案的匹配程度。本文的基于句子的檢索任務(wù)與事實型問答任務(wù)最大的不同是本文聚焦的是非事實型的查詢,其答案往往是一個或者多個相關(guān)的句子。

    基于段落的檢索最早被用來提高基于關(guān)鍵詞檢索的性能[10-11],Liu[11]等人將段落的信息用來進行查詢擴展,從而提高檢索的精度。Lv[12]等人提出一種位置語言模型,在文檔的每個位置構(gòu)建了一個語言模型,每個位置的得分以某種衰減的方式傳播到其他的位置,該模型可以看作是一種軟段落的檢索?;诙温涞臋z索能有效的提高檢索的性能,相比基于文檔的檢索,基于段落的檢索還能給出文檔中具體匹配的信息。一個段落一般是由多個連續(xù)的句子組成,因此基于段落的檢索是介于基于文檔的檢索與基于句子檢索的中間狀態(tài)?;诰渥蛹壍臋z索近年來也得到了研究人員的關(guān)注[13-15],Keikha[14]等人在Trec Gov2的數(shù)據(jù)集的基礎(chǔ)上,標注了一份非事實型的查詢數(shù)據(jù),對每一篇文檔的每一個句子進行了相關(guān)性的標注,同時他們還對已有的方法在該數(shù)據(jù)集上的效果進行了檢驗,發(fā)現(xiàn)已有的檢索模型在該數(shù)據(jù)集上的效果并不是很好。Yang[13]等人提出新的基于語義以及上下文的特征,利用學(xué)習(xí)排序模型,在Keikha提出的數(shù)據(jù)集上取得了比以往更好的實驗結(jié)果。本文的工作是上述兩個工作在基于句子檢索任務(wù)的延續(xù),利用循環(huán)神經(jīng)網(wǎng)絡(luò)更好的建模問題與句子的匹配信息,避免了人工構(gòu)建特征,并且取得了更好的實驗結(jié)果。

    3 模型

    循環(huán)神經(jīng)網(wǎng)絡(luò)在句子等序列數(shù)據(jù)的建模上具有獨特的優(yōu)勢,近期研究人員發(fā)現(xiàn)使用雙向的RNN比僅使用一個方向的RNN能捕捉到更多的序列模式信息[1]、更好的建模句子的語義信息。因此,我們使用了雙向的循環(huán)神經(jīng)網(wǎng)絡(luò)來建模查詢和句子的語義信息,基于此,我們提出了一個基于上下文的深度句子匹配模型CDSMM(context-aware deep sentence match model)。如圖1所示,模型包含了兩個部分: 首先是查詢與句子的建模部分,對于查詢直接使用雙向的神經(jīng)網(wǎng)絡(luò)模型進行建模,對于句子則使用的是基于上下文句子的雙向循環(huán)神經(jīng)網(wǎng)絡(luò)模型進行建模,基于得到的查詢和句子中每個位置的元素的交互,構(gòu)建了一個交互矩陣M;然后在M中,我們使用了位置相關(guān)的動態(tài)k最大池化(dynamic k-max pooling)方法得到顯著的k個信號,并通過一個多層感知機將上一步得到的k個信號綜合成最終的匹配得分。

    圖1 基于上下文的深度句子匹配模型

    圖2 LSTM神經(jīng)元

    3.1 第一步: 語義交互

    由于查詢和句子自然存在序列依賴關(guān)系,因此我們選用了雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(Bi-RNN))來建模,但RNN的訓(xùn)練存在梯度消失與爆炸的問題,為了解決這個問題,研究人員提出了許多解決方案,最常用的就是使用長短時記憶神經(jīng)元(long short term memory, LSTM),如圖2*該LSTM神經(jīng)元的圖引自www.colah.github.io/posts/2015-08-Understanding-LSTMs/所示,LSTM特殊的門機制能夠捕捉長距離和短距離的依賴,并且能動態(tài)地學(xué)習(xí)不同位置的不同的依賴模式,充分地建模各個位置的語義信息。具體的,給定一個序列S={x0,x1…,xT},其中xt是位置t上的單詞的表達,LSTM通過式(1)~(5)來生成每個位置上的表達ht:

    在每個位置表達的基礎(chǔ)上,我們基于每個位置的交互構(gòu)建整個查詢與句子之間的交互。具體的,我們使用了4種不同的交互方式,它們分別是:

    Dot: 計算兩個向量的點積,s(w,v)=wTv。

    Bilinear: 建模了兩個向量不同維度的交互,s(w,v)=wTMv+b其中M是交互矩陣,b是偏置項。

    Tensor: 張量神經(jīng)網(wǎng)絡(luò)是一種更加一般性的交互函數(shù)[16],和其他三個不一樣的是,它的輸出是一個向量,如式(6)所示。

    其中,Mi,i∈[1,…,c] 是一個矩陣,Ww和Wv是線性部分參數(shù),b為偏置項,f是非線性函數(shù)。

    最終,我們得到了查詢Q與句子的交互矩陣(或張量)。

    3.2 第二步: 多層感知機融合

    在第一步中,我們得到了查詢Q與句子S的交互矩陣(或張量)。我們使用了動態(tài)的K最大池化[16]技術(shù),從交互矩陣(或張量)中得到k個顯著的信號。具體的,我們根據(jù)交互矩陣(或張量)的大小,動態(tài)的劃分成k個互不重疊的區(qū)域,然后在每個區(qū)域上選取最大的信號組合成k個顯著的信號,動態(tài)k最大池化是位置相關(guān)的,能更好捕捉查詢Q與句子S中不同位置的匹配程度。最終,我們將得到的k個信號通過多層感知機融合成最終的匹配得分,如式(7)~(8)所示。

    其中,Wr和Ws是多層感知機的參數(shù),br和bs是對應(yīng)的偏置項,f是Tanh激活函數(shù)。

    3.3 模型參數(shù)及訓(xùn)練

    由于本文的實驗是一個排序的任務(wù),我們使用的是基于pairwise的hinge loss來訓(xùn)練。給定一個三元組(q,s+,s-),其中q是查詢,s+是比s-排序更高的句子。損失函數(shù)的定義,如式(9)所示。

    其中S(q,s)是查詢q與句子s的匹配得分;Θ是模型的參數(shù),包括LSTM的參數(shù)以及多層感知機的參數(shù)。優(yōu)化方法采用的是標準的后向傳播,使用小批量(mini-batch)隨機梯度下降方法AdaGrad[17],每個批量的大小設(shè)置為100。同時,使用了早停止的策略來避免過擬合。LSTM與多層感知機中的矩陣W的初始化是以0為均值,0.02為方差的高斯分布。單詞的表達我們選用的是在維基百科語料上預(yù)訓(xùn)練的50維的詞向量,訓(xùn)練的模型用的是Mikolov[18]的Skip-Gram的模型,訓(xùn)練參數(shù)是作者推薦的默認的參數(shù)*https://code.google.com/archive/p/word2vec/。

    4 實驗及分析

    首先給出本文實驗的簡單定義,給定一系列的非事實型的查詢{Q1,Q2…,Qn} 以及一系列的文檔集合{D1,D2…Dn},其中這些文檔D中可能包含某個查詢的答案。我們的目標是給定一個查詢Q,對每個候選的文檔D中的每一個句子進行相關(guān)性的判斷,判斷句子是否構(gòu)成該查詢答案的一個部分。

    4.1 數(shù)據(jù)集與評價指標

    本文使用的WebAP*這個數(shù)據(jù)集是公開可下載的:http://ciir.cs.umas.edu/downloads/WebAP.數(shù)據(jù)集[15]。該數(shù)據(jù)集是基于TREC GOV2的文檔以及查詢構(gòu)建的。GOV2是從.gov的網(wǎng)站上抓取的網(wǎng)頁,最早于2004年被用到TREC Terabyte Track的任務(wù)中,包含了 25 000 000個文檔。WebAP數(shù)據(jù)集具體的構(gòu)建過程如下: 對于那些存在段落級別的查詢(總共是82個查詢),使用已有的具有最好效果的檢索模型[19-20]從GOV2的文檔集中檢索出最相關(guān)的50個文檔,在這些文檔中,在TREC的標注中被標記為相關(guān)的文檔被挑選出來進行段落級別的標記,每個段落被標記為”完美”,”很好”,”好”,”一般”。最后被標記的查詢有82個,相應(yīng)的被標記的段落有8 027個,每個查詢平均有97個段落被標記。在這些被標記的段落中,43%的段落被標記為完美,44%的段落被標記為很好,10%段落被標記為好,剩下的則是一般,其余未被標記的段落則是完全無關(guān)。和 Liu[11]的工作一樣,我們用每個段落的標記信息作為該段落中每個句子的標記,并將原始的”完美”,”很好”,”好”,”一般”映射成[4, 3, 2, 1]的分數(shù),這樣的句子的標記存在一個問題,即可能存在一個句子在某一個段落中標記為好,而在另一個段落中標記為一般;針對這個問題,我們通過多數(shù)投票的方式來決定這些句子的最終標記。最終我們得到991 233個句子,句子的平均長度為17.58。在這些被標記的句子中,有99.02%(981 510)個句子標記是0(也就是不相關(guān)),只有少于1%的句子是正的標記(149個句子標記為1 783個句子標記是24 283個句子的標記是34 508個句子的標記是4)。

    由于數(shù)據(jù)集樣本數(shù)量的局限性,我們使用了5折交叉驗證的方法來避免模型的過擬合,具體的,我們將查詢切分成5個大小相等的集合,然后選擇其中的4個用來做訓(xùn)練,剩下的一個做測試,如此重復(fù)5次,最后將5個不同集合的結(jié)果的平均值作為最終的評價。評價指標方面,我們使用的是信息檢索領(lǐng)域常用的評價指標: NDCG@10、P@10以及MRR。

    4.2 Baseline

    我們選擇了三類的模型做對比實驗: 傳統(tǒng)信息檢索最好的模型、問答任務(wù)類中最新的模型及在WebAP數(shù)據(jù)集上最新的模型。

    ① 語言模型(LM)[21]: 語言模型計算的是查詢能被句子生成的log似然概率,由于句子中詞的稀疏性,我們使用了Dirichlet 分布對單詞的似然進行平滑,該方法又被稱為查詢似然函數(shù),如式(10)所示。

    ② 卷積神經(jīng)網(wǎng)絡(luò)模型(CNN)[9]: 卷積神經(jīng)網(wǎng)絡(luò)模型被用在TREC QA Track的數(shù)據(jù)集上,并取得了很好的效果。在本實驗中,作者使用了預(yù)先訓(xùn)練好的詞向量,并加入了詞頻的特征信息,利用監(jiān)督學(xué)習(xí)的方法訓(xùn)練了一個卷積神經(jīng)網(wǎng)絡(luò)模型。

    ③ 多視角深度文本匹配模型 (MV-LSTM)[1]: 該方法使用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)將一段文本表達成多個不同位置的文本表達,然后基于所有位置的文本表達之間進行匹配,并得到最終的匹配得分。我們同樣使用了雙向循環(huán)神經(jīng)網(wǎng)絡(luò)來建模句子,不同的是,我們使用了基于上下文句子的信息來增強當前句子的表達,同時在匹配矩陣中我們選用的是基于位置相關(guān)的k最大池化,而MV-LSTM使用的是位置無關(guān)的k最大池化。

    ④ 學(xué)習(xí)排序方法(L2R+CSFeatures)[13]: 該方法使用了27個人工構(gòu)建的特征,它們分別是: 是否精確匹配、重疊詞個數(shù)、同義詞重疊比例、語言模型得分、候選句子長度、句子在原始文檔的位置、基于維基百科抽取的語義相關(guān)特征、基于詞向量的語義特征、實體關(guān)聯(lián)特征,以及前一個句子的所有特征和后一個句子的所有特征;然后使用MART(multiple regressive trees)將各個特征得分整合成最終的得分。該方法在WebAP數(shù)據(jù)集上取得了最好的結(jié)果。

    4.3 實驗結(jié)果

    表1 WebAP數(shù)據(jù)集實驗結(jié)果

    實驗結(jié)果如表1所示。我們的模型(CDSMM)在各個評價指標上都比其他模型的結(jié)果要好,具體的,在Top-1的評價指標MRR上,我們的模型較當前最好的模型提高了28.57%,而在Top-10的評價指標NDCG@10和P@10上,我們分別提高了37.5%和13.64%。同時,從表中可以看到,使用了上下文句子信息的模型(L2R+CSFeature和CDSMM)效果要遠高于沒有使用上下文句子信息的模型,這說明對于非事實型的查詢,單個句子提供的信息往往不足以給出完整的答案,在借助了上下文句子信息的情況下能給出更好的結(jié)果。同時,我們也注意到在沒有使用上下文句子信息的情況下,LM比另外兩個基于神經(jīng)網(wǎng)絡(luò)的baseline方法效果更好,可能的一個原因是在WebAP數(shù)據(jù)集中的查詢都包含豐富的關(guān)鍵詞信息,如查詢“describe history oil industry”,在這類查詢中,精確匹配的信息要遠比近似匹配的效用更大,在精確匹配與近似匹配的區(qū)分能力上,LM比CNN和MV-LSTM的能力更強,因此取得更好的效果。

    為了驗證我們的模型的魯棒性,我們對動態(tài)k最大池化中的k取值的結(jié)果進行分析,從圖3中可以看出,不同k值的選擇對結(jié)果的影響并不是很大,當k值等于100時,結(jié)果略微有所下降,主要是因為數(shù)據(jù)集中查詢n的平均長度為6,而平均的句子長度為15,因此,對于大部分的查詢而言,太大的k值將會引入額外的噪聲信息,從而會影響實驗的性能。同時,我們觀察到當k取值為10時取得最好的結(jié)果。

    圖3 CDSMM中不同k值的結(jié)果比較

    在查詢與句子中詞的交互中,我們使用了4種不同的交互方式,實驗結(jié)果如表2所示。在表2中,我們對這四種不同的交互性能進行了驗證。從表中可以看出,dot交互對應(yīng)的結(jié)果非常不好,主要原因是在dot交互時,詞之間的相似度值受詞向量的長度影響太大,在詞與詞之間的相似度度量上存在太大偏差。同時,我們觀察到基于cos的交互方式比bilinear以及tensor的效果要好。理論上,bilinear 比cos捕捉向量交互的能力更強,而tensor則更具有一般性, 然而在WebAP的數(shù)據(jù)集上結(jié)果并沒表現(xiàn)更好,主要是因為數(shù)據(jù)集大小的限制(只有82個查詢),而bilinear和tensor的參數(shù)量遠大于cos,導(dǎo)致它們出現(xiàn)了過擬合現(xiàn)象。

    表2 不同交互方式的實驗結(jié)果

    5 總結(jié)與未來工作

    本文提出了一種基于句子上下文的深度句子檢索模型,使用了雙向循環(huán)神經(jīng)網(wǎng)絡(luò)來建模句子內(nèi)部以及句子上下文的語義信息,更加充分地捕捉了查詢與候選句子的匹配信息,我們的模型在句子級的檢索任務(wù)上取得了目前最好的結(jié)果。然而,由于標注語料大小的限制,更加復(fù)雜的交互模式如雙線性及張量神經(jīng)網(wǎng)絡(luò)并沒取得更好的效果,如何在缺乏足夠標注數(shù)據(jù)集的情況下學(xué)習(xí)一個足夠強大的模型將是我們后續(xù)需要繼續(xù)研究的工作。同時,目前我們的模型在非事實型的查詢數(shù)據(jù)上取得很好結(jié)果,在其他類型的查詢?nèi)缡聦嵭偷牟樵償?shù)據(jù)上的能力需要進一步驗證。

    [1] Shengxian Wan, Y Lan J. Guo, et al. A Deep Architecture for Semantic Matching with Multiple Positional Sentence Representations[C]//Proceedings of the 30th AAAI Conference on Artificial Intelligence. Palo Alto, 2016.

    [2] Dolan W B, Brockett C. Automatically constructing a corpus of sentential paraphrases[C]//Proceedings of the 3rd International Workshop on Paraphrasing, Sydney, 2005.

    [3] Huang, Po-Sen, et al.Learning deep structured semantic models for web search using click through data[C]//Proceedings of the 22nd ACM International Conference on Conference on Information amp; Knowledge Management. San Francisco,2013.

    [4] M. Surdeanu, M. Ciaramita, and H.Zaragoza. Learning to Rank Answers on Large Online QA Collections[C]//Proceedings of the 46th Annual Meeting of the ACL. Columbus, 2008:719-727.

    [5] P Molino, L M Aiello. Distributed Representations for Semantic Matching in Non-factoid Question Answering[C]//Proceedings of the 37th Annual ACM SIGIR Conference . Queensland,2014:38-45.

    [6] P Jansen, M Surdeanu, P Clark. Discourse Complements Lexical Semantics for Non-factoid Answering Reranking[C]//Proceedings of the 52nd Annual Meeting of the ACL. Baltimore , 2014:977-986.

    [7] W. tau Yih, M W Chang, C Meek, et al. Question answering using enhanced lexical semantic models[C]//Proceedings of the 51st Annual Meeting of the ACL.Sofia,2013.

    [8] X Yao, B V Durme, C Callison-burch, et al. Answer Extraction as Sequence Tagging With Tree Edit Distance[C]//Proceedings of the 11th Conference of the North American Chapter of the Association for Computational Linguistics. Atlanta, 2013.

    [9] Yu Lei, Karl Moritz Hermann, Phil Blunsom, et al. Deep learning for answer sentence selection[J].Computer Science, arXiv preprint arXiv:1412.1632,2014.

    [10] M Bendersky, O Kurland. Utilizing passage-based language models for document retrieval[C]//Proceedings of the 30th European Conference on Information Retrieval, Glasgow, 2008:162-174.

    [11] X Liu, W Croft. Passage Retrieval Based on Language Models[C]//Proceedings of the 11th ACM Conference on Information and Knowledge Management. McLean, 2002:375-382.

    [12] Lv Yuanhua, Chengxiang Zhai. Positional language models for information retrieval[C]//Proceedings of the 32nd international ACM SIGIR conference on Research and development in information retrieval. Boston, 2009.

    [13] Yang Liu, et al. Beyond Factoid QA: Effective Methods for Non-factoid Answer Sentence Retrieval[M]. European Conference on Information Retrieval. Berlin:Springer , 2016.

    [14] M Keikha, J H Park, W B Croft. Evaluating Answer Passages Using Summarization Measures[C]//Proceedings of the 37th Annual International ACM SIGIR Conference on Research amp; Development on Information Retrieval. Gold Coast,2014.

    [15] M KeikHa, J H Park, W B Croft, et al. Retrieving Passages and Finding Answers[C]//Proceedings of the 19th Australasian Document Computing Symposium. Melbourne, 2014:81-84.

    [16] Qiu Xipeng, Xuanjing Huang. Convolutional neural tensor network architecture for community-based question answering[C]//Proceedings of the 24th International Joint Conference on Artificial Intelligence. Buenos Aires,2015.

    [17] Duchi John, Elad Hazan, Yoram Singer. Adaptive subgradient methods for online learning and stochastic optimization[J].Journal of Machine Learning Research 2011,12: 2121-2159.

    [18] Omas Mikolov, Ilya Sutskever, Kai Chen, et al. Distributed Representations of Words and Phrases and their Compositionality[C]//Proceedings of the 27th Neural Information Processing Systems. Lake Tahoe, 2013.

    [19] S Huston, W B Croft. A comparison of Retrieval Models Using Term Dependences[C]//Proceedings of the 25th ACM Conference on Information and Knowledge Management. Shanghai, 2014.

    [20] D Metzler, W B Croft. A Markov Random Field Model for Term Dependencies[C]//Proceedings of 28th Annual International ACM SIGIR Conference on Research amp; Development on Information Retrieval. Salvador,2005.

    [21] C Zhai, J Lafferty. A study of smoothing methods for language models applied to ad hoc information retrieval[C]//Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval. New Orleans,2001:334-342.

    范意興(1990—),博士研究生,主要研究領(lǐng)域為信息檢索,機器學(xué)習(xí),深度學(xué)習(xí)。

    E-mail: fanyixing@software.ict.ac.cn

    郭嘉豐(1980—),博士,研究員,主要研究領(lǐng)域為信息檢索,文本挖掘和機器學(xué)習(xí)。

    E-mail: guojiafeng@ict.ac.cn

    蘭艷艷(1982—),博士,副研究員,主要研究領(lǐng)域為深度學(xué)習(xí),文本挖掘和機器學(xué)習(xí)。

    E-mail: lanyanyan@ict.ac.cn

    AContext-awareDeepSentenceMatchingModel

    FAN Yixing1,2,GUO Jiafeng1, LAN Yanyan1, XU Jun1, CHENG Xueqi1

    1.CAS Key Lab of Network Data Science and Technology, Institute of Computing Technology, Chinese Academy of Sciences, Beijing 100190,China;2. University of Chinese Academy of Sciences, Beijing 100190, China)

    Traditional researches on information retrieval are focuse on document-level retrieval, neglecting, sentence-level information retrieval which is of great importance in such applications, as searching in mobile phone Assuming that the context sentence could provide richer evidence for matching. this paper proposes a context-aware deep sentence matching model(CDSMM). Specifically, the model employs bi-directional LSTM to capture the interior and exterior information of the sentence; Then, a matching matrix is constructed based on the sentence representation and query representation; Finally, we get the matching score after a feed forward neural network. Experiment results on the WebAP dataset show that out model can significantly out-perform the state-of-the-art models.

    information retrieval; text matching; RNN

    1003-0077(2017)05-0156-07

    TP391

    A

    2016-08-20定稿日期2017-01-26

    國家重點基礎(chǔ)研究發(fā)展計劃(“973”計劃)(2014CB340401,2013329606);科技部重點研發(fā)計劃(2016QY02D0405);國家自然科學(xué)基金(61232010,61472401,61425016,61203298);中國科學(xué)院青年創(chuàng)新促進會優(yōu)秀會員項目(20144310,2016102)

    猜你喜歡
    語義信息模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
    語言與語義
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    3D打印中的模型分割與打包
    “上”與“下”語義的不對稱性及其認知闡釋
    認知范疇模糊與語義模糊
    展會信息
    中外會展(2014年4期)2014-11-27 07:46:46
    語義分析與漢俄副名組合
    欧美人与善性xxx| 狠狠婷婷综合久久久久久88av| 久久99蜜桃精品久久| 久久人人爽人人爽人人片va| 中文字幕av电影在线播放| 天堂俺去俺来也www色官网| 午夜福利乱码中文字幕| 亚洲第一区二区三区不卡| 国产精品秋霞免费鲁丝片| 伦理电影免费视频| 欧美日韩av久久| 男女午夜视频在线观看 | 丰满乱子伦码专区| av国产久精品久网站免费入址| 女的被弄到高潮叫床怎么办| 精品少妇黑人巨大在线播放| 国产熟女午夜一区二区三区| 亚洲精品av麻豆狂野| 天堂俺去俺来也www色官网| 亚洲人成网站在线观看播放| 91午夜精品亚洲一区二区三区| 大码成人一级视频| 国产精品久久久久久精品电影小说| 插逼视频在线观看| 久久女婷五月综合色啪小说| 欧美国产精品va在线观看不卡| 亚洲精品中文字幕在线视频| 一个人免费看片子| 18禁国产床啪视频网站| 成人亚洲精品一区在线观看| 国产精品 国内视频| 免费不卡的大黄色大毛片视频在线观看| 国精品久久久久久国模美| 国产精品一区www在线观看| 久久久久久久大尺度免费视频| 国产爽快片一区二区三区| 国产欧美日韩一区二区三区在线| 丝瓜视频免费看黄片| 又黄又爽又刺激的免费视频.| 秋霞伦理黄片| 中国美白少妇内射xxxbb| 伦精品一区二区三区| 欧美激情极品国产一区二区三区 | 免费av中文字幕在线| 搡老乐熟女国产| 免费观看性生交大片5| videossex国产| 夜夜骑夜夜射夜夜干| 国产精品一二三区在线看| 乱人伦中国视频| 有码 亚洲区| 免费av中文字幕在线| av电影中文网址| 久热久热在线精品观看| 欧美变态另类bdsm刘玥| 精品熟女少妇av免费看| av免费观看日本| 一级毛片电影观看| 99久久综合免费| 五月天丁香电影| 在线观看www视频免费| 中文字幕制服av| 免费看av在线观看网站| 中文字幕亚洲精品专区| 国产亚洲精品第一综合不卡 | 一级毛片 在线播放| 国产成人精品婷婷| 成人漫画全彩无遮挡| 日日摸夜夜添夜夜爱| 丝袜美足系列| 亚洲人与动物交配视频| videos熟女内射| 一级毛片黄色毛片免费观看视频| 高清av免费在线| 人妻少妇偷人精品九色| 秋霞伦理黄片| 国产极品天堂在线| 久久精品久久精品一区二区三区| 黄色 视频免费看| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 国产一区亚洲一区在线观看| 毛片一级片免费看久久久久| 免费少妇av软件| 寂寞人妻少妇视频99o| 一级毛片 在线播放| 亚洲av免费高清在线观看| 天天影视国产精品| 人成视频在线观看免费观看| 久久人人爽av亚洲精品天堂| 久久人人97超碰香蕉20202| 久久女婷五月综合色啪小说| 亚洲内射少妇av| 亚洲人与动物交配视频| 免费在线观看完整版高清| 成人黄色视频免费在线看| 久久99热这里只频精品6学生| 欧美成人精品欧美一级黄| 久久久久国产网址| 国产欧美另类精品又又久久亚洲欧美| 欧美xxxx性猛交bbbb| 热99久久久久精品小说推荐| 日韩精品有码人妻一区| 精品一区二区三区视频在线| 国产不卡av网站在线观看| 亚洲美女黄色视频免费看| 久久久久久久精品精品| 内地一区二区视频在线| 免费观看在线日韩| 在线观看国产h片| 蜜桃国产av成人99| 精品国产露脸久久av麻豆| 精品午夜福利在线看| 欧美精品亚洲一区二区| 免费大片黄手机在线观看| 成人国产麻豆网| 国产在视频线精品| 久久久欧美国产精品| 亚洲精品,欧美精品| 午夜免费鲁丝| 午夜福利视频在线观看免费| 插逼视频在线观看| 一区二区三区精品91| 91精品三级在线观看| 亚洲av日韩在线播放| 一本色道久久久久久精品综合| 黄色毛片三级朝国网站| 99热全是精品| 亚洲国产看品久久| 精品国产一区二区三区久久久樱花| 日韩伦理黄色片| 国产av国产精品国产| 香蕉精品网在线| 国产在线视频一区二区| 中文字幕人妻熟女乱码| 天美传媒精品一区二区| 人妻系列 视频| 少妇精品久久久久久久| 欧美日本中文国产一区发布| 亚洲人成网站在线观看播放| kizo精华| 美女国产高潮福利片在线看| 欧美日韩视频高清一区二区三区二| 欧美人与性动交α欧美软件 | 男女免费视频国产| 精品一区二区三区四区五区乱码 | 黑人巨大精品欧美一区二区蜜桃 | 黄色毛片三级朝国网站| 国产深夜福利视频在线观看| 久久99热这里只频精品6学生| 国产成人精品福利久久| 丁香六月天网| 王馨瑶露胸无遮挡在线观看| 久久久久久人人人人人| 久久国产精品大桥未久av| 亚洲av男天堂| 一二三四在线观看免费中文在 | 菩萨蛮人人尽说江南好唐韦庄| 久久 成人 亚洲| 国产深夜福利视频在线观看| 22中文网久久字幕| 人人澡人人妻人| 99热全是精品| videosex国产| 国产男女内射视频| 国产成人欧美| 久久久久久久久久人人人人人人| 国产亚洲欧美精品永久| 国产黄色视频一区二区在线观看| 国产在线视频一区二区| 26uuu在线亚洲综合色| 亚洲婷婷狠狠爱综合网| 人妻 亚洲 视频| 国产极品天堂在线| 久久 成人 亚洲| 日本91视频免费播放| 永久网站在线| 国产视频首页在线观看| 三上悠亚av全集在线观看| 最近中文字幕2019免费版| 爱豆传媒免费全集在线观看| 国产精品国产三级国产专区5o| 高清视频免费观看一区二区| 亚洲av.av天堂| 亚洲精品国产av成人精品| 在线观看免费视频网站a站| 日韩av不卡免费在线播放| 欧美性感艳星| 一级爰片在线观看| 街头女战士在线观看网站| 中文字幕av电影在线播放| 国产乱人偷精品视频| 亚洲欧美精品自产自拍| 在线观看美女被高潮喷水网站| 天天躁夜夜躁狠狠躁躁| 午夜福利网站1000一区二区三区| 校园人妻丝袜中文字幕| 国产日韩欧美在线精品| 国产 一区精品| 一二三四中文在线观看免费高清| 久久狼人影院| 日韩中字成人| 人妻少妇偷人精品九色| 精品酒店卫生间| 成人国语在线视频| 国产无遮挡羞羞视频在线观看| 伦理电影大哥的女人| 日韩大片免费观看网站| 天堂俺去俺来也www色官网| 国产一区二区激情短视频 | 最后的刺客免费高清国语| 国产色婷婷99| av免费观看日本| 午夜老司机福利剧场| 午夜免费观看性视频| 街头女战士在线观看网站| 精品国产国语对白av| 日韩电影二区| 亚洲欧洲国产日韩| 一边摸一边做爽爽视频免费| 九九在线视频观看精品| 9色porny在线观看| 在线观看一区二区三区激情| 黄片无遮挡物在线观看| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久亚洲国产成人精品v| 欧美 亚洲 国产 日韩一| 国产激情久久老熟女| 国产精品偷伦视频观看了| 日本免费在线观看一区| 亚洲久久久国产精品| 午夜福利乱码中文字幕| 又黄又爽又刺激的免费视频.| 超碰97精品在线观看| 久久国内精品自在自线图片| 最黄视频免费看| 亚洲av电影在线进入| 久久这里只有精品19| a 毛片基地| 精品人妻熟女毛片av久久网站| 99热网站在线观看| 亚洲成人一二三区av| 日本免费在线观看一区| 高清不卡的av网站| 国产成人一区二区在线| 一级片'在线观看视频| 成人二区视频| 成人毛片a级毛片在线播放| 久久99热这里只频精品6学生| 巨乳人妻的诱惑在线观看| 亚洲美女黄色视频免费看| 午夜福利影视在线免费观看| 国产精品.久久久| 欧美另类一区| 午夜福利视频在线观看免费| 日本午夜av视频| 在现免费观看毛片| 国产成人精品在线电影| 欧美日韩视频高清一区二区三区二| 在线观看一区二区三区激情| 精品久久久久久电影网| 亚洲精品中文字幕在线视频| 久久久亚洲精品成人影院| 午夜福利视频精品| 人人妻人人爽人人添夜夜欢视频| 高清av免费在线| 三上悠亚av全集在线观看| 91午夜精品亚洲一区二区三区| 嫩草影院入口| 十八禁网站网址无遮挡| 国产视频首页在线观看| 亚洲精品久久成人aⅴ小说| 99热国产这里只有精品6| 黄色视频在线播放观看不卡| 你懂的网址亚洲精品在线观看| 久久99热这里只频精品6学生| 免费人成在线观看视频色| 欧美日韩精品成人综合77777| a级毛片黄视频| 国产精品.久久久| 制服人妻中文乱码| 成年女人在线观看亚洲视频| 最近最新中文字幕免费大全7| 另类精品久久| 视频在线观看一区二区三区| 日本欧美国产在线视频| 波野结衣二区三区在线| 久久青草综合色| 久久这里有精品视频免费| 日韩制服骚丝袜av| 18禁动态无遮挡网站| 国产黄色免费在线视频| 亚洲欧美一区二区三区国产| 男女免费视频国产| 自拍欧美九色日韩亚洲蝌蚪91| 久久久精品94久久精品| 熟女电影av网| 成人免费观看视频高清| av网站免费在线观看视频| 日日撸夜夜添| 一本久久精品| 中文字幕免费在线视频6| 久久毛片免费看一区二区三区| 久久久久精品人妻al黑| 最新的欧美精品一区二区| 亚洲综合色网址| av在线播放精品| 人妻系列 视频| 日韩视频在线欧美| 永久免费av网站大全| 国产一区亚洲一区在线观看| 中文字幕av电影在线播放| 亚洲精品中文字幕在线视频| 考比视频在线观看| 制服丝袜香蕉在线| 最近最新中文字幕免费大全7| 九色亚洲精品在线播放| av网站免费在线观看视频| 夜夜骑夜夜射夜夜干| 国产一区二区三区综合在线观看 | 国产免费又黄又爽又色| 十分钟在线观看高清视频www| 狠狠精品人妻久久久久久综合| 亚洲精品久久久久久婷婷小说| 久久国内精品自在自线图片| 在线天堂最新版资源| 亚洲欧美日韩卡通动漫| 免费看光身美女| 亚洲欧洲精品一区二区精品久久久 | 日韩,欧美,国产一区二区三区| 18禁裸乳无遮挡动漫免费视频| 高清毛片免费看| 国产一区二区三区av在线| 亚洲精品第二区| 交换朋友夫妻互换小说| 9热在线视频观看99| 成年美女黄网站色视频大全免费| 午夜福利影视在线免费观看| 中文字幕另类日韩欧美亚洲嫩草| 丰满少妇做爰视频| 国产熟女欧美一区二区| 性色avwww在线观看| av有码第一页| 啦啦啦视频在线资源免费观看| 国产毛片在线视频| 综合色丁香网| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 精品久久蜜臀av无| 午夜福利视频在线观看免费| 亚洲精品乱久久久久久| 精品亚洲成国产av| 国产欧美另类精品又又久久亚洲欧美| 国产亚洲精品第一综合不卡 | 成年动漫av网址| 免费不卡的大黄色大毛片视频在线观看| 九九爱精品视频在线观看| 国产 一区精品| 国产69精品久久久久777片| 日产精品乱码卡一卡2卡三| 欧美日韩av久久| 国产女主播在线喷水免费视频网站| 大香蕉97超碰在线| 国产女主播在线喷水免费视频网站| av不卡在线播放| 狠狠婷婷综合久久久久久88av| 好男人视频免费观看在线| 久久久久久久久久久免费av| 国产1区2区3区精品| 免费看光身美女| 亚洲精品久久午夜乱码| 黄色一级大片看看| 国产免费视频播放在线视频| 性高湖久久久久久久久免费观看| 久久韩国三级中文字幕| 色94色欧美一区二区| 国精品久久久久久国模美| 一级爰片在线观看| 成人国产av品久久久| av电影中文网址| 久久女婷五月综合色啪小说| 人妻人人澡人人爽人人| 中文字幕另类日韩欧美亚洲嫩草| 免费日韩欧美在线观看| 国产福利在线免费观看视频| 水蜜桃什么品种好| 蜜臀久久99精品久久宅男| 97人妻天天添夜夜摸| 亚洲一码二码三码区别大吗| 欧美xxxx性猛交bbbb| 22中文网久久字幕| 青春草国产在线视频| 18在线观看网站| 国产精品国产三级国产专区5o| 久久99精品国语久久久| 国产无遮挡羞羞视频在线观看| 国产 一区精品| 飞空精品影院首页| 亚洲欧美成人综合另类久久久| 亚洲美女搞黄在线观看| 精品久久久久久电影网| 少妇精品久久久久久久| 有码 亚洲区| 精品一品国产午夜福利视频| www.熟女人妻精品国产 | 免费观看无遮挡的男女| 欧美日韩综合久久久久久| 婷婷色综合www| 狠狠婷婷综合久久久久久88av| 国内精品宾馆在线| 男女边摸边吃奶| 欧美xxxx性猛交bbbb| 国产极品天堂在线| 飞空精品影院首页| av片东京热男人的天堂| 美女中出高潮动态图| 免费av中文字幕在线| 欧美老熟妇乱子伦牲交| 日本av手机在线免费观看| 黄色一级大片看看| 最近手机中文字幕大全| 22中文网久久字幕| 另类精品久久| 国产精品秋霞免费鲁丝片| 精品亚洲成a人片在线观看| 精品午夜福利在线看| 国产色婷婷99| 久久影院123| 国产探花极品一区二区| 丰满少妇做爰视频| 男女免费视频国产| 国产乱来视频区| 国产精品无大码| 中文字幕免费在线视频6| 亚洲综合色惰| 精品国产一区二区三区四区第35| 男女国产视频网站| 看免费成人av毛片| 午夜91福利影院| 日本免费在线观看一区| 最近2019中文字幕mv第一页| 22中文网久久字幕| 免费日韩欧美在线观看| 亚洲av电影在线进入| 亚洲情色 制服丝袜| 免费少妇av软件| 亚洲一级一片aⅴ在线观看| 性色av一级| 嫩草影院入口| 赤兔流量卡办理| 午夜激情av网站| 成人亚洲精品一区在线观看| 搡老乐熟女国产| 亚洲丝袜综合中文字幕| 少妇的丰满在线观看| 自线自在国产av| 一区在线观看完整版| 秋霞在线观看毛片| 22中文网久久字幕| 国产精品嫩草影院av在线观看| 精品国产露脸久久av麻豆| 美女国产高潮福利片在线看| 国产精品国产三级专区第一集| 欧美 日韩 精品 国产| 日本wwww免费看| tube8黄色片| 国产精品免费大片| 人人妻人人爽人人添夜夜欢视频| 王馨瑶露胸无遮挡在线观看| 中文天堂在线官网| 欧美3d第一页| 女人精品久久久久毛片| 国产午夜精品一二区理论片| 91在线精品国自产拍蜜月| 最近中文字幕2019免费版| 久久久久精品性色| 91aial.com中文字幕在线观看| 国产深夜福利视频在线观看| 少妇的逼好多水| 高清视频免费观看一区二区| 丝袜美足系列| 成人毛片60女人毛片免费| 亚洲五月色婷婷综合| 精品国产乱码久久久久久小说| tube8黄色片| 狂野欧美激情性xxxx在线观看| 九草在线视频观看| www日本在线高清视频| 18在线观看网站| 成年av动漫网址| 中文精品一卡2卡3卡4更新| kizo精华| 好男人视频免费观看在线| 国产女主播在线喷水免费视频网站| 久久精品久久久久久久性| 国产极品粉嫩免费观看在线| 亚洲欧美色中文字幕在线| 丰满乱子伦码专区| 久久精品人人爽人人爽视色| 国产精品一区www在线观看| 男人操女人黄网站| 在线观看人妻少妇| 成人18禁高潮啪啪吃奶动态图| 90打野战视频偷拍视频| 男人爽女人下面视频在线观看| 91aial.com中文字幕在线观看| 十八禁高潮呻吟视频| 亚洲内射少妇av| 精品人妻熟女毛片av久久网站| 夜夜骑夜夜射夜夜干| 永久免费av网站大全| 在线 av 中文字幕| 国产日韩欧美在线精品| 少妇高潮的动态图| 天美传媒精品一区二区| 亚洲成av片中文字幕在线观看 | 中文欧美无线码| 亚洲av综合色区一区| 成人毛片60女人毛片免费| 大片免费播放器 马上看| 日韩成人伦理影院| 黑人猛操日本美女一级片| av视频免费观看在线观看| 中文精品一卡2卡3卡4更新| 丝袜喷水一区| 十分钟在线观看高清视频www| av黄色大香蕉| 久久久久久伊人网av| 亚洲伊人色综图| 菩萨蛮人人尽说江南好唐韦庄| 久久精品国产a三级三级三级| 亚洲国产av新网站| 精品人妻一区二区三区麻豆| av片东京热男人的天堂| 日本91视频免费播放| 日韩大片免费观看网站| 亚洲国产毛片av蜜桃av| 精品久久蜜臀av无| 亚洲三级黄色毛片| 激情五月婷婷亚洲| 日韩熟女老妇一区二区性免费视频| 久久久久精品性色| 亚洲欧洲国产日韩| 热99久久久久精品小说推荐| 成人无遮挡网站| 亚洲精品自拍成人| 国产深夜福利视频在线观看| 国产视频首页在线观看| 精品国产一区二区三区久久久樱花| 欧美成人午夜精品| 十分钟在线观看高清视频www| 中国美白少妇内射xxxbb| 成人无遮挡网站| 欧美日韩成人在线一区二区| 亚洲少妇的诱惑av| 亚洲情色 制服丝袜| 日本-黄色视频高清免费观看| 亚洲精品456在线播放app| 日韩中文字幕视频在线看片| 亚洲久久久国产精品| 老司机亚洲免费影院| 婷婷色综合大香蕉| 男女无遮挡免费网站观看| 久久 成人 亚洲| 亚洲精品自拍成人| 精品亚洲成国产av| 日本av手机在线免费观看| 国产福利在线免费观看视频| 成年av动漫网址| 亚洲精品国产色婷婷电影| 亚洲av电影在线进入| 国产精品国产三级国产专区5o| 一本—道久久a久久精品蜜桃钙片| 欧美激情国产日韩精品一区| 美女国产高潮福利片在线看| 亚洲av成人精品一二三区| 边亲边吃奶的免费视频| 精品99又大又爽又粗少妇毛片| 日韩av免费高清视频| 大香蕉久久网| 在线免费观看不下载黄p国产| 一级毛片 在线播放| 尾随美女入室| 五月天丁香电影| 人人妻人人澡人人看| 国产精品人妻久久久久久| 亚洲精品国产av成人精品| 波多野结衣一区麻豆| 久久这里有精品视频免费| 精品国产国语对白av| 成人手机av| 日韩电影二区| 王馨瑶露胸无遮挡在线观看| 中文欧美无线码| 久久婷婷青草| 午夜91福利影院| 男人操女人黄网站| 两个人免费观看高清视频| av电影中文网址| 欧美人与性动交α欧美精品济南到 | 亚洲精品日本国产第一区| 波多野结衣一区麻豆| 国产日韩欧美亚洲二区| 自拍欧美九色日韩亚洲蝌蚪91| 国产又色又爽无遮挡免| 母亲3免费完整高清在线观看 | 亚洲精品日韩在线中文字幕| a级毛色黄片| 久久精品久久久久久噜噜老黄| 免费黄频网站在线观看国产| av又黄又爽大尺度在线免费看| 久热这里只有精品99| 亚洲国产欧美在线一区| av在线app专区| 一本色道久久久久久精品综合| av视频免费观看在线观看| 黄色毛片三级朝国网站|