• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于多尺度相似度特征的答案選擇算法

    2018-06-07 08:30:37陳柯錦侯俊安
    關(guān)鍵詞:卷積向量矩陣

    陳柯錦, 侯俊安, 郭 智, 梁 霄

    (1. 中國科學(xué)院電子學(xué)研究所, 北京 100190; 2. 中國科學(xué)院大學(xué), 北京 100049;3. 中國科學(xué)院空間信息處理與應(yīng)用系統(tǒng)技術(shù)重點實驗室, 北京 100190;4. 中國人民解放軍92269部隊, 北京 100141)

    0 引 言

    隨著互聯(lián)網(wǎng)的發(fā)展,迎來了大數(shù)據(jù)時代,互聯(lián)網(wǎng)已經(jīng)成為人們獲取信息和知識的重要途徑。數(shù)據(jù)的豐富給用戶帶來便利的同時,也使得用戶獲取到真實需要信息的難度增加,亟需一種快速、準(zhǔn)確的信息獲取方法。傳統(tǒng)的搜索引擎基于關(guān)鍵字匹配,采取排序算法向用戶呈現(xiàn)相關(guān)信息,這種方法帶來了大量冗余的信息,需要用戶花費大量時間從中篩選答案。智能問答系統(tǒng)理解用戶自然語言方式的提問,直接返回用戶所需答案,能夠更好地滿足用戶的需求。

    近年來,隨著神經(jīng)網(wǎng)絡(luò)的發(fā)展,基于深度學(xué)習(xí)的問答系統(tǒng)成為當(dāng)前自然語言處理及相關(guān)領(lǐng)域的研究熱點之一?;谙嚓P(guān)技術(shù),許多有影響力的問答系統(tǒng)相繼誕生,比如蘋果的Siri,百度的小度,微軟的小冰以及IBM的Watson等等。根據(jù)問答系統(tǒng)依賴的數(shù)據(jù)組織形式不同,問答系統(tǒng)分為基于Web檢索的問答系統(tǒng)、基于社區(qū)的問答系統(tǒng)以及基于知識圖譜的問答系統(tǒng)。3種問答系統(tǒng)都會通過分析問題,對答案粗篩選,得到一些候選答案,而如何對候選答案排序,從中獲取正確答案,這就需要答案選擇技術(shù)。答案選擇是問答系統(tǒng)中的關(guān)鍵技術(shù),該任務(wù)定義為針對一個給定的問題,在眾多的候選答案中選出最佳候選答案。從定義可以看出,答案選擇可以歸結(jié)為排序問題,目標(biāo)是計算問題與候選答案的相似度,通過相似度對候選答案排序。本文重點研究檢索式問答和社區(qū)問答中的答案選擇任務(wù),該類答案選擇任務(wù)的候選答案通常以短文本形式給出,其示例如圖1所示。

    圖1 答案選擇示例

    Fig.1 Example of question answer selection

    答案選擇是自然語言處理中典型的語義相似度計算任務(wù),目前存在兩大難點。第一,問題和答案的長度不對稱,通常情況下,答案中冗余信息較多。答案選擇中的問題長度通常較短,一般在5~15個單詞,而候選答案長度往往大于問題長度,主要在20~50個字符。其主要原因在于答案通常會對問題的相關(guān)背景進(jìn)行詳細(xì)描述。正如圖1所示,對于問題“陶淵明出生在什么朝代?”,正確答案不僅給出了陶淵明的出生朝代,還給出了陶淵明的相關(guān)介紹。傳統(tǒng)的模型通常學(xué)習(xí)問題和答案句子級的特征向量,通過計算向量的相似度對候選答案排序。該類方法學(xué)習(xí)到的聯(lián)合特征包含了大量的冗余特征,通常情況下,冗余特征的相似度較低,鑒于此,考慮問題和答案的局部相似度對消除冗余特征尤為重要。第二,候選答案之間的語義相似度較高。如圖1所示,錯誤答案同樣屬于在陶淵明背景下的描述,其與正確答案的語義關(guān)聯(lián)性較強(qiáng),因此,基于關(guān)鍵字匹配或者基于詞袋模型分類的方法很難解決此類問題。

    本文為了解決以上難點,基于深度學(xué)習(xí)的方法,提出一種基于多尺度相似度的深度學(xué)習(xí)模型。本文將在第2部分介紹答案選擇的相關(guān)工作;第3部分將詳細(xì)介紹模型的具體設(shè)計;第4部分介紹答案選擇的評價方法和實驗結(jié)果;第5部分對全文進(jìn)行總結(jié)。

    1 相關(guān)工作

    答案選擇受到了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注,相關(guān)研究工作主要分為兩類:一類是基于特征工程,通常借助于語言工具或者其他外部資源對特征進(jìn)行抽取;另一類是基于深度學(xué)習(xí)模型,使用深度學(xué)習(xí)模型生成問題和答案的分布式表示,從而計算其相似度。

    1.1 基于特征工程的答案選擇方法

    由于最初的詞袋模型無法理解深層的語義特征,因此第一類工作相繼而出。第1類工作主要基于特征工程挖掘問題和答案的語法和語義特征,例如,文獻(xiàn)[1]利用問題和答案的依存句法樹(dependency parse trees,DPT)對問題和答案進(jìn)行特征提取。類似的,文獻(xiàn)[2]提出一種判別模型來計算問題和答案的句法樹的編輯距離,基于編輯距離特征訓(xùn)練分類器,最后完成問答對的分類。文獻(xiàn)[3]首次將WordNet引入答案選擇任務(wù)中,通過挖掘語義關(guān)系完成問題和答案中詞的對齊,然后使用淺層語義分析得到同義詞的語義相似度,從而提升答案選擇的準(zhǔn)確率。

    1.2 基于深度學(xué)習(xí)的答案選擇方法

    基于特征工程的答案選擇方法雖然取得了較好的效果,但由于其無法挖掘問題和答案的深層次的非線性特征,再者,模型的泛化能力較差。因此,近年來,基于深度學(xué)習(xí)的答案選擇方法成為學(xué)術(shù)界研究的主流方法。文獻(xiàn)[4]首次將卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[5]應(yīng)用到答案選擇任務(wù),模型主要通過卷積網(wǎng)絡(luò)學(xué)習(xí)問題和答案的二元語法特征,將問題和答案的特征通過相似矩陣聚合得到相似度。文獻(xiàn)[6]的基本思想與文獻(xiàn)[4]相同,模型主要由全連接網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)構(gòu)成,并對全連接網(wǎng)絡(luò)和卷積網(wǎng)絡(luò)的連接順序以及問答相應(yīng)網(wǎng)絡(luò)權(quán)重是否共享進(jìn)行實驗與分析。隨著長短期記憶單元(long short-term memory,LSTM)[7]和注意力機(jī)制[8]在自然語言處理諸多任務(wù)上廣泛應(yīng)用,相關(guān)工作也相繼涌現(xiàn)。文獻(xiàn)[9]采用雙向長短期記憶單元(bidirectional LSTM,BiLSTM)提取問題和答案的語義特征,并通過答案學(xué)習(xí)問題的注意力權(quán)重,顯著提升了答案選擇的準(zhǔn)確率。在此之后,文獻(xiàn)[10]提出一種CNN和LSTM的混合網(wǎng)絡(luò)模型,并對CNN和LSTM的連接順序以及是否引入注意力機(jī)制進(jìn)行了對比實驗。文獻(xiàn)[11]為了解決以往答案選擇中池化方法丟失較多信息的不足,提出一種注意力池化的方法,取得了較好的效果。

    第2類方法目前的工作通常直接提取問題和答案的整句特征來計算相似度,本文則從挖掘問答各個尺度下特征的相似度出發(fā),對生成的相似度矩陣進(jìn)行學(xué)習(xí),從局部相似度得到最終的聯(lián)合相似度。

    2 本文方法

    2.1 方法概述

    本文方法通過CNN或BiLSTM提取問題和答案各個尺度下特征,與以往直接計算問答句子級特征相似度不同,本文采用一種相似度計算方法計算問答相應(yīng)尺度下特征相似度,進(jìn)而得到相似度矩陣,最后通過3種不同模型對相似度矩陣學(xué)習(xí),從局部特征相似度得到問答整體相似度。

    本文模型整體框架如圖2所示。

    圖2 模型整體框架圖Fig.2 Framework of our model

    2.2 卷積神經(jīng)網(wǎng)絡(luò)

    傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)采用全連接的方式導(dǎo)致網(wǎng)絡(luò)的訓(xùn)練參數(shù)過多,為了解決該問題,卷積網(wǎng)絡(luò)采取局部連接和參數(shù)共享方式,極大減少了網(wǎng)絡(luò)訓(xùn)練參數(shù),此外,卷積神經(jīng)網(wǎng)絡(luò)更擅長于提取局部特征。

    本文采用卷積網(wǎng)絡(luò)作為特征提取的底層模型,對問題和答案的詞嵌入矩陣分別采取一維卷積神經(jīng)網(wǎng)絡(luò)對特征提取,卷積核的長度等于詞嵌入維度,特征提取示意圖如圖3所示。

    圖3 不同窗口大小下卷積神經(jīng)網(wǎng)絡(luò)特征提取示意圖Fig.3 Illustration of extracted features by the CNN model in different filter length

    圖3中左側(cè)是對問題或答案進(jìn)行詞嵌入初始化后的矩陣Xn×k,其中n表示句子中單詞的個數(shù),k表示詞嵌入維度。當(dāng)使用卷積核Wh×k對矩陣Xn×k進(jìn)行卷積操作可以得到n-h+1個特征,其具體表達(dá)式為

    ci=f(Wh×k*Xi∶i+k-1+b)

    (1)

    式中,Wh×k表示卷積網(wǎng)絡(luò)卷積核;h表示窗口大小;k為詞嵌入維度;Xi∶i+k-1為語句中第i到i+k-1單詞的詞向量構(gòu)成的矩陣;b為網(wǎng)絡(luò)偏置向量;f為激活函數(shù),本次實驗中采用tanh;ci為最終提取到的特征。通過對整個特征矩陣進(jìn)行卷積操作后,得到特征向量f={c1,c2,…,cn-h+1}。類似的,通過設(shè)定卷積網(wǎng)絡(luò)的窗口大小和濾波器個數(shù),可以得到問題和答案不同尺度下的特征向量,即

    (2)

    式中,j表示卷積網(wǎng)絡(luò)窗口大小;m表示第m組濾波器。由于卷積網(wǎng)絡(luò)窗口大小不同,所以特征的尺度也不同。本文實驗中將問題各尺度特征聚合得到如式(3)所示問題特征矩陣,同理,可以得到答案特征矩陣。以往的方法通過池化對特征降維得到聯(lián)合特征,最后直接計算問答聯(lián)合特征的相似度,本文實驗則是將問題和答案相應(yīng)尺度下的特征聚合成相似度矩陣,通過對相似度矩陣學(xué)習(xí)得到最終的相似度,即

    (3)

    2.3 雙向長短期記憶單元

    對于自然語言的理解,需要關(guān)注上下文信息,循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network,RNN)[12]當(dāng)前時刻的輸出跟其前面時刻的輸出有著緊密聯(lián)系,其具備一定記憶能力,能有效解決序列化問題。而LSTM則是為了解決RNN中的梯度消失的問題,由文獻(xiàn)[13]提出改進(jìn)模型。LSTM結(jié)構(gòu)圖如圖4所示。

    圖4 LSTM結(jié)構(gòu)圖Fig.4 LSTM architecture

    本文采用的LSTM為Graves 等[14]使用的改進(jìn)模型,對于輸入t時刻序列xt={x1,x2,…,xn},其在本文模型中表示為第t個單詞的詞嵌入向量,隱狀態(tài)向量ht在t時刻的更新公式為

    it=σ(Wixt+Uist-1+bi)

    (4)

    ft=σ(Wfxt+Ufst-1+bf)

    (5)

    ot=σ(Woxt+Uost-1+bo)

    (6)

    (7)

    ht=ot*tanh(Ct)

    (8)

    LSTM當(dāng)前時刻的輸出能有效利用前面時刻的信息,為了充分利用文本上下文信息,采取雙向LSTM,即對輸入從正反兩個方向使用LSTM學(xué)習(xí),最后將其聚合得

    (9)

    QBiLSTM=[h1,h2,…,ht]

    (10)

    2.4 相似度矩陣學(xué)習(xí)模型

    本文提出3種相似度矩陣學(xué)習(xí)模型,分別為相似度矩陣特征聚合(similarity matrix feature concatenating,SMFC)模型,相似度矩陣特征分開學(xué)習(xí)(similarity matrix separate learning,SMSL)模型,相似度矩陣問題特征學(xué)習(xí)(similarity matrix question learning,SMQL)模型,3種模型對相似度矩陣學(xué)習(xí)得到聯(lián)合相似度,相似度矩陣的計算方法如式(11)~式(14)所示,其物理意義為問題和答案各尺度特征的余弦相似度矩陣,相似度矩陣的行向代表問題特征,列向代表答案特征,矩陣元素大小代表該行問題特征和該列答案特征的余弦相似度大小。

    Qsum=row_sum(Q⊙Q)

    (11)

    Asum=col_sum(A⊙A)

    (12)

    Pqa=element_max(QsumAsum,ε)

    (13)

    SIMQA=element_div(QAT,Pqa)

    (14)

    式中,Q代表問題特征矩陣;A為答案特征矩陣,當(dāng)特征提取層為CNN時,特征矩陣如式(3)所示;當(dāng)特征提取層為BiLSTM時,特征矩陣如式(10)所示。ε為精度矩陣,防止式(14)中出現(xiàn)運算異常情況,col_sum表示對矩陣列向求和得到行向量,row_sum表示對矩陣行向求和得到列向量,element_max為矩陣與矩陣之間對應(yīng)元素取最大值運算,element_div為矩陣與矩陣之間對應(yīng)元素相除,SIMQA為相似度矩陣,其中Pqa、SIMQA和QAT的維度為n×n,n為式(3)或式(10)中特征矩陣的特征向量總數(shù)。

    2.4.1 相似度矩陣特征聚合模型

    該模型的基本結(jié)構(gòu)是對相似度矩陣分別進(jìn)行列向最大池化和行向最大池化,然后聚合得到聯(lián)合特征,最后將其送入全連接層學(xué)習(xí)得到相似度。本文采取3種方法對特征聚合,其分別為向量對應(yīng)相加(sum)、向量對應(yīng)相乘(mul)和向量拼接(concat),其方法如式(15)~式(19)所示,SMFC模型如圖5所示。

    x1={a0,a1,…,an}

    (15)

    x2={b0,b1,…,bn}

    (16)

    sum(x1,x2)={a0+b0,a1+b1,…,an+bn}

    (17)

    mul(x1,x2)={a0×b0,a1×b1,…,an×bn}

    (18)

    concat(x1,x2)={a0,a1,…,an,b0,…,bn}

    (19)

    對相似度矩陣做行向最大池化,可以得到問題特征在答案中的最大相似度。同理,列向量最大池化可以得到答案中特征在問題中的最大相似度。相似度的大小直接反映了該局部特征的匹配程度,通過對局部特征的最大相似度學(xué)習(xí)可以有效抑制冗余特征,得到更為準(zhǔn)確的聯(lián)合相似度,這是一種從局部相似度解決全局相似度的學(xué)習(xí)模型。

    圖5 相似度矩陣特征聚合模型Fig.5 SMFC model

    2.4.2 相似度矩陣特征分開學(xué)習(xí)模型

    SMFC中采用最大池化方法得到局部特征的最大相似度,該方法忽略了局部特征出現(xiàn)的頻次。如圖6所示,“F-35”在答案中出現(xiàn)次數(shù)為兩次,而“戰(zhàn)斗機(jī)”出現(xiàn)次數(shù)為一次,通常頻次較高的特征對問答相似度計算的重要程度更高?;谏鲜鰡栴},本模型使用卷積網(wǎng)絡(luò)代替最大池化,對相似特征矩陣和轉(zhuǎn)置后的相似特征矩陣分別進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),得到問題和答案的相似度分布特征,然后放入全連接網(wǎng)絡(luò)得到最終特征,最后通過GESD計算特征相似度,GESD為文獻(xiàn)[6]提出的相似度計算方法,如式(20)所示,SMSL模型結(jié)構(gòu)如圖7所示。

    (20)

    式中,x和y分別表示SMSL模型中兩個全連接層輸出的特征向量,其分別代表問題和答案的相似度分布特征;γ和c分別為公式超參,實驗中γ和c都設(shè)置為1。

    圖6 采用不同顏色表示問答局部相似特征

    Fig.6 Different colors indicate the local similarity degree between the question and answers

    2.4.3 相似度矩陣問題特征學(xué)習(xí)模型

    答案選擇中,對于判斷答案是否是該問題的正確匹配,人們通常會關(guān)注問題的特征在答案中是否有相似特征,而對于答案中的冗余信息并不關(guān)注。例如,在圖6的問題中“F-35”“戰(zhàn)斗機(jī)”和“多少”此類局部特征的相似度的大小對整體相似度的影響遠(yuǎn)遠(yuǎn)大于答案中“美國”“洛希德·馬丁”等特征,所以只對相似度矩陣的問題相似度學(xué)習(xí),可以減少冗余,消除噪聲,與此同時,簡化了模型,降低了模型復(fù)雜度。

    圖7 相似度矩陣特征分開學(xué)習(xí)模型Fig.7 SMSL model

    本文采用3種方式對問題相似度學(xué)習(xí),分別為最大池化、平均池化和CNN模型,最后將其接入全連接層學(xué)習(xí),其模型結(jié)構(gòu)如圖8所示。

    圖8 相似度矩陣問題特征學(xué)習(xí)模型Fig.8 SMQL model

    2.5 模型訓(xùn)練方法與損失函數(shù)

    本文采取噪聲對比估計方法對模型進(jìn)行訓(xùn)練,其方法描述如下:對給定問題Q,在訓(xùn)練中選取正確答案A+和錯誤答案A-,應(yīng)用本文模型分別計算(Q,A+)和(Q,A-)的相似度得到S+和S-,本文模型的訓(xùn)練的目標(biāo)是使得正確問答對的相似值大于錯誤問答對的相似值,因此本文將問答相似度的距離與間隔M比較,得到如式(24)所示的損失函數(shù),當(dāng)S+-S->M時,不更新網(wǎng)絡(luò)參數(shù),反之采用隨機(jī)梯度下降法更新。

    S+=sim(Q,A+)

    (21)

    S-=sim(Q,A-)

    (22)

    (23)

    Loss=max(0,M-S++S-)

    (24)

    對于間隔M,與以往采取固定間隔的方法不同,本文采取如式(23)所示的方法,其中α、β為模型超參。該方法使得間隔M與相似度的距離有關(guān),當(dāng)S+-S->β時,間隔M隨著S+-S-的增大而快速減小,與此同時,訓(xùn)練誤差也相應(yīng)減小,而當(dāng)S+-S-≤β時,M值最大,模型得到較大的訓(xùn)練誤差。

    3 實驗結(jié)果與分析

    3.1 實驗數(shù)據(jù)

    本次實驗采用百度的公開數(shù)據(jù)集WebQA[15]。WebQA是一個大規(guī)模的中文人工標(biāo)注問答數(shù)據(jù)集,其來源主要為百度知道。所有問題的候選答案由搜索引擎對問題檢索的前3頁結(jié)果清洗得到,最后通過人工將候選答案標(biāo)注為正確答案和錯誤答案。本次實驗對WebQA數(shù)據(jù)集進(jìn)一步清洗,主要清洗工作為糾正錯誤標(biāo)注,最終形成如表1所示規(guī)模的訓(xùn)練數(shù)據(jù)集。

    表1 WebQA數(shù)據(jù)集

    其中驗證集是訓(xùn)練數(shù)據(jù)集隨機(jī)抽取10% 獲得,測試集為WebQA數(shù)據(jù)集的Test_lr清洗得到,Test_lr為WebQA人工標(biāo)注測試集,其候選答案包含正確答案和同等語義背景下的錯誤答案。圖1為WebQA數(shù)據(jù)集示例。

    3.2 實驗評價指標(biāo)

    本文實驗評價指標(biāo)采用信息檢索中的平均準(zhǔn)確率均值(mean average precision,MAP)和平均倒數(shù)排名(mean reciprocal rank,MRR),在本文實驗中,MAP代表問答對相似度排序中準(zhǔn)確率的均值,其計算方法如式(25)所示。MRR代表的是問答對相似度排序中的第一個正確答案的位置得分平均值,即關(guān)注系統(tǒng)返回正確答案的位置,位置越靠前評分越高,位置的倒數(shù)為單個評分值,最后統(tǒng)計求和,其計算方法為

    (25)

    (26)

    式中,n為問題總數(shù);qi為第i個問題;prec(qi)為第i個問題的候選答案相似度排序的準(zhǔn)確率,正確答案排在第一位則得分為1,否則為0。rank(qi)為第i個問題的候選答案排序結(jié)果中正確答案的排名。

    3.3 實驗設(shè)計

    本文在整理后的WebQA數(shù)據(jù)集上,應(yīng)用文獻(xiàn)[6]提出的CNN模型和文獻(xiàn)[9]提出的BiLSTM方法作為實驗的基線模型,并在此基礎(chǔ)上分別添加SMFC,SMSL和SMQL方法作對比驗證實驗。對于SMFC方法,本文采用向量求和,向量拼接和向量相乘3種聚合方法,而對于SMQL的方法采取CNN、最大池化和平均池化3種方法對相似度矩陣進(jìn)行特征提取。

    3.4 實驗結(jié)果

    本次實驗的實驗環(huán)境為GeForce GTX 1080、Intel Core i7-6700k 4.0GHZ、內(nèi)存16G的PC。本文模型詞向量采用WebQA中已訓(xùn)練好的詞向量初始化,該詞向量是通過五元語法的神經(jīng)語言模型[16]訓(xùn)練得到,詞向量維度為64維。本次實驗網(wǎng)絡(luò)學(xué)習(xí)采用隨機(jī)梯度下降法(stochastic gradient descent,SGD),其初始學(xué)習(xí)率設(shè)置為lr=0.1,網(wǎng)絡(luò)訓(xùn)練的批大小設(shè)置為100,問題截取長度設(shè)置為50,答案截取長度設(shè)置為50。網(wǎng)絡(luò)迭代次數(shù)設(shè)置為200,采取早停止(early-stop)[17]策略。最后相似度計算公式采用GESD,文獻(xiàn)[6]在之前實驗已經(jīng)證明,采用GESD作為相似度計算公式的實驗結(jié)果優(yōu)于其他相似度計算公式。

    本實驗將CNN作為底層特征提取的實驗結(jié)果如表2所示,其中CNN使用的是一維的卷積網(wǎng)絡(luò),其窗口大小設(shè)置為1、2、3和5,濾波器個數(shù)設(shè)置為500,激活函數(shù)使用tanh。對于SMQL中相似度特征學(xué)習(xí)的1-CNN網(wǎng)絡(luò)參數(shù)設(shè)置,本文將窗口大小設(shè)置為1,濾波器個數(shù)200。SMSL中對相似度特征學(xué)習(xí)的CNN參數(shù)設(shè)置與SMQL相同,但網(wǎng)絡(luò)參數(shù)不共享。SMQL和SMFC的全連接網(wǎng)絡(luò)采用dropout機(jī)制,dropout設(shè)置為0.5,網(wǎng)絡(luò)的激活函數(shù)設(shè)置為tanh。

    表2 基于CNN的相似特征學(xué)習(xí)模型實驗結(jié)果

    實驗結(jié)果表明,添加了相似度特征學(xué)習(xí)方法有效地提升了實驗結(jié)果,其中采用SMQL和SMFC方法提升明顯,相比于基線模型,其MAP值提升了3.2%~4.7%,SMFC采取向量對應(yīng)相加聚合(sum)方式優(yōu)于其他聚合方式,其MAP值提升了4.3%,SMQL采取最大池化方法對問題的相似度特征學(xué)習(xí)得到了本次實驗的最優(yōu)結(jié)果,MAP值提升了4.7%,這也證實了問答相似度矩陣中問題的相似度特征的重要性,抽取問題特征實質(zhì)為一種粗糙的特征篩選,能夠防止模型過擬合,除此之外,相比與本文其他方法,SMQL訓(xùn)練周期也較短,模型復(fù)雜度更低。

    為了進(jìn)一步驗證相似度特征學(xué)習(xí)方法的有效性,本文將BiLSTM作為底層特征抽取,添加相似度特征學(xué)習(xí)方法進(jìn)行對比實驗。實驗中LSTM的隱層維度設(shè)置為141,添加dropout機(jī)制,dropout設(shè)置為0.5。實驗結(jié)果如表3所示。

    從實驗結(jié)果可以看到,添加了相似度特征學(xué)習(xí)方法同樣適用于BiLSTM模型,基于相似度特征學(xué)習(xí)的BiLSTM模型的MAP值相比于基線模型都有提升,SMFC采取向量拼接方式聚合特征的實驗結(jié)果最好,相比于基線模型提升了1.9%,這也證實了本文模型的有效性。

    表3 基于BiLSTM的相似特征學(xué)習(xí)模型實驗結(jié)果

    4 結(jié) 論

    答案選擇是問答系統(tǒng)中的關(guān)鍵技術(shù),本文提出了一種基于相似度特征的深度學(xué)習(xí)模型。該方法相比于傳統(tǒng)的深度學(xué)習(xí)模型,不僅對問題和答案的特征進(jìn)行提取,而且對各個尺度的特征的相似度進(jìn)行訓(xùn)練,從局部相似度得到聯(lián)合相似度。從特征學(xué)習(xí)、特征聚合和特征篩選3個方面出發(fā),本文提出了3種相似度特征訓(xùn)練模型,其分別為SMSL模型、SMFC模型和SMQL模型。實驗證明,本文方法在CNN和BiLSTM模型的基礎(chǔ)上都有明顯提升,其中CNN模型采用SMQL方法得到68.2%的MAP值,相比于基線模型提升了4.7%。

    參考文獻(xiàn):

    [1] WANG M, SMITH N A. What is the jeopardy model? a quasi-synchronous grammar for QA[C]∥Proc.of the Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, 2007: 22-32.

    [2] HEILMAN M, SMITH N A. Tree edit models for recognizing textual entailments, paraphrases, and answers to questions[C]∥Proc.of the Annual Conference of the North American Chapter of the Association for Computational Linguistics, 2010: 1011-1019.

    [3] YIH W, CHANG M W, MEEK C, et al. Question answering using enhanced lexical semantic models[C]∥Proc.of the 51st Annual Meeting of the Association for Computational Linguistics, 2013: 1744-1753.

    [4] YU L, HERMANN K M, BLUNSOM P, et al. Deep learning for answer sentence selection[J]. Computer Science, 2014.

    [5] LECUN Y, BOTTOU L, BENGIO Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [6] FENG M, XIANG B, GLASS M R, et al. Applying deep learning to answer selection: A study and an open task[C]∥Proc.of the IEEE Automatic Speech Recognition and Understanding, 2015: 813-820.

    [7] GERS F A, SCHMIDHUBER J, CUMMINS F. Learning to forget: continual prediction with LSTM[J]. Neural Computation, 2000, 12(10): 2451-71.

    [8] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[J]. Computer Science, 2014.

    [9] TAN M, SANTOS C D, XIANG B, et al. LSTM-based deep learning models for non-factoid answer selection[J]. Computer Science, 2015.

    [10] TAN M, DOS SANTOS C, XIANG B, et al. Improved representation learning for question answer matching[C]∥Proc.of the 54th Annual Meeting of the Association for Computational Linguistics, 2016.

    [11] DOS SANTOS C N, TAN M, XIANG B, et al. Attentive pooling networks[J]. CoRR, abs/1602.03609, 2016, 2(3): 4.

    [12] MEDSKER L, JAIN L. Recurrent neural networks[J]. Design and Applications, 2001.

    [13] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural computation, 1997, 9(8): 1735-1780.

    [14] GRAVES A. Generating sequences with recurrent neural networks[J]. Computer Science, 2014.

    [15] LI P, LI W, HE Z, et al. Dataset and neural recurrent sequence labeling model for open-domain factoid question answering[J]. arXiv Preprint arXiv:160706275,2016.

    [16] BENGIO Y, DUCHARME R, VINCENT P, et al. A neural probabilistic language model[J]. Journal of machine learning research, 2003, 3(2): 1137-1155.

    [17] PRECHELT L. Early stopping-but when?[M]. Berlin Heidelberg: Springer,1998: 55-69.

    猜你喜歡
    卷積向量矩陣
    向量的分解
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    聚焦“向量與三角”創(chuàng)新題
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    初等行變換與初等列變換并用求逆矩陣
    向量垂直在解析幾何中的應(yīng)用
    向量五種“變身” 玩轉(zhuǎn)圓錐曲線
    矩陣
    南都周刊(2015年4期)2015-09-10 07:22:44
    矩陣
    南都周刊(2015年3期)2015-09-10 07:22:44
    又黄又粗又硬又大视频| 欧美色视频一区免费| 操出白浆在线播放| 一本精品99久久精品77| 国产黄片美女视频| 18禁黄网站禁片免费观看直播| 国产欧美日韩精品亚洲av| 国产黄a三级三级三级人| 69av精品久久久久久| 亚洲人与动物交配视频| 国产麻豆成人av免费视频| 亚洲avbb在线观看| 欧美乱码精品一区二区三区| av在线蜜桃| 久久精品夜夜夜夜夜久久蜜豆| 可以在线观看的亚洲视频| 99热6这里只有精品| 在线播放国产精品三级| 免费一级毛片在线播放高清视频| 动漫黄色视频在线观看| 五月玫瑰六月丁香| 午夜福利视频1000在线观看| 免费观看精品视频网站| 成年女人看的毛片在线观看| 黄色女人牲交| 99国产精品一区二区蜜桃av| 久久久久国产一级毛片高清牌| 国产av麻豆久久久久久久| 又紧又爽又黄一区二区| 久久这里只有精品中国| 久久中文字幕一级| 18禁裸乳无遮挡免费网站照片| 黄片大片在线免费观看| 亚洲欧洲精品一区二区精品久久久| 成人永久免费在线观看视频| 男人舔奶头视频| 欧美黑人欧美精品刺激| 在线观看午夜福利视频| www.精华液| 人人妻人人看人人澡| 国产精品久久久久久久电影 | 黄色日韩在线| 亚洲自拍偷在线| 麻豆国产97在线/欧美| 中国美女看黄片| 又爽又黄无遮挡网站| 中文字幕久久专区| 人妻夜夜爽99麻豆av| 丰满的人妻完整版| 亚洲熟妇熟女久久| 日本与韩国留学比较| 国产黄a三级三级三级人| 啪啪无遮挡十八禁网站| 欧美中文综合在线视频| 两性午夜刺激爽爽歪歪视频在线观看| 999久久久国产精品视频| 亚洲,欧美精品.| 嫩草影院入口| 99久久综合精品五月天人人| www日本在线高清视频| 国产亚洲精品久久久久久毛片| 久久国产乱子伦精品免费另类| 久久香蕉国产精品| 1024手机看黄色片| 一级毛片女人18水好多| 午夜视频精品福利| 久久香蕉国产精品| 国产黄色小视频在线观看| 国产黄色小视频在线观看| 后天国语完整版免费观看| 精品久久久久久久人妻蜜臀av| 欧美乱色亚洲激情| 亚洲成人中文字幕在线播放| 成人午夜高清在线视频| 69av精品久久久久久| 国产精品一区二区精品视频观看| 免费在线观看成人毛片| 桃色一区二区三区在线观看| 美女 人体艺术 gogo| 精品久久蜜臀av无| 亚洲成a人片在线一区二区| 国产欧美日韩一区二区精品| 18美女黄网站色大片免费观看| 国模一区二区三区四区视频 | 精品福利观看| 巨乳人妻的诱惑在线观看| 一个人免费在线观看电影 | av中文乱码字幕在线| 99在线人妻在线中文字幕| 久久性视频一级片| 亚洲欧美日韩高清在线视频| 久久久久久九九精品二区国产| 亚洲av日韩精品久久久久久密| 久久久色成人| 亚洲 欧美一区二区三区| 亚洲专区中文字幕在线| 精品久久久久久久毛片微露脸| 在线观看免费午夜福利视频| 国产精品电影一区二区三区| 麻豆久久精品国产亚洲av| 亚洲国产精品999在线| 免费观看人在逋| 国产美女午夜福利| 亚洲 欧美一区二区三区| 老汉色∧v一级毛片| 亚洲av免费在线观看| 国产精品98久久久久久宅男小说| 国产精品,欧美在线| 日本免费a在线| 亚洲成a人片在线一区二区| 9191精品国产免费久久| 日韩免费av在线播放| 国产又色又爽无遮挡免费看| 亚洲五月天丁香| 成熟少妇高潮喷水视频| 女同久久另类99精品国产91| 十八禁网站免费在线| 男插女下体视频免费在线播放| 国产综合懂色| 窝窝影院91人妻| 久久久久久九九精品二区国产| 变态另类丝袜制服| 欧美色视频一区免费| 欧美极品一区二区三区四区| 午夜免费激情av| 日本黄大片高清| 欧美日韩精品网址| 亚洲色图av天堂| 中文字幕高清在线视频| 99国产精品99久久久久| 亚洲午夜理论影院| 免费无遮挡裸体视频| 亚洲 欧美 日韩 在线 免费| 2021天堂中文幕一二区在线观| 丰满的人妻完整版| 国产精品爽爽va在线观看网站| 久久亚洲真实| 欧美日韩一级在线毛片| www国产在线视频色| 国产探花在线观看一区二区| 亚洲专区字幕在线| 免费av不卡在线播放| 午夜福利在线在线| 免费电影在线观看免费观看| 久久久久久久精品吃奶| svipshipincom国产片| 欧美精品啪啪一区二区三区| 久久99热这里只有精品18| 国产精品久久视频播放| 啦啦啦韩国在线观看视频| 成人av一区二区三区在线看| 噜噜噜噜噜久久久久久91| 中亚洲国语对白在线视频| 精品日产1卡2卡| 国产精品乱码一区二三区的特点| 少妇人妻一区二区三区视频| 亚洲七黄色美女视频| 99久久综合精品五月天人人| 国产毛片a区久久久久| 成人三级黄色视频| 中国美女看黄片| 两个人看的免费小视频| 精品国产超薄肉色丝袜足j| 日本精品一区二区三区蜜桃| 在线观看日韩欧美| 麻豆一二三区av精品| 悠悠久久av| 琪琪午夜伦伦电影理论片6080| 午夜激情福利司机影院| 亚洲av成人一区二区三| 成人国产一区最新在线观看| 国产精品精品国产色婷婷| 桃色一区二区三区在线观看| 国产精品1区2区在线观看.| 婷婷六月久久综合丁香| xxxwww97欧美| 日本黄大片高清| 国内毛片毛片毛片毛片毛片| xxx96com| 色噜噜av男人的天堂激情| 亚洲成av人片免费观看| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲精品粉嫩美女一区| 日本三级黄在线观看| 日韩免费av在线播放| 岛国在线免费视频观看| 国产亚洲精品久久久com| 夜夜爽天天搞| 好男人在线观看高清免费视频| 国产成年人精品一区二区| 女生性感内裤真人,穿戴方法视频| 中文字幕人妻丝袜一区二区| 国产又色又爽无遮挡免费看| 亚洲精品色激情综合| 男女之事视频高清在线观看| 一本一本综合久久| 美女 人体艺术 gogo| 男女那种视频在线观看| 搞女人的毛片| 国产一级毛片七仙女欲春2| 999精品在线视频| 18禁黄网站禁片免费观看直播| 琪琪午夜伦伦电影理论片6080| 黄片大片在线免费观看| 成熟少妇高潮喷水视频| 欧美最黄视频在线播放免费| 人人妻人人澡欧美一区二区| 精品国产乱码久久久久久男人| 老司机午夜福利在线观看视频| 亚洲专区国产一区二区| 亚洲精品美女久久av网站| 精品一区二区三区四区五区乱码| 曰老女人黄片| 九色成人免费人妻av| aaaaa片日本免费| 国产免费男女视频| 亚洲国产看品久久| 麻豆国产av国片精品| 99国产精品99久久久久| 国产又色又爽无遮挡免费看| 真人一进一出gif抽搐免费| 色综合欧美亚洲国产小说| 亚洲色图av天堂| 88av欧美| 99久久精品国产亚洲精品| 欧美绝顶高潮抽搐喷水| 天天躁狠狠躁夜夜躁狠狠躁| 国产精品 国内视频| 中文字幕久久专区| 五月伊人婷婷丁香| 性色avwww在线观看| 精品久久久久久久久久免费视频| 亚洲国产精品久久男人天堂| 日韩成人在线观看一区二区三区| 日韩高清综合在线| 中文字幕高清在线视频| 久久精品国产亚洲av香蕉五月| 在线观看午夜福利视频| 日韩欧美在线乱码| 国产主播在线观看一区二区| 给我免费播放毛片高清在线观看| 国产亚洲精品一区二区www| 19禁男女啪啪无遮挡网站| 国内精品久久久久久久电影| 日韩大尺度精品在线看网址| 亚洲国产欧美网| 曰老女人黄片| 国产精品香港三级国产av潘金莲| 99热只有精品国产| 成人特级av手机在线观看| 啪啪无遮挡十八禁网站| 很黄的视频免费| 美女被艹到高潮喷水动态| 一区二区三区激情视频| 国产主播在线观看一区二区| 黄频高清免费视频| 精品一区二区三区四区五区乱码| 精品国内亚洲2022精品成人| 午夜两性在线视频| 久久精品夜夜夜夜夜久久蜜豆| av视频在线观看入口| 亚洲精品456在线播放app | 在线播放国产精品三级| 一进一出抽搐gif免费好疼| 俄罗斯特黄特色一大片| 日韩大尺度精品在线看网址| www日本黄色视频网| 免费观看的影片在线观看| 亚洲国产欧美网| 热99在线观看视频| bbb黄色大片| 久久久久国产精品人妻aⅴ院| 久久国产乱子伦精品免费另类| 日韩高清综合在线| 久久精品国产综合久久久| 久久久成人免费电影| 国产成人av教育| 手机成人av网站| 哪里可以看免费的av片| 操出白浆在线播放| 一二三四在线观看免费中文在| 亚洲精品美女久久av网站| 久久精品国产99精品国产亚洲性色| 三级男女做爰猛烈吃奶摸视频| 日本精品一区二区三区蜜桃| www国产在线视频色| 欧美三级亚洲精品| а√天堂www在线а√下载| 两个人看的免费小视频| 国产又色又爽无遮挡免费看| 99精品久久久久人妻精品| 国产免费男女视频| 久久精品综合一区二区三区| 国内久久婷婷六月综合欲色啪| 日韩欧美 国产精品| 一夜夜www| 淫妇啪啪啪对白视频| 村上凉子中文字幕在线| 两性夫妻黄色片| 又黄又粗又硬又大视频| 久久久久久久久久黄片| 99精品久久久久人妻精品| 小说图片视频综合网站| 中亚洲国语对白在线视频| 日本熟妇午夜| tocl精华| 亚洲欧洲精品一区二区精品久久久| 国产精品久久久久久亚洲av鲁大| 别揉我奶头~嗯~啊~动态视频| 夜夜看夜夜爽夜夜摸| 国产精品 国内视频| 日韩国内少妇激情av| 嫩草影院精品99| 成人欧美大片| 成年女人永久免费观看视频| 丁香六月欧美| 琪琪午夜伦伦电影理论片6080| 天堂网av新在线| 国产私拍福利视频在线观看| 一本精品99久久精品77| 黄片小视频在线播放| 亚洲国产精品久久男人天堂| 九九久久精品国产亚洲av麻豆 | 国产一区二区三区视频了| 丝袜人妻中文字幕| 黄色成人免费大全| 一边摸一边抽搐一进一小说| 小说图片视频综合网站| 黄片大片在线免费观看| 动漫黄色视频在线观看| 精品欧美国产一区二区三| 九九在线视频观看精品| 十八禁人妻一区二区| 国产精品98久久久久久宅男小说| 中国美女看黄片| 婷婷精品国产亚洲av| 99国产精品一区二区蜜桃av| 网址你懂的国产日韩在线| 亚洲av第一区精品v没综合| 好看av亚洲va欧美ⅴa在| or卡值多少钱| 国产伦一二天堂av在线观看| 搡老妇女老女人老熟妇| 欧美精品啪啪一区二区三区| 欧美激情在线99| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲七黄色美女视频| 欧美绝顶高潮抽搐喷水| 亚洲av熟女| 在线十欧美十亚洲十日本专区| 我要搜黄色片| 国产成+人综合+亚洲专区| 偷拍熟女少妇极品色| 韩国av一区二区三区四区| 久久久久久大精品| 国产熟女xx| 成在线人永久免费视频| av天堂在线播放| 欧美色视频一区免费| 麻豆成人av在线观看| 欧美日韩中文字幕国产精品一区二区三区| 日本黄色片子视频| 老司机在亚洲福利影院| 久久精品综合一区二区三区| 最新美女视频免费是黄的| 精品电影一区二区在线| 国产精品自产拍在线观看55亚洲| 成人三级做爰电影| 少妇丰满av| 婷婷丁香在线五月| 草草在线视频免费看| svipshipincom国产片| 男女做爰动态图高潮gif福利片| 亚洲avbb在线观看| 免费av毛片视频| 伦理电影免费视频| 亚洲av免费在线观看| 精品久久久久久久久久免费视频| 99在线人妻在线中文字幕| 国产精品电影一区二区三区| 亚洲av电影在线进入| 91在线观看av| 搡老妇女老女人老熟妇| h日本视频在线播放| 欧美激情在线99| 香蕉久久夜色| 18禁美女被吸乳视频| 少妇熟女aⅴ在线视频| 国产成人精品久久二区二区91| 老司机深夜福利视频在线观看| 嫩草影院精品99| 亚洲国产欧美网| 亚洲av电影在线进入| 久久久久免费精品人妻一区二区| 最近最新中文字幕大全免费视频| 一个人看的www免费观看视频| 搡老妇女老女人老熟妇| 人人妻人人看人人澡| 综合色av麻豆| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲av熟女| 国产精品一区二区精品视频观看| 免费搜索国产男女视频| 亚洲中文字幕日韩| 在线观看免费午夜福利视频| 人人妻人人澡欧美一区二区| 成熟少妇高潮喷水视频| 香蕉av资源在线| 91老司机精品| 国产午夜精品久久久久久| 91老司机精品| a级毛片a级免费在线| 亚洲国产日韩欧美精品在线观看 | 免费观看的影片在线观看| 我的老师免费观看完整版| 午夜精品久久久久久毛片777| 又粗又爽又猛毛片免费看| 亚洲成a人片在线一区二区| 色在线成人网| 日本三级黄在线观看| 宅男免费午夜| 国产伦精品一区二区三区四那| 久久久久久大精品| 亚洲欧美日韩东京热| 嫩草影院入口| av在线蜜桃| 午夜激情欧美在线| 亚洲国产精品sss在线观看| 欧美另类亚洲清纯唯美| 亚洲av免费在线观看| 成人欧美大片| 午夜亚洲福利在线播放| 三级男女做爰猛烈吃奶摸视频| 久久性视频一级片| 男人舔奶头视频| 久久精品国产99精品国产亚洲性色| 最新中文字幕久久久久 | 丁香欧美五月| svipshipincom国产片| 国产91精品成人一区二区三区| 蜜桃久久精品国产亚洲av| 国产精品久久久久久精品电影| 亚洲精品乱码久久久v下载方式 | 91av网站免费观看| 精品福利观看| 99在线视频只有这里精品首页| 好男人电影高清在线观看| 色视频www国产| avwww免费| 最新美女视频免费是黄的| 麻豆国产97在线/欧美| netflix在线观看网站| 亚洲七黄色美女视频| 麻豆成人av在线观看| 久久久国产成人免费| 免费看a级黄色片| 亚洲avbb在线观看| 十八禁网站免费在线| 99久久99久久久精品蜜桃| 国产高清有码在线观看视频| 精品久久久久久久末码| 搞女人的毛片| 欧美成人一区二区免费高清观看 | 成人性生交大片免费视频hd| 亚洲精品一区av在线观看| 亚洲avbb在线观看| 波多野结衣高清作品| 91在线观看av| 最近最新免费中文字幕在线| 亚洲成人久久性| 久久久久性生活片| 婷婷六月久久综合丁香| 真实男女啪啪啪动态图| 国产一区二区三区在线臀色熟女| 亚洲色图av天堂| 香蕉国产在线看| 午夜免费成人在线视频| 欧美国产日韩亚洲一区| 国产av不卡久久| 好看av亚洲va欧美ⅴa在| 国产精品 国内视频| 我的老师免费观看完整版| 日本撒尿小便嘘嘘汇集6| 男人舔女人下体高潮全视频| 国内精品久久久久精免费| 国产精品精品国产色婷婷| 婷婷亚洲欧美| 一本一本综合久久| 此物有八面人人有两片| 99热这里只有精品一区 | 欧美日韩福利视频一区二区| 无遮挡黄片免费观看| 亚洲av电影不卡..在线观看| 亚洲av美国av| 久久久久免费精品人妻一区二区| 久久久久国内视频| 男人舔奶头视频| 亚洲国产中文字幕在线视频| 国产黄a三级三级三级人| 搞女人的毛片| 两性夫妻黄色片| 日本与韩国留学比较| 伦理电影免费视频| 男女床上黄色一级片免费看| 淫妇啪啪啪对白视频| 999精品在线视频| 九九久久精品国产亚洲av麻豆 | 人人妻人人看人人澡| 亚洲国产欧美人成| 国产成人精品久久二区二区免费| 欧美日韩中文字幕国产精品一区二区三区| www.熟女人妻精品国产| 国产三级在线视频| 久99久视频精品免费| 亚洲国产高清在线一区二区三| 久久精品91无色码中文字幕| 免费在线观看影片大全网站| 狂野欧美激情性xxxx| 亚洲精品色激情综合| 国产午夜精品论理片| 嫁个100分男人电影在线观看| 国产精品影院久久| 天堂影院成人在线观看| 极品教师在线免费播放| 中文亚洲av片在线观看爽| 久久这里只有精品19| 国产精品av视频在线免费观看| 啦啦啦韩国在线观看视频| 两个人视频免费观看高清| 人妻夜夜爽99麻豆av| 欧美一级毛片孕妇| 日韩三级视频一区二区三区| 在线十欧美十亚洲十日本专区| 真人一进一出gif抽搐免费| 丁香欧美五月| 欧美最黄视频在线播放免费| 91在线精品国自产拍蜜月 | 国产黄a三级三级三级人| 色老头精品视频在线观看| 一级作爱视频免费观看| avwww免费| 99国产精品99久久久久| 国产精品久久视频播放| 日本五十路高清| 国产又黄又爽又无遮挡在线| 免费观看人在逋| 一区二区三区激情视频| 狂野欧美激情性xxxx| 老汉色av国产亚洲站长工具| 岛国在线观看网站| 亚洲成人久久爱视频| 久久婷婷人人爽人人干人人爱| 在线国产一区二区在线| 高清毛片免费观看视频网站| 日韩成人在线观看一区二区三区| 精品国产乱子伦一区二区三区| 日本a在线网址| 每晚都被弄得嗷嗷叫到高潮| 亚洲国产中文字幕在线视频| 综合色av麻豆| 日韩中文字幕欧美一区二区| 久久精品国产99精品国产亚洲性色| 亚洲熟妇中文字幕五十中出| 国产精品一区二区三区四区免费观看 | 神马国产精品三级电影在线观看| 国内精品久久久久久久电影| 男女午夜视频在线观看| 人妻久久中文字幕网| 亚洲av美国av| 日韩欧美在线乱码| 久久精品aⅴ一区二区三区四区| 麻豆国产av国片精品| 久久久久久九九精品二区国产| aaaaa片日本免费| 国产真人三级小视频在线观看| 久久热在线av| 中文字幕熟女人妻在线| 岛国在线观看网站| 国产精华一区二区三区| 国产精品久久电影中文字幕| 久久久成人免费电影| www.熟女人妻精品国产| 深夜精品福利| 少妇的逼水好多| 亚洲欧美日韩卡通动漫| 欧美三级亚洲精品| 久久久国产成人免费| 色在线成人网| 午夜久久久久精精品| 国产成年人精品一区二区| 波多野结衣巨乳人妻| 两个人视频免费观看高清| 日本黄大片高清| 女警被强在线播放| 一进一出抽搐gif免费好疼| 成人av在线播放网站| 国产av在哪里看| 欧美中文日本在线观看视频| 久久天堂一区二区三区四区| 日本在线视频免费播放| 18禁国产床啪视频网站| 免费在线观看日本一区| 黄色视频,在线免费观看| 国产熟女xx| 亚洲七黄色美女视频| 国产视频一区二区在线看| 操出白浆在线播放| 无遮挡黄片免费观看| 午夜成年电影在线免费观看| 黄片小视频在线播放| 人人妻人人看人人澡| 毛片女人毛片| 国产不卡一卡二| 人人妻人人看人人澡| 后天国语完整版免费观看|