• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種針對句法樹的混合神經(jīng)網(wǎng)絡(luò)模型

    2017-03-12 08:30:12歡,張薇,劉亮,李
    中文信息學(xué)報(bào) 2017年6期
    關(guān)鍵詞:樹結(jié)構(gòu)池化準(zhǔn)確度

    霍 歡,張 薇,劉 亮,李 洋

    (1. 上海理工大學(xué) 光電信息與計(jì)算機(jī)工程學(xué)院,上海 200093;2. 復(fù)旦大學(xué) 上海市數(shù)據(jù)科學(xué)重點(diǎn)實(shí)驗(yàn)室,上海 201203)

    0 引言

    文本處理模型大致可以歸為三類: BOW(bag-of-words)模型、序列化模型和基于句法樹的模型。相對于BOW模型[1-2]詞與詞間的獨(dú)立性假設(shè),序列化模型[3-4]考慮了詞序信息,并因其突出性能被廣泛使用。但前兩種模型都忽略了文本自身存在的句法結(jié)構(gòu),而句法結(jié)構(gòu)對獲取文本語義特征相當(dāng)重要。因此,TreeLSTMs模型[5]是一種針對句法樹的LSTMs模型,該模型將順序處理的LSTM cells按句法樹遞歸排布,使原本o(n)的操作變成o(log(n)),縮短了反向傳播的路徑,在一定程度上緩解了梯度消失的問題,使模型能夠更準(zhǔn)確地學(xué)習(xí)長序列的空間關(guān)聯(lián)性。其中句法樹是將句子借助于樹形圖來說明句中詞與詞、詞組與詞組之間的句法、語義和邏輯關(guān)系。目前樹形結(jié)構(gòu)分為兩種: 支持樹(Constituency tree)和依存樹(Dependency tree),分別如圖1(a)和圖1(b)所示。其中,圖1(a)中加粗箭頭表示組合,圖1(b)中加粗箭頭表示卷積操作。

    但TreeLSTMs的缺點(diǎn)也顯而易見: 在圖1(a)中,為了計(jì)算父節(jié)點(diǎn)O1的隱藏狀態(tài)h1和細(xì)胞狀態(tài)c1,首先要獲得它兩個(gè)子節(jié)點(diǎn)O2和O3的隱藏狀態(tài)和細(xì)胞狀態(tài),然后再加以組合。這種對空間關(guān)聯(lián)性的計(jì)算完全限制了TreeLSTMs的并行能力,在需要訓(xùn)練大型數(shù)據(jù)集的場景下,計(jì)算效率成為這一模型首要考慮的問題。

    圖1 TreeLSTMs和TBCNNs模型示例

    相對于TreeLSTMs,TBCNNs[6-7]是一種針對句法樹的CNN模型,它的樹卷積方法能實(shí)現(xiàn)在句法樹上的并行化特征提取,訓(xùn)練效率比TreeLSTMs有很大提升。但由于池化操作的空間不變性假設(shè),模型無法在節(jié)點(diǎn)間對特征進(jìn)行組合(故在圖1(b)中,h1、h2和h3間無任何箭頭連接),導(dǎo)致模型未能充分利用輸入序列的結(jié)構(gòu)信息。

    由于TreeLSTMs和TBCNNs兩種模型存在著互補(bǔ)特性, 本文提出一種針對句法樹的混合神經(jīng)網(wǎng)絡(luò)模型。該模型以TreeLSTMs為改進(jìn)對象,借助TBCNNs的樹卷積和池化方法實(shí)現(xiàn)了類似TreeLSTMs的計(jì)算,故將此模型命名為Quasi-TreeLSTMs。模型包含卷積模塊和池化模塊兩個(gè)子模塊,前者完成非線性變換層和門狀態(tài)的計(jì)算,后者完成剩余的空間關(guān)聯(lián)性的計(jì)算。由于池化模塊的計(jì)算不存在任何參數(shù),因此該模塊的計(jì)算耗時(shí)可忽略不計(jì)。兩模塊一個(gè)為模型帶來了并行性,另一個(gè)則保證了它仍然擁有和TreeLSTMs一樣的記憶和組合特征的能力。本文將在情感分類和語義相似性兩種自然語言處理任務(wù)上對模型進(jìn)行測試,實(shí)驗(yàn)結(jié)果表明: Quasi-TreeLSTMs的表現(xiàn)普遍優(yōu)于TreeLSTMs。

    本文其他部分內(nèi)容如下: 第一節(jié)概述TreeLSTMs模型;第二節(jié)介紹本文提出的兩種Quasi-TreeLSTMs模型,Dependency Quasi-TreeLSTMs和Constituency Quasi-TreeLSTMs;第三節(jié)對實(shí)驗(yàn)結(jié)果進(jìn)行討論和分析;第四節(jié)介紹相關(guān)工作;第五節(jié)總結(jié)全文。

    1 背景知識(shí)

    考慮到本文的改進(jìn)對象是TreeLSTMs,本節(jié)將對此模型進(jìn)行概述。圖2展示了將Fruit flies like a banana進(jìn)行解析后的兩種句法樹。

    1.1 針對依存樹建模的Dependency TreeLSTMs

    針對依存樹建模的TreeLSTMs模型,稱為Dependency TreeLSTMs。依存樹是按照詞與詞間的句法關(guān)系將各個(gè)詞節(jié)點(diǎn)相互連接的句法樹,如圖2(a)中flies和Fruit由nsubj(主謂關(guān)系)標(biāo)簽連接,flies和banana則由nmod(復(fù)合名詞修飾關(guān)系)標(biāo)簽連接??紤]到依存樹中每個(gè)節(jié)點(diǎn)包含的子節(jié)點(diǎn)的數(shù)量各不相同(有時(shí)甚至差異巨大);同時(shí),各個(gè)子節(jié)點(diǎn)間也不存在任何順序,因此,Dependency TreeLSTMs在組合各子節(jié)點(diǎn)的隱藏狀態(tài)時(shí)采用的方式是全部求和。對某個(gè)節(jié)點(diǎn)j,該模型通過如下公式計(jì)算它的隱藏狀態(tài)hj。

    其中C(j)是節(jié)點(diǎn)j所有子節(jié)點(diǎn)的集合。

    式(2)~(5)分別代表輸入門(input gate)、遺忘門(forget gate)、輸出門(output gate)和非線性變換層,其中遺忘門需要區(qū)分各個(gè)子節(jié)點(diǎn)k。 它們各自有一組(W,U,b)共享變量,可通過訓(xùn)練進(jìn)行學(xué)習(xí)獲得。如前文所述,節(jié)點(diǎn)j的門狀態(tài)和線性變換層的計(jì)算都依賴式(1)組合其所有子節(jié)點(diǎn)的隱藏狀態(tài),這種空間的關(guān)聯(lián)性計(jì)算正是TreeLSTMs模型難以并行處理數(shù)據(jù)的根本所在。

    圖2 句法樹示例

    1.2 針對N元支持樹建模的Constituency TreeLSTMs

    針對N元支持樹(下面統(tǒng)稱為支持樹)建模的TreeLSTMs模型,稱為Constituency TreeLSTMs。與依存樹不同,支持樹的葉子節(jié)點(diǎn)有序地表示輸入序列中的詞,而非葉子節(jié)點(diǎn)代表的是短語,連接各節(jié)點(diǎn)的邊上也沒有關(guān)系標(biāo)簽。如圖2(b)中第二層的非葉子節(jié)點(diǎn)NP(名詞性短語)指的是a banana,第三層PP(介詞性短語)再加入葉子節(jié)點(diǎn)like,代表like a banana。直覺上,支持樹似乎更加符合人們由下至上組合語義的要求??紤]到支持樹各個(gè)非葉子節(jié)點(diǎn)包含的子節(jié)點(diǎn)數(shù)目都不超過N個(gè),且各子節(jié)點(diǎn)間存在著詞序,例如,圖2(b)表示一個(gè)binary constituency tree,即二叉支持樹,圖中NP代表的是a banana而非banana a。因此Constituency TreeLSTMs在組合子節(jié)點(diǎn)的隱藏狀態(tài)時(shí)采用的方式是線性加權(quán)。對某個(gè)節(jié)點(diǎn)j,該模型通過如下公式計(jì)算它的隱藏狀態(tài)hj。

    2 混合神經(jīng)網(wǎng)絡(luò)模型(Quasi-TreeLSTMs)

    受混合神經(jīng)網(wǎng)絡(luò)[8-9]的啟發(fā),本文提出一種針對句法樹的Quasi-TreeLSTMs模型,借助TBCNNs的思想,將影響TreeLSTMs效率的空間關(guān)聯(lián)性計(jì)算任務(wù)進(jìn)行拆分,并設(shè)計(jì)兩個(gè)子模塊——卷積模塊和池化模塊分別處理。

    2.1 卷積模塊

    本文中卷積模塊的任務(wù)不是直接提取特征,而是對TreeLSTMs的非線性變換層和門狀態(tài)進(jìn)行計(jì)算。首先,本文使用Stanford Neural Network Dependency Parser[10]和Stanford PCFG Parser[11]分別將序列解析成依存樹或支持樹,兩種樹結(jié)構(gòu)對應(yīng)Quasi-TreeLSTMs的兩個(gè)變體Dependency Quasi-TreeLSTMs和Constituency Quasi-TreeLSTMs,分別如圖3(a)和圖3(b)所示。

    圖3 Quasi-TreeLSTMs的兩個(gè)變體

    接著,設(shè)計(jì)一個(gè)深度固定為h(本文h=2)且包含m個(gè)卷積核(kernels)的卷積窗口,讓它在整棵樹上滑動(dòng),算法過程中對窗口內(nèi)的子樹進(jìn)行計(jì)算。假設(shè)現(xiàn)在窗口內(nèi)的子樹上有t個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)被賦予一個(gè)向量xk∈n。如果是依存樹,向量指的是節(jié)點(diǎn)詞的詞向量;如果是支持樹,考慮到非葉子節(jié)點(diǎn)上沒有對應(yīng)的詞,在實(shí)驗(yàn)中將為每個(gè)非葉子節(jié)點(diǎn)初始化一個(gè)n維正態(tài)分布的隨機(jī)向量。此時(shí),卷積窗口的輸出如下:

    依存樹每個(gè)節(jié)點(diǎn)包含的子節(jié)點(diǎn)數(shù)目不固定,因此Dependency Quasi-TreeLSTMs可以像TreeLSTMs一樣對全部子節(jié)點(diǎn)的詞向量求和[式(1)],也可以利用TBCNNs的方法,根據(jù)父子節(jié)點(diǎn)間的句法關(guān)系標(biāo)簽[如圖2(a)中的nsubj和nmod等]為子節(jié)點(diǎn)分配權(quán)值矩陣,本文將選擇前者。假設(shè)此時(shí)窗口內(nèi)子樹的根節(jié)點(diǎn)為xj,它的子節(jié)點(diǎn)數(shù)為C(j),具體卷積計(jì)算過程如下:

    上述計(jì)算與式(1)~(5)十分相似,訓(xùn)練參數(shù)的個(gè)數(shù)也相同,但由于獲取xk不需任何前期計(jì)算,打破了原本的空間關(guān)聯(lián)性限制,使這部分計(jì)算得以并行化處理。

    類似地,針對支持樹的Constituency Quasi-TreeLSTMs的卷積計(jì)算過程如下:

    當(dāng)卷積窗口在樹上完成一次遍歷后,會(huì)得到一棵特征樹,上面的每個(gè)節(jié)點(diǎn)保存了卷積獲得的非線性變換層和門狀態(tài)向量。但對于遺忘門,即式(20)和式(24),fjk是保存在它的各個(gè)子節(jié)點(diǎn)k上的。雖然卷積操作在一定程度上增加了空間復(fù)雜度,但只要按批訓(xùn)練時(shí)batch大小設(shè)置合適,一般不會(huì)對訓(xùn)練產(chǎn)生任何影響。

    2.2 池化模塊

    在通過卷積模塊獲得的特征樹上,池化模塊要完成空間關(guān)聯(lián)性計(jì)算任務(wù)??梢钥吹?,式(6)~(7)和式(12)~(13)的計(jì)算雖然依賴前一層的計(jì)算結(jié)果,但過程中不存在任何需要訓(xùn)練的參數(shù),對現(xiàn)在大多數(shù)的CPUs/GPUs來說計(jì)算任務(wù)不大。與TBCNNs中提到的Dynamic Pooling[12]不同,本文將采用一個(gè)和卷積窗口類似的池化窗口(深度為2)。因?yàn)樯疃裙潭杀WC計(jì)算只在特征樹的父子節(jié)點(diǎn)間完成,而不會(huì)在層級間跳躍破壞空間關(guān)聯(lián)性。計(jì)算過程同式(6)~(7)和式(12)~(13),故此處不再贅述。

    2.3 目標(biāo)函數(shù)構(gòu)造

    其中m是訓(xùn)練樣本中節(jié)點(diǎn)數(shù)目,λ是L2正則化項(xiàng)超參。

    語義相似性任務(wù)是兩個(gè)句子的匹配問題,需要構(gòu)建兩棵樹并分別用一個(gè)Quasi-TreeLSTMs進(jìn)行編碼。實(shí)驗(yàn)中將兩樹在根節(jié)點(diǎn)上的特征向量對(hL,hR),hL,R∈m進(jìn)行如下組合,獲得一個(gè)匹配向量hs∈4m, 如式(28)所示。

    3 實(shí)驗(yàn)分析

    實(shí)驗(yàn)選擇以下兩個(gè)自然語言處理任務(wù)來測試本文提出的Quasi Tree-LSTMs模型的性能: ①情感分類,分析上萬條帶標(biāo)簽的電影評論的情感傾向;②語義關(guān)系,根據(jù)語義關(guān)系判斷句子對是否相似。

    3.1 情感分類

    數(shù)據(jù)集介紹本實(shí)驗(yàn)使用Stanford Sentiment Treebank數(shù)據(jù)集[13],該數(shù)據(jù)集包含一萬多條電影評論,所有評論都帶有一個(gè)人工標(biāo)記的情感標(biāo)簽,分別如下: 強(qiáng)積極(++)、積極(+)、中立(neutral)、消極(-)、強(qiáng)消極(--)。本文在五分類和二分類兩種設(shè)置上進(jìn)行實(shí)驗(yàn): 對五分類任務(wù),按8 544/1 101/2 210的比例將數(shù)據(jù)集劃分成訓(xùn)練集/驗(yàn)證集/測試集;對二分類任務(wù),實(shí)驗(yàn)中不考慮標(biāo)記為中立的樣本,將強(qiáng)積極和積極歸為一類(+),消極和強(qiáng)消極為另一類(-),最后訓(xùn)練集/驗(yàn)證集/測試集的比例是6 920/872/1 821。

    訓(xùn)練參數(shù)電腦配置Intel/Xeon E5-2683V3 14核28線程,NVIDIA GTX1080顯卡,32GB內(nèi)存,并使用Tensorflow 深度學(xué)習(xí)框架實(shí)現(xiàn)。

    本文的模型初始化和TBCNNs的設(shè)置相同,并在驗(yàn)證集上對模型進(jìn)行超參調(diào)優(yōu),最后得到如下的訓(xùn)練參數(shù): 模型使用帶有300個(gè)卷積核且深度為2的卷積窗口和在Wikipedia 2014和Gigaword 5上訓(xùn)練獲得的300維(d=300)的Glove詞向量[14]來初始化詞向量,若遇到未包含的詞則賦予300維正態(tài)分布的隨機(jī)向量。采用AdaGrad[15]隨機(jī)梯度下降算法,初始學(xué)習(xí)率0.05,batch size 25,本文對Embedding也進(jìn)行訓(xùn)練,初始學(xué)習(xí)率0.02。L2正則化系數(shù)為0.000 1,同時(shí)將Embedding層和output層使用的dropout(keep probability)分別設(shè)置為0.6和0.8。為了不讓訓(xùn)練樣本波動(dòng)過大,本文預(yù)先按句子長度對數(shù)據(jù)集進(jìn)行排序。

    實(shí)驗(yàn)結(jié)果由于無法得到一些重要訓(xùn)練參數(shù),盡管經(jīng)過細(xì)致的調(diào)優(yōu)過程,本文對TreeLSTMs和TBCNNs兩個(gè)模型的實(shí)現(xiàn)在準(zhǔn)確度上仍低于文獻(xiàn)[5]和文獻(xiàn)[6]中給出的結(jié)果。因此,參照本文對TreeLSTMs模型和TBCNNs模型的實(shí)驗(yàn)獲得的結(jié)果來評估模型性能,與本文提出的Quasi-TreeLSTMs模型進(jìn)行比較。表1展示了模型在五分類和二分類兩個(gè)情感分類任務(wù)上分別訓(xùn)練十個(gè)epochs后的結(jié)果。

    表1 Stanford Sentiment Treebank測試結(jié)果

    續(xù)表

    由表1可知,相較于其他模型,Dependency TreeLSTMs在兩個(gè)分類任務(wù)上的準(zhǔn)確度明顯較低,而Constituency TreeLSTMs卻并不受影響,原因是支持樹更能滿足TreeLSTMs層級間組合信息的需求,在處理數(shù)據(jù)的過程中細(xì)粒度在不斷增大,這對特征信息的提取非常有利,但在依存樹上缺少這一特性。TreeLSTMs模型基于依存樹訓(xùn)練得到的準(zhǔn)確度不高是因?yàn)橐来鏄浣Y(jié)構(gòu)中能訓(xùn)練的帶標(biāo)簽的節(jié)點(diǎn)要比支持樹中少了將近一半(150k:319k),因此能獲得的信息就更少。依存樹結(jié)構(gòu)要比支持樹結(jié)構(gòu)更加緊湊,這對TBCNNs的卷積和池化操作都更加有利,因此它能在已有標(biāo)簽的節(jié)點(diǎn)上提取更多的信息。

    在情感分類的兩個(gè)任務(wù)上,Dependency TBCNNs的準(zhǔn)確度都比Constituency TBCNNs高了近1%, TBCNNs在依存樹上處理葉子節(jié)點(diǎn)融合問題時(shí),根據(jù)引入的15個(gè)高頻句法標(biāo)簽為子節(jié)點(diǎn)分配權(quán)值,由于TreeLSTMs中并未這樣處理,因此本文實(shí)現(xiàn)Dependency TBCNNs模型時(shí)并未加入句法標(biāo)簽權(quán)重。雖然不考慮句法標(biāo)簽信息的Dependency TBCNNs的準(zhǔn)確度在兩個(gè)任務(wù)上分別下降了0.9%和0.8%,但仍高于Constituency TBCNNs的準(zhǔn)確度,這一實(shí)驗(yàn)結(jié)果也表明TBCNNs在處理依存樹結(jié)構(gòu)的數(shù)據(jù)上有一定的優(yōu)勢。

    本文提出的Constituency Quasi-TreeLSTMs在兩個(gè)任務(wù)上的準(zhǔn)確度都高于Dependency Quasi-TreeLSTMs,這和TreeLSTMs的結(jié)果一樣,不同的是本文的兩個(gè)模型差距卻不大,說明Quasi-TreeLSTMs作為一種混合模型,緩解了已有的模型對樹結(jié)構(gòu)存在的敏感性,特別是有效避免了TreeLSTMs在依存樹上無法有效提取信息的問題。

    雖然實(shí)驗(yàn)中的三類模型沒有絕對的最優(yōu),除Dependency TreeLSTMs外,其他模型在五分類任務(wù)上的準(zhǔn)確度最高和最低間相差僅0.8%,在二分類上相差1.0%,表現(xiàn)最好的是Constituency TreeLSTMs,其次是本文提出的Constituency Quasi-TreeLSTMs,這兩個(gè)模型在兩個(gè)任務(wù)上相差了0.3%,主要原因是本文提出的模型所使用的池化模塊不能像TreeLSTMs模型那樣很好地適應(yīng)支持樹;Dependency Quasi-TreeLSTMs的準(zhǔn)確度高于Constituency TBCNNs,說明雖然同樣是在不適合的樹結(jié)構(gòu)上使用模型,但Quasi-TreeLSTMs的混合特性,能弱化這種結(jié)構(gòu)和需求的不對稱性。

    圖4給出了模型在情感分類的兩個(gè)任務(wù)訓(xùn)練上每個(gè)epoch的平均消耗時(shí)間。TreeLSTMs和TBCNNs模型實(shí)現(xiàn)的訓(xùn)練速度差異很大, 且與針對的樹結(jié)構(gòu)相關(guān)。表2列舉了TreeLSTMs針對支持樹結(jié)構(gòu)在三種實(shí)現(xiàn)方法中平均每秒解析樹的個(gè)數(shù)。

    圖4 在兩個(gè)任務(wù)上訓(xùn)練epoch的平均消耗時(shí)間

    表2TreeLSTMs基于支持樹的三種實(shí)現(xiàn)平均每秒解析樹的個(gè)數(shù)

    動(dòng)態(tài)圖靜態(tài)圖mini?batchmini?batch+meta?tree1.5933420

    由于Tensorflow本身不支持動(dòng)態(tài)圖模型的構(gòu)建,導(dǎo)致模型無法進(jìn)行batch訓(xùn)練,因此動(dòng)態(tài)圖和靜態(tài)圖的解析比較慢。在三種實(shí)現(xiàn)中,動(dòng)態(tài)圖使用后序遍歷操作,靜態(tài)圖將樹以列表形式存儲(chǔ),并使用Tensorflow的while loop操作。mini-batch方法[16]基于廣度優(yōu)先遍歷搜索變量,類似于樹的層次遍歷,而mini-batch with meta-tree方法[17]在mini-batch基礎(chǔ)上將batch中各棵樹上的節(jié)點(diǎn)按照結(jié)構(gòu)排序并融合到一棵meta-tree上,然后一層一層地處理。mini-batch meta-tree方法的時(shí)間復(fù)雜度由O(M×N)縮減到O(log(N)),訓(xùn)練速度非???這種方法同Google提出的dynamic batching算法[18]類似)。本文基于支持樹的模型都是按照mini-batch meta-tree的方式實(shí)現(xiàn)。對于依存樹,由于每個(gè)節(jié)點(diǎn)的子節(jié)點(diǎn)數(shù)目各不相同,很難構(gòu)建一棵meta-tree,因此只能以mini-batch的方式實(shí)現(xiàn)該模型,因此在圖4中,針對依存樹建模的模型在訓(xùn)練速度上明顯低于針對支持樹生成的模型。

    如圖4所示,本文提出的Quasi-TreeLSTMs是混合模型,它的訓(xùn)練耗時(shí)在TBCNNs和TreeLSTMs之間。但由于實(shí)現(xiàn)方式的相對高效,使得針對支持樹的模型的速度差異小于針對依存樹的模型的差異。在兩個(gè)任務(wù)上,Constituency Quasi-TreeLSTMs的訓(xùn)練速度僅比Constituency TreeLSTMs快3.2s ,這一現(xiàn)象說明除了優(yōu)化模型本身來提升性能外,使用一個(gè)高效的方法實(shí)現(xiàn)模型也能在一定程度上削弱模型間特性的差異。

    由于實(shí)現(xiàn)方式相對低效,針對依存樹的模型間的特性差異將在訓(xùn)練過程中不斷體現(xiàn)。TBCNNs模型最適應(yīng)依存樹結(jié)構(gòu),且沒有空間關(guān)聯(lián)性關(guān)系的計(jì)算,使得它的訓(xùn)練速度相對較快。而本文提出的Quasi TreeLSTMs模型在TBCNNs基礎(chǔ)上融入了部分空間關(guān)聯(lián)性計(jì)算,但這部分任務(wù)是無訓(xùn)練參數(shù)的,因此訓(xùn)練耗時(shí)在兩個(gè)任務(wù)上平均只多30s左右。但和TreeLSTMs相比,Quasi TreeLSTMs模型在兩個(gè)任務(wù)上分別快了61.9s和48.3s,說明本文的模型在訓(xùn)練時(shí)有較大的速度提升。雖然Quasi-TreeLSTMs模型的準(zhǔn)確度不及TreeLSTMs,但在多數(shù)情境下,快速訓(xùn)練迭代并獲得較好的結(jié)果才是任務(wù)的需求。

    3.2 語義相關(guān)性

    數(shù)據(jù)集介紹本實(shí)驗(yàn)使用包含9 927個(gè)句子對的SICK(sentences involving compositional knowledge)數(shù)據(jù)集[19],每個(gè)句子對被人工標(biāo)記了ENTAILMENT(蘊(yùn)含)、NEUTRAL(無明顯關(guān)系)和CONTRADICTION(矛盾)三類中的一類。本實(shí)驗(yàn)按4 500/500/4 927將數(shù)據(jù)集劃分為訓(xùn)練集/驗(yàn)證集/測試集。

    訓(xùn)練參數(shù)同情感分類實(shí)驗(yàn)。

    實(shí)驗(yàn)結(jié)果表3展示了所有對比模型在SICK數(shù)據(jù)集上訓(xùn)練30個(gè)epochs的準(zhǔn)確度,及訓(xùn)練一個(gè)epoch的平均消耗時(shí)間。

    在3.1節(jié)中已經(jīng)介紹,由于支持樹的特性,TreeLSTMs模型處理支持樹的數(shù)據(jù)更有優(yōu)勢。而依存樹按照詞與詞間的句法關(guān)系將各個(gè)節(jié)點(diǎn)連接組合而成,并帶有詞與詞之間的語法關(guān)系,使得TBCNNs模型的卷積層和池化操作在處理依存樹結(jié)構(gòu)的數(shù)據(jù)上更有利。由表3可知,Constituency TreeLSTMs(87.5%)模型和Dependency TBCNNs(87.0%)模型的準(zhǔn)確度都較高。本文提出的Constituency Quasi-TreeLSTMs(87.2%)模型準(zhǔn)確度高于Dependency Quasi-TreeLSTMs(86.7%),鑒于Quasi-TreeLSTMs的混合模型特征,兩者表現(xiàn)差距不大。同情感分類任務(wù),本文的模型緩解了已有模型對樹結(jié)構(gòu)類型的敏感性,避免了TreeLSTMs模型在依存樹上無法有效提取信息的問題,也解決了TBCNNs模型無法利用支持樹的層級關(guān)系的缺陷。

    另一方面,在訓(xùn)練上每個(gè)epoch的平均消耗時(shí)間TBCNNs的訓(xùn)練速度相對較快,Quasi TreeLSTMs模型在TBCNNs模型的基礎(chǔ)上引入了池化模塊計(jì)算序列中詞序關(guān)系,但在該模型的池化模塊中無訓(xùn)練參數(shù),因此該模型的速度和TBCNNs模型的速度相差不大。Quasi TreeLSTMs模型在速度上相對于TreeLSTMs模型有很大提升。因此,對于綜合模型在兩種樹結(jié)構(gòu)上效果的平衡關(guān)系和訓(xùn)練速度兩個(gè)衡量指標(biāo),本文提出的Quasi TreeLSTMs模型最值得考慮。

    表3 SICK數(shù)據(jù)集測試結(jié)果

    4 相關(guān)工作

    目前,針對樹結(jié)構(gòu)建模的模型大致分為兩類: 基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)在樹結(jié)構(gòu)上建模[5,20]和基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)在樹結(jié)構(gòu)上建模[6,21]。

    基于循環(huán)神經(jīng)網(wǎng)絡(luò)在樹上構(gòu)建的模型,除了Tree-LSTM模型外,Dependency RNN[18]模型在依存樹上建模,并通過結(jié)合句子的句法依賴性來提高循環(huán)神經(jīng)網(wǎng)絡(luò)模型的性能。Dependency RNN模型在解析樹的所有路徑(即從當(dāng)前節(jié)點(diǎn)到根節(jié)點(diǎn)的展開)上都相互獨(dú)立地獲取所需要的依賴結(jié)構(gòu),同時(shí)保存每個(gè)節(jié)點(diǎn)出現(xiàn)在路徑中的頻率,并將其倒數(shù)和學(xué)習(xí)率結(jié)合,以防某一節(jié)點(diǎn)出現(xiàn)在多個(gè)路徑中造成過度訓(xùn)練。此外,文獻(xiàn)[18]在模型中加入語法標(biāo)簽,提出Labelled Dependency RNN模型。但該模型除了本文重點(diǎn)強(qiáng)調(diào)的效率問題,RNN模型在處理長序列上記憶狀態(tài)衰減這一特點(diǎn)也是Dependency RNN模型要面臨的一個(gè)難題。

    和TBCNNs模型相同的DBCNNs[19],該模型基于CNN在依存樹上建模,提取每個(gè)詞特征時(shí),將從該詞到根節(jié)點(diǎn)的路徑上的所有節(jié)點(diǎn)加入計(jì)算。該做法可以提取序列中長距離信息。雖然都是通過CNN模型基于樹結(jié)構(gòu)建模,但TBCNNs和DBCNNs卷積窗口的工作方式不同,且兩個(gè)模型都沒考慮輸入序列的原始順序信息。

    目前存在很多將CNN模型結(jié)合RNN模型生成的混合模型。運(yùn)用CNN卷積操作接收長度固定的短語進(jìn)行學(xué)習(xí)的混合神經(jīng)網(wǎng)絡(luò)模型[22]將生成的特征表示用于LSTM模型,進(jìn)一步學(xué)習(xí)輸入文本的依賴關(guān)系。文獻(xiàn)[23]將卷積層與雙向LSTM結(jié)合生成一個(gè)新的模型,通過對輸入信息使用卷積層來處理文本,并通過池化函數(shù),以減小序列的長度,然后將生成的特征提供給雙向LSTM模型用于后續(xù)處理。Quasi-RNN模型[9]是一種將CNN卷積操作和RNN的循環(huán)操作相結(jié)合的新的自然語言處理模型,卷積操作并行計(jì)算輸入門、遺忘門和輸出門信息,在循環(huán)層遞歸地計(jì)算輸入序列中每個(gè)時(shí)間步的細(xì)胞狀態(tài)和隱藏狀態(tài),有效地解決了RNN時(shí)效性問題。但上面的三種模型都是基于順序處理輸入序列,計(jì)算得到的最終表示只包含了序列的順序信息。

    5 結(jié)論

    本文提出一種針對句法樹的混合神經(jīng)網(wǎng)絡(luò)模型Quasi- TreeLSTMs,該模型結(jié)合傳統(tǒng)的TreeLSTMs和TBCNNs模型,將影響TreeLSTMs效率的空間關(guān)聯(lián)性計(jì)算任務(wù)進(jìn)行拆分,用TBCNNs的卷積操作來完成最主要也是最耗時(shí)的三個(gè)控制門狀態(tài)的計(jì)算,剩余的少量空間關(guān)聯(lián)性任務(wù)因?yàn)橥耆珶o參,恰好適合用TBCNNs的池化操作進(jìn)行計(jì)算。本文用TBCNNs實(shí)現(xiàn)了類似TreeLSTMs的操作,在保持后者記憶能力的前提下,又為其增添了并行性。從在情感分類和語義關(guān)系兩種自然語言處理任務(wù)上的測試結(jié)果可以看出,本文提出的Quasi-TreeLSTMs在保持和已有模型相近的分類準(zhǔn)確度的同時(shí),在訓(xùn)練速度這一評價(jià)指標(biāo)上有顯著的性能提升。

    [1] Peter W F, Walter K, Thomas K L. The measurement of textual coherence with latent semantic analysis[J]. Discourse Processes, 1998, 25(2-3):285-307.

    [2] Landauer T K, Dumais S T. A solution to Plato’s problem: The latent semantic analysis theory of acquisition, induction, and representation of knowledge[J]. Psychological Review, 1997, 104(2):211-240.

    [3] Elman J L. Finding structure in time[J]. Cognitive Science, 1990, 14(2):179-211.

    [4] Mikolov T. Statistical language models based on neural networks[J]. Presentation at Google, Mountain View, 2nd April, 2012.

    [5] Tai K S, Socher R, Manning C D. Improved semantic representations from tree-structured long short-term memory networks[J]. Computer Science, 2015, 5(1): 36.

    [6] Mou L, Peng H, Li G, et al. Discriminative Neural Sentence Modeling by Tree-Based Convolution[C]//Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, 2015:2315-2325.

    [7] Mou L, Yan R, Li G, et al. Backward and forward language modeling for constrained sentence generation[J]. Computer Science, 2016, 4(6):473-482.

    [8] Balduzzi D, Ghifary M. Strongly-Typed Recurrent Neural Networks[C]//Proceedings of the 33rd International Conference on Machine Learning, 2016:1292-1300.

    [9] Bradbury J, Merity S, Xiong C, et al. Quasi-recurrent neural networks[J]. arXiv preprint arXiv:1611.01576, 2016.

    [10] Chen D, Manning C. A fast and accurate dependency parser using neural networks[C]//Proceedings of Conference on Empirical Methods in Natural Language Processing, 2014:740-750.

    [11] Klein D, Manning C D. Accurate unlexicalized parsing[C]//Proceedings of Meeting on Association for Computational Linguistics. Association for Computational Linguistics, 2003:423-430.

    [12] Socher R, Huang E H, Pennington J, et al. Dynamic pooling and unfolding recursive autoencoders for paraphrase detection[J]. Advances in Neural Information Processing Systems, 2011(24):801-809.

    [13] Socher R, Perelygin A, Wu J Y, et al. Recursive deep models for semantic compositionality over a sentiment treebank[C]//Proceedings of the conference on empirical methods in natural language processing (EMNLP), 2013: 1631-1642.

    [14] Pennington J, Socher R, Manning C D. Glove: global vectors for word representation[C]//Proceedings of the EMNLP, 2014(14): 1532-1543.

    [15] Duchi J, Hazan E, Singer Y. Adaptive subgradient methods for online learning and stochastic optimization[J]. Journal of Machine Learning Research, 2011, 12(7):2121-2159.

    [16] Dekel O, Ran G B, Shamir O, et al. Optimal distributed online prediction using mini-batches[J]. Journal of Machine Learning Research, 2012, 13(1):165-202.

    [17] Stulp F, Sigaud O. Many regression algorithms, one unified model: A review[J]. Neural Networks, 2015(69):60-79.

    [18] Looks M, Herreshoff M, Hutchins D L, et al. Deep learning with dynamic computation graphs[J]. arXiv preprint arXiv:1702.02181, 2017.

    [19] Marelli M, Bentivogli L, Baroni M, et al. Sem-Eval-2014 task 1: Evaluation of compositional distributional semantic models on full sentences through semantic relatedness and textual entailment[C]//Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval2014), 2014:1-8.

    [20] Mirowski P, Vlachos A. Dependency recurrent neural language models for sentence completion[J]. Computer Science, 2015, 17(15): 30-35.

    [21] Ma M, Huang L, Xiang B, et al. Dependency-based Convolutional Neural Networks for Sentence Embedding[C]//Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics, 2015:174-179.

    [22] Zhou C, Sun C, Liu Z, et al. A C-LSTM neural network for text classification[J]. Computer Science, 2015, 1(4):39-44.

    [23] Xiao Y, Cho K. Efficient character-level document classification by combining convolution and recurrent layers[J]. arXiv preprint arXiv:1602.00367, 2016.

    猜你喜歡
    樹結(jié)構(gòu)池化準(zhǔn)確度
    基于緊湊型雙線性網(wǎng)絡(luò)的野生茵識(shí)別方法研究
    無線電工程(2024年8期)2024-09-16 00:00:00
    基于Sobel算子的池化算法設(shè)計(jì)
    卷積神經(jīng)網(wǎng)絡(luò)中的自適應(yīng)加權(quán)池化
    基于卷積神經(jīng)網(wǎng)絡(luò)和池化算法的表情識(shí)別研究
    幕墻用掛件安裝準(zhǔn)確度控制技術(shù)
    建筑科技(2018年6期)2018-08-30 03:40:54
    四維余代數(shù)的分類
    動(dòng)態(tài)汽車衡準(zhǔn)確度等級的現(xiàn)實(shí)意義
    大數(shù)據(jù)背景下基于B—樹結(jié)構(gòu)的SQL Server數(shù)據(jù)優(yōu)化策略研究
    基于μσ-DWC特征和樹結(jié)構(gòu)M-SVM的多維時(shí)間序列分類
    高爐重量布料準(zhǔn)確度的提高
    天津冶金(2014年4期)2014-02-28 16:52:58
    狂野欧美激情性xxxx| 人人妻人人澡人人看| 少妇的丰满在线观看| 色综合婷婷激情| 亚洲三区欧美一区| 免费在线观看完整版高清| 精品免费久久久久久久清纯 | 18在线观看网站| 欧美一级毛片孕妇| 精品卡一卡二卡四卡免费| 丰满饥渴人妻一区二区三| 久久久精品免费免费高清| 国产一区二区三区在线臀色熟女 | 1024视频免费在线观看| 婷婷丁香在线五月| 岛国在线观看网站| 亚洲午夜精品一区,二区,三区| 欧美大码av| 久久久水蜜桃国产精品网| 黄片小视频在线播放| 亚洲精品国产精品久久久不卡| a在线观看视频网站| svipshipincom国产片| 岛国在线观看网站| 考比视频在线观看| 男女下面插进去视频免费观看| 亚洲免费av在线视频| 在线观看免费高清a一片| 欧美 日韩 精品 国产| 亚洲av美国av| 最黄视频免费看| 日本av手机在线免费观看| 精品国产超薄肉色丝袜足j| 久久精品国产亚洲av香蕉五月 | 99香蕉大伊视频| 久久人人爽av亚洲精品天堂| 婷婷成人精品国产| 成人免费观看视频高清| e午夜精品久久久久久久| 王馨瑶露胸无遮挡在线观看| tube8黄色片| 极品教师在线免费播放| av又黄又爽大尺度在线免费看| 天天躁日日躁夜夜躁夜夜| 成人国产一区最新在线观看| 日韩欧美免费精品| 一级片'在线观看视频| 欧美性长视频在线观看| 久久久精品免费免费高清| 夜夜爽天天搞| 国产一区二区 视频在线| 黄网站色视频无遮挡免费观看| 久久毛片免费看一区二区三区| 久久久久久久久久久久大奶| svipshipincom国产片| 国产精品1区2区在线观看. | 亚洲性夜色夜夜综合| 久久久精品国产亚洲av高清涩受| 午夜福利影视在线免费观看| 日韩精品免费视频一区二区三区| 夜夜爽天天搞| 人人妻人人添人人爽欧美一区卜| 午夜视频精品福利| 极品教师在线免费播放| 亚洲第一欧美日韩一区二区三区 | 一二三四社区在线视频社区8| 91国产中文字幕| 久久人妻av系列| 国产亚洲一区二区精品| 女性生殖器流出的白浆| 中文字幕色久视频| 色婷婷久久久亚洲欧美| 亚洲视频免费观看视频| 精品国产乱码久久久久久小说| 脱女人内裤的视频| 免费看a级黄色片| 99国产综合亚洲精品| 久久久久久亚洲精品国产蜜桃av| a级毛片黄视频| 18在线观看网站| 免费久久久久久久精品成人欧美视频| 日韩中文字幕欧美一区二区| 岛国毛片在线播放| 少妇的丰满在线观看| 色婷婷久久久亚洲欧美| 欧美黄色片欧美黄色片| 久久久精品国产亚洲av高清涩受| 久久精品亚洲熟妇少妇任你| av视频免费观看在线观看| 亚洲av国产av综合av卡| 一级毛片精品| 国产深夜福利视频在线观看| 免费观看av网站的网址| 多毛熟女@视频| 亚洲欧美精品综合一区二区三区| 人妻 亚洲 视频| 亚洲av国产av综合av卡| 精品高清国产在线一区| 国产日韩欧美在线精品| 一区二区三区精品91| 精品国内亚洲2022精品成人 | 国产精品香港三级国产av潘金莲| 最近最新免费中文字幕在线| 欧美黄色淫秽网站| 国产精品久久电影中文字幕 | 无遮挡黄片免费观看| 亚洲国产毛片av蜜桃av| 国产又色又爽无遮挡免费看| 十八禁网站免费在线| 精品国产一区二区三区久久久樱花| 一级,二级,三级黄色视频| 精品一区二区三区四区五区乱码| 国产在线精品亚洲第一网站| 每晚都被弄得嗷嗷叫到高潮| 国产亚洲精品久久久久5区| 国产男女内射视频| 丝袜在线中文字幕| 免费女性裸体啪啪无遮挡网站| 久久久久国产一级毛片高清牌| 欧美人与性动交α欧美软件| 一本一本久久a久久精品综合妖精| 精品国产乱码久久久久久小说| 咕卡用的链子| 国产精品国产av在线观看| 中文欧美无线码| 中文字幕高清在线视频| 国产一区有黄有色的免费视频| 啪啪无遮挡十八禁网站| 久久国产亚洲av麻豆专区| 日韩成人在线观看一区二区三区| 高清毛片免费观看视频网站 | 一进一出抽搐动态| 在线 av 中文字幕| 一二三四社区在线视频社区8| 国产一区二区在线观看av| 热99国产精品久久久久久7| 一区二区日韩欧美中文字幕| 日本一区二区免费在线视频| 五月天丁香电影| 他把我摸到了高潮在线观看 | 天天躁狠狠躁夜夜躁狠狠躁| 在线天堂中文资源库| 亚洲精品国产精品久久久不卡| 亚洲午夜精品一区,二区,三区| 中文亚洲av片在线观看爽 | 亚洲色图av天堂| 国产日韩欧美亚洲二区| 亚洲精品美女久久久久99蜜臀| 最近最新中文字幕大全免费视频| 免费不卡黄色视频| 少妇 在线观看| 老汉色av国产亚洲站长工具| 女人精品久久久久毛片| 十分钟在线观看高清视频www| 美女国产高潮福利片在线看| 亚洲av美国av| 日韩大片免费观看网站| 久久久精品区二区三区| 国产成人精品在线电影| 国产激情久久老熟女| 建设人人有责人人尽责人人享有的| 国产一区二区激情短视频| 日韩中文字幕视频在线看片| 亚洲精品国产区一区二| 亚洲av日韩在线播放| 国产aⅴ精品一区二区三区波| 老熟妇仑乱视频hdxx| 精品免费久久久久久久清纯 | 亚洲三区欧美一区| 黄频高清免费视频| 午夜免费鲁丝| 国产高清激情床上av| tocl精华| 久久久久网色| 90打野战视频偷拍视频| 最新美女视频免费是黄的| 国产深夜福利视频在线观看| 大香蕉久久成人网| av不卡在线播放| 国产91精品成人一区二区三区 | 午夜福利乱码中文字幕| 一区二区av电影网| 国产精品亚洲一级av第二区| 肉色欧美久久久久久久蜜桃| 精品国内亚洲2022精品成人 | 一本一本久久a久久精品综合妖精| 极品人妻少妇av视频| 曰老女人黄片| 国产成人精品在线电影| 久久久久久久久免费视频了| 国产精品影院久久| 久久精品亚洲av国产电影网| 热99国产精品久久久久久7| 欧美黑人欧美精品刺激| 成人三级做爰电影| 欧美日韩黄片免| 亚洲九九香蕉| xxxhd国产人妻xxx| 午夜福利一区二区在线看| 99热国产这里只有精品6| 五月天丁香电影| 在线天堂中文资源库| 成人三级做爰电影| 国产精品影院久久| 波多野结衣一区麻豆| 国产在视频线精品| 欧美激情极品国产一区二区三区| 最黄视频免费看| 久久久久网色| 国产精品av久久久久免费| 成人18禁高潮啪啪吃奶动态图| 久久精品国产a三级三级三级| a级毛片在线看网站| 亚洲成人手机| 精品人妻在线不人妻| 操出白浆在线播放| 亚洲欧美激情在线| 免费女性裸体啪啪无遮挡网站| 久久热在线av| 久久久精品免费免费高清| 国产麻豆69| 亚洲精品一卡2卡三卡4卡5卡| 亚洲中文av在线| 免费av中文字幕在线| 欧美+亚洲+日韩+国产| 色精品久久人妻99蜜桃| av不卡在线播放| 亚洲熟妇熟女久久| 伦理电影免费视频| 国产又色又爽无遮挡免费看| 日韩大片免费观看网站| 丝瓜视频免费看黄片| 亚洲国产欧美一区二区综合| 无限看片的www在线观看| 高清视频免费观看一区二区| 久久久久精品国产欧美久久久| 亚洲少妇的诱惑av| 成人黄色视频免费在线看| 亚洲va日本ⅴa欧美va伊人久久| 日本黄色日本黄色录像| 91大片在线观看| 91成人精品电影| 久久性视频一级片| 在线十欧美十亚洲十日本专区| 久久久久精品人妻al黑| 丰满迷人的少妇在线观看| 国产精品久久久av美女十八| 日本wwww免费看| 女同久久另类99精品国产91| 欧美精品人与动牲交sv欧美| 搡老熟女国产l中国老女人| 黄片小视频在线播放| 精品欧美一区二区三区在线| av天堂在线播放| 香蕉国产在线看| 美女国产高潮福利片在线看| 一夜夜www| 中文字幕av电影在线播放| 亚洲精品久久成人aⅴ小说| 日本vs欧美在线观看视频| 日韩中文字幕欧美一区二区| 视频在线观看一区二区三区| 岛国在线观看网站| 日本a在线网址| 啦啦啦在线免费观看视频4| 国产av一区二区精品久久| 成人国产av品久久久| 高清毛片免费观看视频网站 | 夫妻午夜视频| 国产又色又爽无遮挡免费看| 亚洲第一欧美日韩一区二区三区 | tocl精华| 激情视频va一区二区三区| 亚洲一码二码三码区别大吗| 不卡av一区二区三区| 亚洲av日韩精品久久久久久密| 国产人伦9x9x在线观看| 国产又色又爽无遮挡免费看| 久久久久国产一级毛片高清牌| 丝瓜视频免费看黄片| 日本av免费视频播放| 亚洲精品一卡2卡三卡4卡5卡| 香蕉丝袜av| 国产av国产精品国产| 久久久欧美国产精品| 亚洲精品乱久久久久久| 国产在线一区二区三区精| 久久九九热精品免费| 国产精品国产高清国产av | 国产精品亚洲av一区麻豆| 欧美日韩亚洲高清精品| 成年人黄色毛片网站| 黄色成人免费大全| 欧美精品一区二区大全| 国产精品熟女久久久久浪| 90打野战视频偷拍视频| 亚洲中文日韩欧美视频| 国产在线免费精品| 亚洲精品av麻豆狂野| 国产一卡二卡三卡精品| 亚洲精品国产色婷婷电影| 巨乳人妻的诱惑在线观看| bbb黄色大片| 999精品在线视频| 99riav亚洲国产免费| 757午夜福利合集在线观看| 国产成人精品在线电影| 大片免费播放器 马上看| 天堂动漫精品| 精品第一国产精品| 美女高潮喷水抽搐中文字幕| 久久人人爽av亚洲精品天堂| 国产一卡二卡三卡精品| 久久国产精品人妻蜜桃| 亚洲男人天堂网一区| 一级毛片电影观看| 亚洲第一av免费看| 日韩中文字幕视频在线看片| 国产又爽黄色视频| 中文字幕色久视频| 啦啦啦免费观看视频1| 亚洲国产av新网站| 国产精品影院久久| 两人在一起打扑克的视频| 天天躁夜夜躁狠狠躁躁| 在线观看免费午夜福利视频| 少妇粗大呻吟视频| 亚洲一卡2卡3卡4卡5卡精品中文| 日本黄色视频三级网站网址 | 欧美精品av麻豆av| 国产精品久久久人人做人人爽| 亚洲第一欧美日韩一区二区三区 | 国产成人av教育| 久久婷婷成人综合色麻豆| 电影成人av| 女性被躁到高潮视频| 叶爱在线成人免费视频播放| 女人爽到高潮嗷嗷叫在线视频| 国产一区二区激情短视频| av国产精品久久久久影院| 高清视频免费观看一区二区| 黄色怎么调成土黄色| 91麻豆精品激情在线观看国产 | 首页视频小说图片口味搜索| 国产成人系列免费观看| 桃花免费在线播放| av线在线观看网站| 夜夜夜夜夜久久久久| 亚洲 国产 在线| 亚洲一卡2卡3卡4卡5卡精品中文| 三上悠亚av全集在线观看| 欧美精品一区二区免费开放| 久久婷婷成人综合色麻豆| 欧美精品一区二区免费开放| 欧美 日韩 精品 国产| 如日韩欧美国产精品一区二区三区| 精品少妇一区二区三区视频日本电影| 汤姆久久久久久久影院中文字幕| 欧美成人午夜精品| 18在线观看网站| 女同久久另类99精品国产91| 欧美日韩成人在线一区二区| 蜜桃国产av成人99| 99香蕉大伊视频| 黄色 视频免费看| 麻豆国产av国片精品| 老司机靠b影院| 亚洲一卡2卡3卡4卡5卡精品中文| 好男人电影高清在线观看| 人人妻人人澡人人看| 欧美+亚洲+日韩+国产| 热99re8久久精品国产| 久久久久久人人人人人| 精品久久久久久电影网| 午夜福利视频在线观看免费| 精品午夜福利视频在线观看一区 | 色婷婷av一区二区三区视频| 丁香六月天网| 久久99热这里只频精品6学生| 男女床上黄色一级片免费看| 日日爽夜夜爽网站| 亚洲性夜色夜夜综合| 精品久久久精品久久久| 黄频高清免费视频| 亚洲一区中文字幕在线| 久久天躁狠狠躁夜夜2o2o| 久久国产精品影院| 久久午夜亚洲精品久久| 亚洲熟女毛片儿| 天堂中文最新版在线下载| 美女福利国产在线| 一本一本久久a久久精品综合妖精| 久久精品91无色码中文字幕| 久久香蕉激情| 国产精品一区二区精品视频观看| 国产免费福利视频在线观看| 欧美乱码精品一区二区三区| 国产午夜精品久久久久久| 国产精品欧美亚洲77777| 亚洲欧美精品综合一区二区三区| 19禁男女啪啪无遮挡网站| 亚洲欧洲日产国产| 国产一区二区三区视频了| 国产男女超爽视频在线观看| 777米奇影视久久| 人人妻,人人澡人人爽秒播| 91国产中文字幕| 女同久久另类99精品国产91| 最近最新免费中文字幕在线| 曰老女人黄片| 免费观看人在逋| 中文字幕av电影在线播放| 高清视频免费观看一区二区| 丰满人妻熟妇乱又伦精品不卡| 国产精品麻豆人妻色哟哟久久| 一区在线观看完整版| 在线观看免费视频日本深夜| 电影成人av| 老熟妇乱子伦视频在线观看| 国产一区二区三区在线臀色熟女 | 深夜精品福利| 日韩一卡2卡3卡4卡2021年| 侵犯人妻中文字幕一二三四区| 老司机影院毛片| xxxhd国产人妻xxx| 丁香六月天网| 在线观看免费午夜福利视频| 久久国产精品影院| 男女之事视频高清在线观看| 国产免费视频播放在线视频| 99国产精品免费福利视频| 在线播放国产精品三级| 在线观看人妻少妇| 精品熟女少妇八av免费久了| 黄网站色视频无遮挡免费观看| 日韩免费av在线播放| 麻豆国产av国片精品| 丝瓜视频免费看黄片| 一本色道久久久久久精品综合| 国产真人三级小视频在线观看| 黄色丝袜av网址大全| 99精品欧美一区二区三区四区| 黄色毛片三级朝国网站| 国产av精品麻豆| 欧美精品啪啪一区二区三区| 国产黄色免费在线视频| 欧美日韩亚洲高清精品| 一本色道久久久久久精品综合| 国产高清激情床上av| 91老司机精品| 露出奶头的视频| 日日爽夜夜爽网站| 欧美黑人欧美精品刺激| 中文字幕人妻丝袜一区二区| 亚洲精品乱久久久久久| 精品国产超薄肉色丝袜足j| 久久中文字幕人妻熟女| 久久久久久久久免费视频了| 国产精品久久久人人做人人爽| 大码成人一级视频| 精品亚洲成a人片在线观看| 99精品久久久久人妻精品| 超碰97精品在线观看| 国产精品久久久久久人妻精品电影 | 在线永久观看黄色视频| 国产成人免费观看mmmm| 不卡一级毛片| 免费看十八禁软件| 9热在线视频观看99| 免费女性裸体啪啪无遮挡网站| 精品国产国语对白av| 亚洲精品粉嫩美女一区| 青青草视频在线视频观看| kizo精华| √禁漫天堂资源中文www| 亚洲欧美色中文字幕在线| av片东京热男人的天堂| 久久久久久久大尺度免费视频| 在线观看免费日韩欧美大片| 国产精品免费视频内射| 51午夜福利影视在线观看| 天天躁日日躁夜夜躁夜夜| 成人亚洲精品一区在线观看| 国产精品电影一区二区三区 | 午夜福利在线免费观看网站| 女性被躁到高潮视频| 青草久久国产| 精品亚洲乱码少妇综合久久| 免费av中文字幕在线| 黄色视频不卡| 又黄又粗又硬又大视频| 大香蕉久久成人网| 精品亚洲成a人片在线观看| 成人18禁在线播放| 女性生殖器流出的白浆| 亚洲色图av天堂| 久久久国产成人免费| 欧美av亚洲av综合av国产av| 久久久精品94久久精品| 国产免费现黄频在线看| 国产精品一区二区精品视频观看| 操出白浆在线播放| 成年动漫av网址| xxxhd国产人妻xxx| 国产免费福利视频在线观看| 亚洲精品国产区一区二| 少妇的丰满在线观看| 欧美老熟妇乱子伦牲交| 亚洲成人手机| 1024视频免费在线观看| 99久久人妻综合| √禁漫天堂资源中文www| 岛国毛片在线播放| 老熟妇乱子伦视频在线观看| 免费在线观看黄色视频的| 亚洲国产看品久久| 亚洲精品久久午夜乱码| 久久精品国产亚洲av高清一级| 999久久久精品免费观看国产| 成人国语在线视频| 亚洲男人天堂网一区| 日韩免费高清中文字幕av| 99riav亚洲国产免费| av天堂在线播放| 成人影院久久| 国产男女超爽视频在线观看| 国产视频一区二区在线看| 国产麻豆69| 一进一出好大好爽视频| 在线观看舔阴道视频| 十八禁人妻一区二区| 自线自在国产av| 免费av中文字幕在线| 午夜福利免费观看在线| 少妇 在线观看| 菩萨蛮人人尽说江南好唐韦庄| 国产免费av片在线观看野外av| 国产成人精品久久二区二区免费| 最近最新免费中文字幕在线| 国产精品影院久久| 久久影院123| 91av网站免费观看| 亚洲精品中文字幕在线视频| 亚洲国产欧美在线一区| 欧美激情极品国产一区二区三区| 午夜激情av网站| 99热国产这里只有精品6| 久久亚洲精品不卡| 精品卡一卡二卡四卡免费| 18在线观看网站| 丝袜喷水一区| 久久99热这里只频精品6学生| 国产成人精品无人区| 国产欧美日韩一区二区三区在线| 免费久久久久久久精品成人欧美视频| 成人免费观看视频高清| 亚洲欧美日韩另类电影网站| 国产免费av片在线观看野外av| 午夜日韩欧美国产| 久久精品成人免费网站| 韩国精品一区二区三区| 男女高潮啪啪啪动态图| 国产一区二区三区在线臀色熟女 | 亚洲色图av天堂| 一区二区av电影网| 国产91精品成人一区二区三区 | 一区二区三区精品91| 欧美精品高潮呻吟av久久| 精品国内亚洲2022精品成人 | 99香蕉大伊视频| 精品人妻在线不人妻| 亚洲欧美一区二区三区久久| 久久九九热精品免费| 国产又色又爽无遮挡免费看| 成人精品一区二区免费| 18在线观看网站| 国产成人系列免费观看| 丁香六月欧美| 最近最新免费中文字幕在线| 国产亚洲精品第一综合不卡| 黄片播放在线免费| 欧美在线一区亚洲| av天堂在线播放| 精品一区二区三区av网在线观看 | 在线观看舔阴道视频| 久久午夜亚洲精品久久| 久久亚洲精品不卡| 搡老熟女国产l中国老女人| 一边摸一边抽搐一进一小说 | 久热爱精品视频在线9| 精品视频人人做人人爽| 久久久久久久精品吃奶| 老司机深夜福利视频在线观看| 中文字幕人妻丝袜制服| 老司机在亚洲福利影院| 大香蕉久久成人网| 黑人巨大精品欧美一区二区蜜桃| 色婷婷av一区二区三区视频| 久久久国产欧美日韩av| 免费久久久久久久精品成人欧美视频| 在线永久观看黄色视频| 国产成人免费无遮挡视频| 国产有黄有色有爽视频| 一级a爱视频在线免费观看| 亚洲色图 男人天堂 中文字幕| 国产在线一区二区三区精| 777米奇影视久久| 亚洲第一青青草原| 国产免费视频播放在线视频| 国产伦人伦偷精品视频| 黄色视频在线播放观看不卡| 免费人妻精品一区二区三区视频| 久久久久久人人人人人| 久久久久视频综合| 亚洲成人国产一区在线观看|