• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于稀疏自學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的句子分類模型

    2018-01-12 07:20:24高云龍左萬利
    關(guān)鍵詞:分類特征模型

    高云龍 左萬利 王 英 王 鑫

    1(吉林大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院 長(zhǎng)春 130012)

    2(符號(hào)計(jì)算與知識(shí)工程教育部重點(diǎn)實(shí)驗(yàn)室(吉林大學(xué)) 長(zhǎng)春 130012)

    3(長(zhǎng)春工程學(xué)院計(jì)算機(jī)技術(shù)與工程學(xué)院 長(zhǎng)春 130012)

    (1458299660@qq.com)

    句子是傳遞人類意見、情感等語義的一種基本的語言表示形式.在自然語言處理中,句子模型[1]是句子語義、情感分析以及句子分類的有效工具.傳統(tǒng)句子模型的構(gòu)建往往基于語言的文法(產(chǎn)生句子的規(guī)則),即句法驅(qū)動(dòng)的句子模型構(gòu)建:根據(jù)文法,構(gòu)建句子對(duì)應(yīng)的分析樹,從而理解句子的層次化結(jié)構(gòu).由于不同語言的句法通常并不一致,且一個(gè)句子的語義并非是句子各個(gè)部分語義的簡(jiǎn)單組合[2],因此句法驅(qū)動(dòng)的句子模型的構(gòu)建往往有很大的局限性.基于深度學(xué)習(xí)網(wǎng)絡(luò)構(gòu)建的句子模型,不依賴于特定語言的句法,其輸入往往為句子中每個(gè)詞的詞向量,神經(jīng)網(wǎng)絡(luò)根據(jù)其學(xué)習(xí)的特征函數(shù)從詞向量中提取特征,所提取的特征作為原始句子的高層次的抽象,可以用于句子語義分析或者句子分類.

    深度學(xué)習(xí)網(wǎng)絡(luò)在計(jì)算機(jī)視覺、語音識(shí)別等領(lǐng)域中已經(jīng)取得了巨大的成功[3];在自然語言處理領(lǐng)域,深度學(xué)習(xí)網(wǎng)絡(luò)雖然沒有取得系統(tǒng)性的突破,但也得到很多研究人員的廣泛關(guān)注[4].目前,在句子分類領(lǐng)域的大多數(shù)卷積神經(jīng)網(wǎng)絡(luò)模型(convolutional neural networks, CNNs)中,卷積層的輸入特征map是通過人工選擇的,雖然取得了較好的效果,但往往偏離最優(yōu)值.基于以上研究,本文提出一個(gè)基于稀疏自學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)(sparse and self-taught CNN, SCNN)的句子分類模型,實(shí)現(xiàn)了卷積層自動(dòng)學(xué)習(xí)輸入組合的功能,并首次應(yīng)用于句子分類問題中.主要貢獻(xiàn)包括2個(gè)方面:

    1) 在模型訓(xùn)練過程中,通過自學(xué)習(xí)策略,讓卷積層自己學(xué)習(xí)特征map的輸入組合,在一定程度上排除了人為因素的干擾;

    2) 在卷積層,利用L1范數(shù)為模型增加稀疏性約束,使得神經(jīng)元節(jié)點(diǎn)在大部分的時(shí)間內(nèi)都是處于被抑制的狀態(tài),進(jìn)而使得模型在復(fù)雜度和泛化誤差之間達(dá)到平衡.

    通過與4種基本的句子分類模型進(jìn)行對(duì)比,實(shí)驗(yàn)結(jié)果表明:在所使用的4組英文數(shù)據(jù)集中,SCNN模型可以有效地用于提取數(shù)據(jù)特征,在句子分類方面均取得較優(yōu)的效果.

    1 相關(guān)工作

    通常來講,句子模型是人類理解自然語言的重要基礎(chǔ),是計(jì)算機(jī)處理句子語義和情感分析以及句子分類等自然語言處理工作的有效工具.句子分類模型的構(gòu)建本質(zhì)上是學(xué)習(xí)語句數(shù)據(jù)所包含的特征[5],按照所提取特征的不同,本文將句子分類模型分為2種:基于語言學(xué)特征的句子分類模型和基于神經(jīng)網(wǎng)絡(luò)的句子分類模型.

    基于語言學(xué)特征的句子分類模型往往提取與語言相關(guān)的特征.大量的相關(guān)研究證明模型所學(xué)習(xí)的語言學(xué)特征對(duì)于自然語言處理能夠提供十分重要的價(jià)值[6].多年來,研究學(xué)者提出了許多類型的語言學(xué)特征. Pang等人[7]提出使用N-grams特征可以有效地識(shí)別影評(píng)的極性,其中,Unigram特征的效果最佳;Turney[8]提出5種無監(jiān)督的基于句法的句子模型,可以有效地用于提取句子的情感信息,進(jìn)而處理句子情感分類問題;Yang等人[9]提出基于語句上下文語境的模型CRF-PR,可以有效地整合局部以及全局的語句上下文信息,并利用帶有語言學(xué)特征的正則化因子訓(xùn)練CRF模型,在情感分類問題上取得較好的效果;Wang等人[10]利用詞語bigram特征訓(xùn)練NB和SVM模型,在句子或文本主題分類問題中取得一致的較好的效果;Silva等人[11]使用多組基于語言學(xué)的特征(uni-bi-trigram, wh word, head word, POS, parse, hypernyms)訓(xùn)練SVM模型,可以有效地用于問題分類.基于語言學(xué)特征的句子分類模型也存在著許多不足[12]:1)提取特征是十分費(fèi)時(shí)的,其消耗往往隨著數(shù)據(jù)集規(guī)模的變大而呈現(xiàn)指數(shù)型增加;2)模型所提取的語言學(xué)特征具有局限性,缺乏實(shí)質(zhì)性的實(shí)驗(yàn)數(shù)據(jù)表明它們對(duì)于不同類型的數(shù)據(jù)集均顯示出良好的有效性.

    近年來,一些基于數(shù)據(jù)驅(qū)動(dòng)的模型相繼被提出.其中,基于神經(jīng)網(wǎng)絡(luò)的句子分類模型將神經(jīng)網(wǎng)絡(luò)模型與分類模型進(jìn)行有效的組合,在句子分類問題上往往較傳統(tǒng)的機(jī)器學(xué)習(xí)算法或者基于語言學(xué)的句子分類模型都表現(xiàn)出良好的效果.Kim[13]首次將卷積神經(jīng)網(wǎng)絡(luò)CNN應(yīng)用到句子模型的構(gòu)建中,并提出了幾種變形;Kalchbrenner等人[14]提出一種動(dòng)態(tài)卷積神經(jīng)網(wǎng)絡(luò)(dynamic convolutional neural network, DCNN)的網(wǎng)絡(luò)模型,由一維的卷積層以及動(dòng)態(tài)的K-Max池化層構(gòu)成,卷積層采用的是廣義卷積,可以處理變長(zhǎng)的句子;Hu等人[15]利用CNN網(wǎng)絡(luò)研究句子匹配的問題,提出多個(gè)卷積層實(shí)現(xiàn)的是提取句子中不同組合的語義信息,而池化層則過濾掉置信度較低的特征;He等人[16]采用多種不同類型的卷積和池化來實(shí)現(xiàn)對(duì)句子的特征表示,并利用所學(xué)習(xí)到的特征表示構(gòu)建句子相似度模型.基于神經(jīng)網(wǎng)絡(luò)的句子分類模型由于使用詞向量數(shù)據(jù),并且不依賴于特定語言的句法,因此在不同類型的數(shù)據(jù)集或者不同的語言中都顯示出良好的擴(kuò)展性和有效性.

    2 句子分類模型SCNN框架

    Fig. 1 Structure of the SCNN model圖1 SCNN模型結(jié)構(gòu)圖

    本文提出的基于稀疏自學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)句子分類模型SCNN共有5層(不含輸入層),如圖1所示.利用Word2vec工具,將語料庫中的句子轉(zhuǎn)換為詞向量矩陣,并作為模型SCNN的輸入,卷積層在詞向量矩陣的每一行上進(jìn)行一維卷積,并采用廣義卷積,池化層采用K-Max Pooling,選擇每一行中較大的K個(gè)特征,并同時(shí)維護(hù)特征相對(duì)位置不變;第3層(卷積層)自學(xué)習(xí)前一層特征map的輸入組合,排除人為因素,同時(shí)在訓(xùn)練過程中增加稀疏性約束;第4層(池化層)輸出全連接到softmax層,利用提取的特征訓(xùn)練分類器.

    與現(xiàn)有處理句子分類的卷積神經(jīng)網(wǎng)絡(luò)模型相比,SCNN模型的第3層(卷積層)充分基于自學(xué)習(xí)和稀疏性思想,即不人為約定卷積層節(jié)點(diǎn)的輸入,通過訓(xùn)練使得節(jié)點(diǎn)可以動(dòng)態(tài)學(xué)習(xí)前一層輸入的有效組合,從而可以動(dòng)態(tài)捕獲句子范圍內(nèi)各個(gè)特征的關(guān)聯(lián).如圖1所示的SCNN模型中,訓(xùn)練結(jié)果顯示第2層的第1個(gè)特征矩陣對(duì)于第3層的2個(gè)特征map均產(chǎn)生作用,而第2個(gè)特征矩陣只對(duì)第3層的第2個(gè)特征map產(chǎn)生作用,從而使得卷積層學(xué)習(xí)到不同的特征表示.

    在圖1所示的模型中,輸入句子長(zhǎng)度s=7,其對(duì)應(yīng)的詞向量矩陣維度為4×7;第1層廣義卷積操作(卷積核維度m=2)得到該層的feature map,維度為4×8;池化層選取對(duì)應(yīng)卷積層feature map每一維的最大的K個(gè)特征,得到池化層的特征矩陣,維度為4×5;第3層(卷積層)采用稀疏自學(xué)習(xí)前一層特征矩陣的輸入組合,特征矩陣的維度為4×6;第4層(池化層)同樣選取前一層每一維度最大的K個(gè)特征,得到的特征矩陣將作為一個(gè)輸入向量輸入到softmax分類器中,從而實(shí)現(xiàn)對(duì)句子分類.

    3 構(gòu)建句子分類模型SCNN

    3.1 廣義卷積

    卷積是卷積神經(jīng)網(wǎng)絡(luò)CNN重要的特征之一.卷積層以特征map為組織結(jié)構(gòu),其中的每一個(gè)單元與前一層的局部感受野相連,利用共享的卷積核與局部感受野作卷積運(yùn)算,再經(jīng)過非線性函數(shù)(如Sigmoid,ReLU)作用,得到特征值[17]. 通常來說,卷積指的是狹義上的卷積,即對(duì)于某一句子輸入c∈s,一維卷積核k∈m,且滿足s≥m,我們得到式(1),卷積結(jié)果c′∈s-m+1:

    cj′=kTcj:j+m, 0≤j≤s-m+1.

    (1)

    為了使得卷積核可以作用到整個(gè)輸入句子向量上,包括句子邊緣上的詞,Kalchbrenner等人[14]提出一種廣義卷積運(yùn)算,也稱寬卷積.廣義卷積不要求s與m的大小關(guān)系,同時(shí)保證卷積輸出c′不為空向量.如表達(dá)式(2)所示,c′∈s+m-1,當(dāng)j<0或者j>s時(shí),cj=0:

    cj′=kTcj:j+m, -m+1≤j≤s.

    (2)

    由式(1)(2)可知,狹義卷積結(jié)果為廣義卷積結(jié)果的一個(gè)子集,廣義卷積是狹義卷積的一種擴(kuò)展,它充分考慮了各種可能存在的特征,從而最大程度上保證所提取特征的多樣性.

    一個(gè)長(zhǎng)度為s的句子對(duì)應(yīng)一個(gè)詞向量矩陣Xn ×s,其中n為句子中每個(gè)詞的詞向量長(zhǎng)度.詞向量是通過語料庫訓(xùn)練Word2vec模型得到的,設(shè)置維度n=200,對(duì)于未出現(xiàn)在語料中的詞,其詞向量采用隨機(jī)取值進(jìn)行初始化.將詞向量矩陣輸入SCNN,廣義卷積后卷積層的每一個(gè)節(jié)點(diǎn)都可以生成一個(gè)大小為n×(s+m-1)的特征map.

    3.2 稀疏自學(xué)習(xí)模型

    3.2.1 自學(xué)習(xí)特征組合

    一般而言,卷積層l的每一個(gè)節(jié)點(diǎn)與l-1層的若干節(jié)點(diǎn)相關(guān)聯(lián),通過卷積核與相關(guān)聯(lián)的節(jié)點(diǎn)的輸出特征map相卷積,再對(duì)卷積結(jié)果求和,得到其特征map,相關(guān)聯(lián)的節(jié)點(diǎn)通常是人為約定的.這樣,l層第j個(gè)輸出特征map可以表示為

    (3)

    為了排除人為因素對(duì)于最優(yōu)結(jié)果產(chǎn)生的偏移,我們嘗試讓模型在訓(xùn)練過程中自己學(xué)習(xí)最佳的輸入特征組合.參數(shù)αi j表示在得到第j個(gè)節(jié)點(diǎn)的輸出map時(shí)l-1層的第i個(gè)節(jié)點(diǎn)的貢獻(xiàn)值,得到:

    (4)

    進(jìn)一步地,我們可以將αi j表示為一組無約束的隱含參數(shù)βi j,通過使用軟最大函數(shù),我們得到:

    (5)

    在迭代優(yōu)化模型參數(shù)時(shí),需要計(jì)算參數(shù)變量的梯度.SCNN模型總誤差E對(duì)于參數(shù)αi j的導(dǎo)數(shù)為

    (6)

    其中,θl為第l層的靈敏度矩陣.

    基于鏈?zhǔn)揭?guī)則,我們進(jìn)一步可以得到誤差對(duì)于隱含參數(shù)變量βi j的導(dǎo)數(shù)為

    3.2.2 稀疏性約束

    由式(4)可知,對(duì)于l-1層的所有輸入特征map,都會(huì)在l層節(jié)點(diǎn)的輸出map中產(chǎn)生一定的貢獻(xiàn)值.為了限定只有某幾個(gè)輸入特征map是有效的,我們可以通過使用L1范數(shù)增加稀疏性限制,使得對(duì)于大部分i,有αi j=0.

    重寫誤差函數(shù)為

    (8)

    (9)

    進(jìn)一步對(duì)于βi j的導(dǎo)數(shù)為

    (10)

    所以,最終誤差函數(shù)對(duì)于βi j的梯度計(jì)算為

    (11)

    3.2.3 稀疏自學(xué)習(xí)算法描述

    基于以上分析,本文給出SCNN模型稀疏自學(xué)習(xí)算法的抽象描述:

    算法1. 稀疏自學(xué)習(xí)算法.

    輸入:特征矩陣X;

    輸出:卷積層參數(shù),包括卷積核K、偏置b、標(biāo)識(shí)矩陣β;

    初始化:隨機(jī)設(shè)置矩陣K,b,β和theta的值.

    步驟1. 設(shè)置迭代次數(shù)iter=0;

    步驟2. 將矩陣K,b,β和theta分別轉(zhuǎn)換成一維向量,并將其連接成一個(gè)長(zhǎng)向量W;

    步驟3. 根據(jù)函數(shù)1計(jì)算卷積層誤差E′和梯度向量grad;

    步驟4. 使用擬牛頓法優(yōu)化向量W;

    步驟5.iter=iter+1;

    步驟6. 如果iter<1 000,轉(zhuǎn)到步驟3;

    步驟7. 由向量W構(gòu)造矩陣K,b,β,得到該卷積層參數(shù).

    進(jìn)一步地,本文給出函數(shù)calculate_cost_grad形式化描述:

    函數(shù)1.calculate_cost_grad.

    輸入:一維向量W;

    輸出:模型誤差E′和梯度向量grad.

    步驟1. 根據(jù)式(5)計(jì)算αi j;

    步驟2. 根據(jù)式(4)計(jì)算卷積層特征矩陣Xc;

    步驟3. 計(jì)算池化層特征矩陣Xp;

    步驟4.Xout=thetaT·Xp;

    步驟6. 根據(jù)式(8)計(jì)算誤差E′;

    步驟8. 根據(jù)神經(jīng)網(wǎng)絡(luò)模型反向傳播算法計(jì)算誤差E′對(duì)于K,b,theta的導(dǎo)數(shù),并將其連接成一個(gè)長(zhǎng)梯度向量grad;

    步驟9. 返回模型誤差E′和梯度向量grad.

    4 實(shí)驗(yàn)分析

    4.1 數(shù)據(jù)集

    為了驗(yàn)證模型的有效性,本文采用如下4種標(biāo)準(zhǔn)的數(shù)據(jù)集進(jìn)行實(shí)驗(yàn),語料庫均可通過開源網(wǎng)站獲得:

    1) MRD(movie review data*http://www.cs.cornell.edu/people/pabo/movie-review-data).電影評(píng)論語料庫,每個(gè)句子作為1條影評(píng),共有正面、反面2種類別標(biāo)簽.

    2) SST(stanford sentiment treebank*http://nlp.stanford.edu/sentiment/).情感分類語料庫是MRD語料庫的擴(kuò)展,共有5種類別標(biāo)簽,分別為:very positive, positive, neutral, negative, very negative.

    3) TREC(trec question dataset*http://cogcomp.cs.illinois.edu/Data/QA/QC/).問題分類語料庫,問題標(biāo)簽共有6種(about person, location, numeric information, etc),用于將問題指定某一具體的類型.

    4) CR(customer reviews*http://www.cs.uic.edu/~liub/FBS/sentiment-analysis.html).顧客評(píng)論語料庫,關(guān)于產(chǎn)品的正面和反面的二元分類語料庫.

    語料庫相關(guān)說明和具體參數(shù)如表1所示.

    Word2vec是一款高效的用于將詞表示為詞向量的工具[18],實(shí)驗(yàn)通過使用Python爬蟲程序抓取的包含有10億數(shù)量級(jí)的英文詞語的語料庫訓(xùn)練Word2vec模型,得到詞匯的數(shù)量特征表示;卷積層非線性函數(shù)為Sigmoid;池化層K值通過10-fold交叉驗(yàn)證實(shí)驗(yàn),在按照經(jīng)驗(yàn)給出的范圍內(nèi)選擇使得泛化誤差最低的取值;優(yōu)化算法選擇擬牛頓法.

    Table 1 Specific Parameters of the Corpus表1 語料庫具體參數(shù)

    Notes:Cis number of target classes;Lis average sentence length;Nis dataset size; |V| is vocabulary size;Testis test set size (CV means there was no standard train/test split and thus 10-fold CV was used).

    4.2 實(shí)驗(yàn)結(jié)果分析

    4.2.1 池化層K值選取對(duì)模型的影響

    K-Max Pooling是Max Pooling的擴(kuò)展,用于選取特征map上最大的K個(gè)數(shù)值特征.K值選取的合適與否在一定程度上影響著實(shí)驗(yàn)的效果,通過10-fold交叉驗(yàn)證試驗(yàn)我們得到如圖2所示的實(shí)驗(yàn)結(jié)果.

    通過圖2可知,對(duì)于不同的數(shù)據(jù)集,K值對(duì)于實(shí)驗(yàn)的泛化誤差的影響并不一致:對(duì)于平均句子長(zhǎng)度為10的數(shù)據(jù)集TREC,K=8時(shí)交叉驗(yàn)證實(shí)驗(yàn)得到的泛化誤差最低;而對(duì)于平均句子長(zhǎng)度分別為18,19,20的數(shù)據(jù)集SST,CR,MRD,K=13時(shí)泛化誤差分別達(dá)到最低值.實(shí)驗(yàn)結(jié)果表明:模型所提取的特征的個(gè)數(shù)往往要受限于數(shù)據(jù)集中句子的平均長(zhǎng)度,特征個(gè)數(shù)設(shè)置過低,模型容易欠擬合,導(dǎo)致模型不能準(zhǔn)確學(xué)習(xí)數(shù)據(jù)集合中的真實(shí)規(guī)律;特征個(gè)數(shù)設(shè)置過高,則模型容易過擬合,從而造成模型的泛化能力過低.

    4.2.2 稀疏自學(xué)習(xí)與非稀疏策略對(duì)模型的影響

    本文提出的基于稀疏自學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的句子模型SCNN,旨在卷積層可以在訓(xùn)練時(shí)自己學(xué)習(xí)最佳的輸入特征map的組合,代替將前一層全部的特征map作為下一層的輸入,采用“軟”概率參數(shù)αi j作為輸入的貢獻(xiàn)值,并使用L1范數(shù)增加稀疏性限制,從而降低模型的復(fù)雜度.

    Fig. 2 Influence of K on generation error圖2 K值對(duì)于泛化誤差的影響

    模型選擇的典型方法是正則化.正則化是結(jié)構(gòu)風(fēng)險(xiǎn)最小化策略的實(shí)現(xiàn),是在經(jīng)驗(yàn)風(fēng)險(xiǎn)上加一個(gè)正則化項(xiàng)或者罰項(xiàng).SCNN模型通過使用L1范數(shù)調(diào)節(jié)模型的復(fù)雜度.其中正則化參數(shù)q可以用于選擇經(jīng)驗(yàn)風(fēng)險(xiǎn)與模型復(fù)雜度同時(shí)較小的模型.圖3顯示了q值選取的不同對(duì)于SCNN模型泛化誤差的影響.通過實(shí)驗(yàn)結(jié)果可知:當(dāng)q值較小時(shí),表現(xiàn)為SCNN模型的復(fù)雜度較低,此時(shí)SCNN模型呈現(xiàn)出欠擬合狀態(tài),所學(xué)習(xí)到的特征無法作為模型輸入的抽象表示;當(dāng)q值較大時(shí),通常表現(xiàn)為SCNN模型的復(fù)雜度較高,此時(shí)SCNN模型呈現(xiàn)出過擬合的狀態(tài),泛化能力較低,從而導(dǎo)致泛化誤差較高.

    將SCNN模型與非稀疏模型卷積網(wǎng)絡(luò)句子模型進(jìn)行對(duì)比,我們得到如圖4所示的實(shí)驗(yàn)結(jié)果:

    Fig. 4 Accuracy comparison between the models圖4 SCNN與非稀疏模型準(zhǔn)確率對(duì)比

    Fig. 5 Experimental results comparison on sentence classification of the models圖5 SCNN模型與其他句子分類模型實(shí)驗(yàn)對(duì)比

    好的特征具有不變性和可區(qū)分性[19],而人工約定卷積層輸入組合往往并不能讓模型學(xué)習(xí)到好的特征,從而偏離最優(yōu)值;SCNN在訓(xùn)練模型時(shí)(池化層K值對(duì)應(yīng)4.2.1節(jié)最優(yōu)值,正則化參數(shù)q=0.005)自學(xué)習(xí)較好的輸入特征map組合,從而更加接近最優(yōu)值,因此能在測(cè)試集上顯示出更好的泛化能力;此外,和人腦神經(jīng)網(wǎng)絡(luò)類似,稀疏性的表達(dá)往往比其他表達(dá)方式更為有效[20],SCNN通過加入稀疏性約束,可以使得在同一時(shí)刻網(wǎng)絡(luò)中大部分神經(jīng)元都處于被抑制的狀態(tài),而只有少數(shù)幾個(gè)神經(jīng)元處于被激活的狀態(tài).由圖4可知,在4組語料庫中,SCNN模型在準(zhǔn)確率方面均優(yōu)于非稀疏模型.

    在時(shí)間使用方面,實(shí)驗(yàn)結(jié)果顯示:由于非稀疏模型訓(xùn)練較少的參數(shù),時(shí)間消耗普遍低于SCNN模型,具體時(shí)間消耗情況如表2所示:

    Table 2 Time Comparison Between the Models表2 模型時(shí)間使用對(duì)比 min

    4.2.3 SCNN與其他模型比較

    本文最后將SCNN模型與其他句子分類模型進(jìn)行對(duì)比,實(shí)驗(yàn)對(duì)比折線圖如圖5所示.由實(shí)驗(yàn)結(jié)果可知,SCNN模型具有較好的泛化能力,實(shí)驗(yàn)結(jié)果優(yōu)于大部分模型.CNN-non-static[13]在模型訓(xùn)練過程中把輸入句子的詞向量矩陣作為可調(diào)參數(shù);CNN-multi-channel[13]將不可調(diào)參的輸入句子詞向量矩陣與可動(dòng)態(tài)調(diào)參的輸入句子詞向量矩陣共同作為模型的2個(gè)輸入;DCNN[14]在池化層引入動(dòng)態(tài)的K-Max pooling策略選擇K個(gè)最大的特征值.但以上3個(gè)基于神經(jīng)網(wǎng)絡(luò)的句子分類模型均是人為設(shè)置卷積層的輸入組合,SCNN模型通過稀疏自學(xué)習(xí)輸入特征map的有效組合,可以改善卷積層所提取的數(shù)值特征,從而提高了分類器的準(zhǔn)確率.SVMs[11]通過使用 uni-bi-trigrams, wh word, POS, parser 等基于語言學(xué)的特征,利用SVM模型在TREC數(shù)據(jù)集上取得較基于神經(jīng)網(wǎng)絡(luò)的句子分類模型更好的分類效果.

    5 結(jié)論和未來工作

    本文基于卷積神經(jīng)網(wǎng)絡(luò)模型之上,提出稀疏自學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)的句子分類模型SCNN,可以有效地在訓(xùn)練過程中學(xué)習(xí)輸入特征map的組合,排除人為約定因素,更好地提取數(shù)據(jù)特征,提高分類精準(zhǔn)度;此外,利用L1范數(shù)可以有效地限制模型的復(fù)雜度,從而避免欠擬合問題所帶來的負(fù)面影響.通過與其他模型進(jìn)行實(shí)驗(yàn)對(duì)比,在多組數(shù)據(jù)集上取得了較好的分類效果,驗(yàn)證了SCNN模型的有效性.

    將來,我們將進(jìn)一步考慮把從語料庫中提取的語言學(xué)特征作為先驗(yàn)知識(shí)加入到本文所提出的模型中,以充分利用兩者的優(yōu)點(diǎn)達(dá)到增強(qiáng)分類效果的目的.總的來說,本文的工作為句子分類問題提供了一個(gè)可行的解決方案,為今后的自然語言處理研究提供了新的思想和方向.

    [1] Zhang Rui, Lee H, Radev D. Dependency sensitive convolutional neural networks for modeling sentences and documents[C] //Proc of the 15th Conf of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2016: 1512-1521

    [2] Galitsky B A, De La Rosa J L, Dobrocsi G. Inferring the semantic properties of sentences by mining syntactic parse trees[J]. Data and Knowledge Engineering, 2012, 81: 21-45

    [3] Guo Yanming, Liu Yu, Oerlemans A, et al. Deep learning for visual understanding: A review[J]. Neurocomputing, 2016, 187: 27-48

    [4] Chen Xinchi, Qiu Xipeng, Zhu Chenxi, et al. Sentence modeling with gated recursive neural network[C] //Proc of Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2015: 793-798

    [5] Zhao Jingling, Zhang Huiyun, Cui Baojiang. Sentence similarity based on semantic vector model[C] //Proc of the 9th Int Conf on P2P, Parallel, Grid, Cloud and Internet Computing (3PGCIC). Piscataway, NJ: IEEE, 2014: 499-503

    [6] Chenlo J M, Losada D E. An empirical study of sentence features for subjectivity and polarity classification[J]. Information Sciences, 2014, 280: 275-288

    [7] Pang B, Lee L, Vaithyanathan S. Thumbs up?: Sentiment classification using machine learning techniques[C] //Proc of the 2nd Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2002: 79-86

    [8] Turney P D. Thumbs up or thumbs down?: Semantic orientation applied to unsupervised classification of reviews[C] //Proc of the 40th Annual Meeting on Association for Computational Linguistics. Stroudsburg, PA: ACL, 2002: 417-424

    [9] Yang Bishan, Cardie C. Context-aware learning for sentence-level sentiment analysis with posterior regularization[C] //Proc of the 52nd Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2014: 325-335

    [10] Wang Sida, Manning C D. Baselines and bigrams: Simple, good sentiment and topic classification[C] //Proc of the 50th Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2012: 90-94

    [11] Silva J, Coheur L, Mendes A C, et al. From symbolic to sub-symbolic information in question classification[J]. Artificial Intelligence Review, 2011, 35(2): 137-154

    [12] Qin Pengda, Xu Weiran, Guo Jun. An empirical convolutional neural network approach for semantic relation classification[J]. Neurocomputing, 2016, 190: 1-9

    [13] Kim Y. Convolutional neural networks for sentence classification[C] //Proc of Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2014: 1746-1751

    [14] Kalchbrenner N, Grefenstette E, Blunsom P. A convolutional neural network for modelling sentences[C] //Proc of the 52nd Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: ACL, 2014: 655-665

    [15] Hu Baotian, Lu Zhengdong, Li Hang, et al. Convolutional neural network architectures for matching natural language sentences[C/OL] //Proc of Annual Conf on Neural Infor-mation Processing Systems. 2014 [2016-09-20]. http://papers.nips.cc/paper/5550-convolutional-neural-network-architectures-for-matching-natural-language-sentences.pdf

    [16] He Hua, Gimpel K, Lin J. Multi-perspective sentence similarity modeling with convolutional neural networks[C] //Proc of Conf on Empirical Methods in Natural Language Processing. Stroudsburg, PA: ACL, 2015: 1576-1586

    [17] Zhou Kailong, Zhuo Li, Geng Zhen, et al. Convolutional neural networks based pornographic image classification[C] //Proc of the 2nd IEEE Int Conf on Multimedia Big Data. Piscataway, NJ: IEEE, 2016: 206-209

    [18] Ma Long, Zhang Yanqing. Using word2vec to process big text data[C] //Proc of IEEE Int Conf on Big Data. Piscataway, NJ: IEEE, 2015: 2895-2897

    [19] LeCun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 512(7553): 436-444

    [20] Liu Baoyuan, Wang Min, Foroosh H, et al. Sparse convolutional neural networks[C] //Proc of IEEE Conf on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE, 2015: 806-814

    猜你喜歡
    分類特征模型
    一半模型
    分類算一算
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    分類討論求坐標(biāo)
    數(shù)據(jù)分析中的分類討論
    教你一招:數(shù)的分類
    抓住特征巧觀察
    天天影视国产精品| 麻豆av在线久日| 一本色道久久久久久精品综合| 日韩一卡2卡3卡4卡2021年| 国产男人的电影天堂91| 色视频在线一区二区三区| 人妻人人澡人人爽人人| 91成人精品电影| 视频区欧美日本亚洲| 亚洲精品久久久久久婷婷小说| 久久久久久亚洲精品国产蜜桃av| 美国免费a级毛片| 亚洲午夜精品一区,二区,三区| 国产日韩欧美亚洲二区| 亚洲av美国av| 如日韩欧美国产精品一区二区三区| 熟女少妇亚洲综合色aaa.| 欧美日韩国产mv在线观看视频| 九色亚洲精品在线播放| 热99久久久久精品小说推荐| 中文字幕人妻丝袜制服| xxx大片免费视频| 青春草亚洲视频在线观看| 欧美日韩av久久| 91成人精品电影| 欧美激情极品国产一区二区三区| bbb黄色大片| 看免费av毛片| 丝袜在线中文字幕| 国产亚洲欧美在线一区二区| 美女主播在线视频| 亚洲精品久久午夜乱码| 亚洲精品国产区一区二| 久久久精品免费免费高清| 欧美在线一区亚洲| 激情五月婷婷亚洲| 欧美精品亚洲一区二区| 国产欧美日韩一区二区三 | 国产精品二区激情视频| 中文欧美无线码| 国产熟女午夜一区二区三区| 啦啦啦在线观看免费高清www| 一本综合久久免费| tube8黄色片| 久久人妻熟女aⅴ| 成人国产av品久久久| 中文精品一卡2卡3卡4更新| 国产在视频线精品| 久久国产精品男人的天堂亚洲| 少妇裸体淫交视频免费看高清 | 丰满人妻熟妇乱又伦精品不卡| 不卡av一区二区三区| 9热在线视频观看99| 青春草视频在线免费观看| 丝袜美腿诱惑在线| 国产男女内射视频| 一边摸一边做爽爽视频免费| 国产不卡av网站在线观看| 美女大奶头黄色视频| 高清av免费在线| 不卡av一区二区三区| 巨乳人妻的诱惑在线观看| 成年美女黄网站色视频大全免费| 少妇的丰满在线观看| 无限看片的www在线观看| 亚洲欧美色中文字幕在线| 丝袜美腿诱惑在线| 免费av中文字幕在线| 欧美精品亚洲一区二区| 99国产精品免费福利视频| 欧美成狂野欧美在线观看| 9色porny在线观看| 亚洲成人免费电影在线观看 | 丝袜美足系列| 99久久人妻综合| 国产高清不卡午夜福利| 91麻豆av在线| 久久久久网色| 精品视频人人做人人爽| 色精品久久人妻99蜜桃| 校园人妻丝袜中文字幕| 亚洲少妇的诱惑av| 国产精品一区二区在线观看99| 成年人黄色毛片网站| 亚洲欧美日韩高清在线视频 | 色视频在线一区二区三区| 熟女少妇亚洲综合色aaa.| 精品第一国产精品| 国产日韩欧美亚洲二区| 亚洲,欧美精品.| 成年美女黄网站色视频大全免费| 免费看十八禁软件| 日韩伦理黄色片| 国产视频首页在线观看| 午夜91福利影院| 无限看片的www在线观看| 黄网站色视频无遮挡免费观看| 丝瓜视频免费看黄片| 精品亚洲乱码少妇综合久久| 国产av一区二区精品久久| 最近最新中文字幕大全免费视频 | 精品少妇一区二区三区视频日本电影| 国产精品香港三级国产av潘金莲 | 亚洲一区中文字幕在线| 女人被躁到高潮嗷嗷叫费观| 欧美日本中文国产一区发布| 亚洲av国产av综合av卡| 黄片播放在线免费| 久久久久久免费高清国产稀缺| 在线精品无人区一区二区三| 久久99精品国语久久久| 少妇人妻 视频| 精品久久久久久电影网| 一本色道久久久久久精品综合| 亚洲情色 制服丝袜| 在线 av 中文字幕| 中文字幕制服av| 国产91精品成人一区二区三区 | 免费在线观看日本一区| 老司机靠b影院| 亚洲精品美女久久久久99蜜臀 | 999久久久国产精品视频| 宅男免费午夜| 国产三级黄色录像| av网站免费在线观看视频| 视频区图区小说| 久久影院123| 国产黄色视频一区二区在线观看| 嫩草影视91久久| 免费在线观看完整版高清| 亚洲七黄色美女视频| av福利片在线| 久久久久久久久免费视频了| 97人妻天天添夜夜摸| 亚洲av成人不卡在线观看播放网 | 色94色欧美一区二区| 香蕉国产在线看| 久久久精品94久久精品| 在现免费观看毛片| 午夜福利视频在线观看免费| 欧美在线黄色| 一二三四社区在线视频社区8| 国产免费现黄频在线看| 日韩大码丰满熟妇| 可以免费在线观看a视频的电影网站| 啦啦啦在线免费观看视频4| 亚洲中文字幕日韩| 免费少妇av软件| 亚洲av日韩精品久久久久久密 | 国产高清videossex| 国产老妇伦熟女老妇高清| 伊人久久大香线蕉亚洲五| 亚洲国产精品999| 久久久亚洲精品成人影院| 国产精品亚洲av一区麻豆| 制服人妻中文乱码| 精品亚洲成a人片在线观看| 国产精品 国内视频| 人人妻人人添人人爽欧美一区卜| 国产亚洲av片在线观看秒播厂| 欧美精品一区二区大全| 热re99久久国产66热| 精品国产一区二区三区四区第35| 亚洲人成电影免费在线| 97人妻天天添夜夜摸| 精品人妻熟女毛片av久久网站| 99热网站在线观看| 麻豆乱淫一区二区| 黄频高清免费视频| 国产99久久九九免费精品| 久久久国产欧美日韩av| 亚洲天堂av无毛| 一级毛片我不卡| 国产主播在线观看一区二区 | 国产野战对白在线观看| 中文欧美无线码| netflix在线观看网站| 久久精品aⅴ一区二区三区四区| 成人手机av| 午夜91福利影院| 考比视频在线观看| 两人在一起打扑克的视频| 777久久人妻少妇嫩草av网站| 欧美老熟妇乱子伦牲交| 女人精品久久久久毛片| 亚洲精品国产区一区二| 日韩人妻精品一区2区三区| 国产99久久九九免费精品| 欧美精品高潮呻吟av久久| 丝袜人妻中文字幕| 夜夜骑夜夜射夜夜干| 另类亚洲欧美激情| 少妇的丰满在线观看| 丰满饥渴人妻一区二区三| 夫妻性生交免费视频一级片| 亚洲国产精品一区三区| www.自偷自拍.com| 18在线观看网站| 精品卡一卡二卡四卡免费| avwww免费| 日本午夜av视频| 女性被躁到高潮视频| 中文字幕人妻丝袜一区二区| 一边亲一边摸免费视频| 亚洲精品国产av蜜桃| 国产女主播在线喷水免费视频网站| 黄片播放在线免费| 一区二区日韩欧美中文字幕| 亚洲av男天堂| 欧美成人精品欧美一级黄| 黄频高清免费视频| 人人妻人人爽人人添夜夜欢视频| 又大又黄又爽视频免费| 99热全是精品| 99国产精品一区二区蜜桃av | 国产精品一区二区在线观看99| 婷婷丁香在线五月| 久久久精品区二区三区| 美女大奶头黄色视频| 久久99热这里只频精品6学生| 国产精品麻豆人妻色哟哟久久| 国产精品偷伦视频观看了| 夜夜骑夜夜射夜夜干| 高清视频免费观看一区二区| 免费久久久久久久精品成人欧美视频| 亚洲精品国产av蜜桃| a级毛片在线看网站| 少妇猛男粗大的猛烈进出视频| 日韩电影二区| 一本—道久久a久久精品蜜桃钙片| 黄网站色视频无遮挡免费观看| 免费观看人在逋| 日本av手机在线免费观看| 天天影视国产精品| 国产成人免费观看mmmm| 中文字幕制服av| 一级,二级,三级黄色视频| 亚洲欧美一区二区三区久久| 一二三四社区在线视频社区8| 又粗又硬又长又爽又黄的视频| 久久久久久人人人人人| 久久99精品国语久久久| 黄色视频在线播放观看不卡| 中文字幕人妻丝袜制服| 午夜日韩欧美国产| 99re6热这里在线精品视频| 精品欧美一区二区三区在线| 女人高潮潮喷娇喘18禁视频| 香蕉国产在线看| 一边摸一边抽搐一进一出视频| 成人免费观看视频高清| 国产日韩一区二区三区精品不卡| 一区福利在线观看| 久久久久久亚洲精品国产蜜桃av| 自线自在国产av| 最新的欧美精品一区二区| 2021少妇久久久久久久久久久| 国产伦理片在线播放av一区| 午夜激情久久久久久久| 亚洲少妇的诱惑av| 又大又黄又爽视频免费| 悠悠久久av| 亚洲精品自拍成人| 热99国产精品久久久久久7| 国产欧美亚洲国产| 久久久久久久精品精品| 国产伦理片在线播放av一区| 伦理电影免费视频| 国产淫语在线视频| 爱豆传媒免费全集在线观看| videos熟女内射| 亚洲熟女精品中文字幕| 啦啦啦啦在线视频资源| 国产精品国产三级专区第一集| 欧美性长视频在线观看| 精品国产一区二区三区久久久樱花| 50天的宝宝边吃奶边哭怎么回事| 免费看不卡的av| 一本—道久久a久久精品蜜桃钙片| 久久久久久人人人人人| 一区在线观看完整版| 又紧又爽又黄一区二区| 日韩人妻精品一区2区三区| 夜夜骑夜夜射夜夜干| www.av在线官网国产| 激情五月婷婷亚洲| 赤兔流量卡办理| 爱豆传媒免费全集在线观看| 日本91视频免费播放| 亚洲人成电影免费在线| 精品国产超薄肉色丝袜足j| 男的添女的下面高潮视频| 99九九在线精品视频| 看免费成人av毛片| 久久久久久久精品精品| 亚洲久久久国产精品| 丰满人妻熟妇乱又伦精品不卡| 欧美精品高潮呻吟av久久| 国产麻豆69| 女人被躁到高潮嗷嗷叫费观| 亚洲一卡2卡3卡4卡5卡精品中文| 亚洲中文字幕日韩| 又大又爽又粗| 日韩一区二区三区影片| 国产成人影院久久av| 在线 av 中文字幕| 久久99一区二区三区| 午夜日韩欧美国产| 老司机影院毛片| 久久99热这里只频精品6学生| 宅男免费午夜| 欧美久久黑人一区二区| 熟女av电影| 欧美另类一区| 亚洲人成网站在线观看播放| 欧美少妇被猛烈插入视频| 精品一区二区三卡| 爱豆传媒免费全集在线观看| 97在线人人人人妻| 国产一区二区在线观看av| 每晚都被弄得嗷嗷叫到高潮| 后天国语完整版免费观看| 欧美成人午夜精品| 免费高清在线观看视频在线观看| 黄网站色视频无遮挡免费观看| 国产精品 国内视频| 女性被躁到高潮视频| 免费观看av网站的网址| 不卡av一区二区三区| 久久精品人人爽人人爽视色| 久久ye,这里只有精品| 中文字幕制服av| 国产免费现黄频在线看| 看十八女毛片水多多多| 日韩一本色道免费dvd| 人人妻人人澡人人看| 久热爱精品视频在线9| 成在线人永久免费视频| 伦理电影免费视频| 女人高潮潮喷娇喘18禁视频| 又大又爽又粗| 日本av手机在线免费观看| 欧美精品高潮呻吟av久久| 国产精品秋霞免费鲁丝片| 欧美性长视频在线观看| 在线精品无人区一区二区三| 久久这里只有精品19| 亚洲午夜精品一区,二区,三区| 啦啦啦 在线观看视频| 国产成人91sexporn| 老司机亚洲免费影院| 在线精品无人区一区二区三| 首页视频小说图片口味搜索 | 成在线人永久免费视频| 欧美少妇被猛烈插入视频| 嫩草影视91久久| 亚洲精品自拍成人| 9191精品国产免费久久| 亚洲第一青青草原| 99热网站在线观看| 亚洲中文字幕日韩| 国产免费现黄频在线看| www.熟女人妻精品国产| 女人高潮潮喷娇喘18禁视频| 国产精品成人在线| 国产精品熟女久久久久浪| 亚洲成av片中文字幕在线观看| 亚洲免费av在线视频| 久久久久久免费高清国产稀缺| 男女下面插进去视频免费观看| 国产精品久久久久成人av| 免费观看人在逋| 2021少妇久久久久久久久久久| 51午夜福利影视在线观看| 免费日韩欧美在线观看| 亚洲国产欧美一区二区综合| 黄色视频在线播放观看不卡| 亚洲人成电影观看| 免费看av在线观看网站| 18禁黄网站禁片午夜丰满| 丝瓜视频免费看黄片| 天天躁日日躁夜夜躁夜夜| 老司机影院毛片| 一本久久精品| 亚洲av日韩在线播放| 免费日韩欧美在线观看| 亚洲激情五月婷婷啪啪| 国产精品一二三区在线看| 两性夫妻黄色片| 丝袜在线中文字幕| 又大又黄又爽视频免费| 亚洲成人免费av在线播放| 久久久久国产一级毛片高清牌| 国产精品久久久av美女十八| 欧美中文综合在线视频| 国产一卡二卡三卡精品| 啦啦啦中文免费视频观看日本| 国产在线免费精品| av电影中文网址| 国产亚洲精品久久久久5区| 欧美精品啪啪一区二区三区 | 国产精品偷伦视频观看了| 国产精品久久久久久精品古装| 国产一区二区三区av在线| 999精品在线视频| 亚洲天堂av无毛| 天天躁夜夜躁狠狠躁躁| 一本—道久久a久久精品蜜桃钙片| 国产日韩欧美在线精品| 亚洲欧洲精品一区二区精品久久久| 尾随美女入室| 午夜福利视频精品| 性色av乱码一区二区三区2| 亚洲午夜精品一区,二区,三区| 日韩av不卡免费在线播放| 久久久久国产精品人妻一区二区| 国产精品一国产av| 狠狠精品人妻久久久久久综合| 国产一区二区在线观看av| 丝袜喷水一区| 欧美少妇被猛烈插入视频| 午夜福利,免费看| 两个人看的免费小视频| 国产三级黄色录像| 欧美人与性动交α欧美软件| 亚洲激情五月婷婷啪啪| 欧美 日韩 精品 国产| 黄色片一级片一级黄色片| 日本五十路高清| 91麻豆av在线| 18禁国产床啪视频网站| 国产av国产精品国产| 天天添夜夜摸| 黄色视频在线播放观看不卡| 久久99精品国语久久久| 亚洲 国产 在线| av片东京热男人的天堂| 日韩电影二区| 欧美日韩视频高清一区二区三区二| av有码第一页| 欧美国产精品va在线观看不卡| 亚洲国产欧美一区二区综合| 999精品在线视频| 国产精品秋霞免费鲁丝片| 亚洲欧美色中文字幕在线| 国产精品欧美亚洲77777| 深夜精品福利| 午夜91福利影院| 永久免费av网站大全| 久久久久国产精品人妻一区二区| 精品少妇黑人巨大在线播放| 日日摸夜夜添夜夜爱| 中文字幕另类日韩欧美亚洲嫩草| 欧美日韩精品网址| 麻豆国产av国片精品| 日韩制服丝袜自拍偷拍| 一边亲一边摸免费视频| 久久精品国产亚洲av涩爱| 国产免费一区二区三区四区乱码| 男女免费视频国产| 啦啦啦啦在线视频资源| 99热网站在线观看| 考比视频在线观看| 高清不卡的av网站| 中文字幕人妻丝袜制服| 国产视频一区二区在线看| 波多野结衣一区麻豆| 男女午夜视频在线观看| 多毛熟女@视频| 十八禁网站网址无遮挡| 一本大道久久a久久精品| 男女下面插进去视频免费观看| 黄网站色视频无遮挡免费观看| 黄色片一级片一级黄色片| 国产又爽黄色视频| 国产精品一区二区免费欧美 | 七月丁香在线播放| 一区二区日韩欧美中文字幕| 国产av国产精品国产| 免费女性裸体啪啪无遮挡网站| 久久国产精品影院| 午夜老司机福利片| 天天影视国产精品| 91老司机精品| 99国产综合亚洲精品| 狂野欧美激情性bbbbbb| 最黄视频免费看| 亚洲国产毛片av蜜桃av| 国产精品一区二区免费欧美 | 可以免费在线观看a视频的电影网站| 午夜福利一区二区在线看| 日日夜夜操网爽| 欧美日韩亚洲综合一区二区三区_| 欧美日韩精品网址| 国产极品粉嫩免费观看在线| 久久精品国产a三级三级三级| 国产成人av教育| www.自偷自拍.com| 国产精品 欧美亚洲| 国产成人一区二区在线| 青青草视频在线视频观看| 亚洲,欧美精品.| 99久久99久久久精品蜜桃| 天天躁夜夜躁狠狠久久av| 亚洲国产成人一精品久久久| 亚洲综合色网址| 亚洲成av片中文字幕在线观看| 一本综合久久免费| 国产黄频视频在线观看| 丝袜喷水一区| 精品一区二区三区av网在线观看 | 精品国产一区二区三区四区第35| 黄色怎么调成土黄色| 狠狠婷婷综合久久久久久88av| 午夜两性在线视频| 操美女的视频在线观看| a级片在线免费高清观看视频| 午夜日韩欧美国产| 1024视频免费在线观看| 亚洲精品一区蜜桃| 制服人妻中文乱码| 欧美激情高清一区二区三区| 久久久久久免费高清国产稀缺| 在线av久久热| 中文字幕人妻丝袜一区二区| 欧美性长视频在线观看| 欧美人与性动交α欧美精品济南到| 无遮挡黄片免费观看| 久久综合国产亚洲精品| 国产亚洲精品久久久久5区| 久久久精品区二区三区| 各种免费的搞黄视频| 亚洲久久久国产精品| 99国产精品一区二区三区| 国产精品一国产av| 欧美在线黄色| 黄色毛片三级朝国网站| 久久久亚洲精品成人影院| 国产深夜福利视频在线观看| 国产高清videossex| 成在线人永久免费视频| 国产亚洲一区二区精品| 久久久久国产一级毛片高清牌| 国产欧美日韩精品亚洲av| 亚洲精品日本国产第一区| 成人黄色视频免费在线看| 国产真人三级小视频在线观看| 啦啦啦中文免费视频观看日本| 99国产精品一区二区蜜桃av | 国产精品三级大全| 亚洲成色77777| 久久人人爽人人片av| 久久久久久亚洲精品国产蜜桃av| 国产精品二区激情视频| 中文乱码字字幕精品一区二区三区| 99精品久久久久人妻精品| 日韩精品免费视频一区二区三区| 啦啦啦在线免费观看视频4| 美女大奶头黄色视频| 久久精品国产a三级三级三级| 久久午夜综合久久蜜桃| 免费观看人在逋| 老司机靠b影院| www.精华液| 天天添夜夜摸| 免费看av在线观看网站| 亚洲综合色网址| 性高湖久久久久久久久免费观看| 少妇 在线观看| 久久久久久亚洲精品国产蜜桃av| 91精品三级在线观看| 亚洲国产精品成人久久小说| 人人妻人人澡人人看| 国产91精品成人一区二区三区 | 99九九在线精品视频| 久久性视频一级片| 午夜影院在线不卡| 国产1区2区3区精品| 免费看十八禁软件| 少妇精品久久久久久久| 啦啦啦视频在线资源免费观看| 母亲3免费完整高清在线观看| 成人国产一区最新在线观看 | 国产成人精品在线电影| 激情视频va一区二区三区| 午夜激情久久久久久久| 国产精品一区二区在线观看99| 韩国高清视频一区二区三区| av网站在线播放免费| 亚洲av电影在线进入| 亚洲熟女毛片儿| 可以免费在线观看a视频的电影网站| 黄色一级大片看看| 国产亚洲av高清不卡| 国产精品人妻久久久影院| 在线天堂中文资源库| 日韩 亚洲 欧美在线| 操美女的视频在线观看| 捣出白浆h1v1| 欧美精品亚洲一区二区| kizo精华| 色婷婷久久久亚洲欧美| 国产成人一区二区三区免费视频网站 | 国产精品久久久av美女十八| 在线观看国产h片| 大话2 男鬼变身卡| 久久精品国产a三级三级三级| 欧美日韩视频高清一区二区三区二| 精品福利永久在线观看| 女人高潮潮喷娇喘18禁视频| 免费在线观看日本一区| 亚洲精品日韩在线中文字幕| 久久国产精品男人的天堂亚洲| 色播在线永久视频| 亚洲熟女精品中文字幕|