• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于特征選擇和深度信念網(wǎng)絡(luò)的文本情感分類算法

    2019-09-04 10:14:27向進(jìn)勇楊文忠吾守爾斯拉木
    計(jì)算機(jī)應(yīng)用 2019年7期
    關(guān)鍵詞:特征選擇深度學(xué)習(xí)

    向進(jìn)勇 楊文忠 吾守爾?斯拉木

    摘 要:由于人類語(yǔ)言的復(fù)雜性,文本情感分類算法大多都存在因?yàn)槿哂喽斐傻脑~匯量過(guò)大的問題。深度信念網(wǎng)絡(luò)(DBN)通過(guò)學(xué)習(xí)輸入語(yǔ)料中的有用信息以及它的幾個(gè)隱藏層來(lái)解決這個(gè)問題。然而對(duì)于大型應(yīng)用程序來(lái)說(shuō),DBN是一個(gè)耗時(shí)且計(jì)算代價(jià)昂貴的算法。針對(duì)這個(gè)問題,提出了一種半監(jiān)督的情感分類算法,即基于特征選擇和深度信念網(wǎng)絡(luò)的文本情感分類算法(FSDBN)。首先使用特征選擇方法(文檔頻率(DF)、信息增益(IG)、卡方統(tǒng)計(jì)(CHI)、互信息(MI))過(guò)濾掉一些不相關(guān)的特征從而使詞匯表的復(fù)雜性降低;然后將特征選擇的結(jié)果輸入到DBN中,使得DBN的學(xué)習(xí)階段更加高效。將所提算法應(yīng)用到中文以及維吾爾語(yǔ)中,實(shí)驗(yàn)結(jié)果表明在酒店評(píng)論數(shù)據(jù)集上,F(xiàn)SDBN在準(zhǔn)確率方面比DBN提高了1.6%,在訓(xùn)練時(shí)間上比DBN縮短一半。

    關(guān)鍵詞:深度信念網(wǎng)絡(luò);深度學(xué)習(xí);特征選擇;半監(jiān)督的情感分類算法;受限波爾茲曼機(jī);文本情感分類

    中圖分類號(hào): TP391.1

    文獻(xiàn)標(biāo)志碼:A

    英文標(biāo)題

    Text sentiment classification algorithm based on feature selection and deep belief network

    英文作者名

    XIANG Jinyong1,2, YANG Wenzhong1*, SILAMU·Wushouer2第三作者的名字書寫,與文后文獻(xiàn)17的寫法不同,此處表述是否正確?請(qǐng)核實(shí)。英文作者的書寫,在落款中,是姓氏大寫,名字要小寫,照此規(guī)定,中文姓名中,哪個(gè)是姓氏,哪個(gè)是名字,也請(qǐng)明確。回復(fù):維吾爾族姓名中點(diǎn)后面的是父親的名字

    英文地址(

    Abstract: Because of the complexity of human language, text sentiment classification algorithms mostly have the problem of excessively huge vocabulary due to redundancy. Deep Belief Network (DBN) can solve this problem by learning useful information in the input corpus and its hidden layers. However, DBN is a time-consuming and computationally expensive algorithm for large applications. Aiming at this problem, a semi-supervised sentiment classification algorithm called text sentiment classification algorithm based on Feature Selection and Deep Belief Network (FSDBN) was proposed. Firstly, the feature selection methods including Document Frequency (DF), Information Gain (IG), CHI-square statistics (CHI) and Mutual Information (MI) were used to filter out some irrelevant features to reduce the complexity of vocabulary. Then, the results of feature selection were input into DBN to make the learning phase of DBN more efficient. The proposed algorithm was applied to Chinese and Uygur language. The experimental results on hotel review dataset show that the accuracy of FSDBN is 1.6% higher than that of DBN and the training time of FSDBN halves that of DBN.

    Key words: Deep Belief Network (DBN); Deep Learning (DL); Feature Selection (FS); semi-supervised sentiment classification algorithm; Restricted Boltzmann Machine (RBM); text sentiment classification

    0 引言

    如今,互聯(lián)網(wǎng)上社交媒體的數(shù)據(jù)量大幅度增長(zhǎng)。個(gè)人和組織試圖從這些大型數(shù)據(jù)集中提取有用的信息,以便作出更好的判斷并提高客戶滿意度。例如,在決定是否購(gòu)買產(chǎn)品或服務(wù)之前,客戶會(huì)查看其他人對(duì)產(chǎn)品的評(píng)論。同樣,產(chǎn)品的制造商也使用這些信息來(lái)提高產(chǎn)品的服務(wù)和質(zhì)量。然而,由于網(wǎng)絡(luò)上有大量的可用數(shù)據(jù),人們手工的去標(biāo)注這些數(shù)據(jù)是不現(xiàn)實(shí)的,因此,文本情感分類(確定文檔中表達(dá)的情緒是積極的、中立的還是消極的)將對(duì)商業(yè)智能應(yīng)用程序、推薦系統(tǒng)和消息過(guò)濾應(yīng)用程序有幫助和益處。

    為了構(gòu)建一個(gè)準(zhǔn)確的情感性分類器,在過(guò)去的幾年里,許多研究者嘗試將深度學(xué)習(xí)算法與機(jī)器學(xué)習(xí)算法相結(jié)合[1-4]。深度學(xué)習(xí)算法具有處理數(shù)百萬(wàn)個(gè)參數(shù)的能力,可以極大地提高模型預(yù)測(cè)的能力。其中一個(gè)典型的例子是Socher等[4]提出的基于情感樹的遞歸神經(jīng)網(wǎng)絡(luò)訓(xùn)練,它能準(zhǔn)確預(yù)測(cè)文本情感,準(zhǔn)確率達(dá)85%以上;然而在有監(jiān)督訓(xùn)練方法中需要大量的標(biāo)記訓(xùn)練數(shù)據(jù),手工標(biāo)記這些數(shù)據(jù)常常是困難和費(fèi)時(shí)的。

    文獻(xiàn)[5]中提出了半監(jiān)督學(xué)習(xí)的新方法,它的目的是利用大量的未標(biāo)記數(shù)據(jù)和標(biāo)記數(shù)據(jù)構(gòu)建文本情感分類器。文獻(xiàn)[6]稱半監(jiān)督深度學(xué)習(xí)模型可以在獲得良好的性能的同時(shí)避免上述問題。然而目前的深度學(xué)習(xí)算法對(duì)于大型應(yīng)用程序來(lái)說(shuō)計(jì)算成本很高。

    此外,大多數(shù)分類算法使用固定大小的數(shù)字特征向量作為輸入,而不是使用原始的變長(zhǎng)文本文檔,因此,有必要將一個(gè)文檔語(yǔ)料庫(kù)轉(zhuǎn)換為一個(gè)矩陣,每個(gè)文檔表示一行,每個(gè)詞語(yǔ)表示一列,每一列表示詞語(yǔ)在語(yǔ)料庫(kù)中發(fā)生的情況。由于人類語(yǔ)言的復(fù)雜性,特征項(xiàng)的維度可能超過(guò)1萬(wàn)維度,而其中大多數(shù)是嘈雜的或冗余的。這將導(dǎo)致分類錯(cuò)誤的數(shù)量和計(jì)算時(shí)間的增加。

    為了克服上述缺陷,使學(xué)習(xí)階段更高效、更準(zhǔn)確,必須進(jìn)行有效的特征選擇,其目的是過(guò)濾訓(xùn)練集中出現(xiàn)的非必要特征項(xiàng),只選擇有意義的特征項(xiàng)。Forman[7]提出了多種特征選擇的方法。結(jié)果表明,采用特征選擇方法可以通過(guò)消除噪聲特征來(lái)減少輸入數(shù)據(jù)的維數(shù),從而提高分類算法的性能,因此,本文提出的方法可以更快地訓(xùn)練出分類模型,減少內(nèi)存消耗,并得到更高的結(jié)果精度。

    1 相關(guān)工作

    在本章中,介紹相關(guān)特征選擇算法和半監(jiān)督深度學(xué)習(xí)的理論背景。

    1.1 特征選擇

    特征選擇是通過(guò)選擇相關(guān)特征的子集來(lái)簡(jiǎn)化模型構(gòu)建的過(guò)程。它有兩個(gè)主要角色:第一個(gè)作用是通過(guò)減少詞匯輸入的大小來(lái)提高分類器的訓(xùn)練過(guò)程的效率;第二個(gè)作用是通過(guò)過(guò)濾不重要的術(shù)語(yǔ)或噪聲特征來(lái)提高預(yù)測(cè)精度,因此,可以縮短訓(xùn)練時(shí)間,也可以得到更好的模型表示。特征選擇是一種比較常用的特征維數(shù)約減的方法,選擇出更具有代表特征。特征選擇的好壞對(duì)情感文本分類的效果有很大的影響。

    基本上,特征選擇技術(shù)可以分為三類:過(guò)濾技術(shù)、包裝技術(shù)和嵌入技術(shù)。在學(xué)習(xí)算法之前,使用基于過(guò)濾的技術(shù)作為預(yù)處理步驟。根據(jù)一些標(biāo)準(zhǔn)對(duì)特征進(jìn)行排序,如果它們的分?jǐn)?shù)超過(guò)適當(dāng)?shù)念A(yù)先定義的閾值,就會(huì)進(jìn)行選擇。包裝器技術(shù)使用一種學(xué)習(xí)算法來(lái)選擇和評(píng)估所有特性中的一個(gè)子集。嵌入式技術(shù)作為訓(xùn)練過(guò)程的一部分進(jìn)行特征選擇。

    在這三種類型中,基于過(guò)濾的方法是最適合的,因?yàn)樗?jiǎn)單、快速,并且獨(dú)立于分類器。它具有良好的可擴(kuò)展性,可以有效地應(yīng)用于大型應(yīng)用。文獻(xiàn)[8-9]對(duì)特征選擇的方法進(jìn)行了研究,基于過(guò)濾器的技術(shù)有文檔頻率(Document Frequency, DF)[9-10]、信息增益(Information Gain, IG)[10]、卡方統(tǒng)計(jì)(CHI-square statistics, CHI)[11-12]、互信息(Mutual Information, MI)[13]等,在所有特征選擇算法中,本文使用文檔頻率、信息增益、卡方統(tǒng)計(jì)、互信息作為基于特征選擇和深度信念網(wǎng)絡(luò)的文本情感分類算法(text sentiment classification algorithm based on Feature Selection and Deep Belief Network, FSDBN)框架中的特征選擇方法,用實(shí)驗(yàn)證明哪種特征選擇方法與深度信念網(wǎng)絡(luò)(Deep Belief Network, DBN)結(jié)合可以取得最好的文本情感分類效果。

    1.1.1 文檔頻率

    文檔頻率方法的基本思想是:統(tǒng)計(jì)每個(gè)詞的文檔頻率值,根據(jù)預(yù)先設(shè)定的最小文檔頻率值以及最大的文檔頻率值來(lái)除去一些沒有代表的特征,如果特征t的文檔頻率值在最小和最大閾值之間,則保留此特征t;否則就刪去此特征。這種方法理解與實(shí)現(xiàn)起來(lái)比較簡(jiǎn)單,適用于大規(guī)模數(shù)據(jù)集,閾值的設(shè)定可能會(huì)影響到特征選擇的效果,從而影響到文本分類的效果。

    1.1.2 信息增益

    信息增益(IG)能夠度量某個(gè)特征包含類別信息的多少,一個(gè)特征詞的信息增益等于該特征出現(xiàn)前后的信息熵之差,通常會(huì)對(duì)某一文檔、類別或是整個(gè)數(shù)據(jù)集來(lái)計(jì)算,根據(jù)IG方法的定義,某個(gè)特征的信息增益越大說(shuō)明該特征對(duì)于分類就越重要。

    信息增益的公式(1)如下,針對(duì)某個(gè)具體的類別ci,對(duì)于特征t的信息增益如式(1):

    其中表示特征t不出現(xiàn),那么特征t對(duì)于整個(gè)訓(xùn)練集的信息增益如式(2):

    1.1.3 卡方統(tǒng)計(jì)

    卡方統(tǒng)計(jì)(CHI)能表示兩個(gè)變量的相關(guān)性,CHI兼顧了特征存在與特征不存在時(shí)的情況。根據(jù)CHI的定義以及公式可知特征與類別的CHI值越大,就表示這個(gè)特征就越重要。

    文獻(xiàn)[10]分別根據(jù)卡方統(tǒng)計(jì)(CHI)以及互信息(MI)的特征選擇方法給語(yǔ)料中的中文特征詞賦予了一定的權(quán)重。

    有的研究人員也使用了改進(jìn)的卡方特征選擇技術(shù)[12]來(lái)避免卡方統(tǒng)計(jì)量的缺點(diǎn)“低頻詞缺陷問題”(它只統(tǒng)計(jì)文檔是否出現(xiàn)詞而不管出現(xiàn)幾次)。這會(huì)使得它對(duì)低頻詞有所偏袒(因?yàn)樗浯罅说皖l詞的作用),甚至它會(huì)出現(xiàn)一些情況,一個(gè)詞在一類文章的每篇文檔中只出現(xiàn)一次,其卡方值卻大過(guò)了在該類文章99%的文檔中出現(xiàn)了10次的詞,其實(shí)后面的詞才是更具代表性的,但只因?yàn)樗霈F(xiàn)的文檔數(shù)比前面的文檔中詞少了“1”,特征選擇的時(shí)候就可能篩掉后面的詞而保留前者)。

    1.1.4 互信息

    互信息(MI)是信息論中的一個(gè)概念,表示的是一個(gè)隨機(jī)變量中包含另一個(gè)隨機(jī)變量的信息量。在文本情感分析任務(wù)中,特征項(xiàng)跟情感類別之間的互信息量可以表示特征項(xiàng)推測(cè)出情感類別的能力,若特征項(xiàng)與情感類別的互信息為0,這就可以表示特征項(xiàng)不包含任何的特征信息,對(duì)文本情感分類沒有任何的貢獻(xiàn)。如果互信息越大,表示特征項(xiàng)包含的情感信息越大,類別間的區(qū)分程度也就越大。特征項(xiàng)t與情感類別C之間的互信息量計(jì)算公式(4)如下:

    不管使用什么樣的特征選擇技術(shù),最終的目的就是減少特征的空間,消除噪聲從而提高分類器的性能。本文使用這四種特征選擇方法與深度信念網(wǎng)絡(luò)結(jié)合實(shí)現(xiàn)半監(jiān)督的文本情感分類。

    1.2 半監(jiān)督深度學(xué)習(xí)

    半監(jiān)督深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,它利用少量的標(biāo)記數(shù)據(jù)和大量的未標(biāo)記數(shù)據(jù)。半監(jiān)督深度學(xué)習(xí)算法的一個(gè)著名例子是深度信念網(wǎng)絡(luò)(DBN),它是由Hinton等最近提出的。DBN是由限制玻爾茲曼機(jī)(Restricted Boltzmann Machine, RBM)構(gòu)造的許多隱藏層組成的。該模型利用大量未標(biāo)注數(shù)據(jù),克服領(lǐng)域依賴和缺乏標(biāo)注數(shù)據(jù)缺陷,同時(shí)獲得良好的性能[14]。

    1.2.1 受限玻爾茲曼機(jī)

    受限玻爾茲曼機(jī)(Restricted Boltzmann Machine, RBM)是一種基于能量的生成隨機(jī)模型,其目標(biāo)是了解其輸入集的概率分布。它由一個(gè)輸入層(可見層)和一個(gè)隱藏層組成,通過(guò)對(duì)稱加權(quán)連接,但同一層神經(jīng)元之間沒有連接。圖1顯示了RBM的網(wǎng)絡(luò)模型。

    為了訓(xùn)練一個(gè)網(wǎng)絡(luò)模型,最廣泛使用的算法被稱為對(duì)比散度(Contrastive Divergence, CD)。訓(xùn)練RBM的目的是優(yōu)化網(wǎng)絡(luò)中的權(quán)向量,以最小化誤差。為了在盡可能保持輸入數(shù)據(jù)分布的同時(shí)降低網(wǎng)絡(luò)的能量,在訓(xùn)練數(shù)據(jù)的對(duì)數(shù)似然時(shí)應(yīng)用了隨機(jī)梯度上升,關(guān)于方程的更多細(xì)節(jié)可以參閱文獻(xiàn)[15]。

    1.2.2 深度信念網(wǎng)絡(luò)

    為了獲取更好的性能,一組受限制的玻爾茲曼機(jī)器可以定義為深度信念網(wǎng)絡(luò)(DBN)。為了構(gòu)建DBN,本文可以按照以下步驟[16]。

    利用一組RBMs作為構(gòu)建塊,貪婪地分層無(wú)監(jiān)督學(xué)習(xí)構(gòu)造DBN。該學(xué)習(xí)算法有效地利用了未標(biāo)記數(shù)據(jù),在輸入數(shù)據(jù)中提供了大量的模式,從而比隨機(jī)數(shù)據(jù)產(chǎn)生更好的初始權(quán)值。

    利用基于梯度下降算法的有監(jiān)督學(xué)習(xí)方法,根據(jù)指數(shù)損失函數(shù)訓(xùn)練DBN。模型的權(quán)值通過(guò)標(biāo)記數(shù)據(jù)來(lái)細(xì)化,目的是進(jìn)行模式分類。

    圖2顯示了具有一個(gè)輸入層的DBN的貪婪分層無(wú)監(jiān)督訓(xùn)練過(guò)程,即輸入層x和三個(gè)隱藏層即從下到上分別是h1、h2和h3。較淺的顏色層代表已經(jīng)過(guò)訓(xùn)練的層,而較深的顏色層則是經(jīng)過(guò)訓(xùn)練的層從圖中看不出來(lái),請(qǐng)明確是否描述正確?。經(jīng)過(guò)貪婪的分層無(wú)監(jiān)督學(xué)習(xí),h3(x)是x的表示。然后,在頂部添加一個(gè)輸出層,并使用標(biāo)記評(píng)論來(lái)細(xì)化權(quán)重,以提高識(shí)別能力。圖3顯示了完整的DBN。

    作者說(shuō):圖3與圖2位置放反了。因此,調(diào)整圖形的編號(hào)即可。

    在文本情感分類研究中,DBN采用以詞袋模型表示的矩陣作為輸入。前幾層期望從輸入中提取低層次的特性,而上一層則需要提煉以前學(xué)過(guò)的特性模式,從而生成更復(fù)雜的特征。最后,在輸出層預(yù)測(cè)評(píng)論的情緒傾向,無(wú)論是積極的還是消極的。

    2 基于特征選擇和深度信念網(wǎng)絡(luò)的分類算法

    本章將介紹基于特征選擇的深度信念網(wǎng)絡(luò)(FSDBN)的主要設(shè)計(jì)流程。圖4是顯示執(zhí)行文本情感分類任務(wù)的框架。大多數(shù)任務(wù)與其他文本分類方法相似,分別包括特征提取、數(shù)據(jù)分隔、模型訓(xùn)練和測(cè)試。然而,在本文題注的算法中有兩個(gè)新的任務(wù),即特征選擇和縮減。每個(gè)任務(wù)的細(xì)節(jié)如下所述。

    2.1 特征提取

    在文本情感分類應(yīng)用中,需要將變長(zhǎng)文檔轉(zhuǎn)換為適合于分類算法的固定大小的數(shù)字特征向量。對(duì)基于文本的輸入進(jìn)行特征提取的常用技術(shù)是詞袋技術(shù),該技術(shù)通過(guò)單詞出現(xiàn)來(lái)描述文檔,而忽略了單詞的相對(duì)位置信息。有兩個(gè)主要任務(wù),包括特征定義和加權(quán)分?jǐn)?shù)計(jì)算。在本文的模型中,本文算法將標(biāo)記的詞語(yǔ)應(yīng)用為“特征”(中文使用結(jié)巴進(jìn)行分詞、維吾爾語(yǔ)提取unigram)。

    想要提取特性,首先進(jìn)行分詞(中文使用結(jié)巴進(jìn)行分詞、維吾爾語(yǔ)提取unigram),然后把所有的特征生成一個(gè)字典,在一個(gè)文檔中,如果該特征出現(xiàn)就賦值為1;否則為0。此外,根據(jù)每個(gè)詞匯表降序排列的次數(shù)排序的前2%詞匯表將被刪除,因?yàn)樗鼈冎械拇蠖鄶?shù)都是停止詞(例如“的”“是”),或者它們可能是特定領(lǐng)域或通用的詞(例如,酒店評(píng)論中的“酒店”)。從理論上講,停用詞可以出現(xiàn)在正訓(xùn)練數(shù)據(jù)集或負(fù)訓(xùn)練數(shù)據(jù)集中,而不帶有任何情緒信息,這可能會(huì)增加分類錯(cuò)誤率,因?yàn)樗鼈兊那榫w含糊不清。在此過(guò)程之后,一個(gè)文檔語(yǔ)料庫(kù)就形成了一個(gè)二進(jìn)制值矩陣,每個(gè)文檔表示一行,每個(gè)特性或標(biāo)記在語(yǔ)料庫(kù)中表示一列。

    2.2 數(shù)據(jù)劃分

    為了使得到的結(jié)果更加具有說(shuō)服力,在中文文本情感分類中,本文選取譚松波博士收集整理的酒店評(píng)論語(yǔ)料、京東上獲取的書集書籍評(píng)論語(yǔ)料、淘寶上獲取的電腦評(píng)論語(yǔ)料。

    為了驗(yàn)證模型FSDBN在維吾爾語(yǔ)文本情感分類中的有效性。相對(duì)于中文和英文來(lái)說(shuō)維吾爾語(yǔ)的文本情感開放語(yǔ)料較少,本實(shí)驗(yàn)所使用的維吾爾語(yǔ)文本情感語(yǔ)料是由伊爾夏提·吐爾貢等[17]在這三個(gè)維文網(wǎng)站(Alkuy、TianShan、Putbal)上收集的評(píng)論數(shù)據(jù),然后經(jīng)過(guò)維吾爾族大學(xué)生進(jìn)行手工篩選,最終形成了pos類5000多條句子以及neg類5000多條句子。

    在這四個(gè)數(shù)據(jù)集中,本文選取3000個(gè)標(biāo)簽評(píng)論(即在每個(gè)數(shù)據(jù)集中,有1500個(gè)正面和1500個(gè)負(fù)面)。

    由于所提出的分類器是一種半監(jiān)督學(xué)習(xí)算法,利用未標(biāo)記和標(biāo)記數(shù)據(jù)構(gòu)造分類器,因此,本文方法將數(shù)據(jù)集劃分為三個(gè)集,包括未標(biāo)記訓(xùn)練集、標(biāo)記訓(xùn)練集和標(biāo)記測(cè)試集。將每個(gè)3000個(gè)評(píng)論的數(shù)據(jù)集隨機(jī)劃分為10個(gè)大小相等的文檔,同時(shí)為了交叉驗(yàn)證的目的,仍然在每份文檔中保持平衡的類分布。在每一輪中,本文算法選擇一份文檔作為標(biāo)記數(shù)據(jù)集,然后隨機(jī)選擇這份文檔中的一半評(píng)論作為標(biāo)記訓(xùn)練數(shù)據(jù)集,另一半作為標(biāo)記測(cè)試數(shù)據(jù)集。其余9個(gè)折疊被用作未標(biāo)記的數(shù)據(jù)集。

    2.3 特征選擇和特征約減

    為了提高分類精度,本文的目標(biāo)是通過(guò)特征選擇和特征約減來(lái)消除可能導(dǎo)致分類誤差的噪聲特征。在本文的框架中,本文使用文檔頻率、信息增益、卡方統(tǒng)計(jì)、互信息特征選擇來(lái)確定哪些特征與情感分類最相關(guān),以獲得最高的分類準(zhǔn)確性。

    本文提出的分類算法經(jīng)過(guò)特征選擇算法來(lái)選擇前n%的特征來(lái)構(gòu)建文本情感分類模型,而其他的則不用于分析。每個(gè)數(shù)據(jù)集的最佳n百分比值如表3所示見3.4節(jié)實(shí)驗(yàn)。值得注意的是,本文之所以使用帶標(biāo)簽的訓(xùn)練數(shù)據(jù)集來(lái)進(jìn)行特征選擇,僅僅是因?yàn)樵撍惴ɑ诒O(jiān)督學(xué)習(xí)方法,并且避免了測(cè)試集出現(xiàn)過(guò)擬合問題。

    2.4 模型訓(xùn)練和測(cè)試

    本文框架中使用的情感分類模型是基于深度信念網(wǎng)絡(luò)的。首先,學(xué)習(xí)算法使用無(wú)標(biāo)記的訓(xùn)練評(píng)論執(zhí)行貪婪的分層無(wú)監(jiān)督學(xué)習(xí);然后,利用基于梯度下降法的監(jiān)督學(xué)習(xí)方法,通過(guò)帶指數(shù)損失函數(shù)的訓(xùn)練來(lái)改進(jìn)模型的權(quán)值;在完全構(gòu)建預(yù)測(cè)模型后,利用標(biāo)記數(shù)據(jù)對(duì)模型進(jìn)行測(cè)試;最后的分類結(jié)果使用十倍交叉驗(yàn)證在F值方面的平均。第3章將介紹DBN的學(xué)習(xí)參數(shù)和結(jié)構(gòu)。

    3 實(shí)驗(yàn)以及討論

    在本章中,為了驗(yàn)證本文提出的FSDBN算法的性能,將其在準(zhǔn)確率和訓(xùn)練時(shí)間方面與其他算法半監(jiān)督學(xué)習(xí)算法[1,4,18-20]進(jìn)行比較。

    3.1 實(shí)驗(yàn)設(shè)置

    本文實(shí)驗(yàn)的目的是評(píng)估本文提出的框架與5種半監(jiān)督學(xué)習(xí)情感分類器在準(zhǔn)確性以及訓(xùn)練時(shí)間方面的性能表現(xiàn),這5種半監(jiān)督的文本情感分類器分別是:深度信念網(wǎng)絡(luò)(DBN)、混合深信念網(wǎng)絡(luò)(Hybrid Deep Belief Network, HDBN)[4]、半監(jiān)督譜學(xué)習(xí)(semi-supervised spectral learning)[18]、轉(zhuǎn)換式支持向量機(jī)(Transductive Support Vector Machine, TSVM)[19]、個(gè)人/非個(gè)人觀點(diǎn)(Personal/Impersonal Views, PIV)[20]。分類器具體概述如下。

    譜學(xué)習(xí)利用數(shù)據(jù)矩陣特征向量中的信息檢測(cè)結(jié)構(gòu),進(jìn)行半監(jiān)督聚類和分類。

    TSVM利用未標(biāo)記數(shù)據(jù)提高了支持向量機(jī)(Support Vector Machine, SVM)的泛化精度。與SVM類似,它使用帶標(biāo)記的訓(xùn)練數(shù)據(jù)學(xué)習(xí)了一個(gè)大范圍的超平面分類器,但同時(shí)迫使這個(gè)超平面遠(yuǎn)離未帶標(biāo)記的數(shù)據(jù)。譜學(xué)習(xí)和TSVM方法是半監(jiān)督情緒分類的兩種基本方法。

    PIV采用個(gè)人和非個(gè)人的觀點(diǎn)構(gòu)建半監(jiān)督分類器。個(gè)人觀點(diǎn)包括直接表達(dá)說(shuō)話人對(duì)目標(biāo)對(duì)象的感受和偏好的句子,而非個(gè)人觀點(diǎn)則集中于對(duì)目標(biāo)對(duì)象的陳述進(jìn)行評(píng)價(jià)。

    DBN是在第1章中提出的經(jīng)典深度學(xué)習(xí)方法。

    HDBN是RBM和卷積RBM(Convolutional RBM, CRBM)的混合深度網(wǎng)絡(luò)結(jié)構(gòu),底層由RBMs構(gòu)造,可以快速減少尺寸,提取輸入信息;然后,使用CRBM在上層抽象更復(fù)雜的信息;最后,利用基于梯度下降法的有監(jiān)督學(xué)習(xí)方法對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行了指數(shù)損失函數(shù)的微調(diào)。

    同樣,用于評(píng)估的5種文本情感分類器的數(shù)據(jù)集是酒店評(píng)論數(shù)據(jù)、書集書籍評(píng)論數(shù)據(jù)是書集?還是書籍?全文應(yīng)該統(tǒng)一,請(qǐng)明確?;貜?fù):書集改為書籍、電腦評(píng)論數(shù)據(jù)以及維吾爾語(yǔ)評(píng)論數(shù)據(jù)。

    3.2 參數(shù)設(shè)置

    為了比較結(jié)果,本文提出的模型中使用的學(xué)習(xí)參數(shù)與文獻(xiàn)[3-4,21]相同。在訓(xùn)練前的步驟中,本文對(duì)所有的隱藏層和輸出層執(zhí)行貪婪的分層無(wú)監(jiān)督學(xué)習(xí),epoch=30。在有監(jiān)督學(xué)習(xí)階段,將epoch設(shè)置為30,學(xué)習(xí)率為0.1,每個(gè)epoch設(shè)置為0.9。使用的DBN結(jié)構(gòu)為100-100-200-2,表示三個(gè)隱藏層中的神經(jīng)元單元數(shù)分別為100、100和200,輸出層中的神經(jīng)元單元數(shù)分別為2(正、負(fù))。

    3.4 實(shí)驗(yàn)結(jié)果

    在從分類準(zhǔn)確率和訓(xùn)練時(shí)間方面詳細(xì)分析實(shí)驗(yàn)結(jié)果和分析結(jié)果之前,首先要論證特征選擇和縮減對(duì)輸入維數(shù)大小的影響。

    不同的特征保留率對(duì)文本情感分類的準(zhǔn)確性以及模型的訓(xùn)練時(shí)間有著一定的影響,在4個(gè)文本情感分析數(shù)據(jù)集上,特征保留率對(duì)文本情感分類準(zhǔn)確性的影響。如表2所示。

    從表2中可以看出使用不同的特征選擇方法進(jìn)行特征選擇以及特征約減得到的F值不同。比如說(shuō)使用文檔頻率方法在4個(gè)數(shù)據(jù)集上特征保留率為40%、40%、50%以及30%取得最好的分類效果。故根據(jù)表2可以得到表3 FSDBN模型在不同特征選擇方法下的特征保留率。

    使用特征選擇可使得特征數(shù)目減少。它展示了本文提出的降維方法的性能,該方法可以過(guò)濾掉大多數(shù)無(wú)用的特征。表3顯示了在4個(gè)數(shù)據(jù)集上以及4種特征選擇方法特征減少到原特征的多少時(shí)文本情感的分類效果最好。

    3.4.1 F值

    采用半監(jiān)督學(xué)習(xí)方法對(duì)4個(gè)情感分類數(shù)據(jù)集進(jìn)行10倍交叉驗(yàn)證的分類準(zhǔn)確性結(jié)果如表4所示。

    實(shí)驗(yàn)證明了在三個(gè)數(shù)據(jù)集上本文提出的方法FSDNBN在準(zhǔn)確率上都有所提升并且在兩個(gè)數(shù)據(jù)集上的特征選擇算法都是信息增益。

    從表4可以看出,F(xiàn)SDBN在三個(gè)標(biāo)記為粗體的數(shù)據(jù)集中執(zhí)行了最好的精度結(jié)果。另一方面,DBN、HDBN和FSDBN可以在所有數(shù)據(jù)集中執(zhí)行得很好。結(jié)果證明了深層架構(gòu)在情感分類中的強(qiáng)大功能。

    3.4.2 訓(xùn)練時(shí)間

    DBN與FSDBN的訓(xùn)練時(shí)間(從執(zhí)行特征提取到構(gòu)建完整模型)結(jié)果如圖65所示。比較而言,除了要訓(xùn)練的特性數(shù)量和網(wǎng)絡(luò)結(jié)構(gòu)外,本文在相同的環(huán)境和相同的參數(shù)設(shè)置中運(yùn)行它們。對(duì)于要訓(xùn)練的特性數(shù)量,對(duì)于DBN,本文使用了完整的特性集,而不進(jìn)行任何的特性選擇和減少,但是對(duì)于FSDBN,本文采用了第2章中描述的方法。

    表格(有表名)

    表4 半監(jiān)督文本情感分類算法的F值表4與圖5是否存在重復(fù)表達(dá)現(xiàn)象,若存在重復(fù)表達(dá),請(qǐng)只保留一種表達(dá)方式。正文中的引用文字部分和描述需作相應(yīng)修改或刪除。

    在圖65中,可以看到FSDBN在所有數(shù)據(jù)集中花費(fèi)的訓(xùn)練時(shí)間比DBN少得多。FSDBN的平均速度可以提高2倍多,在使用維吾爾語(yǔ)評(píng)論數(shù)據(jù)集時(shí)幾乎可以提高4倍。這是因?yàn)榫S吾爾語(yǔ)評(píng)論數(shù)據(jù)集比其他3個(gè)數(shù)據(jù)集具有更多的特性,因此,使用FSDBN,刪除了更多的特征,這使得與DBN相比,訓(xùn)練時(shí)間更短,同時(shí)仍然保持了良好的準(zhǔn)確率。

    特別地,顯著提高FSDBN訓(xùn)練時(shí)間的主要因素是它更簡(jiǎn)單的深層結(jié)構(gòu),它替換了幾個(gè)隱藏層,但是增加了本文提出的特征選擇方法。

    根據(jù)實(shí)驗(yàn)結(jié)果,可以看出本文提出的FSDBN比其他半監(jiān)督情緒分類算法更快、更準(zhǔn)確。

    4 結(jié)語(yǔ)

    為了解決文本情感分類問題,本文提出了一種名為FSDBN文本情感分類算法,使用基于過(guò)濾器的特征選擇技術(shù)替換了DBNs中的幾個(gè)隱藏層,然后,過(guò)濾掉不必要的特性,只選擇有意義的特性。實(shí)驗(yàn)結(jié)果表明,在特征選擇和約簡(jiǎn)的輔助下,F(xiàn)SDBN的學(xué)習(xí)階段效率更高。FSDBN的分類精度高于基本的半監(jiān)督學(xué)習(xí)算法,如光譜學(xué)習(xí)、TSVM和個(gè)人PIV。此外,F(xiàn)SDBN的性能略好于其他深度學(xué)習(xí)算法DBN和混合深度信念網(wǎng)絡(luò)(HDBN)。此外,還可以觀察到,與傳統(tǒng)的DBN相比,F(xiàn)SDBN花費(fèi)的訓(xùn)練時(shí)間要少得多。在未來(lái)的工作中,計(jì)劃將本文的算法并行化并在GPU平臺(tái)上運(yùn)行,以加速其計(jì)算。目標(biāo)是解決現(xiàn)實(shí)世界中的大量問題,具有更好的標(biāo)度能力,同時(shí)仍能保持良好的分類準(zhǔn)確率。這里的特征選擇方法只使用了文檔頻率、信息增益、卡方統(tǒng)計(jì)以及互信息,還可以使用其他的特征選擇方法。

    參考文獻(xiàn) (References)

    [1] HINTON G, OSINDERO S, TEH Y. A fast learning algorithm for deep belief nets[J]. Neural Computation, 2006, 18(7): 1527-1554.

    [2] ZHOU S, CHEN Q, WANG X, et al. Hybrid deep belief networks for semi-supervised sentiment classification[C]// Proceeding of the 2014 25th International Conference on Computational Linguistic. Stroudsburg, PA: Association for Computational Linguistics, 2014: 1341-1349.

    [3] ZHOU S, CHEN Q, WANG X. Active deep networks for semisupervised sentiment classification.[C]// Proceedings of the 2010 23rd International Conference on Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2010: 1515-1523.

    [4] SOCHER R, PERELYGIN A, WU J J. et al. Recursive deep models for semantic compositionality over a sentiment treebank [C]// Proceedings of the 2013 International Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2013: 1631-1642.

    [5] DASGUPTA, S, NG V. Mine the easy, classify the hard: a semisupervised approach to automatic sentiment classification [C]// Proceedings of the 2009 47th International Conference on Annual Meeting of the Association for Computational Linguistics and Proceedings of the 2009/4th International Joint Conference on Natural Language of the Asian Federation of Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2009: 701-709.

    [6] PANG B, LEE L, VAITHYANATHAN S. Thumbs up?: sentiment classification using machine learning techniques [C]// Proceedings of the 2002 International Conference on Association for Computational Linguistics on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2002: 79-86.

    [7] FORMAN G. An extensive empirical study of feature selection metrics for text classification[J]. The Journal of Machine Learning Research, 2003: 1289-1305.

    [8] YANG Y, PEDERSEN J O. A comparative study on feature selection in text categorization[C]// Proceedings of the 1997 14th International Conference on Machine Learning. San Francisco, CA: Morgan Kaufmann, 1997: 412-420.

    [9] 周茜,趙明生,扈旻.中文文本分類中的特征選擇研究[J].中文信息學(xué)報(bào),2004,18(3):17-23.(ZHOU Q, ZHAO M S, HU M. Research on feature selection in Chinese text classification [J]. Journal of Chinese Information Processing, 2004, 18(3): 17-23.)

    [10] 吳金源,冀俊忠,趙學(xué)武,等.基于特征選擇技術(shù)的情感詞權(quán)重計(jì)算[J].北京工業(yè)大學(xué)學(xué)報(bào),2016,42(1):142-151.(WU J Y, JI J Z, ZHAO X W, et al. Weight calculation of affective words based on feature selection technique[J]. Journal of Beijing University of Technology, 2016, 42(1):142-151.)

    [11] 周愛武,馬那那,劉慧婷.基于卡方統(tǒng)計(jì)的情感文本分類[J].微電子學(xué)與計(jì)算機(jī),2017,34(8):57-61.(ZHOU A W, MA N N, LIU H T. Emotional text classification based on chi-square statistics [J]. Microelectronics and Computer, 2017, 34(8): 57-61.)

    [12] 裴英博,劉曉霞.文本分類中改進(jìn)型CHI特征選擇方法的研究[J].計(jì)算機(jī)工程與應(yīng)用,2011,47(4):128-130.(PEI Y B, LIU X X. Research on improved CHI feature selection method in text classification [J]. Computer Engineering and Application, 2011, 47(4): 128-130.)

    [13] BAGHERI A, SARAEE M, de JONG F. Sentiment classification in Persian: introducing a mutual information-based method for feature selection[C]// Proceedings of the 2013 21th International Conference on Electrical Engineering. Piscataway, NJ: IEEE, 2013: 1-6.

    [14] BLIZER J, DREDZE M, PEREIRA F. Biographies, bollywood, boomboxes and blenders: domain adaptation for sentiment classification[C]// Proceedings of the 2007 International Conference on Association for Computational Linguistic. Stroudsburg, PA: Association for Computational Linguistics, 2007: 440-447.

    [15] LOPES N, RIBEIRO B, GONALVES J. Restricted Boltzmann machines and deep belief networks on multi-core processors [C]// Proceedings of the 2012 International Joint Conference on Neural Networks Piscataway, NJ: IEEE, 2012: 1-7.

    [16] 張慶慶,劉西林.基于深度信念網(wǎng)絡(luò)的文本情感分類研究[J].西北工業(yè)大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2016,36(1):62-66.(ZHANG Q Q, LIU X L. Research on text emotion classification based on deep belief network[J]. Journal of Northwest Polytechnic University (Social Science Edition), 2016, 36(1): 62-66.)

    [17] 伊爾夏提·吐爾貢,吾守爾·斯拉木,熱西旦木·吐爾洪太,等.維吾爾文情感語(yǔ)料庫(kù)的構(gòu)建與分析[J].計(jì)算機(jī)與現(xiàn)代化,2017(4):67-72.(TUERGONG Y, SILAMU W, TUSERHONGTAI R文獻(xiàn)的書寫中,是姓氏大寫,名字取首字母大寫,請(qǐng)明確中文姓氏中,哪個(gè)是姓氏,哪個(gè)是名字?, et al. Construction and analysis of Uighur affective corpus [J]. Computer and Modernization, 2017(4): 67-72.)

    [18] KAMVAR S D, DAN K, MANNING C D. Spectral learning[C]// Proceedings of the 2003 International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 2003: 561-566.

    [19] COLLOBERT R, SINZ F, WESTON J, et al. Large scale transductive SVMs[J]. The Journal of Machine Learning Research, 2006, 7: 1687-1712.

    [20] LI S, HUANG C R, ZHOU G, et al. Employing personal/impersonal views in supervised and semi-supervised sentiment classification[C]// Proceedings of the 2010 48th International Joint Conference on Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2010: 414-423.

    [21] RUANGKANOKMAS P, ACHALAKUL T, AKKARAJITSAKUL K. Deep belief networks with feature selection for sentiment classification[C]// Proceedings of the 2017 48th International Conference on Intelligent Systems, Modelling and Simulation. Piscataway, NJ: IEEE, 2017: 9-14.

    猜你喜歡
    特征選擇深度學(xué)習(xí)
    Kmeans 應(yīng)用與特征選擇
    電子制作(2017年23期)2017-02-02 07:17:06
    有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識(shí)別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    基于GA和ELM的電能質(zhì)量擾動(dòng)識(shí)別特征選擇方法
    聯(lián)合互信息水下目標(biāo)特征選擇算法
    基于特征選擇聚類方法的稀疏TSK模糊系統(tǒng)
    国产精品av视频在线免费观看| 99热这里只有是精品50| 特级一级黄色大片| 国内少妇人妻偷人精品xxx网站| 草草在线视频免费看| 少妇裸体淫交视频免费看高清| 亚洲国产色片| 久久精品国产鲁丝片午夜精品| 在线播放无遮挡| 两个人的视频大全免费| 国产一区二区激情短视频| 国产成人影院久久av| 亚洲欧美精品综合久久99| 亚洲精华国产精华液的使用体验 | 国产在线精品亚洲第一网站| 国产亚洲精品久久久久久毛片| 精华霜和精华液先用哪个| 国产一区二区三区在线臀色熟女| 色视频www国产| 啦啦啦韩国在线观看视频| 亚洲人成网站在线播放欧美日韩| 我的女老师完整版在线观看| 亚洲精品国产av成人精品 | 国产精品国产三级国产av玫瑰| 亚洲七黄色美女视频| 在线看三级毛片| 亚洲av中文字字幕乱码综合| 欧美又色又爽又黄视频| 久久精品综合一区二区三区| 久久人人爽人人片av| 欧美最黄视频在线播放免费| 精品人妻偷拍中文字幕| 久久久久久久午夜电影| 久99久视频精品免费| 亚洲三级黄色毛片| 在线观看av片永久免费下载| 噜噜噜噜噜久久久久久91| 最近2019中文字幕mv第一页| 人人妻人人看人人澡| 22中文网久久字幕| 亚洲最大成人av| 午夜精品在线福利| 午夜视频国产福利| 日韩欧美精品v在线| 18禁在线播放成人免费| 美女高潮的动态| 日韩欧美在线乱码| 搡老岳熟女国产| 综合色av麻豆| 国产中年淑女户外野战色| 成人一区二区视频在线观看| 在线观看av片永久免费下载| 日韩欧美免费精品| 免费黄网站久久成人精品| 搞女人的毛片| 97人妻精品一区二区三区麻豆| 美女xxoo啪啪120秒动态图| 国产中年淑女户外野战色| 波多野结衣巨乳人妻| 亚洲成人av在线免费| 91午夜精品亚洲一区二区三区| 亚洲自拍偷在线| 午夜a级毛片| 精品午夜福利在线看| 亚洲av成人av| 丰满乱子伦码专区| 中国国产av一级| 搡老妇女老女人老熟妇| 久久午夜福利片| 国产亚洲av嫩草精品影院| 免费在线观看成人毛片| 亚洲av电影不卡..在线观看| 男女那种视频在线观看| 亚洲性久久影院| .国产精品久久| 永久网站在线| 少妇人妻一区二区三区视频| 免费av毛片视频| 国产精品精品国产色婷婷| 97热精品久久久久久| 国产久久久一区二区三区| 成年版毛片免费区| 亚州av有码| 毛片女人毛片| 啦啦啦韩国在线观看视频| 日本黄色视频三级网站网址| 此物有八面人人有两片| 婷婷精品国产亚洲av在线| 亚洲精品日韩av片在线观看| 国产精品亚洲一级av第二区| 亚洲中文字幕一区二区三区有码在线看| 亚洲欧美精品自产自拍| 欧美高清成人免费视频www| 丝袜喷水一区| 亚洲精品乱码久久久v下载方式| 国内精品久久久久精免费| 日韩在线高清观看一区二区三区| 看免费成人av毛片| 国产成人精品久久久久久| 国产三级中文精品| 久久精品国产清高在天天线| 亚洲性夜色夜夜综合| 18禁裸乳无遮挡免费网站照片| 麻豆成人午夜福利视频| 干丝袜人妻中文字幕| 天堂影院成人在线观看| 国产av麻豆久久久久久久| 日韩精品中文字幕看吧| 免费av不卡在线播放| 亚洲真实伦在线观看| 日日撸夜夜添| 亚洲国产欧洲综合997久久,| 国产国拍精品亚洲av在线观看| 女人十人毛片免费观看3o分钟| 日本一二三区视频观看| 性欧美人与动物交配| 黄色欧美视频在线观看| 色5月婷婷丁香| 亚洲电影在线观看av| 精华霜和精华液先用哪个| 亚洲精品国产成人久久av| 最后的刺客免费高清国语| 麻豆国产av国片精品| 乱系列少妇在线播放| 久久久国产成人精品二区| 国产又黄又爽又无遮挡在线| 久久精品国产亚洲av天美| 丝袜喷水一区| 看免费成人av毛片| 国产一级毛片七仙女欲春2| 欧美一区二区亚洲| 亚洲av第一区精品v没综合| 亚洲精品影视一区二区三区av| 一进一出抽搐动态| 精品人妻一区二区三区麻豆 | 国产熟女欧美一区二区| 一级黄色大片毛片| 亚洲激情五月婷婷啪啪| 看非洲黑人一级黄片| 在线免费观看的www视频| 九色成人免费人妻av| 精品免费久久久久久久清纯| 99久久精品国产国产毛片| 国产视频内射| 日韩欧美国产在线观看| 亚洲成av人片在线播放无| 久久久久国产网址| 日韩欧美 国产精品| 日韩欧美一区二区三区在线观看| 免费看美女性在线毛片视频| 国内精品宾馆在线| 色尼玛亚洲综合影院| 日韩成人伦理影院| 黄色日韩在线| 又粗又爽又猛毛片免费看| 欧美日韩精品成人综合77777| 久久久久久久久大av| 亚洲最大成人av| 国内精品宾馆在线| 亚洲精品456在线播放app| 日韩大尺度精品在线看网址| 网址你懂的国产日韩在线| 一区二区三区高清视频在线| 一级a爱片免费观看的视频| 色综合站精品国产| 禁无遮挡网站| 色av中文字幕| 国产欧美日韩精品一区二区| 婷婷精品国产亚洲av| 嫩草影视91久久| 一区福利在线观看| 日韩欧美免费精品| 久久午夜福利片| 性欧美人与动物交配| 免费一级毛片在线播放高清视频| 大香蕉久久网| 老熟妇仑乱视频hdxx| 免费av毛片视频| 露出奶头的视频| 性色avwww在线观看| 麻豆av噜噜一区二区三区| 看片在线看免费视频| 高清午夜精品一区二区三区 | 少妇丰满av| 日韩成人av中文字幕在线观看 | 国产高潮美女av| 一进一出好大好爽视频| 六月丁香七月| 麻豆乱淫一区二区| 亚洲av成人精品一区久久| 免费av观看视频| 国内精品一区二区在线观看| 亚洲,欧美,日韩| 亚洲色图av天堂| 午夜影院日韩av| 亚洲无线在线观看| 亚洲精品国产av成人精品 | 国产伦精品一区二区三区视频9| 日韩成人av中文字幕在线观看 | 国产高清视频在线播放一区| 亚洲av.av天堂| 最后的刺客免费高清国语| 联通29元200g的流量卡| 日本黄大片高清| www日本黄色视频网| 日韩强制内射视频| 在现免费观看毛片| 老师上课跳d突然被开到最大视频| 亚洲性久久影院| 日产精品乱码卡一卡2卡三| 97超视频在线观看视频| 校园人妻丝袜中文字幕| 日本欧美国产在线视频| 精品久久久久久久久久免费视频| av天堂中文字幕网| 日本 av在线| 色播亚洲综合网| 一级av片app| 亚洲中文日韩欧美视频| 三级国产精品欧美在线观看| 国产精品女同一区二区软件| 国产色婷婷99| 国产一区二区在线观看日韩| 久久99热6这里只有精品| 夜夜看夜夜爽夜夜摸| 欧美一区二区国产精品久久精品| 男人和女人高潮做爰伦理| 久久久久久久久久久丰满| 欧美+日韩+精品| 自拍偷自拍亚洲精品老妇| 欧美性感艳星| 午夜激情欧美在线| 日韩一区二区视频免费看| 国产精品一区二区性色av| 九九久久精品国产亚洲av麻豆| 久久久久久大精品| 1024手机看黄色片| 大又大粗又爽又黄少妇毛片口| 寂寞人妻少妇视频99o| 日韩制服骚丝袜av| 我要搜黄色片| 欧美丝袜亚洲另类| 免费一级毛片在线播放高清视频| 精品人妻偷拍中文字幕| 国产成人影院久久av| 天堂av国产一区二区熟女人妻| 少妇被粗大猛烈的视频| 麻豆精品久久久久久蜜桃| 全区人妻精品视频| 男女视频在线观看网站免费| 一卡2卡三卡四卡精品乱码亚洲| 国产高清不卡午夜福利| 嫩草影院新地址| 可以在线观看毛片的网站| 国产 一区精品| 国产精品一区www在线观看| 国语自产精品视频在线第100页| 久久久精品94久久精品| 青春草视频在线免费观看| 成人国产麻豆网| 99热6这里只有精品| 日本成人三级电影网站| 色播亚洲综合网| 国产精品不卡视频一区二区| 国产av不卡久久| 一卡2卡三卡四卡精品乱码亚洲| 亚洲av中文av极速乱| 99久久精品国产国产毛片| 欧美激情久久久久久爽电影| 美女xxoo啪啪120秒动态图| 啦啦啦观看免费观看视频高清| 久久亚洲精品不卡| 国产精品一二三区在线看| 亚洲第一区二区三区不卡| 亚洲av熟女| 亚洲精华国产精华液的使用体验 | 久久久久九九精品影院| 婷婷亚洲欧美| 99九九线精品视频在线观看视频| 中文字幕av在线有码专区| 国产精品,欧美在线| 国产v大片淫在线免费观看| 少妇熟女aⅴ在线视频| 亚洲成人精品中文字幕电影| 亚洲精品粉嫩美女一区| 日本一二三区视频观看| 国产成人a区在线观看| 不卡一级毛片| 国产一区亚洲一区在线观看| 男人和女人高潮做爰伦理| 国产大屁股一区二区在线视频| 国产视频一区二区在线看| 免费电影在线观看免费观看| 丝袜美腿在线中文| 国产精品久久电影中文字幕| 少妇熟女aⅴ在线视频| 热99在线观看视频| 午夜老司机福利剧场| 观看免费一级毛片| 插逼视频在线观看| 美女黄网站色视频| 精品一区二区三区视频在线| 美女被艹到高潮喷水动态| av天堂中文字幕网| 亚洲国产精品sss在线观看| 淫秽高清视频在线观看| 欧美3d第一页| 国内精品一区二区在线观看| 99热网站在线观看| 欧美成人一区二区免费高清观看| 亚洲国产精品久久男人天堂| 国产成人精品久久久久久| 十八禁网站免费在线| 51国产日韩欧美| 久久久久国产网址| 亚洲美女视频黄频| 给我免费播放毛片高清在线观看| 亚洲人成网站高清观看| 婷婷精品国产亚洲av在线| 99riav亚洲国产免费| 老熟妇乱子伦视频在线观看| 久久6这里有精品| 欧美人与善性xxx| 噜噜噜噜噜久久久久久91| 99久久精品一区二区三区| 深夜精品福利| 国产精品永久免费网站| 国产蜜桃级精品一区二区三区| 老司机午夜福利在线观看视频| 免费看a级黄色片| 一进一出抽搐动态| 亚洲av中文av极速乱| 午夜爱爱视频在线播放| 国产乱人视频| 少妇人妻精品综合一区二区 | 国产男靠女视频免费网站| 狂野欧美白嫩少妇大欣赏| 亚洲成人久久性| 久久国内精品自在自线图片| 亚洲一区二区三区色噜噜| 久久久久国内视频| 日本黄色视频三级网站网址| 久久九九热精品免费| 全区人妻精品视频| 男人和女人高潮做爰伦理| 日本黄色视频三级网站网址| 男人和女人高潮做爰伦理| 成年女人看的毛片在线观看| 麻豆国产av国片精品| 亚洲一区二区三区色噜噜| 毛片女人毛片| 日韩欧美 国产精品| 好男人在线观看高清免费视频| 久久精品91蜜桃| 中国美女看黄片| 波野结衣二区三区在线| 午夜福利在线观看吧| 少妇高潮的动态图| 国产精品久久视频播放| 黄色日韩在线| 最近手机中文字幕大全| 身体一侧抽搐| 别揉我奶头~嗯~啊~动态视频| 国产午夜福利久久久久久| 毛片女人毛片| 91久久精品电影网| 国产真实乱freesex| 不卡一级毛片| 1024手机看黄色片| 大型黄色视频在线免费观看| 韩国av在线不卡| 婷婷精品国产亚洲av在线| 日本撒尿小便嘘嘘汇集6| 神马国产精品三级电影在线观看| 日本撒尿小便嘘嘘汇集6| av在线观看视频网站免费| 国产精品一二三区在线看| 我的老师免费观看完整版| 国产黄色小视频在线观看| 色av中文字幕| 在线观看免费视频日本深夜| 国产一区二区亚洲精品在线观看| 亚洲精品456在线播放app| 国产女主播在线喷水免费视频网站 | 免费一级毛片在线播放高清视频| a级毛片a级免费在线| 日韩在线高清观看一区二区三区| 一个人免费在线观看电影| 伦精品一区二区三区| 校园人妻丝袜中文字幕| 网址你懂的国产日韩在线| 国产精品久久视频播放| 永久网站在线| 亚洲人与动物交配视频| 亚洲美女黄片视频| 精品99又大又爽又粗少妇毛片| 久久精品久久久久久噜噜老黄 | 夜夜夜夜夜久久久久| 日韩欧美精品v在线| 如何舔出高潮| 久久久久久伊人网av| 十八禁国产超污无遮挡网站| 国产成人福利小说| 亚洲人成网站在线观看播放| 一个人免费在线观看电影| 一个人看视频在线观看www免费| 国产黄色小视频在线观看| 国内精品一区二区在线观看| 毛片一级片免费看久久久久| 欧美最新免费一区二区三区| 国产精品嫩草影院av在线观看| 一区二区三区高清视频在线| 日本撒尿小便嘘嘘汇集6| 国产三级在线视频| 午夜精品国产一区二区电影 | 97在线视频观看| 日韩在线高清观看一区二区三区| 99热网站在线观看| 中文字幕久久专区| 日韩强制内射视频| 免费看光身美女| 日日干狠狠操夜夜爽| 免费无遮挡裸体视频| 亚洲婷婷狠狠爱综合网| 国产午夜福利久久久久久| 精品一区二区三区视频在线| 日日啪夜夜撸| 女的被弄到高潮叫床怎么办| 国产高清激情床上av| 亚洲第一电影网av| 日韩三级伦理在线观看| 真人做人爱边吃奶动态| 成人漫画全彩无遮挡| 欧美激情国产日韩精品一区| 欧美成人a在线观看| 国产视频一区二区在线看| 亚洲四区av| 成人毛片a级毛片在线播放| 国产成人aa在线观看| 又粗又爽又猛毛片免费看| 国产精品一二三区在线看| 亚洲精品在线观看二区| 一卡2卡三卡四卡精品乱码亚洲| 日韩欧美一区二区三区在线观看| 精品国内亚洲2022精品成人| 偷拍熟女少妇极品色| 成年版毛片免费区| 超碰av人人做人人爽久久| 婷婷亚洲欧美| 一本一本综合久久| 在线观看66精品国产| 一夜夜www| 少妇的逼水好多| 97超视频在线观看视频| 亚洲欧美精品综合久久99| 久久久午夜欧美精品| 亚洲最大成人手机在线| 伦理电影大哥的女人| 久久精品综合一区二区三区| 成人美女网站在线观看视频| 日韩制服骚丝袜av| 99久国产av精品| 午夜影院日韩av| 美女 人体艺术 gogo| 国产女主播在线喷水免费视频网站 | 欧美激情在线99| 国产午夜精品论理片| 久久久久久国产a免费观看| 国产 一区 欧美 日韩| 精品国产三级普通话版| 欧美国产日韩亚洲一区| 97超视频在线观看视频| 亚洲成av人片在线播放无| 丝袜美腿在线中文| 身体一侧抽搐| 性欧美人与动物交配| 日韩欧美一区二区三区在线观看| 日韩一区二区视频免费看| 少妇裸体淫交视频免费看高清| 欧美最新免费一区二区三区| 熟女人妻精品中文字幕| eeuss影院久久| 国产色爽女视频免费观看| 久久精品综合一区二区三区| 国内精品一区二区在线观看| 午夜精品在线福利| 国产午夜精品久久久久久一区二区三区 | 免费看光身美女| 国产成人影院久久av| 男女啪啪激烈高潮av片| 精品午夜福利视频在线观看一区| 丰满人妻一区二区三区视频av| 亚洲人成网站在线观看播放| 99久久无色码亚洲精品果冻| 国产高清视频在线播放一区| 极品教师在线视频| 深夜精品福利| 成人永久免费在线观看视频| 俺也久久电影网| 神马国产精品三级电影在线观看| 国产久久久一区二区三区| 亚洲内射少妇av| 日本熟妇午夜| 亚洲最大成人手机在线| 国产一区二区三区av在线 | 国产极品精品免费视频能看的| 国产日本99.免费观看| 男女下面进入的视频免费午夜| 日韩大尺度精品在线看网址| 男女之事视频高清在线观看| 九九在线视频观看精品| 非洲黑人性xxxx精品又粗又长| 热99在线观看视频| 真人做人爱边吃奶动态| 国产成人a∨麻豆精品| 99久久久亚洲精品蜜臀av| 亚洲精品456在线播放app| 久久久久久久久久黄片| 中国美白少妇内射xxxbb| 亚洲精品影视一区二区三区av| ponron亚洲| 成熟少妇高潮喷水视频| 亚洲内射少妇av| 久久久久国产精品人妻aⅴ院| 男人和女人高潮做爰伦理| 亚洲欧美日韩无卡精品| 国产精品一区二区免费欧美| 欧美日韩乱码在线| 不卡一级毛片| 特大巨黑吊av在线直播| 变态另类丝袜制服| 人妻制服诱惑在线中文字幕| 亚洲国产色片| 国内揄拍国产精品人妻在线| 国产伦精品一区二区三区四那| 69av精品久久久久久| 成人av一区二区三区在线看| 一卡2卡三卡四卡精品乱码亚洲| 99在线人妻在线中文字幕| 亚洲国产精品合色在线| 人妻少妇偷人精品九色| 日产精品乱码卡一卡2卡三| 午夜激情福利司机影院| 国产女主播在线喷水免费视频网站 | 成人国产麻豆网| av黄色大香蕉| 日韩欧美三级三区| 国产色婷婷99| 床上黄色一级片| 久久久欧美国产精品| 我要搜黄色片| 欧美激情久久久久久爽电影| 国产成人a∨麻豆精品| 国产精品亚洲一级av第二区| 日本欧美国产在线视频| 老熟妇仑乱视频hdxx| 韩国av在线不卡| 少妇人妻一区二区三区视频| 成人鲁丝片一二三区免费| 久久亚洲精品不卡| 久久久a久久爽久久v久久| 变态另类丝袜制服| 国产在线男女| 中文字幕熟女人妻在线| 国产伦在线观看视频一区| 女人十人毛片免费观看3o分钟| 亚洲专区国产一区二区| 日本欧美国产在线视频| 久久久久久九九精品二区国产| 三级毛片av免费| 国产精品无大码| 亚洲国产精品久久男人天堂| 99热只有精品国产| 免费一级毛片在线播放高清视频| 深爱激情五月婷婷| 伦理电影大哥的女人| 日本一二三区视频观看| 日韩人妻高清精品专区| 欧美丝袜亚洲另类| 欧美日韩精品成人综合77777| av黄色大香蕉| 男女边吃奶边做爰视频| 日韩成人伦理影院| 日韩av在线大香蕉| 夜夜看夜夜爽夜夜摸| 国产麻豆成人av免费视频| 精品人妻视频免费看| 亚洲国产精品久久男人天堂| 亚洲18禁久久av| 18+在线观看网站| 久久6这里有精品| 你懂的网址亚洲精品在线观看 | 亚洲最大成人手机在线| 男人舔女人下体高潮全视频| 欧美高清成人免费视频www| 久久国内精品自在自线图片| 一a级毛片在线观看| 日韩在线高清观看一区二区三区| 亚洲av免费高清在线观看| avwww免费| 日韩欧美在线乱码| 99久国产av精品国产电影| avwww免费| 搡老熟女国产l中国老女人| 久久久国产成人免费| 国内揄拍国产精品人妻在线| 真人做人爱边吃奶动态| 男插女下体视频免费在线播放| eeuss影院久久| 日韩在线高清观看一区二区三区| 在现免费观看毛片| 男女做爰动态图高潮gif福利片| 国产精品亚洲美女久久久| 熟女人妻精品中文字幕| 国产精品国产三级国产av玫瑰|