• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    CNN-BiGRU網(wǎng)絡(luò)中引入注意力機(jī)制的中文文本情感分析

    2019-11-15 04:49:03王麗亞劉昌輝蔡敦波盧濤
    計(jì)算機(jī)應(yīng)用 2019年10期
    關(guān)鍵詞:注意力機(jī)制卷積神經(jīng)網(wǎng)絡(luò)

    王麗亞 劉昌輝 蔡敦波 盧濤

    .

    摘 要:傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(CNN)中同層神經(jīng)元之間信息不能互傳,無法充分利用同一層次上的特征信息,缺乏句子體系特征的表示,從而限制了模型的特征學(xué)習(xí)能力,影響文本分類效果。針對(duì)這個(gè)問題,提出基于CNN-BiGRU聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制的模型,采用CNN-BiGRU聯(lián)合網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)。首先利用CNN提取深層次短語特征,然后利用雙向門限循環(huán)神經(jīng)網(wǎng)絡(luò)(BiGRU)進(jìn)行序列化信息學(xué)習(xí)以得到句子體系的特征和加強(qiáng)CNN池化層特征的聯(lián)系,最后通過增加注意力機(jī)制對(duì)隱藏狀態(tài)加權(quán)計(jì)算以完成有效特征篩選。在數(shù)據(jù)集上進(jìn)行的多組對(duì)比實(shí)驗(yàn)結(jié)果表明,該方法取得了91.93%的F1值,有效地提高了文本分類的準(zhǔn)確率,時(shí)間代價(jià)小,

    具有很好的應(yīng)用能力。

    關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò);雙向門限循環(huán)神經(jīng)網(wǎng)絡(luò);注意力機(jī)制;中文文本情感分析

    中圖分類號(hào):TP391.1

    文獻(xiàn)標(biāo)志碼:A

    Abstract: In the traditional Convolutional Neural Network (CNN), the information cannot be transmitted to each other between the neurons of the same layer, the feature information at the same layer cannot be fully utilized, making the lack of the representation of the characteristics of the sentence system. As the result, the feature learning ability of model is limited and the text classification effect is influenced. Aiming at the problem, a model based on joint network CNN-BiGRU and attention mechanism was proposed. In the model, the CNN-BiGRU joint network was used for feature learning. Firstly, deep-level phrase features were extracted by CNN. Then, the Bidirectional Gated Recurrent Unit (BiGRU) was used for the serialized information learning to obtain the characteristics of the sentence system and strengthen the association of CNN pooling layer features. Finally, the effective feature filtering was completed by adding attention mechanism to the hidden state weighted calculation. Comparative experiments show that the method achieves 91.93% F1 value and effectively improves the accuracy of text classification with small time cost and good application ability.

    Key words: Convolutional Neural Network (CNN); Bidirectional Gated Recurrent Unit (BiGRU); attention mechanism; Chinese text sentiment analysis

    0 引言

    隨著互聯(lián)網(wǎng)的飛速發(fā)展,神經(jīng)網(wǎng)絡(luò)迎來夢(mèng)寐以求的大數(shù)據(jù)時(shí)代,其中,文本情感分析[1]是一個(gè)重要的研究方向,能有效地分析文本所包含的情感信息,同時(shí)具有很高的商業(yè)價(jià)值。

    文本情感分析是自然語言處理(Natural Language Processing, NLP)領(lǐng)域的一個(gè)重要研究方向,主要目的是從原始文本中提取出評(píng)論人的主觀情感,即對(duì)某個(gè)對(duì)象是積極還是消極的態(tài)度。主要分析方法可分為三類:基于有監(jiān)督的學(xué)習(xí)、基于語言學(xué)和基于深度學(xué)習(xí)的方法[2-3]。Pang等[4]針對(duì)電影評(píng)論,通過詞袋模型分別加上貝葉斯、最大熵、支持向量機(jī)等各種分類器取得較好的分類效果。Bengio等[5]最早使用神經(jīng)網(wǎng)絡(luò)構(gòu)建語言模型。Mikolov等[6-7]2013年在Log-Bilinear模型[8]的基礎(chǔ)上提出了word2vec技術(shù)。Kalchbrenner等[9]提出動(dòng)態(tài)卷積神經(jīng)網(wǎng)絡(luò)(Dynamic Convolutional Neural Network, DCNN)的模型處理長(zhǎng)度不同的文本,將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)應(yīng)用于NLP。Kim[10]對(duì)比了不同詞向量構(gòu)造方法,利用提前訓(xùn)練的詞向量作為輸入,通過CNN實(shí)現(xiàn)句子級(jí)的文本分類。但傳統(tǒng)CNN無法深度學(xué)習(xí)池化后的特征,本文采用CNN-BiGRU聯(lián)合網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)。

    Lee等[11]利用基于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)和CNN訓(xùn)練文本的向量,通過普通人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)實(shí)現(xiàn)文本分類,說明了添加文本序列信息可以提高分類的準(zhǔn)確率。普通RNN可以有效地利用近距離的語義特征[12-13],但存在梯度消失的不足,

    為解決這一問題,RNN出現(xiàn)了多個(gè)變種循環(huán)神經(jīng)網(wǎng)絡(luò)模型。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Long Short-Term Memory,LSTM)[14],在文本上可以提取長(zhǎng)距離的語義特征。

    Zhou等[15]提出C-LSTM進(jìn)行文本分類,但忽略了文本上下文的特征聯(lián)系。雙向長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(Bidirectional LSTM, BiLSTM)[16]則由前向傳播和后向傳播的兩個(gè)LSTM組合而成,提取全局特征彌補(bǔ)了LSTM的不足;但網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,所需參數(shù)多,時(shí)間代價(jià)大。Cho等[12]提出了門限循環(huán)單元(Gated Recurrent Unit,GRU),GRU網(wǎng)絡(luò)結(jié)構(gòu)相對(duì)LSTM更加簡(jiǎn)單,能有效縮短模型訓(xùn)練時(shí)間。雙向門限循環(huán)神經(jīng)網(wǎng)絡(luò)(Bidirectional Gated Recurrent Unit, BiGRU)則是由正向GRU、反向GRU、正反向GRU的輸出狀態(tài)連接層組成的神經(jīng)網(wǎng)絡(luò)。

    綜上,BiGRU相對(duì)于BiLSTM的網(wǎng)絡(luò)結(jié)構(gòu)較為簡(jiǎn)單,時(shí)間代價(jià)小。因此,本文采用BiGRU學(xué)習(xí)CNN池化后的特征得到句子體系的特征表示。

    Bahdanau等[17]最早提出了注意力機(jī)制理論,并將其應(yīng)用到機(jī)器翻譯領(lǐng)域。Mnih等[18]在RNN模型上使用了注意力機(jī)制來進(jìn)行圖像分類,使得注意力機(jī)制真正意義上流行了起來。Xu等[19]展示了如何使用學(xué)習(xí)得到的注意力機(jī)制為模型生成過程提供更多可解釋性;Luong等[20]提出了全局、局部?jī)煞N注意力機(jī)制,促進(jìn)了基于注意力機(jī)制的模型在NLP的應(yīng)用。胡榮磊等[21]將LSTM和前饋?zhàn)⒁饬δP拖嘟Y(jié)合,提出了一種文本情感分析方案。王偉等[22]提出BiGRU-Attention模型進(jìn)行情感分類。陳潔等[23]提出了基于并行混合神經(jīng)網(wǎng)絡(luò)模型的短文本情感分析方法,

    以上結(jié)合注意力機(jī)制進(jìn)行情感分析的模型,皆說明了通過引入注意力機(jī)制能有效地提高了情感分類的準(zhǔn)確度。

    由于利用傳統(tǒng)CNN或BiGRU網(wǎng)絡(luò)進(jìn)行特征學(xué)習(xí)時(shí),CNN在局部特征提取上較BiGRU具有優(yōu)勢(shì),但缺乏句子體系的特征表示,而一個(gè)模型對(duì)特征的學(xué)習(xí)能力會(huì)直接影響文本分類效果,所用本文提出聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制的模型進(jìn)行情感分析。

    本文的主要工作如下:

    1)針對(duì)中文文本,提出了CNN-BiGRU聯(lián)合網(wǎng)絡(luò)模型學(xué)習(xí)文本特征,充分利用CNN局部特征的強(qiáng)學(xué)習(xí)能力,使用BiGRU網(wǎng)絡(luò)獲取此層次前后向特征,提取句子體系的特征表示,從而提高文本情感分析的準(zhǔn)確率,并在時(shí)間代價(jià)上驗(yàn)證了此網(wǎng)絡(luò)的有效性。

    2)在聯(lián)合網(wǎng)絡(luò)模型上引入注意力模型,獲取文本中的重點(diǎn)特征,降低噪聲特征的干擾,從而進(jìn)一步提高文本情感分析的準(zhǔn)確率。

    1 詞向量

    本文實(shí)驗(yàn)采用谷歌開源工具word2vec來構(gòu)建文本詞向量。word2vec技術(shù)包括兩種模型:連續(xù)詞袋模型(CBOW)和Skip-gram模型。CBOW模型根據(jù)上下文預(yù)測(cè)一個(gè)詞,而Skip-gram模型正好相反,是利用當(dāng)前詞來預(yù)測(cè)周圍的詞。本文使用Skip-gram模型。

    Skip-gram模型分為輸入層、投影層和輸出層,模型結(jié)構(gòu)如圖1所示。

    如果上下文窗口大小設(shè)置為4,且設(shè)當(dāng)前詞W(t)所對(duì)應(yīng)的向量形式為V(W(t)),其周圍4個(gè)詞所對(duì)應(yīng)的向量形式為V(W(t+2))、V(W(t+1))、V(W(t-1))、V(W(t-2)),則Skip-gram模型通過中間詞預(yù)測(cè)周圍詞,是利用中間詞向量V(W(t))的條件概率值來求解,如式(1)所示:

    2 聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制模型本文提出了CNN-BiGRU聯(lián)合網(wǎng)絡(luò)引入注意力機(jī)制(C-BG-A)的文本情感分析方法。

    結(jié)構(gòu)主要可分為CNN-BiGRU聯(lián)合網(wǎng)絡(luò)特征學(xué)習(xí)和CNN-BiGRU-Attention特征篩選。

    2.1 CNN-BiGRU聯(lián)合網(wǎng)絡(luò)特征學(xué)習(xí)本文利用CNN提取局部短語特征。CNN是一種前饋神經(jīng)網(wǎng)絡(luò),模型結(jié)構(gòu)主要包括輸入層、卷積層、池化層、全連接層和輸出層五部分,CNN的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

    1)輸入層。將嵌入層的輸出作為輸入,句子中每個(gè)詞的詞向量為xi∈Rn×d,其中n是詞數(shù),d是向量維度,本文定為100維。

    2)卷積層。通過設(shè)置好大小的濾波器來完成對(duì)輸入文本句子特征的提取,如式(2)所示:

    其中:ω是卷積核;h是卷積核的尺寸;

    xi:i+h-1是i到i+h-1個(gè)詞組成的句子向量;b是偏置項(xiàng);通過卷積層后,得到特征矩陣c=[c1,c2,…,cn-h+1]。

    3)池化層。通過對(duì)卷積層之后得到的句子局部特征矩陣c進(jìn)行下采樣,求得局部值的最優(yōu)解Mi。這里采用MaxPooling技術(shù),如式(3)所示:

    由于BiGRU輸入必須是序列化結(jié)構(gòu),池化將中斷序列結(jié)構(gòu)c,所以需要添加全連接層,將池化層后的向量Mi連接成特征矩陣U,如式(4)所示:

    將新的連續(xù)高階窗口U作為BiGRU的輸入。BiGRU由正向GRU、反向GRU、正反向GRU的輸出狀態(tài)連接層組成,網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。

    若記t時(shí)刻正向GRU輸出的隱藏狀態(tài)為t,反向GRU輸出的隱藏狀態(tài)為t,則BiGRU輸出的隱藏狀態(tài)ht,其具體的計(jì)算過程如式(5)~(7)所示:

    GRU是對(duì)LSTM的一種改進(jìn),它也存在一個(gè)貫穿始終的記憶狀態(tài)單元(Memory Unit),該記憶單元用更新門代替原來LSTM中的遺忘門和輸入門,即在網(wǎng)絡(luò)結(jié)構(gòu)上要比LSTM更為簡(jiǎn)單,且所需參數(shù)減少,從而能夠提高模型訓(xùn)練速度。GRU的原理如圖4所示。其具體的計(jì)算過程如式(8)~(11)所示:

    其中:wz、wr、w為權(quán)值矩陣;zt為更新門;rt為重置門;t為備選激活函數(shù);ht為激活函數(shù);Ut為t時(shí)刻GRU的輸入;

    σ為sigmoid激活函數(shù)。

    2.2 CNN-BiGRU-Attention特征篩選

    注意力機(jī)制通過對(duì)文本向量的語義編碼分配不同的注意力權(quán)重,以區(qū)分文本中信息的重要性大小,提高分類的準(zhǔn)確率。本文使用前饋?zhàn)⒁饬δP?,注意力模型結(jié)構(gòu)如圖5所示。

    1)生成目標(biāo)注意力權(quán)重vt,如式(12)所示:

    其中:σ是一種注意力學(xué)習(xí)函數(shù)tanh;ht是CNN-BiGRU網(wǎng)絡(luò)輸出的特征向量。

    2)注意力權(quán)重概率化,通過softmax函數(shù)生成概率向量pt,如式(13)所示:

    3)注意力權(quán)重配置,將生成的注意力權(quán)重配置給對(duì)應(yīng)的隱層狀態(tài)語義編碼ht,使模型生成的注意力權(quán)重發(fā)揮作用,αt是ht的加權(quán)平均值,權(quán)值是pt,如式(14)所示:

    2.3 C-BG-A模型

    C-BG-A模型網(wǎng)絡(luò)結(jié)構(gòu)如圖6所示。主要包括三個(gè)部分:一是CNN+BiGRU的網(wǎng)絡(luò)構(gòu)建;二是引入注意力模型;三是用sigmoid分類器進(jìn)行分類。

    下面針對(duì)C-BG-A模型進(jìn)行詳細(xì)介紹:

    1)將文本輸入到word2vec模型中訓(xùn)練,句子中每個(gè)詞的詞向量為xi∈Rn×d,其中n是詞數(shù),d是向量維度,則句子矩陣S可表示為

    2)添加CNN層,利用式(2)~(3)得到局部短語特征矩陣Mi。

    3)添加全連接層,利用式(4)將局部短語特征Mi拼接成序列結(jié)構(gòu)U。

    4)添加BiGRU層,利用式(5)~(11)學(xué)習(xí)序列U得到句子特征表示Hct。

    5)引入注意力機(jī)制,利用式(12)~(14)得到Hct的加權(quán)平均值A(chǔ)ct。

    6)經(jīng)過dropout層后,得到特征向量A。

    7)添加Dense層,參數(shù)為1,激活函數(shù)為sigmoid函數(shù),對(duì)文本特征進(jìn)行分類:

    p(y|A,w,b)=sigmoid(w·A+b)

    8)模型損失函數(shù)定為對(duì)數(shù)損失函數(shù),模型會(huì)通過更新參數(shù)權(quán)值矩陣w和偏置向量b,從而達(dá)到優(yōu)化模型的效果。

    2.4 模型訓(xùn)練本文將情感分析問題看成一個(gè)二分類的問題,分類函數(shù)選為sigmoid函數(shù),如式(15)所示:

    其中:樣本是{x, y}, y是消極0或者積極1,x是樣本特征向量;ω代表可訓(xùn)練參數(shù)。

    模型訓(xùn)練的目標(biāo)實(shí)質(zhì)就是最小化損失函數(shù)。本文在編譯模型時(shí),損失函數(shù)為對(duì)數(shù)損失函數(shù),一般是與sigmoid相對(duì)應(yīng)的損失函數(shù)。

    訓(xùn)練模型參數(shù)ω如式(16)所示:

    其中:yi為輸入xi的真實(shí)類別,hω(xi)為預(yù)測(cè)輸入xi屬于類別1的概率。

    模型的優(yōu)化器選為Adam(Adaptive moment estimation),Adam優(yōu)化算法是一種計(jì)算每個(gè)參數(shù)的自適應(yīng)學(xué)習(xí)率的方法,結(jié)合了AdaGrad和RMSProp兩種優(yōu)化算法的優(yōu)點(diǎn)。參數(shù)的更新不受梯度的伸縮變換影響,變化平穩(wěn),如式(17)~(21)所示:

    評(píng)價(jià)函數(shù)為accuracy函數(shù),用于評(píng)估當(dāng)前訓(xùn)練模型的性能。

    3 實(shí)驗(yàn)與分析在帶有情感標(biāo)簽的中文購物評(píng)論文本上,對(duì)提出的C-BG-A模型情感分析方法進(jìn)行驗(yàn)證與分析。實(shí)驗(yàn)環(huán)境配置數(shù)據(jù)如表1所示。

    3.1 實(shí)驗(yàn)環(huán)境與數(shù)據(jù)

    實(shí)驗(yàn)數(shù)據(jù)來自網(wǎng)絡(luò)購物的評(píng)論,數(shù)據(jù)內(nèi)容對(duì)象類型有酒店、牛奶、書籍、手機(jī)等。評(píng)論情感標(biāo)簽分為兩類[0,1],消極的情感為0,積極的情感為1。例如:“地理位置優(yōu)越,交通方便,飯店環(huán)境好,服務(wù)優(yōu)良,洗衣迅捷”,情感為積極,“手機(jī)系統(tǒng)差,容易壞.部分按鍵不靈活,半年后就會(huì)出現(xiàn)在大問題.”,情感為消極。數(shù)據(jù)集設(shè)置為:總數(shù)21105條,訓(xùn)練集16884條,驗(yàn)證集2000條,測(cè)試集2221條。

    3.2 參數(shù)設(shè)置參數(shù)設(shè)置會(huì)直接影響后續(xù)模型的分類效果,具體的參數(shù)設(shè)置如表2所示。

    3.3 評(píng)價(jià)指標(biāo)

    準(zhǔn)確度(Accuracy)、精確度(Precision)、召回率(Recall)、F值(Fθ)這4個(gè)模型評(píng)測(cè)指標(biāo)是NLP模型評(píng)估的常用標(biāo)準(zhǔn)。設(shè)總的測(cè)試集個(gè)數(shù)為TP+TN+FP+FN,其具體含義如表3所示。

    3.4 對(duì)比實(shí)驗(yàn)設(shè)置實(shí)驗(yàn)設(shè)置以下多組對(duì)比實(shí)驗(yàn),包括傳統(tǒng)機(jī)器學(xué)習(xí)算法支持向量機(jī)(Support Vector Machine,SVM)與深度學(xué)習(xí)網(wǎng)絡(luò)的比較,單一網(wǎng)絡(luò)與聯(lián)合網(wǎng)絡(luò)的比較,及與引入注意力模型的網(wǎng)絡(luò)對(duì)比。網(wǎng)絡(luò)輸入均是利用word2vec訓(xùn)練的詞向量。

    1)SVM[24]:采用傳統(tǒng)機(jī)器學(xué)習(xí)算法SVM進(jìn)行情感分析。

    2)BiLSTM[16]:?jiǎn)我坏腂iLSTM網(wǎng)絡(luò)。

    3)BiGRU:?jiǎn)我坏腂iGRU網(wǎng)絡(luò)。

    4)CNN[25]:?jiǎn)我坏腃NN網(wǎng)絡(luò)。

    5)CNN+BiLSTM:先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiLSTM網(wǎng)絡(luò)。

    6)CNN+BiGRU:先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiGRU網(wǎng)絡(luò)。

    7)CNN+BiLSTM+Attention(CNN+BiLSTM+Att):先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiLSTM網(wǎng)絡(luò),最后引入Attention機(jī)制。

    8)CNN+BiGRU+Attention(C-BG-A):先添加一個(gè)CNN網(wǎng)絡(luò),再添加一個(gè)BiGRU網(wǎng)絡(luò),最后引入Attention機(jī)制。

    3.5 實(shí)驗(yàn)結(jié)果分析

    實(shí)驗(yàn)在測(cè)試集上計(jì)算出Accuracy值、Precision值、Recall值、F1值,對(duì)比結(jié)果如表4所示。

    從表4顯示的8組模型對(duì)比結(jié)果可看出:從兩個(gè)綜合評(píng)測(cè)指標(biāo)Accuracy、F1上來看,C-BG-A準(zhǔn)確率達(dá)到92.03%,F(xiàn)1值達(dá)到91.93%,均優(yōu)于對(duì)比模型。SVM雖然取得較好的分類效果,但基于深度學(xué)習(xí)的7組模型明顯優(yōu)于SVM。第5、6與之前3組模型的對(duì)比,體現(xiàn)出本文提出的CNN-BiGRU聯(lián)合網(wǎng)絡(luò)提取特征的優(yōu)勢(shì),因?yàn)镃NN對(duì)文本特征的強(qiáng)學(xué)習(xí)能力有助于聯(lián)合模型對(duì)深層次特征的學(xué)習(xí),而雙向循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)序列化特征前后的學(xué)習(xí)能力,在聯(lián)合模型對(duì)CNN提取的特征進(jìn)行再加工時(shí),起到正影響的作用。第7、8與5、6組的對(duì)比,可知在聯(lián)合模型的基礎(chǔ)上添加注意力機(jī)制能有效地提高模型分類的準(zhǔn)確度,因?yàn)樽⒁饬C(jī)制分配給特征不同的權(quán)重,讓模型學(xué)習(xí)到了特征之間的輕重不同之分,有助于模型快速掌握重要的特征。第8與7組的比較,說明利用BiGRU學(xué)習(xí)CNN池化后的特征較BiLSTM效果更佳。

    為了更直觀地反映基于深度學(xué)習(xí)的7組模型的優(yōu)劣,本文選擇繪畫驗(yàn)證集的準(zhǔn)確率(val_acc)和損失率(val_loss)變化圖。準(zhǔn)確率的變化如圖7所示,損失率的變化如圖8所示。

    從圖7可看出:總體上7組模型準(zhǔn)確度都不斷上升,第二次迭代后均達(dá)86%以上,其中C-BG-A模型的準(zhǔn)確度均達(dá)90%以上,且趨勢(shì)平穩(wěn),不如其余6組模型波動(dòng)性大??梢奀-BG-A模型在提取文本特征上更為優(yōu)秀和穩(wěn)定,在短時(shí)間內(nèi)準(zhǔn)確度可達(dá)較高水平且趨勢(shì)穩(wěn)定,即在迭代次數(shù)較少的情況下也可以達(dá)到較高的準(zhǔn)確度,在第5次迭代時(shí)達(dá)到最高值92.93%。

    從圖7中也可發(fā)現(xiàn),有BiGRU參與的模型準(zhǔn)確度都能快速達(dá)到較高水平且波幅較平穩(wěn),相對(duì)與BiLSTM表現(xiàn)更好。模型損失率是越小越好。從圖8中可看出:CNN模型的波動(dòng)最大,其余6組都較為集中;細(xì)看可發(fā)現(xiàn),C-BG-A模型的損失率第1次迭代結(jié)果就達(dá)到0.2552,第2次迭代結(jié)果為最低值0.2051,且趨勢(shì)平穩(wěn)。綜合圖7~8的分析結(jié)果,C-BG-A模型具有收斂性快、準(zhǔn)確度高、穩(wěn)定性強(qiáng)的特點(diǎn),相比較其他6組模型在文本分類上更具有優(yōu)勢(shì)。

    為了量化模型的優(yōu)劣,本文在測(cè)試集上進(jìn)行預(yù)測(cè),樣本總數(shù)為2221。實(shí)驗(yàn)統(tǒng)計(jì)了預(yù)測(cè)結(jié)果的TP值、FP值、TN值、FN值、Right值、Wrong值,Right為模型預(yù)測(cè)正確的樣本數(shù),Wrong為模型預(yù)測(cè)錯(cuò)誤的樣本數(shù)。輸出結(jié)果為預(yù)測(cè)樣本是1概率,為方便統(tǒng)計(jì),將值大于0.5的定為1,其余為0。預(yù)測(cè)值統(tǒng)計(jì)的結(jié)果如表5所示。

    表5中,C-BG-A模型預(yù)測(cè)正確最多,錯(cuò)誤最少,可見C-BG-A模型最優(yōu)。

    針對(duì)模型的時(shí)間代價(jià)分析,本文給出5組對(duì)比模型完成每次迭代所需時(shí)間的對(duì)比圖,如圖9所示。

    實(shí)驗(yàn)盡可能統(tǒng)一其運(yùn)行條件,在減少因各方面因素不同對(duì)其影響的情況下進(jìn)行統(tǒng)計(jì)。從圖9模型的時(shí)間代價(jià)來看,單模型迭代所用時(shí)間均為最少,其中,BiGRU所用時(shí)間最短,因?yàn)槠渚W(wǎng)絡(luò)結(jié)構(gòu)最為簡(jiǎn)單。C-BG-A多數(shù)保持在117s/epoch。在時(shí)間代價(jià)上,C-BG-A比CNN+BiLSTM+Attention更有優(yōu)勢(shì),說明選擇BiGRU模型能有效地縮短模型的訓(xùn)練時(shí)間,具有高效性。

    利用模型對(duì)真實(shí)單句進(jìn)行預(yù)測(cè),展示了模型真實(shí)的運(yùn)用功能。選句子時(shí)要避免與原數(shù)據(jù)中的句子相同,否則會(huì)影響評(píng)估模型性能。為方便了解輸出結(jié)果含義,將值大于0.5的定為positive,其余定為negative。單句測(cè)試結(jié)果如表6所示。

    預(yù)測(cè)結(jié)果句子情緒從表6單句測(cè)試結(jié)果上來看,C-BG-A模型對(duì)隨機(jī)所選的單句的預(yù)測(cè)結(jié)果都是正確的,從而更加直觀地說明了C-BG-A能在中文文本分類問題上的成功應(yīng)用。

    綜上,針對(duì)本文所用數(shù)據(jù)集,利用CNN-BiGRU聯(lián)合模型提取特征優(yōu)于單模型CNN或BiGRU,再引入注意力機(jī)制能進(jìn)一步地提高文本分類的準(zhǔn)確率,且模型具有高效性和很好的應(yīng)用能力。

    4 結(jié)語

    本文提出了一種C-BG-A模型的中文文本情感分析方法。利用CNN局部特征的強(qiáng)學(xué)習(xí)能力,提取短語體系的特征。再利用BiGRU深度學(xué)習(xí)CNN中池化后連接組成的特征,加強(qiáng)短語特征之間的聯(lián)系,從而使模型學(xué)習(xí)到更深層次的句子體系特征表示。最后引入注意力機(jī)制進(jìn)行特征篩選,降低噪聲干擾。

    在中文網(wǎng)絡(luò)購物評(píng)論文本上進(jìn)行訓(xùn)練和測(cè)試,實(shí)驗(yàn)結(jié)果表明本文模型有效地提高了文本情感分類準(zhǔn)確率,且時(shí)間代價(jià)小。但由于本文模型使用的CNN網(wǎng)絡(luò)深度不夠,如何使用更深的CNN網(wǎng)絡(luò)作為聯(lián)合對(duì)象進(jìn)一步提高分類準(zhǔn)確率,是下一步工作的目標(biāo)。

    參考文獻(xiàn)(References)

    [1] 魏韡, 向陽, 陳千. 中文文本情感分析綜述[J]. 計(jì)算機(jī)應(yīng)用, 2011, 31(12): 3321-3323. (WEI W, XIANG Y, CHEN Q. Survey on Chinese text sentiment analysis[J]. Journal of Computer Applications, 2011, 31(12): 3321-3323.)

    [2] TURNEY P D. Thumbs up or thumbs down?: semantic orientation applied to unsupervised classification of reviews[C]// Proceedings of the 40th Annual Meeting on Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2002: 417-424.

    [3] NI X, XUE G, LING X, et al. Exploring in the weblog space by detecting informative and affective articles[C]// Proceedings of the 16th International Conference on World Wide Web. New York: ACM, 2007: 281-290.

    [4] PANG B, LEE L, VAITHYANATHAN S. Thumbs up?: sentiment classification using machine learning techniques[C]// Proceedings of the ACL-02 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2002: 79-86.

    [5] BENGIO Y, DUCHARME R, VINCENT P, et al. A neural probabilistic language model[J]. Journal of Machine Learning Research, 2003, 3: 1137-1155.

    [6] MIKOLOV T, CHEN K, CORRADO G, et al. Efficient estimation of word representations in vector space[EB/OL]. [2017-08-04]. http://www.surdeanu.info/mihai/teaching/ista555-spring15/readings/mikolov2013.pdf.

    [7] MIKOLOV T, SUTSKEVER I, CHEN K, et al. Distributed representations of words and phrases and their compositionality [EB/OL]. [2019-01-10]. http://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf.

    [8] MNIH A, HINTON G E. A scalable hierarchical distributed language model[C]// Proceedings of the 21st International Conference on Neural Information Processing. New York: Curran Associates Inc., 2008: 1081-1088.

    [9] KALCHBRENNER N, GREFENSTETTE E, BLUNSOM P. A convolutional neural network for modelling sentences[C]// Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2014: 655-665.

    [10] KIM Y. Convolutional neural networks for sentence classification[C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Proceeding. Stroudsburg, PA: Association for Computational Linguistics, 2014: 1746-1751.

    [11] LEE J Y, DERNONCOURT F. Sequential short-text classification with recurrent and convolutional neural networks[C]// Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2016, 515-520.

    [12] CHO K, van MERRIENBOER B, GULCEHRE C, et al. Learning phrase representions using RNN encoder-decoder for statistical machine translation [C]// Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing.Stroudsburg, PA: Association for Computational Linguistics, 2014: 1724-1734.

    [13] EBRAHIMI J, DOU D. Chain based RNN for relation classification[C]// Proceedings of the 2015 Annual Conference of the North American Chapter of the Association for Computational Linguistics. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1244-1249.

    [14] HOCHREITER S, SCHMIDHUBER J. Long short-term memory[J]. Neural Computation, 1997, 9(8): 1735-1780.

    [15] ZHOU C, SUN C, LIU Z, et al. A C-LSTM neural network for text classification[EB/OL].[2019-01-09].https://arxiv.org/abs/1511.08630.

    [16] XIAO Z, LIANG P. Chinese sentiment analysis using bidirectional LSTM with word embedding[C]// Proceedings of the 2016 International Conference on Cloud Computing and Security, LNSC 10040. Berlin: Springer, 2016: 601-610.

    [17] BAHDANAU D, CHO K, BENGIO Y. Neural machine translation by jointly learning to align and translate[EB/OL]. [2018-03-20]. https://arxiv.org/pdf/1409.0473v7.pdf.

    [18] MNIH V, HEESS N, GRAVES A, et al. Recurrent models of visual attention[C]// Proceedings of the 27th International Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2014: 2204-2212.

    [19] XU K, BA J, KIROS R, et al. Show, attend and tell: neural image caption generation with visual attention[EB/OL]. [2018-03-20]. https://arxiv.org/pdf/1502.03044.pdf.

    [20] LUONG M PHAM H, MANNING C D. Effective approaches to attention-based neural machine translation[C]// Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg, PA: Association for Computational Linguistics, 2015: 1412-1421.

    [21] 胡榮磊, 芮璐, 齊筱, 等. 基于循環(huán)神經(jīng)網(wǎng)絡(luò)和注意力模型的文本情感分析[J/OL]. 計(jì)算機(jī)應(yīng)用研究, 2019, 36(11). [2018-12-10]. http://www.arocmag.com/article/02-2019-11-025.html. (HU R L, RUI L, QI X, et al. Text sentiment analysis based on recurrent neural network and attention model[J/OL]. Application Research of Computers, 2019, 36(11). [2018-12-10]. http://www.arocmag.com/article/02-2019-11-025.html.)

    [22] 王偉, 孫玉霞, 齊慶杰, 等. 基于BiGRU-Attention神經(jīng)網(wǎng)絡(luò)的文本情感分類模型[J/OL]. 計(jì)算機(jī)應(yīng)用研究, 2018, 36(12) [2018-12-10]. http://www.arocmag.com/article/02-2019-12-045.html (WANG W, SUN Y X, QI Q J, et al. Text sentiment classification model based on BiGRU-Attention neural network[J/OL]. Application Research of Computers, 2018, 36(12)[2018-12-10]. http://www.arocmag.com/article/02-2019-12-045.html.)

    [23] 陳潔, 邵志清, 張歡歡, 等. 基于并行混合神經(jīng)網(wǎng)絡(luò)模型的短文本情感分析[J/OL]. 計(jì)算機(jī)應(yīng)用, 2019. [2018-12-10]. http://kns.cnki.net/kcms/detail/51.1307.TP.20190329.1643.008.html. (CHEN J, SHAO Z Q, ZHANG H H, et al. Short text sentiment analysis based on parallel hybrid neural network model[J/OL]. Journal of Computer Applications, 2019. [2018-12-10]. http://kns.cnki.net/kcms/detail/51.1307.TP.20190329.1643.008.html.)

    [24] 常丹, 王玉珍. 基于SVM的用戶評(píng)論情感分析方法研究[J]. 棗莊學(xué)院學(xué)報(bào), 2019, 36(2): 73-78. (CHANG D, WANG Y Z. Research on the method of user comment sentiment analysis based on SVM[J]. Journal of Zaozhuang University, 2019, 36(2): 73-78.)

    [25] 王煜涵, 張春云, 趙寶林, 等. 卷積神經(jīng)網(wǎng)絡(luò)下的Twitter文本情感分析[J]. 數(shù)據(jù)采集與處理, 2018, 33(5): 921-927. (WANG Y H, ZHANG C Y, ZHAO B L, et al. Sentiment analysis of twitter data based on CNN[J]. Journal of Data Acquisition and Processing, 2018, 33(5): 921-927.)

    猜你喜歡
    注意力機(jī)制卷積神經(jīng)網(wǎng)絡(luò)
    面向短文本的網(wǎng)絡(luò)輿情話題
    基于自注意力與動(dòng)態(tài)路由的文本建模方法
    基于深度學(xué)習(xí)的問題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
    軟件工程(2017年11期)2018-01-05 08:06:09
    InsunKBQA:一個(gè)基于知識(shí)庫的問答系統(tǒng)
    基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    亚洲精品成人av观看孕妇| 99国产综合亚洲精品| 后天国语完整版免费观看| 各种免费的搞黄视频| 黄色a级毛片大全视频| 久久久久网色| 一区二区日韩欧美中文字幕| 久久久久久久久久久久大奶| 欧美另类一区| a级毛片黄视频| 国产亚洲精品第一综合不卡| 精品国产乱码久久久久久男人| 日本午夜av视频| 制服人妻中文乱码| 一区二区三区激情视频| 深夜精品福利| 中文欧美无线码| 国产视频首页在线观看| 欧美成人午夜精品| 高清视频免费观看一区二区| 免费高清在线观看视频在线观看| 两个人看的免费小视频| 国产成人欧美| 女人久久www免费人成看片| 欧美成狂野欧美在线观看| 国产精品一区二区在线不卡| 超碰97精品在线观看| 蜜桃在线观看..| 天天躁夜夜躁狠狠久久av| 自拍欧美九色日韩亚洲蝌蚪91| 国语对白做爰xxxⅹ性视频网站| 999久久久国产精品视频| 国产在线视频一区二区| 精品国产乱码久久久久久小说| 我的亚洲天堂| 国产一级毛片在线| 国产精品.久久久| 日本午夜av视频| xxxhd国产人妻xxx| 亚洲 国产 在线| www.av在线官网国产| 国产色视频综合| 国产日韩一区二区三区精品不卡| 欧美亚洲日本最大视频资源| 美女高潮到喷水免费观看| 一区在线观看完整版| 日本av手机在线免费观看| 婷婷色av中文字幕| 在线精品无人区一区二区三| 免费高清在线观看视频在线观看| 两个人看的免费小视频| 国产高清视频在线播放一区 | 19禁男女啪啪无遮挡网站| 两性夫妻黄色片| 黑人欧美特级aaaaaa片| 18禁观看日本| 香蕉丝袜av| 操美女的视频在线观看| 免费日韩欧美在线观看| 成年动漫av网址| 大话2 男鬼变身卡| 国产片内射在线| 久久久久国产精品人妻一区二区| 亚洲精品一二三| 这个男人来自地球电影免费观看| 亚洲欧洲精品一区二区精品久久久| 国产精品99久久99久久久不卡| 人妻 亚洲 视频| 久久久亚洲精品成人影院| 国产精品三级大全| 免费看av在线观看网站| 亚洲av日韩精品久久久久久密 | 麻豆乱淫一区二区| 亚洲av美国av| 精品国产一区二区久久| 欧美精品啪啪一区二区三区 | 欧美黄色片欧美黄色片| 人人妻人人澡人人看| 国产成人免费无遮挡视频| 老司机靠b影院| 老汉色av国产亚洲站长工具| 操美女的视频在线观看| 亚洲欧美一区二区三区国产| 欧美黑人欧美精品刺激| 久久这里只有精品19| 久久精品国产综合久久久| 午夜免费成人在线视频| 久久人妻福利社区极品人妻图片 | 亚洲精品一二三| 国产色视频综合| 国产99久久九九免费精品| 中文字幕亚洲精品专区| 天堂中文最新版在线下载| 亚洲国产欧美在线一区| 亚洲中文字幕日韩| 中文字幕人妻丝袜一区二区| 国产欧美日韩综合在线一区二区| 热re99久久国产66热| 男女午夜视频在线观看| 国产精品 国内视频| 制服人妻中文乱码| 91字幕亚洲| 色网站视频免费| 一本—道久久a久久精品蜜桃钙片| 超碰成人久久| 亚洲av美国av| 欧美黄色淫秽网站| 在现免费观看毛片| 国产精品国产av在线观看| 免费人妻精品一区二区三区视频| 精品少妇久久久久久888优播| 亚洲国产欧美日韩在线播放| 免费观看人在逋| 国产男人的电影天堂91| 国产视频一区二区在线看| 欧美黑人欧美精品刺激| 视频区图区小说| 久久精品国产综合久久久| 国产又爽黄色视频| 又黄又粗又硬又大视频| 亚洲人成网站在线观看播放| bbb黄色大片| 亚洲欧美一区二区三区久久| 一区二区日韩欧美中文字幕| 亚洲美女黄色视频免费看| 国精品久久久久久国模美| 午夜精品国产一区二区电影| 国产福利在线免费观看视频| 色视频在线一区二区三区| 成人国产一区最新在线观看 | 777久久人妻少妇嫩草av网站| 欧美老熟妇乱子伦牲交| 桃花免费在线播放| 亚洲熟女毛片儿| 亚洲精品美女久久久久99蜜臀 | 国产亚洲av片在线观看秒播厂| 免费女性裸体啪啪无遮挡网站| 菩萨蛮人人尽说江南好唐韦庄| 日本欧美国产在线视频| 国产不卡av网站在线观看| 国产精品一国产av| 色婷婷久久久亚洲欧美| 黄色视频不卡| 亚洲精品国产一区二区精华液| 成年人午夜在线观看视频| 国产又色又爽无遮挡免| 国产精品秋霞免费鲁丝片| 不卡av一区二区三区| 国产午夜精品一二区理论片| 色精品久久人妻99蜜桃| 久久久久国产一级毛片高清牌| av在线播放精品| 色婷婷久久久亚洲欧美| av在线app专区| 高清视频免费观看一区二区| 亚洲激情五月婷婷啪啪| 91老司机精品| 波多野结衣av一区二区av| 国产精品 国内视频| 日本av手机在线免费观看| 亚洲国产精品国产精品| 免费高清在线观看视频在线观看| 久久久久久久久免费视频了| 黑人欧美特级aaaaaa片| 欧美在线一区亚洲| 久久免费观看电影| 大片电影免费在线观看免费| 日本欧美国产在线视频| 成人国产一区最新在线观看 | 日本vs欧美在线观看视频| 中文字幕av电影在线播放| 国产高清视频在线播放一区 | 免费高清在线观看日韩| 极品人妻少妇av视频| 王馨瑶露胸无遮挡在线观看| 黄色视频在线播放观看不卡| 亚洲少妇的诱惑av| 国产在线视频一区二区| 黄频高清免费视频| 狂野欧美激情性xxxx| 一本久久精品| tube8黄色片| 成年美女黄网站色视频大全免费| 成人国产av品久久久| 免费日韩欧美在线观看| 久久精品久久久久久久性| 热99久久久久精品小说推荐| 麻豆av在线久日| 欧美中文综合在线视频| 丝袜脚勾引网站| 中文字幕制服av| 久久久国产欧美日韩av| 精品视频人人做人人爽| 一本一本久久a久久精品综合妖精| 久久免费观看电影| 可以免费在线观看a视频的电影网站| 无限看片的www在线观看| 国产深夜福利视频在线观看| 宅男免费午夜| 亚洲欧美一区二区三区黑人| 狂野欧美激情性xxxx| www日本在线高清视频| 国产一区有黄有色的免费视频| 亚洲av日韩精品久久久久久密 | www.熟女人妻精品国产| 美女福利国产在线| 下体分泌物呈黄色| 91成人精品电影| 亚洲人成网站在线观看播放| 亚洲人成77777在线视频| 交换朋友夫妻互换小说| 日本一区二区免费在线视频| 少妇人妻久久综合中文| 午夜福利视频精品| 午夜免费成人在线视频| 精品国产一区二区三区久久久樱花| 精品欧美一区二区三区在线| 亚洲精品日本国产第一区| 国产在线观看jvid| 国产女主播在线喷水免费视频网站| av又黄又爽大尺度在线免费看| 热99国产精品久久久久久7| 97在线人人人人妻| 久久鲁丝午夜福利片| 男人操女人黄网站| 18禁黄网站禁片午夜丰满| 欧美日韩视频高清一区二区三区二| 欧美精品av麻豆av| 欧美 亚洲 国产 日韩一| 狂野欧美激情性bbbbbb| 久久精品国产a三级三级三级| 在线精品无人区一区二区三| 18在线观看网站| 欧美黄色淫秽网站| 热re99久久国产66热| 18禁观看日本| 老司机影院毛片| 一区二区av电影网| 久久国产精品人妻蜜桃| 建设人人有责人人尽责人人享有的| 亚洲男人天堂网一区| 国产精品一区二区在线观看99| 久久天躁狠狠躁夜夜2o2o | 99国产精品免费福利视频| 亚洲一码二码三码区别大吗| 十分钟在线观看高清视频www| 99久久综合免费| 久久久久久人人人人人| 成年人免费黄色播放视频| 国产精品秋霞免费鲁丝片| 老司机深夜福利视频在线观看 | 国产淫语在线视频| 国产av精品麻豆| 熟女少妇亚洲综合色aaa.| 亚洲欧美激情在线| 少妇被粗大的猛进出69影院| 丝袜人妻中文字幕| 国产精品一区二区免费欧美 | 精品少妇一区二区三区视频日本电影| 精品人妻一区二区三区麻豆| 午夜福利在线免费观看网站| 久久久久视频综合| 狠狠精品人妻久久久久久综合| 欧美精品人与动牲交sv欧美| 99国产精品一区二区三区| 日本黄色日本黄色录像| 两个人看的免费小视频| 国产欧美日韩一区二区三 | 日韩制服骚丝袜av| 天堂俺去俺来也www色官网| 国产熟女欧美一区二区| 50天的宝宝边吃奶边哭怎么回事| 另类亚洲欧美激情| 亚洲欧洲日产国产| 午夜福利视频在线观看免费| 黄色片一级片一级黄色片| 国产亚洲av高清不卡| 欧美激情极品国产一区二区三区| 亚洲av电影在线观看一区二区三区| 精品亚洲成a人片在线观看| 欧美人与性动交α欧美精品济南到| 国产精品一区二区精品视频观看| 午夜福利免费观看在线| 亚洲 欧美一区二区三区| 久久天堂一区二区三区四区| 成人三级做爰电影| 国产日韩欧美亚洲二区| 精品久久久久久电影网| 亚洲国产成人一精品久久久| 国产精品国产三级专区第一集| 亚洲精品国产av成人精品| 亚洲精品美女久久av网站| 亚洲欧洲精品一区二区精品久久久| 天天影视国产精品| 国产97色在线日韩免费| 嫩草影视91久久| 国产黄频视频在线观看| 午夜91福利影院| 19禁男女啪啪无遮挡网站| 伦理电影免费视频| 久久国产精品男人的天堂亚洲| 菩萨蛮人人尽说江南好唐韦庄| 久久久久久免费高清国产稀缺| 交换朋友夫妻互换小说| 女性被躁到高潮视频| 成人免费观看视频高清| 少妇猛男粗大的猛烈进出视频| 欧美黄色片欧美黄色片| 搡老乐熟女国产| 欧美精品高潮呻吟av久久| 视频区图区小说| 老汉色∧v一级毛片| 亚洲精品自拍成人| 亚洲欧美精品综合一区二区三区| 国产女主播在线喷水免费视频网站| 国语对白做爰xxxⅹ性视频网站| 久久鲁丝午夜福利片| 成人影院久久| 国产精品国产av在线观看| 2018国产大陆天天弄谢| av在线老鸭窝| 爱豆传媒免费全集在线观看| 午夜福利视频在线观看免费| 亚洲av男天堂| 91成人精品电影| 久久这里只有精品19| 中文字幕亚洲精品专区| 99精品久久久久人妻精品| 亚洲中文字幕日韩| 中国美女看黄片| 免费日韩欧美在线观看| 51午夜福利影视在线观看| 国精品久久久久久国模美| www.999成人在线观看| 亚洲欧洲精品一区二区精品久久久| 国产淫语在线视频| 亚洲欧洲日产国产| 国产精品久久久人人做人人爽| 国产男女内射视频| avwww免费| 少妇的丰满在线观看| 亚洲专区中文字幕在线| 在线观看免费午夜福利视频| 亚洲精品国产av蜜桃| 免费观看a级毛片全部| 黄网站色视频无遮挡免费观看| 欧美精品人与动牲交sv欧美| 美女国产高潮福利片在线看| 国产福利在线免费观看视频| 黄色视频在线播放观看不卡| 视频在线观看一区二区三区| 国产日韩欧美视频二区| 成年人黄色毛片网站| 久久久精品区二区三区| 亚洲五月婷婷丁香| 建设人人有责人人尽责人人享有的| 久久精品成人免费网站| 韩国高清视频一区二区三区| 成人手机av| 日韩一区二区三区影片| 亚洲色图 男人天堂 中文字幕| 性色av一级| 国产黄频视频在线观看| 每晚都被弄得嗷嗷叫到高潮| 亚洲五月婷婷丁香| 热re99久久精品国产66热6| 亚洲av国产av综合av卡| 下体分泌物呈黄色| 丝袜人妻中文字幕| 国产无遮挡羞羞视频在线观看| 嫁个100分男人电影在线观看 | 又大又黄又爽视频免费| 十八禁高潮呻吟视频| 两人在一起打扑克的视频| 女人高潮潮喷娇喘18禁视频| 99热网站在线观看| 国产又爽黄色视频| 免费av中文字幕在线| 午夜免费观看性视频| 美女扒开内裤让男人捅视频| 午夜福利一区二区在线看| 黑人猛操日本美女一级片| 一区福利在线观看| 免费av中文字幕在线| 热99久久久久精品小说推荐| 精品一区二区三区av网在线观看 | 啦啦啦啦在线视频资源| 精品熟女少妇八av免费久了| www.自偷自拍.com| 国产精品亚洲av一区麻豆| 国产在线观看jvid| 国产精品欧美亚洲77777| 午夜福利一区二区在线看| av一本久久久久| 久久毛片免费看一区二区三区| 精品一区在线观看国产| 在线精品无人区一区二区三| 午夜福利视频精品| 少妇裸体淫交视频免费看高清 | 日韩中文字幕欧美一区二区 | 人人妻,人人澡人人爽秒播 | 亚洲精品一区蜜桃| 大码成人一级视频| 欧美黑人精品巨大| 欧美久久黑人一区二区| 国产三级黄色录像| 国语对白做爰xxxⅹ性视频网站| 免费观看av网站的网址| 桃花免费在线播放| 天天躁狠狠躁夜夜躁狠狠躁| 国产精品免费大片| 午夜福利,免费看| 看免费av毛片| 精品久久久久久久毛片微露脸 | 老司机影院成人| 欧美精品一区二区大全| 国语对白做爰xxxⅹ性视频网站| 99国产综合亚洲精品| 欧美乱码精品一区二区三区| 成在线人永久免费视频| av不卡在线播放| 你懂的网址亚洲精品在线观看| 亚洲自偷自拍图片 自拍| 狠狠婷婷综合久久久久久88av| 精品国产国语对白av| 国产精品av久久久久免费| 亚洲欧美一区二区三区久久| 亚洲欧美精品自产自拍| 9热在线视频观看99| 人成视频在线观看免费观看| 日韩 亚洲 欧美在线| 久久天躁狠狠躁夜夜2o2o | 男的添女的下面高潮视频| 欧美精品啪啪一区二区三区 | 久久人妻福利社区极品人妻图片 | 交换朋友夫妻互换小说| 99热全是精品| 免费观看a级毛片全部| 久久人人97超碰香蕉20202| 亚洲国产av新网站| 亚洲欧美色中文字幕在线| av又黄又爽大尺度在线免费看| 国产免费又黄又爽又色| 亚洲欧洲日产国产| 中文字幕人妻丝袜一区二区| 王馨瑶露胸无遮挡在线观看| 纵有疾风起免费观看全集完整版| 国产日韩欧美视频二区| bbb黄色大片| 亚洲成人免费av在线播放| 自拍欧美九色日韩亚洲蝌蚪91| 另类亚洲欧美激情| 日日摸夜夜添夜夜爱| 国产有黄有色有爽视频| 精品福利观看| 国产精品一国产av| 精品亚洲成a人片在线观看| 熟女少妇亚洲综合色aaa.| 欧美激情 高清一区二区三区| 亚洲精品av麻豆狂野| 免费高清在线观看日韩| 精品福利观看| 观看av在线不卡| 97在线人人人人妻| 夫妻午夜视频| 欧美日本中文国产一区发布| 一本久久精品| 免费看十八禁软件| 好男人电影高清在线观看| av又黄又爽大尺度在线免费看| 国产精品国产av在线观看| 亚洲 欧美一区二区三区| 丝袜美腿诱惑在线| 秋霞在线观看毛片| 国产国语露脸激情在线看| 在线观看一区二区三区激情| 成人18禁高潮啪啪吃奶动态图| 精品人妻熟女毛片av久久网站| av国产久精品久网站免费入址| 人成视频在线观看免费观看| 美女视频免费永久观看网站| 亚洲成国产人片在线观看| 国产午夜精品一二区理论片| 国产1区2区3区精品| 香蕉丝袜av| 侵犯人妻中文字幕一二三四区| 国产精品一国产av| 一个人免费看片子| 中国国产av一级| 人人妻人人澡人人爽人人夜夜| 国产老妇伦熟女老妇高清| 亚洲人成电影观看| 亚洲精品一区蜜桃| 久久久精品94久久精品| 80岁老熟妇乱子伦牲交| 91精品国产国语对白视频| 免费观看av网站的网址| 天堂俺去俺来也www色官网| 精品一区二区三区四区五区乱码 | 性少妇av在线| 赤兔流量卡办理| 免费一级毛片在线播放高清视频 | 岛国毛片在线播放| 在线 av 中文字幕| 亚洲天堂av无毛| 少妇精品久久久久久久| 9色porny在线观看| 一级毛片黄色毛片免费观看视频| 国产精品国产三级国产专区5o| 精品国产乱码久久久久久小说| 国产又爽黄色视频| 人人妻人人添人人爽欧美一区卜| 你懂的网址亚洲精品在线观看| 秋霞在线观看毛片| 性少妇av在线| 1024香蕉在线观看| 丰满少妇做爰视频| 麻豆av在线久日| 自线自在国产av| www.精华液| 大香蕉久久网| 欧美日韩精品网址| 视频区图区小说| h视频一区二区三区| 国精品久久久久久国模美| 久久99一区二区三区| 在线观看www视频免费| 七月丁香在线播放| 亚洲国产精品999| av国产久精品久网站免费入址| 亚洲激情五月婷婷啪啪| 乱人伦中国视频| 国产精品 欧美亚洲| 九草在线视频观看| 黄色视频在线播放观看不卡| 国产国语露脸激情在线看| h视频一区二区三区| 啦啦啦视频在线资源免费观看| 欧美在线一区亚洲| 亚洲专区中文字幕在线| 一级毛片电影观看| 久久国产精品大桥未久av| 亚洲欧美精品综合一区二区三区| 久久久精品国产亚洲av高清涩受| h视频一区二区三区| 国产成人免费无遮挡视频| 老鸭窝网址在线观看| www.自偷自拍.com| 久久ye,这里只有精品| 90打野战视频偷拍视频| 少妇 在线观看| 老司机午夜十八禁免费视频| 18禁国产床啪视频网站| 中文字幕精品免费在线观看视频| 男人操女人黄网站| 日韩精品免费视频一区二区三区| 99国产精品99久久久久| 亚洲av国产av综合av卡| 91成人精品电影| 天堂8中文在线网| 男女免费视频国产| 狠狠精品人妻久久久久久综合| 欧美国产精品一级二级三级| 老司机影院毛片| 国产精品一二三区在线看| 少妇的丰满在线观看| 日本黄色日本黄色录像| 9热在线视频观看99| 精品国产一区二区久久| 熟女av电影| 2021少妇久久久久久久久久久| 两性夫妻黄色片| 精品一区二区三卡| 精品高清国产在线一区| 99国产精品一区二区蜜桃av | 日本a在线网址| 日韩 亚洲 欧美在线| 日本av免费视频播放| 亚洲精品一区蜜桃| 午夜激情久久久久久久| 国产精品二区激情视频| 啦啦啦中文免费视频观看日本| 精品久久久久久久毛片微露脸 | 久久久精品国产亚洲av高清涩受| 十八禁高潮呻吟视频| 精品久久蜜臀av无| 巨乳人妻的诱惑在线观看| 国产高清videossex| 日韩精品免费视频一区二区三区| 爱豆传媒免费全集在线观看| 男女无遮挡免费网站观看| 国产视频首页在线观看| 久热这里只有精品99| 大片电影免费在线观看免费| 久久久精品免费免费高清| 亚洲精品国产色婷婷电影| 国产伦理片在线播放av一区| 黄片播放在线免费| 女性生殖器流出的白浆| 欧美日韩av久久| 国产成人影院久久av| 黑人巨大精品欧美一区二区蜜桃| 十分钟在线观看高清视频www| kizo精华| 国产免费视频播放在线视频| 免费女性裸体啪啪无遮挡网站| 一级a爱视频在线免费观看| 一级a爱视频在线免费观看| 亚洲五月婷婷丁香| 黑人巨大精品欧美一区二区蜜桃| 爱豆传媒免费全集在线观看| 欧美精品高潮呻吟av久久| 国产高清videossex| 在线精品无人区一区二区三| 真人做人爱边吃奶动态|