• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的文本分類(lèi)技術(shù)研究進(jìn)展

    2021-02-05 03:02:42鄭灶賢項(xiàng)鳳濤吳建宅
    計(jì)算機(jī)工程 2021年2期
    關(guān)鍵詞:分類(lèi)深度文本

    何 力,鄭灶賢,項(xiàng)鳳濤,吳建宅,譚 林

    (1.國(guó)防科技大學(xué)智能科學(xué)學(xué)院,長(zhǎng)沙 410073;2.南方電網(wǎng)數(shù)字電網(wǎng)研究院有限公司,廣州 510555;3.湖南天河國(guó)云科技有限公司,長(zhǎng)沙 410073)

    0 概述

    文本分類(lèi)技術(shù)經(jīng)歷了從專(zhuān)家系統(tǒng)到機(jī)器學(xué)習(xí)再到深度學(xué)習(xí)的發(fā)展過(guò)程。在20世紀(jì)80年代以前,基于規(guī)則系統(tǒng)的文本分類(lèi)方法需要領(lǐng)域?qū)<叶x一系列分類(lèi)規(guī)則,通過(guò)規(guī)則匹配判斷文本類(lèi)別?;谝?guī)則的分類(lèi)方法容易理解,但該方法依賴(lài)專(zhuān)家知識(shí),系統(tǒng)構(gòu)建成本高且可移植性差。20世紀(jì)90年代,機(jī)器學(xué)習(xí)技術(shù)逐漸走向成熟,出現(xiàn)了許多經(jīng)典的文本分類(lèi)算法,如決策樹(shù)[1]、樸素貝葉斯[2]、支持向量機(jī)[3]、最大熵[4]、最近鄰[5]等,這些方法部分克服了上述缺點(diǎn),一定程度上實(shí)現(xiàn)了分類(lèi)器的自動(dòng)生成,被廣泛應(yīng)用于各個(gè)領(lǐng)域。然而,機(jī)器學(xué)習(xí)方法在構(gòu)建分類(lèi)器之前通常需要繁雜的人工特征工程,這限制了其進(jìn)一步發(fā)展。

    2012年之后,深度學(xué)習(xí)算法引起了研究者的廣泛關(guān)注。深度學(xué)習(xí)為機(jī)器學(xué)習(xí)建模提供了一種直接端到端的解決方案,可避免復(fù)雜的特征工程。GolVe[6]和word2vec[7]等詞向量模型的提出,使深度學(xué)習(xí)算法成功地應(yīng)用到文本處理領(lǐng)域,隨后出現(xiàn)了各種基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Network,DNN)的文本分類(lèi)方法。這些方法主要采用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和注意力機(jī)制等深度學(xué)習(xí)技術(shù),并且取得了比傳統(tǒng)方法更為出色的性能。近年來(lái),圖卷積網(wǎng)絡(luò)(Graph Convolutional Network,GCN)、區(qū)域嵌入和元學(xué)習(xí)等一些新的深度學(xué)習(xí)方法也被應(yīng)用于文本分類(lèi)領(lǐng)域。

    本文對(duì)基于深度神經(jīng)網(wǎng)絡(luò)的文本分類(lèi)技術(shù)進(jìn)行介紹和分析,闡述卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制等方法在文本分類(lèi)中的應(yīng)用和發(fā)展情況,總結(jié)各類(lèi)方法的特點(diǎn)及區(qū)別,并對(duì)不同方法的性能表現(xiàn)和適用場(chǎng)景進(jìn)行比較,討論在應(yīng)用深度學(xué)習(xí)方法處理文本分類(lèi)任務(wù)時(shí)應(yīng)當(dāng)注意的問(wèn)題。在此基礎(chǔ)上,指出針對(duì)該技術(shù)未來(lái)的研究方向。

    1 基于深度學(xué)習(xí)的文本分類(lèi)方法

    傳統(tǒng)機(jī)器學(xué)習(xí)方法采用詞袋(Bag-of-Words,BoW)模型表示文本,導(dǎo)致文本特征數(shù)據(jù)出現(xiàn)高維、稀疏問(wèn)題,影響文本分析的效率和性能。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,出現(xiàn)了更為有效的文本表示方法。文獻(xiàn)[8]提出的神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型(Neural Network Language Model,NNLM)將單詞映射到低維稠密空間,采用詞向量度量單詞之間的語(yǔ)義相關(guān)性。文獻(xiàn)[9]提出的word2vec模型實(shí)現(xiàn)了詞向量的高效計(jì)算,被廣泛應(yīng)用于自然語(yǔ)言處理領(lǐng)域。

    基于深度學(xué)習(xí)的文本分類(lèi)方法以詞向量對(duì)詞語(yǔ)進(jìn)行語(yǔ)義表示,然后通過(guò)語(yǔ)義組合的方式獲得句子和文檔的語(yǔ)義表示[10]。神經(jīng)網(wǎng)絡(luò)語(yǔ)義組合方法主要包括卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制等,這些方法采用了不同的組合方式將詞級(jí)別的語(yǔ)義組合到句子和文檔級(jí)別的語(yǔ)義。本節(jié)闡述卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制在深度學(xué)習(xí)文本分類(lèi)中的應(yīng)用情況,介紹相應(yīng)分類(lèi)方法,同時(shí)探討其他類(lèi)型的深度學(xué)習(xí)分類(lèi)模型。

    1.1 卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)最初是為圖像處理而構(gòu)建的,其結(jié)構(gòu)類(lèi)似于視覺(jué)皮層,之后被有效用于文本分類(lèi)。卷積神經(jīng)網(wǎng)絡(luò)為文本分類(lèi)提供了一種直接端到端的解決方案,相比傳統(tǒng)機(jī)器學(xué)習(xí)方法,其不需要開(kāi)發(fā)者準(zhǔn)備先驗(yàn)信息,并且能夠避免復(fù)雜的人工特征工程。文獻(xiàn)[11-13]將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于文本分類(lèi),分別使用了兩層卷積網(wǎng)絡(luò)、基于單詞向量的單層卷積網(wǎng)絡(luò)和基于字符向量的多層卷積網(wǎng)絡(luò)。

    文獻(xiàn)[11]提出基于兩層卷積網(wǎng)絡(luò)結(jié)構(gòu)的分類(lèi)模型DCNN。該模型采用一維卷積,不改變輸入序列寬度,其中池化層采用動(dòng)態(tài)池化策略返回k組最大值。通過(guò)一維卷積和動(dòng)態(tài)池化,DCNN可以實(shí)現(xiàn)連續(xù)多層卷積。該研究驗(yàn)證了在情感分類(lèi)和問(wèn)題分類(lèi)等任務(wù)上,神經(jīng)網(wǎng)絡(luò)方法性能優(yōu)于樸素貝葉斯、支持向量機(jī)等傳統(tǒng)分類(lèi)方法。

    文獻(xiàn)[12]提出單卷積層結(jié)構(gòu)的句子分類(lèi)模型TextCNN。該模型對(duì)文本進(jìn)行整行的卷積計(jì)算,從而使每次卷積的行數(shù)恰好對(duì)應(yīng)n-gram語(yǔ)言模型中的詞語(yǔ)個(gè)數(shù)n。相比在輸入向量的單一維度或部分維度上進(jìn)行卷積計(jì)算(例如DCNN),整行卷積保持了每個(gè)單詞的語(yǔ)義完整性,更具可理解性。因此,在自然語(yǔ)言處理中,單層CNN結(jié)構(gòu)使用較多,此處單層包含一對(duì)卷積層和池化層。與傳統(tǒng)機(jī)器學(xué)習(xí)方法以及RNN、DCNN等深度學(xué)習(xí)方法相比,TextCNN在一系列分類(lèi)任務(wù)上取得了優(yōu)異的結(jié)果,說(shuō)明淺層神經(jīng)網(wǎng)絡(luò)能夠在文本分類(lèi)任務(wù)上實(shí)現(xiàn)準(zhǔn)確分類(lèi)。

    文獻(xiàn)[13]提出字符級(jí)的卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)模型char-CNN。該模型是一個(gè)采用字符級(jí)的獨(dú)熱(one-hot)向量輸入的6層卷積網(wǎng)絡(luò)模型,其以詞向量表示字符,以字符向量取代單詞向量作為模型輸入,將多卷積層網(wǎng)絡(luò)連接到一個(gè)雙向循環(huán)層。char-CNN在短文本分類(lèi)上取得了與單詞向量方法相近的性能,但在新聞和百科分類(lèi)上,單詞向量方法性能更好。

    將卷積神經(jīng)網(wǎng)絡(luò)直接應(yīng)用到文本分類(lèi)可取得較好的效果,但相關(guān)研究并未止步于此。針對(duì)深度分類(lèi)模型復(fù)雜、深度網(wǎng)絡(luò)梯度消失和短文本內(nèi)容簡(jiǎn)短等問(wèn)題,文獻(xiàn)[14-16]分別提出了相應(yīng)的解決方案。

    文獻(xiàn)[14]提出了fastText模型。該模型將輸入詞序列投射到詞嵌入空間,然后通過(guò)一個(gè)平均池化層計(jì)算文檔向量的值,再連接到一個(gè)全連接層得到分類(lèi)結(jié)果。相比一般的卷積網(wǎng)絡(luò)結(jié)構(gòu),fastText避免了卷積操作,可以看作是一個(gè)特殊的卷積網(wǎng)絡(luò)模型。該模型還采用n-gram擴(kuò)充特征詞,以增加文本的時(shí)序特征。fastText模型結(jié)構(gòu)簡(jiǎn)單,但在多數(shù)分類(lèi)任務(wù)上取得了與VDCNN[17]和char-CNN等深度模型相當(dāng)?shù)姆诸?lèi)性能,進(jìn)一步說(shuō)明淺層學(xué)習(xí)在文本分類(lèi)問(wèn)題上能夠獲得深度模型的學(xué)習(xí)效果。

    文獻(xiàn)[15]提出深度卷積網(wǎng)絡(luò)分類(lèi)模型DPCNN。該模型參考深度殘差網(wǎng)絡(luò)(ResNet)[18],采用跳層連接技術(shù)以緩解在增加模型深度時(shí)出現(xiàn)的梯度消失問(wèn)題,其通過(guò)固定特征圖的數(shù)量,采用步長(zhǎng)為2的最大池化操作,使每個(gè)卷積層的數(shù)據(jù)規(guī)模和相應(yīng)的計(jì)算時(shí)間減半,從而形成一個(gè)金字塔。實(shí)驗(yàn)結(jié)果表明,在用戶(hù)評(píng)論和新聞數(shù)據(jù)分類(lèi)任務(wù)上,DPCNN的準(zhǔn)確率超過(guò)了char-CNN和VDCNN等分類(lèi)方法。

    由于短文本內(nèi)容簡(jiǎn)短,因此會(huì)導(dǎo)致分類(lèi)模型缺少足夠的特征進(jìn)行類(lèi)別判斷。對(duì)此,文獻(xiàn)[16]提出結(jié)合知識(shí)的CNN短文本分類(lèi)模型KPCNN。該模型將知識(shí)庫(kù)豐富的短文本信息與每篇短文和知識(shí)庫(kù)中的相關(guān)概念進(jìn)行結(jié)合,使預(yù)訓(xùn)練的詞和概念的嵌入相互連接,形成對(duì)應(yīng)的詞-概念嵌入作為CNN的輸入。該模型同時(shí)引入了字符級(jí)語(yǔ)義特征,將字符嵌入輸入一個(gè)單獨(dú)的CNN,通過(guò)兩個(gè)CNN子網(wǎng)絡(luò)分別提取詞-概念和字符的信息,并將兩個(gè)子網(wǎng)絡(luò)的輸出相互連接,送入輸出層得到分類(lèi)結(jié)果。實(shí)驗(yàn)結(jié)果表明,結(jié)合知識(shí)庫(kù)的概念信息和字符信息能夠有效提升CNN的分類(lèi)精度。

    增加卷積神經(jīng)網(wǎng)絡(luò)模型的深度能否帶來(lái)文本分類(lèi)性能的提升,這是一個(gè)重要的問(wèn)題。對(duì)此,文獻(xiàn)[19]分別將基于字符輸入的CNN模型和基于單詞輸入的CNN模型應(yīng)用于5個(gè)標(biāo)準(zhǔn)文本分類(lèi)和情感分析任務(wù)中進(jìn)行實(shí)驗(yàn)分析,結(jié)果表明:當(dāng)以字符序列作為文本輸入時(shí),深度模型能夠提供比淺層模型更好的性能,但是提升效果不顯著;當(dāng)以單詞序列作為文本輸入時(shí),簡(jiǎn)單的淺層網(wǎng)絡(luò)TextCNN的性能可以達(dá)到甚至優(yōu)于DenseNet[20]等深層模型。此外,單詞級(jí)淺層網(wǎng)絡(luò)性能要優(yōu)于深層字符級(jí)網(wǎng)絡(luò),這也證明文本分類(lèi)中單詞觀察比字符特征提取更有效。

    卷積神經(jīng)網(wǎng)絡(luò)在文本分類(lèi)任務(wù)中得到了成功應(yīng)用,特別是淺層卷積網(wǎng)絡(luò)模型,更適合處理文本分類(lèi)任務(wù)。然而,卷積神經(jīng)網(wǎng)絡(luò)需要開(kāi)發(fā)者指定精確的模型結(jié)構(gòu)并設(shè)置相應(yīng)的超參數(shù),這要求開(kāi)發(fā)者必須以自己的經(jīng)驗(yàn)確定哪些參數(shù)應(yīng)花費(fèi)精力調(diào)優(yōu),哪些參數(shù)設(shè)置對(duì)性能沒(méi)有影響,并且找出獨(dú)立于特定數(shù)據(jù)集的最佳設(shè)置。下文以TextCNN為例,分析使用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練文本分類(lèi)模型時(shí)應(yīng)當(dāng)注意的問(wèn)題。根據(jù)上文的實(shí)驗(yàn)結(jié)論和文獻(xiàn)[21]對(duì)TextCNN的敏感度分析,對(duì)影響卷積神經(jīng)網(wǎng)絡(luò)性能的各項(xiàng)參數(shù)進(jìn)行總結(jié),如表1所示。

    表1 卷積神經(jīng)網(wǎng)絡(luò)分類(lèi)模型參數(shù)說(shuō)明Table 1 Parameters description of classification model based on convolutional neural network

    輸入文本的特征表示在文本分類(lèi)中非常重要,傳統(tǒng)機(jī)器學(xué)習(xí)一般采用one-hot模型表示文本特征。但因?yàn)榫渥拥男畔⒑?jiǎn)短,不能向高維編碼提供足夠的信息,所以采用one-hot模型表示的CNN不適合文本分類(lèi),而詞嵌入將詞映射到稠密特征空間,更適合神經(jīng)網(wǎng)絡(luò)計(jì)算。詞向量可以采用隨機(jī)值初始化,也可以采用預(yù)先訓(xùn)練好的詞向量進(jìn)行初始化,常用的方法有word2vec和GolVe。在實(shí)際應(yīng)用中,采用預(yù)先訓(xùn)練好的詞向量初始化,可以加快訓(xùn)練迭代過(guò)程。對(duì)于詞嵌入維度大小,一般可以在50~200之間尋找最佳取值。對(duì)于文本詞典大小,并不是越大越好,詞典過(guò)大反而可能降低文本分類(lèi)的準(zhǔn)確率。

    CNN超參數(shù)的設(shè)定非常重要,其中包括卷積窗口大小的設(shè)置。由于文本卷積一般由整行卷積計(jì)算構(gòu)成,因此只需要確定每次卷積的行數(shù)即可,這個(gè)行數(shù)可以對(duì)應(yīng)n-gram模型中n的取值,例如按照2、3、4這樣來(lái)取值。不同的數(shù)據(jù)集有著不同的最優(yōu)窗口大小,一般文本長(zhǎng)度越長(zhǎng),窗口應(yīng)該越大。針對(duì)目標(biāo)數(shù)據(jù)集,首先應(yīng)找到單一卷積窗口的最佳值,然后在最佳值附近選取多個(gè)不同窗口大小的卷積核,再進(jìn)行不同卷積核的組合,找到最優(yōu)組合。特征圖的數(shù)量設(shè)置也很重要,合適的特征圖數(shù)量能夠提高分類(lèi)性能,但找到一個(gè)合適值非常耗時(shí),增大特征圖數(shù)量會(huì)增加訓(xùn)練時(shí)間。為了防止過(guò)擬合,模型通常在全連接層加入失活率,從而隨機(jī)地舍棄一部分連接。

    1.2 循環(huán)神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)在很多任務(wù)中有不錯(cuò)的表現(xiàn),但其需要固定卷積窗口的大小,導(dǎo)致無(wú)法建模更長(zhǎng)的序列信息,而循環(huán)神經(jīng)網(wǎng)絡(luò)恰好可以避免這一問(wèn)題。在文本分類(lèi)任務(wù)中,實(shí)際使用較多的長(zhǎng)短期記憶(Long Short Term Memory,LSTM)網(wǎng)絡(luò),從某種意義上其原理可以理解為捕獲變長(zhǎng)的n元語(yǔ)言信息。RNN能夠處理變長(zhǎng)文本,而CNN一般則要按照固定長(zhǎng)度對(duì)文本進(jìn)行截取,相比RNN,CNN超參調(diào)節(jié)過(guò)程也很繁瑣。因此,RNN是自然語(yǔ)言處理領(lǐng)域的常用模型。本節(jié)首先介紹LSTM和門(mén)控循環(huán)單元(Gated Recurrent Unit,GRU)的應(yīng)用,然后介紹RNN在文本分類(lèi)中應(yīng)用的一些新方法,最后分析比較CNN和RNN的文本分類(lèi)性能。

    LSTM網(wǎng)絡(luò)由HOCHREITER等人于1997提出[22],其是一種特殊的RNN,能夠?qū)W習(xí)長(zhǎng)期依賴(lài)關(guān)系。此后,研究者對(duì)其進(jìn)行了改進(jìn)和推廣,在處理很多問(wèn)題時(shí)都取得了成功。GRAVES于2012年給出LSTM的一個(gè)具體實(shí)現(xiàn)方案[23],本文對(duì)該文提出的模型進(jìn)行了分類(lèi)測(cè)試,發(fā)現(xiàn)其分類(lèi)性能不如TextCNN。LSTM的另一個(gè)變體是GRU,由CHO于2014年提出[24]。GRU將輸入門(mén)和遺忘門(mén)合并為一個(gè)單一的更新門(mén),同時(shí)合并了細(xì)胞狀態(tài)和隱含狀態(tài),因而其結(jié)構(gòu)較標(biāo)準(zhǔn)LSTM模型更簡(jiǎn)單。在一些分類(lèi)任務(wù)中,GRU性能超過(guò)了LSTM。

    對(duì)于自然語(yǔ)言處理任務(wù),如客戶(hù)評(píng)論情感分析,循環(huán)神經(jīng)網(wǎng)絡(luò)模型要解析整條評(píng)論內(nèi)容后方能作出結(jié)論,然而在實(shí)踐中,對(duì)于容易分類(lèi)的評(píng)論不需要讀取整個(gè)輸入。對(duì)此,文獻(xiàn)[25]提出一種快速閱讀分類(lèi)方法,其受人類(lèi)閱讀技巧的啟發(fā),通過(guò)一個(gè)智能循環(huán)代理評(píng)估當(dāng)前片段的重要性,以決定是進(jìn)行預(yù)測(cè)還是跳過(guò)某些文本,或者重讀部分語(yǔ)句。該方法的具體模型由一個(gè)LSTM和一個(gè)策略模塊構(gòu)成,其中策略模塊控制模型的閱讀和決策。在同一精度水平下,該方法能夠有效加速模型計(jì)算。文獻(xiàn)[26]提出基于信息共享機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)模型Multi-RNN,其采用多層LSTM結(jié)構(gòu),利用多任務(wù)數(shù)據(jù)訓(xùn)練模型,能夠通過(guò)多個(gè)任務(wù)的訓(xùn)練數(shù)據(jù)提高單一任務(wù)的分類(lèi)性能。

    相比CNN,RNN能夠方便地實(shí)現(xiàn)多層疊加,構(gòu)成多層神經(jīng)網(wǎng)絡(luò),例如多層LSTM或者多層GRU,因此,在序列標(biāo)注、命名實(shí)體識(shí)別、seq2seq模型等很多場(chǎng)景都有應(yīng)用。對(duì)于分類(lèi)任務(wù),文獻(xiàn)[26]對(duì)CNN和RNN進(jìn)行了測(cè)試,其中RNN采用文獻(xiàn)[23]提出的LSTM實(shí)現(xiàn),CNN分別采用TextCNN[12]和DCNN[11]實(shí)現(xiàn)。測(cè)試結(jié)果表明,在電影評(píng)論情感分類(lèi)任務(wù)上,RNN的性能不如TextCNN、DCNN等卷積網(wǎng)絡(luò)方法,說(shuō)明對(duì)于文本分類(lèi)任務(wù),卷積網(wǎng)絡(luò)方法更適合構(gòu)建文本的語(yǔ)義表示。此外,對(duì)于基于詞向量的循環(huán)神經(jīng)網(wǎng)絡(luò)模型,在網(wǎng)絡(luò)深度超過(guò)兩層后,分類(lèi)性能提升會(huì)很小,但深層模型能給字符型輸入的網(wǎng)絡(luò)(如char-CNN、char-RNN等)帶來(lái)性能提升。

    1.3 CNN-RNN組合模型

    卷積操作檢測(cè)特征具有平移不變性,但序列數(shù)據(jù)中的長(zhǎng)期依賴(lài)關(guān)系不能由卷積神經(jīng)網(wǎng)絡(luò)直接獲得,而是需要組合多個(gè)卷積層計(jì)算得到。雖然循環(huán)神經(jīng)網(wǎng)絡(luò)能夠從時(shí)序數(shù)據(jù)中學(xué)習(xí)長(zhǎng)期依賴(lài)關(guān)系,但是在處理長(zhǎng)文本時(shí),可能出現(xiàn)模型訓(xùn)練不穩(wěn)定的情況,在一些文本分類(lèi)任務(wù)上性能不如CNN[27]。針對(duì)這兩種網(wǎng)絡(luò)在文本處理中的不足,一些研究嘗試結(jié)合CNN和RNN,以期獲得性能更好的神經(jīng)網(wǎng)絡(luò)模型。根據(jù)卷積層和循環(huán)層在網(wǎng)絡(luò)架構(gòu)中的先后關(guān)系,可以將這些模型分為兩類(lèi),即先循環(huán)層后卷積層的RCNN和先卷積層后循環(huán)層的CRNN。

    在RCNN方面,文獻(xiàn)[28]針對(duì)卷積神經(jīng)網(wǎng)絡(luò)需要固定卷積核大小且可能導(dǎo)致上下文語(yǔ)義缺失的問(wèn)題,提出一個(gè)循環(huán)卷積神經(jīng)網(wǎng)絡(luò)模型。該模型由1層LSTM和1層CNN組成,首先采用雙向循環(huán)網(wǎng)絡(luò)學(xué)習(xí)文本表示,利用循環(huán)神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中心詞左側(cè)和右側(cè)的詞表示,然后將這兩個(gè)詞表示連接起來(lái)作為中心詞的表示,再輸入到卷積層。該模型同時(shí)利用了CNN和RNN的優(yōu)點(diǎn),即利用RNN學(xué)習(xí)詞序信息,利用CNN獲取文本主要成分。

    在CRNN方面,文獻(xiàn)[29]提出字符型輸入模型char-CRNN。該模型同樣是將卷積神經(jīng)網(wǎng)絡(luò)與雙向LSTM相結(jié)合,但順序不同,其首先使用多層卷積網(wǎng)絡(luò)處理輸入文本的字符序列,然后通過(guò)池化函數(shù)縮短序列的長(zhǎng)度,最后將生成的特征提供給一個(gè)雙向LSTM層進(jìn)行處理。char-CRNN采用與圖像二維卷積相同的計(jì)算方式,可進(jìn)行特征圖的組合卷積,實(shí)現(xiàn)字符序列的連續(xù)多層卷積。

    因?yàn)榫矸e層和池化層的局部性,現(xiàn)有的多數(shù)深度模型需要多層卷積才能捕獲更高層次的平移不變性特征。在此過(guò)程中,池化層往往只捕獲句子中最重要的特征,導(dǎo)致局部細(xì)節(jié)信息丟失。對(duì)此,文獻(xiàn)[30]提出一個(gè)CRNN模型,以RNN代替CNN模型中的池化層。該模型首先使用一個(gè)卷積層來(lái)提取文檔特征,然后以LSTM層代替池化層捕獲長(zhǎng)期依賴(lài)關(guān)系,從而通過(guò)去除池化層有效減少參數(shù)數(shù)量。

    在多標(biāo)簽文本分類(lèi)方面,針對(duì)現(xiàn)有方法在局部語(yǔ)義信息提取和標(biāo)簽相關(guān)性建模方面存在的不足,文獻(xiàn)[31]提出一個(gè)組合CNN和LSTM的多標(biāo)簽文本分類(lèi)模型。該模型利用以詞向量為輸入的CNN提取文本特征,將CNN的輸出向量作為L(zhǎng)STM的輸入,通過(guò)LSTM對(duì)標(biāo)簽之間的相關(guān)關(guān)系進(jìn)行建模,用于預(yù)測(cè)輸入文檔的標(biāo)簽序列。

    1.4 注意力機(jī)制

    傳統(tǒng)的編碼器-解碼器框架在編碼時(shí),可能會(huì)對(duì)不完全相關(guān)的信息進(jìn)行編碼。當(dāng)輸入很長(zhǎng)或者輸入信息豐富時(shí),編碼選擇會(huì)變得更加困難。在文本摘要和機(jī)器翻譯等任務(wù)中,輸入文本和輸出文本之間存在一定的對(duì)齊關(guān)系,這意味著每個(gè)生成步驟都與輸入文本的特定部分高度相關(guān),這種直覺(jué)激發(fā)了注意力機(jī)制。注意力機(jī)制試圖通過(guò)允許編碼器回顧輸入序列來(lái)緩解上述問(wèn)題,即編碼器會(huì)基于一個(gè)上下文向量來(lái)調(diào)節(jié)輸出[32]。

    深度學(xué)習(xí)方法在處理文本數(shù)據(jù)時(shí),通常采用求平均或者求和等方式將詞匯合成為語(yǔ)句及文檔的語(yǔ)義表示。實(shí)際上,文檔的不同部分對(duì)文本信息的影響是不同的,因此,通過(guò)引入注意力機(jī)制,深度學(xué)習(xí)在逐層合成文本語(yǔ)義過(guò)程中,就會(huì)像人類(lèi)閱讀文章一樣,對(duì)文本中不同句子以及句子中的不同詞匯給予不同的關(guān)注度,從而實(shí)現(xiàn)更合理的自然語(yǔ)言建模。

    文獻(xiàn)[33]模型將注意力機(jī)制應(yīng)用于機(jī)器翻譯,提高了翻譯性能。該模型利用多層感知器,根據(jù)解碼器的最后一個(gè)隱藏狀態(tài)確定注意力信號(hào)并將其作用到輸入隱藏狀態(tài)序列。注意力機(jī)制使得模型在預(yù)測(cè)一個(gè)目標(biāo)單詞時(shí)能夠自動(dòng)選擇原句子的相關(guān)部分作為解碼器的輸入。此后,注意力機(jī)制也被應(yīng)用到圖像描述生成[34]、機(jī)器閱讀理解[35]等其他自然語(yǔ)言處理任務(wù)中。

    在文本分類(lèi)任務(wù)上,文獻(xiàn)[36]在注意力機(jī)制的基礎(chǔ)上,考慮到文本是層次式結(jié)構(gòu),可以用詞向量表示句子,再由句子向量表示文檔,即采用“詞-句子-文章”的層次化結(jié)構(gòu)來(lái)表示一篇文本,提出層次化注意力機(jī)制模型HAN。該模型包含兩個(gè)層次的注意力機(jī)制,分別存在于詞層次和句子層次,具有對(duì)文本中重要性不同的句子和詞給予不同“注意力”的能力,其在提高分類(lèi)性能的同時(shí),還可以選擇出含有豐富信息的詞語(yǔ)和句子。

    現(xiàn)有方法大多采用粗粒度注意力機(jī)制,當(dāng)目標(biāo)單詞和上下文很長(zhǎng)時(shí)會(huì)引入信息損失。文獻(xiàn)[37]提出一種細(xì)粒度注意力機(jī)制來(lái)捕獲單詞級(jí)別的目標(biāo)和上下文之間的交互,從而減少粗粒度注意力機(jī)制造成的損失,在此基礎(chǔ)上,結(jié)合細(xì)粒度和粗粒度注意力形成多粒度注意力網(wǎng)絡(luò)(Multi-Grained Attention Network,MGAN)。在情感分類(lèi)測(cè)試中,MGAN性能優(yōu)于基本循環(huán)神經(jīng)網(wǎng)絡(luò)和多種注意力機(jī)制方法,說(shuō)明細(xì)粒度的交互可以為分類(lèi)帶來(lái)額外的有用信息。

    在文本分析過(guò)程中,注意力機(jī)制能夠根據(jù)目標(biāo)對(duì)象重點(diǎn)關(guān)注與之密切關(guān)聯(lián)的詞語(yǔ)和句子,而面向目標(biāo)的情感分析任務(wù)主要是分析句子中所描述對(duì)象的情感極性,因此,越來(lái)越多的研究將注意力機(jī)制應(yīng)用到情感分析任務(wù)中。文獻(xiàn)[38-39]使用注意力機(jī)制增強(qiáng)LSTM,從而為分類(lèi)提供額外的支持,實(shí)現(xiàn)了基于目標(biāo)的情感分析,說(shuō)明利用注意力機(jī)制的RNN能夠較好地解決這個(gè)問(wèn)題。文獻(xiàn)[40]分析注意力機(jī)制和CNN在完成這一任務(wù)時(shí)存在的不足,提出一種利用CNN進(jìn)行目標(biāo)情感分析的模型,并且設(shè)計(jì)針對(duì)目標(biāo)的變換單元,使目標(biāo)信息能夠被更好地表示。在該模型中,變換單元位于RNN層和CNN層之間,一方面將帶有上下文信息的詞特征結(jié)合目標(biāo)信息以實(shí)現(xiàn)目標(biāo)調(diào)整機(jī)制,另一方面保留上下文信息以實(shí)現(xiàn)上下文保存機(jī)制。文獻(xiàn)[41]提出一種基于記憶網(wǎng)絡(luò)的多跳注意力方法,將注意力機(jī)制應(yīng)用于記憶網(wǎng)絡(luò)。該方法采用多注意力計(jì)算層改進(jìn)記憶網(wǎng)絡(luò)中的信息區(qū)域查找過(guò)程,有效提高了情感分類(lèi)性能。

    1.5 其他深度學(xué)習(xí)分類(lèi)方法

    近年來(lái),深度學(xué)習(xí)在圖像領(lǐng)域的應(yīng)用進(jìn)展領(lǐng)先于自然語(yǔ)言處理領(lǐng)域,當(dāng)前文本分類(lèi)的研究借鑒了深度學(xué)習(xí)在圖像處理領(lǐng)域應(yīng)用的研究成果,例如圖卷積網(wǎng)絡(luò)、區(qū)域嵌入、元學(xué)習(xí)等。此外,一些研究人員在利用深度學(xué)習(xí)解決文本分類(lèi)問(wèn)題時(shí),還考慮使用強(qiáng)化學(xué)習(xí)和集成學(xué)習(xí)等方法。

    1.5.1 圖卷積網(wǎng)絡(luò)

    CNN和RNN模型考慮文本的順序信息和局部信息,能夠很好地捕獲連續(xù)詞序列中的語(yǔ)義信息,但忽略了全局的詞共現(xiàn),而詞共現(xiàn)中攜帶了不連續(xù)及長(zhǎng)距離的語(yǔ)義信息?;趫D網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)模型能夠更靈活地表征節(jié)點(diǎn)與節(jié)點(diǎn)之間的關(guān)系。因此,文獻(xiàn)[42]將圖卷積網(wǎng)絡(luò)應(yīng)用于文本分類(lèi),提出文本圖卷積網(wǎng)絡(luò)模型Text GCN。該模型采用兩層圖網(wǎng)絡(luò),構(gòu)建了單詞和文檔兩種節(jié)點(diǎn),相應(yīng)地有兩種類(lèi)型邊,邊的權(quán)重以TF-IDF和PMI來(lái)表征,并利用softmax分類(lèi)。Text GCN能夠獲取全局詞共現(xiàn)信息并使用有限標(biāo)注的文檔來(lái)執(zhí)行所需任務(wù),在多個(gè)基準(zhǔn)數(shù)據(jù)集上表現(xiàn)出色。

    1.5.2 區(qū)域嵌入

    短語(yǔ)的識(shí)別和表示在文本處理中非常有用,傳統(tǒng)的n-gram模型可以看作是該方法的近似,但會(huì)受到數(shù)據(jù)稀疏性的影響。針對(duì)多數(shù)CNN、RNN等深度學(xué)習(xí)模型忽略建模上下文信息重要性的問(wèn)題,文獻(xiàn)[43]提出區(qū)域嵌入方法LRE,其原理是一個(gè)詞的語(yǔ)義表示由自身含義及周?chē)~的含義共同確定,分別對(duì)應(yīng)詞嵌入和本地上下文單元,然后使用詞和相應(yīng)的本地上下文單元生成區(qū)域嵌入。該方法在完成文本分類(lèi)任務(wù)的同時(shí),還能捕捉到文本中顯著的短語(yǔ)表達(dá)。文獻(xiàn)[44]指出LRE僅能捕獲固定長(zhǎng)度區(qū)域內(nèi)的上下文信息,并且生成本地上下文單元需要消耗大量的內(nèi)存空間,進(jìn)而提出一種新的區(qū)域嵌入方法。該方法采用自適應(yīng)上下文單元替換原方法中的本地上下文單元,通過(guò)為每個(gè)區(qū)域生成一個(gè)上下文單元,使每個(gè)單詞與相應(yīng)的上下文單元交互,然后產(chǎn)生區(qū)域嵌入。與原有的區(qū)域嵌入模型LRE相比,新模型的參數(shù)更少,能夠利用一個(gè)小參數(shù)空間取得更優(yōu)的分類(lèi)性能,同時(shí)避免詞語(yǔ)歧義。

    1.5.3 元學(xué)習(xí)

    元學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域表現(xiàn)出優(yōu)越的性能,因?yàn)樵谟?jì)算機(jī)視覺(jué)中,低級(jí)模式可以在學(xué)習(xí)任務(wù)之間轉(zhuǎn)移。然而將元學(xué)習(xí)直接應(yīng)用于文本面臨挑戰(zhàn),因?yàn)閱卧~與任務(wù)具有相關(guān)性,在一類(lèi)任務(wù)中起重要作用的單詞,可能在另一類(lèi)任務(wù)中就不重要了。文獻(xiàn)[45]將動(dòng)態(tài)路由算法和典型的元學(xué)習(xí)框架相結(jié)合,模擬人類(lèi)的歸納能力,提出一個(gè)針對(duì)小樣本文本分類(lèi)的神經(jīng)網(wǎng)絡(luò)模型。該模型結(jié)合分布簽名來(lái)學(xué)習(xí)單詞編碼,通過(guò)元學(xué)習(xí)框架將這些簽名映射到注意力分?jǐn)?shù),然后計(jì)算單詞的詞匯表示。在小樣本分類(lèi)和關(guān)系分類(lèi)上,該模型性能優(yōu)于在詞匯知識(shí)上學(xué)習(xí)的原型網(wǎng)絡(luò)方法[46]。

    1.5.4 強(qiáng)化學(xué)習(xí)

    文本分類(lèi)在很大程度上依賴(lài)于表示學(xué)習(xí),文本分類(lèi)的表示模型主要包括詞袋模型、序列表示模型、基于注意力的模型和結(jié)構(gòu)化表示模型。結(jié)構(gòu)化表示模型能夠抽取句子結(jié)構(gòu),但需要預(yù)先指定解析樹(shù),而在實(shí)際中事先往往不知道具體的句子表示結(jié)構(gòu)。對(duì)此,文獻(xiàn)[47]提出一種無(wú)需明確結(jié)構(gòu)注釋即可識(shí)別任務(wù)相關(guān)句子結(jié)構(gòu)的強(qiáng)化學(xué)習(xí)方法。該方法使用一個(gè)結(jié)構(gòu)化表示模型學(xué)習(xí)文本表示,包括信息提取LSTM和分層結(jié)構(gòu)LSTM兩部分。其中:信息提取LSTM能夠刪除不相關(guān)的單詞并提取一個(gè)句子中與任務(wù)相關(guān)的單詞;分層結(jié)構(gòu)LSTM能夠發(fā)現(xiàn)與任務(wù)相關(guān)的結(jié)構(gòu)并構(gòu)建結(jié)構(gòu)化句子表示。該表征方法通過(guò)識(shí)別重要單詞或與任務(wù)相關(guān)的結(jié)構(gòu)來(lái)學(xué)習(xí)文本表示,從而獲得有競(jìng)爭(zhēng)力的分類(lèi)性能,為文本分類(lèi)的表示學(xué)習(xí)提供了一個(gè)新思路。

    1.5.5 集成深度學(xué)習(xí)

    文獻(xiàn)[48]提出一個(gè)隨機(jī)多模型深度學(xué)習(xí)方法,其使用DNN、CNN和RNN 3種深度學(xué)習(xí)架構(gòu),隨機(jī)生成各個(gè)模型的隱藏層個(gè)數(shù)和神經(jīng)元節(jié)點(diǎn)數(shù),然后由所有這些隨機(jī)深度學(xué)習(xí)模型進(jìn)行多數(shù)表決得出預(yù)測(cè)結(jié)果。該方法通過(guò)融合多種深度學(xué)習(xí)模型提高模型魯棒性和準(zhǔn)確性,能夠處理包括文本、視頻、圖像在內(nèi)的多種類(lèi)型的輸入。相比采用單一深度學(xué)習(xí)模型的方法,集成深度學(xué)習(xí)采用并行學(xué)習(xí)體系結(jié)構(gòu)構(gòu)建不同的深度神經(jīng)網(wǎng)絡(luò)分類(lèi)模型,然后通過(guò)集成學(xué)習(xí)方法組合各個(gè)DNN、RNN和CNN模型,最后形成統(tǒng)一的分類(lèi)框架,從而獲得更高的分類(lèi)精度,并可用于多種數(shù)據(jù)類(lèi)型。在實(shí)際應(yīng)用中,往往不是采用單一的深度模型,而是采用模型融合的方法建立多種深度模型,以此獲得更好的性能表現(xiàn)。

    2 深度學(xué)習(xí)文本分類(lèi)方法的性能分析和比較

    下文通過(guò)分析比較現(xiàn)有的深度學(xué)習(xí)分類(lèi)方法,為進(jìn)一步開(kāi)展深度學(xué)習(xí)在文本分類(lèi)中的應(yīng)用提供借鑒。首先,總結(jié)多種深度學(xué)習(xí)方法在標(biāo)準(zhǔn)數(shù)據(jù)集上的分類(lèi)性能。為了便于對(duì)各個(gè)方法進(jìn)行比較,采用文獻(xiàn)[13]建立的公開(kāi)數(shù)據(jù)集,如表2所示,其中:平均長(zhǎng)度指每篇文檔平均包含的單詞個(gè)數(shù);AG是一個(gè)新聞?wù)Z料集,包括世界、體育、商業(yè)和科技4個(gè)類(lèi)別;Sogou是搜狗新聞數(shù)據(jù)集,筆者結(jié)合拼音包和分詞工具將中文文本轉(zhuǎn)換為拼音序列,這樣英文模型就可以直接應(yīng)用到該數(shù)據(jù)集;Dbpedia是從維基百科中抽取的數(shù)據(jù),包含14個(gè)類(lèi)別;Yahoo!Answers是從雅虎問(wèn)答系統(tǒng)中抽取的問(wèn)題答案數(shù)據(jù)集,包含10個(gè)主題類(lèi)別;Yelp是Yelp數(shù)據(jù)挑戰(zhàn)賽的評(píng)論數(shù)據(jù)集;Amazon是亞馬遜用戶(hù)的產(chǎn)品評(píng)價(jià)數(shù)據(jù),用Ama表示;.P表示極性二分類(lèi)(正/負(fù));.F表示星級(jí)評(píng)價(jià)分類(lèi)。數(shù)據(jù)細(xì)節(jié)和數(shù)據(jù)預(yù)處理過(guò)程此處不再詳述。

    表2 數(shù)據(jù)集信息Table 2 Information of datasets

    表3按照時(shí)間順序列出了各個(gè)方法的分類(lèi)準(zhǔn)確率,由于TextCNN在原文采用了不同的實(shí)驗(yàn)數(shù)據(jù),因此此處引用文獻(xiàn)[19]對(duì)該模型的測(cè)試結(jié)果。

    1)邏輯回歸。BoW、BoW TFIDF、n-gram以及n-gram IFIDF方法均使用邏輯回歸進(jìn)行分本分類(lèi),區(qū)別在于所用的特征計(jì)算方法不同。BoW和BoW TFIDF選擇出現(xiàn)最頻繁的50 000個(gè)單詞作為特征,分別采用詞頻和詞頻逆文檔頻率計(jì)算特征值。n-gram選擇出現(xiàn)最頻繁的500 000個(gè)n元特征序列作為特征,特征值計(jì)算方法與BoW相同。

    2)支持向量機(jī)(SVM)。SVM+Unigram同BoW一樣使用詞袋模型表示文本,然后用SVM訓(xùn)練分類(lèi)器。SVM+Bigram采用二元語(yǔ)言模型表示文檔。SVM+AverageSG采用word2vec詞嵌入表示單詞,然后用所有單詞的詞向量平均值表示文檔,最后用支持向量機(jī)分類(lèi)。

    3)神經(jīng)網(wǎng)絡(luò)方法。表3中的神經(jīng)網(wǎng)絡(luò)方法在上節(jié)均有介紹,包括深度模型和淺層模型,分別記為Y和N。

    對(duì)典型深度學(xué)習(xí)文本分類(lèi)方法的特點(diǎn)和適用場(chǎng)景等進(jìn)行分析,如表4所示。

    表3 分類(lèi)準(zhǔn)確率比較Table 3 Comparison of classification accuracies %

    表4 典型深度學(xué)習(xí)文本分類(lèi)方法比較Table 4 Comparison of typical text classification methods based on deep learning

    由表3和表4可以看出:

    1)在傳統(tǒng)機(jī)器學(xué)習(xí)方面:對(duì)于大多數(shù)文本分類(lèi)任務(wù),神經(jīng)網(wǎng)絡(luò)方法性能優(yōu)于傳統(tǒng)的機(jī)器學(xué)習(xí)方法,例如在情感分類(lèi)和問(wèn)題分類(lèi)任務(wù)上,表3中的神經(jīng)網(wǎng)絡(luò)方法性能基本都超過(guò)了邏輯回歸和支持向量機(jī)這兩個(gè)經(jīng)典的分類(lèi)模型。

    2)在淺層模型方面:?jiǎn)尉矸e層的TextCNN采用預(yù)先訓(xùn)練好的word2vec詞向量初始化,相比隨機(jī)初始化可以提高CNN方法的準(zhǔn)確率;FastText采用n-gram擴(kuò)充特征詞,然后將詞向量輸入到一個(gè)全連接網(wǎng)絡(luò),取得了同基于詞向量CNN方法相當(dāng)?shù)男阅?;TextCNN和FastText方法的較優(yōu)性能,說(shuō)明對(duì)于文本分類(lèi)任務(wù),合理的淺層學(xué)習(xí)能夠達(dá)到深層學(xué)習(xí)的效果;ARE使用區(qū)域嵌入方法捕獲單詞上下文信息,類(lèi)似于FastText采用的n-gram模型,同樣取得了很好的分類(lèi)效果。

    3)在深度模型方面:char-CNN和char-CRNN的較優(yōu)性能,說(shuō)明對(duì)于大規(guī)模文本數(shù)據(jù)的分類(lèi)任務(wù),字符級(jí)的深度模型能夠取得同詞向量卷積神經(jīng)網(wǎng)絡(luò)相近的性能;HN-ATT使用注意力機(jī)制,通過(guò)對(duì)輸入詞或句子進(jìn)行差分評(píng)分來(lái)建立表示,相比單純采用序列表示模型的深度CNN或RNN取得了更好的分類(lèi)效果,說(shuō)明基于注意力機(jī)制的表征學(xué)習(xí)方法適用于自然語(yǔ)言處理;同深度殘差網(wǎng)絡(luò)在圖像識(shí)別上的優(yōu)秀表現(xiàn)一樣,DPCNN在文本分類(lèi)問(wèn)題上同樣表現(xiàn)出色。

    為更好地分析神經(jīng)網(wǎng)絡(luò)方法的分類(lèi)性能,本文對(duì)CNN、LSTM、GRU、MLP等基本網(wǎng)絡(luò)進(jìn)行性能測(cè)試,其中CNN分類(lèi)采用了經(jīng)典的TextCNN實(shí)現(xiàn)。此外,還增加了一個(gè)組合模型CRNN和一個(gè)淺層模型FastText。所有模型均調(diào)用Keras庫(kù)實(shí)現(xiàn),未做特別優(yōu)化,輸入均采用隨機(jī)初始化向量。Keras是一個(gè)由Python編寫(xiě)的開(kāi)源人工神經(jīng)網(wǎng)絡(luò)庫(kù),可以作為T(mén)ensorflow的高階應(yīng)用程序接口進(jìn)行深度學(xué)習(xí)模型的設(shè)計(jì)、調(diào)試、評(píng)估、應(yīng)用和可視化。IMDB情感分類(lèi)數(shù)據(jù)集是Stanford整理的一套影評(píng)情感數(shù)據(jù),含有25 000個(gè)訓(xùn)練樣本和25 000個(gè)測(cè)試樣本,可用于文本情感分類(lèi)。表5比較了不同分類(lèi)模型的網(wǎng)絡(luò)結(jié)構(gòu)、精度和運(yùn)行時(shí)間,其中運(yùn)行時(shí)間包括模型的訓(xùn)練時(shí)間和分類(lèi)測(cè)試時(shí)間。

    表5 深度學(xué)習(xí)基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu)IMDB分類(lèi)測(cè)試結(jié)果Table 5 Classification test results of deep learning basic network on IMDB

    測(cè)試結(jié)果表明,對(duì)于短文本分類(lèi)任務(wù),卷積神經(jīng)網(wǎng)絡(luò)性能優(yōu)于循環(huán)神經(jīng)網(wǎng)絡(luò)和多層感知器,比較適合構(gòu)建文本的語(yǔ)義表示。在常用的循環(huán)神經(jīng)網(wǎng)絡(luò)中,相比LSTM網(wǎng)絡(luò),門(mén)控循環(huán)單元分類(lèi)效果更好。FastText先提取n-gram特征得到特征序列,再對(duì)每個(gè)特征做詞嵌入操作,將句子中的所有詞向量相加求平均,得到句子的向量表示。采用unigram時(shí)不增加特征詞。同其他方法的特征詞集合一樣,F(xiàn)astText取得了與CNN相當(dāng)?shù)男阅?,但?xùn)練時(shí)間更短。通過(guò)引入bigram特征和增加二元特征序列,F(xiàn)astText的分類(lèi)性能甚至超過(guò)了CNN,但需要更大的計(jì)算開(kāi)銷(xiāo),此時(shí)FastText模型的訓(xùn)練時(shí)間為采用unigram特征的50倍左右,為T(mén)extCNN的5倍左右。

    3 未來(lái)研究方向

    3.1 新的文本處理深度架構(gòu)

    神經(jīng)網(wǎng)絡(luò)方法在文本分類(lèi)任務(wù)中得到了較多應(yīng)用,然而從已有研究和本文分析來(lái)看,深度模型未被證明比淺層模型更為有效。當(dāng)前文本分類(lèi)所采用的深度模型,來(lái)源于最初為圖像處理開(kāi)發(fā)的深度模型,其中圖像被表示為真實(shí)稠密數(shù)據(jù)。不同于圖像,文本是離散稀疏數(shù)據(jù),同樣結(jié)構(gòu)的深度網(wǎng)絡(luò)應(yīng)用到不同類(lèi)型的數(shù)據(jù)上,可能產(chǎn)生不同的結(jié)果[19]。例如,在卷積神經(jīng)網(wǎng)絡(luò)中,圖像在經(jīng)過(guò)卷積層后輸出依然是二維矩陣,而文本在經(jīng)過(guò)卷積層后一般會(huì)變成一維向量。此外,還應(yīng)在其他自然語(yǔ)言處理任務(wù)以及更多數(shù)據(jù)集,特別是中文文本集上,驗(yàn)證深度模型的有效性。

    3.2 結(jié)合知識(shí)的深度模型

    當(dāng)前的深度模型分類(lèi)方法同統(tǒng)計(jì)機(jī)器學(xué)習(xí)算法原理一樣,模型沒(méi)有利用已有知識(shí),不能像人一樣理解文本的語(yǔ)義。結(jié)合知識(shí),特別是利用HowNet、WordNet等知識(shí)庫(kù)進(jìn)行自然語(yǔ)言處理,將會(huì)給深度學(xué)習(xí)模型帶來(lái)新的提升。例如,文獻(xiàn)[50]在中文微博情感分類(lèi)中,利用HowNet情感詞集合對(duì)句子進(jìn)行詞性標(biāo)注,將輸入句子的詞性向量和句子內(nèi)容層面的詞向量結(jié)合作為卷積神經(jīng)網(wǎng)絡(luò)的輸入,對(duì)結(jié)合知識(shí)建立深度模型進(jìn)行了初步嘗試。未來(lái),結(jié)合知識(shí)庫(kù)和知識(shí)圖譜建立自然語(yǔ)言處理的深度模型,會(huì)是打破現(xiàn)有深度學(xué)習(xí)方法性能瓶頸的可能途徑。

    在許多實(shí)際的文本分析場(chǎng)景中有大量的未標(biāo)記數(shù)據(jù),但缺少足夠的標(biāo)記數(shù)據(jù)訓(xùn)練深度模型。雖然目前已出現(xiàn)一些無(wú)監(jiān)督或半監(jiān)督方法,例如針對(duì)小樣本類(lèi)別的零樣本學(xué)習(xí)策略,但這些方法仍處于研究探索中,需要設(shè)計(jì)能夠充分利用未標(biāo)記數(shù)據(jù)的深度學(xué)習(xí)方法。利用大量的未標(biāo)記數(shù)據(jù)構(gòu)建知識(shí)庫(kù)或知識(shí)圖譜,然后結(jié)合知識(shí)建立深度模型將是未來(lái)的一個(gè)研究方向。此外,采用強(qiáng)化學(xué)習(xí)方法同樣可以減少數(shù)據(jù)標(biāo)記工作。

    3.3 對(duì)抗學(xué)習(xí)

    對(duì)抗生成網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[51]為傳統(tǒng)機(jī)器學(xué)習(xí)提供了一種新的學(xué)習(xí)模式,生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)利用“對(duì)抗”的思想學(xué)習(xí)模型,生成網(wǎng)絡(luò)的目標(biāo)是生成盡量真實(shí)的數(shù)據(jù),例如文本、圖像、視頻,判別網(wǎng)絡(luò)的目標(biāo)是盡量區(qū)分生成對(duì)象的真假,這就像人與人之間通過(guò)競(jìng)爭(zhēng)而不斷進(jìn)步的情況。GAN可被廣泛應(yīng)用于自然語(yǔ)言處理領(lǐng)域,近年來(lái)在圖像描述(圖像到文本)[52]、機(jī)器翻譯(文本到文本)[53]、圖像生成(文本到圖像)[54-56]等任務(wù)中得到了成功應(yīng)用,其通過(guò)對(duì)抗學(xué)習(xí)增強(qiáng)人工神經(jīng)網(wǎng)絡(luò)的預(yù)測(cè)和生成能力,為自然語(yǔ)言處理和文本分析提供了一個(gè)新的技術(shù)途徑,例如可以采用對(duì)抗學(xué)習(xí)方法,以大量無(wú)監(jiān)督句子和少量帶標(biāo)簽的句子訓(xùn)練生成模型,模型最終可以生成特定情感傾向的句子。利用該模型可以進(jìn)行樣本自動(dòng)生成,從而解決深度學(xué)習(xí)中樣本數(shù)據(jù)獲取困難的問(wèn)題。

    4 結(jié)束語(yǔ)

    本文闡述深度學(xué)習(xí)在文本分類(lèi)中的應(yīng)用和研究進(jìn)展,對(duì)現(xiàn)有多種基于深度學(xué)習(xí)的文本分類(lèi)方法進(jìn)行分析和比較,并指出未來(lái)的研究方向。深度學(xué)習(xí)為文本分類(lèi)提供了一個(gè)新的解決方案,相比傳統(tǒng)的文本分類(lèi)方法,深度學(xué)習(xí)可以直接從輸入中學(xué)習(xí)特征表示,避免復(fù)雜的人工特征工程,簡(jiǎn)化文本預(yù)處理工作,使研究者更專(zhuān)注于數(shù)據(jù)挖掘算法本身。深度學(xué)習(xí)模型通過(guò)改進(jìn)表征學(xué)習(xí)方法和模型結(jié)構(gòu),能夠獲得比傳統(tǒng)統(tǒng)計(jì)學(xué)習(xí)模型更好的分類(lèi)性能,特別是卷積神經(jīng)網(wǎng)絡(luò),其在實(shí)際應(yīng)用中具有較好的分類(lèi)性能和泛化能力?,F(xiàn)有研究多針對(duì)英文文本建立深度模型,同時(shí)采用英文數(shù)據(jù)集進(jìn)行性能評(píng)測(cè),而這些方法對(duì)中文文本是否同樣有效,需要做進(jìn)一步的研究和驗(yàn)證。

    猜你喜歡
    分類(lèi)深度文本
    分類(lèi)算一算
    深度理解一元一次方程
    在808DA上文本顯示的改善
    分類(lèi)討論求坐標(biāo)
    深度觀察
    深度觀察
    基于doc2vec和TF-IDF的相似文本識(shí)別
    電子制作(2018年18期)2018-11-14 01:48:06
    深度觀察
    數(shù)據(jù)分析中的分類(lèi)討論
    教你一招:數(shù)的分類(lèi)
    亚洲精品影视一区二区三区av| 日韩人妻高清精品专区| 免费少妇av软件| 国产视频内射| 久久午夜福利片| 青青草视频在线视频观看| 国产成人免费观看mmmm| 久久久午夜欧美精品| 欧美人与善性xxx| 老师上课跳d突然被开到最大视频| 亚洲欧美中文字幕日韩二区| 国产精品女同一区二区软件| 我的女老师完整版在线观看| 神马国产精品三级电影在线观看| 亚洲av二区三区四区| 久久久a久久爽久久v久久| 免费在线观看成人毛片| 国产精品女同一区二区软件| 五月玫瑰六月丁香| 黄片无遮挡物在线观看| av.在线天堂| 看十八女毛片水多多多| 亚洲,欧美,日韩| kizo精华| 成年女人在线观看亚洲视频 | 舔av片在线| 床上黄色一级片| 日日撸夜夜添| 只有这里有精品99| 插逼视频在线观看| 97超碰精品成人国产| 欧美极品一区二区三区四区| 2021少妇久久久久久久久久久| 丰满乱子伦码专区| 看非洲黑人一级黄片| 国产精品一区二区性色av| 看免费成人av毛片| 国产日韩欧美在线精品| 欧美丝袜亚洲另类| 18禁裸乳无遮挡免费网站照片| 久久综合国产亚洲精品| 99久久中文字幕三级久久日本| 国产黄色免费在线视频| 寂寞人妻少妇视频99o| 国产有黄有色有爽视频| 亚洲性久久影院| 联通29元200g的流量卡| 中文字幕人妻熟人妻熟丝袜美| 99久国产av精品| 熟女人妻精品中文字幕| 春色校园在线视频观看| 六月丁香七月| 丰满乱子伦码专区| 欧美97在线视频| 久久人人爽人人片av| 三级毛片av免费| 亚洲精品国产av成人精品| 视频中文字幕在线观看| 九色成人免费人妻av| 黑人高潮一二区| 久久精品夜夜夜夜夜久久蜜豆| 国产黄频视频在线观看| 91午夜精品亚洲一区二区三区| 亚洲欧美精品自产自拍| 三级经典国产精品| 精品少妇黑人巨大在线播放| kizo精华| 国产成人午夜福利电影在线观看| 日韩在线高清观看一区二区三区| 国产成人a区在线观看| 老师上课跳d突然被开到最大视频| 亚洲av电影不卡..在线观看| 日本黄色片子视频| 女人被狂操c到高潮| 日本黄色片子视频| 亚洲精品中文字幕在线视频 | 一边亲一边摸免费视频| 亚洲av男天堂| 99热网站在线观看| 色综合亚洲欧美另类图片| 久久这里只有精品中国| 国产一区二区三区av在线| 神马国产精品三级电影在线观看| ponron亚洲| 欧美三级亚洲精品| 最近中文字幕2019免费版| 岛国毛片在线播放| 99re6热这里在线精品视频| 国产午夜精品论理片| 久久久欧美国产精品| 日韩欧美一区视频在线观看 | 国产单亲对白刺激| 非洲黑人性xxxx精品又粗又长| 婷婷色综合www| 国产亚洲av嫩草精品影院| 日本一二三区视频观看| 国产精品久久久久久精品电影小说 | 久久97久久精品| 乱人视频在线观看| 亚洲内射少妇av| 国产 一区精品| 亚洲av国产av综合av卡| 国产精品综合久久久久久久免费| 日本-黄色视频高清免费观看| 久久久久久久久久久免费av| av天堂中文字幕网| 18+在线观看网站| 午夜视频国产福利| 看黄色毛片网站| 中文资源天堂在线| 天天一区二区日本电影三级| 18+在线观看网站| 免费人成在线观看视频色| 国产高清三级在线| 国产一区有黄有色的免费视频 | 久久精品国产亚洲av涩爱| 97超碰精品成人国产| 亚洲人成网站在线观看播放| 小蜜桃在线观看免费完整版高清| 一级毛片aaaaaa免费看小| 午夜久久久久精精品| 日本黄色片子视频| 男人狂女人下面高潮的视频| 亚洲精品中文字幕在线视频 | 日韩欧美三级三区| 日韩三级伦理在线观看| 色吧在线观看| 国产精品日韩av在线免费观看| 欧美性感艳星| 激情五月婷婷亚洲| 狂野欧美激情性xxxx在线观看| 国产成人福利小说| 九色成人免费人妻av| 激情五月婷婷亚洲| 日韩强制内射视频| 乱人视频在线观看| 国产黄片视频在线免费观看| 女人十人毛片免费观看3o分钟| 日本av手机在线免费观看| 欧美zozozo另类| 国产免费视频播放在线视频 | 韩国高清视频一区二区三区| 非洲黑人性xxxx精品又粗又长| 中文字幕制服av| 天堂av国产一区二区熟女人妻| 久久久久久久亚洲中文字幕| 欧美日韩亚洲高清精品| 蜜桃亚洲精品一区二区三区| 免费黄网站久久成人精品| 丝瓜视频免费看黄片| 老女人水多毛片| 免费人成在线观看视频色| 天堂av国产一区二区熟女人妻| 亚洲av中文字字幕乱码综合| 久久鲁丝午夜福利片| 国产黄片美女视频| 久久久久久久久久人人人人人人| 看十八女毛片水多多多| 欧美日韩综合久久久久久| 亚洲国产高清在线一区二区三| 久久久久久九九精品二区国产| 欧美日韩在线观看h| 久久国产乱子免费精品| 男女下面进入的视频免费午夜| 亚洲自偷自拍三级| 狂野欧美激情性xxxx在线观看| 18禁在线播放成人免费| 一夜夜www| 久久久久九九精品影院| 国产成人aa在线观看| 美女高潮的动态| 超碰97精品在线观看| 女的被弄到高潮叫床怎么办| 成人鲁丝片一二三区免费| 如何舔出高潮| 日日啪夜夜爽| 久久这里有精品视频免费| 亚洲在久久综合| 日本黄大片高清| 日日啪夜夜撸| 欧美bdsm另类| 亚洲国产欧美在线一区| 久久久精品欧美日韩精品| 久久综合国产亚洲精品| 日日摸夜夜添夜夜爱| 亚洲欧美清纯卡通| 男人爽女人下面视频在线观看| 97精品久久久久久久久久精品| 青春草国产在线视频| av线在线观看网站| 又黄又爽又刺激的免费视频.| 午夜久久久久精精品| 午夜免费男女啪啪视频观看| 国产男女超爽视频在线观看| 久久久久久九九精品二区国产| 日产精品乱码卡一卡2卡三| 蜜桃亚洲精品一区二区三区| 卡戴珊不雅视频在线播放| 亚洲综合精品二区| 亚洲成人久久爱视频| 婷婷色av中文字幕| 国产一区有黄有色的免费视频 | 联通29元200g的流量卡| 亚洲国产日韩欧美精品在线观看| 黄色配什么色好看| 大话2 男鬼变身卡| 亚洲熟女精品中文字幕| 97超视频在线观看视频| 日韩强制内射视频| 欧美zozozo另类| 成人性生交大片免费视频hd| 99热全是精品| 免费黄网站久久成人精品| 大又大粗又爽又黄少妇毛片口| 久久久久免费精品人妻一区二区| 国内精品美女久久久久久| 男女边摸边吃奶| 欧美日韩在线观看h| 高清日韩中文字幕在线| 精品一区在线观看国产| 美女xxoo啪啪120秒动态图| 好男人视频免费观看在线| 在现免费观看毛片| 亚洲精品中文字幕在线视频 | 男女视频在线观看网站免费| 亚洲国产最新在线播放| 国产麻豆成人av免费视频| 内地一区二区视频在线| 亚洲丝袜综合中文字幕| 一个人看视频在线观看www免费| 免费观看在线日韩| 国产亚洲5aaaaa淫片| 街头女战士在线观看网站| 日韩大片免费观看网站| 国产高清有码在线观看视频| 国产淫片久久久久久久久| 久久99热6这里只有精品| 国产色爽女视频免费观看| 97超碰精品成人国产| 欧美日韩综合久久久久久| 国产极品天堂在线| 亚洲在久久综合| 亚洲va在线va天堂va国产| 69av精品久久久久久| 成人二区视频| 最近最新中文字幕大全电影3| 国产免费又黄又爽又色| 中国美白少妇内射xxxbb| 欧美区成人在线视频| 2022亚洲国产成人精品| 丰满人妻一区二区三区视频av| 日韩强制内射视频| 大香蕉97超碰在线| 国产乱人偷精品视频| 国产成人freesex在线| 久久久亚洲精品成人影院| 日韩大片免费观看网站| 日韩成人av中文字幕在线观看| 简卡轻食公司| 乱码一卡2卡4卡精品| 日韩欧美一区视频在线观看 | 高清视频免费观看一区二区 | 69av精品久久久久久| 日韩一区二区三区影片| 国产日韩欧美在线精品| 人人妻人人澡人人爽人人夜夜 | 亚洲国产欧美在线一区| 男女视频在线观看网站免费| 久久久色成人| 亚洲精品一区蜜桃| 久久久久久久久久成人| 久久久午夜欧美精品| 国产欧美另类精品又又久久亚洲欧美| 99九九线精品视频在线观看视频| 午夜老司机福利剧场| 午夜激情福利司机影院| 亚洲在线观看片| 国内精品美女久久久久久| 日韩欧美三级三区| 成人无遮挡网站| 99久国产av精品| 亚洲精品一二三| 国产成人精品久久久久久| 国产不卡一卡二| 深爱激情五月婷婷| 亚洲成人久久爱视频| 精品国内亚洲2022精品成人| 人体艺术视频欧美日本| 精品久久久久久久久亚洲| or卡值多少钱| 久久午夜福利片| 卡戴珊不雅视频在线播放| 嫩草影院新地址| 午夜亚洲福利在线播放| 亚洲欧洲日产国产| 亚洲内射少妇av| 欧美性感艳星| 亚洲精品国产成人久久av| 有码 亚洲区| xxx大片免费视频| 国产精品人妻久久久影院| 精品一区二区免费观看| 哪个播放器可以免费观看大片| 汤姆久久久久久久影院中文字幕 | 国内精品一区二区在线观看| 中文字幕av在线有码专区| av在线老鸭窝| 国产亚洲av片在线观看秒播厂 | 成人二区视频| 免费黄色在线免费观看| 亚洲人与动物交配视频| 男人和女人高潮做爰伦理| 精品一区二区三区视频在线| 99久久精品国产国产毛片| 久久久久性生活片| 波多野结衣巨乳人妻| 国产黄片美女视频| 国产三级在线视频| 国产黄a三级三级三级人| 久久午夜福利片| 欧美日韩亚洲高清精品| 色综合色国产| 中文欧美无线码| 男女边吃奶边做爰视频| 春色校园在线视频观看| 极品教师在线视频| 欧美+日韩+精品| 在线观看av片永久免费下载| 亚洲18禁久久av| 91久久精品国产一区二区成人| 欧美成人精品欧美一级黄| 91精品一卡2卡3卡4卡| 日本黄大片高清| 最近最新中文字幕免费大全7| videossex国产| 亚洲av不卡在线观看| 亚洲国产日韩欧美精品在线观看| 国产黄色免费在线视频| 精品久久国产蜜桃| 能在线免费看毛片的网站| 国产在线一区二区三区精| 久久久久久久久久久免费av| 哪个播放器可以免费观看大片| 国产综合精华液| 国产亚洲一区二区精品| 高清视频免费观看一区二区 | 亚洲精品久久午夜乱码| 日韩一区二区三区影片| 日韩电影二区| 久久久a久久爽久久v久久| 人人妻人人看人人澡| 久久精品人妻少妇| 久久人人爽人人爽人人片va| 精品久久久精品久久久| 精品久久久久久成人av| 欧美不卡视频在线免费观看| 日韩欧美精品v在线| 午夜福利在线观看吧| 亚洲人成网站在线播| www.av在线官网国产| 婷婷六月久久综合丁香| 最后的刺客免费高清国语| 尤物成人国产欧美一区二区三区| 网址你懂的国产日韩在线| 免费电影在线观看免费观看| 日韩欧美精品免费久久| av在线老鸭窝| 国产精品综合久久久久久久免费| 激情 狠狠 欧美| 国产视频内射| 久久亚洲国产成人精品v| 国产三级在线视频| 校园人妻丝袜中文字幕| 极品教师在线视频| 黄色日韩在线| 丰满人妻一区二区三区视频av| 亚洲精品日本国产第一区| 国产淫语在线视频| 1000部很黄的大片| 久久久久久国产a免费观看| 在线免费十八禁| 中文在线观看免费www的网站| 全区人妻精品视频| 国产成人精品婷婷| 在线 av 中文字幕| 可以在线观看毛片的网站| 日韩av不卡免费在线播放| 久久久久久久午夜电影| 一级黄片播放器| 国产伦理片在线播放av一区| 久久国产乱子免费精品| 91久久精品国产一区二区成人| 老师上课跳d突然被开到最大视频| 身体一侧抽搐| 综合色av麻豆| 国产69精品久久久久777片| 欧美激情久久久久久爽电影| 日日撸夜夜添| 好男人在线观看高清免费视频| 亚洲人成网站在线观看播放| 久久99蜜桃精品久久| 女人十人毛片免费观看3o分钟| 久久精品国产亚洲av天美| 国产男女超爽视频在线观看| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 天堂中文最新版在线下载 | 亚洲电影在线观看av| 国产男人的电影天堂91| 国产老妇伦熟女老妇高清| 欧美高清成人免费视频www| 日韩中字成人| 观看美女的网站| 成年av动漫网址| 插逼视频在线观看| 男女边吃奶边做爰视频| 麻豆av噜噜一区二区三区| 精品一区二区三区人妻视频| 亚洲高清免费不卡视频| 赤兔流量卡办理| 久久久国产一区二区| 国产综合懂色| 日韩欧美精品v在线| 97热精品久久久久久| 国内精品一区二区在线观看| 亚洲最大成人av| 一级爰片在线观看| 99久久精品热视频| 蜜桃亚洲精品一区二区三区| 国产爱豆传媒在线观看| 嫩草影院入口| 亚洲丝袜综合中文字幕| av免费观看日本| 能在线免费观看的黄片| 国产午夜福利久久久久久| 女人十人毛片免费观看3o分钟| 伊人久久国产一区二区| av播播在线观看一区| 春色校园在线视频观看| 亚洲国产日韩欧美精品在线观看| 精品久久久久久久久亚洲| 国语对白做爰xxxⅹ性视频网站| 免费看不卡的av| 亚洲av成人精品一二三区| 久久久久九九精品影院| 可以在线观看毛片的网站| 中文天堂在线官网| 欧美一区二区亚洲| 又爽又黄无遮挡网站| 一个人看的www免费观看视频| 国产精品国产三级国产av玫瑰| 在线免费十八禁| 搞女人的毛片| 欧美bdsm另类| 亚洲四区av| 秋霞伦理黄片| 91av网一区二区| 一区二区三区四区激情视频| 欧美高清性xxxxhd video| 欧美最新免费一区二区三区| 亚洲av成人av| 啦啦啦啦在线视频资源| 黄色一级大片看看| 日本wwww免费看| 久久久色成人| 夜夜爽夜夜爽视频| 午夜福利成人在线免费观看| 国产亚洲av嫩草精品影院| 精品久久久久久久人妻蜜臀av| 亚洲av免费在线观看| 午夜福利成人在线免费观看| 日韩av在线免费看完整版不卡| 国产成人a∨麻豆精品| 人人妻人人看人人澡| 国产精品人妻久久久影院| 国产在视频线在精品| 亚洲成人中文字幕在线播放| 午夜爱爱视频在线播放| 亚洲欧美日韩东京热| 国产成人福利小说| 丝瓜视频免费看黄片| 日产精品乱码卡一卡2卡三| 亚洲精品国产av成人精品| 国产伦一二天堂av在线观看| 亚州av有码| 国产乱人偷精品视频| 亚洲成人精品中文字幕电影| 久久久久网色| 波野结衣二区三区在线| 男女国产视频网站| 最近最新中文字幕大全电影3| 日本午夜av视频| 99热全是精品| 纵有疾风起免费观看全集完整版 | 能在线免费看毛片的网站| 色5月婷婷丁香| 国产精品日韩av在线免费观看| 亚洲在线自拍视频| 日日撸夜夜添| 久久久a久久爽久久v久久| 又大又黄又爽视频免费| 久久精品国产亚洲网站| 国内精品美女久久久久久| 久久韩国三级中文字幕| 国产精品不卡视频一区二区| 丰满人妻一区二区三区视频av| 成人二区视频| 久久久亚洲精品成人影院| 亚洲欧美清纯卡通| 黄色一级大片看看| 久久久精品欧美日韩精品| 黄色欧美视频在线观看| 男人舔女人下体高潮全视频| 99热6这里只有精品| 免费观看在线日韩| 免费观看无遮挡的男女| 看黄色毛片网站| 亚洲国产欧美在线一区| 亚洲图色成人| 日本午夜av视频| 啦啦啦啦在线视频资源| 成人毛片60女人毛片免费| videossex国产| 久久鲁丝午夜福利片| 淫秽高清视频在线观看| 男女那种视频在线观看| 又大又黄又爽视频免费| 麻豆av噜噜一区二区三区| 国产爱豆传媒在线观看| av国产久精品久网站免费入址| 中国美白少妇内射xxxbb| 高清av免费在线| 高清在线视频一区二区三区| 国产 一区精品| 99热6这里只有精品| 国产免费福利视频在线观看| 国产精品久久久久久av不卡| 国产又色又爽无遮挡免| 久久国产乱子免费精品| 亚洲高清免费不卡视频| 国产免费又黄又爽又色| 国产精品国产三级专区第一集| 青青草视频在线视频观看| 国产精品久久久久久久久免| 亚洲成色77777| 国产精品一区二区三区四区久久| 午夜激情欧美在线| 国产一区二区三区综合在线观看 | 久久久国产一区二区| 韩国av在线不卡| 国产精品一区二区三区四区免费观看| 又大又黄又爽视频免费| 日本一二三区视频观看| 天堂av国产一区二区熟女人妻| 国产黄频视频在线观看| 一二三四中文在线观看免费高清| 国产在视频线在精品| av网站免费在线观看视频 | 淫秽高清视频在线观看| 久热久热在线精品观看| 欧美日韩综合久久久久久| 青青草视频在线视频观看| 国产午夜精品一二区理论片| 又粗又硬又长又爽又黄的视频| 免费黄频网站在线观看国产| 久久久久久伊人网av| 欧美高清性xxxxhd video| av免费观看日本| 亚洲一区高清亚洲精品| 国产精品国产三级专区第一集| 国产美女午夜福利| 在线观看av片永久免费下载| 久久久久网色| 亚洲欧美一区二区三区黑人 | 国产白丝娇喘喷水9色精品| 久久99热这里只频精品6学生| 中文资源天堂在线| or卡值多少钱| 久久久久久久久中文| 亚洲欧洲日产国产| 可以在线观看毛片的网站| av又黄又爽大尺度在线免费看| 中文在线观看免费www的网站| 亚洲国产av新网站| 国产久久久一区二区三区| av国产免费在线观看| 啦啦啦啦在线视频资源| 日日啪夜夜撸| 三级国产精品片| 只有这里有精品99| 成年免费大片在线观看| 国产亚洲5aaaaa淫片| 国产乱来视频区| 亚洲成人精品中文字幕电影| 色视频www国产| av播播在线观看一区| 成人鲁丝片一二三区免费| 久久国产乱子免费精品| 高清毛片免费看| 亚洲av免费在线观看| 又爽又黄a免费视频| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 69人妻影院| 女人久久www免费人成看片| 欧美成人一区二区免费高清观看| 国产av码专区亚洲av| 午夜免费激情av| 国产精品久久久久久久电影| 2021少妇久久久久久久久久久| 国产一级毛片七仙女欲春2| 国产精品熟女久久久久浪| 国产一级毛片七仙女欲春2| 日韩亚洲欧美综合| 1000部很黄的大片| 国产麻豆成人av免费视频| 午夜日本视频在线|