• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種基于嵌入式注意力機(jī)制的文本分類方法

    2020-08-13 07:17:51熊寬
    軟件 2020年6期
    關(guān)鍵詞:文本分類注意力機(jī)制神經(jīng)網(wǎng)絡(luò)

    摘 ?要: 大數(shù)據(jù)時(shí)代海量的文本數(shù)據(jù)蘊(yùn)含著極大的科研價(jià)值,文本分類技術(shù)得到廣泛的關(guān)注。文本分類在信息檢索、自動(dòng)問(wèn)答等應(yīng)用領(lǐng)域占據(jù)重要地位,是自然語(yǔ)言處理研究的關(guān)鍵技術(shù)之一。本文針對(duì)神經(jīng)網(wǎng)絡(luò)分類方法訓(xùn)練時(shí)間長(zhǎng)性能仍可提高,提出一種嵌入式注意力機(jī)制模塊(Eam),用來(lái)增強(qiáng)已有的文本分類神經(jīng)網(wǎng)絡(luò)模型。該模塊將重點(diǎn)關(guān)注數(shù)據(jù)中什么是最有意義及哪里含有的信息量更為豐富,從而高效提取文本中有價(jià)值的信息區(qū)域加速模型收斂。本文以增強(qiáng)TextCNN、ImdbCNN為例,在公開(kāi)數(shù)據(jù)集IMDB上證明Eam的有效性,同等參數(shù)配置情況下能夠提升模型的準(zhǔn)確率、召回率及F1值,較原模型能夠更快收斂減少訓(xùn)練時(shí)間。

    關(guān)鍵詞: 文本分類;神經(jīng)網(wǎng)絡(luò);注意力機(jī)制;TextCNN

    中圖分類號(hào): TP391.1 ? ?文獻(xiàn)標(biāo)識(shí)碼: A ? ?DOI:10.3969/j.issn.1003-6970.2020.06.036

    本文著錄格式:熊寬. 一種基于嵌入式注意力機(jī)制的文本分類方法[J]. 軟件,2020,41(06):171176

    【Abstract】: The huge amount of text data in the era of big data contains great scientific research value, and the text classification technology has received widespread attention. Text classification occupies an important position in the fields of information retrieval, automatic question answering and other applications, and is one of the key technologies in natural language processing research. Aiming at the long training time performance of neural network classification method, this paper proposes an embedded attention mechanism module (Eam) to enhance the existing neural network model of text classification. This module will focus on what is most meaningful in the data and where the amount of information is more abundant, so as to efficiently extract valuable information areas in the text and accelerate model convergence. This paper takes Enhanced TextCNN and ImdbCNN as examples, and proves the validity of Eam on the public dataset IMDB. It can improve the accuracy, recall and F1 value of the model under the same parameter configuration, which can converge faster and reduce the training time than the original model.

    【Key words】: Text classification; Neural Networks; Attention mechanism; TextCNN

    0 ?引言

    文本分類(Text Categorization)是指依據(jù)文本的內(nèi)容,由計(jì)算機(jī)根據(jù)某種自動(dòng)分類算法,把文本判分為預(yù)先定義好的類別[1]。文本分類是自然語(yǔ)言處理(NLP)領(lǐng)域中一項(xiàng)具有挑戰(zhàn)性的任務(wù),它在情感分類、自動(dòng)問(wèn)答、輿情分析等領(lǐng)域具有廣泛的應(yīng)用[2]。

    傳統(tǒng)的文本分類方法主要根據(jù)文本與類別標(biāo)簽的相關(guān)性來(lái)對(duì)文本進(jìn)行標(biāo)簽,該標(biāo)簽根據(jù)統(tǒng)計(jì)指標(biāo)估算。例如,詞袋模型[3]計(jì)算共現(xiàn)詞的出現(xiàn)頻率,n元語(yǔ)法模型[4]計(jì)算單詞對(duì)的頻率,而TF-IDF模型[5]計(jì)算不同文檔中每個(gè)單詞的權(quán)重得分。

    上述基于統(tǒng)計(jì)的方法不僅丟失了詞序信息,而且存在數(shù)據(jù)稀疏和維數(shù)災(zāi)難問(wèn)題。隨著分布假說(shuō)理論和文本的分布表示方法的提出,這一問(wèn)題得到有效解決[6,7]。其主要有基于矩陣的分布表示方法,該方法通過(guò)構(gòu)建“詞-上下文”矩陣獲取文本表示;基于聚類的分布表示運(yùn)用聚類構(gòu)建詞與上下文的表示;基于神經(jīng)網(wǎng)絡(luò)的分布表示方法通過(guò)詞向量(Word Embdding)構(gòu)建目標(biāo)詞與上下文的關(guān)系。與傳統(tǒng)的文本分類算法相比,基于分布表示的分類算法在保留詞序信息的前提下,有效解決數(shù)據(jù)稀疏和維數(shù)災(zāi)難問(wèn)題,準(zhǔn)確度及性能方面有了提升。但仍存在模型參數(shù)多、時(shí)間復(fù)雜度高等問(wèn)題,導(dǎo)致模型的訓(xùn)練時(shí)間長(zhǎng)、所需計(jì)算資源大。

    為解決上述問(wèn)題,本文提出一種適用于文本分類的嵌入式注意力機(jī)制,該嵌入式注意力機(jī)制能夠有效挖掘文本中最有意義的信息和信息含義最豐富的區(qū)域。本文以增強(qiáng)TextCNN、ImdbCNN為例,在IMDB數(shù)據(jù)集上進(jìn)行驗(yàn)證,實(shí)驗(yàn)表明該種嵌入式注意力機(jī)制能夠有效提升原模型的正確率、召回率及F1值,同時(shí)降低loss損失。

    1 ?相關(guān)工作

    文本分類相關(guān)任務(wù)的核心在于如何獲取文本表示。通常將文本表示方法分類兩類,一類是傳統(tǒng)的離散表示,另一類是基于分布假說(shuō)理論的分布表示方法。

    1.1 ?離散表示

    離散形式的表示方法有詞袋模型(Bag-of- Words)和n元短語(yǔ)模型(N-grams)模型,該類模型將文本中的每個(gè)單詞或者單詞對(duì)視為一個(gè)離散的實(shí)體,采用獨(dú)熱編碼(One-hot Encoding)的形式來(lái)表示其在文檔中出現(xiàn)的頻率。詞袋模型忽略文檔中單詞的順序、語(yǔ)法句法等重要因素,僅僅將文檔看作是若干單詞的集合,而n元短語(yǔ)模型雖然解決前N–1個(gè)單詞語(yǔ)義信息丟失的問(wèn)題,但當(dāng)N過(guò)大時(shí),模型參數(shù)空間也會(huì)隨著增大,導(dǎo)致數(shù)據(jù)稀疏維數(shù)過(guò)高。將獨(dú)熱編碼轉(zhuǎn)化為word2vec的表示形式能更好地反映單詞間語(yǔ)義的聯(lián)系[4],為突出單詞對(duì)文檔的重要性,TF-IDF(詞頻逆文檔頻率)方法用于提高文檔分類的性能[5]。離散表示形式丟失了詞序信息,而且存在數(shù)據(jù)稀疏和維數(shù)災(zāi)難問(wèn)題。

    1.2 ?分布表示

    基于分布假說(shuō)理論的分類表示方法利用分布表示,能有效保留詞序信息降低數(shù)據(jù)稀疏性[6,7],分布表示方法分三類?;诰仃嚨姆植急硎就ㄟ^(guò)構(gòu)建“詞-上下文”矩陣,此類模型矩陣中的每個(gè)元素為詞和上下文共現(xiàn)次數(shù),利用TF-IDF、取對(duì)數(shù)等技巧進(jìn)行加權(quán)和平滑,使用SVD、NMF等手段對(duì)矩陣進(jìn)行分解降維[8,9]?;诰垲惖姆植急硎居直环Q之為分布聚類[10],此類方法通過(guò)聚類來(lái)構(gòu)建詞與其上下文之間的關(guān)系,代表方法有布朗聚類[11]?;谏窠?jīng)網(wǎng)絡(luò)的分類表示通過(guò)詞向量技術(shù)對(duì)上下文及目標(biāo)詞間的關(guān)系進(jìn)行建模。

    2003年神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型(Neural Network Language Model,NNLM)被Bengio等提出并應(yīng)用,且證實(shí)NNLM可以對(duì)更長(zhǎng)的依賴關(guān)系進(jìn)行建模[8]。此后一系列基于此的模型被提出,但都無(wú)法擺脫高復(fù)雜度的束縛[12,13,14,15]。2013年Mikolov提出CBOW(Continuous Bag of-Words)和Skip-gram模型,該模型在之前模型的基礎(chǔ)上進(jìn)行簡(jiǎn)化保留核心部分,使得神經(jīng)網(wǎng)絡(luò)模型在自然語(yǔ)言處理中獲取詞向量變得更加高效[16]。

    Kim直接將卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)體系結(jié)構(gòu)用于文本分類[17]。在字符級(jí)別使用CNN體系結(jié)構(gòu)來(lái)表示文本[4],將多任務(wù)學(xué)習(xí)框架與遞歸神經(jīng)網(wǎng)絡(luò)(RNN)結(jié)構(gòu)結(jié)合起來(lái)共同跨多個(gè)相關(guān)任務(wù)學(xué)習(xí)[18],采用遞歸結(jié)構(gòu)掌握上下文信息,并通過(guò)使用最大池化層來(lái)識(shí)別文本中的關(guān)鍵組成部分[19]。分布表示方法雖然能從大規(guī)模數(shù)據(jù)集中自動(dòng)學(xué)習(xí)特征,但存在可解釋性差、訓(xùn)練時(shí)間長(zhǎng)、訓(xùn)練參數(shù)多等不足。

    1.3 ?注意力機(jī)制

    注意力在人類感知中起著重要的作用,人類視覺(jué)系統(tǒng)的一個(gè)重要特性是不會(huì)立即處理整個(gè)場(chǎng)景[20]。取而代之的是,人類利用一連串的部分瞥見(jiàn),并有選擇地專注于突出部分,以便更好地捕獲視覺(jué)結(jié)構(gòu)。

    注意力機(jī)制由Bahdanau等人[21]在機(jī)器翻譯領(lǐng)域提出,為結(jié)合注意力來(lái)提高大規(guī)模分類任務(wù)中CNN的性能,一種使用編碼器-解碼器風(fēng)格的注意力模塊的殘余注意力網(wǎng)絡(luò)被提出[22]。通過(guò)細(xì)化特征圖,該網(wǎng)絡(luò)不僅性能良好,而且對(duì)嘈雜的輸入也具有較強(qiáng)的魯棒性。

    注意力機(jī)制的好處是它們?cè)试S處理可變大小的輸入,著眼于輸入中最相關(guān)的部分以做出決策。當(dāng)注意力機(jī)制用于計(jì)算單個(gè)序列的表示時(shí),通常稱為自我注意力或內(nèi)部注意力。自注意力機(jī)制通常與遞歸神經(jīng)網(wǎng)絡(luò)(RNN)或卷積神經(jīng)網(wǎng)絡(luò)(CNN)一起使用,事實(shí)證明,自注意力對(duì)機(jī)器閱讀和學(xué)習(xí)句子表示等任務(wù)很有用。自注意力不僅可以改進(jìn)基于RNN或卷積的方法,而且可用于構(gòu)建強(qiáng)大的模型來(lái)提高機(jī)器翻譯任務(wù)的性能[23]。本文所提出的嵌入式注意力機(jī)制是自注意力的一種。

    2 ?Eam模型

    如圖1所示在模塊Eam中,輸入的數(shù)據(jù)將先經(jīng)過(guò)Eam-channel處理,處理完成后輸入Eam-spatial,最后產(chǎn)生最終輸出。在文本數(shù)據(jù)中,對(duì)于任意給定的中間態(tài)特征圖 作為嵌入的注意力模塊(Embeddable attention module)模型的輸入數(shù)據(jù)。根據(jù)卷積神經(jīng)網(wǎng)絡(luò)的特性,本文將該卷積塊設(shè)置為通道維度(Eam-channel)和空間維度(Eam-spatial)的組合模型。而通道維度的產(chǎn)物通常是一維的 ,空間維度的產(chǎn)物通常是二維的 。

    3 ?實(shí)驗(yàn)

    3.1 ?數(shù)據(jù)集及訓(xùn)練環(huán)境

    IMDB:IMDB數(shù)據(jù)集為2分類數(shù)據(jù)集,共89527個(gè)單詞5萬(wàn)條來(lái)自網(wǎng)絡(luò)電影數(shù)據(jù)庫(kù)的評(píng)論。其中訓(xùn)練集與測(cè)試集分別為2.5萬(wàn)條,每部分正負(fù)評(píng)論各占50%,數(shù)據(jù)集由Keras官網(wǎng)提供。

    實(shí)驗(yàn)采用Keras+Tensorflow相結(jié)合的形式,Keras作為上層語(yǔ)言,tensorflow作為keras的后端支持。Pyhon版本為3.6.10,keras版本為2.2.4,tensorflow版本為tensorflow-gpu1.8.0。

    3.2 ?評(píng)價(jià)指標(biāo)

    本文采用正確率(Accuracy)、精準(zhǔn)率(Precision)、召回率(Recall)、F1值來(lái)評(píng)價(jià)模型性能。表1評(píng)價(jià)的混淆矩陣覆蓋每次的預(yù)測(cè)情況,TP是被正確地劃分為正例的個(gè)數(shù),F(xiàn)P是被錯(cuò)誤地劃分為正例的個(gè)數(shù),F(xiàn)N是被錯(cuò)誤地劃分為負(fù)例的個(gè)數(shù),TN是被正確地劃分為負(fù)例的個(gè)數(shù)。P表示實(shí)際正例個(gè)數(shù),N表示實(shí)際負(fù)例個(gè)數(shù),表示方式如式(5)~(6)所示。

    在進(jìn)行性能評(píng)價(jià)時(shí),查準(zhǔn)率用作評(píng)價(jià)分類器的正確率,召回率用作評(píng)價(jià)分類器的覆蓋率,F(xiàn)1值是查準(zhǔn)率與召回率的調(diào)和平均值,以其評(píng)價(jià)分類器的綜合性能。它們的表示方式如式(7)~(10)所示。

    3.3 ?超參數(shù)設(shè)置

    模型預(yù)訓(xùn)練的詞向量維度為400并進(jìn)行隨機(jī)初始化,權(quán)重隨機(jī)初始化為標(biāo)準(zhǔn)差為0.1的正態(tài)分布隨機(jī)數(shù),同時(shí)所有詞向量在訓(xùn)練時(shí)進(jìn)行微調(diào)。丟棄率(dropout)設(shè)為0.5,卷積核大?。╧ernel-size)設(shè)為3,濾波器個(gè)數(shù)設(shè)為250,隱藏層的維度設(shè)為250,L2正則化權(quán)重為0.0001,學(xué)習(xí)率為0.01,學(xué)習(xí)率的下降率為0.05,每個(gè)batch中32個(gè)樣本,訓(xùn)練輪次(epoch)為5,并在每個(gè)epoch過(guò)程中采用EarlyStopping防止過(guò)擬合,使用Adam加快模型訓(xùn)練速度。

    3.4 ?結(jié)果分析

    本文選取TextCNN及ImdbCNN作為基礎(chǔ)模型,在二者中分別嵌入Eam模塊,使用IMDB數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)論證。

    如表2所示,經(jīng)測(cè)試集驗(yàn)證,模型準(zhǔn)確率(accuracy)提高,loss損失下降。查準(zhǔn)率(precision)低于原模型,召回率在經(jīng)Eam模塊加強(qiáng)后有5%的提升效果,遠(yuǎn)高于原模型。由于查準(zhǔn)率低于原模型但召回率高于原模型,無(wú)法直觀衡量其增強(qiáng)效果,為進(jìn)一步證明Eam模塊的有效性,本文引入二者的調(diào)和平均數(shù)F1值來(lái)評(píng)價(jià)增強(qiáng)模型的性能,數(shù)據(jù)表明在引入Eam模塊后F1值穩(wěn)定提升。

    由于采用EarlyStopping防范過(guò)擬合策略,模型TextCNN-eam和模型ImdbCNN-eam分別在訓(xùn)練輪次(epoch)為3和2時(shí)停止訓(xùn)練。表3表明Eam增強(qiáng)模型整體用時(shí)普遍小于原模型,但單次訓(xùn)練時(shí)長(zhǎng)要大于原模型。結(jié)合表4可知,總訓(xùn)練的超參數(shù)個(gè)數(shù)對(duì)訓(xùn)練時(shí)長(zhǎng)有較大的影響,雖然嵌入式注意力機(jī)制模塊可提升原有模型性能,但由于疊加多層網(wǎng)絡(luò)結(jié)構(gòu)導(dǎo)致超參數(shù)過(guò)多單次訓(xùn)練時(shí)長(zhǎng)較長(zhǎng),在超大規(guī)模的文本分類任務(wù)中性能與訓(xùn)練時(shí)長(zhǎng)可能無(wú)法 ?平衡。

    本文在確定超參數(shù)卷積核大小、丟棄率時(shí),分別設(shè)置不同對(duì)比組以確定最佳的參數(shù)設(shè)定值。在數(shù)據(jù)集IMDB上進(jìn)行驗(yàn)證時(shí),不同的參數(shù)對(duì)于模型正確率的影響是不一致的。從圖5可以看到卷積核對(duì)單個(gè)模型自身的影響是有限的,對(duì)準(zhǔn)確度的影響稍小。圖6表明當(dāng)丟棄率大于0.7時(shí),即每次訓(xùn)練隨機(jī)丟棄的連接層大于70%時(shí),模型性能急速下降處于欠擬合狀態(tài);當(dāng)丟棄率設(shè)置為0.5時(shí),模型正確率達(dá)到最高;當(dāng)丟棄率小于0.5時(shí),除ImdbCNN外正確率都在下降,訓(xùn)練集的正確率仍在上升,這表明模型出現(xiàn)過(guò)擬合。綜合考慮模型正確率及訓(xùn)練時(shí)長(zhǎng),最終確定卷積核大小為3丟棄率為0.5作為最佳參數(shù)配置。

    4 ?結(jié)論與展望

    為提升文本分類的正確率加快模型訓(xùn)練速度,本文提出一種嵌入式的自注意力機(jī)制模塊Eam,并將Eam分別嵌入TextCNN、ImdbCNN模型進(jìn)行對(duì)比論證。由于自注意力機(jī)制能夠有效獲取文本中的關(guān)鍵信息,最終實(shí)驗(yàn)結(jié)果表明經(jīng)Eam增強(qiáng)的后模型較原有模型性能、準(zhǔn)確度、召回率、F1值都有所提升。目前Eam模塊仍存在一些不足,如單次訓(xùn)練時(shí)間長(zhǎng)、訓(xùn)練參數(shù)多,在大規(guī)模語(yǔ)料庫(kù)上性能可能存在問(wèn)題,長(zhǎng)文本分類結(jié)果不理想。后續(xù)工作將圍繞兩方面展開(kāi):選擇不同規(guī)模的語(yǔ)料庫(kù)及多種模型驗(yàn)證Eam模塊的有效性;在Eam中使用Top-k池化替代最大池化,獲取到更為豐富的語(yǔ)義信息從而進(jìn)一步增強(qiáng)其特征表示能力。

    參考文獻(xiàn)

    [1] 陶永才, 楊朝陽(yáng), 石磊, 衛(wèi)琳. 池化和注意力相結(jié)合的新聞文本分類方法[J]. 小型微型計(jì)算機(jī)系統(tǒng), 2019, 40(11): 2393-2397.

    [2] Tang D, Qin B, Liu T. Document modeling with gated recurrent neural network for sentiment classification[C]// ?Proceedings of the 2015 conference on empirical methods in natural language processing. 2015: 1422-1432.

    [3] Joachims T. Text categorization with support vector machines: Learning with many relevant features[C]//European conference on machine learning. Springer, Berlin, Heidelberg, 1998: 137-142.

    [4] Zhang X, Zhao J, LeCun Y. Character-level convolutional networks for text classification[C]//Advances in neural information processing systems. 2015: 649-657.

    [5] Robertson S. Understanding inverse document frequency: on theoretical arguments for IDF[J]. Journal of documentation, 2004.

    [6] Harris Z S. Distributional structure[J]. Word, 1954, 10(2-3): 146-162.

    [7] Firth J R. A synopsis of linguistic theory, 1930-1955[J]. Studies in linguistic analysis, 1957.

    [8] Pennington J, Socher R, Manning C D. Glove: Global vectors for word representation[C]//Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP). 2014: 1532-1543.

    [9] Lebret R, Collobert R. Word emdeddings through hellinger PCA[J]. arXiv preprint arXiv: 1312. 5542, 2013.

    [10] Pereira F, Tishby N, Lee L. Distributional clustering of English words[C]//Proceedings of the 31st annual meeting on Association for Computational Linguistics. Association for Computational Linguistics, 1993: 183-190.

    [11] Brown P F, Desouza P V, Mercer R L, et al. Class-based n-gram models of natural language[J]. Computational linguistics, 1992, 18(4): 467-479.

    [12] Mnih A, Hinton G. Three new graphical models for statistical language modelling[C]//Proceedings of the 24th international conference on Machine learning. ACM, 2007: 641-648.

    [13] Mnih A, Hinton G E. A scalable hierarchical distributed language model[C]//Advances in neural information processing systems. 2009: 1081-1088.

    [14] Mnih A, Kavukcuoglu K. Learning word embeddings efficiently with noise-contrastive estimation[C]//Advances in neural information processing systems. 2013: 2265-2273.

    [15] Mikolov T, Karafiát M, Burget L, et al. Recurrent neural network based language model[C]//Eleventh annual conference of the international speech communication association. 2010.

    [16] Mikolov T, Sutskever I, Chen K, et al. Distributed representations of words and phrases and their compositionality[C]//Advances in neural information processing systems. 2013: 3111-3119.

    [17] Kim Y. Convolutional neural networks for sentence classification[J]. arXiv preprint arXiv: 1408. 5882, 2014.

    [18] Liu P, Qiu X, Huang X. Recurrent neural network for text classification with multi-task learning[J]. arXiv preprint arXiv: 1605. 05101, 2016.

    [19] Lai S, Xu L, Liu K, et al. Recurrent convolutional neural networks for text classification[C]//Twenty-ninth AAAI conference on artificial intelligence. 2015.

    [20] Itti L, Koch C, Niebur E. A model of saliency-based visual attention for rapid scene analysis[J]. IEEE Transactions on pattern analysis and machine intelligence, 1998, 20(11): 1254-1259.

    [21] Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate[J]. arXiv preprint arXiv: 1409. 0473, 2014.

    [22] Wang F, Jiang M, Qian C, et al. Residual attention network for image classification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 3156-3164.

    [23] Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need[C]//Advances in neural information processing systems. 2017: 5998-6008.

    [24] 陳海紅. 多核SVM 文本分類研究[J]. 軟件, 2015, 36(5): 7-10.

    [25] 劉騰飛, 于雙元, 張洪濤, 等. 基于循環(huán)和卷積神經(jīng)網(wǎng)絡(luò)的文本分類研究[J]. 軟件, 2018, 39(01): 64-69.

    [26] 張曉明, 尹鴻峰. 基于卷積神經(jīng)網(wǎng)絡(luò)和語(yǔ)義信息的場(chǎng)景分類[J]. 軟件, 2018, 39(01): 29-34.

    [27] 吳亞熙, 岑峰. 基于卷積神經(jīng)網(wǎng)絡(luò)的多層級(jí)目標(biāo)檢測(cè)方法[J]. 軟件, 2018, 39(4): 164-169.

    [28] 陳海紅. 多核SVM 文本分類研究[J]. 軟件, 2015, 36(5): 7-10.

    猜你喜歡
    文本分類注意力機(jī)制神經(jīng)網(wǎng)絡(luò)
    神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
    軟件工程(2017年11期)2018-01-05 08:06:09
    InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
    基于組合分類算法的源代碼注釋質(zhì)量評(píng)估方法
    基于貝葉斯分類器的中文文本分類
    基于蟻群智能算法的研究文本分類
    文本分類算法在山東女子學(xué)院檔案管理的應(yīng)用
    科技視界(2016年24期)2016-10-11 09:36:57
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
    国国产精品蜜臀av免费| 99精国产麻豆久久婷婷| 中文字幕人妻熟人妻熟丝袜美| 99热这里只有是精品在线观看| 2021少妇久久久久久久久久久| 午夜91福利影院| 大片免费播放器 马上看| 亚洲av男天堂| 国产有黄有色有爽视频| 久久久国产精品麻豆| 国产又色又爽无遮挡免| 老女人水多毛片| 亚洲av不卡在线观看| 99热全是精品| 在线免费观看不下载黄p国产| 曰老女人黄片| 五月天丁香电影| 性色avwww在线观看| 亚洲精品国产av成人精品| 天美传媒精品一区二区| 日本猛色少妇xxxxx猛交久久| 亚洲怡红院男人天堂| 日产精品乱码卡一卡2卡三| 边亲边吃奶的免费视频| 日韩av不卡免费在线播放| 久久热精品热| 天堂中文最新版在线下载| 亚洲欧美精品自产自拍| 久久久久久久久久人人人人人人| 色网站视频免费| 国产成人精品福利久久| 伊人久久精品亚洲午夜| 内射极品少妇av片p| 两个人免费观看高清视频 | 成年人免费黄色播放视频 | √禁漫天堂资源中文www| 中文乱码字字幕精品一区二区三区| 在线 av 中文字幕| 亚洲四区av| 欧美日韩国产mv在线观看视频| 一本久久精品| 婷婷色综合www| 亚洲,一卡二卡三卡| 久久久国产一区二区| 亚洲自偷自拍三级| 啦啦啦在线观看免费高清www| av免费在线看不卡| 亚洲综合色惰| 国产精品人妻久久久影院| 爱豆传媒免费全集在线观看| 亚洲欧洲日产国产| 亚洲av电影在线观看一区二区三区| 高清av免费在线| 日本猛色少妇xxxxx猛交久久| 国产av国产精品国产| 国产成人免费无遮挡视频| 女人精品久久久久毛片| 黑人高潮一二区| 久久影院123| 夫妻午夜视频| 在线观看国产h片| 国产综合精华液| 丰满少妇做爰视频| a 毛片基地| 久久久久精品性色| 免费看av在线观看网站| 亚洲图色成人| 国产高清三级在线| 纯流量卡能插随身wifi吗| 高清av免费在线| 日本猛色少妇xxxxx猛交久久| 欧美国产精品一级二级三级 | 国产69精品久久久久777片| 丝袜在线中文字幕| 成年av动漫网址| 免费少妇av软件| 午夜视频国产福利| 日日摸夜夜添夜夜添av毛片| 岛国毛片在线播放| 亚洲欧美一区二区三区黑人 | 国产精品三级大全| 18禁在线播放成人免费| 91精品国产国语对白视频| av国产久精品久网站免费入址| 中文乱码字字幕精品一区二区三区| 免费看av在线观看网站| 极品少妇高潮喷水抽搐| 精品一品国产午夜福利视频| 在线播放无遮挡| 欧美日本中文国产一区发布| 在线看a的网站| 两个人的视频大全免费| 国产极品天堂在线| av福利片在线| 久久久久视频综合| 久久影院123| 男人爽女人下面视频在线观看| 91精品国产九色| 另类精品久久| 丝袜喷水一区| 久久毛片免费看一区二区三区| 夫妻性生交免费视频一级片| 亚洲精品亚洲一区二区| 少妇人妻 视频| 国产男女内射视频| 天美传媒精品一区二区| 一二三四中文在线观看免费高清| 欧美日韩国产mv在线观看视频| 秋霞在线观看毛片| 久久精品国产a三级三级三级| 国产av一区二区精品久久| 中文资源天堂在线| 久久鲁丝午夜福利片| 久久国产精品大桥未久av | 天堂俺去俺来也www色官网| 一个人免费看片子| 80岁老熟妇乱子伦牲交| 黄色一级大片看看| 永久网站在线| 国产欧美日韩综合在线一区二区 | 91久久精品国产一区二区成人| 精品国产国语对白av| 女性被躁到高潮视频| 亚洲精品中文字幕在线视频 | 纯流量卡能插随身wifi吗| 99久久人妻综合| 成人午夜精彩视频在线观看| 人体艺术视频欧美日本| 最新的欧美精品一区二区| 亚洲精品,欧美精品| 日韩精品有码人妻一区| 一本色道久久久久久精品综合| 久久久久人妻精品一区果冻| 一区二区三区乱码不卡18| 熟女人妻精品中文字幕| 中文字幕亚洲精品专区| 少妇的逼水好多| 免费大片黄手机在线观看| 欧美日韩一区二区视频在线观看视频在线| 亚洲精品,欧美精品| av福利片在线| 久久影院123| 国产精品熟女久久久久浪| 国产淫片久久久久久久久| 人妻系列 视频| 免费黄网站久久成人精品| 久久久国产欧美日韩av| 中国美白少妇内射xxxbb| 国产精品一区二区三区四区免费观看| 欧美三级亚洲精品| 亚洲精品视频女| 欧美一级a爱片免费观看看| 国产精品久久久久久久久免| 18禁动态无遮挡网站| 超碰97精品在线观看| 亚洲图色成人| 人妻 亚洲 视频| 精品国产露脸久久av麻豆| 91久久精品电影网| 欧美bdsm另类| av免费在线看不卡| 嫩草影院新地址| 能在线免费看毛片的网站| 国产精品久久久久久精品古装| 大又大粗又爽又黄少妇毛片口| 成人免费观看视频高清| 人妻夜夜爽99麻豆av| 欧美日韩视频精品一区| 噜噜噜噜噜久久久久久91| 2021少妇久久久久久久久久久| 女的被弄到高潮叫床怎么办| 久久婷婷青草| 看十八女毛片水多多多| 精品人妻偷拍中文字幕| 国产精品秋霞免费鲁丝片| 国产精品欧美亚洲77777| 色视频在线一区二区三区| 婷婷色综合www| 内地一区二区视频在线| 国产精品99久久久久久久久| 交换朋友夫妻互换小说| 我的女老师完整版在线观看| 国产免费视频播放在线视频| 97精品久久久久久久久久精品| 亚洲人成网站在线播| a级片在线免费高清观看视频| av.在线天堂| 国产精品国产三级专区第一集| 亚洲av男天堂| 久久青草综合色| 久久精品久久久久久久性| 久久久久久久亚洲中文字幕| 女人久久www免费人成看片| 欧美xxⅹ黑人| 七月丁香在线播放| 一区二区三区乱码不卡18| 丁香六月天网| 国产成人精品久久久久久| 大码成人一级视频| 国产精品嫩草影院av在线观看| 亚洲精品一区蜜桃| 久久久久久久久久人人人人人人| 国产黄频视频在线观看| 免费大片黄手机在线观看| 日韩av在线免费看完整版不卡| 午夜福利网站1000一区二区三区| 精品久久国产蜜桃| 亚洲欧美中文字幕日韩二区| 中国三级夫妇交换| 国模一区二区三区四区视频| 91精品国产九色| 久久鲁丝午夜福利片| 国产一区二区在线观看日韩| 日日摸夜夜添夜夜爱| 国产爽快片一区二区三区| 五月开心婷婷网| 少妇人妻 视频| 欧美日韩国产mv在线观看视频| 极品少妇高潮喷水抽搐| 久久热精品热| 亚洲精品色激情综合| 99热全是精品| 性高湖久久久久久久久免费观看| 十分钟在线观看高清视频www | 少妇熟女欧美另类| 欧美成人精品欧美一级黄| av卡一久久| 欧美 亚洲 国产 日韩一| 在线观看人妻少妇| 成人亚洲欧美一区二区av| 久久99蜜桃精品久久| a级毛片免费高清观看在线播放| 国产精品一区www在线观看| 中文在线观看免费www的网站| 精品酒店卫生间| 国产精品无大码| 综合色丁香网| 国产亚洲一区二区精品| 欧美+日韩+精品| 中文欧美无线码| 欧美性感艳星| 少妇 在线观看| 久久av网站| 国产熟女欧美一区二区| 少妇被粗大的猛进出69影院 | 精品午夜福利在线看| 丰满迷人的少妇在线观看| 亚洲欧洲日产国产| 五月天丁香电影| 91精品国产九色| 国产成人a∨麻豆精品| 亚洲美女搞黄在线观看| 成年人免费黄色播放视频 | 欧美精品国产亚洲| 成年人午夜在线观看视频| 又黄又爽又刺激的免费视频.| 人人妻人人澡人人爽人人夜夜| 看非洲黑人一级黄片| 免费大片18禁| 麻豆乱淫一区二区| 18+在线观看网站| 最新的欧美精品一区二区| 免费大片18禁| 亚洲av不卡在线观看| 麻豆成人av视频| 五月伊人婷婷丁香| 欧美日韩视频高清一区二区三区二| 国产中年淑女户外野战色| 人人妻人人看人人澡| 国产精品福利在线免费观看| 久久综合国产亚洲精品| 国产日韩欧美视频二区| 欧美变态另类bdsm刘玥| 亚洲一区二区三区欧美精品| 噜噜噜噜噜久久久久久91| 青春草国产在线视频| 国产在线男女| 国产亚洲5aaaaa淫片| 99九九线精品视频在线观看视频| 韩国高清视频一区二区三区| 久久久久久久久久成人| 只有这里有精品99| 青春草亚洲视频在线观看| 超碰97精品在线观看| 久久久久久久久久成人| 亚洲熟女精品中文字幕| 观看美女的网站| av线在线观看网站| 国产熟女欧美一区二区| 多毛熟女@视频| 亚洲人与动物交配视频| 内地一区二区视频在线| 国产av码专区亚洲av| 啦啦啦在线观看免费高清www| 丝袜脚勾引网站| 国产精品不卡视频一区二区| 国产精品国产三级专区第一集| 热re99久久国产66热| 少妇精品久久久久久久| 纵有疾风起免费观看全集完整版| 亚洲精品国产色婷婷电影| 妹子高潮喷水视频| 亚洲久久久国产精品| 精品人妻偷拍中文字幕| 欧美国产精品一级二级三级 | 欧美精品人与动牲交sv欧美| 丰满乱子伦码专区| 麻豆精品久久久久久蜜桃| 秋霞伦理黄片| 亚洲精品亚洲一区二区| 人人澡人人妻人| 纯流量卡能插随身wifi吗| 老司机影院毛片| 国产国拍精品亚洲av在线观看| 国产精品嫩草影院av在线观看| 精品久久久噜噜| 两个人的视频大全免费| 2018国产大陆天天弄谢| 一级黄片播放器| 亚洲国产精品999| 国产精品无大码| 日日爽夜夜爽网站| 日日啪夜夜爽| av福利片在线观看| 亚州av有码| 国产精品久久久久久精品电影小说| 人妻 亚洲 视频| 欧美日韩视频精品一区| 免费大片18禁| 久久久久久久国产电影| 不卡视频在线观看欧美| 精品一区二区免费观看| 日韩亚洲欧美综合| 欧美一级a爱片免费观看看| 亚洲精品aⅴ在线观看| 亚洲av电影在线观看一区二区三区| 久久精品久久久久久久性| 亚洲久久久国产精品| 亚洲一级一片aⅴ在线观看| 亚洲国产精品成人久久小说| 国产伦精品一区二区三区四那| 蜜臀久久99精品久久宅男| 久久国产亚洲av麻豆专区| 国产精品麻豆人妻色哟哟久久| 成年av动漫网址| 欧美成人午夜免费资源| 久久久久久人妻| 一本一本综合久久| 亚洲欧美清纯卡通| 一二三四中文在线观看免费高清| 亚洲精品国产成人久久av| av免费在线看不卡| 国产精品久久久久久av不卡| 特大巨黑吊av在线直播| 免费看光身美女| 欧美日韩视频精品一区| 热re99久久国产66热| 日本欧美视频一区| 男人舔奶头视频| 日本av手机在线免费观看| 纯流量卡能插随身wifi吗| 纵有疾风起免费观看全集完整版| 国国产精品蜜臀av免费| 久久99热6这里只有精品| 亚洲经典国产精华液单| 黑人高潮一二区| 99热6这里只有精品| 少妇高潮的动态图| 久久久久久伊人网av| 在线免费观看不下载黄p国产| 国产成人freesex在线| √禁漫天堂资源中文www| 国产乱人偷精品视频| a级毛片在线看网站| 日日爽夜夜爽网站| 日本欧美视频一区| 26uuu在线亚洲综合色| 能在线免费看毛片的网站| 两个人免费观看高清视频 | 51国产日韩欧美| 国产男女超爽视频在线观看| 丰满乱子伦码专区| 超碰97精品在线观看| 精品熟女少妇av免费看| 免费大片18禁| 丝袜喷水一区| 欧美日韩在线观看h| 亚洲精品国产av成人精品| 国产毛片在线视频| 少妇人妻久久综合中文| 麻豆乱淫一区二区| 久久国产精品大桥未久av | 美女中出高潮动态图| 久久精品国产自在天天线| 男人和女人高潮做爰伦理| 97超碰精品成人国产| 亚洲国产av新网站| 麻豆成人午夜福利视频| 黄色一级大片看看| 啦啦啦在线观看免费高清www| 久久精品国产鲁丝片午夜精品| 日韩一本色道免费dvd| 国产精品久久久久成人av| 久久狼人影院| 自拍偷自拍亚洲精品老妇| 好男人视频免费观看在线| 18+在线观看网站| 久久久久久伊人网av| 韩国高清视频一区二区三区| 欧美最新免费一区二区三区| 午夜久久久在线观看| 亚洲图色成人| 免费人妻精品一区二区三区视频| 国产精品嫩草影院av在线观看| 久久国产精品大桥未久av | 一级毛片aaaaaa免费看小| 亚洲精品亚洲一区二区| 啦啦啦视频在线资源免费观看| 国产av一区二区精品久久| 国产精品秋霞免费鲁丝片| 免费黄色在线免费观看| 国产欧美亚洲国产| 97在线视频观看| 蜜桃久久精品国产亚洲av| 22中文网久久字幕| 黄色怎么调成土黄色| 美女中出高潮动态图| 久久久久久久久大av| 天堂俺去俺来也www色官网| a级毛片在线看网站| 国产成人a∨麻豆精品| a级一级毛片免费在线观看| 亚洲av成人精品一二三区| 最近的中文字幕免费完整| 天堂中文最新版在线下载| 在线观看美女被高潮喷水网站| 亚洲av成人精品一区久久| 最黄视频免费看| 热re99久久精品国产66热6| 日韩av在线免费看完整版不卡| 免费观看的影片在线观看| 成人亚洲精品一区在线观看| av一本久久久久| 精品亚洲乱码少妇综合久久| 久久99精品国语久久久| 高清不卡的av网站| tube8黄色片| 亚洲一级一片aⅴ在线观看| 18禁动态无遮挡网站| 国产熟女午夜一区二区三区 | 少妇 在线观看| 国产男女内射视频| 免费av中文字幕在线| 午夜影院在线不卡| 亚洲天堂av无毛| 国产 精品1| 夫妻性生交免费视频一级片| 成人影院久久| 久久久久久久亚洲中文字幕| 3wmmmm亚洲av在线观看| 国产精品久久久久久精品电影小说| 岛国毛片在线播放| 国产精品一区二区在线不卡| 亚洲美女搞黄在线观看| 黄片无遮挡物在线观看| 欧美日韩av久久| 天堂中文最新版在线下载| 日日撸夜夜添| 国产精品一区www在线观看| 久久国产精品大桥未久av | 久久婷婷青草| 免费不卡的大黄色大毛片视频在线观看| 国精品久久久久久国模美| av视频免费观看在线观看| 国产一区亚洲一区在线观看| 六月丁香七月| 免费看光身美女| 日韩av免费高清视频| 丝袜喷水一区| 18禁裸乳无遮挡动漫免费视频| 久久精品国产a三级三级三级| 日本色播在线视频| 国产美女午夜福利| 亚洲经典国产精华液单| 夫妻午夜视频| 97在线人人人人妻| 国产极品粉嫩免费观看在线 | 一区二区三区四区激情视频| 久久久精品免费免费高清| 国产男女内射视频| 精品人妻一区二区三区麻豆| 日本午夜av视频| 少妇 在线观看| 男女免费视频国产| av卡一久久| 欧美老熟妇乱子伦牲交| 黑人猛操日本美女一级片| 亚洲三级黄色毛片| 爱豆传媒免费全集在线观看| 十八禁高潮呻吟视频 | 日韩一区二区三区影片| 成人毛片60女人毛片免费| 老司机亚洲免费影院| 夜夜看夜夜爽夜夜摸| 亚洲四区av| 欧美xxⅹ黑人| 2021少妇久久久久久久久久久| 国产有黄有色有爽视频| 久久久久久久精品精品| 少妇的逼水好多| 国产欧美另类精品又又久久亚洲欧美| 乱码一卡2卡4卡精品| 最近最新中文字幕免费大全7| 久久久久久久国产电影| 久久国产乱子免费精品| 三级国产精品片| 亚洲av国产av综合av卡| 大香蕉97超碰在线| 熟女电影av网| 中文字幕精品免费在线观看视频 | 成人二区视频| 汤姆久久久久久久影院中文字幕| 国产乱来视频区| 欧美精品人与动牲交sv欧美| 国产精品一区www在线观看| 中文天堂在线官网| 热99国产精品久久久久久7| 我的老师免费观看完整版| 久久久久精品性色| 边亲边吃奶的免费视频| 日韩亚洲欧美综合| av.在线天堂| 午夜福利影视在线免费观看| 老司机影院毛片| 亚洲va在线va天堂va国产| 99视频精品全部免费 在线| 少妇裸体淫交视频免费看高清| 国语对白做爰xxxⅹ性视频网站| 久久国产精品大桥未久av | 亚洲中文av在线| 久久 成人 亚洲| 亚洲中文av在线| 性色avwww在线观看| 成人免费观看视频高清| 嫩草影院入口| 少妇的逼水好多| 亚洲精品国产成人久久av| 人人妻人人看人人澡| 一级毛片久久久久久久久女| 免费看不卡的av| 欧美性感艳星| 日韩成人伦理影院| 观看美女的网站| 欧美人与善性xxx| 国产男人的电影天堂91| 新久久久久国产一级毛片| 91aial.com中文字幕在线观看| 妹子高潮喷水视频| 国产欧美日韩综合在线一区二区 | 精品酒店卫生间| 最后的刺客免费高清国语| av.在线天堂| 精品卡一卡二卡四卡免费| 黑丝袜美女国产一区| 亚洲精品国产色婷婷电影| 久久毛片免费看一区二区三区| 9色porny在线观看| 熟女av电影| 亚洲欧美日韩卡通动漫| 中文资源天堂在线| 一区二区三区四区激情视频| 十八禁网站网址无遮挡 | 性高湖久久久久久久久免费观看| 啦啦啦视频在线资源免费观看| 大陆偷拍与自拍| 我要看黄色一级片免费的| 欧美精品人与动牲交sv欧美| 亚洲精品日本国产第一区| 久久免费观看电影| 人妻系列 视频| 91aial.com中文字幕在线观看| 国产精品蜜桃在线观看| 免费观看a级毛片全部| 国产日韩欧美亚洲二区| 99热网站在线观看| 精品一品国产午夜福利视频| 久久午夜综合久久蜜桃| 少妇高潮的动态图| 搡老乐熟女国产| 日韩成人伦理影院| 久久ye,这里只有精品| 一级毛片aaaaaa免费看小| 国产高清国产精品国产三级| 日韩在线高清观看一区二区三区| 偷拍熟女少妇极品色| 欧美激情国产日韩精品一区| 91久久精品国产一区二区成人| 日韩熟女老妇一区二区性免费视频| 卡戴珊不雅视频在线播放| 你懂的网址亚洲精品在线观看| 国产亚洲精品久久久com| 在线精品无人区一区二区三| 18禁在线无遮挡免费观看视频| 免费观看在线日韩| 国产精品99久久99久久久不卡 | 国产高清三级在线| 2018国产大陆天天弄谢| 熟女av电影| 日韩成人av中文字幕在线观看| 日韩,欧美,国产一区二区三区| 亚洲综合精品二区| 亚洲av欧美aⅴ国产| 99热全是精品| 街头女战士在线观看网站| 乱人伦中国视频|