• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    一種融合語義知識和BiLSTM-CNN的短文本分類方法

    2021-11-20 01:07:27楊秀璋李曉峰袁杰李坤琪楊鑫羅子江
    計算機時代 2021年11期
    關(guān)鍵詞:深度學習

    楊秀璋 李曉峰 袁杰 李坤琪 楊鑫 羅子江

    DOI:10.16644/j.cnki.cn33-1094/tp.2021.11.013

    摘? 要: 為快速準確地從海量新聞中挖掘用戶需求,解決短文本語義關(guān)系單薄、篇幅較短、特征稀疏問題,提出一種融合語義知識和BiLSTM-CNN的短文本分類方法。該分類模型將新聞短文本預(yù)處理成Word2Vec詞向量,通過卷積神經(jīng)網(wǎng)絡(luò)提取代表性的局部特征,利用雙向長短時記憶網(wǎng)絡(luò)捕獲上下文語義特征,再由Softmax分類器實現(xiàn)短文本分類。文章對體育、財經(jīng)、教育、文化和游戲五大主題的新聞?wù)Z料進行了實驗性的分析。結(jié)果表明,融合語義知識和BiLSTM-CNN的短文本分類方法在準確率、召回率和F1值上均有所提升,該方法可以為短文本分類和推薦系統(tǒng)提供有效支撐。

    關(guān)鍵詞: 短文本分類; BiLSTM-CNN; 深度學習; 語義知識

    中圖分類號:TP391? ? ? ? ? 文獻標識碼:A? ? ?文章編號:1006-8228(2021)11-49-06

    A short text classification method fusing semantic knowledge and BiLSTM-CNN

    Yang Xiuzhang, Li Xiaofeng, Yuan Jie, Li Kunqi, Yang Xin, Luo Zijiang

    (School of Information of Guizhou University of Finance and Economics, Guiyang, Guizhou 550025, China)

    Abstract: In order to quickly and accurately tap users needs from mass news, to solve the problems of thin semantic relations, short length, and sparse features in short texts, this paper proposes a short text classification method combining semantic knowledge and BiLSTM-CNN. In this classification model, news short texts are preprocessed into Word2Vec word vectors, representative local features are extracted by convolutional neural network, contextual semantic features are captured by bidirectional short and long time memory network, and then the short texts are classified by Softmax classifier. This paper experimentally analyzes the news corpus of five topics, namely sports, finance, education, culture and games. The results show that the short text classification method combining semantic knowledge and BiLSTM-CNN has improved in accuracy, recall rate and F1 value. This method can provide effective support for short text classification and recommendation system.

    Key words: short text classification; BiLSTM-CNN; deep learning; semantic knowledge

    0 引言

    隨著互聯(lián)網(wǎng)與社交網(wǎng)絡(luò)的迅速發(fā)展,以搜索引擎、微博、論壇、博客、評論等為主體的海量短文本信息與日俱增,如何快速精準地將其進行歸類,挖掘出所需的關(guān)鍵知識及研究熱點,已成為重要的研究課題。

    文本分類作為自然語言處理領(lǐng)域的一個熱點和難點,旨在精準地劃分文本的主題類別,再通過推薦系統(tǒng)或知識圖譜實現(xiàn)關(guān)聯(lián)個性化推薦,幫助用戶從雜亂信息中快速、高效地提取所需知識。面對大規(guī)模短文本語料,傳統(tǒng)分類方法是采用向量空間模型表征短文本,再進行相似性計算,或通過機器學習實現(xiàn)文本分類,缺乏對短文本上下文語義的關(guān)聯(lián)分析,難以避免引入干擾信息和克服短文本的特征稀疏問題,較難挖掘到深層次的文本特征,從而限制了短文本分類的精準度[1]。針對這些問題,本文提出一種融合語義知識和BiLSTM-CNN的短文本分類方法,從而有效地利用上下文語義知識,提高短文本分類的精準度。

    1 相關(guān)研究

    1.1 基于機器學習的文本分類

    傳統(tǒng)的文本分類方法是基于機器學習和特征工程實現(xiàn)的,國內(nèi)外學者進行了大量研究。常用的方法包括SVM、KNN、決策樹、樸素貝葉斯等[2-3]。劉一然等[4]提出了基于支持向量機(SVM)的學科文本自動分類方法。周慶平等[5]通過聚類改進KNN文本分類算法提升分類效果。何偉[6]應(yīng)用基于IGDC特征加權(quán)的樸素貝葉斯方法進行文本分類,并實現(xiàn)了多種中文文本數(shù)據(jù)集的對比實驗。Elberrichi和Bidi[7]通過遺傳算法改進文本分類特征提取過程,提升分類的準確率。楊曉花等[8]改進貝葉斯算法,完成圖書自動分類任務(wù)。

    上述方法雖然不斷提升著文本分類的準確率,但只能提取文本的淺層知識,缺乏考慮文本上下文依賴關(guān)系,忽略語義知識對文本分類的影響。早期基于機器學習的文本分類方法主要通過詞頻、TF-IDF、信息熵、互信息等技術(shù)提取文本特征,再調(diào)用無監(jiān)督學習或有監(jiān)督學習算法進行文本分類,這些評估函數(shù)大多基于統(tǒng)計學原理,缺乏對海量短文本數(shù)據(jù)的有效分類[9]。

    1.2 基于深度學習的文本分類

    隨著深度學習和人工智能的興起,以詞向量模型為基礎(chǔ),融合深度神經(jīng)網(wǎng)絡(luò)、LDA模型、Attention機制的短文本分類方法逐漸出現(xiàn)。2013年Mikolov等[10]提出了Word2Vec模型,通過訓練大規(guī)模語料得到低維詞向量,從而表征語義信息,常用框架包括CBOW和Skip-gram。

    近年來,深度學習的各類方法開始廣泛應(yīng)用于文本分類領(lǐng)域。Kim[11]首次運用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)來進行特征提取及文本分類。Zhang等[12]基于字符級的卷積神經(jīng)網(wǎng)絡(luò)模型提升分類準確率。陳波[13]改進卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)文本分類,從而提升準確率、召回率和F值。邱爾麗等[14]通過字符級CNN技術(shù)完成公共政策網(wǎng)民支持的分類研究。

    同時,由于循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, 簡稱RNN)可以聯(lián)系上下文突出文本序列信息,它也被應(yīng)用于自然語言處理領(lǐng)域。為進一步解決RNN模型的梯度爆炸和梯度消失問題,門控遞歸單元網(wǎng)絡(luò)(GRU)和長短時記憶網(wǎng)絡(luò)(LSTM)被提出并應(yīng)用于文本分類任務(wù)。Lai等[15]通過RCNN模型提取文本特征及實現(xiàn)文本分類。李云紅等[16]提出了一種基于循環(huán)神經(jīng)網(wǎng)絡(luò)變體和卷積神經(jīng)網(wǎng)絡(luò)的文本分類方法。梁志劍等[17]提出一種基于BiGRU和貝葉斯分類器的文本分類方法,有效提高了文本分類的效率和準確率。鄭國偉等[18]通過LSTM模型對金融領(lǐng)域的新聞數(shù)據(jù)進行分類。Zhou等[19]在BiLSTM模型中融合二維池化操作,實現(xiàn)文本特征提取和文本分類。為了更好地提取重點關(guān)注的文本數(shù)據(jù),注意力(Attention)機制被引入深度神經(jīng)網(wǎng)絡(luò)及自然語言處理任務(wù)中。Wang等[20]結(jié)合LSTM模型和注意力機制實現(xiàn)情感分類研究。陶志勇等[1]提出了基于雙向長短時記憶網(wǎng)絡(luò)的改進注意力短文本分類方法。張宇藝等[21]通過改進CBOW模型,并結(jié)合ABiGRU方法實現(xiàn)文本分類。張彥楠等[22]融合CNN、雙向GRU及注意力機制,完成錄音文本分類任務(wù)。姚苗等[23]提出自注意力機制的Att-BLSTMs模型并應(yīng)用于短文本分類研究,有效地提高了短文本分類的準確率。

    綜上所述,BiLSTM模型可以提取上下文語義知識,CNN和RNN模型可以捕獲具有代表性的局部文本特征,Attention機制能夠突出詞語的重要性,強化網(wǎng)絡(luò)模型的學習和泛化能力。本文在以上研究基礎(chǔ)上提出一種融合語義知識和BiLSTM-CNN的短文本分類模型,整個模型盡可能地發(fā)揮CNN、BiLSTM和Attention的優(yōu)勢,提升短文本分類的準確率,多角度考慮短文本分類的互補性及協(xié)調(diào)性。

    2 本文模型

    本文針對短文本語義關(guān)系單薄、篇幅較短、特征稀疏等問題,提出了一種融合BiLSTM-CNN和語義知識的短文本分類模型。

    2.1 算法總體框架

    該模型將短文本預(yù)處理成Word2Vec詞向量,再通過卷積神經(jīng)網(wǎng)絡(luò)的卷積層和池化層把文本詞向量表征成句子詞向量,結(jié)合BiLSTM神經(jīng)網(wǎng)絡(luò)和Attention機制構(gòu)建文本向量,最終得出分類結(jié)果。本文方法的總體框架如圖1所示。具體步驟如下。

    ⑴ 首先通過Python和XPath構(gòu)建自定義爬蟲抓取新聞標題數(shù)據(jù),包括體育、財經(jīng)、教育、文化和游戲五大主題;接著進行數(shù)據(jù)預(yù)處理操作,計算輸入層的詞向量。

    ⑵ 輸入層中嵌入的詞向量會將文本中的每一個詞匯表征為相應(yīng)的詞向量空間,接著輸入卷積神經(jīng)網(wǎng)絡(luò),卷積層由多個濾波器組成,池化層提取出具有代表性的局部特征。

    ⑶ 雙向長短時記憶網(wǎng)絡(luò)層(BiLSTM)旨在提取上下文語義特征,BiLSTM能夠更好地捕捉到雙向語義依賴,從而進行細粒度的分類。

    ⑷ 當BiLSTM層完成上下文語義特征提取后,其輸出會通過Attention機制進一步突出所提取的關(guān)鍵性詞語,并賦予相關(guān)權(quán)重。

    ⑸ 最后,經(jīng)過BiLSTM-CNN和Attention神經(jīng)網(wǎng)絡(luò)得到的特征向量,會由Softmax分類器計算短文本的分類結(jié)果,完成分類任務(wù)。

    2.2 數(shù)據(jù)預(yù)處理

    在進行短文本分類任務(wù)前,需要對語料進行數(shù)據(jù)預(yù)處理操作,主要包括以下內(nèi)容。

    ⑴ 分詞。本文抓取了搜索引擎的新聞標題數(shù)據(jù)作為實驗語料,中文分詞采用Jieba工具完成,并導入自定義詞典進行專有名詞識別。

    ⑵ 停用詞過濾。通過Python導入哈爾濱工業(yè)大學停用詞表、百度停用詞表和四川大學停用詞表進行數(shù)據(jù)清洗,過濾掉如“我們”“的”“這”等停用詞以及標點符號。

    ⑶ 異常值處理。在中文文本中,還會存在一些異常的詞匯,此時需要進行適當?shù)霓D(zhuǎn)換及人工標注,從而為后續(xù)的文本分類提供輔助。

    經(jīng)過上述處理,將得到更高質(zhì)量的短文本數(shù)據(jù)集,從而提升分類效果。最后將清洗后的數(shù)據(jù)及類標存儲至數(shù)據(jù)庫中,進行后續(xù)的短文本分類實驗。

    2.3 Word2Vec詞向量

    詞向量是自然語言處理領(lǐng)域中的基礎(chǔ)知識,在文本挖掘、語義分析、情感分析等方面具有一定的價值。Word2Vec是2013年Google開源的一款基于詞向量的計算工具,旨在根據(jù)上下文信息表征特征詞,通過向量空間的相似度來表示語義相似度,從而挖掘出詞語之間的內(nèi)在語義知識和關(guān)聯(lián)信息。

    Word2Vec包括CBOW模型和Skip-gram模型。其中,CBOW模型是通過上下文來預(yù)測當前詞的概率,已知上下文w(t-1)、w(t-2)、w(t+1)、w(t+2),對當前詞w(t)的概率進行預(yù)測;Skip-gram模型則是利用當前詞的詞向量來預(yù)測上下文。圖2為基于Word2Vec和深度學習的文本分類模型,它將句子轉(zhuǎn)換為詞向量并結(jié)合上下文語義知識完成分類任務(wù),識別出文化(類標0)和體育(類標1)兩個類別。

    2.4 卷積神經(jīng)網(wǎng)絡(luò)模型

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, 簡稱CNN)通過提取局部特征進行文本分類,利用卷積核滑動搜集句子信息來提取特征,從而提高特征利用率。典型的CNN模型包括輸入層、卷積層、池化層和全連接層。

    卷積層旨在提取輸入語料的數(shù)據(jù)特征,采用不同尺寸的卷積核進行卷積運算,其計算如公式(1)所示,最終得到新的特征hdi。

    其中,f表示ReLU激活函數(shù),wd表示大小為d的卷積核,Vi表示輸入層的詞向量,bd表示偏置項。通過設(shè)置d個不同大小的卷積核對Vi進行特征提取,滑動濾波器映射得到最終的局部特征集合Hd:

    池化層旨在降低數(shù)據(jù)維度,縮減文本特征向量和網(wǎng)絡(luò)參數(shù)的大小,同時能保持文本特征統(tǒng)計屬性并增大模型的適應(yīng)性。本文對卷積操作得到的局部特征Hd進行池化操作,采用最大池化方法來提取特征,其計算公式如下:

    經(jīng)過池化層提取出文本的局部重要特征,接著將所有池化層得到的特征在全連接層進行組合,得到輸出向量S。最后將全連接層輸出向量S輸入Softmax分類器中進行短文本分類,從而預(yù)測最終類別。

    2.5 BiLSTM模型和Attention

    雙向長短時記憶網(wǎng)絡(luò)模型(Bi-directional Long Short-Term Memory, 簡稱BiLSTM)可以從兩個方向?qū)渥舆M行編碼,提取上下文語義特征,更好地捕捉到雙向語義依賴,從而進行細粒度的分類。

    針對在短文本分類任務(wù)中,不同詞語對整個文本語義的貢獻不同,本文利用Attention機制為BiLSTM-CNN模型的輸出賦予不同的權(quán)重,從而將單詞級別的特征融合成句子級別的特征,提高關(guān)鍵詞信息對分類結(jié)果的影響。最后,經(jīng)過Attention機制得到了向量將輸入到softmax分類器中,從而實現(xiàn)短文本分類任務(wù)。

    3 實驗

    提出一種融合語義知識的短文本分類方法,為驗證其有效性和實用性,采用TensorFlow深度學習框架構(gòu)建神經(jīng)網(wǎng)絡(luò)模型進行對比實驗。

    3.1 實驗數(shù)據(jù)和預(yù)處理

    實驗通過Python自定義爬蟲采集50000條新聞標題數(shù)據(jù),涉及體育、財經(jīng)、教育、文化和游戲共五個主題,并將數(shù)據(jù)集按照6:2:2的比例隨機劃分成訓練集、驗證集和測試集,具體數(shù)據(jù)分布情況如表1所示。數(shù)據(jù)預(yù)處理采用Jieba工具實現(xiàn),包括對文本語料的中文分詞、停用詞過濾、去除低頻特征詞等,從而提高文本分類的準確率。

    3.2 評估指標

    文本分類任務(wù)通常會采用準確率(Precision)、召回率(Recall)和F值(F-measure)評價指標。其計算公式如下:

    其中,TP表示短文本分類正確的數(shù)量,Sum表示實際分類的文本數(shù)量,TS表示屬于該類別的文本數(shù)量。準確率旨在評估被分類模型正確劃分到某個類別中的比例,召回率旨在評估屬于某個類別的查全率,F(xiàn)值是準確率和召回率的加權(quán)調(diào)和平均值,常用于評價分類模型的最終好壞。

    3.3 實驗結(jié)果與分析

    為了保證實驗結(jié)果更加真實有效,本研究進行了多次交叉驗證,最終的實驗結(jié)果為10次短文本分類實驗結(jié)果的平均值。同時,該模型的文本序列長度設(shè)置為600,CNN模型的卷積核數(shù)量設(shè)置為128,卷積核尺寸設(shè)置為3,學習率為0.001,BiLSTM模型的正反向神經(jīng)元數(shù)均設(shè)置為300,詞向量維度為300,優(yōu)化算法選擇Adam優(yōu)化器,并且增加Dropout層防止出現(xiàn)過擬合現(xiàn)象。

    采用融合語義知識和BiLSTM-CNN方法對所抓取的新聞標題語料進行短文本分類,得到的實驗結(jié)果如表2所示。其中,短文本分類準確率最高的是體育類別,值為0.9253;準確率最低的是游戲類別,值為0.8745。短文本分類召回率最高的是游戲類別,值為0.9125;召回率最低的是財經(jīng)類別,值為0.8845;短文本分類F值最高的是體育類別,值為0.9178;F值最低的是財經(jīng)類別,值為0.8874。

    為進一步對比短文本分類的實驗結(jié)果,本文詳細對比了多種分類算法,其實驗結(jié)果如表3所示。由表可知,本文所提出方法在該數(shù)據(jù)集的短文本分類比較中,平均準確率、平均召回率和平均F值都有一定程度的提升。

    本文方法的平均準確率為0.9010,平均召回率為0.9006,平均F值為0.9008。相比于傳統(tǒng)的機器學習分類方法有較大提升,其平均F值比決策樹(DT)方法提升了0.0898,比最近鄰(KNN)方法提升了0.1145,比支持向量機(SVM)方法提升了0.855。

    本文方法與經(jīng)典的深度神經(jīng)網(wǎng)絡(luò)相比,F(xiàn)值也有一定程度提升,F(xiàn)值分別比CNN、GRU、LSTM和BiLSTM高出0.0585、0.0675、0.0560和0.0445。隨著文本分類模型進一步演化,TextCNN和Attention機制融合模型逐漸被提出,本文方法依舊顯示優(yōu)于這些方法,其F值比TextCNN模型提升0.0194,比Attention+CNN模型提升0.0124,比Attention+BiLSTM模型提升0.0091??傮w而言,本文提出的方法在該新聞標題中文數(shù)據(jù)集的短文本分類效果更好。

    同時,該模型的正確率(Accuracy)和誤差變化曲線如圖4和圖5所示。隨著迭代次數(shù)增加,其正確率逐漸升高,而誤差逐漸降低,并且每隔100次迭代輸出一次結(jié)果。最終趨于平緩,BiLSTM-CNN和Attention模型正確率穩(wěn)定在0.9078,誤差穩(wěn)定在0.001。

    4 結(jié)束語

    針對短文本語義關(guān)系單薄、篇幅較短、特征稀疏問題,本文提出了一種融合BiLSTM-CNN和語義知識的短文本分類模型。通過CNN模型提取短文本的局部特征,利用BiLSTM提取上下文語義依賴,考慮文本中每個詞語前后的語義關(guān)系影響,并經(jīng)過Attention機制進一步突出所提取的關(guān)鍵性詞語,賦予相關(guān)權(quán)重,從而提升短文本的準確率。實驗結(jié)果表明,本文提出的方法優(yōu)于傳統(tǒng)的機器學習分類方法和經(jīng)典的深度學習分類方法,最終的平均準確率為0.9010,平均召回率為0.9006,平均F值為0.9008。相較于其他方法,這三個評價指標均有所提升。本文的方法可以應(yīng)用于短文本分類、推薦系統(tǒng)、數(shù)據(jù)挖掘、自然語言處理等領(lǐng)域,具有較好的準確率和實用性。未來,將一方面進一步擴大實驗數(shù)據(jù)集,研究該算法的普適性;另一方面將結(jié)合深度語義知識,進一步提升模型對文本分類準確率的影響。

    參考文獻(References):

    [1] 陶志勇,李小兵,劉影等.基于雙向長短時記憶網(wǎng)絡(luò)的改進注意力短文本分類方法[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2019.12:21-29

    [2] 郭詩瑤.融合上下文信息的文本分類算法的研究及應(yīng)用[D].北京郵電大學,2019:27

    [3] 楊秀璋,夏換,于小民等.基于多視圖融合的論文自動分類方法研究[J].現(xiàn)代電子技術(shù),2020.43(8):120-124

    [4] Joachims T. Text categorization with support vector machines:? learning with many relevant features[J]. Proc of the 10th European Conf on Machine Learning (ECML-98).Chemnitz: Springer-Verlag,1998:137-142

    [5] 周慶平,譚長庚,王宏君等.基于聚類改進的KNN文本分類算法[J].計算機應(yīng)用研究,2016.33(11):3374-3377

    [6] 何偉.基于樸素貝葉斯的文本分類算法研究[D].南京郵電大學,2019:22

    [7] BidiN,Elberrichi Z. Feature selection for text classification using genetic algorithm[C]//International Conference on Modelling,Identification and Control. IEEE,2017:806-810

    [8] 楊曉花,高海云.基于改進貝葉斯的書目自動分類算法[J].計算機科學,2018.45(8):203-207

    [9] 熊漩,嚴佩敏.融合多頭自注意力機制的中文分類方法[J].電子測量技術(shù),2020.43(10):125-130

    [10] MikolovT,ChenKai,CorradoG,et al. Efficient estimation of word representations in vector space[J].arXiv:1301.3781,2013.

    [11] Kim Y. Convolutional neural networks for sentence classification[J].Association for the Computation Linguistics,2014.15(6):1746-1751

    [12] Zhang X, Zhao J, Lecun Y. Character-level convolutional networks for text classification[C] //International Conferenceon Neural Information Processing Systems.MIT Press,2015:649-657

    [13] 陳波.基于循環(huán)結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)文本分類方法[J].重慶郵電大學學報(自然科學版),2018.30(5): 705-710

    [14] 邱爾麗,何鴻魏,易成岐等.基于字符級CNN技術(shù)的公共政策網(wǎng)民支持度研究[J].數(shù)據(jù)分析與知識發(fā)現(xiàn),2020.4(7):28-37

    [15] Lai S, Xu L, Liu K, et al. Recurrent convolutional neural networks for text classification[C] //Proc of the 29th AAAI Conference on Artificial Intelligence,2015:2267-2273

    [16] 李云紅,梁思程,任劼等.基于循環(huán)神經(jīng)網(wǎng)絡(luò)變體和卷積神經(jīng)網(wǎng)絡(luò)的文本分類方法[J].西北大學學報(自然科學版),2019.49(4):573-579

    [17] 梁志劍,謝紅宇,安衛(wèi)鋼.基于BiGRU和貝葉斯分類器的文本分類[J].計算機工程與設(shè)計,2020.41(2): 381-385

    [18] 鄭國偉,呂學強,夏紅科等.基于LSTM的金融新聞傾向性[J].計算機工程與設(shè)計,2018.39(11):3462-3467

    [19] Zhou P, Qi Z, Zheng S, et al. Text Classification Improved by Integrating Bidirectional LSTM with Two-dimensional Max Pooling[OL]. arXiv Preprint, arXiv: 1611.06639

    [20] Wang Y, Huang M, Zhao L, et al. Attention-based LSTM for Aspect-level Sentiment Classification[C] //Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics,2016:606-615

    [21] 張宇藝,左亞堯,陳小幫.基于改進的CBOW與ABiGRU的文本分類研究[J].計算機工程與應(yīng)用,2019,55(24):135-140

    [22] 張彥楠,黃小紅,馬嚴等.基于深度學習的錄音文本分類方法[J].浙江大學學報 (工學版),2020.54(7):1-8

    [23] 姚苗,楊文忠,袁婷婷等.自注意力機制的短文本分類算法[J].計算機工程與設(shè)計,2020.41(6):1592-1598

    猜你喜歡
    深度學習
    有體驗的學習才是有意義的學習
    電子商務(wù)中基于深度學習的虛假交易識別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學習場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    深度學習算法應(yīng)用于巖石圖像處理的可行性研究
    軟件導刊(2016年9期)2016-11-07 22:20:49
    基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實現(xiàn)
    軟件工程(2016年8期)2016-10-25 15:47:34
    图木舒克市| 门头沟区| 安多县| 康定县| 巴塘县| 桐梓县| 卢龙县| 江门市| 贵阳市| 蕲春县| 红原县| 老河口市| 黑河市| 温州市| 龙山县| 利辛县| 兰考县| 屯留县| 芜湖市| 互助| 宽城| 金塔县| 阿坝| 泾阳县| 闽侯县| 阜新| 贡山| 射洪县| 开鲁县| 定兴县| 观塘区| 获嘉县| 梁山县| 阜南县| 龙海市| 荃湾区| 罗平县| 武强县| 石台县| 上蔡县| 沅江市|