張 敏,趙雪青
(西安工程大學(xué) 計(jì)算機(jī)科學(xué)學(xué)院,陜西 西安 710048)
中國作為世界上最大的紡織品生產(chǎn)和出口國,數(shù)字化、智能化的紡織品生產(chǎn)過程逐漸成為趨勢。然而,在紡織品生產(chǎn)過程中,由于原料、設(shè)備及操作等諸多因素的影響,織物表面會(huì)產(chǎn)生各種疵點(diǎn),這些織物疵點(diǎn)嚴(yán)重影響織物質(zhì)量。因此,對(duì)織物疵點(diǎn)進(jìn)行有效地檢測和分類是現(xiàn)代紡織企業(yè)控制成本以及提高產(chǎn)品競爭力的關(guān)鍵點(diǎn)[1-2]。
有效的織物疵點(diǎn)分類方法不僅能夠提高紡織品的生產(chǎn)效率,而且能夠提升紡織企業(yè)的生產(chǎn)和管理水平。然而,織物疵點(diǎn)產(chǎn)生的原因較多,如:棉織物紗線原料問題、織前準(zhǔn)備不足、織機(jī)機(jī)械狀態(tài)不良以及織布操作不當(dāng)?shù)萚3-4],導(dǎo)致織物疵點(diǎn)種類繁多且復(fù)雜,增加了織物疵點(diǎn)分類難度。因此,借助數(shù)字化圖像處理技術(shù)對(duì)織物疵點(diǎn)圖像進(jìn)行分類是目前較有效的技術(shù)手段之一。針對(duì)織物疵點(diǎn)圖像特征提取,傳統(tǒng)方法主要基于尺度不變特征,如LI等提出了極限學(xué)習(xí)機(jī)和彩色尺度不變特征相結(jié)合的方法,該方法有效地將圖像分類準(zhǔn)確率提高了3%~4%[5]。隨后,JING等采用Gabor濾波方法來提取織物疵點(diǎn)圖像的特征[6],充分利用Gabor變換提取織物疵點(diǎn)圖像的空間域和頻率域信息方面良好的特性。其他基于頻域的特征提取方法,如傅里葉變換,利用傅里葉變換系數(shù)獲得織物疵點(diǎn)圖像的直方圖統(tǒng)計(jì)信息進(jìn)而提取特征[7];小波變換,從時(shí)域和頻域2個(gè)維度獲得織物疵點(diǎn)圖像的多尺度特征信息[8]。此外,從統(tǒng)計(jì)學(xué)角度,ZHANG提出了一種結(jié)合局部二值模式(LBP)和灰度共生矩陣(GLCM)的分類算法[9],結(jié)合織物疵點(diǎn)的局部與全局特征進(jìn)行圖像分類,一定程度上提升了分類的準(zhǔn)確率。其他基于統(tǒng)計(jì)的特征提取,如方向梯度直方圖(HOG)方法,利用局部區(qū)域不同方向上的梯度值進(jìn)行統(tǒng)計(jì)得到直方圖作為特征[10];顏色直方圖方法,采用RGB顏色空間的全局顏色統(tǒng)計(jì)直方圖特征等。這些傳統(tǒng)的特征提取方法僅通過提取織物線層特征進(jìn)行分類,獲得的圖像特征有限[11]。針對(duì)疵點(diǎn)圖像背景的復(fù)雜性、數(shù)據(jù)樣本的有限性和目標(biāo)特征的隨機(jī)性的特點(diǎn),利用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)良好的學(xué)習(xí)能力和在卷積處理中可以捕獲多層結(jié)構(gòu)的特征,可以將卷積神經(jīng)網(wǎng)絡(luò)引入到織物疵點(diǎn)圖像分類中[12]。例如:文獻(xiàn)[13]使用2012年ImageNet數(shù)據(jù)集[14]競賽冠軍模型Alexnet和GoogLeNet,針對(duì)小樣本數(shù)據(jù)集利用遷移學(xué)習(xí)對(duì)模型進(jìn)行微調(diào),最后利用softmax回歸算法進(jìn)行預(yù)測分類,準(zhǔn)確率均能達(dá)到95%以上。這說明卷積神經(jīng)網(wǎng)絡(luò)利用遷移學(xué)習(xí)改善了小樣本數(shù)據(jù)因數(shù)據(jù)量不足不能提取到有效特征的問題,通過模型的多層卷積操作緩解了淺層特征提取局限性的問題,但是隨著模型深度的不斷增加,也會(huì)使模型出現(xiàn)過擬合現(xiàn)象,這意味著模型的效率會(huì)有所降低。
本文提出了基于EfficientNets的織物疵點(diǎn)圖像分類方法,使用ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練的權(quán)重采用遷移學(xué)習(xí)的方法,在小樣本TILDA數(shù)據(jù)集上進(jìn)行微調(diào)構(gòu)建新的EfficientNets模型,再采用softmax對(duì)織物疵點(diǎn)圖像進(jìn)行分類。
隨著深度學(xué)習(xí)理論的深入研究和計(jì)算機(jī)計(jì)算能力的不斷提升,CNN及其擴(kuò)展網(wǎng)絡(luò)得到了快速的發(fā)展,影響CNN性能的主要因素是網(wǎng)絡(luò)的深度、寬度和基數(shù)[15],在一定約束條件下增加模型的深度、寬度和基數(shù),均會(huì)提升網(wǎng)絡(luò)的性能,然而,單一增加模型的深度、寬度等因素,會(huì)產(chǎn)生過擬合現(xiàn)象,導(dǎo)致網(wǎng)絡(luò)效率下降,如何有效地平衡網(wǎng)絡(luò)結(jié)構(gòu)和性能是設(shè)計(jì)新型網(wǎng)絡(luò)結(jié)構(gòu)的核心。TAN等提出了EfficientNets模型[16],一種新的縮放方法能夠平衡效率與準(zhǔn)確率,通過使用一個(gè)簡單而高效的復(fù)合系數(shù)來均勻地縮放深度、寬度、分辨率的所有維度。針對(duì)CNN的張量形狀輸入(H,W,C),其中,H×W為輸入圖像的大小,C為通道數(shù),L為網(wǎng)絡(luò)的卷積層數(shù),則該卷積網(wǎng)絡(luò)可定義為
N=FL(H,W,C)
(1)
式中:F為網(wǎng)絡(luò)的卷積操作;N為整個(gè)模型的網(wǎng)絡(luò)。
根據(jù)式(1)可知,CNN的分類結(jié)果與其深度d、寬度w及分辨率r的參數(shù)相關(guān),它們的關(guān)系可定義為
Race(N(d,w,r))=Fd·L(r·H,r·W,w·C)
(2)
式中:d·L為加入深度系數(shù)后的網(wǎng)絡(luò)深度;r·H、r·W為加入系數(shù)后的輸入圖像的大小;w·C為加入系數(shù)后的網(wǎng)絡(luò)通道數(shù);Race為模型的準(zhǔn)確率。
復(fù)合縮放方法中,使用復(fù)合系數(shù)?以一種有原則的方式均勻地縮放模型寬度、深度和分辨率。深度:d=α?,寬度:w=β?,分辨率:r=γ?,約束條件:α·β2·γ2≈2,其中,α≥1,β≥1,γ≥1,α、β、γ是可以通過小型網(wǎng)格搜索確定的常量。直觀的?為用戶指定的系數(shù),該系數(shù)控制可用于模型縮放的資源數(shù)量,α、β、γ指定如何分別為模型寬度、深度和分辨率分配這些額外資源。值得注意的是,正則卷積運(yùn)算的FLOPS與d、w2、r2成正比。由于卷積運(yùn)算通常在卷積網(wǎng)絡(luò)中占主導(dǎo)地位,因此對(duì)卷積網(wǎng)絡(luò)進(jìn)行縮放,會(huì)使FLOPS增加約(α·β2·γ2)?,所以限制α·β2·γ2≈2,使得對(duì)于任何新的?,F(xiàn)LOPS將近似地增加2?。
由于模型的縮放操作并不會(huì)影響到模型的卷積操作,所以選擇一個(gè)良好的基線模型也很重要。本文使用EfficientNets的基線模型是多目標(biāo)神經(jīng)架構(gòu)搜索,主要由移動(dòng)逆瓶頸卷積(MBconv)與SENet[17]組成,移動(dòng)逆瓶頸卷積與深度可分離卷積相似,首先對(duì)輸入進(jìn)行1×1逐點(diǎn)卷積并根據(jù)擴(kuò)展比例改變輸出通道維度,然后在EfficientNets模型的k×k卷積中引入SENet注意力機(jī)制,最終再使用1×1卷積恢復(fù)原來的通道數(shù),EfficientNets基線網(wǎng)絡(luò)EfficientNets-B0的網(wǎng)絡(luò)結(jié)構(gòu)如表1所示,表中的MBConv1和MBConv6分別代表擴(kuò)展比例為1和6。
表1 EfficientNets基線網(wǎng)絡(luò)EfficientNet-B0的網(wǎng)絡(luò)結(jié)構(gòu)
模型的損失函數(shù)使用的是交叉熵?fù)p失函數(shù), 計(jì)算織物疵點(diǎn)分類結(jié)果中正確結(jié)果與預(yù)測結(jié)果之間的誤差,計(jì)算公式為
(3)
式中:p為真實(shí)的概率分布,訓(xùn)練網(wǎng)絡(luò)時(shí),輸入數(shù)據(jù)與標(biāo)簽已經(jīng)確定,那么真實(shí)概率分布p就確定下來了;q為預(yù)測的概率分布。
交叉熵?fù)p失函數(shù)能夠衡量同一個(gè)隨機(jī)變量中的2個(gè)不同概率分布的差異程度,在分類模型中就表示為真實(shí)概率分布與預(yù)測概率分布之間的差異。交叉熵的值越小,模型預(yù)測效果就越好。
通過小型網(wǎng)格搜索得到參數(shù)取值,即α=1.2,β=1.1,γ=1.15,給定復(fù)合系數(shù)?,得到EfficientNets B0至B5網(wǎng)絡(luò)的w、d以及r的參數(shù)如表2所示。本文的實(shí)驗(yàn)中選擇B5參數(shù),稱為EfficientNet-B5網(wǎng)絡(luò)模型。
表2 EfficientNets B0至B5網(wǎng)絡(luò)的參數(shù)
隨著機(jī)器學(xué)習(xí)應(yīng)用領(lǐng)域的不斷拓展,出現(xiàn)了基于大規(guī)模數(shù)據(jù)的學(xué)習(xí)算法,例如深度學(xué)習(xí)。然而,該類方法對(duì)大量訓(xùn)練數(shù)據(jù)的依賴性非常強(qiáng),網(wǎng)絡(luò)模型的規(guī)模和訓(xùn)練數(shù)據(jù)量級(jí)的大小呈線性關(guān)系, 需要大量的數(shù)據(jù)來理解數(shù)據(jù)的潛在模式,但是,數(shù)據(jù)收集及標(biāo)注代價(jià)昂貴。因此,遷移學(xué)習(xí)作為機(jī)器學(xué)習(xí)中解決訓(xùn)練數(shù)據(jù)不足這一基本問題的重要工具,已在多個(gè)領(lǐng)域展開應(yīng)用。遷移學(xué)習(xí)將知識(shí)從源域遷移到目標(biāo)域,這對(duì)許多由于訓(xùn)練數(shù)據(jù)不足而難以改進(jìn)的領(lǐng)域產(chǎn)生巨大的積極影響,源域即大規(guī)模數(shù)據(jù)集,目標(biāo)域即小樣本的數(shù)據(jù)集。不需要對(duì)目標(biāo)域內(nèi)的模型進(jìn)行從零開始的訓(xùn)練,可以顯著降低對(duì)目標(biāo)域內(nèi)訓(xùn)練數(shù)據(jù)和訓(xùn)練時(shí)間的需求。因此,針對(duì)小樣本的遷移學(xué)習(xí)受到越來越多關(guān)注。目前,眾多模型均使用遷移的策略進(jìn)行訓(xùn)練。例如使用大規(guī)模圖像數(shù)據(jù)集ImageNet對(duì)CNN模型進(jìn)行訓(xùn)練,然后使用到小樣本數(shù)據(jù)集中,使用GoogLeNet、AlexNet進(jìn)行遷移學(xué)習(xí)來對(duì)織物花型進(jìn)行分類[18],使用LeNet模型進(jìn)行遷移學(xué)習(xí)來對(duì)圖像美感進(jìn)行分類[12]。這也體現(xiàn)CNN體系結(jié)構(gòu)的另一個(gè)優(yōu)勢便是經(jīng)過預(yù)訓(xùn)練的模型可以實(shí)現(xiàn)網(wǎng)絡(luò)結(jié)構(gòu)與參數(shù)信息的分離,所以只要網(wǎng)絡(luò)結(jié)構(gòu)一致,便可以利用已經(jīng)訓(xùn)練好的權(quán)重參數(shù)構(gòu)建并初始化模型,極大地節(jié)省了網(wǎng)絡(luò)的訓(xùn)練時(shí)間。
常用的遷移學(xué)習(xí)的方法有4種:基于樣本的遷移學(xué)習(xí),基于模型的遷移學(xué)習(xí),基于特征的遷移學(xué)習(xí)和基于關(guān)系的遷移學(xué)習(xí)。本文針對(duì)小樣本織物疵點(diǎn)圖像數(shù)據(jù)的訓(xùn)練任務(wù),采用基于模型的遷移學(xué)習(xí)策略,通過共享源域和目標(biāo)域參數(shù)實(shí)現(xiàn)遷移學(xué)習(xí),在源域ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練模型權(quán)重參數(shù),在目標(biāo)域TILDA小樣本數(shù)據(jù)集上通過微調(diào)參數(shù)進(jìn)行遷移學(xué)習(xí),構(gòu)建TILDA數(shù)據(jù)集的EfficientNets模型來實(shí)現(xiàn)織物疵點(diǎn)圖像分類任務(wù)。遷移學(xué)習(xí)過程如圖1所示。
圖1 遷移學(xué)習(xí)過程
提出的基于EfficientNets的織物疵點(diǎn)分類方法在TILDA織物疵點(diǎn)數(shù)據(jù)集的C1R3中進(jìn)行驗(yàn)證。采用Python語言,基礎(chǔ)配置CPU: Intel(R), Core(TM)i7-GTX1070 4.20 GHz; 內(nèi)存12 GB,顯存8 GB; 系統(tǒng)Ubuntu 16.04,為了加速訓(xùn)練過程,在實(shí)驗(yàn)過程中使用了GPU來加速,配置Cuda 8.0 Cudnn 6.0,Tensorflow 1.4.0,Keras 2.2.4。
本文使用的數(shù)據(jù)集是TILDA織物疵點(diǎn)數(shù)據(jù)集的C1R3,其中包含5類疵點(diǎn),分別為飛來物、破洞、油污、紗疵、竹節(jié)。數(shù)據(jù)集總共包含250張圖片,隨機(jī)劃分為訓(xùn)練集125張,每類25張,測試集125張,每類25張。每類示例圖如圖2所示。
圖2 TILDA數(shù)據(jù)集中5類織物疵點(diǎn)
由于使用的數(shù)據(jù)集是小樣本數(shù)據(jù)集,所以在使用卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)過程中,對(duì)原本的數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)。本文采用的數(shù)據(jù)增強(qiáng)方法有左右翻轉(zhuǎn)、旋轉(zhuǎn)15°、高斯噪聲(0.9)、椒鹽噪聲(0.9)和變暗(0.3),參數(shù)0.9表示噪聲在圖像中的占比,0.3表示圖像像素矩陣值減小了70%,數(shù)據(jù)增強(qiáng)示意圖如圖3所示。將數(shù)據(jù)集擴(kuò)增5倍,數(shù)據(jù)集總共包含1 500張圖片,其中訓(xùn)練集750張,每類150張,測試集750張,每類150張。
圖3 數(shù)據(jù)增強(qiáng)示意圖
2.3.1 參數(shù)設(shè)置 EfficientNet-B5模型的參數(shù)選擇是使得模型的效率與準(zhǔn)確率達(dá)到一個(gè)最優(yōu)的效果,而不過分地占用資源、消耗資源,使得模型效率降低。為了得到模型最優(yōu)參數(shù),常使用準(zhǔn)確率以及誤差值來選擇參數(shù)。當(dāng)準(zhǔn)確率和誤差值同時(shí)趨于穩(wěn)定時(shí),說明模型迭代次數(shù)最優(yōu)。本文設(shè)置批量大小為16,學(xué)習(xí)率為0.005。為了防止過擬合,設(shè)置丟棄函數(shù)的丟棄率為0.5,迭代訓(xùn)練100次,結(jié)果如圖4所示。從圖4可以看到當(dāng)訓(xùn)練迭代為25時(shí),準(zhǔn)確率和誤差值同時(shí)趨于穩(wěn)定,沒有消耗過多資源,使得模型達(dá)到最優(yōu)。
(a)準(zhǔn)確率曲線
2.3.2 性能測試 為了測試本文提出的EfficientNet-B5模型性能,本文采用4個(gè)常用的網(wǎng)絡(luò)模型DenseNet201[19]、Inception_v3、Xception[20]、ResNeXt101[21]作為對(duì)比,從網(wǎng)絡(luò)模型分類織物疵點(diǎn)圖像的準(zhǔn)確率、訓(xùn)練時(shí)間進(jìn)行分析,結(jié)果見圖5。從圖5(a)可以看出DenseNet201、Inception_v3和Xception分類準(zhǔn)確率相近分別是96.8%、97.1%和97.5%。從圖5(b)訓(xùn)練時(shí)間上來看DenseNet201比Inception_v3、Xception網(wǎng)絡(luò)模型花費(fèi)的訓(xùn)練時(shí)間還要長。EfficientNet-B5、DenseNet201、Inception_v3、Xception、RsNeXt101網(wǎng)絡(luò)模型的參數(shù)量分別為30.44×106、20.07×106、22.91×106、23.87×106、44.22×106,可以看出DenseNet201、Inception_v3、Xception網(wǎng)絡(luò)模型的準(zhǔn)確率和參數(shù)量成正比。DenseNet201是密集深度網(wǎng)絡(luò)模型,而Inception_v3、Xception是使用深度可分離卷積的模型,這說明只增加網(wǎng)絡(luò)模型的深度并不能使準(zhǔn)確率得到很好的提升。Inception_v3、Xception和ResNeXt101相比較,ResNeXt101網(wǎng)絡(luò)模型的準(zhǔn)確率比較高,但是訓(xùn)練時(shí)間也較長。ResNeXt101除了采用Inception_v3和Xception的深度可分離卷積之外,還使用了組卷積來減少網(wǎng)絡(luò)模型參數(shù)、增加網(wǎng)絡(luò)模型寬度,所以最后結(jié)果比較好。ResNeXt101和EfficientNet-B5網(wǎng)絡(luò)模型相比較,在時(shí)間上只相差1 min,但在準(zhǔn)確率上EfficientNet-B5高出ResNeXt101網(wǎng)絡(luò)模型1%,在網(wǎng)絡(luò)模型參數(shù)上EfficientNet-B5模型也比ResNeXt101模型少31.1%的參數(shù)量,這很好地說明本文提出的網(wǎng)絡(luò)模型比其他網(wǎng)絡(luò)模型性能優(yōu)越。
(a)網(wǎng)絡(luò)模型準(zhǔn)確率
2.3.3 精準(zhǔn)率和召回率 模型的精準(zhǔn)率P表示預(yù)測為正的樣本中有多少是真正的正樣本,召回率R表示樣本中的正例有多少被預(yù)測正確了。PT表示預(yù)測為正樣本,實(shí)際也為正樣本的數(shù)量,PF表示預(yù)測為正樣本,實(shí)際為負(fù)樣本的數(shù)量,NT表示預(yù)測為負(fù)樣本,實(shí)際也為負(fù)樣本的數(shù)量,NF表示預(yù)測為負(fù)樣本,實(shí)際為正樣本的數(shù)量。
精準(zhǔn)率和召回率的計(jì)算公式定義為
(4)
為了更詳細(xì)地說明本文提出的網(wǎng)絡(luò)模型的優(yōu)勢,采用了分類模型的評(píng)價(jià)指標(biāo)精準(zhǔn)率和召回率來詳細(xì)分析每個(gè)模型的特點(diǎn)。模型精準(zhǔn)率和召回率的結(jié)果如圖6所示。
(a)精準(zhǔn)率曲線圖
從圖6(a)可知對(duì)于破洞、竹節(jié)這2類的精準(zhǔn)率都較高,這是因?yàn)槠贫春椭窆?jié)這2類疵點(diǎn)比較單一。5個(gè)網(wǎng)絡(luò)模型對(duì)竹節(jié)這個(gè)比較單一的疵點(diǎn)表達(dá)能力都很好,精準(zhǔn)率為100%,對(duì)于飛來物和破洞這2類,DenseNet201網(wǎng)絡(luò)模型的結(jié)果較低,這說明深層網(wǎng)絡(luò)模型不能很好地表達(dá)這2類疵點(diǎn)的特征,而EfficientNet-B5模型在這2類上精準(zhǔn)率依舊為100%,這說明EfficientNet-B5網(wǎng)絡(luò)模型比深層網(wǎng)絡(luò)模型更能很好地表達(dá)疵點(diǎn)特征。對(duì)于紗疵和油污這2類具有多樣性和背景復(fù)雜性的疵點(diǎn)來說,整體網(wǎng)絡(luò)模型精準(zhǔn)率下降。EfficientNet-B5網(wǎng)絡(luò)模型在紗疵上的結(jié)果依舊是最優(yōu)的,ResNeXt101網(wǎng)絡(luò)模型是最差的,但是在油污上,EfficientNet-B5網(wǎng)絡(luò)模型的精準(zhǔn)率低于ResNeXt101,這說明擴(kuò)展寬度模型能夠能好地表達(dá)油污這類疵點(diǎn),而EfficientNet-B5是混合系數(shù)網(wǎng)絡(luò)模型。綜上所述,EfficientNet-B5網(wǎng)絡(luò)模型效果最優(yōu),由于它是混合系數(shù)網(wǎng)絡(luò)模型,可以看作是寬度、深度、分辨率的多特征融合模型,所以結(jié)果比其他單特征模型(只是增加深度或者寬度的模型)好。
從圖6(b)可知,對(duì)于油污、竹節(jié)的召回率,在EfficientNet-B5網(wǎng)絡(luò)模型上都達(dá)到了100%,而竹節(jié)的召回率在5個(gè)網(wǎng)絡(luò)模型上都達(dá)到了100%,同時(shí)也說明這類疵點(diǎn)的單一性。對(duì)于飛來物可以看到召回率的差別非常大,這就表示將負(fù)樣本預(yù)測為正樣本的非常多,說明模型對(duì)于具有類間相似性和類內(nèi)差異性的圖像特征表達(dá)能力欠缺。與其他模型相比,EfficientNet-B5網(wǎng)絡(luò)模型對(duì)飛來物的召回率很高,說明EfficientNet-B5網(wǎng)絡(luò)模型對(duì)于特征的表達(dá)能力較強(qiáng)。對(duì)于破洞和紗疵,EfficientNet-B5網(wǎng)絡(luò)模型召回率較差,是因?yàn)镋fficientNet-B5模型是混合系數(shù)模型,會(huì)對(duì)圖像的分辨率有一個(gè)系數(shù)的增加,導(dǎo)致圖像分變率圖像清晰度下降,提取不到復(fù)雜紋理的有效信息。綜上所述,從圖中紅色折線可以看出,EfficientNet-B5網(wǎng)絡(luò)模型在召回率方面性能最優(yōu)。
本文提出了一種基于EfficientNets的織物疵點(diǎn)圖像分類方法,使用從ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練好的模型權(quán)重遷移到織物疵點(diǎn)數(shù)據(jù)集上并進(jìn)行微調(diào),訓(xùn)練出自己的模型權(quán)重,再使用自己的權(quán)重去預(yù)測出測試集的圖片類別,最終的結(jié)果取3次平均值,實(shí)驗(yàn)證明本文的方法與其他模型相比效果較好。從模型的準(zhǔn)確率柱狀圖中可以明顯看出,EfficientNet-B5模型的結(jié)果較好;從模型的精準(zhǔn)率與召回率曲線可以看出,織物疵點(diǎn)具有復(fù)雜性、多樣性、類內(nèi)差異性以及類間相似性,紗疵和油污精準(zhǔn)率較低。除了織物疵點(diǎn)本身的復(fù)雜性之外,說明不同的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)于特征表達(dá)能力不同,所以下一步的研究應(yīng)該注重于提高卷積神經(jīng)網(wǎng)絡(luò)的特征表達(dá)能力,嘗試采用多特征融合,多尺度等方法。