摘要:水稻病害一直是影響水稻產(chǎn)量的重要因素之一,為了快速、準(zhǔn)確地檢測(cè)水稻病害,本研究提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的輕量級(jí)水稻葉片病害識(shí)別模型。首先,從參數(shù)量的角度對(duì)注意力機(jī)制進(jìn)行改進(jìn),得到輕量級(jí)注意力機(jī)制模塊,對(duì)水稻葉片病害特征圖中的潛在注意力信息進(jìn)行深度挖掘;其次,使用深度可分離卷積代替部分標(biāo)準(zhǔn)卷積,進(jìn)一步降低模型的參數(shù)量;最后,為了提高模型的泛化能力,讓模型學(xué)習(xí)過(guò)程更快、更穩(wěn)定,采用了自帶內(nèi)部歸一化屬性的擴(kuò)展型指數(shù)線性單元函數(shù)(SELU)與外部組歸一化模塊相結(jié)合的方法。通過(guò)在公共數(shù)據(jù)集中進(jìn)行驗(yàn)證,本研究構(gòu)建模型的平均精度最高(0.990 0),模型在參數(shù)量和平均單次迭代時(shí)間方面也有一定優(yōu)勢(shì),與其他模型相比,具有相對(duì)較好的性能。
關(guān)鍵詞:水稻病害;組歸一化;激活函數(shù);深度可分離卷積;注意力機(jī)制
中圖分類號(hào):S511文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):1000-4440(2024)02-0312-08
A lightweight rice leaf disease recognition model based on convolutional neural network
LU Yu1,2,YU Jing-hu1,2,ZHU Xing-fei1,2,ZHANG Bu-fan1,2
(1.School of Mechanical Engineering, Jiangnan University, Wuxi 214122, China;2.Jiangsu Key Laboratory of Advanced Food Manufacturing Equipment amp; Technology, Wuxi 214122, China)
Abstract:Rice diseases have always been one of the important factors affecting rice yield. In order to quickly and accurately detect rice diseases, this study proposed a lightweight rice leaf disease recognition model based on convolutional neural network. Firstly, from the perspective of the number of parameters, the attention mechanism was improved to obtain a lightweight attention mechanism module, and the potential attention information in the rice leaf disease feature map was deeply mined. Secondly, the depthwise separable convolution was used to replace some standard convolutions to further reduce the parameters of the model. Finally, in order to improve the generalization ability and make the model learning process faster and more stable, a method of combining the scaled exponential linear unit (SELU) activation function with internal normalization attribute and the external group normalization module was adopted. By verifying in the public data set, the average accuracy of the model constructed in this study was the highest (0.990 0). The model also had certain advantages in terms of parameter quantity and average single iteration time. Compared with other models, it had relatively higher performance.
Key words:rice disease;group normalization;activation functions;depthwise separable convolution;attention mechanism
水稻病害作為除天氣因素外對(duì)水稻產(chǎn)量影響最大的因素之一,長(zhǎng)久以來(lái)備受人們關(guān)注[1]。快速、準(zhǔn)確的水稻病害檢測(cè)技術(shù)對(duì)于水稻的生長(zhǎng)管理具有重要意義。為了提高植物病害診斷速度以及診斷結(jié)果的準(zhǔn)確性,研究人員基于機(jī)器學(xué)習(xí)算法[如隨機(jī)森林法、支持向量機(jī)法(SVM)]對(duì)自動(dòng)化植物病害診斷進(jìn)行了大量的研究[2-4]。王獻(xiàn)鋒等[5]通過(guò)提取葉片病灶的顏色、形狀、質(zhì)地特征,并結(jié)合環(huán)境信息開(kāi)發(fā)了一種判別分析方法來(lái)識(shí)別黃瓜病灶。Zhang等[6]提取了病灶分割后的植物葉片病灶顏色、形狀、紋理特征,然后利用近鄰算法(K-nearest neighbor,KNN)分類器對(duì)5種類型的玉米葉片進(jìn)行分類識(shí)別等。Xie等[7]提出了一種具有多級(jí)學(xué)習(xí)特征的田間作物害蟲(chóng)自動(dòng)分類器。Sankaran等[8]開(kāi)發(fā)了植物健康監(jiān)測(cè)傳感器系統(tǒng),幫助監(jiān)測(cè)田間條件下的植物健康和疾病狀況。Li等[9]提出了一種改進(jìn)的用于農(nóng)業(yè)作物害蟲(chóng)自動(dòng)定位和計(jì)數(shù)的深度學(xué)習(xí)管道,該管道集成了Zeiler、Fergus模型的卷積神經(jīng)網(wǎng)絡(luò)(CNN)和非極大值抑制(NMS)的區(qū)域提議網(wǎng)絡(luò)(RPN)。孟亮等[10]針對(duì)CNN模型存在訓(xùn)練參數(shù)量大而無(wú)法應(yīng)用于硬件條件受限的場(chǎng)合這一問(wèn)題,提出一種輕量級(jí)CNN農(nóng)作物病害識(shí)別模型,能夠在保證模型識(shí)別準(zhǔn)確率的情況下簡(jiǎn)化模型結(jié)構(gòu),擴(kuò)大模型的適用場(chǎng)景。
雖然深度學(xué)習(xí)在農(nóng)業(yè)機(jī)械領(lǐng)域應(yīng)用越來(lái)越廣泛,在水稻葉片病害識(shí)別方面的應(yīng)用中取得了優(yōu)異的成果,但在網(wǎng)絡(luò)模型性能方面依舊存在改進(jìn)空間。為了縮短模型訓(xùn)練收斂時(shí)間,減少當(dāng)前大多數(shù)網(wǎng)絡(luò)模型的參數(shù)量,提高識(shí)別精度,本研究擬構(gòu)建一種新的輕量級(jí)水稻葉片病害識(shí)別模型,通過(guò)對(duì)卷積注意力機(jī)制模塊(CBAM)進(jìn)行改進(jìn),得到輕量級(jí)Conv_L2_CBAM模塊進(jìn)行特征的重新校準(zhǔn),從而對(duì)卷積神經(jīng)網(wǎng)絡(luò)通道中的特征進(jìn)行加權(quán),采用深度可分離卷積替換標(biāo)準(zhǔn)卷積,進(jìn)一步降低神經(jīng)網(wǎng)絡(luò)模型的計(jì)算量和參數(shù)量,此外使用擴(kuò)展型指數(shù)線性單元函數(shù)(SELU)以及外部組歸一化(GN)[11]模塊提高神經(jīng)網(wǎng)絡(luò)的收斂性能,以期為快速、準(zhǔn)確地檢測(cè)水稻病害提供技術(shù)支持。
1材料與方法
1.1基于深度學(xué)習(xí)的水稻病害識(shí)別模型構(gòu)建
1.1.1輕量級(jí)注意力機(jī)制模塊設(shè)計(jì)使用注意力機(jī)制模塊的深度學(xué)習(xí)模型通常能在圖像識(shí)別分類任務(wù)上取得更加理想的處理效果。CBAM[12]作為一種常在卷積神經(jīng)網(wǎng)絡(luò)中引入的注意力機(jī)制模塊,它在多種視覺(jué)任務(wù)中皆表現(xiàn)出優(yōu)良的性能,它包含通道注意力模塊(CAM)和空間注意力模塊(SAM)2個(gè)子模塊,分別用于進(jìn)行通道和空間上的注意力操作,這樣能夠在節(jié)約參數(shù)和減少計(jì)算開(kāi)銷的基礎(chǔ)上,保證其能夠作為即插即用的模塊集成到現(xiàn)有的網(wǎng)絡(luò)架構(gòu)中的同時(shí)不會(huì)對(duì)神經(jīng)網(wǎng)絡(luò)的整體復(fù)雜性產(chǎn)生影響。為了幫助我們的水稻葉片病害識(shí)別模型更有效地利用計(jì)算資源,達(dá)到輕量化的目的,我們將注意力機(jī)制模塊引入到水稻葉片病害模型檢測(cè)中并改進(jìn),即使用L2池化操作替換CBAM模塊中的最大池化,結(jié)構(gòu)如圖1所示。
L2Pool表示L2池化;AvgPool表示平均池化;Shared MLP表示相同特征的轉(zhuǎn)換和提?。籆hannel Attention表示通道注意力。
相較于最大池化,L2池化的表現(xiàn)更好,可以提高模型的分類準(zhǔn)確率。這是因?yàn)長(zhǎng)2池化的運(yùn)算過(guò)程比最大池化更加平緩,將最大池化替換為L(zhǎng)2池化可以消除水稻葉片病害特征中的一些不必要的邊緣信息,從而使水稻葉片病害識(shí)別模型可以更好地學(xué)習(xí)任務(wù)的關(guān)鍵特征,避免一些過(guò)擬合情況的發(fā)生。
此外,為了使使用注意力機(jī)制模塊的神經(jīng)網(wǎng)絡(luò)模型達(dá)到輕量化的目的,需要盡可能降低模型的參數(shù)量,本研究提出一種在使用L2池化操作的基礎(chǔ)上,使用卷積層代替全連接層來(lái)進(jìn)行改良的Conv_L2_CBAM注意力機(jī)制模塊,結(jié)構(gòu)如圖2所示。
Channel Attention表示通道注意力;Spatial Attention表示空間注意力;L2Pool表示L2池化;AvgPool表示平均池化;Shared MLP表示相同特征的轉(zhuǎn)換和提?。籗ELU:擴(kuò)展型指數(shù)線性單元函數(shù);Conv 1d表示一維卷積;Conv 2d表示二維卷積;sigmoid表示S型激活函數(shù);Concat表示連接;Reshape表示重塑。
由于全連接層存在大量參數(shù),因此需要更多的計(jì)算能力和存儲(chǔ)空間,與卷積層相比,會(huì)增加訓(xùn)練和推理的時(shí)間以及資源成本。Conv_L2_CBAM模塊結(jié)構(gòu)參照CBAM結(jié)構(gòu)由通道注意力模塊和空間注意力模塊2個(gè)部分組成。Conv_L2_CBAM模塊與CBAM模塊的區(qū)別在于在通道注意力模塊中用了2個(gè)卷積層來(lái)替換全連接層,并在卷積層之間添加非線性激活函數(shù)Scaled ELU。與CBAM模塊相比,Conv_L2_CBAM模塊的優(yōu)點(diǎn)在于卷積層的參數(shù)僅與輸入和輸出的尺寸有關(guān),而與卷積核的尺寸無(wú)關(guān),因此可以大大減少參數(shù)量,從而降低模型的容量,避免過(guò)擬合問(wèn)題,并且卷積層主要依賴矩陣乘法加速,能夠顯著降低計(jì)算需要的時(shí)間和資源。
1.1.2輕量級(jí)卷積模塊設(shè)計(jì)標(biāo)準(zhǔn)卷積運(yùn)算所涉及的參數(shù)量較多,計(jì)算量大,而Howard等[13]提出的深度可分離卷積算法為模型的輕量化提供了新的方法。為了降低水稻葉片病害識(shí)別模型的計(jì)算量,本研究選用深度可分離卷積(DWConv)代替原卷積神經(jīng)網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積,使模型獲得更小體積的同時(shí),還能降低模型的計(jì)算量,避免了大體積模型只能在高算力的服務(wù)器中運(yùn)行的缺點(diǎn),方便應(yīng)用于受硬件資源和算力限制的移動(dòng)設(shè)備。
深度可分離卷積主要分為深度卷積和逐點(diǎn)卷積2個(gè)部分,具體見(jiàn)圖3。深度卷積是對(duì)輸入特征圖的每個(gè)通道獨(dú)立進(jìn)行卷積操作,對(duì)于每個(gè)通道,都有一個(gè)單獨(dú)的卷積核,這些卷積核的大小通常較小。由于每個(gè)通道的卷積操作是獨(dú)立的,因此深度卷積可以大大減少計(jì)算量。逐點(diǎn)卷積是在深度卷積的基礎(chǔ)上進(jìn)行的,它使用1×1的卷積核對(duì)深度卷積的輸出特征圖進(jìn)行卷積操作。逐點(diǎn)卷積的目的是將深度卷積得到的特征圖進(jìn)行線性組合,從而得到最終的輸出特征圖。
標(biāo)準(zhǔn)卷積參數(shù)量N的計(jì)算參照公式(1):
N=Y×Z×D×M(1)
深度可分離卷積參數(shù)量Nd的計(jì)算參照公式(2):
Nd= Y×Z×D+1×1×D×M(2)
標(biāo)準(zhǔn)卷積計(jì)算量C的計(jì)算參照公式(3):
C=Y×Z×(W-Y+1)×(H-Z+1)×M×D(3)
深度可分離卷積計(jì)算量Cd的計(jì)算參照公式(4):
Cd=Y×Z×(W-Y+1)×(H-Z+1)×D+1×1×Y×Z×D×M(4)
式中,Y為卷積核數(shù)量;Z為內(nèi)核數(shù)量;D為輸入通道數(shù);M為輸出通道數(shù);H為輸入圖像高度;W為輸入圖像寬度。
將標(biāo)準(zhǔn)卷積與深度可分離卷積的計(jì)算公式進(jìn)行比較,發(fā)現(xiàn)深度可分離卷積的參數(shù)量和計(jì)算量要明顯少于標(biāo)準(zhǔn)卷積。
1.1.3激活函數(shù)和歸一化算法的改進(jìn)2017年,基于線性整流函數(shù)(ReLU),Klambauer等[14]提出了激活函數(shù)SELU,該激活函數(shù)可以使神經(jīng)網(wǎng)絡(luò)自帶內(nèi)部歸一化屬性。為了在消除使用ReLU的神經(jīng)網(wǎng)絡(luò)模型所產(chǎn)生的神經(jīng)元失活、梯度消失和梯度爆炸等問(wèn)題的基礎(chǔ)上,加速模型的收斂,提高模型的泛化能力,本研究采用激活函數(shù)SELU代替?zhèn)鹘y(tǒng)神經(jīng)網(wǎng)絡(luò)的激活函數(shù)ReLU。
激活函數(shù)SELU方程式見(jiàn)公式(5):
selu (x)=λ{(lán)xxgt;0αex-αx≤0(5)
式中,λ=1.673 263 242 354 377 284 817 042 991 671 7;α=1.050 700 987 355 480 493 419 334 985 294 6;x為神經(jīng)元的輸入信號(hào)。
此外,為了降低水稻葉片病害識(shí)別模型對(duì)硬件算力的依賴,本研究采用GN代替批歸一化(BN)[15]作為神經(jīng)網(wǎng)絡(luò)模型算法的外部歸一化模塊,GN的歸一化方式是將輸入數(shù)據(jù)在通道方向分成多個(gè)組,然后在每個(gè)組內(nèi)的所有通道上計(jì)算均值和方差,這樣計(jì)算與批次大小無(wú)關(guān),不受其約束,而B(niǎo)N則是在一個(gè)批次中的所有樣本的同一通道上計(jì)算均值和方差,直接對(duì)整個(gè)批次的數(shù)據(jù)進(jìn)行歸一化。因此在特征捕捉方面,GN更適用于捕捉水稻葉片病害圖像的局部特征。對(duì)于不同的批次大小,GN所表現(xiàn)出的性能和精度都較為穩(wěn)定,使算法具有更廣泛的適用性。
1.1.4水稻葉片病害識(shí)別模型構(gòu)建本研究對(duì)VGG16卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)進(jìn)行修改,由以SELU作為激活函數(shù)的3個(gè)二維卷積層(Conv2d)和6個(gè)可分離卷積層(DWConv)以及改良后的輕量級(jí)CBAM模塊和GN模塊組成。通過(guò)注意力機(jī)制模塊前的卷積層對(duì)訓(xùn)練圖像的特征由低到高進(jìn)行自主學(xué)習(xí),其中更深的卷積層降低了更多的特征圖分辨率,并提取更多抽象的高級(jí)特征,將GN模塊插入卷積層以改善中間層數(shù)據(jù)分布,改善模型的泛化能力,減少過(guò)擬合,提高模型的準(zhǔn)確率,它可以幫助模型更好地捕捉目標(biāo)圖像的局部特征,并且可以使模型更快地收斂。
使用改進(jìn)后的CBAM系列嵌入式注意力機(jī)制模塊重新校準(zhǔn)通道維度中的原始特征,減少訓(xùn)練參數(shù)的同時(shí)優(yōu)化了模型的收斂性,從而提高了模型的分類精度。本研究使用隨機(jī)梯度下降優(yōu)化方法在數(shù)據(jù)集上訓(xùn)練模型。改進(jìn)的水稻葉片病害識(shí)別模型的網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示,主要操作流程如圖5所示。
Conv2d表示二維卷積;DWConv表示可分離卷積;SELU表示擴(kuò)展型指數(shù)線性單元函數(shù);GN表示組歸一化;FC表示全連接;CBAM表示注意力機(jī)制模塊。
1.2試驗(yàn)準(zhǔn)備
為了評(píng)估改進(jìn)后的模型性能,模型各項(xiàng)參數(shù)經(jīng)過(guò)微調(diào)測(cè)試后,所有試驗(yàn)采用統(tǒng)一的參數(shù),訓(xùn)練輪數(shù)為50,學(xué)習(xí)率為0.000 1,批次大小為32,優(yōu)化器為Adam,試驗(yàn)環(huán)境的配置見(jiàn)表1。
所有的試驗(yàn)都是由深度學(xué)習(xí)框架Tensorflow實(shí)現(xiàn)的。此外,以準(zhǔn)確率作為評(píng)估網(wǎng)絡(luò)模型性能的指標(biāo)。精度是指校正的正預(yù)測(cè)數(shù)與整個(gè)正預(yù)測(cè)數(shù)的比值,具體見(jiàn)公式(6):
Accuracy=NTPNTP+NFP(6)
其中,NTP是校正的正預(yù)測(cè)數(shù);NFP是錯(cuò)誤的正預(yù)測(cè)數(shù)。
水稻葉片病害數(shù)據(jù)集制作:本研究以桑巴爾普爾大學(xué)(Sambalpur University)提供的水稻葉片病害公共數(shù)據(jù)集(http://bcch.ahnw.gov.cn/Right.aspx)為研究對(duì)象,數(shù)據(jù)集中包含4種水稻葉片病害的5 932張圖像,即患白葉枯病水稻葉片圖像1 569張、患稻瘟病水稻葉片圖像1 455張、患褐斑病水稻葉片圖像1 597張、患東格魯病水稻葉片圖像1 311張,部分樣本如圖6所示。
由于原始數(shù)據(jù)集中存在樣本數(shù)量不平衡的問(wèn)題,并且患病葉片圖像的收集是隨機(jī)的,因此,本研究對(duì)原始水稻葉片病害數(shù)據(jù)集進(jìn)行數(shù)據(jù)增強(qiáng)的處理[16],增加樣本的數(shù)量,降低模型對(duì)某些屬性的依賴,從而提高模型的泛化能力。本研究采用的數(shù)據(jù)增強(qiáng)方式包括旋轉(zhuǎn)、剪裁、平移、縮放。數(shù)據(jù)增強(qiáng)之后,水稻葉片病害圖像數(shù)據(jù)集包含7 054張圖像,其中6 254張圖像用于訓(xùn)練集,800張圖像用于驗(yàn)證集。每個(gè)疾病類別的圖像數(shù)量見(jiàn)表2。
2結(jié)果與分析
2.1模型消融試驗(yàn)結(jié)果分析
精度作為衡量模型預(yù)測(cè)能力的指標(biāo),可以反映出模型正確預(yù)測(cè)的樣本數(shù)占總樣本數(shù)的比例。圖7顯示,使用深度可分離卷積以及組歸一化算法可以一定程度上加速算法模型的收斂,此外,Conv_L2_CBAM作為輕量級(jí)注意力機(jī)制模塊,可以進(jìn)一步幫助模型更好地理解和解析水稻葉片病害特征數(shù)據(jù),使模型注意力集中在重要的信息上,避免在不相關(guān)的信息上浪費(fèi)計(jì)算資源,相較于VGG16模型,本研究提出的改進(jìn)模型對(duì)水稻葉片病害識(shí)別的精度較高。
此外,為了更直觀地比較激活函數(shù)SELU對(duì)模型的影響,本研究采用感受性曲線來(lái)比較水稻葉片病害識(shí)別模型使用sigmoid、tanh、ReLU和SELU 4類不同激活函數(shù)的性能。采用感受性曲線圖(圖8)來(lái)考察模型的性能,可以更直觀地看到在任意界限值時(shí)模型對(duì)水稻葉片病害的識(shí)別能力。當(dāng)感受性曲線越靠近左上角,感受性曲線同坐標(biāo)軸形成的面積越大時(shí),模型的準(zhǔn)確性越高。
表3顯示,在水稻葉片病害的識(shí)別方面,激活函數(shù)SELU具有幫助模型很好地處理梯度消失和梯度爆炸的特性以及自身的平滑性,相較于ReLU等激活函數(shù),使用SELU作為模型的激活函數(shù),可以很大程度地提高網(wǎng)絡(luò)模型在訓(xùn)練過(guò)程中的穩(wěn)定性。
2.2模型對(duì)比試驗(yàn)結(jié)果分析
本研究采用BP、AlexNet、VGG16模型在自制水稻葉片病害圖像數(shù)據(jù)集上進(jìn)行訓(xùn)練,并將訓(xùn)練結(jié)果同本研究構(gòu)建模型的結(jié)果進(jìn)行對(duì)比。結(jié)果(圖9、表4)表明,本研究構(gòu)建模型執(zhí)行單批次訓(xùn)練所需時(shí)長(zhǎng)要短于VGG16等模型,同時(shí)由于深度可分離卷積和輕量級(jí)注意力機(jī)制Conv_L2_CBAM的使用,相較于其他模型,本研究構(gòu)建模型可以提高模型收斂速度,并且模型參數(shù)量最少,水稻葉片病害識(shí)別平均精度比VGG16模型高。
3結(jié)論
本研究提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的輕量級(jí)水稻葉片病害識(shí)別模型。首先,引入注意力機(jī)制對(duì)模型結(jié)構(gòu)進(jìn)行改進(jìn),得到輕量級(jí)注意力機(jī)制模塊,將水稻葉片病害特征圖中的潛在注意力信息進(jìn)行深度挖掘;其次,使用深度可分離卷積代替部分標(biāo)準(zhǔn)卷積,進(jìn)一步降低模型的參數(shù)量;最后,為了提高模型的泛化能力,讓模型學(xué)習(xí)過(guò)程更快、更穩(wěn)定,采用了自帶內(nèi)部歸一化屬性的激活函數(shù)SELU,并與外部組歸一化模塊相結(jié)合。通過(guò)在公共數(shù)據(jù)集中進(jìn)行驗(yàn)證,本研究構(gòu)建模型的平均精度最高(0.990 0),并且在參數(shù)量和平均單次迭代時(shí)間方面相較于VGG16等模型也有一定優(yōu)勢(shì)。
參考文獻(xiàn):
[1]許娜,葉橋平. 水稻種植與病蟲(chóng)害防治技術(shù)研究[J]. 種子科技,2022,40(21): 46-48.
[2]ES-SAADY Y, MAMMASS I E, YASSA M E, et al. Automatic recognition of plant leaves diseases based on serial combination of two SVM classifiers [C]. Tangiers:IEEE,2016.
[3]GAVHALE K R, GAWANDE U. An overview of the research on plant leaves disease detection using image processing techniques[J]. Iosr Journal of Computer Engineering (IOSR-JCE),2014,16(1):10-16.
[4]WANG G, SUN Y, WANG J. Automatic image-based plant disease severity estimation using deep learning[J]. Computational Intelligence and Neuroscience,2017. DOI:10.1155/2017/2917536.
[5]王獻(xiàn)鋒,張善文,王震,等. 基于葉片圖像和環(huán)境信息的黃瓜病害識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2014,30(14):148-153.
[6]ZHANG S W, SHANG Y J, WANG L. Plant disease recognition based on plant leaf image[J]. Journal of Animal and Plant Sciences,2015,25(3):42-45.
[7]XIE C, WANG R, ZHANG J, et al. Multi-level learning features for automatic classification of field crop pests[J]. Computers and Electronics in Agriculture,2018,152:233-241.
[8]SANKARAN S, ASHISH M, REZA E, et al. A review of advanced techniques for detecting plant diseases[J]. Computers and Electronics in Agriculture,2010,72(1):1-13.
[9]LI W, CHEN P, WANG B, et al. Automatic localization and count of agricultural crop pests based on an improved deep learning pipeline[J]. Scientific Reports,2019,9:7024.
[10]孟亮,郭小燕,杜佳舉,等. 一種輕量級(jí)CNN農(nóng)作物病害圖像識(shí)別模型[J]. 江蘇農(nóng)業(yè)學(xué)報(bào),2021,37(5):1143-1150.
[11]WU Y, HE K. Group normalization[J]. International Journal of Computer Vision,2018,128(3):742-755.
[12]WOO S, PARK J, LEE J Y, et al. CBAM: convolutional block attention module[C]. Munich:ECCV,2018.
[13]HOWARD A G, ZHU M, CHEN B, et al. MobileNets:efficient convolutional neural networks for mobile vision applications[J]. ArXiv,2017. DOI:10.48550/arXiv.1704.04861.
[14]KLAMBAUER G, UNTERTHINER T, MAYR A, et al. Self-normalizing neural networks[J]. Advances in Neural Information Processing Systems,2017,30:972-981.
[15]IOFFE S, SZEGEDY C. Batch normalization: accelerating deep network training by reducing internal covariate shift[C]. Lille:PMLR,2015.
[16]王建明,陳響育,楊自忠,等. 不同數(shù)據(jù)增強(qiáng)方法對(duì)模型識(shí)別精度的影響[J]. 計(jì)算機(jī)科學(xué),2022,49(增刊1): 418-423.
(責(zé)任編輯:王妮)