中圖分類號:S565.2;TP183 文獻(xiàn)標(biāo)識碼:A 文章編號:2095-5553(2025)07-0226-08
Abstract:Aimingattheproblemsoflowidentificationeficiencyofpeanutleafdiseasesanddiffcultyinone-site identification,apeanutleaf diseaserecognitionalgorithmbasedontheConvolution Block AtentionModule(CBAM) andMobileNetV2isproposed throughtransfer learning and by integrating theatentionmechanismof CBAM. Firstly,adataset offivekindsof peanut leaf disease images,including healthyleaves,black spotdisease leaves, brown spot disease leaves,net spot disease leaves,and mosaic disease leaves,is established.Secondly,a peanut leaf diseaserecognitionmodelisbuiltbyintegratingchannelatentionmechanismandspatialattentionmechanism.Finally, therecognitionaccuracy beforeandaftermodel improvement isanalyzed,compared with VGG16,InceptionV3and ResNet5O,and the detection time of a single image is predicted. Theexperimental results show that theaccuracy rates of MobileNetV2,VGG16,InceptionV3 and ResNet50 are 97.54% , 97.34% , 96.06% and 74.88% ,respectively, which are all lower than the accuracy rate of the improved model at 99.41% . The detection time for a single image is 0.061 s. The peanutleaf diseaserecognitionalgorithmbasedon transferlearningandatentionmechanismisalightweightneuralnetwork withhighaccuracyandfewmodelparameters.Itcanbeapliedinpeanutfieldsandusedforon-sitedetectionof peanutdiseasesby using mobile devices,enabling farmers to understand the growth status of peanuts in a timely manner.
Keywords:peanut;leaf disease identification;attention mechanism;transfer learning;MobileNetV2
0 引言
年都會出現(xiàn)花生產(chǎn)量減少和品質(zhì)下降等問題,進(jìn)而給種植戶帶來較大的經(jīng)濟(jì)損失。因此,對花生病害進(jìn)行快速、準(zhǔn)確地識別,并及時采取防治措施,可有效降低花生是我國的主要農(nóng)作物之一。受病害影響,每損失。傳統(tǒng)的花生病害識別通常通過人工完成,這種識別方法效率低,且需要一定的知識儲備,易受人為因素干擾。因此,亟須一種實時、快速、準(zhǔn)確的識別方法。
隨著科技的進(jìn)步與計算機(jī)科學(xué)技術(shù)的發(fā)展,圖像識別與人工智能技術(shù)被廣泛用于農(nóng)業(yè)領(lǐng)域,為農(nóng)業(yè)生產(chǎn)發(fā)展注入了新的動力。鄧?yán)^忠等1提出了一種基于圖像識別的小麥黑穗病分類診斷技術(shù),利用濾波增強(qiáng)和病害區(qū)域分割提取圖像特征,BP網(wǎng)絡(luò)充當(dāng)分類器實現(xiàn)對小麥黑穗病的診斷;馬佳佳等[2]提出了一種基于優(yōu)化SVM的蟲害圖像識別方法,通過HOG特征描述提取圖像特征,利用粒子群優(yōu)化算法對SVM進(jìn)行優(yōu)化,復(fù)雜背景下識別準(zhǔn)確率為 93.89% ;杜曉晨等3使用顏色直方圖、灰度共生矩陣和Gabor濾波提取甘薯圖像特征,提出一種基于圖像顏色和紋理特征的薯種識別算法,平均準(zhǔn)確率達(dá) 90% 。
傳統(tǒng)圖像識別技術(shù)需要對圖像進(jìn)行預(yù)處理,提取重要特征信息,再將特征傳人合適的分類器[4],過程復(fù)雜、泛化能力差。深度學(xué)習(xí)的出現(xiàn)很好地解決了這個問題,已廣泛應(yīng)用于許多領(lǐng)域。Zhu等[5]以EfficientNet為基礎(chǔ),添加卷積注意力機(jī)制模塊(CBAM),得到改進(jìn)EfficientNet模型,并與ResNet5O等模型比較,最后準(zhǔn)確率達(dá) 97.02% ,優(yōu)于試驗中的其他模型;Zhang等在不同深度的殘差網(wǎng)絡(luò)(ResNet)添加注意力機(jī)制,提出了一種結(jié)合注意力機(jī)制和殘差網(wǎng)絡(luò)的不完美小麥籽粒識別方法,平均識別準(zhǔn)確率達(dá) 97.5% ;Zhao等針對植物病情程度問題,提出一種注意力網(wǎng)絡(luò)模型(SEV—Net),此模型減少了通道信息的冗余,將重點(diǎn)放在信息最豐富的區(qū)域,對番茄多、單株病情嚴(yán)重程度識別準(zhǔn)確率分別為97.59%.95.57% ,優(yōu)于現(xiàn)有的注意網(wǎng)絡(luò)SE—Net和CBAM;Zhang等[利用DenseNet和 Self—Attention機(jī)制融合進(jìn)行6種臍橙病蟲害的識別,在測試中的準(zhǔn)確率高達(dá)96.9% 。由此可見,引入注意力機(jī)制可顯著提高模型的特征提取能力。目前基于輕量級網(wǎng)絡(luò)與注意力機(jī)制的研究相對較少,尤其是對于病害識別移動設(shè)備的研究。
移動端要求模型參數(shù)量少、識別快、準(zhǔn)確率高。王春山等9在ResNet18的基礎(chǔ)上,增加多尺度特征提取模塊,改變殘差層連接方式,分解大卷積核,進(jìn)行群卷積操作,提出多尺度殘差(Multi-scaleResNet)輕量級病害識別模型,識別準(zhǔn)確率在 90% 以上,并且具備在硬件受限的場景下部署和運(yùn)行的能力,為神經(jīng)網(wǎng)絡(luò)在移動端部署提供參考;劉陽等[10]在經(jīng)典SqueezeNet網(wǎng)絡(luò)的基礎(chǔ)上改進(jìn)SqueezeNet,平均準(zhǔn)確率達(dá) 97.62% ,并且通過縮減模型參數(shù)量,實現(xiàn)輕量化的分類檢測;張善文等[1針對性地優(yōu)化了傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò),提出多尺度融合卷積神經(jīng)網(wǎng)絡(luò)概念,將其應(yīng)用于黃瓜葉片病害分割中,平均分割準(zhǔn)確率為 93.12% 。
上述研究對經(jīng)典網(wǎng)絡(luò)進(jìn)行修改,準(zhǔn)確率得到提高,結(jié)合輕量化網(wǎng)絡(luò)與注意力機(jī)制,為神經(jīng)網(wǎng)絡(luò)成功部署于移動端提供條件,但是應(yīng)用于花生病害識別方面的研究較少。本文提出一種基于CBAM—MobileNetV2的花生葉部病害識別方法,該方法通過在ImageNet數(shù)據(jù)上遷移學(xué)習(xí)輕量級網(wǎng)絡(luò)MobileNetV2,引人融合通道注意力和空間注意力的 CBAM[12] 注意力卷積模塊,以提升花生葉部病害的表征能力,為植物病害識別模型部署于移動設(shè)備上提供思路。
1數(shù)據(jù)采集與處理
1.1 圖像數(shù)據(jù)集采集
圖像數(shù)據(jù)集來自中國山東省煙臺市農(nóng)業(yè)植保站專用試驗田 (37°31′47′′N,121°24′41′′E) 和山東省城陽區(qū)惜福鎮(zhèn)街道花生種植田 (36°19′11′′N,120°23′45′′E) 。分別使用OLYMPUSIMAGINGCORP.C7070WZ相機(jī)、CanonEOSKissX5相機(jī)以及SONYDSC-HX30V相機(jī)拍攝,圖片大小為3072像素 ×2304 像素,所采集圖像均為單葉狀態(tài)。為保證圖片清晰,方便后續(xù)對圖片的預(yù)處理,通過手動劃分各類圖片,裁剪出合適的圖片大小,獲得單葉狀態(tài)圖像。將這些圖片分為健康、黑斑病、褐斑病、網(wǎng)斑病、花葉病5大類,并劃分訓(xùn)練集、驗證集和測試集,5種花生典型葉部圖像如圖1所示。
圖1花生4種病害和健康葉部圖
Fig.1Four diseases and healthy leaves of peanut
1. 2 數(shù)據(jù)預(yù)處理
數(shù)據(jù)集的圖像質(zhì)量是影響網(wǎng)絡(luò)模型訓(xùn)練和測試的重要因素之一[13],如果數(shù)據(jù)集樣本分布失衡,則容易導(dǎo)致網(wǎng)絡(luò)過擬合現(xiàn)象。為構(gòu)建不同復(fù)雜環(huán)境背景下的圖片,使模型適應(yīng)不同的復(fù)雜背景,加強(qiáng)模型的魯棒性,提高網(wǎng)絡(luò)模型的識別準(zhǔn)確率,需要對數(shù)據(jù)集進(jìn)行增強(qiáng)處理,對圖像進(jìn)行旋轉(zhuǎn)、平移、翻轉(zhuǎn)調(diào)整,將數(shù)據(jù)集擴(kuò)增到9693張,健康葉片及4種病害葉片數(shù)據(jù)集增強(qiáng)前后數(shù)量如表1所示。
表1數(shù)據(jù)集詳細(xì)信息Tab.1 Dataset details
按 6:2:2 分為訓(xùn)練集、驗證集和測試集,訓(xùn)練集5695張,驗證集2014張,測試集1984張,并統(tǒng)一成224像素 ×224 像素大小的圖片。
2 模型構(gòu)建
2.1 MobileNetV2模型
MobileNetV2[14]具有占用內(nèi)存少、計算量小等優(yōu)點(diǎn),適用于移動設(shè)備和嵌入式微機(jī)部署。不同于傳統(tǒng)卷積網(wǎng)絡(luò),MobileNetV2引人深度可分離卷積與2個超參數(shù) α 和 β,α 能調(diào)整卷積核的個數(shù), β 能控制輸入網(wǎng)絡(luò)的圖像尺寸參數(shù)。表2為MobileNetV2的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù),此模型在MobileNetV1的基礎(chǔ)上引人線性瓶頸層,提出倒置殘差網(wǎng)絡(luò)的架構(gòu)。傳統(tǒng)的殘差結(jié)構(gòu):1×1 卷積降維 卷積
卷積升維,這是一個降維到升維的過程,而倒置殘差結(jié)構(gòu)恰好相反[15,16]。倒置殘差結(jié)構(gòu)如圖2所示,前兩層使用ReLU函數(shù),最后一層使用Linear函數(shù),這樣可以減少特征損失。但是花生病害圖像具有背景復(fù)雜、病斑分布廣等特點(diǎn),利用MobileNetV2進(jìn)行圖像識別時,存在特征提取不準(zhǔn)確、感興趣區(qū)域分散等問題。
表2MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)參數(shù)配置Tab.2MobileNetV2 network structure parameter configuration
注:“—\"表示該處值不存在; ?k ”表示任意正整數(shù)值。
2.2 遷移學(xué)習(xí)
遷移學(xué)習(xí)[17]是圖像識別中常用的方法,該方法可節(jié)省計算資源,提高訓(xùn)練效率。基于遷移學(xué)習(xí)的花生葉部病害圖像分類模型訓(xùn)練過程如圖3所示,加載ImageNet的MobileNetV2模型,在全連接層前面加上全局平均池化層和Dropout層,可以加強(qiáng)特征圖與類別的一致性,使卷積結(jié)構(gòu)更簡單,避免模型過擬合,并且整合全局空間信息,提高輸入圖片空間平移的魯棒性。
ImageNet上的MobileNetV2模型為1000分類的全連接層輸出,加載模型時去掉模型的輸入與輸出,重新定義輸人為 128×128×3 ,全連接層輸出為5分類,并采用Softmax函數(shù)對圖像進(jìn)行分類。
圖3模型整體結(jié)構(gòu)
Fig. 3Overall structure of the model
2.3 CBAM注意力機(jī)制
卷積注意力模塊[18能夠使網(wǎng)絡(luò)在進(jìn)行圖像識別時專注于主要信息而忽略無關(guān)信息。常見注意力模塊有DA注意力模塊[19]、SE注意力模塊[20]以及CBAM注意力模塊等。
DA模塊通過位置注意力機(jī)制和通道注意力機(jī)制并行獲取信息;SE模塊主要在通道維度上增加注意力;CBAM注意力機(jī)制由通道注意力與空間注意力串行,兩種注意力關(guān)注不同的特征,通道注意力關(guān)注有意義的輸入特征,空間注意力會自動尋找圖像中最重要的區(qū)域?;ㄉ『D像的環(huán)境背景復(fù)雜,花生病斑大小不一,空間注意力使網(wǎng)絡(luò)更加關(guān)注花生病害圖像中對分類起決定作用的像素區(qū)域而忽略無關(guān)緊要的區(qū)域,會更加關(guān)注斑點(diǎn)而忽略綠色葉片以及背景。通道注意力則負(fù)責(zé)處理特征圖通道的分配關(guān)系,對2個維度進(jìn)行注意力分配,達(dá)到注意力機(jī)制對模型性能提升的最佳效果[21.22]。CBAM模塊內(nèi)部無大量卷積結(jié)構(gòu),只有少量池化層和特征融合操作,計算量小且能有效提高模型性能。因此,加人CBAM模塊能有效提高模型的特征提取能力。
通道注意力機(jī)制[23流程如圖4所示。將輸入特征圖分別進(jìn)行全局最大池化和全局平均池化,基于2個維度對特征映射進(jìn)行壓縮,得到2個維度不同的特征描述。池化后的特征圖共用一個多層感知器(MLP),先通過 1×1 卷積降維,再 1×1 升維,再將2張圖相加,經(jīng)過Sigmoid激活函數(shù)歸一化特征圖得到每個通道的權(quán)重,權(quán)重與輸入特征圖相乘得到新特征。
圖4通道注意力模塊Fig.4 Channel attention module
空間注意力機(jī)制[24模塊如圖5所示,空間注意力位于通道注意力后面,處理通道注意力輸出特征圖的空間域,特征圖分別經(jīng)過基于通道維度的最大池化和平均池化處理,再將2張?zhí)卣鲌D在通道維度堆疊,1×1 卷積對通道數(shù)調(diào)整,最后經(jīng)過Sigmoid函數(shù)歸一化權(quán)重,得到的權(quán)重與輸入特征相乘便可得到新特征。在原始模型后加人CBAM模塊、GAP層和Dropout層,重新定義輸人層和全連接層,使之適用于圖像的5分類輸出。
圖5空間注意力模塊Fig.5 Spatial attention module
2.4 模型微調(diào)與訓(xùn)練
在TensorFlow學(xué)習(xí)框架下,使用預(yù)訓(xùn)練模型MobileNetV2作為特征提取器,將凍結(jié)預(yù)訓(xùn)練網(wǎng)絡(luò)的所有層,之后依次解凍靠近最后一層的部分卷積層,其余層的權(quán)重直接使用,重新訓(xùn)練未凍結(jié)的卷積層參數(shù)和分類器。試驗過程中發(fā)現(xiàn)模型收斂位于 10~20 次迭代,設(shè)置學(xué)習(xí)率為0.0001,迭代次數(shù)(epochs)為50,使得模型訓(xùn)練效果更佳。由于沒有GPU加速訓(xùn)練,因此一個批次訓(xùn)練所使用的樣本數(shù)(batchsize)為32,每次迭代的圖像數(shù)為241。使用自適應(yīng)矩陣估計算法(Adam)[25]來優(yōu)化網(wǎng)絡(luò)的損失函數(shù)。Dropout層丟失率為0.2。網(wǎng)絡(luò)損失函數(shù)采用交叉熵?fù)p失函數(shù)(cross-entropy),用于度量預(yù)測的概率與真實的差異情況,其值越小則準(zhǔn)確率越高,計算如式(1)所示。
式中: L ——交叉熵?fù)p失值;g(xi) ——模型輸出預(yù)測值;yi 1 輸人 xi 的真實值;c 樣本數(shù)。
表3為整個模型的網(wǎng)絡(luò)特征參數(shù),預(yù)處理后的圖像以 128×128×3 形式輸人,經(jīng)過MobileNetV2網(wǎng)絡(luò)后變?yōu)?4×4×1 280 ,再依次通過添加的CBAM模塊、GAP層、Dropout層,最后經(jīng)過Dense分類層。
表3模型網(wǎng)絡(luò)特征參數(shù)Tab.3 Model network characteristic parameters
2.5 評價指標(biāo)
采用準(zhǔn)確率 Acc 、召回率 R 、精確率 P?F1 分?jǐn)?shù)( (F1) 和模型參數(shù)量對模型進(jìn)行評價[26], Acc,R,P 和F1 計算如式 (2)~ 式(5)所示。
式中: TPi ——正樣本被預(yù)測為正樣本的數(shù)量;TNi ——負(fù)樣本被預(yù)測為負(fù)樣本的數(shù)量;(204號 FPi ———負(fù)樣本被錯誤預(yù)測為正樣本的數(shù)量;FNi ———正樣本被錯誤預(yù)測為負(fù)樣本的數(shù)量。
3試驗結(jié)果與分析
3.1 試驗環(huán)境
試驗在Windowsl064位操作系統(tǒng)和處理器為CPU的環(huán)境下進(jìn)行,Tensorflow版本為2.8.0,Python版本為3.9。CPU為IntelCorei5-7200U,內(nèi)存為 12GB 。
3.2 試驗結(jié)果
為驗證CBAM模塊優(yōu)于其他注意力機(jī)制,在MobileNetV2模型上分別添加DA注意力機(jī)制、SE注意力機(jī)制、空間注意力機(jī)制和通道注意力機(jī)制,并通過測試集測試各模型的性能,結(jié)果如表4所示。
添加CBAM模塊所得到的每類病害精確率、召回率和 F1 值均高于添加其他注意力模塊,并且在增加參數(shù)量可觀的前提下,準(zhǔn)確率較MobileNetV2提高1.87% 。在圖像預(yù)測方面,添加CBAM模塊的模型單幅圖像預(yù)測時間為0.061s,僅比MobileNetV2多0.001s。添加SE的模型雖然在預(yù)測時間上取得優(yōu)勢,但是在準(zhǔn)確率方面不如添加CBAM的模型。添加空間注意力機(jī)制和通道注意力機(jī)制所得到的準(zhǔn)確率分別是 97.07%.98.96% ,單幅圖像預(yù)測時間分別是 ,添加融合空間與通道注意力機(jī)制的模型得到的準(zhǔn)確率為 99.41% ,單幅圖像預(yù)測時間為0.061s,證明融合這兩種注意力機(jī)制比單獨(dú)注意力機(jī)制更能提升網(wǎng)絡(luò)準(zhǔn)確率和識別速度。
表4不同注意力模塊對比Tab.4Comparison of different attention modules
3.3 模型改進(jìn)前后對比
圖6為模型改進(jìn)前后的準(zhǔn)確率曲線。可以看出,2種模型在約10次迭代中快速擬合,準(zhǔn)確率快速增加,當(dāng)?shù)?0次后,準(zhǔn)確率維持平穩(wěn)。在相同條件下搭建2種網(wǎng)絡(luò)結(jié)構(gòu),迭代50次后,CBAM—MobileNetV2模型準(zhǔn)確率達(dá)到 99.41% ,MobileNetV2模型準(zhǔn)確率為
97.54% ,并且訓(xùn)練過程中CBAM—MobileNetV2模型準(zhǔn)確率始終比MobileNetV2模型高。表明改進(jìn)后模型更能精準(zhǔn)捕捉花生病害圖像信息,獲得圖像中更多的特征,防止模型過擬合,證明改進(jìn)模型的有效性。圖7為訓(xùn)練集、驗證集損失值曲線,可以看出,與準(zhǔn)確率曲線相對應(yīng),迭代次數(shù)達(dá)到30次后,損失值趨于平穩(wěn)。
圖9改進(jìn)后MobileNetV2混淆矩陣 Fig.9Improved MobileNetV2 confusion matrix
圖8和圖9為改進(jìn)前、后的混淆矩陣,其中大部分的分類數(shù)據(jù)位于混淆矩陣的對角線上,說明模型性能較好,每類病害都有較高的準(zhǔn)確率。CBAM—MobileNetV2預(yù)測正確的每類圖像數(shù)量均多于MobileNetV2,從表4可以看出,CBAM—MobileNetV2的每類圖像精確率、召回率、F1值均高于原始MobileNetV2。健康葉片與其他4種病害的區(qū)別最為明顯,因此,健康葉片全都被正確識別。
圖 10~ 圖12為InceptionV3、VGG16、ResNet50的混淆矩陣,CBAM—MobileNetV2預(yù)測正確的每類圖像數(shù)量均多于其他4種模型。由圖9可知,有17張黑斑病被識別成褐斑病,有6張被識別成網(wǎng)斑病。如圖13所示,黑斑病和褐斑病的癥狀都是相同大小的圓形斑點(diǎn),兩者最大區(qū)別是顏色不同,褐斑病圓形斑點(diǎn)外圍多一圈黃褐色圓環(huán),容易將2種病害葉片判別錯誤。當(dāng)黑斑病嚴(yán)重時,斑點(diǎn)會擴(kuò)大并相連,形狀就會類似網(wǎng)斑病,因此,會把嚴(yán)重的黑斑病識別成網(wǎng)斑病。
圖13不同程度病害葉片對比
3.4 與經(jīng)典網(wǎng)絡(luò)對比
為更好地驗證CBAM—MobileNetV2的性能,加人VGG16、InceptionV3和ResNet50進(jìn)行對比。從表5可以看出,CBAM—MobileNetV2的準(zhǔn)確率比VGG16高出2.07% ;比InceptionV3高出 3.35% ;比ResNet50高出24.53% ,并且模型所占內(nèi)存均少于其他經(jīng)典模型,所需時間僅比MobileNetV2多 0.03s ,明顯少于其他模型。由此可知,CBAM—MobileNetV2在內(nèi)存占用少的情況下依然保持較高的識別準(zhǔn)確率和效率。如圖14所示,網(wǎng)絡(luò)模型準(zhǔn)確率都呈現(xiàn)上升趨勢,模型在訓(xùn)練時不斷學(xué)習(xí),曲線都在10次迭代之后趨于平穩(wěn)。CBAM—MobileNetV2模型在識別準(zhǔn)確率和參數(shù)內(nèi)存方面都取得較好的平衡,能夠較好地滿足移動端花生病害識別的要求。
表5經(jīng)典模型性能對比 Tab.5Classic model performance comparison
4結(jié)論
1)針對花生葉部的健康、黑斑病、褐斑病、網(wǎng)斑病、花葉病5種狀態(tài),基于CBAM—MobileNetV2建立的花生病害識別模型的準(zhǔn)確率達(dá)到 99.41% 。
2)通過適當(dāng)?shù)膱D像預(yù)處理方式可以提高模型的性能。利用ImageNet數(shù)據(jù)集上訓(xùn)練好MobileNetV2模型進(jìn)行遷移學(xué)習(xí),通過加人CBAM模塊、全局平均池化層和Dropout層,準(zhǔn)確率比原始網(wǎng)絡(luò)提高 1.87% ,并且預(yù)測速度幾乎不變,同時與經(jīng)典網(wǎng)絡(luò)對比,性能均優(yōu)于其他網(wǎng)絡(luò)。
3)所建立的模型在5種花生葉部狀態(tài)識別任務(wù)中取得很好的效果,但是花生不僅有病害,還有蟲害,以及病害和蟲害同時發(fā)生的情況。下一步可以對花生的更多病蟲害進(jìn)行識別。此模型屬于輕量級神經(jīng)網(wǎng)絡(luò),可應(yīng)用于花生田間,利用移動設(shè)備即可現(xiàn)場檢測花生病害,能夠及時了解花生生長狀況,選擇正確的藥物,進(jìn)行花生病害防治,可大大減少花生的損失。
參考文獻(xiàn)
[1]鄧?yán)^忠,李敏,袁之報,等.基于圖像識別的小麥腥黑穗病害診斷技術(shù)研究[J].東北農(nóng)業(yè)大學(xué)學(xué)報,2012,43(5):74—77.Deng Jizhong,Li Min,Yuan Zhibao,et al. Study ondiagnosis of Tilletia based on image recognition [J].Journal of Northeast Agricultural University,2012,43(5):74-77 :
[2]馬佳佳,陳友鵬,王克強(qiáng),等.基于優(yōu)化SVM的蟲害圖像識別研究[J].中國糧油學(xué)報,2022,37(5):10—15.
[3]杜曉晨,張幸,陸國權(quán).基于圖像處理的甘薯種類識別方法研究[J].中國糧油學(xué)報,2014,29(11):118—122,128.
[4]黃林生,羅耀武,楊小冬,等.基于注意力機(jī)制和多尺度殘差網(wǎng)絡(luò)的農(nóng)作物病害識別[J].農(nóng)業(yè)機(jī)械學(xué)報,2021,52(10):264-271.Huang Linsheng,Luo Yaowu, Yang Xiaodong,et al.Crop disease recognition based on attentionmechanism andmulti-scaleresidualnetwork[J].Transactions of the Chinese Society for AgriculturalMachinery,2021,52(10):264-271.
[5] Zhu X, Zhang X,Sun Z,et al. Identification of oil tea (Camelliaoleifera C. Abel) cultivars using EfficientNet—B4 CNN modelwith attention mechanism[J].Forests,2021,13(1):1.
[6] ZhangW,Ma H,Li X, etal. Imperfectwheatgrain recognition combined with an attentionmechanism and residual network [J]. Applied Sciences,2021,11(11):5139.
[7] Zhao Y,Chen J,Xu X,et al. SEV—Net:Residualnetwork embeddedwithattention mechanismforplant disease severity detection [J]. Concurrency andComputation:PracticeandExperience, 2021,33(10):e6161.
[8] Zhang Y,Liu Y. Identification of navel orange diseases andpests based on the fusionofDenseNetandself-attention mechanism [J]. Computational Intelligenceand Neuroscience,2021,2021(1):5436729.
[9]王春山,周冀,吳華瑞,等.改進(jìn)Multi-scaleResNet的蔬菜葉部病害識別[J].農(nóng)業(yè)工程學(xué)報,2020,36(20):209—217.Wang Chunshan,Zhou Ji,Wu Huarui,et al.Identificationof vegetable leaf diseases based on improved Multi-scaleResNet [J]. Transactions of the Chinese Society ofAgricultural Engineering,2020,36(20):209—217.
[10]劉陽,高國琴.采用改進(jìn)的SqueezeNet模型識別多類葉片病害[J].農(nóng)業(yè)工程學(xué)報,2021,37(2):187-195.LiuYang, Gao Guoqin.Identification of multipleleaf diseases using improved SqueezeNet model [J].Transactions of the Chinese Society of AgriculturalEngineering,2021,37(2):187-195.
[11]張善文,王振,王祖良.多尺度融合卷積神經(jīng)網(wǎng)絡(luò)的黃瓜病害葉片圖像分割方法[J].農(nóng)業(yè)工程學(xué)報,2020,36for image segmentation of cucumber disease leaves basedon multi-scale fusion convolutional neural networks [J].Transactions of the Chinese Society of AgriculturalEngineering,2020,36(16):149-157.
[12]張旭,周云成,劉忠穎,等.基于改進(jìn)ShuffleNetV2模型的蘋果葉部病害識別及應(yīng)用[J].沈陽農(nóng)業(yè)大學(xué)學(xué)報,2022,53(1):110—118.Zhang Xu, Zhou Yuncheng,Liu Zhongying,et al.Identification and application of apple leaf diseases basedonimproved ShuffleNetV2 model [J]. Journal ofShenyang Agricultural University, 2022, 53(1):110—118.
[13]王金,李顏娥,馮海林,等.基于改進(jìn)的FasterR一CNN的小目標(biāo)儲糧害蟲檢測研究[J].中國糧油學(xué)報,2021,36(9): 164—171.
[14]孫俊,朱偉棟,羅元秋,等.基于改進(jìn)MobileNetV2的田間農(nóng)作物葉片病害識別[J].農(nóng)業(yè)工程學(xué)報,2021,37(22):161—169.Sun Jun,Zhu Weidong,Luo Yuanqiu,et al. Recognizingthe diseases of crop leaves in fields using improvedMobileNetV2[J]. Transactions of the Chinese Society ofAgricultural Engineering,2021,37(22):161—169.
[15]李國進(jìn),黃曉潔,李修華.采用輕量級網(wǎng)絡(luò)MobileNetV2的釀酒葡萄檢測模型[J].農(nóng)業(yè)工程學(xué)報,2021,37(17):168—176.Li Guojin,Huang Xiaojie,Li Xiuhua. Detection model forwine grapes using MobileNetV2 lightweight network [J].Transactions of the Chinese Society of AgriculturalEngineering,2021,37(17):168-176.
[16]鄧楊,王粵,尚玉婷.基于深度學(xué)習(xí)的大米堊白分割算法研究[J].中國糧油學(xué)報,2021,36(4):139—144.
[17]張寧,吳華瑞,韓笑,等.基于多尺度和注意力機(jī)制的番茄病害識別方法[J].浙江農(nóng)業(yè)學(xué)報,2021,33(7):1329—1338.Zhang Ning,Wu Huarui,Han Xiao, et al.Tomatodisease recognition scheme based on multi-scale andattentionmechanism [J]. Acta AgriculturaeZhejiangensis,2021,33(7):1329-1338.
[18]寧紀(jì)鋒,倪靜,何宜家,等.基于卷積注意力的無人機(jī)多光譜遙感影像地膜農(nóng)田識別[J].農(nóng)業(yè)機(jī)械學(xué)報,2021,52(9):213-220.Ning Jifeng,Ni Jing,He Yijia,et al. Convolutional attentionbased plastic mulching farmland identification via UAVmultispectral remote sensing image [J]. Transactions of theChinese Society for Agricultural Machinery,2O21,52(9):213-220.
[19]陸仲達(dá),張春達(dá),張佳奇,等.雙分支網(wǎng)絡(luò)的蘋果葉部病害識別[J].計算機(jī)科學(xué)與探索,2022,16(4):917-926.
[20]李書琴,陳聰,朱彤,等.基于輕量級殘差網(wǎng)絡(luò)的植物葉片病害識別[J].農(nóng)業(yè)機(jī)械學(xué)報,2022,53(3):243—250.LiShuqin,Chen Cong,Zhu Tong, etal. Plant leafdisease identification based on lightweightresidualnetwork [J].Transactions the Chinese Society forAgriculturalMachinery,2022,53(3): 243-250
[21]章權(quán)兵,胡姍姍,舒文燦,等.基于注意力機(jī)制金字塔網(wǎng)絡(luò)的麥穗檢測方法[J].農(nóng)業(yè)機(jī)械學(xué)報,2021,52(11):253-262.Zhang Quanbing,Hu Shanshan, Shu Wencan, etal.Wheat spikes detection method based on Pyramidal Networkattention mechanism [J].Transactions the ChineseSociety forAgriculturalMachinery,2021,52(11):253—262.
[22]陳智超,焦海寧,楊杰,等.基于改進(jìn)MobileNetV2的垃圾圖像分類算法[J].浙江大學(xué)學(xué)報(工學(xué)版),2021,55(8):1490-1499.ChenZhichao, JiaoHaining, Yang Jie,etal.Garbageimageclassificationalgorithm based onimprovedMobileNetV2[J].Journal ZhejiangUniversity(Science),2021, 55(8):1490—1499.
[23]YaoL,He S,Su K,et al.Facial expression recognitionbased on spatial channel attention mechanisms [J].Wireless Personal Communications,2022,125(2):1483-1500.
[24] Zhao X,Li K,Li Y, et al.Identification method vegetable diseasesbased ontransfer learningattention mechanism [J]. Computers Electronics inAgriculture,2022,193:106703.
[25]楊晶晶,韓閏凱,吳占福,等.基于CNN 和圖像深度特征的雛雞性別自動鑒別方法[J].農(nóng)業(yè)機(jī)械學(xué)報,2020,51(6):258-263,92.Yang Jingjing, Han Runkai, Wu Zhanfu, etal.Automatic recognition method chick sex based onconvolutional neural network imagedepthfeatures [J]. Transactions the Chinese Society forAgriculturalMachinery,2020,51(6):258-263,92.
[26]朱明,張鎮(zhèn)府,黃凰,等.基于輕量級神經(jīng)網(wǎng)絡(luò)MobileNetV3—Small的鱸魚攝食狀態(tài)分類[J].農(nóng)業(yè)工程學(xué)報,2021,37(19):165—172.Zhu Ming, Zhang Zhenfu, Huang Huang,et al.Classificationperchingestingconditionusinglightweight neural network MobileNetV3—Small [J].Transactions the Chinese Society Agricultural,2021,37(19):165—172.