摘要:圖像分類技術(shù)在農(nóng)業(yè)領(lǐng)域應(yīng)用廣泛,尤其在病害檢測(cè)和分類方面,相比傳統(tǒng)的人工方法更高效和準(zhǔn)確。傳統(tǒng)的特征融合方法采用固定的加權(quán)操作來增強(qiáng)局部特征,并抑制干擾特征的表達(dá),但病害類別圖片的差異影響模型泛化能力,導(dǎo)致分類效率和準(zhǔn)確率較低。為此,提出一種基于多層自適應(yīng)特征融合的番茄葉病害識(shí)別方法,先通過數(shù)據(jù)增強(qiáng)算法對(duì)數(shù)據(jù)集進(jìn)行增強(qiáng),緩解數(shù)據(jù)樣本量不足、類別不平衡的問題;然后利用特征增強(qiáng)捕捉關(guān)鍵特征,再通過自適應(yīng)權(quán)重的特征融合,以此實(shí)現(xiàn)番茄葉病害類別的精準(zhǔn)識(shí)別。本方法對(duì)番茄葉病害圖像識(shí)別準(zhǔn)確率達(dá)到99.67%,對(duì)比其他InceptionV3、ResNet50等深度網(wǎng)絡(luò)模型,識(shí)別準(zhǔn)確率提高2.07%~15.33%。本方法實(shí)現(xiàn)對(duì)番茄葉病害的圖像精準(zhǔn)識(shí)別,為番茄等農(nóng)作物病害的識(shí)別技術(shù)提供思路與方法。
關(guān)鍵詞:數(shù)據(jù)增強(qiáng);番茄葉病害;圖像分類;特征融合;特征增強(qiáng)
中圖分類號(hào):TP391.4; S126" " " 文獻(xiàn)標(biāo)識(shí)碼:A" " " 文章編號(hào):2095?5553 (2024) 10?0241?06
Adaptive feature fusion?based approach to tomato leaf disease identification
Yang Shengying1, Pan Weiyao1, Lei Jingsheng1, Zhang Shuping2, Qian Xiaohong1
(1. College of Information and Electronic Engineering, Zhejiang University of Science and Technology,
Hangzhou, 310000, China; 2. Xinjiang Institute of Technology, Akesu, 843100, China)
Abstract: Image classification techniques were widely used in agriculture, especially in disease detection and classification, and were found to be more efficient and accurate than traditional manual methods. Traditional feature fusion methods used fixed weighting operations to enhance local features and suppress the expression of interfering features, but the differences in disease class images affected the generalization ability of the model, resulting in lower classification efficiency and accuracy. In order to address this issue, a tomato leaf disease recognition method based on multi?layer adaptive feature fusion was proposed in this study. The data set was first enhanced by a data enhancement algorithm to alleviate the problems of insufficient data sample size and category imbalance. Then, feature enhancement was used to capture key features, followed by feature fusion with adaptive weights, resulting in accurate recognition of tomato leaf disease categories. The proposed method achieved a recognition accuracy of 99.67% for tomato leaf disease images, which was an improvement of 2.07%-15.33% compared to other deep network models such as InceptionV3 and ResNet50. Accurate image recognition of tomato leaf diseases was achieved by using this method, which provided" ideas and methods for the recognition technology of tomato and other crop diseases.
Keywords: data enhancement; tomato leaf disease; image classification; feature fusion; feature enhancement
0 引言
番茄病害大多數(shù)是從葉部開始發(fā)病并蔓延到整個(gè)植株[1],實(shí)現(xiàn)番茄葉部病害的早期預(yù)警,可以減小經(jīng)濟(jì)損失。過去,菜農(nóng)通常憑借自身經(jīng)驗(yàn)進(jìn)行病害識(shí)別,或者請(qǐng)相關(guān)的技術(shù)人員和農(nóng)業(yè)專家進(jìn)行檢查指導(dǎo)[2],但是人工方法存在著主觀性強(qiáng)、耗時(shí)較長(zhǎng)等缺點(diǎn)。
隨著計(jì)算機(jī)視覺的不斷發(fā)展,計(jì)算機(jī)已經(jīng)可以通過大量數(shù)據(jù)的學(xué)習(xí)和分析,對(duì)各種復(fù)雜的圖像進(jìn)行識(shí)別。而隨著深度學(xué)習(xí)浪潮興起,不少學(xué)者將其用于農(nóng)業(yè)領(lǐng)域的病害識(shí)別??捉ɡ诘萚3]設(shè)計(jì)多流深度網(wǎng)絡(luò)并行的細(xì)粒度特征提取層,挖掘病害間的細(xì)微差異。徐振南等[4]提出了使用MobileNetV3構(gòu)建病害識(shí)別基礎(chǔ)模型。Wu等[5]在研究中利用DCGN網(wǎng)絡(luò)模型增強(qiáng)了數(shù)據(jù)集,并使用AlexNet、GoogLeNet等多種深度學(xué)習(xí)模型對(duì)番茄葉片病害進(jìn)行識(shí)別。徐暢等[6]構(gòu)建基于貝葉斯優(yōu)化LightGBM的番茄病害智能診斷模型,探索番茄作物病害處方數(shù)據(jù)挖掘及其精準(zhǔn)診斷。
當(dāng)前深度學(xué)習(xí)網(wǎng)絡(luò)在番茄病害識(shí)別方面已有顯著進(jìn)展,但主要關(guān)注提取病害區(qū)域的特征并進(jìn)行特征融合。針對(duì)番茄葉病害識(shí)別問題,黃志豪[7]通過主成分分析對(duì)不同參數(shù)進(jìn)行優(yōu)化,得出特征參數(shù)優(yōu)化對(duì)顏色參數(shù)的識(shí)別相關(guān)性較大的結(jié)論。
在深度學(xué)習(xí)網(wǎng)絡(luò)中,淺層網(wǎng)絡(luò)感受野較小,關(guān)注更多顏色等細(xì)節(jié)信息;而深層網(wǎng)絡(luò)感受野較大,關(guān)注圖像的整體信息。在特征融合時(shí),當(dāng)淺層比重過大時(shí),就會(huì)過于關(guān)注局部特征,導(dǎo)致深度特征感知不足等問題;當(dāng)深層比重過大時(shí),就會(huì)過于關(guān)注整體,學(xué)習(xí)到對(duì)于分類無關(guān)的背景特征,從而導(dǎo)致背景干擾過大等問題。因此,對(duì)于番茄葉病害識(shí)別,需要考慮淺層和深層特征在分類中的相關(guān)性。
針對(duì)上述問題,以番茄葉病害圖像為研究對(duì)象,構(gòu)建基于多層自適應(yīng)特征融合的番茄葉病害模型。
1 番茄葉病害圖像獲取和處理
本研究所采用的番茄葉病害樣本選自公開的PlantVillage數(shù)據(jù)集[8]。數(shù)據(jù)集采集9類病害葉和1類健康葉,共計(jì)18 162張,其中病害葉數(shù)量包括細(xì)菌性斑點(diǎn)病2 127張、早疫病1 000張、二斑葉螨病1 676張、晚疫病1 910張、輪斑病1 404張、葉霉病952張、斑枯病1 771張、花葉病373張、黃曲葉病5 357張的9種番茄病葉,健康番茄葉片數(shù)量為1 592張。番茄葉數(shù)據(jù)樣例如圖1所示。
在構(gòu)建和訓(xùn)練模型之前,本研究對(duì)原數(shù)據(jù)集進(jìn)行了數(shù)據(jù)清洗,保證每類圖像在訓(xùn)練前類別正確,對(duì)較少的番茄花葉病等類別葉片樣本進(jìn)行了數(shù)據(jù)增強(qiáng),減少類別不平衡對(duì)分類的不利影響,處理后的番茄葉數(shù)據(jù)共計(jì)18 835張番茄葉病害圖像。
2 基于多層自適應(yīng)權(quán)重特征融合的模型
基于常用的深度卷積神經(jīng)網(wǎng)絡(luò)構(gòu)造,加入設(shè)計(jì)的特征增強(qiáng)模塊和自適應(yīng)權(quán)重特征融合模塊,能夠準(zhǔn)確定位病害區(qū)域,實(shí)現(xiàn)淺層和深層特征的良好提取和融合。本研究的主干網(wǎng)絡(luò)選擇ResNet50[9],ResNet50是一種深度卷積神經(jīng)網(wǎng)絡(luò),通過引入殘差連接,使得網(wǎng)絡(luò)能夠更深,并且在訓(xùn)練過程中可以減輕梯度消失的問題,提高模型的性能表現(xiàn)。ResNet50模型包含5個(gè)階段,每個(gè)階段都由一系列卷積層和池化層組成,本方法分別在階段三、階段四、階段五之后使用特征增強(qiáng)模塊。特征增強(qiáng)模塊對(duì)主干網(wǎng)絡(luò)各階段輸出進(jìn)行空間增強(qiáng),定位特征圖的最判別性部分并突出,達(dá)到對(duì)關(guān)鍵特征進(jìn)行更好的定位的效果。自適應(yīng)權(quán)重特征融合模塊對(duì)特征增強(qiáng)后的輸出進(jìn)行特征融合,在訓(xùn)練過程中自適應(yīng)更改各層融合比例權(quán)重,提高模型的表達(dá)能力,減少模型對(duì)某些深度特征的過分關(guān)注,使得模型更加具有靈活性和魯棒性。該模型的具體結(jié)構(gòu)組成如圖2所示。
2.1 特征增強(qiáng)模塊
將特征圖[X∈RC×W×H]按高度維度分成a個(gè)部分,再通過1×1的卷積降維到1個(gè)通道,實(shí)現(xiàn)通道的信息整合,并且使用Relu函數(shù)[10]去除負(fù)激活,再使用全局平均池化[11]得到各部分的重要性因子
[di=avgpool(Xi)] (1)
式中: [R]——特征圖的形狀大小;
[W]——寬度;
[H]——高度;
[a]——按高度劃分[a]個(gè)部分;
[Xi]——各部分特征圖,[X(i)∈R1×W×(Ha)];
[avgpool]——全局平均池化。
通過softmax歸一化[D=(d1,...,da)T],可以確定最判別性部分,[ω]、[β]均為設(shè)定的超參數(shù),用來控制增強(qiáng)的程度,[?]表示元素相乘的乘法,最后得到增強(qiáng)后的特征。
[Xd=ω×(D?X)+β] (2)
該模塊結(jié)構(gòu)如圖3所示。
2.2 自適應(yīng)特征融合模塊
自適應(yīng)特征融合模塊中的子模塊如圖4所示。該模塊首先通過對(duì)兩個(gè)輸入的特征圖進(jìn)行處理,生成一對(duì)特征映射[G1, G2∈RC×W×H],其中[C、W、H]分別為通道數(shù)、寬度、高度。重塑特征映射[G1、G2]為[G1']、[G2'∈RC×F],[F=W×H],對(duì)[G1'、G2']進(jìn)行正則化操作和雙線性運(yùn)算,計(jì)算出信道相似度,得到雙線性矩陣[N],取負(fù)值后再使用softmax函數(shù),得出權(quán)重矩陣
[Sij=exp(-Nij)k=1cexp(-Nik)] (3)
式中: [i]——表示第一個(gè)輸入特征圖的第[i]個(gè)通道;
[j]——表示第二個(gè)輸入特征圖的第[j]個(gè)通道。
將權(quán)重矩陣[S]與原始特征映射進(jìn)行加權(quán),對(duì)相似特征對(duì)應(yīng)的通道進(jìn)行增強(qiáng),則得到交互增強(qiáng)特征圖為
[FG2G1=μ×S×G1] (4)
[FG1G2=μ×S×G2] (5)
式中: μ——可控制的超參數(shù);
[G1]——特征映射;
[G2]——特征映射;
[FG2G1]——[G1]經(jīng)過[G2]增強(qiáng)后的融合特征;
[FG1G2]——[G2經(jīng)過G1增強(qiáng)后的融合特征。]
通過將不同階段輸入的特征[XF1]、[XF2]、[XF3]分別和其他兩個(gè)階段特征送入子模塊,得到[FG2G1]、[FG3G1]、[FG1G2]、[FG3G2]、[FG1G3]、[FG2G3]的融合特征。
設(shè)定了歸一化權(quán)重,將其添加到優(yōu)化器中,使得在優(yōu)化器更新時(shí),自動(dòng)調(diào)整[W]權(quán)重的值,使得向損失函數(shù)最小化的方向優(yōu)化,以獲得合理的融合分支權(quán)重分配。
[Wi=expbmnexpbn" " m=1,2,3,n=1,2,3] (6)
式中: [bm]——初始化指數(shù)權(quán)重;
[bn]——特征權(quán)重。
通過自適應(yīng)特征融合模塊最后各階段輸出的[ZF1]、[ZF2]、[ZF3]如式(7)~式(9)所示。
[ZF1=XF1+W1×FG2G1+FG3G1] (7)
[ZF2=XF2+W2×FG1G2+FG3G2] (8)
[ZF3=XF3+W3×FG1G3+FG2G3] (9)
式中: [XF1、XF2、XF3]——各階段輸入特征圖;
[W1、W2、W3]——各階段融合分支權(quán)重。
2.3 模型結(jié)構(gòu)
首先將圖像輸入ResNet50主干網(wǎng)絡(luò),將第3、4、5層的輸出分別傳入特征增強(qiáng)模塊,將輸出的增強(qiáng)特征和原始輸入特征相加,再通過卷積核為1和3的卷積層,再輸入到自適應(yīng)特征融合模塊,再分別將三個(gè)階段的輸出輸入到分層池化層中。
分層池化層通過對(duì)輸入張量的每個(gè)通道進(jìn)行分層池化操作,對(duì)特征圖每個(gè)通道取前k個(gè)最大值進(jìn)行池化,去幫助減少模型的參數(shù)量和計(jì)算量,同時(shí)保留輸入張量中的最重要的信息。
最后通過分類器輸出分類結(jié)果。
在訓(xùn)練時(shí),計(jì)算每個(gè)輸出特征[ZFi](i=1,2,3)的分類損失計(jì)算如式(10)所示。
[Lcls=i∈ILclsPi,Yi] (10)
[Pi=classifieriZFi] (11)
式中: [classifieri]——第i部分的分類器;
[Pi]——預(yù)測(cè)得分向量,[Pi∈Rnum_class];
[num_class]—對(duì)象類別數(shù);
[Yi]——輸入圖像的ground?truth標(biāo)簽向量;
[Lcls]——表示交叉熵?fù)p失。
[L=Lcls+α×LconcatPconcat,Yi] (12)
式中: [L]——總分類損失;
[Lconcat]——所有增強(qiáng)部分特征拼接的分類損失;
[Pconcat]——所有增強(qiáng)部分特征拼接的預(yù)測(cè)得分向量。
2.4 數(shù)據(jù)增強(qiáng)方法
本試驗(yàn)用到了數(shù)據(jù)增強(qiáng)的方法,通過對(duì)原始數(shù)據(jù)進(jìn)行各種變換和擾動(dòng),生成更多的訓(xùn)練數(shù)據(jù),從而提高模型的泛化能力和魯棒性。本試驗(yàn)使用的數(shù)據(jù)增強(qiáng)方法包括隨機(jī)裁剪、隨機(jī)翻轉(zhuǎn)、隨機(jī)調(diào)整圖像屬性(圖像亮度、對(duì)比度、飽和度和色相)、隨機(jī)旋轉(zhuǎn)、隨機(jī)透視變換等,該方法生成圖像如圖5所示。
3 試驗(yàn)與分析
在Ubuntu 20.04.4環(huán)境下,顯卡為內(nèi)存24 G的GeForce RTX 3090,采用深度學(xué)習(xí)框架為1.12.1版本的PyTorch[12],配合Cuda11.6進(jìn)行訓(xùn)練。番茄葉病害數(shù)據(jù)集按照80%、20%的比例劃分為訓(xùn)練集和測(cè)試集,劃分后的番茄葉病害數(shù)據(jù)集圖像信息如表1所示。
訓(xùn)練集用于模型訓(xùn)練,測(cè)試集用于評(píng)估模型性能。在訓(xùn)練過程中,將輸入圖像大小調(diào)整為固定的256×256尺寸,并隨機(jī)裁剪為224×224尺寸,并采用上文提及的數(shù)據(jù)增強(qiáng)方法來擴(kuò)充訓(xùn)練集。在測(cè)試過程中,將輸入圖像中心裁剪為224×224尺寸。
使用隨機(jī)梯度下降(SGD)優(yōu)化器,動(dòng)量因子為0.9,權(quán)重衰減為0.000 01。原有層學(xué)習(xí)率初始值設(shè)定為0.002,新增層學(xué)習(xí)率設(shè)定為0.02,學(xué)習(xí)率通過余弦退火調(diào)度器[13]進(jìn)行調(diào)整,訓(xùn)練迭代輪數(shù)設(shè)定為50 epoch。
3.1 不同模型對(duì)比試驗(yàn)
試驗(yàn)評(píng)估了所提出的新模型在番茄葉病害數(shù)據(jù)集下的識(shí)別分類性能,表2展示了新模型和其他8個(gè)深度學(xué)習(xí)訓(xùn)練模型的分類性能,包括AlexNet[14]、VGG16[15]、InceptionV3[16]、ResNet50、GoogLeNet[17]、DenseNet121[18]、GhostNet[19]、CondConvSENet[20]。本試驗(yàn)?zāi)P捅華lexNet高出11%,比VGG16高出3.9%,比Resnet50高出6.4%,比InceptionV3高出15.33%,比GoogLeNet高出12.47%,比DenseNet121高出6.07%,比GhostNet高出2.18%,比InceptionV3高出2.07%,比所對(duì)比的模型高出2.07%~15.33%,展示了本模型優(yōu)越的識(shí)別精度,對(duì)于判斷番茄葉病害類別更準(zhǔn)確。
圖6為試驗(yàn)?zāi)P团c其他部分對(duì)比模型的準(zhǔn)確率和loss曲線圖。從圖6可以看出,本試驗(yàn)?zāi)P妥R(shí)別準(zhǔn)確率較高,損失收斂速度較快,比其他模型效果更好。
3.2 消融試驗(yàn)
表3展示了原始主干網(wǎng)絡(luò)、使用數(shù)據(jù)增強(qiáng)后的原始主干網(wǎng)絡(luò)、再加入特征增強(qiáng)模塊后的網(wǎng)絡(luò)、加入自適應(yīng)特征融合模塊后的完整網(wǎng)絡(luò)的消融試驗(yàn)分類性能。
從表3可以看出,本研究提出的模型在Resnet50主干網(wǎng)絡(luò)的基礎(chǔ)上,加入各個(gè)模塊后,分類準(zhǔn)確率明顯上升。使用數(shù)據(jù)增強(qiáng)后提升了3.73%,加入特征增強(qiáng)模塊后又提升了2.00%,最后加入自適應(yīng)特征融合模塊后又提升了0.67%。最終,完整模型的分類準(zhǔn)確率達(dá)到了99.67%,表現(xiàn)出卓越的分類性能。
圖7顯示了有無使用數(shù)據(jù)增強(qiáng)算法下,訓(xùn)練獲得的混淆矩陣預(yù)測(cè)結(jié)果,縱向數(shù)據(jù)表示標(biāo)簽值,橫向數(shù)據(jù)表示預(yù)測(cè)值,對(duì)角線上的淺色區(qū)域內(nèi)數(shù)據(jù)表示預(yù)測(cè)正確的個(gè)數(shù)。數(shù)據(jù)增強(qiáng)前對(duì)應(yīng)的預(yù)測(cè)準(zhǔn)確率分別為96.70%、83.41%、82.93%、91.95%、93.78%、96.71%、87.14%、95.61%、95.47%、100%;數(shù)據(jù)增強(qiáng)后對(duì)應(yīng)的預(yù)測(cè)準(zhǔn)確率分別為97.88%、88.44%、94.75%、93.96%、96.04%、98.50%、91.07%、99.25%、99.49%、99.68%??梢钥吹绞褂昧藬?shù)據(jù)增強(qiáng)算法后,對(duì)角線上展示的分類正確樣本數(shù)顯著提升了,所有病葉的預(yù)測(cè)準(zhǔn)確率均有不同程度的提升,模型的誤報(bào)率和漏報(bào)更少。由于早疫病樣本數(shù)量少,并且樣本展現(xiàn)的病害嚴(yán)重程度不同,所以該類預(yù)測(cè)準(zhǔn)確率較低,即使如此,在使用了數(shù)據(jù)增強(qiáng)后,早疫病的預(yù)測(cè)準(zhǔn)確率提升了5.03%。因此,使用數(shù)據(jù)增強(qiáng)算法可以有效處理不平衡的數(shù)據(jù)。
圖8展示了消融試驗(yàn)中模型的準(zhǔn)確率和損失曲線。從圖8中可以看出,所提出的模型在加入不同模塊后,準(zhǔn)確率大幅提高,分類性能得到了顯著提升。同時(shí),損失的收斂速度也大大加快,表明模型訓(xùn)練的效率得到了提高。
表2和圖6展示了本模型的分類性能和訓(xùn)練效率高于其他模型,表3和圖7、圖8展示了本模型各個(gè)功能模塊的有效性和必要性,在對(duì)不同深度網(wǎng)絡(luò)輸出特征融合的過程中,使用設(shè)定的自適應(yīng)權(quán)重進(jìn)行特征融合,有效提升了淺層特征的學(xué)習(xí)能力,也保證了對(duì)病害圖像整體的識(shí)別能力,實(shí)現(xiàn)了淺層特征和深層特征融合的協(xié)調(diào)。
3.3 可視化試驗(yàn)
使用Grad-CAM進(jìn)行可視化試驗(yàn),并采取Resnet50作為主干網(wǎng)絡(luò)。Grad-CAM通過激活圖按權(quán)重進(jìn)行加權(quán)和,標(biāo)記出模型的關(guān)注區(qū)域。本試驗(yàn)對(duì)9種番茄葉病害圖像進(jìn)行可視化,如圖9所示,包括細(xì)菌性斑點(diǎn)病、早疫病、晚疫病、葉霉病、斑枯病、二斑葉螨病、輪斑病、花葉病、黃曲葉病。通過可視化發(fā)現(xiàn),主干網(wǎng)絡(luò)加上數(shù)據(jù)增強(qiáng)難以很好的關(guān)注病變部位,反而容易聚焦到背景或者整個(gè)主體,而加上特征增強(qiáng)模塊后,模型已經(jīng)可以定位到具體的病害區(qū)域,而當(dāng)再加上本研究提出的自適應(yīng)特征融合模塊,通過模型訓(xùn)練時(shí)得到合理的融合分支權(quán)重分配,充分學(xué)習(xí)全局的語義信息,達(dá)到番茄葉病害區(qū)域的精準(zhǔn)識(shí)別。
以早疫病為例,此病害會(huì)在葉片上形成圓形或橢圓形的棕色斑,在本試驗(yàn)使用主干網(wǎng)絡(luò)加數(shù)據(jù)增強(qiáng)時(shí),發(fā)現(xiàn)模型關(guān)注于背景而非病葉。當(dāng)本試驗(yàn)加入特征增強(qiáng)模塊后,模型定位到了病葉尖端的棕色病變區(qū)域,但仍有部分棕色病變區(qū)域未關(guān)注。當(dāng)本試驗(yàn)繼續(xù)加入自適應(yīng)特征融合模塊后,模型關(guān)注了病葉尖端及其右側(cè)大部分的病變區(qū)域,實(shí)現(xiàn)了對(duì)番茄葉病害的準(zhǔn)確識(shí)別。
4 結(jié)論
1) 基于多層自適應(yīng)權(quán)重融合的模型充分考慮淺層和深層特征對(duì)于番茄葉病害分類的相關(guān)性,解決固定比重組合導(dǎo)致的識(shí)別背景干擾、忽略淺層特征等問題。模型識(shí)別準(zhǔn)確率99.67%,遠(yuǎn)高于AlexNet、VGG16、ResNet50、InceptionV3、GoogLeNet、DenseNet121、GhostNet、CondConvSENet。
2) 通過數(shù)據(jù)增強(qiáng)算法擴(kuò)充番茄葉病害數(shù)據(jù)集樣本,有效提高主干網(wǎng)絡(luò)識(shí)別準(zhǔn)確率從93.27%到97%。通過對(duì)主干網(wǎng)絡(luò)Resnet50的三個(gè)階段輸出進(jìn)行特征增強(qiáng),提高識(shí)別率從97%到99%。通過特征增強(qiáng)后的輸出特征通過自適應(yīng)權(quán)重特征融合后輸出,最后通過池化層和分類器輸出分類結(jié)果為99.67%。
3) 試驗(yàn)結(jié)果表明,提出的模型較其他深度學(xué)習(xí)模型具有更好的分類性能,訓(xùn)練效率也更快,各個(gè)模塊均能有效提高分類準(zhǔn)確率,模型能夠?qū)崿F(xiàn)對(duì)10種類別的番茄葉病害的準(zhǔn)確分類。
參 考 文 獻(xiàn)
[ 1 ] 朱幸輝, 周勇. 基于卷積神經(jīng)網(wǎng)絡(luò)的番茄葉片病斑識(shí)別仿真[J]. 計(jì)算機(jī)仿真, 2021, 38(7): 481-485.
Zhu Xinghui, Zhou Yong. Simulation of tomato leaf patch recognition based on convolutional neural network [J]. Computer Simulation, 2021, 38(7): 481-485.
[ 2 ] 王翔宇, 溫皓杰, 李鑫星, 等. 農(nóng)業(yè)主要病害檢測(cè)與預(yù)警技術(shù)研究進(jìn)展分析[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2016, 47(9): 266-277.
[ 3 ] 孔建磊, 金學(xué)波, 陶治, 等. 基于多流高斯概率融合網(wǎng)絡(luò)的病蟲害細(xì)粒度識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2020, 36(13): 148-157.
Kong Jianlei, Jin Xuebo, Tao Zhi, et al. Fine?grained recognition of diseases and pests based on multi?stream gaussian probability fusion network [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(13): 148-157.
[ 4 ] 徐振南, 王建坤, 胡益嘉, 等. 基于MobileNetV3的馬鈴薯病害識(shí)別[J]. 江蘇農(nóng)業(yè)科學(xué), 2022, 50(10): 176-182.
[ 5 ] Wu Q, Chen Y, Meng J. Dcgan?based data augmentation for tomato leaf disease identification [J]. IEEE Access, 2020, 8: 98716-98728.
[ 6 ] 徐暢, 丁俊琦, 趙聃桐, 等. 基于LightGBM和處方數(shù)據(jù)的番茄病害診斷方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2022, 53(9): 286-294.
Xu Chang, Ding Junqi, Zhao Dantong, et al. Tomato disease diagnosis method based on lightgbm and prescription data [J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(9): 286-294.
[ 7 ] 黃志豪. 番茄病害圖像數(shù)據(jù)庫構(gòu)建方法研究[D]. 廣州: 華南農(nóng)業(yè)大學(xué), 2016.
[ 8 ] Hughes D, Salathé M. An open access repository of images on plant health to enable the development of mobile disease diagnostics [J]. arXiv Preprint arXiv: 1511. 08060, 2015.
[ 9 ] He K, Zhang X, Ren S, et al. Deep residual learning for image recognition [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 770-778.
[10] Glorot X, Bordes A, Bengio Y. Deep sparse rectifier neural networks [C]. Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics. JMLR Workshop and Conference Proceedings, 2011: 315-323.
[11] Lin M, Chen Q, Yan S. Network in network [J]. arXiv Preprint arXiv: 1312. 4400, 2013.
[12] Paszke A, Gross S, Chintala S, et al. Automatic differentiation in PyTorch [C]. 31st Conference on Neural Information Processing Systems (NIPS 2017), 2017.
[13] Loshchilov I, Hutter F. SGDR: Stochastic gradient descent with warm restarts [J]. arXiv Preprint arXiv: 1608. 03983, 2016.
[14] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks [J]. Advances in Neural Information Processing Systems, 2012, 25.
[15] Simonyan K, Zisserman A. Very deep convolutional networks for large?scale image recognition [J]. arXiv Preprint arXiv: 1409. 1556, 2014.
[16] Szegedy C, Vanhoucke V, Ioffe S, et al. Rethinking the inception architecture for computer vision [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2016: 2818-2826.
[17] Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2015: 1-9.
[18] Huang G, Liu Z, Laurens V D M, et al. Densely connected convolutional networks [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 4700-4708.
[19] Han K, Wang Y, Tian Q, et al. GhostNet: More features from cheap operations [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 1580-1589.
[20] 湯文亮, 黃梓鋒. 基于知識(shí)蒸餾的輕量級(jí)番茄葉部病害識(shí)別模型[J]. 江蘇農(nóng)業(yè)學(xué)報(bào), 2021, 37(3): 570-578.