中圖分類號:TP391.41;S661.1 文獻標識碼:A 文章編號:2095-5553(2025)08-0075-08
Abstract:Taking appleleaf lesionsas the research object,a semantic segmentation method based onan improved DeepLabV3+model for apple leaf disease spots is proposed to solvetheproblems of low segmentation acuracy and large numberof model parameters.In this paper,MobileNetV2 isemployedas the backbone featureextraction network of DeepLabV 3+ to reduce the model's parameter size. An MP—DenseASPP module is introduced,which adds the dilated convolution layers on topof ASPP and incorporates dense connections,along with a mixed poling module to enlarge the model'sreceptive fieldandenhance itsrobustness.Amulti-scaleshalow feature layerisdesigned toimprove the segmentation capability for multi-scaletargets.Furthermore,an improved AFFmodule,named ECAFF,is proposed to merge features across diferent levelsof themulti-scaleshallow feature layer,thereby boosting inter-layer feature fusion. The results show that the mean Intersection over Union(mIoU),mean pixel accuracy and F1 score of the improved DeepLabV3+ model on the ATLDSD dataset reach 72.22% , 88.77% and 83.44% ,representing increases of 1.10% , 4.73% and 1.02% ,respectively,compared to the original model. The floating-point operations and parameter number of the improved model are approximately reduced by 58.5% and 77.1% ,respectively,the average frame rate is increased by 6.67f/s compared to the original model. The proposed method significantly reduces the model's parameter number whileensuring theaccuracyofleaf diseasespot detection,meting thereal-timerequirementsandlayingafoundation for online detection of leaf disease spots based on semantic segmentation.
Keywords: apple leaves; disease segmentation; atention mechanism; feature fusion; deep learning
0 引言
蘋果是我國產(chǎn)量最大的水果,而病害是影響蘋果產(chǎn)量的重要因素之一[1]。受到環(huán)境和病菌等因素的影響,蘋果病害的發(fā)生往往發(fā)生在根莖、果實以及葉部區(qū)域,其中葉部區(qū)域發(fā)生病害次數(shù)較多,會產(chǎn)生諸如銹病、花葉病、斑點落葉病、褐斑病和灰斑病等多種病害,嚴重阻礙蘋果正常生長,影響蘋果的產(chǎn)量和質(zhì)量[2。因此蘋果葉片病害的實時檢測對病害有效防治,提高蘋果品質(zhì),減少果農(nóng)經(jīng)濟損失,促進農(nóng)村經(jīng)濟發(fā)展等方面具有十分重要的意義。目前,果樹葉片病斑識別大多依賴果農(nóng)自身的肉眼與長期經(jīng)驗知識進行識別和判斷,難以即時推廣及適應(yīng)大面積種植。隨著計算機軟硬件技術(shù)的發(fā)展,機器視覺技術(shù)在農(nóng)作物病害檢測領(lǐng)域中也被廣泛運用,相較于傳統(tǒng)人工識別,機器視覺可以更加高效、客觀地獲取葉面病害信息,是未來智能化農(nóng)業(yè)發(fā)展的必然趨勢[3]。
隨著深度學(xué)習(xí)的不斷發(fā)展,越來越多的學(xué)者融合機器視覺與深度學(xué)習(xí)并應(yīng)用于植物病害分割與診斷,其中使用語義分割網(wǎng)絡(luò)可以同時進行病斑分割與識別,完成植物病害檢測工作。Qi等4使用PSPNet模型對荔枝主脈圖像進行語義分割。劉永波等[5提出基于U—Net算法的玉米病斑嚴重程度分級方法,試驗表明該模型可以實現(xiàn)對玉米常見葉部病害程度的準確客觀分級。Chen等在U—Net網(wǎng)絡(luò)跳躍連接結(jié)構(gòu)上添加SE模塊,構(gòu)建BLSNet語義分割網(wǎng)絡(luò),實現(xiàn)對水稻細菌性條斑病的分割與病害程度診斷。晁曉菲提出了用于提取全局上下文特征信息的斜紋池化方法以及十字交叉池化方法,實現(xiàn)對蘋果葉部多個方向的特征信息融合,并為模型加入全局空間注意力,最后將其應(yīng)用到U—Net網(wǎng)絡(luò)構(gòu)建DCPU一Net語義分割網(wǎng)絡(luò),實現(xiàn)對葉片病斑的語義分割。Wang等研究基于深度融合的黃瓜葉部病害嚴重程度,利用DeepLabV3網(wǎng)絡(luò)從復(fù)雜背景分割出黃瓜葉片。熊俊濤等9使用ResNet—34為主干網(wǎng)絡(luò)的DeepLabV3模型對荔枝花、葉進行分割。顧文娟等[°]提出一種以CA—GhostNet作為DeepLabV3十的主干特征提取網(wǎng)絡(luò)用于番茄的多類別分割。李鑫然[]使用密集連接ASPP模塊作為DeepLabV3十的特征提取網(wǎng)絡(luò)將蘋果葉片從復(fù)雜背景中進行提取,再將提取出的蘋果葉片送入基于FasterR—CNN構(gòu)建的檢測模型進行病斑定位。
由于葉片病斑存在尺度不一、形態(tài)各異等特征,提升模型對多尺度病斑的檢測能力至關(guān)重要。而上述方法忽視了模型的多尺度特征提取能力,且部分方法為提高模型性能,導(dǎo)致模型參數(shù)量成倍增加,降低模型分割速度。
針對上述問題,本文提出一種基于改進的DeepLabV3十的蘋果葉片病斑分割算法。在編碼器中,引人MobileNetV2[12]網(wǎng)絡(luò)以壓縮模型、提高檢測速度;在ASPP模塊中引人密集連接和混合池化模塊構(gòu)建具有雙重池化結(jié)構(gòu)的MP—DenseASPP,以獲得更大的感受野,加強對各種形狀的葉片缺陷的特征提取能力;同時,對解碼器進行改進,提出ECAFF模塊和多尺度淺層特征層,進一步增強對多尺度病斑的檢測識別能力。
1 DeepLabV3+算法
DeepLabV3+[13是一種在分割精度和計算效率之間取得平衡的語義分割模型,在許多領(lǐng)域中得到了廣泛的應(yīng)用,其模型結(jié)構(gòu)如圖1所示。該算法通過引入一系列新的特征提取模塊和空洞卷積模塊,從而有效地提高模型的分割精度和計算效率。DeepLabV3十采用Xception[14]模型作為其主干網(wǎng)絡(luò),以增加模型的深度和感受野。同時,為了減小分辨率下降對分割精度的影響,DeepLabV3+使用了一種“空洞空間金字塔池化\"(ASPP)的多尺度特征提取模塊。該模塊可以在不同尺度下提取特征,并通過空洞卷積將這些特征進行融合,從而使模型能夠更好地理解不同尺寸和形狀的物體。除了ASPP模塊,DeepLabV3十還使用了一種編碼器一解碼器的結(jié)構(gòu),用于將低分辨率的特征圖上采樣到原始分辨率,并與高分辨率的特征圖進行融合,從而提高分割精度。
圖1DeepLabV3+模型 Fig.1DeepLabV3+ model
2改進DeepLabV3+語義分割算法
2.1 總體框架改進設(shè)計
設(shè)計一種基于改進DeepLabV3 + 的蘋果葉面病斑分割模型,圖2為改進后的DeepLabV3+模型結(jié)構(gòu)。從4個方面進行改進:(1)將傳統(tǒng)的Xception主干網(wǎng)絡(luò)用輕量級的MobileNetV2網(wǎng)絡(luò)替代,以減少模型的參數(shù)量,提高模型的計算速度。(2)密集連接空洞率為3、6、12、18、24的空洞卷積層,同時并聯(lián)混合池化模塊[15](MPM),構(gòu)成具有雙重池化結(jié)構(gòu)的MP—
DenseASPP模塊,可以增大模型感受野,并增強模型對不同形狀病斑的特征提取能力。(3)選取MobileNetV2處理過程中3個不同大小的特征圖,進行不同倍數(shù)的雙線性插值上采樣,將通道數(shù)和特征圖尺寸調(diào)整至相同,接著按照原始特征圖大小依次融合,輸出最終融合特征圖,增強模型對多尺度病斑的分割能力。(4)提出ECAFF模塊,在AFF模塊中嵌入ECA注意力機制,避免原本AFF模塊先降維再升維導(dǎo)致通道信息缺失,進一步增強該模塊的特征融合表現(xiàn)。
圖2改進DeepLabV3+模型結(jié)構(gòu)Fig.2 Improved DeepLabV3+ model structure
2.2 MobileNetV2模塊
DeepLabV3+主干網(wǎng)絡(luò)Xception雖然有較為良好的檢測精度,但該網(wǎng)絡(luò)參數(shù)量、浮點計算量較大,需要更多的計算資源,不能實現(xiàn)葉片病斑的快速分割,因此,采用輕量化MobileNetV2模塊,在大幅度提高模型計算速度的同時與分割準確率得到了較好的平衡。
MobileNetV2是一種專為嵌人式平臺設(shè)計的輕量級深度神經(jīng)網(wǎng)絡(luò)。其采用逆殘差結(jié)構(gòu)來取代傳統(tǒng)的非線性激活變換,從而構(gòu)建基于MobileNetV2的倒置殘差塊(InvertedResidualBlock),結(jié)構(gòu)如圖3所示。
上,為實現(xiàn)從低維空間到高維空間的映射并減少通道數(shù),引人擴展層(Expansionlayer)和投影層(Projectionlayer)。在投影層中,選擇使用線性激活函數(shù)而非ReLU激活函數(shù),以避免后者可能引起的特征信息的丟失或破壞。
2.3 MP一DenseASPP網(wǎng)絡(luò)構(gòu)建
在DeepLabV3+模型中,ASPP在葉片病斑語義分割應(yīng)用過程中存在一定的局限性。自然場景中葉片的分割和葉片上尺寸較大的病斑分割通常需要較大的感受野。但是,由于空洞卷積的特性,在進行卷積運算時,ASPP僅選取少量的像素點進行運算,導(dǎo)致大量信息丟失。同時,傳統(tǒng)方形卷積核的感受域決定了ASPP對狹長形缺陷的檢測效果變差,并且當(dāng)葉片病斑處于離散狀態(tài)時,方形卷積核不可避免地會合并來自無關(guān)區(qū)域的污染信息。針對上述問題,將混合池化模塊引入DenseASPP[16]中構(gòu)成MP—DenseASPP模塊。
圖3倒置殘差塊結(jié)構(gòu) Fig.3 Inverted residual block structure
倒置殘差塊的核心是利用深度可分離卷積進行特征提取,通過大量的 1×1 卷積核對輸入的每個通道單獨進行卷積處理,進而整合各通道之間的信息。殘差分支直接將輸人與輸出連接起來。在網(wǎng)絡(luò)架構(gòu)設(shè)計
MP一DenseASPP模塊通過將上層各個空洞卷積輸出的特征圖傳遞到下一層的空洞卷積,并與下一層的特征圖進行拼接,從而構(gòu)建一個更為密集的特征金字塔,實現(xiàn)空洞卷積層感受野的逐層增加,有效規(guī)避了ASPP模塊中核退化的問題。同時,通過一系列拼接操作,使模塊最終輸出的特征圖不僅包含了廣泛的語義信息,而且以極其密集的方式覆蓋了這些信息范圍,從而提高了模型在處理復(fù)雜圖像時的性能和準確度。此外,并聯(lián)MPM模塊組成雙重池化模塊,強化了模型對遠程和近程的上下文信息的捕捉能力,加強了對狹長形葉面缺陷的識別能力,使模型在特征提取階段能更好地識別和處理各種形狀的缺陷特征。MP—DenseASPP網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。
首先,將原始深層特征信息傳到輸出位置,再依次進行空洞率rate為3、6、12、18、24的空洞卷積,每個空洞卷積層的輸人都是前面所有卷積層的輸出和初始輸人特征的連接。接著,對原始深層特征信息進行全局平均池化和混合池化操作。最后,將所有輸出特征圖融合拼接,得到最終輸出特征圖。
混合池化模塊由兩個子模塊組成,分別是條帶池化模塊(SPM)和金字塔池化模塊(PPM)[17],如圖5所示。條帶池化和金字塔池化分別用于捕獲長距離和短距離的依賴關(guān)系,從而更好地適應(yīng)于不同形狀的物體。
金字塔池化(PP)過程如圖5(a)所示,為了解決輸入特征圖大小不同的問題,對每一張輸人特征圖采用不同尺寸的池化操作,得到尺度不同的低維輸出特征圖,通過雙線性插值上采樣和Concat操作,得到與原始輸入特征映射相同尺寸的特征圖并進行拼接,從而得到最后的輸出特征圖。
條帶池化(SP)過程如圖5(b)所示,是一個沿著空間維度部署的長條形狀的池化核,在條帶池化中,將當(dāng)前的特征圖按照一定的規(guī)則劃分為若干條帶狀區(qū)域,每個帶狀區(qū)域再執(zhí)行標準的池化操作,從而得到一組池化后的小特征圖。同時,SP帶狀池化的設(shè)計是輕量級的。
假設(shè) x∈Rc×H×W 為輸人張量。若對其使用池化核為 1×W 的水平池化,則輸出的列向量為 c× H×1 ,如式(1)所示。
式中: c 一 特征圖的通道數(shù);
H,W —特征圖的寬和高;
i,j? ——特征圖中第 i 行和第 j 列的像素位置;
JH 一水平方向的條帶池化。
類似地,若對其使用池化核為 W×1 的垂直池化,則輸出的行向量為 C×1×H ,如式(2)所示。
式中: yv 垂直方向的條帶池化。
2.4多尺度淺層特征層設(shè)計
淺層特征層包含一些局部、細微的特征信息,能夠獲得像素級的定位精度[18],而深層特征是全局的特征,能夠獲得上下文信息和準確的語義信息。像素分類依賴于高維和低維特征,因而淺層與深層特征的融合,可以獲得更加強大的特征表達。所以增強淺層特征層的特征表現(xiàn),提高特征圖融合性能對于提高圖像分割性能具有重要意義。基于此,提出一種多尺度淺層特征層以提高網(wǎng)絡(luò)分割語義信息表征能力,其結(jié)構(gòu)如圖6所示。
首先,將MobileNetV2中大小為 128×128×24 64×64×32 和 32×32×64 的特征圖作為特征層的輸入。其次,對輸入特征圖進行 1×1 卷積調(diào)整通道數(shù)為48,使3個輸入特征圖的通道數(shù)保持一致。然后,分別對尺寸為 64×64×48 和 32×32×48 的特征圖進行2倍和4倍雙線性插值上采樣,調(diào)整尺寸與感受野為128×128×48 。最后,將特征圖按原始尺寸從大到小的順序依次合并,輸出尺寸為 128×128×144 的多尺度淺層融合特征圖。最后輸出的融合特征圖具有豐富的語義和空間信息,有助于提高葉面多尺度病斑分割精度。
2.5 ECAFF模塊設(shè)計
在2.4節(jié)提出的多尺度淺層特征層中只是將3個淺層特征層直接進行拼接融合,存在融合后通道數(shù)過多和分割對象細節(jié)信息丟失的問題。因此,針對上述不足,在AFF模塊19的基礎(chǔ)上進行改進,提出ECAFF模塊以聚合特征圖的上下文信息,同時降低模型復(fù)雜程度,其結(jié)構(gòu)如圖7所示。
改進ECAFF模塊的結(jié)構(gòu)如圖7(a)所示。由于MS一CAM模塊中的局部注意力和全局注意力會將輸入特征 X,Y 的通道數(shù)先減少為原來的 1/r ,最后再恢復(fù)為原始通道數(shù),這種對通道數(shù)的升降維操作會讓通道注意力捕獲所有通道之間依存關(guān)系的效率和準確率降低。為了解決通道升降維帶來的副作用,使用ECA注意力機制,分別串聯(lián)于局部加權(quán)特征圖和全局加權(quán)特征圖后,對兩種特征圖分別進行完整通道數(shù)的特征加權(quán),讓模塊更有效地捕獲跨通道的信息交互,增強融合后特征圖的特征表現(xiàn)。
在原始AFF模中,輸入特征 X 和 Y 經(jīng)過元素相加,輸出到多尺度通道注意力模塊(MS一CAM)中獲取通道方向的注意力權(quán)重,MS一CAM結(jié)構(gòu)如圖7(b)所示。MS一CAM左側(cè)分支提取全局通道注意力,與右側(cè)分支提取局部通道注意力結(jié)合后生成輸人特征的通道注意力權(quán)重,該權(quán)重分別與 X,Y 相乘后產(chǎn)生的特征圖的結(jié)果進行相加,輸出得到最終的特征圖 Z O
ECA注意力機制結(jié)構(gòu)2如圖8所示,首先對 c× H×W 的輸人特征圖進行全局平均池化(GAP)得到1×1×C 的特征圖,接著由式(1確定 k 的大小,進行卷積核大小為 k 的一維卷積,并經(jīng)過Sigmoid激活函數(shù)獲得 0~1 的歸一化權(quán)重值,并將其加權(quán)到每個通道的特征中,輸出具有通道注意力的特征圖。
超參數(shù), γ=2,b=1 。
3 試驗結(jié)果及分析
3.1試驗參數(shù)配置及試驗數(shù)據(jù)集
試驗運行環(huán)境如表1所示,在模型訓(xùn)練中,試驗采用批次迭代訓(xùn)練法,共迭代200次,前50次訓(xùn)練為凍結(jié)訓(xùn)練,后15O次為解凍訓(xùn)練,batchsize設(shè)置為16,學(xué)習(xí)率設(shè)置為0.007,使用隨機梯度下降法SGD優(yōu)化器更新權(quán)重參數(shù),動量設(shè)置為0.9。此外,試驗中利用遷移學(xué)習(xí)思想在訓(xùn)練前先載入主干網(wǎng)絡(luò)MobileNetV2的預(yù)訓(xùn)練模型權(quán)重,將預(yù)訓(xùn)練參數(shù)更新至改進網(wǎng)絡(luò)中訓(xùn)練,使得模型能夠加速收斂。
表1試驗環(huán)境配置Tab.1 Experimental environment configuration
為驗證改進模型的可行性和優(yōu)勢性,使用ATLDSD公開數(shù)據(jù)集進行訓(xùn)練和驗證。ATLDSD數(shù)據(jù)集共包含4種病害和健康葉片圖像共1644幅作為供試數(shù)據(jù)集,其中斑點落葉病279幅、褐斑病216幅、灰斑病396幅、銹病344幅及健康葉片409幅。供試圖像中大田背景居多,僅有小部分樣本在實驗室獲取。本文以9:1隨機劃分訓(xùn)練集和驗證集,為客觀評價改進模型在該數(shù)據(jù)集的表現(xiàn),不對數(shù)據(jù)集圖像進行數(shù)據(jù)增強處理。
3.2 試驗評價指標
圖8ECA注意力機制Fig.8 ECA attention mechanism
選取平均交并比(mIoU)、平均像素精度 (mPA) )、F1 分數(shù)、浮點計算量 (FLOPs) 參數(shù)量(Params)以及檢測速度 (FPS) 作為模型的評價指標,計算如式(4)~式(8)所示。平均交并比反映預(yù)測病斑與實際病斑的重合程度;平均像素精度反映病斑檢測的可靠程度; F1 分數(shù)是通過綜合評價查全率(Recal)和查準率(Precision)的評價指標,分數(shù)越大表示分割效果越佳。參數(shù)量和浮點計算量為評價模型體積的重要指標,越低表示模型的輕量化程度越高。檢測速度為模型1s處理的圖像數(shù)量,指標越高表示模型推理速度越快。
ECA注意力機制的計算如式(3)所示,其中, γ,b 為
式中: 真實類別為 a 被預(yù)測為 b 的樣本個數(shù);?aa 真實類別為 a 且被正確預(yù)測的樣本數(shù);?ba 真實類別為 b 被預(yù)測為 a 的樣本個數(shù);$\textcircled { \rho } _ { b b }$ 真實類別為 b 且被正確預(yù)測的樣本數(shù);K? 一 除背景類的其他類別總數(shù)。
3.3 損失函數(shù)
損失函數(shù)是評估深度學(xué)習(xí)模型的一種度量方式。Dice損失函數(shù)是一種語義分割任務(wù)常用的損失函數(shù),適用于訓(xùn)練類別不平衡的分割模型,在類別不平衡的情況下可以達到更好的效果。其表達式如式(9)所示。
式中: yi 一第 i 個像素點的標簽值;?ρi 一第 i 個像素點的預(yù)測概率值;N? —像素點總數(shù);£ 平滑系數(shù)。
為加快收斂,減少過擬合,ε值設(shè)置為1。
圖9為改進后的DeepLab ΔV3+ 模型和傳統(tǒng)DeepLabV3十模型在模型訓(xùn)練時的訓(xùn)練損失和驗證損失。兩種模型的兩種損失值都隨網(wǎng)絡(luò)訓(xùn)練迭代次數(shù)增加而遞減,并且逐漸趨于平穩(wěn)、收斂。
其中,改進模型的損失值曲線和準確度曲線收斂速度比傳統(tǒng)DeepLab V3+ 算法快,且損失值更低,波動小。
3.4消融實驗
為驗證不同改進模塊對改進模型的影響,設(shè)計與DeepLab .V3+ 原模型的對比消融實驗來驗證改進的有效性,以方案A為基準模型,設(shè)計對模型的不同處理方法如表2所示。
表2不同處理方法Tab.2Different processing methods
為驗證改進方案的檢測效果,在ATLDSD數(shù)據(jù)集上進行消融實驗,并進行對比分析。為確保實驗的嚴謹性,模型訓(xùn)練和測試均使用同一數(shù)據(jù)集和驗證集,并且在實驗過程中使用相同的參數(shù)配置,消融實驗的結(jié)果如表3所示。
表3消融實驗結(jié)果 Tab.3 Results of ablation experiment
由表3可知,改進后的DeepLabV3十模型在性能方面有比較明顯的提升。具體地,相較于傳統(tǒng)的DeepLabV3十模型,方案B的參數(shù)量減少 186.52MB ,浮點計算量減少113.975G,其他指標卻只有略微的降低,表明將傳統(tǒng)DeepLabV3+模型的Xception主干特征提取網(wǎng)絡(luò)改為更輕量級的MobileNetV2網(wǎng)絡(luò)可明顯減少模型參數(shù)量,顯著提高推理速度。改進模型與方案D對比發(fā)現(xiàn),所有評價指標均優(yōu)于方案D,浮點計算量和參數(shù)量也分別減少 7.15G,0.83MB ,檢測速度增加7.14幀/s,這說明通過添加所提出的ECAFF特征融合模塊,可以在提升網(wǎng)絡(luò)性能的同時減少參數(shù)量。改進模型相比于方案B、方案C、方案D,在平均交并比、平均像素精度和 F1 分數(shù)均有不同程度的提升。改進模型對比傳統(tǒng)的DeepLab V3+ 模型,浮點計算量減少97.658G,參數(shù)量減少 160.92MB ,檢測速度增加6.67幀/s,平均交并比、平均像素精度和 F1 分數(shù)分別提升 1.10%.4.73%.1.02%
5種方案在驗證集上的實際預(yù)測結(jié)果如圖10所示,其中,對于斑點落葉病,5種方案都能正確地識別出病斑區(qū)域,但是方案 A~ 方案D對于葉片邊緣的分割還不夠準確,出現(xiàn)漏識和誤識的現(xiàn)象,而改進模型則很好地分割出病斑區(qū)域和葉片邊緣。對于褐斑病,方案B表現(xiàn)最差,方案A、方案C、方案D和改進模型都能識別出大部分病斑,但是都存在漏檢現(xiàn)象。對于灰斑病,方案A、方案C能正確分割出葉片但存在病斑漏檢的現(xiàn)象,方案B能檢測出全部病斑但是邊緣分割不準確,方案D與改進模型處理較好。對于銹病,方案 A~ 方案D準確分割出葉片邊緣,但是出現(xiàn)誤檢現(xiàn)象,本文算法則能夠正確分割出邊緣和病斑。試驗結(jié)果表明,所提出的基于改進的DeepLab .V3+ 模型有效提高圖像語義分割性能,對比原始模型大量減少參數(shù)量,并在提升葉面病斑檢測精度的同時滿足實時性要求。
3.5 對比試驗
為進一步驗證改進DeepLabV3 + 模型的葉面病斑檢測性能,將改進模型與U一Net和PSPNet進行性能對比,結(jié)果如表4所示。改進模型相較于U一Net和PSPNet模型,浮點計算量分別增加16.317G和63.186G,參數(shù)量分別增加 25.6MB?38.72MB ,檢測速度分別降低1.55幀/s、55.4幀/s,但是在平均交并比、平均像素精度和F1分數(shù)上分別比U—Net提高2.71%.10.25%.3.6% ,比PSPNet分別提高 3.63% 、8.1%.4.12% 。U—Net和PSPNet模型雖檢測效率比改進模型高,但是以犧牲精度為代價,檢測效果不佳,不利于蘋果樹葉片病斑的準確識別。
表4主流算法性能對比 Tab.4 Performance comparison of mainstream algorithms
不同模型在驗證集上的實際預(yù)測結(jié)果如圖11所示。其中,PSPNet邊緣分割不準確,細小特征提取能力差;U一Net對于邊緣分割比較準確,對于細小特征的提取存在誤檢的現(xiàn)象。改進后的模型在整體和局部的分割精度均優(yōu)于其他模型,誤識率低,邊緣分割光滑。
圖12不同模型分割結(jié)果
綜上,所提出的基于改進的DeepLabV3 3+ 模型對比另外兩種主流算法在蘋果樹葉片病斑識別準確性和實時性之間做到較好的平衡,在試驗中檢測效果最好。
4結(jié)論
1)在編碼器中,將特征提取主干網(wǎng)絡(luò)的Xception模塊替換成輕量級的MobileNetV2模塊,使用
DenseASPP和混合池化模塊構(gòu)建MP—DenseASPP作為模型的池化模塊,提高模型的特征提取能力,并有效降低模型大小。在解碼器中,構(gòu)建ECAFF模塊和多尺度淺層特征層,加強模型對多尺度病斑的檢測識別能力。
2)改進后模型的平均交并比、平均像素精度、F1 分數(shù)和檢測速度相較于原模型分別提升 1.10% 、4.73%.1.02% 和6.67幀/s,浮點計算量和參數(shù)量對比原模型分別減少約 58.5%.77.1% ,在降低模型大小的同時提高模型分割精度。相較于其他常用的語義分割模型(PSPNet、U—Net),該模型在準確率與模型復(fù)雜程度之間取得較好的平衡。
3)所提出的基于改進DeepLabV3 + 的蘋果葉面病 斑語義分割方法實現(xiàn)對蘋果葉面病斑的識別與分割,為 蘋果樹葉片病害實時檢測和精準分級提供技術(shù)支撐。
參考文獻
[1]王彩峰,史建民.山東省蘋果種植面積的時空演變特征分 析[J].中國農(nóng)業(yè)資源與區(qū)劃,2017,38(12):170—177.
[2]Khan AI,Quadri S MK,Banday S,et al.Deep diagnosis:A real-time apple leaf disease detection system based on deep learning [J]. Computers and Electronics in Agriculture,2022,198:107093.
[3]翟肇裕,曹益飛,徐煥良,等.農(nóng)作物病蟲害識別關(guān)鍵技 術(shù)研究綜述[J].農(nóng)業(yè)機械學(xué)報,2021,52(7):1-18. Zhai Zhaoyu,Cao Yifei,Xu Huanliang,et al. Review of key techniques for crop disease and pest detection [J]. Transactions of the Chinese Society for Agricultural Machinery,2021,52(7):1—18.
[4]QiX,Dong J,Lan Y,et al.Method for identifying litchi picking position based on YOLOv5 andPSPNet [J]. Remote Sensing,2022,14(9):2004.
[5]劉永波,胡亮,曹艷,等.基于U—Net的玉米葉部病斑 分割算法[J].中國農(nóng)學(xué)通報,2021,37(5):88-95.
[6]Chen X,Lian Y,Jiao L,et al. Supervised edge attentionnetworkforaccurateimage instance segmentation[C]. Computer Vision-ECCV, 2020: 617—631.
[7]晁曉菲.基于深度學(xué)習(xí)的常見蘋果葉片病害識別與病斑 分割方法研究[D].楊凌:西北農(nóng)林科技大學(xué),2022.
[8]Wang C,Du P,Wu H,etal. A cucumber leaf disease severity classification method based on the fusion of DeepLabV3+andU—Net[J]. Computersand Electronics in Agriculture,2021,189:106373.
[9]熊俊濤,劉柏林,鐘灼,等.基于深度語義分割網(wǎng)絡(luò)的荔 枝花葉分割與識別[J].農(nóng)業(yè)機械學(xué)報,2021,52(6): 252-258. Xiong Juntao,Liu Bolin, Zhong Zhuo,et al. Litchi flower semantic segmentation [J]. Transactions of the Chinese Societyfor AgriculturalMachinery,2O21,52(6): 252-258.
[10]顧文娟,魏金,陰艷超,等.基于改進DeepLabV3十的番 茄圖像多類別分割方法[J].農(nóng)業(yè)機械學(xué)報,2023, 54(12):261—271. Gu Wenjuan,Wei Jin,Yin Yanchao,et al. Mult-category segmentation method of tomato image based on improved DeepLabV3+ [J]. Transactions of the Chinese Society for Agricultural Machinery,2023,54(12):261—271.
[11]李鑫然.基于深度學(xué)習(xí)的蘋果葉片病害檢測方法研 究[D].楊凌:西北農(nóng)林科技大學(xué),2021.
[12]Sandler M,Howard A,Zhu M,et al. MobileNetV2: Inverted residuals and linear bottenecks [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018: 4510—4520.
[13] Chen L,Zhu Y,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C].ProceedingsoftheEuropean Conference on ComputerVision (ECCV), 2018: 801—818.
[14]Chollet F. Xception:Deep learning with depthwise separable convolutions [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017:1251—1258.
[15]Hou Q,Zhang L,Cheng M,et al.Strip pooling: Rethinkingspatial pooling forsceneparsing[C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2020: 4003—4012.
[16] Yang M,Yu K, Zhang C,et al. Denseaspp for semantic segmentation in street scenes [C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2018:3684—3692.
[17] Zhao H,Shi J,Qi X,et al.Pyramid scene parsing network [C]. Proceedings of the IEEE Conference on ComputerVision andPatternRecognition, 2017: 2881—2890.
[18]黃聰,楊珺,劉毅,等.基于改進DeepLabV3十的遙感圖像 分割算法[J].電子測量技術(shù),2022,45(21):148-155.
[19]Dai Y,Gieseke F,Oehmcke S,et al. Attentional feature fusion[C]. Proceedings of theIEEE/CVF Winter Conference on Applications of Computer Vision,2021: 3560-3569.
[20] Wang Q,Wu B,Zhu P,et al. ECA—Net:Efficient channelattention fordeepconvolutionalneural networks[C]. Proceedings of the IEEE/CVF Conference onComputer Vision and Pattern Recognition,2020: 11534—11542.