摘要:在農(nóng)業(yè)生產(chǎn)中需要盡早準(zhǔn)確地檢測和識別水稻葉片病害。為減小水稻葉片病害識別中背景噪聲的影響并提高病害檢測的準(zhǔn)確度,提出一種基于DeepLabv3—Faster R—CNN網(wǎng)絡(luò)的水稻葉片病害檢測方法。待檢測的水稻葉片圖像首先經(jīng)過DeepLabv3網(wǎng)絡(luò)進行圖像分割,獲得背景和葉片分割的初步結(jié)果,再把經(jīng)過背景分割的葉片圖像中葉片部分還原進行檢測,從而規(guī)避背景部分噪聲對檢測結(jié)果的影響。檢測部分主要由Faster R—CNN網(wǎng)絡(luò)實現(xiàn),結(jié)合特征金字塔和CBAM方法,提高模型對多尺度水稻葉片病害目標(biāo)的檢測能力。通過公開數(shù)據(jù)集訓(xùn)練模型,得到該方法對白葉枯病、稻瘟病、褐斑病和黃矮病的平均檢測準(zhǔn)確率達到98.1%。
關(guān)鍵詞:水稻葉片;病害檢測;深度學(xué)習(xí);圖像分割;目標(biāo)檢測
中圖分類號:S435.11; TP391.4" " " 文獻標(biāo)識碼:A" " " 文章編號:2095?5553 (2025) 04?0108?07
Detection method of rice leaf disease based on DeepLabv3—Faster R—CNN
Liu Yuping Liu Chengfei Zhao Pingwei
(1. School of Computer Engineering, Shanxi Vocational University of Engineering and Technology, Jinzhong, 030619, China; 2. School of Information and Computer Science, Taiyuan University of Technology, Taiyuan, 030024, China;
3. School of Information Science and Engineering, Shanxi Agricultural University, Jinzhong, 030800, China)
Abstract: The early and accurate detection and identification of rice leaf diseases are necessary in agricultural production. In order to reduce the impact of background noise on the identification of rice leaf diseases and improve the accuracy of disease detection, a rice leaf disease detection method based on the DeepLabv3—Faster R—CNN network is proposed in this study. The rice leaf image to be detected is first subjected to image segmentation by using the DeepLabv3 network, so as to obtain preliminary results of background and leaf segmentation. Then, the leaf part of the image, which has undergone background segmentation, is restored for detection, thereby avoiding the influence of background noise on the detection results. The detection part is mainly implemented by the Faster R—CNN network, and by combining the feature pyramid and the CBAM (Convolutional Block Attention Module) method, the model's ability to detect multi?scale rice leaf disease targets is improved. By training the model on a public dataset, the proposed method in this study achieves an average detection accuracy of 98.1% for white leaf spot, blast disease, brown spot disease and yellow stunt disease.
Keywords: rice leaf; disease detection; deep learning; image segmentation; object detection
0 引言
水稻作為全球重要的糧食作物之一,其產(chǎn)量和質(zhì)量對全球糧食安全至關(guān)重要。水稻葉片病害是一種常見的生產(chǎn)障礙,會導(dǎo)致產(chǎn)量下降和質(zhì)量降低。因此,及早、準(zhǔn)確地檢測和識別水稻葉片病害對于實現(xiàn)高產(chǎn)高質(zhì)水稻的栽培至關(guān)重要。
近年來,深度學(xué)習(xí)技術(shù)已經(jīng)在水稻葉片病害檢測領(lǐng)域引起廣泛關(guān)注。這些方法能夠自動從圖像中提取特征,并通過訓(xùn)練來識別不同類型的病害。例如,Pallathadka等[1]提出一個基于機器學(xué)習(xí)的葉病分類和檢測框架,使用了SVM、貝葉斯框架和CNN,并使用PCA算法進行特征提取,完成水稻葉片病害的分類和檢測。Jhatial等[2]使用Yolov5模型對水稻葉片病害進行檢測。Pothen等[3]使用Otsu的方法對白葉枯病、葉黑穗病和褐色斑點病的圖像進行分割,同時利用局部二進制模式(LBP)和定向梯度直方圖(HOG)來分離各種特征,在支持向量機的輔助下對病害特征進行分類。浙江大學(xué)也進行了一系列關(guān)于水稻葉片病害檢測的研究工作[4]。此外,東北農(nóng)業(yè)大學(xué)采用深度學(xué)習(xí)技術(shù)結(jié)合傳統(tǒng)圖像處理方法,致力于不同水稻品種和病害類型的檢測,并開發(fā)用于水稻葉片病害自動檢測的軟件系統(tǒng)[5]。
水稻葉片最常見的病害包括白葉枯病、稻瘟病、褐斑病和黃矮病等[6]。為有效地識別植物葉片的病害,實驗室更傾向于研究視覺上可觀察到的水稻植株病害模式。在這一背景下,本文的研究旨在進一步提高水稻葉片病害檢測的準(zhǔn)確性和魯棒性,以應(yīng)對傳統(tǒng)方法中常見的背景噪聲問題。
當(dāng)涉及水稻葉片病害檢測時,背景部分的噪聲常對最終的檢測結(jié)果產(chǎn)生顯著的負面影響。為應(yīng)對這一問題,本文采用一種基于DeepLabv3—Faster R—CNN網(wǎng)絡(luò)的檢測方法。首先,待檢測的水稻葉片圖像經(jīng)過DeepLabv3網(wǎng)絡(luò)進行圖像分割,該過程產(chǎn)生背景和葉片的初步分割結(jié)果;然后,通過從經(jīng)過背景分割的葉片圖像中還原出葉片部分,消除背景部分的干擾,從而提高檢測結(jié)果的準(zhǔn)確性和可靠性。此外,本方法的檢測部分主要采用Faster R—CNN網(wǎng)絡(luò),并結(jié)合特征金字塔方法,為研究提供一種強大的病害檢測工具,能夠更好地理解和分析水稻葉片圖像中的細節(jié),提高病害檢測系統(tǒng)對不同類型病害的檢測能力。
1 材料與方法
1.1 數(shù)據(jù)獲取
使用公開的Rice Leaf Disease Image Samples數(shù)據(jù)集[6]訓(xùn)練網(wǎng)絡(luò)模型,該數(shù)據(jù)集包含5 932個數(shù)字圖像,包括4種水稻葉?。喊兹~枯病、稻瘟病、褐斑病和黃矮病,4種水稻葉病的葉片圖像數(shù)量比例基本相同。在使用數(shù)據(jù)集進行試驗前將所有圖像尺寸調(diào)整為300像素×300像素。另外,4種類別水稻葉片病害的圖像均使用Labelimg圖形注釋工具,在每張圖像上的葉片病害區(qū)域用一個矩形邊界框進行標(biāo)識,并記錄相應(yīng)的病害類別標(biāo)簽。
1.2 數(shù)據(jù)增強
為盡可能地擴充數(shù)據(jù)集以增加圖像多樣性,從而在試驗中驗證所提方法具有魯棒性,數(shù)據(jù)集通過幾種常用的方法進行數(shù)據(jù)增強,如圖1所示。
數(shù)據(jù)增強的方法分別包括旋轉(zhuǎn)180°、水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)、低亮度和添加高斯噪聲。經(jīng)過數(shù)據(jù)增強,數(shù)據(jù)集圖像數(shù)量增加至35 592張圖像,再將整個數(shù)據(jù)集劃分為訓(xùn)練集、驗證集和測試集,其比例為80%、10%、10%。
1.3 Faster R—CNN網(wǎng)絡(luò)
本文提出的方法整體網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。Faster R—CNN算法是一種常用于目標(biāo)檢測類研究的深度學(xué)習(xí)方法,采用Faster R—CNN網(wǎng)絡(luò)作為對水稻葉片病害進行檢測的主體模塊。Faster R—CNN的主要組成部分包括骨干網(wǎng)絡(luò)、區(qū)域建議網(wǎng)絡(luò)(RPN)、ROI池化、分類和回歸網(wǎng)絡(luò)[7]。這些組件在整個檢測過程中密切合作。骨干網(wǎng)絡(luò)扮演特征提取的角色,負責(zé)從輸入圖像中提取有關(guān)水稻葉片病害的信息。首先,選擇ResNet作為骨干網(wǎng)絡(luò),其通常是作為預(yù)訓(xùn)練的卷積神經(jīng)網(wǎng)絡(luò),以確保有效的特征提取。其次,RPN是Faster R—CNN的關(guān)鍵組件,負責(zé)生成候選目標(biāo)區(qū)域[8]。RPN通過滑動窗口機制在特征圖上提出多個可能包含目標(biāo)的候選區(qū)域。這些提議區(qū)域?qū)⒃诤罄m(xù)的處理中被檢測模型進一步評估。為確保候選區(qū)域具有一致的輸入尺寸,使用ROI池化方法。ROI池化將每個提議區(qū)域重新縮放到與特征圖相同的尺寸,從而實現(xiàn)對不同大小區(qū)域的統(tǒng)一處理。區(qū)域建議網(wǎng)絡(luò)會對這些候選區(qū)域進行分類和邊界框回歸來識別和定位圖像中的目標(biāo)。在一張包含多種病害的圖像中,F(xiàn)aster R—CNN 會嘗試對每個病害區(qū)域進行檢測,并輸出相應(yīng)的邊界框和類別標(biāo)簽,這意味著模型可以標(biāo)識并定位圖像中的多個病害區(qū)域,提供每個區(qū)域的位置信息和對應(yīng)的病害類別。最后,F(xiàn)aster R—CNN的分類和回歸模塊用于實現(xiàn)目標(biāo)的分類和位置定位。分類器確定每個提議區(qū)域是否包含水稻葉片病害,而回歸器精確定位病害的位置。這兩個子模塊在聯(lián)合工作下產(chǎn)生最終的檢測結(jié)果,包括目標(biāo)的類別標(biāo)簽和邊界框坐標(biāo)。Faster R—CNN的端到端的訓(xùn)練過程使其能夠同時執(zhí)行目標(biāo)提議和目標(biāo)檢測,具備出色的準(zhǔn)確性和效率。
1.4 DeepLabv3網(wǎng)絡(luò)
盡管Faster R—CNN等卷積神經(jīng)網(wǎng)絡(luò)可以實現(xiàn)初步的水稻葉片病害檢測,但準(zhǔn)確率并不令人滿意,難以直接應(yīng)用于農(nóng)業(yè)生產(chǎn)工作。尤其是對于具有復(fù)雜背景的水稻葉片圖像,算法常把背景中與病害部分相似噪聲錯誤地識別為病害。為降低背景噪聲對檢測結(jié)果的影響,提出一種創(chuàng)新的檢測方法,即先對水稻葉片圖像進行背景分割,提取葉片部分的信息并去除背景部分,繼而使用目標(biāo)檢測網(wǎng)絡(luò)對葉片中包含的病害信息進行檢測。
使用DeepLabv3網(wǎng)絡(luò)來分割待檢測的水稻葉片圖像的背景和葉片部分,DeepLabv3網(wǎng)絡(luò)主要包含骨干網(wǎng)絡(luò)、ASPP模塊、Decoder模塊和輸出層[9]。選用ResNet[10]作為骨干網(wǎng)絡(luò),其用于從輸入圖像中提取特征,并使用空洞卷積(Atrous Convolution)來增大感受野[11],使得網(wǎng)絡(luò)可以有效地處理多尺度信息,提高分割精度。其中,空洞卷積是一種可以在增加感受野的同時保持特征圖的尺寸不變,從而代替下采樣和上采樣操作的卷積方式。其實現(xiàn)方式是通過在卷積核元素之間加入一些空格來擴大卷積核的過程,空洞卷積與傳統(tǒng)卷積的對比如圖3所示。
加入空洞之后的實際卷積核尺寸與原始卷積核尺寸之間的關(guān)系如式(1)所示。
K=k+(k-1)(a-1) (1)
式中: k——原始卷積核大?。?/p>
a——卷積擴張率(dilation rate);
K——經(jīng)過擴展后實際卷積核大小。
在骨干網(wǎng)絡(luò)之后,DeepLabv3使用ASPP(空間金字塔池化)模塊對特征圖進行多尺度特征提取。ASPP模塊包括多個并行的卷積層,每個卷積層使用不同大小的空洞卷積核對特征圖進行卷積,以捕捉不同尺度的上下文信息。這樣的設(shè)計能夠捕捉不同尺度的上下文信息,有助于提高分割的精度。此外,ASPP模塊的并行卷積操作,使網(wǎng)絡(luò)能夠同時考慮不同尺度下的上下文信息,從而增強對目標(biāo)的識別能力[12]。在ASPP模塊之后,Decoder模塊對特征圖進行上采樣和融合操作,以獲得更精細的語義分割結(jié)果。Decoder模塊包括一個上采樣層和一個融合層,其中上采樣層將特征圖上采樣到與輸入圖像大小相同的尺寸,融合層將上采樣后的特征圖與骨干網(wǎng)絡(luò)中的低級特征進行融合,以提高語義分割的精度。DeepLabv3的最后一層使用一個1×1的卷積層將特征圖轉(zhuǎn)換為與類別數(shù)相同的通道數(shù),以獲得每個像素點對應(yīng)的類別標(biāo)簽。這一步驟生成每個像素點對應(yīng)的類別標(biāo)簽,從而完成待檢測水稻葉片圖像的背景和葉片分割。經(jīng)過DeepLabv3網(wǎng)絡(luò)分割待檢測葉片圖像的可視化結(jié)果如圖4所示。
1.5 卷積塊注意力模塊
為進一步提升病害檢測模塊的準(zhǔn)確性和魯棒性,在Faster R—CNN模型的基礎(chǔ)上,結(jié)合CBAM(卷積塊注意力模塊)。這是一種廣泛應(yīng)用于計算機視覺任務(wù)的注意力機制,主要作用是自動學(xué)習(xí)在不同通道和空間維度上的注意力分布,以提高特征圖的質(zhì)量和重要性[13]。CBAM主要由通道注意力(Channel Attention)和空間注意力(Spatial Attention)組成,如圖5所示。通道注意力的目標(biāo)是為每個通道分配一個權(quán)重。常見的方法是使用全局平均池化(GAP)和全局最大池化(GMP)。
在水稻葉片病害檢測過程中,CBAM模塊被嵌入到Faster R—CNN網(wǎng)絡(luò)中,通過學(xué)習(xí)在特征圖的不同通道上分配不同的權(quán)重,以強調(diào)對于水稻葉片病害檢測而言更為重要的特征。CBAM通過增強感興趣的特征通道,提高特征圖的質(zhì)量,對于從輸入圖像中提取更有代表性的特征非常重要,有助于更準(zhǔn)確地檢測病害。CBAM還可以減少特征圖中的冗余信息,使網(wǎng)絡(luò)更專注于關(guān)鍵特征,有助于提高計算效率,減少不必要的計算開銷??傊珻BAM注意力機制在水稻葉片病害檢測中的作用是增強關(guān)鍵特征的表達,減少冗余信息,從而提高檢測性能和效率,這使得本文的病害檢測系統(tǒng)更具適應(yīng)性和精確性。
1.6 特征金字塔
在水稻葉片病害檢測工作中,除背景噪聲的影響,不同尺度的病害特征同樣是一個核心挑戰(zhàn)。為確保網(wǎng)絡(luò)模型在各種尺度上都有出色的檢測表現(xiàn),采納特征金字塔方法。特征金字塔方法是一種經(jīng)典而有效的處理多尺度信息的技術(shù)[14]。
在實際應(yīng)用中,水稻葉片上的病害可能呈現(xiàn)出多種尺度和大小。對于尺寸較小或簡單的目標(biāo),淺層特征圖可以捕捉到足夠的信息,實現(xiàn)有效檢測。當(dāng)目標(biāo)更為復(fù)雜或尺寸更大時,即便已經(jīng)采用方法去除背景噪聲,仍需從深層特征圖中獲取更精細、更豐富的特征來確保預(yù)測的準(zhǔn)確性。其允許在不同的尺度下提取并融合特征,從而更好地捕捉各種尺度的病害細節(jié),如圖6所示。
特征金字塔構(gòu)建的核心思想:從深層特征開始,逐步進行上采樣,并與淺層特征進行結(jié)合。特征金字塔網(wǎng)絡(luò)可以分為2個主要部分:(1)基于主干網(wǎng)絡(luò)的卷積層進行前向傳播計算,通過結(jié)合不同尺度的特征圖生成一個新的、更豐富的特征圖。表示為[Fd=Convdeep(I)],[Fd]表示深層特征圖,[I]代表輸入圖像。(2)關(guān)注特征的上采樣和融合。從深層特征開始進行上采樣,得到[Ud=Upsample(Fd)],這些上采樣后的特征與淺層特征進行結(jié)合,形成一個更加魯棒的特征表示,即[P=Ud+Fs],[P]代表融合后的特征圖,F(xiàn)s表示淺層特征圖。
以Faster R—CNN為基礎(chǔ),構(gòu)建特征金字塔網(wǎng)絡(luò)以更好地實現(xiàn)病害檢測。具體來說,特征金字塔網(wǎng)絡(luò)主要分為2個部分:(1)基于主干網(wǎng)絡(luò)的卷積層進行前向傳播運算,將不同尺度的特征圖組合為新的特征圖。(2)基于卷積網(wǎng)絡(luò)產(chǎn)生的原始特征圖,從深層到淺層進行上采樣,并建立新的特征圖序列,使得具有深層特征信息的特征圖獲得更高的分辨率,進一步增強圖像特征。
1.7 損失函數(shù)
對于DeepLabv3—Faster R—CNN模型,在DeepLabv3網(wǎng)絡(luò)模塊和Faster R—CNN網(wǎng)絡(luò)模塊,使用不同的損失函數(shù)來分別實現(xiàn)對應(yīng)模塊對于水稻葉片病害檢測目標(biāo)的特定功能。其中,DeepLabv3網(wǎng)絡(luò)模塊使用二進制交叉熵損失函數(shù),如式(8)所示。
2 試驗
2.1 試驗環(huán)境
試驗在一臺搭載Windows 10的筆記本電腦上完成,深度學(xué)習(xí)框架為pytorch,運行環(huán)境為CUDA 11.3和CuDNN 7.6.3,電腦的硬件環(huán)境為NVIDIA GeForce RTX 3060顯卡及Intel 酷睿i7 11800H。編譯環(huán)境和語言分別為Pycharm和python 3.8。
2.2 模型訓(xùn)練
在模型訓(xùn)練過程中,使用28 473張包含4種水稻葉片病害的圖像作為訓(xùn)練集以及7 118張圖像作為驗證集。訓(xùn)練參數(shù)方面,batch size設(shè)置為16,初始學(xué)習(xí)率設(shè)置為0.02,在訓(xùn)練過程中學(xué)習(xí)率會逐漸降低以獲得更精細的檢測結(jié)果。圖7為隨訓(xùn)練過程的損失下降曲線圖,在60個epoch以后,損失下降趨于平緩,在120個epoch以后,模型趨于收斂。
2.3 評價指標(biāo)
為對模型的性能進行定量評估,采用準(zhǔn)確率(P)、召回率(R)和平均精度均值(mAP)作為評價指標(biāo)。交并比(IoU)表示模型所預(yù)測的檢測框與真實(ground truth)的檢測框的交集與并集之間的比例。通常情況下,IoU的結(jié)果是兩個檢測框交集像素數(shù)與它們的并集像素數(shù)之比。當(dāng)IoU大于設(shè)定的閾值(一般為0.7)時,通常認為檢測結(jié)果是正確的,否則被視為錯誤的檢測。
對于分類問題,預(yù)測結(jié)果通常被分為4個類別:真正例(TP)、真反例(TN)、假正例(FP)、假反例(FN)。具體而言,TP表示模型正確預(yù)測為目標(biāo)的樣本數(shù)量,F(xiàn)P表示模型錯誤地將非目標(biāo)樣本預(yù)測為目標(biāo)的樣本數(shù)量,TN表示模型正確預(yù)測為非目標(biāo)的樣本數(shù)量,F(xiàn)N表示模型錯誤地將目標(biāo)樣本預(yù)測為非目標(biāo)的樣本數(shù)量?;谶@4個類別的關(guān)系,可以定義兩個關(guān)鍵指標(biāo):準(zhǔn)確率(P)和召回率(R),其中準(zhǔn)確率表示模型正確預(yù)測為目標(biāo)的樣本與模型總共檢測出的目標(biāo)樣本之間的比值,而召回率表示模型正確預(yù)測為目標(biāo)的樣本與總共應(yīng)該檢測出的目標(biāo)樣本之間的比值[15],這2個指標(biāo)可以幫助量化評估模型的性能,計算如式(10)和式(11)所示。
召回率和準(zhǔn)確率通常呈相互對立的關(guān)系,提高準(zhǔn)確率往往會降低召回率,反之亦然。在目標(biāo)檢測任務(wù)中,P—R曲線被用來反映模型在所有樣本上的準(zhǔn)確率和召回率之間的權(quán)衡關(guān)系。P—R曲線通常以準(zhǔn)確率為縱軸、召回率為橫軸,通過繪制多組不同召回率和準(zhǔn)確率值的坐標(biāo),展示模型在不同工作點下的性能表現(xiàn)。然而,P—R曲線并不能提供目標(biāo)檢測模型的準(zhǔn)確率的具體數(shù)值。為定量衡量算法的性能,通常使用平均精度AP作為指標(biāo)。AP是召回率從0~1范圍內(nèi)對準(zhǔn)確率的積分,即P—R曲線下的面積。AP的數(shù)值越接近1,表示檢測的精度越高,模型的性能越好,而mAP則衡量所有類別上的檢測結(jié)果性能,所有類別上AP的平均值。
2.4 可視化試驗結(jié)果
經(jīng)過訓(xùn)練使得模型收斂后用未參與訓(xùn)練過程的測試集對模型的性能進行驗證結(jié)果表明,模型對于白葉枯病、稻瘟病、褐斑病和黃矮病的檢測準(zhǔn)確率分別達到98.1%、98.9%、97.1%和98.2%,平均準(zhǔn)確率為98.1%。水稻葉片病害檢測的部分可視化結(jié)果如圖8所示。
該方法處理待檢測圖像平均時間為108 ms,可以滿足實際生產(chǎn)應(yīng)用中對于檢測速度的需求。試驗結(jié)果表明,絕大部分包含水稻葉片病害的圖像可以通過本文提出的模型實現(xiàn)病害檢測,有效降低背景噪聲對檢測結(jié)果的影響,較大地提高病害檢測的準(zhǔn)確率。
2.5 消融試驗
提出一種基于DeepLabv3分割背景的Faster R—CNN網(wǎng)絡(luò)模型,為驗證其可以更有效地對水稻葉片病害進行檢測,分別對加入DeepLabv3網(wǎng)絡(luò)、引入特征金字塔、加入卷積塊注意力模塊,進行4組消融試驗驗證。試驗結(jié)果如表1所示。
根據(jù)表1的結(jié)果,當(dāng)僅添加DeepLabv3時,mAP從91.0%提高到95.2%,提升4.2%,這表明先進行圖像分割提取葉片部分并去除背景噪聲對提高模型的性能具有積極影響。而單獨特征金字塔后,mAP達到93.0%,也進一步提高了模型的性能,表明多尺度的特征提取有助于提高病害檢測的準(zhǔn)確率。加入CBAM后,mAP顯著提高到93.4%,提升2.4%,表明多尺度的注意力機制對于改進模型性能非常有效。將這3個改進模塊都結(jié)合應(yīng)用到模型中后,模型的mAP達到98.1%,相對于原始的Faster R—CNN模型提升7.1%,進一步證明通過圖像分割去除背景噪聲及多尺度特征提取和融合的組合對于模型性能的提升至關(guān)重要。
2.6 對比試驗
為全面評估基于DeepLabv3分割背景的Faster R—CNN網(wǎng)絡(luò)模型的性能,在相同數(shù)據(jù)集和相同硬件環(huán)境下,與多種主流的基于深度學(xué)習(xí)的目標(biāo)檢測模型進行對比試驗。對比模型包括YOLOv3、YOLOv5、SSD、RetinaNet、Cascade R—CNN模型。試驗結(jié)果如表2所示。試驗結(jié)果表明,DeepLabv3—Faster R—CNN網(wǎng)絡(luò)結(jié)構(gòu)對于水稻葉片病害檢測具有顯著的效果提升,在檢測精度方面明顯超出傳統(tǒng)的YOLOv5和SSD等一系列常用于目標(biāo)檢測項目的模型。尤其在處理具有復(fù)雜的背景、不同尺度的病害目標(biāo)和模糊病害特征方面,提出的算法具有極高的檢測準(zhǔn)確度。盡管提出的方法需要通過先圖像分割后病害檢測的方式,通過2個子網(wǎng)絡(luò)模型才能輸出檢測結(jié)果,導(dǎo)致算法運行時間稍長,但整體試驗結(jié)果充分證明所提方法在水稻葉片病害檢測場景中的有效性和優(yōu)越性。
3 結(jié)論
1) 針對水稻葉片病害檢測中準(zhǔn)確率較低、背景噪聲影響較大的問題,提出一種基于DeepLabv3—Faster R—CNN的水稻葉片病害檢測方法。主要的檢測流程:首先將待檢測的水稻葉片圖像先經(jīng)過DeepLabv3網(wǎng)絡(luò)進行圖像分割,將包含噪聲的背景部分和包含病害信息的葉片部分進行分割;再將經(jīng)過背景分割的葉片圖像中葉片部分還原,通過這種方式去除不包含有效信息的背景部分,從而大幅度減小背景部分噪聲對檢測結(jié)果的影響。檢測部分基于Faster R—CNN框架實現(xiàn),并通過結(jié)合特征金字塔和CBAM方法,提高模型對于多尺度水稻葉片病害目標(biāo)的檢測能力。
2) 通過公開數(shù)據(jù)集訓(xùn)練模型至收斂并驗證模型的檢測能力。試驗結(jié)果表明,所提出的方法對于常見的水稻葉片病害平均準(zhǔn)確率達到98.1%,證明基于深度學(xué)習(xí)的水稻葉片病害檢測方法可以更準(zhǔn)確地診斷常見的水稻葉片病害,且抗噪聲能力更強。
參 考 文 獻
[ 1 ] Pallathadka H, Ravipati P, Sajja G S, et al. Application of machine learning techniques in rice leaf disease detection [J]. Materials Today: Proceedings, 2022, 51: 2277-2280.
[ 2 ] Jhatial M J, Shaikh R A, Shaikh N A, et al. Deep learning?based rice leaf diseases detection using YOLOv5 [J]. Sukkur IBA Journal of Computing and Mathematical Sciences, 2022, 6(1): 49-61.
[ 3 ] Pothen M E, Pai M L. Detection of rice leaf diseases using image processing [C]. 2020 Fourth International Conference on Computing Methodologies and Communication (ICCMC). IEEE, 2020: 424-430.
[ 4 ] 朱素素. 基于高光譜成像技術(shù)的水稻主要病害早期檢測及其模型構(gòu)建[D]. 杭州: 浙江大學(xué), 2022.
(下轉(zhuǎn)第 132頁)
(上接第 113頁)
[ 5 ] 溫鑫. 基于卷積神經(jīng)網(wǎng)絡(luò)的水稻葉片病害識別[D]. 哈爾濱: 東北農(nóng)業(yè)大學(xué), 2021.
[ 6 ] Chen J, Zhang D, Nanehkaran Y A, et al. Detection of rice plant diseases based on deep transfer learning [J]. Journal of the Science of Food and Agriculture, 2020, 100(7): 3246-3256.
[ 7 ] Girshick R. Fast R—CNN [C]. Proceedings of the IEEE International Conference on Computer Vision, 2015: 1440-1448.
[ 8 ] Fan Q, Zhuo W, Tang C K, et al. Few?shot object detection with attention?RPN and multi?relation detector [C]. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020: 4013-4022.
[ 9 ] Chen L C, Papandreou G, Schroff F, et al. Rethinking atrous convolution for semantic image segmentation [J]. arXiv preprint arXiv: 1706. 05587, 2017.
[10] Wu Z, Shen C, Van Den Hengel A. Wider or deeper: Revisiting the resnet model for visual recognition [J]. Pattern Recognition, 2019, 90: 119-133.
[11] 孫俊, 何小飛, 譚文軍, 等. 空洞卷積結(jié)合全局池化的卷積神經(jīng)網(wǎng)絡(luò)識別作物幼苗與雜草[J]. 農(nóng)業(yè)工程學(xué)報, 2018, 34(11) : 159-165.
Sun Jun, He Xiaofei, Tan Wenjun, et al. A convolutional neural network combining dilated convolution and global pooling for identifying crop seedlings and weeds [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018, 34(11) : 159-165.
[12] Sullivan A, Lu X. ASPP: A new family of oncogenes and tumour suppressor genes [J]. British Journal of Cancer, 2007, 96(2): 196-200.
[13] Woo S, Park J, Lee J Y, et al. Cbam: Convolutional block attention module [C]. Proceedings of the European Conference on Computer Vision (ECCV), 2018: 3-19.
[14] 燕紅文, 劉振宇, 崔清亮, 等. 基于特征金字塔注意力與深度卷積網(wǎng)絡(luò)的多目標(biāo)生豬檢測[J]. 農(nóng)業(yè)工程學(xué)報, 2020, 36(11): 193-202.
Yan Hongwen, Liu Zhenyu, Cui Qingliang, et al, Multi?target detection based on feature pyramid attention and deep convolutional networks for pigs [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(11): 193-202.
[15] Buckland M, Gey F. The relationship between recall and precision [J]. Journal of the American Society for Information Science, 1994, 45(1): 12-19.