張善文,王 振,王祖良
(西京學院信息工程學院,西安 710123)
作物病害葉片圖像分割是病害檢測和病害類型識別方法中的一個重要步驟,其分割效果直接影響到后續(xù)的檢測和識別結果。由于作物病害葉片圖像的形狀和顏色復雜、多樣、無規(guī)律且多變,使得病害葉片圖像分割方法研究一直是一項重要且具有挑戰(zhàn)性的研究方向[1-3],涌現出很多基于圖像處理和模式識別的多種農作物病害葉片圖像分割方法[4-6]。傳統(tǒng)的方法是采用單一閾值,對在簡單背景下的病害葉片圖像進行分割,取得了較高的分割效果,但由于大田病害葉片圖像的背景比較復雜,而且葉片圖像顏色成分豐富,包含大量噪聲和一些不確定像素,不能采用單一的閾值對圖像進行分割[7-8]。為了提高水稻葉病圖像的分割效果,Liu[9]采用最優(yōu)迭代閾值法、OTSU 法和模糊 C-均值聚類算法對不同情況下采集的水稻葉病圖像進行自適應分割。對比分析表明,3 種方法均能有效地從病害葉片圖像中分割出病斑,而模糊 C-均值聚類算法的效果最好,但迭代次數過多,花費的時間最多;OTSU 法的效果較差,最優(yōu)迭代閾值法效果最差。Barbedo 等[10]針對多種環(huán)境條件下的作物病害葉片圖像分割問題,對病變的定界、光照、葉脈干擾、葉片強度等問題進行了深入的探討。Ma 等[11]提出了一種利用綜合顏色特征(Comprehensive Color Feature,CCF)進行蔬菜病害葉斑分割的方法,實現對病害葉片的病斑和雜波背景的強識別。Wang 等[12]提出了一種基于 K-均值聚類的作物病害圖像自適應分割方法。該方法能夠自適應地學習初始聚類中心,以歐氏距離的平方為相似距離對兩個聚類進行迭代顏色聚類,最后兩個聚類之間的距離為聚類準則函數對聚類結果進行校正。Swathi 等[13]提出了一種基于人工神經網絡和支持向量機的水稻病害識別方法。該方法首先進行圖像采集,將RGB 圖像轉換為HSI圖像,利用形態(tài)學處理去除噪聲,然后提取病斑圖像的均值、標準差等特征,最后利用神經網絡方法和支持向量機進行病害分類。Zhang 等[14]提出了一種帶有主動梯度和局部信息的病害葉片圖像自動分割模型。該模型對光照不均勻、病斑模糊、病害葉片粘連、陰影、背景復雜、病害葉片邊緣不清晰、交錯等7 種棉花病害葉片圖像具有較高的分割精度和較短的運行時間。該模型不僅可以對自然條件下的棉花葉片進行圖像分割,還可以為棉花病害的準確識別和診斷提供技術支持。Shieh 等[15]提出了一種基于三維直方圖重構 Otsu 算法的黃瓜炭疽病害葉片圖像分割方法,其特點是通過高斯擬合迭代得到最優(yōu)閾值。
在真實農田條件下采集的病害葉片圖像不可避免地存在光照不均勻和背景復雜等問題,而且作物病害葉片圖像采集不可避免地受到復雜背景、天氣變化、拍攝角度等諸多因素的影響,特別是病害葉片及其相應的病變往往是復雜的、不規(guī)則的和隨時間變化的,因此以上方法基于人工設計的特征提取和閾值求解的病害葉片圖像分割方法的分割精度和泛化能力不能滿足大田作物病害檢測和識別需要。如何在自然環(huán)境中有效地對農作物葉片進行圖像分割是亟待解決的問題。
目前,深度學習在領域圖像和自然圖像分割方面取得了重大進展。卷積神經網絡(Convolutional Neural Networks,CNNs)是一種比較強大的深度神經網絡,在作物病害圖像分割、檢測和識別中取得了成功應用,取得了顯著效果[16]。Shervin 等[17]討論了至 2019 年出現的 100 多種基于深度學習的分割方法,包括數據預處理、網絡架構的選擇、損失功能、培訓策略以及其關鍵貢獻,并討論了基于深度學習的圖像分割模型的幾個挑戰(zhàn)和未來可能的方向。針對大田作物病害葉片圖像分割容易受到不同光照和復雜背景影響的問題,劉永波等[18]提出了一種在自然環(huán)境條件下基于深度卷積神經網絡(Deep Convolutional Neural Networks,DCNNs)的玉米病害識別方法。Muhammad 等[19]提出了一種基于相關系數和DCNNs 的水果病害自動分割識別系統(tǒng)。在DCNNs 中,利用兩個預先訓練的VGG16 和AlexNet 模型對選定的病害進行特征學習和病害類型識別。Lin 等[20]提出了一種基于CNNs 的語義分割模型,對黃瓜葉片圖像進行像素級別的炭疽病分割,并在 20 個測試樣本上取得了平均像素分割精度為96.08%。SegNet 是一種解決圖像語義分割問題的 CNNs模型[21]。全卷積網絡(Fully Convolutional Networks,FCNs)將原始 CNNs 中包含的全連接層替換為卷積層,克服了CNNs 在圖像分割中的缺點。SegNet 與FCNs 的思路比較相似,區(qū)別在于上采樣和下采樣的技術不同,SegNet 通過最大池化索引可以優(yōu)化邊界輪廓,減少網絡模型參數數量,并完成端到端的模型訓練。U-Net 是另一種CNNs 模型,其網絡結構與SegNet 相似,主要包括收縮網絡和擴展網絡2 個部分組成[22]。U-Net 采用收縮和擴展的結構,通過跳躍連接提取多尺度信息,并在卷積層捕獲粗糙和細膩圖像特征信息。與U-Net 相比,SegNet 不能有效地捕獲多尺度信息,而U-Net 的學習參數很多,所以訓練相對較慢。
本研究針對病害葉片圖像分割問題,結合SegNet 和U-Net 的優(yōu)點,提出一種新的多尺度融合卷積神經網絡(Multi-Scale Fusion Convolutional Neural Networks,MSF-CNNs),并應用于黃瓜病害葉片分割,通過大量病害葉片圖像分割試驗進行驗證。該方法為進一步的黃瓜病害檢測和識別方法研究提供了參考。
本研究以復雜背景下的黃瓜病害葉片圖像作為研究對象進行分割試驗,并對不同算法的分割結果進行分析比較。圖像采集地點位于陜西省寶雞市農業(yè)科學院大田作物試驗基地(33°35N,106°18E)。采集時間為 2018年6—12 月,采集設備為HIKVSION 攝像機,最大分辨率 1 960×1 080 像素,USB 4.0 接口,傳輸速率為 38 幀/s。采集時相機位于地面100 cm,使用環(huán)繞方式采集視頻圖像,平均氣溫為21 ℃。為了測試算法的魯棒性,采集時的環(huán)境包括陰天、晴天和降雨等不同的天氣狀態(tài)。采集的圖像包括常見的黃瓜靶斑病、黃瓜褐斑病、黃瓜黑腐病和黃瓜炭疽病等,所采集的圖像共包括 760 幅。初始采集到的圖像分辨率1 960×1 080 像素,為了提高模型的訓練效率,利用Photoshop 將圖像統(tǒng)一壓縮為256×256 像素。構建的作物病害葉片圖像數據集均為真實的大田環(huán)境中采集,圖像中包括葉片、雜草和土壤等多類背景干擾信息,部分圖像如圖1 所示。
圖1 不同環(huán)境下黃瓜病害葉片圖像Fig.1 Cucumber disease leaf images in different environments
從采集的760 幅病害葉片圖像種選取680 幅圖像進行標注,在標注后的圖像中選取450 幅作為訓練集圖像,120幅病害葉片圖像作為驗證集,其余的110 幅未標注圖像作為測試集。在模型訓練的過程中,訓練集用于模型的權重參數的學習;通過驗證集優(yōu)化網絡模型結構,同時減少模型的復雜度;測試集圖像對所提出的方法進行驗證。
多尺度融合卷積神經網絡(Multi-Scale Fusion Convolutional Neural Networks,MSF-CNNs)是針對現有的復雜病害葉片圖像分割任務提出的。MSF-CNNs 模型結構與 U-Net 和 SegNet 網絡模型相似,主要包括編碼網絡(encoder networks)和解碼網絡(decoder networks)2 個部分,但是為了提取輸入圖像的多尺度信息,在編碼網絡中引入了多級并聯結構,解碼網絡中則引入了多尺度連接的形式。具體的編碼網絡中使用多列并行的卷積神經網絡形式,能夠提取作物病害葉片圖像的多尺度特征。解碼網絡中通過引入九點雙三次插值算法作為反卷積的插值方式,恢復圖像的尺寸和分辨率。在整體網絡模型的結構中,使用跳躍連接來傳遞不同卷積層中所提取的特征信息,同時引入批歸一化(Batch Normalization,BN)操作來緩解模型的梯度彌散現象。MSF-CNNs 模型的結構如圖2 所示。
MSF-CNNs 模型的每組子卷積神經網絡共包括12 個卷積層(Conv)、1 個反卷積層(Deconv)、4 個最大池化層(max-pooling)以及2 個多尺度連接層(multi-scale connection)。除了最大池化層4 以外,其他最大池化層的池化區(qū)域大小都定義為2×2 且步長(stride,S)為2;為了能將Conv4 和Conv5 輸出的特征圖進行多尺度連接,設定 MP_4 的池化區(qū)域大小為 3×3 及步長為 1;Deconv表示反卷積層,其參數形式和卷積層相似,MSF-CNNs中使用一個反卷積層將Conv4 和Conv5 進行多尺度連接后的特征圖上采樣到輸入圖像分辨率的1/4,因此能夠進一步將Deconv 輸出的特征圖和Conv3 輸出的特征圖進行多尺度連接;圖 2 中的多尺度級聯操作通過多尺度級聯操作能夠將不同卷積層輸出的相同分辨率特征圖在通道上連接起來,其目的是能夠將低層次特征圖和高層次特征圖進行共享,進而減少參數的數量和訓練數據,并加快訓練速度。在整體的分割流程中把 3 組卷積神經網絡在Conv7 上輸出的特征圖連接起來,并且經Conv8 將連接之后的特征圖送入 SoftMax 進行像素點分類,完成對輸入作物病害葉片圖像的病斑區(qū)域分割問題。MSF-CNNs模型包括 3 個并聯的子卷積神經網絡,每組子網絡模型除了在卷積核尺寸和數量不同外其他的結構都相同,MSF-CNNs 模型的參數如表1 所示。
圖2 多尺度融合卷積神經網絡(MSF-CNNs)模型結構Fig.2 Structure of the Multi-Scale Fusion Convolutional Neural Networks (MSF-CNNs)
表1 多尺度融合卷積神經網絡模型參數Table 1 Parameters of Multi-Scale Fusion Convolutional Neural Networks
MSF-CNNs 模型的關鍵技術包括雙三次插值算法、多尺度卷積單元和批歸一化算法,下面分別對其進行介紹。
1)雙三次插值算法。常用的語義分割模型例如FCNs、SegNet 和U-Net 等網絡模型都使用原始的雙線性插值算法作為反卷積層,用于恢復輸入圖像的尺寸和分辨率。盡管雙線性插值算法較為簡單,但無法完整的恢復圖像的細節(jié)特征,因此在MSF-CNNs 中引入了九點雙線性插值算法作為反卷積層,從而恢復輸入圖像的底層信息和高層信息。在使用雙三次插值的過程中,分別對垂直方向和水平方向進行的卷積操作進行多次一維插值來實現二維的雙三次插值算法。二維的九點雙線性插值算法實現步驟如下,首先定義輸入圖像為F,圖像尺寸定義為M×N;然后對經過卷積層運算得到的特征圖在垂直方向和水平方向進行插值運算;最后定義插值后的圖像為G,經過插值后的圖像尺寸為S×T。則圖G 中任意一個像素(x,y)的值g(x,y)可以利用該像素的 16 個鄰近像素點的加權疊加如式(1)所示
式中aij為加權系數,u(x)為雙三次插值函數如式(2)所示
式中g(x,y) 為插值后的圖像在(x,y)處的像素值。
2)多尺度卷積層結構。由于作物病害葉片的病斑區(qū)域尺寸不一致,因此在MSF-CNNs 中引入多尺度卷積核結構,該結構是通過在網絡卷積層中使用多個尺度不同的卷積核對輸入圖像進行多尺度特征提取,然后通過特征融合層對多尺度特征圖進行空間融合。多尺度卷積層包括尺度不同的卷積核與特征平面組成多尺度特征信息,當低層特征圖的信息輸入到高層時,在高層中分別使用不同尺寸的卷積核對低層特征圖進行卷積操作,同時為了確保多尺度卷積核的輸入與輸出之間的空間特征信息不變,特征圖則依據卷積核尺寸的大小進行邊緣填補。多尺度卷積核結構如圖3所示,包含了 4 種不同尺寸的卷積核,其尺寸大小分別為9×9、7×7、5×5 和 3×3 的卷積核。
圖3 多尺度卷積核結構Fig.3 Multi-scale convolutional kernel structure
3)批歸一化(Batch Normalization,BN)。BN 是Google 于2015 年提出的用于深度神經網絡訓練的技巧,它不僅可以加快模型的收斂速度,而且在一定程度上緩解了訓練過程中的過擬合問題,從而使得訓練深層網絡模型更加容易和穩(wěn)定。BN 算法主要包括以下3 個步驟:
步驟1:計算統(tǒng)計值。計算樣本數據集歸一化所需的均值和方差。假設輸入為x∈Rm×d,其中m表示當前批次的大小,即當前批次的訓練樣本數,d表示輸入特征圖的尺寸,則方差均值如式(4)所示
式中xk為第k批次的樣本,為第k批次的第i個樣本,Var(xk)表示方差,E(xk)表示統(tǒng)計均值。
步驟2:歸一化操作。把輸入向量中的每個元素當成獨立隨機變量單獨進行歸一化,即向量中的各個元素都單獨獨立,則歸一化計算如式(5)所示
步驟3:線性變換。單一的對數據進行歸一化會改變原本數據的特征或者分布,為了解決該問題BN 操作加入了參數γ和偏置β用于擬合數據的原始分布特性,則批歸一化計算如式(6)所示
式中γ(k)和β(k)分別表示第k批次的可學習參數,初始化為γ= 1、β= 0。
4)遷移學習。在CNNs 的特征提取過程中,淺卷積層能夠提取底層特征,例如輸入圖像的顏色,邊緣和形狀;隨著網絡層數的增加,網絡模型可以提取高級功能,例如圖像層次結構和紋理。從低級特征到高級特征,CNNs 具有從固定的特征過渡到圖像的不變特征提取,而傳統(tǒng)的遷移學習策略沒有進一步探討特征等級與樣本數據大小和特征相似性之間的關系。為了提高 MSF-CNNs的訓練效率,采用一種漸進式微調的遷移學習策略用于網絡模型訓練,其結構如圖4 所示。
如圖4 所示,基于漸進式微調的遷移學習訓練步驟為:
步驟1:首先對僅參與的卷積層結構進行參數隨機初始化。
步驟2:在網絡模型非線性特征分類器的基礎上,將不同的卷積層中權值參數進行逐層釋放,直到整個網絡模型被訓練為止。
步驟3:對各層進行微調后,定量分析損失值的變化率,然后確定微調的卷積層參數。
在使用漸進微調的遷移學習方法對模型進行訓練時其定量分析損失值是通過損失函數來分析的其具體操作為首先將原始模型在 ImageNet 數據集中進行參數預訓練,然后使用二分類的SoftMax 函數替換1 000 分類的SoftMax 層,計算如式(7)所示
式中c表示模型最后一層神經元個數,一般為數據的分類數,iη表示第i個神經元的線性輸出,經過Sigmoid 激活函數后輸出預測值si。
訓練過程中選取二分類交叉熵作為損失函數,計算如式(8)所示
圖4 基于漸進式微調的遷移學習訓練流程Fig.4 Transfer learning training process based on incremental fine-tuning
5)全新學習。全新學習是指對網絡模型的所有權重參數進行重新訓練,隨機初始化網絡權重參數,使用概率分布對參數賦予初值,在訓練的過程中通過反向傳播算法對權重參數進行優(yōu)化。盡管能夠有效減少模型的訓練時間,提高學習能力,但沒有進一步探討特征等級與樣本數據大小和特征相似性之間的關系。全新學習能夠克服遷移學習的不足。
為了驗證MSF-CNNs 的有效性,將MSF-CNNs 應用于黃瓜病害葉片圖像分割,并與其他模型進行比較。網絡模型訓練與測試的軟件環(huán)境為Ubuntu 16.04 LTS 64 位操作系統(tǒng),使用python 作為編程語言,Tensorflow 作為深度學習開源框架。試驗硬件環(huán)境為 Intel E5-2665C2 @3.20GHz CPU,64GB 內存;Nvidia 1070Ti,8GB 顯存。使用CUDA Toolkit 9.0和 CUDNN V8.0作為網絡模型訓練加速工具包;python 版本為3.5,Tensorflow 版本為1.9.0。在網絡模型的訓練過程中首先將訓練集和測試集圖像分為多個批次(batch),綜合考慮計算機的硬件環(huán)境,本研究在試驗過程中將批次大小設置為 64,將所有訓練集圖像在網絡模型中完成遍歷設置為一次迭代(epoch)。設置網絡模型初始學習率為0.01,正則化系數設置為0.001,隨著epoch 次數的增加,學習率遵循指數衰減的原則依次減小為原來的 0.05倍。使用貝葉斯函數對網絡模型權重參數進行初始化,隨機生成均值為0,方差為1,遵循正態(tài)分布的權重參數。
作物葉部病害數據集中對全新學習(new learning)、遷移學習(transfer learning)和漸進微調的遷移學習(Progressive Fine-Tuning Transfer Learning,PFTL)3 種訓練方式進行訓練效果對比(圖5)。在訓練誤差都為0.000 1時,3 種訓練方式的訓練時間分別為8.4、6.5 和5.4 h。
由圖 5 可見,在全新學習的訓練模式下,模型經過500 次迭代時的分割準確率僅為 0.67,當迭代次數達到1 000 時,分割準確率達到0.73,但模型已具有收斂的趨勢,當完成迭代訓練后,模型準確率僅為 0.92,表明模型的訓練效果較差。在使用遷移學習對模型進行訓練時,模型經過 500 次迭代時準確率達到 0.71,具有初步分割病害葉片的能力。在前 500 次的迭代訓練過程中,模型迅速收斂,當迭代次數達到 500 次時,模型分割準確率已與全新學習的訓練模式下的完成 1 000 次迭代的準確率相同,表明遷移學習能夠節(jié)省模型訓練時間。在使用漸進微調的遷移學習方法對模型訓練的過程中,模型經過 500 次迭代時準確率達到 0.75,當訓練迭代次數達到1 000 次時,模型的分割準確率達到0.88,表明使用漸進微調的遷移學習方式對網絡模型進行訓練,能夠有效提高模型的訓練速度和識別準確率。
圖5 3 種模型訓練方法結果比較Fig.5 Comparison of results of three model training methods
在作物病害葉片圖像分割過程中,首先手動標記每個待訓練的原始病害葉片圖像,其中將圖像中的目標區(qū)域標記為前景,其余的部分標記為背景。然后通過編碼結構的卷積層提取標注后的圖像特征,使用池化層對卷積層提取的特征圖進行下采樣,最后通過激活層來增強模型的特征表達能力。解碼結構包括上采樣層、卷積層和反卷積層,其中上采樣用于恢復由池化引起的特征信息損失,反卷積用于恢復輸入圖像的尺寸和特征分辨率。在經過編碼結構和解碼結構后,使用SoftMax 對圖像像素進行分類,并輸出分割結果。MSF-CNNs 模型訓練過程、可視化結果如圖6 所示。
圖6 多尺度融合卷積神經網絡(MSF-CNNs)訓練過程和可視化Fig.6 Training process and visualization of the Multi-Scale Fusion Convolutional Neural Networks (MSF-CNNs)
在網絡訓練的過程中選擇不同的超參數對網絡模型的訓練速度和識別精度均有不同程度的影響,首先在研究的過程中分析固定學習率和指數衰減學習率對網絡模型性能的影響(圖7)。
由圖7 可知,設置學習率取固定值0.01 時,模型的訓練速度加快,當迭代次數達到 800 次時,損失函數曲線仍在下降,但損失函數曲線起伏較大,表明模型的訓練過程不穩(wěn)定,當迭代完成后,模型的識別準確率為0.91。在使用以指數衰減(index decay)為原則調整學習率時,損失函數曲線下降速度較快,而且?guī)缀鯖]有震蕩現象發(fā)生,表明模型的訓練過程較為穩(wěn)定,當完成1 000 次的迭代訓練時,模型的分割達到 0.986。因此在 MSF-CNNs模型的訓練過程中使用指數衰減的形式調整學習率。
為驗證所提出模型的魯棒性,分別使用不同分割算法在多種復雜背景下的作物病害葉片圖像上進行分割試驗,其中復雜背景主要包括待分割圖像中存在土壤背景、葉片遮擋、多個葉片、葉片殘缺、病害粘連、光照條件復雜等情況。針對每種復雜背景選取20 幅圖像共120 幅圖像進行魯棒性對比試驗。圖8 為圖1 的分割結果。由圖 8 可以看出,在多種復雜背景下的分割結果中,MSF-CNNs 模型幾乎不受環(huán)境的影響,能夠有效的分割出作物葉片的病斑區(qū)域。所以,MSF-CNNs 通過所構建的編解碼結構有效的提取了輸入圖像的多尺度特征,不僅能夠準確的分割病斑區(qū)域的輪廓區(qū)域,而且對病斑的細節(jié)區(qū)域也能完成準確分割。
圖7 超參數對模型性能的影響Fig.7 Influence of super-parameters on model performance
為了驗證 MSF-CNNs 模型對于病害葉片圖像分割的性能,將其在真實采集的作物病害葉片圖像數據庫種進行分割試驗,并將其與現有的分割方法 FCNs、SegNet、U-Net、DenseNet 進行比較[21-22]。在對試驗結果進行分析的過程中,為了量化模型的性能分別使用像素分類精度(Pixel-classification Accuracy,PA)、平均精度(Mean Accuracy,MA)、平均交并比(Mean Intersection Over Union,MIoU)和頻率加權交并比(Frequency Weighted Intersection Over Union,FWIoU)作為綜合評價指標,分割結果如表 2 所示。
圖8 不同環(huán)境下作物病害葉片分割結果Fig.8 Cucumber disease leaf segmentation results in different environments
表2 不同分割方法的分割評價指標Table 2 Segmentation results of the different segmentation methods
由表2 可知,MSF-CNNs 方法的 PA、MA、MIoU和FWIoU 值最高,分別為92.38%、93.12%、91.36%和89.76%,MSF-CNNs 的 MA 比 FCNs、SegNet、U-Net、DenseNet 分別提高了13.00%、10.74%、10.40%、10.08%和6.40%。FCNs 使用反卷積過程恢復圖像分辨率優(yōu)化分割結果,但該方法的下采樣操作弱化了模型的特征提取能力,導致其對小面積病斑區(qū)域的分割能力較差,因此其分割性能指標較差。SegNet 是基于空洞卷積的分割模型,空洞卷積能夠擴大原始卷積核的局部感受野,但有些病斑區(qū)域在整體葉片中所占比例較小,所以這2 種分割方法在性能評價指標上均落后于MSF-CNNs。根據以上結果能夠判斷MSF-CNNs 具有較好的分割效果,對病斑區(qū)域的分割結果最接近于真實值,能夠滿足自然狀態(tài)下對病害葉片圖像分割的高精度要求。但是由于作物葉片圖像的病斑區(qū)域邊界較為復雜且所占面積較小,同時部分病斑區(qū)域與正常區(qū)域的相似度較高,導致正常區(qū)域邊界與病斑區(qū)域邊界難以區(qū)分,所以從表 2 中看出MSF-CNNs 的分割性能評價指標值仍然較低。
黃瓜病害葉片中的病斑區(qū)域分割是病害檢測與類型識別的關鍵步驟,分割效果將直接影響病害檢測和識別的精度。針對傳統(tǒng)方法對于黃瓜病害葉片圖像分割精度低的問題,提出一種多尺度融合卷積神經網絡(Multi-Scale Fusion Convolutional Neural Networks,MSF-CNNs)用于黃瓜病害葉片分割。MSF-CNNs 由編碼網絡(Encoder Networks,ENs)和解碼網絡(Decoder Networks,DNs)2 部分組成,其中ENs 為一個多尺度卷積神經網絡組成,用于提取病害葉片圖像的多尺度信息;DNs 基于九點雙線性插值算法,用于恢復輸入圖像的尺寸和分辨率。在模型訓練的過程中,使用一種漸進微調的遷移學習方法加快網絡模型的訓練速度和分割精度。在復雜背景下的作物病害葉片圖像數據庫上進行分割試驗,并與現有的全卷積網絡(Fully Convolutional Networks,FCNs)、SegNet、U-Net、DenseNet 深度學習模型進行比較。結果表明,該方法能夠滿足復雜環(huán)境下的黃瓜病害葉片圖像分割需求,像素分類精度為92.38%,平均分割準確率為93.12%,平均交并比為91.36%,頻率加權交并比為89.76%。其中,平均分割準確率比FCNs、SegNet、U-Net 和 DenseNet 分別提高了 13.00%、10.74%、10.40%、10.08%和 6.40%。使用漸進學習訓練方式后,訓練時間縮短了0.9 h。本方法為進一步的黃瓜病害識別方法研究提供了參考。