中圖分類號:S663.1;TP391.41 文獻標識碼:A 文章編號:2095-5553(2025)08-0121-07
Abstract:Grape diseases pose a significant chalenge to grape growers worldwide.To met the dems intellgent agricultureaddressthelimitations loweficiencyreliabilityin grape disease detection,thisstudy propoeda real-time,high-performance detectionmodel basedonan improvedYOLOX algorithm.The model was improved by integratinganoptimized Spatial PyramidPooling(SPP)layer,which efectively extractedrelevant featuresat multiple scalesbyconcatenating multi-level features fromsmallto largescales.Onthetesteddatasets,theimproved model achieved an average accuracy 98.59% ,marking a 6.72% improvement over the original YOLOX model. Furthermore, comparative evaluations with five clasic object detection algorithms (YOLOv4,YOLOv5,YOLOv7,YOLOv8 YOLOX)revealed that the improved model achieved mean Average Precision (mAP )improvements 23.33% , 19.78% , 7.62% , 5.96% 6.62% ,respectively. This approach demonstrated strong potential for improving grape diseasemanagement,reducing economic losses,ering valuable insights forthe developmentautomated disease detection systems for other crops.
Keywords: grape;YOLOX model; disease detection; image classification;deep learning
0 引言
葡萄病害是全球葡萄種植者面臨的重大問題,會對經(jīng)濟造成巨大損失[1]。這些病害由多種因素引起,包括細菌、病毒、真菌和害蟲,會影響葡萄樹的不同部位,如葉子、莖和果實。葡萄病害在早期階段是最容易治療的,但是挑戰(zhàn)在于這一階段的病害很難被檢測。傳統(tǒng)的檢測方法依賴于訓練有素的專家進行人工檢查,這樣的方法耗時且容易出錯,可能導致治療延誤和經(jīng)濟損失增加[2]。
為解決這個問題,計算機視覺[3和深度學習技術(shù)[4]得到廣泛應用。研究人員提出了許多創(chuàng)新的方法和模型來自動化葡萄病害的檢測和分類[5]。侯文慧等[6]提出基于輕量化U一Net網(wǎng)絡的果實壟間路徑識別方法,解決了準確性與實時性難以兼顧的問題,提高了泛化能力。張士豪等提出一種基于遠近組合視覺法的并生芽與副芽視覺識別方法,通過應用歐幾里得距離算法,實現(xiàn)復芽的精確識別與定位。寧政通等提出一種基于深度學習的葡萄果梗識別與最優(yōu)采摘定位方法,通過改進神經(jīng)網(wǎng)絡結(jié)構(gòu),提高采摘機器人在果園環(huán)境中的識別與定位精度。何東健等9提出了一種改進的殘差網(wǎng)絡模型,用于田間葡萄霜霉病的識別和病害程度分級,以解決傳統(tǒng)方法低效和滯后的問題。謝圣橋等[10]研究利用遷移學習和數(shù)據(jù)增強技術(shù),改進了ResNet50模型,實現(xiàn)了小樣本數(shù)據(jù)下葡萄病害圖像的精準分類,通過亮度變換等處理增強數(shù)據(jù),提高識別效果。李翠玲等[11]提出一種結(jié)合語義分割、K—means聚類和隨機森林算法的葡萄霜霉病檢測分級方法,以解決自然環(huán)境下的檢測分級困難,通過構(gòu)建數(shù)據(jù)集和采用HRNet模型,實現(xiàn)對霜霉病的快速分級。季余康等[12]使用DeepLab v3+ 算法完成葡萄葉片在自然光照環(huán)境下的圖像分割,使用ResNet1O1進行特征抽取,通過空洞卷積和編碼模塊提升性能。李康順等[13]提出一種基于卷積注意力機制改進的YOLOX—Nano模型,用于農(nóng)作物葉片病害的智能檢測與識別,旨在實現(xiàn)精確迅速的診斷,降低人工成本和病害影響。
由于目前針對霜霉病、褐斑病等多種葡萄葉片病害識別的模型較少,現(xiàn)有的識別模型針對的病害類型大多是相同的兩、三種病害,雖識別精度較高,但檢測時間較長。為解決上述問題,本文引入一種改進的空間金字塔池化(SPP)層以改進YOLOX模型,使其專注于從訓練數(shù)據(jù)中提取多尺度相關(guān)特征。對改進后的模型進行訓練,并對訓練好的模型進行消融實驗、性能分析試驗、誤差分析試驗及對比試驗。
1材料與方法
1.1 數(shù)據(jù)集采集
為識別葡萄葉部的主要病害,包括褐斑病、黑腐病、房枯病、霜霉病以及健康葡萄葉片,使用的數(shù)據(jù)集由互聯(lián)網(wǎng)公開圖像及在嶗山葡萄種植基地采集的圖像組成,均采用高分辨率數(shù)碼相機在控制照明下拍攝。此外,為增加數(shù)據(jù)多樣性,從PlantVillage、Plantpathology公開數(shù)據(jù)集中補充500張圖像。這些圖像經(jīng)過預處理,包括刪除重復內(nèi)容、調(diào)整至640像素 x 640像素的統(tǒng)一分辨率,并轉(zhuǎn)換為JPEG格式,最終得到健康圖像423張、褐斑病2360張、黑腐病2536張、房枯病2458張、霜霉病1377張。圖1展示的數(shù)據(jù)集示例反映各種病害類型的多樣性,旨在提高葡萄葉片病害檢測的準確性和效率,為葡萄種植業(yè)提供有效的智能化解決方案,同時也為其他作物病害檢測的研究提供有價值的參考。
圖1病害圖片F(xiàn)ig.1 Picture the disease
1.2 數(shù)據(jù)預處理
在數(shù)據(jù)預處理的初步階段,消除輸入數(shù)據(jù)不必要的背景細節(jié)并確保類別間的平衡。由于采集的樹葉圖像是在實際的野外條件下拍攝的,包含土壤、樹枝等各種背景元素。為提高檢測機制的效率,專注于提取含有疾病的葉面積,同時去除背景信息。
采用GrabCut[14]算法,這是一種基于機器學習的技術(shù),通過最小的用戶干預有效地移除不需要的背景。用戶定義一個窗口,窗口外的區(qū)域被視為確定的背景,而窗口內(nèi)可以包含前景和背景元素。如式(1)所示,使用高斯混合模型(GMM)來估計前景和背景的顏色分布,這些分布被假設(shè)為正態(tài)分布。此方法的應用大大簡化了后續(xù)的處理步驟,確保對疾病葉片的有效和準確檢測。
式中: P —前景顏色分布;(204號 k′ ——前景和背景高斯分布的個數(shù);Ci ——像素鄰域的集合。對于前景中的每個像素 kn ,定義為kn=argminDn(Yn,kn,Xn)
式中: Dn ——像素維度函數(shù);Yn —類別標簽;Xn —觀測數(shù)據(jù)。GMM的參數(shù) θ 為θ=argminU(γ,k,θ,x)
式中: U ——對數(shù)似然函數(shù);Y 前景像素為1,背景像素為0;θ 像素在高斯混合坐標系中的極角;x 像素在高速混合坐標系中的列向量。
繼續(xù)數(shù)據(jù)預處理的下一步,在由GMM分配的標簽上構(gòu)建一個馬爾可夫隨機場(MRF)[15]。MRF的成本函數(shù)是基于擁有相同標簽的相連區(qū)域來計算的。隨后,通過執(zhí)行圖形切割優(yōu)化,將頂點劃分為前景和背景2個部分。這一步驟對背景的移除進行精細調(diào)整,確保在整個過程中保持高效和準確。此過程將重復進行,直至收斂,從而實現(xiàn)對背景信息的有效去除,為疾病檢測機制提供更清晰的視覺輸入。
圖2為使用標準GrabCut算法刪除背景的流程。該算法成功地去除受感染葉片以外的背景信息。去除背景后的圖像會被注釋,然后進行圖像增強技術(shù),如翻轉(zhuǎn)、旋轉(zhuǎn)和亮度增強。這有助于提高模型的訓練性能,并防止過度擬合。
錨框使用LabelImg注釋工具[16手動繪制。在標記錨框之前,病變區(qū)域的標簽被仔細標記。為避免空區(qū)域,手動用相應的標簽標記矩形錨框。由于存在重疊癥狀,幾個錨框的邊緣有重疊。大約 80% 的圖像集用于訓練和驗證,其余用于測試。在模型輸入中以PascalVOC格式導人圖像,其中包含XML文件中的圖像本地化和注釋細節(jié)。該文件包含每個框的邊界框坐標、高度、寬度和類別標簽。對于每個圖像,在導入模型用于訓練、驗證或測試時,都有一個相關(guān)的XML文件。
使用的數(shù)據(jù)集包含不同角度和大小的圖像。為適應這種多樣性,實施一種自動定向操作,以確保邊界框始終固定于感興趣的對象上,不受后續(xù)增強步驟的影響。此外,根據(jù)YOLO模型的要求,圖像被調(diào)整至640像素 x 640像素的統(tǒng)一分辨率。為應對數(shù)據(jù)集不平衡的問題并避免過度擬合,選擇包括水平翻轉(zhuǎn)、平移、亮度調(diào)整和噪聲添加在內(nèi)的圖像增強步驟,如圖3所示。
圖3圖像增強 Fig.3Image enhancement
這些增強措施不僅擴大了數(shù)據(jù)集的規(guī)模,還為在不同光照條件下捕獲的圖像提供更多樣化的表現(xiàn)。在隨機應用這些增強措施后,數(shù)據(jù)集的總量增加至6 777張圖像。所有這些預處理步驟均通過LabelImg數(shù)據(jù)服務完成。
1.3 YOLOX算法簡介
YOLOX是一種無錨點檢測器,在速度和精度方面都表現(xiàn)出了卓越的性能。YOLOX的頭部與原始檢測器分離,以在訓練過程中實現(xiàn)更好的收斂。其無錨點可顯著減少可訓練參數(shù)的數(shù)量。此外,使用SimOTA進一步改進標簽分配策略,有助于解決OptimalTransport(OT)問題并減少訓練時間。YOLOX算法適用于精準檢測葉片上的疾病癥狀。
提出的檢測方法是基本YOLOX模型的改進版本,如圖4所示,所提出模型的主要部分是用于進行特征提取的CSPdarknet骨干網(wǎng)絡。在特征金字塔網(wǎng)絡(FPN)部分執(zhí)行增強特征融合。從3個特征層獲取的特征被上采樣以執(zhí)行特征融合,然后被下采樣以在分類和回歸任務中進行分類。聚焦模塊是有效提取特征的主要組成部分之一。為保留目標特征信息,輸入圖像被切成4個部分并被連接以可視化特征深度。在下一步驟中,即BottleneckCSP層中更精確地提取深度特征。特征映射通過卷積、相應的批量歸一化和激活操作傳遞。在訓練期間,使用高級數(shù)據(jù)增強技術(shù),以學習更小且重疊的癥狀。使用非最大值抑制(NMS)技術(shù)避免多重檢測。
圖4提出的YOLOX模型的體系結(jié)構(gòu)
Fig.4 Architecture the proposed YOLOX model
FPN的輸出被傳遞至解耦合頭部,而解耦合頭部包含3個不同尺度的YOLOX分離頭部。這些分離的頭部分別存儲類別、位置以及目標性信息于3個獨立的張量中。鑒于存在3種不同的輸出,相應地,將針對這3種輸出分別處理3個獨立的損失函數(shù)。使用logits的二元交叉熵(BCE)損失定義地面實況和預測類之間的建模誤差。使用sigmoid激活函數(shù)將所有正面預測篩選出來?;貧w分支的輸出形狀為高度 (H)× 寬度 (W)×4 ,其中預測邊界框的坐標為 (x,y,w,h) 。YOLOX使用交并比 IoU 度量標準來預測邊界框輸出,并將其與實際邊界框進行比較。
1.4改進的空間金字塔池化(SPP)層設(shè)計
目標定位和分類是計算機視覺應用中的2個重要步驟。使用損失函數(shù)來評估機器學習模型在圖像/場景中定位目標的準確性。傳統(tǒng)的單階段和雙階段檢測器使用邊界框回歸技術(shù)來實現(xiàn)這一目的。早期的檢測模型使用了LN一Norm損失函數(shù),最近已經(jīng)被交并比定位損失所取代,其計算如式(4)所示。如果2個框完全重疊, IoU 為1。
式中: A 1 -真實邊界框的面積;B 二 一預測邊界框的面積。
SpatialPyramidPooling(SPP)模塊的原始結(jié)構(gòu)如圖5(a)所示,該模塊用于匯總原始YOLOX模型主干中提取的重要特征信息。提出一種改進的空間金字塔池化(SPP)塊,用于優(yōu)化YOLOX模型,當存在重疊疾病區(qū)域時,提取更具意義的特征。改進的SPP模塊的內(nèi)部結(jié)構(gòu)如圖5(b)所示。
圖5原始空間金字塔池化(SPP)模塊與改進的YOLOXSPP模塊
Fig.5PrimitiveSpacePyramid Pooling(SPP)module theimproved YOLOX SPP module
首先,輸入傳遞至Convl層,通過通道池化減小輸入特征圖的尺寸,將其轉(zhuǎn)換為 20×20×512 的張量。然后,該張量通過多個最大池化操作進行處理,以提取不同空間尺度上的特征。這些最大池化操作描述如式(5)所示。提出的改進SPP塊中還包含一個額外的并行池化模塊,通過較小的池化內(nèi)核在較小的感受野內(nèi)聚合深度特征。
Oi,j=max(H,W,HK,WK)HK∈H,WK∈W (5)式中: Oi,j —輸出張量;HK 1 一內(nèi)核高度;WK ——內(nèi)核寬度;i. 輸出張量高度;j? 輸出張量寬度。
4個MaxPool層的輸出張量大小相同,計算如式(6)所示,并使用不同的填充大小以保持輸出特征映射的大小,如表1所示。
式中: nout. (20 輸出特征映射量;nin. 輸入特征映射量;P 填充量;K 核大小;S- 步長。
表1改進的SPP模塊中各卷積層的參數(shù) Tab.1 Parameters each convolutional layer in the improved SPP block
將信息進行拼接以得到 20×20×2 048 的輸出特征映射,如式(7)所示。
式中:Y SPP模塊的轉(zhuǎn)換張量;
k—張量通道數(shù)。
通過增強輸人特征圖的感受野來提出改進的SPP模塊。這些并行層具有不同的較小的內(nèi)核尺寸、步幅和填充,詳見表1。使用較小到較大的內(nèi)核尺寸對特征進行聚合,傾向于保留特征細節(jié),然后使用如圖5(b)所示的連接操作來保留這些特征。聚合得到的空間信息作為 Yi,j,k ,Concat操作后輸出特征映射的大小為 20× 20×2 048 ,再進行 1×1 卷積,將特征映射大小返回到
1024,使得輸出與輸入特征映射大小保持一致。為避免梯度消失導致的過擬合,使用標識跳過連接來保留初始層中的信息,并執(zhí)行矩陣加法,如式(8)所示。
Zi,j,k=τ(Yi,j,k)+Xi,j,k
式中: Xi,j,k —SPP模塊的輸入張量;(204號 Zi,j,k —SPP 模塊的輸出張量;T -權(quán)重函數(shù)。
2 結(jié)果與分析
2.1試驗超參數(shù)設(shè)置與評價指標
所有試驗均采用Intel(R)Core(TM)i9-8950HK4.50GHzCPU和NVIDIA3080TiGPU在Windows10操作系統(tǒng)下進行。試驗工作臺的完整細節(jié)見表2。在安裝所需的庫和存儲庫后,建立試驗環(huán)境。數(shù)據(jù)集被導人到筆記本電腦中,并為YOLOX下載VOC數(shù)據(jù)集的預訓練權(quán)重。提出的模型使用表2提到的超參數(shù)訓練100個epoch。在批處理大小為32的情況下,保存訓練后獲得的最佳權(quán)重,并進一步用于測試提出的模型在測試圖像上的性能。為了試驗目的,將數(shù)據(jù)集中的圖像大小調(diào)整為640像素 ×640 像素。最后, 80% 的圖像用于訓練和驗證,剩下的 20% 用于測試。
表2用于訓練的超參數(shù)摘要 Tab. 2 Summary hyperparameters used for training
使用Mixup[17]和Mosaic[18]數(shù)據(jù)增強技術(shù)對上述數(shù)據(jù)集進行增強。使用基礎(chǔ)學習率為0.01的隨機梯度下降(SGD)算法來優(yōu)化模型性能,使用動量為0.9,并且權(quán)重衰減為0.0005。余弦學習被用作默認的學習率調(diào)度器。訓練過程通過多個指標來分析模型性能。為有效區(qū)分重疊的癥狀,NMS閾值被保持在0.65。對于分類和物體性質(zhì),使用BCE損失與logits。在推理期間,使用sigmoid激活代替類概率可以提供更穩(wěn)定的結(jié)果。對于邊界框回歸損失,使用正則損失函數(shù) Lao
訓練性能被監(jiān)控,以提高收斂速度和對自采集數(shù)據(jù)集中共存的疾病癥狀及嚴重程度類別的檢測性能。檢測模型通常使用的指標是平均精度均值 (mAP) !表示交并比 (IoU) 閾值為 50% 時所有類別的精度。平均精度均值計算如式(9)所示。
式中: APi —平均精度;i 一不同的病害類型, i=1,2,…,5 。
2.2 消融實驗
為驗證對池化層采用的2種改進手段的有效性,進行消融實驗,表3中操作1和操作2分別為對池化層增加1個并行池化模塊和對池化層增加1個加法矩陣。
表3消融實驗 Tab.3Ablationtest
由表3可知,采用的2種對池化層進行改進的操作均顯著提高了檢測精度,雖損失了少量的檢測時間,但模型仍能實現(xiàn)實時檢測,同時,使用2種優(yōu)化方法優(yōu)化后的池化層對YOLOX進行改進后的模型能夠在保證實時性的情況下,實現(xiàn)對葉片病害的高精度檢測。
2.3 結(jié)果分析
為提升檢測的平均精度,選擇最優(yōu)閾值。該閾值被設(shè)定為既不會過低以減少誤報,又足夠高以確保不遺漏真實的預測結(jié)果。因此,在評估測試結(jié)果后,置信度閥值被保持在0.25。ImprovedYOLOX在測試數(shù)據(jù)集上的檢測性能如圖6所示。
圖6測試結(jié)果 Fig.6 Test results
每個預測的邊界框標記測試圖像中的置信度分數(shù)。該分數(shù)顯示了分類和定位的置信度。盡管在處理小范圍或密集排布的病害目標時,改進的檢測模型可能出現(xiàn)誤檢、漏檢或重檢情況,但綜合試驗結(jié)果顯示,這些問題對于模型的整體檢測性能并未產(chǎn)生顯著影響。
2.4 誤差分析
從圖7(a)可以看出,由于分布在邊緣的小范圍區(qū)域,模型并未能識別出位于葉片左下角及右下角的小區(qū)域病害;從圖7(b)可以看出,葉片上病害的分布過于密集,導致模型對葉片左下角及右側(cè)的幾處病害進行了重疊識別。但上述問題僅出現(xiàn)在極少數(shù)情況下,且對于模型的整體檢測性能并未產(chǎn)生顯著影響,并不妨礙改進后的YOLOX模型實現(xiàn)實時且高精度的葡萄葉片病害識別。
圖7誤差分析Fig.7 Error analysis
2.5 對比試驗
YOLOX模型使用與SPPanchor-free機制19相同的基線模型。此外,觀察到解耦頭部有助于降低收斂速度,這一點在將所用的YOLOX模型與在葡萄病害數(shù)據(jù)集上訓練和驗證的YOLOv4、YOLOv5、YOLOv7和YOLOv8模型的性能進行比較時得到驗證。從表4可以看出,雖然YOLOv4、YOLOv5、YOLOv7和YOLOv8的推斷速度要快得多,但檢測精度卻受到了影響。
Anchor-free機制降低訓練過程中的復雜性及潛在瓶頸,由此使得標準YOLOX模型和改進YOLOX模型在所使用的數(shù)據(jù)集上展現(xiàn)更優(yōu)越的收斂性能。使用原YOLOX和改進YOLOX模型進行訓練時,總損失變化及 mAP 值對比結(jié)果如圖8所示。
原YOLOX模型在最后30個epoch中未能收斂,如圖8(b)所示。這導致原YOLOX模型的平均精度均值較低 (91.87% ),相比之下,改進后的YOLOX模型的平均精度均值為 98.59% 。為提高檢測性能,在原YOLOX的SPP模塊中添加了SE塊。YOLOX一SE模型的訓練性能在最后2O個訓練epoch中明顯出現(xiàn)了過擬合,模型推理速度較差。原YOLOX的推理時間略優(yōu),但對于多個類別進行了誤分類。
表4模型結(jié)果比較Tab.4 Model comparison results
雖然改進后的YOLOX模型的推理速度相較于其他模型慢一些,但其仍滿足實時檢測的要求,且改進后的YOLOX模型的檢測精度較其他模型有著較大的提升,滿足實時檢測的同時,保持較高檢測精度。
最后應用Grad一CAM可視化技術(shù),對YOLOX模型的原始版本和改進后的YOLOX模型進行對比研究和分析。這種方法能從視覺角度評估改進模型的有效性。通過圖9展示的模型對葉片關(guān)鍵區(qū)域關(guān)注的變化,可以更加直觀地看到模型性能的提升。
圖9改進前后模型對葉片重點位置關(guān)注能力可視化 Fig.9 Visualization the model's focus on key locations theleaves before after improvement
3結(jié)論
1)通過采用不同池化率聚合多尺度特征,本框架顯著提高在捕捉病害細節(jié)方面的能力。殘差連接的引人保留關(guān)鍵的空間信息,對于改進模型處理相似和重疊病癥的能力尤為關(guān)鍵。對重疊和共存病害類別進行特殊的優(yōu)化,有效提升模型處理這類復雜情況的能力。
2)經(jīng)過嚴格的試驗驗證,該框架在葡萄葉片病害檢測和識別方面展現(xiàn)卓越的性能。改進模型平均精度均值達 98.59% ,相比標準YOLOX模型提高 6.72% 。特別在處理房枯病和黑腐病等重疊和共存病害時,改進模型表現(xiàn)出色,平均精度分別達到 96.85% 、98.56% 。這些成果驗證所提框架的有效性,并為植物病害自動檢測與診斷領(lǐng)域提供新的研究思路,對于推動植物病理學和精準農(nóng)業(yè)的發(fā)展具有重要意義。
參考文獻
[1]張苗苗,張雨晨,楊怡中,等.拮抗菌防治葡萄采后病害研究進展[J].食品工業(yè)科技,2024,45(9):410-418.Zhang Miaomiao,Zhang Yuchen,Yang Yizhong,et al.Research progress on antagonistic antimicrobial prevention control grape postharvest diseases[J]. Science Technology Food Industry,2024,45(9): 410—418.
[2]莫光友,李永波,肖國學.黔南州葡萄生產(chǎn)田間管理規(guī)范[J].黔南民族師范學院學報,2010,30(6):54—57,65.
[3]盧宏濤,張秦川.深度卷積神經(jīng)網(wǎng)絡在計算機視覺中的應用研究綜述[J].數(shù)據(jù)采集與處理,2016,31(1):1—17.
[4]周飛燕,金林鵬,董軍.卷積神經(jīng)網(wǎng)絡研究綜述[J].計算機學報,2017,40(6):1229—1251.Zhou Feiyan, Jin Linpeng, Dong Jun.Reviewconvolutional neural network [J].Chinese Journal Computers,2017,40(6):1229—1251.
[5]黃鳳星.基于深度學習的葡萄病害識別研究[D].南京:南京信息工程大學,2022.
[6]侯文慧,周傳起,程炎,等.基于輕量化U—Net網(wǎng)絡的果園壟間路徑識別方法[J].農(nóng)業(yè)機械學報,2024,55(2):16-22.Hou Wenhui,Zhou Chuanqi,Cheng Yan,etal.Pathrecognition method orchard ridges based on lightweightU—Net [J]. Transactions the Chinese Society forMachinery,2024,55(2):16—22.
[7]張士豪,沈磊,宋利杰,等.基于RGB一D圖像的葡萄復芽識別定位方法[J].農(nóng)業(yè)工程學報,2023,39(21):172—180.Zhang Shihao,Shen Lei,Song Lijie,et al. Identifying positioninggrapecompoundbudsusingRGB-Dimages [J]. Transactions the Chinese Society ,2023,39(21):172—180.
[8]寧政通,羅陸鋒,廖嘉欣,等.基于深度學習的葡萄果梗識別與最優(yōu)采摘定位[J].農(nóng)業(yè)工程學報,2021,37(9):222-229.Ning Zhengtong,Luo Lufeng,Liao Jiaxin,et al.Recognition the optimal picking point location grapestems based on deep learning [J]. Transactions theChinese Society ,2021,37(9):222-229.
[9]何東健,王鵬,牛童,等.基于改進殘差網(wǎng)絡的田間葡萄霜霉病病害程度分級模型[J].農(nóng)業(yè)機械學報,2022,53(1): 235-243.He Dongjian,Wang Peng,Niu Tong,et al.Classificationmodel grape downy mildew disease degree in field basedonimproved residual network [J]. Transactions theChinese Society for Machinery,2O22,53(1) :235-243.
[10]謝圣橋,宋健,湯修映,等.基于遷移學習和殘差網(wǎng)絡的葡萄葉部病害識別[J].農(nóng)機化研究,2023,45(8):18—23,28.
[11]李翠玲,李余康,譚吳然,等.基于K—means聚類和RF算法的葡萄霜霉病檢測分級方法[J].農(nóng)業(yè)機械學報,2022,53(5):225—236,324.Liu Cuiling,Li Yukang,Tan Haoran,et al.Gradingdetection method grape downy mildew based onK—means clustering rom forest algorithm [J].Transactions the Chinese Society for Machinery,2022,53(5):225-236,324.
[12]李余康,翟長遠,王秀,等.基于DeepLabv3十的葡萄葉片分割算法[J].農(nóng)機化研究,2022,44(2):149—155.
[13]李康順,楊振盛,江梓鋒,等.基于改進YOLOX—Nano的農(nóng)作物葉片病害檢測與識別方法[J].華南農(nóng)業(yè)大學學報,2023,44(4):593—603.Li Kangshun,Yang Zhensheng, Jiang Zifeng,et al.Detection identification crop leafdiseases based onimproved YOLOX—Nano [J]. Journal South ,2023,44(4): 593-603.
[14]周良芬,何建農(nóng).基于GrabCut改進的圖像分割算法[J].計算機應用,2013,33(1):49—52.ZhouLiangfen,HeJiannong.Imagesegmentationalgorithm based on GrabCut improvement[J].Journal Computer Applications,2013,33(O1) : 49—52.
[15]李旭超,朱善安.圖像分割中的馬爾可夫隨機場方法綜述[J].中國圖象圖形學報,2007(5):789-798.LiXuchao,Zhu Shanan.ReviewMarkovromfieldmethods in image segmentation [J]. Journal Image Graphics,2007,(05):789-798.
[16]王景鑫,潘欣.一種基于Labelimg的輔助標注方法[J].科技創(chuàng)新與應用,2023,13(29):145—148.
[17]線巖團,陳文仲,余正濤,等.融合類別先驗Mixup數(shù)據(jù)增強的罪名預測方法[J].自動化學報,2022,48(8):2097—2107.
[18]解凱,郭恒業(yè),張?zhí)镂模畧D像Mosaics技術(shù)綜述[J].電子學報,2004(4):630—634.
[19]康宇哲,馮桂林,張易誠,等.基于無錨解耦頭的航空圖像旋轉(zhuǎn)目標檢測方法研究[J].計算機時代,