中圖分類號:S238 文獻標識碼:A 文章編號:2095-5553(2025)07-0138-07
Abstract:Inordertoaccuratelyidentifythemainveinoftobacoleaf,realizemechanicalgraspingandreducetherateof grasping damage,animprovedlightweightobaccoleaf mainveinsrecognitionmodelbasedonYOLOv7—tinywasproposedFirstly, theoriginaltrunk featureextractionnetwork isreplacedbyamore lightweight MobileNetV3basedonYOLOv7—tinynetwork, thedefaulth-swishactivationfunctioninthemoduleisreplacedbyReLUactivationfunction.Then,thecommonconvolutionof theneckisreplacedbyalightweightGSConvandaSlim—Neckdesignisadoptedtoompressthechannelofthemodelandeliminate theredundantfeatureredundancyinordertolightenthenetworkstructure.Atlast,theSIoUlossfunctionwas introducedtoreduce thelossvalueofthemodelandenhancethefusionabilityof themodeltothemainveinoftobaco.Theresultsshowedthatthemap value of the improved model on the tobacco leaf dataset was 91.3% ,at a cost of only 1.6% loss,the parameter quantity was reduced by 51.1% compared with the original model,and the computational load was 4.3G ,only 32.6% of the original model (13.2G). Compared with YOLOv5—s ( 16.5G ,YOLOv6—n(11.4G),Yolox—s (26.8G),YOLOv8—n(8.7G),and YOLOv9—t (7.7G),allofthemwereimproved.Theimprovedmodelcanbedeployedinthemarginalequipmentwithscarcecomputing resources,which provides some technical support for the mechanized harvesting of tobacco leaves.
Keywords:tobacco leaf main veins;lightweight;mechanized harvesting;accurate identification;marginal deployment
0 引言
有重要影響。隨著勞動力成本增長,煙葉生產正陷入缺少勞動力的困難局面,以替代人力為目的的煙葉生產機械化是現代煙葉農業(yè)發(fā)展的重要課題[1]。煙葉生煙葉是煙草工業(yè)的主要原料,對全球經濟發(fā)展具產條件的復雜性,具體表現在煙田的不規(guī)整性以及煙葉的易損性,導致機械化收獲時難免對煙葉造成一定的損害。為更好地解決上述問題,在煙葉生產機械上部署目標檢測模型,對煙葉的抓取部位實現精準抓取是降低煙葉破損率的有效措施之一,這要求對煙葉的主脈部位進行準確識別。近年來,農業(yè)領域應用圖像識別已成為一種趨勢,在煙葉的智能分級、品質檢測和成熟度檢測環(huán)節(jié)上已被廣泛使用,大多數以煙葉顏色、形狀、紋理特征與機器學習相結合的方法實現[2-4]。隨著計算機視覺的不斷發(fā)展,計算機深度學習憑借高速度和高精確度,對煙葉分組和識別的研究越來越多,但仍存在復雜煙葉主脈分析過程自動化低,在遮擋的情況下煙葉主脈難以被識別等問題[5,6]。
農業(yè)圖像識別的關鍵是尋找更強大的表征,只捕獲圖像中對于給定任務最顯著的屬性,從而提高模型的性能。YOLO是目前階段最有代表性的單階段檢測器,相比于R一CNN、FasterR一CNN等雙階段目標檢測算法擁有更快的檢測速度[7,8],更適用于農業(yè)工程領域[9]。2015年Redmon等[10]首次提出單階段目標檢測的概念,將目標檢測看作回歸問題,大大提高了目標檢測的效率,此后又依據FPN的思想,利用多尺度的特征圖來提高小物體檢測的精度,并在Backbone特征提取網絡中加人了殘差模塊,使模型提取到更深層次的特征[11-13]。YOLOv4[14]和YOLOv5[15]在框架上沒有大的改進,還是延續(xù)之前anchor-base的目標檢測方法,并集成其他優(yōu)秀的模塊對模型進行優(yōu)化,一定程度上降低了對訓練設備的要求。此外,YOLOv7[16]專注于優(yōu)化訓練過程,利用聚類得到預測框參數并轉變?yōu)槎ㄎ荒繕酥行狞c,在精度與anchor-base幾乎一致的前提下極大提高了訓練效率。
與傳統(tǒng)圖像識別相比,基于深度學習神經網絡的圖像識別模型在訓練時,通過卷積神經網絡自主學習特征[7]。李尚平等[18]通過增加 BIFPN 特征融合和CA 注意力機制使YOLOv5實現蔗梢分叉點在復雜環(huán)境下的精準識別。郭輝等[19將YOLOv5與空間定位結合起來對紅花的花冠進行目標檢測及空間定位,提高了紅花采摘機器人在田間的作業(yè)效率。對于目前檢測在移動端的部署,黃家才等[20]將YOLOv4主干替換為GhostNet,并將Neck中的卷積全部替換為Ghost輕量卷積,降低了目標檢測模型對硬件性能的需求。張楠楠等2]在YOLOv7的backbone和head之間加人CBAM注意力機制對棉葉進行病蟲害識別,改進后模型的識別精度相比于YOLOv5提高了21個百分點,對比原模型提高了4.9個百分點。楊佳昊等22構建了一種輕量化模型的方法,將模型的主干替換成性能優(yōu)異的輕量級主干LCNN,通過微調及知識蒸餾來提高模型的精度,使模型精度達到改進前的水平。王昱等23]基于YOLOv7—tiny加人無參數注意力機制SimAM,并用Focal一EIoU損失函數代替原來的CIoU損失函數,實現了甜椒畸形果識別模型的小體量和高精度。
本文針對當前目標檢測模型參數量大、計算量高及被遮擋的煙葉主脈難識別這些問題,提出一種基于改進YOLOv7一tiny的輕量級煙葉主脈識別算法,為煙葉主脈的識別及部署在邊緣化設備上提供技術支撐。
1數據獲取與處理
1. 1 數據集獲取
所采集的煙葉來自湖南省寧鄉(xiāng)市某煙葉種植基地,人工采摘100片煙葉。將所摘取的煙葉隨機抽取 1~5 片進行不規(guī)則堆疊擺放,用iPhonel4手機采集煙葉圖片。為使照片能更好地展現煙葉特征,將設備與煙葉處于同一豎直方向進行采集。所得原始試驗數據圖片300張,圖片的分辨率為4032像素 ×3024 像素。選取其中214張主脈特征較為明顯的圖片,利用Labelme軟件對煙葉的主脈進行標注,生成含有主脈位置信息的Json格式標注文件。
1.2 實驗數據處理
由于煙葉數據集拍攝于室內,為避免模型學習到與目標無關的特征,提升模型的魯棒性,對煙葉數據集進行亮度增強、圖像翻轉、隨機顏色、對比度增強及添加白高斯噪聲等數據增強操作。數據增強效果如圖1所示。
圖1數據增強效果Fig.1 Data enhancement
增強后數據集在原來的基礎上增長了4倍,達到1070張,按照 8:2 的比例劃分為訓練集(848張)和驗證集(212張),數據集劃分情況如表1所示。
表1數據集劃分情況Tab.1Data set partitioning 張
1.3實驗環(huán)境及訓練參數設置
實驗采用軟件環(huán)境為基于Windows10、Python3.11.4、PyTorch1.8.0搭建的深度學習框架,試驗硬件環(huán)境(CPU)為Intel(R)Core(TM) i5-10400F@ 2.9Hz ,顯卡為NVIDIAGeForceGTX3060,操作系統(tǒng)為Windows1064bits。訓練過程采用SGD(隨機梯度下降)算法,每次輸入訓練的圖片數(batchsize)設為16,圖片大小為640像素 ×640 像素,CPU線程數(workers)設為2,訓練300個輪次,初始學習率為0.01,訓練過程中都開啟模型自帶的mosaic(數據增強)。訓練完成后將best.pt(表現最好的權重文件)導入驗證集進行測試,置信度與 IoU 的閾值均設為0.5。該研究旨在訓練出適合部署在邊緣化設備的煙葉主脈目標檢測模型,考慮到邊緣化設備的計算資源不足,采用 mAP@0.5(IoU 為0.5時模型的平均精度均值)、F1 值、參數量(Parameters)、計算量 (FLOPs)4 個指標來評估模型的性能。
2 基于改進YOLOv7—tiny檢測模型
2.1 YOLOv7—tiny目標檢測算法
YOLOv7作為自前市面上最先進的實時自標檢測器,在保留了其快速和高精度的同時又支持在移動端GPU以及從邊緣到移動端的GPU設備。相比于注重推理速度的YOLOx、YOLOv5,YOLOv7應用了很多模塊和一些優(yōu)化方法,在僅增加訓練成本的前提下提高了目標檢測的準確性。所改進的YOLOv7—tiny模型是YOLOv7系列專門給低算力設備所打造的一種輕量化模型,該模型沿用了YOLOv7的大體框架,通過修改部分結構來達到減少參數量的目的。與YOLOv7的ELAN結構相比,YOLOv7一tiny的ELAN結構通過減少卷積塊的數量來減少分支,并縮短了該結構最長的梯度;沒有使用SPPCSC的空間金字塔池化結構,而是采用多個最大值池化來獲取不同大小的感受野;YOLOv7—tiny在檢測頭部沒有采用RepConv(重參數化卷積)來合并多個計算模塊,而是采用普通卷積搭配LeakyReLU激活函數和CIoU損失函數。
2.2改進MobileNetV3輕量級主干網絡
MobileNetV3是MobileNets模型系列中首個加人了網絡架構搜索方法NAS的模型,其中包含的MobileNetV3—small是面向邊緣化的計算設備,符合低端計算資源的使用需求。相比于原始的YOLOv7—tiny的主干特征提取層,MobileNetV3減少了模型參數量的前提下保持了模型的表達能力。該主干首先用更加輕量的深度可分離卷積(DepthwiseSeparableConvolution)替代普通卷積,不同于傳統(tǒng)的普通卷積,深度可分離卷積將傳統(tǒng)的卷積運算分兩步(DepthwiseConv和PointwiseConv)進行,如圖2所示。在DepthwiseConv中,一個卷積核對應一個通道,卷積核的數量與通道數相同;PointwiseConv將上一步得到的特征圖片在深度方向上進行加權,從而得到新的特征圖片,相同的輸人通過深度可分離卷積計算量僅為原來的1/8。
圖2深度可分離卷積運算Fig.2Depth separable convolution
MobileNetV3以residual結構和bottleneck結構為框架,使其內部的每一個通道在高維特征空間下具備更強的非線性變換能力;其內部集成SEAttention(注意力機制),如圖3和圖4所示,通過擠壓 (Fsq) 和激勵 (Fex) 操作得到 1×1×C 的權重矩陣,從而對原特征進行重構以給予關鍵特征更高的權重。其中 X 為輸入的特征圖, 為Inception模塊處理后輸出的特征圖,
為 SE—Inception模塊處理后輸出的特征圖, H,W 為圖片高度和寬度, C 為通道數。
MobileNetV3的淺層使用ReLU激活函數,深層使用 h -swish激活函數,試驗后發(fā)現該策略在煙葉數據集上的效果不符合預期。SiLU函數是ReLU函數的改進版,具有無上界、有下界、非單調的特性,在淺層模型中的效果優(yōu)于ReLU。在改進的模型架構中,前三層使用SiLU激活函數,在模型的后半段將 h? -swish替換為ReLU激活函數,如圖5所示。
圖5改進MobileNetV3結構示意圖Fig.5Improved schematic of the MobileNetV3
2.3損失函數改進
CIoU是在DIoU損失函數的基礎上考慮了預測框(Boundingbox)的長寬比[24],進一步提高了模型精度。這兩種損失函數反映的是縱橫比的差異,而不是寬高與真實框的實際尺寸差異,這種方式有時會阻礙檢測框相似性的有效優(yōu)化。針對這一問題引人SIoU損失函數,如圖6所示,該函數致力于優(yōu)化真實框和預測框的相似度,從而達到更好的訓練效果。其中, B 和Bgt 點分別為預測框中心點和真實框中心點。 Cw 和Ch 分別為 B 和 Bgt 點的橫坐標與縱坐標之差, α 為兩點連線與水平線的夾角, σ 為兩點間的直線距離,(bcx,bcy) 為預測框中心坐標, (bcxgt,bcygt) 為真實框中心坐標, B 與 Bgt 的距離為真實框和預測框中心點距離。
角度損失 計算如式(1)所示。
距離損失 計算如式(3)所示。
γ=2-Λ
式中: t 求和索引;Y 調節(jié)權重;ρ 歸一化的差異程度; 1 一在 x 和 y 方向上歸一化的差異程度。
形狀損失 計算如式(6)所示。
式中: ωw?ωh 1 兩個邊界框寬度和高度的相對差異;w、wamp;t_ 預測和真實邊界框的寬度;h?hgt T 預測和真實邊界框的高度。
SIoU的總損失函數如式(8)所示。
將損失函數SIoU與CIoU、EIoU、Focal—CIoU損失函數進行對比,對比試驗結果如圖7所示。試驗表明,不同的損失函數在煙葉數據集訓練過程中有不同的影響,與其他3種損失函數相比,SIoU在煙葉數據集的訓練任務中損失值最小,采用該損失函數使煙葉主脈識別模型有更好的準確性和泛化能力。
2.4GSConv與范式設計在頸部的替換
在目標檢測模型中,由主干網絡提取的特征通常會實現空間信息向通道信息的轉換,而這種轉換不可避免地會損失部分的語義信息。改進GSConv比普通卷積更好地保留通道與通道間隱藏鏈接,從而損失較少的信息,考慮到該模塊有更長的通道長度,如果進行全局替換顯然會增加模型的深度,從而增加計算資源,因此將該模塊在特征信息本就已通道化的頸部進行替換。Slimneck模塊借鑒增強CNN學習能力如DensNet、VoVNet和CSPNet等網絡。使用一次性聚合方法來設計跨級部分網絡(GSCSP)模塊VoVGSCSP,如圖8所示。
圖8GSConv + Slimneck結構示意圖
Fig.8Schematic diagram of the GSConv+Slimneck
由于存在煙葉主脈部分遮擋的情況,在頸部靈活地使用GSConv和VoVGSCSP,既降低了計算和網絡結構的復雜性,又減少了背景特征對主脈識別造成的精度損失。與原來的網絡結構CSP相比,該結構的浮點計算量中 FLOPs )僅為之前的 84.38% ,改進該模型后以少量精度的代價進一步降低了模型的參數量和計算量,以降低計算成本。改進后的整體網絡結構如圖9所示。
3 結果與分析
3.1 改進模型消融實驗
為了更好地體現每個改進的有效性,改進的結果對比如表2所示??紤]到改進前后模型大小的差異不適合用同一超參文件,改進的模型均使用超參數hyp.scratch.tiny.yaml,其他均保持一致。由表2可知,首先在替換了MobileNetV3主干后,可以看到模型在損失1.6個精度的代價下減小 30.1% 參數量和
47.7% 的計算量。接著在頸部替換Slimneck結構后,模型的參數量與計算量達到最小值,此時模型的精度僅為 87.3% ,相比于原模型下降了 5.6% 。為在不增加模型參數量的前提下提高模型的準確性,更換SIoU損失函數后模型的精度上升2.5個百分點。最后對主干部分的激活函數進行替換,在模型沒有付出代價的情況下精度提高1.5個百分點,使該輕量化模型的精度達到部署要求。將改進前后的算法在訓練過程中的精度變化進行對比,如圖10所示。
表2消融實驗Tab.2Ablation experiments
3.2與其他經典輕量化模型的對比
為綜合評估所提輕量化模型的性能,選取具有代表性的輕量化模型如YOLOv5—s、YOLOv6—n、YOLOx—s、YOLOv8—n、YOLOv9—t進行對比實驗。選擇參數量及運算量來評價模型的輕量化程度,對比結果如表3所示??梢园l(fā)現,改進后的網絡模型參數量僅次于YOLOv9一t,改進后的模型在運算量方面表現最好,僅為原模型 32.6% ,同為輕量化模型的YOLOx—s要比該模型復雜6倍有余。改進后的模型憑借對通道信息的壓縮和網絡結構的精簡來減少模型的參數量,過大的模型體積很難完成在移動終端設備和嵌人式設備的部署使用。綜上所述,改進的模型綜合表現最好,在參數量和運算量上都實現了輕量化,能夠有效滿足移動端煙葉主脈的實時識別需求。
表3輕量化模型對比 Tab.3Lightweight model comparison
注:YOLOv7—tiny*為改進后的模型。
3.3改進前后模型的可視化熱力圖對比
為更直觀地體現輕量化模型后的性能,使用Grad—CAM得到模型的熱力圖,該工具能直接體現更改網絡結構后模型的識別效果,圖11為改進前后的模型熱力圖對比??梢钥闯?,改進后模型給予煙葉的主脈部位更大的權重,在主脈存在部分遮擋的情況下仍然能進行準確地識別,沒有因為參數量的降低而聚焦到錯誤的信息,證明該輕量化網絡結構的可用性。
圖11改進前后模型熱力圖對比 Fig.11Thermodynamic diagram of models before andafterimprovement
4結論
1)針對煙葉主脈識別,提出一種基于改進YOLOv7—tiny的輕量化模型,首先用更加輕量的MobileNetV3結構替換掉原本的主干結構,同時將主干中的h-swish的激活函數更換為ReLU激活函數,增強對煙葉主脈特征的提取能力;接著在模型的Neck部分替換普通卷積為GSConv并采用范式結構設計,對Neck結構的通道進行壓縮進一步輕量化網絡結構;最后替換損失函數CIoU為SIoU,減小模型在預測層的損失值從而提升模型的精度。
2)試驗結果表明,改進后的模型參數量、計算量分別為原模型的 48.9%.32.6% ,而其精度僅下降1.6個百分點。改進后的模型計算量與其他輕量化模型YOLOv5—s(16.5G)、YOLOv6—n(11.4 G)、YOLOx—s(26.8 G)YOLOv8—n(8.7 G)、YOLOv9—t(7.7G)相比均有所提升,適合在移動端設備部署。
3)通過熱力圖可視化對比,發(fā)現改進后的模型能準確識別煙葉的主脈,證明該改進方法具有一定的借鑒意義,為煙葉的機械化收獲提供一定的技術支持。
參考文獻
[1]趙翠萍,秦冠宇,張穎,等.基于扎根理論方法的煙葉生產全程機械化實現路徑分析[J].煙草科技,2023,56(5):33-41.Zhao Cuiping,Qin Guanyu, Zhang Ying,et al. Realizationpath analysis toachieve complete tobacco productionmechanization based on grounded theory [J]. TobaccoScienceamp;.Technology,2023,56(5): 33-41 :
[2]汪睿琪,張炳輝,顧鋼,等.基于YOLOv5 的鮮煙葉成熟度識別模型研究[J].中國煙草學報,2023,29(2):46—55.WangRuiqi, ZhangBinghui,GuGang,etal.Recognition model of tobacco fresh leaf maturity based onYOLOv5[J].Acta Tabacaria Sinica,2023,29(2):46-55.
[3]茍園旻,閆建偉,張富貴,等.水果采摘機器人視覺系統(tǒng)與機械手研究進展[J].計算機工程與應用,2023,59(9):13—26.Gou Yuanmin,Yan Jianwei,ZhangFugui,et al. Researchprogress on vision systemand manipulator offruitpickingrobot[J].ComputerEngineering andApplications,2023,59(9):13-26.
[4]顧文娟,丁燦,蓋小雷,等.基于輕量化MobileViT深度學習模型的烤煙自動分組方法[J].中國煙草科學,2024,45(1):104—111,120.GuWenjuan, DingCan, GaiXiaolei,etal.Automatic grouping method of flue-cured tobacco basedon MobileViT [J].Chinese Tobacco Science,2024,45(1):104—111,120.
[5]朱波,胡朋,劉宇晨,等.基于CSS—CascadeMaskR-CNN的有遮擋多片煙葉部位識別[J].農業(yè)工程學報,2024,40(9):270—279.Zhu Bo,Hu Peng,Liu Yuchen,et al. Recognition of theposition for partially occluded multiple tobacco leaves basedon CSS—Cascade Mask R—CNN[J]. Transactions of theChinese Society of Agricultural Engineering,2O24,40(9):270—279.
[6]蘇帥林,甘博敏,龍杰,等.融合坐標注意力與混聯采樣的煙葉主脈輕量級語義分割[J].計算機工程與應用,2024,60(24):250-259.SuShuailin, Gan Bomin, Long Jie, etal.Lightweight semantic segmentation of tobacco main veinsfusing coordinate attention and dense connectivity [J].Computer Engineering and Applications,2024,60(24):250-259.
[7] Girshick R. Fast R—CNN [C]. Proceedings of the IEEEInternational Conference on Computer Vision, 2015:1440—1448.
[8] Ren S,He K,Girshick R, et al.Faster R—CNN:Towards real-timeobjectdetectionwith regionproposal networks [J]. Advances in NeuralInformation Processing Systems, 2015,28.
[9]張萬枝,曾祥,劉樹峰,等.基于改進YOLOv5s的馬鈴薯種薯芽眼檢測方法[J].農業(yè)機械學報,2023,54(9):260—269.Zhang Wanzhi, Zeng Xiang, LiuShufeng,et al.Detection method of potato seed bud eye based on improvedYOLOv5s [J]. Transactions of the Chinese Society forAgricultural Machinery,2023,54(9):260—269.
[10] Redmon J,Divvala S,Girshick R,et al. You only lookonce:Unified,real-timeobjectdetection[C].Proceedings of the IEEE Conference on ComputerVision and Pattern Recognition,2016:779—788.
[11] He K,Zhang X,Ren S,et al. Deep residual learningfor image recognition[C].Proceedings of the IEEEConference on Computer Vision and Pattern Recognition,2016:770-778.
[12]Redmon J,FarhadiA.YOLOv3:Anincrementalimprovement [J]. arXiv preprint arXiv:1804. 02767,2018.
[13]LinTY,DollárP,GirshickR,etal.Featurepyramid networks for object detection [C]. Proceedingsof the IEEE Conference on Computer Vision and PatternRecognition,2017:2117—2125.
[14] Bochkovskiy A,Wang C Y,Liao H Y M. YOLOv4:Optimal speed and accuracy of object detection [J].arXivpreprint arXiv:2004.10934,2020.
[15]Zhu X,Lyu S,WangX,et al.TPH—YOLOv5:ImprovedYOLOv5basedontransformerpredictionheadforobjectdetectionondrone-capturedscenarios[C].Proceedings of the IEEE/CVF International Conference onComputer Vision,2021: 2778-2788.
[16] Wang CY,Bochkovskiy A,Liao H Y M. YOLOv7:Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors[C]. Proceedings of the IEEE/CVFConference on Computer Vision and Pattern Recognition,2023:7464—7475.
[17]李柯泉,陳燕,劉佳晨,等.基于深度學習的目標檢測算法綜述[J].計算機工程,2022,48(7):1—12.Li Kequan,Chen Yan,Liu Jiachen,et al. Survey of deeplearning-based object detection algorithms [J]. ComputerEngineering,2022,48(7):1—12.
「18]李尚平,卞俊析,李凱華,等.基于改進YOLOv5s 的復2023,54(11):247—258.LiShangping, Bian Junxi, LiKaihua,etal.Identification and height localization of sugarcane tipbifurcation points in complex environments based onimproved YOLOv5s [J]. Transactions of the ChineseSociety for Agricultural Machinery,2023,54(11):247—258.
[19]郭輝,陳海洋,高國民,等.基于YOLOv5m的紅花花冠目標檢測與空間定位方法[J].農業(yè)機械學報,2023,54(7): 272-281.Guo Hui, Chen Haiyang, Gao Guomin,etal.Safflower corolla object detection and spatialpositioning methodsbased on YOLOv5m [J].Transactions of the Chinese Society for AgriculturalMachinery,2023,54(7):272-281.
[20]黃家才,唐安,陳光明,等.基于Compact—YOLOv4的茶葉嫩芽移動端識別方法[J].農業(yè)機械學報,2023,54(3):282-290.Huang Jiacai, Tang An,Chen Guangming,et al.Mobile recognition solution of tea budsbasedonCompact—YOLOv4 algorithm [J]. Transactions of theChinese Society for Agricultural Machinery,2023,54(3):282-290.
[21]張楠楠,張曉,白鐵成,等.基于CBAM—YOLOv7 的自然環(huán)境下棉葉病蟲害識別方法[J].農業(yè)機械學報,2023,54(S1): 239-244.Zhang Nannan, Zhang Xiao, Bai Tiecheng, et al.Identificationmethodofcotton leaf pestsanddiseases in natural environment based on CBAM—YOLOv7[J]. Transactions of the Chinese Society forAgricultural Machinery,2023,54(S1): 239-244 !
[22]楊佳昊,左昊軒,黃祺成,等.基于YOLOv5s的作物葉片病害檢測模型輕量化方法[J].農業(yè)機械學報,2023,54(S1):222-229.Yang Jiahao,Zuo Haoxuan,Huang Qicheng, et al.Lightweight method for crop leaf disease detection modelbased on YOLOv5s [J].Transactions of the ChineseSociety for Agricultural Machinery,2023,54(S1):222-229.
[23]王昱,姚興智,李斌,等.基于改進YOLOv7—tiny 的甜椒畸形果識別算法[J].農業(yè)機械學報,2023,54(11):236-246.Wang Yu,Yao Xingzhi,Li Bin,et al. Malformed sweetpepper fruit identification algorithm based on improvedYOLOv7—tiny [J]. Transactions of the Chinese Societyfor Agricultural Machinery,2023,54(11):236-246.
[24] Zheng Z,Wang P,Ren D,et al. Enhancing geometricfactors in model learning and inference for objectdetection and instancesegmentation [J].IEEETransactions on Cybernetics,2021,52(8):8574—8586.