DOI:10.13733/j.jcam.issn.2095-5553.2025.07.018
Abstract:Inresponse tothecomplexityoftheorchardpicking environment,thedificultyofacuratesegmentation betweenstrawberies andthesurrounding environment,and the inabilityof the existing model processing speedtorealize fastsegmentation,asegmentationalgorithmoflightweight strawberry instance based on Mask R—CNNisproposed.Onthe basis of theoriginal MaskR—CNNalgorithm,theMobileNetV3network isusedtoreplace theoriginal ResNet101 backbonenetwork,thealgorithmislightweight,andthechannelatentionmechanismintheoriginalMobileNetV3 residualstructure isreplacedbythecolaborativeatentionmechanism module,which iscombinedwith the feature pyramidnetworkarchitecturetoperformthefeatureextraction,andthestrawberyindividualsarerealized.The preciseand fastlocalizationsegmentationofindividual strawberiesisachieved.Finallycomparison experimentsareperformedontheselflabeleddataset.TheexperimentalresultsshowthattheproposedimprovedMaskR—CNNalgorithmimprovesborder (2號 mAP and mask mAP by 75% and 4.05% respectively,and the detection speed by 2o.O9 frames/s compared with the original Mask R—CNN model,which reduces the dependence of the model on hardware storage space and arithmetic power.
Keywords:strawberry image;instance segmentation;improved Mask R—CNN;CA atentionmechanism;lightweight network
0 引言
隨著城鎮(zhèn)化不斷推進(jìn),勞動力人數(shù)減少,人工成本增長等問題日益嚴(yán)重,果蔬采摘時間占整體生產(chǎn)時間的 25% ,采摘成本占總成本約 50%[1] 。為降低成本,果蔬采摘機(jī)器人成為當(dāng)前研究熱點[2。目前,國際上已開發(fā)出諸多商業(yè)化草莓采摘機(jī)器人原型?,F(xiàn)有的機(jī)械式草莓采摘機(jī)效率較低,仍需大量人工輔助進(jìn)行識別定位果實,因此,研究智能化草莓采摘機(jī)器人具有重要的實用價值和現(xiàn)實意義。
近年來,深度學(xué)習(xí)在計算機(jī)視覺領(lǐng)域中已經(jīng)成為研究熱點[3]。與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)具有很強(qiáng)的自適應(yīng)能力?;谏疃葘W(xué)習(xí)的圖像分割主要包括兩大類:語義分割和實例分割。語義分割是對圖像中所有像素進(jìn)行分類,并為其賦予類別標(biāo)簽[4];實例分割是在語義分割的基礎(chǔ)上進(jìn)一步區(qū)分同類別的不同個體?;趨^(qū)域的卷積神經(jīng)網(wǎng)絡(luò)(R—CNN)[5],由于具有較強(qiáng)的特征提取能力和自主學(xué)習(xí)能力,已被廣泛應(yīng)用于實例分割中。R—CNN利用選擇性搜索[感興趣區(qū)域,然后直接通過卷積神經(jīng)網(wǎng)絡(luò)提取特征。FastR—CNN解決了R—CNN速度慢、占用內(nèi)存大的缺點,實現(xiàn)了端到端的多任務(wù)訓(xùn)練,然而提取候選框時間太長,無法實時應(yīng)用。FasterR—CNN網(wǎng)絡(luò)是FastR—CNN網(wǎng)絡(luò)的改進(jìn)版本,增加了區(qū)域定位方法,而不是選擇性搜索,以提高其性能[]。He等[8在FasterR—CNN的基礎(chǔ)上提出MaskR—CNN算法,增加一個預(yù)測掩膜分支,實現(xiàn)對物體的實例分割,提升分割精度。
基于深度學(xué)習(xí)的實例分割算法已經(jīng)逐漸應(yīng)用到智慧農(nóng)業(yè)領(lǐng)域中。對草莓的精確定位分割是實現(xiàn)機(jī)器人采摘的必要前提。Yu等提出了一款用于種植草莓的新型收獲機(jī)器人以及一款名為旋轉(zhuǎn)YOLO(R—YOLO)的果實姿勢估計器,平均識別率為 94.43% ,但結(jié)合實際工作會造成預(yù)測位置出現(xiàn)偏差從而導(dǎo)致錯采漏采。侯貴洋等[1°采用顏色識別和特征識別相結(jié)合的方法區(qū)分成熟草莓和未成熟草莓,最終正確率可以達(dá)到92% 以上,但其檢測環(huán)境背景并非在真實草莓采摘園內(nèi)。劉小剛等[11]提出利用改進(jìn)的YOLOv3識別方法在復(fù)雜環(huán)境中對草莓進(jìn)行連續(xù)識別檢測,平均精度均值(2號 (mAP )可達(dá)87. 51% 。Chen等[12]提出了一種FPN增強(qiáng)MaskR—CNN在非結(jié)構(gòu)化環(huán)境下草莓檢測的應(yīng)用。然而這些研究都停留在初級階段,只檢測了水果的大概位置以及是否成熟。高精度的草莓輪廓和形狀識別對于草莓定位和采收是必要前提,由于草莓的形狀、大小還有顏色都存在不確定性,甚至草莓個體在空間上會具有重疊性,難以準(zhǔn)確識別。因此,設(shè)計一種高效、實時、精確、智能的草莓實例分割算法是當(dāng)前急需解決的問題。
基于此,本文提出一種基于MaskR—CNN的草莓實例分割算法,通過引入MobileNetV3作為改進(jìn)后算法的主干網(wǎng)絡(luò),且將MobileNetV3中的SE注意力機(jī)制模塊替換成協(xié)同注意力(CoordinateAttention)機(jī)制模塊,與特征金字塔網(wǎng)絡(luò)(FPN)架構(gòu)進(jìn)行特征提取,實現(xiàn)對草莓個體的精準(zhǔn)快速定位分割。
1數(shù)據(jù)采集與預(yù)處理
1 數(shù)據(jù)采集
試驗數(shù)據(jù)集照片拍攝于安徽省淮南市山南草莓園(2023年2月底至3月,天氣晴,不同光照條件下,室外大棚環(huán)境)。圖像在一天中的不同時間收集,包括9:00、12:00和15:00,保證數(shù)據(jù)集的普適性。如圖1所示,構(gòu)建自制草莓?dāng)?shù)據(jù)集。此外還從多個網(wǎng)站獲取草莓圖像數(shù)據(jù),來提升數(shù)據(jù)集的多樣性和魯棒性,最終獲得3670張圖片,圖片大小為1008像素 ×756 像素,并以PNG格式儲存。樣本圖像如圖1所示。
圖1數(shù)據(jù)集樣本圖像 Fig.1Dataset sample image
2 數(shù)據(jù)預(yù)處理
1)數(shù)據(jù)集篩選。采取人工篩選方式,篩選出模糊,缺失等不合格圖片,最終得到3600張圖片。
2)數(shù)據(jù)集劃分。將數(shù)據(jù)集劃分為3部分,其中訓(xùn)練集3300張,測試集200張,驗證集100張。
3)數(shù)據(jù)集標(biāo)注。使用Eiseg標(biāo)注工具,Eiseg是以RITM及EdgeFlow算法為基礎(chǔ),基于飛槳開發(fā)的一款高效智能的交互式分割標(biāo)注軟件。對數(shù)據(jù)集中的訓(xùn)練集和驗證集進(jìn)行標(biāo)注,同時生成COCO格式數(shù)據(jù)集,如圖2所示,最終完成草莓實例分割數(shù)據(jù)集的制作。
圖2數(shù)據(jù)集制作Fig.2 Data set production
2 草莓實例分割算法
2.1模型整體框架
改進(jìn)模型整體框架如圖3所示。
圖3改進(jìn)的MaskR一CNN網(wǎng)絡(luò)模型Fig.3 Improved MaskR—CNNnetworkmodel
第一階段將草莓?dāng)?shù)據(jù)集作為輸入,以MaskR—CNN模型作為基準(zhǔn)網(wǎng)絡(luò)對草莓個體進(jìn)行提?。坏诙A段CA—MobileNetV3作為骨干網(wǎng)絡(luò)構(gòu)建草莓實例分割模型,結(jié)合特征金字塔網(wǎng)絡(luò)(FPN)架構(gòu)[13進(jìn)行特征提取,加強(qiáng)草莓個體關(guān)鍵部分的特征學(xué)習(xí),實現(xiàn)草莓個體的精準(zhǔn)快速定位分割。降低模型計算量,提升模型收斂速度,從而實現(xiàn)對草莓成熟度的輕量化實例分割。
2.2 MaskR-CNN網(wǎng)絡(luò)
MaskR一CNN是實例分割中經(jīng)典的算法。通過在FasterR一CNN算法末尾添加一個額外的分支來進(jìn)行擴(kuò)展,從而使用全連接層(FC)實現(xiàn)每個輸出建議框的實例分割,分割和定位任務(wù)并行。MaskR—CNN算法框架由3個階段構(gòu)成,如圖4所示。首先,骨干網(wǎng)絡(luò)從輸入圖像中提取特征圖。其次,將從主干網(wǎng)絡(luò)輸出的特征圖[14發(fā)送到區(qū)域建議網(wǎng)絡(luò)(RPN),以生成感興趣區(qū)域(ROD。第三,對RPN輸出的ROI進(jìn)行映射,以獲得在共享特征圖中對應(yīng)的目標(biāo)特征,然后再一次傳遞至FC和全卷積網(wǎng)絡(luò)(FCN),并進(jìn)行目標(biāo)劃分和實例分割,在這個過程中得到分類分?jǐn)?shù)、邊界框和掩碼。
圖4模型整體框架 Fig.4Overall framework of the model
2.3 引入MobileNetV3骨干網(wǎng)絡(luò)
原算法中ResNet101模型網(wǎng)絡(luò)層數(shù)很深,可以提取圖片局部信息,但是訓(xùn)練時間長,需要過多的計算資源,且在實例分割中對遠(yuǎn)程關(guān)系處理較差,對于本實驗所要處理的圖像數(shù)據(jù)會過于復(fù)雜。所以將原ResNet101骨干換成輕量型MobileNetV3骨干來提高效率,減輕計算量。MobileNetV3在MobileNetV2的基礎(chǔ)上進(jìn)行大范圍的改進(jìn),在性能和速度上都有提升,是輕量級骨架網(wǎng)絡(luò)的首選。MobileNetV3參數(shù)由NAS搜索獲取,又繼承V1的深度可分離卷積和V2的具有線性瓶頸的殘差結(jié)構(gòu)。且引入SE通道注意力機(jī)制,在激活函數(shù)上,用 h —swish[x]代替ReLU激活函數(shù),對網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行優(yōu)化,修改MobileNetV2后端輸出head,提升精度和速度。
式中: x (20 模型輸人;ReLU——激活函數(shù)。
MobileNetV3—Large模型整體結(jié)構(gòu)如表1所示。
表1MobileNetV3—Large結(jié)構(gòu)參數(shù) Tab.1 Structure parameters of MobileNetV3—Large
注:“√\"表示添加該模塊,“—\"表示不添加該模塊。
2.4引入?yún)f(xié)同注意力機(jī)制
草莓采摘果園中實際環(huán)境復(fù)雜多變,存在果實過小、果實邊緣不易分割、葉片遮擋果實、果實重疊區(qū)域較多等情況,這些因素都會對圖像的分割結(jié)果造成較大影響。由于MobileNetV3中本身存在的SE注意力機(jī)制模塊只考慮到了通道維度上的注意力,無法捕捉空間上的注意力,所以,為提高對草莓顯著性區(qū)域特征提取能力,在MobileNetV3網(wǎng)絡(luò)基礎(chǔ)上將原本的SE注意力機(jī)制模塊替換成CA注意力機(jī)制模塊,加強(qiáng)對空間位置信息的捕捉。改進(jìn)后的CA—MobileNetV3如圖5所示。
圖5改進(jìn)后的MobileNetV3block Fig.5ImprovedMobileNetV3 block
CA[15]是一種全面關(guān)注特征層的空間信息和通道信息的注意力機(jī)制,通過將位置信息嵌入到通道注意力中,使用強(qiáng)化信息表示的方法增強(qiáng)特征,使輕量級網(wǎng)絡(luò)能在更大區(qū)域進(jìn)行特征提取,同時避免產(chǎn)生大量計算開銷。CA注意力計算過程如圖6所示,利用2個一維全局池化操作分別將垂直和水平方向的輸入特征聚合到2個獨立的方向感知特征圖,這樣,可以沿一個空間方向捕獲遠(yuǎn)程依賴關(guān)系,同時可以沿另一空間方向保留精確的位置信息。
2.5 損失函數(shù)
MaskR—CNN的損失函數(shù)是在FasterR—CNN網(wǎng)絡(luò)的基礎(chǔ)上加上一個Mask分支的損失,Mask分支上的損失函數(shù)的主要作用是衡量模型生成的分割掩模(Mask)與真實分割掩模之間的差異,使模型能夠更準(zhǔn)確地預(yù)測目標(biāo)對象的精確分割邊界。為衡量預(yù)測Mask與真實Mask間的差異,MaskR—CNN采用平均二值交叉熵?fù)p失[16]作為Mask分支的損失函數(shù)。對于屬于第 ?k 個類別的ROI,Mask分支上的損失函數(shù)僅考慮第k 個Mask,而忽略其他類別的Mask。同時模型為每個ROI生成對應(yīng)的二進(jìn)制掩膜,并且不存在類間競爭。
FasterR—CNN的損失Loss包括兩部分:回歸損失和分類損失。
Lds(?i*,??,?i)=Θ-[pilog(?i*)+(1-pi)log(1-pi*?)]
式中: i 錨點的索引;
ti ——具有中心點的水平和垂直坐標(biāo)以及與錨點 i 相關(guān)聯(lián)的邊界框的寬度和高度坐標(biāo)的向量, ti=(tix,tiy,tiw,tih) :
ti* ——向量預(yù)測值;
(20 ?Pi ———人工標(biāo)注概率;
(20 pi* ——概率預(yù)測值;
mi -的二進(jìn)制掩碼;
mi* (204號 二進(jìn)制掩碼預(yù)測;
LREG 回歸損失;
Lcls 分類損失;
L Mask -Mask分支的損失。
3實驗與結(jié)果分析
3.1 實驗平臺
本實驗使用的計算機(jī)硬件環(huán)境為IntelCOREi7處理器,NVIDIARTX30606GB顯卡,16GB內(nèi)存;Python3.6,使用的深度學(xué)習(xí)框架為Pytorch10。
3.2 評價指標(biāo)
為了客觀評價改進(jìn)算法的好壞,實驗采用平均精度(AP )平均精度均值 (mAP )、平均召回率 (AR) 和檢測速度 (FPS)4 種評價指標(biāo)來進(jìn)行性能評估。其中, AP 與精確率 (P) 和召回率 (R) 相關(guān),計算 IoU=0.50 的AP、AR 值(分別稱為 AP@0.5 和 AR@(ω0.5) 。 AP 和 mAP 計算如式(7)~式(10)所示。
式中: TP -正確檢測框的數(shù)量;FP 1 誤檢框的數(shù)量;FN 漏檢框的數(shù)量。
3.3 結(jié)果與分析
3.3.1 消融實驗
為驗證提出方法的有效性,以MaskR一CNN為基準(zhǔn)進(jìn)行對比實驗,結(jié)果如表2所示。實驗批處理大小設(shè)為8,迭代次數(shù)均設(shè)為100,采用隨機(jī)梯度下降的優(yōu)化方法,動量因子(momentum)設(shè)為0.8,為減小訓(xùn)練所占用的顯存大小,統(tǒng)一將訓(xùn)練集大小調(diào)整為544像素 ×544 像素。學(xué)習(xí)率初始大小為0.004,每迭代20次,縮小為原來的 1/10 。
從表2可以看出,對比實驗1和實驗2,將原先的主干特征提取網(wǎng)絡(luò)換為MobileNetV3后,模型推理速度FPS提升15.87個百分點,邊框mAP和掩膜 mAP 分別降低3.08、3.60個百分點。說明雖然使用MobileNetV3作為骨干特征提取網(wǎng)絡(luò)損失了少量精度,但其推理速度顯著上升。這是因為MobileNetV3中獨有的瓶頸(bneck)結(jié)構(gòu),實現(xiàn)通道可分離卷積、SE模塊和殘差連接,保證輕量化特性。并且MobileNetV3移除了之前的瓶頸層連接,進(jìn)一步地減少網(wǎng)絡(luò)參數(shù),極大地提升網(wǎng)絡(luò)性能。
表2消融實驗的對比結(jié)果Tab.2 Comparison resultsof ablation experiment
注: × 表示未引人該因素, √ 表示引入該因素。
對比實驗2和實驗3,CA注意力機(jī)制代替MobileNetV3中原有的SE模塊后,邊框mAP和掩膜 mAP 分別提升6.05、5.49個百分點。說明在草莓果實分割任務(wù)中CA注意力機(jī)制更有優(yōu)勢,這得益于替換的CA模塊既可以捕捉空間位置信息也可以捕捉通道信息,提高模型的識別率,增強(qiáng)模型對草莓坐標(biāo)位置信息的捕捉,而原本的SE模塊對空間位置信息忽略,導(dǎo)致其在精度上并不能有很好的表現(xiàn)力。因此,使用CA—MobileNetV3作為骨干網(wǎng)絡(luò)的MaskR—CNN更能精準(zhǔn)定位和分割草莓。
3.3.2 不同模型對比實驗
將改進(jìn)模型與主流模型YOLACT]、YOLACT ++[18] 進(jìn)行對比,所有算法實驗環(huán)境和配置均相同,結(jié)果如表3所示。改進(jìn)模型在邊框mAP和掩膜 mAP 分別為 93.65%.950% ,相比原MaskR—CNN分別提升 75%.4.05% ;在速度上,改進(jìn)模型的推理速度為24.65幀/s,優(yōu)于經(jīng)典MaskR—CNN。雖然本算法推理速度上比YOLACT、YOLACT + 十低2.33幀/s和3.21幀/s,但在精度上,YOLACT和 YOLACT++ 精度有明顯劣勢。綜上,相對原始MaskR一CNN,本文模型實現(xiàn)對精度和速度的雙重提升。
表3不同模型對比實驗Tab.3Comparison experiments of different models
注:A表示MaskR—CNN,B表示YOLACT,C表示YOLACT ++ D表示改進(jìn)的算法。
3.3.3 分割結(jié)果對比
使用改進(jìn)的輕量級草莓實例分割算法模型和其他模型對草莓圖像進(jìn)行分割對比,結(jié)果如圖7所示。
圖7草莓實例分割效果
Fig.7Segmentationeffectof strawberryinstance
圖7(a)中草莓生長情況復(fù)雜,成熟草莓被未成熟草莓及葉片遮擋,原始MaskR一CNN算法不能很好地處理此種情況,被遮擋草莓邊緣分割粗糙且成熟草莓會被誤識為未成熟草莓,改進(jìn)后算法草莓邊緣分割狀態(tài)及識別效果優(yōu)良;圖7(b)中,原始MaskR—CNN算法不能有效區(qū)分背景和目標(biāo),改進(jìn)后的算法背景與目標(biāo)區(qū)分明顯,表現(xiàn)優(yōu)秀;圖7(c中,原始MaskR—CNN算法存在錯檢情況;圖7(d)中,拍攝光線昏暗,可以看出光線對原始算法影響很大,大規(guī)模出現(xiàn)重復(fù)檢測,草莓識別混亂情況,而改進(jìn)后的算法分割效果優(yōu)秀;圖7(e中,草莓果實數(shù)量多、分布密集,原始MaskR—CNN算法不能準(zhǔn)確分割出各草莓輪廓,重復(fù)分割。綜上,原始MaskR—CNN算法模型分割效果差,存在漏檢、錯檢和背景識別不清的狀況,尤其是小果型草莓,不能準(zhǔn)確分割出草莓邊緣。本文的輕量級草莓實例分割算法對各種成熟度和多數(shù)量草莓圖片都能實現(xiàn)精確分割,且分割效果良好。
4結(jié)論
1)在經(jīng)典MaskR—CNN網(wǎng)絡(luò)的基礎(chǔ)上,將原本的ResNet101骨干網(wǎng)絡(luò)替換成MobileNetV3骨干網(wǎng)絡(luò),且改進(jìn)MobileNetV3,將SE模塊替換成CA模塊,構(gòu)建草莓實例分割模型。
2)通過在真實環(huán)境下拍攝數(shù)據(jù)集并進(jìn)行訓(xùn)練,實驗結(jié)果表明,改進(jìn)后的算法在測試集上邊框mAP和掩膜 mAP 分別為 93.65%.950% ,推理速度為24.65幀/s,相比于MaskR—CNN算法,邊框mAP和掩膜mAP分別提升 75% 和 4.05% ,推理速度提高20.09幀/s,模型運行速度提升,減少模型對存儲空間和算力的依賴,在保持精度的基礎(chǔ)上進(jìn)一步減少模型參數(shù)量和復(fù)雜度。為在葉片遮擋、重疊、密集等復(fù)雜環(huán)境下草莓的精確定位分割提出一種有效的方法。
參考文獻(xiàn)
[1]漢永乾,孫步功,張鵬,等.農(nóng)業(yè)采摘機(jī)器人研究進(jìn)展[J].林業(yè)機(jī)械與木工設(shè)備,2023,51(4):4-8.
[2]周航,杜志龍,武占元,等.機(jī)器視覺技術(shù)在現(xiàn)代農(nóng)業(yè)裝備領(lǐng)域的應(yīng)用進(jìn)展[J].中國農(nóng)機(jī)化學(xué)報,2017,38(11):86-92.Zhou Hang,Du Zhilong,Wu Zhanyuan,et al. Applicationprogress of machine vision technology in the field ofmodern agricultural equipment [J].Journal of ChineseAgriculturalMechanization,2017,38(11):86-92.
[3]宋懷波,尚鈺瑩,何東?。麑嵞繕?biāo)深度學(xué)習(xí)識別技術(shù)研究進(jìn)展[J].農(nóng)業(yè)機(jī)械學(xué)報,2023,54(1):1—19.Song Huaibo, ShangYuying, He Dongjian. Reviewon deep learning technology for fruit target recognition [J].Transactions of the Chinese Society for AgriculturalMachinery,2023,54(1):1-19.
[4]黃濤,李華,周桂,等.實例分割方法研究綜述[J].計算機(jī)科學(xué)與探索,2023,17(4):810-825.
[5]GirshickR,Donahue J,Darrell T, et al. Region-basedconvolutional networks for accurate object detection andsegmentation[J].IEEE Transactions on Pattern Analysisamp;Machine Intelligence,2015,38(1):142—158.
[6]Bharati P,Pramanik A. Deep learning techniques—R-CNN to Mask R-CNN:A survey [J]. ComputationalIntelligence in Pattern Recognition:Proceedings of CIPR2019,2020:657-668.
[7] Chen Y,Li W,Sakaridis C,et al. Domain adaptive FasterR—CNN for object detection in the wild [C]. Proceedingsof the IEEE Conference on Computer Vision and PatternRecognition,2018:3339-3348.
[8] He K,Gkioxari G,Dollár P,et al. Mask R—CNN [C].Proceedings of the IEEE International Conference onComputer Vision,2017:2961—2969.
[9] Yu Y, Zhang K L, Liu H,et al. Real-time visuallocalization of the picking points for a ridge-plantingstrawberry harvesting robot[C]. IEEE Access,2020,8:116556—116568.
[10]侯貴洋,趙桂杰,王璐瑤.草莓采摘機(jī)器人圖像識別系統(tǒng)研究[J].軟件,2018,39(6):184—188.
[11]劉小剛,范誠,李加念,等.基于卷積神經(jīng)網(wǎng)絡(luò)的草莓識別方法[J].農(nóng)業(yè)機(jī)械學(xué)報,2020,51(2):237—244.
[12] Chen Y,Liu K,Xin Y,et al. Soil image segmentationbased on Mask R—CNN [C]. 2023 3rd InternationalConference on Consumer Electronics and ComputerEngineering(ICCECE).IEEE,2023:507—510.
[13]胡奕帆,趙賢林,李佩娟,等.基于改進(jìn)YOLOv5的自然環(huán)境下番茄果實檢測[J].中國農(nóng)機(jī)化學(xué)報,2023,44(10): 231-237.Hu Yifan, Zhao Xianlin,Li Peijuan,et al.Tomatofruit detection in natural environment based on improvedYOLOv5[J].JournalofChineseAgriculturalMechanization,2023,44(10):231—237.
[14]項新建,周焜,費正順,等.基于改進(jìn)YOLOX算法的楊梅成熟度檢測方法[J].中國農(nóng)機(jī)化學(xué)報,2023,44(10):201-208.Xiang Xinjian, Zhou Kun,F(xiàn)ei Zhengshun, et al.Maturity detection method of Myrica rubra based onimproved YOLOX algorithm [J]. Journal of ChineseAgricultural Mechanization,2023,44(10):201-208.
[15] Perez-Borrero I,Marin-Santos D,Gegundez-Arias M E,et al. A fast and accurate deep learning method forstrawberry instance segmentation [J]. Computers andElectronics in Agriculture,2020,178:105736.
[16]Yu Y,Zhang K,Yang L,et al. Fruit detection forstrawberry harvesting robot in non-structural environmentbased on Mask—RCNN[J].ComputersandElectronics in Agriculture,2019,163:104846.
[17] Zeng J, Ouyang H, Liu M, et al. Multi-scale YOLACTfor instance segmentation [J].Journal of King SaudUniversity-Computer and Information Sciences,2022,34(10):9419-9427.
[18] Huang M, Xu G, Li J,et al. A method for segmenting diseaselesionsofmaizeleavesinrealtimeusingattentionYOLACT ++ [J].Agriculture,2021,11(12):1216.