楊 堅(jiān),錢 振,張燕軍,秦 宇,繆 宏
(揚(yáng)州大學(xué)機(jī)械工程學(xué)院,揚(yáng)州 225127)
溫室種植番茄可以減少病蟲害的影響,但人工采摘成本非常高。近年來(lái),人工智能的應(yīng)用越發(fā)廣泛,尤其是在農(nóng)業(yè)中的應(yīng)用。不少學(xué)者對(duì)番茄成熟的識(shí)別進(jìn)行了研究。馬翠花等融合了一種顯著性檢測(cè)方法與隨機(jī)Hough變換,識(shí)別番茄簇中的綠色單果。Yamamoto等將圖像處理與機(jī)器學(xué)習(xí)相結(jié)合,人工的使用顏色、形狀、紋理和大小來(lái)識(shí)別番茄。Lin等提出了一種Hough變換方法,該方法使用支持向量機(jī)根據(jù)顏色和紋理的特征信息來(lái)識(shí)別柑橘和番茄等水果,此方法考慮了輪廓信息,可以識(shí)別出輕度遮擋的目標(biāo),但無(wú)法識(shí)別遮擋嚴(yán)重的目標(biāo)。上述方法都需要使用機(jī)器學(xué)習(xí)和圖像處理技術(shù),然而傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)需要人為設(shè)計(jì)的特征,這些特征往往具有具體的物理含義,且特征設(shè)計(jì)是一項(xiàng)復(fù)雜的任務(wù)。使用卷積神經(jīng)網(wǎng)絡(luò)(Convolution Neural Networks, CNN)的深度學(xué)習(xí),只需要提供帶標(biāo)簽的數(shù)據(jù)集不用人為設(shè)計(jì)的特征,可用于復(fù)雜場(chǎng)景中的目標(biāo)識(shí)別任務(wù)。
基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別算法,已廣泛應(yīng)用于農(nóng)業(yè)和制造業(yè)的識(shí)別檢測(cè),主要分為兩階段目標(biāo)識(shí)別算法(two stage)和單階段目標(biāo)識(shí)別算法(one stage)。兩階段目標(biāo)識(shí)別算法的主要代表為R-CNN、Fast R-CNN和Faster R-CNN,此類算法是基于區(qū)域推薦(Region Proposal)進(jìn)行目標(biāo)識(shí)別;單階段目標(biāo)檢測(cè)算法的主要代表為SSD和YOLO,此類算法將圖像歸一化到統(tǒng)一大小后直接放入一個(gè)卷積神經(jīng)網(wǎng)絡(luò)。閆建偉等提出了一種改進(jìn)Faster R-CNN模型識(shí)別自然環(huán)境下不同成熟度的刺梨果實(shí),識(shí)別準(zhǔn)確率為95.53%,識(shí)別召回率為81.4%,F(xiàn)1得分為94.99%,該模型需占用大量資源來(lái)計(jì)算目標(biāo)區(qū)域建議框和分類識(shí)別,檢測(cè)時(shí)間過長(zhǎng),每張圖片的識(shí)別時(shí)間為200 ms。成偉等基于改進(jìn)YOLOv3模型識(shí)別溫室中的番茄,識(shí)別的平均精度均值為95.7%,每張圖片的識(shí)別時(shí)間為15 ms,該方法雖可用于大番茄的識(shí)別,但受限于識(shí)別速度,在低成本的設(shè)備上難以滿足實(shí)時(shí)性的要求。呂石磊等使用MobileNet-v2作為YOLOv3-LITE模型的骨干網(wǎng)絡(luò),并引入GIoU邊框回歸損失函數(shù)來(lái)識(shí)別復(fù)雜環(huán)境下的柑橘,測(cè)試的平均精度均值為91.13%,每張圖片的識(shí)別時(shí)間為16.9 ms。Liu等在YOLOv3中添加密集連接結(jié)構(gòu),并使用圓形邊界框代替矩形邊界框識(shí)別番茄,該方法僅針對(duì)圓形大番茄,并不適用于一般形狀的番茄,且并未區(qū)分成熟度。Lawal等在YOLOv3模型中加入密集的連接結(jié)構(gòu)和空間金字塔網(wǎng)絡(luò)來(lái)識(shí)別復(fù)雜環(huán)境中的番茄,該方法的單個(gè)圖像識(shí)別時(shí)間為52 ms,不適用于實(shí)時(shí)采摘。Chen將基于平均精度損失的分類損失函數(shù)應(yīng)用于YOLOv4模型中檢測(cè)蘋果。張伏等使用MobileNet-v3作為模型的特征構(gòu)建YOLOv4-LITE網(wǎng)絡(luò),并在頭部網(wǎng)絡(luò)部分增加大尺寸的檢測(cè)頭來(lái)識(shí)別成熟番茄,測(cè)試的平均精度均值為99.74%,但該方法只能識(shí)別成熟番茄,為了預(yù)測(cè)番茄產(chǎn)量和預(yù)防番茄病害,未成熟番茄的識(shí)別同樣重要。YOLO系列模型的網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜、參數(shù)多,實(shí)時(shí)檢測(cè)需要強(qiáng)大的GPU計(jì)算能力。在嵌入式設(shè)備和移動(dòng)設(shè)備中實(shí)現(xiàn)實(shí)時(shí)目標(biāo)識(shí)別是一個(gè)巨大的挑戰(zhàn)。
由于大多數(shù)神經(jīng)網(wǎng)絡(luò)模型并非針對(duì)特定目標(biāo),為提高模型識(shí)別準(zhǔn)確率,眾多學(xué)者做了相關(guān)研究。Hu等提出了擠壓和激勵(lì)網(wǎng)絡(luò)(Squeeze and Excitation Networks, SE),該網(wǎng)絡(luò)加強(qiáng)了通道方向特征的學(xué)習(xí)。為了兼顧空間特征,Woo等提出了卷積注意力模塊(Convolution Block Attention Module, CBAM),王立舒等在YOLOv4-tiny中加入CBAM模塊識(shí)別藍(lán)莓,改進(jìn)網(wǎng)絡(luò)提升了遮擋藍(lán)莓的識(shí)別準(zhǔn)確率,測(cè)試的平均精度均值為96.24%。為了加強(qiáng)全局特征聯(lián)系并鼓勵(lì)特征重用,Huang等在卷積神經(jīng)網(wǎng)絡(luò)中加入密集的連接結(jié)構(gòu),Gai等在YOLOv4網(wǎng)絡(luò)中添加密集連接結(jié)構(gòu)識(shí)別櫻桃果實(shí),改進(jìn)網(wǎng)絡(luò)提高了復(fù)雜環(huán)境中櫻桃的識(shí)別準(zhǔn)確率。因此,卷積注意力模塊和密集的連接結(jié)構(gòu)會(huì)提高模型在復(fù)雜環(huán)境下目標(biāo)識(shí)別準(zhǔn)確率。本文在YOLOv4-tiny網(wǎng)絡(luò)中加入CBAM模塊、密集的連接結(jié)構(gòu)、Mish激活函數(shù)和第三個(gè)檢測(cè)頭(y3),以解決復(fù)雜環(huán)境中番茄成熟度識(shí)別準(zhǔn)確率低的問題,以期為番茄成熟度識(shí)別提供參考。
本文使用的數(shù)據(jù)集拍攝于揚(yáng)州市西江生態(tài)園的番茄溫室,拍攝時(shí)間為2020年12月5日上午,番茄品種為紅風(fēng)鈴,所有圖片在距離番茄0.3~1 m的不同角拍攝。選擇1 300張分辨率為1 280×720的照片制作數(shù)據(jù)集,如圖1所示,其中包含不同光照條件、遮擋、遠(yuǎn)距離等復(fù)雜環(huán)境。
圖1 不同場(chǎng)景下的番茄數(shù)據(jù)集樣本 Fig.1 Samples of tomato datasets in different scenes
現(xiàn)行的國(guó)家標(biāo)準(zhǔn)GH/T1193-2021按照番茄顏色和大小,將番茄的成熟度分為未熟期、綠熟期、變色期、紅熟前期、紅熟中期和紅熟后期,其中紅熟中期和紅熟后期的果實(shí)著紅面分別達(dá)到40%~60%和70%~100%。溫室中,通常每株番茄樹至少有三種成熟度(綠熟期、變色期和紅熟期)的番茄,只采摘紅熟中期和紅熟后期的番茄。本文將紅熟中期和紅熟后期的番茄統(tǒng)稱成熟番茄,其他成熟度番茄統(tǒng)稱未成熟番茄。使用LableImg標(biāo)注工具(https://github.com/tzutalin/labelImg)手動(dòng)標(biāo)注成熟番茄(ripe tomato)和未成熟番茄(underripe tomato),其中,識(shí)別的成熟番茄用于本地銷售以保證最佳口感,未成熟番茄用于產(chǎn)量預(yù)估和病蟲害防治以提高果園經(jīng)濟(jì)效益。標(biāo)注時(shí),為了減小視覺疲勞造成的誤差,每標(biāo)注45 min休息10 min;為了減小視覺差異造成的誤差,在同一臺(tái)電腦上完成標(biāo)注,對(duì)于不確定成熟度的番茄進(jìn)行多人討論達(dá)成一致,最后由兩人分別檢查兩次以確保數(shù)據(jù)集標(biāo)簽的準(zhǔn)確性。使用留出法(Holdout method)將標(biāo)注的1 300張圖像按照8∶2分為訓(xùn)練集和測(cè)試集,測(cè)試集中的20%作為驗(yàn)證集用于模型訓(xùn)練中的交叉驗(yàn)證(Cross-validation),即訓(xùn)練集圖像1 040張,測(cè)試集圖像208張,驗(yàn)證集圖像52張。
本文致力于構(gòu)建檢測(cè)速度快、識(shí)別準(zhǔn)確率高的神經(jīng)網(wǎng)絡(luò)模型,可用于復(fù)雜場(chǎng)景下番茄采摘車的實(shí)時(shí)識(shí)別任務(wù)。YOLOv4模型識(shí)別準(zhǔn)確率高,但是模型參數(shù)多,權(quán)重文件大,對(duì)計(jì)算機(jī)硬件要求高,不利于嵌入式設(shè)備或者移動(dòng)設(shè)備的開發(fā)。YOLOv4-tiny模型的識(shí)別準(zhǔn)確率低于YOLOv4模型,針對(duì)復(fù)雜環(huán)境下番茄識(shí)別準(zhǔn)確率較低甚至?xí)`檢。本文提出一種改進(jìn)YOLOv4-tiny-X模型,如圖2所示,本文從以下4個(gè)方面進(jìn)行改進(jìn):
圖2 改進(jìn) YOLOv4-tiny-X 模型結(jié)構(gòu) Fig.2 Improved YOLOv4-tiny-X model structure
1)在每個(gè)CSP(Cross Stage Partial)模塊之后添加CBAM卷積注意力模塊,3個(gè)CBAM模塊可以使神經(jīng)網(wǎng)絡(luò)對(duì)有用的通道信息和空間信息進(jìn)行3次重用。
2)在頭部網(wǎng)絡(luò)部分增加76×76的檢測(cè)頭(y3)以提高小目標(biāo)物體的識(shí)別準(zhǔn)確率。在第二個(gè)檢測(cè)頭(y2)的最后一個(gè)CBL(Conv Batch normalization Leaky relu)模塊上再次進(jìn)行卷積操作,以獲得更深層的特征圖,上采樣操作得到大尺寸的特征圖與第二個(gè)CSP模塊進(jìn)行張量拼接。
3)為了重用局部特征并加強(qiáng)全局特征的融合,密集連接結(jié)構(gòu)將CSP模塊中的3個(gè)CBM模塊和檢測(cè)頭前的CBL模塊連接起來(lái)。
4)隨著卷積層的加深,Mish激活函數(shù)的識(shí)別準(zhǔn)確率比Swish、ReLU和Leaky ReLU更高。因此將主干部分的激活函數(shù)更換為Mish函數(shù)。
卷積注意力模塊(CBAM)強(qiáng)調(diào)了通道方向和空間方向的重要特征的學(xué)習(xí),因此,重要特征的權(quán)重更大,被傳遞到更深層用于進(jìn)行精確分類。在圖3中,CBAM由兩個(gè)模塊組成。其中,通道注意力模塊的中間輸入特征圖∈R同時(shí)被平均池化和最大池化。然后將匯集的特征傳到具有一個(gè)隱藏層的共享多層感知器,使用激活函數(shù)對(duì)結(jié)果特征進(jìn)行元素相加并激活以生成通道注意力圖M∈R,計(jì)算公式如下:
圖3 卷積注意力模塊 Fig.3 Convolution block attention module
式中為輸入的特征圖,M為通道壓縮權(quán)值矩陣,為sigmoid激活函數(shù),MLP為共享多層感知器,AvgPool為平均池化操作,MaxPool為最大池化操作。通過將M學(xué)習(xí)到的通道權(quán)重分配給的不同通道,獲得改進(jìn)的通道注意力:
式中為經(jīng)通道注意力選擇的特征圖,?為元素相乘。在空間注意力模塊中,沿通道進(jìn)行平均池化和最大池化,并對(duì)匯集后的特征進(jìn)行一個(gè)7×7卷積操作,再進(jìn)行激活操作??臻g注意力圖M∈計(jì)算公式如下:
式中″為經(jīng)卷積注意力模塊選擇的特征圖,M為空間壓縮權(quán)值矩陣。最后,將空間信息M乘以′獲得CBAM模塊處理后的特征″:
YOLOv4-tiny是由少數(shù)卷積層組成的神經(jīng)網(wǎng)絡(luò),在卷積過程中會(huì)出現(xiàn)特征丟失的情況,Huang等提出密集連接結(jié)構(gòu)用于減少特征丟失、緩解梯度消失,在不顯著增加計(jì)算量的前提下,還加強(qiáng)特征的傳遞和重用。圖2中,虛線部分為密集連接結(jié)構(gòu),在第二個(gè)和第三個(gè)CSP模塊中執(zhí)行以下操作:CSP模塊中的第一個(gè)、第二個(gè)和第四個(gè)CBM模塊在上采樣操作之后進(jìn)行張量拼接,此操作融合了淺層和深層的特征信息,使改進(jìn)模型在關(guān)注深層特征信息時(shí)不丟失淺層信息。
Mish激活函數(shù)公式為() =tanh(softplus()),式中softplus() = ln(1 + e)。Misra等使用MNIST(Mixed National Institute of Standards and Technology database)數(shù)據(jù)集測(cè)試了ReLU、Swish和Mish激活函數(shù)。試驗(yàn)結(jié)果表明,隨著卷積層的加深,ReLU函數(shù)和Swish函數(shù)的準(zhǔn)確率都會(huì)大幅下降。YOLOv4-tiny模型為了減少計(jì)算量而使用ReLU激活函數(shù),改進(jìn)模型有149層,為了提高模型識(shí)別準(zhǔn)確率,將主干網(wǎng)絡(luò)部分中所有ReLU激活函數(shù)換為Mish激活函數(shù)。
進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練和測(cè)試的工作站硬件為Intel i5-10600KF CPU,32G內(nèi)存,Nvidia GTX 2060 GPU,試驗(yàn)在Ubuntu20.04.2LTS操作系統(tǒng)上進(jìn)行,此外,還使用CUDA v11.1.74、cuDNN v8.1.0和OpenCV 4.5.2的庫(kù)加速運(yùn)算。
圖像的輸入尺寸為 640 × 640×3,動(dòng)量衰減和權(quán)重衰減分別設(shè)置為0.9和0.000 5,迭代次數(shù)為300次。在訓(xùn)練過程中調(diào)整學(xué)習(xí)率以減少訓(xùn)練損失,初始學(xué)習(xí)率為0.001,在訓(xùn)練到150、240和270次的時(shí)候?qū)W習(xí)率分別降低0.1倍,此外所有模型都使用預(yù)訓(xùn)練權(quán)重文件和Mosaic數(shù)據(jù)增強(qiáng)功能。
使用mAP50(IoU閾值為0.5的每個(gè)類別的平均準(zhǔn)確率)、F1得分和每秒幀數(shù)來(lái)評(píng)估不同模型的性能,準(zhǔn)確率(Precision)衡量預(yù)測(cè)的準(zhǔn)確程度,召回率(Recall)衡量所有正樣本的檢測(cè)情況,計(jì)算公式如下:
式中TP表示所有被正確劃分到正樣本的數(shù)量,F(xiàn)P表示被錯(cuò)誤劃分到正樣本的數(shù)量,F(xiàn)N表示被錯(cuò)誤劃分到負(fù)樣本的數(shù)量。F1得分是協(xié)調(diào)識(shí)別精度和召回率的一個(gè)指標(biāo),計(jì)算公式如下:
消融試驗(yàn)結(jié)果如表1所示,CBAM模塊優(yōu)化了通道維度和空間維度的特征信息,準(zhǔn)確率提升了1.8個(gè)百分點(diǎn);在此基礎(chǔ)上加入第三個(gè)檢測(cè)頭,使模型的召回率提升了2.6個(gè)百分點(diǎn);為了減少模型在深層網(wǎng)絡(luò)中的錯(cuò)誤率,使用mish激活函數(shù)替代模型骨干網(wǎng)絡(luò)的激活函數(shù),準(zhǔn)確率和召回率分別提升了0.6和0.5個(gè)百分點(diǎn);為了進(jìn)一步加強(qiáng)全局特征信息的融合以提高模型的識(shí)別準(zhǔn)確率,使用密集的連接結(jié)構(gòu),準(zhǔn)確率提升了0.5個(gè)百分點(diǎn),召回率提升了1個(gè)百分點(diǎn)。最終,改進(jìn)的YOLOv4-tiny-X模型召回率提高了3.4個(gè)百分點(diǎn),F(xiàn)1得分提高了2個(gè)百分點(diǎn)、平均精度均值提高了0.7個(gè)百分點(diǎn)。
表1 消融試驗(yàn)性能對(duì)比 Table 1 Ablation experiment performance comparison (%)
YOLOv4-tiny模型的權(quán)重文件大小與YOLOv5m模型相近,改進(jìn)模型的權(quán)重文件大小與YOLOv5l模型相近,因此,將改進(jìn)模型與YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m、YOLOv5l進(jìn)行比較,并將交并比(IoU)閾值和目標(biāo)置信度閾值都設(shè)置為0.5,測(cè)試這些模型的最佳權(quán)重文件的準(zhǔn)確率(Precision)、召回率(Recall)、F1得分和平均精度均值(mAP50)。結(jié)果如表2所示,作為先進(jìn)的目標(biāo)識(shí)別模型,YOLOv4、YOLOv5m和YOLOv5l都具有90%以上的平均精度均值,然而,改進(jìn)模型的平均精度均值為97.9%,分別提高0.2、5.4和4.9個(gè)百分點(diǎn)。對(duì)比YOLOv4-tiny模型和YOLOv4-tiny-X模型,改進(jìn)模型的準(zhǔn)確率、召回率、F1得分和平均精度均值比YOLOv4-tiny模型分別提高0.41、3.4、2和0.7個(gè)百分點(diǎn)。結(jié)合表3,改進(jìn)模型的權(quán)重文件不足YOLOv4權(quán)重文件的六分之一,檢測(cè)速度是其2倍,模型層數(shù)比YOLOv4少339層。與先進(jìn)的目標(biāo)識(shí)別模型相比,YOLOv4-tiny-X模型在保證極高的檢測(cè)速度時(shí),具有最高的目標(biāo)識(shí)別準(zhǔn)確率。改進(jìn)模型占用內(nèi)存少、運(yùn)算速度快、識(shí)別準(zhǔn)確率高,可用于開發(fā)無(wú)人番茄采摘系統(tǒng)的嵌入式設(shè)備和移動(dòng)設(shè)備。
表2 不同模型的檢測(cè)性能 Table 2 Detection performance of different models (%)
表3 不同模型的屬性和性能 Table 3 Properties and performance of different models
不同模型識(shí)別結(jié)果如圖4所示,為了快速分析識(shí)別情況,使用帶有“ripe tomato”標(biāo)簽的紅色邊界框圈出成熟番茄,帶有“underripe tomato”標(biāo)簽的粉色邊界框圈出未成熟番茄。YOLOv3模型實(shí)時(shí)識(shí)別效果相對(duì)較差,存在漏檢和誤檢,與YOLOv4和YOLOv4-tiny模型相比,改進(jìn)模型在中間檢測(cè)到了兩個(gè)小番茄,成功解決了現(xiàn)有模型對(duì)小目標(biāo)番茄識(shí)別準(zhǔn)確率低的問題。
圖4 不同模型檢測(cè)小番茄的可視化結(jié)果 Fig.4 Visualization results of different models to detect small tomatoes
表4是在不同的IoU閾值下識(shí)別成熟番茄的平均精度均值(mAP)對(duì)比,與YOLOv3、YOLOv4和YOLOv4-tiny模型相比,YOLOv4-tiny-X模型的mAP在IoU閾值為0.5時(shí)分別提高25.7、0.6和1.3個(gè)百分點(diǎn);在IoU閾值為0.75時(shí),分別提高26.8、0.4和1.6個(gè)百分點(diǎn)。盡管文獻(xiàn)[17]在IoU閾值為0.5時(shí)識(shí)別成熟番茄的平均精度均值高達(dá)99.74%,但高IoU閾值產(chǎn)生更小的邊界框,有利于采摘機(jī)器人手臂的精確定位。YOLOv4-tiny-X模型在IoU閾值為0.75時(shí)平均精度均值為98.3%,高于文獻(xiàn)[17]的67.19%。
表4 不同模型識(shí)別成熟番茄的平均精度均值對(duì)比 Table 4 Comparison of mean average precision of different models for recognizing ripe tomatoes (%)
圖5是不同模型對(duì)包含遮擋番茄圖片的識(shí)別結(jié)果,與YOLOv4、YOLOv5m、YOLOv5l 模型相比,改進(jìn)模型無(wú)漏檢、誤檢,其他三個(gè)模型都有不同程度的漏檢,其中,YOLOv4和YOLOv5l模型漏檢了5個(gè)未成熟番茄,YOLOv5m模型漏檢了3個(gè)未成熟番茄。值得注意的是,YOLOv4、YOLOv5m、YOLOv5l 模型漏檢的都是被遮擋的番茄,改進(jìn)模型以較高的識(shí)別準(zhǔn)確率識(shí)別出了被遮擋的番茄,因此YOLOv4-tiny-X模型成功的解決了現(xiàn)有模型對(duì)遮擋番茄識(shí)別準(zhǔn)確率低的問題。
圖5 不同模型檢測(cè)被遮擋番茄的可視化結(jié)果 Fig.5 Visualization results of different models to detect occluded tomatoes
圖6 是YOLOv4-tiny-X模型的實(shí)時(shí)識(shí)別結(jié)果,為了更好地觀察模型的實(shí)時(shí)識(shí)別效果,圖中隱藏了邊界框的標(biāo)簽和置信度,可以看出,改進(jìn)模型能夠在復(fù)雜環(huán)境中準(zhǔn)確的識(shí)別出所有被遮擋番茄和小番茄。
圖6 YOLOv4-tiny-X模型復(fù)雜環(huán)境下實(shí)時(shí)識(shí)別可視化結(jié)果 Fig.6 Visualization results of real-time recognition results of the YOLOv4-tiny-X model in the complex environment
目前先進(jìn)的神經(jīng)網(wǎng)絡(luò)模型權(quán)重文件過大,實(shí)時(shí)檢測(cè)速度慢,對(duì)遮擋番茄和小番茄的識(shí)別準(zhǔn)確率不高。
1)本文提出了一種基于改進(jìn)YOLOv4-tiny的神經(jīng)網(wǎng)絡(luò)模型,通過在頭部網(wǎng)絡(luò)部分增加第三個(gè)檢測(cè)頭(y3)來(lái)提高小目標(biāo)識(shí)別準(zhǔn)確率;將CBAM模塊融入到骨干部分,以提高被遮擋番茄的識(shí)別準(zhǔn)確率;采用密集連接結(jié)構(gòu)來(lái)加強(qiáng)全局特征信息的融合;在主干網(wǎng)絡(luò)部分使用Mish激活函數(shù)來(lái)確保深層卷積中提取特征的準(zhǔn)確性。
2)本文采用紅風(fēng)鈴番茄數(shù)據(jù)集進(jìn)行標(biāo)注和試驗(yàn),本文方法適用于成熟期為紅果的小番茄。對(duì)于成熟期為紅果的大番茄,本文方法也具有一定的適用性。成熟期為其他顏色的番茄使用本文方法時(shí)需重新標(biāo)注訓(xùn)練。
3)試驗(yàn)結(jié)果表明,與YOLOv3、YOLOv4、YOLOv4-tiny、YOLOv5m和YOLOv5l模型相比,YOLOv4-tiny-X模型在保證極高檢測(cè)速度的前提下,具有最高的平均精度均值,平均精度均值分別提高了30.9、0.2、0.7、5.4和4.9個(gè)百分點(diǎn),改進(jìn)模型的平均精度均值為97.9%,識(shí)別速度為111幀/s,實(shí)時(shí)識(shí)別的可視化結(jié)果表明,面對(duì)復(fù)雜的環(huán)境,改進(jìn)的神經(jīng)網(wǎng)絡(luò)模型具有穩(wěn)定性,可為番茄采摘車的成熟度識(shí)別系統(tǒng)開發(fā)提供參考。