中圖分類(lèi)號(hào):S567;TP399 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-5553(2025)07-0124-07
Abstract:Black plumwithdiferent maturityhas differentpharmacologicalefects.Tojudgethematuritymostfruits in the orchard,a series improvementsare cariedout basedon the YOLOv7 target detection algorithm.The Vision Transformer with Bi-Level Routing Atention(BiFormer)module isadded tothe Backbone YOLOv7 modelto improve thefeatureexpresionability thenetwork.Thefruitmaturityrefinementmoduleisdesignedtoimprovethecorrectrate fruit maturity detection.The studyshows that theimprovedYOLOv7—1model hasa Mean AveragePrecision (mAP) 0.805,and is higher by4.8,12.4,0.9,0.7,12.6,1.7,5.8and12.3 percentage points, respectively,compared with the improved YOLOv7—2 model,F(xiàn)aster R—CNN model,YOLOv3 model,Mask R— CNN model,YOLOv5s model,YOLOv5l model,YOLOv7 model,and YOLOv8 model. The improved YOLOv7— 1 model can improve the accuracy identifying the maturity black plum.
Keywords:black plum;maturity detection;deep learning;natural environment
0 引言
成為合理安排勞動(dòng)力以及適時(shí)采摘的必要條件。
烏梅,別名酸梅、黑莓,薔薇科植物梅的果實(shí),具有食用價(jià)值、藥用價(jià)值、生態(tài)價(jià)值[1]。我國(guó)是烏梅的原產(chǎn)地,不同成熟度的烏梅作用大不相同2。成熟的烏梅分布不均會(huì)加大采摘難度,也會(huì)影響果農(nóng)的收益,因此快速準(zhǔn)確地識(shí)別烏梅,提供烏梅不同成熟度分布信息,
烏梅的成熟度主要依靠肉眼判斷果實(shí)表皮顏色加以區(qū)分。傳統(tǒng)機(jī)器視覺(jué)主要通過(guò)果實(shí)表皮的顏色特征進(jìn)行提取分割,建立果實(shí)的成熟度模型。劉宇飛等[3]基于機(jī)器視覺(jué)對(duì)番茄表面紅色面積檢測(cè),進(jìn)行顏色分級(jí),根據(jù)顏色特征的關(guān)系來(lái)判斷番茄的表面成熟度等級(jí)。這個(gè)分級(jí)方法簡(jiǎn)易,減少運(yùn)算時(shí)間,但有一定的局限性。周文靜等4將紅提葡萄果穗用KNN模型從背景中分割出來(lái),再運(yùn)用圓形Hough變換提取出葡萄果實(shí),提取果實(shí)的 H 顏色分量值,設(shè)置特定的顏色閾值對(duì)單個(gè)果實(shí)成熟度進(jìn)行判定,經(jīng)過(guò)統(tǒng)計(jì)后再判斷整個(gè)果串的成熟度等級(jí)。上述機(jī)器學(xué)習(xí)進(jìn)行果實(shí)檢測(cè)仍存在檢測(cè)精度較低、檢測(cè)時(shí)間較長(zhǎng)等問(wèn)題。
隨著深度學(xué)習(xí)R—CNN、VGG、FasterR—CNN、YOLO算法、MaskR—CNN的發(fā)展,并在各種視覺(jué)任務(wù)中有較好的檢測(cè)效果,一些學(xué)者開(kāi)始利用深度學(xué)習(xí)對(duì)水果成熟度進(jìn)行識(shí)別分類(lèi)。王立舒等5提出一種改進(jìn)YOLOv4—Tiny模型的藍(lán)莓成熟度識(shí)別方法,藍(lán)莓成熟度在自然環(huán)境中檢測(cè)精度較高。但局限于未成熟、半成熟和成熟狀態(tài),不能對(duì)藍(lán)莓整個(gè)成熟過(guò)程進(jìn)行全面把控。李竹等利用VGG16神經(jīng)網(wǎng)絡(luò),提取果皮顏色特征建立模型,對(duì)藍(lán)莓成熟度的預(yù)測(cè)較為精細(xì),提高了對(duì)藍(lán)莓果實(shí)成熟度的預(yù)測(cè)。王勇等提出一種基于改進(jìn)YOLOv5s模型的不同成熟度蘋(píng)果目標(biāo)檢測(cè)方法,能夠準(zhǔn)確定位不同成熟度蘋(píng)果的特征區(qū)域。苗榮慧等°提出一種改進(jìn)的輕量化YOLOv7模型的櫻桃番茄果實(shí)成熟度檢測(cè)方法,提高自然環(huán)境中相鄰成熟度果實(shí)和被遮擋果實(shí)的檢測(cè)精度,可見(jiàn)深度學(xué)習(xí)在果實(shí)成熟度檢測(cè)研究中優(yōu)勢(shì)顯著。其中Bochkovskiy團(tuán)隊(duì)9提出YOLOv7模型,具有檢測(cè)精度高、速度快、支持多種類(lèi)型自標(biāo)等優(yōu)點(diǎn),在檢測(cè)性能上優(yōu)于其他模型。因此,選取YOLOv7模型為基礎(chǔ)模型用于自然環(huán)境烏梅成熟度的檢測(cè)。
在自然環(huán)境中,大多數(shù)檢測(cè)算法不能同時(shí)滿足精度高、速度快、計(jì)算量小的要求。對(duì)于平衡好檢測(cè)速度、檢測(cè)精度和模型計(jì)算復(fù)雜度的烏梅成熟度檢測(cè)方法的研究還較少。烏梅具有以下特性:烏梅形狀較小而密集,果實(shí)之間往往存在遮擋問(wèn)題。烏梅同一花序所結(jié)果實(shí)成熟度不一致,且相鄰成熟度特征差異不明顯。針對(duì)以上問(wèn)題,本文提出一種改進(jìn)YOLOv7的目標(biāo)檢測(cè)方法。在YOLO7的Backbone中加人BiFormer注意力模塊[10,11],并設(shè)計(jì)果實(shí)成熟度精分模塊[12],加強(qiáng)模型對(duì)全局信息的捕捉能力,提高對(duì)烏梅相鄰成熟度的區(qū)分能力,提高自然環(huán)境中烏梅成熟度檢測(cè)效果,以確定果園成熟果實(shí)的分布區(qū)域,為烏梅的采摘提供參考依據(jù)。
1材料與方法
1. 1 數(shù)據(jù)采集
數(shù)據(jù)集是由智能手機(jī)在自然環(huán)境下收集的,采集在不同成熟時(shí)間段的烏梅圖像共1106張。采集地位于新疆維吾爾自治區(qū)喀什地區(qū)莎車(chē)縣米夏鎮(zhèn)塔瓦克斯村家庭烏梅種植果園,該種植果園涵蓋自然環(huán)境下烏梅樹(shù)的多種復(fù)雜情況的需求。采集時(shí)間為2023年5月23—
26日、2023年7月15—18日、2023年8月2—5日、2023年9月13—16日,包含早、中、晚時(shí)間段,有晴天、陰天;有順光、逆光、背光拍攝方式,包含自然環(huán)境下光線明暗不同、烏梅堆疊程度不同、樹(shù)葉遮擋程度不同、成熟度不同,數(shù)據(jù)集貼近自然狀態(tài)下的烏梅。
1.2 烏梅成熟度區(qū)分
成熟度區(qū)分有很多類(lèi)型,果皮顏色是衡量果實(shí)成熟度的重要指標(biāo)之一。在烏梅成熟過(guò)程中,果實(shí)里的各種激素的轉(zhuǎn)換,顏色會(huì)相應(yīng)地發(fā)生變化。從最初的綠色,明顯逐步轉(zhuǎn)變?yōu)榧t色,最后呈藍(lán)紫色。因此,根據(jù)果皮顏色預(yù)測(cè)烏梅成熟度是一種可行的方式。為了更高效地識(shí)別烏梅在自然環(huán)境中的不同成熟度,烏梅果實(shí)成熟度主要以顏色為判斷依據(jù),根據(jù)感官評(píng)價(jià)法、表皮比較法,以及人工采摘專(zhuān)家的經(jīng)驗(yàn),將烏梅成熟度大致分成4個(gè)類(lèi)別:綠熟期、半轉(zhuǎn)色期、轉(zhuǎn)色期、成熟期,如圖1所示。
圖1烏梅成熟度分類(lèi)
Fig.1 Classification black plum maturity
綠熟期烏梅的表皮顏色完全是綠色,如圖1(a)所示。半轉(zhuǎn)色期烏梅表皮有輕微藍(lán)色或黃色,具體性狀表現(xiàn)為烏梅果實(shí)表皮的綠色區(qū)域面積占比超過(guò) 3/4 .如圖1(b)和圖1(c)所示。轉(zhuǎn)色期果實(shí)表皮顏色逐漸發(fā)黃和變紅幾乎沒(méi)有綠色,具體性狀表現(xiàn)為果實(shí)表面的黃色區(qū)域和紅色區(qū)域面積占比大于1/2,如圖1(d)~圖(g)所示。圖1(h)是成熟期烏梅,這個(gè)階段的具體性狀表現(xiàn)為烏梅果實(shí)表皮顏色完全是藍(lán)色。
1.3烏梅成熟度檢測(cè)模型
YOLOv7網(wǎng)絡(luò)模型比當(dāng)前最優(yōu)模型計(jì)算量少,擁有更快的推理速度和更高的檢測(cè)精度。為提高YOLOv7模型目標(biāo)檢測(cè)算法性能,對(duì)其進(jìn)行改進(jìn)。
將BiFormer注意力模塊分別放在YOLOv7模型 的Backbone的前端(改進(jìn)的YOLOv7—1模型的具體 檢測(cè)識(shí)別過(guò)程如圖2所示)和后端(改進(jìn)的 YOLOv7—2模型的具體檢測(cè)識(shí)別過(guò)程如圖3所 示)訓(xùn)練,添加果實(shí)成熟度精分模塊,并進(jìn)行結(jié)果分析。
利用改進(jìn)的YOLOv7—1模型和改進(jìn)的YOLOv7—2模型檢測(cè)烏梅在4個(gè)不同成熟階段的表皮顏色,建立烏梅成熟度預(yù)測(cè)模型。模型在包含烏梅4個(gè)成熟度的圖像數(shù)據(jù)集上進(jìn)行訓(xùn)練和測(cè)試,訓(xùn)練得到最優(yōu)權(quán)值模型。
1.3.1BiFormer注意力模塊
BiFormer注意力模塊是基于VisionTransformer(ViT模型),引人一種新的雙層路由注意力機(jī)制(Bi-LevelRoutingAttention),這是一種新的通用ViT模型。BiFormer注意力模塊是一種動(dòng)態(tài)的、查詢(xún)感知的稀疏注意力機(jī)制,可以幫助網(wǎng)絡(luò)捕捉長(zhǎng)距離上下文依賴(lài)。在YOLOv7的Backbone中加人BiFormer注意力模塊,提高網(wǎng)絡(luò)對(duì)全局語(yǔ)義信息的捕捉能力。
ViT模型是基于Transformer結(jié)構(gòu)的深度學(xué)習(xí)模型,對(duì)圖像處理有很好的分類(lèi)能力。ViT的核心流程包括圖像分塊處理(makepatches)、圖像塊嵌入(patchembedding)與位置編碼、Transformer編碼器和MLP分類(lèi)處理等4個(gè)主要部分。ViT會(huì)將整幅圖像拆分成小圖像塊,然后把這些小圖像塊的線性嵌入序列作為T(mén)ransformer的輸入送入網(wǎng)絡(luò),然后使用監(jiān)督學(xué)習(xí)的方式進(jìn)行圖像分類(lèi)的訓(xùn)練。ViT模型的整體結(jié)構(gòu)如圖4所示。
BiFormer注意力模塊的整體結(jié)構(gòu)如圖5所示。BiFormer注意力模塊遵循大多數(shù)的ViT模型架構(gòu)設(shè)計(jì),也是采用四級(jí)金字塔結(jié)構(gòu),即下采樣32倍。BiFormer注意力模塊在第1階段使用重疊塊嵌入,在第 2~ 第4階段使用塊合并模塊來(lái)降低輸入空間分辨率,同時(shí)增加通道數(shù),然后采用連續(xù)的BiFormer塊做特征變換。在每個(gè)塊的開(kāi)始均使用深度卷積來(lái)隱式編碼相對(duì)位置信息。隨后依次應(yīng)用BRA模塊和擴(kuò)展率為2層的多層感知機(jī)MLP模塊,分別用于交叉位置關(guān)系建模和每個(gè)位置嵌入。
圖5BiFormer注意力模塊的整體結(jié)構(gòu)
Fig.5Overall architecture the BiFormer attention model
1.3.2 HSV顏色分割
運(yùn)用HSV顏色分割方法,從圖像中提取出改進(jìn)的YOLOv7模型的檢測(cè)框部分。將框內(nèi)圖像進(jìn)行提取,對(duì)提取后的果實(shí)圖像顏色特征進(jìn)行再提取、計(jì)算與分析。流程如圖6所示。
圖6HSV顏色分割及輸出
從圖像中提取出改進(jìn)的YOLOv7模型的檢測(cè)框部分,并將框內(nèi)的RGB圖像轉(zhuǎn)換為HSV圖像。HSV與RGB相比,能夠更直觀地表達(dá)顏色的明暗程度、鮮艷程度以及色調(diào),且亮度對(duì)色彩的影響較小,常用于分割指定顏色的目標(biāo)。其轉(zhuǎn)換如式 (1)~ 式(3)所示。
式中: H 號(hào) Hue顏色的色相;s Saturation飽和度;V Value色明度;R Red紅色;G Green綠色;B -Blue藍(lán)色。
遍歷整個(gè)分割出來(lái)的檢測(cè)框圖像的像素點(diǎn),對(duì)每一個(gè)像素點(diǎn)進(jìn)行HSV提??;再對(duì)該像素點(diǎn)顏色進(jìn)行判定,判定為某種顏色;直到全部像素點(diǎn)判定完成,就可以知道該顏色的數(shù)目。占比計(jì)算和輸出,判斷檢測(cè)框內(nèi)的果實(shí)為某一成熟期的烏梅。像素占比 A 計(jì)算如式(4)所示。
式中:i— 分割部分該顏色像素個(gè)數(shù);
改進(jìn)的YOLOv7模型檢測(cè)框內(nèi)分割部分的所有顏色的總像素個(gè)數(shù)。
2 深度學(xué)習(xí)模型實(shí)驗(yàn)
2.1 數(shù)據(jù)集處理
為增加數(shù)據(jù)集豐富度,使改進(jìn)的YOLOv7—1模型和改進(jìn)的YOLOv7—2模型能夠適應(yīng)更多的場(chǎng)景,使用旋轉(zhuǎn)、縮放、水平翻轉(zhuǎn)和剪切等方法來(lái)增強(qiáng)訓(xùn)練數(shù)據(jù)集。數(shù)據(jù)增強(qiáng)技術(shù)為訓(xùn)練過(guò)程創(chuàng)建了5530張圖像。按照7:1.5:1.5 比例隨機(jī)分為訓(xùn)練集、驗(yàn)證集、測(cè)試集。
2.2實(shí)驗(yàn)配置環(huán)境及訓(xùn)練參數(shù)
訓(xùn)練與測(cè)試在一臺(tái)配置為i5—12490F3.00GHZ的CPU、8GB的NVDIAGeForceRTX3070的GPU的計(jì)算機(jī)上運(yùn)行,采用python3.8作為編程語(yǔ)言、Pytorch深度學(xué)習(xí)框架進(jìn)行訓(xùn)練。采用改進(jìn)的YOLOv7—1模型和改進(jìn)的YOLOv7—2模型為主要框架與預(yù)訓(xùn)練權(quán)重,設(shè)置輸入圖像尺寸為1280像素 ×1280 像素,以4張圖像為一個(gè)批處理量,最大迭代次數(shù)為50次的模型參數(shù),進(jìn)行網(wǎng)絡(luò)訓(xùn)練。
2.3 評(píng)價(jià)指標(biāo)
在模型檢測(cè)精度方面,選用精確率 P 、召回率 R 和平均精度 AP 作為評(píng)價(jià)指標(biāo)。精確率表示識(shí)別正確的烏梅數(shù)在識(shí)別目標(biāo)中所占比率,召回率表示在所有烏梅中被識(shí)別出來(lái)的比率。在模型檢測(cè)性能方面,選取平均精度均值 mAP 、平均檢測(cè)時(shí)間ADT和模型內(nèi)存占用量作為評(píng)價(jià)指標(biāo)。檢測(cè)時(shí)間使用目標(biāo)檢測(cè)網(wǎng)絡(luò)檢測(cè)一張圖所消耗的平均時(shí)間為標(biāo)準(zhǔn), ms 。 P,R 、AP、mAP 計(jì)算如式(5)~式(8)所示。
式中: TP (2 被模型預(yù)測(cè)為正類(lèi)的正樣本; FP 被模型預(yù)測(cè)為正類(lèi)的負(fù)樣本; FN (204 被模型預(yù)測(cè)為負(fù)類(lèi)的正樣本; M (202 類(lèi)別總數(shù); AP(k) 第 k 類(lèi) AP 值。
3 結(jié)果分析
3.1 檢測(cè)效果及分析
使用預(yù)訓(xùn)練好的深度學(xué)習(xí)模型進(jìn)行訓(xùn)練,將按照7:1.5:1.5 比例進(jìn)行訓(xùn)練,得到4個(gè)成熟階段烏梅識(shí)別正確率。在綠熟期(2023年5月)半轉(zhuǎn)色期(2023年7月)轉(zhuǎn)色期(2023年8月)成熟期(2023年9月)4個(gè)成熟階段分別摘取烏梅果實(shí)300個(gè),用改進(jìn)的YOLOv7—1模型進(jìn)行檢測(cè),結(jié)果如表1所示。
表1改進(jìn)的YOLOv7一1模型不同成熟度級(jí)別檢測(cè)結(jié)果
Tab.1 Detection results different maturity levels theimproved YOLOv7—1 model
3.2 果園識(shí)別效果
為測(cè)試算法的實(shí)用性,把改進(jìn)的YOLOv7一1模型算法、改進(jìn)的YOLOv7—2模型對(duì)果園中的烏梅進(jìn)行檢測(cè)與識(shí)別,檢測(cè)輸出圖片中烏梅的總數(shù),并分別顯示果實(shí)4個(gè)成熟度階段的占比。由此可以推算出果園大部分果實(shí)的成熟度,改進(jìn)的YOLOv7—1模型、改進(jìn)的YOLOv7—2模型的烏梅不同成熟度檢測(cè)效果如圖7和圖8所示。
圖7改進(jìn)YOLOv7—1網(wǎng)絡(luò)模型的烏梅不同成熟度檢測(cè)效果 Fig.7 Detection effect theimproved YOLOv7—1network modelondifferentmaturityblack plum
圖8改進(jìn)YOLOv7—2網(wǎng)絡(luò)模型的烏梅不同成熟度檢測(cè)效果 Fig.8 Detectioneffect theimproved YOLOv7—2 network model ondifferentmaturityblackplum
綜合對(duì)比可以看出,改進(jìn)的YOLOv7—1模型相比于改進(jìn)的YOLOv7—2模型目標(biāo)檢測(cè)算法具有更高的識(shí)別準(zhǔn)確率。因此,本研究算法具有較強(qiáng)的魯棒性,可以適應(yīng)自然環(huán)境下的不同情況。
3.3不同算法檢測(cè)能力對(duì)比
為驗(yàn)證所選模型在自然復(fù)雜環(huán)境下對(duì)烏梅成熟度 檢測(cè)的準(zhǔn)確性和快速性,選擇改進(jìn)的YOLOv7—1模型 與FasterR—CNN模型、YOLOv3模型、MaskR—CNN 模型、YOLOv5s模型、YOLOv5l模型、YOLOv7模型、 YOLOv8模型和改進(jìn)的YOLOv7—2模型對(duì)測(cè)試集的 烏梅圖像進(jìn)行算法對(duì)比,結(jié)果如圖9和圖10所示。
Fig.9Different maturity detection effects black plum different trained network models(1)
圖9不同訓(xùn)練網(wǎng)絡(luò)模型的烏梅不同成熟度檢測(cè)效果(1)
圖10不同訓(xùn)練網(wǎng)絡(luò)模型的烏梅不同成熟度檢測(cè)效果(2)
Fig.10Different maturity detection effects black plum different trained network models(2)
由圖9和圖10可知,只有YOLOv7模型對(duì)烏梅果實(shí)成熟度的檢測(cè)識(shí)別效果較好,因此,選擇YOLOv7模型進(jìn)行改進(jìn),改進(jìn)之后的模型效果更好。改進(jìn)的YOLOv7—1模型與其他模型在驗(yàn)證集上對(duì)不同成熟度烏梅檢測(cè)的試驗(yàn)結(jié)果如表2所示。改進(jìn)的YOLOv7—1模型在檢測(cè)中的總體平均精度均值比改進(jìn)的YOLOv7—2模型、FasterR—CNN模型、YOLOv3模型、MaskR—CNN模型、YOLOv5s模型、YOLOv5l模型、YOLOv7模型和YOLOv8模型分別高 4.8% 、12.4%.0.9%.0.7%.12.6%.1.7%.5.8% 和 12.3% ,且檢測(cè)速度也較快。其中,改進(jìn)的YOLOv7—2模型的檢測(cè)精度較高,并且出現(xiàn)漏檢誤檢的情況較少;FasterR—CNN模型檢測(cè)精度較低,不僅參數(shù)量大,還耗時(shí);YOLOv3模型內(nèi)存較大且檢測(cè)時(shí)間較長(zhǎng),出現(xiàn)漏檢較多;MaskR一CNN模型檢測(cè)精度較低,不僅參數(shù)量大還耗時(shí);YOLOv5s檢測(cè)精度較差,且容易出現(xiàn)漏檢、錯(cuò)檢、多檢的現(xiàn)象;YOLOv51模型在檢測(cè)精度效果上表現(xiàn)較好,但過(guò)擬合現(xiàn)象比較嚴(yán)重;YOLOv7模型雖內(nèi)存較小,但檢測(cè)精度較差,且容易出現(xiàn)漏檢、錯(cuò)檢、多檢的現(xiàn)象;YOLOv8模型雖內(nèi)存較大,但檢測(cè)精度較差,且容易出現(xiàn)漏檢、錯(cuò)檢、多檢的現(xiàn)象。因此,綜合對(duì)比可以看出,改進(jìn)的YOLOv7—1模型在烏梅各種成熟度的檢測(cè)精度與檢測(cè)速度上都有更大優(yōu)勢(shì)。
表2不同訓(xùn)練網(wǎng)絡(luò)模型的烏梅成熟度檢測(cè)結(jié)果Tab.2 Results black plum maturitydetection withdifferent trained network models
4結(jié)論
1)選擇網(wǎng)絡(luò)模型改進(jìn)的YOLOv7模型用于烏梅 成熟度檢測(cè)。實(shí)驗(yàn)結(jié)果表明,改進(jìn)的YOLOv7—1模 型具有較強(qiáng)的魯棒性,同時(shí)保證烏梅成熟度的檢測(cè)精 度和檢測(cè)速度,滿足在自然環(huán)境中對(duì)烏梅成熟度的檢 測(cè)。當(dāng)烏梅處于綠熟期、半轉(zhuǎn)色期、轉(zhuǎn)色期、成熟期階 段時(shí),改進(jìn)YOLOv7—1模型的識(shí)別正確率分別為 98.66%.94.33%.94.66%.98.33% 。
2)為驗(yàn)證改進(jìn)的YOLOv7模型的性能,設(shè)置4組網(wǎng)絡(luò)進(jìn)行實(shí)驗(yàn)驗(yàn)證,并對(duì)結(jié)果進(jìn)行定量分析,試驗(yàn)結(jié)果表明改進(jìn)的YOLOv7—1模型更好。其平均精確均值比改進(jìn)YOLOv7—2模型、FasterR—CNN模型、YOLOv3模型、MaskR—CNN模型、YOLOv5s模型、YOLOv5l模型、YOLOv7模型和YOLOv8模型分別高 4.8% 、 12.4% 、 0.9% 、 0.7% 、 12.6% ) 1.7%.5.8% 和 12.3% 。
3)根據(jù)烏梅生長(zhǎng)過(guò)程中各種激素與其顏色關(guān)聯(lián)機(jī)制,通過(guò)機(jī)器視覺(jué)和圖像處理方法,獲得果實(shí)顏色特征參數(shù)。研究結(jié)果有助于完善烏梅成熟度評(píng)價(jià)指標(biāo),確定烏梅成熟度適時(shí)采摘,為后續(xù)保鮮、包裝和運(yùn)輸方式選擇提供依據(jù)。
參考文獻(xiàn)
[1]黃海.淺析我國(guó)烏梅產(chǎn)業(yè)發(fā)展現(xiàn)狀、存在的問(wèn)題及發(fā)展建議[J].科學(xué)種養(yǎng),2018(8):9-10.
[2]張君成,梁華,王燕,等.烏梅藥理作用研究進(jìn)展[J].遼寧中醫(yī)藥大學(xué)學(xué)報(bào),2021,23(8):122—126.
[3]劉宇飛,湯曉華.基于機(jī)器視覺(jué)的番茄顏色分級(jí)方法的研究[J].機(jī)電產(chǎn)品開(kāi)發(fā)與創(chuàng)新,2013,26(2):99—100.
[4]周文靜,查志華,吳杰.改進(jìn)圓形Hough變換的田間紅提葡萄果穗成熟度判別[J].農(nóng)業(yè)工程學(xué)報(bào),2020,36(9):205-213.Zhou Wenjing,Zha Zhihua,Wu Jie. Ear maturity red grape in field based on improved circular Houghtransform [J]. Transactions the Chinese Society Agricultural ,2020,36(9):205-213.
[5]王立舒,秦銘霞,雷潔雅,等.基于改進(jìn) YOLOv4—Tiny的藍(lán)莓成熟度識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(18):170—178.WangLishu,QinMingxia,LeiJieya,etal.Blueberry maturity recognition method based on improvedYOLOv4—Tiny [J]. Transactions the Chinese Society Agricultural ,2021,37(18):170—178.
[6]李竹,牟昌紅,嵇康軒,等.基于深度學(xué)習(xí)的藍(lán)莓成熟度預(yù)測(cè)[J].安徽農(nóng)業(yè)科學(xué),2023,51(5):232-236.
[7]王勇,陶兆勝,石鑫宇,等.基于改進(jìn)YOLOv5s的不同成熟度蘋(píng)果目標(biāo)檢測(cè)方法[J].南京農(nóng)業(yè)大學(xué)學(xué)報(bào),2024,47(3):602-611.
[8]苗榮慧,李志偉,武錦龍.基于改進(jìn)YOLOv7的輕量化櫻桃番茄成熟度檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2023,54(10):225-233.Miao Ronghui,Li Zhiwei,Wu Jinlong,et al.Light-weight cherry tomato maturity detection method basedon improved YOLOv7 [J]. Transactions the ChineseSociety forAgriculturalMachinery,2O23, 54(10):225-233.
[9]Wang C,Bochkovskiy A,Liao H. YOLOv7:Trainablebag--freebies setsnew state--the-art for real-timeobject detectors [C]. Proceedings the IEEE/CVFConference on Computer Vision and Pattern Recognition,2023:7464—7475.
[10] Dosovitskiy A,Beyer L,Kolesnikov A,et al. An image isworth 16×16 words:Transformers forimagerecognitionat scale[J].arXiv preprintarXiv:2010.11929,2020.
[11]ZhuL,WangX,Ke Z,etal. BiFormer:Vision transformerwith Bi-Level Routing Attention [C].Proceedings theIEEE/CVF Conference on Computer Vision and PatternRecognition,2023:10323—10333.
[12]李天華,孫萌,丁小明,等.基于YOLOv4十HSV的成熟期番茄識(shí)別方法[J].農(nóng)業(yè)工程學(xué)報(bào),2021,37(21):183—190.Li Tianhua, Sun Meng,Ding Xiaoming,etal.Recognition method mature tomatobasedonYOLOv4+HSV [J]. Transactions the Chinese Society Agricultural ,2021,37(21):183-190.