陳國防,陳兆英,王玉亮,王金星,范國強(qiáng),李漢卿
(1. 山東農(nóng)業(yè)大學(xué)機(jī)械與電子工程學(xué)院,山東泰安,271018;2. 山東省園藝機(jī)械與裝備重點(diǎn)實(shí)驗(yàn)室,山東泰安,271018)
蘋果產(chǎn)業(yè),是我國極為重要的果業(yè)品種之一,對(duì)我國的果業(yè)經(jīng)濟(jì)、進(jìn)出口創(chuàng)匯等有著重要影響。蘋果花的開花強(qiáng)度(生長早期果園的花朵數(shù)量)與果實(shí)數(shù)量和果實(shí)品質(zhì)之間有著很大的關(guān)系[1],適當(dāng)?shù)氖杌商嵘麑?shí)的產(chǎn)量和品質(zhì)。但目前在自動(dòng)疏花方面的研究進(jìn)展還有限,通常是隨機(jī)選取果園內(nèi)的果樹,通過人工觀察進(jìn)行開花強(qiáng)度估值。因此,將現(xiàn)在較為先進(jìn)的計(jì)算機(jī)視覺技術(shù)應(yīng)用于蘋果花的檢測,不僅對(duì)促進(jìn)疏花機(jī)器人的發(fā)展具有重要意義,而且可以提高疏花效率和果農(nóng)的經(jīng)濟(jì)效益[2-3]。
近年來,隨著深度學(xué)習(xí)技術(shù)的深入研究,卷積神經(jīng)網(wǎng)絡(luò)在農(nóng)業(yè)領(lǐng)域圖像識(shí)別中的應(yīng)用不斷深入。Kapach等[4]研究分析了在水果采摘機(jī)器人視覺領(lǐng)域的各種方法的優(yōu)劣性。張星等[5]研究了基于YOLOv3的菠蘿拾撿識(shí)別方法。李龍等[6]研究了基于紋理和梯度特征的蘋果傷痕與果梗/花萼在線識(shí)別方法。Dias等[7]提出一種稱為CNN+SVM的蘋果花識(shí)別檢測方法。王丹丹等[8]研究了基于R-FCN深度卷積神經(jīng)網(wǎng)絡(luò)的機(jī)器人蔬果前蘋果目標(biāo)檢測方法。Yu等[9]使用Mask R-CNN進(jìn)行草莓檢測以及成熟度估計(jì)。熊俊濤等[10]提出了一種Des-YOLOv3算法,可實(shí)現(xiàn)夜間成熟柑橘的識(shí)別與檢測。
以上研究大部分都集中在成熟水果的檢測與識(shí)別上,但很少有針對(duì)結(jié)果之前蘋果花檢測的研究應(yīng)用。針對(duì)這些問題,深度學(xué)習(xí)可以更好的提取蘋果花的識(shí)別特征,結(jié)合數(shù)據(jù)增強(qiáng)的方法,能有效解決蘋果花識(shí)別困難的問題?;诖吮狙芯刻岢龌跀?shù)據(jù)增強(qiáng)深度學(xué)習(xí)的蘋果花識(shí)別檢測方法,使用在線數(shù)據(jù)增強(qiáng)與離線數(shù)據(jù)增強(qiáng)等方式,針對(duì)YOLOv4網(wǎng)絡(luò)模型進(jìn)行研究和提升,為果園的化學(xué)疏花與機(jī)械疏花提供有益的理論基礎(chǔ)與參考。
試驗(yàn)所用的蘋果花圖像在(國家蘋果工程技術(shù)研究中心)山東省果樹研究所天平湖試驗(yàn)示范基地蘋果園采集。試驗(yàn)區(qū)中心經(jīng)度和緯度分別為東經(jīng)117°1′33″和北緯36°13′1″。該試驗(yàn)區(qū)主要種植富士與王林兩個(gè)品種的蘋果,種植方式均為矮砧密植型。
圖像采集設(shè)備為佳能CanonEOS80D相機(jī),相機(jī)有效像素為2 420萬。拍攝試驗(yàn)數(shù)據(jù)為盛開的蘋果花的正面、側(cè)面和遮擋等圖像,拍攝于2021年3月29日—4月13日。為了取得更全面的蘋果花圖像,選取拍攝時(shí)間為每天的8:30~9:30、11:00~12:00、15:00~16:00三個(gè)時(shí)間段,連續(xù)隨機(jī)拍攝試驗(yàn)區(qū)內(nèi)的蘋果花。拍攝時(shí)分為遠(yuǎn)景和近景,遠(yuǎn)景、近景相機(jī)鏡頭分別距離蘋果花拍攝目標(biāo)100~150 cm和30~50 cm,按行間兩側(cè)不同方向進(jìn)行拍攝。
為驗(yàn)證本文提出方法的有效性,本試驗(yàn)基于Windows10x64操作系統(tǒng),深度學(xué)習(xí)庫采用Tensorflow搭建,編程語言使用Python,軟件平臺(tái)為Windows10+tensorflow2.4.1+CUDA11.0+ cuDNN8.0.5 + VS2019+PyCharm。硬件平臺(tái)為Intel(R)Core(TM)i7-10700F2.9 GHzCPU+32 GB內(nèi)存+一個(gè)NVIDIAGeForceRTX3060 12 GB GPU和1.5 TB的存儲(chǔ)容量。數(shù)據(jù)集標(biāo)注軟件使用LabelImg。
試驗(yàn)中,由于果園中每棵蘋果樹所包含的蘋果花圖像的特征信息不一致,因此在果園中隨機(jī)選取了60棵樹,通過在行間兩側(cè)拍攝與遠(yuǎn)近景拍攝的方式,實(shí)地拍攝蘋果花圖像共974幅,如圖1所示。
(a) 近景蘋果花圖像1 (b) 近景蘋果花圖像2 (c) 遠(yuǎn)景蘋果花圖像1 (d) 遠(yuǎn)景蘋果花圖像2圖1 蘋果花圖像示例Fig. 1 Apple flower image example
然后對(duì)蘋果花圖像進(jìn)行人工標(biāo)注,圖像標(biāo)記使用LabelImg軟件完成。通過包含蘋果花的最小矩形框進(jìn)行標(biāo)注,標(biāo)記為XML文件存儲(chǔ)格式,并以PASCAL VOC數(shù)據(jù)集格式進(jìn)行存儲(chǔ)。
2.1.1 YOLOv3網(wǎng)絡(luò)模型
YOLOv3[11]是YOLO的第3個(gè)版本,它通過結(jié)合淺層和深層特征來提取有利的特征。隨著輸出特征圖的數(shù)量和比例的變化,邊界框的比例也會(huì)相應(yīng)調(diào)整。YOLOv3采用多個(gè)scale融合的方式做預(yù)測,使用K-means聚類算法來獲得9個(gè)尺度的Bounding Box,為每個(gè)向下擴(kuò)展的尺度設(shè)置3個(gè)Bounding Box預(yù)測。13×13的featuremap(特征圖)具有最大的感受野,相應(yīng)的最大預(yù)測框適用于檢測較大的物體。26×26的featuremap具有中等感受野,相應(yīng)的中等預(yù)測框適用于檢測中等大小的物體。52×52的featuremap感受野最小,對(duì)應(yīng)的最小預(yù)測框適用于檢測最小尺寸的物體。YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu),如圖2所示。
圖2 YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)Fig. 2 YOLOv3 network structure
2.1.2 YOLOv4網(wǎng)絡(luò)模型
在本研究中,采用的YOLOv4網(wǎng)絡(luò)與YOLOv3網(wǎng)絡(luò)相比,本方法在數(shù)據(jù)處理中引入了Mosaic數(shù)據(jù)增強(qiáng)。同時(shí),在骨干網(wǎng)絡(luò)中加入了CSP[12]網(wǎng)絡(luò),在Darknet53的殘差單元上均加入了CSP,以提高網(wǎng)絡(luò)的深度學(xué)習(xí)能力。此外,對(duì)網(wǎng)絡(luò)訓(xùn)練、激活函數(shù)和損失函數(shù)進(jìn)行了優(yōu)化,使YOLOv4更快,實(shí)現(xiàn)了準(zhǔn)確性和速度之間的最佳平衡。YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,YOLOv4網(wǎng)絡(luò)利用神經(jīng)網(wǎng)絡(luò)框架CSPDarknet53作為訓(xùn)練和提取圖像特征的主干網(wǎng)絡(luò),然后將PANet(路徑聚合網(wǎng)絡(luò))用在三個(gè)有效特征層上,實(shí)現(xiàn)對(duì)提取特征的更好融合[12]。
圖3 YOLOv4網(wǎng)絡(luò)結(jié)構(gòu)Fig. 3 YOLOv4 network structure
本算法使用CSPDarknet53作為其骨干網(wǎng)絡(luò),主要由DBM模塊和CSPResNet模塊構(gòu)成,DBM模塊由卷積層(Conv)、批歸一化層(Batch Normolization,BN)和Mish激活功能組成。本算法將以往殘差塊的堆疊拆分成兩部分,為CSP Net結(jié)構(gòu)形式:主干部分進(jìn)行傳統(tǒng)的殘差塊堆疊操作,另一部分幾乎不經(jīng)過計(jì)算,像一個(gè)殘差邊一樣與主干部分計(jì)算后的結(jié)果進(jìn)行拼接[12]。通過對(duì)兩部分的跨級(jí)拼接與通道整合,增強(qiáng)卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力。CSP結(jié)構(gòu)如圖4所示,其中part1部分與YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)相同,part2部分則幾乎不經(jīng)過計(jì)算與part1計(jì)算后的結(jié)果進(jìn)行拼接。CSPResnet相比Resnet提高了計(jì)算速度。
圖4 CSPResNe(X)t網(wǎng)絡(luò)結(jié)構(gòu)圖Fig. 4 CSPResNe(X)t network structure diagram
另外,本算法在檢測部分使用了空間金字塔池化層SPP模塊,解決輸入圖像尺寸不統(tǒng)一的問題。在邊界框的預(yù)測方式上利用K-means聚類生成不同尺度的先驗(yàn)框,并在不同層級(jí)的特征圖上進(jìn)行預(yù)測,同時(shí)采用PANet對(duì)不同層級(jí)的特征進(jìn)行融合。
2.2.1 優(yōu)化邊框回歸損失函數(shù)
在YOLOv4網(wǎng)絡(luò)模型的基礎(chǔ)上,選用損失函數(shù)CIOU代替MSE,改進(jìn)損失函數(shù),提高目標(biāo)框回歸的穩(wěn)定性。損失函數(shù)主要分為三大部分:邊框回歸損失、置信度損失以及分類損失,YOLOv3的損失函數(shù)[13]如式(1)所示。
(1)
式中:λobj——當(dāng)前網(wǎng)格是否存在物體,取值為0或1;
tω——真實(shí)框的寬度;
th——真實(shí)框的高度;
tr——真實(shí)坐標(biāo)損失;
pr——預(yù)測坐標(biāo)損失;
tclass——真實(shí)分類;
pclassr——預(yù)測分類;
tconf——真實(shí)置信度;
pconf——預(yù)測置信度。
YOLOv3目標(biāo)檢測模型進(jìn)行邊框回歸時(shí),MSE(均方誤差)損失函數(shù)直接根據(jù)預(yù)測框和真實(shí)框的中心點(diǎn)坐標(biāo)和寬度、高度信息進(jìn)行設(shè)置。本試驗(yàn)中選用損失函數(shù)CIOU代替MSE,其他兩個(gè)部分不做實(shí)質(zhì)改變。幾種典型的損失函數(shù)分別定義如下。
1)IOU損失。IOU[14]損失定義為1與預(yù)測框A和真實(shí)框B之間交并比的差值。
LIOU=1-IOU(A,B)
(2)
IOU損失函數(shù)在bounding box沒有重疊時(shí)不提供滑動(dòng)梯度,只在它們重疊的時(shí)候才有效。
2)GIOU損失。GIOU[15]在原來的IOU損失的基礎(chǔ)上增加一個(gè)懲罰項(xiàng),以緩解IOU損失在檢測框不重疊時(shí)出現(xiàn)的梯度問題,如式(3)所示。
(3)
式中:A——預(yù)測框;
B——真實(shí)框;
C——A和B的最小包圍框。
A,B,C的關(guān)系,如圖5(a)所示,懲罰項(xiàng)的含義為圖5(b)中黃色區(qū)域與C的面積的比值。
(a) bounding box關(guān)系圖
(b) 懲罰項(xiàng)圖5 GIOU邊框回歸損失Fig. 5 GIOU loss for bounding box regression
3)DIOU損失函數(shù)。DIOU在GIOU的基礎(chǔ)上考慮了中心點(diǎn)的距離。GIOU是通過增大和移動(dòng)預(yù)測框,直到預(yù)測框與真實(shí)框有重疊然后才能進(jìn)行式(3)中IOU(A,B)的計(jì)算。這將消耗大量的時(shí)間在預(yù)測框嘗試與真實(shí)框接觸上,影響損失的收斂速度。為此DIOU損失也多出一個(gè)懲罰項(xiàng),增加了對(duì)中心點(diǎn)距離的考慮,如式(4)所示。
RDIOU=ρ2(Actr,Bctr)/c2
(4)
式中:Actr——預(yù)測框中心點(diǎn)坐標(biāo);
Bctr——真實(shí)框中心點(diǎn)坐標(biāo);
ρ——?dú)W式距離;
c——A,B最小包圍框的對(duì)角線長度。
所以兩個(gè)框距離越遠(yuǎn),DIOU越接近2;距離越近,DIOU越接近0。
4)CIOU損失函數(shù)。本文使用CIOU作為邊框回歸損失函數(shù),CIOU考慮到anchor之間的重疊面積、中心點(diǎn)距離、長寬比三個(gè)幾何因素,使得目標(biāo)框回歸變得更加穩(wěn)定。CIOU的公式如式(5)、式(6)所示。
(5)
(6)
式中:α——權(quán)重系數(shù);
υ——長寬相似比衡量參數(shù)。
CIOU邊框回歸損失示意圖如圖6所示,d=ρ(Actr,Bctr)為中心點(diǎn)坐標(biāo)的歐氏距離,c為最小包圍框的對(duì)角線距離。
圖6 CIOU邊框回歸損失Fig. 6 CIOU loss for bounding box regression
α和υ的公式如式(7)、式(8)。
(7)
(8)
式中:ω——預(yù)測邊界框的寬;
h——預(yù)測邊界框的高;
ωgt——真實(shí)邊界框的寬;
hgt——真實(shí)邊界框的高。
1-CIOU即為對(duì)應(yīng)的Loss函數(shù),如式(9)所示。
(9)
當(dāng)ω和ωgt、h和hgt一致時(shí),懲罰項(xiàng)便不發(fā)揮作用,此時(shí)υ為0。所以CIOU的懲罰項(xiàng)可以使ω和ωgt、h和hgt快速擬合。
2.2.2 改進(jìn)數(shù)據(jù)增強(qiáng)
為豐富和平衡蘋果花圖像的訓(xùn)練集數(shù)據(jù),以更好的提取蘋果花的特征,泛化模型,同時(shí)可以減少人工標(biāo)注的工作量,進(jìn)行離線和在線數(shù)據(jù)增強(qiáng)的YOLOv4方法。
本文使用Python程序?qū)?biāo)注好的蘋果花圖像數(shù)據(jù)集進(jìn)行離線數(shù)據(jù)增強(qiáng)。由于受光照影響,拍攝的圖像差別較大,使得蘋果花圖像數(shù)據(jù)不均衡。所以對(duì)圖像增強(qiáng)處理,進(jìn)行旋轉(zhuǎn)圖像、裁剪圖像、平移圖像、鏡像圖像和加噪聲等預(yù)處理方式擴(kuò)充數(shù)據(jù)集,增強(qiáng)到2 458張數(shù)據(jù)集圖像,并按8∶2劃分訓(xùn)練集和測試集。數(shù)據(jù)增強(qiáng)示例如圖7所示。
圖7中,右側(cè)為原數(shù)據(jù)集圖像,圖7(a)對(duì)原圖進(jìn)行水平或垂直鏡像;圖7(b)對(duì)原圖進(jìn)行角度變換;圖7(c)為平移圖像;圖7(d)對(duì)原圖進(jìn)行隨機(jī)裁剪;圖7(a)~圖7(d)并未改變圖像內(nèi)部信息。圖7(e)對(duì)原圖添加噪聲;圖7(f)對(duì)原圖進(jìn)行亮度增加或降低;圖7(e)、圖7(f)需要改變圖像內(nèi)部信息。同時(shí)對(duì)各種增強(qiáng)方式進(jìn)行了隨機(jī)疊加以增強(qiáng)數(shù)據(jù)集的泛化性,且進(jìn)行裁剪、平移、鏡像和旋轉(zhuǎn)時(shí),同時(shí)要對(duì)bbox進(jìn)行對(duì)應(yīng)調(diào)整。
圖7 蘋果花數(shù)據(jù)增強(qiáng)示例Fig. 7 Apple flower data enhancement example
同時(shí),在訓(xùn)練過程中使用在線的Mosaic數(shù)據(jù)增強(qiáng),代替?zhèn)鹘y(tǒng)的CutMix[16]數(shù)據(jù)增強(qiáng)方式。CutMix數(shù)據(jù)增強(qiáng)方法是將兩張圖片拼接,選擇一張?zhí)O果花數(shù)據(jù)集圖像剪切掉一部分像素,然后再隨機(jī)選擇另一張圖片的同樣大小部分的像素,將第二張圖像的部分區(qū)域添加到第一張圖像中,如圖8所示。
圖8 CutMix數(shù)據(jù)增強(qiáng)結(jié)果Fig. 8 CutMix data enhancement results
Mosaic數(shù)據(jù)增強(qiáng)方式利用4張圖片,用來豐富檢測蘋果花圖像的背景,在BN計(jì)算時(shí),一次性計(jì)算4張圖片的數(shù)據(jù)。Mosaic數(shù)據(jù)增強(qiáng)方式,每次讀取4張圖片,然后分別對(duì)4張圖片進(jìn)行翻轉(zhuǎn)、平移、縮放、裁剪和色域變化等,并且按照4個(gè)方向位置擺好,如圖9所示。
(a) 位置1
(b) 位置2
(c) 位置3
(d) 位置4圖9 Mosaic數(shù)據(jù)增強(qiáng)示例Fig. 9 Mosaic data enhancement example
最后,將4張圖片按照各自的位置,進(jìn)行隨機(jī)裁剪,最終進(jìn)行圖片的組合和框的組合,拼接成一個(gè)圖像,如圖10所示。
圖10 Mosaic數(shù)據(jù)增強(qiáng)結(jié)果Fig. 10 Mosaic data enhancement results
為了檢驗(yàn)?zāi)P偷臋z測性能,本文采用Precision(準(zhǔn)確率,P)、Recall(召回率,R)和Average Precision(平均精確度,AP)三個(gè)指標(biāo)[17]作為評(píng)價(jià)標(biāo)準(zhǔn)對(duì)模型進(jìn)行評(píng)估。
準(zhǔn)確率P表示模型分類器認(rèn)為是正類且事實(shí)上是正類的部分,占所有分類器是正類的比例,計(jì)算公式
(10)
召回率R表示模型分類器認(rèn)為是正類且事實(shí)上是正類的部分,占所有事實(shí)上是正類的比例,計(jì)算公式
(11)
式中:TP——檢測結(jié)果為正類且事實(shí)上是正類的數(shù)量;
FP——檢測結(jié)果為正類而事實(shí)上為負(fù)類的數(shù)量;
FN——檢測結(jié)果為負(fù)類且事實(shí)上是負(fù)類的數(shù)量。
通過對(duì)Precision和Recall各點(diǎn)的組合,最終形成的曲線下面的面積為平均精確度
(12)
式中:P(R)——PR曲線上R對(duì)應(yīng)P的值。
使用YOLOv4網(wǎng)絡(luò),并采用2.2.2中的式(9)所示的CIOU回歸損失函數(shù),對(duì)增強(qiáng)后數(shù)據(jù)集中的1 996幅訓(xùn)練集蘋果花圖像進(jìn)行訓(xùn)練,全局損失函數(shù)值的訓(xùn)練誤差曲線,如圖11所示??煽闯?,前100次迭代模型快速擬合,進(jìn)行到350個(gè)迭代次數(shù)以后曲線趨于平穩(wěn),訓(xùn)練模型收斂。
圖11 訓(xùn)練誤差曲線Fig. 11 Training error curve
為驗(yàn)證該方法的有效性,對(duì)數(shù)據(jù)集圖像中的492幅測試集的蘋果花圖像進(jìn)行測試,結(jié)果如表1所示,本文提出的識(shí)別檢測方法的準(zhǔn)確率為98.07%;召回率為97.56%;平均精確度為99.76%。
表1 本試驗(yàn)?zāi)P蜏y試參數(shù)表Tab. 1 Test parameter list of this experimental model
微調(diào)卷積神經(jīng)網(wǎng)絡(luò)各訓(xùn)練參數(shù),多次試驗(yàn)達(dá)到所需試驗(yàn)標(biāo)準(zhǔn)。模型對(duì)不同蘋果花圖片實(shí)現(xiàn)智能識(shí)別,并給出該圖片對(duì)應(yīng)的蘋果花概率值如圖12所示。可以看出本文提出的方法對(duì)于不同品種蘋果花的聚焦圖像和普通圖像、近景圖像和遠(yuǎn)景圖像均有較好的識(shí)別準(zhǔn)確性,從圖12(d)~圖12(f)可看出本文提出的方法對(duì)于遮擋、傾斜、重疊、順光和逆光的蘋果花的識(shí)別也有效,圖12(d)和圖12(f)可看出該方法對(duì)于完全綻放的蘋果花均能準(zhǔn)確識(shí)別,對(duì)于未開放的花苞或者未完全開放的蘋果花也會(huì)有漏識(shí)別出現(xiàn)。
結(jié)果表明,盡管存在漏識(shí)別的情況,但該方法對(duì)蘋果花的檢測精度較高,滿足果園蘋果花開花強(qiáng)度識(shí)別檢測要求,可對(duì)蘋果園的產(chǎn)量預(yù)估和疏花機(jī)械的研發(fā)提供技術(shù)參考,為蘋果花的化學(xué)疏花決策奠定基礎(chǔ)。
(a) 王林近景圖像
(b) 富士近景圖像
(c) 王林聚焦圖像
(d) 富士聚焦圖像
(e) 王林遠(yuǎn)景圖像
(f) 富士遠(yuǎn)景圖像圖12 蘋果花識(shí)別檢測效果Fig. 12 Apple flower recognition and detection effect
本文為進(jìn)一步驗(yàn)證提出的數(shù)據(jù)增強(qiáng)YOLOv4蘋果花識(shí)別檢測方法,對(duì)果園蘋果花目標(biāo)檢測的優(yōu)勢與有效性,在改進(jìn)模型各項(xiàng)參數(shù)的同時(shí),將該方法與目前具有代表性的目標(biāo)檢測模型YOLOv3、YOLOv4和Faster R-CNN在相同數(shù)據(jù)集下作對(duì)比試驗(yàn)[18]。不同算法對(duì)蘋果花識(shí)別檢測效果如圖13所示,各個(gè)識(shí)別方法的識(shí)別結(jié)果的準(zhǔn)確率、召回率和平均精確度,如表2所示。
(a) 原圖
(b) Faster R-CNN
(c) YOLOv3
(d) YOLOv4
(e) 本文方法圖13 不同算法蘋果花識(shí)別檢測效果對(duì)比Fig. 13 Comparison of apple blossom recognition and detection results with different algorithms
由表2可知,本文所提出的識(shí)別檢測方法的AP值最高,相較于Faster R-CNN提高了2.53%;相較于YOLOv3提高了14.56%;相較于YOLOv4提高了5.08%;表明了采用本文所提出的方法進(jìn)行蘋果花識(shí)別檢測的結(jié)果最優(yōu)。Faster R-CNN在測試集上的平均準(zhǔn)確率雖為97.23%,但準(zhǔn)確率為74.42%過低,作為較復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu),運(yùn)行時(shí)間較長,雖能夠提取較深的蘋果花特征,但可能會(huì)出現(xiàn)過擬合,對(duì)圖像的泛化能力仍有不足。YOLOv3和YOLOv4在測試集上的平均準(zhǔn)確率分別為85.20%和94.68%,在沒有改進(jìn)數(shù)據(jù)增強(qiáng)的情況下,導(dǎo)致識(shí)別準(zhǔn)確率仍較低。本文的算法在測試集上的檢測時(shí)間為105 ms,檢測速度雖不是最快,但準(zhǔn)確率可達(dá)99.76%,相較于Faster R-CNN、YOLOv3和YOLOv4有更高的識(shí)別精確度。經(jīng)上述分析,可得出本文提出的方法實(shí)現(xiàn)了精確度和速度之間的最佳平衡。
表2 各模型測試參數(shù)對(duì)比Tab. 2 Comparison of test parameters of each model
本文提出了一種基于數(shù)據(jù)增強(qiáng)YOLOv4的蘋果花識(shí)別檢測方法。
1) 通過構(gòu)建蘋果花數(shù)據(jù)集,搭建YOLOv4網(wǎng)絡(luò)框架,在骨干網(wǎng)絡(luò)中加入CSP網(wǎng)絡(luò)和PANet結(jié)構(gòu)提高特征提取融合能力,選用損失函數(shù)CIOU代替MSE,改進(jìn)損失函數(shù),并通過離線與在線Mosaic數(shù)據(jù)增強(qiáng)優(yōu)化數(shù)據(jù)增強(qiáng)手段,實(shí)現(xiàn)對(duì)蘋果花的識(shí)別檢測。對(duì)蘋果園的產(chǎn)量預(yù)估和自動(dòng)疏花機(jī)械的研發(fā)提供了技術(shù)保證,為蘋果花的化學(xué)疏花決策奠定了基礎(chǔ)。
2) 通過本文提出的方法識(shí)別檢測蘋果花,識(shí)別準(zhǔn)確率為98.07%,召回率97.56%,平均精確度為99.76%,對(duì)蘋果花具有較好的識(shí)別精準(zhǔn)度和識(shí)別效果。將本方法對(duì)比了Faster R-CNN、YOLOv3和YOLOv4主流網(wǎng)絡(luò)模型識(shí)別方法,對(duì)蘋果花的平均識(shí)別精確度分別提高了2.53%、14.56%和5.08%。
中國農(nóng)機(jī)化學(xué)報(bào)2022年5期