劉芳 劉玉坤 張白
摘要:?? 為解決溫室葉菜子葉期幼苗生長(zhǎng)密集情況下的圖像識(shí)別問題,提出一種密集連接型D-YOLOv3檢測(cè)網(wǎng)絡(luò)。該網(wǎng)絡(luò)以YOLOv3為基礎(chǔ)構(gòu)建主干網(wǎng)絡(luò),改進(jìn)檢測(cè)結(jié)構(gòu)和損失函數(shù)。以穴盤培育的油菜幼苗為例展開一系列試驗(yàn)。首先確定了YOLOv3和D-YOLOv3檢測(cè)網(wǎng)絡(luò)中損失函數(shù)的修正系數(shù);其次通過構(gòu)建的幾種檢測(cè)網(wǎng)絡(luò)的對(duì)比試驗(yàn)驗(yàn)證了對(duì)YOLOv3主干網(wǎng)絡(luò)、檢測(cè)結(jié)構(gòu)和損失函數(shù)改進(jìn)的有效性,D-YOLOv3的幼苗檢測(cè)精度高達(dá)93.44%,檢測(cè)時(shí)間低至12.61 ms,與YOLOv3相比精度提升9.4個(gè)百分點(diǎn),時(shí)間降低4.07 ms;最后進(jìn)行不同密集程度和光照環(huán)境下幼苗圖像的檢測(cè)性能對(duì)比試驗(yàn),結(jié)果表明D-YOLOv3的檢測(cè)精度、檢測(cè)時(shí)間及對(duì)小目標(biāo)的特征提取能力均優(yōu)于YOLOv3。D-YOLOv3能夠?qū)厥噎h(huán)境下的葉菜幼苗進(jìn)行有效檢測(cè),可以為智能檢測(cè)裝備的作物識(shí)別提供依據(jù)。
關(guān)鍵詞:? 小目標(biāo); 圖像檢測(cè); 密集連接; D-YOLOv3檢測(cè)網(wǎng)絡(luò)
中圖分類號(hào):? S636;TP391.41??? 文獻(xiàn)標(biāo)識(shí)碼: A??? 文章編號(hào):? 1000-4440(2021)05-1262-08
Image detection of leafy vegetable seedlings in greenhouse based on D-YOLOv3 detection network
LIU Fang, LIU Yu-kun, ZHANG Bai
(College of Electrical Information Engineering, North Minzu University, Yinchuan 750021, China )
Abstract:?? In order to solve the problem of detecting densely planted leafy vegetable seedlings at cotyledon stage in greenhouse, a densely connected detection network named D-YOLOv3 was proposed. The backbone network of D-YOLOv3 was built based on that of YOLOv3. Simultaneously, the detection structure and loss function of D-YOLOv3 were constructed as the improvement of those of YOLOv3. A series of comparative tests were carried out with rape seedlings cultivated in pot as an example. Firstly, the correction coefficients of loss function in YOLOv3 and D-YOLOv3 detection networks were determined. Then, the effectiveness of the derived backbone network, detection structure and loss function of D-YOLOv3 was verified according to comparative tests with some networks mentioned in the paper. The test results showed that the detection accuracy of D-YOLOv3 was as high as 93.44%, and the detection time was as low as 12.61 ms. Compared with YOLOv3, the detection accuracy was improved by 9.4 percentage point and the detection time was reduced by 4.07 ms. Finally, the performance of YOLOv3 and D-YOLOv3 detection networks was obtained with images of rape seedlings growing under different density and illumination environments. The detection precision and speed of D-YOLOv3 for the proposed image were better than those of YOLOv3 at various densities. The ability of D-YOLOv3 was stronger than that of YOLOv3 to extract features of small targets under different illumination and density conditions. Consequently, the D-YOLOv3 detection network proposed in this paper can effectively identify rape seedlings in the greenhouse and serve as a powerful tool for crop recognition with intelligent detection equipment.
Key words:? small target; image detection; dense connection; D-YOLOv3 detection network
幼苗識(shí)別是植物表型檢測(cè)的重要組成部分,對(duì)幼苗生長(zhǎng)、品種選育等具有重要意義? [1-4] 。利用圖像處理技術(shù)來準(zhǔn)確高效識(shí)別幼苗十分必要。圖像處理具有成本低、直觀、非接觸式等優(yōu)點(diǎn),在智慧農(nóng)業(yè)領(lǐng)域備受青睞? [5] 。傳統(tǒng)圖像識(shí)別方法利用支持向量機(jī)(SVM)? [6] 、K近鄰算法(KNN)? [7] 、隨機(jī)森林算法? [8] 等方法手動(dòng)提取顏色、紋理、形態(tài)等特征來分割圖像,然后結(jié)合反向傳播神經(jīng)(BP)網(wǎng)絡(luò)進(jìn)行作物識(shí)別。上述方法對(duì)于小目標(biāo)或由光照等自然環(huán)境因素導(dǎo)致的圖像顏色不均勻、有陰影等情況,識(shí)別效果不理想? [9-10] 。
深度卷積神經(jīng)網(wǎng)絡(luò)(Deep convolutional neural network, DCNN)對(duì)作物具有較好的識(shí)別能力? [11] 。目前基于DCNN的主流目標(biāo)檢測(cè)算法有Fast R-CNN? [12] 、Faster R-CNN? [13] 以及YOLO(You only look once)系列網(wǎng)絡(luò)? [14-16] 等。孫哲等? [17] 利用Faster R-CNN網(wǎng)絡(luò)檢測(cè)株距較大的田間西蘭花幼苗圖像,檢測(cè)精度達(dá)到91.73%,平均耗時(shí)249 ms。該方法針對(duì)田間幼苗圖像,每幅圖像只含有1個(gè)目標(biāo),且在圖像中占比較大(常規(guī)目標(biāo))。溫室環(huán)境下利用穴盤培育的葉菜類子葉期幼苗生長(zhǎng)密集,在圖像中占比較?。ㄐ∧繕?biāo))且光照變化多樣。相較于田間西蘭花幼苗等常規(guī)目標(biāo),溫室葉菜幼苗等小目標(biāo)所含信息量較少,導(dǎo)致其圖像檢測(cè)難度增大。目前溫室環(huán)境下葉菜類子葉期幼苗的圖像檢測(cè)鮮有報(bào)道。
本研究以YOLOv3檢測(cè)網(wǎng)絡(luò)為基礎(chǔ),根據(jù)幼苗圖像的特點(diǎn),對(duì)主干網(wǎng)絡(luò)和檢測(cè)結(jié)構(gòu)進(jìn)行改進(jìn),同時(shí)對(duì)損失函數(shù)進(jìn)行改善,提出一種基于密集連接的D-YOLOv3檢測(cè)網(wǎng)絡(luò),構(gòu)建適用于不同光照環(huán)境下的小目標(biāo)圖像檢測(cè)方法。
1 試驗(yàn)材料與試驗(yàn)平臺(tái)
以穴盤中培育的油菜幼苗為例,采集其從萌發(fā)到子葉期的生長(zhǎng)圖像。為保證樣本多樣性,對(duì)溫室環(huán)境下不同時(shí)段、不同密集程度的幼苗進(jìn)行拍攝。光源包含了白天的正常光照、復(fù)合光照以及夜間光照,其中復(fù)合光照是由不同配比的紅、藍(lán)光復(fù)合而成。所有圖像均由C6C型號(hào)螢石云攝像機(jī)自動(dòng)拍攝,白天為彩色,夜間為灰度,分辨率為 1 920 像 素×? 1 080 像素,保存為JPEG格式。圖1為一組典型不同光照環(huán)境下的幼苗圖像,可以看出幼苗生長(zhǎng)密集且大多較小。
選取500幅圖像,其中正常光照137幅,復(fù)合光照174幅,夜間光照189幅。為了豐富圖像數(shù)據(jù)集、減小因樣本數(shù)量不足導(dǎo)致檢測(cè)網(wǎng)絡(luò)過擬合的概率,對(duì)圖像進(jìn)行旋轉(zhuǎn)、縮放等操作,實(shí)現(xiàn)圖像數(shù)據(jù)擴(kuò)增;然后進(jìn)行直方圖增強(qiáng)處理,減小因不同光照環(huán)境導(dǎo)致幼苗識(shí)別率降低的影響,提升檢測(cè)網(wǎng)絡(luò)的泛化能力。處理后得到 4 000 幅圖像,其中 3 200 幅作為訓(xùn)練集用于檢測(cè)網(wǎng)絡(luò)的訓(xùn)練,400幅作為驗(yàn)證集用于檢測(cè)網(wǎng)絡(luò)的參數(shù)優(yōu)化調(diào)節(jié),400幅作為測(cè)試集用于檢測(cè)網(wǎng)絡(luò)的泛化能力驗(yàn)證。此外,將所有圖像壓縮至416像素×416像素以縮減試驗(yàn)時(shí)間,之后進(jìn)行人工標(biāo)注??紤]到圖像中幼苗均為小目標(biāo),因此利用每個(gè)幼苗的最小外接矩形進(jìn)行標(biāo)注,盡量減小標(biāo)注框內(nèi)包含的背景像素。最后對(duì)幼苗圖像重新聚類,得到合適的初始錨框以提升檢測(cè)精度。
試驗(yàn)平臺(tái)為臺(tái)式計(jì)算機(jī),處理器為Inter core i7-9800X,主頻3.8GHz,16GB內(nèi)存,1T固態(tài)硬盤,GPU為NVIDIA GeForce GTX 2080Ti。操作系統(tǒng)為64位Ubuntu16.04,深度學(xué)習(xí)框架為Darknet。部分參數(shù)設(shè)置為:初始學(xué)習(xí)率0.001,衰減方式為階梯型(step-based),最大迭代次數(shù) 2.0× 10 4次,每次迭代訓(xùn)練64個(gè)樣本數(shù),學(xué)習(xí)率分別在 1.6× 10 4和 1.8× 10 4次迭代時(shí)衰減為原學(xué)習(xí)率的0.1,動(dòng)量設(shè)置為0.9。
2 密集連接型D-YOLOv3幼苗檢測(cè)網(wǎng)絡(luò)
選用兼顧速度與精度的YOLOv3作為基礎(chǔ)檢測(cè)網(wǎng)絡(luò),針對(duì)其小目標(biāo)檢測(cè)效果不理想等問題,改進(jìn)如下:(1)借鑒密集連接網(wǎng)絡(luò)(Densely connected convolutional networks, DenseNet)的密集連接思想? [18] ,對(duì)基于殘差思想的YOLOv3主干網(wǎng)絡(luò)進(jìn)行改進(jìn),提升小目標(biāo)檢測(cè)精度;(2)精簡(jiǎn)檢測(cè)結(jié)構(gòu),降低檢測(cè)時(shí)間;(3)改進(jìn)損失函數(shù),調(diào)整小目標(biāo)預(yù)測(cè)框定位權(quán)重,進(jìn)一步提高檢測(cè)精度。將上述基于密集連接方式而改進(jìn)的檢測(cè)網(wǎng)絡(luò)命名為密集連接型D-YOLOv3(Dense-YOLOv3)。
2.1 密集連接方式的優(yōu)勢(shì)
殘差塊是YOLOv3檢測(cè)網(wǎng)絡(luò)進(jìn)行特征提取的基本單元,密集塊(Dense block)是DenseNet的基本組成單元(圖2)。兩者結(jié)構(gòu)上的不同之處在于:(1)殘差塊利用旁路連接將前層卷積輸出信息直接傳遞給后層,密集塊將每一層的輸入與前面所有卷積層輸出相連接。(2)殘差塊將兩層卷積層進(jìn)行累加,輸出特征圖的維度不增加;密集塊將所有卷積層進(jìn)行張量拼接,輸出特征圖的維度增加,可以提取更多特征信息。綜上所述,密集連接方式可以增強(qiáng)特征傳播,促進(jìn)特征復(fù)用,減少參數(shù)量,故而對(duì)小目標(biāo)檢測(cè)有著極大的促進(jìn)作用。
2.2 D-YOLOv3幼苗檢測(cè)網(wǎng)絡(luò)的構(gòu)建
小目標(biāo)的檢測(cè)需要通過特征圖的淺層信息充分獲取小目標(biāo)的特征信息? [19] 。本研究根據(jù)幼苗圖像的特點(diǎn),針對(duì)YOLOv3檢測(cè)網(wǎng)絡(luò)在小目標(biāo)檢測(cè)中的不足,設(shè)計(jì)基于DenseNet的主干網(wǎng)絡(luò)和多尺度檢測(cè)結(jié)構(gòu),構(gòu)建D-YOLOv3幼苗檢測(cè)網(wǎng)絡(luò)。
YOLOv3檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)如圖3(a)所示,其中卷積單元由卷積層、批量歸一化層和激活函數(shù)順序組成。YOLOv3主干網(wǎng)絡(luò)對(duì)輸入圖像進(jìn)行5次下采樣,第 3~ 5次下采樣順序產(chǎn)生52像 素× 52像素、26像 素× 26像素、13像 素× 13像素特征圖。對(duì)小目標(biāo)的檢測(cè),需要利用殘差塊3提取第3次下采樣后特征圖中的淺層信息,但其提取能力不足導(dǎo)致YOLOv3的檢測(cè)能力不足。另一方面,葉菜幼苗大多集中在52像 素× 52像素尺度下,小部分在26像 素× 26像素尺度下,采用兩尺度檢測(cè)結(jié)構(gòu)即可完成幼苗檢測(cè),而YOLOv3檢測(cè)結(jié)構(gòu)含有3個(gè)尺度,導(dǎo)致檢測(cè)時(shí)間增大。通過上述分析,構(gòu)建如圖3(b)所示的新型D-YOLOv3檢測(cè)網(wǎng)絡(luò)。其改進(jìn)思路如下:(1)針對(duì)YOLOv3中殘差結(jié)構(gòu)對(duì)小目標(biāo)特征提取能力不足問題,借鑒密集連接思想,將YOLOv3的殘差塊1、2、3、4分別替換為密集塊1、2、3、5,融合更多層的特征信息來提取更豐富的特征信息,提升小目標(biāo)的特征提取能力。(2)針對(duì)YOLOv3只在第3、4次下采樣后分別利用一個(gè)殘差塊進(jìn)行特征提取,對(duì)淺層信息提取能力不足等問題,D-YOLOv3在第3、4次下采樣后添加2個(gè)密集塊4、6充分提取淺層特征信息。由于密集塊將所有卷積層進(jìn)行張量拼接導(dǎo)致特征維度增加,尤其是網(wǎng)絡(luò)層級(jí)較深時(shí)特征維度一般較大,若不加以限制,特征維度無限增加,網(wǎng)絡(luò)將耗時(shí)較長(zhǎng),浪費(fèi)計(jì)算資源。因此,在密集塊3、4、5、6之間添加卷積單元作為過渡層以降低特征維度,用以節(jié)約計(jì)算資源。(3)根據(jù)葉菜幼苗不會(huì)出現(xiàn)在13像素×13像素尺度下的特點(diǎn),優(yōu)化檢測(cè)結(jié)構(gòu)。保留中、小目標(biāo)的檢測(cè)層1、2,刪除YOLOv3中用于提取較大目標(biāo)特征的殘差塊5和檢測(cè)較大目標(biāo)的檢測(cè)層3,在不降低幼苗檢測(cè)能力的同時(shí)可以節(jié)約計(jì)算資源,減少檢測(cè)時(shí)間。
綜上所述,借鑒DenseNet密集連接思想,從主干網(wǎng)絡(luò)和檢測(cè)結(jié)構(gòu)2個(gè)層面對(duì)YOLOv3進(jìn)行重構(gòu)。D-YOLOv3檢測(cè)網(wǎng)絡(luò)的主要模塊及其功能如下:(1)采用6個(gè)密集塊提升對(duì)小目標(biāo)特征提取的能力;(2)采用4次下采樣提取特征信息,在第3、4次下采樣之后分別加入2個(gè)密集塊提取淺層特征信息并利用張量拼接融合2次下采樣的特征;(3)采用2層檢測(cè)層對(duì)小、中尺度幼苗進(jìn)行檢測(cè),縮減網(wǎng)絡(luò)檢測(cè)時(shí)間。
2.3 損失函數(shù)的改進(jìn)
小目標(biāo)檢測(cè)的難點(diǎn)之一在于其難以定位,合理的損失函數(shù)可以有效降低小目標(biāo)的定位誤差,加快訓(xùn)練速度,提升檢測(cè)精度。YOLOv3的損失函數(shù)包含預(yù)測(cè)框定位誤差、置信度誤差和類別誤差3部分。本研究從降低小目標(biāo)預(yù)測(cè)框定位誤差的角度對(duì)YOLOv3損失函數(shù)進(jìn)行改進(jìn)。借鑒Kisantal等? [20] 的小目標(biāo)檢測(cè)思想,通過修正預(yù)測(cè)框中心點(diǎn)和長(zhǎng)寬誤差的權(quán)重系數(shù)減小原損失函數(shù)的預(yù)測(cè)框定位誤差。據(jù)此,將YOLOv3的損失函數(shù) L 改進(jìn)如下:
L=k(2-w*h)[L(x,y)+L(w,y)]+k? conf? L(conf)+ k cL(c)? (1)
式中, L(x,y) 、 L(w,y) 分別為預(yù)測(cè)邊界框中心坐標(biāo)( x、y )和寬( w)、 高 (h) 的誤差; L(conf) 、 L(c) 分別為預(yù)測(cè)置信度( conf )和類別( c )的誤差; k? conf? 、 k c 為相應(yīng)誤差的權(quán)重系數(shù); k 為預(yù)測(cè)框中心點(diǎn)和寬高誤差的修正系數(shù)。
3 葉菜幼苗圖像檢測(cè)試驗(yàn)結(jié)果與分析
首先確定最佳修正系數(shù),然后將YOLOv3檢測(cè)網(wǎng)絡(luò)與D-YOLOv3檢測(cè)網(wǎng)絡(luò)進(jìn)行對(duì)比試驗(yàn)。為驗(yàn)證D-YOLOv3檢測(cè)網(wǎng)絡(luò)在溫室復(fù)雜環(huán)境中的檢測(cè)性能,分別以幼苗密集程度、光照為控制變量對(duì)檢測(cè)網(wǎng)絡(luò)的性能進(jìn)行評(píng)估,并與YOLOv3檢測(cè)網(wǎng)絡(luò)的檢測(cè)效果進(jìn)行對(duì)比。
3.1 檢測(cè)網(wǎng)絡(luò)的性能評(píng)價(jià)指標(biāo)
采用檢測(cè)精度( P?? a )、檢測(cè)時(shí)間( t?? d )作為檢測(cè)網(wǎng)絡(luò)的主要性能評(píng)價(jià)指標(biāo)。 P?? a 為檢測(cè)網(wǎng)絡(luò)測(cè)試目標(biāo)的平均檢測(cè)精度,其值越大檢測(cè)網(wǎng)絡(luò)的性能越好。 t?? d 為檢測(cè)網(wǎng)絡(luò)測(cè)試時(shí)所用時(shí)間,其值越小檢測(cè)性能越好。準(zhǔn)確率( P )表示所有被預(yù)測(cè)為正樣本中實(shí)際為正樣本的概率,召回率( R )表示實(shí)際為正樣本中被預(yù)測(cè)為正樣本的概率。檢測(cè)精度( P?? a )與準(zhǔn)確率( P )和召回率( R )有關(guān),三者的計(jì)算公式如下:
P = ?T? P ?T? P+ F? P? (2)
R = ?T? P ?T? P+ F? N? (3)
P? a= ∫ 1 0 P*RdR? (4)
式中 ?T?? P 為被正確劃分為正樣本的數(shù)量, F?? P 為被錯(cuò)誤劃分為正樣本的數(shù)量, F?? N 為被錯(cuò)誤劃分為負(fù)樣本的數(shù)量。
P?? a 從 R 和 P 兩方面來衡量檢測(cè)算法的準(zhǔn)確性,是評(píng)價(jià)檢測(cè)模型準(zhǔn)確性的直觀評(píng)價(jià)標(biāo)準(zhǔn),可以用來分析單個(gè)類別的檢測(cè)效果? [21] 。
3.2 修正系數(shù)的確定
保持式(1)其他參數(shù)不變,改變修正系數(shù)( k ),分別針對(duì)YOLOv3和D-YOLOv3檢測(cè)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。由于損失函數(shù)( L )對(duì)修正系數(shù)( k )的變化較為敏感,因此對(duì) k 進(jìn)行微調(diào)即可, k 取值區(qū)間為[1.0,2.0],步長(zhǎng)取0.1。網(wǎng)絡(luò)訓(xùn)練結(jié)束時(shí)得到一組對(duì)應(yīng)的損失函數(shù)值,再利用訓(xùn)練好的網(wǎng)絡(luò)對(duì)測(cè)試集進(jìn)行測(cè)試,得到對(duì)應(yīng)的檢測(cè)精度值,試驗(yàn)結(jié)果如表1和表2所示。
由表1、表2可以看出,當(dāng)? k = 1.5時(shí),YOLOv3的損失函數(shù)( L )最小,檢測(cè)精度 P?? a 最高;當(dāng)? k = 1.7時(shí),D-YOLOv3的損失函數(shù)( L )最小,檢測(cè)精度( P?? a )最高。1.5和1.7即分別為YOLOv3和D-YOLOv3的最佳修正系數(shù)。
3.3 不同檢測(cè)網(wǎng)絡(luò)的性能對(duì)比
為了驗(yàn)證D-YOLOv3檢測(cè)網(wǎng)絡(luò)中主干網(wǎng)絡(luò)、檢測(cè)結(jié)構(gòu)以及損失函數(shù)3方面的改進(jìn)效果,選取表3所示的5種對(duì)比網(wǎng)絡(luò)。其中(1)保留YOLOv3的主干網(wǎng)絡(luò)和3層檢測(cè)結(jié)構(gòu),只改進(jìn)損失函數(shù),將其稱為D1-YOLOv3;(2)以YOLOv3為基礎(chǔ),主干網(wǎng)絡(luò)采用密集連接方式,保留3層檢測(cè)結(jié)構(gòu),不改進(jìn)損失函數(shù),將其稱為D2-YOLOv3;(3)以YOLOv3為基礎(chǔ),主干網(wǎng)絡(luò)采用密集連接方式,采用2層檢測(cè)結(jié)構(gòu),不改進(jìn)損失函數(shù),將其稱為D3-YOLOv3。
衡量檢測(cè)網(wǎng)絡(luò)的2個(gè)重要指標(biāo)是平均檢測(cè)精度( P?? a )和檢測(cè)時(shí)間( t?? d )。上述5種檢測(cè)網(wǎng)絡(luò)的檢測(cè)性能試驗(yàn)結(jié)果(表4)顯示:(1)無論是采用殘差塊連接方式的YOLOv3和D1-YOLOv3,還是采用密集塊連接方式的D3-YOLOv3和D-YOLOv3對(duì)比試驗(yàn)組,單獨(dú)改進(jìn)損失函數(shù)均可以不同程度地提升檢測(cè)精度( P?? a );(2)與采用殘差塊連接方式的YOLOv3相比,采用密集塊連接方式的D2-YOLOv3的檢測(cè)精度( P?? a )顯著提升且檢測(cè)時(shí)間( t?? d )略有降低;(3)與檢測(cè)層數(shù)較多的D2-YOLOv3相比,檢測(cè)層數(shù)較少的D3-YOLOv3的檢測(cè)時(shí)間( t?? d )大幅下降;(4)與沒有任何改進(jìn)的YOLOv3相比,同時(shí)改進(jìn)了主干網(wǎng)絡(luò)、檢測(cè)結(jié)構(gòu)以及損失函數(shù)的D-YOLOv3,其檢測(cè)精度提升9.40個(gè)百分點(diǎn),檢測(cè)時(shí)間降低4.07 ms,檢測(cè)性能全面超越Y(jié)OLOv3。
3.4 D-YOLOv3和YOLOv3網(wǎng)絡(luò)對(duì)不同密集程度幼苗的檢測(cè)性能對(duì)比
以幼苗密集程度作為控制變量采集正常光照環(huán)境下的圖像190幅,按照每幅圖像所含幼苗的株數(shù) n 分為3類,其中 n <40的圖像有36幅, 40≤?? n ≤ 60的圖像有82幅,? n > 60的圖像有72幅。圖4a、圖4b分別為D-YOLOv3和YOLOv3兩種檢測(cè)網(wǎng)絡(luò)對(duì)不同密集程度幼苗的檢測(cè)結(jié)果,紫色方框代表幼苗的預(yù)測(cè)框,預(yù)測(cè)框位置正確且數(shù)量越多表示幼苗識(shí)別率越高。可以看出,在 40≤?? n ≤ 60尤其是 n >60情況下圖4a中預(yù)測(cè)框數(shù)量明顯偏多,意味著 D-YOLOv3檢測(cè)網(wǎng)絡(luò)的植株識(shí)別能力確實(shí)比YOLOv3的識(shí)別能力強(qiáng)。表5為兩種網(wǎng)絡(luò)對(duì)不同密集程度幼苗的檢測(cè)性能指標(biāo)??梢钥闯觯?)在不同幼苗密集程度下D-YOLOv3檢測(cè)網(wǎng)絡(luò)的檢測(cè)精度( P?? a )均高于YOLOv3,尤其在? n > 60的情況下 P?? a 高出16.41個(gè)百分點(diǎn)。這是因?yàn)殡S著幼苗數(shù)量的增加其分布越密集,每株幼苗在圖像中的占比越小,YOLOv3檢測(cè)網(wǎng)絡(luò)對(duì)小目標(biāo)的檢測(cè)能力不足,因此精度大幅下降。另一方面,在密集程度不同的情況下D-YOLOv3檢測(cè)網(wǎng)絡(luò)的 P?? a 波動(dòng)不大,說明D-YOLOv3檢測(cè)網(wǎng)絡(luò)在不同密集程度下均具有良好的性能。(2)隨著幼苗密集程度的增大,D-YOLOv3和YOLOv3兩種檢測(cè)網(wǎng)絡(luò)的檢測(cè)時(shí)間( t?? d )均有不同程度的增大,但在相同密集程度下D-YOLOv3檢測(cè)網(wǎng)絡(luò)的 t?? d 均比YOLOv3的 t?? d 小,且密集程度越大D-YOLOv3檢測(cè)網(wǎng)絡(luò)的 t?? d 與YOLOv3檢測(cè)網(wǎng)絡(luò)的 t?? d 的差值越大。
3.5 D-YOLOv3和YOLOv3網(wǎng)絡(luò)在不同光照環(huán)境下檢測(cè)性能對(duì)比
分別取正常光照、夜間光照、復(fù)合光照?qǐng)D像93幅、64幅、43幅,用D-YOLOv3和YOLOv3檢測(cè)網(wǎng)絡(luò)對(duì)不同光照環(huán)境下幼苗進(jìn)行檢測(cè)。可以看出,在復(fù)合光照和夜間光照環(huán)境下圖5a中紫色預(yù)測(cè)框的數(shù)量明顯偏多,即D-YOLOv3對(duì)幼苗的識(shí)別能力優(yōu)于YOLOv3。
由表6可以看出:(1)無論是D-YOLOv3檢測(cè)網(wǎng)絡(luò)還是YOLOv3檢測(cè)網(wǎng)絡(luò),正常光照環(huán)境下的性能指標(biāo)均為最好,夜間光照環(huán)境下的性能指標(biāo)均為最差。原因是夜間光照下幼苗特征信息丟失嚴(yán)重,導(dǎo)致其平均檢測(cè)精度降低,易產(chǎn)生誤檢和漏檢。(2)無論哪種光照環(huán)境下D-YOLOv3檢測(cè)網(wǎng)絡(luò)的檢測(cè)精度( P?? a )和檢測(cè)時(shí)間( t?? d )均優(yōu)于YOLOv3網(wǎng)絡(luò)。說明D-YOLOv3檢測(cè)網(wǎng)絡(luò)在不同光照下對(duì)小目標(biāo)的特征提取能力更強(qiáng),檢測(cè)幼苗的能力更為突出。需要指出的是,正常光照、夜間光照環(huán)境下圖像中幼苗數(shù)量較少 ( n < 40),而在復(fù)合光照環(huán)境下圖像中幼苗個(gè)數(shù)較多 ( n > 60),導(dǎo)致復(fù)合光照環(huán)境下的檢測(cè)時(shí)間偏長(zhǎng)。
4 結(jié) 論
基于Kisantal等? [20] 的小目標(biāo)檢測(cè)思想改進(jìn)損失函數(shù),通過試驗(yàn)確定了修正系數(shù)。構(gòu)建了幾種檢測(cè)網(wǎng)絡(luò),通過對(duì)比試驗(yàn)驗(yàn)證了采用改進(jìn)YOLOv3主干網(wǎng)絡(luò)、檢測(cè)結(jié)構(gòu)和損失函數(shù)的方法可以有效地提升檢測(cè)網(wǎng)絡(luò)的檢測(cè)精度、檢測(cè)時(shí)間等性能指標(biāo)。
針對(duì)溫室環(huán)境下葉菜幼苗圖像識(shí)別問題,通過改進(jìn)YOLOv3的主干網(wǎng)絡(luò)、檢測(cè)結(jié)構(gòu)和損失函數(shù),提出了一種密集連接型D-YOLOv3檢測(cè)網(wǎng)絡(luò),檢測(cè)精度達(dá)到93.44%,單幅圖像平均檢測(cè)時(shí)間為12.61 ms。
對(duì)YOLOv3和D-YOLOv3檢測(cè)網(wǎng)絡(luò)在不同密集程度和不同光照環(huán)境下幼苗圖像的檢測(cè)性能進(jìn)行了對(duì)比試驗(yàn)。在不同幼苗密集程度下D-YOLOv3的檢測(cè)精度和檢測(cè)時(shí)間均優(yōu)于YOLOv3;在不同密集程度下D-YOLOv3檢測(cè)網(wǎng)絡(luò)的檢測(cè)精度波動(dòng)不大,且密集程度越大D-YOLOv3檢測(cè)網(wǎng)絡(luò)的檢測(cè)時(shí)間比YOLOv3檢測(cè)網(wǎng)絡(luò)縮短的越大;D-YOLOv3在不同光照環(huán)境下對(duì)小目標(biāo)的特征提取能力均好于YOLOv3。
參考文獻(xiàn):
[1]? GRINBLAT G L, UZAL L C, LARESE M G, et al. Deep learning for plant identification using vein morphological patterns [J]. Computers and Electronics in Agriculture, 2016, 127: 418-424.
[2]? DYRMANN M, KARSTOFT H, MIDTIBY H S. Plant species classification using deep convolutional neural network [J]. Biosystems Engineering, 2016, 151: 72-80.
[3]? OPPENHEIM D, SHANI G. Potato disease classification using convolution neural networks [J]. Advances in Animal Biosciences, 2017, 8: 244-249.
[4] LU H, CAO Z, XIAO Y, et al. Tasselnet: Counting maize tassels in the wild via local counts regression network [J]. Plant Method, 2017, 13: 79-92.
[5] 劉 芳,劉玉坤,林 森,等. 基于改進(jìn)型YOLO的復(fù)雜環(huán)境下番茄果實(shí)快速識(shí)別方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào), 2020,51(6):229-237.
[6] TELLAECHE A, PAJARES G, BURGOS-ARTIZZU X P, et al. A computer vision approach for weeds identification through Support Vector Machines [J]. Applied Soft Computing, 2011, 11(1): 908-915.
[7] JAGAN K M, BALASUBRAMANIAN M, PALANIVEL S. Detection and recognition of diseases from paddy plant leaf images [J]. International Journal of Computer Applications, 2016, 144: 34-41.
[8] 崔日鮮,劉亞東,付金東. 基于機(jī)器學(xué)習(xí)和可見光光譜的冬小麥葉片氮積累量估算[J].光譜學(xué)與光譜分析, 2016, 36(6): 1837-1842.
[9] DUAN L, HUANG C, CHEN G, et al. Determination of rice panicle numbers during heading by multi-angle imaging[J]. The Crop Journal, 2015, 3: 211-219.
[10] SADEGHI T P, SABERMANESH K, VIRLET N, et al. Automated method to determine two critical growth stages of wheat: Heading and flowering [J]. Front Plant Science, 2017, 8: 252-265.
[11] 翁 楊,曾 睿,吳陳銘,等. 基于深度學(xué)習(xí)的農(nóng)業(yè)植物表型研究綜述[J]. 中國(guó)科學(xué): 生命科學(xué), 2019, 49(6): 698-716.
[12] GIRSHICK R. Fast R-CNN[C]. Santiago, Chile: Proceedings of the IEEE international conference on computer vision, 2015: 1440-1448.
[13] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: towards real-time object detection with region proposal networks [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6):1137-1149.
[14] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: unified, real-time object detection[C]. Ohio: conference on Computer Vision and Pattern Recognition, 2016: 779-788.
[15] REDMON J, FARHADI A. YOLO9000: better, faster,stronger[C]. Ohio: Conference on Computer Vision and Pattern Recognition, 2017: 6517-6525
[16] [16] REDMON J, FARHADI A. YOLOv3: An incremental improvement [DB/OL]. (2018-04-18) [2020-03-01]. https://arxiv.org/pdf/1804.02767.pdf.
[17] 孫 哲,張春龍,葛魯鎮(zhèn),等. 基于Faster R-CNN的田間西蘭花幼苗圖像檢測(cè)方法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019, 50(7): 216-221.
[18] GAO H,ZHANG L.Densely connected convolutional networks[C]. Ohio: Conference on Computer Vision and Pattern Recognition, 2017:1-28.
[19] 吳天舒,張志佳,劉云鵬,等. 基于改進(jìn)SSD的輕量化小目標(biāo)檢測(cè)算法[J]. 紅外與激光工程,2018,47(7):47-53.
[20] KISANTAL M, WOJNA Z, MURAWSKI J, et al. Augmentation for small object detection[DB/OL]. (2019-02-19) [2020-03-01]. https://www.researchgate.net/publication/338171640.
[21] 馮小雨,梅 衛(wèi),胡大帥. 基于改進(jìn)Faster R-CNN的空中目標(biāo)檢測(cè)[J].光學(xué)學(xué)報(bào),2018,38(6):250-258.
(責(zé)任編輯:張震林)