鮑 烈,王曼韜,*,劉江川,文 波,明 月
(四川農(nóng)業(yè)大學(xué) a. 信息工程學(xué)院;b. 農(nóng)業(yè)信息工程重點(diǎn)實(shí)驗(yàn)室,四川 雅安 625000)
我國是農(nóng)業(yè)大國,小麥作為主要糧食之一,在農(nóng)業(yè)生產(chǎn)中有著相當(dāng)重要的地位,其產(chǎn)量是評(píng)估農(nóng)業(yè)生產(chǎn)力的重要指標(biāo)之一。對(duì)小麥產(chǎn)量的預(yù)估是農(nóng)業(yè)生產(chǎn)中不可或缺的一步,準(zhǔn)確的產(chǎn)量預(yù)估可以給農(nóng)業(yè)生產(chǎn)管理決策提供較好的參考。小麥產(chǎn)量一般用單位面積內(nèi)麥穗的個(gè)數(shù)來表征。對(duì)于單位面積內(nèi)麥穗個(gè)數(shù)的統(tǒng)計(jì),可分為2種方式:一種是人工計(jì)數(shù),結(jié)果較為準(zhǔn)確,但是人力資源開銷大,并且缺乏統(tǒng)一的計(jì)數(shù)標(biāo)準(zhǔn);另一種是利用數(shù)字圖像處理技術(shù)進(jìn)行計(jì)數(shù),方便且省時(shí)省力,缺點(diǎn)是精確度不夠高。
近年來,隨著計(jì)算機(jī)技術(shù)水平的提高,農(nóng)業(yè)信息技術(shù)緊隨其后,傳統(tǒng)農(nóng)業(yè)生產(chǎn)技術(shù)與信息技術(shù)的結(jié)合將成為農(nóng)業(yè)發(fā)展的必然趨勢(shì)。數(shù)字圖像處理技術(shù)也與農(nóng)業(yè)生產(chǎn)結(jié)合得越來越緊密,在植物病蟲害[1-4]、植物計(jì)數(shù)[5-6]、草類識(shí)別[7-10]等領(lǐng)域應(yīng)用廣泛。在小麥計(jì)數(shù)[11-12]上也有一些應(yīng)用,比如劉哲等[13]改進(jìn)機(jī)器學(xué)習(xí)算法kmeans,對(duì)麥穗圖像進(jìn)行聚類,然后通過劃分連通域進(jìn)行計(jì)數(shù);該方法的缺點(diǎn)是對(duì)于密集程度較高的小麥無法起到很好的效果,特別是對(duì)于重疊部分的小麥,無法準(zhǔn)確識(shí)別,并且該算法對(duì)于正樣本和負(fù)樣本的對(duì)比度要求較高,若對(duì)比度太低,聚類的效果就相對(duì)較低。李毅念等[14]利用特定裝置以田間麥穗傾斜的方式獲取田間麥穗群體圖像,通過轉(zhuǎn)換圖像顏色空間RGB→HIS,提取飽和度S分量圖像,然后把飽和度S分量圖像轉(zhuǎn)換成二值圖像,再經(jīng)細(xì)窄部位黏連去除算法進(jìn)行初步分割,然后由邊界和區(qū)域的特征參數(shù)判斷出黏連的麥穗圖像,并利用基于凹點(diǎn)檢測(cè)匹配連線的方法實(shí)現(xiàn)黏連麥穗的分割,進(jìn)而識(shí)別出圖像中的麥穗數(shù)量。范夢(mèng)揚(yáng)等[15]采用SVM學(xué)習(xí)的方法,精確提取小麥麥穗輪廓,同時(shí)構(gòu)建麥穗特征數(shù)據(jù)庫,對(duì)麥穗的二值圖像細(xì)化得到麥穗骨架,最后通過計(jì)算麥穗骨架的數(shù)量和麥穗骨架有效交點(diǎn)的數(shù)量,得到圖像中麥穗的數(shù)量。此外,張領(lǐng)先等[16]利用卷積神經(jīng)網(wǎng)絡(luò)建立麥穗識(shí)別模型,但其使用的滑窗尺寸固定,并且是依靠經(jīng)驗(yàn)設(shè)定;而麥穗經(jīng)常大小不一、形狀各異,會(huì)使得檢測(cè)效果大打折扣。其他類似的應(yīng)用比如張建華等[17]改進(jìn)VGG卷積神經(jīng)網(wǎng)絡(luò)建立棉花病蟲害識(shí)別模型,陳含等[18]利用Sobel算子進(jìn)行邊緣檢測(cè),對(duì)麥穗進(jìn)行圖像分割,從而進(jìn)行麥穗識(shí)別計(jì)數(shù)。
河南省新鄉(xiāng)、漯河兩地盛產(chǎn)小麥,并且平原面積大,舒坦遼闊,易于試驗(yàn)的施展。小麥預(yù)估產(chǎn)量作為生產(chǎn)指導(dǎo)的重要參考,對(duì)當(dāng)?shù)剞r(nóng)戶有著重要意義;但由于自動(dòng)化技術(shù)相對(duì)落后,只能進(jìn)行人力統(tǒng)計(jì),工作繁瑣且結(jié)果誤差較大。為解決該問題,在當(dāng)?shù)剞r(nóng)戶提供場(chǎng)地、設(shè)備的基礎(chǔ)上,利用大疆無人機(jī)“御”Mavic在河南省新鄉(xiāng)、漯河兩地進(jìn)行圖像采集,構(gòu)建研究樣本數(shù)據(jù)集。針對(duì)麥穗計(jì)數(shù)任務(wù)提出一種CNN模型,簡(jiǎn)化CNN結(jié)構(gòu),減少模型參數(shù),提高模型檢測(cè)速度。實(shí)現(xiàn)對(duì)復(fù)雜背景下麥穗的快速計(jì)數(shù)和產(chǎn)量預(yù)估。本研究的優(yōu)勢(shì)在于不用進(jìn)行繁瑣的人工提取特征,并且算法對(duì)光照等環(huán)境條件具有較強(qiáng)的適應(yīng)性和魯棒性。
利用大疆無人機(jī)“御”Mavic在河南省新鄉(xiāng)、漯河兩地進(jìn)行圖像采集,無人機(jī)工作高度為距地10 m。為了增強(qiáng)模型對(duì)小麥接近成熟前形態(tài)的泛化能力,在小麥泛黃前進(jìn)行為期3個(gè)月的圖像采集工作,經(jīng)過篩選累計(jì)采集麥穗圖像1 691張,新鄉(xiāng)、漯河分別為867和824張,圖像分辨率為4 056 pixel×3 040 pixel,采集得到的原圖如圖1所示。為了進(jìn)行產(chǎn)量預(yù)估,將圖像裁剪至紅框內(nèi)邊,1個(gè)紅框覆蓋的面積為1 m2,即數(shù)據(jù)集中每張圖像所代表的是1 m2內(nèi)所有的麥穗。隨機(jī)抽取100張作為測(cè)試圖像,再分別對(duì)余下1 591張圖片中的麥穗、葉子和背景進(jìn)行采樣。每張圖像約采集20~30個(gè)麥穗,共計(jì)31 505張作為模型的正樣本集。同樣的方式采集葉子和背景共計(jì)29 987張作為負(fù)樣本集,并且統(tǒng)一像素為64 pixel×64 pixel。研究中將數(shù)據(jù)集劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,數(shù)據(jù)集的構(gòu)成如表1所示。
圖1 無人機(jī)所拍攝的圖像Fig.1 Images taken by UAV
表1 數(shù)據(jù)集結(jié)構(gòu)
1.2.1 試驗(yàn)環(huán)境與模型訓(xùn)練
試驗(yàn)硬件環(huán)境為:Intel i7處理器(內(nèi)存8GB),NVIDIA GeForce GTX1060 GPU(顯存6GB),64位Windows10系統(tǒng)。軟件環(huán)境為:Python3.6,TensorFlow深度學(xué)習(xí)框架。使用隨機(jī)梯度下降進(jìn)行優(yōu)化,動(dòng)量為0.9,總共訓(xùn)練100 000次,初始學(xué)習(xí)率設(shè)為0.001,每隔3 000次進(jìn)行衰減系數(shù)為0.1的學(xué)習(xí)率衰減,batch size設(shè)為128,采用K折交叉驗(yàn)證。
1.2.2 CNN網(wǎng)絡(luò)模型
本文設(shè)計(jì)的CNN模型由卷積層、池化層、全連接層和SoftMax層組成[19]。輸入圖像是多張從無人機(jī)拍攝的圖像上截取的單一麥穗,統(tǒng)一像素為48 pixel×48 pixel。整個(gè)網(wǎng)絡(luò)分為5個(gè)卷積層、4個(gè)池化層、2個(gè)全連接層,以及最后的SoftMax層。網(wǎng)絡(luò)結(jié)構(gòu)為:卷積層1、2各包含32個(gè)大小為3×3的卷積核,卷積層3包含64個(gè)大小為3×3的卷積核,卷積層4、5各包含128個(gè)大小為3×3的卷積核,卷積步長(zhǎng)皆為2。4個(gè)池化層皆為最大池化,大小為2×2,穿插在卷積層之間,可以極大程度地減少參數(shù)量,降低計(jì)算成本。2個(gè)全連接層將特征進(jìn)行矢量化,全連接層1包含512個(gè)神經(jīng)元,全連接層2包含100個(gè)神經(jīng)元;全連接層之后加入Dropout層,隨機(jī)丟棄1/2的神經(jīng)元,減少過擬合的風(fēng)險(xiǎn)。最后利用SoftMax層將向量劃分為麥穗和背景2個(gè)類別,網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。
1.2.3 基于高斯圖像金字塔的多尺度滑窗
利用高斯金字塔[20-21]進(jìn)行多尺度檢測(cè),可以模仿圖像的不同尺度,也是模仿人類的視覺,比如先近距離觀察一幅圖像,然后在遠(yuǎn)距離觀察,看到的圖像效果是不同的。前者會(huì)比較清晰,后者會(huì)比較模糊,前者比較大,后者比較小,通過前者能看到圖像的細(xì)節(jié)信息,通過后者能看到圖像的輪廓信息。為了降低數(shù)據(jù)集圖片縮放帶來的影響,并且實(shí)現(xiàn)多尺度檢測(cè)麥穗,本文采用基于高斯圖像金字塔的多尺度滑動(dòng)窗口來對(duì)圖像進(jìn)行檢測(cè),金字塔縮放因子為1.2,即對(duì)原始圖像(第0層)依次進(jìn)行1/1.2縮放比例進(jìn)行降采樣,得到共計(jì)8張圖片(包括原始圖像)。然后利用不同大小的滑動(dòng)窗口在圖像上滑動(dòng),每滑動(dòng)一個(gè)步長(zhǎng),就對(duì)窗口進(jìn)行一次麥穗檢測(cè)。由于是對(duì)整張圖像進(jìn)行滑動(dòng),所以不會(huì)漏掉可能出現(xiàn)麥穗的位置,這樣可以極大地降低算法的漏檢率。并且,利用圖像金字塔可以實(shí)現(xiàn)多尺度檢測(cè)麥穗,當(dāng)模型漏檢時(shí),圖像進(jìn)行縮放以后可以提高漏檢目標(biāo)的檢出率。
圖2 CNN網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 CNN network structure
高斯金字塔構(gòu)建過程如下:
(1)先將圖像放大1倍,在放大的圖像上構(gòu)建高斯金字塔。
(2)對(duì)擴(kuò)大的圖像進(jìn)行高斯模糊,8幅模糊的圖像構(gòu)成一個(gè)八度[八度即在特定尺寸(長(zhǎng)寬比)下,經(jīng)過不同高斯核模糊化之后的圖像集合,八度的集合就是高斯金字塔],然后對(duì)該八度下最模糊的一幅圖像進(jìn)行下采樣。
(3)下采樣的過程為長(zhǎng)和寬分別縮短1倍,圖像面積變?yōu)樵瓉硭姆种?,這幅圖像就是下一個(gè)八度的初始圖像。
(4)在初始圖像上完成屬于這個(gè)八度的高斯模糊處理,以此類推,完成整個(gè)算法所需要的所有八度構(gòu)建,構(gòu)建完所有的八度,高斯金字塔就構(gòu)建完成。構(gòu)建出的金字塔如圖3所示。
1.2.4 具體檢測(cè)方式
先對(duì)整張圖片建立圖像金字塔,然后以3種
圖3 圖像金字塔Fig.3 Image pyramid
不同縱橫比的滑動(dòng)窗口[22]在整幅圖像上滑動(dòng),滑動(dòng)步長(zhǎng)取為16。3種縱橫比的滑動(dòng)窗口如圖4所示。每種顏色代表一種縱橫比。每滑動(dòng)一次,對(duì)3個(gè)滑動(dòng)窗口進(jìn)行一次檢測(cè),并且整個(gè)滑動(dòng)過程以綠色框?yàn)橹饕瑒?dòng)窗口,即每次滑動(dòng)計(jì)算都以綠色框?yàn)閱挝?,其?個(gè)框隨之相對(duì)滑動(dòng)。最后取其中判為麥穗的概率值得分最高的框作為最終的結(jié)果。
圖4 三種縱橫比的滑動(dòng)窗口Fig.4 Sliding windows by three aspect ratios
對(duì)于一張像素為464 pixel×464 pixel的麥穗圖像,根據(jù)圖形金字塔需要檢測(cè)8種尺度,加上滑動(dòng)窗口的3種縱橫比,步長(zhǎng)16,則每張圖像總共需要分類15 000次,如圖5所示。
圖5 滑動(dòng)窗口效率Fig.5 Efficiency of sliding window
1.2.5 非極大值抑制(NMS)
進(jìn)行滑動(dòng)窗口預(yù)測(cè)后的結(jié)果中存在著大量重疊率較高的目標(biāo)框,為了避免重復(fù)計(jì)數(shù),本文利用非極大值抑制[23]去掉重疊率較高的框。非極大值抑制實(shí)際上就是一個(gè)迭代的過程,算法的具體過程如下:
(1)將所有的框以概率得分的大小進(jìn)行排序。
(2)選取得分最大的框,并計(jì)算它與相鄰的框的IOU,得分高于閾值則刪除。
(3)從剩下的框中選取概率得分最大者,重復(fù)迭代2、3過程,直到找到所有目標(biāo)區(qū)域。
IOU的計(jì)算公式為
(1)
式(1)中:A、B代表2個(gè)相鄰的框,RIOU代表這個(gè)2個(gè)框重疊的比率,Area()為面積函數(shù)。目標(biāo)檢測(cè)任務(wù)中,一般設(shè)定IOU閾值為0.5,也有設(shè)置梯度閾值的算法比如IOUNet。而在本研究中,麥穗作為檢測(cè)目標(biāo),其密度較大,數(shù)量較多,體積小,并且相對(duì)其他數(shù)據(jù)集(如VOC、COCO等)來說,有著更加復(fù)雜的背景。所以本文設(shè)置IOU閾值為0.2,以適應(yīng)其大密度,避免留下過多的重復(fù)計(jì)數(shù)框。
1.2.6 小麥產(chǎn)量預(yù)估方法
對(duì)小麥產(chǎn)量進(jìn)行預(yù)估時(shí),與數(shù)據(jù)集構(gòu)建的步驟一樣,同樣利用紅框?qū)o人機(jī)進(jìn)行參數(shù)(飛行高度、聚焦等)調(diào)整,使鏡頭剛好能將紅框包含進(jìn)去;然后利用無人機(jī)對(duì)大田進(jìn)行隨機(jī)采樣,將采樣的圖像根據(jù)像素值(根據(jù)紅框像素值范圍,可以定位到紅框)截取紅框內(nèi)部部分圖像作為數(shù)據(jù)集,再進(jìn)行麥穗計(jì)數(shù),取每次采樣中麥穗個(gè)數(shù)的平均值,得到每平方大田麥穗數(shù)量的預(yù)估值。設(shè)總的麥穗數(shù)量為N,每m2大田麥穗數(shù)量的預(yù)估值為t,大田總面積為a(m2),則計(jì)算公式為
N=t×a。
(2)
此外,如需要對(duì)麥穗產(chǎn)量進(jìn)行預(yù)估,則需要對(duì)每個(gè)麥穗的質(zhì)量進(jìn)行隨機(jī)采樣,取其平均值。設(shè)總的麥穗產(chǎn)量(質(zhì)量)為M,每個(gè)麥穗的平均質(zhì)量為m,則麥穗的預(yù)估產(chǎn)量(質(zhì)量)為
M=N×m=t×a×m。
(3)
對(duì)麥穗檢測(cè)模型進(jìn)行訓(xùn)練,該模型在驗(yàn)證集上的分類準(zhǔn)確率為99.3%,在測(cè)試集上的分類準(zhǔn)確率為98.7%。為了驗(yàn)證整個(gè)檢測(cè)模型的精度及其有效性,利用預(yù)留的100幅單位面積的麥穗圖像做測(cè)試,試驗(yàn)結(jié)果如表2所示。人工統(tǒng)計(jì)所有麥穗目標(biāo)的數(shù)量和正確位置,麥穗目標(biāo)共計(jì)12 530個(gè),通過算法檢測(cè)共計(jì)12 632個(gè)麥穗目標(biāo),其中正確找出麥穗的目標(biāo)框?yàn)?2 288個(gè),錯(cuò)誤把背景或葉子當(dāng)作麥穗的目標(biāo)框數(shù)為298個(gè),遺漏43個(gè)正確目標(biāo),與人工統(tǒng)計(jì)的誤差數(shù)為341個(gè),正確檢測(cè)率為97.30%。圖6為實(shí)驗(yàn)結(jié)果中的樣例圖。
表2 試驗(yàn)結(jié)果統(tǒng)計(jì)
VGG-16是一種很經(jīng)典的輕量級(jí)網(wǎng)絡(luò),與本文網(wǎng)絡(luò)量級(jí)接近,因此,利用麥穗數(shù)據(jù)集訓(xùn)練VGG-16模型與本文網(wǎng)絡(luò)模型進(jìn)行對(duì)比,驗(yàn)證本文網(wǎng)絡(luò)的有效性,試驗(yàn)結(jié)果如表3所示。VGG-16的誤檢率比本文網(wǎng)絡(luò)高0.29%,漏檢率高2.04%,總誤差率高2.33%。說明Wheat-Net檢測(cè)精度高于VGG-16,并且由于Wheat-Net的網(wǎng)絡(luò)參數(shù)少于VGG-16,Wheat-Net檢測(cè)一張圖像只需要0.115 s,而VGG-16需要0.433 s。之所以會(huì)得到這個(gè)結(jié)果,在于VGG-16的輸入圖像像素為224 pixel×224 pixel,單個(gè)麥穗根本無法達(dá)到這么大的尺寸,必須對(duì)圖像進(jìn)行相應(yīng)的縮放,從而導(dǎo)致圖像一定程度的失真。而本文的模型是針對(duì)麥穗常見尺寸并遵循卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)而設(shè)計(jì),能夠提取真實(shí)尺寸的麥穗目標(biāo)特征,所以分類效果更好;并且因?yàn)閰?shù)量小,所以速度更快。
表3 VGG-16和Wheat Net方法的結(jié)果對(duì)比
最后從100幅圖像中隨機(jī)抽取10張圖像的統(tǒng)計(jì)結(jié)果進(jìn)行展示,結(jié)果如表4所示。算法計(jì)數(shù)與人工統(tǒng)計(jì)的誤差率最高為7.46%,最低為1.87%,并且誤差來源多數(shù)為誤檢,說明算法的誤差多為錯(cuò)把背景或葉子判定為麥穗,而漏掉的麥穗目標(biāo)并不多。后續(xù)優(yōu)化可以考慮從減少錯(cuò)判的方向入手,通過適當(dāng)增加背景和葉子的樣本量等方式提高模型的泛化能力。表4還羅列出了算法在每張圖中正確框出麥穗目標(biāo)的數(shù)量、錯(cuò)誤識(shí)別數(shù)量,遺漏的麥穗目標(biāo)數(shù)量、誤差數(shù)(誤差數(shù)=誤檢數(shù)+漏檢數(shù))和誤差率。
圖6 試驗(yàn)結(jié)果樣例Fig.6 An example of test results
表4 隨機(jī)10幅圖像測(cè)試結(jié)果
為了驗(yàn)證在不同光照條件下,本算法的實(shí)際應(yīng)用效果,隨機(jī)選取50張中午拍攝和50張傍晚拍攝的圖像進(jìn)行檢測(cè),檢測(cè)結(jié)果如圖7和表5所示。在隨機(jī)選取的50張測(cè)試圖像中傍晚拍攝的檢測(cè)誤差率為3.25%,中午拍攝的檢測(cè)誤差率為4.71%,差異不顯著,說明本文算法對(duì)光照條件敏感度較低。原因在于樣本集中包括了不同光照條件下的麥穗樣本,所以對(duì)光照條件不敏感;并且為了使樣本多樣化,從而使模型更魯棒,在進(jìn)行樣本篩選時(shí),盡量選擇了背景不同、光照不同的樣本。
表5 在不同光照條件下的照片測(cè)試對(duì)比
a,傍晚拍攝;b,中午拍攝。a, Pictures taken at nightfall; b, Pictures taken at noon.圖7 不同光照條件下拍攝的照片F(xiàn)ig.7 Pictures takenunder different lightingconditions
當(dāng)前基于傳統(tǒng)計(jì)算機(jī)視覺算法實(shí)現(xiàn)麥穗計(jì)數(shù)的方法很多,也有基于深度學(xué)習(xí)的方法。張婷婷[24]提出改進(jìn)堆疊沙漏網(wǎng)絡(luò)對(duì)小麥群體圖像的小麥麥穗計(jì)數(shù)的方法,能提高對(duì)存在遮擋、交叉的麥穗的檢測(cè)效果,并且引入了注意力機(jī)制來提高麥穗的分類準(zhǔn)確率,檢測(cè)平均準(zhǔn)確率為91.37%;但是該方法引入了大量的參數(shù),降低了網(wǎng)絡(luò)檢測(cè)速度,同時(shí)未對(duì)小目標(biāo)麥穗做出對(duì)應(yīng)的處理;而在現(xiàn)實(shí)場(chǎng)景中,小目標(biāo)麥穗所占比重很大,這也導(dǎo)致了該算法精確度無法進(jìn)一步提高。高云鵬[25]對(duì)比了目標(biāo)檢測(cè)算法YOLOv3與Mask R-CNN對(duì)大田小麥麥穗的檢測(cè)效果,其中YOLOv3的識(shí)別準(zhǔn)確率為87.12%,單張檢測(cè)時(shí)間為0.12 s,Mask R-CNN的識(shí)別準(zhǔn)確率為97.00%,單張檢測(cè)時(shí)間為0.94 s,YOLOv3準(zhǔn)確率低,速度快,Mask R-CNN準(zhǔn)確率高,速度慢。李鵬[26]在不同的顏色空間下,通過對(duì)比各個(gè)顏色通道的灰度圖像與直方圖,選取出分割效果較好的RGB-灰度圖、Lab-L、HSV-V顏色空間,采用多閾值分割算法實(shí)現(xiàn)小麥麥穗與土地、麥葉的分割;同時(shí)結(jié)合小麥麥穗的形態(tài)學(xué)特征對(duì)其進(jìn)行開運(yùn)算處理,提取目標(biāo)麥穗的平均準(zhǔn)確度為96.55%。這4種算法是目前業(yè)界較為優(yōu)秀的方法。本文方法與這4種方法進(jìn)行比較,結(jié)果如表6所示。本文算法的漏檢率0.34%,誤差率2.70%,均為最低,誤檢率略高于Mask R-CNN,準(zhǔn)確率為97.30%,高于其他算法,且檢測(cè)1張圖像所需要的時(shí)間為0.115 s,優(yōu)于其他算法。
表6 不同算法的實(shí)驗(yàn)結(jié)果對(duì)比
以新鄉(xiāng)1號(hào)大田、新鄉(xiāng)2號(hào)大田、漯河1號(hào)大田、漯河2號(hào)大田為例,分別進(jìn)行圖像采樣,各采集100張圖像進(jìn)行麥穗計(jì)數(shù)任務(wù),并隨機(jī)在每片大田中各采樣100株麥穗,統(tǒng)計(jì)各大田單株麥穗的平均質(zhì)量m,設(shè)算法對(duì)每平方大田麥穗數(shù)量的預(yù)估平均值為t,大田總面積為a。計(jì)算得到新鄉(xiāng)1號(hào)大田(42 000 m2)、新鄉(xiāng)2號(hào)大田(30 000 m2)、漯河1號(hào)大田(18 000 m2)、漯河2號(hào)大田(24 000 m2)的預(yù)估產(chǎn)量分別為29 728.44、20 287.20、11 979.90、15 522.24 kg(表7)。預(yù)估產(chǎn)量單位為kg·m-2,4片大田預(yù)估產(chǎn)量的誤差率分別為新鄉(xiāng)1號(hào)大田2.90%、新鄉(xiāng)2號(hào)大田3.03%、漯河1號(hào)大田3.08%,誤差率最高為漯河2號(hào)大田,達(dá)到4.84%,誤差產(chǎn)生原因是人工稱量和隨機(jī)采樣可能造成誤差??傮w來說,產(chǎn)量預(yù)估誤差在可接受范圍內(nèi)。
表7 大田小麥產(chǎn)量預(yù)估數(shù)據(jù)統(tǒng)計(jì)
本文采集并制作了麥穗數(shù)據(jù)集SICAU-WHEAT,針對(duì)農(nóng)業(yè)生產(chǎn)需求,以及小麥的形態(tài)特征,設(shè)計(jì)了神經(jīng)網(wǎng)絡(luò)模型,在保證精確度的同時(shí)盡可能地減少模型的參數(shù),縮短計(jì)數(shù)所需的時(shí)間。利用滑動(dòng)窗口結(jié)合圖像金字塔的方式實(shí)現(xiàn)多尺度檢測(cè),提高算法對(duì)各種尺度目標(biāo)的識(shí)別精度,降低麥穗的漏檢率和誤檢率。從試驗(yàn)結(jié)果可以得出以下結(jié)論:(1)檢測(cè)算法的誤差多來源于誤判,對(duì)葉子和麥穗的區(qū)分精度不夠理想,說明模型對(duì)麥穗和葉子分類的泛化能力不足,后續(xù)可以通過增加葉子樣本集和引入細(xì)粒度分類等方式進(jìn)行優(yōu)化;(2)對(duì)比中午和傍晚的檢測(cè)結(jié)果可以看出,模型對(duì)光照條件不敏感,可以對(duì)不同光照條件下的麥穗圖像進(jìn)行檢測(cè);(3)與其他先進(jìn)算法相比,本文算法檢測(cè)精度為97.3%,漏檢率0.34%,優(yōu)于其他算法;(4)產(chǎn)量預(yù)估試驗(yàn)中,本文的預(yù)估方法平均誤差率為2.7%,能夠較為準(zhǔn)確地對(duì)小麥產(chǎn)量進(jìn)行預(yù)估。綜上所述,本文算法可以適應(yīng)光照條件的變化,克服葉子和其他雜物的干擾,對(duì)麥穗進(jìn)行快速檢測(cè),并統(tǒng)計(jì)其數(shù)量,進(jìn)而實(shí)現(xiàn)對(duì)麥穗的產(chǎn)量預(yù)估。