譚秦紅
(銅仁職業(yè)技術學院 信息工程學院,貴州 銅仁 554300)
大豆是我國農(nóng)業(yè)的重要經(jīng)濟作物,葉片病害是大豆減產(chǎn)的主要原因之一,對大豆葉片疾病進行全面和準確的診斷可以明顯減少農(nóng)藥使用量,增加大豆產(chǎn)量,提高大豆品質(zhì)。僅依靠肉眼觀察和經(jīng)驗判斷病害情況的傳統(tǒng)方法效率低下,已經(jīng)無法滿足農(nóng)業(yè)大規(guī)模生產(chǎn)的現(xiàn)實需求,不能在發(fā)病初期全面且準確地掌握大豆病害的發(fā)展情況。小型無人機是近幾年發(fā)展起來的農(nóng)情觀測新手段,它采集效率高、采集圖像連續(xù)、定位精確、應用面積大,尤其在大規(guī)模生產(chǎn)和生產(chǎn)環(huán)境不易于人工進入的農(nóng)田區(qū)域具明顯的應用優(yōu)勢。同時,圖像識別技術已經(jīng)在農(nóng)作物目標的識別中被應用。
葉片病害的識別或對其他目標物的視覺識別可以通過提取特定圖像特征或利用數(shù)據(jù)挖掘技術實現(xiàn)。王獻鋒等[1]通過提取黃瓜葉片病斑顏色、形狀、紋理等特征,結合環(huán)境信息利用判別分析法識別病斑類別。ZHANG等[2]在分割玉米葉片斑點之后提取病斑的顏色、形狀和紋理特征,通過最鄰近(K-nearest neighbors,KNN)算法識別玉米葉片病害。孫華等[3]應用KNN進行葉面積指數(shù)反演,通過對比反演結果和多元線性回歸模型結果證明該方法的可行性。程克非等[4]、方永美等[5]分別利用J48 決策樹算法評估水質(zhì)分類數(shù)據(jù)效果,挖掘蔬菜農(nóng)藥殘留的檢測信息。王守選等[6]對比了J48決策樹、樸素貝葉斯分類器、樸素貝葉斯樹分類算法的正確率。駱世廣等[7]提出解決序列最小優(yōu)化(Sequential minimal optimization,SMO)在大樣本數(shù)據(jù)時訓練速度緩慢的2種策略。為提高學習速度和網(wǎng)絡收斂速度,朱齊丹等[8]分別從變量的選擇和變量的優(yōu)化方法2個角度,對傳統(tǒng)SMO學習方法進行了多方面改進。許淇等[9]基于隨機森林分類器利用Landsat 8數(shù)據(jù)進行農(nóng)作物分類。王利民等[10]針對大豆、玉米和其他地物等主要作物類型,利用隨機森林算法研究基于遙感影像的作物精確識別技術方法獲取作物分布信息。崔小芳等[11]基于高光譜影像和機載激光雷達(Light detection and ranging,LIDAR)數(shù)據(jù),采用隨機森林算法對濕地植被精細分類,并分析分類模型參數(shù)設置對精度的影響,對比支持向量機(Support vector machine,SVM)分類器的精度。李娜等[12]研究顏色統(tǒng)計特征和小波變換2種方法在煙霧圖像識別中的應用。劉哲等[13]提出一種基于圖像灰度直方圖統(tǒng)計特征、灰度共生矩陣等多特征融合的SVM分類器,實現(xiàn)碧根果無損品質(zhì)檢測。丘江等[14]以高階胡氏矩為基礎,提出了利用最鄰近法構建分類器的方法,實現(xiàn)多類目標的識別與分類。
為了適應大規(guī)模農(nóng)業(yè)生產(chǎn)的要求,確保全面掌握植物生長狀態(tài),利用無人機拍攝農(nóng)田圖像進行目標識別已經(jīng)成為農(nóng)業(yè)生產(chǎn)未來的發(fā)展趨勢,王震等[15]利用無人機采集水稻圖像提取白穗圖像Haar-like特征實現(xiàn)對白穗的識別。鄧江等[16]利用無人機提取棉花主要生育時期的紅外影像數(shù)據(jù),分析了不同植被指數(shù)在棉花各生育時期的估算效果。王生生等[17]提出一種以小批量數(shù)據(jù)作為輸入的輕量和積網(wǎng)絡,提高對無人機圖像中大豆苗、雜草、土壤的識別準確率。李長春等[18]研究認為,利用無人機高清數(shù)碼影像可以快速、有效、無損地進行大豆育種材料葉面積指數(shù)(Leaf area index,LAI)估測,反映其長勢信息。高林等[19]利用無人機遙感監(jiān)測系統(tǒng)獲取大豆葉片光譜信息后精確反演葉面積指數(shù)。
但是,無人機在農(nóng)作物病害識別的過程中必然面臨圖像識別準確度和覆蓋度之間的矛盾,即大面積的采集圖像無法保證識別的準確率,小范圍的采集圖像可以保證圖像質(zhì)量但無法大面積覆蓋農(nóng)田目標。如今,還未見涉及無人機最佳拍攝高度的研究。為平衡無人機在農(nóng)田目標識別過程中識別覆蓋度與識別準確率之間的矛盾,基于以上的研究,針對大豆葉片病害識別,利用小型多旋翼無人機的機載高分辨率相機分別從5個飛行高度拍攝圖像,采用簡單線性迭代聚類(Simple linear literative clustering,SLIC)圖像分割處理大豆葉片圖像后,選取顏色統(tǒng)計、定向梯度直方圖、灰度共生矩陣、高階胡氏矩提取葉片顏色、梯度、紋理、形狀的特征向量,對比常用的SMO算法、J48決策樹算法、KNN算法、隨機森林算法分類器對這4種特征的融合向量的識別能力,得到無人機不同拍攝高度下4種算法的圖像識別的準確率。最終得到無人機識別大豆病害的最佳方案。
采用大疆PHANTOM 3 PROFESSIONAL四軸飛行器拍攝大豆葉片圖像,其配備分辨率為1 230萬像素的SONY EXMOR圖像傳感器。如圖1所示,將無人機距大豆頂葉的拍攝高度h設定為1、2、4、8、16 m,每個高度拍攝60張,共拍攝300張DNG格式的航空圖像,以確定最佳拍攝高度。為了易于計算在不同高度下拍攝的圖像中葉片像素,無人機鏡頭和地面成90°角拍攝。采用3.57 mm焦距得到不同高度的地面采樣距離(Ground sample distance,GSD)、圖像面積、圖像的像素值如表1所示。
本研究選用SLIC超像素分割算法分割無人機大豆葉片病害圖像。該算法以像素為基本處理單位,將可以描述像素的空間和色彩信息定義為特征向量,用x、y和l、a、b分別表示像素點在圖像中的空間信息和色彩信息[20]。具體處理過程:若圖像共有NP個像素點,為了生成Ns個超像素,在圖像平面內(nèi)以像素點為基本處理單元,從第R行開始以正方形分布均勻選取Ns個初始點作為聚類中心Ci={li,ai,bi,xi,yi}T。在水平和豎直方向分別取步長S,在S×S的區(qū)域內(nèi)尋找圖像中所有使區(qū)域內(nèi)的梯度值最小的像素點為初始點,R以S/2為步長作初始值,S的計算如式(1)所示。
圖1 大豆葉片圖像采集示意圖Fig.1 Schematic diagram of soybean leaf image acquisition
(1)
其中,gi為像素點Pi的灰度值,gc為Pc的灰度值。xi和yi分別表示像素點Pi在x軸和y軸2個
表1 不同拍攝高度的地面采樣距離值Tab.1 Ground sampling distance values of different shooting heights
方向上的坐標值,相應地,xc和yc分別表示聚類中心Pc在2個坐標軸上的坐標值。dg為灰度距離,dxy為空間距離。m決定SLIC算法最終生成的超像素的形狀和面積大小。參數(shù)m的取值越大,生成的超像素在形狀方面越規(guī)則。
然后,在每個像素i的2S×2S鄰域內(nèi),搜索圖像中與像素距離最小的聚類中心,然后標記像素i的類別。由位置信息(x,y)以及灰度值g共同構成表征像素點的特征向量,任意像素點Pi的特征向量為fi={gi,xi,yi},同時任意聚類中心Pc的特征向量為fc={gc,xc,yc},Pi和Pc之間的距離Ds如式(1)所示。
最后,當標記完圖像中的所有像素點之后,更新聚類中心,重復迭代此更新過程,直到連續(xù)2次之間的聚類中心誤差小于5%。所以,通過SLIC算法可以得到既分布均勻又貼合邊緣的超像素,進而能夠利用超像素對語義分割的圖像進行邊緣優(yōu)化,更好地還原圖像的邊緣信息。
對大豆圖像的處理包括5個主要步驟,如圖2所示。
圖2 大豆葉片病害圖像處理過程Fig.2 Image processing of soybean leaf disease
如圖2所示,對不同拍攝高度的大豆葉片圖像先利用SLIC超像素的方法進行分割(圖2b)??梢酝ㄟ^調(diào)整參數(shù)i得到最佳的葉片檢測效果,具體來講:每幅圖像的像素為4 000×3 000,共12 000 000像素,在1 m高度拍攝時單個葉片的像素約為12 000,因此可令i=1 000,利用SLIC算法將12 000 000像素分為1 000個區(qū)域,可以得到每一片葉子的像素為12 000。同理,對于在2 m高度拍攝的圖像,可以令i=2 000,以此類推得到其他高度的i值。如圖2c將分割后的大豆圖像分為靶斑病、白粉病和無病3種,對每幅圖像進行標注構建圖像數(shù)據(jù)集和機器學習模型。如圖2d所示,采用顏色統(tǒng)計、定向梯度直方圖、灰度共生矩陣、高階胡氏矩提取葉片的顏色、梯度、紋理、形狀向量反映相應的圖像特征。
本研究通過MATLAB 工具對大豆病害圖像進行識別。選擇SMO算法、J48決策樹算法、KNN、隨機森林算法4種分類器分別對大豆葉片顏色、梯度、紋理、形狀4種特征的融合向量和單一特征向量進行處理。通過十倍交叉驗證來訓練和測試各個分類器。即將數(shù)據(jù)集圖像等比例地分為10個部分,其中一個數(shù)據(jù)集用于測試,其余的數(shù)據(jù)集用于訓練分類器,整個過程重復10次,取這10次平均數(shù)作為分類器準確率,按如圖3所示流程,可得到無人機最佳拍攝高度并篩選其中的最佳算法。
圖3 大豆葉片病害識別流程Fig.3 Flow chart of soybean leaf disease identification
不同拍攝高度下采用不同算法對葉片病害的特征融合向量進行識別,得到識別準確率。如圖4所示,在相同試驗樣本情況下,采用基于4種不同算法的顏色、漸變和紋理組合特征的融合向量提取器,在1 m和2 m時準確率均在90%以上,SMO算法和隨機森林算法的準確率較高,約為98%。當拍攝高度為4 m時,各個算法的準確度都明顯下跌。雖然在8 m的高度下準確率較之4 m時部分算法有小幅增高,但總體而言識別準確率都是隨著拍攝高度的增加而減少。
為了得到不同分類算法對不同拍攝高度圖像的識別準確率的統(tǒng)計特征,選擇方差分析RStudio中的假設檢驗,分別對4種算法在不同拍攝高度的圖片識別準確率進行驗證,繪制相應的箱線圖,如圖5和圖6所示。
圖5箱線圖中加粗的黑線是準確率的中值,SMO分類器的表現(xiàn)最好,約為94%,其次是隨機森林算法,約為89%;每個分類器識別的準確率變化范圍顯示,隨機森林算法準確率的分布范圍相對較為集中,略好于SMO分類器,總體來看SMO分類器的識別準確率最好。
圖4 不同拍攝高度下對融合特征向量識別準確率Fig.4 Identification accurate rate of feature fusion vector at different shooting heights
在圖6中,當無人機的拍攝高度在1 m和2 m時,識別準確率的中間值較高,分別約為96%和95%,數(shù)據(jù)的分布范圍較為集中,證明這4種算法在識別結果上呈現(xiàn)了高度的相似性。高度在4、8、16 m時識別準確率的中值明顯降低,且數(shù)據(jù)的分布范圍較大。
圖5 4種算法對融合特征向量識別準確率的箱線圖Fig.5 Box graph of identification accurate rate of 4 algorithms for feature fusion vector
圖6 不同拍攝高度下分類器性能箱線圖Fig.6 Performance box diagram of classifier at different shooting heights
為進一步對比驗證特征向量融合方法的有效性,將單一屬性作為分類器的輸入,得到了不同拍攝高度下不同葉片屬性對病害識別的準確度,得到顏色、梯度、紋理和形狀4種屬性中最能有效反映葉片病害的屬性。選擇識別準確率較高的SMO算法和隨機森林算法分類器,基于葉片的單一屬性識別不同高度拍攝的大豆葉片圖像,得到相應的準確率,如圖7和圖8所示。
結果表明,在對大豆葉片單一特征識別中,不同的拍攝高度下,這2種算法識別顏色特征向量時準確率都在80%以上,梯度和形狀的準確率普遍偏低,在40%~60%,即顏色最能反映葉片病害的實際情況。同時,單一特征識別器對于拍攝的圖像高度越高識別準確率相應越低,與對融合特征向量識別的試驗結果相同,拍攝高度為1~2 m時對葉片病害的識別準確率最高。另外,總體來看,基于單一特征向量對大豆葉片病害識別的準確率要低于基于融合特征向量對病害識別的準確率,驗證了使用融合特征向量方法的優(yōu)越性。
圖7 SMO算法識別圖像單一特征向量精確度Fig.7 Accuracy of single feature vector of image recognized by SMO algorithm
圖8 隨機森林算法識別圖像單一特征向量精確度Fig.8 Recognition accuracy of single feature vector ofimage by random forest algorithm
本研究基于SLIC分割方法對不同高度的大豆無人機圖像進行葉片病害識別準確率的研究,利用顏色、梯度、紋理和形狀等大豆葉片的視覺特征描述葉片病害情況,并比較了4種算法對不同拍攝高度的葉片病害識別的準確率,得到如下結論。
無人機和大豆葉片之間的高度越小,識別的準確率越高。在1~2 m的拍攝高度時,識別準確率高達95%~96%。采用SMO算法、J48決策樹算法、KNN、隨機森林算法對大豆葉片病害進行識別,對不同算法下的識別準確率進行分析,其中,SMO算法對大豆葉片特征識別準確率最高,其次是隨機森林算法。分類器輸入?yún)⒘繉ψR別結果有影響,對比特征融合向量和單一特征向量下的識別準確率,表明采用特征融合向量時識別效果最好。
雖然拍攝高度越低病害識別準確率越高,但無人機葉片會導致大豆葉片的劇烈搖晃,建議最近的拍攝高度不小于1 m。未來可以采用高分辨率和多光譜相機采集現(xiàn)場圖像,并利用卷積神經(jīng)網(wǎng)絡增加識別病害的數(shù)量,探究更準確識別大豆葉片病害的方法。