摘 要:采用數(shù)碼相機(jī)獲取水稻冠層的圖像,提取圖像中紅(R)、綠(G)、藍(lán)(B)三通道的色值,依據(jù)水稻冠層在可見光范圍內(nèi)的光譜反射規(guī)律,設(shè)置3個(gè)簡單的判斷條件,以決策樹的形式,逐步剔除圖像中的非冠層部分,從而達(dá)到識別水稻冠層的目的。與人工目視解譯的結(jié)果進(jìn)行對比驗(yàn)證,該方法的冠層識別準(zhǔn)確率為91.91%,分別比支持向量機(jī)方法、最大似然法和神經(jīng)網(wǎng)絡(luò)方法高1.56、5.56和15.65個(gè)百分點(diǎn);合計(jì)準(zhǔn)確率為90.58%,Kappa系數(shù)為0.79,其數(shù)值低于支持向量機(jī)方法(91.55%,0.81),但均高于最大似然法(89.35%,0.77)和神經(jīng)網(wǎng)絡(luò)方法(83.48%,0.66)。該方法識別精度較高,計(jì)算簡便,顯示出在水稻冠層識別上有較大的應(yīng)用潛力。
關(guān)鍵詞:水稻;冠層識別;數(shù)碼相機(jī);決策樹
中圖分類號:S126 文獻(xiàn)標(biāo)識碼:A 文章編號:1006-060X(2018)02-0085-04
Rice Canopy Recognition Based on Digital Camera Image
YANG Shao-e1,DU Xin2,SU Li-rong1,QIN Fang1
(1. Guangxi Academy of Agricultural Sciences, Agricultural Resources and Environment Institute, Nanning 530007, PRC; 2. Institute of Remote Sensing and Digital Earth, Chinese Academy of Sciences, Beijing 100101, PRC)
Abstract:Using digital camera to obtain images of rice canopy, then extract the color value of red (R), green (G) and blue (B),from the images, set 3 simple judgment conditions based on the characteristics of canopy spectral reflectance in the visible band, gradually eliminat the non-canopy area by using a decision tree algorithms, thereby identify the canopy. Verified with the visual interpretation result, this method’s accuracy of canopy identification was 91.91%, which was higher than the support vector machine method, the maximum likelihood method and neural network method by a percent of 1.56, 5.56 and 15.65 respectively. The total accuracy was 90.58%, Kappa coefficient was 0.79, which is less than the support vector machine method (91.55%, 0.81), greater than the maximum likelihood method (89.35%, 0.77) and the neural network method (83.48%, 0.66). This method has high recognition accuracy and is easy to calculate, show great potential in rice canopy recognition.
Key words:rice; canopy recognition; digital camera; decision tree
作物冠層圖像識別,通常是指在獲取的衛(wèi)星遙感影像、相機(jī)圖像、掃描儀圖像中,識別出綠色植物冠層部分,并剔除掉非冠層部分(如土壤、水體、枯葉、陰影等)。作物冠層圖像識別多被應(yīng)用于作物營養(yǎng)的快速診斷[1-4],植物覆蓋度、葉面積指數(shù)的估
算[5-8],進(jìn)而評估作物長勢、預(yù)估產(chǎn)量等。近年來,隨著技術(shù)提高,價(jià)格降低,數(shù)碼相機(jī)已相當(dāng)普及,利用其獲取冠層圖像非常便捷,因此越來越受到學(xué)者們的青睞。目前,針對數(shù)碼相機(jī)圖像的冠層識別方法主要有3種。一是使用Photoshop軟件的“色彩選擇”程序,人為手工地在圖像中選擇色彩相近的冠層區(qū)域[9-10];該方法的主要缺陷是耗時(shí)費(fèi)力,人為誤差較大。二是監(jiān)督學(xué)習(xí)分類方法,如支持向量機(jī)[11]、神經(jīng)網(wǎng)絡(luò)[12-14]、最大似然法等[15-16],此類方法需要人工選擇監(jiān)督學(xué)習(xí)分類的純凈圖像樣本,然后根據(jù)樣本進(jìn)行學(xué)習(xí),確定分類依據(jù);此類方法的缺點(diǎn)在于計(jì)算時(shí)間較長,而且需要事先選擇圖像樣本,樣本的選取質(zhì)量直接影響分類結(jié)果,操作不夠便捷。三是利用圖像中的紅(R)、綠(G)、藍(lán)(B)三通道的色值,根據(jù)植物冠層的光譜反射規(guī)律,設(shè)定相應(yīng)的計(jì)算公式進(jìn)行區(qū)分。此類方法較常用的指標(biāo)是2g-r-b[17],其中g(shù)=G/(R+G+B),r=R/(R+G+B),b=B/(R+G+B);其分類依據(jù)是圖像中土壤與綠色植物的2g-r-b差異,將圖像二值化處理即可區(qū)分開土壤和綠色植物;該方法的缺點(diǎn)是需要根據(jù)不同的圖像設(shè)置二值化閾值,閾值的設(shè)置對分類結(jié)果影響較大,容易將底層被陰影掩蓋的葉片錯(cuò)分為冠層葉片,同時(shí)將強(qiáng)光照射下的冠層葉片錯(cuò)分為非冠層,分類精度通常不如前2種方法。目前,常用的冠層識別方法較繁瑣,精度還有待提高,而針對數(shù)碼相機(jī)圖像進(jìn)行冠層識別方法的研究仍較少。因此,筆者基于數(shù)碼相機(jī)圖像中的紅(R)、綠(G)、藍(lán)(B)三通道色值,根據(jù)綠色葉片的光譜反射特征,設(shè)置3個(gè)簡單的分類條件,采用決策樹的分類方式,以達(dá)到簡便、快速、準(zhǔn)確識別水稻冠層的目的。
1 材料與方法
1.1 圖像獲取及處理
在晴天光線充足的情況下,設(shè)置數(shù)碼相機(jī)閃光燈關(guān)閉狀態(tài),使用自動拍照模式,白平衡、曝光值均采用自動調(diào)節(jié)模式,垂直向下拍攝水稻冠層,獲得水稻冠層圖像。該試驗(yàn)在水稻分蘗期進(jìn)行拍攝,使用的是佳能550D數(shù)碼相機(jī),圖像分辨率為2 595×1 728。為了減輕目視解譯的工作量,提高目視解譯的精度,截取了圖像中央的850×650區(qū)域進(jìn)行研究。
1.2 冠層識別方法
根據(jù)植物冠層的光譜反射特征,設(shè)置3個(gè)判斷條件,如圖1決策樹所示,圖像中的每個(gè)象元都依據(jù)這3個(gè)條件判斷是否為冠層或非冠層,只有滿足全部3個(gè)條件的象元才歸為冠層。
(1)G>R:綠色葉片最基本的特征是綠光反射值大于紅光反射值,因此不符合該條件的象元即為非冠層區(qū)域。
(2)G>max(G)×0.2:其中max(G)是指圖像中綠光通道的最大值,可反映圖像最大的亮度。因?yàn)榕臄z圖像時(shí)設(shè)置了自動拍照模式,白平衡、曝光值均采用自動調(diào)節(jié)模式,因此圖像中亮度較低的地方通常是光線較暗的底部陰影,或是其他黑色物體。設(shè)置條件Ggt;max(G)×0.2,是把圖像中低于最大亮度20%以下的圖像區(qū)域設(shè)定為陰影區(qū)域或黑色物體,歸屬于非冠層區(qū)域。
(3)G/B>1.15:設(shè)置該條件的目的,是把綠葉跟同樣是綠色的塑料、布料、油漆等區(qū)分開。這些物品通常是田間殘留的農(nóng)藥肥料包裝,或是工作人員穿著的鞋子、衣服、攜帶的工具等不慎被拍攝到圖像中。區(qū)分冠層綠葉與其他綠色物品的依據(jù)是:綠色冠層中綠光值顯著大于藍(lán)光值,而其他綠色物品的綠光值雖然大于藍(lán)光值,但與藍(lán)光值較為接近,因此其他綠色物品的G/B通常在1左右,而綠色冠層的G/B則通常大于1.1。這里設(shè)置閥值為1.15,以更好地去除掉非冠層的綠色物品。
1.3 冠層識別的具體實(shí)施
ENVI是一套功能強(qiáng)大的圖像處理軟件,能快速、準(zhǔn)確地提取圖像中紅(R)、綠(G)、藍(lán)(B)三通道的色值,并自帶有多種圖像分類功能,被廣泛應(yīng)用于遙感、農(nóng)業(yè)、醫(yī)學(xué)等眾多領(lǐng)域。試驗(yàn)采用ENVI軟件編寫了上述決策樹程序?qū)Σ杉膱D像進(jìn)行分類。同時(shí),為了比較該方法與其他分類方法的效果,在ENVI軟件中還進(jìn)行了支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)、最大似然法等方法的分類試驗(yàn)。
將數(shù)碼相機(jī)獲取的圖像(圖2)進(jìn)行人工目視解譯,人為識別出圖像中的冠層部分和非冠層部分,作為各分類方法的真值圖像(圖3),分別與各方法的分類結(jié)果進(jìn)行對比驗(yàn)證,并計(jì)算出分類準(zhǔn)確率及Kappa系數(shù)。
進(jìn)行支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)、最大似然法分類前,在圖像中以綠葉、土壤、水體、陰影等4類分別選取各類別的純凈象元區(qū),作為分類算法的學(xué)習(xí)樣本。如圖4所示,綠色區(qū)域?yàn)榫G葉區(qū),黃色區(qū)域?yàn)橥寥绤^(qū),藍(lán)色區(qū)域?yàn)樗w區(qū),紅色區(qū)域?yàn)殛幱皡^(qū)。
根據(jù)ENVI軟件提供的各分類方法選擇參數(shù)。支持向量機(jī)采用的核函數(shù)(Kernel Type)是徑向基函數(shù)(Radial Basis Function),核參數(shù)σ值(Gamma in Kernel Function)為0.333,懲罰因子(Penalty Parameter)為100。
神經(jīng)網(wǎng)絡(luò)活化函數(shù)(Activation)采用Logistic函數(shù),訓(xùn)練貢獻(xiàn)閾值(Training Threshold Contribution)為0.9,權(quán)重調(diào)節(jié)速度(Training Rate)為0.2,訓(xùn)練步幅(Training Momentum)為0.9,期望誤差最小值(Training RMS Exit Criteria)為0.1,隱藏層(Number of Hidden Layers)為1,訓(xùn)練迭代次數(shù)(Number of Training Iterations)為1 000。
最大似然法似然度閾值(Set Probability Threshold)選擇“None”。
1.4 冠層識別精度評價(jià)
采用分類準(zhǔn)確率和Kappa系數(shù)2個(gè)參數(shù)來評價(jià)各個(gè)方法的識別精度。其中,分類準(zhǔn)確率分為冠層準(zhǔn)確率,非冠層準(zhǔn)確率和合計(jì)準(zhǔn)確率,分別表示真值圖像中的冠層象元、非冠層象元及全部象元被準(zhǔn)確識別的百分比。Kappa系數(shù)是描述2幅圖像間差異程度的參數(shù),理論值在-1~1間,但通常都是在0~1之間;如果兩幅圖像差異很大,則Kappa系數(shù)值小;2幅圖像完全一致時(shí),Kappa系數(shù)值為1。通常認(rèn)為Kappa≥0.75時(shí),兩者一致性好;0.40≤Kappa<0.75時(shí),兩者一致性一般;Kappa<0.4時(shí),兩者一致性差[18-19]。分類準(zhǔn)確率和Kappa系數(shù)的計(jì)算公式如下:
g1=a+b,g2=c+d,f1=a+d,f2=b+c
PC=a/g1,PNC=c/g2,PO=(a+c)/n
Pe=(g1×f1+g2×f2)/n2
K=(PO-Pe)/(1-Pe)
式中,a表示被正確識別的冠層象元數(shù),b表示被錯(cuò)誤識別的冠層象元數(shù),c表示被正確識別的非冠層象元數(shù),d表示被錯(cuò)誤識別的非冠層象元數(shù),n表示圖像總象元數(shù);PC表示冠層準(zhǔn)確率,PNC表示非冠層準(zhǔn)確率,PO表示合計(jì)準(zhǔn)確率,K表示Kappa系數(shù)。
2 結(jié)果與分析
各分類結(jié)果圖如圖5所示。直觀觀察可以看出,各個(gè)分類結(jié)果圖中均存在一部分較零碎的冠層區(qū)域,與實(shí)際圖像不符;神經(jīng)網(wǎng)絡(luò)方法的識別結(jié)果圖中,冠層的區(qū)域較少,與實(shí)際圖像和目視解譯結(jié)果差異較大。
以目視解譯結(jié)果圖為真值圖像,計(jì)算各分類方法的識別結(jié)果圖的分類準(zhǔn)確率和Kappa系數(shù),各分類方法的精度檢驗(yàn)結(jié)果如表1所示。檢驗(yàn)結(jié)果顯示,除了神經(jīng)網(wǎng)絡(luò)方法以外,其他各分類方法的Kappa系數(shù)都大于0.75,表現(xiàn)出了對水稻冠層較好的識別精度。而決策樹方法對水稻冠層識別的準(zhǔn)確率為91.91%,分別比支持向量機(jī)方法、最大似然法和神經(jīng)網(wǎng)絡(luò)方法高1.56、5.56和15.65個(gè)百分點(diǎn);合計(jì)準(zhǔn)確率為90.58%,Kappa系數(shù)為0.79,其數(shù)值低于支持向量機(jī)方法,但高于最大似然法和神經(jīng)網(wǎng)絡(luò)方法。這說明該方法針對水稻冠層的識別精度僅略次于支持向量機(jī)方法,而優(yōu)于最大似然法和神經(jīng)網(wǎng)絡(luò)方法。
3 討 論
該研究中,支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)和最大似然法均采用ENVI軟件默認(rèn)的分類參數(shù),這些參數(shù)是ENVI公司根據(jù)大量的試驗(yàn)數(shù)據(jù)得到的經(jīng)驗(yàn)參數(shù),同時(shí)也是學(xué)者們常用的參數(shù),因此選用這些默認(rèn)參數(shù)具有普遍意義;純凈象元區(qū)是筆者根據(jù)實(shí)際目視結(jié)果選取,且選取的范圍占全圖像的比例較大,確保了純凈象元區(qū)的質(zhì)量和數(shù)量。從該研究得到的分類結(jié)果來看,各方法的分類合計(jì)準(zhǔn)確率均在80%以上,取得了較好的分類結(jié)果,說明參數(shù)的設(shè)置和純凈象元區(qū)的選取都較為恰當(dāng),分類結(jié)果可用于與新方法進(jìn)行比較。從比較結(jié)果可以看出,新方法的識別結(jié)果較好,達(dá)到并優(yōu)于現(xiàn)有分類方法的精度。另外還需指出,支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)和最大似然法如果設(shè)置其他參數(shù)將出現(xiàn)不一樣的分類結(jié)果;同時(shí),這3種分類方法都需要對純凈象元區(qū)進(jìn)行學(xué)習(xí),進(jìn)而形成分類論據(jù),如果選擇不同的純凈象元區(qū)將產(chǎn)生不一樣的分類結(jié)果。因此,不能排除在選取其他參數(shù)和純凈象元區(qū)的條件下,出現(xiàn)神經(jīng)網(wǎng)絡(luò)或最大似然法的分類精度高于該研究新方法的情況。
該研究提出的方法中,G>max(G)×0.2和G/B>1.15設(shè)置的閾值,是對多幅不同光線條件下的圖像進(jìn)行試驗(yàn)后確定的經(jīng)驗(yàn)值,閾值設(shè)置如何能更合理,還需要進(jìn)行更多的研究總結(jié)。從研究結(jié)果來看,新方法的分類結(jié)果精度較高,省略了現(xiàn)有方法需要提前選擇圖像樣本的工作步驟,計(jì)算過程更簡單,電腦運(yùn)算時(shí)間更短,明顯提高了工作效率,顯示出在水稻冠層識別上有較大的應(yīng)用潛力。雖然研究只針對水稻冠層進(jìn)行了識別,但由于作物冠層的光譜反射規(guī)律比較相似,所以該研究的新方法也可以推廣應(yīng)用于其他作物的冠層識別。
4 結(jié) 論
基于數(shù)碼相機(jī)圖像中的紅(R)、綠(G)、藍(lán)(B)三通道色值,設(shè)置G>R、G>max(G)×0.2、G/B>1.15這3個(gè)遞進(jìn)分類條件,能較準(zhǔn)確地識別出分蘗期水稻冠層,分類精度達(dá)到并優(yōu)于常用的監(jiān)督分類方法(支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)和最大似然法),且該方法操作簡便,顯示出在水稻冠層識別上具有較大的應(yīng)用潛力。
參考文獻(xiàn):
[1] 李嵐?jié)?,?萌,任 濤,等. 應(yīng)用數(shù)字圖像技術(shù)進(jìn)行水稻氮素營養(yǎng)診斷[J]. 植物營養(yǎng)與肥料學(xué)報(bào),2015,21(1):259-268.
[2] 王 遠(yuǎn),王德建,張 剛,等. 基于數(shù)碼相機(jī)的水稻冠層圖像分割及氮素營養(yǎng)診斷[J].農(nóng)業(yè)工程學(xué)報(bào),2012,28(17):131-136.
[3] 張立周,侯曉宇,張玉銘,等. 數(shù)字圖像診斷技術(shù)在冬小麥氮素營養(yǎng)診斷中的應(yīng)用[J].中國生態(tài)農(nóng)業(yè)學(xué)報(bào),2011,19(5):1168-1174.
[4] Li Y,Chen D,Walker C N,et al. Estimating the nitrogen status of crops using a digital camera[J]. Field Crops Research,2010,118:221-227.
[5] 李翠娜,張雪芬,余正泓,等. 基于圖像提取技術(shù)計(jì)算夏玉米覆蓋度和反演葉面積指數(shù)的精度評價(jià)[J]. 中國農(nóng)業(yè)氣象,2016,(4):479-491.
[6] 陸秀明,黃 慶,孫雪晨,等. 圖像處理技術(shù)估測水稻葉面積指數(shù)的研究[J]. 中國農(nóng)學(xué)通報(bào),2011,27(3):65-68.
[7] 李 明,張長利,房俊龍. 基于圖像處理技術(shù)的小麥葉面積指數(shù)的提取[J]. 農(nóng)業(yè)工程學(xué)報(bào),2010,26(1):205-209.
[8] 王桂琴,鄭麗敏,朱 虹,等. 圖像處理技術(shù)在冬小麥葉面積指數(shù)測定中的應(yīng)用[J]. 麥類作物學(xué)報(bào),2004,24(4):108-112.
[9] 賈良良,范明生,張福鎖,等. 應(yīng)用數(shù)碼相機(jī)進(jìn)行水稻氮營養(yǎng)診斷[J]. 光譜學(xué)與光譜分析,2009,29(8):2176-2179.
[10] 王曉靜,張 炎,李 磐,等. 地面數(shù)字圖像技術(shù)在棉花氮素營養(yǎng)診斷中的初步研究[J].棉花學(xué)報(bào),2007,19(2):106-113.
[11] 王振武,孫佳駿,于忠義,等. 基于支持向量機(jī)的遙感圖像分類研究綜述[J]. 計(jì)算機(jī)科學(xué),2016,43(9):11-31.
[12] 呂京國. 基于神經(jīng)網(wǎng)絡(luò)集成的遙感圖像分類與建模研究[J]. 測繪通報(bào),2014,(3):17-20.
[13] 任軍號,吉沛琦,耿 躍. SOM神經(jīng)網(wǎng)絡(luò)改進(jìn)及在遙感圖像分類中的應(yīng)用[J]. 計(jì)算機(jī)應(yīng)用研究,2011,28(3):1170-1182.
[14] 王立海,趙正勇. 基于BP神經(jīng)網(wǎng)絡(luò)的針闊混交林TM遙感圖像自動分類技術(shù)研究[J].林業(yè)科學(xué),2005,41(6):94-100.
[15] 樊利恒,呂俊偉,于振濤,等. 基于改進(jìn)最大似然方法的多光譜遙感圖像分類方法[J].電光與控制,2014,21(10):52-74.
[16] 琚存勇,蔡體久,馮仲科. 基于數(shù)學(xué)形態(tài)學(xué)和最大似然法的遙感圖像分類研究[J]. 北京林業(yè)大學(xué)學(xué)報(bào),2005,27(2):84-87.
[17] Woebbecke D M,Meyer G E,Von Bargen K,et al. Color indices for weed identification under various soil,residue and lighting conditions[J]. Transaction of the American Society of Agricultural Engineering,1995,38(1):259-269.
[18] 田 苗,王鵬新,嚴(yán)泰來,等. Kappa系數(shù)的修正及在干旱預(yù)測精度及一致性評價(jià)中的應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào),2012,28(24):1-7.
[19] Landis J R,Koch G G. The measurement of observer agreement for categorical data[J]. Biometrics,1977,33:159-174.