劉立波,程曉龍,戴建國(guó),賴軍臣
?
基于邏輯回歸算法的復(fù)雜背景棉田冠層圖像自適應(yīng)閾值分割
劉立波1,程曉龍1,戴建國(guó)2,賴軍臣3※
(1. 寧夏大學(xué)信息工程學(xué)院,銀川 750021;2. 石河子大學(xué)信息科學(xué)與技術(shù)學(xué)院,石河子 832000; 3. 新疆五家渠市農(nóng)業(yè)局,五家渠 831300)
棉田冠層覆蓋度是監(jiān)測(cè)棉田棉花長(zhǎng)勢(shì)的重要指標(biāo),針對(duì)棉田復(fù)雜環(huán)境中冠層圖像難以準(zhǔn)確分割的問(wèn)題,該文提出了一種基于邏輯回歸算法的復(fù)雜背景棉田冠層圖像自適應(yīng)閾值分割方法。首先將棉田冠層圖像像素分成葉片冠層和地表背景2類,在HSV顏色空間中分別提取兩類像素的H通道值,在RGB顏色空間中分別提取綠色占比值(G/(G+R+B))作為顏色特征;再利用邏輯回歸算法確定出各顏色特征的分割閾值,通過(guò)H通道分割閾值實(shí)現(xiàn)圖像的初次分割;再對(duì)初次分割結(jié)果中的低亮像素使用邏輯回歸算法計(jì)算出的超綠特征閾值進(jìn)行低亮像素分割,同時(shí)采用綠色占比分割閾值對(duì)圖像高亮像素及低亮像素分割結(jié)果整體實(shí)現(xiàn)二次分割,最后采用形態(tài)學(xué)濾波方法對(duì)分割結(jié)果進(jìn)行優(yōu)化。為評(píng)價(jià)該分割方法,利用從新疆棉花產(chǎn)區(qū)采集到的320幅棉田冠層圖像進(jìn)行試驗(yàn)。結(jié)果表明,該方法可在棉田復(fù)雜自然背景下,有效分割出棉田冠層區(qū)域,平均相對(duì)目標(biāo)面積誤差率僅為5.46%,總體平均匹配率達(dá)到93.07%;優(yōu)于超綠特征OTSU分割方法(平均相對(duì)目標(biāo)面積誤差率11.78%,總體平均匹配率76.43%)、四分量分割方法(平均相對(duì)目標(biāo)面積誤差率24.11%,總體平均匹配率71.67%)、顯著性分割方法(平均相對(duì)目標(biāo)面積誤差率36.92%,總體平均匹配率66.92%)。該方法的平均處理時(shí)間為4.63 s,相對(duì)于超綠特征OTSU法(3.84 s)和四分量分割法(2.56 s),耗時(shí)多一些,但與顯著性分割法(6.25 s)對(duì)比,花費(fèi)時(shí)間要少。研究結(jié)果可為棉田自然復(fù)雜環(huán)境下機(jī)器視覺(jué)技術(shù)監(jiān)測(cè)棉花覆蓋度提供一種有效途徑。
算法;棉花;圖像分割;邏輯回歸; 自適應(yīng)閾值
棉花是中國(guó)重要的經(jīng)濟(jì)作物,是國(guó)家重要的戰(zhàn)略物資。棉花在不同的生長(zhǎng)發(fā)育階段,根據(jù)長(zhǎng)勢(shì)動(dòng)態(tài)及時(shí)采取有效的水肥和化學(xué)調(diào)控措施,是棉花獲得理想產(chǎn)量的技術(shù)保障。目前利用衛(wèi)星遙感監(jiān)控棉田葉面積指數(shù)和覆蓋度是行之有效的手段[1-3]。衛(wèi)星遙感技術(shù)雖然可以實(shí)現(xiàn)宏觀棉花長(zhǎng)勢(shì)的監(jiān)測(cè),但該技術(shù)受衛(wèi)星軌道周期和影像分辨率的制約,獲取棉花長(zhǎng)勢(shì)信息的實(shí)時(shí)性和精度受到限制,難于在生產(chǎn)實(shí)際中大面積推廣。高效、低成本的無(wú)人監(jiān)測(cè)棉田棉花長(zhǎng)勢(shì)的信息化技術(shù),是棉田生產(chǎn)信息化重要組成部分。機(jī)器視覺(jué)因其具有全天候、全方位采集處理信息的能力,已廣泛應(yīng)用于農(nóng)業(yè)領(lǐng)域[4-6]。
監(jiān)測(cè)棉田常用的群體特征參數(shù)包括冠層覆蓋度、群體葉面積指數(shù)等,其中冠層覆蓋度獲取技術(shù)相對(duì)簡(jiǎn)單,在棉田應(yīng)用較為廣泛[7]。用機(jī)器視覺(jué)獲取棉花群體覆蓋度,分割棉田冠層圖像中冠層區(qū)域是其中的關(guān)鍵環(huán)節(jié),分割的精準(zhǔn)度直接影響到之后覆蓋度計(jì)算是否準(zhǔn)確。常用的分割方法包含閾值分割法、顏色聚類法,以及顯著性分割法等[8-9]。雖然前人已經(jīng)做了大量的研究,但還是沒(méi)有一種能廣泛適用的分割方法。因此,研究復(fù)雜環(huán)境下的自適應(yīng)圖像分割方法是當(dāng)前圖像分割領(lǐng)域的一項(xiàng)重要內(nèi)容。自適應(yīng)分割方法研究目前主要包含兩個(gè)方面:一個(gè)是利用機(jī)器學(xué)習(xí)技術(shù),另一個(gè)是利用視覺(jué)顯著性技術(shù)[10-15]。周俊等[16]通過(guò)K均值聚類獲得訓(xùn)練樣本,利用支持向量機(jī)設(shè)計(jì)出了一種自適應(yīng)閾值的分割方法,有效提高了分割過(guò)程中差異性適應(yīng)的問(wèn)題。Bai等[17]提出一種利用分水嶺變換結(jié)合Nystr?m擴(kuò)展譜聚類算法實(shí)現(xiàn)了玉米苗圖像的分割。周強(qiáng)強(qiáng)等[18]基于水平集和視覺(jué)顯著性提出了一種植物病害葉片圖像分割算法,效果較好。任守綱等[19]提出了一種基于顯著性檢測(cè)的黃瓜葉部病害圖像分割算法,有效解決了冗余分割問(wèn)題。Cheng Mingming等[20]研究出一種基于視覺(jué)顯著性的圖像分割算法,該算法自適應(yīng)性強(qiáng)、分割效果好,但該算法在處理效率方面不盡如人意。上述研究在各自的應(yīng)用領(lǐng)域都取得了一定的效果,但是算法復(fù)雜度較高,實(shí)際應(yīng)用較為困難。
邏輯回歸算法是當(dāng)前研究中比較常見(jiàn)的機(jī)器學(xué)習(xí)算法。該算法通過(guò)計(jì)算訓(xùn)練樣本獲取預(yù)測(cè)參數(shù),根據(jù)預(yù)測(cè)參數(shù)和預(yù)測(cè)函數(shù)計(jì)算出數(shù)據(jù)分割超平面以實(shí)現(xiàn)數(shù)據(jù)的分類。作為常見(jiàn)的機(jī)器學(xué)習(xí)算法,由于其算法效率高,現(xiàn)已廣泛應(yīng)用于分類預(yù)測(cè)領(lǐng)域[21-23],但在農(nóng)業(yè)圖像處理領(lǐng)域還未見(jiàn)報(bào)道。本文在分析自然復(fù)雜環(huán)境條件下棉田冠層圖像特點(diǎn)的基礎(chǔ)上,提出一種基于邏輯回歸算法的自適應(yīng)棉田冠層圖像分割方法,以期為后續(xù)棉花長(zhǎng)勢(shì)的自動(dòng)化監(jiān)測(cè)打下一定的基礎(chǔ)。
試驗(yàn)于2016年4月-7月在新疆第六師五家渠墾區(qū)棉花試驗(yàn)田進(jìn)行。根據(jù)當(dāng)?shù)貢r(shí)間,選擇天氣條件良好的晴空,選取5塊棉花條田,利用Canon EOS5D數(shù)碼照相機(jī)在自然環(huán)境光照條件下隨機(jī)拍攝不同生長(zhǎng)時(shí)期(苗期(4月25日-5月25日)、蕾期(5月26日-6月25日)、花期(6月26日-7月15日)、花鈴期(7月16日-7月31日))的棉田冠層圖像共計(jì)320幅,每個(gè)生長(zhǎng)時(shí)期80幅。數(shù)碼相機(jī)安裝在三腳架上,距地面約1.5 m,鏡頭垂直地面進(jìn)行拍攝。拍攝圖像分辨率為6 912×3 416像素,為降低圖像處理復(fù)雜度,提高處理效率,本文中所有試驗(yàn)采用的圖像尺寸均調(diào)整為1 728×1 152像素。
棉田群體圖像的背景區(qū)域(土壤部分)與目標(biāo)區(qū)域(葉片冠層)顏色對(duì)比較明顯,因此本文考慮利用顏色特征對(duì)棉田冠層圖像進(jìn)行分割,處理流程分為兩個(gè)主要步驟,如圖1所示。1)閾值獲?。横槍?duì)現(xiàn)有圖像中目標(biāo)和背景2類像素,首先在HSV顏色空間中人為提取出2類像素的色調(diào)H分量,然后在RGB顏色空間中計(jì)算2類像素典型的綠色占比值(G/(R+G+B))值。2)圖像分割:利用邏輯回歸算法計(jì)算出H通道特征的分割閾值實(shí)現(xiàn)首次分割,接著采用超綠特征閾值對(duì)低亮區(qū)域進(jìn)行分割,采用綠色占比閾值對(duì)高亮區(qū)域及上述分割結(jié)果進(jìn)行二次分割,最后通過(guò)形態(tài)學(xué)方法對(duì)分割結(jié)果進(jìn)行優(yōu)化。
圖1 棉田冠層圖像閾值獲取分割方法流程圖
2.1 顏色特征選擇
棉田冠層覆蓋度是通過(guò)計(jì)算分割獲得的冠層圖像像素?cái)?shù)占整個(gè)圖像像素?cái)?shù)的百分比來(lái)表示的[24]。然而棉田自然環(huán)境下獲取的棉田冠層圖像由于圖像背景復(fù)雜、光照強(qiáng)度不均勻、陰影遮擋等實(shí)際情況,導(dǎo)致分割效果較差,對(duì)覆蓋度計(jì)算的準(zhǔn)確性造成很大影響。
為準(zhǔn)確描述棉田自然復(fù)雜環(huán)境下的棉田冠層圖像,將圖像分為光照冠層,陰影冠層;光照土壤,陰影土壤4部分。在HSV顏色空間中,由于H(色調(diào))、S(飽和度)、V(亮度)三通道相互獨(dú)立,互不影響,且H分量對(duì)光照不敏感,同時(shí)棉田冠層目標(biāo)像素與背景像素在H特征上有一定差距,因此引入H通道特征作為本文使用的顏色特征之一。在每一幅棉田冠層圖像的H通道上,通過(guò)采樣光照土壤和陰影土壤像素點(diǎn)各20個(gè)共計(jì)40個(gè)數(shù)據(jù)構(gòu)造背景數(shù)據(jù)集;采樣光照冠層和陰影冠層像素點(diǎn)各20個(gè)共計(jì)40個(gè)數(shù)據(jù)構(gòu)造目標(biāo)數(shù)據(jù)集,運(yùn)用邏輯回歸算法計(jì)算2個(gè)數(shù)據(jù)集的分割閾值分別為24和66.5。通過(guò)對(duì)H通道特征值進(jìn)行分析,發(fā)現(xiàn)光照冠層像素,陰影冠層像素,部分陰影土壤包含在H高值區(qū)域,光照土壤像素,陰影土壤像素,部分陰影冠層包含在H低值區(qū)域,如圖2a、圖2b所示。目標(biāo)圖像大部分H通道值范圍在24~66.5之間,而背景區(qū)域H通道值范圍在0~24或者66.5~180之間,由此獲得H通道值閾值范圍。但是,以H通道值像素作為顏色特征雖然能實(shí)現(xiàn)大部分目標(biāo)像素的分割,結(jié)果卻并不是非常理想,還存在一定的分割誤差,而且在復(fù)雜背景下也存在假目標(biāo)像素的情況。主要問(wèn)題集中于土壤陰影和冠層陰影這樣的低亮度像素區(qū)域,因此還需要結(jié)合其他顏色特征再次分割以達(dá)到更好的效果。
關(guān)于棉田冠層圖像目標(biāo)低亮像素定義,前人已經(jīng)進(jìn)行了一定的研究。研究結(jié)果表明在RGB顏色空間中對(duì)于綠葉部分,如果像素R+G+B>=200,則為陰影葉片像素;而對(duì)于土壤部分,如果R+G+B<=250,則為陰影土壤[25]。對(duì)該部分圖像像素進(jìn)行研究后發(fā)現(xiàn),該部分像素的圖像分割可采用超綠特征完成。超綠特征(excess green,Exg)同時(shí)也是農(nóng)作物圖像分割中廣泛使用的顏色特征[26-27],分割效果較好。但由于該特征對(duì)光照較為敏感而不適合復(fù)雜背景條件下的分割。由于之前利用H通道特征已經(jīng)實(shí)現(xiàn)了對(duì)大部分背景像素的去除,因此本文采用超綠特征對(duì)初次分割結(jié)果中的低亮像素進(jìn)行分割,優(yōu)化初次分割結(jié)果,如圖2c所示。
在經(jīng)過(guò)上述分割操作之后,發(fā)現(xiàn)得到的分割結(jié)果中葉片周圍還存在一些錯(cuò)誤的分割像素。為了保證之前分割結(jié)果不被破壞,采用綠色占比(G/(R+G+B))對(duì)分割結(jié)果進(jìn)一步優(yōu)化,如圖2d所示。
選取不同棉田、不同生長(zhǎng)時(shí)期(苗期、蕾期、花期、花鈴期)、不同覆蓋度的棉田冠層圖像各10幅,共計(jì)40幅重復(fù)上述步驟,顏色特征均滿足上述計(jì)算結(jié)果。
2.2 邏輯回歸算法
邏輯回歸算法是機(jī)器學(xué)習(xí)領(lǐng)域中經(jīng)常采用的監(jiān)督學(xué)習(xí)算法。與其他監(jiān)督學(xué)習(xí)算法類似,邏輯回歸算法也是對(duì)經(jīng)人工標(biāo)記的訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí)之后再迭代優(yōu)化尋找最優(yōu)劃分的過(guò)程。對(duì)于一個(gè)數(shù)據(jù)集的分類問(wèn)題,需要計(jì)算該數(shù)據(jù)集的分割超平面。
注:人為自定義變量為利用邏輯回歸算法計(jì)算單一特征分割超平面所需變量,為減少人為干擾,將該變量值設(shè)定為1。下同。
Note: Artificially defined independent variable is used to compute a single feature hyperplane by using a logistic regression algorithm. In order to reduce the human disturbance, this variable value is set to 1. Same as below.
圖2 棉田冠層圖像顏色特征散點(diǎn)圖
Fig.2 Cotton canopy image color feature scatter plot
其中x為實(shí)例中的第個(gè)屬性,代表第個(gè)屬性對(duì)應(yīng)的系數(shù)形成的矢量,代表分割超平面的偏差參數(shù)。那么對(duì)應(yīng)的邏輯回歸分類模型為
其中表示以和為自變量的函數(shù)值。為能獲得分類效果最優(yōu)的分割超平面,需要結(jié)合訓(xùn)練樣本實(shí)例x和樣本對(duì)應(yīng)的類別標(biāo)簽y得到最優(yōu)的參數(shù),為此引入代價(jià)函數(shù)()
(3)
為求解邏輯回歸問(wèn)題,需要求得最優(yōu)參數(shù)使得代價(jià)函數(shù)最小,對(duì)此本文采用梯度下降算法迭代計(jì)算最優(yōu)參數(shù),迭代計(jì)算公式為
其中θj等表示第j個(gè)分割超平面系數(shù),表示梯度下降算法中的學(xué)習(xí)率。本文在使用邏輯回歸算法中將顏色特征分別表示如下的形式作為訓(xùn)練集:x={(1, x1),(1, x2),…, (1,xn)}為樣本集的形式,內(nèi)容是顏色特征數(shù)值,y={y1, y2, y3,…,yn}為樣本集對(duì)應(yīng)類別標(biāo)簽的形式。將樣本集和訓(xùn)練類別標(biāo)簽結(jié)合來(lái)訓(xùn)練計(jì)算對(duì)應(yīng)顏色特征的分割超平面。其中在樣本集中為了對(duì)單一特征實(shí)現(xiàn)分割,引入人為自變量將其值設(shè)定為1,可得到平行于坐標(biāo)軸的分割超平面。本文通過(guò)計(jì)算H通道值閾值范圍、超綠特征閾值以及綠色占比閾值,獲得不同顏色特征的分割超平面,利用該超平面與坐標(biāo)軸的交點(diǎn)縱坐標(biāo)來(lái)獲得對(duì)應(yīng)特征的分割閾值,實(shí)現(xiàn)了圖像分割的自適應(yīng)閾值獲取過(guò)程。選取40幅棉田冠層圖像,在每幅圖像中選擇背景和冠層像素各20個(gè)作為訓(xùn)練像素點(diǎn),以每個(gè)像素點(diǎn)的H通道高區(qū)域和低區(qū)域特征值、低亮像素超綠特征值、綠色占比特征值分別形成4個(gè)顏色特征訓(xùn)練集。將這4個(gè)訓(xùn)練集中的數(shù)據(jù)分別輸入到LR(Logistic Regression)分類器中進(jìn)行訓(xùn)練,訓(xùn)練后得到的分割超平面如圖3所示,計(jì)算出的分割閾值為:H值高區(qū)域特征值分割閾值為66.5,H值低區(qū)域特征值分割閾值為24,超綠特征值分割閾值為15,綠色占比特征值為0.355。
2.3 數(shù)學(xué)形態(tài)學(xué)濾波
在冠層圖像分割過(guò)程中,由于存在閾值誤差等原因,使得分割結(jié)果圖像的部分區(qū)域存在空洞、毛刺和孤立點(diǎn)等錯(cuò)誤分割情況,可采用形態(tài)學(xué)濾波方法[28-29]對(duì)分割結(jié)果進(jìn)行優(yōu)化。本文在試驗(yàn)過(guò)程中采用8×8大小的橢圓形結(jié)構(gòu)元素,采用先閉運(yùn)算再開(kāi)運(yùn)算[28-29]的方法實(shí)現(xiàn)去除毛刺、清除孤立點(diǎn)、填充圖像孔洞優(yōu)化分割結(jié)果,最終得到目標(biāo)圖像。
3.1 試驗(yàn)環(huán)境
為了驗(yàn)證本文方法在棉田自然復(fù)雜環(huán)境下對(duì)不同田塊、不同生長(zhǎng)周期棉田冠層圖像分割的有效性,繼而將本文方法與超綠特征OTSU分割方法、四分量分割方法、顯著性分割方法的分割效果進(jìn)行性能對(duì)比分析來(lái)選取最佳方法,試驗(yàn)平臺(tái)選擇如下:硬件環(huán)境采用IntelCore i5-3230M處理器、2.6 GHz主頻、4 GB內(nèi)存的計(jì)算機(jī)。軟件環(huán)境采用采用Win10操作系統(tǒng),選擇python2.7做為開(kāi)發(fā)語(yǔ)言,計(jì)算機(jī)視覺(jué)開(kāi)發(fā)庫(kù)(OpenCV)版本號(hào)為2.4.9。
3.2 試驗(yàn)結(jié)果與分析
在5塊棉花條田所拍攝的320幅圖像中,選取苗期、蕾期、花期、花鈴期4個(gè)不同生長(zhǎng)時(shí)期、不同覆蓋度的棉田冠層圖像,每一個(gè)生長(zhǎng)周期選取60幅,共計(jì)240幅圖像作為試驗(yàn)樣本,每幅圖像分辨率為1 728× 1 152像素,冠層可能茂密或者稀疏,也會(huì)存在光照均勻或者不均勻的情況。試驗(yàn)?zāi)繕?biāo)為在棉田復(fù)雜自然環(huán)境下,準(zhǔn)確有效地分割出冠層圖像。
圖4a表示以苗期、蕾期、花期、花鈴期4個(gè)不同生長(zhǎng)時(shí)期的典型圖像作為待試驗(yàn)圖像。圖4b表示4個(gè)不同生長(zhǎng)時(shí)期棉田冠層圖像各自利用H通道閾值進(jìn)行分割的結(jié)果;圖4c表示各棉田冠層圖像利用超綠特征和綠色占比進(jìn)行二次分割的分割結(jié)果;圖4d表示利用形態(tài)學(xué)濾波對(duì)分割圖像優(yōu)化后的結(jié)果。從圖4d的分割結(jié)果可以看出基于邏輯回歸算法的自適應(yīng)閾值分割方法結(jié)合形態(tài)學(xué)濾波操作能夠較好地從棉田復(fù)雜自然環(huán)境下分割出較完整的棉田冠層區(qū)域。
注:1,2,3,4依次為苗期、蕾期、花期和花鈴期。下同。
3.3 算法評(píng)價(jià)與分析
試驗(yàn)選取采用超綠特征OTSU分割方法、四分量分割方法[30]、基于人類視覺(jué)注意,適用范圍廣泛的顯著性分割方法[31-34]共計(jì)3種方法,與本文的分割方法在棉田冠層圖像分割效果上進(jìn)行對(duì)比。在320幅圖像中選取苗期、蕾期、花期、花鈴期4個(gè)不同生長(zhǎng)時(shí)期、覆蓋度不同的棉田冠層圖像,每個(gè)時(shí)期選取20幅,共計(jì)80幅進(jìn)行驗(yàn)證。在對(duì)整個(gè)驗(yàn)證集進(jìn)行試驗(yàn)后,選擇驗(yàn)證集中部分圖像的部分試驗(yàn)進(jìn)行對(duì)比分析,如圖5所示。
從4種方法的分割結(jié)果可以看出,在棉田復(fù)雜自然條件下,超綠特征OTSU分割方法雖然是常用的棉田冠層圖像分割方法,但當(dāng)?shù)孛姹尘皬?fù)雜,光照強(qiáng)度不一時(shí),分割效果欠佳,如圖5c所示;四分量分割方法雖能大體保留冠層的區(qū)域信息,但該方法對(duì)覆蓋度較高的圖像分割效果較差,同時(shí)有一定錯(cuò)誤分割,無(wú)法完整分割出冠層區(qū)域,如圖5d所示。顯著性分割方法的適應(yīng)性較差,不同圖像間的分割效果差異較大,部分冠層區(qū)域沒(méi)有分割出來(lái),同時(shí)出現(xiàn)一定的錯(cuò)誤分割,如圖5e所示。而本文方法能夠在分割過(guò)程中保證每個(gè)生長(zhǎng)時(shí)期的冠層區(qū)域完整性,取得了較好的分割效果,為利用棉田冠層覆蓋度監(jiān)測(cè)棉花長(zhǎng)勢(shì)提供數(shù)據(jù)基礎(chǔ)。
3.4 性能指標(biāo)評(píng)價(jià)
為進(jìn)一步客觀評(píng)價(jià)本文方法的有效性,采用相對(duì)目標(biāo)面積誤差率(relative object area error,RAE)和平均匹配率()對(duì)分割質(zhì)量進(jìn)行定量評(píng)價(jià),分別如式(5)和式(6)所示。
(6)
式中A為參考圖像的目標(biāo)區(qū)域面積;A是測(cè)試圖像的目標(biāo)區(qū)域面積,面積用目標(biāo)區(qū)域像素個(gè)數(shù)來(lái)表示,為樣本圖像數(shù)目。參考圖像是由人工通過(guò)photoshop手動(dòng)獲得,這兩個(gè)圖像分割結(jié)果評(píng)價(jià)指標(biāo)的取值范圍都是0~100%。其中平均面積相對(duì)誤差率值越小表示分割效果越好,平均匹配率值越大表示分割效果越好,反之則效果越差。
3.5 圖像分割性能評(píng)價(jià)定量結(jié)果分析
表1展示了在棉田復(fù)雜自然環(huán)境下,不同方法應(yīng)用于棉田冠層圖像分割的平均相對(duì)目標(biāo)誤差率和總體平均匹配率,每一種評(píng)價(jià)指標(biāo)包含了80幅圖像的平均結(jié)果。從分割性能的平均指標(biāo)來(lái)看,本文方法的平均相對(duì)目標(biāo)面積誤差率、總體平均匹配率相較于其他方法有明顯的優(yōu)勢(shì)。超綠特征OTSU分割方法、四分量分割方法、顯著性分割方法的平均相對(duì)面積誤差率分別為11.78%、24.11%、36.92%,而本文方法的平均相對(duì)目標(biāo)誤差率為5.46%,較其他方法有顯著提高;在總體平均匹配率方面,超綠特征OTSU分割方法、四分量分割方法、顯著性分割方法的總體平均匹配率為76.43%、71.67%,66.92%,而本文方法的總體平均匹配率為93.07%;
表1同時(shí)展示了參加對(duì)比試驗(yàn)的不同方法在80幅驗(yàn)證圖像上的平均處理時(shí)間,從時(shí)間指標(biāo)來(lái)看,超綠特征OTSU分割方法、四分量分割方法、顯著性分割方法的平均處理時(shí)間分別為3.84 s、2.56 s、6.25 s,而本文方法的平均處理時(shí)間為4.63 s。本文方法比超綠特征OTSU法和四分量分割法要耗時(shí)一些,但分割效果遠(yuǎn)好于兩者;比顯著性分割法花費(fèi)時(shí)間要少且分割效果好。綜合評(píng)價(jià),本文方法在分割性能指標(biāo)和分割效果整體優(yōu)于其他3種分割方法。
表1 不同方法分割棉田冠層圖像的性能比較
為了監(jiān)測(cè)自然復(fù)雜環(huán)境下棉田冠層覆蓋度情況,本文進(jìn)行了復(fù)雜背景棉田冠層圖像分割研究。以不同棉田、苗期、蕾期、花期、花鈴期4個(gè)不同生長(zhǎng)時(shí)期、覆蓋度不同的320幅棉田圖像作為試驗(yàn)材料,利用基于邏輯回歸算法的自適應(yīng)閾值分割方法對(duì)復(fù)雜背景棉田冠層圖像進(jìn)行了分割。試驗(yàn)結(jié)果表明:1)本文方法能夠適應(yīng)不同生長(zhǎng)時(shí)期(苗期、蕾期、花期、花鈴期)棉田冠層圖像的分布特點(diǎn),準(zhǔn)確分割出各個(gè)生長(zhǎng)周期的冠層圖像,環(huán)境適應(yīng)性強(qiáng),表現(xiàn)出良好的自適應(yīng)性;2)本文方法能夠在棉田復(fù)雜自然背景下,有效分割出棉田冠層區(qū)域,對(duì)比各分割方法的平均面積相對(duì)誤差率,超綠特征OTSU分割方法(11.78%)、四分量分割方法(24.11%)、顯著性分割方法(36.92%),本文方法僅為5.46%,具有良好的分割效果;3)本文方法能夠適應(yīng)復(fù)雜背景棉田冠層圖像的分布特點(diǎn),克服棉田復(fù)雜背景干擾,對(duì)比棉田冠層圖像分割的總體平均匹配率,超綠特征OTSU分割方法(76.43%)、四分量分割方法(71.67%)、顯著性分割方法(66.92%),本文方法為93.07%,和原圖匹配率最高。從分割效果、平均面積相對(duì)誤差率、總體平均匹配率、平均處理時(shí)間等綜合指標(biāo)來(lái)看,本文的方法最佳。
因此,本文的基于邏輯回歸算法的自適應(yīng)閾值棉田冠層圖像分割方法能夠在棉田復(fù)雜環(huán)境下,較為準(zhǔn)確地將冠層從棉田復(fù)雜背景分割出來(lái),可為實(shí)時(shí)監(jiān)測(cè)棉花覆蓋度提供一種無(wú)損有效的技術(shù)支持。
[1] 辛海強(qiáng),馮志敏. 棉花種植區(qū)衛(wèi)星遙感監(jiān)測(cè)研究[J]. 測(cè)繪與空間地理信息,2014,37(2):26-27. Xin Haiqiang, Feng Zhimin. Satellite remote sensing monitoring research of cotton planting area[J]. Geomatics & Spatial Information Technology, 2014, 37(2): 26-27. (in Chinese with English abstract)
[2] 劉曉晨.基于Landsat8 遙感數(shù)據(jù)的棉花長(zhǎng)勢(shì)快速監(jiān)測(cè)[J]. 新疆農(nóng)業(yè)科技,2015,37(6):50. Liu Xiaochen. Cotton grows fast monitoring based on Landsat8 remote sensing data[J]. Xinjiang Agricultural Science and Technology, 2015, 37(6): 50. (in Chinese with English abstract)
[3] Bai J H, Li J, Li S K, et al. Monitoring the cotton growth conditions based on lai from remote sensing and expert knowledge[J]. Advanced Materials Research, 2011, 317-319: 1050-1057.
[4] 王風(fēng)云,鄭紀(jì)業(yè),唐研,等.機(jī)器視覺(jué)在我國(guó)農(nóng)業(yè)中的應(yīng)用研究進(jìn)展分析[J].山東農(nóng)業(yè)科學(xué),2016,48(4):139-144. Wang Fengyun, Zheng Jiye, Tang Yan, et al. Analysis on application and research progress of machine vision in agriculture in china[J]. Shandong Agricultural Science, 2016, 48(4): 139-144. (in Chinese with English abstract)
[5] 馮康.基于機(jī)器視覺(jué)的棉花識(shí)別與定位技術(shù)的研究[D]. 石河子:石河子大學(xué),2015. Feng Kang. Research on the Technology of Cotton Recognition and Localization Based on Machine Vision[D]. Shihezi: Shihezi University, 2015. (in Chinese with English abstract)
[6] 王建侖.田間葉片圖像分割與單幅三維重建的機(jī)器視覺(jué)算法研究[D].北京:中國(guó)農(nóng)業(yè)大學(xué),2013. Wang Jianlun. Study on Field Leaf Image Segmentation and 3d Reconstruction From a Single Image Machine Vision Algorithms[D]. Beijing: China Agricultural University, 2013. (in Chinese with English abstract)
[7] 冀高.基于數(shù)字圖像處理的棉花群體特征提取[D].北京:北京郵電大學(xué),2007. Ji Gao. Acquired Population Features of Cotton Image Based on Digital Image Processing[D]. Beijing: Beijing University of Posts and Telecommunications, 2007. (in Chinese with English abstract)
[8] 史曉楠,歐陽(yáng)震.圖像分割常用方法綜述[J].科技視界,2014,4(33):33. Shi Xiaonan, Ouyang Zhen. Review of common methods of image segmentation[J]. Science and Technology Vision, 2014, 4(33): 33. (in Chinese with English abstract)
[9] Gurjeet K S, Rajneer K. Review on recent image segmentation techniques[J]. International on Computer Science and Engineering, 2013, 5(2): 109-112.
[10] 高理文,林小樺.基于L*a*b* 彩色空間和局域動(dòng)態(tài)閾值的藥用植物葉片圖像分割[J].計(jì)算機(jī)應(yīng)用與軟件,2014,31(1):233-235. Gao Liwen, Lin Xiaohua. Segmentation of images of medicinal plant leaves based on L*a*b* color space and local dynamic threshold[J]. Computer Applications and Software, 2014, 31(1): 233-235. (in Chinese with English abstract)
[11] 王獻(xiàn)鋒,王震,王旭啟,等.基于SVM和形態(tài)學(xué)的作物病班圖像分割方法[J].吉林農(nóng)業(yè)科學(xué),2015,40(1):51-53,60. Wang Xianfeng, Wang Zhen, Wang Xuqi, et al. Crop spot image segmentation based on SVM and morphology[J]. Journal of Jilin Agricultural Sciences, 2015, 40(1): 51-53, 60. (in Chinese with English abstract)
[12] Yang Najuan, Wang Huiqin, Ma Zongfang. Fire detection in image type algorithm based on support vector machine[J]. Computer Application, 2010, 30(4): 1129-1131.
[13] Vandenbroucke N, Macaire L, Postaire J G, et al. Color image segmentation by pixel classification in an adapted hybrid color space: Application to soccer image analysis[J]. Computer Vision and Image Understading, 2003, 90(2): 190-216.
[14] Jaware T H, Badgujar R D, Patil P G. Corp disease detection using image segmentation[J]. World Journal of Science and Technology, 2012, 2(4): 190-194.
[15] Chen S C, Zhang D Q. Robust image segmentation using from with spatial constraints based on new kernel-induced distance measure[J]. IEEE Trans on Systems, Manand Cybernetic, 2004, 34(4): 1907-1916.
[16] 周俊,王明軍,邵喬林.農(nóng)田圖像綠色植物自適應(yīng)分割方法[J].農(nóng)業(yè)工程學(xué)報(bào),2013,29(18):163-170. Zhou Jun, Wang Mingjun, Shao Qiaolin. Adaptive segmentation of field image for green plants[J]. Transaction of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2013, 29(18): 163-170. (in Chinese with English abstract)
[17] Bai X D, Cao Z G, Wang Y, et al. Crop segmentation from images by morphology modeling in the cie lab color space[J]. Computers and Electronics in Agriculture, 2013, 99: 21-34.
[18] 周強(qiáng)強(qiáng),王志成,趙衛(wèi)東.基于水平集和視覺(jué)顯著性的植物病害葉片圖像分割[J].同濟(jì)大學(xué)學(xué)報(bào):自然科學(xué)版,2015,43(9):1407-1413. Zhou Qiangqiang, Wang Zhicheng, Zhao Weidong. Plant disease image segmentation based on levelset and visual saliency[J]. Journal of Tongji University:Natural science, 2015, 43(9): 1407-1413. (in Chinese with English abstract)
[19] 任守剛,陸海飛,袁培森,等.基于顯著性檢測(cè)的黃瓜葉部病害圖像分割算法[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(9):11-16. Ren Shougang, Lu Haifei, Yuan Peisen, et al. Segmentation algorithm of cucumber canopy disease image based on saliency detection[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(9): 11-16. (in Chinese with English abstract)
[20] Cheng Mingming, Lin Wenyan, Zheng Shuai, et al. Efficient salient region detection with soft image abstraction[C]// International Conference on Computer Vision Theory and Applications. IEEE, 2013: 1529-1536.
[21] 伊雯雯.基于多維組合邏輯回歸模型的廣告點(diǎn)擊率預(yù)測(cè)[J]. 通信技術(shù),2016,49(9):1221-1228. Yi Wenwen. Click through rate prediction of advertisements based on logistic regression model with multidimensional features combination[J]. Communications Technology, 2016, 49(9): 1221-1228. (in Chinese with English abstract)
[22] Lin Y, Deng X, Li X, et al. Comparison of multinomial logistic regression and logistic regression: Which is more efficient in allocating land use[J]. Frontiers of Earth Science, 2014, 8(4): 512-523.
[23] Munshi T, Zuidgeet M, Brussel M, et al. Logistic regression and cellular automata-based modeling of retail, commercial and residential development in the city of Ahmedabad India[J]. Cities, 2014, 38(2): 88-101.
[24] 賈彪,馬富裕.基于機(jī)器視覺(jué)的棉花氮素營(yíng)養(yǎng)診斷系統(tǒng)設(shè)計(jì)與試驗(yàn)[J].農(nóng)業(yè)機(jī)械學(xué)報(bào),2016,47(3):306-310. Jia Biao, Ma Fuyu. Design and experiment of nitrogen nutrition diagnosis system of cotton based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(3): 306-310. (in Chinese with English abstract)
[25] 賈彪.基于計(jì)算機(jī)視覺(jué)技術(shù)的棉花長(zhǎng)勢(shì)監(jiān)測(cè)系統(tǒng)構(gòu)建[D]. 石河子:石河子大學(xué),2014. Jia Biao. Establishment of System for Monitoring Cotton Growth Based on Computer Vision Technology[D]. Shihezi: Shihezi University, 2014. (in Chinese with English abstract)
[26] 袁加紅,朱德泉,孫丙宇,等.基于機(jī)器視覺(jué)的水稻秧苗圖像分割[J].浙江農(nóng)業(yè)學(xué)報(bào),2016,28(6):1069-1075. Yuan Jiahong, Zhu Dequan, Sun Bingyu, et al. Machine vision based segmentation algorithm for rice seeding[J]. Acta Agriculturae Zhejiangensis, 2016, 28(6): 1069-1075. (in Chinese with English abstract)
[27] Meyer G E, Neto J C. Verification of color vegetation indices for automated crop imaging applications[J]. Computer and Electronics in Agriculture, 2008, 63(2): 282-293.
[28] 王萍,唐江豐,王博,等.基于數(shù)學(xué)形態(tài)學(xué)的植物葉片圖像分割方法研究[J].浙江農(nóng)業(yè)學(xué)報(bào),2012,24(3):509-513. Wang Ping, Tang Jiangfeng, Wang Bo, et al. Image segmentation of plant leaves based on mathematical morphology[J]. Acta Agriculturae Zhejiangensis, 2012, 24(3): 509-513. (in Chinese with English abstract)
[29] Jourlin M, Laget B, Matheron G, et al. Image Analysis and Mathematical Morphology[M]. London: Academic Press, Inc, 1988.
[30] 王方永,王克如,李少昆,等.利用數(shù)字圖像估測(cè)棉花葉面積指數(shù)[J].生態(tài)學(xué)報(bào),2011,31(11):3090-3100. Wang Fangyong, Wang Keru, Li Shaokun, et al. Estimation of canopy area index of cotton using digital imaging[J]. Acta Ecologica Sinica, 2011, 31(11): 3090-3100. (in Chinese with English abstract)
[31] 李璐,溫靜,王文劍.基于視覺(jué)顯著性的目標(biāo)分割算法[J]. 計(jì)算機(jī)科學(xué)與探索,2016,10(3):398-406. Li Lu, Wen Jing, Wang Wenjian. Image segmentation algorithm based on visual saliency[J]. Journal of Frontiers of Computer Science and Technology, 2016, 10(3): 398-406. (in Chinese with English abstract)
[32] Felzenszwalb P F, Hutten locher D P. Efficient graph-based image segmentation[J]. International Journal of Computer Vision, 2004, 59(2): 167-181.
[33] Yang W Z, Li D L, Wang S L. Saliency map based color image segmentation for foreign detection[J]. Mathematical and Computer Modelling, 2013, 58(3/4): 457-468.
[34] Imamoglu N, Lin W, Fang Y. A saliency detection model using low-level features based on wavelet transform[J]. Multimedia, IEEE Transactions on, 2013, 15(1): 96-105
Adaptive threshold segmentation for cotton canopy image in complex background based on logistic regression algorithm
Liu Libo1, Cheng Xiaolong1, Dai Jianguo2, Lai Junchen3※
(1.750021,; 2.832000,; 3.831300,)
Cotton canopy coverage is an important index for monitoring cotton growing in field. It is easy but not accurate to calculate, because it is difficult to accurately segment the cotton canopy in the complex environment image of cotton field. This paper presents an adaptive threshold segmentation approach of cotton canopy image based on logistic algorithm in order to improve the segmentation precision and robustness for cotton canopy image. Firstly, the cotton canopy image is transformed into HSV (hue, saturation, value) color space. This color space is designed by humancolor description. In this color space, the color feature of the pixel can be expressed by 3 independent components i.e. H, S and VIn this paper, the logistic regression algorithm is used to compute threshold used in image segmentation. The logistic regression algorithm is often used in 2 kinds of classification problem, so our method need an artificially defined variable. This variable and a single color feature variable can form a dataset as the input of logical regression algorithm to calculate the segmentation threshold. In our paper, the proposed artificially defined variable is set to a specific value that is 1, the effect of which is to reduce the impact for computed segmentation threshold. The cotton canopy image’s pixel is divided into 2 classes: target and background.The H channel feature of 2 classes can be extracted in HSV color space, and the green ratio (G/(R+G+B)) of 2 classes can be extracted in RGB (red, green, blue) color space. Those features’ thresholds are computed by logistic regression algorithm. H channel thresholds are used to achieve the first segmentation. Secondly, the first segmentation result is divided to highlight pixels and low pixels. The highlight pixels mainly include light canopy and light soil, and the low pixels mainly include shadow canopy and shadow soil. However, it is difficult to segment cotton canopy in the low pixels. In order to solve this problem, extra-green (Exg) color feature is used as segmentation feature to get cotton canopy in the low pixels. Thirdly, the highlight pixels in the first segmentation result and the low pixels segmented by Exg threshold are segmented by green ratio threshold. This segmentation is called the second segmentation. At last, the segmentation result of cotton canopy is acquired by morphology repair operation, and it ensures the integrity of the canopy region and the independent noise removal. In order to verify the effect of the method proposed in this paper, 320 test images were captured from the cotton producing areas in Xinjiang, China from April to July 2016. The acquisition was often on sunny day, aiming at obtaining images under different lighting conditions, different positions in cotton field, and different cotton growth periods. These images were collected by the Canon EOS5D digital camera with 6 912×3 416 pixels, and zoomed into 1 728×1 152 pixels to improve segmentation effect. This algorithm programming development environment is Python 2.7, and OpenCV 2.4.9. The experimental results show that the average relative object area error (RAE) by our method is only 5.46%, the Exg feature OTSU method 11.78%, the four-component segmentation method 24.11%, and the saliency segmentation method 36.92%. The overall average matching rate by our method is 93.07%, the Exg feature OTSU method 76.43%, the four-component segmentation method 71.67%, and the saliency segmentation method 66.92%. The average processing time of this paper proposed method was 4.63 s, which was much more time-consuming than the super-green characteristic OTSU method (3.84 s) and the four-component segmentation method (2.56 s), but this time less than that of the segmentation method (6.25 s). Therefore the proposed method in our paper has better performance than other methods in cotton canopy segmentation task, and is effective to segment the cotton canopy in the complicated background and different cotton growth periods. The proposed method can provide certain basis for implementation of cotton growth condition automatic monitoring.
algorithm; cotton; image segmentation; logistic regression;adaptive threshold
10.11975/j.issn.1002-6819.2017.12.026
TP391.41
A
1002-6819(2017)-12-0201-08
2016-11-23
2017-05-31
國(guó)家自然科學(xué)基金項(xiàng)目(31460317)
劉立波,女,寧夏銀川人,博士,教授,研究方向?yàn)槿斯ぶ悄芗稗r(nóng)業(yè)信息化研究。銀川 寧夏大學(xué)信息工程學(xué)院,750021。Email:liulib@163.com
賴軍臣,男,四川三臺(tái)人,博士,高級(jí)農(nóng)藝師,研究方向?yàn)樽魑镌耘嘀脖Ec作物信息科學(xué)研究。五家渠 新疆五家渠市農(nóng)業(yè)局,831300。 Email:ljc-hm@163.com
劉立波,程曉龍,戴建國(guó),賴軍臣. 基于邏輯回歸算法的復(fù)雜背景棉田冠層圖像自適應(yīng)閾值分割[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(12):201-208. doi:10.11975/j.issn.1002-6819.2017.12.026 http://www.tcsae.org
Liu Libo, Cheng Xiaolong, Dai Jianguo, Lai Junchen. Adaptive threshold segmentation for cotton canopy image in complex background based on logistic regression algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(12): 201-208. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2017.12.026 http://www.tcsae.org
農(nóng)業(yè)工程學(xué)報(bào)2017年12期