蘇 偉,蔣坤萍,閆 安,劉 哲,張明政,王 偉
(1. 中國農(nóng)業(yè)大學(xué)土地科學(xué)與技術(shù)學(xué)院,北京 100083;2. 山東省滕州市田崗學(xué)校,滕州 277519)
優(yōu)良的玉米品種具有高產(chǎn)、抗倒伏、抗病蟲害等優(yōu)點(diǎn),玉米育種工作對(duì)于農(nóng)業(yè)生產(chǎn)具有重要意義[1]。育種地塊的壟數(shù)作為玉米育種的重要參數(shù)之一,可以輔助獲取玉米育種基地內(nèi)不同品種的種植面積、研究種植格局及其不同種植格局下光的利用率、光合有效輻射等情況。但是,目前獲取壟數(shù)的方法多為人工調(diào)查,費(fèi)時(shí)、費(fèi)力且很容易出錯(cuò),限制了大面積地塊玉米壟數(shù)的獲取。無人機(jī)平臺(tái)在快速獲取區(qū)域范圍內(nèi)農(nóng)作物表型信息方面具有優(yōu)勢(shì),且機(jī)動(dòng)靈活、適合復(fù)雜農(nóng)田環(huán)境、作業(yè)效率高、成本低,逐漸成為高通量獲取農(nóng)作物表型信息的重要手段,初步應(yīng)用于小麥倒伏面積、冠層葉面積指數(shù)提取等工作中[2-4]。
目前,國內(nèi)外對(duì)育種玉米壟數(shù)提取的研究報(bào)道不多見,類似的報(bào)道多見于農(nóng)業(yè)機(jī)械視覺導(dǎo)航定位對(duì)農(nóng)作物單壟的直線提取。姜國權(quán)等[5]基于尺寸為640×480像素的圖像,利用基于機(jī)器視覺和隨機(jī)方法的策略提取了小麥、玉米、大豆的種植行信息;袁佐云等[6]提出了基于投影法和穩(wěn)健回歸法對(duì)位置點(diǎn)進(jìn)行線性擬合提取作物行;馬紅霞等[7]、呂萌[8]、趙瑞嬌等[9]、孫雪琪等[10]使用Hough變換提取單條作物行;孟慶寬等[11]基于線性相關(guān)系數(shù)約束的作物行中心檢測(cè)方法提取玉米種植行的中心線;Jiang等[12]提出基于多數(shù)ROI(Region Of Interest)統(tǒng)計(jì)特征檢測(cè)作物行線;Vidovi?等[13]、S?gaard 等[14]、Choi等[15]、Torii[16]基于機(jī)器學(xué)習(xí)的方法提取農(nóng)作物行;姜國權(quán)等[17]利用圖像灰度變換和Otsu自動(dòng)閾值化的方法檢測(cè)玉米的種植行;刁智華等[18]利用形態(tài)學(xué)細(xì)化和偽分支剔除相結(jié)合的方法提取玉米作物行;孟慶寬等[19]利用粒子群方法提取玉米種植行從而用于農(nóng)機(jī)導(dǎo)航路徑的識(shí)別;韓永華等[20]利用小波變換及 Otsu分割方法提取青菜地的種植行;王曉杰[21]、董勝等[22]利用Hough變換方法檢測(cè)作物種植行。以上方法都能提取農(nóng)作物行,但目前多數(shù)研究對(duì)象是單條作物行或單張相片視野內(nèi)的幾條作物行的問題,尚未在較大面積的壟數(shù)提取上運(yùn)用與檢驗(yàn)。鑒于此,本研究基于無人機(jī)超低空遙感技術(shù)獲取的高分辨率遙感影像,尋求一種適合提取大面積范圍內(nèi)玉米壟數(shù)的算法,即嘗試通過影像灰度化處理、投影法和Hough變換提取研究區(qū)內(nèi)育種基地多地塊的玉米壟數(shù)。
無人機(jī)超低空遙感試驗(yàn)于2016年1月6日在金色農(nóng)華種業(yè)科技股份有限公司崖城育種基地進(jìn)行,該基地位于海南省三亞市崖州區(qū)西部,中心位置為 109°11′05″N,18°25′17″E,總面積約 15 hm2,種植了各生育期的玉米。崖州區(qū)屬熱帶海洋性季風(fēng)氣候,年平均氣溫25 ℃以上。
飛行試驗(yàn)使用固定翼瑞士eBee Ag精細(xì)農(nóng)業(yè)用無人機(jī),搭載Canon S110 RGB相機(jī)(包括紅、綠、藍(lán)3個(gè)波段,分辨率為1200萬像素,質(zhì)量為198 g),開展無人機(jī)育種玉米種植信息獲取試驗(yàn)。試驗(yàn)當(dāng)天天氣狀況良好,晴朗無風(fēng)。eBee Ag無人機(jī)帶有地面?zhèn)鞲衅髟O(shè)備和機(jī)載人工智能設(shè)備,可自動(dòng)獲取高精度的無人機(jī)POS信息(拍照瞬間的位置參數(shù)、姿態(tài)參數(shù))。無人機(jī)飛行時(shí)天氣晴朗無云,飛行高度為70 m,飛行速度為6 m/s,旁向重疊為70 %,航向重疊為70%,飛行時(shí)間為12:00左右。飛行覆蓋區(qū)域?yàn)檎麄€(gè)崖城育種基地,共采集高清數(shù)碼照片 212張、一個(gè)POS文件txt格式。經(jīng)后處理軟件Pix4Dmapper拼接,獲得崖城育種基地的正射影像圖(*.tif)、數(shù)字表面模型圖(*.tif)和三維點(diǎn)云數(shù)據(jù)(*.txt)。通過一個(gè)架次的飛行獲取了金色農(nóng)華海南崖城育種基地包括苗期、拔節(jié)期、成熟期的3個(gè)育種地塊的UAV影像,3個(gè)地塊的無人機(jī)影像及其局部放大圖如圖 1所示,拔節(jié)期玉米地塊面積約20 000 m2,種植株距為0.3 m、行距為0.6 m,南北走向,自北向南分為擴(kuò)繁、測(cè)配和品比制種 3個(gè)功能區(qū),是育種基地功能區(qū)最多的一個(gè)地塊。拔節(jié)期的玉米植株較大,但葉片未完全覆蓋地面,植株尚未封壟,不同玉米種植行之間的玉米葉片只有少數(shù)發(fā)生交叉;苗期的玉米較小,相鄰壟之間葉片互不交叉,影像上具有明顯的裸土特征;成熟期的玉米已經(jīng)完全封壟,不同玉米種植行之間的玉米葉子存在嚴(yán)重的交叉,影像上是明顯的植被特征。
圖1 玉米育種基地?zé)o人機(jī)影像及其局部放大圖Fig.1 UAV image and partial enlargement of corn breeding trial
Hough變換是一種有效的直線檢測(cè)方法[23],對(duì)隨機(jī)噪聲和部分遮蓋不敏感[24-31]。因?yàn)镠ough變換算法具有很大的盲目性,且需要的存儲(chǔ)空間和計(jì)算量都較大[25],本研究采用基于一點(diǎn)的改進(jìn)Hough變換方法從無人機(jī)影像中檢測(cè)育種玉米的種植壟數(shù)。首先,計(jì)算無人機(jī)影像的超綠特征(2G-R-B),并進(jìn)行二值化優(yōu)化處理;然后,對(duì)開運(yùn)算處理后的二值影像進(jìn)行分割投影,在左邊界和右邊界的判斷基礎(chǔ)上,提取玉米壟的中心點(diǎn);最后,對(duì)中心點(diǎn)影像進(jìn)行Hough變換,根據(jù)Hough影像峰值點(diǎn)的數(shù)量計(jì)算所分析地塊的壟數(shù)。具體壟數(shù)提取流程如圖 2所示。
圖2 育種玉米種植壟數(shù)提取流程圖Fig.2 Flowchart for extracting the line number for breeding corn
1.2.1 超綠特征提取與壟線候選點(diǎn)檢測(cè)
1)超綠特征提取
對(duì)比分析無人機(jī)影像上土壤和玉米冠層在紅、綠、藍(lán)可見光波段的反射特性可知:玉米冠層對(duì)綠波段具有較高的反射率,對(duì)紅波段和藍(lán)波段有較低的反射率;而土壤背景在紅波段、綠波段和藍(lán)波段的反射率依次降低,且三波段間反射率的差異并不大。無人機(jī)影像特征空間上玉米冠層和土壤的光譜反射特點(diǎn)是:玉米冠層具有較高的G值,高于玉米冠層的R值和B值;土壤背景的R值、G值和B值依次減小且相差不大。因此,采用超綠特征(2G-R-B)方法[7]進(jìn)行特征提取,以更好的區(qū)分玉米冠層和土壤背景。常見的超綠特征因子計(jì)算方法有2G-R-B、2g-r-b及1.262g +0.884r +0.311b,其中r、g、b分別為歸一化后的R、G、B值。王曉杰[21]研究表明,利用2G-R-B計(jì)算的超綠特征因子對(duì)植被與土壤的分割效果要優(yōu)于其他2種,本文對(duì)3種特征的計(jì)算結(jié)果結(jié)論與之相同,因此,采用2G-R-B計(jì)算的超綠特征因子,如下
由于玉米葉片生長(zhǎng)方向的隨機(jī)性,二值化后的影像壟間通常有細(xì)長(zhǎng)的突刺甚至連接,對(duì)壟數(shù)的提取存在一定的干擾性。圖像形態(tài)學(xué)的開運(yùn)算(先腐蝕運(yùn)算,后膨脹運(yùn)算)可以把比結(jié)構(gòu)元素小的突刺濾掉,切斷細(xì)長(zhǎng)搭連而起到分離作用,同時(shí)保證不產(chǎn)生全局的幾何失真[32]。因此,研究過程中使用二值形態(tài)學(xué)開運(yùn)算進(jìn)行腐蝕與膨脹處理,以消除壟間的突刺或者連接。2)壟線候選點(diǎn)檢測(cè)
為準(zhǔn)確提取壟線在 Hough變換前檢測(cè)壟線的候選點(diǎn),候選點(diǎn)檢測(cè)方法的原理見參考文獻(xiàn)[33]中對(duì)于定位點(diǎn)的檢測(cè)方法。該研究中使用 1×n的窗口對(duì)超綠特征影像從上到下、從左到右逐像素掃描并計(jì)算區(qū)域內(nèi)的目標(biāo)像素?cái)?shù),n的選擇由影像空間分辨率和目標(biāo)對(duì)象的大小而定。為選取最優(yōu)掃描窗口,本研究選擇了苗期、拔節(jié)期、成熟期的3個(gè)地塊的育種玉米UAV影像,根據(jù)壟距分別使用1×15、1×25、1×50的窗口搜索并檢測(cè)用于壟數(shù)提取的候選點(diǎn)。此處,候選點(diǎn)是可能有直線出現(xiàn)的位置。
1.2.2 影像分割投影法
玉米的播種規(guī)律一般是條播方式沿直線種植,各壟線之間相互平行、壟間距基本相等,玉米的壟播在無人機(jī)影像上呈有規(guī)律的綠色條帶分布。基于玉米壟的這些結(jié)構(gòu)特點(diǎn),為提高Hough變換速度,沿壟線方向?qū)τN地塊影像進(jìn)行等間距分割,得到若干個(gè)影像分割條帶用于后續(xù)的 Hough變換及壟數(shù)提取。本研究中所涉及的 3個(gè)地塊的玉米種植株距都為0.3 m、行距為0.6 m,無人機(jī)影像空間分辨率為 0.06 m,為提高影像處理速度,采用5~10個(gè)像素行(列)作為分割間距。對(duì)每個(gè)影像條進(jìn)行投影得到投影直方圖曲線,曲線上的峰值點(diǎn)對(duì)應(yīng)的列坐標(biāo)(行坐標(biāo))為壟線中心點(diǎn)的位置,即每一壟的中點(diǎn)位置。
設(shè)原始影像的大小為w列、h行,因壟線方向與正北方向夾角較小,則分割后的影像條大小為w列、h行,g(i,j)為無人機(jī)影像上點(diǎn)(i, j)的像素值,s(j)為影像條第 j列進(jìn)行投影后得到的像素值之和,m為影像條所有像素的均值。
式中i =1, 2, …, h,j =1, 2, …, w。根據(jù)影像條中投影值s(j)的直方圖曲線及影像條均值m可以確定玉米壟線的邊界,繼而找到壟線中心點(diǎn)并進(jìn)行標(biāo)記。判斷規(guī)則為:當(dāng)投影值 s(j-1)<m<s(j+1)時(shí),s(j)標(biāo)記為壟的左邊界;當(dāng)投影值 s(j-1)>m>s(j+1)時(shí),s(j)標(biāo)記為壟的右邊界;左、右邊界的中點(diǎn)則是該影像條中壟線的中心點(diǎn)。
1.2.3 Hough變換原理
Hough變換是根據(jù)影像空間和Hough參數(shù)空間的對(duì)偶性原理,將影像中每個(gè)特征點(diǎn)映射到參數(shù)空間累加陣列的多個(gè)累加器中,通過統(tǒng)計(jì)各個(gè)累加器的計(jì)數(shù)檢測(cè)出極值,從而確定是否存在直線并獲得直線參數(shù)[6,25,32]。為避免Hough變換的盲目性,基于前文提取的候選點(diǎn)進(jìn)行累加器的判斷和計(jì)算,基于Hough變換的點(diǎn)-正弦曲線的對(duì)偶性,將壟候選點(diǎn)影像由影像空間變換到極坐標(biāo)參數(shù)空間,使用式(3)將點(diǎn)(x, y)變換到極坐標(biāo)下的正弦曲線(ρ, θ)。設(shè)置一個(gè)大小為(ρ, θ)的累加器A,記錄每個(gè)點(diǎn)(x, y)變換后所有θ取值對(duì)應(yīng)的ρ值出現(xiàn)的次數(shù)。
式中ρ為原點(diǎn)到直線的垂直距離,θ為ρ與x軸的夾角。
1)設(shè)置累加器數(shù)組A (ρ, θ)初始值均為0,其中θ的取值范圍是[0 °,180°],步長(zhǎng)為1°,ρ 的取值范圍是[0,N],N為3個(gè)地塊對(duì)角上的像素個(gè)數(shù);
2)將影像中像素值為1的點(diǎn)坐標(biāo)帶入公式(3),遍歷所有的θ取值,計(jì)算每個(gè)θ取值對(duì)應(yīng)的ρ值;
3)每計(jì)算一個(gè)θ取值對(duì)應(yīng)的ρ值,累加器A中坐標(biāo)為(ρ, θ)的值加 1;
4)遍歷 3個(gè)地塊的中心點(diǎn)影像,累加器中較大值對(duì)應(yīng)的(ρ, θ)即影像空間中的直線在極坐標(biāo)參數(shù)空間中的變換。
本研究中利用無人機(jī)影像的超綠特征分離玉米冠層和背景土壤,超綠特征提取結(jié)果與灰度化處理結(jié)果如圖3所示。整個(gè)研究區(qū)的超綠特征像素值在[0, 154]內(nèi)變化,此時(shí)尚無法判斷所分析像素是玉米冠層還是背景土壤。將超綠灰度影像的均值作為閾值,進(jìn)行影像二值化處理,得到如圖3b所示的拔節(jié)期地塊的超綠特征影像的二值化結(jié)果。玉米處在拔節(jié)期,尚未封壟但不同行之間的葉片存在少數(shù)交叉的情況,從圖3d可以明顯看出二值化后的影像存在相鄰兩壟連接的問題,這是由于玉米葉片生長(zhǎng)方向的不確定引起的,壟間存在葉片的相互交叉現(xiàn)象所致。使用 5×1的窗口作為結(jié)構(gòu)元素,對(duì)二值影像進(jìn)行形態(tài)學(xué)開運(yùn)算(先腐蝕運(yùn)算,后膨脹運(yùn)算),運(yùn)算的結(jié)果如圖3e所示,圖3d、3e為其局部放大圖,可以看出:經(jīng)過影像的開運(yùn)算處理后,部分壟線邊界突刺問題被消除并斷開相鄰兩壟線間的細(xì)小連接,有效去除影像噪音,提高提取精度。
圖3 拔節(jié)期地塊無人機(jī)影像超綠特征計(jì)算、二值化及開啟運(yùn)算結(jié)果Fig.3 Super-green feature, thresholding results, and opening results of jointing stage corn
以拔節(jié)期地塊為例論述使用分割投影法提取條狀壟線中心點(diǎn)的步驟:拔節(jié)期地塊的影像大小為10 097行×6 591列,綜合考慮影像處理速度和中心點(diǎn)提取精度,采用5個(gè)像素行作為分割間距,從而得到5行×6 591列的影像分割條(如圖 4a)。使用式(2)計(jì)算每個(gè)像素條列坐標(biāo)上的投影值,投影直方圖曲線如圖4b所示,計(jì)算像素條所有像素的均值。
二值化影像圖4a中白色像素值為1,是玉米冠層像素;黑色像素值為0,是背景土壤像素;圖4b是圖4a對(duì)應(yīng)位置上的投影值,可以看出:玉米冠層像素的投影值高于背景土壤像素的投影值,且種植越密集值越大。此外,從圖4b可以看出:玉米冠層像素的投影值s(j)明顯高于兩端的背景土壤像素的投影值,且每條壟線對(duì)應(yīng)一個(gè)峰值,峰值點(diǎn)的縱坐標(biāo)j是該條壟線的中心點(diǎn)對(duì)應(yīng)的縱坐標(biāo)。
對(duì)每個(gè)影像條,以均值m作為閾值判斷每個(gè)峰值點(diǎn)的列坐標(biāo)。遍歷每個(gè)影像條的s(j)數(shù)組,比較與均值m的大小關(guān)系,左右邊界的中點(diǎn)值認(rèn)為是該影像條中峰值的列坐標(biāo),即壟線的中心點(diǎn)列坐標(biāo),中心點(diǎn)橫坐標(biāo)記為該影像條中間像素行的行號(hào)。遍歷每個(gè)影像分割條,得到研究區(qū)拔節(jié)期地塊的壟線中心點(diǎn)影像,圖 5為其局部圖結(jié)果。圖5a為影像開運(yùn)算結(jié)果的局部放大圖,圖5b為該區(qū)域?qū)?yīng)的壟中心點(diǎn)提取結(jié)果,可以看出:所有的壟中心線都被檢測(cè)出,但是目前的壟中心點(diǎn)連線后的中心線為曲線,尚不具備理想的玉米壟的直線特征。
圖4 影像分割條及其投影值直方圖Fig.4 One strip of UAV image and its histogram
圖5 投影法提取的玉米壟中心點(diǎn)Fig.5 Extracted lines of corn plants using projection method
研究區(qū)拔節(jié)期地塊的 Hough變換結(jié)果圖如圖 6a所示,影像中點(diǎn)越黑表示在該點(diǎn)交匯的正弦曲線越多,即對(duì)應(yīng)的影像空間在該參數(shù)處存在直線的可能性越大。研究區(qū)內(nèi)玉米的沿直線條播方式確定了每條壟線有相同的斜率,對(duì)偶變換到極坐標(biāo)下有相同的 θ參數(shù),表現(xiàn)在Hough影像上為每條壟線變換后點(diǎn)坐標(biāo)有相同的 θ列坐標(biāo)。根據(jù)這一特性,取 Hough影像中像素值最大點(diǎn)的 θ列坐標(biāo),認(rèn)為是各壟線在變換域的角度參數(shù)θ。根據(jù)無人機(jī)影像的分辨率和玉米壟距的大小,確定以 θ列坐標(biāo)為中心截取左右各25個(gè)像素的Hough影像條,使用改進(jìn)的投影法提取影像條的峰值點(diǎn),該峰值點(diǎn)的個(gè)數(shù)即為壟線的條數(shù)。
為了達(dá)到精確提取壟線條數(shù),對(duì)分割投影法進(jìn)行改進(jìn)。Hough影像條的兩端存在很長(zhǎng)的 0值區(qū)域,從而拉低了整個(gè)影像條的均值,如果繼續(xù)以此均值作閾值將產(chǎn)生極大的誤差。根據(jù)Hough影像條的直方圖曲線峰值極高的特點(diǎn),選擇影像條中非 0像素值的均值作為閾值進(jìn)行判斷峰點(diǎn)的邊界,從而保證所有峰值點(diǎn)坐標(biāo)的正確提取,圖6b為研究區(qū)拔節(jié)期地塊無人機(jī)影像的Hough峰值點(diǎn)提取結(jié)果,圖6c為其局部放大圖。根據(jù)提取的峰值點(diǎn)的坐標(biāo)參數(shù)(ρ, θ),經(jīng)Hough逆變換在影像空間中繪出求得的玉米壟所在的直線。表1為3個(gè)生育期的育種玉米地塊的壟數(shù)提取結(jié)果,用于試驗(yàn)的苗期玉米壟數(shù)為43壟,使用1×15、1×25、1×50的窗口檢測(cè)候選點(diǎn)后通過Hough變換分別提取了42、45、58壟,提取精度分別為97.67%、95.35%、88.37%;用于試驗(yàn)的拔節(jié)期玉米壟數(shù)為74壟,使用前面3個(gè)尺寸的窗口檢測(cè)候選點(diǎn)后通過Hough變換分別提取的壟數(shù)為 74、74、105壟,提取精度分別為100.00%、100.00%、58.11%;用于試驗(yàn)的玉米壟數(shù)為44壟,使用前面 3個(gè)尺寸的窗口檢測(cè)候選點(diǎn)后通過 Hough變換分別提取的壟數(shù)分別為46、40、49壟,提取精度分別為95.45%、90.91%、88.64%。上述試驗(yàn)表明:利用1×15窗口的提取精度最高,原因是該尺寸與壟距接近。
上述研究結(jié)果表明:利用該研究所提出的基于影像分割投影法和Hough變換可以正確提取不同生育期的玉
米壟數(shù),其中以拔節(jié)期的玉米壟數(shù)提取精度最高,此時(shí)的玉米植株在UAV影像上可以識(shí)別且又尚未封壟,只有少數(shù)葉片存在交叉情況,是提取種植壟數(shù)的最佳時(shí)相;就候選點(diǎn)檢測(cè)來講,與玉米種植的壟間間隔相近的窗口尺寸是壟數(shù)監(jiān)測(cè)的最佳尺寸。對(duì)于成熟期玉米植株,已經(jīng)完全封壟,相鄰壟之間的玉米葉片相互交叉,所以壟數(shù)提取的誤差較大。
圖6 變換域影像、Hough變換峰值點(diǎn)及局部放大圖Fig.6 Image in transform domain, peak points of Hough transform and its zoomed picture
表1 不同窗口下基于UAV影像的壟數(shù)提取統(tǒng)計(jì)結(jié)果Table 1 Statistical result of extracted corn plants lines using UAV images at different candidate detection windows
本文針對(duì)玉米育種中需要快速提取區(qū)域范圍內(nèi)育種玉米種植壟數(shù)的需求,基于無人機(jī)影像,通過提取影像的超綠特征、影像的分割投影Hough變換,成功提取了育種玉米地塊的種植壟數(shù),為玉米育種提供一種有用的表型參數(shù)。
1)在無人機(jī)影像的 RGB彩色空間中,超綠特征(2G-R-B)可以有效區(qū)分綠色植被與背景土壤信息,這是基于無人機(jī)影像的農(nóng)作物表型信息提取的一項(xiàng)必要工作,也可作為農(nóng)作物分類的一種專家知識(shí)。
2)利用基于壟數(shù)提取候選點(diǎn)的Hough變換方法,可以準(zhǔn)確地從無人機(jī)影像中提取玉米種植的壟數(shù),且以拔節(jié)期為最佳提取時(shí)間,本研究基于74壟處于拔節(jié)期的無人機(jī)影像,使用1×15窗口檢測(cè)候選點(diǎn)后通過Hough變換可以正確提取出74壟玉米,提取精度為100%。該方法簡(jiǎn)單、易于實(shí)現(xiàn),能夠有效提取條狀壟線的中心點(diǎn)。
該研究的優(yōu)勢(shì)在于充分利用UAV影像上玉米種植壟的高空間分辨率超綠特征,利用基于候選點(diǎn)的Hough變換方法對(duì)玉米壟幾何特征的表達(dá),較為成功地提取了處于 3個(gè)不同生育期的玉米地塊的壟數(shù)信息,為玉米育種種植信息的提取、大田玉米的農(nóng)事活動(dòng)(如施肥、噴藥等)提供可靠數(shù)據(jù),也可以作為基于遙感影像的線狀地物(如道路、河流等)骨架線提取的方法。不足之處在于該方法適用于拔節(jié)期玉米植株(提取精度 100%),苗期的玉米植株太?。ㄌ崛【?7.67%)、成熟期的玉米植株(提取精度為95.45%)存在葉片相互交叉的情況,在基于候選點(diǎn)的Hough變換時(shí)各個(gè)方向上累加器的計(jì)數(shù)沒有太大差異,因而檢測(cè)出的極值不穩(wěn)定,導(dǎo)致難以檢測(cè)出正確的玉米壟數(shù)。將來的研究工作中將會(huì)針對(duì)苗期玉米植株和成熟期玉米植株情況進(jìn)行深入研究,以減少壟數(shù)提取的各種限制條件。
致謝:感謝金色農(nóng)華種業(yè)科技股份有限公司提供海南三亞崖城育種基地作為無人機(jī)超低空遙感監(jiān)測(cè)的試驗(yàn)基地。
[1] 蘇偉,吳代英,武洪峰,等. 基于最大熵模型的玉米冠層LAI升尺度方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2016, 34(7): 165-172.Su Wei, Wu Daiying, Wu Hongfeng, et al. Upscaling method for corn canopy LAI using MaxEnt model[J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2016, 32(7): 165-172. (in Chinese with English abstract)
[2] 楊貴軍,李長(zhǎng)春,于海洋,等. 農(nóng)用無人機(jī)多傳感器遙感輔助小麥育種信息獲取[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2015, 31(21):184-190.Yang Guijun, Li Changchun, Yu Haiyang, et al. UAV based multi-load remote sensing technologies for wheat breeding information acquirement[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(21): 184-190. (in Chinese with English abstract)
[3] 劉建剛,趙春江,楊貴軍,等. 無人機(jī)遙感解析田間作物表型信息研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2016, 32(24): 98-106.Liu Jiangang, Zhao Chunjiang, Yang Guijun, et al. Review of field-based phenotyping by unmanned aerial vehicle remote sensing platform[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016,32(24): 98-106. (in Chinese with English abstract)
[4] Yang G, Liu J, Zhao C, et al. Unmanned aerial vehicle remote sensing for field-based crop phenotyping: current status and perspectives [J]. Frontiers in Plant Science, 2017, 8:1-26.
[5] 姜國權(quán),柯杏,杜尚豐,等. 基于機(jī)器視覺和隨機(jī)方法的作物行提取算法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2008, 39(11): 85-88.Jiang Guoquan, Ke Xing, Du Shangfeng, et al. Detection algorithm of crop rows based on machine vision and randomized method [J]. Transactions of the Chinese Society for Agricultural Machinery, 2008, 39(11): 85-88. (in Chinese with English abstract)
[6] 袁佐云,毛志懷,魏青. 基于計(jì)算機(jī)視覺的作物行定位技術(shù)[J]. 中國農(nóng)業(yè)大學(xué)學(xué)報(bào), 2005, 10(3): 69-72.Yuan Zuoyun, Mao Zhihuai, Wei Qing. Orientation technique of crop rows based on computer vision [J]. Journal of China Agricultural University, 2005, 10(3): 69-72. (in Chinese with English abstract)
[7] 馬紅霞,馬明建,馬娜,等. 基于Hough變換的農(nóng)業(yè)機(jī)械視覺導(dǎo)航基準(zhǔn)線識(shí)別[J]. 農(nóng)機(jī)化研究, 2013(4): 37-39.Ma Hongxia, Ma Mingjian, Ma Na, et al. Baseline recognition based on Hough transform in the vision navigation of agricultural vehicles [J]. Journal of Agricultural Mechanization Research, 2013(4): 37-39. (in Chinese with English abstract)
[8] 呂萌. 基于 Hough變換的平行直線檢測(cè)改進(jìn)算法研究[J].微型機(jī)與應(yīng)用, 2010, 29(17): 27-29.Lv Meng. Research of the improved parallel line detection algorithm based on Hough transform [J]. Image Processing and Multimedia Technology, 2010, 29(17): 27-29. (in Chinese with English abstract)
[9] 趙瑞嬌,李民贊,張漫,等. 基于改進(jìn)Hough變換的農(nóng)田作物行快速檢測(cè)算法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2009, 40(7): 163-165.Zhao Ruijiao, Li Minzan, Zhang Man, et al. Rapid crop-row detection based on improved Hough transformation [J].Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(7): 163-165. (in Chinese with English abstract)
[10] 孫雪琪,宋小春. 一種新的改進(jìn)的Hough變換直線提取算法[J]. 計(jì)算機(jī)與數(shù)字工程, 2015(8): 1501-1503.Sun Xueqi, Song Xiaochun. A new improved Hough transform algorithm for line extraction[J]. Computer &Digital Engineering, 2015(8): 1501-1503. (in Chinese with English abstract)
[11] 孟慶寬,劉剛,張漫,等. 基于線性相關(guān)系數(shù)約束的作物行中心線檢測(cè)方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2013(增刊1): 216-223.Meng Qingkuan, Liu Gang, Zhang Man, et al. Crop rows detection based on constraint of liner correlation coefficient[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013(Supp.1): 216-223. (in Chinese with English abstract)
[12] Jiang G, Wang Z, Liu H. Automatic detection of crop rows based on multi-ROIs [J]. Expert Systems with Applications,2015, 42(5): 2429-2441.
[13] Vidovi? I, Scitovski R. Center-based clustering for line detection and application to crop rows detection [J].Computers & Electronics in Agriculture, 2014, 109: 212-220.
[14] S?gaard H T, Olsen H J. Determination of crop rows by image analysis without segmentation [J]. Computers &Electronics in Agriculture, 2003, 38(2): 141-158.
[15] Choi K H, Han S K, Park K H, et al. Morphology-based guidance line extraction for an autonomous weeding robot in paddy fields[J]. Computers & Electronics in Agriculture,2015, 113: 266-274.
[16] Torii T. Research in autonomous agriculture vehicles in Japan[J]. Computers & Electronics in Agriculture, 2000,25(1): 133-153.
[17] 姜國權(quán),王志衡,趙翠君. 基于已知點(diǎn)的作物行檢測(cè)方法[J]. 應(yīng)用基礎(chǔ)與工程科學(xué)學(xué)報(bào), 2013, 21(5): 983-990.Jiang Guoquan, Wang Zhiheng, Zhao Cuijun. An algorithm of detecting crop rows based on known-points [J]. Journal of Basic Science and Engineering, 2013, 21(5): 983-990. (in Chinese with English abstract)
[18] 刁智華,吳貝貝,魏玉泉,等. 一種快速剔除偽分枝的作物行骨架提取算法[J]. 農(nóng)機(jī)化研究, 2016(9): 17-22.Diao Zhihua, Wu Beibei, Wei Yuquan, et al. A crop row skeleton extraction algorithm based on morphological thinning and pseudo branch elimination [J]. Journal of Agricultural Mechanization Research, 2016(9): 17-22. (in Chinese with English abstract)
[19] 孟慶寬,張漫,楊耿煌,等. 自然光照下基于粒子群算法的農(nóng)業(yè)機(jī)械導(dǎo)航路徑識(shí)別[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2016, 47(6):11-20.Meng Qingkuan, Zhang Man, Yang Genghuang, et al.Guidance line recognition of agricultural machinery based on particle swarm optimization under natural illumination [J].Transactions of the Chinese Society for Agricultural Machinery, 2016, 47(6): 11-20. (in Chinese with English abstract)
[20] 韓永華,汪亞明,孫麒,等. 基于小波變換及Otsu分割的農(nóng)田作物行提取[J]. 電子與信息學(xué)報(bào), 2016, 38(1): 63-70.Han Yonghua, Wang Yaming, Sun Qi, et al. Crop row detection based on wavelet transformation and Otsu segmentation algorithm [J]. Journal of Electronics &Information Technology, 2016, 38(1): 63-70. (in Chinese with English abstract)
[21] 王曉杰. 基于機(jī)器視覺的農(nóng)田作物行檢測(cè)方法研究[D].焦作: 河南理工大學(xué), 2016.Wang Xiaojie. Study on Crop Rows Detection with Machine Vision [D]. Jiaozuo: Henan Polytechnic University, 2016. (in Chinese with English abstract)
[22] 董勝,袁朝輝,谷超,等. 基于多學(xué)科技術(shù)融合的智能農(nóng)機(jī)控制平臺(tái)研究綜述[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2017, 33(8): 1-11.Dong Sheng, Yuan Zhaohui, Gu Chao, et al. Research on intelligent agricultural machinery control platform based on multi-discipline technology integration [J]. Transactions of the Chinese Society of Agricultural Engineering(Transactions of the CSAE), 2017, 33(8): 1-11. (in Chinese with English abstract)
[23] Hough V P C. Method and means for recognizing complex patterns: US3069654[P]. 1962-12-18.
[24] 陳兵旗. 實(shí)用數(shù)字圖像處理與分析(第二版)[M]. 北京:中國農(nóng)業(yè)大學(xué)出版社,2014.
[25] 趙穎,陳兵旗,王書茂. 基于機(jī)器視覺的耕作機(jī)器人行走目標(biāo)直線檢測(cè)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2006, 37(4):81-86.Zhao Ying, Chen Bingqi, Wang Shumao. Fast detection of furrows based on machine vision on autonomous mobile robot[J]. Transactions of the Chinese Society for Agricultural Machinery, 2006, 37(4): 81-86. (in Chinese with English abstract)
[26] Zhang Lei, Wang Shumao, Chen Bingqi, et al. Crop-edge detection based on machine vision[J]. New Zealand Journal of Agricultural Research, 2007, 50(5): 1367-1374.
[27] 饒洪輝,姬長(zhǎng)英. 基于標(biāo)記信息的 Hough 變換檢測(cè)早期的作物行中心線[J]. 農(nóng)業(yè)工程學(xué)報(bào),2007,23(3):146-150.Rao Honghui, Ji Changying. Crop-row detection using Hough transform based on connected component labeling[J].Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2007, 23(3): 146-150. (in Chinese with English abstract)
[28] 王曉燕,陳媛,陳兵旗,等. 免耕覆蓋地秸稈行茬導(dǎo)航路徑的圖像檢測(cè)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2009, 40(6): 158-163.Wang Xiaoyan, Chen Yuan, Chen Bingqi, et al. Detection of stubble row and inter-row line for computer vision guidance in no-till field [J]. Transactions of the Chinese Society for Agricultural Machinery, 2009, 40(6): 158-163. (in Chinese with English abstract)
[29] 趙曉霞,張鐵中,陳兵旗,等. 自然環(huán)境下桃子圖像分割算法[J]. 農(nóng)機(jī)化研究, 2009, 31(2): 107-111.Zhao Xiaoxia, Zhang Tiezhong, Chen Bingqi, et al. Study on the segmentation algorithm for peach in natural scene[J].Journal of Agricultural Mechanization Research, 2009, 31(2):107-111. (in Chinese with English abstract)
[30] 陳媛,王曉燕,陳兵旗,等. 玉米根茬圖像的分割方法[J].農(nóng)機(jī)化研究, 2009, 31(2): 17-19.Chen Yuan, Wang Xiaoyan, Chen Bingqi, et al.Segmentation of maize stubble image[J]. Journal of Agricultural Mechanization Research, 2009, 31(2): 17-19.(in Chinese with English abstract)
[31] 梁習(xí)卉子,陳兵旗,姜秋慧,等. 基于圖像處理的玉米收割機(jī)導(dǎo)航路線檢測(cè)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2016, 32(22):43-49.Liangxi Huizi, Chen Bingqi, Jiang Qiuhui, et al. Detection method of navigation route of corn harvester based on image processing [J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016,32(22): 43-49. (in Chinese with English abstract)
[32] 章毓晉. 圖像工程(中冊(cè))圖像處理[M].北京: 清華大學(xué)出版社. 2012.
[33] 張紅霞, 張鐵中, 陳兵旗. 基于模式識(shí)別的農(nóng)田目標(biāo)定位線檢測(cè)[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2008, 39(2):107-111.Zhang Hongxia Zhang Tiezhong, Chen Bingqi. Detection algorithm for orientation lines based on pattern recognition[J].Transactions of the Chinese Society for Agricultural Machinery, 2008, 39(2): 107-111. (in Chinese with English abstract)