伍淵遠(yuǎn),尚 欣,張呈彬,謝新義
(寧夏大學(xué) 機械工程學(xué)院,寧夏 銀川 750021)
自然光照下智能葉菜收獲機作業(yè)參數(shù)的獲取
伍淵遠(yuǎn),尚 欣*,張呈彬,謝新義
(寧夏大學(xué) 機械工程學(xué)院,寧夏 銀川 750021)
針對智能葉菜收獲機作業(yè)過程中需自主獲取導(dǎo)航參數(shù)與割臺高度調(diào)整參數(shù)的問題,提出了利用機器視覺技術(shù)獲取這兩種作業(yè)參數(shù)的方法。首先對自主獲取導(dǎo)航參數(shù)進(jìn)行研究,將采集的葉菜田圖像進(jìn)行預(yù)處理、獲取導(dǎo)航離散點,利用穩(wěn)健回歸法對離散點進(jìn)行線性擬合進(jìn)而獲得導(dǎo)航控制參數(shù),以便收獲機調(diào)整作業(yè)方向;然后對于割臺高度調(diào)節(jié)參數(shù),將葉菜割茬圖像預(yù)處理及割茬高度特征提取以獲得割茬高度,利用割茬高度作為收獲機割臺高度調(diào)整的參數(shù)。結(jié)果表明,導(dǎo)航線準(zhǔn)確識別率為97%,留茬高度的平均測量誤差為8 mm,最大相對誤差為11.9%。說明該方法在自然光照下,能有效獲取作業(yè)方向參數(shù)和留茬高度,為無人駕駛式收獲機的智能、精準(zhǔn)作業(yè)提供了技術(shù)支持。
機器視覺;智能收獲機;導(dǎo)航參數(shù);割茬高度
隨著信息技術(shù)、傳感技術(shù)的發(fā)展應(yīng)用,農(nóng)業(yè)裝備智能化已經(jīng)成為未來發(fā)展的必然趨勢[1-3]。葉菜收獲機在其作業(yè)過程中對作業(yè)參數(shù)的自主獲取技術(shù)是實現(xiàn)葉菜收獲機智能化、無人化的關(guān)鍵,而葉菜收獲機作業(yè)中導(dǎo)航參數(shù)與割臺高度調(diào)整參數(shù)作為關(guān)鍵作業(yè)參數(shù),直接影響到智能葉菜收獲機的作業(yè)軌跡與收獲質(zhì)量,故對葉菜收獲機自動獲取導(dǎo)航參數(shù)與割臺高度調(diào)整參數(shù)的研究對實現(xiàn)葉菜收獲機的完全智能化具有重要意義。智能農(nóng)業(yè)裝備導(dǎo)航研究主要集中在GPS導(dǎo)航和機器視覺這兩種方式[4-5]。GPS導(dǎo)航雖可進(jìn)行大范圍的路徑規(guī)劃,但其抗干擾能力弱,基于機器視覺的導(dǎo)航技術(shù)提供的相對坐標(biāo)使導(dǎo)航更加靈活[6-8]。因此,利用機器視覺獲取導(dǎo)航參數(shù)已有不少研究,但其運用于實踐時仍存在實時性、穩(wěn)定性差的問題。同時,隨著近年來精準(zhǔn)農(nóng)業(yè)的興起,機器視覺系統(tǒng)在提供導(dǎo)航信息的同時還能搜集更多有關(guān)作物的信息,如:作物形態(tài)結(jié)構(gòu)參數(shù)、病蟲害信息的獲取等,因此能為精準(zhǔn)農(nóng)業(yè)的實施和農(nóng)業(yè)裝備完全智能化提供更可靠的支撐[9]。故機器視覺技術(shù)能為葉菜收獲機自主獲取更多作業(yè)參數(shù)提供解決途徑,通過機器視覺識別葉菜收獲作業(yè)中割茬高度用以控制割臺高度調(diào)整是實現(xiàn)智能葉菜收獲機自動獲取割臺高度調(diào)整參數(shù)的有效手段。雖已有國內(nèi)外學(xué)者利用機器視覺技術(shù)對核桃、馬鈴薯、結(jié)球甘藍(lán)等農(nóng)產(chǎn)品的形態(tài)特征檢測方法進(jìn)行了研究,但檢測目的還局限于實現(xiàn)農(nóng)產(chǎn)品品質(zhì)外形檢測及分類分級上[10-14],對采用機器視覺技術(shù)實時檢測收獲作業(yè)中作物割茬高度用以實現(xiàn)葉菜收獲機及時自動調(diào)整割臺的研究還未見報道。針對上述問題,本文利用機器視覺技術(shù)著重對葉菜收獲機自主獲取導(dǎo)航參數(shù)與割茬高度參數(shù)的算法開展研究,提出一種準(zhǔn)確、穩(wěn)健、快速的算法以滿足葉菜收獲機自主作業(yè)實時性要求,并依此設(shè)計一種切割裝置高度控制系統(tǒng)。
首先對作物圖像進(jìn)行預(yù)處理得到二值圖像,然后將其劃分為若干個水平圖像條并選取目標(biāo)窗口,分別對每圖像條進(jìn)行垂直投影確定作物行中心得到導(dǎo)航離散點,使用穩(wěn)健回歸法對導(dǎo)航離散點進(jìn)行線性擬合獲得導(dǎo)航參數(shù),如圖1所示。
1.1 圖像預(yù)處理
對圖像的預(yù)處理有著非常重要的作用,預(yù)處理階段得到的圖像的質(zhì)量高低直接影響到后續(xù)對圖像特征提取的效果好壞,這也是圖像處理中的一個難題。
1.1.1 圖像灰度化
將葉菜田間采集到的圖像分析發(fā)現(xiàn)作物的顏色呈綠色,而土壤表現(xiàn)為非綠色,如圖2所示。對田間圖像特征分析發(fā)現(xiàn),作物的綠(G)顏色分量較高,土壤背景的紅(R)分量較高,田間彩色圖像中水平線剖面的紅(R)、綠(G)、藍(lán)(B)顏色分量如圖1所示。因此,為了突出作物圖像中的綠色分量值、抑制背景,常用圖像灰度化方法為超綠色法[15-16],如圖3所示。
1.1.2 圖像閾值分割
在將彩色圖像轉(zhuǎn)換為灰度圖像后,需要對其進(jìn)行分割以便提取圖像中目標(biāo)。目前研究中常用分割方法有:最大類間方差法(Otsu法)、動態(tài)閾值法、K-Means算法等。Otsu算法計算簡單、穩(wěn)定有效,能使用于圖像特點與質(zhì)量相異的場合;動態(tài)閾值分割法利用子區(qū)域獨立分割的思想,對小區(qū)域分割效果很好且適用于光照不均勻的圖像,但是不太適用于對實時性要求較高的圖像處理中[17];K-Means具有一定的自適應(yīng)性,且不受噪聲與局部邊緣變化的影響,但該算法易受聚類中心的數(shù)目以及初始類中心的影響。綜合分析研究采用Otsu算法,實現(xiàn)圖像分割閾值的自動獲取,圖像分割得到的二值圖中土壤背景與作物區(qū)分明顯,如圖4所示。
圖1 導(dǎo)航參數(shù)獲取算法流程圖Fig.1 Flow chart of navigation parameter acquisition algorithm
圖2 田間圖像與水平線剖面顏色信息Fig.2 Color information of the field image
圖3 田間灰度圖像Fig.3 Gray image of the field
1.1.3 二值圖像除噪處理
由于田間雜草、枯葉、光線等影響,采集到的圖像質(zhì)量往往不夠高,如圖4所示,得到的二值圖像噪聲較多。文中采用5×5的窗口進(jìn)行中值濾波去除其噪聲,處理后圖像噪點明顯減少,結(jié)果如圖5所示。
圖4 田間圖像分割結(jié)果Fig.4 Results of field image segmentation
圖5 中值濾波圖像Fig.5 Median filter image
1.2 導(dǎo)航路徑識別
1.2.1 獲取導(dǎo)航離散點
在葉菜大規(guī)模種植中作物行通常呈直線狀,行與行間幾乎呈平行關(guān)系,且作物行之間距離基本相等。由于攝像機安裝在智能收獲機的正中間,因此可利用采集到的圖像中間的作物行的一組中間點作為導(dǎo)航離散點。采集到的圖像中作物行在遠(yuǎn)方有收斂趨勢,故將圖像水平劃分為若干等高度的圖像條后理想狀態(tài)下每一圖像條上必然有作物存在。之后對每一圖像條進(jìn)行垂直投影,得到相應(yīng)的垂直投影曲線[18]。計算每一圖像條的白色像素均值,由其均值分別判斷最左邊作物行的左邊緣點和最右邊作物行的右邊緣點,求出左邊緣點與右邊緣點的中間點即為作物行的中心點。本方法具體實現(xiàn)過程如下:
設(shè)圖像高為H,寬為B。由于采集到的圖像的中間總是存在作物行,因此選取圖像中心1/3區(qū)域為處理窗口,處理區(qū)圖像寬度為l(l=B/3),如圖6所示。此處理方法可以避免由于采集到的圖像中出現(xiàn)作物行不對稱導(dǎo)致導(dǎo)航線提取時出現(xiàn)較大誤差的情況。將目標(biāo)窗口圖像等距水平劃分為若干大小為l×h的圖像條。f(i,j)為圖像條上(i,j)處的灰度值,s(j)為圖像條上第j列垂直投影后得到的投影值,m為圖像條中所有投影值的平均值。計算公式為:
(1)
(2)
式中:i=1,2,3,…,h;j=1,2,3,…,l。
1)圖像條劃分取h=20(單位為像素),即劃分為l×20的若干圖像條,如圖7所示。
2)對每圖像條窗口從左到右逐列掃描,求出每列中白色像素個數(shù)s(j),并計算出各圖像條平均值m,如圖7。
圖6 目標(biāo)窗口Fig.6 Objective window
圖7 第1行圖像條及其垂直投影Fig.7 Strip of image and its vertical projection curve
3)對各圖像條s(j)分別先從左至右掃描,求處理窗口作物行左邊緣點,然后從右至左掃描求得作物行右邊緣點。實現(xiàn)方法為:從左至右依次判斷若s(j) 4)分別對每圖像條求中間點位置t,方法為:t=(x1+x2)/2,t即為每一圖像條的導(dǎo)航離散點位置,導(dǎo)航離散點獲取算法流程見圖8。 1.2.2 獲取導(dǎo)航線參數(shù) 在獲取導(dǎo)航路徑時研究中常用:最小二乘法、Hough變換等。綜合分析,實驗采用回歸系數(shù)較好,模式較穩(wěn)定,擬合效果較理想的穩(wěn)健回歸法對導(dǎo)航離散點擬合得到導(dǎo)航參數(shù)。 1.3 導(dǎo)航控制參數(shù)計算 通過獲得的導(dǎo)航線參數(shù)可以得到所需的導(dǎo)航控制參數(shù)。導(dǎo)航控制參數(shù)主要包含實際導(dǎo)航路線與智能收獲機軸線的側(cè)向位移偏差和角度偏差[19]?;趩文繖C器視覺智能收獲機的路徑信息與導(dǎo)航控制參數(shù)信息轉(zhuǎn)換示意圖如圖9所示。 圖8 導(dǎo)航離散點獲取算法流程圖Fig.8 Flow chart of navigation discrete point acquisition algorithm 圖9 位移偏差與角度偏差示意圖Fig.9 Schematic diagram of displacement deviation and angular deviation 如圖9中,原點O為攝像機中心點,y軸為智能收獲機軸線方向,虛線為得到的導(dǎo)航路徑,L為智能收獲機軸線與導(dǎo)航路徑的位移偏差,α為導(dǎo)航路徑與收獲機的角度偏差。根據(jù)攝像機坐標(biāo)系與圖像坐標(biāo)系關(guān)系及小孔成像原理,可將圖像坐標(biāo)系中的L和α轉(zhuǎn)換到世界坐標(biāo)系相應(yīng)參考路徑的L′和α′。轉(zhuǎn)換公式如下: (3) (4) 式中:k1、k2為攝像機內(nèi)部參數(shù),可通過攝像機標(biāo)定獲得;β為攝像機傾角;X0為圖像坐標(biāo)系中導(dǎo)航路徑與x軸的交點。據(jù)此公式便可由圖像坐標(biāo)系中導(dǎo)航路徑得到世界坐標(biāo)系中的導(dǎo)航參數(shù)。 在葉菜收獲機作業(yè)過程中,由于地形、葉菜品種等因素的影響,會導(dǎo)致葉菜收獲的割茬出現(xiàn)不同的高度,甚至出現(xiàn)不符合收獲要求的割茬,因此就要求智能葉菜收獲機能有根據(jù)割臺高度調(diào)整參數(shù)自動調(diào)整割臺的功能。文中對割臺高度調(diào)整參數(shù)的獲取研究,是利用機器視覺技術(shù)對葉菜收獲過程中的割茬進(jìn)行高度特征提取,將獲取的割茬高度通過相應(yīng)的轉(zhuǎn)換作為割臺高度調(diào)整參數(shù)傳送給割臺調(diào)整系統(tǒng)。故文中研究重點是機器視覺對割茬高度的獲取。 2.1 割茬高度檢測系統(tǒng)設(shè)計 對于不同種類葉菜作物,收獲機收割后其留茬高度基本是不同的。因此綜合考慮檢測精度和經(jīng)濟效益,設(shè)計出一種基于視覺識別的收獲機割臺高度智能控制系統(tǒng),如圖10。其中CCD相機負(fù)責(zé)采集待測作物圖像,并將采集到的圖像信號轉(zhuǎn)換成數(shù)字信號傳輸?shù)接嬎銠C中。計算機對輸入的信號進(jìn)行處理、運算輸出割臺位移信號h0,經(jīng)過指令電位器后變?yōu)殡妷盒盘杣,同時割臺位移信號h經(jīng)過反饋電位器得到反饋電壓u′,則由橋式電路將偏差電壓信號u″=u-u′算出,當(dāng)u″為零時工作臺不發(fā)生移動。當(dāng)計算機發(fā)出新的指令時,指令位移信號實際需要調(diào)整的距離信號h0與割臺位移信號h會產(chǎn)生偏差電壓信號u″,此偏差信號被轉(zhuǎn)化成不同占空比的PWM信號,經(jīng)PWM放大器的功率放大后,控制電磁閥開度,由輸出流量去控制切割裝置移動,直到u″信號為零時,切割裝置停止運動。其控制原理圖如圖11所示。 高度計算公式為: H=H0-H1。 (5) 其中H1=n×l,對得到的預(yù)處理圖像從上向下進(jìn)行逐行掃描,得出第一行有像素為1的行,確定此行數(shù)值n;l為每個像素代表的實際尺寸長度,由標(biāo)定得到;H0為圖像高度,由于是定焦距拍攝目標(biāo),所以H0可通過標(biāo)定得到。 2.2 系統(tǒng)標(biāo)定 為確定測量系統(tǒng)中每一個像素代表的目標(biāo)尺寸大小,需對測量系統(tǒng)標(biāo)定。首先在白板上標(biāo)出橫縱坐標(biāo)軸,每點坐標(biāo)間距為10 mm,然后將白板貼在平整的墻上,使x、y軸分別平行于地面和鉛垂線;固定好的攝像頭要求其鏡頭中心與板上坐標(biāo)軸中心在同一高度,且垂直于平板所在平面,需保證平面到攝像頭前段距離為固定值W=305 mm,調(diào)整焦距使圖像清晰,并固定焦距不變;然后采集圖像,經(jīng)過計算便可求出每個像素垂直方向代表實際尺寸為:l=0.63 mm。 1, 待測作物; 2,CCD相機;3,計算機;4,電位器;5,收獲機切割裝置1, Tested crop;2,CCD camera;3, Computer;4,Potentiometer;5,Harvester cutting device圖10 智能控制系統(tǒng)示意圖Fig.10 Schematic diagram of intelligent control system 圖11 割臺高度控制系統(tǒng)原理圖Fig.11 Schematic diagram of cutting height control system 2.3 割茬圖像處理 利用標(biāo)定好的高度測量系統(tǒng)對割茬高度圖像進(jìn)行采集。然后對采集到的割茬圖像進(jìn)行預(yù)處理,以達(dá)到對圖像分割和背景去除,如圖12所示。對割茬圖像預(yù)處理采用2 GRB顏色特征將其進(jìn)行灰度化,利用Otsu 法將灰度圖像二值化,并運用中值濾波對二值圖像處理去除噪聲。為了準(zhǔn)確計算割茬形態(tài)結(jié)構(gòu)參數(shù),在圖像分割完成后,必須完全去除背景,所以文中在采用3×3單位矩陣對二值圖像進(jìn)行一次腐蝕處理。最終分割圖像如圖12所示。圖像中的殘留背景被有效去除,得到的圖像效果較好,割茬目標(biāo)形狀變化不大。然后對得到的分割圖像從上向下依次掃描,得出第一行有像素為1的行,確定此行為n。 圖12 留茬原圖像及預(yù)處理圖像Fig.12 Original image and preprocessed image 圖像處理由PC機完成,配置為:CPU主頻率2.3 GHz,內(nèi)存4 GB。采用MATLAB R2014a仿真。 3.1 導(dǎo)航路徑獲取實驗 為了驗證算法的通用性和合理性,于寧夏大學(xué)賀蘭試驗基地隨機采集了30張不同時間段的葉菜田間圖像來驗證,圖像尺寸為960×720。圖像處理依次按照所述的圖像預(yù)處理、劃分目標(biāo)窗口及圖像條、獲取導(dǎo)航離散點、穩(wěn)健回歸擬合導(dǎo)航線,試驗結(jié)果表明,97%的圖像都可以檢測出導(dǎo)航線來,每一條導(dǎo)航線都代表作物行中心線,整個過程平均耗時為0.26 s,實驗結(jié)果如圖13所示。 3.2 高度識別實驗 在自然光照下,于銀川市西夏區(qū)分別模擬大白菜、油麥菜、結(jié)球甘藍(lán)被收割后的不同留茬高度場景,利用標(biāo)定好的測量系統(tǒng),對每一場景下的葉菜高度進(jìn)行了試驗。首先將大白菜、油麥菜、結(jié)球甘藍(lán)分別分為A組、B組、C組。分別對每一組的作物模擬隨機截取三個不同高度的留茬。對A組三個不同高度的留茬依次編號為:A1、A2、A3;對B組三個不同高度的留茬依次編號為:B1、B2、B3;對C組三個不同高度的留茬依次編號為:C1、C2、C3。然后利用刻度尺人工測量出每組作物留茬高度實際值,再使用標(biāo)定好的測量系統(tǒng)對其進(jìn)行圖像采集、處理、高度運算,分別進(jìn)行3次,取平均值,部分割茬圖像處理結(jié)果見圖14所示。兩種方法進(jìn)行對比,結(jié)果如表1所示。對高度測量的評價方法采用相對誤差來衡量。由表1可以看出,視覺系統(tǒng)檢測到的作物留茬高度比其真實高度要小。綜合分析可知,造成此情況是因為在圖像預(yù)處理階段對圖像的腐蝕處理去掉了作物的部分邊緣輪廓,且在人工測量的過程中不可避免的人為誤差和系統(tǒng)誤差都會造成上述情況出現(xiàn)。 圖13 導(dǎo)航線提取結(jié)果Fig.13 Image results 圖14 預(yù)處理結(jié)果Fig.14 Pretreatment result 表1高度測量結(jié)果對比 Table1Comparison of height measurement results 測量方法Measuringmethod編號NumberA1A2A3B1B2B3C1C2C3人工測量Manualmeasurement/cm26.517.611.328.219.615.116.011.06.0視覺測量Systemmeasurement/cm26.416.611.626.917.913.315.411.26.6測量誤差Measurementerror/cm0.11.00.31.31.71.80.60.20.6相對誤差Relativeerror/%0.385.682.654.618.6711.923.751.8210.00 1)獲取導(dǎo)航參數(shù)算法,利用劃分若干圖像條的方法進(jìn)行垂直投影獲取導(dǎo)航離散點然后穩(wěn)健回歸得到導(dǎo)航參數(shù)穩(wěn)定有效。 2)對留茬高度獲取時,對系統(tǒng)標(biāo)定過程中產(chǎn)生的誤差會嚴(yán)重影響到系統(tǒng)后續(xù)對割茬高度測量的準(zhǔn)確性,同時在利用視覺測量過程中人為因素導(dǎo)致的不確定性對視覺系統(tǒng)的影響也較大。后續(xù)研究中可集中在降低外界因素對視覺測量系統(tǒng)的不利影響上。由系統(tǒng)測量得到留茬高度后便可根據(jù)實際情況調(diào)整收獲機工作臺到合適收割高度。 3)試驗結(jié)果表明,導(dǎo)航線提取過程平均耗時為0.26 s,導(dǎo)航線準(zhǔn)確識別率為97%,留茬高度識別平均測量誤差為8 mm,最大相對誤差為11.9%,基本滿足智能葉菜收獲機自主作業(yè)要求,為研究無人駕駛式葉菜智能收獲機提供了視覺基礎(chǔ)。 [1] 周濟. 智能制造——“中國制造2025”的主攻方向[J]. 中國機械工程, 2015,26(17):2273-2284. ZHOU J. Intelligent mannfacturing-Main direction of “Made in China 2025”[J].ChinaMechanicalEngineering, 2015,26(17):2273-2284. (in Chinese with English abstract) [2] 羅維. 國務(wù)院印發(fā)《中國制造2025》全面推進(jìn)制造強國戰(zhàn)略[J]. 上海金屬, 2015(4):69. LUO W. The State Council issued the “made in China 2025” comprehensively promote the manufacturing strategy[J].ShanghaiMetals, 2015(4):69. (in Chinese) [3] 王俊,杜冬冬,胡金冰,等. 蔬菜機械化收獲技術(shù)及其發(fā)展[J]. 農(nóng)業(yè)機械學(xué)報, 2014, 45(2):81-87. WANG J, DU D D, HU J B, et al. Vegetable mechanized harvesting technology and its development[J].TransactionsoftheChineseSocietyforAgriculturalMachinery, 2014, 45(2):81-87. (in Chinese with English abstract) [4] CHEN B, TOJO S, WATANABE K. Machine vision for a micro weeding robot in a paddy field[J].BiosystemsEngineering, 2003, 85(4):393-404. [5] 陳艷,張漫,馬文強,等. 基于GPS和機器視覺的組合導(dǎo)航定位方法[J]. 農(nóng)業(yè)工程學(xué)報, 2011, 27(3):126-130. CHEN Y, ZHANG M, MA W Q, et al. Positioning method of integrated navigation based on GPS and machine vision[J].TransactionsoftheChineseSocietyofAgriculturalEngineering, 2011, 27(3): 126-130. (in Chinese with English abstract) [6] 胡靜濤,高雷,白曉平,等. 農(nóng)業(yè)機械自動導(dǎo)航技術(shù)研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報, 2015, 31(10):1-10. HU J T, GAO L, BAI X P, et al. Review of research on automatic guidance of agricultural vehicles[J].TransactionsoftheChineseSocietyofAgriculturalEngineering, 2015, 31(10): 1-10. (in Chinese with English abstract) [7] 劉陽,高國琴. 農(nóng)業(yè)機械視覺導(dǎo)航基準(zhǔn)線識別研究進(jìn)展[J]. 農(nóng)機化研究, 2015(5):7-13. LIU Y, GAO G Q. Research development of vision-based guidance directrix recognition for agriculture vehicles[J].JournalofAgriculturalMechanizationResearch, 2015(5):7-13. (in Chinese with English abstract) [8] 孟慶寬,何潔,仇瑞承,等. 基于機器視覺的自然環(huán)境下作物行識別與導(dǎo)航線提取[J]. 光學(xué)學(xué)報, 2014(7):172-178. MENG Q K, HE J, QIU R C, et al. Crop recognition and navigation line detection in natural environment based on machine vision[J].ActaOpticaSinica, 2014(7):172-178. (in Chinese with English abstract) [9] 刁智華,王會丹,魏偉. 機器視覺在農(nóng)業(yè)生產(chǎn)中的應(yīng)用研究[J]. 農(nóng)機化研究, 2014(3):206-211. DIAO Z H, WANG H D, WEI W. Summary of research on machine vision application in agricultural production[J].JournalofAgriculturalMechanizationResearch, 2014(3):206-211. (in Chinese with English abstract) [10] 劉建軍,姚立健,彭樟林. 基于機器視覺的山核桃等級檢測技術(shù)[J]. 浙江農(nóng)業(yè)學(xué)報, 2010, 22(6):854-858. LIU J J, YAO L J, PENG Z L. Detection technique for cathay hickory grade based on machine vision[J].ActaAgriculturaeZhejiangensis, 2010, 22(6):854-858. (in Chinese with English abstract) [11] AL OHALI Y. Computer vision based date fruit grading system: Design and implementation[J].JournalofKingSaudUniversity-ComputerandInformationSciences, 2011, 23(1):29-36. [12] ELMASRY G, CUBERO S, MOLTO E, et al. In-line sorting of irregular potatoes by using automated computer-based machine vision system[J].JournalofFoodEngineering, 2012, 112(1-2):60-68. [13] 李愷,楊艷麗,劉凱,等. 基于機器視覺的紅掌檢測分級方法[J]. 農(nóng)業(yè)工程學(xué)報, 2013, 29(24):196-203. LI K, YANG Y L, LIU K, et al. Determination and grading of Anthurium based on machine vision[J].TransactionsoftheChineseSocietyofAgriculturalEngineering, 2013, 29(24): 196-203. (in Chinese with English abstract) [14] 李鴻強,孫紅,李民贊. 基于機器視覺的結(jié)球甘藍(lán)形狀鑒別方法[J]. 農(nóng)業(yè)機械學(xué)報, 2015,46(S1):141-146. LI H Q, SUN H, LI M Z. Identification of cabbage ball shape based on machine vision[J].TransactionsoftheChineseSocietyforAgriculturalMachinery, 2015,46(S1):141-146. (in Chinese with English abstract) [15] 袁加紅,朱德泉,孫丙宇,等. 基于機器視覺的水稻秧苗圖像分割[J]. 浙江農(nóng)業(yè)學(xué)報, 2016, 28(6):1069-1075. YUAN J H, ZHU D Q, SUN B Y, et al. Machine vision based segmentation algorithm for rice seedling[J].ActaAgriculturaeZhejiangensis, 2016, 28(6):1069-1075. (in Chinese with English abstract) [16] SEGAARD H T, OLSEN H J. Determination of crop rows by image analysis without segmentation[J].Computers&ElectronicsinAgriculture, 2003, 38(2):141-158. [17] 田海韜,趙軍,蒲富鵬. 馬鈴薯芽眼圖像的分割與定位方法[J]. 浙江農(nóng)業(yè)學(xué)報, 2016, 28(11):1947-1953. TIAN H T, ZHAO J, PU F P. A method for recognizing potato’s bud eye[J].ActaAgriculturaeZhejiangensis, 2016, 28(11):1947-1953. (in Chinese with English abstract) [18] 何潔,孟慶寬,張漫,等. 基于邊緣檢測與掃描濾波的農(nóng)機導(dǎo)航基準(zhǔn)線提取方法[J]. 農(nóng)業(yè)機械學(xué)報, 2014,45(S1):265-270. HE J, MENG Q K,ZHANG M, et al. Crop baseline extraction method for off-road vehicle based on boundary detection and scan-filter[J].TransactionsoftheChineseSocietyforAgriculturalMachinery, 2014,45(S1):265-270. (in Chinese with English abstract) [19] 遲德霞,任文濤,由佳翰,等. 水稻插秧機視覺導(dǎo)航信息獲取試驗[J]. 沈陽農(nóng)業(yè)大學(xué)學(xué)報, 2015, 46(5): 575-580. CHI D X, REN W T, YOU J H, et al. Experiment on acquisition of navigation information of unmanned rice transplanter based on machine vision[J].JournalofShenyangAgriculturalUniversity, 2015, 46(5): 575-580. (in Chinese with English abstract) (責(zé)任編輯張 韻) Acquisitionofoperationparametersofintelligentleafvegetableharvesterundernaturallighting WU Yuanyuan, SHANG Xin*, ZHANG Chengbin, XIE Xinyi (SchoolofMechanicalEngineering,NingxiaUniversity,Yinchuan750021,China) Aiming at the problem of obtaining navigation parameters and the height of cutting platform parameters autonomously during the operation of intelligent leaf vegetable harvester, the method of obtaining two kinds of job parameters by machine vision was proposed. Firstly, the autonomous navigation parameters were studied, the collected images of leaf vegetables were pretreated and the navigation discrete points were obtained. The robust regression method was used to linearly fit the discrete points to obtain the navigation control parameters so that the harvester could adjust the direction of the work. Then the parameters for the height of the cutting table, image preprocessing and stubble height feature extraction of leafy vegetables were adjusted. The stubble height was used as the parameter of the height of the cutting table of the harvester. The results showed that the accurate line recognition rate was 97%, and the relative error of stubble height was 8 mm, the maximum relative error was 11.9%. It showed that the method could effectively extract the direction parameters and stubble height under natural light, which provided technical support for intelligent and accurate operation of unmanned harvester. machine vision; intelligent harvester; navigation parameter; stubble height 伍淵遠(yuǎn),尚欣,張呈彬,等. 自然光照下智能葉菜收獲機作業(yè)參數(shù)的獲取[J].浙江農(nóng)業(yè)學(xué)報,2017,29(11): 1930-1937. 10.3969/j.issn.1004-1524.2017.11.21 2017-05-02 寧夏回族自治區(qū)西部一流學(xué)科建設(shè)項目(機械工程);寧夏大學(xué)研究生創(chuàng)新項目(GIP2017019) 伍淵遠(yuǎn)(1992—),男,四川達(dá)州人,碩士研究生,主要從事智能農(nóng)業(yè)裝備研究。E-mail: keatswu@163.com *通信作者,尚欣,E-mail: XKshangx@163.com S126;TP242 A 1004-1524(2017)11-1930-082 割臺高度調(diào)整參數(shù)的獲取
3 結(jié)果與分析
4 結(jié)論