賴漢榮,張亞偉,張 賓,尹彥鑫,劉宇航,董雨航
玉米除草機器人視覺導(dǎo)航系統(tǒng)設(shè)計與試驗
賴漢榮1,張亞偉1※,張 賓1,尹彥鑫2,3,劉宇航1,董雨航1
(1.中國農(nóng)業(yè)大學(xué)工學(xué)院,北京 100086; 2. 北京市農(nóng)林科學(xué)院智能裝備技術(shù)研究中心,北京 100097;3. 智能農(nóng)業(yè)動力裝備全國重點實驗室,北京 100097)
玉米苗帶準(zhǔn)確檢測與精準(zhǔn)跟蹤是玉米除草機器人實現(xiàn)自主作業(yè)的重要基礎(chǔ)。針對玉米除草機器人苗帶檢測,該研究提出了基于感興趣區(qū)域更新的玉米苗帶實時識別及導(dǎo)航線提取方法,首先利用單目相機采集機器人前向玉米苗帶,將苗帶圖像進行歸一化和超綠處理,采用改進自適應(yīng)響應(yīng)閾值SUSAN(small univalue segment assimilating nucleus)角點法以及冗余離群特征點剔除法獲得玉米苗特征點,以改進的順序聚類算法對視頻幀進行玉米苗帶聚類處理,再利用最小二乘法擬合出各玉米苗帶,最后基于機器人航向偏差和其相對玉米苗帶的橫向偏差實時調(diào)整感興趣區(qū)域和更新導(dǎo)航線;同時,針對除草機器人苗帶行線跟蹤,提出以運動學(xué)為模型的PID(proportion integration differentiation)轉(zhuǎn)向角決策方法,建立了導(dǎo)航跟蹤控制模型;并在Visual Studio平臺下,利用OpenCV庫開發(fā)了導(dǎo)航控制系統(tǒng)。試驗結(jié)果表明,玉米除草機器人導(dǎo)航線提取準(zhǔn)確率為96.8%,每幀圖像平均處理時間為87.39 ms,具有較好的實時性和抗干擾性;在模擬環(huán)境下,玉米苗帶直線和曲線跟蹤平均誤差≤1.42 cm,標(biāo)準(zhǔn)誤差≤0.41 cm;在農(nóng)田環(huán)境下,不同速度導(dǎo)航跟蹤平均誤差≤1.51 cm,標(biāo)準(zhǔn)誤差≤0.44 cm。研究結(jié)果可為玉米除草機器人田間自主作業(yè)提供關(guān)鍵技術(shù)支撐。
機器人;機器視覺;玉米除草;苗帶識別;導(dǎo)航跟蹤
玉米除草機器人能夠降低勞動成本,提高生產(chǎn)效率,且不會帶來化學(xué)污染,在農(nóng)業(yè)綠色生產(chǎn)中可發(fā)揮重要作用。除草機器人玉米苗帶準(zhǔn)確識別和精準(zhǔn)跟蹤控制是玉米除草機器人實現(xiàn)自主作業(yè)的關(guān)鍵支撐技術(shù)[1-3],是當(dāng)前的研究熱點。
機器視覺因具有成本低、適用性廣、使用方便等特點而成為除草機器人識別玉米苗帶和雜草的主要技術(shù)方案[4]。如澳大利亞昆士蘭科技大學(xué)研制的AgBot II智能除草機器人[5]、法國研制的Dino機器人[6]、瑞士ecoRobotix公司研制的AVO除草機器人[7]和丹麥奧爾胡斯大學(xué)農(nóng)業(yè)研究所研制的HortiBot除草機器人[8]均通過機器視覺準(zhǔn)確識別出作物和雜草,進而實現(xiàn)導(dǎo)航控制和除草作業(yè)。為提高機器視覺檢測精度及效率,近年來國內(nèi)外學(xué)者開展了大量研究,提出了很多有效方法。ZHAI等[9]采用基于雙目視覺的空間分布檢測提取作物行特征的方法識別作物行,檢測精度為92.78%,但立體匹配難度和計算量較大,圖像平均處理時間為634 ms;VIDOVI?等[10-11]提出了一種模板匹配和全局最優(yōu)化的作物行檢測方法,根據(jù)對281幅不同大田作物圖像的處理結(jié)果,該算法行線識別準(zhǔn)確率為73.7%;張博立等[12]基于動態(tài)網(wǎng)格和分區(qū)域聚類的玉米苗帶識別,處理一幅圖像平均耗時320 ms;刁智華等[13]采用隨機霍夫變換的玉米導(dǎo)航線提取,處理時間為290 ms;宋宇等[14]采用玉米垂直投影生成根莖輪廓特點并用峰值點檢測算法生成候補定位點的方法,圖像處理平均耗時200 ms。以上研究發(fā)現(xiàn)基于視覺的苗帶識別受算法耗時、田間環(huán)境等因素的影響,存在苗線擬合效果波動大,田間適應(yīng)性較差,運行速度較慢等問題,算法的準(zhǔn)確性、魯棒性、適應(yīng)性和實時性仍有較大的提升空間。
除草機器人在田埂、坑洼和土地松軟等農(nóng)田環(huán)境下的穩(wěn)定行走和靈活轉(zhuǎn)向也是目前的研究熱點。BALL等[15]采用機器視覺檢測,利用代價圖和向量追蹤技術(shù)實現(xiàn)農(nóng)業(yè)機器人的田間路徑跟蹤,實現(xiàn)路徑跟蹤誤差為0.0891 m;SAMWEL等[16]基于視覺的中軸變換識別導(dǎo)航線,采用滑移轉(zhuǎn)向控制與模糊邏輯控制結(jié)合的方式對農(nóng)業(yè)機器人進行控制,實現(xiàn)了跟蹤誤差為14.6 mm;RADCLIFFE等[17]以視覺系統(tǒng)的多光譜信息作為引導(dǎo),采用比例積分控制農(nóng)業(yè)機器人自主導(dǎo)航,實現(xiàn)導(dǎo)航誤差為2.13 cm;張雁等[18]提出利用模糊邏輯推理自適應(yīng)調(diào)整PD控制器參數(shù)的最優(yōu)控制方法,實現(xiàn)水稻播種機導(dǎo)航控制穩(wěn)定,跟蹤平均絕對偏差小于0.04 m;賀靜等[19]以視覺和激光融合方式識別水稻行,并設(shè)計了預(yù)瞄追蹤PID控制器進行插秧機導(dǎo)航控制,實現(xiàn)了導(dǎo)航系統(tǒng)快速響應(yīng)和穩(wěn)定控制轉(zhuǎn)向,達到試驗標(biāo)準(zhǔn)差為27.51 mm,以上研究發(fā)現(xiàn),在導(dǎo)航跟蹤控制方面仍存在參數(shù)整定復(fù)雜和計算量較大等問題,控制算法整定和計算量有待提升。
本文提出了一種基于感興趣區(qū)域更新的玉米苗帶實時提取算法,采用改進自適應(yīng)響應(yīng)閾值SUSAN(small univalue segment assimilating nucleus)角點法以及冗余離群特征點剔除法快速獲得玉米苗特征點,以改進順序聚類,完成各玉米苗帶聚類與擬合,然后進行感興趣區(qū)域和苗帶導(dǎo)航線更新。最后提出以運動學(xué)為模型的PID(proportion integration differentiation)轉(zhuǎn)向角決策方法,建立導(dǎo)航跟蹤控制模型,并設(shè)計了玉米除草機器人導(dǎo)航控制系統(tǒng),展開試驗以驗證導(dǎo)航系統(tǒng)的跟蹤精度。
本文除草機器人視覺導(dǎo)航系統(tǒng)主要包括阿克曼線控底盤、工業(yè)相機和導(dǎo)航控制終端等(圖1),其中阿克曼線控底盤采用前輪轉(zhuǎn)向、后輪驅(qū)動,線控底盤尺寸為1 200 mm×765 mm×490 mm,搭載煜禾森機器人鋰電池(48V/20AH磷酸鐵鋰),可保證6h的續(xù)航作業(yè)能力,并能對外供電滿足其他設(shè)備的用電需求。工業(yè)相機選用林柏視公司生產(chǎn)的Rmoncam G200相機,焦距為2.8mm,分辨率為1920像素×1080像素;工業(yè)相機安裝在阿克曼線控底盤前端,高度為1m,俯視角為45°用于玉米苗帶識別。導(dǎo)航控制終端作為除草機器人的上位機,用于苗帶信息處理、控制策略生成和信息呈現(xiàn)等??刂葡浒琒TM32單片機、繼電器和電機控制器等,具有8通道分別用于控制步進電機、除草刀具和直線拉桿傳感器等。此外,除草機器人的除草執(zhí)行機構(gòu)由除草刀具、滾珠絲杠和電動推桿等組成,用于機械式除草,間距和入土深度可調(diào)節(jié)。
1.除草執(zhí)行機構(gòu) 2.控制箱 3.阿克曼線控底盤 4.導(dǎo)航控制終端 5.工業(yè)相機
玉米除草機器人視覺導(dǎo)航系統(tǒng)的工作原理如下:工業(yè)相機采集圖像經(jīng)過USB傳輸至工控機,工控機經(jīng)過圖像處理獲得玉米苗帶的橫向偏差和航向偏差,并通過USB-RS23轉(zhuǎn)接方式與STM32通信;STM32進行處理獲得小車轉(zhuǎn)角,通過CAN與轉(zhuǎn)向控制器通信,控制阿克曼線控底盤,并利用角度/速度傳感器獲得阿克曼線控底盤的轉(zhuǎn)角和速度,反饋至STM32,完成閉環(huán)控制,以此完成除草機器人的路徑跟蹤。同時,STM32通過串口通信對除草執(zhí)行機構(gòu)進行控制。
玉米苗帶圖像采集于北京市昌平區(qū)小湯山鎮(zhèn)國家精準(zhǔn)農(nóng)業(yè)研究示范基地,采集場景包含少量雜草、雜草叢生、強光照(晴天)、中光照(多云)和弱光照(陰雨天)等不同干擾因素影響下的玉米苗帶圖像,其中玉米苗處于3~4葉期,株距30cm、行距60cm,平均株高17 cm。
在采集的樣本中,玉米苗和雜草為綠色,土壤為灰褐色,且存在雜草、冠層交疊等情況。在大田環(huán)境下,為實現(xiàn)不同光照強度下作物與背景的準(zhǔn)確分割以及玉米株與株之間的清晰區(qū)分,先對RGB彩色圖像的顏色分量進行歸一化處理,以減少光照強度對玉米苗提取特征的影響,計算式為
式中、、表示紅、綠、藍3個顏色分量值;、、為歸一化后的各顏色分量值。
將RGB彩色圖像進行歸一化處理后,對綠色分量進行增強,進而將玉米苗與土壤背景、株與株間背景區(qū)分,計算式為
式中(,)為歸一化ExG處理后的第行列像素點的灰度值。
為清晰分割出作物與背景,利用苗帶和雜草所占綠色面積區(qū)域大小差距較大的特點,對最大類間方差法獲得的閾值進行優(yōu)化[20]。對閾值T的權(quán)重重新分配,將灰度值大于T的像素點記為綠色區(qū)域,累計綠色區(qū)域得到綠色區(qū)域面積S,設(shè)整個圖像像素區(qū)域面積為,則綠色區(qū)域所占的比例為=S/。優(yōu)化后的綠色最優(yōu)閾值T的計算式為
利用優(yōu)化后的綠色最優(yōu)閾值對苗帶進行提取,結(jié)果如圖2所示。由圖2可知,超綠算法不受自然光變換影響,在“強、中、弱”不同光照強度下都能準(zhǔn)確的將苗帶從背景中提取出來。但是在弱光照、少量雜草和雜草叢生場景下,綠色最優(yōu)閾值分割效果明顯優(yōu)于固定閾值分割,玉米苗帶分割更加清晰,作物行間間隙更加明顯,為此,綠色最優(yōu)閾值優(yōu)于固定閾值分割,能有效分割出苗帶和背景。
圖2 二值化圖像
2.3.1 改進自適應(yīng)響應(yīng)閾值SUSAN角點法
圖像預(yù)處理后,由于玉米苗本身葉子為尖狀且重疊在一起,為避免傳統(tǒng)SUSAN角點法提取特征點集中在苗帶的尖點和重疊處,導(dǎo)致的特征點信息片面,提出改進自適應(yīng)響應(yīng)閾值SUSAN角點法,使提取到的特征點能全面準(zhǔn)確的反映各玉米苗帶的信息,以利于后續(xù)作物行聚類[21-23]。
提取算法步驟如下:
1)選用37像素的圓形模板,通過圓形模板在圖像上滑動,在模板所覆蓋區(qū)域內(nèi)像素與中心點處像素值做差比較,計算灰度差值,當(dāng)灰度差異小于某一閾值,則判定該點與模板處于核值相似區(qū),灰度差值為
式中(0,0)表示圓形模板中心位置;(,)表示模板非中心的位置;(,)表示位置(,)處的像素值;是灰度值相似度閾值。
2)圓形模板在待檢測的圖像上從上到下,從左到右滑動,計算檢測模板的核心和模板內(nèi)各點灰度值,當(dāng)遍歷比較完模板圓內(nèi)所有像素值,對(,;0,0)處的核值相似區(qū)面積進行統(tǒng)計。
式中(0,0)為模板核在(0,0)處的核值相似區(qū)的面積總和,當(dāng)(0,0)的值小于某個特定閾值,則初步認定為可能的角點,當(dāng)其滿足角點響應(yīng)函數(shù),則判定其為角點。角點響應(yīng)函數(shù)為
式中為響應(yīng)閾值,其決定角點提取的敏感程度。為使其能針對不同圖像做出自適應(yīng)取值,定義自適應(yīng)響應(yīng)閾值為
式中為比例系數(shù),根據(jù)圖像數(shù)據(jù)集分析,可得圖像中為5個苗帶時,提取到苗帶特征點分布最為均勻,為此取=5。
2.3.2 冗余離群特征點剔除法
為減少聚類計算量,提高導(dǎo)航線提取實時性,采用冗余離群特征點剔除法,剔除玉米苗帶存在的冗余點和離群點[24]。本文采用3×3的檢測窗口,設(shè)檢測窗口中心點與其周圍的8鄰域點的灰度像素值的差值為,最優(yōu)閾值為,如果滿足≤,則判定該點與中心點相似。在3×3的檢測模板中與中心點的相似點的數(shù)目計算式為
由檢測窗口中心點周圍的8鄰域點確定(,)的取值范圍為[0,8],當(dāng)=0時說明該中心點與其周圍的8領(lǐng)域點都不相似,則該中心點是一個離群點,應(yīng)當(dāng)舍去;當(dāng)=7或者8時說明在該中心點與其周圍的8領(lǐng)域點有7個或者8個相似,則該中心點是內(nèi)部點,屬于冗余特征點應(yīng)當(dāng)舍去;當(dāng)=[1,6]時,該中心點與其周圍的8領(lǐng)域點有個相似點,則該中心點不是離群點和內(nèi)部點,需要對該中心點周圍的8領(lǐng)域點進行選擇,保留強特征點,去除同類型冗余特征點。以=3為例,該中心點周圍8領(lǐng)域點分布的3種情況如圖3所示。
注:黑色點為檢測窗口的中心點;黑色點周圍的8個點為8鄰域點;灰色點為與中心點相似的點。
1)情況1:3個相似點互不相鄰,表明3個點類型不同,不需要進行冗余特征點去除,則3個點全部保留;
2)情況2:3個相似點中有2個點相鄰,表明相鄰這2個點類型相同,需要進行冗余特征點去除,去除2個點中的任意1個點;
3)情況3:3個相似點連在一起,表明3個點類型相同,需要進行冗余特征點去除,僅保留3個點中的任意1個點。
對于={4,5,6}情況進行同樣的冗余特征點去除。
由圖4可看出使用冗余離群特征點剔除法后,有效去除了冗余點和離群點,并準(zhǔn)確保留了玉米苗信息,減少了后續(xù)聚類的計算量,提高了實時性。
圖4 冗余離群特征點剔除前后對比
2.3.3 改進順序聚類
根據(jù)苗帶在玉米植株區(qū)域特征點較為密集,在非玉米植株區(qū)域特征點稀疏或者沒有特征點,可采用順序聚類提取玉米苗帶[25-26]。本文在順序聚類中融入?yún)^(qū)域分層聚類,先采取區(qū)域分層預(yù)聚類,然后對各個區(qū)域進行順序聚類,以分層聚類與順序聚類結(jié)合的方式,提高了聚類算法的速度,改進的順序聚類流程如圖5所示。
圖5 改進順序聚類流程圖
改進順序聚類流程具體實現(xiàn)步驟為:
1)區(qū)域分層預(yù)聚類
初始化區(qū)域大小,將整個圖像進行區(qū)域塊分割,對每一個區(qū)域內(nèi)的特征點進行分層聚類,獲得每個區(qū)域聚類數(shù)。具體可以分為如表1所示的4種類型。
2)順序聚類
把已經(jīng)聚類好的類C,進行順序排列,并尋找與類C距離最近的且已經(jīng)歸類的類C,計算兩類之間的距離(C,C),如果(C,C)小于預(yù)設(shè)的不相似性測度閾值,則將類C歸入類C合并成一類,否則生成C類新類;直至遍歷所有類或滿足終止條件[24],則完成聚類。
2.3.4 起始感興趣區(qū)域確定及更新
對聚類后的玉米苗帶特征點進行最小二乘法直線擬合,獲得玉米苗帶的信息并進行分析和比較。以玉米苗帶相對除草機器人位置的橫向偏差和航向偏差絕對值最小的苗帶作為當(dāng)前除草機器人的導(dǎo)航線,并以該導(dǎo)航線所屬類的特征點確定起始感興趣區(qū)域的定位點[27],其確定步驟如下:
1)根據(jù)聚類后的簇數(shù),對每一類進玉米苗帶擬合,從左到右對擬合出的玉米苗帶進行編號1、2、…、,其中為圖像中玉米苗帶總數(shù),根據(jù)相機的視野范圍內(nèi)所能呈現(xiàn)最佳玉米苗帶數(shù)為標(biāo)準(zhǔn)取為5。攝像頭經(jīng)過相機標(biāo)定與坐標(biāo)系轉(zhuǎn)換后,通過式(9)計算出圖像中玉米苗帶與除草機器人之間的橫向偏差和航向偏差,并分析比較玉米苗帶的橫線偏差和航向偏差,得到絕對值最小橫向偏差和航向偏差的玉米苗帶,即為除草機器人要進行導(dǎo)航的導(dǎo)航線。
表1 區(qū)域分層預(yù)聚類處理方式
注:聚類方向為虛框矩形塊往實框矩形塊移動。
Note: the direction of clustering is the virtual rectangular block moving to the real rectangular block.
式中d(mm)為第個玉米苗帶的橫向偏差,β(°)為第個玉米苗帶的航向偏差,B(mm)為世界坐標(biāo)系下的第個玉米苗帶的截距,K為世界坐標(biāo)系下的第個玉米苗帶的斜率。
2)獲得除草機器人導(dǎo)航線后,計算與其相鄰左右玉米苗帶在圖像的上下限位置點之間的像素距離2和2l,以左右兩邊距離大的中點作為起始感興趣區(qū)域的定位點,如圖6的到點。記導(dǎo)航線的上下頂點的像素坐標(biāo)為(up,up)和(down,down),則有基于像素距離和l確定上下4個定位點的像素坐標(biāo)分別為(X,up)、(X,up)、(X,down)和(X,down),其中4個定位點的橫坐標(biāo)計算式為
注:聚類后不同玉米苗帶用不同顏色點表示;、、、為感興趣區(qū)域的4個定位點;l、l分別為圖像上、下限處玉米苗帶的像素距離。
Note: After clustering, different maize seedling belts are represented by different color dots;,,,are the 4 anchor points of the region of interest;l,lare the pixel distance of the corn seedling belt at the upper and lower limit of the image.
圖6 起始感興趣區(qū)域確定及更新示意圖
Fig.6 Initial region of interest determination and update diagram
以起始感興趣區(qū)域作為實時感興趣區(qū)域的起始區(qū)域,在進行實時導(dǎo)航時,只對實時感興趣區(qū)域內(nèi)的玉米苗帶進行處理,極大的減少圖像處理時間和各種干擾,從而實現(xiàn)實時感興趣區(qū)域的導(dǎo)航線動態(tài)更新,具體步驟如下:
1)在實時感興趣區(qū)域內(nèi)進行圖像處理和導(dǎo)航線擬合,并更新實時感興趣區(qū)域內(nèi)導(dǎo)航線上下頂點的像素坐標(biāo)為(X,Y)和(X,Y)。
2)按照式(10)計算實時感興趣區(qū)域的4個定位點坐標(biāo),并將其作為下一幀視頻的實時感興趣區(qū)域定位點,如圖6b所示,白色線為上一幀的感興趣區(qū)域,綠色線為更新后的感興趣區(qū)域。
3)由4個定位點確定出下一幀實時感興趣區(qū)域,重復(fù)步驟1)和2),更新實時導(dǎo)航線和實時感興趣定位點,從而實現(xiàn)實時感興趣區(qū)域的動態(tài)更新。
玉米除草機器人采用阿克曼線控底盤,其前輪轉(zhuǎn)向輪和后輪驅(qū)動輪結(jié)構(gòu)簡單、易控制、行走靈活。在田埂、坑洼和土地松軟等農(nóng)田環(huán)境下作業(yè),為避免車輪打滑造成的壓苗和傷苗,采用PID導(dǎo)航跟蹤控制模型,以提高控制精度和響應(yīng)速度。以阿克曼線控底盤整體為研究對象,建立二輪車運動學(xué)模型[28],如圖7所示。
為滿足系統(tǒng)的快速響應(yīng)和轉(zhuǎn)向的穩(wěn)定控制,在二輪車運動學(xué)模型的基礎(chǔ)上,采用PID算法決策前輪轉(zhuǎn)向角?;跈M向偏差和航向偏差設(shè)計期望轉(zhuǎn)向角二元線性控制規(guī)律[29]如式(11):
式中1為橫向偏差系數(shù);2為航向偏差系數(shù)。
為計算1和2,由小車導(dǎo)航平面坐標(biāo)系得運動學(xué)微分方程為
注:表示全局坐標(biāo)系;表示車身坐標(biāo)系,軸方向沿車輛中軸方向向前,軸為車輛方向朝左,其車輛中心在質(zhì)心位置;為玉米除草機器人的作業(yè)速度,m·s-1;為航向偏差,mm;為期望車輪轉(zhuǎn)角,rad;為玉米除草機器人當(dāng)前橫向偏差,mm;為阿克曼線控底盤軸距,mm。
Note:Ois global coordinate system;ois the body coordinate system, the direction ofaxis is forward along the central axis of the vehicle, and the direction ofaxis is to the left of the vehicle, whose vehicle center is at the center of mass;is the operation speed of the corn weeding robot, m·s-1;is course deviation, mm;is the expected wheel angle, rad;is the current lateral deviation of the corn weeding robot, mm;is the wheelbase of ackerman wire chassis, mm.
圖7 二輪車運動學(xué)模型
Fig.7 Model of two wheels kinematics
將式(12)代入式(11)利用極點配置思想,將該系統(tǒng)的極點放置在一個理想的位置獲得最佳的系統(tǒng)響應(yīng)為
則可得到橫向偏差系數(shù)1=2/,航向偏差系數(shù)2=/2。
在導(dǎo)航跟蹤控制模型中,定義橫向偏差和航向偏差的正負號如下:橫向偏差在車身坐標(biāo)系軸的正半軸定義成負值,負半軸定義成正值;根據(jù)時鐘運行方向,航向偏差為逆時定義成正值,為順時定義成負值。
前輪轉(zhuǎn)角由橫向偏差、航向偏差和速度決定,橫向偏差、航向偏差可由苗帶識別得到,速度可通過小車反饋系統(tǒng)得到,因此根據(jù)輸入預(yù)定導(dǎo)航線,獲得小車此時的橫向偏差和航向偏差,并與視覺導(dǎo)航系統(tǒng)獲得的位置和角度進行比較,并發(fā)送給玉米苗帶跟蹤控制器,進而獲得除草機器人速度和轉(zhuǎn)角,并控制除草機器人完成導(dǎo)航,其導(dǎo)航跟蹤控制流程框圖如圖8所示。
圖8 控制流程圖
利用Visual Studio開發(fā)環(huán)境,基于OpenCV圖像處理庫開發(fā)了玉米除草機器人視覺導(dǎo)航系統(tǒng)軟件。該軟件主要實現(xiàn)玉米導(dǎo)航線實時檢測、獲取導(dǎo)航線偏差和偏距與STM32控制端的同步交互和手動控制除草機器人導(dǎo)航和除草等功能,系統(tǒng)工作流程圖如圖9所示。
如圖10所示,軟件界面包括機器人視覺信息實時顯示、小車導(dǎo)航信息顯示、導(dǎo)航手動調(diào)試、刀具手動控制和通訊配置等功能。導(dǎo)航系統(tǒng)工作時,在導(dǎo)航實時顯示區(qū)的左側(cè)實時顯示監(jiān)控畫面,右側(cè)顯示導(dǎo)航線識別畫面;信息交互區(qū)可進行與下位機實時通信,并顯示串口號、波特率和下位機發(fā)送的信息;小車偏差顯示區(qū)可實時展示導(dǎo)航線的橫向偏差量和航向偏差量;手動導(dǎo)航區(qū)可實現(xiàn)手動控制除草機器人進行導(dǎo)航和位置調(diào)整;刀具控制區(qū)通過點擊按鈕可實現(xiàn)刀具的啟停、升降和左右刀具刀具移動等功能。
圖9 系統(tǒng)工作流程圖
圖10 導(dǎo)航系統(tǒng)軟件界面圖
除草機器人直線和曲線跟蹤模擬試驗在中國農(nóng)業(yè)大學(xué)校內(nèi)進行,試驗時間2022年6月10日,玉米苗平均株高為16cm,模擬試驗場景分別如圖11a和11b所示。其中直線跟蹤模擬試驗人工擺放玉米苗行距60cm,株距30 cm,長度為5m;曲線跟蹤模擬試驗人工擺放玉米苗株距30cm,曲線最大彎曲處與曲線的起點和終點連線的垂直距離為150cm,玉米苗曲線長度為8m。田間路徑跟蹤試驗在北京市昌平區(qū)小湯山鎮(zhèn)國家精準(zhǔn)農(nóng)業(yè)研究示范基地進行,試驗時間2022年10月4日試驗場景如圖11c所示,此時玉米平均株高為16cm,行距60 cm,株距30 cm。
圖11 試驗場景
在試驗前人工手持RTK-DGPS每隔30cm獲得一個玉米苗位置點作為預(yù)定跟蹤路徑點,并在除草機器人進行導(dǎo)航跟蹤時開啟GPS采集導(dǎo)航跟蹤數(shù)據(jù)作為實際跟蹤路徑點,將預(yù)定跟蹤路徑點與實際跟蹤路徑點進行比較,分析除草機器人的跟蹤誤差。跟蹤誤差計算方法為:查找實際跟蹤路徑中與預(yù)定跟蹤路徑點距離最近的點,計算兩點的歐式距離,即為跟蹤誤差。
為驗證實時導(dǎo)航線提取算法的準(zhǔn)確性,從采集的玉米苗帶數(shù)據(jù)集中隨機選取多段的視頻作為測試,測試視頻中包含不同光照和不同雜草程度等多種環(huán)境。
圖12為不同光照強度和不同雜草程度等提取效果,以人工標(biāo)記的導(dǎo)航線作為評價標(biāo)準(zhǔn),并定義算法提取的導(dǎo)航線與人工標(biāo)記的導(dǎo)航線之間的夾角為航向偏差,用作評價實時導(dǎo)航線提取的準(zhǔn)確性。當(dāng)二者之間的偏差角絕對值小于4°,則導(dǎo)航線提取正確[30]。對測試視頻幀的航向偏差和處理時間進行統(tǒng)計如圖13所示。
注:深色線為人工標(biāo)記的導(dǎo)航線;淺色線為本算法提取的導(dǎo)航線。
圖13 導(dǎo)航線提取結(jié)果
由圖13可知,航向偏差基本都在?4°到4°范圍之間,其導(dǎo)航線提取正確率為96.8%,航向偏差最大幅度為6.41°,平均絕對航向偏差為1.49°,標(biāo)準(zhǔn)差為1.27°;每幀圖像處理時間在78到98 ms之間,平均處理時間為87.39 ms。表明實時導(dǎo)航線提取算法的精度和準(zhǔn)確度較高,且每幀圖像導(dǎo)航線提取時間耗時短,而個別跳動較大的導(dǎo)航線可能是由于相機的抖動,導(dǎo)致所采集的圖像視野范圍發(fā)生偏移,本文通過多幀融合判別剔除了跳動大的導(dǎo)航線。
4.3.1 直線跟蹤模擬試驗
除草機器人隨機選取5個玉米苗帶進行直線跟蹤試驗,設(shè)置車速為0.3m/s,試驗開始時開啟GPS采集數(shù)據(jù),導(dǎo)航結(jié)束時導(dǎo)出試驗數(shù)據(jù),并計算跟蹤誤差。5個玉米苗帶跟蹤誤差匯總?cè)绫?所示,導(dǎo)航系統(tǒng)平均跟蹤誤差為0.71 cm,標(biāo)準(zhǔn)誤差為0.28 cm。結(jié)果表明:玉米除草機器人導(dǎo)航控制系統(tǒng)能準(zhǔn)確控制除草機器人直線路徑跟蹤。
表2 5次路徑跟蹤試驗統(tǒng)計
4.3.2 曲線跟蹤模擬試驗
為驗證玉米除草機器人導(dǎo)航控制系統(tǒng)的性能,以0.3 m/s的車速進行曲線跟蹤模擬試驗,試驗后計算跟蹤誤差,并分析得除草機器人實際導(dǎo)航路徑與預(yù)定跟蹤路徑的軌跡對比圖和跟蹤誤差結(jié)果如圖14。
注:x為當(dāng)前小車離導(dǎo)航起始位置的橫向距離;y為當(dāng)前小車離導(dǎo)航起始位置的縱向距離。
結(jié)果表明,基于運動學(xué)模型的苗帶跟蹤控制器能實現(xiàn)玉米苗曲線路徑跟蹤,導(dǎo)航的平均跟蹤誤差為14.2 mm,標(biāo)準(zhǔn)跟蹤誤差為4.1 mm,最小跟蹤誤差為6.0 mm,最大跟蹤誤差31.0 mm。最大跟蹤誤差產(chǎn)生的原因可能是由于在曲線最高點,從左轉(zhuǎn)變到右轉(zhuǎn)轉(zhuǎn)角曲率較大產(chǎn)生的。
4.3.3 田間導(dǎo)航跟蹤試驗
為準(zhǔn)確驗證玉米除草機器人導(dǎo)航控制系統(tǒng)實際田間導(dǎo)航跟蹤效果,分別以0.1、0.3和0.5 m/s的速度進行田間跟蹤試驗,并每隔20 cm獲得一個玉米苗位置點作為預(yù)定跟蹤路徑點,并分別導(dǎo)出不同速度的試驗數(shù)據(jù),分析得航向偏差和跟蹤誤差。
圖15 不同速度跟蹤誤差
在0.1、0.3和0.5m/s的速度下,導(dǎo)航線提取的平均絕對航向誤差分別為1.20°、1.31°和1.58°,提取誤差隨著速度提高而增大,但其值都在正確誤差帶范圍內(nèi),滿足導(dǎo)航要求。根據(jù)預(yù)定跟蹤路徑和實際跟蹤路徑數(shù)據(jù)進行誤差分析。如圖15所示,在0.1m/s速度下除草機器人跟蹤誤差在3.0~15.0mm之間,平均跟蹤誤差為8.9 mm,標(biāo)準(zhǔn)誤差為3.5 mm;在0.3m/s速度下除草機器人跟蹤誤差在5.0~17.0mm之間,平均跟蹤誤差為11.2 mm,標(biāo)準(zhǔn)誤差為3.5mm;在0.5m/s速度下跟蹤誤差在7.0~23.0 mm之間,平均跟蹤誤差為15.1mm,標(biāo)準(zhǔn)誤差為4.4 mm。結(jié)果表明在3種速度下的平均跟蹤誤差≤15.1 mm,標(biāo)準(zhǔn)誤差不大于4.4mm。在上述三種速度分析中,可知在0.3m/s速度下,平均跟蹤誤差在11.2mm,標(biāo)準(zhǔn)差與0.1m/s速度一樣,但誤差都比0.5m/s速度小,為此確定0.3m/s速度為除草機器人最佳跟蹤速度。綜上試驗分析玉米除草機器人導(dǎo)航控制系統(tǒng)在田間試驗中能準(zhǔn)確控制除草機器人跟蹤玉米苗行行走。
1)本文提出了基于感興趣區(qū)域更新的玉米苗帶實時提取方法,以改進自適應(yīng)響應(yīng)閾值SUSAN角點法提取玉米苗特征點后,采用進行冗余離群特征點剔除,減少計算量和提高導(dǎo)航線提取的實時性。以改進順序聚類完成玉米苗帶聚類,確定導(dǎo)航線然后進行實時感興趣更新。導(dǎo)航線提取試驗表明,導(dǎo)航線提取正確率為96.8%,每幀圖像平均處理時間為87.39ms,說明該算法能有效快速地獲取玉米苗的特征信息,準(zhǔn)確地檢測出玉米苗帶,能為除草機器人提供連續(xù)穩(wěn)定的導(dǎo)航線。
2)在導(dǎo)航線提取算法基礎(chǔ)上,本文設(shè)計了基于二輪車運動學(xué)模型的PID算法決策前輪轉(zhuǎn)向角,建立了導(dǎo)航跟蹤控制模型,并設(shè)計了玉米除草機器人導(dǎo)航控制系統(tǒng)。導(dǎo)航線跟蹤試驗表明,在模擬環(huán)境下,玉米苗帶直線和曲線跟蹤平均誤差≤1.42cm,標(biāo)準(zhǔn)誤差≤0.41cm;在農(nóng)田環(huán)境下,不同速度導(dǎo)航跟蹤平均誤差≤1.51cm,標(biāo)準(zhǔn)誤差≤0.44cm。說明該導(dǎo)航跟蹤控制可以滿足模擬環(huán)境和田間環(huán)境下不同路徑和速度的導(dǎo)航跟蹤需求,實現(xiàn)準(zhǔn)確跟蹤且適應(yīng)性強。
玉米除草機器人導(dǎo)航控制系統(tǒng)實現(xiàn)了除草機器人苗帶提取和導(dǎo)航跟蹤控制,為后續(xù)除草機器人的研究提供了技術(shù)支持。下一步將開展導(dǎo)航控制系統(tǒng)在不同農(nóng)田條件下穩(wěn)定性和適應(yīng)性的研究,進一步提高導(dǎo)航控制的適應(yīng)性。
[1] SB A, SAG B. An overview of autonomous crop row navigation strategies for unmanned ground vehicles- ScienceDirect[J]. Engineering in Agriculture, Environment and Food, 2019, 12(1): 24-31.
[2] GARCíA-SANTILLáN I D, GUERRERO J M, MONTALVO M, et al. Curved and straight crop row detection by accumulation of green pixels from images in maize fields[J]. Precision Agriculture, 2018, 19: 18-41.
[3] GARCíA-SANTILLáN I D, MONTALVO M, GUERRERO J M, et al. Automatic detection of curved and straight crop rows from images in maize fields[J]. Biosystems Engineering, 2017, 156: 61-79.
[4] 李霞,蘇筠皓,岳振超,等. 基于中值點Hough變換玉米行檢測的導(dǎo)航線提取方法[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(5):167-174.
LI Xia, SU Junhao, YUE Zhenchao, et al.Extracting navigation line to detect the maize seedling line using median-point Hough transform[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(5): 167-174. (in Chinese with English abstract)
[5] BAWDEN O, KULK J, RUSSELL R, et al. Robot for weed species plant-specific management[J]. Journal of Field Robotics, 2017, 34(6): 1179-1199.
[6] 蘭天,李端玲,張忠海,等. 智能農(nóng)業(yè)除草機器人研究現(xiàn)狀與趨勢分析[J]. 計算機測量與控制,2021,29(5):1-7.
LAN Tian, LI Ruiling, ZHANG Zhonghai, et al. Analysis on research status and trend of intelligent agricultural weeding robot[J]. Computer Measurement & Control, 2021, 29(5): 1-7. (in Chinese with English abstract)
[7] 傅雷揚,李紹穩(wěn),張樂,等. 田間除草機器人研究進展綜述[J]. 機器人,2021,43(6):751-768.
FU Leiyang, LI Shaowen, ZHANG Le, et al. Research progress on field weeding robots: A review[J]. Robot, 2021, 43(6): 751-768. (in Chinese with English abstract)
[8] BAKKER T. An Autonomous Robot for Weed Control: Design, Navigation and Control[D]. Wageningen, Netherlands: Wageningen University, 2009.
[9] ZHAI Z Q, ZHU Z X, DU Y F, et al. Multi-crop-row detection algorithm based on binocular vision[J]. Biosystems Engineering, 2016, 150: 89-103.
[10] VIDOVI? I, CUPEC R, HOCENSKI ?. Crop row detection by global energy minimization[J]. Pattern Recognition, 2016, 55: 68-86.
[11] VIDOVI? I, SCITOVSKI R. Center-based clustering for line detection and application to crop rows detection[J]. Computers and Electronics in Agriculture, 2014, 109: 212-220.
[12] 張博立,吳蒙然,溫興,等. 基于動態(tài)網(wǎng)格和分區(qū)域聚類的玉米苗帶識別算法研究[J]. 中國農(nóng)機化學(xué)報,2020,41(7):191-196.
ZHANG Boli, WU Mengran, WEN Xing, et al. Research on corn seeding belts recognition algorithm based on dynamic grid and sub-region clustering[J]. Journal of Chinese Agricultural Mechanization, 2020, 41(7): 191-196. (in Chinese with English abstract)
[13] 刁智華,趙明珍,宋寅卯,等. 基于機器視覺的玉米精準(zhǔn)施藥系統(tǒng)作物行識別算法及系統(tǒng)實現(xiàn)[J]. 農(nóng)業(yè)工程學(xué)報,2015,31(7):47-52.
DIAO Zhihua, ZHAO Mingzhen, SONG Yinmao, et al. Crop line recognition algorithm and realization in precision pesticide system based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(7): 47-52. (in Chinese with English abstract)
[14] 宋宇,劉永博,劉路,等. 基于機器視覺的玉米根莖導(dǎo)航基準(zhǔn)線提取方法[J]. 農(nóng)業(yè)機械學(xué)報,2017,48(2):38-44.
SONG Yu, LIU Yongbo, LIU Lu, et al. Extraction method of navigation baseline of corn roots based on machine vision[J]. Transactions of the Chinese Society for Agricultural Machinery, 2017, 48(2): 38-44. (in Chinese with English abstract)
[15] BALL D, UPCROFT B, WYETH G, et al. Vision‐based obstacle detection and navigation for an agricultural robot[J]. Journal of Field Robotics, 2016, 33(8): 1107-1130.
[16] SAMWEL O, CEDRIC O, JUN Z, et al. Medial axis-based machine-vision system for orchard robot navigation[J]. Computers and Electronics in Agriculture, 2021(1): 185.
[17] RADCLIFFE J, COX J, BULANON D M. Machine vision for orchard navigation[J]. Computers in Industry, 2018, 98: 165-171.
[18] 張雁,李彥明,劉翔鵬,等. 水稻直播機自動駕駛模糊自適應(yīng)控制方法[J]. 農(nóng)業(yè)機械學(xué)報, 2018,49(10):30-37.
ZHANG Yan, LI Yanming, LIU Xiaopeng, et al. Fuzzy adaptive control method for autonomous rice seeder[J]. Transactions of the Chinese Society for Agricultural Machinery, 2018, 49(10): 30-37. (in Chinese with English abstract)
[19] 賀靜,何杰,羅錫文,等. 基于多傳感器融合的水稻行識別與跟蹤導(dǎo)航研究[J]. 農(nóng)業(yè)機械學(xué)報,2022,53(3):18-26,137.
HE Jing, HE Jie, LUO Xiwen, et al. Rice row recognition and navigation control based on multi-sensor Fusion[J]. Transactions of the Chinese Society for Agricultural Machinery, 2022, 53(3): 18-26, 137. (in Chinese with English abstract)
[20] 王僑,孟志軍,付衛(wèi)強,等. 基于機器視覺的玉米苗期多條作物行線檢測算法[J].農(nóng)業(yè)機械學(xué)報,2021,52(4):208-220.
WANG Qiao, MENG Zhijun, FU Weiqiang, et al. Detection algorithm of multiple crop row lines based on machine vision in maize seedling stage[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, 52(4): 208-220. (in Chinese with English abstract)
[21] 張勤,陳少杰,李彬. 基于SUSAN角點的秧苗列中心線提取方法[J]. 農(nóng)業(yè)工程學(xué)報,2015,31(20):165-171.
ZHANG Qin, CHEN Shaojie, LI Bin. Extraction method for centerlines of rice seedlings based on SUSAN corner[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(20): 165-171. (in Chinese with English abstract)
[22] 宮金良,孫科,張彥斐,等. 基于梯度下降和角點檢測的玉米根莖定位導(dǎo)航線提取方法[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(13):177-183.
GONG Jinliang, SUN Ke, ZHANG Yanfei, et al. Extracting navigation line for rhizome location using gradient descent and corner detection[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(13): 177-183. (in Chinese with English abstract)
[23] 鄭昊,林玉娥. 一種改進的SUSAN角點檢測算法[J]. 電腦知識與技術(shù),2020,16(22):40-42.
ZHENG Hao, LIN Yu’e. An improved SUSAN corner point detection algorithm[J]. Computer Knowledge and Technology, 2020, 16(22): 40-42. (in Chinese with English abstract)
[24] 姜國權(quán),楊小亞,王志衡,等. 基于圖像特征點粒子群聚類算法的麥田作物行檢測[J]. 農(nóng)業(yè)工程學(xué)報,2017,33(11):165-170.
JIANG Guoquan, YANG Xiaoya, WANG Zhiheng, et al. Crop rows detection based on image characteristic point and particle swarm optimization-clustering algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(11): 165-170. (in Chinese with English abstract)
[25] 廖娟,汪鷂,尹俊楠,等. 基于分區(qū)域特征點聚類的秧苗行中心線提取[J]. 農(nóng)業(yè)機械學(xué)報,2019,50(11):34-41.
LIAO Juan, WANG Yao, YIN Junnan, et al. Detection of seedling row centerlines based on sub-regional feature points clustering[J]. Transactions of the Chinese Society for Agricultural Machinery, 2019, 50(11): 34-41. (in Chinese with English abstract)
[26] 陳少杰. 基于圖像理解的水田除草機器人視覺導(dǎo)航系統(tǒng)研究[D]. 廣州:華南理工大學(xué),2016.
CHEN Shaojie. Research on Vision Navigation System of Paddy Field Weeding Robot Based on Image Understanding[D]. Guangzhou: South China University of Technology, 2016. (in Chinese with English abstract)
[27] 楊洋,張博立,查家翼,等. 玉米行間導(dǎo)航線實時提取[J]. 農(nóng)業(yè)工程學(xué)報,2020,36(12):162-171.
YANG Yang, ZHANG Boli, ZHA Jiayi, et al. Real-time extraction of navigation line between corn rows[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(12): 162-171. (in Chinese with English abstract)
[28] 吳才聰,吳思賢,文龍,等. 拖拉機自動導(dǎo)航變曲度路徑跟蹤控制方法研究[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(21):1-7.
WU Caicong, WU Sixian, WEN Long, et al. Variable curvature path tracking control for the automatic navigation of tractors[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(21): 1-7. (in Chinese with English abstract)
[29] 王輝,王桂民,羅錫文,等. 基于預(yù)瞄追蹤模型的農(nóng)機導(dǎo)航路徑跟蹤控制方法[J]. 農(nóng)業(yè)工程學(xué)報,2019,35(4):11-19.
WANG Hui, WANG Guiming, LUO Xiwen, et al. Path tracking control method of agricultural machine navigation based on aiming pursuit model[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(4): 11-19. (in Chinese with English abstract)
[30] 翟志強,熊坤,王亮,等. 采用雙目視覺和自適應(yīng)Kalman濾波的作物行識別與跟蹤[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(8):143-151.
ZHAI Zhiqiang, XIONG Kun, WANG Liang, et al. Crop row detection and tracking based on binocular vision and adaptive Kalman filter[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(8): 143-151. (in Chinese with English abstract)
Design and experiment of the visual navigation system for a maize weeding robot
LAI Hanrong1, ZHANG Yawei1※, ZHANG Bin1, YIN Yanxin2,3, LIU Yuhang1, DONG Yuhang1
(1.,,100083,; 2.,100097,; 3.,100097,)
Maize weeding robots play a significant role in the green production of modern agriculture. A high production efficiency can also be gained to reduce the labor costs, particularly with no chemical pollution. The autonomous operation of maize weeding robot can depend mainly on the accurate detection and tracking of maize seedling belt. In this study, an updated real-time recognition was proposed to extract the navigation line between the maize seedling belts using Region of Interest (ROI), in order to facilitate the seedling belt detection of maize weeding robot. A monocular camera was used to capture the maize seedling belt in front of the robot. Images preprocessing was firstly implemented to effectively segment the seedling zone and background using optimal threshold selection, according to the large gap between the green area of seedlings and weeds. Secondly, the feature points of seedling belt were accurately extracted using an improved adaptive response threshold Small univalue segment assimilating nucleus (SUSAN) corner method. The redundant outliers of feature points were then removed to reduce the amount of clustering calculation for the better real-time performance. Thirdly, the regional hierarchical clustering was incorporated into the sequential cluster, in order to improve the speed of clustering. The maize seedlings were also performed on the regional sequential clustering with clustering process. Moreover, the least square method (LSM) was used to fit each maize seedling belt. Finally, the ROI was adjusted to update the navigation line in real time, according to the heading deviation of the robot and the lateral deviation relative to the maize seedling belt. Meanwhile, the kinematics model was utilized to optimize the steering angle under the PID controller. The optimal steering angle was obtained to avoid the pressure and damage from the wheel skid using the seedling belt row tracking of the weeding robot. The navigation control system was developed using OpenCV library on the Visual Studio platform. A real-time detection of maize navigation line was realized for the synchronous interaction between the navigation line deviation under the STM32 control terminal, and the manual control of weeding robot navigation. A continuous video was randomly captured from the collected maize seedling belt data set as a test, in order to verify the accuracy of the real-time navigation line extraction. Results show the accuracy rate of navigation line extraction was 96.8% with the average processing time of 87.39 ms, indicating the excellent real-time and anti-interference. The average tracking error of maize seedlings with the straight lines and curves was less than or equal to 1.42cm, while the standard tracking error was less than or equal to 0.41cm in the simulated environment. In the farmland, the average tracking error of navigation at different speeds was less than or equal to 1.51cm, and the standard error was less than or equal to 0.44cm, indicating the accurate operating of the weeding robots in the maize seedling belt rows. In summary, the seedling belt extraction and navigation tracking control of weeding robot was precisely realized by the navigation control system of maize weeding robot. The fast and accurate identification of seedling band can be suitable for the strong adaptability and stability of navigation tracking control system, fully meeting the navigation requirements of maize weeding robot operation. The finding can provide the technical support for the subsequent research of weeding robots.
robot; machine vision; maize weeding; seedling belt recognition; navigation tracking
2022-10-31
2022-12-19
國家重點研發(fā)計劃課題(2019YFB1312305);煙臺市校地融合發(fā)展項目(2021XDRHXMPT29)
賴漢榮,研究方向為農(nóng)業(yè)機器人視覺導(dǎo)航。Email:larky919@163.com
張亞偉,博士,講師,研究方向為農(nóng)機裝備智能控制技術(shù)。Email:zywcau@cau.edu.cn
10.11975/j.issn.1002-6819.202210247
TP273
A
1002-6819(2023)-01-0018-10
賴漢榮,張亞偉,張賓,等. 玉米除草機器人視覺導(dǎo)航系統(tǒng)設(shè)計與試驗[J]. 農(nóng)業(yè)工程學(xué)報,2023,39(1):18-27. doi:10.11975/j.issn.1002-6819.202210247 http://www.tcsae.org
LAI Hanrong, ZHANG Yawei, ZHANG Bin, et al. Design and experiment of the visual navigation system for a maize weeding robot[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2023, 39(1): 18-27. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.202210247 http://www.tcsae.org