摘要:
針對(duì)牧場(chǎng)巡檢機(jī)器人定位精度和魯棒性低、建圖精度和穩(wěn)定性差的問(wèn)題,提出一種基于激光雷達(dá)測(cè)距和測(cè)繪技術(shù)與改進(jìn)LOAM-SLAM算法的LOM-SLAM算法。LOM-SLAM算法在LOAM-SLAM算法的基礎(chǔ)上將SLAM分解為運(yùn)動(dòng)估計(jì)和地圖構(gòu)建兩個(gè)過(guò)程,利用激光雷達(dá)的高精度測(cè)距和測(cè)繪技術(shù),實(shí)現(xiàn)同時(shí)進(jìn)行機(jī)器人的定位和地圖構(gòu)建,從而提高定位與建圖的精度,提高魯棒性和穩(wěn)定性。將LOM-SLAM搭載在麥輪結(jié)構(gòu)的巡檢機(jī)器人上進(jìn)行試驗(yàn)驗(yàn)證。結(jié)果表明:在位姿估計(jì)試驗(yàn)中,LOM-SLAM算法的絕對(duì)軌跡誤差(ATE)和相對(duì)位姿誤差(RPE)的RMSE值分別僅為7.28m和2.23m,均低于對(duì)比算法。在定位與建圖試驗(yàn)中,當(dāng)巡檢機(jī)器人分別以0.2 m/s、0.5 m/s、1 m/s的速度運(yùn)動(dòng)時(shí),LOM-SLAM的定位誤差分別為0.12 m、1 m、1.2 m,具有更好的定位精度和穩(wěn)健性。
關(guān)鍵詞:巡檢機(jī)器人;激光雷達(dá);改進(jìn)SLAM;牧場(chǎng)環(huán)境;定位與建圖
中圖分類號(hào):S24
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):2095-5553 (2024) 04-0222-09
收稿日期:2023年9月24日" 修回日期:2023年11月30日
基金項(xiàng)目:內(nèi)蒙古自治區(qū)級(jí)大學(xué)生創(chuàng)新創(chuàng)業(yè)訓(xùn)練計(jì)劃項(xiàng)目(S202310128023);內(nèi)蒙古自治區(qū)高等學(xué)??茖W(xué)研究項(xiàng)目(NJZY21311)
第一作者:高金喆,男,2002年生,湖北襄陽(yáng)人,碩士研究生;研究方向?yàn)橹悄苎矙z。E-mail: 2575949685@qq.com
通訊作者:寇志偉,男,1984年生,內(nèi)蒙古卓資人,博士,副教授;研究方向?yàn)槲C(jī)電傳感器技術(shù)、計(jì)算機(jī)測(cè)控技術(shù)等。E-mail: kouzhiwei@imut.edu.cn
Design of location and mapping algorithm of pasture inspection robot based on LiDAR
Gao Jinzhe1, Kou Zhiwei1, 2, 3, Kong Zhe1, Jing Gaole1, Ma Jiayin1, Xu Hanqi1
(1. College of Electric Power, Inner Mongolia University of Technology, Hohhot, 010051, China;
2. Inner Mongolia Key Laboratory of Electromechanical Control, Hohhot, 010051, China;
3. Engineering Research Center of Large Energy Storage Technology, Ministry of Education, Hohhot, 010051, China)
Abstract:
Aiming at the problems" of low positioning accuracy and robustness, as well as poor precision and stability in mapping for pasture inspection robots, a novel LOM-SLAM algorithm based on LiDAR ranging and mapping technology and improved LOM-SLAM algorithm is proposed. This algorithm is derived from an enhanced LOAM-SLAM algorithm, which integrates laser range finding and surveying technology. LOM-SLAM decomposes SLAM into two separate processes such as motion estimation and map construction. By leveraging the high precision of laser range finding and surveying technology, LOM-SLAM achieves simultaneous robot localization and map building, thereby enhancing the accuracy, robustness, and stability of both positioning and mapping. LOM-SLAM was installed on a designed inspection robot with Mecanum wheel structure for test verification. The results showed that in pose estimation tests, LOM-SLAM significantly outperformed other methods in terms of relative pose error (RPE) and absolute trajectory error (ATE), with RMSE values of just 7.28m and 2.23m, respectively, which were lower than the comparative algorithms. In the positioning and mapping tests, with the inspection robot moving at speeds of 0.2 m/s, 0.5 m/s, and 1 m/s, the positioning errors of LOM-SLAM were only 0.12 m, 1 m, and 1.2 m, respectively, demonstrating better positioning accuracy and robustness compared to the comparative algorithms.
Keywords:
inspection robots; LiDAR; improved SLAM; pastoral environment; positioning and mapping
0 引言
近年來(lái),智能機(jī)器人技術(shù)在農(nóng)牧業(yè)領(lǐng)域,特別是在牧場(chǎng)的巡檢與管理中,得到了廣泛應(yīng)用[1]。傳統(tǒng)的牧場(chǎng)巡檢通常依賴于人工,這不僅耗費(fèi)大量的人力和時(shí)間,還可能因?yàn)樾屎蜏?zhǔn)確性不高而影響牧場(chǎng)的運(yùn)營(yíng)。為了提升效率,牧場(chǎng)開(kāi)始采用巡檢機(jī)器人進(jìn)行巡檢和牧場(chǎng)管理。在這個(gè)過(guò)程中,精確的定位和有效的建圖是提高牧場(chǎng)巡檢機(jī)器人效率的關(guān)鍵[2, 3]。然而,在復(fù)雜的牧場(chǎng)環(huán)境中,傳統(tǒng)的定位方法(如全局定位系統(tǒng)和慣性導(dǎo)航系統(tǒng))的精度和魯棒性常受到限制[4, 5]。
為應(yīng)對(duì)復(fù)雜環(huán)境中的挑戰(zhàn),陳建等[3]引入基于視覺(jué)的同時(shí)定位與建圖(SLAM)技術(shù)。視覺(jué)SLAM的優(yōu)點(diǎn)在于其較低的成本和獲取高頻率圖像信息的能力。Labbe等[4]通過(guò)擴(kuò)展RTAB地圖,支持結(jié)合視覺(jué)和激光雷達(dá)的SLAM方法,以優(yōu)化自主導(dǎo)航應(yīng)用的性能。彭夢(mèng)等[5]則將SLAM算法與基于深度學(xué)習(xí)的方法及多種傳感器相結(jié)合,證明視覺(jué)SLAM在無(wú)人機(jī)、自動(dòng)駕駛和增強(qiáng)現(xiàn)實(shí)等領(lǐng)域的有效應(yīng)用。盡管如此,視覺(jué)SLAM在牧場(chǎng)環(huán)境中的定位精度和建圖穩(wěn)定性仍有待提高[6-8]。
綜上所述,本文為解決牧場(chǎng)環(huán)境下低定位精度和建圖穩(wěn)定性的問(wèn)題,提出一種基于激光雷達(dá)測(cè)距及測(cè)繪技術(shù)和改進(jìn)的LOAM-SLAM算法的LOM-SLAM算法。LOM-SLAM在LOAM-SLAM的基礎(chǔ)上將SLAM過(guò)程分解為2個(gè)主要部分:運(yùn)動(dòng)估計(jì)和地圖構(gòu)建。巡檢機(jī)器人使用激光雷達(dá)的高精度測(cè)距和測(cè)繪技術(shù),通過(guò)插值法得到任意時(shí)刻的位姿估計(jì),計(jì)算位姿變換的旋轉(zhuǎn)矩陣及平移向量,從而精確估計(jì)運(yùn)動(dòng)軌跡,實(shí)現(xiàn)自主定位。在世界坐標(biāo)系中,通過(guò)位姿估計(jì)匹配算法,得到更高精度的位姿變換,并據(jù)此構(gòu)建出新的地圖,從而提高定位和建圖的精度,增強(qiáng)系統(tǒng)的魯棒性和穩(wěn)定性。
1 牧場(chǎng)巡檢機(jī)器人結(jié)構(gòu)
牧場(chǎng)環(huán)境復(fù)雜,地面不均勻、土壤濕滑且松軟,并且常位于開(kāi)闊的室外環(huán)境,需要應(yīng)對(duì)多變的氣候條件。因此,牧場(chǎng)巡檢機(jī)器人在設(shè)計(jì)時(shí)需具備高機(jī)動(dòng)性、耐候性。此外,巡檢機(jī)器人還應(yīng)盡量避免干擾動(dòng)物的活動(dòng),并能在灰塵環(huán)境中保持正常功能,同時(shí)確保在廣闊區(qū)域內(nèi)能實(shí)現(xiàn)穩(wěn)定通信和精準(zhǔn)導(dǎo)航[9, 10]。
本文采用麥輪(Mecanum wheel)結(jié)構(gòu)的巡檢機(jī)器人,確保機(jī)器人在牧場(chǎng)環(huán)境中活動(dòng)的靈活性和魯棒性,為巡檢機(jī)器人的定位與建圖提供硬件基礎(chǔ)。巡檢機(jī)器人的主板選用樹(shù)莓派4B,搭載SLAMTEC A2M12型激光雷達(dá)和INTERL D455型雙目攝像機(jī),其結(jié)構(gòu)如圖1所示。
3 試驗(yàn)驗(yàn)證
3.1 巡檢機(jī)器人位姿估計(jì)試驗(yàn)
為評(píng)估LOM-SLAM性能,試驗(yàn)選用的數(shù)據(jù)集為歐洲機(jī)器人挑戰(zhàn)賽數(shù)據(jù)集(EuRoC)。試驗(yàn)平臺(tái)為本文所設(shè)計(jì)的巡檢機(jī)器人,傳感器子系統(tǒng)負(fù)責(zé)實(shí)時(shí)采集環(huán)境數(shù)據(jù),包括激光雷達(dá)生成的點(diǎn)云和雙目攝像機(jī)捕捉到的圖像,主控計(jì)算機(jī)樹(shù)莓派4B以定時(shí)調(diào)用傳感器接口方式,獲取機(jī)器人的當(dāng)前位姿和周圍環(huán)境的幾何特征等數(shù)據(jù)流,通過(guò)解析、特征提取和匹配等操作,推導(dǎo)出機(jī)器人的實(shí)時(shí)位姿,經(jīng)過(guò)處理后的結(jié)果通過(guò)通信通道返回至由STM32芯片構(gòu)成的機(jī)器人底盤控制系統(tǒng),系統(tǒng)根據(jù)這些結(jié)果調(diào)整運(yùn)動(dòng)參數(shù),以確保機(jī)器人在自主導(dǎo)航中按照預(yù)定路徑行進(jìn)。通過(guò)連續(xù)循環(huán)執(zhí)行這一過(guò)程,機(jī)器人能夠在復(fù)雜環(huán)境中實(shí)現(xiàn)高效自主導(dǎo)航和精準(zhǔn)位姿估計(jì),具體操作框架如圖7所示。
本文采用輕型和地面優(yōu)化的激光雷達(dá)測(cè)距和測(cè)繪法(Lightweight and Ground-Optimized LiDAR Odometry and Mapping, LeGO-LOAM)[23]以及快速激光雷達(dá)實(shí)時(shí)定位與建圖技術(shù)(Fast LiDAR Odometry and Mapping on Autonomous Vehicles, Fast-LIO2)[24]與本文所提方法進(jìn)行結(jié)果對(duì)比。各個(gè)算法的掃描頻率范圍為10~20 Hz,掃描角度為360°,分辨率范圍為0.1°~0.5°。
本文選取絕對(duì)軌跡誤差(ATE)和相對(duì)位姿誤差(RPE)作為評(píng)價(jià)指標(biāo),運(yùn)用均方根誤差(RMSE)來(lái)量化ATE與RPE[21, 22]。試驗(yàn)流程包括如下步驟:首先,進(jìn)行試驗(yàn)設(shè)備準(zhǔn)備,選擇合適的激光雷達(dá)并建立試驗(yàn)平臺(tái)。其次,在牧場(chǎng)環(huán)境中執(zhí)行激光雷達(dá)掃描并記錄掃描數(shù)據(jù)。隨后,對(duì)掃描數(shù)據(jù)進(jìn)行預(yù)處理,包括噪聲去除和濾波等處理,將預(yù)處理后的數(shù)據(jù)輸入LeGO-LOAM、Fast-LIO2以及本文提出的方法,并運(yùn)行算法以獲取定位和建圖結(jié)果。最后,通過(guò)計(jì)算ATE和RPE,采用RMSE量化誤差,并進(jìn)行各算法的定位和建圖結(jié)果對(duì)比,分析其優(yōu)缺點(diǎn)。
各方法在EuRoC數(shù)據(jù)集上的RPE結(jié)果如圖8所示,橫坐標(biāo)x代表數(shù)據(jù)集的圖像序列幀數(shù),中間值與平均值是整個(gè)測(cè)試圖像序列得到的RPE的中間值與平均值。
由圖8(a)可知,LeGO-LOAM算法的RPE中間值和平均值分別為3.95m、4.22m,RMSE值高達(dá)3.15m。由圖8(b)可知,F(xiàn)ast-LIO2算法的RPE中間值和平均值分別為4.13m、4.42m,RMSE值高達(dá)2.27m。由圖8(c)可知,LOM-SLAM的RPE中間值和平均值分別為2.02m和1.86m,RMSE值僅為2.23m,其各項(xiàng)指標(biāo)明顯優(yōu)于LeGO-LOAM和Fast-LIO2算法。表明本文提出的方法具有更高的精度,能夠提供更準(zhǔn)確的相對(duì)位姿變換值。
各方法在EuRoC數(shù)據(jù)集上的ATE結(jié)果如圖9所示。從圖9(a)可知,LeGO-LOAM算法的ATE中間值和平均值分別為14.58m、14.02m,RMSE值高達(dá)14.54m。由圖9(b)可知,F(xiàn)ast-LIO2算法的ATE中間值和平均值分別為14.96m、11.66m,RMSE值高達(dá)15.25m。由圖9(c)可知,LOM-SLAM的ATE中間值和平均值分別為6.51m和5.73m,RMSE值高達(dá)7.28m,其各項(xiàng)指標(biāo)明顯優(yōu)于LeGO-LOAM和Fast-LIO2算法。說(shuō)明LOM-SLAM在位姿估計(jì)方面具有顯著優(yōu)勢(shì)。
3.2 巡檢機(jī)器人定位與建圖試驗(yàn)
本文進(jìn)一步使用MATLAB進(jìn)行LOM-SLAM的可行性試驗(yàn)驗(yàn)證,采用LeGO-LOAM以及Fast-LIO2與本文所提方法進(jìn)行結(jié)果對(duì)比,試驗(yàn)對(duì)不同定位方法與真實(shí)值的誤差進(jìn)行測(cè)量,以驗(yàn)證本文所提方法的優(yōu)越性。評(píng)價(jià)指標(biāo)為定位方法檢測(cè)值與真實(shí)測(cè)量值的定位誤差值。選取內(nèi)蒙古工業(yè)大學(xué)體育場(chǎng)草坪作為試驗(yàn)環(huán)境,巡檢機(jī)器人試驗(yàn)環(huán)境如圖10所示,試驗(yàn)將機(jī)器人的轉(zhuǎn)向角設(shè)為-90°~90°,運(yùn)行速度分別設(shè)定為0.2 m/s、0.5 m/s、1 m/s。定位誤差結(jié)果如表1所示。
當(dāng)機(jī)器人的運(yùn)行速度為0.2 m/s時(shí),試驗(yàn)結(jié)果如圖11所示,圖中障礙物用藍(lán)色區(qū)域表示,信號(hào)屏蔽區(qū)域則是黃色部分。定位方法與真實(shí)值之間的誤差結(jié)果如圖12所示。由圖11可知,與LeGO-LOAM以及Fast-LIO2算法相比,LOM-SLAM算法的定位曲線與真實(shí)軌跡更吻合,說(shuō)明LOM-SLAM算法的定位精度更高。從圖12可知,當(dāng)巡檢機(jī)器人的速度為0.2 m/s時(shí),LOM-SLAM的定位誤差僅為0.12 m,相對(duì)于LeGO-LOAM和Fast-LIO2,LOM-SLAM的定位誤差分別降低了0.12 m和0.18 m,表明LOM-SLAM在定位精度和魯棒性方面具有顯著的優(yōu)勢(shì)。
機(jī)器人運(yùn)行速度為0.5 m/s時(shí)的試驗(yàn)結(jié)果如圖13所示。不同定位方法與真實(shí)值之間的誤差結(jié)果如圖14所示。從圖13可知,當(dāng)速度提升至0.5 m/s時(shí),各個(gè)方法的定位曲線與真實(shí)軌跡的偏差均有所增加。然而,LOM-SLAM的定位曲線與真實(shí)軌跡依然保持著更接近的狀態(tài),顯示其在定位性能上明顯優(yōu)于其他兩種算法。由圖14可知,各個(gè)方法的定位誤差值均有所提升。具體來(lái)說(shuō),LOM-SLAM的定位誤差相比0.2 m/s時(shí)的誤差值僅增長(zhǎng)了0.8 m。相較之下,LeGO-LOAM方法的誤差值在速度為0.5 m/s時(shí)達(dá)到0.39 m,相比于0.2 m/s時(shí)的誤差值增長(zhǎng)0.15 m。Fast-LIO2方法的誤差值則達(dá)到0.42 m,相比0.2 m/s時(shí)的誤差值提升0.12 m。這表明LOM-SLAM的定位誤差值更小,顯示出更優(yōu)越的定位性能。
當(dāng)巡檢運(yùn)行速度為1 m/s時(shí)的試驗(yàn)結(jié)果如圖15所示。其定位方法與真實(shí)值之間的誤差結(jié)果如圖16所示。
由圖15可知,當(dāng)速度升至1 m/s時(shí),各個(gè)方法的定位曲線與真實(shí)軌跡的偏差都有所增加。然而,本文提出的方法在這個(gè)情況下展現(xiàn)出最小的偏差,這表明LOM-SLAM具備顯著的定位性能。由圖16可知,在運(yùn)行速度達(dá)到1 m/s時(shí),三種方法的定位誤差值都呈現(xiàn)上升趨勢(shì)。具體而言,LOM-SLAM的定位誤差最小,僅為0.28 m。相較之下,LeGO-LOAM方法的定位誤差值在速度為1 m/s時(shí)達(dá)到0.48 m,相比0.2 m/s時(shí)的誤差值增加0.24 m。Fast-LIO2方法的定位誤差值高達(dá)0.58 m,相比0.2 m/s時(shí)的誤差值增加0.28 m。這顯示出LOM-SLAM的定位精度更高,且具備更強(qiáng)的魯棒性。
4 結(jié)論
牧場(chǎng)作為畜牧業(yè)生產(chǎn)活動(dòng)中的重要組成部分,使用巡檢機(jī)器人提高牧場(chǎng)巡檢和管理的效率具有重要的現(xiàn)實(shí)意義??紤]到牧場(chǎng)的復(fù)雜環(huán)境,本文采用麥克納姆輪結(jié)構(gòu)的巡檢機(jī)器人,主板選用樹(shù)莓派4B,搭載SLAMTEC A2M12型激光雷達(dá)和Intel D455型雙目攝像機(jī),并使用LOM-SLAM算法,從而實(shí)現(xiàn)巡檢機(jī)器人的定位和建圖。
1)" 在位姿估計(jì)試驗(yàn)中,EuRoC數(shù)據(jù)集上,LOM-SLAM算法在RPE方面明顯優(yōu)于其他兩種方法,其RMSE值僅為2.23m,而LeGO-LOAM和Fast-LIO2的RMSE值分別為3.15m和2.27m。此外,LOM-SLAM算法的ATE也明顯優(yōu)于其他兩種方法,其RMSE值僅為7.28m,相較于其他兩種方法分別降低7.26m和7.97m。說(shuō)明LOM-SLAM算法在位姿估計(jì)方面具有更高的精度,能夠提供更準(zhǔn)確的相對(duì)位姿變換值。
2)" 在定位與建圖試驗(yàn)中,當(dāng)機(jī)器人速度為0.2 m/s時(shí),LOM-SLAM的定位誤差僅為0.12 m,相對(duì)LeGO-LOAM和Fast-LIO2分別減少0.12 m和0.18 m。當(dāng)機(jī)器人速度分別增加到0.5 m/s和1 m/s時(shí),盡管各種方法的定位偏差都有所增加,但LOM-SLAM的定位曲線仍更接近真實(shí)軌跡。說(shuō)明LOM-SLAM方法具有更優(yōu)異,更穩(wěn)定的定位性能,有利于提升建圖的準(zhǔn)確性。
3) 試驗(yàn)表明與其他兩種定位方法相比,LOM-SLAM的定位和建圖精度更高,適用于實(shí)際的牧場(chǎng)巡檢。然而,目前的探測(cè)方法無(wú)法覆蓋所有的環(huán)境信息,且在某些復(fù)雜的環(huán)境中,難以準(zhǔn)確識(shí)別和理解環(huán)境中的各種元素。為改進(jìn)這一點(diǎn),后續(xù)研究可以考慮引入更先進(jìn)的機(jī)器學(xué)習(xí)算法以提高環(huán)境適應(yīng)性和定位精度,或者結(jié)合其他傳感器以提升地圖構(gòu)建的準(zhǔn)確性。
參 考 文 獻(xiàn)
[1] 羅亮, 談莉斌, 余曉流, 等. 一種融合二維激光雷達(dá)和RGB-D相機(jī)的移動(dòng)機(jī)器人建圖方法研究[J]. 制造業(yè)自動(dòng)化, 2023, 45(4): 137-140, 190.
Luo Liang, Tan Libin, Yu Xiaoliu, et al. Research on a mobile robot mapping method based on the fusion of 2D LiDAR and RGB-D camera [J]. Manufacturing Automation, 2023, 45(4): 137-140, 190.
[2] 胡煉, 王志敏, 汪沛, 等. 基于激光感知的農(nóng)業(yè)機(jī)器人定位系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(5): 1-7.
Hu Lian, Wang Zhimin, Wang Pei, et al. Agricultural robot positioning system based on laser sensing [J]. Transactions of the Chinese Society of Agricultural Engineering, 2023, 39(5): 1-7.
[3] 陳建, 于殿泓, 惠鑫鑫, 等. 基于二維激光雷達(dá)多車道車輛檢測(cè)與分車算法的研究[J]. 傳感技術(shù)學(xué)報(bào), 2022, 35(11): 1513-1520.
Chen Jian, Yu Dianhong, Hui Xinxin, et al. Research on multi-lane vehicle detection and separation algorithm based on two-dimensional LiDAR [J]. Chinese Journal of Sensors and Actuators, 2022, 35(11): 1513-1520.
[4] Labbe M, Michaud F. RTAB-Map as an open-source LiDAR and visual simultaneous localization and mapping library for large-scale and long-term online operation [J]. Journal of Field Robotics, 2019, 36(2): 416-446.
[5] 彭夢(mèng), 萬(wàn)琴, 陳白帆, 等. 基于觀測(cè)概率有效下界估計(jì)的二維激光雷達(dá)和攝像機(jī)標(biāo)定方法[J]. 電子與信息學(xué)報(bào), 2022, 44(7): 2478-2487.
Peng Meng, Wan Qin, Chen Baifan, et al.A calibration method of 2D LiDAR and a camera based on effective lower bound estimation of observation probability [J]. Journal of Electronics amp; Information Technology, 2022, 44(7): 2478-2487.
[6] 張浩, 左杭, 劉寶華. 視覺(jué)與二維激光雷達(dá)的目標(biāo)檢測(cè)方法[J]. 電子測(cè)量與儀器學(xué)報(bào), 2022, 36(3): 79-86.
Zhang Hao, Zuo Hang, Liu Baohua. Target detection method for visual and 2D laser radar [J]. Journal of Electronic Measurement and Instrumentation, 2022, 36(3): 79-86.
[7] 王祝, 王智, 張旭, 等. 基于二維激光雷達(dá)的自適應(yīng)閾值聚類分割方法[J]. 中國(guó)激光, 2021, 48(16): 182-189.
Wang Zhu, Wang Zhi, Zhang Xu, et al. Adaptive threshold clustering segmentation method based on two-dimensional LiDAR [J]. Chinese Journal of Lasers, 2021, 48(16): 182-189.
[8] 張宏群, 劉開(kāi)輝, 鄭峰, 等. 基于二維激光雷達(dá)植株高度測(cè)量系統(tǒng)的研究[J]. 電子測(cè)量技術(shù), 2021, 44(4): 97-103.
Zhang Hongqun, Liu Kaihui, Zheng Feng, et al. Research on plant height measurement system based on two-dimensional LiDAR [J]. Electronic Measurement Technology, 2021, 44(4): 97-103.
[9] 張磊, 徐孝彬, 何佳, 等. 基于室內(nèi)結(jié)構(gòu)特征的二維激光雷達(dá)與相機(jī)標(biāo)定方法(英文)[J]. 光子學(xué)報(bào), 2020, 49(12): 67-78.
Zhang Lei, Xu Xiaobin, He Jia, et al.Calibration method of 2D LiDAR and camera based on indoor structural features [J].Acta Photonica Sinica, 2020, 49(12): 67-78.
[10] 黃志清, 蘇毅, 王慶文, 等. 二維激光雷達(dá)與可見(jiàn)光相機(jī)外參標(biāo)定方法研究[J]. 儀器儀表學(xué)報(bào), 2020, 41(9): 121-129.
Huang Zhiqing, Su Yi, Wang Qingwen, et al. Research on extrinsic parameter calibration method of 2D laser rangefinder (LRF) and visible light camera [J]. Chinese Journal of Scientific Instrument, 2020, 41(9): 121-129.
[11] 牛秦玉, 暢科劍, 李珍惜. 基于ROS的多AGV在交叉路口下協(xié)同控制策略[J]. 現(xiàn)代制造工程, 2020(10): 33-38.
Niu Qinyu, Chang Kejian, Li Zhenxi. Cooperative control strategy of multi-AGV based on ROS at intersection [J]. Modern Manufacturing Engineering, 2020(10): 33-38.
[12] 田佳, 劉泓濱, 王宇, 等. 一種機(jī)器視覺(jué)的安防巡邏機(jī)器人系統(tǒng)設(shè)計(jì)[J]. 機(jī)械設(shè)計(jì)與制造, 2020(11): 254-257.
Tian Jia, Liu Hongbin, Wang Yu, et al. Design of a robot system with machine vision for security and patrol [J]. Machinery Design amp; Manufacture, 2020(11): 254-257.
[13] 蔡澤宇, 金誠(chéng)謙. 基于二維激光雷達(dá)點(diǎn)云的物體輪廓識(shí)別[J]. 應(yīng)用激光, 2020, 40(3): 513-518.
Cai Zeyu, Jin Chengqian. Object contour recognition based on 2D LIDAR point cloud [J]. Applied Laser, 2020, 40(3): 513-518.
[14] 張旭, 王智, 崔粲, 等. 二維激光雷達(dá)定位建圖系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[J]. 光學(xué)技術(shù), 2019, 45(5): 596-600.
Zhang Xu, Wang Zhi, Cui Can, et al. Design and implementation of 2D LiDAR positioning and mapping system [J]. Optical Technique, 2019, 45(5): 596-600.
[15] 胡麗軍, 吳燕玲, 宋全軍, 等. 基于ST-GCN警用巡邏機(jī)器人警情識(shí)別系統(tǒng)設(shè)計(jì)[J]. 傳感器與微系統(tǒng), 2023, 42(6): 78-81.
Hu Lijun, Wu Yanling, Song Quanjun, et al. Design of police situation recognition system for police patrol robots based on ST-GCN [J]. Transducer and Microsystem Technologies, 2023, 42(6): 78-81.
[16] Spuler S M, Hayman M, Stillwell R A, et al. MicroPulse DIAL (MPD)-a diode-laser-based LiDAR architecture for quantitative atmospheric profiling [J]. Atmospheric Measurement Techniques, 2021, 14(6): 4593-4616.
[17] 靳荔成, 劉一萱, 白瑞峰, 等. 面向校園多機(jī)器人協(xié)同巡查的路徑規(guī)劃虛擬仿真實(shí)驗(yàn)設(shè)計(jì)[J]. 實(shí)驗(yàn)技術(shù)與管理, 2023, 40(3): 93-99.
Jin Licheng, Liu Yixuan, Bai Ruifeng, et al. Design of virtual simulation experiment of path planning for multi-robot cooperative patrol in campus [J]. Experimental Technology and Management, 2023, 40(3): 93-99.
[18] 張淑清, 鄧慶彪, 蔡志文. 安防巡邏機(jī)器人全覆蓋視覺(jué)導(dǎo)航方法[J]. 機(jī)械設(shè)計(jì)與制造, 2022(12): 264-268.
Zhang Shuqing, Deng Qingbiao, Cai Zhiwen. Visual navigation method for security patrol robot with full coverage [J]. Machinery Design amp; Manufacture, 2022(12): 264-268.
[19] Chen R, Li C, Zhu Y, et al. Extraction of crown information from individual fruit tree by UAV LiDAR [J]. Nongye Gongcheng Xuebao/Transactions of the Chinese Society of Agricultural Engineering, 2020, 36(22): 50-59.
[20] 張輝, 王耀南, 易俊飛, 等. 面向重大疫情應(yīng)急防控的智能機(jī)器人系統(tǒng)研究[J]. 中國(guó)科學(xué): 信息科學(xué), 2020, 50(7): 1069-1090.
Zhang Hui, Wang Yaonan, Yi Junfei, et al. Research on intelligent robot systems for emergency prevention and control of major pandemics [J]. Scientia Sinica (Informationis), 2020, 50(7): 1069-1090.
[21] 趙云濤, 李宗剛, 杜亞江. 基于最大空閑時(shí)間的分布式巡邏機(jī)器人數(shù)量?jī)?yōu)化[J]. 模式識(shí)別與人工智能, 2020, 33(4): 375-382.
Zhao Yuntao, Li Zonggang, Du Yajiang. Team size optimization for distributed patrol of multi-robot systems based on maximum idle time [J]. Pattern Recognition and Artificial Intelligence, 2020, 33(4): 375-382.
[22] 徐曉蘇, 李諾, 姚逸卿. 基于快速回環(huán)檢測(cè)的室外環(huán)境下激光雷達(dá)SLAM算法[J]. 中國(guó)慣性技術(shù)學(xué)報(bào), 2022, 30(6): 716-722.
Xu Xiaosu, Li Nuo, Yao Yiqing. LiDAR SLAM algorithm in outdoor environment based on fast loop detection [J]. Journal of Chinese Inertial Technology, 2022, 30(6): 716-722.
[23] 李歡, 余紅英. 基于FPGA的高性能激光雷達(dá)測(cè)距系統(tǒng)設(shè)計(jì)[J]. 電子測(cè)量技術(shù), 2021, 44(20): 6-10.
Li Huan, Yu Hongying. Design of high-performance LiDAR ranging system based on FPGA [J]. Electronic Measurement Technology, 2021, 44(20): 6-10.
[24] 李莉. 基于傾斜攝影測(cè)量和激光雷達(dá)的三維模型快速制作方法研究[J]. 測(cè)繪與空間地理信息, 2022, 45(9): 220-221, 225.
Li Li. Research on rapid construction method of 3D models based on oblique photogrammetry and LiDAR [J]. Geomatics amp; Spatial Information Technology, 2022, 45(9): 220-221, 225.
中國(guó)農(nóng)機(jī)化學(xué)報(bào)2024年4期