陳慧巖,張玉
(北京理工大學(xué)機械與車輛學(xué)院,北京 100081)
軍用地面無人機動平臺技術(shù)發(fā)展綜述
陳慧巖,張玉
(北京理工大學(xué)機械與車輛學(xué)院,北京 100081)
地面無人機動平臺對發(fā)展高機動地面無人戰(zhàn)斗系統(tǒng)具有重要的戰(zhàn)略意義,是當(dāng)前各國國防科技領(lǐng)域的研究熱點。文中綜述了軍用地面無人機動平臺的發(fā)展歷程與最新進展,分別闡述和分析了其基本組成和發(fā)展特點,然后從環(huán)境感知、運動規(guī)劃、跟蹤控制等方面總結(jié)了軍用地面無人機動平臺發(fā)展中的關(guān)鍵技術(shù),并對軍用無人機動平臺的研究方向和研究重點進行了展望。
兵器科學(xué)與技術(shù);軍用地面無人機動平臺;環(huán)境感知;運動規(guī)劃;路徑跟蹤
地面無人機動平臺,作為智能交通系統(tǒng)(ITS)和未來戰(zhàn)斗系統(tǒng)的一個重要組成部分,在民用領(lǐng)域和軍用領(lǐng)域都具有廣泛的應(yīng)用前景[1]。廣義上來說,地面無人機動平臺指的是任何能夠在地面上移動,并進行承載或運輸裝備或人員,但是不搭載駕駛員的機器設(shè)備[2];狹義上講,指的是能感知環(huán)境并與環(huán)境交互、能自主行駛的地面移動機器設(shè)備[3]。在軍用領(lǐng)域,地面無人機動平臺通常也叫做無人地面車輛(UGV)、自主地面移動平臺(ALMP)、自主地面車輛(ALV)等,主要包含軍用無人戰(zhàn)斗車輛、通用后勤服務(wù)無人車輛和小型單兵機器人[4]。上述相關(guān)領(lǐng)域的技術(shù)研究對發(fā)展高機動地面無人戰(zhàn)斗系統(tǒng)具有重要的戰(zhàn)略意義。軍用地面無人機動平臺在戰(zhàn)場上能夠完成獲取情報、監(jiān)視、偵察任務(wù),運輸與后勤任務(wù),排雷、安置簡易爆炸裝置任務(wù),提供火力支援任務(wù),通信中轉(zhuǎn)、醫(yī)療轉(zhuǎn)移任務(wù)等,在戰(zhàn)斗中對保護士兵生命有著不可替代的作用。在民用領(lǐng)域,地面無人機動平臺通常是指無人駕駛汽車,也叫做智能汽車、智能車、無人車,其關(guān)鍵技術(shù)的發(fā)展對改善交通擁堵、節(jié)能減排、提高出行效率、減小交通事故等方面有著重要作用。軍用和民用地面無人機動平臺的基本組成部分大致相同,都包括感知、規(guī)劃、控制和平臺底盤等子系統(tǒng),但是由于應(yīng)用場景不同,相應(yīng)部分的研究側(cè)重點及需求有所不同。本文側(cè)重于闡述軍用地面無人機動平臺的相關(guān)研究內(nèi)容。
軍用地面無人機動平臺的研究要早于無人駕駛汽車,最早可以追溯到20世紀(jì)30年代前蘇聯(lián)開發(fā)的無線遙控坦克。第二次世界大戰(zhàn)期間,英國和德國也相繼研發(fā)出無線遙控履帶戰(zhàn)斗車輛[4]。后來軍用無人機動平臺的研究逐步擴展到半自主地面無人機動平臺和自主地面無人機動平臺。
20世紀(jì)80年代,美國國防部(DOD)專門制定了無人作戰(zhàn)系統(tǒng)發(fā)展的戰(zhàn)略計劃,對地面無人作戰(zhàn)平臺的研究進行大規(guī)模資助[2]。此后的20年,美國先后制定了聯(lián)合機器人(JRP)計劃[5]、Demo計劃[6-7]、戰(zhàn)術(shù)移動機器人(TMR)計劃[8]、無人地面戰(zhàn)斗車輛(UGCV)計劃、越野機器人感知(PerceptionOR)計劃[9-10]、FCS計劃[11]、LAGR計劃[12]、UPI計劃[13]等,力求發(fā)展由地面無人機動平臺和武器系統(tǒng)構(gòu)成的無人作戰(zhàn)系統(tǒng)[14]。美國國防高級研究計劃局(DARPA)分別于2005年和2007年舉辦了越野挑戰(zhàn)賽[15]和城市挑戰(zhàn)賽[16],極大地推動了傳感器、相關(guān)算法和地面無人機動平臺系統(tǒng)集成技術(shù)的發(fā)展[17]。UGCV計劃中由卡耐基梅隆大學(xué)(CMU)國家機器人工程中心(NREC)研發(fā)的Crusher(前身為Spinner)是一種針對于大范圍復(fù)雜越野路面的下一代無人高機動平臺。它利用航拍地圖評估運動風(fēng)險,進行軌跡規(guī)劃,使用車載傳感器來檢測從地圖數(shù)據(jù)無法辨別的或是后出現(xiàn)的障礙[18],通過特殊的懸掛系統(tǒng)和驅(qū)動系統(tǒng)設(shè)計適應(yīng)各種路面的行駛要求。截至2007年,該平臺已經(jīng)能在巖石、壕溝、陡坡、灌木叢等各種類型路面自主行駛超過250 km[13].另一項比較矚目的研究便是美國陸軍坦克機動車輛研發(fā)與工程中心研制的APD地面無人機動平臺。該平臺采用混合電驅(qū)動技術(shù),以柴油機為原動機,裝備鋰離子電池,通過6個輪轂電機驅(qū)動平臺前進[19];除此之外,該平臺配備自主導(dǎo)航系統(tǒng),能以80 km/h速度行進中躲避障礙,具有實時人工操縱和自主機動的能力。Crusher和APD地面無人機動平臺在極端環(huán)境下具有較好的燃油經(jīng)濟性、較高的生存能力和較強的承載能力,展現(xiàn)了下一代軍用無人機動平臺對各種類型越野路面突出的適應(yīng)能力和機動性能。2013年CMU NREC與奧什科什國防公司合作研發(fā)了為美國海軍陸戰(zhàn)隊提供后勤保障的Cargo地面無人車輛,該平臺有3種工作模式——自動駕駛模式、影子模式和遙控模式,并且可以與有人駕駛車輛混編成車隊,使得一個操作者可以操控多輛無人機動平臺,能保證在較低風(fēng)險的情況下使用較少的人力完成后勤補給任務(wù)[20]。除上述平臺外,美國現(xiàn)役或在研的地面無人機動平臺還包括洛克希德·馬丁公司的AMAS平臺[21]、SMSS平臺[22]和MULE ARV-A(L)平臺[23],波士頓動力公司的Big Dog[24-25]、LS3仿生機器人[26]等。
除了美國,其他國家也積極開展無人機動平臺的相關(guān)研究,比較著名的有英國BAE系統(tǒng)公司的角斗士(Gladiator)新型戰(zhàn)術(shù)地面無人車輛[27]、黑騎士(Black Knight)無人裝甲車[28],德國Diehl BGT防務(wù)公司的CANGURU地面自主車輛,克羅地亞DOKING公司的MV系列無人掃雷車[29],以色列G-NIUS無人地面系統(tǒng)公司的GUARDIUM MK系列高機動性能無人戰(zhàn)斗車輛[30]和中國兵器工業(yè)集團公司的混合動力無人地面車輛。其中,黑騎士無人裝甲車體現(xiàn)了目前無人戰(zhàn)斗機動平臺技術(shù)的最高水準(zhǔn)。該平臺擁有30 mm速射火力系統(tǒng)、全地形通過能力、先進的全頻譜傳感系統(tǒng)(由NREC提供)、完善的戰(zhàn)術(shù)數(shù)據(jù)鏈和自主導(dǎo)航系統(tǒng),可加裝通用導(dǎo)彈發(fā)射裝置等重型武器,其實戰(zhàn)化色彩遠遠超過全球正在服役的各類地面無人機動平臺。圖1列出了上文提到的部分軍用地面無人機動平臺。
2.1 基本組成
無人機動平臺雖然在機構(gòu)、傳感器配置、功能實現(xiàn)上各不相同,但是在無人駕駛系統(tǒng)組成上有著顯著的共同點,都包含環(huán)境感知系統(tǒng)(含定位)、運動規(guī)劃系統(tǒng)、跟蹤控制系統(tǒng)、平臺底盤系統(tǒng)等子系統(tǒng)。這些共同點構(gòu)成無人機動平臺的基本組成部分。
環(huán)境感知系統(tǒng)是指通過各種傳感器設(shè)備的輸入建立無人車輛周圍包含二維或三維環(huán)境特征的環(huán)境模型的系統(tǒng)。它主要由硬件和軟件處理程序組成。硬件主要包括二維激光雷達、三維激光雷達、毫米波雷達、彩色相機、立體相機、聲納、慣性導(dǎo)航元件、GPS等各種類型的傳感器。軟件處理程序?qū)崿F(xiàn)的功能主要為路面識別、障礙物檢測、目標(biāo)識別與跟蹤、建立地圖與定位等。它的主要作用是建立地面無人機動平臺周圍的環(huán)境模型,為無人系統(tǒng)的決策、規(guī)劃和控制提供地圖、環(huán)境約束和定位信息。
圖1 軍用地面無人機動平臺Fig.1 Military maneuvering unmanned ground platforms
運動規(guī)劃系統(tǒng)是指根據(jù)環(huán)境感知系統(tǒng)輸入的環(huán)境模型,考慮任務(wù)約束、環(huán)境約束、平臺自身的運動學(xué)和動力學(xué)約束等,生成能夠驅(qū)動動態(tài)非線性系統(tǒng)從初始狀態(tài)到達指定目標(biāo)狀態(tài)的控制參考輸入序列的系統(tǒng)[31]。該子系統(tǒng)的主要功能是根據(jù)任務(wù)要求、環(huán)境地圖或是先驗知識生成待執(zhí)行的無碰撞路徑或軌跡,作為控制系統(tǒng)的參考輸入,通常包括路徑規(guī)劃和軌跡規(guī)劃兩部分。
跟蹤控制系統(tǒng)是指根據(jù)控制參考輸入序列和控制律生成控制指令使得動態(tài)系統(tǒng)達到期望輸出結(jié)果的控制器[32]。對于地面無人機動平臺而言,跟蹤控制是指根據(jù)參考軌跡輸入和控制律生成車輛執(zhí)行器(如方向盤、電子油門、制動器)的控制命令使執(zhí)行器產(chǎn)生影響車輛運動的力或力矩。
平臺底盤系統(tǒng)是指由車輛底盤及相應(yīng)執(zhí)行器構(gòu)成受控的機械執(zhí)行系統(tǒng)。
除了包含上述必要組成部分,根據(jù)無人機動平臺所實現(xiàn)功能的不同和智能化程度的差異,有的系統(tǒng)還會包含遙控站、多車通信系統(tǒng)、任務(wù)規(guī)劃系統(tǒng)、人機交互系統(tǒng)等。
2.2 特點
作為移動機器人技術(shù)的一個分支和發(fā)展方向,地面無人機動平臺技術(shù)繼承了諸多機器人學(xué)的研究方法和研究成果,并在不斷發(fā)展和實際應(yīng)用中呈現(xiàn)出自己獨特技術(shù)特點。
2.2.1 移動速度比普通移動機器人更快,變化范圍更大
普通移動機器人的速度大多為0~10 km/h[33],而軍用地面無人機動平臺的行駛速度大多在10~60 km/h,有的甚至達到70 km/h以上[29]。無人機動平臺的行駛速度高,速度變化范圍大,這對感知系統(tǒng)和運動規(guī)劃系統(tǒng)的處理速度,控制系統(tǒng)的控制精度提出了更高的要求。在有擾動的環(huán)境中或高速情況下,點質(zhì)量模型、運動學(xué)模型已經(jīng)不能滿足規(guī)劃控制的需求,需要建立考慮平臺特性、輪胎(或履帶)模型、更精確的動力學(xué)模型,以適應(yīng)復(fù)雜場景和滿足高速情況下的控制需求。
2.2.2 操作的環(huán)境更復(fù)雜,范圍更大
與普通移動機器人活動的室內(nèi)環(huán)境或是范圍較小的室外環(huán)境相比,軍用地面無人機動平臺不僅能夠行駛在結(jié)構(gòu)化道路環(huán)境(城市環(huán)境)中,也要能夠行駛在非結(jié)構(gòu)化道路環(huán)境(越野環(huán)境)中,這使得其活動的環(huán)境更復(fù)雜,范圍更大。上述特點要求環(huán)境感知系統(tǒng)不僅要能夠識別出城市環(huán)境下可行駛的道路區(qū)域、交通信號燈、交通標(biāo)志、行人和車輛等,也要求其能夠識別出越野環(huán)境下可跨越的障礙(植被)、不可跨越的正障礙(如巖石、樹木等)、潛在的負(fù)障礙(如濠溝、懸崖)[18]。這對面向無人機動平臺應(yīng)用的環(huán)境感知研究提出了新的挑戰(zhàn)。
2.2.3 具有更強的承載能力和更長的續(xù)航能力
普通移動機器人大多承載能力有限,不能載人或載貨,并且續(xù)航能力較弱。軍用無人機動平臺由于軍事應(yīng)用需要,通常會搭載武器系統(tǒng)、搭載防護系統(tǒng)或用于運輸物資,同時,大部分任務(wù)也要求平臺能長時間運作(物資運輸、偵查、通信中轉(zhuǎn))。這些軍事應(yīng)用需要無人機動平臺具有更強的承載能力和更長的續(xù)航能力。例如,DARPA和陸軍對于UGCV項目的評估要求就包括:能夠完成為期14 d的任務(wù);一次填注燃料行駛里程不少于450 km;載荷比大于25%等。
2.2.4 對可靠性要求更高
軍用地面無人機動平臺通常工作在野外極端惡劣環(huán)境下,復(fù)雜地形、震動、沖擊載荷、灰塵、高低溫等因素給平臺的機械執(zhí)行系統(tǒng)和電控系統(tǒng)的可靠性與穩(wěn)定性帶來了嚴(yán)峻的挑戰(zhàn)。這就要求軍用地面無人平臺在設(shè)計之初就必須考慮系統(tǒng)結(jié)構(gòu)的設(shè)計、系統(tǒng)集成的設(shè)計、甚至是平臺的機構(gòu)設(shè)計,以確保平臺是自依賴的、可調(diào)整和可容錯的[34],從而保證系統(tǒng)的可靠與穩(wěn)定。
另外,軍用地面無人機動平臺主要功能、搭載武器系統(tǒng)、補給物資運輸或是作業(yè),其工作時難免會與人或與有人駕駛車輛交互,那么平臺控制系統(tǒng)的可靠性和穩(wěn)定性對于確保人的安全就顯得尤為重要。無人機動平臺從研究之初到現(xiàn)在,大部分平臺的自動控制系統(tǒng)都是通過外加電機、液壓控制閥等執(zhí)行機構(gòu)來實現(xiàn)縱向、橫向、檔位等的運動控制。這些額外的執(zhí)行機構(gòu)本身并不屬于原車底盤控制系統(tǒng),其安裝位置和控制參數(shù)很難調(diào)校,也無法保證外加機構(gòu)控制系統(tǒng)能與原車控制系統(tǒng)兼容[35];另外,這些外加的執(zhí)行器及其控制系統(tǒng)也會導(dǎo)致整個無人系統(tǒng)變得龐大、復(fù)雜,出錯概率大大增加。DARPA兩屆挑戰(zhàn)賽各個車隊出現(xiàn)的事故也證明這種實現(xiàn)方式并不合理。理想的、適用于無人駕駛的控制系統(tǒng)應(yīng)該采用線控方式實現(xiàn),有人駕駛與無人駕駛控制系統(tǒng)采用兩套不同的控制策略,但是共用一套出廠配置的電控執(zhí)行機構(gòu)。近年來越來越多的地面無人機動平臺采用線控方式實現(xiàn)自動控制,如牛津大學(xué)移動機器人小組的Robot Car無人駕駛汽車、北京理工大學(xué)智能車輛研究所的Ray無人駕駛汽車、戴姆勒股份公司的Bertha Benz無人駕駛汽車等。
3.1 環(huán)境感知技術(shù)
環(huán)境感知技術(shù)是無人機動平臺中最重要的一環(huán),無人機動平臺安全、穩(wěn)定行駛的首要前提是環(huán)境感知提供的世界環(huán)境模型、運動狀態(tài)和定位信息準(zhǔn)確,可靠。這里的環(huán)境感知不僅包括各種雷達和相機等構(gòu)成的能夠提供世界環(huán)境模型的視覺系統(tǒng),也包括由慣性導(dǎo)航元件、GPS等傳感器構(gòu)成的能提供平臺自身姿態(tài)、與環(huán)境相對位置或絕對位置信息的狀態(tài)估計系統(tǒng)。
3.1.1 視覺系統(tǒng)
地面無人機動平臺視覺系統(tǒng)的主要功能是障礙物檢測、可通行區(qū)域提取、運動估計、地圖創(chuàng)建等,其主要使用的傳感器包括主動視覺傳感器(激光雷達、毫米波雷達、超聲波雷達等)和被動視覺傳感器(單目相機、立體相機、全景相機、紅外相機等)。主動視覺傳感器因其能提供相對精確的距離信息,比較適合用于障礙物檢測和地圖構(gòu)建等。被動視覺傳感器因其數(shù)據(jù)包含的特征信息較多,比較適合用于路面提取、特征檢測與跟蹤、路標(biāo)的識別與匹配以及基于特征檢測的運動估計和定位等。
得益于傳感器技術(shù)和計算機視覺技術(shù)的飛速發(fā)展,針對地面無人機動平臺在越野環(huán)境下的視覺系統(tǒng)的研究取得了諸多進展,近些年的研究重點主要集中在越野路面識別與分類、各種類型的障礙物檢測??突仿〈髮W(xué)的Lalonde等采用局部點云統(tǒng)計分析方法并結(jié)合貝葉斯分類器識別車身周圍的網(wǎng)狀障礙物、線狀障礙物和面狀障礙物,用于Demo-ⅢXUV無人機動平臺的野外行駛路面分類[36]。美國噴氣推進實驗室(JPL)的Rankin等只使用立體相機采用二值化方法和通過性成本分析來構(gòu)建地圖,該方法可以檢測出樹干、樹支、陡坡、負(fù)障礙和水面等[37]。Milella等提出了一種基于毫米波雷達數(shù)據(jù)特征的自學(xué)習(xí)路面分類器[38],該方法包含在線自適應(yīng)學(xué)習(xí)階段和分類階段,能夠適應(yīng)遠距離、長航時和變化環(huán)境下的路面分類。
由于無人機動平臺行駛的環(huán)境較復(fù)雜,只依賴一種傳感器不可能完成所有的識別任務(wù)。構(gòu)建實時、多視角傳感器系統(tǒng),利用多模態(tài)傳感信息融合技術(shù)為地面無人機動平臺導(dǎo)航提供可靠、有效的信息成為當(dāng)今研究的熱點。Stentz等采用比較簡單的通過性成本估價函數(shù)來融合激光雷達和立體視覺等不同通道的傳感信息,形成地圖,供導(dǎo)航系統(tǒng)使用,該方法可以識別較大的正障礙和負(fù)障礙[39]。Bagnell等使用三維激光雷達點云信息結(jié)合多光譜顏色信息和紋理特征來提高越野路面檢測和路面分類的準(zhǔn)確性[40]。Peynot等通過多傳感器融合形成冗余以減小單傳感器在野外極端條件下(揚塵、霧天、雨天)檢測錯誤對系統(tǒng)的影響,提高感知系統(tǒng)的可靠性[41]。Zhao等設(shè)計了一個分層式傳感器融合系統(tǒng),采用卡爾曼濾波來實現(xiàn)物理層數(shù)據(jù)的融合,以便獲得統(tǒng)一、更精確詳細的特征信息;然后采用D-S證據(jù)理論進行上層數(shù)據(jù)融合,以提高識別效率和減小計算復(fù)雜度[42]。
3.1.2 狀態(tài)估計
為了更好地控制地面無人機動平臺的運動,準(zhǔn)確的平臺運動估計是必要的,特別是地面無人機動平臺裝備有懸掛系統(tǒng),行駛環(huán)境也較復(fù)雜,高速行駛在不平路面上時,必然會出現(xiàn)俯仰、側(cè)傾、橫滾、縱滑和側(cè)滑等。無人機動平臺的狀態(tài)估計主要是融合多種傳感器(陀螺儀、GPS、加速度計、羅盤等)信息,估計平臺的姿態(tài)、速度以及相對或絕對位置。平臺狀態(tài)估計主要分為兩大類:基于全球定位系統(tǒng)(GNSS)—慣性導(dǎo)航系統(tǒng)(INS)的組合導(dǎo)航系統(tǒng)和基于視覺的狀態(tài)估計。
在無遮擋的空曠環(huán)境下,GNSS(如GPS、北斗、伽利略定位系統(tǒng))能為無人機動平臺提供長時準(zhǔn)確的定位信息[43],然而城市環(huán)境、峽谷、密林等環(huán)境都可能導(dǎo)致GPS信號的瞬時丟失,使得定位效果變差或定位失敗。INS是指通過使用慣性測量元件(陀螺儀、加速度計、羅盤等)測量平臺的橫擺角速度和加速度等,通過積分獲取平臺相對定位信息的定位系統(tǒng)。INS自依賴,不受外界環(huán)境干擾,然而其慣性測量數(shù)據(jù)存在漂移現(xiàn)象,長時間累積會產(chǎn)生較大誤差,且無上界,因此INS只能保證短時定位精度。通過卡爾曼濾波算法、擴展卡爾曼濾波算法[44]或無跡卡爾曼濾波算法[45]融合兩系統(tǒng)定位數(shù)據(jù),結(jié)合兩種定位系統(tǒng)優(yōu)勢的組合導(dǎo)航系統(tǒng)成為無人機動平臺定位系統(tǒng)的主流。2007年,DARPA城市挑戰(zhàn)賽中,完成比賽的無人駕駛車輛幾乎都使用了GPS-INS組合導(dǎo)航系統(tǒng)[46-49]。但是,由于GPS-INS組合導(dǎo)航系統(tǒng)仍然依賴GPS,當(dāng)GPS丟失時間較長時,其定位精度也會變差。Ilyas等提出了一種利用集中式卡爾曼濾波根據(jù)傳感數(shù)據(jù)質(zhì)量有選擇地融合來自GPS、INS和里程計數(shù)據(jù)的組合導(dǎo)航方法,該方法在GPS信號較差的地方(密林、樓群里)也能保證可靠的定位結(jié)果[50]。
基于視覺的狀態(tài)估計主要是指視覺里程計(VO)和同時創(chuàng)建地圖與定位(SLAM)。傳統(tǒng)里程計主要是根據(jù)來自編碼器(光電式、磁電式、霍爾式等)的數(shù)據(jù)隨時間變化來估計平臺的位置或航向。這種方法在城市平坦道路上的估計精度較高,而在不平路面上,當(dāng)車輛出現(xiàn)縱滑或側(cè)滑時,誤差較大。根據(jù)圖像特征估計車輛運動狀態(tài)的VO則不受滑移和其他因素影響,并且VO成本較低、緊湊,相對位置誤差范圍較小,為0.1%~2%,因此VO被廣泛用于越野環(huán)境下和城市環(huán)境下的車輛定位[51]。典型的VO算法主要包括:可被跟蹤的特征點的檢測、連續(xù)幀圖像間的特征關(guān)聯(lián)或跟蹤、利用特征匹配進行運動參數(shù)估計。Nourani-Vatani等利用平臺非完整性約束和特征跟蹤進行運動估計的單目VO,并將其成功應(yīng)用于大型工業(yè)叉車和越野車的定位[52]。Howard等提出了一種使用立體視覺進行運動估計的VO,其誤差范圍限制到0.25%以內(nèi)。該里程計采用更完善更簡單的內(nèi)點檢測算法,對預(yù)處理過后的視差圖進行特征提取和特征匹配,然后再進行運動估計,實時性和可靠性都較高[53]。該方法已被用到DARPA LAGR項目平臺上和Big Dog軍用機器人上。為了提高定位系統(tǒng)的精度,Perlin等將VO和慣性測量單元(IMU)數(shù)據(jù)進行融合,提出了一種實時、適用于越野和城市環(huán)境下高速行駛應(yīng)用場景下的集成定位系統(tǒng)[54]。
同時建立地圖與定位(SLAM)是指無人機動平臺在未知環(huán)境中,根據(jù)傳感器信息在線增量式建立環(huán)境地圖,或是更新部分已知的地圖,同時確定車輛在地圖中的位置。其原理是利用擴展卡爾曼濾波[55]、無跡卡爾曼濾波[56]、稀疏擴展信息濾波[57]、Rao-Backwellized粒子慮波[58]等技術(shù)實現(xiàn)路標(biāo)估計、軌跡估計和車輛位置估計。經(jīng)過近30年的發(fā)展,在理論層面上,SLAM問題已經(jīng)基本被解決[59],然而其在具體應(yīng)用中仍呈現(xiàn)出諸多問題,目前其相關(guān)研究重點主要集中在計算復(fù)雜度、環(huán)境表示、數(shù)據(jù)關(guān)聯(lián)等方面的改進[60]。與其他增量式的位置估計方法相比,SLAM因使用更多的傳感器歷史信息,其定位結(jié)果產(chǎn)生的增量誤差更小。另外,SLAM采用數(shù)據(jù)關(guān)聯(lián)解決閉環(huán)問題,可以消除位置估計的累計誤差[61]。SLAM在解決大范圍動態(tài)環(huán)境,特別是GPS信號較弱或是不穩(wěn)定區(qū)域中無人機動平臺的長時間地圖重建和定位問題方面有著巨大潛力。因此,越來越多的研究者將SLAM用于地面無人機動平臺在復(fù)雜環(huán)境中的定位。Moosmann等提出一種只使用Velodyne三維激光雷達數(shù)據(jù)的SLAM方法,該方法被證明在不使用速度傳感器和其他信息的情況下,SLAM算法也能精確地建立地圖和定位,并且比組合導(dǎo)航精度更高,可用于精細的城市地圖構(gòu)建[61]。Cho等提出了針對無人機動平臺野外環(huán)境行駛的SLAM算法。該算法采用雙模糊C-均值聚類方法提取野外樹木特征點,并使用擴展卡爾曼濾波進行同時定位和建立地圖[62]。Tamjidi等融合激光雷達數(shù)據(jù)和單目相機數(shù)據(jù),提出了基于單點RANSAC-擴展卡爾曼濾波方法SLAM算法,用于無人機動平臺在無GPS信號環(huán)境下的位置估計,其估計誤差小于總路徑長度的1.9%[63].Su等提出了一種結(jié)合擴展卡爾曼濾波-無跡卡爾漫濾波的無人機動平臺的SLAM算法,該方法被證明比傳統(tǒng)擴展卡爾曼濾波-SLAM算法有更高的位置精度和航向精度[64]。
3.2 運動規(guī)劃技術(shù)
可靠和數(shù)值高效的運動規(guī)劃算法是無人機動平臺導(dǎo)航技術(shù)的核心,也是體現(xiàn)無人機動平臺智能化水平的關(guān)鍵技術(shù)。單一環(huán)境下的運動規(guī)劃問題已經(jīng)很具有挑戰(zhàn)性,在復(fù)雜(城市與越野)環(huán)境下的無人機動平臺的運動規(guī)劃需要考慮更多的約束:平臺底盤的運動學(xué)、動力學(xué)約束、環(huán)境約束、擾動的操作環(huán)境、狀態(tài)空間的高度不確定性等等。與此同時,無人機動平臺通常行駛速度較高,而且需要適應(yīng)動態(tài)環(huán)境的特點要求運動規(guī)劃系統(tǒng)能夠在有限的時間里生成一條滿足運動學(xué)、動力學(xué)約束的無碰撞軌跡。從運動規(guī)劃系統(tǒng)的結(jié)構(gòu)框架來說,運動規(guī)劃算法可以分成全局運動規(guī)劃方法、局部運動規(guī)劃方法、分層式運動規(guī)劃方法。
基于計算機圖形學(xué)的全局運動規(guī)劃方法[65],由于其不可接受的計算復(fù)雜度[66],要求已知完備的環(huán)境信息、重規(guī)劃耗時等原因,不適用于解決實際應(yīng)用中帶時間約束的運動規(guī)劃問題。與全局運動規(guī)劃方法相比,局部運動規(guī)劃方法[67-68]更高效,不需要完備的環(huán)境信息,并且可以考慮車輛的非完整性約束和動力學(xué)約束,但是這種方法只使用了局部環(huán)境信息或是局部最優(yōu),極有可能使規(guī)劃算法陷入局部最小??紤]到純?nèi)趾头磻?yīng)式運動規(guī)劃方法的局限,一種分層式的運動規(guī)劃方法[13,20,69-70]被提出。這種分層式的規(guī)劃架構(gòu)由全局路徑規(guī)劃器和局部軌跡規(guī)劃器組成,全局路徑規(guī)劃器主要生成滿足運動學(xué)約束的無碰撞路徑,提供引導(dǎo)信息來防止車輛陷入困境,局部軌跡規(guī)劃器主要考慮車輛運動學(xué)、動力學(xué)約束和安全性約束生成可行、平滑、無碰撞的候選軌跡,根據(jù)目標(biāo)函數(shù)選取最合適的待執(zhí)行軌跡。分層式運動規(guī)劃方法近年來被大量使用并取得了很好的效果。
從采用的技術(shù)來看,應(yīng)用于無人機動平臺的運動規(guī)劃方法主要有:基于搜索的運動規(guī)劃方法和基于最優(yōu)控制的運動規(guī)劃方法。
基于搜索的運動規(guī)劃方法主要是指采用搜索技術(shù)進行幾何運動單元拼接生成距離最短的無碰撞路徑,這種方法多用于全局路徑規(guī)劃和自由區(qū)域的路徑規(guī)劃。通過這種方法生成的路徑能保證滿足車輛運動學(xué)約束,距離最短且無碰撞。DARPA舉辦的兩屆挑戰(zhàn)賽中,大部分隊伍使用了基于搜索的運動規(guī)劃方法?;谒阉鞯倪\動規(guī)劃方法所采用的運動單元主要是直線(4、8、16連接?xùn)鸥竦仁褂玫倪\動單元)、Dubin運動單元[71]、Reeds-Shepp運動單元[72]、狀態(tài)網(wǎng)格運動單元[73]等。這種方法通過將車輛運動學(xué)和動力學(xué)約束嵌入到運動單元中離線生成,減少路徑生成過程中的計算量,同時保證生成路徑的可行性;所采用的搜索方法主要是Dijkstra[74]、A*[75]、D*[76]及其變種等。其中AD*[77]算法同時具有實時性和增量性,適合于解決動態(tài)、復(fù)雜環(huán)境下的路徑規(guī)劃問題,在DARPA城市挑戰(zhàn)賽中成功應(yīng)用于BOSS智能車自由空間、停車場內(nèi)、錯誤恢復(fù)場景下的路徑規(guī)劃系統(tǒng)中[78]?;谒阉鞯倪\動規(guī)劃的方法的局限是,不適合用于解決帶時間約束和密集動態(tài)障礙場景下的運動規(guī)劃問題和高維運動規(guī)劃問題。
基于優(yōu)化的運動規(guī)劃方法,指的是把路徑規(guī)劃問題轉(zhuǎn)化成帶約束的最優(yōu)化數(shù)值求解問題的一類方法。這類方法因為能生成滿足車輛動力學(xué)約束、最優(yōu)或局部最優(yōu)的路徑和軌跡而受到廣泛關(guān)注。其中一種方法是將無人機動平臺的運動規(guī)劃問題轉(zhuǎn)化成兩點邊界值問題求解。這種方法為了簡化運動規(guī)劃問題,通常采用固定類型的曲線,如B樣條曲線[79]、五次多項式曲線[80]、立體螺旋線[81],連接起始點和目標(biāo)點。這種方法的難點是如何滿足邊界約束(如曲率上界)。Kelly等將從起始點到達目標(biāo)點的運動規(guī)劃問題首先轉(zhuǎn)化為最優(yōu)控制問題,通過參數(shù)形式表示車輛系統(tǒng)動力學(xué)方程,進而將問題轉(zhuǎn)化成參數(shù)優(yōu)化問題,不斷迭代優(yōu)化參數(shù),直至生成到達終點狀態(tài)的軌跡[82],但是其生成的軌跡只是空間曲線,只包含橫向控制量,沒有縱向控制量。Delsart等后來在此基礎(chǔ)上提出Tiji算法[83],加入時間約束,同時進行橫向和縱向規(guī)劃,使得車輛能在指定的時間內(nèi)到達目標(biāo)點或目標(biāo)點附近。這種方法采用參數(shù)方程表征軌跡簇,降低了搜索空間的維數(shù),大大提高了軌跡生成的效率,而且可以加入非線性不等式約束,適用于解決帶非完整性約束的智能車輛運動規(guī)劃問題,其難點是初始軌跡的估計。
除了上述兩大類方法外,應(yīng)用于無人機動平臺的運動規(guī)劃的方法還有RRT及其變種[84-85]、道路圖[86]、支持向量機[87]等方法。
3.3 跟蹤控制技術(shù)
無人機動平臺跟蹤控制技術(shù)是實現(xiàn)自動控制的保障,也是實現(xiàn)自主導(dǎo)航的關(guān)鍵部分,大部分智能行為都必須依賴跟蹤控制技術(shù)實現(xiàn)。無人機動平臺屬于控制輸入量比狀態(tài)變量少的欠驅(qū)動系統(tǒng),其高度的非線性、子系統(tǒng)間強耦合的特性,使得研究者較難建立精確的車輛系統(tǒng)動力學(xué)模型用于設(shè)計控制律。地面無人機動平臺的動力系統(tǒng)通常比較復(fù)雜,具有強非線性和遲滯性,而轉(zhuǎn)向系統(tǒng)相對較簡單,也較靈敏,所以為了達到更好的控制效果,跟蹤控制系統(tǒng)通常會采用兩種控制方法分別實現(xiàn)對橫向(轉(zhuǎn)向)和縱向(速度)的控制。
比例-積分-微分(PID)控制器是一種在工程上廣泛采用并取得成功的線性控制器。其優(yōu)點是不需要建立系統(tǒng)模型,控制參數(shù)可以通過試湊法得出。其缺點是耗時,需要大量的實驗工作。這類方法中PI控制器通常用于無人機動平臺的縱向跟蹤控制,而PD控制器通常用于無人機動平臺的橫向控制。2007年,在DARPA舉辦的城市挑戰(zhàn)賽中,Leonard等使用低頻寬PI控制器對縱向速度進行跟蹤控制[88],Bacha等將map-linearized PID控制器用于車輛的速度控制,采用速率控制PID跟蹤轉(zhuǎn)向角和轉(zhuǎn)向速率[89]。
基于幾何分析的路徑跟蹤控制器主要是通過根據(jù)車輛與參考路徑或軌跡的幾何位置關(guān)系,設(shè)計控制律來解決跟蹤問題的一類控制方法。這類方法被主要應(yīng)用于無人機動平臺的橫向控制。純跟蹤控制器[90-91]是其中典型的代表,其實質(zhì)是一種將自身位置與預(yù)瞄處的期望位置的橫向偏差轉(zhuǎn)化為橫向控制量的比例控制器。該方法魯棒性較好,即使是在有較大橫向偏差和參考路徑曲率不連續(xù)的情況下也能達到很好的跟蹤效果。其缺點是預(yù)瞄距離受較多參數(shù)(參考路徑曲率、車速、橫向偏差等)的影響,較難選取,很難在保證較強跟蹤能力的同時也保證穩(wěn)定性。Urmson等將該方法應(yīng)用于越野環(huán)境下CMU兩輛無人車的路徑跟蹤[92]。Leonard等將其應(yīng)用于城市環(huán)境下MIT無人車的橫向跟蹤控制[88]。Valois等將其用于黑騎士無人裝甲車在越野環(huán)境下有GPS路點引導(dǎo)的路徑跟蹤[28]。另一種比較有特點的控制器是Stanley橫向跟蹤方法[93],其實質(zhì)是一種只考慮橫向偏差的非線性反饋控制器。該方法在多數(shù)情況下的表現(xiàn)比純跟蹤更好,但是由于它沒有考慮參考路徑的形狀,因此這種方法不適合用于非連續(xù)曲率路徑的跟蹤,并且在較大橫向誤差下的效果較差[94]。
前饋-反饋跟蹤控制器是近年來采用較多的一類跟蹤控制方法,主要由一個前饋控制器和一個反饋控制器構(gòu)成。前饋控制器主要進行來參考路徑曲率變化的干擾量補償,反饋控制器主要通過根據(jù)車輛狀態(tài)反饋調(diào)整控制輸入使得擾動和模型誤差對跟蹤的影響最小化,使車輛更接近期望路徑并保持穩(wěn)定。斯坦福大學(xué)DDL實驗室的Kritayakirana等將這種方法應(yīng)用于無人駕駛賽車的橫向跟蹤控制[95],戴姆勒股份公司的Bertha Benz無人駕駛汽車采用該種方法用于橫向跟蹤控制[96]。
基于最優(yōu)化的跟蹤控制器指的是基于最優(yōu)化原理建立的反饋控制器。最典型的就是線性二次型調(diào)節(jié)器(LQR)跟蹤控制器和模型預(yù)測控制(MPC)跟蹤控制器。LQR控制器是將非線性控制系統(tǒng)簡化成線性控制系統(tǒng),然后使用LQR跟蹤路徑。該方法最早是由Divelbiss等于1997年用于拖車的路徑跟蹤問題[97],后來Snider設(shè)計了一種帶前饋的離散有限時域LQR控制器用于無人機動平臺的橫向跟蹤控制仿真[94]。Levinson等將這種方法應(yīng)用于斯坦福大學(xué)無人駕駛汽車Junior的橫向和縱向綜合控制[98]。LQR控制器比較適合用于高速公路上的無人駕駛和大部分城市場景下的路徑跟蹤,但是這種方法無法處理約束,并且將非線性系統(tǒng)進行線性化近似處理,沒有考慮參考路徑形狀對控制系統(tǒng)的影響,所以該方法對曲率突變敏感,在突變曲率輸入情況下會有超調(diào)。MPC控制器也叫做滾動時域控制器,該控制器考慮控制系統(tǒng)的非線性動力學(xué)模型并預(yù)測未來一段時間內(nèi)系統(tǒng)的輸出行為,通過解決帶約束的最優(yōu)控制問題使得系統(tǒng)在未來一段時間內(nèi)的跟蹤誤差最小。這種方法魯棒性較強。Falcone等分別使用車輛的非線性模型和在線連續(xù)線性化模型建立模型預(yù)測控制器用于無人駕駛車輛的橫向跟蹤控制,其在冰面上的測試速度最高可達到21 m/s[99].Yoon等考慮非線性車輛模型和輪胎模型,設(shè)計了非線性模型預(yù)測控制器用于XAV無人機動平臺的橫縱向跟蹤控制,同時實現(xiàn)了避障功能[100]。Ziegler和Geiger等采用模型預(yù)測控制器進行Betha Benz和AnnieWay無人駕駛汽車的縱向跟蹤控制[96,101]。
除了上述介紹方法,用于地面無人機動平臺的跟蹤控制算法還包括滑模控制[102],模糊控制[103],神經(jīng)網(wǎng)絡(luò)控制[104]等。
地面無人機動平臺在過去幾十年間取得了突飛猛進的發(fā)展,展現(xiàn)出其在軍用和民用領(lǐng)域潛在的應(yīng)用前景。本文首先從廣義和狹義上定義了地面無人機動平臺,然后闡述了軍用地面無人機動平臺的發(fā)展歷程,分析了軍用地面無人機動平臺的基本組成和發(fā)展特點,總結(jié)了軍用地面無人機動平臺各子系統(tǒng)在發(fā)展過程中的關(guān)鍵技術(shù)。軍用無人機動平臺今后的研究重點將集中在:
1)多傳感器多模態(tài)傳感器信息融合方法的研究;基于機器學(xué)習(xí)技術(shù)的障礙物、路面檢測和分類方法的研究。
2)GNSS、INS、VO和SLAM各定位子系統(tǒng)互補的高精度、長航時、大范圍動態(tài)場景下的組合導(dǎo)航定位系統(tǒng)的研究。
3)考慮欠驅(qū)動系統(tǒng)動力學(xué)模型、帶約束的最優(yōu)控制實時軌跡規(guī)劃算法的研究;針對動態(tài)場景的快速動態(tài)重規(guī)劃路徑規(guī)劃算法的研究。
4)考慮精確車輛動力學(xué)的多約束非線性模型預(yù)測控制算法的研究;基于機器學(xué)習(xí)的路徑跟蹤智能控制方法的研究。
5)面向用途和任務(wù)的高集成度、模塊化的通用無人機動平臺機電一體化設(shè)計技術(shù)的研究;以混合動力為主的電驅(qū)動技術(shù)、電傳動技術(shù),輕量化、高通過性、高機動性的底盤設(shè)計技術(shù)的研究。
(References)
[1] 陳慧巖,熊光明,龔建偉,等.無人駕駛汽車概論[M].北京:北京理工大學(xué)出版社,2014.
CHEN Hui-yan,XIONG Guang-ming,GONG Jian-wei,et al.Introduction to self-driving car[M].Beijing:Beijing Institute of Technology Press,2014.(in Chinese)
[2] Gage D W.UGV history 101:a brief history of unmanned ground vehicle(UGV)development efforts,ADA422845[R].San Diego:Naval Command Control and Ocean Surveillance Center,1995.
[3] Carlson J.Analysis of how mobile robots fail in the field[D]. Florida:University of South Florida,2004.
[4] Liu X,Dai B.The latest status and development trends of military unmanned ground vehicles[C]∥2013 Chinese Automation Congress.Changsha,Hunan:IEEE,2013:533-577.
[5] Toscano M.Department of defense joint robotics program[C]∥AeroSense 2000.Orlando,FL,US:SPIE,2000:192-200.
[6] Spofford J R,Rimey R D.Description of the UGV/Demo II system[C]∥Proceedings of Association for Unmanned Vehicle Systems International Conference.US:AUVSI,1997:255-264.
[7] Shoemaker C M,Bornstein J A.Overview of the Demo III UGV program[C]∥Robotic and Semi-Robotic Ground Vehicle Technology.US:SPIE,1998:202-211.
[8] Krotkov E,Blitch J.The defense advanced research projects agency(DARPA)tactical mobile robotics program[J].The International Journal of Robotics Research,1999,18(7):769-776.
[9] Fish S.Overview of UGCV and PerceptOR status[C]∥Unmanned Ground Vehicle Technology V.Orlando,Florida:SPIE,2003: 336-339.
[10] Van Fosson M H,Fish S.Role of robotics in ground combat of the future:UGCV,PreceptOR,and FCS[C]∥Unmanned Ground Vehicle TechnologyⅢ.Orlando,Florida:SPIE,2001: 323-327.
[11] Fish S.UGVs in future combat systems[C]∥Defense and Security Symposium.Orlando,Florida:SPIE,2004:288-291.
[12] Jackel L D,Krotkov E,Perschbacher M,et al.The DARPA LAGR program:goals,challenges,methodology,and phase I results[J].Journal of Field Robotics,2006,23(11/12):945-973.
[13] Stentz A,Bares J,Pilarski T,et al.The crusher system for autonomous navigation[C]∥AUVSIs Unmanned Systems North A-merica.Las Vegas:Association for Unmanned Vehicle Systems International-UnmannedSystemsNorthAmericaConference, 2007:972-986.
[14] 張浩杰.不確定環(huán)境下基于啟發(fā)式搜索的智能車輛路徑規(guī)劃研究[D].北京:北京理工大學(xué),2012.
ZHANG Hao-jie.Research on path planning for intelligent vehicle with heuristic search under uncertain environments[D].Beijing:Beijing Institute of Technology,2012.(in Chinese)
[15] Buehler M,Iagnemma K,Singh S.The 2005 DARPA grand challenge[J].Springer Tracts in Advanced Robotics,2007, 36(5):1-43.
[16] The DARPA urban challenge:autonomous vehicles in city traffic[M]. Berlin Heidelberg:Springer International Publishing,2009.
[17] Wilson J R.Driving Force:DARPA's Research efforts lead to advancements in robotics and autonomous navigation[M]∥DARPA:50 years of bridging the cap.US:Faircount LLC Publishing,2008:45-57.
[18] Bagnell J A,Bradley D,Silver D,et al.Learning for autonomous navigation[J].IEEE Robotics&Automation Magazine, 2010,17(2):74-84.
[19] Kerbrat A.Autonomous platform demonstrator,21395[R].US: Army Tank Automotive Research Development and Engineering Center,2010.
[20] Zych N,Silver D,Stager D,et al.Achieving integrated convoys:cargo unmanned ground vehicle development and experimentation[C]∥SPIE Defense,Security,and Sensing.US:International Society for Optics and Photonics,2013.
[21] Theisen B.Autonomous Mobility Applique System(AMAS), 22434[R].US:Army Tank Automotive Research Development and Engineering Center,2011.
[22] Satterfield B,Choxi H,Salamon A,et al.Advancing robotics: the urban challenge effect[J].Journal of Aerospace Computing, Information,and Communication,2008,5(12):530-542.
[23] Czapla T,Wrona J.Technology development of military applications of unmanned ground vehicles[M]∥Nawrat A,Kus Z.Vision based systems for UAV applications.Germany:Springer International Publishing,2013:293-309.
[24] Raibert M,Blankespoor K,Nelson G,et al.Bigdog,the roughterrain quadruped robot[C]∥Proceedings of the 17th World Congress.Seoul:The International Federation of Automatic Control,2008:10823-10825.
[25] Playter R,Buehler M,Raibert M.BigDog[C]∥Unmanned Systems Technology VIII.US:International Society for Optics and Photonics,2006.
[26] Holste S T,Ciccimaro D A,Dudenhoeffer D D.Increasing the mobility of dismounted marines small unit mobility enhancement technologies:unmannedgroundvehiclesmarketsurvey, ADA513828[R].San Diego:Space and Naval Warfare Systems Center Pacific,2009.
[27] ELIá? J,RAKúSOVá D.Trends of development in unmanned military motor vehicles[J].University Review,2013,7(3): 8-14.
[28] Valois J S,Herman H,Bares J,et al.Remote operation of the Black Knight unmanned ground combat vehicle[C]∥SPIE Defense and Security Symposium.US:International Society for Optics and Photonics,2008.
[29] Czapla T,Wrona J.Technology development of military applications of unmanned ground vehicles[M]∥Nawrat A,Kus Z.Vision based systems for UAV applications.Germany:Springer International Publishing,2013:293-309.
[30] Kilitci S,Buyruk M.An analysis of the best available unmanned ground vehicle in the current market with respect to the requirements of the turkish ministry of national defense,ADA555973[R]. Monterey:Naval Postgraduate School,2011.
[31] LaValle S M.Planning algorithms[M].Cambridge:Cambridge University Press,2006.
[32] Kendoul F.Survey of advances in guidance,navigation,and control of unmanned rotorcraft systems[J].Journal of Field Robotics,2012,29(2):315-378.
[33] Kobilarov M,Sukhatme G,Hyams J,et al.People tracking and following with mobile robot using an omnidirectional camera and a laser[C]∥2006 IEEE International Conference on Robotics and Automation.Orlando:IEEE,2006:557-562.
[34] Nguyen-Huu P N,Titus J,Tilbury D,et al.Reliability and failure in unmanned ground vehicle(UGV),GRRC Technical Report 2009-01[R].US:GRRC,2009.
[35] Appelqvist P,Knuuttila J,Ahtiainen J.Mechatronics design of an unmanned ground vehicle for military applications[J]. Mechatronic Systems Applications,2011,1(3):237-261.
[36] Lalonde J F,Vandapel N,Huber D F,et al.Natural terrain classification using three-dimensional ladar data for ground robot mobility[J].Journal of Field Robotics,2006,23(10):839-861.
[37] Rankin A L,Huertas A,Matthies L H.Stereo-vision-based terrain mapping for off-road autonomous navigation[C]∥SPIE Defense,Security,and Sensing.US:International Society for Optics and Photonics,2009.
[38] Milella A,Reina G,Underwood J.A self-learning framework for statistical ground classification using radar and monocular vision[J]. Journal of Field Robotics,2014,31(4).doi:10.1002/rob. 21512.
[39] Stentz A,Kelly A,Rander P,et al.Real-time,multi-perspective perception for unmanned ground vehicles[C]∥AUVSI Unmanned Systems Symposium.US:AUVSI,2003.
[40] Bagnell J A,Bradley D,Silver D,et al.Learning for autonomous navigation[J].IEEE Robotics&Automation Magazine, 2010,17(2):74-84.
[41] Peynot T,Underwood J,Scheding S.Towards reliable perception for unmanned ground vehicles in challenging conditions[C]∥2009 IEEE/RSJ International Conference on Intelligent Robots and Systems.US:IEEE,2009:1170-1176.
[42] Zhao Y,Li J,Li L,et al.Environmental perception and sensor data fusion for unmanned ground vehicle[J].Mathematical Problems in Engineering,2013,2013(9):903951-903963.
[43] Silver D,Stentz A.Monte Carlo localization and registration to prior data for outdoor navigation[C]∥2011 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). San Francisco:IEEE,2011:510-517.
[44] Guo H D.Neural network aided kalman filtering for integrated GPS/INS Navigation System[J].Telkomnika Indonesian Journal of Electrical Engineering,2013,11(3):1221-1226.
[45] Qian H,An D,Xia Q.IMM-UKF based land-vehicle navigation with low-cost GPS/INS[C]∥IEEE International Conference on InformationandAutomation(ICIA).US:IEEE,2010:2031-2035.
[46] Urmson C,Anhalt J,Bagnell D,et al.Autonomous driving in urban environments:boss and the urban challenge[J].Journal of Field Robotics,2008,25(8):425-466.
[47] Montemerlo M,Becker J,Bhat S,et al.Junior:the stanford entry in the urban challenge[J].Journal of Field Robotics,2008, 25(9):569-597.
[48] Leonard J,How J,Teller S,et al.A perception-driven autonomous urban vehicle[J].Journal of Field Robotics,2008,25(10): 727-774.
[49] Patz B J,Papelis Y,Pillat R,et al.A practical approach to robotic design for the DARPA urban challenge[J].Journal of Field Robotics,2008,25(8):528-566.
[50] Ilyas M,Cho K,Park S,et al.Dependable navigation in GPS denied environment:a multi-sensor fusion technique[C]∥2013 44th International Symposium on Robotics.Seoul:ISR,2013: 1-6.
[51] Scaramuzza D,Fraundorfer F.Visual odometry(tutorial)[J]. IEEE Robotics&Automation Magazine,2011,18(4):80-92.
[52] Nourani-Vatani N,Roberts J,Srinivasan M V.Practical visual odometry for car-like vehicles[C]∥2009 IEEE International Conference on Robotics and Automation.US:IEEE,2009:3551 -3557.
[53] Howard A.Real-time stereo visual odometry for autonomous ground vehicles[C]∥2009 IEEE/RSJ International Conference on Intelligent Robots and Systems.France:IEEE,2008: 3946-3952.
[54] Perlin V E,Johnson D B,Rohde M M,et al.Fusion of visual odometry and inertial data for enhanced real-time egomotion estimation[C]∥SPIE Defense,Security,and Sensing.Prague:International Society for Optics and Photonics,2011:80450K-80450K-12.
[55] Thrun S,Burgard W,Fox D.Probabilistic robotics[M].Massachusetts:MIT press,2005.
[56] Chekhlov D,Pupilli M,Mayol-Cuevas W,et al.Real-time and robust monocular SLAM using predictive multi-resolution descriptors[M]∥Bebis G,Molineros J,Theisel H,et al.Advances in visual computing.Berlin Heidelberg:Springer International Publishing,2006:276-285.
[57] Thrun S,Liu Y,Koller D,et al.Simultaneous localization and mapping with sparse extended information filters[J].The International Journal of Robotics Research,2004,23(7/8):693-716.
[58] Grisetti G,Stachniss C,Burgard W.Improved techniques for grid mapping with rao-blackwellized particle filters[J].IEEE Transactions on Robotics,2007,23(1):34-46.
[59] Durrant-Whyte H,Bailey T.Simultaneous localization and mapping:partⅠ[J].IEEE Robotics&Automation Magazine, 2006,13(2):99-110.
[60] Bailey T,Durrant-Whyte H.Simultaneous localization and mapping(SLAM):PartⅡ[J].IEEE Robotics&Automation Magazine,2006,13(3):108-117.
[61] Moosmann F,Stiller C.Velodyne slam[C]∥2011 IEEE Intelligent Vehicles Symposium(Ⅳ).Spain:IEEE,2011:393-398.
[62] Cho K,Baeg S H,Park S.Natural terrain detection and SLAM using LIDAR for an UGV[M]∥Lee S,Yoon K J,Lee J.Frontiers of intelligent autonomous systems.Berlin Heidelberg: Springer,2013:263-275.
[63] Tamjidi A,Ye C.A pose estimation method for unmanned ground vehicles in GPS denied environments[C]∥SPIE defense,Security,and Sensing.USA:International Society for Optics and Photonics,2012:83871K-83871K-12.
[64] Su K J,Dong Z D,Huang Z.Novel SLAM algorithm for UGVs based on unscented Kalman filtering[C]∥2012 IEEE International Conference on Computer Science and Automation Engineering(CSAE).Zhangjiajie:IEEE,2012.
[65] Principles of robot motion:theory,algorithms,and implementation[M].Massachusetts:MIT press,2005.
[66] Petti S,Fraichard T.Safe motion planning in dynamic environments[C]∥2005 IEEE/RSJ International Conference on Intelligent Robots and Systems.Edmonton:IEEE,2005:2210-2215.
[67] Fox D,Burgard W,Thrun S.The dynamic window approach to collision avoidance[J].IEEE Robotics&Automation Magazine, 1997,4(1):23-33.
[68] Fiorini P,Shiller Z.Motion planning in dynamic environments using velocity obstacles[J].The International Journal of Robotics Research,1998,17(7):760-772.
[69] Cowlagi R V,Tsiotras P.Hierarchical motion planning with dynamical feasibility guarantees for mobile robotic vehicles[J]. IEEE Transactions on Robotics,2012,28(2):379-395.
[70] Ferguson D,Howard T M,Likhachev M.Motion planning in urban environments[J].Journal of Field Robotics,2008, 25(11/12):939-960.
[71] Dubins L E.On curves of minimal length with a constraint on average curvature,and with prescribed initial and terminal positions and tangents[J].American Journal of Mathematics,1957, 79(3):497-516.
[72] Reeds J,Shepp L.Optimal paths for a car that goes both forwards and backwards[J].Pacific Journal of Mathematics, 1990,145(2):367-393.
[73] Pivtoraiko M,Kelly A.Kinodynamic motion planning with state lattice motion primitives[C]∥2011 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS).San Francisco:IEEE,2011:2172-2179.
[74] Dijkstra E W.A note on two problems in connexion with graphs[J]. Numerische mathematik,1959,1(1):269-271.
[75] Hart P E,Nilsson N J,Raphael B.A formal basis for the heuristic determination of minimum cost paths[J].IEEE Transactions on Systems Science and Cybernetics,1968,4(2):100-107.
[76] Stentz A.The focussed D*algorithm for real-time replanning[C]∥1995 International Joint Conferences on Artificial Intelligence. Montreal:IJCAI,1995,95:1652-1659.
[77] Likhachev M,Ferguson D I,Gordon G J,et al.Anytime dynamic A*:an anytime,re-planning algorithm[C]∥2005 Interna-tional ConferenceonAutomatedPlanningandScheduling. Monterey:ICAPS,2005:262-271.
[78] Likhachev M,Ferguson D.Planning long dynamically feasible maneuvers for autonomous vehicles[J].The International Journal of Robotics Research,2009,28(8):933-945.
[79] Komoriya K,Tanie K.Trajectory design and control of a wheeltype mobile robot using B-spline curve[C]∥The Autonomous Mobile Robots and Its Applications,IROS'89.Tsukuba:IEEE, 1989:398-405.
[80] Takahashi A,Hongo T,Ninomiya Y,et al.Local path planning and motion control for Agv in positioning[C]∥The Autonomous Mobile Robots and Its Applications,IROS'89.Tsukuba:IEEE, 1989:392-397.
[81] Kanayama Y,Hartman B I.Smooth local path planning for autonomous vehicles[M]∥Cox I J,Wilfong G T,Lozano-Perez T. Autonomous robot vehicles.New York:Springer,1990:62-67. [82] Kelly A,Nagy B.Reactive nonholonomic trajectory generation via parametric optimal control[J].The International Journal of Robotics Research,2003,22(7-8):583-601.
[83] Delsart V,Fraichard T,Martinez L.Real-time trajectory generation for car-like vehicles navigating dynamic environments[C]∥2009 IEEE International Conference on Robotics and Automation.Kobe:IEEE,2009:3401-3406.
[84] Kuwata Y,Fiore G A,Teo J,et al.Motion planning for urban driving using RRT[C]∥2008 IEEE/RSJ International Conference on Intelligent Robots and Systems.France:IEEE,2008: 1681-1686.
[85] Karaman S,Walter M R,Perez A,et al.Anytime motion planning using the RRT*[C]∥2011 IEEE International Conference onRoboticsandAutomation.Shanghai:IEEE,2011: 1478-1483.
[86] Giesbrecht J.Global path planning for unmanned ground vehicles,ADA436274[R].US:Defence Research And Development Suffield(Alberta),2004.
[87] Chen Q Y,Sun Z P,Liu D X,et al.Local path planning for an unmanned ground vehicle based on SVM[J].International Journal of Advanced Robotic Systems,2012,9(246).doi:10. 5772/54130.
[88] Leonard J,How J,Teller S,et al.A perception‐driven autonomous urban vehicle[J].Journal of Field Robotics,2008,25(10): 727-774.
[89] Bacha A,BaumanC,FaruqueR,etal.Odin:Team victortango's entry in the DARPA Urban Challenge[J].Journal of Field Robotics,2008,25(8):467-492.
[90] Coulter R C.Implementation of the pure pursuit path tracking algorithm,ADA255524[R].Pittsburgh:Carnegie Mellon University,the Robotics Institute,1992.
[91] Kelly A.A feed-forward control approach to the local navigation problem for autonomous vehicles[M].Pittsburgh:Carnegie Mellon University,the Robotics Institute,1994.
[92] Urmson C,Ragusa C,Ray D,et al.A robust approach to high‐speed navigation for unrehearsed desert terrain[J].Journal of Field Robotics,2006,23(8):467-508.
[93] Thrun S,Montemerlo M,Dahlkamp H,et al.Stanley:the robot that won the DARPA grand challenge[J].Journal of Field Robotics,2006,23(9):661-692.
[94] Snider J M.Automatic steering methods for autonomous automobile path tracking,CMU-RI-TR-09-08[R].Pittsburgh:Carnegie Mellon University,the Robotics Institute,2009.
[95] Kritayakirana K,Gerdes J C.Using the centre of percussion to design a steering controller for an autonomous race car[J].Vehicle System Dynamics,2012,50(S1):33-51.
[96] Ziegler J,Bender P,Schreiber M,et al.Making bertha drive-an autonomous journey on a historic route[J].IEEE Intelligent Transportation Systems Magazine,2014,6(2):8-20.
[97] Divelbiss A W,Wen J T.Trajectory tracking control of a cartrailer system[J].Control Systems Technology,IEEE Transactions on,1997,5(3):269-278.
[98] Levinson J,Askeland J,Becker J,et al.Towards fully autonomous driving:Systems and algorithms[C]∥2011 IEEE Intelligent Vehicles Symposium(IV).Spain:IEEE,2011:163-168.
[99] Falcone P,Borrelli F,Asgari J,et al.Predictive active steering control for autonomous vehicle systems[J].IEEE Transactions on Control Systems Technology,2007,15(3):566-580.
[100] Yoon Y,Shin J,Kim H J,et al.Model-predictive active steering and obstacle avoidance for autonomous ground vehicles[J]. Control Engineering Practice,2009,17(7):741-750.
[101] Geiger A,Lauer M,Moosmann F,et al.Team AnnieWAY's entry to the 2011 grand cooperative driving challenge[J].IEEE Transactions onIntelligentTransportationSystems,2012, 13(3):1008-1017.
[102] Tran T H,Nguyen M T,Kwok N M,et al.Sliding Mode-PID approach for robust low-level control of a UGV[C]∥2006 IEEE International Conference on Automation Science and Engineering.Shanghai:IEEE,2006:672-677.
[103] Ma Y,Xiang C,Zhu Q,et al.Design of fuzzy enhanced hierarchical motion stabilizing controller of unmanned ground vehicle in three dimensional space[J].International Journal of Computational Intelligence Systems,2011,4(6):1168-1178.
[104] Xu X,He H G.Neural-network-based learning control for the high-speed path tracking of unmanned ground vehicles[C]∥Proceedings of the International Conference on Machine Learning and Cybernetics,2002.Beijing:IEEE,2002:1652-1656.
An Overview of Research on Military Unmanned Ground Vehicles
CHEN Hui-yan,ZHANG Yu
(School of Mechanical Engineering,Beijing Institute of Technology,Beijing 100081,China)
Unmanned ground vehicles(UGVs),which are of great strategic significance for developing high maneuvering unmanned ground combat systems,have become a research hotspot of defense technology.The development and current progress of UGVs for military application are reviewed.The fundamental components and development characteristics of military UGVs are stated and analyzed.The key technologies of military UGVs are also summarized in the areas of sensing and perception,motion planning and path tracking.In addition,the future research direction and focus of military UGVs are suggested.
ordnance science and technology;military maneuvering unmanned ground vehicle;environmental perception;motion planning;path tracking
TP242
A
1000-1093(2014)10-1696-11
10.3969/j.issn.1000-1093.2014.10.026
2014-07-21
國家自然科學(xué)基金項目(91120010)
陳慧巖(1961—),男,教授,博士生導(dǎo)師。E-mail:chen_h_y@263.net;張玉(1989—),男,博士研究生。E-mail:yu.zhang.bit@gmail.com