• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    軍用地面無人機動平臺技術(shù)發(fā)展綜述

    2014-06-27 05:41:50陳慧巖張玉
    兵工學(xué)報 2014年10期
    關(guān)鍵詞:控制器車輛規(guī)劃

    陳慧巖,張玉

    (北京理工大學(xué)機械與車輛學(xué)院,北京 100081)

    軍用地面無人機動平臺技術(shù)發(fā)展綜述

    陳慧巖,張玉

    (北京理工大學(xué)機械與車輛學(xué)院,北京 100081)

    地面無人機動平臺對發(fā)展高機動地面無人戰(zhàn)斗系統(tǒng)具有重要的戰(zhàn)略意義,是當(dāng)前各國國防科技領(lǐng)域的研究熱點。文中綜述了軍用地面無人機動平臺的發(fā)展歷程與最新進展,分別闡述和分析了其基本組成和發(fā)展特點,然后從環(huán)境感知、運動規(guī)劃、跟蹤控制等方面總結(jié)了軍用地面無人機動平臺發(fā)展中的關(guān)鍵技術(shù),并對軍用無人機動平臺的研究方向和研究重點進行了展望。

    兵器科學(xué)與技術(shù);軍用地面無人機動平臺;環(huán)境感知;運動規(guī)劃;路徑跟蹤

    0 引言

    地面無人機動平臺,作為智能交通系統(tǒng)(ITS)和未來戰(zhàn)斗系統(tǒng)的一個重要組成部分,在民用領(lǐng)域和軍用領(lǐng)域都具有廣泛的應(yīng)用前景[1]。廣義上來說,地面無人機動平臺指的是任何能夠在地面上移動,并進行承載或運輸裝備或人員,但是不搭載駕駛員的機器設(shè)備[2];狹義上講,指的是能感知環(huán)境并與環(huán)境交互、能自主行駛的地面移動機器設(shè)備[3]。在軍用領(lǐng)域,地面無人機動平臺通常也叫做無人地面車輛(UGV)、自主地面移動平臺(ALMP)、自主地面車輛(ALV)等,主要包含軍用無人戰(zhàn)斗車輛、通用后勤服務(wù)無人車輛和小型單兵機器人[4]。上述相關(guān)領(lǐng)域的技術(shù)研究對發(fā)展高機動地面無人戰(zhàn)斗系統(tǒng)具有重要的戰(zhàn)略意義。軍用地面無人機動平臺在戰(zhàn)場上能夠完成獲取情報、監(jiān)視、偵察任務(wù),運輸與后勤任務(wù),排雷、安置簡易爆炸裝置任務(wù),提供火力支援任務(wù),通信中轉(zhuǎn)、醫(yī)療轉(zhuǎn)移任務(wù)等,在戰(zhàn)斗中對保護士兵生命有著不可替代的作用。在民用領(lǐng)域,地面無人機動平臺通常是指無人駕駛汽車,也叫做智能汽車、智能車、無人車,其關(guān)鍵技術(shù)的發(fā)展對改善交通擁堵、節(jié)能減排、提高出行效率、減小交通事故等方面有著重要作用。軍用和民用地面無人機動平臺的基本組成部分大致相同,都包括感知、規(guī)劃、控制和平臺底盤等子系統(tǒng),但是由于應(yīng)用場景不同,相應(yīng)部分的研究側(cè)重點及需求有所不同。本文側(cè)重于闡述軍用地面無人機動平臺的相關(guān)研究內(nèi)容。

    1 軍用地面無人機動平臺的發(fā)展歷程

    軍用地面無人機動平臺的研究要早于無人駕駛汽車,最早可以追溯到20世紀(jì)30年代前蘇聯(lián)開發(fā)的無線遙控坦克。第二次世界大戰(zhàn)期間,英國和德國也相繼研發(fā)出無線遙控履帶戰(zhàn)斗車輛[4]。后來軍用無人機動平臺的研究逐步擴展到半自主地面無人機動平臺和自主地面無人機動平臺。

    20世紀(jì)80年代,美國國防部(DOD)專門制定了無人作戰(zhàn)系統(tǒng)發(fā)展的戰(zhàn)略計劃,對地面無人作戰(zhàn)平臺的研究進行大規(guī)模資助[2]。此后的20年,美國先后制定了聯(lián)合機器人(JRP)計劃[5]、Demo計劃[6-7]、戰(zhàn)術(shù)移動機器人(TMR)計劃[8]、無人地面戰(zhàn)斗車輛(UGCV)計劃、越野機器人感知(PerceptionOR)計劃[9-10]、FCS計劃[11]、LAGR計劃[12]、UPI計劃[13]等,力求發(fā)展由地面無人機動平臺和武器系統(tǒng)構(gòu)成的無人作戰(zhàn)系統(tǒng)[14]。美國國防高級研究計劃局(DARPA)分別于2005年和2007年舉辦了越野挑戰(zhàn)賽[15]和城市挑戰(zhàn)賽[16],極大地推動了傳感器、相關(guān)算法和地面無人機動平臺系統(tǒng)集成技術(shù)的發(fā)展[17]。UGCV計劃中由卡耐基梅隆大學(xué)(CMU)國家機器人工程中心(NREC)研發(fā)的Crusher(前身為Spinner)是一種針對于大范圍復(fù)雜越野路面的下一代無人高機動平臺。它利用航拍地圖評估運動風(fēng)險,進行軌跡規(guī)劃,使用車載傳感器來檢測從地圖數(shù)據(jù)無法辨別的或是后出現(xiàn)的障礙[18],通過特殊的懸掛系統(tǒng)和驅(qū)動系統(tǒng)設(shè)計適應(yīng)各種路面的行駛要求。截至2007年,該平臺已經(jīng)能在巖石、壕溝、陡坡、灌木叢等各種類型路面自主行駛超過250 km[13].另一項比較矚目的研究便是美國陸軍坦克機動車輛研發(fā)與工程中心研制的APD地面無人機動平臺。該平臺采用混合電驅(qū)動技術(shù),以柴油機為原動機,裝備鋰離子電池,通過6個輪轂電機驅(qū)動平臺前進[19];除此之外,該平臺配備自主導(dǎo)航系統(tǒng),能以80 km/h速度行進中躲避障礙,具有實時人工操縱和自主機動的能力。Crusher和APD地面無人機動平臺在極端環(huán)境下具有較好的燃油經(jīng)濟性、較高的生存能力和較強的承載能力,展現(xiàn)了下一代軍用無人機動平臺對各種類型越野路面突出的適應(yīng)能力和機動性能。2013年CMU NREC與奧什科什國防公司合作研發(fā)了為美國海軍陸戰(zhàn)隊提供后勤保障的Cargo地面無人車輛,該平臺有3種工作模式——自動駕駛模式、影子模式和遙控模式,并且可以與有人駕駛車輛混編成車隊,使得一個操作者可以操控多輛無人機動平臺,能保證在較低風(fēng)險的情況下使用較少的人力完成后勤補給任務(wù)[20]。除上述平臺外,美國現(xiàn)役或在研的地面無人機動平臺還包括洛克希德·馬丁公司的AMAS平臺[21]、SMSS平臺[22]和MULE ARV-A(L)平臺[23],波士頓動力公司的Big Dog[24-25]、LS3仿生機器人[26]等。

    除了美國,其他國家也積極開展無人機動平臺的相關(guān)研究,比較著名的有英國BAE系統(tǒng)公司的角斗士(Gladiator)新型戰(zhàn)術(shù)地面無人車輛[27]、黑騎士(Black Knight)無人裝甲車[28],德國Diehl BGT防務(wù)公司的CANGURU地面自主車輛,克羅地亞DOKING公司的MV系列無人掃雷車[29],以色列G-NIUS無人地面系統(tǒng)公司的GUARDIUM MK系列高機動性能無人戰(zhàn)斗車輛[30]和中國兵器工業(yè)集團公司的混合動力無人地面車輛。其中,黑騎士無人裝甲車體現(xiàn)了目前無人戰(zhàn)斗機動平臺技術(shù)的最高水準(zhǔn)。該平臺擁有30 mm速射火力系統(tǒng)、全地形通過能力、先進的全頻譜傳感系統(tǒng)(由NREC提供)、完善的戰(zhàn)術(shù)數(shù)據(jù)鏈和自主導(dǎo)航系統(tǒng),可加裝通用導(dǎo)彈發(fā)射裝置等重型武器,其實戰(zhàn)化色彩遠遠超過全球正在服役的各類地面無人機動平臺。圖1列出了上文提到的部分軍用地面無人機動平臺。

    2 地面無人機動平臺的組成和特點

    2.1 基本組成

    無人機動平臺雖然在機構(gòu)、傳感器配置、功能實現(xiàn)上各不相同,但是在無人駕駛系統(tǒng)組成上有著顯著的共同點,都包含環(huán)境感知系統(tǒng)(含定位)、運動規(guī)劃系統(tǒng)、跟蹤控制系統(tǒng)、平臺底盤系統(tǒng)等子系統(tǒng)。這些共同點構(gòu)成無人機動平臺的基本組成部分。

    環(huán)境感知系統(tǒng)是指通過各種傳感器設(shè)備的輸入建立無人車輛周圍包含二維或三維環(huán)境特征的環(huán)境模型的系統(tǒng)。它主要由硬件和軟件處理程序組成。硬件主要包括二維激光雷達、三維激光雷達、毫米波雷達、彩色相機、立體相機、聲納、慣性導(dǎo)航元件、GPS等各種類型的傳感器。軟件處理程序?qū)崿F(xiàn)的功能主要為路面識別、障礙物檢測、目標(biāo)識別與跟蹤、建立地圖與定位等。它的主要作用是建立地面無人機動平臺周圍的環(huán)境模型,為無人系統(tǒng)的決策、規(guī)劃和控制提供地圖、環(huán)境約束和定位信息。

    圖1 軍用地面無人機動平臺Fig.1 Military maneuvering unmanned ground platforms

    運動規(guī)劃系統(tǒng)是指根據(jù)環(huán)境感知系統(tǒng)輸入的環(huán)境模型,考慮任務(wù)約束、環(huán)境約束、平臺自身的運動學(xué)和動力學(xué)約束等,生成能夠驅(qū)動動態(tài)非線性系統(tǒng)從初始狀態(tài)到達指定目標(biāo)狀態(tài)的控制參考輸入序列的系統(tǒng)[31]。該子系統(tǒng)的主要功能是根據(jù)任務(wù)要求、環(huán)境地圖或是先驗知識生成待執(zhí)行的無碰撞路徑或軌跡,作為控制系統(tǒng)的參考輸入,通常包括路徑規(guī)劃和軌跡規(guī)劃兩部分。

    跟蹤控制系統(tǒng)是指根據(jù)控制參考輸入序列和控制律生成控制指令使得動態(tài)系統(tǒng)達到期望輸出結(jié)果的控制器[32]。對于地面無人機動平臺而言,跟蹤控制是指根據(jù)參考軌跡輸入和控制律生成車輛執(zhí)行器(如方向盤、電子油門、制動器)的控制命令使執(zhí)行器產(chǎn)生影響車輛運動的力或力矩。

    平臺底盤系統(tǒng)是指由車輛底盤及相應(yīng)執(zhí)行器構(gòu)成受控的機械執(zhí)行系統(tǒng)。

    除了包含上述必要組成部分,根據(jù)無人機動平臺所實現(xiàn)功能的不同和智能化程度的差異,有的系統(tǒng)還會包含遙控站、多車通信系統(tǒng)、任務(wù)規(guī)劃系統(tǒng)、人機交互系統(tǒng)等。

    2.2 特點

    作為移動機器人技術(shù)的一個分支和發(fā)展方向,地面無人機動平臺技術(shù)繼承了諸多機器人學(xué)的研究方法和研究成果,并在不斷發(fā)展和實際應(yīng)用中呈現(xiàn)出自己獨特技術(shù)特點。

    2.2.1 移動速度比普通移動機器人更快,變化范圍更大

    普通移動機器人的速度大多為0~10 km/h[33],而軍用地面無人機動平臺的行駛速度大多在10~60 km/h,有的甚至達到70 km/h以上[29]。無人機動平臺的行駛速度高,速度變化范圍大,這對感知系統(tǒng)和運動規(guī)劃系統(tǒng)的處理速度,控制系統(tǒng)的控制精度提出了更高的要求。在有擾動的環(huán)境中或高速情況下,點質(zhì)量模型、運動學(xué)模型已經(jīng)不能滿足規(guī)劃控制的需求,需要建立考慮平臺特性、輪胎(或履帶)模型、更精確的動力學(xué)模型,以適應(yīng)復(fù)雜場景和滿足高速情況下的控制需求。

    2.2.2 操作的環(huán)境更復(fù)雜,范圍更大

    與普通移動機器人活動的室內(nèi)環(huán)境或是范圍較小的室外環(huán)境相比,軍用地面無人機動平臺不僅能夠行駛在結(jié)構(gòu)化道路環(huán)境(城市環(huán)境)中,也要能夠行駛在非結(jié)構(gòu)化道路環(huán)境(越野環(huán)境)中,這使得其活動的環(huán)境更復(fù)雜,范圍更大。上述特點要求環(huán)境感知系統(tǒng)不僅要能夠識別出城市環(huán)境下可行駛的道路區(qū)域、交通信號燈、交通標(biāo)志、行人和車輛等,也要求其能夠識別出越野環(huán)境下可跨越的障礙(植被)、不可跨越的正障礙(如巖石、樹木等)、潛在的負(fù)障礙(如濠溝、懸崖)[18]。這對面向無人機動平臺應(yīng)用的環(huán)境感知研究提出了新的挑戰(zhàn)。

    2.2.3 具有更強的承載能力和更長的續(xù)航能力

    普通移動機器人大多承載能力有限,不能載人或載貨,并且續(xù)航能力較弱。軍用無人機動平臺由于軍事應(yīng)用需要,通常會搭載武器系統(tǒng)、搭載防護系統(tǒng)或用于運輸物資,同時,大部分任務(wù)也要求平臺能長時間運作(物資運輸、偵查、通信中轉(zhuǎn))。這些軍事應(yīng)用需要無人機動平臺具有更強的承載能力和更長的續(xù)航能力。例如,DARPA和陸軍對于UGCV項目的評估要求就包括:能夠完成為期14 d的任務(wù);一次填注燃料行駛里程不少于450 km;載荷比大于25%等。

    2.2.4 對可靠性要求更高

    軍用地面無人機動平臺通常工作在野外極端惡劣環(huán)境下,復(fù)雜地形、震動、沖擊載荷、灰塵、高低溫等因素給平臺的機械執(zhí)行系統(tǒng)和電控系統(tǒng)的可靠性與穩(wěn)定性帶來了嚴(yán)峻的挑戰(zhàn)。這就要求軍用地面無人平臺在設(shè)計之初就必須考慮系統(tǒng)結(jié)構(gòu)的設(shè)計、系統(tǒng)集成的設(shè)計、甚至是平臺的機構(gòu)設(shè)計,以確保平臺是自依賴的、可調(diào)整和可容錯的[34],從而保證系統(tǒng)的可靠與穩(wěn)定。

    另外,軍用地面無人機動平臺主要功能、搭載武器系統(tǒng)、補給物資運輸或是作業(yè),其工作時難免會與人或與有人駕駛車輛交互,那么平臺控制系統(tǒng)的可靠性和穩(wěn)定性對于確保人的安全就顯得尤為重要。無人機動平臺從研究之初到現(xiàn)在,大部分平臺的自動控制系統(tǒng)都是通過外加電機、液壓控制閥等執(zhí)行機構(gòu)來實現(xiàn)縱向、橫向、檔位等的運動控制。這些額外的執(zhí)行機構(gòu)本身并不屬于原車底盤控制系統(tǒng),其安裝位置和控制參數(shù)很難調(diào)校,也無法保證外加機構(gòu)控制系統(tǒng)能與原車控制系統(tǒng)兼容[35];另外,這些外加的執(zhí)行器及其控制系統(tǒng)也會導(dǎo)致整個無人系統(tǒng)變得龐大、復(fù)雜,出錯概率大大增加。DARPA兩屆挑戰(zhàn)賽各個車隊出現(xiàn)的事故也證明這種實現(xiàn)方式并不合理。理想的、適用于無人駕駛的控制系統(tǒng)應(yīng)該采用線控方式實現(xiàn),有人駕駛與無人駕駛控制系統(tǒng)采用兩套不同的控制策略,但是共用一套出廠配置的電控執(zhí)行機構(gòu)。近年來越來越多的地面無人機動平臺采用線控方式實現(xiàn)自動控制,如牛津大學(xué)移動機器人小組的Robot Car無人駕駛汽車、北京理工大學(xué)智能車輛研究所的Ray無人駕駛汽車、戴姆勒股份公司的Bertha Benz無人駕駛汽車等。

    3 地面無人機動平臺的關(guān)鍵技術(shù)

    3.1 環(huán)境感知技術(shù)

    環(huán)境感知技術(shù)是無人機動平臺中最重要的一環(huán),無人機動平臺安全、穩(wěn)定行駛的首要前提是環(huán)境感知提供的世界環(huán)境模型、運動狀態(tài)和定位信息準(zhǔn)確,可靠。這里的環(huán)境感知不僅包括各種雷達和相機等構(gòu)成的能夠提供世界環(huán)境模型的視覺系統(tǒng),也包括由慣性導(dǎo)航元件、GPS等傳感器構(gòu)成的能提供平臺自身姿態(tài)、與環(huán)境相對位置或絕對位置信息的狀態(tài)估計系統(tǒng)。

    3.1.1 視覺系統(tǒng)

    地面無人機動平臺視覺系統(tǒng)的主要功能是障礙物檢測、可通行區(qū)域提取、運動估計、地圖創(chuàng)建等,其主要使用的傳感器包括主動視覺傳感器(激光雷達、毫米波雷達、超聲波雷達等)和被動視覺傳感器(單目相機、立體相機、全景相機、紅外相機等)。主動視覺傳感器因其能提供相對精確的距離信息,比較適合用于障礙物檢測和地圖構(gòu)建等。被動視覺傳感器因其數(shù)據(jù)包含的特征信息較多,比較適合用于路面提取、特征檢測與跟蹤、路標(biāo)的識別與匹配以及基于特征檢測的運動估計和定位等。

    得益于傳感器技術(shù)和計算機視覺技術(shù)的飛速發(fā)展,針對地面無人機動平臺在越野環(huán)境下的視覺系統(tǒng)的研究取得了諸多進展,近些年的研究重點主要集中在越野路面識別與分類、各種類型的障礙物檢測??突仿〈髮W(xué)的Lalonde等采用局部點云統(tǒng)計分析方法并結(jié)合貝葉斯分類器識別車身周圍的網(wǎng)狀障礙物、線狀障礙物和面狀障礙物,用于Demo-ⅢXUV無人機動平臺的野外行駛路面分類[36]。美國噴氣推進實驗室(JPL)的Rankin等只使用立體相機采用二值化方法和通過性成本分析來構(gòu)建地圖,該方法可以檢測出樹干、樹支、陡坡、負(fù)障礙和水面等[37]。Milella等提出了一種基于毫米波雷達數(shù)據(jù)特征的自學(xué)習(xí)路面分類器[38],該方法包含在線自適應(yīng)學(xué)習(xí)階段和分類階段,能夠適應(yīng)遠距離、長航時和變化環(huán)境下的路面分類。

    由于無人機動平臺行駛的環(huán)境較復(fù)雜,只依賴一種傳感器不可能完成所有的識別任務(wù)。構(gòu)建實時、多視角傳感器系統(tǒng),利用多模態(tài)傳感信息融合技術(shù)為地面無人機動平臺導(dǎo)航提供可靠、有效的信息成為當(dāng)今研究的熱點。Stentz等采用比較簡單的通過性成本估價函數(shù)來融合激光雷達和立體視覺等不同通道的傳感信息,形成地圖,供導(dǎo)航系統(tǒng)使用,該方法可以識別較大的正障礙和負(fù)障礙[39]。Bagnell等使用三維激光雷達點云信息結(jié)合多光譜顏色信息和紋理特征來提高越野路面檢測和路面分類的準(zhǔn)確性[40]。Peynot等通過多傳感器融合形成冗余以減小單傳感器在野外極端條件下(揚塵、霧天、雨天)檢測錯誤對系統(tǒng)的影響,提高感知系統(tǒng)的可靠性[41]。Zhao等設(shè)計了一個分層式傳感器融合系統(tǒng),采用卡爾曼濾波來實現(xiàn)物理層數(shù)據(jù)的融合,以便獲得統(tǒng)一、更精確詳細的特征信息;然后采用D-S證據(jù)理論進行上層數(shù)據(jù)融合,以提高識別效率和減小計算復(fù)雜度[42]。

    3.1.2 狀態(tài)估計

    為了更好地控制地面無人機動平臺的運動,準(zhǔn)確的平臺運動估計是必要的,特別是地面無人機動平臺裝備有懸掛系統(tǒng),行駛環(huán)境也較復(fù)雜,高速行駛在不平路面上時,必然會出現(xiàn)俯仰、側(cè)傾、橫滾、縱滑和側(cè)滑等。無人機動平臺的狀態(tài)估計主要是融合多種傳感器(陀螺儀、GPS、加速度計、羅盤等)信息,估計平臺的姿態(tài)、速度以及相對或絕對位置。平臺狀態(tài)估計主要分為兩大類:基于全球定位系統(tǒng)(GNSS)—慣性導(dǎo)航系統(tǒng)(INS)的組合導(dǎo)航系統(tǒng)和基于視覺的狀態(tài)估計。

    在無遮擋的空曠環(huán)境下,GNSS(如GPS、北斗、伽利略定位系統(tǒng))能為無人機動平臺提供長時準(zhǔn)確的定位信息[43],然而城市環(huán)境、峽谷、密林等環(huán)境都可能導(dǎo)致GPS信號的瞬時丟失,使得定位效果變差或定位失敗。INS是指通過使用慣性測量元件(陀螺儀、加速度計、羅盤等)測量平臺的橫擺角速度和加速度等,通過積分獲取平臺相對定位信息的定位系統(tǒng)。INS自依賴,不受外界環(huán)境干擾,然而其慣性測量數(shù)據(jù)存在漂移現(xiàn)象,長時間累積會產(chǎn)生較大誤差,且無上界,因此INS只能保證短時定位精度。通過卡爾曼濾波算法、擴展卡爾曼濾波算法[44]或無跡卡爾曼濾波算法[45]融合兩系統(tǒng)定位數(shù)據(jù),結(jié)合兩種定位系統(tǒng)優(yōu)勢的組合導(dǎo)航系統(tǒng)成為無人機動平臺定位系統(tǒng)的主流。2007年,DARPA城市挑戰(zhàn)賽中,完成比賽的無人駕駛車輛幾乎都使用了GPS-INS組合導(dǎo)航系統(tǒng)[46-49]。但是,由于GPS-INS組合導(dǎo)航系統(tǒng)仍然依賴GPS,當(dāng)GPS丟失時間較長時,其定位精度也會變差。Ilyas等提出了一種利用集中式卡爾曼濾波根據(jù)傳感數(shù)據(jù)質(zhì)量有選擇地融合來自GPS、INS和里程計數(shù)據(jù)的組合導(dǎo)航方法,該方法在GPS信號較差的地方(密林、樓群里)也能保證可靠的定位結(jié)果[50]。

    基于視覺的狀態(tài)估計主要是指視覺里程計(VO)和同時創(chuàng)建地圖與定位(SLAM)。傳統(tǒng)里程計主要是根據(jù)來自編碼器(光電式、磁電式、霍爾式等)的數(shù)據(jù)隨時間變化來估計平臺的位置或航向。這種方法在城市平坦道路上的估計精度較高,而在不平路面上,當(dāng)車輛出現(xiàn)縱滑或側(cè)滑時,誤差較大。根據(jù)圖像特征估計車輛運動狀態(tài)的VO則不受滑移和其他因素影響,并且VO成本較低、緊湊,相對位置誤差范圍較小,為0.1%~2%,因此VO被廣泛用于越野環(huán)境下和城市環(huán)境下的車輛定位[51]。典型的VO算法主要包括:可被跟蹤的特征點的檢測、連續(xù)幀圖像間的特征關(guān)聯(lián)或跟蹤、利用特征匹配進行運動參數(shù)估計。Nourani-Vatani等利用平臺非完整性約束和特征跟蹤進行運動估計的單目VO,并將其成功應(yīng)用于大型工業(yè)叉車和越野車的定位[52]。Howard等提出了一種使用立體視覺進行運動估計的VO,其誤差范圍限制到0.25%以內(nèi)。該里程計采用更完善更簡單的內(nèi)點檢測算法,對預(yù)處理過后的視差圖進行特征提取和特征匹配,然后再進行運動估計,實時性和可靠性都較高[53]。該方法已被用到DARPA LAGR項目平臺上和Big Dog軍用機器人上。為了提高定位系統(tǒng)的精度,Perlin等將VO和慣性測量單元(IMU)數(shù)據(jù)進行融合,提出了一種實時、適用于越野和城市環(huán)境下高速行駛應(yīng)用場景下的集成定位系統(tǒng)[54]。

    同時建立地圖與定位(SLAM)是指無人機動平臺在未知環(huán)境中,根據(jù)傳感器信息在線增量式建立環(huán)境地圖,或是更新部分已知的地圖,同時確定車輛在地圖中的位置。其原理是利用擴展卡爾曼濾波[55]、無跡卡爾曼濾波[56]、稀疏擴展信息濾波[57]、Rao-Backwellized粒子慮波[58]等技術(shù)實現(xiàn)路標(biāo)估計、軌跡估計和車輛位置估計。經(jīng)過近30年的發(fā)展,在理論層面上,SLAM問題已經(jīng)基本被解決[59],然而其在具體應(yīng)用中仍呈現(xiàn)出諸多問題,目前其相關(guān)研究重點主要集中在計算復(fù)雜度、環(huán)境表示、數(shù)據(jù)關(guān)聯(lián)等方面的改進[60]。與其他增量式的位置估計方法相比,SLAM因使用更多的傳感器歷史信息,其定位結(jié)果產(chǎn)生的增量誤差更小。另外,SLAM采用數(shù)據(jù)關(guān)聯(lián)解決閉環(huán)問題,可以消除位置估計的累計誤差[61]。SLAM在解決大范圍動態(tài)環(huán)境,特別是GPS信號較弱或是不穩(wěn)定區(qū)域中無人機動平臺的長時間地圖重建和定位問題方面有著巨大潛力。因此,越來越多的研究者將SLAM用于地面無人機動平臺在復(fù)雜環(huán)境中的定位。Moosmann等提出一種只使用Velodyne三維激光雷達數(shù)據(jù)的SLAM方法,該方法被證明在不使用速度傳感器和其他信息的情況下,SLAM算法也能精確地建立地圖和定位,并且比組合導(dǎo)航精度更高,可用于精細的城市地圖構(gòu)建[61]。Cho等提出了針對無人機動平臺野外環(huán)境行駛的SLAM算法。該算法采用雙模糊C-均值聚類方法提取野外樹木特征點,并使用擴展卡爾曼濾波進行同時定位和建立地圖[62]。Tamjidi等融合激光雷達數(shù)據(jù)和單目相機數(shù)據(jù),提出了基于單點RANSAC-擴展卡爾曼濾波方法SLAM算法,用于無人機動平臺在無GPS信號環(huán)境下的位置估計,其估計誤差小于總路徑長度的1.9%[63].Su等提出了一種結(jié)合擴展卡爾曼濾波-無跡卡爾漫濾波的無人機動平臺的SLAM算法,該方法被證明比傳統(tǒng)擴展卡爾曼濾波-SLAM算法有更高的位置精度和航向精度[64]。

    3.2 運動規(guī)劃技術(shù)

    可靠和數(shù)值高效的運動規(guī)劃算法是無人機動平臺導(dǎo)航技術(shù)的核心,也是體現(xiàn)無人機動平臺智能化水平的關(guān)鍵技術(shù)。單一環(huán)境下的運動規(guī)劃問題已經(jīng)很具有挑戰(zhàn)性,在復(fù)雜(城市與越野)環(huán)境下的無人機動平臺的運動規(guī)劃需要考慮更多的約束:平臺底盤的運動學(xué)、動力學(xué)約束、環(huán)境約束、擾動的操作環(huán)境、狀態(tài)空間的高度不確定性等等。與此同時,無人機動平臺通常行駛速度較高,而且需要適應(yīng)動態(tài)環(huán)境的特點要求運動規(guī)劃系統(tǒng)能夠在有限的時間里生成一條滿足運動學(xué)、動力學(xué)約束的無碰撞軌跡。從運動規(guī)劃系統(tǒng)的結(jié)構(gòu)框架來說,運動規(guī)劃算法可以分成全局運動規(guī)劃方法、局部運動規(guī)劃方法、分層式運動規(guī)劃方法。

    基于計算機圖形學(xué)的全局運動規(guī)劃方法[65],由于其不可接受的計算復(fù)雜度[66],要求已知完備的環(huán)境信息、重規(guī)劃耗時等原因,不適用于解決實際應(yīng)用中帶時間約束的運動規(guī)劃問題。與全局運動規(guī)劃方法相比,局部運動規(guī)劃方法[67-68]更高效,不需要完備的環(huán)境信息,并且可以考慮車輛的非完整性約束和動力學(xué)約束,但是這種方法只使用了局部環(huán)境信息或是局部最優(yōu),極有可能使規(guī)劃算法陷入局部最小??紤]到純?nèi)趾头磻?yīng)式運動規(guī)劃方法的局限,一種分層式的運動規(guī)劃方法[13,20,69-70]被提出。這種分層式的規(guī)劃架構(gòu)由全局路徑規(guī)劃器和局部軌跡規(guī)劃器組成,全局路徑規(guī)劃器主要生成滿足運動學(xué)約束的無碰撞路徑,提供引導(dǎo)信息來防止車輛陷入困境,局部軌跡規(guī)劃器主要考慮車輛運動學(xué)、動力學(xué)約束和安全性約束生成可行、平滑、無碰撞的候選軌跡,根據(jù)目標(biāo)函數(shù)選取最合適的待執(zhí)行軌跡。分層式運動規(guī)劃方法近年來被大量使用并取得了很好的效果。

    從采用的技術(shù)來看,應(yīng)用于無人機動平臺的運動規(guī)劃方法主要有:基于搜索的運動規(guī)劃方法和基于最優(yōu)控制的運動規(guī)劃方法。

    基于搜索的運動規(guī)劃方法主要是指采用搜索技術(shù)進行幾何運動單元拼接生成距離最短的無碰撞路徑,這種方法多用于全局路徑規(guī)劃和自由區(qū)域的路徑規(guī)劃。通過這種方法生成的路徑能保證滿足車輛運動學(xué)約束,距離最短且無碰撞。DARPA舉辦的兩屆挑戰(zhàn)賽中,大部分隊伍使用了基于搜索的運動規(guī)劃方法?;谒阉鞯倪\動規(guī)劃方法所采用的運動單元主要是直線(4、8、16連接?xùn)鸥竦仁褂玫倪\動單元)、Dubin運動單元[71]、Reeds-Shepp運動單元[72]、狀態(tài)網(wǎng)格運動單元[73]等。這種方法通過將車輛運動學(xué)和動力學(xué)約束嵌入到運動單元中離線生成,減少路徑生成過程中的計算量,同時保證生成路徑的可行性;所采用的搜索方法主要是Dijkstra[74]、A*[75]、D*[76]及其變種等。其中AD*[77]算法同時具有實時性和增量性,適合于解決動態(tài)、復(fù)雜環(huán)境下的路徑規(guī)劃問題,在DARPA城市挑戰(zhàn)賽中成功應(yīng)用于BOSS智能車自由空間、停車場內(nèi)、錯誤恢復(fù)場景下的路徑規(guī)劃系統(tǒng)中[78]?;谒阉鞯倪\動規(guī)劃的方法的局限是,不適合用于解決帶時間約束和密集動態(tài)障礙場景下的運動規(guī)劃問題和高維運動規(guī)劃問題。

    基于優(yōu)化的運動規(guī)劃方法,指的是把路徑規(guī)劃問題轉(zhuǎn)化成帶約束的最優(yōu)化數(shù)值求解問題的一類方法。這類方法因為能生成滿足車輛動力學(xué)約束、最優(yōu)或局部最優(yōu)的路徑和軌跡而受到廣泛關(guān)注。其中一種方法是將無人機動平臺的運動規(guī)劃問題轉(zhuǎn)化成兩點邊界值問題求解。這種方法為了簡化運動規(guī)劃問題,通常采用固定類型的曲線,如B樣條曲線[79]、五次多項式曲線[80]、立體螺旋線[81],連接起始點和目標(biāo)點。這種方法的難點是如何滿足邊界約束(如曲率上界)。Kelly等將從起始點到達目標(biāo)點的運動規(guī)劃問題首先轉(zhuǎn)化為最優(yōu)控制問題,通過參數(shù)形式表示車輛系統(tǒng)動力學(xué)方程,進而將問題轉(zhuǎn)化成參數(shù)優(yōu)化問題,不斷迭代優(yōu)化參數(shù),直至生成到達終點狀態(tài)的軌跡[82],但是其生成的軌跡只是空間曲線,只包含橫向控制量,沒有縱向控制量。Delsart等后來在此基礎(chǔ)上提出Tiji算法[83],加入時間約束,同時進行橫向和縱向規(guī)劃,使得車輛能在指定的時間內(nèi)到達目標(biāo)點或目標(biāo)點附近。這種方法采用參數(shù)方程表征軌跡簇,降低了搜索空間的維數(shù),大大提高了軌跡生成的效率,而且可以加入非線性不等式約束,適用于解決帶非完整性約束的智能車輛運動規(guī)劃問題,其難點是初始軌跡的估計。

    除了上述兩大類方法外,應(yīng)用于無人機動平臺的運動規(guī)劃的方法還有RRT及其變種[84-85]、道路圖[86]、支持向量機[87]等方法。

    3.3 跟蹤控制技術(shù)

    無人機動平臺跟蹤控制技術(shù)是實現(xiàn)自動控制的保障,也是實現(xiàn)自主導(dǎo)航的關(guān)鍵部分,大部分智能行為都必須依賴跟蹤控制技術(shù)實現(xiàn)。無人機動平臺屬于控制輸入量比狀態(tài)變量少的欠驅(qū)動系統(tǒng),其高度的非線性、子系統(tǒng)間強耦合的特性,使得研究者較難建立精確的車輛系統(tǒng)動力學(xué)模型用于設(shè)計控制律。地面無人機動平臺的動力系統(tǒng)通常比較復(fù)雜,具有強非線性和遲滯性,而轉(zhuǎn)向系統(tǒng)相對較簡單,也較靈敏,所以為了達到更好的控制效果,跟蹤控制系統(tǒng)通常會采用兩種控制方法分別實現(xiàn)對橫向(轉(zhuǎn)向)和縱向(速度)的控制。

    比例-積分-微分(PID)控制器是一種在工程上廣泛采用并取得成功的線性控制器。其優(yōu)點是不需要建立系統(tǒng)模型,控制參數(shù)可以通過試湊法得出。其缺點是耗時,需要大量的實驗工作。這類方法中PI控制器通常用于無人機動平臺的縱向跟蹤控制,而PD控制器通常用于無人機動平臺的橫向控制。2007年,在DARPA舉辦的城市挑戰(zhàn)賽中,Leonard等使用低頻寬PI控制器對縱向速度進行跟蹤控制[88],Bacha等將map-linearized PID控制器用于車輛的速度控制,采用速率控制PID跟蹤轉(zhuǎn)向角和轉(zhuǎn)向速率[89]。

    基于幾何分析的路徑跟蹤控制器主要是通過根據(jù)車輛與參考路徑或軌跡的幾何位置關(guān)系,設(shè)計控制律來解決跟蹤問題的一類控制方法。這類方法被主要應(yīng)用于無人機動平臺的橫向控制。純跟蹤控制器[90-91]是其中典型的代表,其實質(zhì)是一種將自身位置與預(yù)瞄處的期望位置的橫向偏差轉(zhuǎn)化為橫向控制量的比例控制器。該方法魯棒性較好,即使是在有較大橫向偏差和參考路徑曲率不連續(xù)的情況下也能達到很好的跟蹤效果。其缺點是預(yù)瞄距離受較多參數(shù)(參考路徑曲率、車速、橫向偏差等)的影響,較難選取,很難在保證較強跟蹤能力的同時也保證穩(wěn)定性。Urmson等將該方法應(yīng)用于越野環(huán)境下CMU兩輛無人車的路徑跟蹤[92]。Leonard等將其應(yīng)用于城市環(huán)境下MIT無人車的橫向跟蹤控制[88]。Valois等將其用于黑騎士無人裝甲車在越野環(huán)境下有GPS路點引導(dǎo)的路徑跟蹤[28]。另一種比較有特點的控制器是Stanley橫向跟蹤方法[93],其實質(zhì)是一種只考慮橫向偏差的非線性反饋控制器。該方法在多數(shù)情況下的表現(xiàn)比純跟蹤更好,但是由于它沒有考慮參考路徑的形狀,因此這種方法不適合用于非連續(xù)曲率路徑的跟蹤,并且在較大橫向誤差下的效果較差[94]。

    前饋-反饋跟蹤控制器是近年來采用較多的一類跟蹤控制方法,主要由一個前饋控制器和一個反饋控制器構(gòu)成。前饋控制器主要進行來參考路徑曲率變化的干擾量補償,反饋控制器主要通過根據(jù)車輛狀態(tài)反饋調(diào)整控制輸入使得擾動和模型誤差對跟蹤的影響最小化,使車輛更接近期望路徑并保持穩(wěn)定。斯坦福大學(xué)DDL實驗室的Kritayakirana等將這種方法應(yīng)用于無人駕駛賽車的橫向跟蹤控制[95],戴姆勒股份公司的Bertha Benz無人駕駛汽車采用該種方法用于橫向跟蹤控制[96]。

    基于最優(yōu)化的跟蹤控制器指的是基于最優(yōu)化原理建立的反饋控制器。最典型的就是線性二次型調(diào)節(jié)器(LQR)跟蹤控制器和模型預(yù)測控制(MPC)跟蹤控制器。LQR控制器是將非線性控制系統(tǒng)簡化成線性控制系統(tǒng),然后使用LQR跟蹤路徑。該方法最早是由Divelbiss等于1997年用于拖車的路徑跟蹤問題[97],后來Snider設(shè)計了一種帶前饋的離散有限時域LQR控制器用于無人機動平臺的橫向跟蹤控制仿真[94]。Levinson等將這種方法應(yīng)用于斯坦福大學(xué)無人駕駛汽車Junior的橫向和縱向綜合控制[98]。LQR控制器比較適合用于高速公路上的無人駕駛和大部分城市場景下的路徑跟蹤,但是這種方法無法處理約束,并且將非線性系統(tǒng)進行線性化近似處理,沒有考慮參考路徑形狀對控制系統(tǒng)的影響,所以該方法對曲率突變敏感,在突變曲率輸入情況下會有超調(diào)。MPC控制器也叫做滾動時域控制器,該控制器考慮控制系統(tǒng)的非線性動力學(xué)模型并預(yù)測未來一段時間內(nèi)系統(tǒng)的輸出行為,通過解決帶約束的最優(yōu)控制問題使得系統(tǒng)在未來一段時間內(nèi)的跟蹤誤差最小。這種方法魯棒性較強。Falcone等分別使用車輛的非線性模型和在線連續(xù)線性化模型建立模型預(yù)測控制器用于無人駕駛車輛的橫向跟蹤控制,其在冰面上的測試速度最高可達到21 m/s[99].Yoon等考慮非線性車輛模型和輪胎模型,設(shè)計了非線性模型預(yù)測控制器用于XAV無人機動平臺的橫縱向跟蹤控制,同時實現(xiàn)了避障功能[100]。Ziegler和Geiger等采用模型預(yù)測控制器進行Betha Benz和AnnieWay無人駕駛汽車的縱向跟蹤控制[96,101]。

    除了上述介紹方法,用于地面無人機動平臺的跟蹤控制算法還包括滑模控制[102],模糊控制[103],神經(jīng)網(wǎng)絡(luò)控制[104]等。

    4 總結(jié)和展望

    地面無人機動平臺在過去幾十年間取得了突飛猛進的發(fā)展,展現(xiàn)出其在軍用和民用領(lǐng)域潛在的應(yīng)用前景。本文首先從廣義和狹義上定義了地面無人機動平臺,然后闡述了軍用地面無人機動平臺的發(fā)展歷程,分析了軍用地面無人機動平臺的基本組成和發(fā)展特點,總結(jié)了軍用地面無人機動平臺各子系統(tǒng)在發(fā)展過程中的關(guān)鍵技術(shù)。軍用無人機動平臺今后的研究重點將集中在:

    1)多傳感器多模態(tài)傳感器信息融合方法的研究;基于機器學(xué)習(xí)技術(shù)的障礙物、路面檢測和分類方法的研究。

    2)GNSS、INS、VO和SLAM各定位子系統(tǒng)互補的高精度、長航時、大范圍動態(tài)場景下的組合導(dǎo)航定位系統(tǒng)的研究。

    3)考慮欠驅(qū)動系統(tǒng)動力學(xué)模型、帶約束的最優(yōu)控制實時軌跡規(guī)劃算法的研究;針對動態(tài)場景的快速動態(tài)重規(guī)劃路徑規(guī)劃算法的研究。

    4)考慮精確車輛動力學(xué)的多約束非線性模型預(yù)測控制算法的研究;基于機器學(xué)習(xí)的路徑跟蹤智能控制方法的研究。

    5)面向用途和任務(wù)的高集成度、模塊化的通用無人機動平臺機電一體化設(shè)計技術(shù)的研究;以混合動力為主的電驅(qū)動技術(shù)、電傳動技術(shù),輕量化、高通過性、高機動性的底盤設(shè)計技術(shù)的研究。

    (References)

    [1] 陳慧巖,熊光明,龔建偉,等.無人駕駛汽車概論[M].北京:北京理工大學(xué)出版社,2014.

    CHEN Hui-yan,XIONG Guang-ming,GONG Jian-wei,et al.Introduction to self-driving car[M].Beijing:Beijing Institute of Technology Press,2014.(in Chinese)

    [2] Gage D W.UGV history 101:a brief history of unmanned ground vehicle(UGV)development efforts,ADA422845[R].San Diego:Naval Command Control and Ocean Surveillance Center,1995.

    [3] Carlson J.Analysis of how mobile robots fail in the field[D]. Florida:University of South Florida,2004.

    [4] Liu X,Dai B.The latest status and development trends of military unmanned ground vehicles[C]∥2013 Chinese Automation Congress.Changsha,Hunan:IEEE,2013:533-577.

    [5] Toscano M.Department of defense joint robotics program[C]∥AeroSense 2000.Orlando,FL,US:SPIE,2000:192-200.

    [6] Spofford J R,Rimey R D.Description of the UGV/Demo II system[C]∥Proceedings of Association for Unmanned Vehicle Systems International Conference.US:AUVSI,1997:255-264.

    [7] Shoemaker C M,Bornstein J A.Overview of the Demo III UGV program[C]∥Robotic and Semi-Robotic Ground Vehicle Technology.US:SPIE,1998:202-211.

    [8] Krotkov E,Blitch J.The defense advanced research projects agency(DARPA)tactical mobile robotics program[J].The International Journal of Robotics Research,1999,18(7):769-776.

    [9] Fish S.Overview of UGCV and PerceptOR status[C]∥Unmanned Ground Vehicle Technology V.Orlando,Florida:SPIE,2003: 336-339.

    [10] Van Fosson M H,Fish S.Role of robotics in ground combat of the future:UGCV,PreceptOR,and FCS[C]∥Unmanned Ground Vehicle TechnologyⅢ.Orlando,Florida:SPIE,2001: 323-327.

    [11] Fish S.UGVs in future combat systems[C]∥Defense and Security Symposium.Orlando,Florida:SPIE,2004:288-291.

    [12] Jackel L D,Krotkov E,Perschbacher M,et al.The DARPA LAGR program:goals,challenges,methodology,and phase I results[J].Journal of Field Robotics,2006,23(11/12):945-973.

    [13] Stentz A,Bares J,Pilarski T,et al.The crusher system for autonomous navigation[C]∥AUVSIs Unmanned Systems North A-merica.Las Vegas:Association for Unmanned Vehicle Systems International-UnmannedSystemsNorthAmericaConference, 2007:972-986.

    [14] 張浩杰.不確定環(huán)境下基于啟發(fā)式搜索的智能車輛路徑規(guī)劃研究[D].北京:北京理工大學(xué),2012.

    ZHANG Hao-jie.Research on path planning for intelligent vehicle with heuristic search under uncertain environments[D].Beijing:Beijing Institute of Technology,2012.(in Chinese)

    [15] Buehler M,Iagnemma K,Singh S.The 2005 DARPA grand challenge[J].Springer Tracts in Advanced Robotics,2007, 36(5):1-43.

    [16] The DARPA urban challenge:autonomous vehicles in city traffic[M]. Berlin Heidelberg:Springer International Publishing,2009.

    [17] Wilson J R.Driving Force:DARPA's Research efforts lead to advancements in robotics and autonomous navigation[M]∥DARPA:50 years of bridging the cap.US:Faircount LLC Publishing,2008:45-57.

    [18] Bagnell J A,Bradley D,Silver D,et al.Learning for autonomous navigation[J].IEEE Robotics&Automation Magazine, 2010,17(2):74-84.

    [19] Kerbrat A.Autonomous platform demonstrator,21395[R].US: Army Tank Automotive Research Development and Engineering Center,2010.

    [20] Zych N,Silver D,Stager D,et al.Achieving integrated convoys:cargo unmanned ground vehicle development and experimentation[C]∥SPIE Defense,Security,and Sensing.US:International Society for Optics and Photonics,2013.

    [21] Theisen B.Autonomous Mobility Applique System(AMAS), 22434[R].US:Army Tank Automotive Research Development and Engineering Center,2011.

    [22] Satterfield B,Choxi H,Salamon A,et al.Advancing robotics: the urban challenge effect[J].Journal of Aerospace Computing, Information,and Communication,2008,5(12):530-542.

    [23] Czapla T,Wrona J.Technology development of military applications of unmanned ground vehicles[M]∥Nawrat A,Kus Z.Vision based systems for UAV applications.Germany:Springer International Publishing,2013:293-309.

    [24] Raibert M,Blankespoor K,Nelson G,et al.Bigdog,the roughterrain quadruped robot[C]∥Proceedings of the 17th World Congress.Seoul:The International Federation of Automatic Control,2008:10823-10825.

    [25] Playter R,Buehler M,Raibert M.BigDog[C]∥Unmanned Systems Technology VIII.US:International Society for Optics and Photonics,2006.

    [26] Holste S T,Ciccimaro D A,Dudenhoeffer D D.Increasing the mobility of dismounted marines small unit mobility enhancement technologies:unmannedgroundvehiclesmarketsurvey, ADA513828[R].San Diego:Space and Naval Warfare Systems Center Pacific,2009.

    [27] ELIá? J,RAKúSOVá D.Trends of development in unmanned military motor vehicles[J].University Review,2013,7(3): 8-14.

    [28] Valois J S,Herman H,Bares J,et al.Remote operation of the Black Knight unmanned ground combat vehicle[C]∥SPIE Defense and Security Symposium.US:International Society for Optics and Photonics,2008.

    [29] Czapla T,Wrona J.Technology development of military applications of unmanned ground vehicles[M]∥Nawrat A,Kus Z.Vision based systems for UAV applications.Germany:Springer International Publishing,2013:293-309.

    [30] Kilitci S,Buyruk M.An analysis of the best available unmanned ground vehicle in the current market with respect to the requirements of the turkish ministry of national defense,ADA555973[R]. Monterey:Naval Postgraduate School,2011.

    [31] LaValle S M.Planning algorithms[M].Cambridge:Cambridge University Press,2006.

    [32] Kendoul F.Survey of advances in guidance,navigation,and control of unmanned rotorcraft systems[J].Journal of Field Robotics,2012,29(2):315-378.

    [33] Kobilarov M,Sukhatme G,Hyams J,et al.People tracking and following with mobile robot using an omnidirectional camera and a laser[C]∥2006 IEEE International Conference on Robotics and Automation.Orlando:IEEE,2006:557-562.

    [34] Nguyen-Huu P N,Titus J,Tilbury D,et al.Reliability and failure in unmanned ground vehicle(UGV),GRRC Technical Report 2009-01[R].US:GRRC,2009.

    [35] Appelqvist P,Knuuttila J,Ahtiainen J.Mechatronics design of an unmanned ground vehicle for military applications[J]. Mechatronic Systems Applications,2011,1(3):237-261.

    [36] Lalonde J F,Vandapel N,Huber D F,et al.Natural terrain classification using three-dimensional ladar data for ground robot mobility[J].Journal of Field Robotics,2006,23(10):839-861.

    [37] Rankin A L,Huertas A,Matthies L H.Stereo-vision-based terrain mapping for off-road autonomous navigation[C]∥SPIE Defense,Security,and Sensing.US:International Society for Optics and Photonics,2009.

    [38] Milella A,Reina G,Underwood J.A self-learning framework for statistical ground classification using radar and monocular vision[J]. Journal of Field Robotics,2014,31(4).doi:10.1002/rob. 21512.

    [39] Stentz A,Kelly A,Rander P,et al.Real-time,multi-perspective perception for unmanned ground vehicles[C]∥AUVSI Unmanned Systems Symposium.US:AUVSI,2003.

    [40] Bagnell J A,Bradley D,Silver D,et al.Learning for autonomous navigation[J].IEEE Robotics&Automation Magazine, 2010,17(2):74-84.

    [41] Peynot T,Underwood J,Scheding S.Towards reliable perception for unmanned ground vehicles in challenging conditions[C]∥2009 IEEE/RSJ International Conference on Intelligent Robots and Systems.US:IEEE,2009:1170-1176.

    [42] Zhao Y,Li J,Li L,et al.Environmental perception and sensor data fusion for unmanned ground vehicle[J].Mathematical Problems in Engineering,2013,2013(9):903951-903963.

    [43] Silver D,Stentz A.Monte Carlo localization and registration to prior data for outdoor navigation[C]∥2011 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS). San Francisco:IEEE,2011:510-517.

    [44] Guo H D.Neural network aided kalman filtering for integrated GPS/INS Navigation System[J].Telkomnika Indonesian Journal of Electrical Engineering,2013,11(3):1221-1226.

    [45] Qian H,An D,Xia Q.IMM-UKF based land-vehicle navigation with low-cost GPS/INS[C]∥IEEE International Conference on InformationandAutomation(ICIA).US:IEEE,2010:2031-2035.

    [46] Urmson C,Anhalt J,Bagnell D,et al.Autonomous driving in urban environments:boss and the urban challenge[J].Journal of Field Robotics,2008,25(8):425-466.

    [47] Montemerlo M,Becker J,Bhat S,et al.Junior:the stanford entry in the urban challenge[J].Journal of Field Robotics,2008, 25(9):569-597.

    [48] Leonard J,How J,Teller S,et al.A perception-driven autonomous urban vehicle[J].Journal of Field Robotics,2008,25(10): 727-774.

    [49] Patz B J,Papelis Y,Pillat R,et al.A practical approach to robotic design for the DARPA urban challenge[J].Journal of Field Robotics,2008,25(8):528-566.

    [50] Ilyas M,Cho K,Park S,et al.Dependable navigation in GPS denied environment:a multi-sensor fusion technique[C]∥2013 44th International Symposium on Robotics.Seoul:ISR,2013: 1-6.

    [51] Scaramuzza D,Fraundorfer F.Visual odometry(tutorial)[J]. IEEE Robotics&Automation Magazine,2011,18(4):80-92.

    [52] Nourani-Vatani N,Roberts J,Srinivasan M V.Practical visual odometry for car-like vehicles[C]∥2009 IEEE International Conference on Robotics and Automation.US:IEEE,2009:3551 -3557.

    [53] Howard A.Real-time stereo visual odometry for autonomous ground vehicles[C]∥2009 IEEE/RSJ International Conference on Intelligent Robots and Systems.France:IEEE,2008: 3946-3952.

    [54] Perlin V E,Johnson D B,Rohde M M,et al.Fusion of visual odometry and inertial data for enhanced real-time egomotion estimation[C]∥SPIE Defense,Security,and Sensing.Prague:International Society for Optics and Photonics,2011:80450K-80450K-12.

    [55] Thrun S,Burgard W,Fox D.Probabilistic robotics[M].Massachusetts:MIT press,2005.

    [56] Chekhlov D,Pupilli M,Mayol-Cuevas W,et al.Real-time and robust monocular SLAM using predictive multi-resolution descriptors[M]∥Bebis G,Molineros J,Theisel H,et al.Advances in visual computing.Berlin Heidelberg:Springer International Publishing,2006:276-285.

    [57] Thrun S,Liu Y,Koller D,et al.Simultaneous localization and mapping with sparse extended information filters[J].The International Journal of Robotics Research,2004,23(7/8):693-716.

    [58] Grisetti G,Stachniss C,Burgard W.Improved techniques for grid mapping with rao-blackwellized particle filters[J].IEEE Transactions on Robotics,2007,23(1):34-46.

    [59] Durrant-Whyte H,Bailey T.Simultaneous localization and mapping:partⅠ[J].IEEE Robotics&Automation Magazine, 2006,13(2):99-110.

    [60] Bailey T,Durrant-Whyte H.Simultaneous localization and mapping(SLAM):PartⅡ[J].IEEE Robotics&Automation Magazine,2006,13(3):108-117.

    [61] Moosmann F,Stiller C.Velodyne slam[C]∥2011 IEEE Intelligent Vehicles Symposium(Ⅳ).Spain:IEEE,2011:393-398.

    [62] Cho K,Baeg S H,Park S.Natural terrain detection and SLAM using LIDAR for an UGV[M]∥Lee S,Yoon K J,Lee J.Frontiers of intelligent autonomous systems.Berlin Heidelberg: Springer,2013:263-275.

    [63] Tamjidi A,Ye C.A pose estimation method for unmanned ground vehicles in GPS denied environments[C]∥SPIE defense,Security,and Sensing.USA:International Society for Optics and Photonics,2012:83871K-83871K-12.

    [64] Su K J,Dong Z D,Huang Z.Novel SLAM algorithm for UGVs based on unscented Kalman filtering[C]∥2012 IEEE International Conference on Computer Science and Automation Engineering(CSAE).Zhangjiajie:IEEE,2012.

    [65] Principles of robot motion:theory,algorithms,and implementation[M].Massachusetts:MIT press,2005.

    [66] Petti S,Fraichard T.Safe motion planning in dynamic environments[C]∥2005 IEEE/RSJ International Conference on Intelligent Robots and Systems.Edmonton:IEEE,2005:2210-2215.

    [67] Fox D,Burgard W,Thrun S.The dynamic window approach to collision avoidance[J].IEEE Robotics&Automation Magazine, 1997,4(1):23-33.

    [68] Fiorini P,Shiller Z.Motion planning in dynamic environments using velocity obstacles[J].The International Journal of Robotics Research,1998,17(7):760-772.

    [69] Cowlagi R V,Tsiotras P.Hierarchical motion planning with dynamical feasibility guarantees for mobile robotic vehicles[J]. IEEE Transactions on Robotics,2012,28(2):379-395.

    [70] Ferguson D,Howard T M,Likhachev M.Motion planning in urban environments[J].Journal of Field Robotics,2008, 25(11/12):939-960.

    [71] Dubins L E.On curves of minimal length with a constraint on average curvature,and with prescribed initial and terminal positions and tangents[J].American Journal of Mathematics,1957, 79(3):497-516.

    [72] Reeds J,Shepp L.Optimal paths for a car that goes both forwards and backwards[J].Pacific Journal of Mathematics, 1990,145(2):367-393.

    [73] Pivtoraiko M,Kelly A.Kinodynamic motion planning with state lattice motion primitives[C]∥2011 IEEE/RSJ International Conference on Intelligent Robots and Systems(IROS).San Francisco:IEEE,2011:2172-2179.

    [74] Dijkstra E W.A note on two problems in connexion with graphs[J]. Numerische mathematik,1959,1(1):269-271.

    [75] Hart P E,Nilsson N J,Raphael B.A formal basis for the heuristic determination of minimum cost paths[J].IEEE Transactions on Systems Science and Cybernetics,1968,4(2):100-107.

    [76] Stentz A.The focussed D*algorithm for real-time replanning[C]∥1995 International Joint Conferences on Artificial Intelligence. Montreal:IJCAI,1995,95:1652-1659.

    [77] Likhachev M,Ferguson D I,Gordon G J,et al.Anytime dynamic A*:an anytime,re-planning algorithm[C]∥2005 Interna-tional ConferenceonAutomatedPlanningandScheduling. Monterey:ICAPS,2005:262-271.

    [78] Likhachev M,Ferguson D.Planning long dynamically feasible maneuvers for autonomous vehicles[J].The International Journal of Robotics Research,2009,28(8):933-945.

    [79] Komoriya K,Tanie K.Trajectory design and control of a wheeltype mobile robot using B-spline curve[C]∥The Autonomous Mobile Robots and Its Applications,IROS'89.Tsukuba:IEEE, 1989:398-405.

    [80] Takahashi A,Hongo T,Ninomiya Y,et al.Local path planning and motion control for Agv in positioning[C]∥The Autonomous Mobile Robots and Its Applications,IROS'89.Tsukuba:IEEE, 1989:392-397.

    [81] Kanayama Y,Hartman B I.Smooth local path planning for autonomous vehicles[M]∥Cox I J,Wilfong G T,Lozano-Perez T. Autonomous robot vehicles.New York:Springer,1990:62-67. [82] Kelly A,Nagy B.Reactive nonholonomic trajectory generation via parametric optimal control[J].The International Journal of Robotics Research,2003,22(7-8):583-601.

    [83] Delsart V,Fraichard T,Martinez L.Real-time trajectory generation for car-like vehicles navigating dynamic environments[C]∥2009 IEEE International Conference on Robotics and Automation.Kobe:IEEE,2009:3401-3406.

    [84] Kuwata Y,Fiore G A,Teo J,et al.Motion planning for urban driving using RRT[C]∥2008 IEEE/RSJ International Conference on Intelligent Robots and Systems.France:IEEE,2008: 1681-1686.

    [85] Karaman S,Walter M R,Perez A,et al.Anytime motion planning using the RRT*[C]∥2011 IEEE International Conference onRoboticsandAutomation.Shanghai:IEEE,2011: 1478-1483.

    [86] Giesbrecht J.Global path planning for unmanned ground vehicles,ADA436274[R].US:Defence Research And Development Suffield(Alberta),2004.

    [87] Chen Q Y,Sun Z P,Liu D X,et al.Local path planning for an unmanned ground vehicle based on SVM[J].International Journal of Advanced Robotic Systems,2012,9(246).doi:10. 5772/54130.

    [88] Leonard J,How J,Teller S,et al.A perception‐driven autonomous urban vehicle[J].Journal of Field Robotics,2008,25(10): 727-774.

    [89] Bacha A,BaumanC,FaruqueR,etal.Odin:Team victortango's entry in the DARPA Urban Challenge[J].Journal of Field Robotics,2008,25(8):467-492.

    [90] Coulter R C.Implementation of the pure pursuit path tracking algorithm,ADA255524[R].Pittsburgh:Carnegie Mellon University,the Robotics Institute,1992.

    [91] Kelly A.A feed-forward control approach to the local navigation problem for autonomous vehicles[M].Pittsburgh:Carnegie Mellon University,the Robotics Institute,1994.

    [92] Urmson C,Ragusa C,Ray D,et al.A robust approach to high‐speed navigation for unrehearsed desert terrain[J].Journal of Field Robotics,2006,23(8):467-508.

    [93] Thrun S,Montemerlo M,Dahlkamp H,et al.Stanley:the robot that won the DARPA grand challenge[J].Journal of Field Robotics,2006,23(9):661-692.

    [94] Snider J M.Automatic steering methods for autonomous automobile path tracking,CMU-RI-TR-09-08[R].Pittsburgh:Carnegie Mellon University,the Robotics Institute,2009.

    [95] Kritayakirana K,Gerdes J C.Using the centre of percussion to design a steering controller for an autonomous race car[J].Vehicle System Dynamics,2012,50(S1):33-51.

    [96] Ziegler J,Bender P,Schreiber M,et al.Making bertha drive-an autonomous journey on a historic route[J].IEEE Intelligent Transportation Systems Magazine,2014,6(2):8-20.

    [97] Divelbiss A W,Wen J T.Trajectory tracking control of a cartrailer system[J].Control Systems Technology,IEEE Transactions on,1997,5(3):269-278.

    [98] Levinson J,Askeland J,Becker J,et al.Towards fully autonomous driving:Systems and algorithms[C]∥2011 IEEE Intelligent Vehicles Symposium(IV).Spain:IEEE,2011:163-168.

    [99] Falcone P,Borrelli F,Asgari J,et al.Predictive active steering control for autonomous vehicle systems[J].IEEE Transactions on Control Systems Technology,2007,15(3):566-580.

    [100] Yoon Y,Shin J,Kim H J,et al.Model-predictive active steering and obstacle avoidance for autonomous ground vehicles[J]. Control Engineering Practice,2009,17(7):741-750.

    [101] Geiger A,Lauer M,Moosmann F,et al.Team AnnieWAY's entry to the 2011 grand cooperative driving challenge[J].IEEE Transactions onIntelligentTransportationSystems,2012, 13(3):1008-1017.

    [102] Tran T H,Nguyen M T,Kwok N M,et al.Sliding Mode-PID approach for robust low-level control of a UGV[C]∥2006 IEEE International Conference on Automation Science and Engineering.Shanghai:IEEE,2006:672-677.

    [103] Ma Y,Xiang C,Zhu Q,et al.Design of fuzzy enhanced hierarchical motion stabilizing controller of unmanned ground vehicle in three dimensional space[J].International Journal of Computational Intelligence Systems,2011,4(6):1168-1178.

    [104] Xu X,He H G.Neural-network-based learning control for the high-speed path tracking of unmanned ground vehicles[C]∥Proceedings of the International Conference on Machine Learning and Cybernetics,2002.Beijing:IEEE,2002:1652-1656.

    An Overview of Research on Military Unmanned Ground Vehicles

    CHEN Hui-yan,ZHANG Yu
    (School of Mechanical Engineering,Beijing Institute of Technology,Beijing 100081,China)

    Unmanned ground vehicles(UGVs),which are of great strategic significance for developing high maneuvering unmanned ground combat systems,have become a research hotspot of defense technology.The development and current progress of UGVs for military application are reviewed.The fundamental components and development characteristics of military UGVs are stated and analyzed.The key technologies of military UGVs are also summarized in the areas of sensing and perception,motion planning and path tracking.In addition,the future research direction and focus of military UGVs are suggested.

    ordnance science and technology;military maneuvering unmanned ground vehicle;environmental perception;motion planning;path tracking

    TP242

    A

    1000-1093(2014)10-1696-11

    10.3969/j.issn.1000-1093.2014.10.026

    2014-07-21

    國家自然科學(xué)基金項目(91120010)

    陳慧巖(1961—),男,教授,博士生導(dǎo)師。E-mail:chen_h_y@263.net;張玉(1989—),男,博士研究生。E-mail:yu.zhang.bit@gmail.com

    猜你喜歡
    控制器車輛規(guī)劃
    車輛
    小太陽畫報(2018年3期)2018-05-14 17:19:26
    規(guī)劃引領(lǐng)把握未來
    快遞業(yè)十三五規(guī)劃發(fā)布
    商周刊(2017年5期)2017-08-22 03:35:26
    冬天路滑 遠離車輛
    車輛出沒,請注意
    多管齊下落實規(guī)劃
    迎接“十三五”規(guī)劃
    提高車輛響應(yīng)的轉(zhuǎn)向輔助控制系統(tǒng)
    汽車文摘(2015年11期)2015-12-02 03:02:53
    模糊PID控制器設(shè)計及MATLAB仿真
    MOXA RTU控制器ioPAC 5542系列
    自動化博覽(2014年9期)2014-02-28 22:33:17
    免费观看性生交大片5| 国产av精品麻豆| 肉色欧美久久久久久久蜜桃| 亚洲欧洲国产日韩| 久久精品久久精品一区二区三区| 亚洲精品中文字幕在线视频 | 亚洲精品国产av蜜桃| 少妇被粗大的猛进出69影院 | www.av在线官网国产| 99热这里只有精品一区| 日本黄色片子视频| 99久国产av精品国产电影| 国模一区二区三区四区视频| 久久午夜福利片| av卡一久久| 校园人妻丝袜中文字幕| av天堂久久9| xxx大片免费视频| 大片电影免费在线观看免费| 欧美精品国产亚洲| 日韩免费高清中文字幕av| 久久久久久久国产电影| 国产av精品麻豆| 国产精品秋霞免费鲁丝片| 校园人妻丝袜中文字幕| 欧美成人精品欧美一级黄| 尾随美女入室| 国产精品成人在线| 啦啦啦中文免费视频观看日本| 99热6这里只有精品| 亚洲丝袜综合中文字幕| 亚洲av国产av综合av卡| 欧美国产精品一级二级三级 | 18禁动态无遮挡网站| 麻豆乱淫一区二区| 精品人妻熟女毛片av久久网站| 2022亚洲国产成人精品| 人人澡人人妻人| 国产中年淑女户外野战色| 国产淫语在线视频| 久久久久久久久久久久大奶| 欧美性感艳星| 91精品国产九色| 久久av网站| 婷婷色麻豆天堂久久| 精品久久久久久久久av| 精品人妻熟女av久视频| 日韩在线高清观看一区二区三区| 欧美精品一区二区免费开放| 久久午夜综合久久蜜桃| 亚洲国产欧美日韩在线播放 | 亚洲欧美日韩卡通动漫| 老熟女久久久| 日本黄大片高清| 各种免费的搞黄视频| 性色avwww在线观看| av线在线观看网站| 国产av码专区亚洲av| 99久久精品热视频| 国产老妇伦熟女老妇高清| 国产精品麻豆人妻色哟哟久久| 国产熟女欧美一区二区| 男女国产视频网站| 大香蕉97超碰在线| 在线观看免费视频网站a站| 中文天堂在线官网| 国产日韩一区二区三区精品不卡 | 看非洲黑人一级黄片| av天堂久久9| 少妇人妻精品综合一区二区| 日韩在线高清观看一区二区三区| 午夜日本视频在线| 欧美日韩视频高清一区二区三区二| a级毛色黄片| 97超碰精品成人国产| 亚洲av中文av极速乱| 欧美少妇被猛烈插入视频| 国产精品一区www在线观看| 美女中出高潮动态图| 日本黄大片高清| 又粗又硬又长又爽又黄的视频| 老司机亚洲免费影院| 黄色欧美视频在线观看| 亚洲精品久久久久久婷婷小说| 久久ye,这里只有精品| 97精品久久久久久久久久精品| 人妻 亚洲 视频| 久久免费观看电影| 日韩成人av中文字幕在线观看| 亚洲av综合色区一区| 十八禁网站网址无遮挡 | 少妇精品久久久久久久| 2022亚洲国产成人精品| 国产精品久久久久久av不卡| 国产日韩欧美在线精品| 国产精品偷伦视频观看了| 国产精品女同一区二区软件| av线在线观看网站| 国产永久视频网站| 国精品久久久久久国模美| 三上悠亚av全集在线观看 | 曰老女人黄片| 高清视频免费观看一区二区| 精品久久久久久电影网| 国产 精品1| 午夜免费男女啪啪视频观看| 国产一区二区在线观看日韩| 一区二区三区乱码不卡18| 久久国产精品男人的天堂亚洲 | 99精国产麻豆久久婷婷| 久久久国产一区二区| 乱系列少妇在线播放| 在线播放无遮挡| 日本av免费视频播放| 91在线精品国自产拍蜜月| 亚洲精品国产av蜜桃| 欧美日韩综合久久久久久| 我的女老师完整版在线观看| 最近2019中文字幕mv第一页| 国产成人freesex在线| 国产极品粉嫩免费观看在线 | 欧美精品亚洲一区二区| 亚洲欧美成人精品一区二区| 精品久久久久久电影网| 狂野欧美白嫩少妇大欣赏| 亚洲欧美成人精品一区二区| 国产女主播在线喷水免费视频网站| 如日韩欧美国产精品一区二区三区 | 午夜久久久在线观看| 久久午夜福利片| 国产日韩欧美在线精品| 少妇人妻一区二区三区视频| 国语对白做爰xxxⅹ性视频网站| 久久久久久久亚洲中文字幕| 免费高清在线观看视频在线观看| 亚洲,一卡二卡三卡| 亚洲图色成人| 在线观看av片永久免费下载| 日本av手机在线免费观看| 亚洲精品国产av蜜桃| 高清午夜精品一区二区三区| 青青草视频在线视频观看| 三上悠亚av全集在线观看 | 少妇熟女欧美另类| 色94色欧美一区二区| 大码成人一级视频| 亚洲精品中文字幕在线视频 | 国产黄片视频在线免费观看| 久久精品国产鲁丝片午夜精品| 三级国产精品欧美在线观看| 青春草亚洲视频在线观看| 国产精品伦人一区二区| 精品熟女少妇av免费看| 久久综合国产亚洲精品| 丝袜喷水一区| 免费人妻精品一区二区三区视频| 日韩欧美精品免费久久| 国产av一区二区精品久久| 国产精品无大码| 美女内射精品一级片tv| 日韩一区二区视频免费看| 国产精品成人在线| 热99国产精品久久久久久7| 国产午夜精品一二区理论片| 草草在线视频免费看| 国产精品熟女久久久久浪| 中文资源天堂在线| 亚洲欧美成人综合另类久久久| 免费观看的影片在线观看| 国产av一区二区精品久久| 观看av在线不卡| 国内精品宾馆在线| 麻豆成人av视频| 搡女人真爽免费视频火全软件| 大香蕉97超碰在线| 大香蕉久久网| 97在线视频观看| 美女视频免费永久观看网站| 高清黄色对白视频在线免费看 | 国产有黄有色有爽视频| 美女xxoo啪啪120秒动态图| 内地一区二区视频在线| 亚洲精品乱码久久久久久按摩| 亚洲色图综合在线观看| 午夜免费观看性视频| 欧美日韩精品成人综合77777| 插阴视频在线观看视频| 99re6热这里在线精品视频| 亚洲一级一片aⅴ在线观看| 最近的中文字幕免费完整| 亚洲无线观看免费| 大片电影免费在线观看免费| 亚洲精品一区蜜桃| 哪个播放器可以免费观看大片| 亚洲高清免费不卡视频| 色5月婷婷丁香| 免费观看在线日韩| 成人特级av手机在线观看| 欧美成人午夜免费资源| 男人舔奶头视频| 久久韩国三级中文字幕| 久热这里只有精品99| 婷婷色综合大香蕉| 久久久久精品性色| 久久久久久久久久人人人人人人| 久久人人爽av亚洲精品天堂| 美女中出高潮动态图| 精华霜和精华液先用哪个| 我要看黄色一级片免费的| 日日摸夜夜添夜夜添av毛片| 亚洲国产欧美在线一区| 亚洲美女搞黄在线观看| 免费人妻精品一区二区三区视频| 亚洲国产精品成人久久小说| 黄色配什么色好看| 欧美国产精品一级二级三级 | 午夜久久久在线观看| 色视频www国产| 精品国产露脸久久av麻豆| 亚洲国产精品一区三区| 成年女人在线观看亚洲视频| 亚洲综合色惰| 青春草国产在线视频| 人人妻人人澡人人爽人人夜夜| 成人国产麻豆网| 97在线视频观看| 成人毛片a级毛片在线播放| 久久99蜜桃精品久久| 亚洲,一卡二卡三卡| 免费黄频网站在线观看国产| 夜夜看夜夜爽夜夜摸| 大码成人一级视频| 国产亚洲一区二区精品| 精品少妇黑人巨大在线播放| 国产永久视频网站| 一边亲一边摸免费视频| 久久久久人妻精品一区果冻| 亚洲精品日本国产第一区| av在线app专区| 国产探花极品一区二区| 亚洲第一区二区三区不卡| 欧美日韩精品成人综合77777| 日韩强制内射视频| 老司机亚洲免费影院| 成年av动漫网址| 伦精品一区二区三区| 国产女主播在线喷水免费视频网站| 91aial.com中文字幕在线观看| 免费久久久久久久精品成人欧美视频 | 国产伦在线观看视频一区| 女人精品久久久久毛片| 晚上一个人看的免费电影| 午夜福利网站1000一区二区三区| 成人无遮挡网站| 久久av网站| 2018国产大陆天天弄谢| 在线观看一区二区三区激情| 国产一区二区在线观看av| 啦啦啦啦在线视频资源| 男女啪啪激烈高潮av片| 色婷婷久久久亚洲欧美| 精品国产露脸久久av麻豆| 嫩草影院新地址| 免费人成在线观看视频色| 最新中文字幕久久久久| 人妻系列 视频| 我的老师免费观看完整版| 18禁在线无遮挡免费观看视频| 在线播放无遮挡| 777米奇影视久久| 91精品国产九色| 亚洲激情五月婷婷啪啪| 国产 精品1| 插逼视频在线观看| 欧美日韩国产mv在线观看视频| 人人妻人人爽人人添夜夜欢视频 | 久久精品国产鲁丝片午夜精品| 亚洲欧美精品专区久久| 亚洲精品成人av观看孕妇| 肉色欧美久久久久久久蜜桃| 人妻人人澡人人爽人人| h日本视频在线播放| 99九九线精品视频在线观看视频| 欧美一级a爱片免费观看看| 国产伦精品一区二区三区视频9| 国产视频内射| 天天操日日干夜夜撸| 精品国产国语对白av| 欧美+日韩+精品| 精品久久久久久久久av| 久久精品熟女亚洲av麻豆精品| 亚洲国产av新网站| 精品99又大又爽又粗少妇毛片| 婷婷色麻豆天堂久久| 国产老妇伦熟女老妇高清| 黑丝袜美女国产一区| 亚洲国产精品一区三区| 日韩欧美一区视频在线观看 | 亚洲精品一二三| 一边亲一边摸免费视频| 久久国产亚洲av麻豆专区| 日韩欧美一区视频在线观看 | 亚洲人成网站在线观看播放| 夫妻午夜视频| 一级毛片aaaaaa免费看小| 99热网站在线观看| 精品人妻一区二区三区麻豆| 国产精品秋霞免费鲁丝片| 极品教师在线视频| 在线观看免费日韩欧美大片 | 亚洲人成网站在线观看播放| 免费av中文字幕在线| 在线观看一区二区三区激情| 爱豆传媒免费全集在线观看| 在线观看一区二区三区激情| 国产一区亚洲一区在线观看| 丁香六月天网| 免费不卡的大黄色大毛片视频在线观看| 亚洲精品乱码久久久v下载方式| 欧美日韩在线观看h| 国产美女午夜福利| 国产免费一级a男人的天堂| 美女cb高潮喷水在线观看| 亚洲经典国产精华液单| 91在线精品国自产拍蜜月| 亚洲性久久影院| 久久久精品94久久精品| 久久久精品免费免费高清| av又黄又爽大尺度在线免费看| 99久久人妻综合| 69精品国产乱码久久久| 丝袜在线中文字幕| av福利片在线| 在线亚洲精品国产二区图片欧美 | 久久99热这里只频精品6学生| 18+在线观看网站| 男女边吃奶边做爰视频| 人人妻人人看人人澡| 国产精品免费大片| 欧美变态另类bdsm刘玥| 在线观看国产h片| 国产精品99久久99久久久不卡 | 久久久国产一区二区| 国产成人精品一,二区| 国产精品国产三级国产av玫瑰| 老熟女久久久| 色吧在线观看| 亚洲国产毛片av蜜桃av| 又粗又硬又长又爽又黄的视频| 一级爰片在线观看| 一边亲一边摸免费视频| a级一级毛片免费在线观看| 免费久久久久久久精品成人欧美视频 | 97在线视频观看| 久久这里有精品视频免费| 大片电影免费在线观看免费| 久热这里只有精品99| 国产精品免费大片| 人人妻人人看人人澡| av一本久久久久| 秋霞伦理黄片| 精品午夜福利在线看| 观看免费一级毛片| 啦啦啦在线观看免费高清www| 丝袜喷水一区| 一边亲一边摸免费视频| 国产精品国产av在线观看| 多毛熟女@视频| 国产在线男女| 我要看日韩黄色一级片| 久久精品国产亚洲av涩爱| 中国国产av一级| 国产精品国产av在线观看| 精品一区在线观看国产| 久久亚洲国产成人精品v| 国产亚洲最大av| 午夜视频国产福利| 亚洲情色 制服丝袜| 欧美人与善性xxx| 校园人妻丝袜中文字幕| h日本视频在线播放| 精品国产国语对白av| 美女脱内裤让男人舔精品视频| 一本久久精品| 国产成人精品久久久久久| 国产精品久久久久成人av| 亚洲电影在线观看av| 美女cb高潮喷水在线观看| 亚洲欧美精品自产自拍| 亚洲人与动物交配视频| 国产亚洲5aaaaa淫片| 麻豆乱淫一区二区| 精华霜和精华液先用哪个| 中文字幕免费在线视频6| 久久精品久久久久久噜噜老黄| 高清毛片免费看| 久久久久久久久大av| av在线老鸭窝| 亚洲内射少妇av| 99久久精品一区二区三区| 多毛熟女@视频| 蜜桃在线观看..| 男女边吃奶边做爰视频| 亚洲国产精品999| 偷拍熟女少妇极品色| 国产探花极品一区二区| 高清不卡的av网站| 久久久久久久久久人人人人人人| 老司机影院成人| 日韩欧美 国产精品| a 毛片基地| 亚洲精品乱码久久久久久按摩| 麻豆精品久久久久久蜜桃| 久久国产乱子免费精品| 亚洲美女搞黄在线观看| 国产一区亚洲一区在线观看| 少妇被粗大的猛进出69影院 | 观看av在线不卡| 亚洲精品乱码久久久v下载方式| 七月丁香在线播放| 大又大粗又爽又黄少妇毛片口| 欧美国产精品一级二级三级 | 一级毛片我不卡| 中文字幕人妻丝袜制服| a 毛片基地| 久久99精品国语久久久| 特大巨黑吊av在线直播| 成人国产av品久久久| 久久久精品94久久精品| 午夜福利,免费看| 国精品久久久久久国模美| 欧美最新免费一区二区三区| av不卡在线播放| 成人毛片a级毛片在线播放| 麻豆乱淫一区二区| 最新中文字幕久久久久| 亚洲第一av免费看| 一级毛片电影观看| 99国产精品免费福利视频| 男男h啪啪无遮挡| 肉色欧美久久久久久久蜜桃| 午夜激情福利司机影院| av免费观看日本| 黑人巨大精品欧美一区二区蜜桃 | 日韩欧美 国产精品| 国产 精品1| 久久99蜜桃精品久久| 中文字幕免费在线视频6| av免费在线看不卡| 午夜视频国产福利| 亚洲色图综合在线观看| 久久人妻熟女aⅴ| 人妻少妇偷人精品九色| 91aial.com中文字幕在线观看| 熟妇人妻不卡中文字幕| 中文精品一卡2卡3卡4更新| 成人午夜精彩视频在线观看| 黄色怎么调成土黄色| 国产男女超爽视频在线观看| 精品一区二区三区视频在线| av在线观看视频网站免费| 久久久久久久大尺度免费视频| 七月丁香在线播放| 另类亚洲欧美激情| 一区二区三区四区激情视频| 亚洲电影在线观看av| 午夜激情福利司机影院| 国内揄拍国产精品人妻在线| 涩涩av久久男人的天堂| 亚洲精品国产成人久久av| 日本黄色日本黄色录像| 欧美 亚洲 国产 日韩一| 91午夜精品亚洲一区二区三区| 一级av片app| 精品久久久久久电影网| a级一级毛片免费在线观看| 天美传媒精品一区二区| 你懂的网址亚洲精品在线观看| 狂野欧美白嫩少妇大欣赏| 观看av在线不卡| 免费黄频网站在线观看国产| 搡老乐熟女国产| 岛国毛片在线播放| 亚洲四区av| av在线观看视频网站免费| 免费黄网站久久成人精品| 亚洲av福利一区| 国产伦在线观看视频一区| 一区二区三区免费毛片| 男女边摸边吃奶| 丝袜在线中文字幕| 五月玫瑰六月丁香| 中文资源天堂在线| 最后的刺客免费高清国语| 久久久亚洲精品成人影院| 久久久久久久大尺度免费视频| 黑人高潮一二区| 尾随美女入室| 国语对白做爰xxxⅹ性视频网站| 日韩av在线免费看完整版不卡| 中文字幕亚洲精品专区| 久久久国产一区二区| 精品少妇黑人巨大在线播放| 国产精品久久久久成人av| 一区二区三区精品91| av黄色大香蕉| 男女国产视频网站| 久久久久久久久久成人| 校园人妻丝袜中文字幕| 国产一区二区三区综合在线观看 | 美女内射精品一级片tv| 亚洲中文av在线| 精品国产国语对白av| av天堂中文字幕网| 精品久久久精品久久久| 欧美xxⅹ黑人| 中文字幕制服av| 精品久久久久久久久亚洲| 性色av一级| 一区在线观看完整版| 男人狂女人下面高潮的视频| 精华霜和精华液先用哪个| 日日啪夜夜爽| 又粗又硬又长又爽又黄的视频| 少妇被粗大的猛进出69影院 | kizo精华| 久久ye,这里只有精品| 精品一品国产午夜福利视频| 亚洲怡红院男人天堂| 九九爱精品视频在线观看| 国产欧美日韩综合在线一区二区 | 夜夜看夜夜爽夜夜摸| 在现免费观看毛片| 日韩欧美 国产精品| 少妇熟女欧美另类| 日本与韩国留学比较| 国产一级毛片在线| 日韩中字成人| 熟妇人妻不卡中文字幕| 久久久久久久久大av| 一级爰片在线观看| 免费久久久久久久精品成人欧美视频 | 免费观看在线日韩| 国产淫片久久久久久久久| 一级,二级,三级黄色视频| 99热全是精品| 日本午夜av视频| 熟妇人妻不卡中文字幕| 精品国产一区二区久久| 国产日韩欧美亚洲二区| 中国三级夫妇交换| 观看免费一级毛片| 九色成人免费人妻av| 欧美变态另类bdsm刘玥| 午夜91福利影院| 国产精品偷伦视频观看了| 中文字幕亚洲精品专区| 十分钟在线观看高清视频www | 97超视频在线观看视频| 一个人看视频在线观看www免费| 女性被躁到高潮视频| 欧美bdsm另类| 国产午夜精品一二区理论片| 一级毛片我不卡| 91aial.com中文字幕在线观看| 精品久久久噜噜| 日日摸夜夜添夜夜爱| 日韩一本色道免费dvd| 97在线人人人人妻| 少妇裸体淫交视频免费看高清| 成年美女黄网站色视频大全免费 | 精品酒店卫生间| 少妇人妻精品综合一区二区| av免费在线看不卡| 伊人久久精品亚洲午夜| 国产精品一区www在线观看| 菩萨蛮人人尽说江南好唐韦庄| 欧美高清成人免费视频www| 最后的刺客免费高清国语| 欧美日韩在线观看h| 日韩精品免费视频一区二区三区 | 日韩大片免费观看网站| 亚洲欧美日韩东京热| 最近2019中文字幕mv第一页| 日日撸夜夜添| 国产成人freesex在线| 亚洲欧美一区二区三区国产| 桃花免费在线播放| 日本黄色日本黄色录像| 亚洲人与动物交配视频| 亚洲一级一片aⅴ在线观看| 亚洲国产日韩一区二区| 午夜激情福利司机影院| 久久久久视频综合| 国产精品.久久久| 亚洲精品第二区| 亚洲自偷自拍三级| h日本视频在线播放| 国产亚洲一区二区精品| 高清av免费在线| 黑丝袜美女国产一区| 美女视频免费永久观看网站| 黑人猛操日本美女一级片| 国产有黄有色有爽视频| 中文字幕制服av| 我要看日韩黄色一级片| 高清黄色对白视频在线免费看 | 欧美少妇被猛烈插入视频| 日本免费在线观看一区| 欧美 日韩 精品 国产| 久久ye,这里只有精品| 在线看a的网站| 国产乱人偷精品视频| 久久人人爽av亚洲精品天堂| av网站免费在线观看视频|