• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深空探測(cè)著陸過(guò)程序列圖像自主導(dǎo)航綜述

    2016-12-01 05:20:24王大軼黃翔宇
    關(guān)鍵詞:利用信息方法

    王大軼,徐 超,黃翔宇

    (1.北京控制工程研究所,100190 北京; 2.空間智能控制技術(shù)重點(diǎn)試驗(yàn)室,100190 北京)

    ?

    深空探測(cè)著陸過(guò)程序列圖像自主導(dǎo)航綜述

    王大軼1,2,徐 超1,2,黃翔宇1,2

    (1.北京控制工程研究所,100190 北京; 2.空間智能控制技術(shù)重點(diǎn)試驗(yàn)室,100190 北京)

    基于序列圖像的自主導(dǎo)航作為未來(lái)深空探測(cè)地外天體精確定點(diǎn)著陸任務(wù)的關(guān)鍵技術(shù),是目前深空探測(cè)技術(shù)的重點(diǎn)發(fā)展方向之一.針對(duì)未來(lái)深空探測(cè)地外天體精確著陸自主導(dǎo)航的需求,闡述了發(fā)展深空探測(cè)著陸過(guò)程序列圖像自主導(dǎo)航的必要性.首先,分別從主動(dòng)成像和被動(dòng)成像兩個(gè)方向介紹了基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航研究現(xiàn)狀;然后,總結(jié)并分析了基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航涉及到的關(guān)鍵技術(shù);最后,根據(jù)關(guān)鍵技術(shù)分析給出了基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航研究目前存在的主要問題并對(duì)其后續(xù)發(fā)展進(jìn)行了展望.

    深空探測(cè);自主導(dǎo)航;序列圖像;精確著陸

    開展深空探測(cè)活動(dòng)是人類進(jìn)一步了解宇宙、認(rèn)識(shí)太陽(yáng)系、探索地球與生命起源和演化、獲取更多科學(xué)認(rèn)識(shí)的必須手段,更是國(guó)家發(fā)展、科學(xué)探索、科技創(chuàng)新和開拓疆域的共同需求[1].隨著科學(xué)技術(shù)的快速發(fā)展,地外天體著陸探測(cè)成為深空探測(cè)的重要內(nèi)容.目前人類已經(jīng)實(shí)現(xiàn)了對(duì)月球、火星、小行星和彗星的著陸探測(cè),在這些著陸探測(cè)任務(wù)中采用的著陸自主導(dǎo)航方法主要是慣性導(dǎo)航.但由于初始導(dǎo)航誤差、慣性測(cè)量誤差以及引力場(chǎng)模型誤差的存在,慣性導(dǎo)航誤差隨時(shí)間增加而逐步增大,因此,慣性導(dǎo)航通常需要與其他外部敏感器測(cè)量信息相結(jié)合以提高導(dǎo)航精度.目前廣泛使用的是基于慣性導(dǎo)航配以測(cè)距測(cè)速修正的導(dǎo)航方法,其已在“嫦娥三號(hào)”、“阿波羅”等月球著陸任務(wù)以及火星著陸任務(wù)中得到成功應(yīng)用[2-3].盡管測(cè)距測(cè)速敏感器提供了較高精度的速度和斜距測(cè)量信息,能夠有效地抑制慣性導(dǎo)航在速度和高度方向上的誤差發(fā)散,但是單純的測(cè)距測(cè)速無(wú)法為慣性導(dǎo)航系統(tǒng)提供水平位置誤差修正信息,因此這種導(dǎo)航方法只能滿足對(duì)著陸精度要求不太高的探測(cè)任務(wù)需求.

    未來(lái)地外天體探測(cè)任務(wù)要求探測(cè)器具有在較高科學(xué)價(jià)值的特定區(qū)域精確著陸的能力.美國(guó)宇航局(NASA)[4]提出的精確定點(diǎn)著陸(pinpoint landing systems, PPL)要求探測(cè)器著陸精度在100 m以內(nèi),現(xiàn)有的慣性導(dǎo)航輔以測(cè)距測(cè)速修正的著陸導(dǎo)航方法難以滿足精確定點(diǎn)著陸的要求.針對(duì)未來(lái)深空探測(cè)地外天體精確著陸自主導(dǎo)航的需求,一種最為可行的技術(shù)手段是引入地外天體表面圖像信息進(jìn)行自主導(dǎo)航.這主要是由于地外天體表面分布著大量形狀各異的隕石坑、巖石和紋理等天然陸標(biāo),利用地外天體表面陸標(biāo)圖像信息能夠獲取完備的探測(cè)器位置和姿態(tài)信息.采用序列圖像的自主導(dǎo)航技術(shù),作為未來(lái)載人和無(wú)人深空探測(cè)精確定點(diǎn)著陸任務(wù)的關(guān)鍵技術(shù),NASA和歐空局(ESA)等[5-7]機(jī)構(gòu)都將其作為深空探測(cè)技術(shù)的重點(diǎn)發(fā)展方向之一.

    根據(jù)我國(guó)2030年前深空探測(cè)發(fā)展規(guī)劃,2020年前后我國(guó)將自主開展火星和小行星等地外天體的著陸探測(cè)任務(wù).在這一背景下,本文對(duì)基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航進(jìn)行綜述,系統(tǒng)地總結(jié)基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航的研究現(xiàn)狀,概括并分析基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航涉及到的關(guān)鍵技術(shù),提出當(dāng)前研究存在的主要問題并對(duì)其后續(xù)發(fā)展進(jìn)行展望,為我國(guó)未來(lái)的地外天體著陸探測(cè)任務(wù)提供參考.

    1 深空探測(cè)著陸過(guò)程序列圖像自主導(dǎo)航研究現(xiàn)狀

    基于序列圖像的自主導(dǎo)航解決的是采用圖像序列的運(yùn)動(dòng)估計(jì)問題,其指載體利用主動(dòng)或被動(dòng)成像敏感器獲取環(huán)境圖像序列,通過(guò)對(duì)該序列圖像進(jìn)行分析處理獲得載體的位置、速度和姿態(tài)等導(dǎo)航信息的技術(shù),如圖1所示.基于序列圖像的自主導(dǎo)航處于多學(xué)科交叉領(lǐng)域,研究范圍涉及光學(xué)、圖像、模式識(shí)別、電子、導(dǎo)航等多個(gè)學(xué)科,早期主要應(yīng)用于機(jī)器人導(dǎo)航任務(wù),包括無(wú)人地面車輛、無(wú)人機(jī)和水下機(jī)器人等[8-10],近年來(lái)其在深空探測(cè)地外天體精確著陸自主導(dǎo)航中的應(yīng)用研究也越來(lái)越多.目前,研究人員已在基于天體表面序列圖像信息的地外天體精確著陸自主導(dǎo)航方面開展了大量研究和飛行試驗(yàn)工作.

    圖1 序列圖像自主導(dǎo)航

    根據(jù)所采用敏感器的不同,基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航可以分為兩類:主動(dòng)式和被動(dòng)式.主動(dòng)式采用激光雷達(dá)(light detection and ranging, LIDAR)主動(dòng)成像敏感器感知探測(cè)器著陸環(huán)境;被動(dòng)式采用光學(xué)相機(jī)作為主要導(dǎo)航敏感器來(lái)獲取環(huán)境圖像序列.

    1.1 采用LIDAR的序列圖像自主導(dǎo)航研究現(xiàn)狀

    LIDAR敏感器可直接獲得著陸區(qū)域的三維地形圖,典型的LIDAR圖像如圖2所示[11].LIDAR成像敏感器具有精度高、分辨率高、更新速度快、不受光照條件限制等優(yōu)點(diǎn),是理想的著陸導(dǎo)航敏感器[12].首先LIDAR敏感器對(duì)視場(chǎng)內(nèi)的著陸區(qū)域三維成像,獲取著陸器相對(duì)著陸區(qū)域的斜距信息,然后LIDAR測(cè)量數(shù)據(jù)結(jié)合著陸器當(dāng)前位姿估計(jì)生成數(shù)字高程圖(dight elevation map, DEM),最后利用相關(guān)性方法或模式匹配方法將獲得的DEM與著陸器存儲(chǔ)的著陸區(qū)域參考地形庫(kù)進(jìn)行比對(duì)從而得到著陸器的絕對(duì)位姿估計(jì).當(dāng)著陸器中沒有參考地形庫(kù)時(shí),可通過(guò)比對(duì)由LIDAR敏感器獲得的序列圖像得到局部相對(duì)位姿和速度估計(jì),局部相對(duì)位姿和速度的準(zhǔn)確估計(jì)是實(shí)現(xiàn)行星著陸自主避障和安全著陸的關(guān)鍵技術(shù)[13-14].

    圖2 月球南北極LIDAR圖像[11]

    目前,已經(jīng)存在多種采用LIDAR的自主著陸導(dǎo)航方法.20世紀(jì)90年代初期NASA約翰遜航天中心(NASA-JSC)就進(jìn)行了利用LIDAR對(duì)著陸區(qū)域掃描成像以實(shí)現(xiàn)障礙檢測(cè)和規(guī)避的研究[15],噴氣推進(jìn)試驗(yàn)室(JPL)的Johnson等[16-17]在此基礎(chǔ)上進(jìn)一步深入研究了利用LIDAR實(shí)現(xiàn)火星著陸自主避障和安全著陸的問題,并通過(guò)數(shù)學(xué)仿真進(jìn)行了驗(yàn)證.同時(shí),加拿大Sherbrooke大學(xué)的Lafontaine等[18-21]也對(duì)采用LIDAR敏感器的行星自主著陸導(dǎo)航和避障問題進(jìn)行了研究.2006年NASA針對(duì)實(shí)現(xiàn)探測(cè)器自主著陸月球、火星甚至小行星的要求啟動(dòng)了自主著陸和避障技術(shù)研究項(xiàng)目(autonomous landing and Hazard avoidance technology, ALHAT)[4,22].基于LIDAR的地形相對(duì)導(dǎo)航是ALHAT項(xiàng)目的核心技術(shù)之一,NASA為ALHAT項(xiàng)目專門研制了閃光式激光成像雷達(dá)敏感器(flash lidar),并對(duì)由該LIDAR敏感器作為主要敏感器的精確著陸自主導(dǎo)航系統(tǒng)進(jìn)行了廣泛的測(cè)試驗(yàn)證[23-25],最終經(jīng)過(guò)閉環(huán)飛行試驗(yàn)表明基于LIDAR的ALHAT系統(tǒng)達(dá)到甚至超過(guò)了NASA六級(jí)技術(shù)就緒水平(technology readiness level, TRL)[26].此外,2013年中國(guó)“嫦娥三號(hào)”月球探測(cè)器利用激光三維成像敏感器在世界上首次實(shí)現(xiàn)了地外天體軟著陸精確自主避障[27].

    1.2 采用光學(xué)相機(jī)的序列圖像自主導(dǎo)航研究現(xiàn)狀

    相較于主動(dòng)成像敏感器,以光學(xué)相機(jī)為代表的被動(dòng)成像敏感器具有質(zhì)量和體積小、功耗低、技術(shù)成熟、不受使用高度限制等特點(diǎn),但其受到光照條件約束[12].隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,基于光學(xué)圖像的運(yùn)動(dòng)估計(jì)問題得到了廣泛的研究[28-31],其在深空探測(cè)著陸過(guò)程自主導(dǎo)航中的應(yīng)用研究也越來(lái)越多,并在地外天體著陸探測(cè)任務(wù)中得到不同程度的測(cè)試和驗(yàn)證.當(dāng)前,對(duì)基于光學(xué)圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航的研究以美國(guó)NASA為主.2000年美國(guó)NEAR小行星探測(cè)器首次進(jìn)行了采用陸標(biāo)光學(xué)圖像的導(dǎo)航,在最后的接近著陸過(guò)程中通過(guò)跟蹤Eros小行星表面的隕石坑獲得了遠(yuǎn)高于傳統(tǒng)方法的導(dǎo)航精度,但該導(dǎo)航過(guò)程主要在地面完成[32].2004年美國(guó)的“火星探測(cè)漫游者(MER)”火星探測(cè)器通過(guò)下降圖像運(yùn)動(dòng)估計(jì)系統(tǒng)(descent image motion estimation system, DIMES)在著陸過(guò)程中通過(guò)跟蹤3幅序列圖像中的相關(guān)圖像塊實(shí)現(xiàn)對(duì)探測(cè)器水平方向速度的估計(jì)[33].隨后在DIMES基礎(chǔ)上,JPL提出了一種適用于行星著陸的通用地形相對(duì)導(dǎo)航方法,該方法可自主完成下降圖像和參考地形圖中陸標(biāo)特征的識(shí)別和匹配以及下降圖像序列中陸標(biāo)特征的識(shí)別和跟蹤,并通過(guò)擴(kuò)展卡爾曼濾波器(EKF)融合陸標(biāo)圖像測(cè)量信息和慣性測(cè)量信息實(shí)現(xiàn)著陸器的位姿估計(jì),該方法經(jīng)探空火箭試驗(yàn)表明最終導(dǎo)航精度優(yōu)于10 m[34-37].在上述研究基礎(chǔ)上,NASA開發(fā)了著陸器視覺系統(tǒng)(lander vision system, LVS),并設(shè)計(jì)制造了LVS原型樣機(jī),該系統(tǒng)硬件部分主要由相機(jī)、慣性敏感單元和專用計(jì)算元件組成[38],2014年和2015年NASA使用直升機(jī)和自主下降上升動(dòng)力飛行試驗(yàn)臺(tái)(autonomous descent and ascent powered-flight testbed, ADAPT)成功對(duì)LVS進(jìn)行了飛行試驗(yàn)測(cè)試[39-40].此外,日本的“隼鳥號(hào)”采樣返回探測(cè)器在著陸近地小行星過(guò)程中采用了基于人造陸標(biāo)圖像的相對(duì)導(dǎo)航技術(shù)方案[41];中國(guó)的“嫦娥三號(hào)”月球著陸器在接近段飛行過(guò)程中首次利用光學(xué)相機(jī)觀測(cè)預(yù)定著陸區(qū)實(shí)現(xiàn)月球軟著陸粗避障[27].上述深空探測(cè)任務(wù)對(duì)基于光學(xué)圖像的著陸過(guò)程自主導(dǎo)航的應(yīng)用和試驗(yàn)驗(yàn)證表明了基于光學(xué)序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航的可行性和對(duì)提高導(dǎo)航精度的巨大潛能.除上述方法外,研究人員還提出了多種采用光學(xué)序列圖像的著過(guò)程自主導(dǎo)航方法.約翰斯-霍普金斯大學(xué)應(yīng)用物理試驗(yàn)室提出采用兩個(gè)正交安裝的光學(xué)相機(jī)進(jìn)行導(dǎo)航的精確著陸自主導(dǎo)航(autonomous precision landing navigation algorithm, APLNav)方法[42-43];ESA在行星接近和著陸導(dǎo)航項(xiàng)目(navigation for planetary approach and landing, NPAL)中[44]提出一種基于特征點(diǎn)提取、跟蹤和估計(jì)的視覺導(dǎo)航方法; Janschek等[45]提出利用由導(dǎo)航相機(jī)獲取的光流信息重構(gòu)著陸區(qū)域的三維模型,并與提前存儲(chǔ)的參考數(shù)字高程模型進(jìn)行匹配得到著陸器的位姿估計(jì);Guizzo等[46]提出基于雙目視覺的火星著陸自主導(dǎo)航方法.國(guó)內(nèi)對(duì)基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航方法也進(jìn)行了廣泛的研究.哈工大、北理工和北京控制工程研究所等[47-51]機(jī)構(gòu)對(duì)月球、火星和小天體探測(cè)器在軟著陸階段的自主視覺導(dǎo)航與避障的關(guān)鍵技術(shù)方面都進(jìn)行了較為深入的研究.

    2 基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航關(guān)鍵技術(shù)

    國(guó)內(nèi)外學(xué)者從不同角度和不同側(cè)重點(diǎn)對(duì)基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航進(jìn)行了系統(tǒng)深入的研究.從目前研究來(lái)看,基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航所涉及的關(guān)鍵技術(shù)包括:天體表面地形的建模和表征技術(shù)、天體表面圖像導(dǎo)航特征的提取、匹配和跟蹤技術(shù)、基于序列圖像的自主導(dǎo)航技術(shù)、基于序列圖像的著陸過(guò)程自主導(dǎo)航敏感器技術(shù)和基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航仿真驗(yàn)證技術(shù)等.

    2.1 天體表面地形的建模和表征技術(shù)

    不管是采用主動(dòng)式還是被動(dòng)式成像敏感器的地外天體著陸絕對(duì)導(dǎo)航均需要著陸區(qū)域的參考地形數(shù)據(jù)庫(kù),因此利用天體表面地形的建模和表征技術(shù)構(gòu)建天體的三維地形數(shù)據(jù)庫(kù)是采用序列圖像信息進(jìn)行絕對(duì)自主導(dǎo)航的基礎(chǔ).目前,隨著火星、月球和小行星等地外天體探測(cè)任務(wù)的實(shí)施,探測(cè)器在軌獲取了大量的天體影像和高程等數(shù)據(jù),通過(guò)地面處理,構(gòu)建了火星、月球和小行星等天體的三維地形數(shù)據(jù)庫(kù),可為未來(lái)著陸探測(cè)任務(wù)的著陸安全分析和導(dǎo)航提供技術(shù)基礎(chǔ).

    對(duì)于火星,“火星全球勘測(cè)者(MGS)”探測(cè)器通過(guò)線陣相機(jī)和激光測(cè)距儀獲取了大量測(cè)量數(shù)據(jù),生成了分辨率介于200~300 m,高程精度為5~30 m的全火星三維地形數(shù)據(jù)庫(kù)[52].“火星快車(mars express)”探測(cè)器利用高分辨率立體測(cè)繪相機(jī)(high resolution stereo Camera, HRSC)獲取了分辨率約為10 m的火星表面影像數(shù)據(jù),該高分辨率影像目前已經(jīng)基本覆蓋火星全球,利用該影像數(shù)據(jù)可以獲取分辨率優(yōu)于百米的火星全球地形數(shù)據(jù)[53].“火星偵察軌道器(MRO)”利用高分辨率科學(xué)成像試驗(yàn)相機(jī)(high resolution science imaging experiment, HiRISE)獲取的影像分辨率優(yōu)于0.5 m,是目前為止分辨率最高的火星表面影像圖,但是僅能覆蓋火星表面不足1%的區(qū)域[54].在“好奇號(hào)”著陸探測(cè)計(jì)劃實(shí)施過(guò)程中,MRO利用HiRISE對(duì)多個(gè)備選著陸區(qū)進(jìn)行了詳細(xì)觀測(cè),獲取了備選著陸區(qū)的精確地形數(shù)據(jù),構(gòu)建了備選著陸區(qū)的三維地形數(shù)據(jù)庫(kù),地面利用該數(shù)據(jù)庫(kù)進(jìn)行了大量的著陸仿真驗(yàn)證,確保了“好奇號(hào)”著陸探測(cè)任務(wù)的成功實(shí)施.此外,JPL的Gaskell利用“海盜號(hào)”探測(cè)器的測(cè)繪數(shù)據(jù)構(gòu)建了高分辨的火星地形和反照率模型,還利用稀少的立體觀測(cè)數(shù)據(jù)構(gòu)建了含數(shù)百個(gè)陸標(biāo)的火衛(wèi)一地形模型[55].

    對(duì)于月球,“克萊門汀”月球探測(cè)器提供了分辨率為100 m/像素的全月表圖像和精度為7.6 km/像素的數(shù)字高程圖;“月球勘測(cè)軌道器”利用相機(jī)和激光測(cè)距儀對(duì)月球進(jìn)行了全月球觀測(cè),構(gòu)建了月球三維地形數(shù)據(jù)庫(kù),全月球分辨率為100 m,局部區(qū)域分辨率達(dá)到25~35 m、高程精度優(yōu)于1 m[13,56].“嫦娥”系列衛(wèi)星也獲取了全月球的高程和圖像數(shù)據(jù),全月球影像圖分辨率達(dá)到7 m,目前構(gòu)建的月球三維地形數(shù)據(jù)庫(kù)平面位置和高程精度分別為192 m和120 m[57-58],為“嫦娥三號(hào)”選取著陸區(qū)提供了重要支持.

    對(duì)于小天體,NEAR任務(wù)利用在軌測(cè)量數(shù)據(jù)構(gòu)建了Eros小行星三維形狀、引力等模型[59];Gaskell[60]利用NEAR任務(wù)獲取的大量立體影像數(shù)據(jù),構(gòu)建了平均分辨率為30 m、大部分區(qū)域分辨率介于10~30 m的Eros小行星形狀和地形模型.Gaskell[61]還利用已有小行星Itokawa雷達(dá)觀測(cè)模型結(jié)合“隼鳥號(hào)”任務(wù)獲取的影像和高程等數(shù)據(jù),構(gòu)建了帶有陸標(biāo)的Itokawa三維仿真模型,并進(jìn)行了初步的陸標(biāo)導(dǎo)航仿真分析.

    為提高天體表面三維地形模型的分辨率,國(guó)內(nèi)外學(xué)者研究了光束法平差[52,62-64]、密集匹配[65-66]等關(guān)鍵技術(shù).Shan等[52,62]采用二階多項(xiàng)式模型對(duì)MGS獲取的火星表面影像數(shù)據(jù)進(jìn)行了光束法平差處理;Li等[63]采用三階多項(xiàng)式建立了MRO任務(wù)影像數(shù)據(jù)的嚴(yán)格平差模型,利用平差后的結(jié)果在“勇氣號(hào)”火星車著陸區(qū)生成了1 m網(wǎng)格的高分辨率地形數(shù)據(jù);王任享[64]提出的三線陣CCD影像EFP光束法平差方法已應(yīng)用在“嫦娥一號(hào)”獲取的月球影像數(shù)據(jù)處理中.利用立體影像數(shù)據(jù)生成三維地形數(shù)據(jù)庫(kù)的核心問題是影像的密集匹配;Kirk等[65-66]通過(guò)對(duì)MGS獲取的圖像和距離數(shù)據(jù)進(jìn)行密集匹配處理,獲取了“勇氣號(hào)”和“機(jī)遇號(hào)”著陸區(qū)的高分辨地形模型,利用MRO獲取的觀測(cè)數(shù)據(jù)生成的“鳳凰號(hào)”著陸區(qū)地形模型分辨率達(dá)到米級(jí).

    2.2 天體表面圖像導(dǎo)航特征的提取、匹配和跟蹤技術(shù)

    基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航是利用天體表面導(dǎo)航特征的圖像測(cè)量信息對(duì)著陸器的狀態(tài)進(jìn)行更新估計(jì),因此天體表面圖像導(dǎo)航特征的提取、匹配和跟蹤技術(shù)是基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航的關(guān)鍵技術(shù)之一.

    從目前國(guó)內(nèi)外的研究情況看,天體表面可用于導(dǎo)航的特征主要有隕石坑、尺度不變特征變換(scale-invariant feature transformation, SIFT)特征點(diǎn)、角點(diǎn)和巖石等.隕石坑是最適用于著陸導(dǎo)航的陸標(biāo)特征,其具有顯著的幾何形狀,可在不同光照條件和無(wú)需相機(jī)高度和姿態(tài)信息的情況下實(shí)現(xiàn)特征的提取、匹配和跟蹤[67].目前,天體表面圖像導(dǎo)航特征的提取算法主要就是針對(duì)隕石坑特征進(jìn)行的.天體表面圖像隕石坑特征的提取主要有基于模板匹配提取和基于邊緣或陰影信息啟發(fā)式提取兩種思路.Louren等[68]針對(duì)天體表面隕石坑特有的形狀,生成相應(yīng)的模板,并通過(guò)模板匹配實(shí)現(xiàn)隕石坑的提取.該方法能夠在圖像幀之間對(duì)隕石坑進(jìn)行識(shí)別,但當(dāng)圖像出現(xiàn)較大的旋轉(zhuǎn)、尺度縮放及形變時(shí),就很難獲得較好的提取效果;Cheng等[67]提出一種實(shí)時(shí)隕石坑檢測(cè)算法,該算法首先利用Canny算子提取圖像中的邊緣信息,然后利用邊緣分組方法找出屬于同一個(gè)隕石坑的邊緣,并將其擬合為閉合橢圓用來(lái)表征隕石坑,最后將擬合出的隕石坑橢圓與隕石坑數(shù)據(jù)庫(kù)進(jìn)行匹配;丁萌等[69]提出采用KLT特征提取方法對(duì)隕石坑可能存在的區(qū)域進(jìn)行搜索,并通過(guò)分割、邊緣提取及形狀擬合等處理實(shí)現(xiàn)隕石坑的提取.盡管地外天體上隕石坑非常常見,但并不能保證所有的目標(biāo)著陸區(qū)域都有足夠多的隕石坑用于著陸器位置估計(jì),因此需要一種更普遍的陸標(biāo)特征用于著陸過(guò)程導(dǎo)航,SIFT特征點(diǎn)是一種可能的選擇.SIFT可將圖像數(shù)據(jù)轉(zhuǎn)換成與圖像尺度和旋轉(zhuǎn)無(wú)關(guān)的特征向量或關(guān)鍵點(diǎn)(key points)信息,利用關(guān)鍵點(diǎn)信息可實(shí)現(xiàn)圖像之間的準(zhǔn)確匹配[70].由于在提取SIFT關(guān)鍵點(diǎn)時(shí)計(jì)算量較大,目前基于SIFT的特征點(diǎn)提取和匹配方法在地外天體著陸導(dǎo)航中的應(yīng)用研究還比較少.角點(diǎn)特征是另一種較容易從圖像中提取的陸標(biāo)特征,其通常對(duì)應(yīng)于圖像中的紋理區(qū)域,適合用相關(guān)性方法進(jìn)行跟蹤[36].針對(duì)巖石等特征點(diǎn),Troglio等[71]提出一種融合分水嶺分割算法(watershed segmentation)、Hough變化等多種圖像處理技術(shù)的圖像特征提取方法;JPL試驗(yàn)室提出利用圖像閾值分割確定陰影區(qū)域,進(jìn)而根據(jù)太陽(yáng)光的照射角度確定巖石區(qū)域的方法[72].

    天體表面圖像特征的匹配方法主要有相關(guān)性方法(correlation approaches)和模式匹配(pattern matching)及其組合方法.相關(guān)性方法是將敏感器獲取的天體表面圖像塊與地形模型庫(kù)的每個(gè)位置塊進(jìn)行相似性評(píng)價(jià),得到相似性最高的位置即為最佳匹配點(diǎn)[13].相關(guān)性方法主要有兩種:平面圖像的相關(guān)性方法[33-34]和三維圖像的相關(guān)性方法[73].與相關(guān)性方法相比,模式匹配是用圖像陸標(biāo)匹配代替了圖像塊的相關(guān)性評(píng)估,利用從敏感器觀測(cè)圖像中提取出的圖像陸標(biāo)與參考地形庫(kù)中的陸標(biāo)進(jìn)行特征匹配,這就要求參考地形庫(kù)必須包含陸標(biāo)的明顯特征和位置信息.Cheng等[74]提出從探測(cè)器著陸過(guò)程拍攝的圖像中提取隕石坑,根據(jù)隕石坑的直徑、相對(duì)距離和角度等特征與參考隕石坑數(shù)據(jù)庫(kù)進(jìn)行模式匹配,從而獲得探測(cè)器絕對(duì)位置與姿態(tài)信息,該方法已經(jīng)利用月球、火星和小行星圖像進(jìn)行了測(cè)試.Frome等[75]利用三維成像敏感器獲取天體表面三維圖像,并從中提取出形狀特征,與著陸區(qū)數(shù)字地形中的形狀特征進(jìn)行匹配,進(jìn)而估計(jì)著陸器位置和姿態(tài).此外,Gaskell[76]研究了一種圖像模式匹配和相關(guān)性方法相結(jié)合的組合導(dǎo)航特征匹配方法,其利用已獲取的天體表面圖像來(lái)構(gòu)建多個(gè)地形表面塊的三維模型,將這些三維表面塊作為導(dǎo)航的陸標(biāo),在著陸過(guò)程中利用當(dāng)時(shí)太陽(yáng)光照條件和表面塊三維模型生成表面塊平面圖像,利用生成的表面塊平面圖像與敏感器實(shí)際獲取的圖像進(jìn)行相關(guān)性處理,得到最佳匹配點(diǎn)信息,從而估計(jì)探測(cè)器位置和姿態(tài).

    當(dāng)利用下降過(guò)程獲得的序列圖像估計(jì)著陸器局部位置或速度時(shí),導(dǎo)航陸標(biāo)的匹配問題就轉(zhuǎn)變?yōu)楦檰栴}.目前,應(yīng)用最多的圖像特征跟蹤方法是KLT算法[77],其利用梯度下降方法搜索序列圖像間的匹配模板來(lái)實(shí)現(xiàn)特征點(diǎn)跟蹤,但該方法在弱光照條件下的效果較差.MER探測(cè)器的DIMES系統(tǒng)利用區(qū)域相關(guān)和圖像單應(yīng)性方法在已知姿態(tài)和高度信息的情況下實(shí)現(xiàn)跟蹤3幅下降圖像中的4個(gè)特征點(diǎn)[33].Johnson等[34]在DIMES基礎(chǔ)上改進(jìn)特征跟蹤算法,實(shí)現(xiàn)在無(wú)外部姿態(tài)和高度敏感器情況下在上百幅圖像中穩(wěn)定跟蹤數(shù)十個(gè)特征點(diǎn).

    2.3 基于序列圖像的自主導(dǎo)航技術(shù)

    如何利用天體表面特征圖像信息以提高著陸導(dǎo)航精度是實(shí)現(xiàn)精確著陸的關(guān)鍵技術(shù)之一.地外天體著陸任務(wù)面對(duì)的飛行環(huán)境、地形和光照條件等可能各不相同,利用天體表面特征圖像信息的方式也不盡相同.目前,國(guó)內(nèi)外學(xué)者針對(duì)不同情況,從不同角度出發(fā),提出了多種利用天體表面圖像信息的導(dǎo)航方法.

    第1類是完全不依賴動(dòng)力學(xué)模型,純粹依靠圖像信息的導(dǎo)航方法,以NASA為MER探測(cè)器開發(fā)的DIMES系統(tǒng)為代表.DIMES系統(tǒng)利用導(dǎo)航相機(jī)識(shí)別、匹配相鄰兩幀圖像中特征點(diǎn),結(jié)合高度計(jì)測(cè)距信息,利用簡(jiǎn)單的三角幾何關(guān)系和勻速運(yùn)動(dòng)假設(shè),完成對(duì)探測(cè)器水平速度的估計(jì)[33].此外,Sun等[78]的幾何可觀性分析表明,當(dāng)存在3個(gè)及3個(gè)以上的不共面方向矢量測(cè)量時(shí),相機(jī)載體的位姿即可唯一確定.因此,當(dāng)在下降圖像中可檢測(cè)到至少3個(gè)不共線且位置已知的陸標(biāo)時(shí),即可根據(jù)幾何關(guān)系確定著陸器位姿信息.目前研究人員提出了多種僅利用已知位置陸標(biāo)圖像測(cè)量信息計(jì)算相機(jī)載體位姿的算法[67,79-80].該類導(dǎo)航方法雖簡(jiǎn)單可靠,但其存在以下兩個(gè)不足[36]:1)其要求整個(gè)著陸過(guò)程中的下降圖像均至少能檢測(cè)到3個(gè)已知位置的陸標(biāo),但大多數(shù)著陸過(guò)程并不能保證滿足該要求;2)該方法只能確定成像時(shí)刻著陸器狀態(tài),而這對(duì)于著陸過(guò)程來(lái)說(shuō)是不夠的.

    針對(duì)單純依靠圖像信息進(jìn)行導(dǎo)航存在的問題,研究人員提出了利用濾波算法融合天體表面已知位置陸標(biāo)圖像測(cè)量信息和慣性測(cè)量信息的組合導(dǎo)航方法,利用離散的已知位置陸標(biāo)圖像測(cè)量信息對(duì)慣導(dǎo)系統(tǒng)進(jìn)行修正,估計(jì)探測(cè)器位置、姿態(tài)以及慣性測(cè)量單元的漂移[35-36,81-82].這種方法主要適用于引力場(chǎng)模型準(zhǔn)確的大天體的軟著陸任務(wù).

    上述方法均是針對(duì)參考地形庫(kù)中已存在的陸標(biāo)特征進(jìn)行的,當(dāng)下降序列圖像中檢測(cè)和跟蹤的陸標(biāo)在參考地形庫(kù)中不存在或沒有著陸區(qū)域的參考地形庫(kù),即用于導(dǎo)航的陸標(biāo)位置未知時(shí),上述導(dǎo)航方法將不再適用.目前,針對(duì)這種情況主要有兩類處理方法.一類是將陸標(biāo)位置作為系統(tǒng)狀態(tài)進(jìn)行估計(jì),即同時(shí)定位與地圖創(chuàng)建(simultaneous localization and mapping, SLAM)方法,該方法在機(jī)器人視覺導(dǎo)航中研究較多[83-84].但目前來(lái)看SLAM方法并不適用于探測(cè)器在大天體的著陸導(dǎo)航任務(wù),主要原因是當(dāng)陸標(biāo)較多時(shí)計(jì)算量太大,難以實(shí)時(shí)進(jìn)行,且SLAM方法主要適用于閉合軌道的導(dǎo)航,而著陸過(guò)程并不滿足閉合軌道要求[36].盡管如此,SLAM方法仍可用于小天體的著陸導(dǎo)航,Cocaud等[85-87]研究了利用SLAM方法的小行星著陸自主導(dǎo)航方法.另一類是利用陸標(biāo)的圖像測(cè)量信息結(jié)合飛行器在陸標(biāo)成像時(shí)刻的估計(jì)位姿建立約束方程,以建立的約束方程作為導(dǎo)航系統(tǒng)的測(cè)量方程,進(jìn)行飛行器狀態(tài)估計(jì)[88-91].Mourikis等[88]提出一種多狀態(tài)約束卡爾曼濾波算法(multi-state constraint Kalman filter, MSCKF), 該方法對(duì)序列圖像中的陸標(biāo)進(jìn)行跟蹤測(cè)量,通過(guò)最小二乘方法估計(jì)出陸標(biāo)的位置信息,進(jìn)而利用估計(jì)的陸標(biāo)位置進(jìn)行系統(tǒng)狀態(tài)的更新估計(jì);Gurfil等[89]利用子空間約束(subspace constraints)方法對(duì)飛行器部分狀態(tài)進(jìn)行估計(jì),該方法通過(guò)測(cè)量陸標(biāo)在圖像中的運(yùn)動(dòng),建立陸標(biāo)圖像運(yùn)動(dòng)與相機(jī)轉(zhuǎn)動(dòng)和平移運(yùn)動(dòng)之間的關(guān)系,并以之作為觀測(cè)方程,估計(jì)飛行器的運(yùn)動(dòng)狀態(tài);Indelman等[90]提出一種基于3幅圖像幾何約束的視覺輔助慣性導(dǎo)航方法,該方法是基于矩陣秩條件提出的利用3個(gè)時(shí)刻對(duì)同一陸標(biāo)的圖像測(cè)量信息結(jié)合成像時(shí)刻相機(jī)位姿信息建立約束方程作為系統(tǒng)測(cè)量方程;Zhao等[91]提出利用序列圖像之間的單應(yīng)性矩陣(homography matrix)為觀測(cè)量,對(duì)飛行器狀態(tài)進(jìn)行估計(jì).上述各種方法通過(guò)利用序列圖像測(cè)量信息以及成像時(shí)刻相機(jī)的位姿信息建立約束方程作為導(dǎo)航系統(tǒng)測(cè)量方程,都避免了要求已知陸標(biāo)位置等先驗(yàn)信息,但這些導(dǎo)航方法只能進(jìn)行相對(duì)導(dǎo)航,且系統(tǒng)狀態(tài)不完全可觀,因此通常需要融合其他外部敏感器的測(cè)量信息來(lái)實(shí)現(xiàn)高精度自主導(dǎo)航.

    2.4 基于序列圖像的著陸過(guò)程自主導(dǎo)航敏感器技術(shù)

    成像敏感器是基于序列圖像的著陸過(guò)程自主導(dǎo)航系統(tǒng)的關(guān)鍵部件.地外天體軟著陸自主導(dǎo)航系統(tǒng)要求導(dǎo)航敏感器具有測(cè)量精度高、靈敏度高、體積小、質(zhì)量輕、功耗低等特點(diǎn),因此對(duì)基于序列圖像的自主導(dǎo)航成像敏感器提出了極其嚴(yán)格的要求.

    目前,基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航成像敏感器主要有兩類:主動(dòng)式和被動(dòng)式.主動(dòng)式成像敏感器以NASA-LaRC為ALHAT項(xiàng)目研制的閃光式三維成像激光雷達(dá)為代表.NASA-LaRC研制的閃光式激光成像雷達(dá)敏感器如圖3所示.該敏感器具有如下3個(gè)功能:20~0.1 km高度范圍內(nèi)的高度測(cè)量、15~5 km高度范圍內(nèi)地形相對(duì)導(dǎo)航,1 000~100 m高度范圍內(nèi)的障礙檢測(cè)和規(guī)避(hazard detection and avoidance, HDA)和障礙相對(duì)導(dǎo)航(hazard relative navigation, HRN)[92].從2008年到2012年該Fish Lidar敏感器經(jīng)過(guò)4次直升機(jī)飛行試驗(yàn)、1次固定翼飛機(jī)飛行試驗(yàn)分別對(duì)其障礙檢測(cè)和規(guī)避、地形相對(duì)導(dǎo)航、障礙相對(duì)導(dǎo)航等功能進(jìn)行了飛行測(cè)試[14,23,92].2014年以來(lái),集成了Flash Lidar敏感器的GNC軟硬件系統(tǒng)作為“夢(mèng)神號(hào)”行星著陸器原型系統(tǒng)(Morpheus)的主要載荷進(jìn)行了多次飛行測(cè)試,系統(tǒng)表現(xiàn)良好[26].

    圖3 NASA-LaRC研制的Flash Lidar原型樣機(jī)[92]

    不同于主動(dòng)成像式敏感器,被動(dòng)光學(xué)成像敏感器技術(shù)更成熟,可選擇的敏感器更多.MER的DIMES系統(tǒng)采用了一個(gè)分辨率為1 024×1 024,視場(chǎng)角為45°×45°,像平面中心角分辨率每像素0.82 mrad,光譜響應(yīng)范圍為400~1 100 nm的工程相機(jī)[33,93],如圖4所示.JPL開發(fā)的LVS原型系統(tǒng)采用了商業(yè)敏感器組件,其相機(jī)由PhotonFocus公司的DS1-D1024全幀曝光CMOS和Kowa 6M6HC 6 mm鏡頭組成,具有85°視場(chǎng)角,如圖5所示[39].約翰斯-霍普金斯大學(xué)應(yīng)用物理試驗(yàn)室[94]提出的APLNav系統(tǒng)采用了兩個(gè)分辨率為256×256,視場(chǎng)角為55°的Sony XCD-SX910光學(xué)數(shù)字相機(jī),如圖6所示[96];Johnson等[34-36]則分別利用商業(yè)相機(jī)Pulnix TM-9701和SonyXC55作為著陸導(dǎo)航系統(tǒng)的成像敏感器在地面利用探空火箭進(jìn)行了飛行試驗(yàn).Pollard等[95]研究了現(xiàn)有月球著陸導(dǎo)航敏感器技術(shù),對(duì)其技術(shù)成熟度進(jìn)行了評(píng)估,并據(jù)此給出了幾種月球著陸器地形相對(duì)導(dǎo)航的敏感器組件配置方案.

    2.5 基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航仿真驗(yàn)證技術(shù)

    為驗(yàn)證所研究的基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航技術(shù)的有效性、可行性和實(shí)用性,必須針對(duì)地外天體著陸任務(wù),建立地面仿真試驗(yàn)驗(yàn)證系統(tǒng).這是突破關(guān)鍵技術(shù)所必須的,也是自主導(dǎo)航系統(tǒng)能夠轉(zhuǎn)入工程實(shí)施的基礎(chǔ).

    圖4 MER下降相機(jī)[93]

    圖5 LVS系統(tǒng)[39]

    圖6 APLNav相機(jī)[96]

    從國(guó)外的發(fā)展情況看,基于序列圖像的著陸過(guò)程自主導(dǎo)航系統(tǒng)的仿真驗(yàn)證大致經(jīng)歷模擬仿真驗(yàn)證、直升機(jī)或固定翼飛機(jī)、探空火箭等飛行試驗(yàn)驗(yàn)證以及采用著陸器模擬平臺(tái)的閉環(huán)實(shí)時(shí)試驗(yàn)驗(yàn)證.以JPL的LVS系統(tǒng)為例[39]:LVS系統(tǒng)發(fā)展早期研究人員利用在不同地形類型和不同光照條件下收集的地形數(shù)據(jù)對(duì)采用地形圖像的地形相對(duì)導(dǎo)航算法進(jìn)行了大量的離線仿真測(cè)試;完成LVS原型系統(tǒng)設(shè)計(jì)后在試驗(yàn)室利用火星圖片進(jìn)行了測(cè)試,驗(yàn)證了其位置、姿態(tài)和速度估計(jì)能力;隨后又利用兩自由度的臺(tái)架對(duì)LVS系統(tǒng)的校正、對(duì)準(zhǔn)和數(shù)據(jù)存儲(chǔ)時(shí)間等進(jìn)行了驗(yàn)證,如圖7所示;之后,利用直升機(jī)搭載LVS系統(tǒng)對(duì)各種可能的火星EDL情形進(jìn)行了飛行試驗(yàn)驗(yàn)證,如圖8所示;最后,利用ADAPT平臺(tái)對(duì)LVS系統(tǒng)進(jìn)行了閉環(huán)實(shí)時(shí)仿真測(cè)試,如圖9所示[40].由于當(dāng)前地外天體探測(cè)任務(wù)收集的天體表面地形數(shù)據(jù)有限,因此,在模擬仿真驗(yàn)證階段通常需要解決高精度地外天體表面地形圖像的模擬問題.約翰斯-霍普金斯大學(xué)應(yīng)用物理試驗(yàn)室[56]提出利用低分辨率地形圖像人工添加高分辨率數(shù)據(jù)生成高分辨率地形的月球表面地形建模技術(shù),為ALHAT項(xiàng)目提供符合要求的月球地形數(shù)據(jù).鄧迪大學(xué)[97-98]為ESA開發(fā)了PANGU軟件,用于生成行星和小行星表面模擬地形,目前該軟件已經(jīng)廣泛應(yīng)用于ESA基于視覺導(dǎo)航系統(tǒng)的仿真驗(yàn)證項(xiàng)目.

    圖7 LVS系統(tǒng)臺(tái)架試驗(yàn)[39]

    圖8 LVS系統(tǒng)直升機(jī)飛行試驗(yàn)[39]

    圖9 LVS系統(tǒng)ADAPT飛行試驗(yàn)[40]

    Quadrelli等[99]指出要實(shí)現(xiàn)精確定點(diǎn)著陸需要進(jìn)入前的導(dǎo)航、加速度測(cè)量技術(shù)、基于陸標(biāo)圖像的在線導(dǎo)航、燃料最優(yōu)的大范圍軌跡調(diào)整制導(dǎo)和障礙檢測(cè)與避讓等技術(shù)緊密合作.而綜合運(yùn)用這些技術(shù)的在線制導(dǎo)導(dǎo)航與控制系統(tǒng)是作為復(fù)雜系統(tǒng)來(lái)運(yùn)行的,要實(shí)現(xiàn)探測(cè)器精確定點(diǎn)著陸就需要綜合考慮系統(tǒng)部件、飛行動(dòng)力學(xué)和物理環(huán)境等的相互影響.因此,需要在各種真實(shí)仿真環(huán)境下從系統(tǒng)層面進(jìn)行閉環(huán)建模、測(cè)試和仿真驗(yàn)證.而目前的仿真驗(yàn)證技術(shù)還遠(yuǎn)未達(dá)到該要求,需要進(jìn)一步發(fā)展物理仿真驗(yàn)證方法以提高系統(tǒng)測(cè)試能力.

    3 基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航展望

    從技術(shù)發(fā)展趨勢(shì)看,采用序列圖像信息是提高著陸過(guò)程自主導(dǎo)航精度的一種重要的技術(shù)手段,具有良好的發(fā)展和應(yīng)用前景.目前國(guó)內(nèi)外學(xué)者從多種角度、側(cè)重不同問題對(duì)采用序列圖像的著陸過(guò)程自主導(dǎo)航進(jìn)行了探索和研究,在各關(guān)鍵技術(shù)方面都取得一定進(jìn)展.但是,采用序列圖像的地外天體精確定點(diǎn)著陸自主導(dǎo)航仍存在較多難點(diǎn)問題未能很好地解決,其難點(diǎn)問題主要有:針對(duì)深空探測(cè)著陸過(guò)程自主導(dǎo)航實(shí)時(shí)性的要求,在星載計(jì)算機(jī)存儲(chǔ)和計(jì)算能力有限的約束下,如何稀疏表征所需要的天體表面三維地形模型庫(kù);如何實(shí)現(xiàn)快速可靠的多尺度圖像特征提取、匹配與跟蹤;如何實(shí)現(xiàn)多維多時(shí)空導(dǎo)航信息的快速最優(yōu)融合處理等.因此,需要針對(duì)上述難點(diǎn)問題深入開展研究,以滿足地外天體精確定點(diǎn)著陸任務(wù)的需求.

    3.1 天體表面導(dǎo)航陸標(biāo)的稀疏表征與優(yōu)化選取

    盡管國(guó)內(nèi)外相關(guān)研究利用在軌獲取的深空天體各類影像、高程等數(shù)據(jù),經(jīng)過(guò)一系列的地形測(cè)繪數(shù)據(jù)處理技術(shù)和手段,構(gòu)建了一定精度的天體表面三維地形模型,但由于已實(shí)現(xiàn)的深空天體探測(cè)任務(wù)十分有限,因此絕大多數(shù)天體仍無(wú)可用于導(dǎo)航的地形表征庫(kù).特別是針對(duì)小天體的著陸探測(cè)任務(wù)基本也是目標(biāo)天體的首次探測(cè)任務(wù),因此需要解決如何利用在軌測(cè)量數(shù)據(jù)快速構(gòu)建高精度天體表面地形數(shù)據(jù)庫(kù)的問題.深空天體表面地形復(fù)雜多樣,且形態(tài)各異,難以用描述符號(hào)表征,且對(duì)于深空大天體著陸任務(wù),著陸過(guò)程探測(cè)器航程可達(dá)數(shù)百公里,導(dǎo)致需要的天體表面區(qū)域三維地形數(shù)據(jù)非常龐大,針對(duì)星載計(jì)算機(jī)存儲(chǔ)和計(jì)算能力有限的約束以及著陸導(dǎo)航對(duì)實(shí)時(shí)性的嚴(yán)格要求,需要解決導(dǎo)航陸標(biāo)特征信息的稀疏表征問題.此外,保證陸標(biāo)導(dǎo)航信息的完備性和最優(yōu)性是實(shí)現(xiàn)高精度導(dǎo)航的關(guān)鍵,因此還需要解決導(dǎo)航陸標(biāo)的優(yōu)化選取與規(guī)劃問題.

    3.2 天體表面多尺度多視點(diǎn)圖像陸標(biāo)特征提取與匹配

    目前,國(guó)內(nèi)外學(xué)者在天體表面圖像導(dǎo)航特征提取、匹配和跟蹤的研究方面已經(jīng)取得了一定的進(jìn)展和效果.但是,對(duì)于深空探測(cè)著陸過(guò)程的特殊任務(wù)背景,探測(cè)器的航程、高度和姿態(tài)變化范圍大,光照條件不確定,敏感器獲取的天體表面圖像尺度、視點(diǎn)、陰影等范圍變化大,已有的圖像導(dǎo)航特征提取、匹配和跟蹤算法還無(wú)法適應(yīng)深空探測(cè)著陸過(guò)程的特殊任務(wù)環(huán)境.另外,無(wú)論是相關(guān)性方法,還是模式匹配,都需要進(jìn)行大范圍的圖像匹配,很難滿足著陸過(guò)程自主導(dǎo)航的實(shí)時(shí)性要求.因此,還需要深入開展天體表面多尺度多視點(diǎn)圖像特征的提取、匹配與跟蹤方面的研究工作.

    針對(duì)可能出現(xiàn)的陸標(biāo)圖像多位置重點(diǎn)以及特征不明顯等問題,需要研究如何觀測(cè)獲取最優(yōu)的導(dǎo)航陸標(biāo)圖像.針對(duì)敏感器視點(diǎn)等大范圍變化導(dǎo)致圖像變形以及不同光照帶來(lái)的陰影變化等問題,需要研究引入導(dǎo)航陸標(biāo)等信息的圖像特征快速提取方法.針對(duì)多尺度多視點(diǎn)以及局部特性不明顯圖像可能引起的誤匹配問題,需要研究引入基于信息融合的魯棒導(dǎo)航陸標(biāo)匹配方法.

    3.3 基于序列圖像信息的最優(yōu)融合自主導(dǎo)航

    從目前的研究情況看,要實(shí)現(xiàn)地外天體精確定點(diǎn)著陸任務(wù),尤其是對(duì)于未知環(huán)境下的天體著陸任務(wù),采用序列圖像信息的自主導(dǎo)航系統(tǒng)通常還需要融合慣性測(cè)量單元、測(cè)距測(cè)速敏感器等其他外部敏感器的測(cè)量信息以提高導(dǎo)航系統(tǒng)精度和可靠性,這就需要解決測(cè)量信息的最優(yōu)融合問題.

    針對(duì)著陸過(guò)程獲取的序列陸標(biāo)圖像、慣性測(cè)量和測(cè)距測(cè)速等導(dǎo)航信息存在時(shí)間不同步、空間不一致等問題,需要研究多維測(cè)量信息的時(shí)空同化與表征方法.導(dǎo)航陸標(biāo)相對(duì)目標(biāo)著陸點(diǎn)的位置精度決定了著陸精度,限于目前探測(cè)和測(cè)量手段,導(dǎo)航陸標(biāo)必然存在一定的位置誤差,需要研究導(dǎo)航陸標(biāo)位置誤差的校正方法.針對(duì)精確定點(diǎn)著陸自主導(dǎo)航的需求,需要研究多信息最優(yōu)融合導(dǎo)航理論與分析方法,解決如何選取高品質(zhì)測(cè)量信息才能滿足全部導(dǎo)航參數(shù)可快速估計(jì)的需求、如何融合多維信息才能最優(yōu)估計(jì)導(dǎo)航參數(shù)等問題.

    4 結(jié) 語(yǔ)

    采用序列圖像的著陸過(guò)程自主導(dǎo)航是未來(lái)實(shí)現(xiàn)地外天體精確定點(diǎn)著陸任務(wù)最為可行的技術(shù)手段之一.本文首先對(duì)基于序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航發(fā)展現(xiàn)狀進(jìn)行了總結(jié),然后概括并分析了采用序列圖像的著陸過(guò)程自主導(dǎo)航涉及到的關(guān)鍵技術(shù),最后對(duì)深空探測(cè)著陸過(guò)程序列圖像自主導(dǎo)航的難點(diǎn)問題進(jìn)行了總結(jié)分析,并對(duì)其后續(xù)發(fā)展進(jìn)行了展望.

    目前,國(guó)外已經(jīng)對(duì)采用序列圖像的深空探測(cè)著陸過(guò)程自主導(dǎo)航技術(shù)進(jìn)行了大量的飛行試驗(yàn),即將進(jìn)入實(shí)際應(yīng)用階段,而我國(guó)也即將開展小行星和火星的著陸探測(cè)任務(wù),因此有必要對(duì)采用序列圖像的著陸過(guò)程自主導(dǎo)航技術(shù)進(jìn)行更為深入的研究,為我國(guó)未來(lái)的地外天體著陸探測(cè)任務(wù)提供必要的技術(shù)儲(chǔ)備.

    [1] 葉培建, 彭兢. 深空探測(cè)與我國(guó)深空探測(cè)展望[J]. 中國(guó)工程科學(xué), 2006, 8(10): 13-18.

    [2] 吳偉仁, 李驥, 黃翔宇, 等. 慣導(dǎo)/測(cè)距/測(cè)速相結(jié)合的安全軟著陸自主導(dǎo)航方法[J]. 宇航學(xué)報(bào), 2015, 36(8):893-898.

    [3] OBERHETTINGER D, SKULSKY E D, BAILEY E S. Assessment of Mars phoenix EDL performance[C]// Proceedings of 2011 IEEE Aerospace Conference. Big Sky, MT: IEEE, 2011:1-6.

    [4] EPP C D, SMITH T B. Autonomous precision landing and hazard detection and avoidance technology (ALHAT) [C] // Proceedings of 2007 IEEE Aerospace Conference. Big Sky, MT: IEEE, 2007:1-7.

    [5] STEINFELDT B A, GRANT M J, MATZ D A, et al. Guidance, navigation, and control system performance trades for Mars pinpoint landing [J]. Journal of Spacecraft and Rockets, 2010, 47(1): 188-198.

    [6] MILLER J K, CHENG Y. Autonomous landmark tracking orbit determination strategy [C]// Proceedings of 2003 AAS Astrodynamics Specialist Conference. Big Sky, MT: AAS, 2003: 1779-1789.

    [7] REBORDAO J M. Space optical navigation techniques-an overview [C]// Proceedings of 8thIberoamerican Optics Meeting and 11thLatin American Meeting on Optics, Lasers, and Applications. Porto, Portugal: SPIE, 2013.

    [8] SULLIVAN L O, CORKE P, MAHONY R. Image-based visual navigation for mobile robots [C]//Proceedings of IEEE International Conference on Robotics and Automation. Karlsruhe: IEEE, 2013:5277-5283.

    [9] CESETTI A, FRONTONI E, MANCINI A, et al. A vision-based guidance system for UAV navigation and safelanding using natural landmarks[J]. Journal of Intelligent and Robotic Systems, 2010, 57(1/2/3/4): 233-257.

    [10]GRACIAS N, VICTOR J S. Underwater video mosaics as visual navigation maps[J]. Computer Vision and Image Understanding, 2000, 79(1): 66-91.

    [11]MAZARICO E, NEUMANN G A, SMITH D E, et al. Illumination conditions of the lunar polar regions using LOLA topography [J]. Icarus, 2011, 211(2):1066-1081.[12]JOHNSON A E, HUERTAS A, WERNER R A, et al. Analysis of on-board hazard detection and avoidance for safe Lunar landing [C]// Proceedings of 2008 IEEE Aerospace Conference. Big Sky, MT: IEEE, 2008:1-9.

    [13]JOHNSON A E, MONTGOMERY J F. Overview of terrain relative navigation approaches for precise Lunar landing [C]// Proceedings of IEEE Aerospace Conference. Big Sky, MT: IEEE, 2008.

    [14]JOHNSON A E, IVANOV T I. Analysis and testing of a LIDAR-based approach to terrain relative navigation for precise Lunar landing [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Oregon. Portland: AIAA, 2011.

    [15]PIEN H. Autonomous hazard detection and avoidance: C.S. Draper Laboratory Report CSDLC-6303 [R]. Cambridge, MA: NASA, 1992.

    [16]JOHNSON A E, KLUMPP A, COLLIER J, et al. LIDAR-based hazard avoidance for landing on Mars [J]. Journal of Guidance, Control, and Dynamics, 2002, 25(6):1091-1099.[17]WONG E C, SINGH G, MASCIARELLI J P. Guidance and control design for hazard avoidance and safe landing on Mars [J]. Journal of Spacecraft and Rockets, 2006, 43(2):378-384.

    [18]De LAFONTAINE J, NEVEU D, LEBEL K. Autonomous planetary landing with obstacle avoidance: the quartic guidance revisited [C]// Proceedings of 14thAAS/AIAA Space Flight Mechanics Meeting. Maui, Hawaii: AAS/AIAA, 2004.

    [19]De LAFONTAINE J, GUEYE O. Autonomous planetary landing using a LIDAR sensor: the navigation function [J]. Space Technology, 2004, 24(1):7-18.

    [20]De LAFONTAINE J, NEVEU D, LEBEL K. Autonomous planetary landing using a lidar sensor: the closed-loop system [C]// Proceedings of 6thInternational ESA Conference on Guidance, Navigation and Control Systems. Loutraki: ESA, 2005.

    [21]De LAFONTAINE J, ULITSKY A, TRIPP J W, et al. LAPS: the development of a scanning LIDAR system with GNC for autonomous hazard avoidance and precision landing [C]// Proceedings of SPIE Vol.5418. Bellingham, WA: SPIE, 2004.

    [22]STRIEPE S A, EPP C D, ROBERTSON E A. Autonomous precision landing and hazard avoidance technology (ALHAT) project status as of May 2010 [C]// Proceedings of International Planetary Probe Workshop 2010. Barcelona: Spain, 2010.

    [23]KEIM J A, MOBASSER S, KUANG D, et al. Field test implementation to evaluate a flash lidar as a primary sensor for safe Lunar landing [C]// Proceedings of IEEE Aerospace Conference. Big Sky, MT: IEEE, 2010.

    [24]JOHNSON A E, KEIM J A, IVANOV T. Analysis of flashlidar field test data for safe lunar landing [C]// Proceedings of IEEE Aerospace Conference. Big Sky, MT: IEEE, 2010.

    [25]ROBACK V, BULYSHEV A, AMZAJERDIAN, et al. Helicopter flight test of a compact, real-time 3-D flash lidar for imaging hazardous terrain during planetary landing [C]// Proceedings of AIAA Space 2013 Conference and Exposition. San Diego, CA: AIAA, 2013.

    [26]EPP C D, ROBERTSON E A, CARSON J M. Real-time hazard detection and avoidance demonstration for a planetary lander [C]// Proceedings of AIAA Space 2014 Conference, San Diego, CA: AIAA, 2014.

    [27]張洪華, 梁俊, 黃翔宇,等. 嫦娥三號(hào)自主避障軟著陸控制技術(shù)[J]. 中國(guó)科學(xué):科學(xué)技術(shù), 2014, 44(6): 559-568.

    [28]STRELOW D W. Motion estimation from images and inertial measurements [D]. Pittsburgh PA: Carnegie Mellon University, 2004.

    [29]PANG C C, GUESALAGA A R, RODA V O. Structural and movement parameter estimation in image sequences [C]// Proceedings of SPIE Vol.4365. Orlando: SPIE, 2001:158-167.

    [30]SOATTO S, FREZZA R, PERONA P. Motion estimation via dynamic vision [J]. IEEE Transaction on Automatic Control, 1996, 41(3):393-413.

    [31]HYSLOP A M, HUMBERT J S. Autonomous navigation in three-dimensional urban environments using wide-field integration of optical flow [J]. Journal of Guidance, Control, and Dynamics, 2010, 33(1):147-159.

    [32]CHENG Y, Miller J K. Autonomous landmark based spacecraft navigation system [C]// Proceedings of Spaceflight Mechanics 2003, Ponce PR: AAS, 2003.

    [33]JOHNSON A, WILLSON R, CHENG Y, et al. Design through operation of an image-based velocity estimation system for Mars landing [J]. International Journal of Computer Vision, 2007, 74(3): 319-341.

    [34]JOHNSON A E, ANSAR A, MATTHIES L H, et al. A general approach to terrain relative navigation for planetary landing [C]// Proceedings of AIAA Infotech@Aerospace Conference. Rohnert Park: AIAA, 2007.

    [35]TRAWNY N, MOURIKIS A I, ROUMELIOTIS S I, et al. Vision-aided inertial navigation for pinpoint landing using observations of mapped landmarks [J]. Journal of Field Robotics, 2007, 24(5): 357-378.

    [36]MOURIKIS A I, TRAWNY N, ROUMELIOTIS S I, et al. Vision-aided inertial navigation for spacecraft entry, descent, and landing [J]. IEEE Transactions on Robotics, 2009, 25(2):264-280.

    [37]ALEXANDER J, CHENG Y, ZHENG W, et al. A Terrain relative navigation sensor enabled by multi-core processing [C]// Proceedings of 2012 IEEE Aerospace Conference. Big Sky: IEEE, 2012: 104-114.

    [38]JOHNSON A, BERGH C, CHENG Y, et al. Design and ground test results for thelander vision system [C]// Proceedings of 36thAnnual AAS Guidance and Control Conference. Breckenridge CO: AAS, 2013.

    [39]JOHNSON A, CHENG Y, MONTGOMERY J, et al. Real-time terrain relative navigation test results from a relative environment for Mars landing [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference.Kissimmee: AIAA, 2015.

    [40]LANDAU E. Successful test flights for Mars landing technology [EB/OL]. [2015-03-19]. https://www.nasa.gov/jpl/successful-test-flights-for-mars-landing-technology .[41]KUBOTA T, HASHIMOTO T, SAWAI S, et al. An autonomous navigation and guidance system for MUSES-C asteroid landing [J]. Acta Astronautica, 2003, 52(2/3/4/5/6):.125-131.

    [42]MCGEE T G, CRISS T B, ROSENDALL P, et al. APLNav: development status of an onboard passive optical terrain relative navigation system [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Kissimmee Florida: AIAA, 2015.

    [43]CRISS T B, WHITE M J, ADAMS D. APLNav terrain relative navigation airplane field test [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Toronto Ontario: AIAA, 2010.

    [44]FRAPARD B, POLLE B, FLANDIN G, et al. Navigation for planetary approach and landing [C]// Proceedings of 5thInternational ESA Conference on Spacecraft Guidance, Navigation and Control System. Frascati: ESA, 2002:159-168.[45]JANSCHEK K, TCHERNYKH V, BECK M. Performance analysis for visual planetary landing navigation using optical flow and DEM matching [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Keystone Colorado: AIAA, 2006.

    [46]GUIZZO G P, VUKMAN I. Autonomous smartlander simulator based on stereo vision for the descent phase on Mars [C]// Proceedings of 54thInternational Astronautical Congress of the International Astronautical Federation, the International Academy of Astronautics, and the International Institute of Space Law. Bremen: IAC, 2003.

    [47]姜肖楠. 月球探測(cè)器軟著陸視覺導(dǎo)航方法研究[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2010.

    [48]崔平遠(yuǎn), 馮軍華, 朱圣英,等. 基于三維地形匹配的月球軟著陸導(dǎo)航方法研究[J]. 宇航學(xué)報(bào), 2011, 32(3):470-476.[49]田陽(yáng), 崔平遠(yuǎn), 崔祜濤. 基于圖像序列的軟著陸小天體自主導(dǎo)航方法[J]. 宇航學(xué)報(bào), 2009, 30(1): 210-259.

    [50]王大軼, 李驥, 黃翔宇,等. 月球軟著陸過(guò)程高精度自主導(dǎo)航避障方法[J]. 深空探測(cè)學(xué)報(bào), 2014, 1(1): 44-51.

    [51]李爽. 基于光學(xué)測(cè)量的相對(duì)導(dǎo)航方法及在星際著陸中的應(yīng)用研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2007.

    [52]SHAN J, YOON J S, LEE D S, et al. Photogrammetric analysis of the Mars global surveyor mapping data [J]. Photogrammetric Engineering & Remote Sensing, 2005, 71(1): 97-108.

    [53]SCHOLTEN F, GWINNWE K, ROATSCH T, et al. Mars express HRSC data processing-methods and operational aspects [J]. Photogrammetric Engineering & Remote Sensing, 2005, 71(10): 1143-1152.

    [54]MCEWEN A S, BANKS M E, BAUGH N, et al. The high resolution imaging science experiment(HiRISE) during MRO’s primary science phase(PSP) [J]. Icarus, 2010, 37(2): 2-37.

    [55]GASKELL R W. Determination of landmark topography from imaging data [C]// Proceedings of AAS/AIAA Astrodynamics Specialists Conference. Breckenridge: AAS, 2002:167-179.

    [56]SHANKAR U J, CRISS T B, SHYONG W, et al. Lunar terrain surface modeling for the ALHAT program [C]// Proceedings of 2008 IEEE Aerospace Conference. Big Sky:IEEE 2008.

    [57]李春來(lái). 嫦娥一號(hào)三線陣CCD數(shù)據(jù)攝影測(cè)量處理及全月球數(shù)字地形圖[J]. 測(cè)繪學(xué)報(bào), 2013, 42(6): 853-860.[58]國(guó)家航天局. 嫦娥二號(hào)7米分辨率全月球影像圖發(fā)布[J]. 中國(guó)航天, 2012, 11(2): 10-11.

    [59]MILLER J K, KONOPLIV A S, ANTREASIAN P G, et al. Determination of shape, gravity, and rotational state of asteroid 433 Eros [J]. Icarus, 2002, 155(1):3-17.

    [60]GASKELL R W. High resolution shape and topography of Eros-preliminary results from NEAR imaging data [C]// Proceedings of AGU Spring Meeting. Montreal: AGU, 2004.[61]GASKELL R W. Landmark navigation and target characterization in a simulated Itokawa encounter [C]// Proceedings of AAS/AIAA Astrodynamics Specialists Conference. Lake Tahoe: AAS, 2005:629-644.

    [62]YOON J S, SHAN J. Combined adjustment of MOC stereo imagery and MOLA altimetry data [J]. Photogrammetric Engineering & Remote Sensing, 2005, 71(10): 1179-1186.[63]LI R X, HWANGBO J, CHEN Y H, et al. Rigorous photogrammetric processing of HiRISE stereo imagery for Mars topographic mapping[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(7):2558-2572.[64]王任享. 月球衛(wèi)星三線陣CCD影像EFP光束法空中三角測(cè)量[J]. 測(cè)繪科學(xué), 2008, 33(4):5-7.

    [65]KIRK R L, KRAUS E H, REDDING B, et al. High-resolution topomapping of candidate MER landing sites with Mars orbiter camera narrow-angle images [J]. Journal of Geophysical Research, 2003, 108(E12):1-38.

    [66]KIRK R L, KRAUS E H. Ultra high resolution topographic mapping of Mars with MRO HiRISE stereo images: meter-scale slopes of candidate phoenix landing sites[J]. Journal of Geophysical Research, 2007, 113(E00A24):1-31.

    [67]CHENG Y, ANSAR A. Landmark based position estimation for pinpoint landing on Mars [C]// Proceedings of 2005 IEEE International Conference on Robotics and Automation. Barcelona: IEEE, 2005:4470-4475.

    [68]LOUREN B, SARA J, PEDRO P. Development of a methodology for automated crater detection on planetary images [J]. Lecture Notes in Computer Science, 2009,4447:193-200.

    [69]丁萌,曹云峰,吳慶憲. 一種從月面圖像檢測(cè)隕石坑的方法[J]. 宇航學(xué)報(bào), 2009,30(3):1243-1248.

    [70]LOWE D G. Distinctive image features from scale-invariantkeypoints [J]. International Journal of Computer Vision, 2004, 2(60):91-110.

    [71]TROGLIO G, BENEDIKTSSON J A, MOSER G, et al. Automatic extraction of planetary image features [C]// Proceedings of 2009 IEEE International Conference on Space Mission Challenge for Information Technology. Pasadena CA: IEEE, 2009:211-215.

    [72]MATTHIES L, HUERTAS A, CHENG Y, et al. Stereo vision and shadow analysis for landing hazard detection [C]// Proceedings of 2008 IEEE International Conference on Robotics and Automation. Pasadena CA: IEEE, 2008:2735-2742.

    [73]SABATA B, AGGARWAL J K. Estimation of motion from a pair of range images: a review [J]. CVGIP: Image Understanding, 1991, 54(3):309-324.

    [74]CHENG Y, JOHNSON A, OLSON C, et al. Optical landmark detection for spacecraft navigation [C]// Proceedings of 2003 AAS Spaceflight Mechanics Conference. Ponce PR: AAS, 2003: 1785-1803.

    [75]FROME A, HUBER D, KOLLURI R, et al. Recognizing objects in range data using regional point descriptors [C]// Proceedings of 8thEuropean Conference on Computer Vision. Prague: ECCV, 2004:224-237.

    [76]GASKELL R W. Automated landmark identification for spacecraft navigation [C]// Proceedings of AAS Astrodynamics Specialists Conference. Quebec QC: AAS, 2001: 1749-1756.

    [77]LUCAS B, KANADE T. An iterative image registration technique with an application to stereo vision [C]// Proceedings of 7thInternational Joint Conference on Artificial Intelligence. Vancouver: IJCAI, 1981:674-679.

    [78]SUN D, CRASSIDIS J L.Observability analysis of six-degree-of-freedom configuration determination using vector observations [J]. Journal of Guidance, Control, and Dynamics, 2002, 25(6): 1149-1157.

    [79]MORTARI D, ROJAS J, JUNKINS J. Attitude and position estimation from vector observations [C]// Proceedings of AAS/AIAA Spaceflight Mechanics Conference. Maui: AAS, 2004.

    [80]HARALICK B M, LEE C N, OTTENBERG K, et al. Review and analysis of solutions of the three point perspective pose estimation problem [J]. International Journal of Computer Vision, 1994, 13(3): 331-356.

    [81]LI Shuang, CUI Pingyuan, CUI Hutao. Vision-aided inertial navigation for pinpoint planetary landing [J]. Aerospace Science and Technology, 2007, 11(6):499-506.

    [82]PHAM B V, LACROIX S, DEVY M. Vision-based absolute navigation for descent and landing [J]. Journal of Field Robotics, 2012, 29(4): 627-647.

    [83]KIM J, SUKKARIEH S. Autonomous airborne navigation in unknown terrain environments [J]. IEEE Transactions on Aerospace and Electronic Systems, 2004, 40(3):1031-1045.[84]BONIN-FONT F, ORTIZ A, OLIVER G. Visual navigation for mobile robots: a survey [J]. Journal of Intelligent and Robotic Systems, 2008, 53(3):263-296.

    [85]COCAUD C, KUBOTA T. Autonomous navigation near asteroids based on visual SLAM [C]// Proceedings of the 23rd International Symposium on Space Flight Dynamics. Pasadena, CA: JPL, 2012.

    [86]COCAUD C, KUBOTA T. SLAM-based navigation scheme for pinpoint landing on small celestial body [J]. Advanced Robotics, 2012, 26(15):1747-1770.

    [87]COCAUD C, KUBOTA T. SURF-based SLAM scheme using octree occupancy grid for autonomous landing on asteroids [C]// Proceedings of the International Symposium on Artificial Intelligence, Robotics and Automation in Space. Sapporo: SAIRAS, 2010:275-282.

    [88]MOURIKIS A I, ROUMELIOTIS S I. A multi-state constraint Kalman filter for vision-aided inertial navigation [C]// Proceedings of 2007 IEEE International Conference on Robotics and Automation. Roma: IEEE, 2007:3565-3572.[89]GURFIL P, ROTSTEIN H. Partial aircraft state estimation from visual motion using the subspace constraints approach [J]. Journal of Guidance, Control, and Dynamics, 2001, 24(5): 1016-1028.

    [90]INDELMAN V, GURFIL P, RIVLIN E, et al. Real-time vision-aided localization and navigation based on three-view geometry [J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2239-2259.

    [91]ZHAO Shiyu, LIN Feng, PENG Kemao, et al.Homography-based vision-aided inertial navigation of UAVs in unknown environments [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Minneapolis: AIAA, 2012.[92]AMZAJERDIAN F, PETWAY L B, HINES G D, et al. Lidar sensor for autonomous landing and hazard avoidance [C]// Proceedings of AIAA Space Conference and Exposition. San Diego: AIAA, 2013:172-182.

    [93]MAKI J N, BELL J F, HERKENHOFF K E, et al. Mars exploration rover engineering cameras [J]. Journal of Geophysical Research, 2003, 108(E12): ROV12( 1-24).[94]MCGEE T G, SHANKAR U, SHAPIRO S, et al. Performance analysis of the APLNav system for passive optical Lunar navigation [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. IIIinois: AIAA, 2009.

    [95]POLLARD A M, MCGEE T G. Design considerations for a guidance, navigation, and control sensors system for a robotic Lunarlander [C]// Proceedings of 2011 IEEE Aerospace Conference. Big Sky: IEEE, 2011.

    [96]WHITE M, CRISS T, ADAMS D.APLNav terrain relative navigation helicopter field testing [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. IIIinois: AIAA, 2009.

    [97]PARKES S, DUNSTAN M, MATTHEWS D, et al. LIDAR-based GNC for planetary landing: simulation with PANGU [C]// Proceedings of DASIA 2003. Prague: ESA Publications Division, 2003:151-162.[98]DUBOISMATRA O, PARKES S, DUNSTAN M. Testing and validation of planetary vision-based navigation systems with PANGU [C]// Proceedings of International Symposium on Space Flight Dynamics. Toulouse: ISSFD, 2009.

    [99]QUADRELLI M B, WOOD L J, RIEDEL J E, et al. Guidance, navigation, and control technology assessment for future planetary science missions [J]. Journal of Guidance, Control, and Dynamics, 2015, 38(7): 1165-1186.

    (編輯 張 紅)

    Overview of autonomous navigation based on sequential images for planetary landing

    WANG Dayi1,2, XU Chao1,2, HUANG Xiangyu1,2

    (1. Beijing Institute of Control Engineering, 100190 Beijing,China;2.Science and Technology on Space Intelligent Control Laboratory, 100190 Beijing, China)

    Autonomous navigation based on sequential images (ANBSI) is the key technology of pinpoint landing missions for future deep space exploration and also is one of the major development directions for deep space exploration technology. The necessity of developing ANBSI for planetary pinpoint landing is elaborated in this paper. Firstly, state-of-art developments of ANBSI are reviewed in terms of active sensing and passive sensing. Then, the key techniques applied in ANBSI for planetary landing are summarized and analyzed. Finally, according to the analysis of the key techniques, the main issues of ANBSI are raised and their future developments are overviewed.

    deep space explore; autonomous navigation; sequential images; pinpoint landing

    10.11918/j.issn.0367-6234.2016.04.001

    2016-01-07.

    國(guó)家杰出青年科學(xué)基金(61525301).

    王大軼(1973—),男,研究員,博士生導(dǎo)師.

    王大軼,dayiwang@163.com.

    V448.2

    A

    0367-6234(2016)04-0001-12

    猜你喜歡
    利用信息方法
    利用min{a,b}的積分表示解決一類絕對(duì)值不等式
    利用一半進(jìn)行移多補(bǔ)少
    利用數(shù)的分解來(lái)思考
    Roommate is necessary when far away from home
    訂閱信息
    中華手工(2017年2期)2017-06-06 23:00:31
    可能是方法不對(duì)
    用對(duì)方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    捕魚
    展會(huì)信息
    av国产免费在线观看| 欧美最新免费一区二区三区| 校园春色视频在线观看| 午夜精品在线福利| 亚洲av熟女| 乱人视频在线观看| 国产蜜桃级精品一区二区三区| 久久鲁丝午夜福利片| 国产综合懂色| 免费看av在线观看网站| 午夜激情福利司机影院| 国产黄色视频一区二区在线观看 | 两个人视频免费观看高清| 亚州av有码| 国产av不卡久久| 99国产极品粉嫩在线观看| 亚洲图色成人| 美女cb高潮喷水在线观看| 我要搜黄色片| 国产一区二区三区在线臀色熟女| 狂野欧美激情性xxxx在线观看| 天堂√8在线中文| 美女被艹到高潮喷水动态| 成人二区视频| 欧美色视频一区免费| 日日摸夜夜添夜夜爱| 日韩强制内射视频| 亚洲无线在线观看| 免费大片18禁| 天天躁日日操中文字幕| 亚州av有码| 国产高清激情床上av| 国产午夜精品久久久久久一区二区三区 | 国产人妻一区二区三区在| 性色avwww在线观看| 免费观看的影片在线观看| 国产成年人精品一区二区| 91狼人影院| av专区在线播放| 国产精品亚洲美女久久久| 伊人久久精品亚洲午夜| 伦理电影大哥的女人| 如何舔出高潮| 欧美zozozo另类| 十八禁网站免费在线| 久久亚洲精品不卡| 日产精品乱码卡一卡2卡三| 成年女人看的毛片在线观看| 不卡视频在线观看欧美| 亚洲av中文字字幕乱码综合| 亚洲不卡免费看| 国产乱人偷精品视频| 欧美高清性xxxxhd video| 国产精品爽爽va在线观看网站| 日韩中字成人| 在线观看av片永久免费下载| 欧美激情久久久久久爽电影| 免费av观看视频| 国产伦精品一区二区三区四那| 亚洲精品456在线播放app| 久久精品夜色国产| aaaaa片日本免费| 人妻久久中文字幕网| 尤物成人国产欧美一区二区三区| 别揉我奶头~嗯~啊~动态视频| 变态另类丝袜制服| 香蕉av资源在线| 天天一区二区日本电影三级| 伊人久久精品亚洲午夜| 欧美最新免费一区二区三区| av在线亚洲专区| 啦啦啦观看免费观看视频高清| 一级毛片aaaaaa免费看小| 中国美白少妇内射xxxbb| 国产精品亚洲一级av第二区| 欧美区成人在线视频| 老女人水多毛片| 桃色一区二区三区在线观看| 成人二区视频| 老司机福利观看| 日本一二三区视频观看| 欧美xxxx性猛交bbbb| 毛片一级片免费看久久久久| 亚洲五月天丁香| 久久人人爽人人爽人人片va| 少妇丰满av| 色在线成人网| www日本黄色视频网| 亚洲精品日韩在线中文字幕 | 我的老师免费观看完整版| 中文字幕av成人在线电影| 波野结衣二区三区在线| 在线a可以看的网站| 午夜福利高清视频| 99久久久亚洲精品蜜臀av| 久久久久久九九精品二区国产| 久久久午夜欧美精品| 亚洲欧美成人综合另类久久久 | 国产成人aa在线观看| 成人漫画全彩无遮挡| 舔av片在线| 少妇猛男粗大的猛烈进出视频 | 国产精品永久免费网站| 亚洲成a人片在线一区二区| 亚洲成人久久爱视频| 好男人在线观看高清免费视频| 俺也久久电影网| 男人的好看免费观看在线视频| 卡戴珊不雅视频在线播放| av视频在线观看入口| av卡一久久| 美女xxoo啪啪120秒动态图| 色哟哟·www| 99热只有精品国产| 少妇丰满av| 91av网一区二区| 国产午夜精品久久久久久一区二区三区 | av在线亚洲专区| 国产精品人妻久久久久久| 可以在线观看毛片的网站| 亚洲在线观看片| 日韩欧美国产在线观看| 日本三级黄在线观看| 91精品国产九色| 成人鲁丝片一二三区免费| 精品无人区乱码1区二区| 国产视频内射| 狂野欧美白嫩少妇大欣赏| 免费看av在线观看网站| 丝袜喷水一区| 久久精品国产亚洲av涩爱 | 成年免费大片在线观看| 国产69精品久久久久777片| 国产69精品久久久久777片| 国产色爽女视频免费观看| 婷婷亚洲欧美| 此物有八面人人有两片| 日本色播在线视频| 国产精品无大码| 精品久久久久久久久亚洲| 天堂动漫精品| 久久天躁狠狠躁夜夜2o2o| 干丝袜人妻中文字幕| 色尼玛亚洲综合影院| 免费在线观看成人毛片| 在现免费观看毛片| 在现免费观看毛片| 一本久久中文字幕| 久久人人爽人人片av| 老女人水多毛片| 国产又黄又爽又无遮挡在线| 日韩一区二区视频免费看| 伊人久久精品亚洲午夜| 插逼视频在线观看| 亚洲欧美成人精品一区二区| 97超碰精品成人国产| 国产伦在线观看视频一区| 亚洲经典国产精华液单| 亚洲成人av在线免费| av在线观看视频网站免费| 午夜影院日韩av| 国产av在哪里看| 午夜a级毛片| 国产av不卡久久| 午夜亚洲福利在线播放| 日本a在线网址| 性色avwww在线观看| 狂野欧美白嫩少妇大欣赏| 内地一区二区视频在线| 可以在线观看毛片的网站| 国产精品乱码一区二三区的特点| .国产精品久久| 三级男女做爰猛烈吃奶摸视频| 国产极品精品免费视频能看的| 搡老岳熟女国产| 久久久精品欧美日韩精品| 最近手机中文字幕大全| 久99久视频精品免费| 久久人人爽人人片av| a级毛色黄片| 99热这里只有是精品在线观看| 91精品国产九色| 亚洲美女搞黄在线观看 | 亚洲精品日韩在线中文字幕 | 国产女主播在线喷水免费视频网站 | 免费看av在线观看网站| 日本黄色片子视频| 女的被弄到高潮叫床怎么办| 精品午夜福利视频在线观看一区| 欧洲精品卡2卡3卡4卡5卡区| 国内久久婷婷六月综合欲色啪| 九九爱精品视频在线观看| 老女人水多毛片| 成人欧美大片| av在线亚洲专区| 国产精品一区二区三区四区免费观看 | 日韩欧美 国产精品| 亚洲激情五月婷婷啪啪| 最好的美女福利视频网| 一区福利在线观看| 男女做爰动态图高潮gif福利片| 国产亚洲91精品色在线| 99riav亚洲国产免费| 国产精品久久电影中文字幕| 色5月婷婷丁香| 男人舔奶头视频| 一a级毛片在线观看| 国产不卡一卡二| 国产欧美日韩精品亚洲av| 久久久精品94久久精品| 精品欧美国产一区二区三| 国内久久婷婷六月综合欲色啪| 日本熟妇午夜| 永久网站在线| 最好的美女福利视频网| 日韩三级伦理在线观看| 日韩成人av中文字幕在线观看 | 黄色日韩在线| 内射极品少妇av片p| 麻豆一二三区av精品| 国语自产精品视频在线第100页| 一进一出抽搐gif免费好疼| 亚洲18禁久久av| 69人妻影院| 少妇人妻精品综合一区二区 | 97在线视频观看| 国产高清有码在线观看视频| 99久国产av精品国产电影| 成人亚洲精品av一区二区| 国产探花在线观看一区二区| 夜夜看夜夜爽夜夜摸| 精品一区二区免费观看| 亚洲欧美日韩卡通动漫| 精品午夜福利视频在线观看一区| 成人一区二区视频在线观看| 三级经典国产精品| 亚洲成人精品中文字幕电影| a级毛片a级免费在线| 男女视频在线观看网站免费| 国产精华一区二区三区| 精品99又大又爽又粗少妇毛片| 久久精品国产亚洲av涩爱 | 搡老岳熟女国产| 欧美性猛交╳xxx乱大交人| 久久国内精品自在自线图片| 97超级碰碰碰精品色视频在线观看| 亚洲人成网站高清观看| 伦理电影大哥的女人| 亚洲欧美日韩无卡精品| 欧美性猛交黑人性爽| 亚洲人与动物交配视频| 麻豆乱淫一区二区| 高清毛片免费看| 国产激情偷乱视频一区二区| 伦理电影大哥的女人| 久久久久久九九精品二区国产| 少妇被粗大猛烈的视频| 丰满乱子伦码专区| 18禁裸乳无遮挡免费网站照片| 成人鲁丝片一二三区免费| 日韩大尺度精品在线看网址| 久久久久国产网址| 大型黄色视频在线免费观看| 1000部很黄的大片| 一级a爱片免费观看的视频| 综合色av麻豆| 在线观看午夜福利视频| 久久午夜亚洲精品久久| 老司机福利观看| 亚洲av中文字字幕乱码综合| 亚洲av二区三区四区| 此物有八面人人有两片| 久久精品国产清高在天天线| 欧美性感艳星| 老司机影院成人| 亚洲欧美精品综合久久99| 啦啦啦韩国在线观看视频| 日本熟妇午夜| 大型黄色视频在线免费观看| 免费av毛片视频| 免费观看人在逋| 别揉我奶头~嗯~啊~动态视频| 蜜桃久久精品国产亚洲av| 美女被艹到高潮喷水动态| 国产精品1区2区在线观看.| av中文乱码字幕在线| 免费高清视频大片| 亚洲精品在线观看二区| 在线观看美女被高潮喷水网站| 综合色av麻豆| 国产精品一及| 哪里可以看免费的av片| 国产高潮美女av| 午夜精品一区二区三区免费看| 一个人观看的视频www高清免费观看| 综合色av麻豆| 丰满的人妻完整版| 日韩制服骚丝袜av| 国产国拍精品亚洲av在线观看| 久久精品国产自在天天线| 国产激情偷乱视频一区二区| 麻豆国产av国片精品| 亚洲va在线va天堂va国产| 丰满乱子伦码专区| 超碰av人人做人人爽久久| 国产熟女欧美一区二区| 午夜免费男女啪啪视频观看 | 91狼人影院| 欧美成人a在线观看| 噜噜噜噜噜久久久久久91| 亚州av有码| 可以在线观看的亚洲视频| 亚洲成人av在线免费| 免费高清视频大片| 97在线视频观看| 国产精品一区二区三区四区免费观看 | 成人高潮视频无遮挡免费网站| 女人被狂操c到高潮| 久久久久精品国产欧美久久久| 日本五十路高清| 99在线视频只有这里精品首页| 欧美最新免费一区二区三区| 国产成年人精品一区二区| 色哟哟·www| 欧美最新免费一区二区三区| 国产欧美日韩精品一区二区| 成年版毛片免费区| 欧美不卡视频在线免费观看| 久久久午夜欧美精品| 欧美一区二区国产精品久久精品| 精品无人区乱码1区二区| 夜夜看夜夜爽夜夜摸| 天天躁日日操中文字幕| 看十八女毛片水多多多| 久久天躁狠狠躁夜夜2o2o| 久久久久国产网址| 在线观看美女被高潮喷水网站| 免费av观看视频| 天堂动漫精品| 欧美3d第一页| 欧美高清成人免费视频www| 久久精品国产亚洲av涩爱 | 晚上一个人看的免费电影| 99热精品在线国产| 少妇高潮的动态图| 人妻夜夜爽99麻豆av| 国产一区二区亚洲精品在线观看| 欧美高清性xxxxhd video| 又黄又爽又免费观看的视频| 欧美+亚洲+日韩+国产| 久久久久久伊人网av| 超碰av人人做人人爽久久| 非洲黑人性xxxx精品又粗又长| 少妇的逼水好多| 国产亚洲精品久久久久久毛片| 久久精品国产亚洲av香蕉五月| 中文字幕精品亚洲无线码一区| 午夜免费男女啪啪视频观看 | 亚洲av美国av| videossex国产| 亚洲欧美精品综合久久99| av.在线天堂| 十八禁网站免费在线| 一个人观看的视频www高清免费观看| 丝袜喷水一区| 免费不卡的大黄色大毛片视频在线观看 | 亚洲自拍偷在线| 日日撸夜夜添| 日韩欧美免费精品| 免费观看的影片在线观看| 亚洲图色成人| 女同久久另类99精品国产91| 欧美一区二区国产精品久久精品| 国产片特级美女逼逼视频| 久久人妻av系列| 色综合站精品国产| 国产亚洲av嫩草精品影院| 亚洲久久久久久中文字幕| 天天一区二区日本电影三级| 亚洲真实伦在线观看| 国产一区二区在线av高清观看| 99在线视频只有这里精品首页| 青春草视频在线免费观看| 日韩av不卡免费在线播放| 天天躁日日操中文字幕| 亚洲精品乱码久久久v下载方式| 亚洲av五月六月丁香网| 麻豆国产97在线/欧美| 女人被狂操c到高潮| 精品少妇黑人巨大在线播放 | 俄罗斯特黄特色一大片| 毛片女人毛片| 久久久久久久久久久丰满| 久久欧美精品欧美久久欧美| 日本撒尿小便嘘嘘汇集6| 亚洲精品在线观看二区| 中出人妻视频一区二区| 日韩制服骚丝袜av| 精品一区二区三区av网在线观看| 国国产精品蜜臀av免费| 国产亚洲精品av在线| 国产亚洲91精品色在线| 老司机午夜福利在线观看视频| 久久久久久久久久成人| 亚洲国产精品sss在线观看| 午夜福利在线观看吧| 亚洲欧美成人精品一区二区| 人人妻人人澡欧美一区二区| a级毛片免费高清观看在线播放| 欧美色视频一区免费| 欧美日本视频| 午夜福利18| 久久九九热精品免费| 久久久久久久久久成人| 日日撸夜夜添| 亚洲国产色片| 久久久久久九九精品二区国产| 久久国内精品自在自线图片| 可以在线观看毛片的网站| 午夜福利高清视频| 精品午夜福利在线看| 在现免费观看毛片| av专区在线播放| 国产男靠女视频免费网站| 成人午夜高清在线视频| 成人一区二区视频在线观看| 国产精品,欧美在线| 女人被狂操c到高潮| 亚洲国产精品合色在线| 男女做爰动态图高潮gif福利片| 成人漫画全彩无遮挡| 麻豆成人午夜福利视频| 欧美+日韩+精品| 久久国产乱子免费精品| 日韩 亚洲 欧美在线| 国产三级中文精品| 国产精品伦人一区二区| 九九久久精品国产亚洲av麻豆| 精品人妻一区二区三区麻豆 | 丝袜美腿在线中文| 精品国内亚洲2022精品成人| ponron亚洲| 丰满乱子伦码专区| 国产精品久久久久久久久免| 亚洲av二区三区四区| 亚洲av免费在线观看| av女优亚洲男人天堂| 亚洲精品一卡2卡三卡4卡5卡| 亚洲欧美清纯卡通| 天天躁夜夜躁狠狠久久av| 禁无遮挡网站| 91狼人影院| 日韩三级伦理在线观看| 一进一出抽搐动态| 欧美人与善性xxx| 男女下面进入的视频免费午夜| 热99re8久久精品国产| 熟女电影av网| 亚洲av美国av| 99久国产av精品| 亚洲精品日韩av片在线观看| 日韩欧美国产在线观看| 亚洲欧美成人综合另类久久久 | 国产精品一区二区三区四区免费观看 | 亚洲熟妇中文字幕五十中出| 简卡轻食公司| 国产伦在线观看视频一区| 亚洲国产欧洲综合997久久,| 内地一区二区视频在线| av国产免费在线观看| 精品久久久久久久久亚洲| 日韩欧美精品v在线| 亚洲最大成人手机在线| 亚洲无线观看免费| 一进一出好大好爽视频| 色视频www国产| 欧美一区二区精品小视频在线| 91在线精品国自产拍蜜月| 久久久久久久久中文| 国产伦精品一区二区三区视频9| 午夜激情福利司机影院| 在线天堂最新版资源| 国产一区二区亚洲精品在线观看| 亚洲美女搞黄在线观看 | 国产精品精品国产色婷婷| 国产色婷婷99| 搡女人真爽免费视频火全软件 | 久久亚洲国产成人精品v| 精品午夜福利在线看| 久久久久精品国产欧美久久久| av在线观看视频网站免费| 毛片女人毛片| 精品福利观看| av在线播放精品| 真人做人爱边吃奶动态| 精品一区二区免费观看| 国产精品久久久久久久久免| 亚洲激情五月婷婷啪啪| 简卡轻食公司| 国产视频一区二区在线看| 一个人观看的视频www高清免费观看| 1024手机看黄色片| 老熟妇乱子伦视频在线观看| 欧美在线一区亚洲| 成年女人看的毛片在线观看| 亚洲一区高清亚洲精品| 久久久久久久久大av| 成人美女网站在线观看视频| 国产精品一区二区三区四区久久| 亚洲国产精品国产精品| www.色视频.com| 中文在线观看免费www的网站| 我的女老师完整版在线观看| 亚洲中文日韩欧美视频| 亚洲婷婷狠狠爱综合网| 22中文网久久字幕| 欧美高清性xxxxhd video| 麻豆国产97在线/欧美| 国产毛片a区久久久久| 91在线精品国自产拍蜜月| 一个人看视频在线观看www免费| 乱人视频在线观看| 国产亚洲精品综合一区在线观看| 五月玫瑰六月丁香| 日本一本二区三区精品| 日韩欧美一区二区三区在线观看| 国产日本99.免费观看| 12—13女人毛片做爰片一| 男人的好看免费观看在线视频| 婷婷亚洲欧美| 我要搜黄色片| 日韩在线高清观看一区二区三区| 中文字幕熟女人妻在线| 赤兔流量卡办理| 有码 亚洲区| 午夜免费男女啪啪视频观看 | 成年免费大片在线观看| 在线观看av片永久免费下载| 1024手机看黄色片| 精品熟女少妇av免费看| 少妇猛男粗大的猛烈进出视频 | 久久国内精品自在自线图片| 插逼视频在线观看| 亚洲五月天丁香| 亚洲色图av天堂| 校园人妻丝袜中文字幕| 欧美日本视频| 变态另类丝袜制服| 淫妇啪啪啪对白视频| 97超视频在线观看视频| 亚洲国产精品国产精品| 久久精品国产清高在天天线| 日本三级黄在线观看| 亚洲18禁久久av| 欧美绝顶高潮抽搐喷水| 日日干狠狠操夜夜爽| 老熟妇乱子伦视频在线观看| 日韩av在线大香蕉| 国内精品一区二区在线观看| 国产精品女同一区二区软件| 中文资源天堂在线| 淫秽高清视频在线观看| 国内精品久久久久精免费| 亚洲自偷自拍三级| 十八禁国产超污无遮挡网站| 我的女老师完整版在线观看| 精品久久久噜噜| 亚洲最大成人av| 亚洲国产高清在线一区二区三| 色视频www国产| 天堂动漫精品| 国产精品不卡视频一区二区| 搡老妇女老女人老熟妇| 国产免费男女视频| 日韩成人av中文字幕在线观看 | 香蕉av资源在线| 内地一区二区视频在线| 男女下面进入的视频免费午夜| 日本三级黄在线观看| 国产男人的电影天堂91| av专区在线播放| 激情 狠狠 欧美| 伦精品一区二区三区| 久久韩国三级中文字幕| av天堂在线播放| 女的被弄到高潮叫床怎么办| 亚洲综合色惰| 精品一区二区三区av网在线观看| 日本精品一区二区三区蜜桃| 成人综合一区亚洲| 亚洲精品色激情综合| 黄色欧美视频在线观看| АⅤ资源中文在线天堂| 午夜精品一区二区三区免费看| 国产黄a三级三级三级人| 成人精品一区二区免费| 美女xxoo啪啪120秒动态图| 两性午夜刺激爽爽歪歪视频在线观看| av视频在线观看入口| 99视频精品全部免费 在线| 亚洲av免费高清在线观看| 久久欧美精品欧美久久欧美| 中出人妻视频一区二区| 国产私拍福利视频在线观看| 99热精品在线国产| 一级毛片久久久久久久久女| 日韩国内少妇激情av| 嫩草影院入口| 成年女人看的毛片在线观看| 在线免费十八禁| 久久欧美精品欧美久久欧美| 又爽又黄无遮挡网站| 色噜噜av男人的天堂激情| 国产精品永久免费网站| АⅤ资源中文在线天堂|