易 兵 敬忠良 潘 漢
上海交通大學(xué)航空航天學(xué)院,上海 200240
?
基于2D/3D多特征融合的近距離空間非合作目標(biāo)相對測量方法*
易 兵 敬忠良 潘 漢
上海交通大學(xué)航空航天學(xué)院,上海 200240
面向空間在軌服務(wù)重大應(yīng)用需求,以提高系統(tǒng)自主性和空間環(huán)境適應(yīng)性為目標(biāo),發(fā)展了一種空間非合作目標(biāo)三維重建、目標(biāo)識別和位姿估計(jì)一體化的近距離相對測量方法。該方法基于二維圖像信息和深度數(shù)據(jù),通過數(shù)據(jù)融合并重建出非合作目標(biāo)的稠密三維模型,接著基于快速迭代最近點(diǎn)配準(zhǔn)算法,提出基于SIFT和SHOT特征融合的三維識別方法,為系統(tǒng)的相對位姿估計(jì)提供有效的參數(shù)初始化。本文方法可進(jìn)一步減少地面的干預(yù),增強(qiáng)在軌服務(wù)系統(tǒng)的自主性,擴(kuò)展系統(tǒng)的工作范圍。地面仿真實(shí)驗(yàn)驗(yàn)證了該方法的可行性和有效性。 關(guān)鍵詞 非合作目標(biāo);相對位姿測量;三維重建;三維目標(biāo)識別
空間非合作目標(biāo)近距離相對測量是衛(wèi)星在軌服務(wù)中的關(guān)鍵技術(shù)之一[1]。它為服務(wù)衛(wèi)星接近、捕獲空間非合作目標(biāo),開展修理維護(hù)等空間任務(wù)提供關(guān)鍵導(dǎo)航支持。
空間非合作目標(biāo)相對測量受到各國科研人員的關(guān)注。美國FREND項(xiàng)目[2]、歐空局TECSAS/DEOS項(xiàng)目[3]和歐洲多國合作的PRISMA項(xiàng)目[4]都使用了視覺測量載荷確定非合作目標(biāo)的相對位置和姿態(tài)。加拿大Neptec公司開發(fā)了基于激光雷達(dá)的視覺系統(tǒng)TriDAR,并通過三維點(diǎn)云配準(zhǔn)的方式來測量非合作目標(biāo)[5]。我國在這個領(lǐng)域的研究亦活躍而有成果。郝剛濤[6]和張勁鋒[7]等分別提出了基于單目相機(jī)的航天器相對位姿測量方法。徐文福等基于圖像形態(tài)學(xué)特征,提出了相對測量的雙目視覺系統(tǒng)[8]。劉濤等從相對距離、姿態(tài)確定,以及濾波器設(shè)計(jì)的角度研究了非合作目標(biāo)相對導(dǎo)航方法[9]。王曉亮等研究了噪聲不確定情況下的非合作目標(biāo)對接濾波器算法[10]。徐培智提出了結(jié)合雙目相機(jī)和激光掃描儀的非合作目標(biāo)相對測量方案。其中,激光掃描儀用于確定相對距離信息[11]。最近,梁斌等分析了ToF相機(jī)應(yīng)用在空間非合作目標(biāo)近距離相對測量的可行性,梳理了其中的關(guān)鍵技術(shù),并對發(fā)展趨勢進(jìn)行展望[12]。
空間非結(jié)構(gòu)化環(huán)境下的特征檢測與跟蹤、幀與幀配準(zhǔn)帶來的誤差累積問題給基于可見光圖像的測量方法帶來了極大挑戰(zhàn)。目前,基于三維模型配準(zhǔn)的測量方法依賴于目標(biāo)幾何模型的建立。本文使用深度傳感器和可見光相機(jī),結(jié)合三維重建和三維目標(biāo)識別技術(shù),提出一種融合2D彩色信息和3D幾何信息特征的近距離空間非合作目標(biāo)相對測量方法。該方法通過在線重建,并獲取非合作目標(biāo)三維模型,減小對先驗(yàn)信息的依賴;然后,通過幀與重建模型配準(zhǔn)的方式,減小測量誤差累積;最后,基于三維目標(biāo)識別方法,解決位姿參數(shù)初始化和測量失敗下的重新定位問題,增強(qiáng)了系統(tǒng)自主性與環(huán)境適應(yīng)性。
首先從總體上介紹了本文方法的3個運(yùn)行階段和對應(yīng)的飛行狀態(tài),隨后具體講述方法的各個環(huán)節(jié),給出了算法地面仿真實(shí)驗(yàn)與分析結(jié)果,最后總結(jié)并指出可能改進(jìn)的方向。
本文結(jié)合三維重建技術(shù)和三維目標(biāo)識別技術(shù)增強(qiáng)系統(tǒng)自主性的目的,提出一種非合作目標(biāo)近距離相對測量的方法。即服務(wù)衛(wèi)星抵近目標(biāo)衛(wèi)星,以及相對測量的相對飛行軌跡,如圖1所示。在發(fā)現(xiàn)并靠近目標(biāo)達(dá)到一定距離之后,服務(wù)衛(wèi)星開始對目標(biāo)衛(wèi)星進(jìn)行相對測量。這個過程中有2種飛行狀態(tài):
圖1 相對測量理想相對飛行軌跡
1)服務(wù)衛(wèi)星環(huán)繞目標(biāo)衛(wèi)星伴飛。其中,服務(wù)衛(wèi)星對目標(biāo)衛(wèi)星展開連續(xù)觀測,對非合作目標(biāo)進(jìn)行三維重建,接著進(jìn)行三維目標(biāo)識別,識別目標(biāo)形態(tài)以給出相對測量初始參數(shù);
2)服務(wù)衛(wèi)星停止環(huán)繞伴飛,以合理路線靠近非合作目標(biāo)以進(jìn)行對接。其中,服務(wù)衛(wèi)星借助繞飛階段重建的目標(biāo)模型對非合作目標(biāo)進(jìn)行準(zhǔn)確的相對測量,為對接捕獲做準(zhǔn)備。
與兩衛(wèi)星2種飛行狀態(tài)相聯(lián)系的是服務(wù)飛行相對測量系統(tǒng)的3種工作階段:三維重建階段、三維目標(biāo)識別階段和相對測量階段。整個工作流程如圖2所示(圖中目標(biāo)運(yùn)動狀態(tài)分析階段是利用相對測量采集的數(shù)據(jù)分析目標(biāo)的運(yùn)動參數(shù),此階段不在本文關(guān)注范圍內(nèi))。
圖2 非合作目標(biāo)相對測量系統(tǒng)流程圖
1)三維目標(biāo)重建階段。系統(tǒng)采集可見光傳感器和激光成像傳感器的測量數(shù)據(jù),通過相對運(yùn)動位姿估計(jì)將連續(xù)觀測的目標(biāo)數(shù)據(jù)融合,通過稠密三維重建算法獲取非合作目標(biāo)的曲面模型;
2)三維目標(biāo)識別階段。使用三維目標(biāo)識別有2個目的:①為相對測量提供初始化相對位姿參數(shù);②在相對測量失效需要重置的情況下,找回當(dāng)前相對位姿。三維目標(biāo)識別首先以重建模型為輸入訓(xùn)練目標(biāo)識別模型,然后再對傳感器輸入進(jìn)行三維目標(biāo)識別,給出相對測量的初始位姿參數(shù);
3)在相對測量階段,使用迭代最近點(diǎn)算法將傳感器采集數(shù)據(jù)與非合作目標(biāo)模型數(shù)據(jù)進(jìn)行配準(zhǔn),計(jì)算出當(dāng)前時刻目標(biāo)相對位置和姿態(tài)參數(shù)。
本文提出的非合作目標(biāo)相對測量系統(tǒng)方案在不同階段下分別完成建模、識別、相對測量等工作,減少系統(tǒng)對非合作目標(biāo)先驗(yàn)信息的需求,為服務(wù)衛(wèi)星提供準(zhǔn)確的相對測量數(shù)據(jù)。以下詳細(xì)介紹本文方法內(nèi)容。
2.1 相對位姿估計(jì)
相對位姿估計(jì)是相對測量系統(tǒng)的核心。本文使用迭代最近點(diǎn)(Iterative Closest Point,ICP)算法[13]進(jìn)行相對位姿計(jì)算。
Newcombe等人通過實(shí)驗(yàn)驗(yàn)證了使用幀-模型的ICP配準(zhǔn)計(jì)算的時間漂移小于使用幀-幀ICP配準(zhǔn)的時間漂移[14]。因此,本文使用輸入幀數(shù)據(jù)與重建模型數(shù)據(jù)ICP配準(zhǔn)策略。ICP算法普遍采用的步驟,如圖3所示。該算法將輸入點(diǎn)云與目標(biāo)點(diǎn)云進(jìn)行配準(zhǔn)計(jì)算。在一次迭代計(jì)算過程中,ICP算法首先搜索輸入點(diǎn)云與目標(biāo)點(diǎn)云之間的匹配點(diǎn),再經(jīng)過匹配點(diǎn)對篩選之后進(jìn)行旋轉(zhuǎn)矩陣和位移向量的最小二乘估計(jì),得到相對變換的增量變換。在此基礎(chǔ)上,應(yīng)用增量變換更新輸入點(diǎn)云,并且更新誤差函數(shù),然后進(jìn)入下一次迭代。
圖3 ICP算法流程
2.1.1 ICP輸入點(diǎn)云計(jì)算
首先利用輸入的深度圖像計(jì)算輸入點(diǎn)云對應(yīng)的三維坐標(biāo)。然后采用均勻采樣方法采集ICP配準(zhǔn)控制點(diǎn),降低計(jì)算量。已知深度傳感器的內(nèi)參數(shù),從深度圖像生成點(diǎn)云的計(jì)算過程如下。
在簡化的針孔相機(jī)投影模型下,相機(jī)的投影矩陣為:
(1)
式中,sx,sy和sθ是相機(jī)的像素縮放因子,f是相機(jī)焦距,cx和cy是圖像中心位置對應(yīng)像素坐標(biāo)。在齊次坐標(biāo)表示下,相機(jī)的投影模型為:
(2)
其中,Π是標(biāo)準(zhǔn)投影矩陣:
對于深度圖像,D(u,v)=z/sz,sz是Z軸縮放因子,對于常見的Kinect傳感器其值為1000mm。于是對應(yīng)圖像坐標(biāo)點(diǎn)(u,v)的三維空間點(diǎn)p(u,v)的坐標(biāo)是:
(3)
2.1.2 匹配點(diǎn)搜索與篩選
(4)
(5)
2.1.3 誤差函數(shù)與最優(yōu)化求解
本文使用點(diǎn)到平面的距離的平方之和[14]作為誤差函數(shù)。在第k次ICP迭代中,誤差函數(shù)定義為:
(6)
(7)
ΔT屬于特殊歐拉群SE(3),隱含著復(fù)雜的約束條件,使得此最優(yōu)化問題難以直接求解??紤]到衛(wèi)星間相對運(yùn)動速度緩慢,輸入點(diǎn)云與待配準(zhǔn)的目標(biāo)點(diǎn)云之間相對運(yùn)動量小,可以假設(shè)ΔT很?。?/p>
于是ek(ΔT)可以改寫成x的函數(shù):
(8)
式(9)中映射A:3|→4×6為:
x=[u1,u2,u3,t1,t2,t3]T
相應(yīng)的問題式(7)變?yōu)椋?/p>
(9)
使用非線性優(yōu)化算法或者簡單最小二乘方法可方便求解出x*以及對應(yīng)的增量變換ΔT*。
2.2 非合作目標(biāo)稠密三維重建
對非合作目標(biāo)表面進(jìn)行深度測量得到的是不連續(xù)且含有噪聲的數(shù)據(jù)。高效率地從這些數(shù)據(jù)中重建目標(biāo)模型是比較困難的。采用傳統(tǒng)的頂點(diǎn)——網(wǎng)格——曲面的三維重建計(jì)算量太大,不能達(dá)到實(shí)時要求。KinectFusion[14]算法提出了高效的解決方法。該方法以立方體體素表達(dá)模型空間,通過融合TSDF(TruncatedSignedDistanceFunction)有向距離函數(shù)完成對目標(biāo)場景快速、準(zhǔn)確重建。本文提出的稠密三維重建流程如圖4所示。讀取傳感器數(shù)據(jù)后按照深度圖像計(jì)算點(diǎn)云及法向量,使用2.1節(jié)的快速ICP算法計(jì)算輸入數(shù)據(jù)到重建模型的相對位姿變換。然后進(jìn)行TSDF點(diǎn)云融合更新重建模型。最后使用虛擬相機(jī)采集重建模型的局部視圖。本節(jié)講述后2個步驟。
圖4 稠密三維重建流程圖
2.2.1 稠密三維重建
首先在全局坐標(biāo)系下將測量空間劃分為N×N×N個立方體體素(Voxel)。然后給每一個體素賦予一個有向距離值Fk(p)和一個融合權(quán)值Wk(p)(p表示體素中心的三維坐標(biāo))。Fk(p)表示該體素距測量到的非合作目標(biāo)表面的有向距離:Fk(p)=0表示目標(biāo)表面正好穿過此體素;Fk(p)>0表示體素位于非合作目標(biāo)表面上的空白空間;Fk(p)<0則表示體素處于非合作目標(biāo)表面之下的空間,實(shí)際上是傳感器無法測量到的。
TSDF點(diǎn)云融合方法具有最小二乘優(yōu)化性質(zhì),對傳感器噪聲具有一定的濾波作用。在相對測量模塊求解出當(dāng)前深度圖像Dk的配準(zhǔn)變換Tg,k之后,其在全局坐標(biāo)系下的TSDF函數(shù)表示[FDk,WDk]的計(jì)算為:
(10)
其中:
在建模精度損失不大的情況下,可設(shè)定Wdk(p)=1。當(dāng)前深度測量與全局重建模型的融合公式為(Fk(p)≠null):
(11)
Wk(p)=min(Wk-1(p)+WDk(p),Wthres)
(12)
2.2.2 相對位姿估計(jì)模塊目標(biāo)點(diǎn)云數(shù)據(jù)獲取
將一虛擬深度相機(jī)以與衛(wèi)星下一時刻預(yù)測的位置和朝向?qū)Ψ呛献髂繕?biāo)的重建模型進(jìn)采樣。假設(shè)光線從虛擬相機(jī)中心朝每一個像素點(diǎn)方向射出,如果遇到體素的有向距離Fk(p)從正到負(fù)變化,就以此光心到零跨越處的深度作為圖像采樣值。具體過程參考文獻(xiàn)[14]。通過這個步驟,可以獲得相對位姿估計(jì)系統(tǒng)所需要的目標(biāo)模型深度圖像、目標(biāo)模型點(diǎn)云和對應(yīng)的法向量。
2.3 三維目標(biāo)識別
本文提出基于多特征融合的非合作目標(biāo)三維識別方法。首先訓(xùn)練非合作目標(biāo)模型,然后對傳感器輸入進(jìn)行三維目標(biāo)識別,給出相對測量的初始位姿參數(shù),具體算法流程如圖5所示。
圖5 三維識別流程圖
2.3.1 訓(xùn)練三維目標(biāo)識別模型
訓(xùn)練三維目標(biāo)識別模型以待識別目標(biāo)三維模型,且包含彩色信息的局部點(diǎn)云作為輸入。在提取RGB-D數(shù)據(jù)的二維SIFT特征和三維SHOT特征后,分別使用相互最近鄰算法(ReciprocalNearestNeighborClustering)[17]對兩類特征描述子碼本進(jìn)行降維處理,得到方便高效搜索的特征描述子碼本。最后將碼本存儲以完成非合作目標(biāo)三維識別模型的訓(xùn)練。
2.3.2 三維目標(biāo)識別
基于多特征融合的非合作目標(biāo)三維識別方法融合二維圖像SIFT(ScaleInvariantFeatureTransform)特征[18]和三維SHOT(SignatureofHistogramsofOrientations)特征[19]的描述能力,通過匹配對分組聚集符合幾何約束的特征匹配對,并使用全局優(yōu)化的假設(shè)檢驗(yàn)方法篩選最佳相對測量結(jié)果。如圖5所示,三維目標(biāo)識別按照步驟進(jìn)行,詳細(xì)描述可參考文獻(xiàn)[20]:
1) 讀取傳感器輸入數(shù)據(jù);
2) 分別提取二維SIFT特征和SHOT特征;
3) 將以上特征與訓(xùn)練數(shù)據(jù)特征進(jìn)行匹配,并將二維SIFT特征匹配對映射到三維空間;
4) 根據(jù)幾何一致性約束將特征匹配對分組,并在每組中估計(jì)一個識別假設(shè)hi={Mi,Ti}(Mi是識別標(biāo)簽,Ti是配準(zhǔn)變換);
5) 以X=[x1,x2,…,xn]T,xi∈B={0,1}表示所有識別假設(shè)hi被接受或拒絕的狀態(tài),計(jì)算全局目標(biāo)函數(shù)F(X),并使用模擬退火算法搜索最優(yōu)解。
該算法具備同時識別多個模型的能力,當(dāng)模型數(shù)量只有一個時,算法退化成對所有模型假設(shè)進(jìn)行逐一檢驗(yàn)的方法。
為評估算法的可行性和有效性,本文基于華碩XtionProLiveRGB-D傳感器(模擬空間可見光相機(jī)與無掃描激光雷達(dá)),開展相對測量地面仿真實(shí)驗(yàn)。該傳感器在2m處的深度測量精度約2mm[21]。以下實(shí)驗(yàn)中均保持傳感器和待測量衛(wèi)星模型之間的距離在2m內(nèi)。
1)相對位置測量實(shí)驗(yàn)
相對距離測量實(shí)驗(yàn)中衛(wèi)星模型固定,傳感器沿某個方向等間距平移,將相鄰2次測量結(jié)果ti+1和ti之間的差值與真值進(jìn)行對比來確定該方法在相對距離測量上的精度:
Δt=ti+1-ti
設(shè)置不同平移值,展開了2次實(shí)驗(yàn): Δt1=[0,0,0.05m]T,Δt2=[0.05m,0,0.05m]T。2次測量結(jié)果的誤差參見表1。結(jié)果顯示相對位置測量精度與傳感器測量精度相當(dāng),而且在傳感器特性影響下縱向測量精度明顯高于橫向測量精度。
2)相對姿態(tài)角測量實(shí)驗(yàn)
相對姿態(tài)角測量實(shí)驗(yàn)為固定傳感器位置和姿態(tài),固定衛(wèi)星模型位置,沿空間某個固定軸u旋轉(zhuǎn)指定角度θ。比較前后相對姿態(tài)測量的姿態(tài)矩陣Ri和Ri+1,然后通過旋轉(zhuǎn)矩陣的歐拉角分解得到旋轉(zhuǎn)軸u和旋轉(zhuǎn)角θ:
本文進(jìn)行了2次實(shí)驗(yàn),實(shí)驗(yàn)中衛(wèi)星模型分別圍繞未知的軸旋轉(zhuǎn)2次,每次旋轉(zhuǎn)20°。相對姿態(tài)角測量結(jié)果如圖6所示。本文算法相對姿態(tài)角測量的絕對誤差和標(biāo)準(zhǔn)差分別是:
第1組實(shí)驗(yàn):E1=0.6297°,σ1=1.5120°,
第2組實(shí)驗(yàn):E2=0.2627°,σ2=1.1479°
表1 相對位置測量絕對誤差和標(biāo)準(zhǔn)差
圖6 相對姿態(tài)角測量實(shí)驗(yàn)旋轉(zhuǎn)角θ結(jié)果
以增強(qiáng)非合作目標(biāo)近距離相對位姿測量系統(tǒng)自主性為目標(biāo),提出了綜合三維重建、目標(biāo)識別和位姿估計(jì)3個部分的非合作目標(biāo)相對位姿測量方法。該方法以快速ICP算法、TSDF點(diǎn)云融合算法和基于多特征融合的三維目標(biāo)識別算法為核心,進(jìn)一步降低了系統(tǒng)對非合作目標(biāo)先驗(yàn)信息的依賴,提高了系統(tǒng)自主性,增強(qiáng)了相對位姿測量精度和空間環(huán)境適應(yīng)性。綜合多源信息的處理過程在一定程度上以系統(tǒng)復(fù)雜度增加為代價,后續(xù)研究將以本文方法為基礎(chǔ),進(jìn)一步深入研究重建、識別和位姿估計(jì)一體化系統(tǒng),降低算法的時空復(fù)雜度,提高系統(tǒng)實(shí)時性,擴(kuò)展系統(tǒng)的空間環(huán)境應(yīng)用范圍。
[1] 梁斌, 杜曉東, 李成,等. 空間機(jī)器人非合作航天器在軌服務(wù)研究進(jìn)展[J]. 機(jī)器人, 2012, 34(2):242-256. (Liang Bin, Du Xiaodong, Li Cheng, et al. Advances in Space Robot On-orbit Servicing for Non-cooperative Spacecraft[J]. Robot, 2012, 34(2):242-256.)
[2] Debus T, Dougherty S. Overview and Performance of the Front-End Robotics Enabling Near-Term Demonstration (FREND) Robotic Arm[C]. AIAA Infotech, Aerospace Conference, 2009.
[3] Martin E, Dupuis E, Piedboeuf J C, et al. The TECSAS Mission from a Canadian Perspective[C]. Proc. 8th International Symposium on Artificial Intelligence and Robotics and Automation in Space, Munich, Germany, 2005.
[4] Persson S, Bodin P, Gill E, et al. PRISMA - An Autonomous Formation Flying Mission[C]. Small Satellite Systems and Services - The 4S Symposium. DLR, 2006.
[5] Ruel S, English C, Anctil M, el al. 3DLASSO: Real-time Pose Estimation from 3D Data for Autonomous Satellite Servicing[C]. Proc. of The 8th International Symposium on Artifical Intelligence, Robotics and Automation in Space, Germany, 2005.
[6] 郝剛濤, 杜小平. 基于單目視覺圖像序列的空間非合作目標(biāo)相對姿態(tài)估計(jì)[J]. 航天控制, 2014, 32(2):60-67. (Hao Gangtao, Du Xiaoping. Relative Attitude Estimation for Space Non-cooperative Targets Based on Sequence of Monocular Images[J]. Aerospace Control, 2014, 23(2):60-67.)[7] 張勁鋒, 蔡偉, 孫承啟. 基于單目視覺的空間非合作目標(biāo)相對運(yùn)動參數(shù)估計(jì)[J]. 空間控制技術(shù)與應(yīng)用, 2010, 36(2):31-35. (Zhang Jingfeng, Cai Wei, Sun Chengqi. Monocular Vision-Based Relative Motion Parameter Estimation for Non-Cooperative Objects in Space[J]. Aerospace Control And Application, 2010, 36(2):31-35.)
[8] 徐文福, 梁斌, 李成,等. 基于立體視覺的航天器相對位姿測量方法與仿真研究[J]. 宇航學(xué)報, 2009, 30(4):1421-1428. (Xu Wenfu, Liang Bin, Li Cheng, et al. The Approach and Simulation Study of the Relative Pose Measurement Between Space-crafts Based on Stereo Vision[J]. Journal of Astronautics, 2009, 30(4): 1421-1428.)
[9] 劉濤, 解永春. 非合作目標(biāo)交會相對導(dǎo)航方法研究[J]. 航天控制, 2006, 24(2):48-53. (Liu Tao, Xie Yongchun. A Study on Relative Navigation for Spacecraft Rendezvous with a Noncooperative Target[J]. Aerospace Control, 2006, 24(2):48-53.)
[10] 王曉亮, 邵曉巍, 龔德仁,等. 改進(jìn)的量測噪聲自適應(yīng)濾波在空間非合作目標(biāo)視覺導(dǎo)航中的應(yīng)用[J]. 航天控制, 2011, 29(2):37-41. (Wang Xiaoliang, Shao Xiaowei, Gong Deren, et al. Application of an Improved Measurement Noise Adaptive Filter in Vision Navigation for Non-Cooperative Target in Space[J]. Aerospace Control, 2011, 29(2):37-41.)
[11] 徐培智. 基于視覺和激光的空間非合作目標(biāo)相對位姿測量技術(shù)研究[D]. 南京航空航天大學(xué), 2014. (Xu Peizhi. Research on Measurement of Relative Pose Between Space Non-cooperative Targets Based on Vision and Laser[D]. Nanjing University of Aeronautics and Astronautics, 2014.)
[12] 梁斌, 何英, 鄒瑜,等. ToF相機(jī)在空間非合作目標(biāo)近距離測量中的應(yīng)用[J]. 宇航學(xué)報, 2016, 37(9):1080-1088. (Liang Bin, He Ying, Zou Yu, et al. Application of Time of Flight Camera for Relative Measurement of Non-Cooperative Target in Close Range[J]. Journal of Astronautics, 2016, 37(9) :1080-1088. )
[13] Rusinkiewicz S, Levoy M. Efficient Variants of The ICP Algorithm[C]. 3-D Digital Imaging and Modeling, 2001. Proceedings. Third International Conference on. IEEE, 2001.
[14] Newcombe R A, Izadi S, Hilliges O, et al. Kinect Fusion: Real-time Dense Surface Mapping and Tracking[C]. IEEE International Symposium on Mixed and Augmented Reality. IEEE, 2011:127-136.
[15] Blais G, Levine M D. Registering Multiview Range Data to Create 3D Computer Objects[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 1995, 17(8):820-824.
[16] Rusinkiewicz S, Hall-Holt O, Levoy M. Real-time 3D Model Acquisition[J]. Acm Transactions on Graphics, 2010, 21(3):438-446.
[17] Leibe B, Leonardis, Ales, Schiele B. Robust Object Detection with Interleaved Categorization and Segmentation[J]. International Journal of Computer Vision, 2008, 77(1-3):259-289.
[18] Lowe, D G. Distinctive Image Features from Scale-Invariant Keypoints[J]. International Journal of Computer Vision,2004,60(2): 91-110.
[19] Tombari F, Salti S, Stefano L D. Unique Signatures of Histograms for Local Surface Description[C]. ECCV 2012. Springer Berlin Heidelberg, 2010.
[20] Aldoma A. A Global Hypotheses Verification Method for 3D Object Recognition[C]. ECCV 2012. Springer Berlin Heidelberg, 2012:511-524.
[21] Rauscher G, Dube D, Zell A. A Comparison of 3D Sensors for Wheeled Mobile Robots[M]. Intelligent Autonomous Systems 13. Springer International Publishing, 2016:29-41.
2D/3D Feature Fusion Based on Space Non-Cooperative Target Close-Range Relative Measurement
Yi Bing, Jing Zhongliang,Pan Han
Shanghai Jiao Tong University, Shanghai 200240, China
Aclose-rangerelativemeasurementmethodfor3Dreconstruction,objectrecognitionandrelativeposeestimationofspacenon-cooperativetargetintegrationisdevelopedtofulfillthegoalofimprovedsystemautonomyinthescenarioofon-orbitsatelliteservicing.Thetwo-dimensionalRGBdataanddepthdataarefusedtoapplyintheproposedmethod,andadense3Dmodelisestablishedbytruncatedsigneddistancefunction,thena3DobjectrecognitionpipelinebasedonintegrationionofSIFTdescriptorandSHOTdescriptorisproposedtoapplytothereconstructedmodelforinitializingeafastversionofiterativeclosestpointregistrationcycle.Therefore,thevalidparametersofrelativeposeestimationcanbecalculated.Theautonomyofthesystemcanbeenhancedandtheadaptabilityofrelativeposemeasurementpipelinecanbeimprovedbyusingthismethod.Groundsimulationdemonstratesthefeasibilityofthismethod.
Non-cooperativetarget;Relativeposemeasurement; 3Dreconstruction; 3Dobjectrecognition
* 國家自然科學(xué)基金資助項(xiàng)目(61673262,61603249);上海市科學(xué)技術(shù)委員會重點(diǎn)資助項(xiàng)目(16JC1401100)
2016-10-25
易 兵 (1991-),男,湖南人,碩士研究生,主要研究方向?yàn)楹娇沼詈叫畔⑴c控制;敬忠良 (1960-),男,四川人,教授、博士生導(dǎo)師,主要研究方向?yàn)楹娇蘸教煨畔⑻幚砼c控制,信息融合;潘 漢 (1983-),男,廣西人,博士,助理研究員,主要研究方向?yàn)槔杪餍蝺?yōu)化與信息融合。
TP242
A
1006-3242(2017)02-0060-06