李正煒,王建立,吳元昊,王國聰,劉 帥
(1.中國科學(xué)院 長春學(xué)精密機械與物理研究所,吉林 長春 130033;2.中國科學(xué)院大學(xué),北京 100049)
?
基于單站地基望遠(yuǎn)鏡的空間目標(biāo)姿態(tài)估計方法
李正煒1,2,王建立1*,吳元昊1,王國聰1,2,劉帥1
(1.中國科學(xué)院 長春學(xué)精密機械與物理研究所,吉林 長春 130033;2.中國科學(xué)院大學(xué),北京 100049)
為實現(xiàn)從單站光測圖像中估計出已知3D模型的空間目標(biāo)姿態(tài),利用Vega Prime提出了一種采用仿真圖像進(jìn)行相關(guān)度局部最優(yōu)搜索的姿態(tài)估計方法,該方法無需建立2D-3D特征投影關(guān)系和大量的模型匹配庫。首先,對輸入圖像進(jìn)行圖像預(yù)處理,獲得目標(biāo)原始圖像。然后,利用Vega Prime加載目標(biāo)3D模型生成仿真匹配圖像,并進(jìn)行圖像預(yù)處理獲得目標(biāo)匹配圖像,計算兩幅圖像相關(guān)度。最后,更新3D目標(biāo)模型姿態(tài),直至仿真匹配圖像與目標(biāo)原始圖像的相關(guān)度值取得局部最優(yōu),輸出目標(biāo)模型姿態(tài)。仿真實驗結(jié)果表明,采用本文所提方法的觀測仿真圖像姿態(tài)平均估計誤差為3.85°,仿真原圖可實現(xiàn)姿態(tài)準(zhǔn)確估計,表明該方法是一種空間目標(biāo)姿態(tài)估計的有效方法。
姿態(tài)估計;相關(guān)度;空間目標(biāo);地基望遠(yuǎn)鏡;Vega Prime
目前,空間目標(biāo)監(jiān)測識別系統(tǒng)主要分為陸基雷達(dá)系統(tǒng)和光學(xué)觀測系統(tǒng)兩部分。前者主要用于探測低軌道空間目標(biāo),后者可用于探測高軌道空間目標(biāo)。隨著望遠(yuǎn)鏡成像性能的提高和自適應(yīng)光學(xué)系統(tǒng)的發(fā)展,光學(xué)系統(tǒng)對空間目標(biāo)的成像質(zhì)量能滿足空間目標(biāo)監(jiān)測需求。利用地基光學(xué)望遠(yuǎn)鏡圖像進(jìn)行空間目標(biāo)姿態(tài)估計,可獲得衛(wèi)星任務(wù)狀態(tài)、探測器偵察區(qū)域等方面信息,具有重要的研究意義[1-3]。
目前對單站光測圖像進(jìn)行目標(biāo)姿態(tài)估計的方法,可以主要歸結(jié)為兩種類型:一種是通過尋找確立,以二維到三維的某種特征投影對應(yīng)關(guān)系為前提,進(jìn)行姿態(tài)解算,但實際中由于被測目標(biāo)姿態(tài)的自由變化可能導(dǎo)致一些特征被遮擋,因此無法實現(xiàn)任意姿態(tài)的估計[4-9]。另一種是,采用三維模型檢索技術(shù)進(jìn)行姿態(tài)估計,可以避免建立復(fù)雜的投影關(guān)系,但目前采用的方式需要建立龐大而復(fù)雜的模型數(shù)據(jù)庫,實際應(yīng)用中效率較低[10-11]。本文利用Vega Prime實時仿真技術(shù),對已知3D模型的空間目標(biāo)實時生成仿真圖像,進(jìn)行相關(guān)度值最優(yōu)匹配搜索,避免了大量模型匹配庫的建立。
空間目標(biāo)模型可以通過一些公布的參數(shù)或由觀測圖像分析建立3D模型獲得。Vega Prime是實時三維虛擬現(xiàn)實工具,可根據(jù)設(shè)定姿態(tài)信息實時生成仿真圖像并作為模型匹配圖像與觀測圖像進(jìn)行相關(guān)度計算。如果仿真圖像目標(biāo)姿態(tài)與觀測圖像目標(biāo)姿態(tài)一致時,相關(guān)度值為局部最優(yōu)值,則在給定接近真實姿態(tài)角初值時,更新模型姿態(tài)進(jìn)行姿態(tài)角搜索,使相關(guān)度值達(dá)到最優(yōu)值,可實現(xiàn)觀測圖像目標(biāo)姿態(tài)估計。通過對不同姿態(tài)方向上相關(guān)度值變化分析,當(dāng)仿真目標(biāo)姿態(tài)角為真實姿態(tài)角時,相關(guān)度值為局部最優(yōu)值,證明此方法的可行性。同時對地基望遠(yuǎn)鏡成像過程進(jìn)行仿真,對仿真觀測圖像進(jìn)行姿態(tài)估計,實驗結(jié)果證明本文所述方法是一種有效的姿態(tài)估計方法。
2.1目標(biāo)姿態(tài)角定義
如圖1所示,Os-XSYSZS為望遠(yuǎn)鏡觀測坐標(biāo)系,OsO為望遠(yuǎn)鏡觀測視軸,O-XYZ為目標(biāo)坐標(biāo)系。
圖1 觀測坐標(biāo)系 Fig.1 Coordinate of observation
目標(biāo)的偏航角θ指目標(biāo)中心軸線在XOY平面上投影與x軸所成角度,俯仰角φ為目標(biāo)中軸線與XOY平面所成角度,滾轉(zhuǎn)角γ為目標(biāo)繞中軸線旋轉(zhuǎn)角度,具體如圖2所示。
圖2 目標(biāo)三維姿態(tài) Fig.2 3D attitude of target
2.2Vega Prime簡介
Vega Prime是Multigen-Paradigm公司推出的實時三維虛擬現(xiàn)實開發(fā)工具,支持面向?qū)ο蠹夹g(shù),其底層基于開放式Open GL技術(shù),具有良好的跨平臺性。通過Lynx Prime GUI圖形化工具可以進(jìn)行快速配置,簡單易用,讓用戶可以快速準(zhǔn)確地開發(fā)出適合要求的視景仿真應(yīng)用程序[12-13],是實景仿真軟件平臺的主流工具。
圖4 Vega Prime運行流程 Fig.4 Operational scheme of Vega Prime
在啟動Vega Prime仿真線程后,在仿真循環(huán)中設(shè)置目標(biāo)姿態(tài)可實時生成仿真圖像。在Vega Prime運行時,通過對EVENT_POST_DRAW事件的響應(yīng),提取出仿真圖像作為姿態(tài)估計匹配圖像。
2.3圖像相關(guān)度計算
相似性度量主要分為兩大類:距離度量和相關(guān)度量。其中對于各種畸變而言,相關(guān)度量優(yōu)于距離度量,且相關(guān)度量對噪聲和光照強弱變化不敏感[14],因此本文采用相關(guān)度量中歸一化相關(guān)度量作為相似性度量方法。設(shè)g(x,y)為原圖像,f(x,y)為仿真匹配圖像,l為圖像高度,h為圖像寬度,N=l×h。
相關(guān)度計算:
(1)
2.4姿態(tài)估計方法
利用Vega Prime對望遠(yuǎn)鏡成像過程進(jìn)行仿真,生成觀測目標(biāo)不同姿態(tài)角的仿真圖像。假定仿真圖像與觀測圖像在真實姿態(tài)角附近相關(guān)度存在局部最優(yōu)值,則在真實值附近,可以通過搜索各姿態(tài)角使觀測圖像與仿真圖像相關(guān)度最優(yōu)值,進(jìn)而估計出當(dāng)前觀測圖像目標(biāo)姿態(tài)角。因在空間目標(biāo)觀測過程中目標(biāo)的姿態(tài)角是連續(xù)變化過程,前一幀觀測圖像的姿態(tài)角可作為后一幀估計初值。
姿態(tài)估計方法:首先通過對觀測圖像進(jìn)行人為姿態(tài)估計,作為初值,以此為基礎(chǔ)在不同姿態(tài)方向上仿真圖像與觀測圖像進(jìn)行相關(guān)度匹配,得到相關(guān)度最優(yōu)位姿,即為空間目標(biāo)估計姿態(tài)。姿態(tài)搜索策略:設(shè)置搜索步長,在偏航角方向搜索達(dá)到相關(guān)度最優(yōu)值,在此基礎(chǔ)上在俯仰角方向搜索達(dá)到相關(guān)度最優(yōu)值,最后進(jìn)行滾轉(zhuǎn)角方向搜索達(dá)到最優(yōu)值,此時看作為完成一次姿態(tài)搜索。精度delta搜索完成條件:
(2)
式中,thold為相關(guān)度變化閾值,可取值10-6。更新搜索精度,重新搜索估計姿態(tài)角,直至滿足要求精度,輸出仿真目標(biāo)姿態(tài)角,具體算法流程圖如圖5所示。圖像預(yù)處理主要是對圖像進(jìn)行閾值分割處理,提取出目標(biāo)的二值化圖像。
具體算法步驟如下:
(a)輸入:望遠(yuǎn)鏡視軸方位AS、俯仰ES;
初始搜索精度delta0;
姿態(tài)估計精度APrecise;
目標(biāo)3D模型;
觀測圖像g(x,y);
(b)Vega Prime仿真望遠(yuǎn)鏡成像過程,生成仿真圖像;
(c)改變3D模型姿態(tài)進(jìn)行人為估計姿態(tài)角初值,偏航角θ0,滾轉(zhuǎn)角γ0,俯仰角φ0,(θ0,φ0,γ0);
(d)對觀測圖像預(yù)處理獲得gt(x,y);
(e)Vega Prime仿真線程生成姿態(tài)角(θ,φ,γ)對應(yīng)仿真圖像f(x,y);
(f)進(jìn)行仿真圖像預(yù)處理得到ft(x,y);
(g)根據(jù)式(1)計算兩幅圖像相關(guān)度R;
(h)循環(huán)步驟(e)到(g),更新θ=θ+delta,直至相關(guān)度最優(yōu);
(i)循環(huán)步驟(e)到(g),更新φ=φ+delta,直至相關(guān)度最優(yōu);
(j)循環(huán)步驟(e)到(g),更新γ=γ+delta,直至相關(guān)度最優(yōu);
(k)更新delta=delta/2,當(dāng)delta>APrecise跳轉(zhuǎn)至(h),否則輸出(θ,φ,γ)。
圖5 姿態(tài)估計算法流程 Fig.5 Flow chart of the attitude estimation algorithm
2.5空間目標(biāo)成像仿真
本文所述方法主要應(yīng)用于單站地基望遠(yuǎn)鏡觀測圖像的空間目標(biāo)姿態(tài)估計。地基光學(xué)望遠(yuǎn)鏡觀測成像主要受大氣湍流影響,針對大氣擾動進(jìn)行建模,對觀測成像過程進(jìn)行仿真[15-17]。
2.5.1圖像降質(zhì)模型
CCD成像系統(tǒng)在空間目標(biāo)成像過程中會受到各種因素的影響而產(chǎn)生模糊和降質(zhì),如大氣湍流效應(yīng)、成像過程中的噪聲、光路中的衍射等。所獲得的圖像為所有退化過程作用后的結(jié)果,且退化過程對大部分成像系統(tǒng)而言是線性的。因此,圖像的退化過程可表示為:
(3)
式中,*表示卷積運算,函數(shù)h(x,y)表示點擴散函數(shù),g(x,y)表示退化圖像,f(x,y)表示輸入圖像,η(x,y)為噪聲。
頻域上式(3)可表示為:
(4)
式中,H(u,v)稱為光學(xué)傳遞函數(shù)(OTF,Optical Transfer Function)。
2.5.2光學(xué)傳遞函數(shù)(OTF)
對于地基望遠(yuǎn)鏡而言,大氣湍流效應(yīng)是造成成像模糊的主要原因。因此主要對大氣擾動進(jìn)行建模,獲得長曝光OTF,根據(jù)長曝光OTF獲得仿真觀測圖像。大氣相干長度r0反映了大氣湍流對光波波前的擾動程度,表示光學(xué)成像系統(tǒng)分辨率受大氣湍流影響不會超過口徑為r0的望遠(yuǎn)鏡系統(tǒng)衍射極限。利用大氣相干長度r0表示的光學(xué)傳遞函數(shù)(OTF)為:
(5)
式中,λ是成像波長,f為成像系統(tǒng)焦距,v為頻率。
根據(jù)式(5)即可計算出大氣擾動所對應(yīng)得光學(xué)傳遞函數(shù)。
采用VS2008實現(xiàn)實時仿真姿態(tài)估計軟件的編寫,軟件操作UI如圖6所示,其中左側(cè)顯示為輸入原圖,右上為Vega Prime仿真圖像,右下為仿真處理圖像,以哈勃望遠(yuǎn)鏡3D模型為例,進(jìn)行實時仿真姿態(tài)估計實驗分析。
當(dāng)望遠(yuǎn)鏡視軸方位、俯仰角均為0°時,定義目標(biāo)姿態(tài)角(0°, 0°,0°)為基準(zhǔn)姿態(tài),設(shè)定此時目標(biāo)姿態(tài)如圖7所示,所估計的目標(biāo)姿態(tài)角為相對于此初始模型產(chǎn)生的角度變化。
圖6 姿態(tài)估計軟件 Fig.6 Attitude estimation software
圖7 目標(biāo)基準(zhǔn)姿態(tài) Fig.7 Basic attitude of target
3.13個姿態(tài)方向相關(guān)度分析
以望遠(yuǎn)鏡視軸方位俯仰角均為45°及目標(biāo)姿態(tài)偏航角10°、俯仰角10°、滾轉(zhuǎn)角10°為例,目標(biāo)仿真圖像如圖8所示,以仿真原圖作為輸入圖像,以1°作為搜索步長,分別對偏航角、俯仰角、滾轉(zhuǎn)角3個方向進(jìn)行相關(guān)度值變化分析。
圖8 原始仿真圖像 Fig.8 Original simulation image
當(dāng)俯仰角10°,滾轉(zhuǎn)角10°時,偏航角方向以1°為搜索精度,相關(guān)度值變化情況如圖9所示。
圖9 偏航角方向相關(guān)度值R變化曲線 Fig.9 Change curve of correlation value on yaw angle
當(dāng)偏航角10°,滾轉(zhuǎn)角10°時,俯仰角方向以1°為搜索精度,相關(guān)度值變化情況如圖10所示。
圖10 俯仰角方向相關(guān)度變化曲線 Fig.10 Change curve of correlation value on pitch angle
當(dāng)偏航角10°,俯仰角10°時,滾轉(zhuǎn)角方向以1°為搜索精度,相關(guān)度值變化情況如圖11所示。
圖11 滾轉(zhuǎn)角方向相關(guān)度變化曲線 Fig.11 Change curve of correlation value on roll angle
由圖9、圖10、圖11所示,每個姿態(tài)角方向在真實值10°附近相關(guān)度值均出現(xiàn)峰值,相關(guān)度值最高。因此,可以判定當(dāng)仿真目標(biāo)姿態(tài)為真實姿態(tài)角時,仿真圖像與觀測圖像的相關(guān)度值為局部最大值,采用本文方法在接近真實值附近進(jìn)行搜索相關(guān)度最大值,實現(xiàn)目標(biāo)姿態(tài)估計是可行的。
3.2仿真成像姿態(tài)估計
根據(jù)2.4,對地基望遠(yuǎn)鏡空間目標(biāo)實際成像進(jìn)行仿真,取大氣相干長度為10 cm ,如對圖8進(jìn)行退化處理得到觀測仿真圖像,如圖12所示。
圖12 仿真觀測圖像 Fig.12 Observation simulation image
分別對不同姿態(tài)進(jìn)行實際成像仿真,采用本文方法進(jìn)行姿態(tài)估計,初始搜索精度為2°,估計精度定為0.1°,估計結(jié)果如表1所示。
表1 仿真觀測圖像姿態(tài)估計結(jié)果
仿真觀測圖像姿態(tài)綜合平均估計誤差:
(6)
從各個姿態(tài)方向估計結(jié)果可以看出,對于仿真觀測圖像,由于圖像退化產(chǎn)生了較大的估計誤差,但總體而言能向真實值方向搜索逼近,姿態(tài)平均估計誤差為3.85°。對于仿真原圖進(jìn)行姿態(tài)估計時,可得到準(zhǔn)確的姿態(tài)值。
通過對3個姿態(tài)角方向上仿真圖像與觀測圖像相關(guān)度值變化情況分析,說明真實姿態(tài)角對應(yīng)于相關(guān)度值一個局部最優(yōu)值。本文提出的采用Vega Prime實時生成仿真圖像,在接近真實姿態(tài)角附近進(jìn)行相關(guān)度最優(yōu)搜索匹配的姿態(tài)估計方法,是一種有效可行的方法。對退化后圖像進(jìn)行姿態(tài)估計時,由于目標(biāo)形狀輪廓產(chǎn)生了變化和噪聲影響,造成了估計誤差、姿態(tài)角平均估計誤差為3.85°,對未退化圖像的姿態(tài)可實現(xiàn)準(zhǔn)確估計。結(jié)果表明,進(jìn)行姿態(tài)估計前需對觀測圖像進(jìn)行圖像復(fù)原處理,獲得較清晰的目標(biāo)圖像,可以獲得更精確的估計結(jié)果。綜上所述,本文所提出的姿態(tài)估計方法,姿態(tài)估計過程無需建立2D-3D特征投影關(guān)系和大量的模型匹配庫,可直接進(jìn)行實時仿真搜索匹配,是一種有效的姿態(tài)估計方法。
[1]王春雪.基于圖像的空間目標(biāo)三維姿態(tài)估計研究[D].北京:中國科學(xué)院,2014.
WANG CH X. The study of 3D pose estimation for space object based on images[D]. Beijing:Graduate University of the Chinese Academy of Sciences,2014.(in Chinese)
[2]陳娟,陳乾輝.空間目標(biāo)三維姿態(tài)估計方法綜述[J].長春工業(yè)大學(xué)學(xué)報(自然科學(xué)版),2008,3(29):323-327.
CHEN J,CHEN Q H. Summary of the 3D pose estimations for the space targets[J].J.ChangchunUniversityofTechnology(Natural Science Edition),2008,3(29):323-327.(in Chinese)
[3]夏軍營.空間目標(biāo)的單目視覺位姿測量方法研究[D].長沙:國防科學(xué)技術(shù)大學(xué),2012.
XIA J Y. Researches on monocular vision based pose measurements for space targets[D]. Changsha:Graduate School of National University of Defense Technology,2012.(in Chinese)
[4]冷大煒.基于單目視覺的三維剛體目標(biāo)測量技術(shù)研究[D].北京:清華大學(xué),2011.
LENG D W. Research on monocular vision based metrology for 3D rigid object[D]. Beijing:Tsinghua University,2011.(in Chinese)
[5]張永軍,孔胃.利用單幅影像的空間目標(biāo)姿態(tài)測定方法[J].西安交通大學(xué)學(xué)報,2009,9(43): 56-61.
ZHANG Y J,KONG W. Pose determination of space object with single image[J].J.Xi′anJiaotongUniversity,2009,9(43):56 -61.(in Chinese)
[6]于起峰,孫祥一,邱志強.從單站光測圖像確定空間目標(biāo)三維姿態(tài)[J].光學(xué)技術(shù),2002,1(28): 77-80.
YU Q F,SUN X Y,QIU ZH Q. Approach of determination of Object′s 3D pose from mono-view[J].OpticalTechnique,2002,1(28):77-80.(in Chinese)
[7]張原,王志乾,喬彥峰,等.導(dǎo)彈發(fā)射姿態(tài)測量方法研究[J].中國光學(xué),2015,8(6):997-1003.
ZHANG Y,WANG ZH Q,QIAO Y F,etal.. Attitude measurement method research for missile launch[J].ChineseOptics,2015,8(6):997-1003.(in Chinese)
[8]李晶,袁峰,胡英輝.基于多點合作目標(biāo)的多線陣CCD空間物體姿態(tài)測量[J].光學(xué) 精密工程,2013,21(6):269-275.
LI J,YUAN F,HU Y H. Attitude measurement of space objects based on multi-linear CCD and multi-point cooperation target[J].Opt.PrecisionEng.,2013,21(6):269-275.(in Chinese)
[9]王彬,何昕,魏仲慧.采用多站圖像直線特征的飛機姿態(tài)估計[J].光學(xué) 精密工程,2013,21(7):195-203.
WANG B,HE X,WEI ZH H. Attitude estimation of aircrafts using line features on multi-camera images[J].Opt.PrecisionEng.,2013,21(7): 195-203.(in Chinese)
[10]趙汝進(jìn),劉恩海,張文明,等.基于弱透視成像模型的目標(biāo)三維姿態(tài)測量[J].光子學(xué)報,2014,5(43):0512002-1-6.
ZHAO R J,LIU E H,ZHANG W M,etal.. Measurement of 3D pose of objects based on weak perspective model[J].ActaPhotonicaSinica,2014,5(43):0512002-1-6.(in Chinese)
[11]胡薇,張桂林,任仙怡.基于子空間的3D目標(biāo)識別和姿態(tài)估計方法[J].紅外與激光工程,2004,6(33):592-596.
HU W,ZHANG G L,REN X Y. Eigenspace-based approach for object recognition and pose estimation[J].InfraredandLaserEngineering,2004,6(33):592-596.(in Chinese)
[12]牛鐵.基于Vega Prime的實時三維視景仿真技術(shù)的研究[D].烏魯木齊:新疆大學(xué),2010.
NIU T. Research of real-time 3D scene visualization technology based on Vega Prime[D]. Wulumuqi:Xinjiang University,2010.(in Chinese)
[13]于洋,李丹.跟蹤圖像生成技術(shù)應(yīng)用于光電設(shè)備模擬訓(xùn)練[J].液晶與顯示,2015,30(2):166-171.
YU Y,LI D. Technology of tracking image generating applied in simulation training of photoelectric device[J].ChineseJ.LiquidCrystalsandDisplays,2015,30(2):166-171.
[14]陳衛(wèi)兵.幾種圖像相似性度量的匹配性能比較[J].計算機應(yīng)用,2010,1(30): 98-100.
CHEN W B. Comparison of matching capabilities in similarity measurements[J].J.ComputeApplications,2010,1(30):98 - 100.(in Chinese)
[15]衛(wèi)沛鋒,劉欣悅,林旭東,等.自適應(yīng)光學(xué)系統(tǒng)測試中大氣湍流的時域模擬[J].中國光學(xué),2013,6(3):371-377.
WEI P F,LIU X Y,LIN X D,etal.. Temporal simulation of atmospheric turbulence during adaptive optics system testing[J].ChineseOptics,2013,6(3):371-377.(in Chinese)
[16]瞿青,曹召良,胡立發(fā),等.位相差值法測量大氣湍流格林伍德頻率[J].中國光學(xué),2015,8(1):121-129.
QU Q,CAO ZH L,HU L F,etal.. Greenwood frequency measurement of atmospheric turbulence by phase difference method[J].ChineseOptics,2015,8(1):121-129.(in Chinese)
[17]姜寶光,穆全全,曹召良,等.液晶波前校正器校正水平方向上的大氣湍流[J].液晶與顯示,2009,24(3):396-398.
JIANG B G,MU Q Q,CAO ZH L,etal.. Correction of turbulence in horizontal direction using a liquid crystal wave-front corrector[J].ChineseJ.LiquidCrystalsandDisplays,2009,24(3):396-398.(in Chinese)
Method of attitude estimation for space object based on single ground-based telescope
LI Zheng-wei1,2, WANG Jian-li1*, WU Yuan-hao1, WANG Guo-cong1,2, LIU Shuai1
(1.Changchun Institute of Optics,Fine Mechanics and Physics,ChineseAcademyofSciences,Changchun130033,China;2.UniversityofChineseAcademyofSciences,Beijing100049,China)*Correspondingauthor,E-mail:wangjianli@ciomp.ac.cn
To estimate the attitude of the known 3D model space object from the mono-view image, a method is proposed by searching the local optimum of the correlation between the simulation image generated from Vega Prime and the observation image, which need not establish the relationships of target feature from 2D to 3D and abundant model matching library. Firstly, the input image is preprocessed to obtain the original target image. Secondly, Vega Prime program loads 3D model of the target, and generates a simulation matching image. The simulation image is preprocessed to obtain the matching target image. And the correlation of these two images is calculated. Finally, the attitude of model is updated until the correlation of the matching image and the original image is local optimum. Experimental results show that this method can estimate the attitude from the original simulation image accurately, and the average estimation error of the simulation observation image is 3.85°, which indicates that the proposed method is an effective method for space object attitude estimation.
attitude estimation;correlation;space object;ground-based telescope;Vega Prime
2016-01-22;
2016-02-23
國家高技術(shù)研究發(fā)展計劃(863計劃)資助項目(No.2013AA8083042)
2095-1531(2016)03-0371-08
TP394.1
A
10.3788/CO.20160903.0371
李正煒(1988—),男,福建龍巖人,博士研究生,2010年于中國科技大學(xué)獲得學(xué)士學(xué)位,2013年于中國科學(xué)院長春光學(xué)精密機械與物理研究所獲得碩士學(xué)位,主要從事光學(xué)成像探測和數(shù)字圖像處理等方面的研究。E-mail:lzw55555@mail.ustc.edu.cn
王建立(1971—),男,山東曲阜人,研究員,博士生導(dǎo)師,主要從事空間目標(biāo)探測技術(shù)和地基高分辨率成像望遠(yuǎn)鏡總體技術(shù)等方面的研究。E-mail:wangjianli@ciomp.ac.cn
Supported by National High-tech R&D Program of China(No.2013AA8083042)