徐云飛,張篤周,王 立,華寶成,石永強,賀盈波
(北京控制工程研究所空間光電測量與感知實驗室,北京 100190)
隨著航天技術(shù)的進步和空間任務(wù)的多樣化發(fā)展,對于空間非合作目標(biāo)位姿測量的需求日益迫切。目前用于非合作目標(biāo)位姿測量的敏感器主要包括相機和激光雷達兩大類。激光雷達的分辨率較低、硬件相對復(fù)雜,且功耗較高;相比之下單目相機硬件更為簡單成熟。然而傳統(tǒng)模式下單目相機無法獲得深度信息、點線特征提取不穩(wěn)定、適應(yīng)性較差,這些因素使得當(dāng)前非合作目標(biāo)的相對姿態(tài)求解主要集中于立體視覺和激光雷達[1-2]。隨著深度學(xué)習(xí)和高性能處理器的發(fā)展,為“單目相機+卷積神經(jīng)網(wǎng)絡(luò)”在軌實現(xiàn)姿態(tài)測量提供了可能。
德國宇航局開展的“實驗服務(wù)衛(wèi)星(Experi-mental servicing satellite, ESS)”項目[3],通過衛(wèi)星機械臂上搭載的立體攝像機對目標(biāo)衛(wèi)星上的發(fā)動機噴嘴進行運動參數(shù)識別。美國的FREND機械臂上的立體視覺系統(tǒng)能夠?qū)Ψ蛛x螺栓孔和星箭對接環(huán)進行識別和抓捕[4]。王詩強等[5]提出一種通過紋理邊界檢測的橢圓特征提取方法,擬合出對接環(huán)的橢圓參數(shù)并進行相對姿態(tài)測量。徐文福等[6]利用Canny邊沿檢測算子提取目標(biāo)濾波圖像中的直線特征,再利用雙目系統(tǒng)對直線特征形成的交叉點進行匹配,從而得到目標(biāo)位姿。王志超等[7]利用雙目相機識別目標(biāo)航天器上矩形和橢圓形特征并進行特征匹配和位姿測量,利用PLK光流法對其動態(tài)軌跡進行跟蹤。然而無論是關(guān)鍵點特征、直線特征還是矩形橢圓等,都是人工設(shè)計出的幾何特征,難以適用于各類空間條件下,且目標(biāo)衛(wèi)星上的天線、帆板、對接環(huán)、噴嘴以及衛(wèi)星本體會隨著其位姿和所受光照條件的變化發(fā)生成像模糊,局部遮擋,以及出現(xiàn)陰影等情況。傳統(tǒng)的特征點提取和匹配測量非合作目標(biāo)姿態(tài)的方法難以應(yīng)對各類工況。
深度學(xué)習(xí)方法的興起,給目標(biāo)位姿測量提供了新的思路。如基于稀疏特征[8]、基于稠密圖像塊[9-10]和基于模板匹配[11]等方法,以及基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)姿態(tài)測量方法[12-14]。而針對非合作目標(biāo)姿態(tài)測量問題,張浩鵬等[15]提出在核函數(shù)的基礎(chǔ)上通過學(xué)習(xí)的方法,提取出衛(wèi)星數(shù)據(jù)集圖像特征,進而得到衛(wèi)星姿態(tài)角。李想[16]提出利用深度學(xué)習(xí)方法對空間非合作目標(biāo)進行三軸姿態(tài)估計,利用卷積神經(jīng)網(wǎng)絡(luò)InceptionV3模塊對整幅圖像進行特征提取,建立與三軸姿態(tài)角之間的關(guān)系,最終實現(xiàn)姿態(tài)估計。斯坦福大學(xué)Sharma等[17]提出基于卷積神經(jīng)網(wǎng)絡(luò)的非合作目標(biāo)姿態(tài)估計方法,預(yù)先定義多種姿態(tài)作為圖像標(biāo)注信息,用AlexNet作為基干網(wǎng)絡(luò),將姿態(tài)估計問題作為分類問題處理。北京控制工程研究所王立等[18]提出基于特征建模的非合作目標(biāo)點云智能化配準(zhǔn)方法,利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)點云協(xié)方差矩陣中6個參數(shù)與非合作目標(biāo)三軸姿態(tài)的關(guān)系。
本文通過遷移學(xué)習(xí)方法減少了網(wǎng)絡(luò)對數(shù)據(jù)集數(shù)量的過度依賴,并將姿態(tài)測量問題從分類問題轉(zhuǎn)化成回歸問題,對比了基于ResNet、MobileNet的姿態(tài)測量網(wǎng)絡(luò)學(xué)習(xí)效果,能夠保證檢測精度、檢測速度以及網(wǎng)絡(luò)尺寸要求。
圖1為空間非合作目標(biāo)單目姿態(tài)測量總體技術(shù)路線圖。首先在實驗室采集空間非合作目標(biāo)圖像,并標(biāo)注每一幅圖像的俯仰、偏航和翻滾姿態(tài)角;對原始圖像進行Sobel邊沿提取,確定衛(wèi)星在原始圖像中的位置并截出,修改尺寸和通道數(shù)后送入特征提取網(wǎng)絡(luò)進行特征學(xué)習(xí);本文采用遷移學(xué)習(xí)的方法提取衛(wèi)星圖像特征,所用的特征提取網(wǎng)絡(luò)來源于ImageNet大規(guī)模視覺挑戰(zhàn)賽(ILSVRC)上表現(xiàn)優(yōu)異的網(wǎng)絡(luò)(ResNet, MobileNet等)。由于ImageNet上用大數(shù)據(jù)訓(xùn)練出的卷積神經(jīng)網(wǎng)絡(luò),能對任意圖像的底層特征至高維特征進行充分表征,因此可以將這些網(wǎng)絡(luò)的卷積層提取出來作為姿態(tài)測量任務(wù)的圖像特征提取網(wǎng)絡(luò),且只需少量圖片訓(xùn)練便可對卷積核權(quán)重、偏置值完成微調(diào)。這一過程相當(dāng)于對圖像進行特征建模,最終輸出得到了特征向量;之后本文設(shè)計了姿態(tài)估計網(wǎng)絡(luò)并對其進行訓(xùn)練,構(gòu)建輸入特征向量到俯仰、偏航和翻滾三軸姿態(tài)角之間的非線性映射關(guān)系,且輸出類型為連續(xù)輸出,即將姿態(tài)測量問題設(shè)計為回歸問題,相對于分類問題,可以獲得更高的姿態(tài)分辨率。
圖1 非合作目標(biāo)姿態(tài)測量網(wǎng)絡(luò)架構(gòu)設(shè)計Fig.1 Architecture design of non-cooperative target attitude measurement network
圖2展示了不同特征提取網(wǎng)絡(luò)在圖像分類任務(wù)中準(zhǔn)確率與相對檢測時間差異,在空間非合作目標(biāo)姿態(tài)測量任務(wù)中,期望網(wǎng)絡(luò)在保證高準(zhǔn)確率的同時具有相對小的計算量與存儲空間開銷(如表1所示)。以圖中虛線為界,之上的網(wǎng)絡(luò)兼顧圖像特征提取能力和檢測速度。因此本文對比兩類網(wǎng)絡(luò),分別以殘差網(wǎng)絡(luò)ResNet和輕量化網(wǎng)絡(luò)MobileNet作為特征提取網(wǎng)絡(luò)。
圖2 不同特征提取網(wǎng)絡(luò)性能對比Fig.2 Performance comparison of different feature extraction networks
表1 不同特征提取網(wǎng)絡(luò)存儲開銷與參數(shù)量Table 1 Storage overhead and parameter amount of different feature extraction network
殘差網(wǎng)絡(luò)ResNet最大的意義在于解決了隨著網(wǎng)絡(luò)深度增加,訓(xùn)練集上準(zhǔn)確率下降的問題。相比于以往的卷積網(wǎng)絡(luò)結(jié)構(gòu)(AlexNet、Vgg等),殘差網(wǎng)絡(luò)引入了殘差模塊(如圖3所示)。
圖3 殘差網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 Structure of residual network
對于兩層的殘差網(wǎng)絡(luò)有如下表達式:
G=W2σ(W1x)
(1)
式中:σ為激活函數(shù)ReLu,Wi(i=1,2)為卷積層Li權(quán)重。
之后x通過一個捷徑(Shortcut),與第二個ReLu相加得到整個殘差模塊的輸出:
y=G(x,{Wi})+x
(2)
殘差模塊的引入能夠解決網(wǎng)絡(luò)退化的問題,即隨著網(wǎng)絡(luò)層數(shù)的增加,輸出誤差逐漸增大,從而保證空間非合作目標(biāo)姿態(tài)測量精度。
輕量化網(wǎng)絡(luò)MobileNet_V1在模型結(jié)構(gòu)上采用了逐通道(Depth wise, DW)卷積搭配逐點(Point wise, PW)卷積的方式來提取特征,這兩個操作合起來被稱為深度可分離卷積結(jié)構(gòu)(Depth-wise separable convolution)。這種結(jié)構(gòu)在理論上可以成倍地減少卷積層的時間復(fù)雜度和空間復(fù)雜度。由式(3)可知,因為卷積核的尺寸通常遠小于輸出通道數(shù)Cout,因此標(biāo)準(zhǔn)卷積的計算復(fù)雜度近似為DW+PW組合卷積的K2倍。
(3)
輕量化網(wǎng)絡(luò)MobileNet_V2在延用MobileNet_V1深度可分離卷積結(jié)構(gòu)的基礎(chǔ)上融入了殘差網(wǎng)絡(luò)的思想,使用Shortcut將輸入與輸出相連接。與殘差網(wǎng)絡(luò)不同的是MobileNet_V2采用先升維再降維的方式,將圖像特征提取放在高維進行,以適應(yīng)DW結(jié)構(gòu)。MobileNet_V2的使用可以在保證姿態(tài)測量精度要求的前提下減小模型尺寸,從而能在嵌入式系統(tǒng)中實時輸出測量結(jié)果。
將姿態(tài)測量問題作為回歸問題來處理,設(shè)計了基于回歸模型的姿態(tài)映射網(wǎng)絡(luò)。特征提取網(wǎng)絡(luò)輸出n維特征向量(n取決與特征提取網(wǎng)絡(luò)的輸出維度),對原始圖像進行深層次高維表征,并作為姿態(tài)映射網(wǎng)絡(luò)的輸入。姿態(tài)映射網(wǎng)絡(luò)是由三個神經(jīng)元組成的全連接層,分別對應(yīng)輸出的俯仰、偏航和翻滾三軸姿態(tài)角A=[θψφ],并采用均方根誤差(Root mean square error, RMSE)作為損失函數(shù),如式(4)所示:
(4)
姿態(tài)映射網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。
圖4 姿態(tài)映射網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 Structure of attitude mapping network
學(xué)習(xí)過程中三個神經(jīng)元根據(jù)反向傳播鏈?zhǔn)角髮?dǎo)法,采用優(yōu)化器對全連接層3n個參數(shù)進行自學(xué)習(xí),經(jīng)過訓(xùn)練能夠?qū)W習(xí)到特征向量到姿態(tài)角之間的非線性映射關(guān)系,但由于姿態(tài)映射網(wǎng)絡(luò)的“黑箱”問題,映射關(guān)系F(x)只能通過所學(xué)習(xí)的權(quán)重體現(xiàn),而無法給出明確公式或直觀的物理意義。
神經(jīng)網(wǎng)絡(luò)訓(xùn)練的本質(zhì)為最小化損失函數(shù),因此在定義好損失函數(shù)后,需選擇合適的優(yōu)化器對損失函數(shù)進行優(yōu)化。經(jīng)典的優(yōu)化器包括批量梯度下降(Batch gradient descent, BGD)、隨機梯度下降(Stochastic gradient descent with momentum, SGDM)、小批量梯度下降(Mini-batch gradient descent)等。然而這些優(yōu)化器存在收斂速度慢、學(xué)習(xí)率不可調(diào)節(jié)、對噪聲魯棒性差等缺點,因此本文選取性能較優(yōu)的自適應(yīng)動量估計(Adaptive momentum estimation,ADAM)[19]優(yōu)化器。
ADAM優(yōu)化器相比于經(jīng)典的優(yōu)化器在更新參數(shù)時,學(xué)習(xí)率能夠具有自適應(yīng)性。除了存儲歷史梯度平方的指數(shù)衰減平均值vl(如Adadelta和RMSprop),ADAM還保持歷史梯度的指數(shù)衰減平均值,類似于動量(Momentum)條件:
(5)
式中:m為梯度一階矩(均值),v為梯度二階矩(方差),β為衰減系數(shù),取值范圍[0,1]。
然而對于ml,vl初始化為零向量的時刻,會產(chǎn)生一個趨近于0的偏差,經(jīng)偏差修正后的ml,vl如式(6)所示:
(6)
使用ADAM優(yōu)化器得到的網(wǎng)絡(luò)參數(shù)更新公式為:
(7)
ADAM優(yōu)化器相對于傳統(tǒng)優(yōu)化器而言,能夠根據(jù)訓(xùn)練參數(shù)修改訓(xùn)練時的學(xué)習(xí)率,并且對優(yōu)化中的損失函數(shù)具有一定的自適應(yīng)性。相對于其他自適應(yīng)學(xué)習(xí)優(yōu)化方法效果更優(yōu)。
針對某型號非合作目標(biāo)模型建立數(shù)據(jù)集。三軸旋轉(zhuǎn)角度區(qū)間為[-30°, +30°],用太陽模擬光源從不同位置進行照射。[-30°,+30°]區(qū)間每個軸間隔6°取樣,總共得到113張圖片并作為訓(xùn)練集;[-27°,+23°]區(qū)間每個軸間隔10°取樣,總共得到63張圖片并作為驗證集。本文在原始圖像預(yù)處理過程中利用Sobel算子提取原始圖像中的邊緣信息,并兩次求取型心獲得衛(wèi)星在原始圖像中的大致位置并以矩形框截取,從而能夠濾除黑暗的空間背景以及其他物體的干擾,將有用的像素信息送入特征提取網(wǎng)絡(luò)用以訓(xùn)練,如圖5所示。
圖5 圖像預(yù)處理Fig.5 Image preprocessing
之后根據(jù)圖片編號批量生成標(biāo)注信息,完成數(shù)據(jù)集的構(gòu)建(如圖6所示)。
圖6 部分圖像與對應(yīng)姿態(tài)角標(biāo)注Fig.6 A part of images and corresponding attitude angle annotations
采用遷移學(xué)習(xí)的方法,利用預(yù)訓(xùn)練過的卷積網(wǎng)絡(luò)提取非合作目標(biāo)圖像特征,得到高維特征向量。之后姿態(tài)映射網(wǎng)絡(luò),通過學(xué)習(xí)得到特征向量和俯仰、偏航、翻滾三軸姿態(tài)角之間的非線性映射關(guān)系。以ResNet101為基干設(shè)計的姿態(tài)測量網(wǎng)絡(luò)結(jié)構(gòu)如表2所示。
在使用遷移學(xué)習(xí)對特征提取網(wǎng)絡(luò)進行參數(shù)微調(diào)時,應(yīng)根據(jù)實際任務(wù)情況考慮兩點:訓(xùn)練數(shù)據(jù)量大小、與原數(shù)據(jù)集(ImageNet)相似程度。并參考不同的訓(xùn)練方式(見表3)。
表2 基于ResNet101的姿態(tài)測量網(wǎng)絡(luò)Table 2 Attitude measurement network based on ResNet101
表3 不同任務(wù)遷移學(xué)習(xí)方式參考Table 3 Reference of transfer learning methods for different task
由于非合作目標(biāo)數(shù)據(jù)集與原數(shù)據(jù)(ImageNet)相似度低,綜合比較適用于“淺層固定(Conv1、Conv2)+高層微調(diào)”的遷移學(xué)習(xí)方式,淺層參數(shù)對邊沿、紋理表征,具有通用性,因此可利用淺層參數(shù)并加以固定避免訓(xùn)練過程中微調(diào)帶來的過擬合,高層參數(shù)微調(diào)可將原用于圖像分類的高層特征調(diào)整為適用于姿態(tài)測量任務(wù)的高層特征;相對于“各層參數(shù)微調(diào)”方法,在一定程度上避免數(shù)據(jù)量不充足帶來的過擬合問題。而“各層固定”、“各層/高層重新訓(xùn)練”方法可能由于高層特征不適用、數(shù)據(jù)量不充足導(dǎo)致模型訓(xùn)練無法收斂。
設(shè)置網(wǎng)絡(luò)訓(xùn)練超參數(shù),訓(xùn)練選用ADAM優(yōu)化器,設(shè)置小批量尺寸大小為32,訓(xùn)練50代且每代訓(xùn)練結(jié)束后打亂訓(xùn)練集順序重新訓(xùn)練,初始學(xué)習(xí)率為0.0001并每20代后調(diào)節(jié)學(xué)習(xí)率下降0.1倍。實驗環(huán)境:CPU: Intel(R) Xeon(R) Silver 4114 CPU @2.20 GHz 20核; GPU: NVIDIA Quadro P4000(顯存6 G);MATLAB R2019b, Deep Learning Toolbox, CUDA 10.1。訓(xùn)練結(jié)果如圖7所示,從圖中可以看出損失函數(shù)RMSE曲線通過訓(xùn)練可以收斂,驗證集RMSE可收斂至0.711°,后驗結(jié)果表明了姿態(tài)測量網(wǎng)絡(luò)設(shè)計和訓(xùn)練的可行性。
圖7 姿態(tài)測量網(wǎng)絡(luò)訓(xùn)練曲線Fig.7 Training curves of attitude measurement network
卷積網(wǎng)絡(luò)在訓(xùn)練中學(xué)習(xí)到圖像的底層至深層特征,并保留在卷積核權(quán)重中,將其中某些層可視化得到圖8。
圖8 姿態(tài)測量網(wǎng)絡(luò)(左)與ResNet101(右)權(quán)重可視化對比Fig.8 Comparison of weights visualization between attitude measurement network (left) and ResNet 101 (right)
圖8左側(cè)為姿態(tài)測量網(wǎng)絡(luò)卷積權(quán)重,右側(cè)為預(yù)訓(xùn)練過的分類網(wǎng)絡(luò)ResNet101卷積權(quán)重,分別對兩個網(wǎng)絡(luò)Conv1~Conv5中的部分卷積層進行了可視化。縱向比較發(fā)現(xiàn)Conv1中64個卷積核提取圖像中點、線特征,Conv2、Conv3提取圖像邊沿輪廓特征,而Conv4、Conv5通過深層整合(Conv2~Conv5只顯示了前30個卷積核),能夠充分捕捉到圖像豐富復(fù)雜的紋理特征;橫向比較二者發(fā)現(xiàn)姿態(tài)測量網(wǎng)絡(luò)的卷積層參數(shù)在預(yù)訓(xùn)練過的ResNet101卷積層上進行了微調(diào),Conv1~Conv5層特征大體相似,只是由于空間非合作目標(biāo)圖像為灰度圖像,整體顏色特征偏暗,可視化的結(jié)果證明遷移學(xué)習(xí)的可行性,預(yù)訓(xùn)練過的卷積網(wǎng)絡(luò)適用于姿態(tài)測量任務(wù)。
輸入一張空間非合作目標(biāo)圖像,可以查看圖像在特定特征提取層的輸出激活,如圖9所示。
圖9 各層輸出結(jié)果可視化Fig.9 Visualization of output results of each layer
圖9展示了輸入圖像在Conv2、Conv3層的激活輸出,將Conv層內(nèi)某個通道的特定輸出激活提取并放大對比可以發(fā)現(xiàn),網(wǎng)絡(luò)能夠提取出非合作目標(biāo)局部特征。每層的1/2/3通道激活中,灰度高的區(qū)域為卷積核提取出的區(qū)域,灰度低的區(qū)域為卷積核不關(guān)注的區(qū)域,對比4通道原圖發(fā)現(xiàn)1/2/3通道分別能夠?qū)Ψ呛献髂繕?biāo)星體與支架上的橫向邊沿、柱狀噴嘴及形體上零部件和星體中間區(qū)域的矩形等特征進行有效提取,且網(wǎng)絡(luò)越深,提取出的特征更簡明抽象,并最終化為特征向量送入后面的姿態(tài)映射網(wǎng)絡(luò)中學(xué)習(xí)非線性映射關(guān)系F(x)。姿態(tài)映射網(wǎng)絡(luò)的參數(shù)可視化分別對應(yīng)了特征向量到俯仰、翻滾、偏航三軸姿態(tài)角之間的映射關(guān)系。
圖10 特征向量與三軸姿態(tài)角的對應(yīng)映射關(guān)系Fig.10 Mapping relationship between eigenvector and attitude angle of three-axis
按照表征學(xué)習(xí)觀點,特征提取網(wǎng)絡(luò)中的卷積層和池化層能夠?qū)斎霐?shù)據(jù)進行特征提取,姿態(tài)映射網(wǎng)絡(luò)中的全連接層作用則是對提取的特征進行非線性組合得到輸出,即全連接層本身不具有特征提取能力,而是試圖利用現(xiàn)有的高階特征完成端到端的擬合。
實驗對比了不同遷移學(xué)習(xí)方法以及不同特征提取網(wǎng)絡(luò)在姿態(tài)測量任務(wù)中的性能差異。
表4 不同遷移學(xué)習(xí)方法訓(xùn)練結(jié)果對比Table 4 Comparison of training results of different transfer learning methods
訓(xùn)練結(jié)果證明采用各層微調(diào)和“淺層固定+高層微調(diào)”的方法模型能夠收斂,且后者精度更高,證明遷移學(xué)習(xí)方法可行性,以及固定淺層參數(shù)避免過擬合方法的有效性。以標(biāo)準(zhǔn)差σ作為網(wǎng)絡(luò)性能的評價標(biāo)準(zhǔn)。圖7中RMSE曲線中的虛線表示網(wǎng)絡(luò)在驗證集上的標(biāo)準(zhǔn)差。圖11分別展現(xiàn)了兩種遷移學(xué)習(xí)方法標(biāo)準(zhǔn)差結(jié)果:兩種方法1σ誤差都在1°內(nèi),3σ誤差在2°內(nèi)。但其中紅色離群點分布明顯采用“淺層固定+高層微調(diào)”方法更優(yōu)。具體誤差分析如表5、表6所示。
圖11 三軸誤差分布Fig.11 Error distribution of three-axis
表5 各層微調(diào)驗證集結(jié)果(基于ResNet101)Table 5 Validation results of fine-tuning on each layer (based on ResNet101)
表6 淺層固定+高層微調(diào)驗證集結(jié)果(基于ResNet101)Table 6 Validation results of shallow layers freezed+fine-tuning on deep layers(based on ResNet101)
圖12 部分測量結(jié)果Fig.12 Parts of the measurement results
由于空間非合作目標(biāo)姿態(tài)估計工作最終需要在軌進行,因此卷積神經(jīng)網(wǎng)絡(luò)尺寸大小以及檢測時間決定了網(wǎng)絡(luò)能否部署在嵌入式系統(tǒng)以及進行在軌實時檢測。本文對比了ResNet101、ResNet50、ResNet18、MobileNet_V2的網(wǎng)絡(luò)大小、檢測精度和檢測時間,如表7所示。
本文利用測量精度相對較高的ResNet101網(wǎng)絡(luò)測量姿態(tài)角精度為0.711°,優(yōu)于文獻[16]中的平均誤差2.68°、文獻[20]中的平均誤差7.3°以及文獻[6, 18]中的精度2°;與文獻[16-18]相比,將姿態(tài)測量問題轉(zhuǎn)化為回歸問題而非分類問題,可得到連續(xù)準(zhǔn)確的姿態(tài)角輸出。橫向比較不同的卷積神經(jīng)網(wǎng)絡(luò)可以看出,通過刪減卷積層或提出新型網(wǎng)絡(luò)結(jié)構(gòu)后的輕量化網(wǎng)絡(luò)尺寸更小、平均檢測時間更短,但會損失一定的檢測精度。本文算法不需要依賴于非合作目標(biāo)人工特征的提取和匹配,而是對整幅圖像底層邊沿特征至高層抽象特征自動提取,相對而言此方法可用于各類型的非合作目標(biāo),且能夠通過完善訓(xùn)練集來提高姿態(tài)測量精度和魯棒性。
表7 不同預(yù)訓(xùn)練網(wǎng)絡(luò)測量結(jié)果對比Table 7 Comparison of measurement results of different pre-training networks
本文給出了一種空間非合作目標(biāo)姿態(tài)測量的方法。針對單目相機獲取的圖像,利用卷積神經(jīng)網(wǎng)絡(luò)對衛(wèi)星姿態(tài)進行估計,標(biāo)準(zhǔn)差為0.711°,單幅圖片的檢測時間可達0.02 s。輕量化網(wǎng)絡(luò)的檢測精度雖有一定損失,但在模型存儲大小和檢測時間上存在明顯優(yōu)化,根據(jù)任務(wù)需求不同選取不同的卷積神經(jīng)網(wǎng)絡(luò)。本文方法在精度和檢測時間上也優(yōu)于一些既有的傳統(tǒng)算法,且無需人工設(shè)計特征提取和特征匹配步驟。驗證了利用“單目相機+卷積神經(jīng)網(wǎng)絡(luò)”方法進行空間非合作目標(biāo)姿態(tài)測量的可行性。