• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)目標(biāo)識(shí)別的航天員訓(xùn)練場(chǎng)景理解技術(shù)

    2023-04-26 08:27:58孫慶偉胡福超晁建剛
    載人航天 2023年2期
    關(guān)鍵詞:位姿航天員神經(jīng)網(wǎng)絡(luò)

    陳 煒 孫慶偉 胡福超 晁建剛*

    (1.中國(guó)航天員科研訓(xùn)練中心人因工程重點(diǎn)實(shí)驗(yàn)室, 北京 100094; 2.中國(guó)航天員科研訓(xùn)練中心,北京 100094; 3.航天工程大學(xué)宇航科學(xué)與技術(shù)系, 北京 101416)

    1 引言

    航天員增強(qiáng)現(xiàn)實(shí)(Augmented Reality, AR)訓(xùn)練是通過(guò)AR 頭戴設(shè)備呈現(xiàn)虛擬輔助信息,如任務(wù)流程指引、設(shè)備操作模擬等,給航天員直觀的操作展示,滿(mǎn)足其自主訓(xùn)練的需求[1-2]。當(dāng)前增強(qiáng)現(xiàn)實(shí)技術(shù)可以滿(mǎn)足大部分地面訓(xùn)練任務(wù),但針對(duì)場(chǎng)景空間布局發(fā)生較大變化,或者需改變操作物體空間位置時(shí),可能發(fā)生虛實(shí)匹配失效的問(wèn)題。這是因?yàn)槟壳暗腁R 定位技術(shù)依賴(lài)于幾何方法,包括空間錨點(diǎn)(Anchor)和預(yù)設(shè)標(biāo)志物(Mark)2類(lèi)。這2 種方法中,目標(biāo)位置在空間中是提前固定的,只能應(yīng)用于靜態(tài)場(chǎng)景。傳統(tǒng)AR 設(shè)備[3]只能進(jìn)行場(chǎng)景幾何空間的識(shí)別,無(wú)法感知場(chǎng)景空間的動(dòng)態(tài)變化。因此,為擴(kuò)展AR 設(shè)備的應(yīng)用場(chǎng)景,采用一種不受靜態(tài)空間限制的目標(biāo)定位方法尤為重要。

    基于深度學(xué)習(xí)的目標(biāo)識(shí)別技術(shù)依靠神經(jīng)網(wǎng)絡(luò)的擬合能力,不依賴(lài)場(chǎng)景結(jié)構(gòu),可在靜態(tài)或動(dòng)態(tài)環(huán)境中準(zhǔn)確識(shí)別感興趣的目標(biāo),解決航天員地面AR 訓(xùn)練中的虛實(shí)匹配問(wèn)題。按照是否需要產(chǎn)生中間候選框,基于深度學(xué)習(xí)的目標(biāo)識(shí)別算法分為T(mén)wo-stage 與One-stage 算法2 類(lèi)。R-CNN(Region-Convolutional Neural Networks)[4]是首個(gè)將卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用在目標(biāo)識(shí)別上的Two-stage 算法,但其識(shí)別速度和精度都不高,后續(xù)的Faster-RCNN[5]、Mask-RCNN[6]在識(shí)別效率上不斷提高。相比之下,One-stage 的識(shí)別算法不需要產(chǎn)生候選區(qū)域,而是端到端地直接得到目標(biāo)的位置和類(lèi)別概率,主流算法包括SSD(Single Shot MultiBox Detector) 和YOLO(You Only Look Once) 系 列。SSD[7]在識(shí)別速度和精度之間做了平衡,達(dá)到了多尺度識(shí)別的目的。YOLO v5[8]是目前應(yīng)用最廣泛的網(wǎng)絡(luò),采用了多尺度特征融合,在有限樣本量的情況下也能獲得較好的識(shí)別準(zhǔn)確率,較適合場(chǎng)景固定、樣本量小的航天訓(xùn)練場(chǎng)景。

    除了目標(biāo)識(shí)別,AR 空間定位還需要目標(biāo)空間位姿信息,即三維位置和三維姿態(tài)。按照使用的輸入數(shù)據(jù),物體的空間位姿估計(jì)方法可分為基于圖像的方法和基于點(diǎn)云的方法。早期基于圖像的六自由度位姿估計(jì)方法處理的是紋理豐富的物體,通過(guò)提取顯著性特征點(diǎn)[9-10],構(gòu)建表征性強(qiáng)的描述符獲得匹配點(diǎn)對(duì),使用PnP(Perspective-n-Points)方法[11-12]恢復(fù)物體的六自由度位姿。對(duì)于弱紋理或者無(wú)紋理物體,適合基于模板匹配的方法[13-14],檢索得到最相似模板圖像對(duì)應(yīng)的六自由度位姿,也可以通過(guò)機(jī)器學(xué)習(xí)投票[15],訓(xùn)練得到最優(yōu)位姿?;邳c(diǎn)云匹配的方法通過(guò)點(diǎn)云匹配算法與模板模型對(duì)齊,將位姿估計(jì)問(wèn)題轉(zhuǎn)換為2個(gè)點(diǎn)云之間的坐標(biāo)變換[16]。基于點(diǎn)云匹配的方法具有不受紋理?xiàng)l件影響、計(jì)算簡(jiǎn)單、準(zhǔn)確性高等優(yōu)勢(shì)。航天訓(xùn)練場(chǎng)景空間狹小、光照條件復(fù)雜,紋理信息變化大,更適合采用點(diǎn)云模板匹配的方法進(jìn)行位姿估計(jì)。

    本文針對(duì)航天員地面訓(xùn)練中AR 設(shè)備依賴(lài)預(yù)設(shè)標(biāo)志物或空間錨點(diǎn)的情況,提出一種基于深度學(xué)習(xí)目標(biāo)識(shí)別和點(diǎn)云匹配的空間定位方法,以動(dòng)態(tài)實(shí)現(xiàn)空間目標(biāo)識(shí)別與位姿估計(jì)。

    2 方法

    本文提出的方法實(shí)現(xiàn)流程如圖1 所示。首先,利用AR 設(shè)備對(duì)航天訓(xùn)練任務(wù)場(chǎng)景進(jìn)行掃描,采集彩色圖像與深度圖像;然后,利用彩色圖像,通過(guò)YOLO v5 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)操作目標(biāo)識(shí)別;根據(jù)識(shí)別獲得目標(biāo)像素區(qū)域,結(jié)合深度圖通過(guò)幾何反投影實(shí)現(xiàn)目標(biāo)點(diǎn)云分割,與目標(biāo)CAD 模型點(diǎn)云進(jìn)行ICP(Iterative Closest Point)點(diǎn)云匹配后估計(jì)出目標(biāo)的三維空間位姿;最后,通過(guò)空間坐標(biāo)系變換,實(shí)現(xiàn)目標(biāo)在AR 空間的動(dòng)態(tài)定位與虛實(shí)匹配。

    圖1 算法結(jié)構(gòu)總覽Fig.1 An overview of the algorithm

    2.1 任務(wù)場(chǎng)景掃描

    本文采用的AR 設(shè)備為微軟的Hololens 2 增強(qiáng)現(xiàn)實(shí)眼鏡,其內(nèi)嵌的SLAM(Simultaneous Localization and Mapping)功能可以實(shí)時(shí)確定自身所在的世界坐標(biāo)系位姿。Hololens 2 集成了多種相機(jī)傳感器并在研究模式下提供了接口,可實(shí)時(shí)獲取視頻幀及相關(guān)信息(如分辨率、時(shí)間戳等),本文用到的彩色和深度圖像格式如表1 所示。

    表1 圖像格式Table 1 Image formats

    航天員佩戴Hololens 2 在任務(wù)場(chǎng)景中自由活動(dòng),視覺(jué)傳感器掃描任務(wù)場(chǎng)景,實(shí)時(shí)獲取彩色和深度圖像數(shù)據(jù)流,通過(guò)局域網(wǎng)傳輸給后端服務(wù)器。

    2.2 基于YOLO v5 神經(jīng)網(wǎng)絡(luò)的目標(biāo)識(shí)別

    2.2.1 數(shù)據(jù)集制作

    神經(jīng)網(wǎng)絡(luò)的訓(xùn)練高度依賴(lài)數(shù)據(jù),針對(duì)航天員地面訓(xùn)練場(chǎng)景制作目標(biāo)識(shí)別數(shù)據(jù)集。實(shí)驗(yàn)人員佩戴Hololens 2 模擬航天員訓(xùn)練,在任務(wù)場(chǎng)景中自由運(yùn)動(dòng),視覺(jué)傳感器獲取的彩色圖像通過(guò)局域網(wǎng)傳輸?shù)胶蠖朔?wù)器并保存。本文應(yīng)用場(chǎng)景相對(duì)固定,對(duì)網(wǎng)絡(luò)的泛化能力要求不高,因此不需要制作超大數(shù)據(jù)集即可滿(mǎn)足對(duì)網(wǎng)絡(luò)的訓(xùn)練需要。

    局域網(wǎng)的傳輸速率為3 fps,實(shí)驗(yàn)中在3 min內(nèi)采集500 張有效圖像(去除運(yùn)動(dòng)模糊樣本),每隔10 幀選取一幀作為數(shù)據(jù)集,共得到50 幀。YOLO v5 集成了數(shù)據(jù)增強(qiáng)功能,且航天員地面訓(xùn)練場(chǎng)景為固定結(jié)構(gòu),因此少量的數(shù)據(jù)即可完成對(duì)網(wǎng)絡(luò)的訓(xùn)練。

    使用LabelImg 作為標(biāo)注工具,對(duì)場(chǎng)景中閥門(mén)結(jié)構(gòu)進(jìn)行標(biāo)注。標(biāo)注格式如[0 0.490132 0.757009 0.140789 0.224299],其中0 表示類(lèi)別標(biāo)簽,后面4 個(gè)數(shù)字表示閥門(mén)所占像素坐標(biāo)的4個(gè)頂點(diǎn)。

    2.2.2 網(wǎng)絡(luò)結(jié)構(gòu)

    航天員地面訓(xùn)練場(chǎng)景相對(duì)固定,需要操作的結(jié)構(gòu)多為閥門(mén)、開(kāi)關(guān)等小目標(biāo),其像素?cái)?shù)量占整幅圖像的比例較小。YOLO v5 是目前綜合性能最強(qiáng)的目標(biāo)識(shí)別神經(jīng)網(wǎng)絡(luò)之一,該神經(jīng)網(wǎng)絡(luò)推理速度快,精度高,自帶數(shù)據(jù)增強(qiáng)算法和多尺度金字塔特征融合算法,在訓(xùn)練數(shù)據(jù)樣本量較小、圖像分辨率較低的情況下,仍能獲得較好的識(shí)別結(jié)果。因此本文目標(biāo)識(shí)別算法采用YOLO v5 深度神經(jīng)網(wǎng)絡(luò)。

    該神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[17]如圖 2 所示。其中Focus結(jié)構(gòu)用來(lái)拓展特征圖的通道數(shù);BottleneckCSP 結(jié)構(gòu)借鑒了CSPNet 的思想,降低了網(wǎng)絡(luò)計(jì)算參數(shù);Conv 為卷積網(wǎng)絡(luò)層;SPP 為空間金字塔池化層;Upsampling 為上采樣層;Contact 為連接層。網(wǎng)絡(luò)采用經(jīng)典的金字塔特征融合方法進(jìn)行多尺度特征融合,將相同尺度的特征進(jìn)行拼接,最終得到了3個(gè)不同尺度的深度圖像特征,每個(gè)尺度中同時(shí)包含其他尺度的信息。在3 種不同尺度的特征圖上分別設(shè)置了3 組不同大小和形狀的錨框,每個(gè)錨框中的特征經(jīng)過(guò)兩層卷積,預(yù)測(cè)目標(biāo)類(lèi)型的同時(shí)回歸目標(biāo)的包圍框。

    圖2 YOLO v5 網(wǎng)絡(luò)結(jié)構(gòu)圖[17]Fig.2 Structure of YOLO v5[17]

    誤差函數(shù)通過(guò)最小外接矩形交并比構(gòu)造。損失函數(shù)見(jiàn)式(1):

    式中,A為神經(jīng)網(wǎng)絡(luò)輸出包圍框,B為包圍框真值,ρ(A,B) 計(jì)算了2 個(gè)包圍框中心點(diǎn)的歐氏距離,c表示2 個(gè)包圍框最大外接矩形的對(duì)角線長(zhǎng)度。式中IoU,v,α的表達(dá)式見(jiàn)式(2)~(4)。

    式中,IoU為神經(jīng)網(wǎng)絡(luò)輸出包圍框和包圍框真值的交集與并集的比值,wgt,hgt,w,h分別為包圍框真值與神經(jīng)網(wǎng)絡(luò)輸出值的寬和高,v用來(lái)度量長(zhǎng)寬比的相似性,α為權(quán)重系數(shù)。

    2.2.3 網(wǎng)絡(luò)訓(xùn)練

    實(shí)驗(yàn)電腦GPU 為GeForce RTX 2060,CPU 為Intel i7-8750H,網(wǎng)絡(luò)訓(xùn)練基于pytorch 框架。bach size 設(shè)為4,Epoch 設(shè)為400。網(wǎng)絡(luò)訓(xùn)練Loss 曲線如圖3 所示,Box_loss 表示Bouding Box 的loss,Obj_loss 表示目標(biāo)的loss??梢钥吹?網(wǎng)絡(luò)訓(xùn)練Loss 下降很快,且在Epoch 為300 時(shí)趨于穩(wěn)定。

    圖3 Loss 曲線Fig.3 Curve of loss

    2.3 基于點(diǎn)云匹配的位姿估計(jì)

    2.3.1 幾何反投影模型

    在目標(biāo)識(shí)別過(guò)程中已經(jīng)獲得了目標(biāo)在彩色圖像中對(duì)應(yīng)的像素位置。因彩色圖像和深度圖像分辨率不一致,因此需要采用圖像配準(zhǔn)算法將彩色圖像與深度圖像對(duì)齊,獲得2 種圖像像素間的映射關(guān)系。經(jīng)過(guò)配準(zhǔn),可以將彩色圖像采樣到與深度圖像相同的分辨率,并將目標(biāo)像素位置映射到深度圖像。

    圖4 為相機(jī)模型,深度傳感器獲得了相機(jī)坐標(biāo)系下點(diǎn)的深度值,即Zc。目標(biāo)在圖像上的像素坐標(biāo)由Bounding Box 確定,如圖4 中綠色矩形框所示。幾何反投影的目的是確定Bounding Box 范圍內(nèi)像素所對(duì)應(yīng)點(diǎn)云的三維坐標(biāo)。結(jié)合相機(jī)內(nèi)參可以獲得目標(biāo)在相機(jī)視場(chǎng)內(nèi)的點(diǎn)云。該過(guò)程見(jiàn)式(5):

    圖4 相機(jī)模型Fig.4 Camera model

    其中,p=(u,v) 表示像素坐標(biāo),Zc=Zw表示該像素對(duì)應(yīng)的深度,cx、cy、fx、fy為相機(jī)內(nèi)參數(shù),P= (Xw,Yw,Zw) 為該像素對(duì)應(yīng)的空間三維點(diǎn)坐標(biāo)。

    2.3.2 目標(biāo)點(diǎn)云的生成如圖5 所示,配準(zhǔn)后的彩色圖5(a)經(jīng)過(guò)神經(jīng)網(wǎng)絡(luò)識(shí)別確定目標(biāo)所在Bounding Box 的坐標(biāo)見(jiàn)圖5(b)。通過(guò)彩色圖像向深度圖像對(duì)齊確定Bounding Box 區(qū)域在深度圖像上對(duì)應(yīng)的像素坐標(biāo)見(jiàn)圖5(c),使用式(5) 計(jì)算像素對(duì)應(yīng)的點(diǎn)云見(jiàn)圖5(d)。

    圖5 目標(biāo)點(diǎn)云的生成Fig.5 Generation of partial point cloud

    2.3.3 基于ICP 算法的位姿計(jì)算

    利用上述步驟提取的目標(biāo)點(diǎn)云,通過(guò)點(diǎn)云匹配算法與其三維模板點(diǎn)云對(duì)齊,從而獲得2 個(gè)點(diǎn)云之間的坐標(biāo)變換關(guān)系。模板點(diǎn)云是指從該目標(biāo)CAD 模型對(duì)應(yīng)的標(biāo)準(zhǔn)點(diǎn)云。本文中使用迭代最近點(diǎn)算法(ICP)[17]實(shí)現(xiàn)點(diǎn)云匹配,它是一種點(diǎn)集對(duì)點(diǎn)集的配準(zhǔn)方法,基本思路是以其中一個(gè)點(diǎn)云為基準(zhǔn),變換另一點(diǎn)云的位移和姿態(tài),使得2 個(gè)點(diǎn)云盡可能重合。ICP 算法需要構(gòu)造目標(biāo)函數(shù),通過(guò)迭代優(yōu)化獲得2 種點(diǎn)云之間的旋轉(zhuǎn)矩陣和位移向量。

    給定2 個(gè)點(diǎn)云集合見(jiàn)式(6)、式(7):

    其中,P表示模板點(diǎn)云,Q表示目標(biāo)點(diǎn)云,R為旋轉(zhuǎn)矩陣,t為位移向量。此時(shí),式(8)中優(yōu)化問(wèn)題轉(zhuǎn)化為尋找P和Q中對(duì)應(yīng)點(diǎn)。假設(shè)2 個(gè)點(diǎn)云中歐式距離最近的點(diǎn)為對(duì)應(yīng)點(diǎn),每次迭代求得新的旋轉(zhuǎn)矩陣和位移向量后都重新尋找對(duì)應(yīng)點(diǎn),直到目標(biāo)函數(shù)足夠小為止。算法流程如圖6 所示,配準(zhǔn)完成后即可得到目標(biāo)在相機(jī)坐標(biāo)系下的位姿。根據(jù)相機(jī)位姿可進(jìn)一步得到目標(biāo)在全局坐標(biāo)系中的位姿。

    圖6 ICP 算法流程圖Fig.6 The flow chart of ICP algorithm

    通過(guò)上述步驟,系統(tǒng)已獲得目標(biāo)相對(duì)AR 設(shè)備的位姿信息,為了在AR 空間實(shí)現(xiàn)動(dòng)態(tài)目標(biāo)的識(shí)別與定位,還需對(duì)位姿信息進(jìn)行坐標(biāo)系變換。坐標(biāo)變換包含兩方面:一是由于AR 設(shè)備使用Unity 作為渲染引擎,其顯示空間遵從左手坐標(biāo)系,所以首先需將位姿信息從右手系轉(zhuǎn)為左手系;另一方面,需要將位姿信息從相機(jī)坐標(biāo)系轉(zhuǎn)到世界坐標(biāo)系。假設(shè)目標(biāo)相對(duì)于AR 設(shè)備坐標(biāo)系的位姿為T(mén)hv,AR 設(shè)備提供了自身相對(duì)于世界坐標(biāo)系的位姿Twh,則可以計(jì)算目標(biāo)相對(duì)于世界坐標(biāo)系的實(shí)時(shí)位姿Twv見(jiàn)式(9):

    3 結(jié)果與分析

    3.1 重點(diǎn)目標(biāo)識(shí)別

    3.1.1 評(píng)價(jià)參數(shù)

    目標(biāo)識(shí)別精確率(Precision)的計(jì)算見(jiàn)式(10):

    其中,TP(True Positive)為真陽(yáng)性樣本數(shù)量,FP(False Positive)為假陽(yáng)性樣本數(shù)量。

    召回率(Recall)的計(jì)算見(jiàn)式(11):

    其中,FN(False Negative) 為假陰性樣本數(shù)量。

    平均精度(Average Precision,AP)是對(duì)Precision-Recall 組成的曲線(簡(jiǎn)稱(chēng)PR 曲線)上的Precision 值求均值,對(duì)應(yīng)的就是 PR 曲線下的面積,其定義為式(12):

    其中,p(r)為PR 曲線函數(shù)表達(dá)式。

    3.1.2 實(shí)驗(yàn)結(jié)果

    實(shí)驗(yàn)中所有結(jié)果設(shè)置IoU閾值為0.5。即TP為IoU>0.5 時(shí)的檢測(cè)框樣本數(shù)量;FP為IoU≤0.5 時(shí)的檢測(cè)框數(shù)量;FN為未檢測(cè)出的樣本數(shù)量。實(shí)驗(yàn)中,Precision為0.995,Recall為1,AP為0.995。高精度的原因是本應(yīng)用場(chǎng)景中訓(xùn)練集和測(cè)試集高度相似,且樣本數(shù)較少。對(duì)于航天操作這種固定場(chǎng)景的任務(wù)來(lái)說(shuō),不要求網(wǎng)絡(luò)具備較強(qiáng)的泛化能力,只要能準(zhǔn)確識(shí)別出場(chǎng)景中的目標(biāo)結(jié)構(gòu)即可。

    本文方法對(duì)單張圖像的預(yù)處理耗時(shí)為0.2 ms,前向推斷耗時(shí)為4.6 ms,非極大值抑制耗時(shí)為9.2 ms。相比于位姿傳輸用時(shí)(與圖像流幀率相同,3 fps),目標(biāo)檢測(cè)耗費(fèi)的時(shí)間可以忽略不計(jì)。

    3.1.3 可視化效果

    本文所述場(chǎng)景目標(biāo)位姿識(shí)別算法可以在線實(shí)時(shí)運(yùn)行,為了驗(yàn)證YOLO v5 網(wǎng)絡(luò)的識(shí)別效果,圖7展示了離線狀態(tài)下的部分結(jié)果。圖中綠色矩形框?yàn)榫W(wǎng)絡(luò)預(yù)測(cè)的Bounding Box,準(zhǔn)確地定位了目標(biāo)所在的位置。

    圖7 目標(biāo)識(shí)別結(jié)果Fig.7 Result of target recognition

    3.2 位姿估計(jì)結(jié)果及AR 效果

    圖8(a)為本文方法使用的模板點(diǎn)云,圖8(b)為使用計(jì)算結(jié)果位姿配準(zhǔn)模板點(diǎn)云與目標(biāo)點(diǎn)云的可視化效果??梢钥吹?雖然由于深度值的誤差,目標(biāo)點(diǎn)云與模板點(diǎn)云在形態(tài)上差別很大,但是通過(guò)ICP 算法仍然能夠找到匹配的點(diǎn)云并配準(zhǔn)成功。

    圖8 模板點(diǎn)云及匹配效果Fig.8 Effect of point cloud registration

    在AR 空間中,將上式計(jì)算得到的位姿值賦于目標(biāo)的虛擬三維模型,可以使其準(zhǔn)確疊加在真實(shí)目標(biāo)上,效果如圖9 所示。圖中虛擬閥門(mén)準(zhǔn)確與真實(shí)閥門(mén)匹配,此過(guò)程不依賴(lài)任何標(biāo)志物或空間錨點(diǎn)。當(dāng)目標(biāo)物體移動(dòng),系統(tǒng)可實(shí)時(shí)計(jì)算其空間位姿信息,實(shí)現(xiàn)動(dòng)態(tài)目標(biāo)的空間定位。

    圖9 通過(guò)AR 設(shè)備實(shí)現(xiàn)操作目標(biāo)的顯示與增強(qiáng)Fig.9 Information display and enhancement in the AR device

    4 結(jié)論

    1)本文針對(duì)航天員AR 訓(xùn)練需求,提出了一種基于深度學(xué)習(xí)目標(biāo)識(shí)別的航天員訓(xùn)練場(chǎng)景理解技術(shù),可不依賴(lài)任何標(biāo)志物或空間錨點(diǎn),動(dòng)態(tài)實(shí)現(xiàn)AR 空間目標(biāo)的定位。

    2)通過(guò)YOLO v5 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了航天員訓(xùn)練場(chǎng)景操作目標(biāo)識(shí)別,獲得目標(biāo)的邊界框,進(jìn)而結(jié)合深度信息分割出目標(biāo)點(diǎn)云,借助ICP 算法計(jì)算出目標(biāo)位姿,從而實(shí)現(xiàn)了AR 空間動(dòng)態(tài)目標(biāo)的空間定位,可有效增強(qiáng)AR 設(shè)備場(chǎng)景理解能力,擴(kuò)展了航天員AR 訓(xùn)練手段。

    3)由于本文采用的AR 設(shè)備傳感器能力限制,其采集的深度圖分辨率較低,當(dāng)采集距離較遠(yuǎn)或者目標(biāo)結(jié)構(gòu)復(fù)雜時(shí)會(huì)出現(xiàn)顯著的深度誤差,由此獲得目標(biāo)點(diǎn)云信息同樣失準(zhǔn),從而導(dǎo)致ICP 配準(zhǔn)估計(jì)出的位姿信息出現(xiàn)較大偏差。后續(xù)將從提升深度信息準(zhǔn)確性和提高ICP 配準(zhǔn)算法等方面進(jìn)一步優(yōu)化系統(tǒng)性能。

    4)本文方法依賴(lài)目標(biāo)點(diǎn)云的提取質(zhì)量,當(dāng)目標(biāo)被遮擋時(shí)無(wú)法有效提取完整的點(diǎn)云文,后續(xù)可采用多種技術(shù)路線互補(bǔ)的方式滿(mǎn)足實(shí)際工程需要。

    猜你喜歡
    位姿航天員神經(jīng)網(wǎng)絡(luò)
    寫(xiě)給航天員的一封信
    軍事文摘(2023年4期)2023-03-22 08:44:26
    春節(jié)前寫(xiě)給航天員的一封信
    軍事文摘(2022年8期)2022-05-25 13:29:16
    我要當(dāng)航天員
    神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    來(lái)吧,少年航天員
    軍事文摘(2019年18期)2019-09-25 08:08:58
    基于共面直線迭代加權(quán)最小二乘的相機(jī)位姿估計(jì)
    基于CAD模型的單目六自由度位姿測(cè)量
    基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
    小型四旋翼飛行器位姿建模及其仿真
    復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
    东乌珠穆沁旗| 翁牛特旗| 宜城市| 通江县| 兴安盟| 漾濞| 赤壁市| 淮安市| 买车| 晋城| 桐乡市| 灵台县| 钟祥市| 平乐县| 常德市| 称多县| 虎林市| 张北县| 中超| 旬邑县| 始兴县| 崇礼县| 东山县| 阳朔县| 格尔木市| 论坛| 宜丰县| 巍山| 大埔县| 奉节县| 彰武县| 天峨县| 疏附县| 淳安县| 千阳县| 星座| 高州市| 鞍山市| 璧山县| 于田县| 茶陵县|