李 由,王春慧,嚴(yán) 曲,張小虎,謝 良
(1. 中國(guó)航天員科研訓(xùn)練中心人因工程重點(diǎn)實(shí)驗(yàn)室,北京 100194;2. 國(guó)防科技大學(xué)空天科學(xué)學(xué)院,長(zhǎng)沙 410073)
實(shí)現(xiàn)人-機(jī)-環(huán)境系統(tǒng)的和諧共融是航天人因工程的目標(biāo),在空間飛行微重力環(huán)境下,人體姿態(tài)、運(yùn)動(dòng)學(xué)特性參數(shù)與地面重力環(huán)境相比有著顯著變化[1]。因此需要建立在軌人體姿態(tài)測(cè)量方法,通過在軌實(shí)驗(yàn)獲取航天員姿態(tài)和運(yùn)動(dòng)的基礎(chǔ)數(shù)據(jù),并分析其工作空間,為長(zhǎng)期在軌飛行人因研究提供方法和平臺(tái)支撐。
運(yùn)動(dòng)捕捉(Motion capture, Mocap)是指捕捉人體姿態(tài)和動(dòng)作的技術(shù),它廣泛應(yīng)用于動(dòng)畫制作、生物力學(xué)、人機(jī)工程、自然交互、混合現(xiàn)實(shí)、互動(dòng)游戲、體育訓(xùn)練、機(jī)器人控制等諸多領(lǐng)域。從技術(shù)的角度來說,運(yùn)動(dòng)捕捉的實(shí)質(zhì)就是要測(cè)量、跟蹤、記錄人體在三維(3D)空間中的運(yùn)動(dòng)軌跡。常用的運(yùn)動(dòng)捕捉技術(shù)從原理上可分為機(jī)械式、聲學(xué)式、電磁式、慣性導(dǎo)航式和光學(xué)式。目前以光學(xué)式和慣性式最為常見,前者的優(yōu)勢(shì)在于精度高、無電纜或機(jī)械裝置的限制,缺點(diǎn)是標(biāo)志點(diǎn)易遮擋、混淆、丟失,系統(tǒng)龐大、價(jià)格昂貴。后者的優(yōu)勢(shì)在于不受光照條件影響、無遮擋問題,缺點(diǎn)是測(cè)量結(jié)果存在漂移現(xiàn)象,佩戴傳感器影響人體自由運(yùn)動(dòng)。
失重對(duì)人體姿態(tài)和運(yùn)動(dòng)的影響一直是航天員在軌實(shí)驗(yàn)研究的一個(gè)重要內(nèi)容。中性體位(Neutral body posture, NBP)是人體在微重力中自然呈現(xiàn)的姿勢(shì),NASA對(duì)在軌NBP測(cè)量進(jìn)行了長(zhǎng)期的深入研究。在1973、1974年利用天空實(shí)驗(yàn)室3次飛行任務(wù),分別在飛行28天、56天、84天時(shí),由航天員拍攝中性體位下的全身照片。如圖1(a)、(b)所示,通過確定測(cè)點(diǎn),繪制出頭、頸、軀干、上肢、前臂、手、大腿、小腿、腳身體各體段的棍圖,然后利用角度尺測(cè)量關(guān)節(jié)角度。這種方法需要人體平面與相機(jī)視線垂直,關(guān)節(jié)點(diǎn)定位受主觀因素影響,而且手動(dòng)計(jì)算角度的效率很低。
圖1 國(guó)外在軌人體姿態(tài)測(cè)量示意圖Fig.1 Existing on-orbit posture measurement systems
隨著人體測(cè)量技術(shù)的不斷發(fā)展,目前NASA利用先進(jìn)的光電測(cè)試技術(shù)在國(guó)際空間站開展“微重力環(huán)境下的人體姿態(tài)”項(xiàng)目研究,如圖1(c)、(d)所示。定量研究長(zhǎng)期微重力環(huán)境下中性體位,積累中性體位下人體形態(tài)以及立姿下的脊柱形態(tài)的基礎(chǔ)數(shù)據(jù)。
在軌運(yùn)動(dòng)測(cè)量方面,由意大利空間局和法國(guó)空間局聯(lián)合研制ELITE和ELITE-S2[2-3]用于國(guó)際空間站多方面分析航天員在失重情況下的運(yùn)動(dòng)情況。其原理是通過安裝在受試者周圍的4個(gè)攝相機(jī)記錄受試者的運(yùn)動(dòng),進(jìn)一步通過軟件處理計(jì)算安裝在受試者身上的傳感器的空間位置。這種方法屬于光學(xué)式運(yùn)動(dòng)捕捉。
隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,無標(biāo)志點(diǎn)運(yùn)動(dòng)捕捉(Markerless Mocap)方法逐漸成熟起來。這類位置姿態(tài)(以下簡(jiǎn)稱“位姿”)估計(jì)或運(yùn)動(dòng)捕捉方法又稱為“基于模型的位姿估計(jì)和跟蹤方法”[4],其核心思想是“模型-數(shù)據(jù)”配準(zhǔn),即求解人體位置和姿態(tài),使得該位姿下的人體表面模型與二維(2D)圖像或3D點(diǎn)云最大程度上匹配。早期的多視角輪廓方法[5]從每個(gè)相機(jī)圖像中提取人體外輪廓,獲取包含人體的視錐,再通過各視錐的交集獲取視覺凸包(Visual Hull),最后利用迭代最近點(diǎn)(Iterative closest point, ICP)方法求解位姿。這種方法需要人體位于簡(jiǎn)單背景下,并且無法很好地處理凹陷[6-7]。隨著深度學(xué)習(xí)技術(shù)的發(fā)展,出現(xiàn)了基于彩色圖像的方法[8-10]以及基于深度圖像的方法[11]。然而這些方法主要以關(guān)節(jié)點(diǎn)檢測(cè)為主,精度和跟蹤的連續(xù)性無法滿足運(yùn)動(dòng)捕捉的要求。
RGB-D相機(jī)(又稱深度相機(jī)或3D相機(jī))能夠同步輸出彩色圖像和深度圖像,按照原理不同可分為結(jié)構(gòu)光(Structured Light)、TOF(Time of flight)、雙目視覺(Stereo Vision)三類。隨著Kinect、Xtion、Astra等RGB-D相機(jī)的普及,直接獲取深度圖像(或點(diǎn)云)變得非常方便?;谠撓鄼C(jī)與上述位姿估計(jì)方法的核心思想,本文提出了基于多臺(tái)RGB-D相機(jī)的在軌航天員運(yùn)動(dòng)捕捉系統(tǒng)——SpaceMocap。
SpaceMocap系統(tǒng)由一臺(tái)PC與多臺(tái)RGB-D相機(jī)構(gòu)成,每臺(tái)相機(jī)與PC通過USB線纜連接,工作流程如圖2所示。
圖2 SpaceMocap系統(tǒng)處理流程Fig.2 Processing flow of spaceMocap
①地面準(zhǔn)備階段:掃描人體模型,并分別標(biāo)定彩色相機(jī)的內(nèi)參數(shù)。②在軌采集階段:系統(tǒng)控制多臺(tái)相機(jī)同步采集航天員任務(wù)視頻。③地面處理階段:首先通過標(biāo)志點(diǎn)標(biāo)定各彩色相機(jī)的外參數(shù),再通過ICP方法實(shí)現(xiàn)多個(gè)點(diǎn)云的融合。利用預(yù)先訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò)對(duì)人體關(guān)節(jié)點(diǎn)位置進(jìn)行檢測(cè),并初始化位姿,再通過改進(jìn)的ICP方法以“模型-點(diǎn)云”配準(zhǔn)的方式進(jìn)行位姿求精,并實(shí)現(xiàn)序列圖像中關(guān)節(jié)點(diǎn)角度跟蹤,以c3d和bvh數(shù)據(jù)文件的格式輸出關(guān)節(jié)點(diǎn)位置和關(guān)節(jié)角度。
地面準(zhǔn)備階段主要完成人體模型掃描和相機(jī)內(nèi)參數(shù)標(biāo)定兩個(gè)工作。
2.1.1人體模型掃描與關(guān)節(jié)角度驅(qū)動(dòng)
由于整個(gè)方法是基于“模型-點(diǎn)云”配準(zhǔn)實(shí)現(xiàn)位姿求解,所以首先需要獲取人體模型。盡管可以直接采用通用人體模型(如用圓柱體、橢球體代替人體體段),但是獲取特定航天員的人體模型,做到數(shù)據(jù)同源,顯然可以使位姿求解獲得更高的精度。
目前針對(duì)人體稠密實(shí)時(shí)重建,主要可以分為單目和多目的重建策略?;诙嗄康娜梭w稠密重建,目前最具有代表性的工作為Fusion4D[12],該工作采用8個(gè)視角的深度圖對(duì)人體進(jìn)行稠密重建,魯棒性較高,但是8臺(tái)深度相機(jī)需要精確標(biāo)定,難以推廣普及。相對(duì)而言,基于單目的人體稠密重建實(shí)用性更好。為此,基于單臺(tái)RGB-D相機(jī)(如Kinect、Xtion、Astra)對(duì)被測(cè)試者進(jìn)行近距離掃描獲取深度視頻,利用DynamicFusion算法[13]重建高精度的人體表面三角網(wǎng)格模型。通過掃描獲取的是固態(tài)靜止模型,而位姿跟蹤需要的是可以被關(guān)節(jié)角度驅(qū)動(dòng)的模型。為此,采用自動(dòng)骨骼蒙皮綁定[14]方法將該三角網(wǎng)格模型和參數(shù)化骨骼模型轉(zhuǎn)化為多自由度人體模型?;驹砑氨鞠到y(tǒng)所用的18-關(guān)節(jié)人體模型如圖3所示。
圖3 本系統(tǒng)的人體模型Fig.3 Human body model in our system
2.1.2相機(jī)內(nèi)參數(shù)標(biāo)定
RGB-D相機(jī)包含彩色相機(jī)和深度相機(jī),本文僅標(biāo)定彩色相機(jī),深度相機(jī)沿用廠家提供的內(nèi)參數(shù)。在此,采用張正友標(biāo)定方法[15]對(duì)每臺(tái)RGB-D相機(jī)的彩色相機(jī)進(jìn)行標(biāo)定,記錄其內(nèi)參數(shù),該參數(shù)將用于后續(xù)外參數(shù)標(biāo)定(即相機(jī)位姿求解)。
在軌視頻采集階段,航天員將各相機(jī)安裝在艙內(nèi)既定位置,通過USB數(shù)據(jù)線將相機(jī)與PC連接,調(diào)節(jié)云臺(tái)使得被試航天員位于各相機(jī)視場(chǎng)當(dāng)中,并利用采集軟件對(duì)被試航天員的任務(wù)視頻進(jìn)行多目同步采集。在軌采集示意圖如圖4所示。由于深度圖像的邊緣普遍存在較大失真,因此盡量使被試者位于各圖像的中央位置。另外,由于深度相機(jī)的測(cè)量精度隨物距增大而迅速降低,因此在深度相機(jī)有效物距范圍(0.5~6 m)內(nèi),被試者應(yīng)盡量靠近相機(jī)。
圖4 在軌采集示意圖Fig.4 On-orbit Acquisition
為了后續(xù)地面處理中獲取各相機(jī)的外參數(shù),在實(shí)驗(yàn)現(xiàn)場(chǎng)各相機(jī)公共視場(chǎng)內(nèi)布置多個(gè)合作標(biāo)志點(diǎn),這些標(biāo)志點(diǎn)在既定的參考坐標(biāo)系中的坐標(biāo)是精確已知的,后續(xù)測(cè)量結(jié)果將轉(zhuǎn)換到該坐標(biāo)系下。
SpaceMocap利用深度視頻進(jìn)行運(yùn)動(dòng)捕捉,彩色視頻僅僅作為顯示用。為此,采集軟件對(duì)彩色視頻進(jìn)行有損壓縮,對(duì)深度視頻進(jìn)行無損壓縮,每5 min一次將它們保存在硬盤中。試驗(yàn)結(jié)束后,航天員將這些視頻數(shù)據(jù)拷貝至移動(dòng)存儲(chǔ)介質(zhì)帶回地面。
首先,通過簡(jiǎn)單的計(jì)算將深度圖像轉(zhuǎn)換為點(diǎn)云數(shù)據(jù)。由于每個(gè)視角點(diǎn)云都是以其深度相機(jī)拍攝時(shí)的位姿為原點(diǎn)的,因此需要通過相機(jī)外參數(shù)標(biāo)定獲取拍攝時(shí)各相機(jī)相對(duì)于參考系的位姿,再利用該位姿對(duì)點(diǎn)云進(jìn)行坐標(biāo)變換,使其融合到參考系下。
2.3.1基于相機(jī)外參數(shù)標(biāo)定與ICP的點(diǎn)云融合
外參數(shù)是相機(jī)相對(duì)于參考系的位姿。采用PnP算法[16]對(duì)包含合作標(biāo)志點(diǎn)的彩色圖像進(jìn)行求解,獲取在軌實(shí)驗(yàn)時(shí)刻各彩色相機(jī)的外參數(shù)。
利用外參數(shù)將每朵點(diǎn)云變換到參考系下,但由于每臺(tái)RGB-D相機(jī)的深度相機(jī)與彩色相機(jī)之間還存在一個(gè)位姿差異,因此還需對(duì)各點(diǎn)云進(jìn)行微調(diào)。為此,采用ICP算法對(duì)點(diǎn)云的位姿進(jìn)行迭代優(yōu)化。
每次實(shí)驗(yàn)相機(jī)云臺(tái)都是固定不變的,因此上述點(diǎn)云融合所需的參數(shù)只計(jì)算一次,對(duì)于后續(xù)每一幀點(diǎn)云都要利用該參數(shù)進(jìn)行融合。融合后的點(diǎn)云除了包含目標(biāo)人體外,還包含大量的背景或無關(guān)物體的點(diǎn)云,會(huì)對(duì)后續(xù)的檢測(cè)和跟蹤造成影響。為此,對(duì)于第一幀點(diǎn)云,用戶可以指定一個(gè)感興趣長(zhǎng)方體(Cube of Interest),檢測(cè)或跟蹤算法僅處理該COI內(nèi)部點(diǎn)云。COI僅在第一幀點(diǎn)云需要設(shè)置,在跟蹤過程中,COI自動(dòng)跟隨人體位姿。值得一提的是,該COI內(nèi)部仍然存在噪聲點(diǎn)云,然而我們的算法可以根據(jù)距離閾值有效地排除這些噪點(diǎn)。
圖5 地面數(shù)據(jù)處理軟件界面Fig.5 Interface of ground data processing software
2.3.2關(guān)節(jié)點(diǎn)檢測(cè)與位姿初始化
不結(jié)合前后幀數(shù)據(jù),在單幀數(shù)據(jù)中,直接檢測(cè)獲取人體關(guān)節(jié)點(diǎn)位置信息,為跟蹤器提供魯棒的單幀檢測(cè)結(jié)果,是關(guān)節(jié)位置檢測(cè)器的主要功能。目前存在大量的人體關(guān)節(jié)點(diǎn)檢測(cè)算法,主要是針對(duì)單目人體姿態(tài)檢測(cè):基于單目深度圖的3D人體關(guān)節(jié)點(diǎn)檢測(cè)[11]和基于單目彩色圖的2D人體關(guān)節(jié)點(diǎn)檢測(cè)[8-10]。單目人體姿態(tài)檢測(cè)難以應(yīng)對(duì)部位遮擋的情況,只能應(yīng)對(duì)人體正面朝向相機(jī)的情況。
傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)框架都是以2D、3D圖像作為輸入的,多目深度圖可以通過變換,將多目融合點(diǎn)云轉(zhuǎn)換成3D圖像,繼而作為神經(jīng)網(wǎng)絡(luò)的輸入,這種做法是目前3D神經(jīng)網(wǎng)絡(luò)的研究熱點(diǎn)。但是將點(diǎn)云轉(zhuǎn)為3D圖像具有一定的局限性,首先3D圖像中存在大量的空白處,存在空間浪費(fèi);其次,由于點(diǎn)云的疏密程度不同,轉(zhuǎn)換的3D圖像會(huì)發(fā)生變化,造成輸入錯(cuò)誤。因此,本文研究了以點(diǎn)云為直接輸入的神經(jīng)網(wǎng)絡(luò)框架,能夠有效減少3D深度學(xué)習(xí)的使用空間,并且能夠應(yīng)對(duì)疏密程度不一致的點(diǎn)云輸入。
以點(diǎn)云為輸入的神經(jīng)網(wǎng)絡(luò)初步框架如圖6所示,點(diǎn)云首先通過學(xué)習(xí)獲得的變換矩陣進(jìn)行歸一化處理,再利用卷積特征處理獲取特征,循環(huán)處理,可
圖6 以點(diǎn)云為輸入的神經(jīng)網(wǎng)絡(luò)框架Fig.6 Neural network framework using point clouds as inputs
獲得高層特征信息,不需要對(duì)點(diǎn)云進(jìn)行特殊處理。對(duì)COI內(nèi)部點(diǎn)云進(jìn)行關(guān)節(jié)點(diǎn)位置檢測(cè),演示結(jié)果如圖7所示。
圖7 關(guān)節(jié)點(diǎn)3D位置檢測(cè)示意圖Fig.7 Joint point 3D position detection
利用本深度神經(jīng)網(wǎng)絡(luò)檢測(cè)初始時(shí)刻人體各關(guān)節(jié)位置,根據(jù)對(duì)應(yīng)關(guān)系即可求解人體初始位姿,完成跟蹤的自動(dòng)初始化。后續(xù)跟蹤如果失敗,系統(tǒng)將自動(dòng)調(diào)用本方法進(jìn)行重新初始化。
2.3.3位姿求精與姿態(tài)跟蹤
基于神經(jīng)網(wǎng)絡(luò)的關(guān)節(jié)位置檢測(cè)算法能魯棒地定位關(guān)節(jié)點(diǎn)的3D位置,但是精度較低,檢測(cè)算法也沒有用到連續(xù)幀之間的關(guān)系,連續(xù)幀之間存在檢測(cè)抖動(dòng),因此僅通過3D檢測(cè)算法難以獲得精確、平滑的關(guān)節(jié)角度結(jié)果。
傳統(tǒng)的關(guān)節(jié)角度跟蹤算法采用ICP策略,魯棒性較差,難以應(yīng)對(duì)大幅度運(yùn)動(dòng),本研究利用神經(jīng)網(wǎng)絡(luò)作為關(guān)節(jié)位置的魯棒檢測(cè)器,能夠魯棒應(yīng)對(duì)大幅運(yùn)動(dòng)。傳統(tǒng)的基于ICP策略的關(guān)節(jié)角度跟蹤策略,在尋找點(diǎn)云和模型之間的對(duì)應(yīng)性時(shí),僅僅考慮點(diǎn)云的位置信息,即以點(diǎn)云同模型之間的點(diǎn)距離最小化為目標(biāo),由此找到的點(diǎn)云對(duì)應(yīng)性容易受到復(fù)雜運(yùn)動(dòng)影響,例如大臂和胸部在特定姿態(tài)下緊挨在一起,此時(shí)僅靠距離最小化原則容易出現(xiàn)錯(cuò)誤點(diǎn)對(duì)應(yīng)。因此,提出了融合點(diǎn)云位置和法向的點(diǎn)對(duì)應(yīng)求取策略,可以有效地應(yīng)對(duì)復(fù)雜運(yùn)動(dòng)情況。
綜上所述,根據(jù)改進(jìn)的ICP方法優(yōu)化求解了人體精確位姿并實(shí)現(xiàn)了序列圖像中人體位姿(關(guān)節(jié)角度)的跟蹤。對(duì)關(guān)節(jié)點(diǎn)位置、角度進(jìn)行差分和平滑,即可獲取速度、角速度等運(yùn)動(dòng)參數(shù)。
為驗(yàn)證SpaceMocap系統(tǒng)的性能,我們?cè)诘孛孢M(jìn)行了反復(fù)的測(cè)試,并將結(jié)果與精密光學(xué)動(dòng)捕設(shè)備進(jìn)行了比對(duì)。試驗(yàn)結(jié)果表明,運(yùn)動(dòng)捕捉的模型與點(diǎn)云具有良好的重合度,關(guān)節(jié)點(diǎn)定位誤差在5 mm以內(nèi),關(guān)節(jié)角度誤差在2.5°以內(nèi),誤差主要取決于深度相機(jī)的精度和分辨率。2016年9月,SpaceMocap(整包質(zhì)量約4 kg,體積400 mm×300 mm×200 mm)搭載TG-2升空,對(duì)SZ-11兩名航天員的任務(wù)視頻進(jìn)行了采集和處理。
Space Mocap系統(tǒng)3個(gè)RGB-D相機(jī)(Orbbec Astra)在軌獲取的航天員NBP圖像點(diǎn)云,以及SpaceMocap系統(tǒng)地面測(cè)量軟件獲取的姿態(tài)跟蹤結(jié)果如圖8(b)所示。由圖中可見,航天員人體模型與點(diǎn)云有良好的匹配度,表明姿態(tài)跟蹤結(jié)果準(zhǔn)確。本次試驗(yàn)獲取的中性體位姿態(tài)角與NASA的數(shù)據(jù)(見圖8(a))如表1所示。人體本體坐標(biāo)系定義為x軸向左、y軸向上、z軸向前,定義水平面為xz、矢狀面為yz、冠狀面為xy。表1中各角度為各關(guān)節(jié)在各平面上的投影角,與NASA的數(shù)據(jù)基本相符,但有些角度也存在較大差異。此外,任意時(shí)刻航天員的占位空間可以根據(jù)該時(shí)刻捕獲的姿態(tài)模型求得。這是我國(guó)首次獲取的航天員在軌NBP角度、占位空間等數(shù)據(jù),將為我國(guó)載人航天人機(jī)交互設(shè)計(jì)提供重要的參考依據(jù)。
本次試驗(yàn)對(duì)航天員艙內(nèi)多組運(yùn)動(dòng)視頻進(jìn)行了分析。以腳蹬離測(cè)試為例,航天員從后球底附近的硬扶手處蹬離,沿著地板向前錐段方向飄移,在前錐段附近的硬扶手處???。定義X軸與Z軸位于地板所在平面,Z軸由后球底指向前錐段,X軸指向左側(cè)。系統(tǒng)獲取了全身及各關(guān)節(jié)點(diǎn)的位移和速度,各關(guān)節(jié)角度和角速度數(shù)據(jù)。
表1 SZ-11任務(wù)與NASA中性體位姿態(tài)角度的對(duì)比Table 1 NBP angels of SZ-11 and NASA astronauts (°)
圖8 在軌中性體位測(cè)量結(jié)果Fig.8 NBP measurement results
經(jīng)系統(tǒng)分析,身體質(zhì)心變化曲線如圖9所示。由圖可知,質(zhì)心基本平行于艙體地板(Y值變化很小),從艙體后球底運(yùn)動(dòng)到前錐段(Z值逐漸增大)并稍向左側(cè)飄移(X值逐漸增大)。經(jīng)計(jì)算,質(zhì)心在Z方向初始速度約為0.11 m/s。運(yùn)動(dòng)過程中,質(zhì)心X方向和Z方向上的最大速度均為0.3 m/s,在運(yùn)動(dòng)結(jié)束位置附近時(shí)的質(zhì)心Z方向速度約為0.03 m/s。運(yùn)動(dòng)測(cè)量結(jié)果與圖像表觀吻合較好。
圖9 艙內(nèi)活動(dòng)的運(yùn)動(dòng)學(xué)測(cè)量結(jié)果Fig.9 Kinematic measurements of in-cabin activities
此外,系統(tǒng)提供人機(jī)交互輔助測(cè)量功能。當(dāng)自動(dòng)初始化或跟蹤失效時(shí),可通過界面手動(dòng)調(diào)節(jié)人體質(zhì)心位置、主軸方向和各關(guān)節(jié)角度,實(shí)現(xiàn)位姿的高效調(diào)整。用戶通過觀察模型-點(diǎn)云、模型-圖像的重合度,可以定性分析當(dāng)前位姿測(cè)量結(jié)果的準(zhǔn)確性。通過觀察系統(tǒng)實(shí)時(shí)顯示的匹配度數(shù)值,定量分析當(dāng)前位姿測(cè)量結(jié)果的置信度。
1) 提出了一種有效的基于多臺(tái)RGB-D相機(jī)的運(yùn)動(dòng)捕捉方法,不僅具有直觀、非接觸式等視覺測(cè)量的共性優(yōu)勢(shì),無需在人體上粘貼任何標(biāo)志,而且具有較高的測(cè)量精度以及良好的魯棒性和抗遮擋能力。
2) 基于上述方法構(gòu)建的SpaceMocap系統(tǒng)是我國(guó)首個(gè)在軌人體運(yùn)動(dòng)捕捉系統(tǒng)。它具有體積小、質(zhì)量輕、功耗低等優(yōu)勢(shì)。試驗(yàn)結(jié)果表明,其適用于微重力、狹小空間下的在軌應(yīng)用。
3) SpaceMocap在最近一次飛行任務(wù)中為我國(guó)首次獲取了在軌航天員的中性體位姿態(tài),以及其它姿態(tài)、占位空間、運(yùn)動(dòng)參數(shù)等重要數(shù)據(jù),今后還將用于在軌人因行為分析等領(lǐng)域。目前,我們正在選型更高性能的RGB-D相機(jī),改進(jìn)算法(如融合彩色圖像與深度圖像信息)并提高實(shí)時(shí)性,使其更好地應(yīng)用于后續(xù)載人航天任務(wù)。