摘 "要: 隨著戰(zhàn)場上作戰(zhàn)方式的多樣化、智能化,對作戰(zhàn)輔助系統(tǒng)也提出了更高的要求。駕駛員在裝甲車輛內(nèi)部(全封閉環(huán)境下),為更快捷地獲取不同角度的廣闊視野,亟需一種通過解算人體頭部姿態(tài)來控制光電設(shè)備隨動(dòng)的系統(tǒng)。文中提出一種融合圖像傳感器和陀螺傳感器各自優(yōu)勢的人體頭部姿態(tài)解算系統(tǒng),該系統(tǒng)以雙圖像傳感器數(shù)據(jù)解算為主,陀螺傳感器數(shù)據(jù)解算為輔,融合了圖像傳感器解算精度高、陀螺傳感器解算速度快的優(yōu)勢。該系統(tǒng)以國產(chǎn)DSP FT?M6678N為核心處理器,設(shè)計(jì)了三核并行處理架構(gòu),核0實(shí)現(xiàn)數(shù)據(jù)交互、多核數(shù)據(jù)融合,核1、核2實(shí)現(xiàn)雙相機(jī)各自通道姿態(tài)解算。搭建實(shí)裝驗(yàn)證環(huán)境,結(jié)果表明該系統(tǒng)較以往單傳感器解算系統(tǒng)在精度、實(shí)時(shí)性、環(huán)境適應(yīng)性上有明顯提升,為頭部姿態(tài)解算提供了新思路。
關(guān)鍵詞: 多傳感器融合; 圖像傳感器; 陀螺傳感器; FT?M6678N; 并行處理; 高精度; 實(shí)時(shí)性; 環(huán)境適應(yīng)性
中圖分類號: TN219?34; TP391.41 " " " " " " " " " 文獻(xiàn)標(biāo)識碼: A " " " " " " " " "文章編號: 1004?373X(2024)21?0177?06
Multi?sensor fusion attitude calculation system based on domestic DSP
HU Kai, LI Lei
(China Electronics Technology Group Corporation No. 58 Research Institute, Wuxi 214035, China)
Abstract: In recent years, the diversification and intelligence of combat modes on the battlefield have put forward higher requirements for combat assistance systems. To obtain a wide field of view from different angles more quickly, drivers, in armored vehicles (a fully?enclosed environment), need a system to control the follow?up of the photoelectric equipment by calculating posture of human head. A human head posture calculation system which combines the advantages of image sensor and gyro sensor is presented. The system is mainly based on the data calculation of dual image sensors, supplemented by the data calculation of gyro sensor, which combines the advantages of high accuracy of image sensor and high speed of gyro sensor. In this system, a three?core parallel processing architecture is designed by using domestic DSP FT?M6678N as the core processor. Core 0 is used to realize data interaction and multi?core data fusion, and core 1 and core 2 are used to realize the attitude settlement of each channel of the dual cameras. A verification environment for real equipment is built. The results show that the system has improved the accuracy, real?time performance and environmental adaptability significantly in comparison with the previous single?sensor solution system, so it provides a new idea for head posture calculation.
Keywords: multi?sensor fusion; image sensor; gyro sensor; FT?M6678N; parallel processing; high precision; real?time performance; environmental adaptability
0 "引 "言
頭部是人體最重要的部位,能產(chǎn)生各類信息,包括運(yùn)動(dòng)、姿態(tài)、人臉特征、表情等。通過對人體頭部的運(yùn)動(dòng)、姿態(tài)以及人臉信息解析,來獲取人體大腦的指揮信息。人體頭部的信息研究已成為機(jī)器視覺等領(lǐng)域的焦點(diǎn),目前,人體頭部姿態(tài)解算技術(shù)已在軍事和民用領(lǐng)域得到了廣泛應(yīng)用[1?2]。
頭部姿態(tài)估計(jì)是利用計(jì)算機(jī)視覺和模式識別的方法在數(shù)字圖像中判斷人體頭部的朝向問題[3],通過一個(gè)空間坐標(biāo)系識別頭部的姿態(tài)方向參數(shù)[4]。在計(jì)算機(jī)視覺領(lǐng)域,姿態(tài)測量是研究的熱點(diǎn)和難點(diǎn),目前已有的姿態(tài)測量系統(tǒng)大多基于單傳感器[5]。
慣性傳感器[6]是集成加速度計(jì)或者陀螺儀等運(yùn)動(dòng)傳感器的設(shè)備。其優(yōu)勢在于體積小、功耗低、數(shù)據(jù)更新率高、不受環(huán)境光線干擾;不足之處在于長時(shí)間連續(xù)工作,存在累積漂移問題。
視覺類傳感器通常采用以下三種方法采集圖像數(shù)據(jù):一是通過采集分析人臉的特征[7?8],檢測人臉的特征點(diǎn),根據(jù)特征點(diǎn)的旋轉(zhuǎn)變化解算出運(yùn)動(dòng)姿態(tài),但基于該原理的系統(tǒng)受環(huán)境影響因素大,解算出的姿態(tài)角度誤差較大,在密閉黑暗的環(huán)境下甚至無法正常工作;二是通過單一的圖像傳感器采集圖像數(shù)據(jù)[9],解算人體頭部運(yùn)動(dòng)的姿態(tài),但受到處理器性能的限制[10],無法滿足系統(tǒng)的實(shí)時(shí)性要求,解算出的姿態(tài)角存在滯后現(xiàn)象,同時(shí)存在人體頭部轉(zhuǎn)動(dòng)角速度過大(大于100(°)/s)時(shí),采集的圖像會有拖尾現(xiàn)象,導(dǎo)致通過圖像無法正常解算姿態(tài)角;三是使用單相機(jī)采集圖像數(shù)據(jù),受相機(jī)的視場角限制,頭部運(yùn)動(dòng)角度有限[11]。
本文為解決以上不足,設(shè)計(jì)了一種多傳感器融合的姿態(tài)解算系統(tǒng),采用融合測量的方法,極大吸取了兩種傳感器各自的優(yōu)勢,提高了解算精度,提升了系統(tǒng)環(huán)境適應(yīng)能力,為頭部姿態(tài)解算提供了新思路。
隨著國際芯片戰(zhàn)爭愈演愈烈,國產(chǎn)化已成為現(xiàn)今武器裝備的趨勢,國內(nèi)自主可控高性能DSP、FPGA也趨于成熟,結(jié)合DSP、FPGA的硬件低功耗、小尺寸特征,以FT?M6678N為主處理器[12]、JFM7K325T為輔處理器搭建了一套全國產(chǎn)化姿態(tài)解算系統(tǒng)[13]。
1 "總體設(shè)計(jì)
姿態(tài)解算系統(tǒng)由圖像檢測及解算模塊(下文簡稱解算模塊)、高清檢測相機(jī)、安裝支架、LED目標(biāo)靶板組成,其系統(tǒng)架構(gòu)框圖如圖1所示。
目標(biāo)靶板正面安裝3×3排布(中心LED燈點(diǎn)去除,共8個(gè)燈點(diǎn),中心安裝MEMs陀螺儀)的近紅外LED燈點(diǎn)陣列,解算模塊通過燈點(diǎn)陣列圖像解算出姿態(tài)信息。MEMs陀螺儀用以與圖像解算姿態(tài)角進(jìn)行數(shù)據(jù)融合,提高姿態(tài)測量頻率。
為確保成像系統(tǒng)能覆蓋(20±10)cm距離范圍內(nèi)頭盔的絕大多數(shù)機(jī)動(dòng)動(dòng)作,設(shè)計(jì)了雙相機(jī)成像結(jié)構(gòu),解決在頭盔偏移或偏轉(zhuǎn)過大時(shí)可能遇到無法檢測全部燈點(diǎn)的問題。雙相機(jī)接收來自解算模塊的外同步觸發(fā)信號,同時(shí)曝光并將圖像數(shù)據(jù)傳輸至解算模塊。
解算模塊是整個(gè)模塊的核心處理單元,負(fù)責(zé)采集陀螺數(shù)據(jù)和圖像數(shù)據(jù),解算圖像姿態(tài)信息及融合處理各數(shù)據(jù)源,也是軟件調(diào)度的執(zhí)行主體,可提供外同步觸發(fā)信號同時(shí)采集雙相機(jī)圖像數(shù)據(jù),并將融合的姿態(tài)數(shù)據(jù)通過串口實(shí)時(shí)發(fā)送至控制終端。
2 "工作模式設(shè)計(jì)
姿態(tài)解算系統(tǒng)工作模式分為正常模式、測試模式。根據(jù)需求切換工作模式,開機(jī)默認(rèn)正常模式,如需單獨(dú)輸出圖像解算姿態(tài)數(shù)據(jù)和陀螺數(shù)據(jù),可切換到測試模式。
姿態(tài)解算系統(tǒng)正常模式工作流程如圖2所示。
姿態(tài)解算系統(tǒng)正常模式上電后首先開始零位標(biāo)定階段(駕駛員需坐在零位標(biāo)定的有效范圍內(nèi)),當(dāng)采集到零位標(biāo)定信號時(shí)(駕駛員通過按鍵或其他途徑發(fā)送),解算模塊觸發(fā)雙相機(jī)同步曝光,并采集和解算兩臺相機(jī)當(dāng)前幀的姿態(tài)計(jì)算結(jié)果,將其作為兩臺相機(jī)的零位進(jìn)行存儲,完成零位標(biāo)定。
零位標(biāo)定未完成前,模塊將保持各個(gè)姿態(tài)角度輸出為0。正常零位標(biāo)定場景下,雙通道相機(jī)必須同時(shí)檢測到靶板燈點(diǎn)陣列,解算模塊才能解算雙相機(jī)的零位姿態(tài)計(jì)算結(jié)果;若只有單個(gè)通道相機(jī)有效檢測靶板燈點(diǎn)陣列,解算模塊判定該零位狀態(tài)無效,所有角度參數(shù)默認(rèn)輸出0,重新進(jìn)入零位標(biāo)定模式,直至零位標(biāo)定成功;用戶可在OSD輸出顯示中看到零位標(biāo)定實(shí)時(shí)狀態(tài),若零位狀態(tài)無效,駕駛員可切換至手動(dòng)模式,不使用解算模塊輸出的姿態(tài)角信息。
零位標(biāo)定完成后,進(jìn)入正常姿態(tài)解算模式,姿態(tài)解算完成后,通過串口輸出姿態(tài)解算結(jié)果。
3 "硬件設(shè)計(jì)
姿態(tài)解算系統(tǒng)硬件部分主要包括目標(biāo)靶板、相機(jī)及鏡頭、解算模塊。
3.1 "目標(biāo)靶板設(shè)計(jì)
目標(biāo)靶板用于點(diǎn)亮靶標(biāo)燈點(diǎn)陣列,為解算模塊提供高可靠主動(dòng)發(fā)光目標(biāo);再者,采集陀螺姿態(tài)數(shù)據(jù)轉(zhuǎn)發(fā)至解算模塊。目標(biāo)靶板硬件原理框圖如圖3所示。
目標(biāo)靶板由外部5 V供電,為MEMs陀螺、LED恒流驅(qū)動(dòng)器、微控制器提供電源。
板上微處理器用于和解算模塊通信,管理數(shù)據(jù)收發(fā),另外,接收MEMs陀螺采集的角速度信息,以及發(fā)送控制信號,控制LED亮度。微處理器可通過調(diào)節(jié)占空比參數(shù)、調(diào)節(jié)電流值完成對LED點(diǎn)陣亮度調(diào)節(jié)。
3.2 "高清相機(jī)設(shè)計(jì)
高清相機(jī)具備外同步功能,最高幀頻支持50 Hz(可降低圖像姿態(tài)輸出延時(shí)),敏感波段覆蓋近紅外。選取視場角可達(dá)60°的鏡頭,從而確保覆蓋駕駛員頭部活動(dòng)范圍,同時(shí)輔以近紅外濾光片(940±40)nm濾除環(huán)境光干擾,提高信噪比。相機(jī)硬件框架如圖4所示。
3.3 "圖像檢測及解算模塊設(shè)計(jì)
解算模塊是整個(gè)姿態(tài)解算系統(tǒng)的核心處理單元,選用FPGA+多核DSP的處理架構(gòu),充分利用FPGA和DSP多核的并行處理能力,同步運(yùn)行雙相機(jī)的高清圖像姿態(tài)檢測算法,確保滿足幀頻50 Hz的實(shí)時(shí)處理性能。該解算模塊中FPGA負(fù)責(zé)雙相機(jī)視頻同步采集,同時(shí)將雙路視頻輸出通過SRIO傳輸給DSP,DSP負(fù)責(zé)姿態(tài)解算及數(shù)據(jù)融合。
解算模塊硬件原理框圖如圖5所示。
FPGA作為該模塊中數(shù)據(jù)采集及交互的核心,為滿足國產(chǎn)化應(yīng)用需求,采用了復(fù)旦微的K7芯片(JFM7K325T),具有高級串行數(shù)據(jù)傳輸功能和基于硬件GTX串行收發(fā)器,可以實(shí)現(xiàn)多路高速數(shù)據(jù)傳輸接口,用于并行執(zhí)行大量計(jì)算和邏輯處理任務(wù)。
DSP實(shí)現(xiàn)圖像數(shù)據(jù)處理、姿態(tài)解算、數(shù)據(jù)融合,是該模塊的處理核心。采用飛騰的FT?M6678N,該處理器擁有8顆FT?M66x DSP內(nèi)核,工作主頻高達(dá)1.25 GHz,定點(diǎn)運(yùn)算能力可達(dá)到40 GMAC/s,浮點(diǎn)運(yùn)算能力為20 GFLOPs,支持兩套RapidIO高速串行鏈路,每套RapidIO支持4 Lane,每Lane傳輸速率最高支持3.125 GBaud。
4 "結(jié)構(gòu)設(shè)計(jì)
4.1 "目標(biāo)靶板結(jié)構(gòu)設(shè)計(jì)
目標(biāo)靶板尺寸為40 mm×56 mm×15 mm,貼合頭盔后表面的結(jié)構(gòu)安裝,工作電壓為5 V。靶板正面貼裝3×3排列的LED燈陣(中間燈點(diǎn)去除,8個(gè)LED,中間區(qū)域放MEMs陀螺),其橫向間隔為20.5 mm,縱向間隔為11.5 mm,陀螺姿態(tài)數(shù)據(jù)由RS 422延長線傳輸至圖像檢測板。
燈點(diǎn)陣列由8個(gè)近紅外LED(940±40)nm組成,其發(fā)光面為平面,在模擬車廂內(nèi)昏暗環(huán)境下的成像效果如圖6所示,濾除背景噪聲帶來的圖像干擾。
4.2 "相機(jī)安裝結(jié)構(gòu)方案
兩臺相機(jī)負(fù)責(zé)采集目標(biāo)靶板圖像,相機(jī)自身體積較小,為25 mm×25 mm×22 mm,重量低于35 g。相機(jī)布局方式以成像系統(tǒng)總能采集到適于燈點(diǎn)檢測和姿態(tài)解算的圖像為目標(biāo)。駕駛員常規(guī)活動(dòng)范圍如圖7灰色區(qū)域所示,兩臺相機(jī)在[x]軸方向分別位于感興趣區(qū)域(ROI)邊緣位置,其光軸則在ROI中心處相交,從而保證ROI內(nèi)運(yùn)動(dòng)的靶標(biāo)盡可能靠近某一臺相機(jī)光軸,增強(qiáng)成像質(zhì)量。由此計(jì)算得到相機(jī)安裝角度與[x]軸夾角為68°。又考慮到相機(jī)視場角為60°,兩臺相機(jī)的視場可以完全覆蓋ROI近端,并有50 mm的重疊視場區(qū)域。安裝方案立體圖如圖7所示,模擬安裝示意圖如圖8所示。
5 "軟件算法設(shè)計(jì)
姿態(tài)檢測軟件運(yùn)行于解算模塊上,由解算模塊觸發(fā)圖像同步采集,同時(shí)接收并解析來自目標(biāo)靶板發(fā)送的陀螺數(shù)據(jù);再將采集到的數(shù)據(jù)發(fā)送至主處理器執(zhí)行圖像處理算法。圖像處理算法包括圖像預(yù)處理、姿態(tài)解算和數(shù)據(jù)融合,最終將融合的姿態(tài)結(jié)果數(shù)據(jù)通過RS 422串口輸出。接收到“零位標(biāo)定”指令,軟件會進(jìn)入零位標(biāo)定階段,零位標(biāo)定完成后,存儲各通道的零位姿態(tài)角;若零位標(biāo)定操作未完成,輸出的各個(gè)軸姿態(tài)角度為0??筛鶕?jù)工作模式選擇姿態(tài)結(jié)果輸出方式,輸出陀螺數(shù)據(jù)和圖像姿態(tài)融合結(jié)果、陀螺姿態(tài)結(jié)果、圖像姿態(tài)結(jié)果,軟件執(zhí)行流程圖如圖9所示。
5.1 "雙相機(jī)同步
雙相機(jī)同步視頻采集主要由FPGA完成,F(xiàn)PGA發(fā)送頻率為50 Hz同步脈沖信號給兩個(gè)相機(jī)模組。相機(jī)收到同步脈沖信號后,通過Cameralink接口輸出分辨率為1 920×1 080的高清圖像數(shù)據(jù)至FPGA;FPGA軟件將采集到的雙路相機(jī)圖像數(shù)據(jù)通過SRIO接口發(fā)送至DSP的DDR3緩沖區(qū),并觸發(fā)DSP的圖像接收中斷,準(zhǔn)備啟動(dòng)算法處理流程,雙相機(jī)同步數(shù)據(jù)采集完成。
5.2 "姿態(tài)解算
算法部分負(fù)責(zé)分析和處理采集的視頻信號,實(shí)現(xiàn)燈點(diǎn)檢測定位、點(diǎn)陣陣列識別、頭部姿態(tài)解算等功能。
近紅外燈在圖像空間可形成穩(wěn)定的亮斑,采用近紅外濾光片輔助成像,去除環(huán)境雜波干擾,有效提高了亮斑與背景的對比度,通過求取亮斑成像區(qū)域形心坐標(biāo)即可精確定位燈點(diǎn)坐標(biāo)。
利用各陣列燈點(diǎn)相對位置信息,建立燈點(diǎn)排序數(shù)學(xué)模型,計(jì)算各燈點(diǎn)與其他燈點(diǎn)的歐氏距離及向量方向,引入角度約束條件,準(zhǔn)確給定各目標(biāo)點(diǎn)編號。
考慮平面景物深度不變性,燈點(diǎn)陣列成像模型是一個(gè)弱透視模型,可通過最小二乘法擬合估計(jì)出成像位置與燈點(diǎn)世界坐標(biāo)的線性映射關(guān)系,利用該映射關(guān)系計(jì)算出目標(biāo)姿態(tài)信息。
5.3 "雙通道同步數(shù)據(jù)融合
系統(tǒng)初始化及零位標(biāo)定完成后,將進(jìn)入正常工作模式,此時(shí)兩臺相機(jī)同步采集目標(biāo)圖像信息,每一幀圖像都會獲得來自左右相機(jī)數(shù)據(jù)的兩組姿態(tài)處理結(jié)果。
根據(jù)左右相機(jī)提供的圖像數(shù)據(jù),分別進(jìn)行解算的姿態(tài)結(jié)果存在較大的誤差,需對左右相機(jī)解算結(jié)果的方位、俯仰姿態(tài)分別進(jìn)行分段擬合,擬合方式如下。
方位數(shù)據(jù)擬合:俯仰數(shù)據(jù)從20°~30°,按照步進(jìn)2°,在同一俯仰值下記錄方位數(shù)據(jù),對方位數(shù)據(jù)進(jìn)行擬合,每組擬合系數(shù)用于該俯仰值(1°,-1°)區(qū)間內(nèi)的擬合。
俯仰數(shù)據(jù)擬合:方位數(shù)據(jù)從-50°~50°,按照步進(jìn)2°,在同一方位值下記錄俯仰數(shù)據(jù),對俯仰數(shù)據(jù)進(jìn)行擬合,每組擬合系數(shù)用于該方位值(1°,-1°)區(qū)間內(nèi)的擬合。
擬合前后數(shù)據(jù)誤差對比如表1所示。
5.4 "非同源數(shù)據(jù)融合
基于單幀圖像的姿態(tài)解算相比傳統(tǒng)MEMs光電陀螺技術(shù)的一大優(yōu)勢在于有效避免了累積誤差,因此可以使用該方式作為MEMs的有力補(bǔ)充,不斷為MEMs提供校準(zhǔn)信息。從而在保持MEMs技術(shù)高數(shù)據(jù)刷新率的前提下,消除其加速運(yùn)動(dòng)引起的[g]敏感誤差和多幀積分引起的累積誤差。非同源數(shù)據(jù)融合流程圖如圖10所示。
以單幀圖像傳輸時(shí)間(1 f)和處理時(shí)間(1 f)計(jì)算,可以認(rèn)為當(dāng)前幀解算結(jié)果對應(yīng)2 f圖像周期以前的姿態(tài)數(shù)據(jù)。作為對比,MEMs陀螺提供的姿態(tài)數(shù)據(jù)被認(rèn)為是實(shí)時(shí)的,因此設(shè)計(jì)以下融合方式,對于第[i]個(gè)陀螺周期時(shí)刻的姿態(tài)融合結(jié)果[Pi],有:
[Pi=PT+Tn*j=TT+iwj]
式中:[PT]為圖像數(shù)據(jù)源最近時(shí)刻[T]的解算結(jié)果;[wj]表示從MEMs處讀取的第[j]個(gè)角速度值;[Tn]表示陀螺數(shù)據(jù)輸出周期。以這種方式,基于當(dāng)前解算的圖像姿態(tài)對其2 f前的陀螺姿態(tài)數(shù)據(jù)進(jìn)行校正,并累加陀螺在該時(shí)刻后的角度,融合數(shù)據(jù)將只包含最近約2 f圖像時(shí)間范圍內(nèi)的累積誤差和[g]敏感性誤差,達(dá)到最大限度消除誤差的效果。本設(shè)計(jì)采用50 f/s的相機(jī)更新圖像姿態(tài)檢測參數(shù)(20 ms/f),則對應(yīng)的融合數(shù)據(jù)只包含最近40~60 ms內(nèi)陀螺的累積誤差。
6 "關(guān)鍵指標(biāo)分析及對比驗(yàn)證
影響姿態(tài)檢測精度結(jié)果的因素主要有兩方面:一是累積誤差;二是燈點(diǎn)陣列定位準(zhǔn)確度。
MEMs陀螺在頭部線加速運(yùn)動(dòng)過程中會引入[g]敏感性誤差,長時(shí)間工作又會引入累積誤差。而對于基于單幀圖像的姿態(tài)解算技術(shù),則免于這兩類誤差,圖像姿態(tài)解算算法顯式地將平移與旋轉(zhuǎn)獨(dú)立計(jì)算,避免了兩者的互相干擾,此外由于各幀獨(dú)立解算,其誤差統(tǒng)計(jì)特性基本是時(shí)間不變的。
考慮到圖像數(shù)據(jù)的傳輸和處理延時(shí),對于目標(biāo)在某一時(shí)刻的特定運(yùn)動(dòng)狀態(tài),圖像姿態(tài)解算數(shù)據(jù)相比陀螺姿態(tài)輸出數(shù)據(jù),有2 f圖像周期的延遲。因此,采用的融合方法是用當(dāng)前圖像姿態(tài)解算結(jié)果對陀螺姿態(tài)歷史數(shù)據(jù)進(jìn)行校正,而只引入最近2 f圖像周期時(shí)間對應(yīng)的陀螺角速度周期作為實(shí)時(shí)采集量。用這種方式,融合數(shù)據(jù)輸出結(jié)果只包含最近2 f圖像周期時(shí)間陀螺的[g]敏感性誤差和累積誤差,對其結(jié)果質(zhì)量的改善顯然是大有幫助的。
因此,來自兩個(gè)傳感器源的數(shù)據(jù)經(jīng)過融合后,利用圖像方法姿態(tài)解算結(jié)果對傳統(tǒng)的MEMs陀螺儀姿態(tài)數(shù)據(jù)進(jìn)行不斷校正,可以在保留MEMs陀螺儀的角速度測量動(dòng)態(tài)范圍大、低延遲、刷新率高的優(yōu)勢的同時(shí),消除MEMs陀螺在頭部線加速階段引入的[g]敏感性誤差和長時(shí)間工作導(dǎo)致的累積誤差。
為確保燈點(diǎn)陣列定位準(zhǔn)確,選用了經(jīng)紅外波段的發(fā)光陣列,大大減少了環(huán)境光的影響,燈點(diǎn)陣列自身可根據(jù)環(huán)境光線強(qiáng)弱,實(shí)時(shí)調(diào)整燈點(diǎn)亮度,使其在相機(jī)端成像一致性提高,同時(shí)通過縮小燈點(diǎn)發(fā)光面準(zhǔn)確定位燈點(diǎn)形心,增加了燈點(diǎn)陣列定位精度。
通過搭建模擬實(shí)驗(yàn)臺,利用標(biāo)準(zhǔn)轉(zhuǎn)臺轉(zhuǎn)動(dòng)角度作為真值,實(shí)測數(shù)據(jù)如表2所示。
為驗(yàn)證基于國產(chǎn)DSP多傳感器融合姿態(tài)解算系統(tǒng)的各方面優(yōu)勢,使用單一傳感器(相機(jī))、可見光波段發(fā)光陣列在同一環(huán)境下進(jìn)行對比實(shí)驗(yàn),對比結(jié)果如表3所示。
7 "結(jié) "語
本文提出了以圖像傳感器和慣性傳感器相結(jié)合的姿態(tài)解算方法,利用兩種傳感器的優(yōu)勢互補(bǔ),解決了慣性傳感器的累積誤差、圖像傳感器的實(shí)時(shí)性問題;同時(shí)輔以主動(dòng)近紅外發(fā)光式靶板,減少環(huán)境光的干擾,大幅增加了姿態(tài)解算的準(zhǔn)確率。
注:本文通訊作者為胡楷。
參考文獻(xiàn)
[1] 張毅.多姿態(tài)人臉識別關(guān)鍵技術(shù)研究[D].成都:四川大學(xué),2021.
[2] 韓俊杰,駱開慶,邱健,等.基于雙目相機(jī)的眼動(dòng)儀頭部姿態(tài)估計(jì)方法[J].激光與光電子學(xué)進(jìn)展,2021,58(14):310?317.
[3] 黎佩馨,方向忠.基于頭部姿態(tài)估計(jì)的多人低頭跟蹤檢測系統(tǒng)[J].信息技術(shù),2021,45(5):68?73.
[4] 代歡歡,譚生祥,張旺.頭部姿態(tài)估計(jì)方法研究綜述[J].現(xiàn)代計(jì)算機(jī),2021,27(7):130?134.
[5] 黃鳳鳴,費(fèi)強(qiáng),劉再興.基于多功能傳感器的測量系統(tǒng)設(shè)計(jì)[J].電子與封裝,2021,21(3):95?98.
[6] 魏旋旋.基于慣性傳感器的人體姿態(tài)識別算法[J].智能計(jì)算機(jī)與應(yīng)用,2022,12(6):97?101.
[7] 吳琦琦,李海霞.基于多面部特征的疲勞檢測方法研究[J].信息技術(shù)與信息化,2022(10):99?102.
[8] 呂璐,程虎,朱鴻泰,等.基于深度學(xué)習(xí)的目標(biāo)檢測研究與應(yīng)用綜述[J].電子與封裝,2022,22(1):72?80.
[9] 徐飛易.基于單目視頻的三維人體姿態(tài)估計(jì)研究[D].南京:南京郵電大學(xué),2023.
[10] 王振宇,呂勇,廖健熙,等.基于多源信息源融合的疲勞檢測系統(tǒng)[J].電子設(shè)計(jì)工程,2022,30(19):125?129.
[11] 劉臻.基于單目識別技術(shù)的頭部姿態(tài)估計(jì)研究[D].武漢:武漢理工大學(xué),2019.
[12] 王正行,曾令將.基于飛騰M6678的向量數(shù)學(xué)庫優(yōu)化技術(shù)研究[J].艦船電子工程,2021,41(3):102?106.
[13] 王月新,劉明君.基于DSP+FPGA線性結(jié)構(gòu)的計(jì)算機(jī)圖像處理系統(tǒng)設(shè)計(jì)[J].無線互聯(lián)科技,2023,20(14):60?64.