湯一平, 周靜愷, 徐海濤
(浙江工業(yè)大學(xué) 信息工程學(xué)院,浙江 杭州 310023)
?
一種主動(dòng)式全景立體視覺傳感器設(shè)計(jì)
湯一平, 周靜愷, 徐海濤
(浙江工業(yè)大學(xué) 信息工程學(xué)院,浙江 杭州 310023)
摘要:現(xiàn)有的三維激光掃描儀無法實(shí)時(shí)、全自動(dòng)地計(jì)算空間三維信息,需要對(duì)獲得的點(diǎn)云數(shù)據(jù)進(jìn)行配準(zhǔn)。為解決這些問題,研制了一種新型主動(dòng)式全景立體視覺傳感器(ASODVS),并且從影響ASODVS測(cè)距精度的各個(gè)因素進(jìn)行了分析。實(shí)驗(yàn)結(jié)果表明:設(shè)計(jì)的ASODVS能自動(dòng)、實(shí)時(shí)地進(jìn)行空間物點(diǎn)深度測(cè)量,并得到相應(yīng)的點(diǎn)云數(shù)據(jù)。
關(guān)鍵詞:主動(dòng)式全景立體視覺傳感器; 面激光發(fā)生器; 單視點(diǎn); 深度測(cè)量; 三維重構(gòu)
0引言
與傳統(tǒng)的測(cè)量技術(shù)相比,三維激光掃描技術(shù)能夠快速、精確、無接觸地完成復(fù)雜表面的測(cè)量和建模[1]。但三維激光掃描儀的制造成本和維護(hù)成本十分昂貴[2],并且需要對(duì)不同傳感器的同名特征點(diǎn)進(jìn)行配準(zhǔn)。由于三維激光掃描技術(shù)在不同掃描站獲得的空間三維數(shù)據(jù)分別采用各自的局部坐標(biāo)系,因此,需要將它們配準(zhǔn)到統(tǒng)一坐標(biāo)系下。任何一種拼接都可能產(chǎn)生誤差,并且還需要花費(fèi)較大的計(jì)算資源[3]。
為解決上述問題,很多研究者從主動(dòng)式全景立體視覺技術(shù)出發(fā),通過集成全方位視覺傳感器和激光信息解決了傳統(tǒng)立體視覺中存在的特征點(diǎn)匹配問題[4~7]。視覺傳感器的全方位成像特點(diǎn)使得這種技術(shù)在應(yīng)用于空間三維信息測(cè)量和點(diǎn)云數(shù)據(jù)獲取時(shí)無需對(duì)數(shù)據(jù)進(jìn)行拼接。但是,目前這種技術(shù)最大問題是難以應(yīng)用同一傳感器對(duì)全景空間物點(diǎn)實(shí)現(xiàn)幾何和色彩信息的同步獲取,并且測(cè)量過程無法滿足實(shí)時(shí)性、自動(dòng)化的要求。
為此,本文結(jié)合實(shí)驗(yàn)室自主設(shè)計(jì)的全方位視覺傳感器(omni-directional vision sensor,ODVS)[8]和移動(dòng)面激光發(fā)生器實(shí)現(xiàn)了一種新型主動(dòng)式全景立體視覺傳感器(active ste-reo omni-directional vision sensor,ASODVS),并對(duì)其精度和適用情況進(jìn)行了分析。ASODVS研究的貢獻(xiàn)在于能夠?qū)崟r(shí)獲取實(shí)際物體的幾何、顏色信息,從視頻信號(hào)獲取源上解決計(jì)算機(jī)視覺測(cè)量領(lǐng)域中的準(zhǔn)確性、實(shí)時(shí)性及魯棒性等方面的問題。
1ASODVS的設(shè)計(jì)
1.1設(shè)計(jì)原理
主動(dòng)式全景立體視覺技術(shù)通常涉及四個(gè)坐標(biāo)系:全景攝像機(jī)坐標(biāo)系(camera coordinate system,CCS)、世界坐標(biāo)系(global coordinate system,GCS)、移動(dòng)面激光發(fā)生器坐標(biāo)系,即掃描坐標(biāo)系(scan coordinate system,SCS)和數(shù)字化圖像平面坐標(biāo)系(image coordinate system,ICS)。大多數(shù)情況下,激光發(fā)生器、被測(cè)物和攝像機(jī)均處于不同的空間位置,因此,四個(gè)坐標(biāo)系不能構(gòu)成簡(jiǎn)單的關(guān)系,這樣就使得測(cè)量時(shí)需要對(duì)坐標(biāo)系進(jìn)行配準(zhǔn)和轉(zhuǎn)換。坐標(biāo)系之間的轉(zhuǎn)換不僅會(huì)增大計(jì)算復(fù)雜度,也會(huì)降低測(cè)量數(shù)據(jù)的精度和魯棒性。
為了解決這個(gè)問題,ASODVS在設(shè)計(jì)時(shí)充分利用ODVS的單視點(diǎn)特性[8],以單視點(diǎn)在水平地面的投影點(diǎn)上為原點(diǎn)建立GCS,并且使ODVS的軸心和帶動(dòng)移動(dòng)面激光發(fā)生器移動(dòng)的螺桿軸心完全重合。使得GCS,CCS和SCS在垂直方向上構(gòu)成直接關(guān)系重合。如圖1所示,SCS與CCS的XOY平面互相平行,并在Z軸方向上相距h(Z),h(Z)的值通過估計(jì)激光發(fā)生器的移動(dòng)速度和時(shí)間得到[9]。
ASODVS的設(shè)計(jì)降低了計(jì)算的復(fù)雜程度、提高了檢測(cè)精度和魯棒性。

圖1 ASODVS各個(gè)坐標(biāo)系之間的關(guān)系Fig 1 Relationship between coordinate systems of ASODVS
1.2硬件組成
ASODVS由移動(dòng)面激光發(fā)生器和ODVS構(gòu)成,系統(tǒng)的硬件結(jié)構(gòu)如圖2所示。為了與ODVS的全方位成像特點(diǎn)相匹配,移動(dòng)面激光發(fā)生器由四個(gè)相隔90°的綠色線激光組成,其發(fā)射出的激光能夠覆蓋空間水平面的360°范圍。通過步進(jìn)電機(jī)的轉(zhuǎn)動(dòng)使得移動(dòng)面激光發(fā)生器上下運(yùn)動(dòng)從而掃描場(chǎng)景,電機(jī)由型號(hào)為M542(4.2A,50 V)的驅(qū)動(dòng)器驅(qū)動(dòng)。四個(gè)綠色線激光發(fā)生器的型號(hào)為FU53212L10—BD22,波長(zhǎng)為532 nm,形成的光斑模式為一字線狀,功率為10 mW。

圖2 ASODVS硬件結(jié)構(gòu)圖Fig 2 Hardware structure of ASODVS
2ASODVS測(cè)距原理
ASODVS在進(jìn)行空間點(diǎn)三維測(cè)距時(shí)采用了三角測(cè)距原理[10],相比于其他激光測(cè)距原理,三角測(cè)距法的激光掃描效率更高,并且系統(tǒng)復(fù)雜度更低。
ASODVS在進(jìn)行空間三維信息測(cè)量時(shí),啟動(dòng)移動(dòng)面激光發(fā)生器并對(duì)場(chǎng)景進(jìn)行掃描,同時(shí)獲得一系列帶有激光信息的全景圖像。通過對(duì)全景圖像中的激光點(diǎn)進(jìn)行解析[9]能夠獲得相應(yīng)的入射角α和方位角β,根據(jù)式(1)、式(2)和式(3)可以計(jì)算該點(diǎn)的三維坐標(biāo)值,如圖3所示。在空間三維坐標(biāo)計(jì)算的同時(shí),ASODVS能夠根據(jù)全景圖像得到對(duì)應(yīng)點(diǎn)的顏色信息,實(shí)現(xiàn)空間點(diǎn)幾何信息和顏色信息的同步獲取。ODVS的具體標(biāo)定方法參考文獻(xiàn)[11],標(biāo)定結(jié)果如表1所示。

表1 ODVS的標(biāo)定結(jié)果

(1)

(2)
式中‖u″‖為成像平面上的點(diǎn)到平面中心的距離,α0,α2為ODVS的標(biāo)定參數(shù),h(Z)為W點(diǎn)到視點(diǎn)Om的垂直距離,稱為基線距,rw為W到Om的距離,βw為W相對(duì)于Om的方位角,αw為W相對(duì)于Om的入射角??臻g點(diǎn)三維坐標(biāo)分別為

(3)
其中,α為入射角,r為空間某一點(diǎn)與坐標(biāo)原點(diǎn)之間的深度值,β角為水平面與X軸正向的夾角,即全方位圖像上對(duì)應(yīng)像素點(diǎn)的方位角。

圖3 三維坐標(biāo)的計(jì)算Fig 3 Calculation of 3D coordinates
3實(shí)驗(yàn)研究
為驗(yàn)證ASODVS空間三維坐標(biāo)計(jì)算的準(zhǔn)確性,將其放置在一個(gè)大小約為25 m2的場(chǎng)景內(nèi)進(jìn)行測(cè)距。表2為測(cè)得的數(shù)據(jù),根據(jù)數(shù)據(jù)繪制的誤差曲線如圖4所示。由圖可知,空間點(diǎn)到單視點(diǎn)的距離最大測(cè)量誤差在3 %以內(nèi)。應(yīng)用ASODVS在圖5所示場(chǎng)景中掃描可得如圖6所示三維點(diǎn)云模型。
3.1基線距對(duì)測(cè)距誤差的影響
對(duì)式(1)中的基線距h求偏微分可得到

(4)

表2 距離估算數(shù)據(jù)

圖4 距離誤差與方位角的關(guān)系曲線Fig 4 Curve of relationship between distance error and azimuth angle

圖5 十個(gè)測(cè)距位置Fig 5 Ten ranging positions

圖6 場(chǎng)景的三維點(diǎn)云Fig 6 3D points cloud of scene
由公式可知,入射角α越大,φh的值越大,即基線距誤差對(duì)測(cè)距誤差的影響越大。
3.2入射角對(duì)測(cè)距誤差的影響
對(duì)式(1)中的入射角α求偏微分可得到

(5)
式中φα為測(cè)量誤差對(duì)入射角的敏感系數(shù),其與入射角和測(cè)量距離的關(guān)系曲線如圖7所示。當(dāng)測(cè)量距離r和入射角α越大時(shí),φα的值越大。當(dāng)入射角接近90°時(shí),入射角誤差對(duì)測(cè)距誤差的影響非常大。

圖7 φα關(guān)系曲線Fig 7 φα relationship curve
3.3圖像分辨率對(duì)測(cè)距誤差的影響
完成ODVS的標(biāo)定之后,空間某一點(diǎn)相對(duì)于單視點(diǎn)Om的入射角α可以通過式(6)進(jìn)行計(jì)算

(6)
將式(6)代入式(5),并將|u″‖記為u可以得到式(7)

(7)
其中,a0,…,aN為ODVS的標(biāo)定參數(shù),并且a4,…,aN近似為0。
因此,入射角對(duì)的變化關(guān)系可以用式(8)計(jì)算,對(duì)式(8)進(jìn)一步處理可得到式(9)

(8)

(9)
式中φu為測(cè)量誤差對(duì)像素距離的敏感系數(shù)。圖8為φu與r和u的關(guān)系曲線,當(dāng)估算距離越大,像素距離越小時(shí),φu越大。由于像素距離u的值可以反映圖像的分辨率,因此,當(dāng)估算距離r不變時(shí),圖像分辨率越高,φu越小,即像素誤差對(duì)距離測(cè)量誤差的影響越小。

圖8 φu關(guān)系曲線Fig 8 φu relationship curve
4結(jié)論
本文設(shè)計(jì)的ASODVS能夠?qū)崟r(shí)、快速、準(zhǔn)確地計(jì)算場(chǎng)景的空間三維坐標(biāo),并同時(shí)得到點(diǎn)云對(duì)應(yīng)的顏色信息。通過上述精度分析可知,從以下三個(gè)方面改進(jìn)ASODVS可以提高三維測(cè)量的精度:
1)提高h(yuǎn)的精度:系統(tǒng)通過估算電機(jī)的運(yùn)動(dòng)速度和運(yùn)動(dòng)時(shí)間來得到h值,如果采用位移傳感器直接實(shí)時(shí)獲取激光光源的移動(dòng)距離,可以進(jìn)一步提高三維測(cè)量精度。
2)增大圖像分辨率:增大圖像分辨率可以從硬件和軟件兩方面進(jìn)行改進(jìn)。在硬件方面,本文的ODVS分辨率為1280像素×720像素,可以采用更高分辨率的成像芯片。在軟件實(shí)現(xiàn)方面,可以通過對(duì)圖像進(jìn)行超分辨率重構(gòu)的方式提高分辨率。
參考文獻(xiàn):
[1]Qingguo T,Yujie Y,Xiangyu Z,et al.An experimental evaluation method for the performance of a laser line scanning system with multiple sensors[J].Optics and Lasers in Engineering,2014,52:241-249.
[2]Stoyanov T,Mojtahedzadeh R,Andreasson H,et al.Comparative evaluation of range sensor accuracy for indoor mobile robotics and automated logistics applications[J].Robotics and Autonomous Systems,2013,61(10):1094-1105.
[3]Kwang-Ho B,Derek D L.A method for automated registration of unorganized point clouds[J].ISPRS Journal of Photogrammetry and Remote Sensing,2008,63:36-54.
[4]Orghidan R,Mouaddib E M,Salvi J.Omnidirectional depth computation from a single image[C]∥International Conference on Robotics and Automation,2005:1222-1227.
[5]Yi S,Suh J,Hong Y,et al.Active ranging system based on structured laser light image[C]∥SICE Annual Conference,2010:747-752.
[6]Kenki Matsui,Atsushi Yamashita.3D shape reconstruction of pipe with omnidirectional laser and omnidirectional camera[C]∥Asian Symposium for Precision Engineering and Nanotechnology,2009:1701-1706.
[7]Zhang C,Xu J,Xi N,et al.Development of an omnidirectional 3D camera for robot navigation[C]∥Advanced Intelligent Mechatro-nics, Kaohsiung:IEEE,2012:262-267.
[8]湯一平,葉永杰,朱藝華,等.智能全方位視覺傳感器及其應(yīng)用研究[J].傳感技術(shù)學(xué)報(bào),2007,20(6):1316-1320.
[9]徐海濤,周靜愷,林璐璐,等.基于ASODVS的全景點(diǎn)云數(shù)據(jù)獲取技術(shù)的研究[J].計(jì)算機(jī)測(cè)量與控制,2014,22(7):2284-2287.
[10] 李冬冬,王永強(qiáng),許增樸,等.激光三角法在物面傾斜時(shí)的測(cè)量誤差研究[J].傳感器與微系統(tǒng),2015,34(2):28-36.
[11] 周宗思.全方位視覺技術(shù)及其在移動(dòng)機(jī)器人導(dǎo)航中的應(yīng)用[D].杭州:浙江工業(yè)大學(xué),2009:10-20.
Design of an active stereo omni-directional vision sensor
TANG Yi-ping, ZHOU Jing-kai, XU Hai-tao
(College of Information Engineering,Zhejiang University of Technology,Hangzhou 310023,China)
Abstract:Existing three-dimensional laser scanners cannot calculate three-dimensional information in real-time and automatically,and data registration is essential after acquisition of points cloud.In order to solve these problems,a new kind of active stereo omni-directional vision sensor(ASODVS)is developed,and factors influence ranging precision are also analyzed.Experimental results demonstrate that the proposed ASODVS system can automatically measure 3D panorama space in real-time,and corresponding points cloud datas will also be acquired.
Key words:active stereo omni-directional vision sensor(ASODVS); planar laser generator; single view point; depth measurements; 3D reconstruction
DOI:10.13873/J.1000—9787(2016)02—0109—04
收稿日期:2015—05—19
中圖分類號(hào):TP 391
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1000—9787(2016)02—0109—04
作者簡(jiǎn)介:
湯一平(1956-),男,浙江杭州人,博士,教授,研究領(lǐng)域?yàn)橛?jì)算機(jī)視覺、全方位視覺傳感器、物聯(lián)網(wǎng)技術(shù)。