關(guān)震宇,李杰,楊歡,徐蓓蓓,劉暢
(北京理工大學(xué) 機(jī)電學(xué)院,北京100081)
微小型無(wú)人飛行器(MAV)并不是常規(guī)飛行器的簡(jiǎn)單縮小,由于受到體積和載荷重量等方面的限制,其在結(jié)構(gòu)設(shè)計(jì)、氣動(dòng)設(shè)計(jì)、動(dòng)力系統(tǒng)和導(dǎo)航控制方法等方面與傳統(tǒng)飛行器存在較多不同。尺寸的微小化對(duì)飛行器姿態(tài)測(cè)量系統(tǒng)的設(shè)計(jì)提出了挑戰(zhàn),傳統(tǒng)的高精度、低漂移的陀螺由于體積和重量的原因并不適合微小型飛行器使用,而基于微機(jī)電技術(shù)開(kāi)發(fā)的微陀螺和微加速度計(jì)等器件受限于現(xiàn)有的精度、穩(wěn)定性、溫漂等因素制約,在長(zhǎng)期使用時(shí)會(huì)產(chǎn)生較大的積累誤差[1]。由于上述傳統(tǒng)器件的局限性,需要探索一種新型的微小型飛行器姿態(tài)信息估計(jì)方法對(duì)傳統(tǒng)方法進(jìn)行替代和補(bǔ)充。
早期飛機(jī)并沒(méi)有復(fù)雜的傳感系統(tǒng),飛行員對(duì)于飛機(jī)姿態(tài)的獲取直觀地來(lái)源于其視野中地平線位置的變化;由于任務(wù)使命的關(guān)系,MAV 通常攜帶有攝像設(shè)備進(jìn)行偵察和航拍作業(yè),在偵察相機(jī)的視場(chǎng)中,地平線又是自然界最明顯的標(biāo)志物,因此借助地平線位置來(lái)測(cè)量飛行器姿態(tài)就成為了一種可行的思路。目前關(guān)于地平線的各種提取方法已經(jīng)相當(dāng)成熟,可以分為基于邊緣特征的地平線提取[2-3]、基于區(qū)域統(tǒng)計(jì)特征的地平線提取[3-4]和基于機(jī)器學(xué)習(xí)的地平線提?。?];在使用地平線信息進(jìn)行姿態(tài)角計(jì)算方面,同樣開(kāi)展了大量的研究工作。參考文獻(xiàn)[6 -7]通過(guò)地平線與圖像水平線夾角進(jìn)行飛行器滾轉(zhuǎn)角估計(jì),參考文獻(xiàn)[8 -9]使用分割后天地各自的質(zhì)心位置來(lái)估算滾轉(zhuǎn)角,并使用天地分割線兩側(cè)面積的變化來(lái)估計(jì)飛行器的俯仰角,參考文獻(xiàn)[3]也采用了類似的方法來(lái)估計(jì)俯仰角,但天地線兩側(cè)面積比例會(huì)由于滾轉(zhuǎn)角的變化而發(fā)生較大的變動(dòng),因此會(huì)對(duì)俯仰角的估計(jì)帶來(lái)不小的估計(jì)誤差,參考文獻(xiàn)[10]具體指出了這一點(diǎn)問(wèn)題,并提出上述方法甚至可能會(huì)造成嚴(yán)重的飛行事故。參考文獻(xiàn)[11]使用了攝像機(jī)模型對(duì)俯仰角和滾轉(zhuǎn)角的計(jì)算進(jìn)行了理論推導(dǎo),提出了一種基于直線模型的俯仰角和滾轉(zhuǎn)角的計(jì)算方法,但不足之處在于該方法需要預(yù)先對(duì)所使用攝像機(jī)進(jìn)行標(biāo)定獲取其內(nèi)參數(shù)矩陣,而且從其仿真結(jié)果來(lái)看該方法測(cè)量精度不高。除此之外,上述所有方法都只能計(jì)算飛行器的俯仰角和滾轉(zhuǎn)角,對(duì)于飛行器俯仰角速度、滾轉(zhuǎn)角速度和偏航角速度等重要姿態(tài)參數(shù)或無(wú)法直接測(cè)量,或需要通過(guò)差分運(yùn)算進(jìn)行估計(jì),在實(shí)際使用中存在一定的局限性。參考文獻(xiàn)[12]針對(duì)上述局限提出了一種基于光流的滾轉(zhuǎn)角速度和俯仰角速度提取方法,但該方法需要計(jì)算圖像全局光流場(chǎng),由于全局光流場(chǎng)的計(jì)算量較大,因此該方法在實(shí)時(shí)應(yīng)用方面存在問(wèn)題。參考文獻(xiàn)[13]總結(jié)了基于視覺(jué)的無(wú)人飛行器姿態(tài)估計(jì)方法,指出基于光流的估計(jì)方法可以實(shí)現(xiàn)俯仰、滾轉(zhuǎn)和偏航3 個(gè)通道姿態(tài)信息的估計(jì)。
為了克服上述不足,本文提出了一種圖像中的直線稀疏光流場(chǎng)計(jì)算方法,并在此基礎(chǔ)上提出了基于直線稀疏光流場(chǎng)的飛行器姿態(tài)信息估計(jì)方法。該方法可以用于無(wú)法安裝微機(jī)電陀螺的微小型飛行器進(jìn)行姿態(tài)信息獲取,也可以通過(guò)與傳統(tǒng)導(dǎo)航手段進(jìn)行融合,輔助飛行器進(jìn)行導(dǎo)航控制。該方法不依賴計(jì)算圖像的全局光流,僅需要計(jì)算地平線附近的稀疏光流,從而降低了算法計(jì)算量。經(jīng)過(guò)理論推導(dǎo)與仿真分析,該方法可以有效地對(duì)飛行器俯仰角速度、滾轉(zhuǎn)角速度和偏航角速度等姿態(tài)信息進(jìn)行估計(jì),并在飛行器角速度較低的情況下具有較高的精度。
光流的概念最早由Gibson 于1950年提出,是指圖像中模式運(yùn)動(dòng)的速度。光流場(chǎng)是一種二維(2D)的瞬時(shí)速度場(chǎng),其中2D 速度矢量是景物中可見(jiàn)的三維速度矢量在成像表面的投影[14]。光流計(jì)算是由Horn 等[14]首先提出,之后出現(xiàn)了一系列的有關(guān)全局光流計(jì)算方法[15-18]。全局光流理論上可以估計(jì)出圖像上每一個(gè)像素點(diǎn)的光流矢量值,其不足之處在于需要大量的迭代計(jì)算來(lái)獲取,算法時(shí)間效率不高,且易受到圖像局部噪聲的影響。為了解決上述問(wèn)題,稀疏光流場(chǎng)的概念應(yīng)運(yùn)而生。目前文獻(xiàn)中常涉及的稀疏光流場(chǎng)主要指角點(diǎn)的稀疏光流場(chǎng),其獲取方法首先使用基于特征的方法對(duì)相鄰兩幅圖像進(jìn)行角點(diǎn)匹配,隨后使用匹配角點(diǎn)的運(yùn)動(dòng)矢量來(lái)近似替代其光流矢量。這種計(jì)算方法相較于全局光流計(jì)算具有運(yùn)算速度快、對(duì)噪聲不敏感等優(yōu)點(diǎn),其缺點(diǎn)是僅能獲得圖像中局部(角點(diǎn)處)的光流信息,但因?yàn)榻屈c(diǎn)作為圖像中重要的特征,它的局部光流也含有重要信息,因此稀疏光流場(chǎng)在圖像識(shí)別、運(yùn)動(dòng)檢測(cè)、目標(biāo)提取等方面具有廣泛應(yīng)用。
所謂直線稀疏光流場(chǎng),就是在角點(diǎn)稀疏光流場(chǎng)基礎(chǔ)上提出的一種圖像稀疏光流場(chǎng),它是指相鄰兩幀圖像中共線點(diǎn)的光流矢量的集合,如圖1所示。與角點(diǎn)稀疏光流場(chǎng)不同的是,直線稀疏光流場(chǎng)是通過(guò)提取兩幀圖像中相匹配的直線,并通過(guò)計(jì)算直線上每一個(gè)點(diǎn)的運(yùn)動(dòng)矢量而獲得的。因?yàn)閳D像中的邊緣信息常用直線描述,因此直線稀疏光流場(chǎng)就特別適合描述圖像中邊緣的變化。
圖1 直線稀疏光流場(chǎng)定義Fig.1 Sparse line-optical flow field
直線稀疏光流場(chǎng)的計(jì)算方法如下:
設(shè)攝像機(jī)幾何模型為透視模型,建立OXYZ 空間坐標(biāo)系,oxy 為圖像坐標(biāo)系,o 為攝像機(jī)光心,光軸與Z 軸重合,圖像坐標(biāo)系原點(diǎn)設(shè)為在OXY 坐標(biāo)系(0,0,f)處,其中f 為焦距,x 軸和y 軸分別與X 軸和Y 軸平行,如圖2所示。
在成像平面上,Li+1和Li是空間一條直線在成像平面的連續(xù)兩幀投影,p 是空間一點(diǎn)P 在成像平面上的投影。對(duì)于直線Li上一點(diǎn)pi,其在直線Li+1對(duì)應(yīng)點(diǎn)計(jì)為pi+1.
圖2 攝像機(jī)透視投影模型Fig.2 Camera perspective projection model
不失一般性,設(shè)f=1,對(duì)于該攝像機(jī)模型有
對(duì)空間一點(diǎn)P=(X,Y,Z)T,其在成像平面投影p=(x,y)T,點(diǎn)P 在空間的運(yùn)動(dòng)滿足如下運(yùn)動(dòng)方程:
式中:矩陣R 和矩陣T 分別描述點(diǎn)P 的旋轉(zhuǎn)運(yùn)動(dòng)和平移運(yùn)動(dòng);Δt 為兩幀圖像間的時(shí)間間隔,當(dāng)Δt 很小時(shí),可對(duì)(2)式作如下近似:
式中:v = (v1,v2,v3)T,ωz分別表征P 點(diǎn)的平移速度矢量和繞光軸逆時(shí)針?lè)较虻男D(zhuǎn)角速度矩陣,將其代入(2)式,得
經(jīng)整理,即可得
展開(kāi)(5)式最后一行,得
則
當(dāng)點(diǎn)P 沿光軸的運(yùn)動(dòng)相比于點(diǎn)P 到光心的距離非常小時(shí),即滿足
時(shí),有
此時(shí),對(duì)(5)式兩邊同除Z(t),
經(jīng)整理,即可得
則有
式中:w(x,y,t)表示圖像上p 點(diǎn)在t 時(shí)刻的二維運(yùn)動(dòng)速度,即時(shí)變圖像的光流,這樣就建立了圖像上點(diǎn)位移場(chǎng)與光流場(chǎng)之間的關(guān)系。
在圖像坐標(biāo)系下,設(shè)直線Li和Li+1的直線方程分別為
式中:ki、bi、ki+1、bi+1分別為直線Li、Li+1的斜截式直線方程參數(shù)。點(diǎn)pi和點(diǎn)pi+1的坐標(biāo)分別為(xi,yi),(xi+1,yi+1).
點(diǎn)pi處圖像灰度滿足光流恒等式為
式中:Ix、Iy、It分別是圖像上(xi,yi)點(diǎn)處的灰度值在x、y、t 3 個(gè)方向上的差分值。
對(duì)于連續(xù)的第i 幀和第i +1 幀圖像,點(diǎn)pi的稀疏光流場(chǎng)為
聯(lián)立(12)式、(13)式、(14)式,得
式中:除(xi+1,yi+1)坐標(biāo)外,其余均為已知。求解(15)式并代入(14)式即可求取點(diǎn)(xi,yi)處的光流矢量:
遍歷直線Li上的點(diǎn),即可計(jì)算出對(duì)應(yīng)的直線稀疏光流場(chǎng)。
在無(wú)人機(jī)航拍圖像中,地平線往往是最明顯的標(biāo)志物,在圖像經(jīng)過(guò)地平線提取算法處理后,地平線更是可以成為視野中唯一的直線,因此特別適合使用直線稀疏光流場(chǎng)對(duì)于其運(yùn)動(dòng)進(jìn)行分析。本文將使用地平線附近的稀疏光流場(chǎng)作為例子說(shuō)明基于直線稀疏光流場(chǎng)的飛行器姿態(tài)測(cè)量方法。
在圖2模型的基礎(chǔ)上建立地平線的投影關(guān)系模型,如圖3所示,建立大地坐標(biāo)系OwXwYwZw,機(jī)體坐標(biāo)系OXYZ,圖像坐標(biāo)系oxy,大地坐標(biāo)系是以地平線上一點(diǎn)Ow為原點(diǎn)建立的右手系,取豎直向上方向?yàn)閅w軸,地平線方向?yàn)閄w軸;攝像機(jī)與機(jī)體頭部固定連接,以攝像機(jī)光心O 為原點(diǎn)建立右手系OXYZ,其中Z 軸與光軸重合,取豎直向下方向?yàn)閅軸。在焦平面建立圖像坐標(biāo)系oxy,以圖像中心為原點(diǎn)o,x 軸和y 軸分別與OXYZ 坐標(biāo)系的X 軸和Y軸平行。
圖3 地平線投影模型Fig.3 Horizon projection model
以坐標(biāo)系OXYZ 為慣性參考系,在地平線上任取一點(diǎn)P,設(shè)其在OXYZ 坐標(biāo)系下坐標(biāo)為P(X,Y,Z),其在焦平面上的對(duì)應(yīng)點(diǎn)為p'(x,y,z),則點(diǎn)P(X,Y,Z)的運(yùn)動(dòng)方程可描述為
式中:ηx、ηy、ηz是點(diǎn)P 的平移運(yùn)動(dòng)參數(shù);ωx、ωy、ωz是飛行器滾轉(zhuǎn)角速度。分別表征俯仰角速度、偏航角速度和滾轉(zhuǎn)角速度。
將(1)式代入(17)式,得
由于地平線距離很遠(yuǎn),因此在本模型中,可認(rèn)為(8)式中條件可以得到滿足,這樣由(11)式可得
將(19)式代入(18)式,得
對(duì)(20)式整理得
消去Z'得
即可建立光流場(chǎng)與圖像運(yùn)動(dòng)之間的關(guān)系。
因?yàn)辄c(diǎn)P 在地平線上,而地平線距離觀察點(diǎn)的距離可近似為無(wú)窮遠(yuǎn),因此可以近似看作Z→∞,因此消去(22)式中含Z 項(xiàng),即可得
(23)式是一個(gè)關(guān)于ωx、ωy、ωz的線性方程組,只要獲取不少于地平線上不少于3 個(gè)點(diǎn)的光流矢量值,即可解算出飛行器的3 個(gè)角速度。
特別說(shuō)明的是,本文雖然以地平線作為研究對(duì)象說(shuō)明基于直線稀疏光流場(chǎng)的飛行器姿態(tài)測(cè)量方法,但是本方法并不局限于地平線存在的情況,只要無(wú)人機(jī)攝像機(jī)視場(chǎng)中存在典型直線特征(如機(jī)場(chǎng)跑道、道路、樓宇等),本方法同樣適用。
使用連續(xù)兩幀測(cè)試圖像對(duì)于直線稀疏光流場(chǎng)的計(jì)算進(jìn)行仿真,測(cè)試圖像如圖4所示,大小為416×240 像素,黑白圖像。兩幀圖像幀間為0.04 s,首先使用Sobel 算子對(duì)兩幅圖像進(jìn)行邊緣提取,如圖5所示。
圖4 連續(xù)兩幀測(cè)試圖像Fig.4 Two consecutive images
對(duì)第17 幀和第18 幀圖像使用第2 節(jié)中直線稀疏光流場(chǎng)提取算法計(jì)算直線稀疏光流場(chǎng),(16)式中Ix、Iy、It的計(jì)算采用如下差分格式:
圖5 測(cè)試圖像邊緣提取的結(jié)果Fig.5 Edge extraction of test images
式中:δx、δy、δt 為差分步長(zhǎng)。在配備Intel i7 CPU 的計(jì)算機(jī)上,使用MatLab2012 平臺(tái)進(jìn)行數(shù)值仿真,計(jì)算出的直線光流場(chǎng)如圖6所示,耗時(shí)0.223 6 s. 由于沒(méi)有該圖像的標(biāo)準(zhǔn)光流場(chǎng)可以對(duì)比,使用Horn 方法在同樣平臺(tái)上計(jì)算第17 和18 幀全局光流場(chǎng),耗時(shí)3.704 4 s,如圖7所示。
圖6 直線稀疏光流場(chǎng)提取算法獲得的稀疏光流場(chǎng)Fig.6 Sparse line-optical flow field calculated by the proposed method
由上述仿真結(jié)果可以看出,直線稀疏光流場(chǎng)與Horn 算法一樣,都可以精確描述圖像中邊緣附近的運(yùn)動(dòng)情況。由于沒(méi)有該序列圖像的標(biāo)準(zhǔn)光流場(chǎng),使用參考文獻(xiàn)[15]中的光流場(chǎng)誤差測(cè)量算法對(duì)該算法相對(duì)于Horn 算法的進(jìn)行誤差測(cè)量,從而評(píng)估該算法。使用本算法計(jì)算出的直線稀疏光流場(chǎng)與Horn算法計(jì)算出的全局光流場(chǎng)相比,取其邊緣附近對(duì)應(yīng)點(diǎn)的光流值,并按照(25)式計(jì)算各個(gè)點(diǎn)的角誤差,
圖7 采用Horn 算法計(jì)算的全局光流場(chǎng)Fig.7 Global optical flow field calculated by Horn algorithm
式中:wH為Horn 算法計(jì)算的光流矢量;wSLOF為本算法計(jì)算的光流矢量。
計(jì)算本算法得到光流場(chǎng)相對(duì)于Horn 算法得到的光流場(chǎng)的相對(duì)平均角誤差(RAAE)和相對(duì)標(biāo)準(zhǔn)差(RSTD),見(jiàn)表1.
表1 本算法相對(duì)于Horn 算法獲取的光流場(chǎng)誤差Tab.1 RAAE and RSTD errors of globe optical flow field calculated by the proposed method
從上述誤差分析結(jié)果來(lái)看,使用直線稀疏光流場(chǎng)提取算法獲取的光流場(chǎng)在圖像邊緣附近的精度與Horn 算法獲得的較為接近,平均誤差為4.733 9° ±2.875 2°,因此可以替代后者對(duì)圖像中直線特征的邊緣區(qū)域進(jìn)行光流分析;同時(shí),由于使用本方法的時(shí)間開(kāi)銷要遠(yuǎn)遠(yuǎn)小于Horn 算法,耗時(shí)僅相當(dāng)于后者的6%,因此本算法更適合諸如無(wú)人飛行器視覺(jué)導(dǎo)航等對(duì)于算法實(shí)時(shí)性要求較高的場(chǎng)合應(yīng)用。
為了驗(yàn)證直線稀疏光流場(chǎng)的姿態(tài)提取算法,使用無(wú)人機(jī)搭載攝像機(jī)進(jìn)行航拍實(shí)驗(yàn),同時(shí)利用機(jī)載導(dǎo)航設(shè)備記錄姿態(tài)信息。機(jī)載導(dǎo)航設(shè)備使用ADIS16405 陀螺測(cè)量飛行器實(shí)時(shí)的角速度信息,其動(dòng)態(tài)響應(yīng)范圍為±300°/s,采樣率為100 Hz,三軸陀螺儀的角速度測(cè)量誤差為±0.05°,加速度計(jì)量程±18 g,測(cè)量誤差±9 mg. 航拍攝像機(jī)采用1/3 in 的CCD 攝像機(jī),視場(chǎng)角是30°,攝像機(jī)有效像素1 024×768.
對(duì)航拍圖像序列離線計(jì)算其直線稀疏光流場(chǎng),估計(jì)飛行器的姿態(tài)信息,并與機(jī)載導(dǎo)航設(shè)備獲取的姿態(tài)信息進(jìn)行比較,驗(yàn)證算法的可行性。
首先對(duì)航拍圖像進(jìn)行地平線提取,提取算法采用Sobel 邊緣提取復(fù)合旋轉(zhuǎn)投影算法提取地平線[2],在此不再贅述。部分幀地平線提取結(jié)果如圖8所示。
圖8 第36 幀和第37 幀地平線提取結(jié)果Fig.8 Horizons extracted in 36th frame and 37th frame
依據(jù)直線稀疏光流場(chǎng)提取算法,可得兩幀之間的直線光流場(chǎng)如圖8所示,用時(shí)0.328 7 s.
圖9為使用本文方法獲取的直線稀疏光流場(chǎng)。為了對(duì)比,同時(shí)使用Horn 算法計(jì)算兩幀圖像間的全局光流場(chǎng),耗時(shí)4.713 s,光流場(chǎng)如圖10所示。由上述仿真結(jié)果可以看出,使用直線稀疏光流場(chǎng)提取算法獲取的圖像地平線光流相較于使用Horn 方法計(jì)算而得到的全局光流,更不易受到諸如地面水體反射、空中云霧等噪聲的影響,因此可以更準(zhǔn)確地估計(jì)出圖像中直線部分的光流信息,同時(shí)相比Horn 方法具有更快的計(jì)算速度。
圖9 使用直線稀疏光流提取得到的稀疏光流場(chǎng)Fig.9 Sparse line-optical flow field calculated by the proposed method
獲取圖像的直線稀疏光流場(chǎng)后,利用(23)式即可完成飛行器俯仰角速度、滾轉(zhuǎn)角速度和偏航角速度的解算。對(duì)100 幀航拍圖像使用上述方法進(jìn)行計(jì)算,并對(duì)比機(jī)載導(dǎo)航系統(tǒng)角速度陀螺的輸出,如圖11~圖13所示。
圖10 使用Horn 方法計(jì)算的圖像全局光流場(chǎng)Fig.10 Global optical flow field calculated by Horn algorithm
圖11 使用稀疏光流場(chǎng)進(jìn)行的滾轉(zhuǎn)角速度估計(jì)及其估計(jì)誤差曲線Fig.11 Roll rate and its errors estimated with sparse optical flow field
結(jié)合圖11~圖13可看出,使用稀疏光流場(chǎng)可以用來(lái)估計(jì)俯仰、偏航、滾轉(zhuǎn)三通道的飛行器角速度信息,其最大估計(jì)誤差除滾轉(zhuǎn)通道小于±10°/s 外,其余兩通道最大估計(jì)誤差均小于±5°/s. 還可發(fā)現(xiàn),稀疏光流場(chǎng)估計(jì)姿態(tài)角的精度與該通道的角速度正相關(guān),在角速度比較小的情況下,使用稀疏光流場(chǎng)還是可以獲得較高的估計(jì)精度,而當(dāng)飛行器角速度增大時(shí),估計(jì)誤差隨即增大。
造成這種估計(jì)誤差較大的一個(gè)因素是圖像信息的采樣率要低于角速度陀螺的采樣率,本飛行實(shí)驗(yàn)采用的陀螺采樣率達(dá)到100 Hz,而使用航拍圖像的圖像幀率只有25 幀/s,由于光流估計(jì)的數(shù)據(jù)采樣率不足,從而帶來(lái)了一定的估計(jì)誤差;另一個(gè)因素是本文中只使用了地平線一條直線計(jì)算其附近的稀疏光流場(chǎng),帶來(lái)了一定的估計(jì)誤差,理論上在進(jìn)行合理的直線匹配之后,本算法可以獲取視場(chǎng)中多條典型直線特征附近的稀疏光流場(chǎng),利用多條直線的稀疏光流場(chǎng)進(jìn)行姿態(tài)角估計(jì)將提高本算法的估計(jì)精度。
圖12 使用稀疏光流場(chǎng)進(jìn)行的俯仰角速度估計(jì)及其估計(jì)誤差曲線Fig.12 Pitch rate and errors estimated with sparse optical flow field
本文提出了一種基于直線的稀疏光流場(chǎng)計(jì)算方法,并進(jìn)行了理論分析與仿真,確定了該方法在計(jì)算圖像局部光流問(wèn)題上的有效性;并提出了一種基于直線稀疏光流場(chǎng)的飛行器姿態(tài)角信息提取方法,是現(xiàn)有無(wú)人飛行器導(dǎo)航手段的有效替代和補(bǔ)充。通過(guò)該方法,可以實(shí)時(shí)提取飛行器的俯仰角速度、滾轉(zhuǎn)角速度和偏航角速度信息。對(duì)實(shí)際飛行實(shí)驗(yàn)獲得航拍數(shù)據(jù)進(jìn)行仿真并對(duì)比同時(shí)采集的導(dǎo)航數(shù)據(jù),結(jié)果顯示,該算法在滾轉(zhuǎn)通道角速度誤差在±10°/s,在俯仰和偏航通道角速度估計(jì)誤差均小于±5°/s.
需要指出的是,該方法不僅能夠獲得地平線附近的直線稀疏光流場(chǎng),通過(guò)合理的直線匹配,該方法也可以計(jì)算出視場(chǎng)中存在的多條典型直線特征附近的稀疏光流場(chǎng)。使用上述多條直線的稀疏光流場(chǎng)來(lái)估計(jì)飛行器的姿態(tài)信息,將可以提高本算法的估計(jì)精度。
圖13 使用稀疏光流場(chǎng)進(jìn)行的偏航角速度估計(jì)及其估計(jì)誤差曲線Fig.13 Yaw rate and its errors estimated with sparse optical flow field
References)
[1] 蔡瑜,葉雄英,朱榮,等. 用于微小飛行器姿態(tài)測(cè)量的紅外地平儀研制[J]. 儀表技術(shù)與傳感器,2009 (7):33 -35.CAI Yu,YE Xiong-ying,ZHU Rong,et al. Infrared horizon detector making for measuring micro air vehicle attitude[J]. Instrument Technique and Sensor,2009(7):33 -35. (in Chinese)
[2] Bao G Q,Xiong S S,Zhou Z Y. Vision-based horizon extraction for micro air vehicle flight control[J]. IEEE Transactions on Instrumentation and Measurement,2005,54(3):1067 -1072.
[3] Pereira G A S,Iscold P,Torres L A B. Airplane attitude estimation using computer vision:simple method and actual experiments[J].Electronics Letters,2008,44(22):1303 -1305.
[4] Ettinger S M,Nechyba M C,Ifju P G,et al. Vision guided flight stability and control for micro air vehicles[J]. Advanced Robotics,2003,17(7):617 -640.
[5] Todorovic S,Nechyba M C,Ifju P G. Sky/ground modeling for autonomous MAV flight[C]∥IEEE International Conference on Robotics and Automation. Taipei:IEEE,2003:1422 -1427.
[6] Fefilatyev S,Smarodzinava V,Hall L O,et al. Horizon detection using machine learning techniques[C]∥Proceedings of 5th International Conference on Machine Learning and Applications. Orlando,US:IEEE,2006:17 -21.
[7] Chiu C C,Lo C T. Vision-only automatic flight control for small uavs[J]. IEEE Transactions on Vehicular Technology,2011,60(6):2425 -2437.
[8] Cornall T D,Egan G K,Price A. Aircraft attitude estimation from horizon video[J]. Electronics Letters,2006,42(13):744 -745.
[9] Thurrowgood S,Moore R J D,Bland D,et al. UAV attitude control using the visual horizon[C]∥Proceedings of the 2010 Australasian Conference on Robotics and Automation. Brisbane,Australia:IRAA,2010.
[10] Grzywna J W,Jain A,Plew J,et al. Rapid development of visionbased control for MAVs through a virtual flight testbed[C]∥IEEE International Conference on Robotics and Automation. Barcelona,Spain:IEEE,2005:3696 -3702.
[11] 程序,郝群,宋勇,等. 基于直線模型的衛(wèi)星飛行器姿態(tài)角計(jì)算[J]. 北京理工大學(xué)學(xué)報(bào),2010,30(7):798 -802.CHENG Xu,HAO Qun,SONG Yong,et al.Method for calculating MAV attitude angles based on straight line model[J]. Transactions of Beijing Institute of Technology,2010,30(7):798 -802. (in Chinese)
[12] Dusha D,Mejias L,Walker R. Fixed-wing attitude estimation using temporal tracking of the horizon and optical flow[J]. Journal of Field Robotics,2011,28(3):355 -372.
[13] Shabayek A E R,Demonceaux C,Morel O,et al. Vision based UAV attitude estimation:progress and insights[J]. Journal of Intelligent & Robotic Systems,2012,65(1/2/3/4):295 -308.
[14] Horn B K,Schunck B G. Determining optical flow[J].Artificial Intelligence,1981,17:185 -203.
[15] Lucas B D,Kanade T. An iterative image registration technique with an application to stereo vision[C]∥Proceedings of 7th International Joint Conference on Artificial Intelligence. Vancouver. British Columbia,Canada:San Francico,CA:Morgan Kaufmann Pubishers Inc,1981:674 -679.
[16] Terzopoulos D. Regularization of inverse visual problems involving discontinuities[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1986,8(4):413 -424.
[17] Hildreth E C. The measurement of visual motion[M]. Cambridge,Massachusetts:MIT Press,1984.
[18] Barron J L,F(xiàn)leet D J,Beauchemin S S. Performance of optical flow techniques[J]. International Journal of Computer Vision,1994,12(1):43 -77.