賴慶峰,葉俊勇
(重慶大學光電技術及系統(tǒng)教育部重點實驗室,重慶400044)
接觸網(wǎng)是軌道交通牽引供電系統(tǒng)的重要組成部分。為保證軌道交通的正常運營,接觸網(wǎng)檢修是軌道交通運營維護中的重要工作,而接觸網(wǎng)磨損檢測又是其中的重點和難點。目前,電氣化鐵路中接觸網(wǎng)磨損檢測的方法主要有:圖像檢測法、激光掃描法、殘高測量法三大類[1]。Kalikin[2]等介紹了基于結(jié)構(gòu)光的鐵路接觸網(wǎng)檢測系統(tǒng)。占棟[3]等針對地鐵供電系統(tǒng)設計了基于線陣相機的接觸軌幾何參數(shù)動態(tài)檢測系統(tǒng),系統(tǒng)的檢測精度為±2mm。朱挺[4]根據(jù)上海城軌交通接觸網(wǎng)的特點研究了開發(fā)專用非接觸式接觸網(wǎng)檢測系統(tǒng)的關鍵技術。
重慶市跨座式單軌交通采用的剛性接觸網(wǎng)[5]在結(jié)構(gòu)設計、安裝位置和授流方式等方面均與電氣化鐵路和地鐵軌道交通的接觸網(wǎng)有很大的區(qū)別。以上所述檢測方法都無法直接使用在跨座式單軌交通的接觸網(wǎng)磨損檢測中。目前,跨座式單軌交通的接觸網(wǎng)磨損檢測主要依靠人工巡檢的方式,其安全性差,勞動強度大,工作效率低,缺乏準確性和規(guī)范化,無法保證檢測精度。因此,跨座式單軌交通的接觸網(wǎng)磨損檢測要求由人工檢測向自動化檢測技術發(fā)展,以使接觸網(wǎng)磨損檢測與評估更快速、安全、可靠。
針對跨座式軌道交通接觸網(wǎng)的特點進行了研究,進而設計了一種基于線陣立體視覺的接觸網(wǎng)磨損檢測方法。對于立體視覺的匹配問題,提出一種基于FAST[6]和SURF[7]特征匹配的線陣立體視覺匹配算法。算法結(jié)合了FAST特征點的快速、稠密和SURF特征向量對于旋轉(zhuǎn)、平移不變性等特點。能夠生成準確、稠密的視差圖,進而計算出接觸網(wǎng)的殘高值,以方便對其及時進行維護和檢修。
線陣立體視覺由2臺線陣相機搭建而成,其原理是機器視覺技術[8]。如圖1所示,AB為左相機的像平面,CD為右相機的像平面,且AB和CD 精確位于同一平面。假設左右相機的光軸(光軸是從投影中心O朝向主點C方向引出的一條射線)平行,并且假設主點Cleft和Cright已經(jīng)校準,在左右圖像上具有相同的像素坐標,左右相機的焦距相等。進一步假設相機是前向平行排列(即左右相機的像素行完全對準)。假設立體相機的有效視場中有一點P,其在左右相機上的成像點為PL和PR,相應的水平像素坐標值為XL和XR。B為兩相機之間的基線距。視差定義為。則點P的深度Z可由相似三角測量原理[9]推導得出:
圖1 共面線陣立體視覺原理
B和f可由相機標定技術[10]計算得出,因此計算點P的深度Z的關鍵是獲得準確稠密的視差值d。
立體視覺的圖像匹配是圖像處理領域的熱點和難點?,F(xiàn)有圖像匹配技術大致分為基于灰度值和基于特征兩大類。其中,基于特征的方法具有計算量小,良好的魯棒性,對圖像旋轉(zhuǎn)、平移、亮度變化具有較好的適應能力等優(yōu)點而獲得了廣泛的應用,常用的特征有角點、邊緣和區(qū)域等。
特征點的提取是后續(xù)的圖像匹配基礎?,F(xiàn)有的特征點提取算法有 FAST,SIFT[11]和SURF等。FAST是Rosten和Dru mmond于2006年提出的一種簡單、快速的角點檢測算法,能提取出大量的特征點。但其沒有相關的特征描述符使不具備旋轉(zhuǎn)和平移不變性。Lowe提出的SIFT算法具有旋轉(zhuǎn)、尺度和亮度不變性及良好的抗噪聲能力。但其時間復雜度高、算法耗時長。Bay等人于2006年提出了SURF算法,該算法的性能接近SIFT,由于引入積分圖像的概念,使得其具有耗時少、計算速度快等優(yōu)點,但獲得的匹配點數(shù)量少。
針對上述算法的不足,提出的基于FAST和SURF特征的匹配算法結(jié)合了兩者的優(yōu)點。在FAST算法檢測出的大量特征點基礎上為特征點構(gòu)造SURF特征向量使其具有平移和旋轉(zhuǎn)不變性。從而能夠快速、準確的匹配出大量的匹配點?;贔AST和SURF特征匹配的算法的框架如圖2所示。具體步驟為:
①對于對應的接觸網(wǎng)圖像用FAST特征檢測算法提取左右圖像的FAST特征點集。
②為上述檢測出的所有特征點集確定主方向并構(gòu)造相應的SURF特征向量。
③采用雙向FLANN算法[12]匹配左右圖像的特征點集,得出對應的匹配點對。
④用隨機抽樣一致性算法(RANSAC)[13]剔除匹配點對中的誤匹配點對。
圖2 算法框架
FAST特征檢測算法能快速,有效的提取出大量的特征點。FAST算法將檢測特征點定義為:特征點的領域有足夠多的像素值大于或小于該點的像素值。FAST特征檢測算法基于特征點周圍的圖像像素值,檢測候選特征點周圍一圈的像素值,如果候選點周圍領域內(nèi)有足夠多的像素點與該候選點的灰度值差別超過閾值,則認定該候選點為一個特征點。
I(p)為圓心的像素值;I(x)為圓周上任意一點的像素值;Ed為像素值差的閾值。如果N大于給定閾值則認為是一個特征點。
為使得FAST特征點具有旋轉(zhuǎn)和平移不變性。需要利用FAST特征點鄰域像素的梯度方向特性,為每一個特征點計算SURF特征向量[14],使得特征點具有對圖像的平移和旋轉(zhuǎn)不變性,從而能夠準確的進行匹配。
首先,需要為每一個特征點確定一個主方向。在以FAST特征點為中心,6s(s為特征點的尺度)為半徑的圓形區(qū)域內(nèi),統(tǒng)計60°扇形內(nèi)所有像素點的水平和垂直Harr小波響應總和,這樣每一個扇形都得到了一個值。然后扇形以0.2rad為步長進行旋轉(zhuǎn),最后將響應值最大那個扇形的方向作為該特征點的主方向。
其次,基于Harr響應生成特征向量,在特征點周圍取一個正方形框,框的邊長為20s,該框的方向為以上所檢測出來的主方向。然后將這個框分為個子區(qū)域,統(tǒng)計每個子區(qū)域5s×5s范圍內(nèi)的水平和垂直方向的Harr小波響應分別為dx和dy,這里是水平和垂直方向都是相對于主方向而言的。然后將每個區(qū)域的響應系數(shù)及其絕對值相加形成特征向量。則每個子區(qū)域的Harr小波特征矢量為v=(∑dx,∑|dx|,∑dy,∑|dy|)。這樣每個小區(qū)域就有4個值,每個特征點就有(4×4)×4=64維的特征向量。再對特征向量進行歸一化處理,就能夠使其對光照具有一定的魯棒性。
對于對應的左右圖像FAST提取的特征點構(gòu)造SURF特征向量之后,需要進行特征點匹配。為提高匹配的速率,采用雙向快速近似最近鄰(FLANN)搜索算法進行匹配。對于提取的左圖像特征點集P和右圖像特征點集Q,雙向FLANN算法步驟如下:
a.對于P中一點pi,使用FLANN算法計算在Q中的與pi的SURF特征向量具有最小歐氏距離的一點qj,得到初始匹配點對(pi,qj)。
b.對于Q中一點qm,使用FLANN算法計算在P中的與qm的SURF特征向量有最小歐氏距離的一點pn,得到初始匹配點對(pn,qm)。
c.僅當i=n,且j=m時才認為匹配成功。
d.遍歷P和Q中的所有點,找到所有初始匹配點集。對于初始匹配點集中的匹配點對,利用隨機抽樣一致性(RANSAC)算法剔除歐氏距離大于閾值的誤匹配點對。
為了驗證方法的有效性和合理性,共進行了2組實驗。實驗1比較FAST-SURF特征匹配算法和SURF及SIFT在匹配的特征點數(shù)量和匹配時間上的差異。以此說明匹配算法的的快速性和稠密性。實驗2試驗算法對基線距與光照亮度的魯棒性并對本文方法檢測接觸網(wǎng)殘高值與人工測量的數(shù)據(jù)進行對比分析。實驗數(shù)據(jù)來源于采用2個e2v公司的AviivA SM2系列高速線陣相機和Euresys公司的Grablink Expert2圖像采集卡同步采集的線掃描圖像,圖像大小為500像素×800像素。實驗環(huán)境的CPU為Inter Pentium Dual,主頻1.60GHz,內(nèi)存3GB,操作系統(tǒng)為 Windows 7,開發(fā)環(huán)境為 Microsoft Visual Studio 2010。
為了比較SIFT,SURF和FAST-SURF算法在特征提取數(shù)量及匹配速度上的差異,分別用相應的算法對3組不同的接觸網(wǎng)圖像進行匹配,實驗結(jié)果如表1所示。圖3a、圖3b分別是用SIFT算法所提取的特征點和匹配的圖像;圖3c、圖3d分別是用SURF算法所提取的特征點和匹配圖像;圖3e、圖3f分別是用FAST-SURF算法所提取的特征點和匹配圖像。
由表1可以得出以下結(jié)論:SURF和SIFT匹配算法所提取的特征點總數(shù)、匹配點個數(shù)和誤匹配點個數(shù)都相差不大,但是SURF匹配所用的時間只占SIFT算法70%左右。SURF作為SIFT的改進算法,其性能與SIFT相似,但由于引入了積分圖像以及特征向量的維數(shù)降低,使得SURF的運行速度大大提高了。所以選用SURF算法而不用SIFT。此外,F(xiàn)AST-SURF匹配所提取的特征點總數(shù)是以上2種匹配算法的5.7倍,匹配點的個數(shù)是以上兩種匹配算法的6倍,單位時間所匹配的特征點個數(shù)均比以上2種匹配算法多。以看出不同基線距(即相機之間的位移)對于圖像的匹配基本不會產(chǎn)生影響。圖7表示在圖像亮度增加情況下,2種算法都會有匹配點減少的趨勢,但是本文算法的匹配數(shù)量始終比SURF算法要多。
表1 SIFT,SURF和FAST-SURF提取的特征點數(shù)、匹配點數(shù)量和耗時
圖3 用SIFT,SURF和FAST-SURF算法所提取的特征點及匹配結(jié)果
由式(1)可以將匹配所得的視差圖計算得出接觸網(wǎng)的深度值,進而得出接觸網(wǎng)的殘高。為了驗證本方法的精度,用本文方法測量了厚度為10mm的標準件。實際測得的標準件厚度為9.853mm??梢姳窘佑|網(wǎng)磨損檢測方法的檢測精度在1mm以內(nèi)。
圖4 無磨損接觸網(wǎng)圖像和對應的三維視差
從圖3也可以直觀的看出各算法匹配效果之間的區(qū)別。綜上所述,F(xiàn)AST-SURF匹配算法在所提取的特征點和匹配點不僅在數(shù)量上比SIFT和SURF匹配算法得到了成倍的提升,在匹配速度上也比這兩種算法快。
為驗證檢測方法的有效性,對采集的接觸網(wǎng)圖像進行分析。對于無磨損的接觸網(wǎng)圖像和有磨損的接觸網(wǎng)圖像進行對比分析。圖4a為無磨損接觸網(wǎng)原圖像,圖4b為由本文算法所匹配得出的三維視差圖。圖5a為磨損接觸網(wǎng)的原圖像,圖5b、圖5c為用本文算法所匹配得出的三維視差圖??梢灾庇^的看出能夠準確地檢測出接觸網(wǎng)的磨損情況。圖6表示在2個相機的基線距變化的情況下的匹配情況,可
圖5 磨損接觸網(wǎng)圖像和對應的三維視差
圖8為本文測量方法測得的接觸網(wǎng)殘高和用游標卡尺人工測量數(shù)據(jù)的精度驗證曲線圖,可以看出本文檢測方法能準確的檢測接觸網(wǎng)的磨損情況,達到了預期的設計效果。
圖6 不同基線距下的匹配情況
圖7 不同光照亮度下的匹配情況
圖8 接觸網(wǎng)殘高檢測精度驗證曲線
跨座式單軌交通的接觸網(wǎng)不同于鐵路和地鐵的接觸網(wǎng)系統(tǒng),需要針對其設計出實際可行的接觸網(wǎng)磨損檢測方法。采用基于線陣立體視覺的接觸網(wǎng)磨損檢測方法,其中基于FAST和SURF的特征匹配算法結(jié)合了FAST特征檢測算法簡單、快速、高效和SURF特征描述子的旋轉(zhuǎn)、平移不變性,能十分快速精確的檢測出接觸網(wǎng)的磨損情況。從實驗數(shù)據(jù)來看,所檢測的數(shù)據(jù)與人工所測數(shù)據(jù)的符合率非常之高,對于自動化的跨座式單軌交通的接觸網(wǎng)磨損檢測系統(tǒng)的研究具有一定的實用價值。今后,可以在匹配算法上進行改進,以進一步加快匹配的速度,盡可能達到實時性要求。
[1] 彭朝勇,高曉蓉.國外接觸網(wǎng)磨耗檢測系統(tǒng)[J].中國鐵路,2007,46(04):66-68.
[2] Kalikin V E,Verkhogliad A G,Kalichkin S V.Automatic opto-lectronic system for inspection of wire wear using high-speed image analysis[C]//Proceeding of the 8th International Conference,2011:201-204.
[3] 占棟,陳唐龍,于龍,等.基于線陣相機的接觸軌幾何參數(shù)動態(tài)檢測系統(tǒng)[J].現(xiàn)代城市軌道交通,2012,9(01):41-44.
[4] 朱挺.新型國產(chǎn)軌道交通接觸網(wǎng)檢測系統(tǒng)研究[J].都市軌道交通,2012,25(6):12-16.
[5] 謝風華.跨座式單軌接觸網(wǎng)結(jié)構(gòu)設計[J].現(xiàn)代城市軌道交通,2005,4(04):12-14.
[6] Rosten,Drummond T.Machine learning for high-speed corner detection[C]//European Conference on Computer Vision,Graz,Austria,2006:430-443.
[7] Bay H,Ess A,Tuytelarrs T,etal.SURF:Speed up robust features[J].Computer Vision and Image Understanding,2008,110(3):346-359.
[8] Carsten Steger,Markus Ulrich.機器視覺算法與應用[M].北京:清華大學出版社,2008.
[9] Gary Bradski,Adiran Kaebler.學習 OpenCV(中文版)[M].于仕琪,劉瑞禎,譯.北京:清華大學出版社,2009.
[10] Zhang Z.A flexible new technique for camera calibration[J].IEEE Transactions on Pattern Analysis and.4 Machine Intelligence,2000,22(11):1330-1334
[11] Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[12] 趙璐璐,耿國華,李康,等.基于SURF和快速近似最近鄰搜索的圖像匹配算法[J].計算機應用研究,2013,30(3):921-923.
[13] Fischler M A,Bolles R C.Random sample consensus:aparadigm for model fitting with applications to image analysis and automated cartography[J].Communications of the ACM,1981,24(6):381-395.
[14] 林曉帆,林立文,鄧濤.基于SURF描述子的遙感影像配準[J].計算機工程,2010,36(12):216-218.