王 笛,胡遼林
(西安理工大學(xué)機(jī)械與精密儀器工程學(xué)院,陜西西安 710048)
雙目立體視覺(jué)是模擬人的視覺(jué)系統(tǒng)來(lái)構(gòu)建現(xiàn)實(shí)世界[1].立體匹配作為三維重建、非接觸測(cè)距等技術(shù)的關(guān)鍵,是雙目視覺(jué)的核心內(nèi)容之一[2].通過(guò)二維圖像來(lái)獲取深度,具有實(shí)現(xiàn)簡(jiǎn)單、成本低廉、可在非接觸條件下測(cè)距等優(yōu)點(diǎn)[3],在機(jī)器人制導(dǎo)系統(tǒng)中可以用于導(dǎo)航判斷、目標(biāo)拾取,在工業(yè)自動(dòng)化控制系統(tǒng)中可用于零部件安裝、質(zhì)量檢測(cè)、環(huán)境檢測(cè),在安防監(jiān)控系統(tǒng)中可用于人流檢測(cè)、危害報(bào)警等[4].
立體匹配算法根據(jù)匹配基元和方式的不同分為區(qū)域匹配、特征匹配、相位匹配、能量匹配.區(qū)域匹配受圖像的仿射和輻射畸變影響較大,約束窗口選擇困難,深度不連續(xù)處易產(chǎn)生誤匹配;特征匹配對(duì)圖像幾何變換不敏感,具有較強(qiáng)的抗干擾性且復(fù)雜度?。?],缺陷是視差結(jié)果稀疏,需通過(guò)插值、擬合等過(guò)程;相位匹配算法對(duì)旋轉(zhuǎn)變換非常敏感且奇異點(diǎn)不穩(wěn)定;能量匹配通過(guò)構(gòu)建全局能量函數(shù)獲取視差,無(wú)法用于較大偏差圖像,且復(fù)雜性過(guò)高.當(dāng)前,王陽(yáng)萍等人提出結(jié)合加速魯棒特征的遙感影像半全局立體匹配,用特征點(diǎn)來(lái)引導(dǎo)路徑聚合[6];Feng 等人提出了一種基于ADCensus 特征的立體匹配算法增強(qiáng)對(duì)局部噪聲像素的魯棒性[7];Hui 等人提出了一種結(jié)合漢明距離和仿射變換的SURF-BRISK算法匹配定位方法[8];肖進(jìn)勝等人提出優(yōu)化斜平面的雙目立體匹配算法,提高運(yùn)算速度[9].
本文是基于特征的稠密立體匹配,首先采用線性對(duì)比度展寬突出圖像重要紋理,用加速分割檢測(cè)特征(Features from Accelerated Segment Test,F(xiàn)AST)提取特征信息,對(duì)特征進(jìn)行加速魯棒特征(Speeded Up Robust Feature,SURF)描述后依靠快速近似最近鄰搜索庫(kù)[10](Fast Library for Approximate Nearest Neighbors,F(xiàn)LANN)和K-近鄰(K-Nearest Neighbors,KNN)算法實(shí)現(xiàn)特征匹配,再使用隨機(jī)抽樣一致性算法[11](Random Sample Consensus,RANSAC)去除誤匹配;將得到的精確匹配點(diǎn)對(duì)作為種子點(diǎn)對(duì)依據(jù)視差連續(xù)性準(zhǔn)則進(jìn)行擴(kuò)散生長(zhǎng)并計(jì)算視差,匹配代價(jià)利用簡(jiǎn)化的零均值歸一化互相關(guān)系數(shù)[12](Zero-mean Normalized Cross-Correlation,ZNCC)作為相似度量函數(shù)計(jì)算,獲取最小代價(jià)值點(diǎn)對(duì)并通過(guò)閾值剔除部分誤匹配,使用極線約束降低搜索復(fù)雜度,采用雙向匹配策略提升匹配的準(zhǔn)確性;對(duì)視差值進(jìn)行亞像素?cái)M合處理[13]得到子像素視差從而提高視差精度,使視差連續(xù)區(qū)域過(guò)渡平滑;使用加權(quán)中值濾波[14](Weighted Median Filter,WMF)消除噪聲點(diǎn)和條紋同時(shí)防止邊緣模糊.經(jīng)Middlebury 實(shí)驗(yàn)圖像從主觀與客觀方面對(duì)比分析,本文算法解決了特征匹配存在的不足,降低了時(shí)間復(fù)雜度和噪聲的干擾,在準(zhǔn)確性和精度上明顯提升,尤其是弱紋理與深度不連續(xù)部分.SURF 算法與ZNCC 算法的魯棒特性使本文方法對(duì)亮度變化不敏感.
雙目視覺(jué)是在不同視點(diǎn)的兩個(gè)相機(jī)拍攝同一場(chǎng)景,通過(guò)立體匹配找到對(duì)應(yīng)的同名點(diǎn),同名點(diǎn)橫坐標(biāo)之差即為相應(yīng)的視差信息,再根據(jù)三角測(cè)量原理獲取深度信息[15].針對(duì)當(dāng)前特征立體匹配算法存在的問(wèn)題,本文設(shè)計(jì)了結(jié)合改進(jìn)區(qū)域生長(zhǎng)等方法的稠密立體匹配.步驟如下:第一,圖像進(jìn)行灰度化及線性對(duì)比度展寬處理;第二,檢測(cè)特征點(diǎn)并完成特征匹配;第三,對(duì)種子點(diǎn)對(duì)進(jìn)行改進(jìn)區(qū)域生長(zhǎng)獲取稠密視差;第四,對(duì)視差進(jìn)行亞像素?cái)M合、加權(quán)中值濾波等精細(xì)化后處理.算法流程如圖1所示.
圖1 算法流程圖
左右彩色圖像通過(guò)將R,G,B 分量加權(quán)平均的過(guò)程轉(zhuǎn)化為灰度圖像.
灰度的線性變換可以突出圖像中的重要信息,圖像中重要的紋理因?qū)Ρ榷炔蛔愣粔蚯逦鷷r(shí),通過(guò)抑制非重要信息讓期望部分進(jìn)行對(duì)比度展寬.為了特征點(diǎn)檢測(cè)均勻、豐富,區(qū)域生長(zhǎng)過(guò)程代價(jià)計(jì)算精確,利于弱紋理區(qū)匹配,采用線性對(duì)比度展寬對(duì)圖像進(jìn)行預(yù)處理.
FAST 特征提取算法是利用特征點(diǎn)周?chē)膱D像灰度差異進(jìn)行檢測(cè).判別圖中任意一點(diǎn)P 是否為特征點(diǎn),以該點(diǎn)為圓心,構(gòu)造一個(gè)半徑為3 的圓,圓周上的像素點(diǎn)與中心像素點(diǎn)進(jìn)行比較.
設(shè)I(p)和I(x)分別為中心點(diǎn)與圓周上點(diǎn)的灰度值,εd為設(shè)置的閾值.如果圓周上的16 個(gè)像素點(diǎn)至少有N 個(gè)連續(xù)都比I(p)+εd大或者比I(p)-εd小,則候選點(diǎn)P是一個(gè)特征點(diǎn).N為滿(mǎn)足公式(1)的點(diǎn)的個(gè)數(shù),一般取12.
本文選擇優(yōu)先檢測(cè)P點(diǎn)四鄰域方向圓周上的頂點(diǎn),減少檢測(cè)耗時(shí).如果至少有3 個(gè)點(diǎn)滿(mǎn)足式(1),再按上述檢測(cè)條件進(jìn)行判定;如不滿(mǎn)足,則其不是特征點(diǎn).
特征檢測(cè)后,選取特征點(diǎn)的主方向.構(gòu)造一個(gè)圓形領(lǐng)域,以特征點(diǎn)為中心、半徑為6s(s 為特征點(diǎn)的尺度值),統(tǒng)計(jì)特征領(lǐng)域內(nèi)水平和垂直方向哈爾(Harr)小波特征,對(duì)卷積響應(yīng)賦予高斯權(quán)重,獲取60度扇形內(nèi)所有點(diǎn)的水平和垂直方向Haar小波響應(yīng)總和得到了一個(gè)矢量.然后進(jìn)行旋轉(zhuǎn)遍歷,比較得出矢量最長(zhǎng)的那個(gè)扇形的方向作為該特征點(diǎn)的主方向.
獲得特征點(diǎn)的主方向后,將主方向作為x 軸,建造一個(gè)以特征點(diǎn)為中心,邊長(zhǎng)為20s 的正方形區(qū)域,再等分為4×4=16個(gè)子區(qū)域,計(jì)算每個(gè)子區(qū)域的Haar小波響應(yīng),水平和垂直Haar小波響分別記為dx和dy,統(tǒng)計(jì)每個(gè)子區(qū)域的響應(yīng)總和與響應(yīng)絕對(duì)值之和,則每個(gè)子區(qū)域表示為四維的特征向量V.
每個(gè)特征點(diǎn)就由16 個(gè)子區(qū)域的特征向量組成,最終形成一個(gè)16×4=64 維的具有尺度、光照不變性[16]的SURF特征向量描述符.
采用基于FLANN 的K(K 取2)近鄰搜索算法實(shí)現(xiàn)特征匹配.尋找左圖像對(duì)應(yīng)右圖像的最近鄰和次近鄰特征點(diǎn)對(duì),設(shè)定閾值(本文取0.6),若最近鄰與次近鄰的距離比值小于閾值,則接受最近鄰這一匹配點(diǎn)對(duì).本算法在匹配的同時(shí)進(jìn)行去粗取精,刪掉一些誤匹配.
再利用隨機(jī)抽樣一致性算法進(jìn)行單應(yīng)性矩陣映射來(lái)剔除誤匹配.從匹配點(diǎn)對(duì)中隨機(jī)抽出4 個(gè)樣本數(shù)據(jù)(樣本之間不能共線),計(jì)算出變換矩陣H,用矩陣H測(cè)試其他點(diǎn)對(duì)估算誤差,設(shè)定一個(gè)閾值,若滿(mǎn)足估算的誤差小于設(shè)定閾值,則將其納入內(nèi)點(diǎn),否則視為外點(diǎn).對(duì)新的內(nèi)點(diǎn)進(jìn)行上述步驟迭代計(jì)算,當(dāng)單應(yīng)性矩陣沒(méi)有更改或者達(dá)到迭代次數(shù),那么最終得到的矩陣H就是最佳參數(shù)矩陣.
式(3)中k為迭代次數(shù),p為置信度(取0.995),w為內(nèi)點(diǎn)的比例,m為計(jì)算矩陣最小的樣本數(shù).
圖2是特征點(diǎn)獲取匹配的結(jié)果,可以看出預(yù)處理后FAST 算法檢測(cè)的特征點(diǎn)更全面,適合本文算法的實(shí)現(xiàn).本文特征匹配算法得到均勻的特征點(diǎn)匹配結(jié)果,將其作為下一步區(qū)域生長(zhǎng)的基礎(chǔ).
圖2 特征檢測(cè)與匹配結(jié)果
經(jīng)過(guò)特征匹配后的準(zhǔn)確稀疏點(diǎn)對(duì)作為種子點(diǎn),按照視差連續(xù)性原則將更多的點(diǎn)并入種子點(diǎn)進(jìn)行視差稠密化,極大地提高了匹配的速度和準(zhǔn)確性.
如圖3 所示,已知左圖像某點(diǎn)P 在右圖像上的同名點(diǎn)為Q,根據(jù)視差連續(xù)性約束,則P 點(diǎn)相鄰的八鄰域內(nèi)某點(diǎn)P1 的同名點(diǎn)必定在Q 點(diǎn)附近,搜索Q 點(diǎn)相鄰的八個(gè)點(diǎn)(八鄰域準(zhǔn)則),又依據(jù)極線約束準(zhǔn)則,即對(duì)應(yīng)的同名點(diǎn)都在同一極線上,將搜索范圍由二維降至一維(三個(gè)點(diǎn)),降低匹配復(fù)雜度且提升準(zhǔn)確性.使用雙向匹配策略,首先從左到右匹配,若左圖像P1經(jīng)過(guò)匹配后得到的同名點(diǎn)為右圖Q1,再用Q1 從右向左匹配,若反向匹配的同名點(diǎn)也是P1,那么就將P1 和Q1 作為一對(duì)正確的匹配點(diǎn)對(duì),計(jì)算視差并將其納入新的種子點(diǎn)對(duì).
圖3 區(qū)域生長(zhǎng)原理圖
采用式(4)零均值歸一化互相關(guān)系數(shù)作為相似度量函數(shù),如圖4所示,在目標(biāo)像素周?chē)O(shè)置搜索窗口(本文取4×4)計(jì)算匹配代價(jià),設(shè)置一個(gè)閾值(本文取2),剔除一些誤匹配點(diǎn)降低噪聲點(diǎn)的影響,若最小的匹配代價(jià)滿(mǎn)足閾值,記錄其對(duì)應(yīng)匹配點(diǎn)對(duì).從式(4)可以看出,計(jì)算匹配窗口的歸一化互相關(guān)系數(shù),對(duì)亮度存在差異的圖像具有較強(qiáng)的魯棒性.
圖4 搜索窗口圖
式(4)中的W表示搜索窗口大小(xL)和(xR)表示左右兩幅圖像上分別以xL和xR為中心的搜索窗口W的平均灰度值,IL(xL+i)和IR(xR+i)是左右兩幅圖像上分別以xL和xR為中心的搜索窗口W內(nèi)點(diǎn)的灰度值.
零均值歸一化函數(shù)計(jì)算匹配代價(jià)重復(fù)求取匹配窗口灰度值均值,過(guò)程煩瑣,使得匹配代價(jià)計(jì)算復(fù)雜度高,本文對(duì)其進(jìn)行變換得到式(5),利用積分圖簡(jiǎn)化計(jì)算,很大程度上減少了冗余步驟,降低了匹配耗時(shí).
積分圖由普通數(shù)字圖像生成,尺寸等于原始圖像,而每個(gè)像素點(diǎn)保存由原始圖像左上角和當(dāng)前像素點(diǎn)確定的矩形范圍的灰度值總和或者灰度值的平方和.
積分圖的數(shù)學(xué)形式為
其中,J(i,j)為原圖中坐標(biāo)為(i,j)的像素點(diǎn)的灰度值,Jsum(x,y)和Jsquare(x,y)分別為積分圖與平方積分圖中像素點(diǎn)坐標(biāo)為(x,y)的灰度值.
得到積分圖后,根據(jù)圖5計(jì)算搜索窗口區(qū)域的所有像素點(diǎn)灰度值和與灰度值的平方和.
圖5 積分圖目標(biāo)區(qū)域值計(jì)算原理
其中,S(x,y)表示原圖窗口內(nèi)的所有像素點(diǎn)灰度值之和,(x,y)為搜索窗口的中心點(diǎn),J是積分圖中對(duì)應(yīng)點(diǎn)的灰度值,搜索半徑k取2.
借助積分圖計(jì)算匹配代價(jià),避免了許多不必要的計(jì)算過(guò)程,大大降低了匹配的復(fù)雜度,縮短了匹配時(shí)間.
經(jīng)過(guò)本文改進(jìn)的區(qū)域生長(zhǎng)立體匹配后,不僅彌補(bǔ)了特征點(diǎn)匹配只能得到稀疏視差的缺陷,還得到了匹配效果較好的視差圖.此時(shí)的初始視差圖仍存在一些問(wèn)題,如噪聲點(diǎn)、精度等,還需要進(jìn)一步精細(xì)化處理,對(duì)視差圖進(jìn)行優(yōu)化和修正,從而獲得準(zhǔn)確性更高效果更佳的結(jié)果.
多數(shù)立體匹配算法是在一個(gè)離散的空間中進(jìn)行運(yùn)算而得到整數(shù)視差值.整數(shù)視差基本滿(mǎn)足機(jī)器人導(dǎo)航和人類(lèi)跟蹤等領(lǐng)域的應(yīng)用,但是對(duì)于圖像繪制與三維重建等技術(shù),由于真實(shí)場(chǎng)景是連續(xù)且漸變的,這些量化的過(guò)程會(huì)導(dǎo)致視點(diǎn)綜合的結(jié)果出現(xiàn)錯(cuò)誤.針對(duì)這個(gè)問(wèn)題,在初始視差計(jì)算的同時(shí)進(jìn)行亞像素精細(xì)化處理來(lái)解決這種缺陷.
本文采用擬合曲線法達(dá)到子像素精細(xì)化的目的.如圖6所示,經(jīng)過(guò)立體匹配得到匹配代價(jià)最適合的c0所對(duì)應(yīng)的整像素視差值d,將其左右兩邊的對(duì)應(yīng)的視差匹配代價(jià)c1和c2也記錄下來(lái),用三個(gè)匹配代價(jià)對(duì)應(yīng)的點(diǎn)做一元二次曲線擬合,計(jì)算擬合曲線的極值點(diǎn)橫坐標(biāo),即可得到亞像素級(jí)的視差值,從而達(dá)到提升視差精度的目的.
圖6 曲線擬合示意圖
初始視差圖還存在一些噪聲點(diǎn)和條紋現(xiàn)象,本文采用5×5 窗口加權(quán)中值濾波處理消除部分誤匹配,增加匹配準(zhǔn)確度,使圖像平滑的同時(shí)保持圖像邊緣的清晰.使用二維元素以窗口內(nèi)像素點(diǎn)的灰度值為橫坐標(biāo)、特征信息(強(qiáng)度)為縱坐標(biāo)建立聯(lián)合直方圖,直方圖中的元素表示在某一灰度值、某一特征值時(shí)的像素點(diǎn)個(gè)數(shù),根據(jù)特征中像素點(diǎn)與中心點(diǎn)的親和度將其與權(quán)值關(guān)聯(lián),關(guān)聯(lián)函數(shù)采用高斯函數(shù),統(tǒng)計(jì)窗口內(nèi)任意灰度值的權(quán)值和(即同一灰度值時(shí)直方圖中所有元素與其所對(duì)應(yīng)的特征信息權(quán)值乘積和).對(duì)窗口內(nèi)所有灰度值的總權(quán)值進(jìn)行累加求和,在總和一半對(duì)應(yīng)的像素灰度值就是加權(quán)中值濾波的中值結(jié)果.
雙目視覺(jué)立體匹配由于角度和匹配問(wèn)題生成視差圖時(shí)會(huì)產(chǎn)生遮擋和空洞現(xiàn)象,對(duì)此,使用鄰域視差估計(jì)算法填充空洞和遮擋區(qū)域.遮擋區(qū)域一般接近背景部分,尋找遮擋區(qū)域點(diǎn)在其四鄰域方向上值不為零且距離最近的像素點(diǎn),比較并記錄此類(lèi)像素內(nèi)的最小值以代替中心被遮擋點(diǎn)和空洞點(diǎn)的像素,使視差圖變得稠密充實(shí).
由圖7 放大區(qū)域(a)(b)(c)可以看出,經(jīng)過(guò)本文的亞像素增強(qiáng)和加權(quán)中值濾波處理后,視差連續(xù)區(qū)域過(guò)渡變得平滑漸變,消除了噪聲條紋及由視差精度不足產(chǎn)生的分層現(xiàn)象,滿(mǎn)足了視差的精度要求.通過(guò)鄰域視差估計(jì)值法填補(bǔ)了圖像中遮擋區(qū)域和空洞點(diǎn),圖像更加準(zhǔn)確可觀.
圖7 視差圖精細(xì)化處理結(jié)果對(duì)比
本文實(shí)驗(yàn)在Windows 10 操作系統(tǒng),Intel(R)Core(TM)i5-5200U,主頻2.20 GHz,內(nèi)存4 GB,64 位操作系統(tǒng)的計(jì)算機(jī)平臺(tái)上進(jìn)行,開(kāi)發(fā)軟件為Visual Studio 2013 與Opencv 2.4.9.采用Middlebury 測(cè)試官方平臺(tái)的圖像集Venus,Bull,Teddy,Cones,Sawtooth 進(jìn)行實(shí)驗(yàn),依據(jù)標(biāo)準(zhǔn)視差計(jì)算錯(cuò)誤匹配像素百分比(判定閾值取1)進(jìn)行客觀評(píng)定.實(shí)驗(yàn)中使用歸一化互相關(guān)(Normalized Cross-Correlation,NCC)系數(shù)匹配算法[17]、局部塊匹配算法[18](Block Matching,BM)、半全局塊匹配算法[19](Semi-Global Block Matching,SGBM)、動(dòng)態(tài)規(guī)劃(Dynamic Programming,DP)全局匹配算法[20]這4 個(gè)最為常用的算法進(jìn)行主觀與客觀對(duì)比.
從圖8~10 和圖11 的結(jié)果圖像可以發(fā)現(xiàn),其他4 種立體匹配算法在邊緣細(xì)節(jié)上的匹配效果較差,同時(shí)產(chǎn)生較多的噪聲點(diǎn)和空洞.NCC和DP算法精度存在較大缺陷,出現(xiàn)大量的條紋區(qū)域與大面積紋理錯(cuò)誤,BM和SGBM 算法的深度不連續(xù)區(qū)域匹配效果不理想.本文提出的算法全面考慮了深度不連續(xù)區(qū)域的準(zhǔn)確度提升與整體精度的優(yōu)化,從圖中可以看出,本文算法獲取的視差結(jié)果更好,在立體匹配時(shí)能保證邊緣的細(xì)節(jié)紋理和連續(xù)區(qū)域的平滑性,去除了噪聲、條紋和遮擋區(qū)域,提升了視差圖的精度.
圖8 Venus圖像對(duì)實(shí)驗(yàn)結(jié)果
圖9 Bull圖像對(duì)實(shí)驗(yàn)結(jié)果
圖10 Cones圖像對(duì)實(shí)驗(yàn)結(jié)果
圖11 Teddy圖像對(duì)實(shí)驗(yàn)結(jié)果
表1 是對(duì)4 組實(shí)驗(yàn)圖像的特征檢測(cè)和匹配的結(jié)果.從數(shù)據(jù)可以發(fā)現(xiàn),經(jīng)過(guò)線性對(duì)比度展寬處理后的圖像提取FAST 特征點(diǎn)更加全面,通過(guò)RANSAC 算法剔除錯(cuò)誤匹配,最終得到準(zhǔn)確的匹配點(diǎn)對(duì).
表1 特征檢測(cè)與匹配結(jié)果
NCC,BM,SGBM,DP 算法與本文算法的錯(cuò)誤匹配百分比由表2 表示.對(duì)比表2 數(shù)據(jù)可見(jiàn),本文算法得到實(shí)驗(yàn)圖像的錯(cuò)誤匹配率相比于其余算法更低,在匹配準(zhǔn)確性上有大幅提升,匹配效果明顯優(yōu)于對(duì)比算法的結(jié)果.
表2 其他算法與本文算法實(shí)驗(yàn)圖像結(jié)果對(duì)比
圖12中對(duì)Sawtooth圖像對(duì)中的右圖增加了50 cd/m2亮度,改變了左右圖像的亮度差異,不同亮度的左右圖像在本文算法下依舊可以進(jìn)行匹配并得到視差,從結(jié)果來(lái)看視差圖保持了較好的質(zhì)量,圖像清晰稠密且沒(méi)有出現(xiàn)區(qū)域錯(cuò)誤匹配的現(xiàn)象.
圖12 Sawtooth圖像對(duì)改變亮度差異實(shí)驗(yàn)結(jié)果
表3是改變Sawtooth右圖的亮度,分別增加20 cd/m2,30 cd/m2,40 cd/m2,50 cd/m2后本文算法得到的視差計(jì)算結(jié)果與原圖正確匹配率的比較.從數(shù)據(jù)可以發(fā)現(xiàn),改變亮度差異對(duì)視差結(jié)果造成影響很微弱,說(shuō)明本文算法對(duì)光照差異的影響具有較強(qiáng)的魯棒性.
表3 改變右圖亮度的實(shí)驗(yàn)結(jié)果
同時(shí),算法的時(shí)間復(fù)雜度經(jīng)改進(jìn)后大大降低.特征點(diǎn)在檢測(cè)前優(yōu)先判斷候選點(diǎn)四鄰域方向的圓周點(diǎn),提高檢測(cè)速度;采用改進(jìn)的區(qū)域生長(zhǎng)算法進(jìn)行視差稠密化,降低匹配復(fù)雜度;又根據(jù)極線約束將匹配搜索范圍由二維八個(gè)點(diǎn)減少到同一極線上的三個(gè)點(diǎn),降低搜索的復(fù)雜度;采用歸一化互相關(guān)系數(shù)函數(shù)計(jì)算匹配代價(jià),利用積分圖簡(jiǎn)化大量重復(fù)求取匹配窗口灰度值均值的過(guò)程,減少計(jì)算的復(fù)雜度.采用Middlebury 圖像進(jìn)行時(shí)間復(fù)雜度對(duì)比分析,未改進(jìn)前算法平均耗時(shí)7.797 s,本文算法改進(jìn)后的平均耗時(shí)為3.109 s,可以看出,經(jīng)過(guò)改進(jìn)的特征立體匹配算法的時(shí)間復(fù)雜度得到大幅降低,平均耗時(shí)縮短了60.1%,證明本文算法在復(fù)雜度和耗時(shí)上都得到顯著改進(jìn).
本文提出改進(jìn)的雙目特征立體匹配算法,使用少量的匹配點(diǎn)對(duì)即可獲得稠密視差,有效地解決了特征匹配只能得到稀疏視差圖的缺陷,利用多種約束條件和雙向匹配策略,提升整體匹配的準(zhǔn)確性,增強(qiáng)了弱紋理區(qū)和深度不連續(xù)處的匹配效果,利用積分圖簡(jiǎn)化計(jì)算從而減少冗余過(guò)程,算法復(fù)雜度大幅度降低,在立體匹配的同時(shí)進(jìn)行精細(xì)化后處理提升了視差精度.通過(guò)實(shí)驗(yàn)對(duì)比發(fā)現(xiàn),本文算法的準(zhǔn)確性高于其他幾種算法,在圖像邊緣匹配上更加準(zhǔn)確、真實(shí),有效地去除了因精度不足產(chǎn)生的噪聲、細(xì)紋與階梯現(xiàn)象,增加了視差信息的平滑性.實(shí)驗(yàn)顯示,本文算法具有較強(qiáng)的抗干擾能力,在一定程度抑制了光亮差異與噪聲影響.當(dāng)前僅對(duì)Middlebury 測(cè)試平臺(tái)圖像進(jìn)行了立體匹配實(shí)驗(yàn),下一步將在更多平臺(tái)以更廣闊視野進(jìn)行嘗試,使算法的適用性大大提升,在算法的復(fù)雜度上進(jìn)一步優(yōu)化提速.