華麗,徐川,眭海剛
(1.華中農(nóng)業(yè)大學(xué)資源與環(huán)境學(xué)院,湖北武漢,430070;2.武漢大學(xué)測繪遙感信息工程國家重點(diǎn)實(shí)驗(yàn)室,湖北武漢,430079)
隨著衛(wèi)星遙感技術(shù)的發(fā)展,數(shù)據(jù)獲取的手段不斷豐富,如何有效集成和融合處理多傳感器、多分辨率、多光譜和多時相的遙感數(shù)據(jù)已成為現(xiàn)階段遙感領(lǐng)域研究的熱點(diǎn)與重點(diǎn),而多源影像配準(zhǔn)則是一個迫切需要解決的核心問題。合成孔徑雷達(dá)(synthetic aperture radar,SAR)數(shù)據(jù)具有全天時、全天候、能穿透地表云霧等特點(diǎn),它能克服光學(xué)傳感器受天氣影響大的缺點(diǎn),有利于發(fā)揮各自的信息優(yōu)勢。但是,二者完全不同的成像機(jī)理決定光學(xué)影像與SAR 影像存在輻射和幾何差異,增加影像配準(zhǔn)的難度,導(dǎo)致SAR影像和光學(xué)影像的配準(zhǔn)成為二者信息有效融合的“瓶頸”。當(dāng)前絕大部分光學(xué)與SAR影像配準(zhǔn)方法都需要選擇控制點(diǎn)或需要粗配準(zhǔn)條件,不是全自動化處理,難以滿足諸如災(zāi)害應(yīng)急、軍事應(yīng)用等海量遙感數(shù)據(jù)的快速甚至實(shí)時處理需求。針對上述問題,本文旨在提出一種不需要任何初始條件的,全自動的光學(xué)與SAR 影像快速粗配準(zhǔn)方法。光學(xué)與SAR 影像配準(zhǔn)的方法可分為基于灰度的配準(zhǔn)方法]和基于特征的配準(zhǔn)方法?;诨叶鹊呐錅?zhǔn)方法主要包括相關(guān)法[1]和互信息方法[2-3],利用影像的灰度信息作為基準(zhǔn)進(jìn)行配準(zhǔn),而不用考慮顯著的特征。但是,由于SAR 影像和光學(xué)影像的成像機(jī)理差異較大,導(dǎo)致2種影像的灰度之間存在復(fù)雜的關(guān)系,因此,大多基于灰度的配準(zhǔn)方法難以得到令人滿意的配準(zhǔn)結(jié)果。相比之下,基于特征的配準(zhǔn)方法主要包括基于點(diǎn)[4-6]、線[7-8]、面[9]等幾何特征配準(zhǔn)方法以及混合特征配準(zhǔn)方法[10],它并不直接作用于圖像灰度,表達(dá)更高層的圖像信息,這一特性導(dǎo)致基于特征的配準(zhǔn)方法對圖像的灰度變化、圖像變形以及遮擋都有較強(qiáng)的適應(yīng)能力,更適合于異源遙感影像配準(zhǔn)[11]。同時,通過對圖像中關(guān)鍵信息的提取,可以大大減少匹配過程的計算量。一般認(rèn)為全局和局部特征對目標(biāo)的感知和識別都是非常重要的,全局特征一般用來進(jìn)行粗略匹配,而局部特征則可以提供更為精確的識別信息[12]。但是,如果存在某種顯著的局部特征,那么,此局部特征會首先被用來確定目標(biāo),如河流、湖泊、水庫、道路、機(jī)場跑道、規(guī)則建筑等。這些地物在不同的成像波段、分辨率和模式下均能保持穩(wěn)定。在可見光波段成像時,圖像能反映地物真實(shí)的顏色和亮度信息,這些標(biāo)志性地物在灰度特性上通常與周圍地物有顯著的區(qū)別,可以輕易區(qū)分。在SAR 傳感器成像時,這些地物的幾何結(jié)構(gòu)、表面粗糙度、介電常數(shù)和電導(dǎo)率等結(jié)構(gòu)特性和電磁散射特性與周圍地物也有很大區(qū)別,可以輕易區(qū)分。因此,河流、湖泊、規(guī)則建筑等標(biāo)志性地物在成像特性上與周圍地物有明顯區(qū)別,可以用于光學(xué)與SAR 影像的配準(zhǔn)?;诖怂枷耄疚奶岢隽艘环N基于顯著特征的影像快速粗配準(zhǔn)方法,主要貢獻(xiàn)體現(xiàn)在以下3 個方面:1)針對經(jīng)典的Itti 模型[13]沒有考慮SAR 影像的特性,結(jié)合紋理特征及SAR 影像顯著目標(biāo)的灰度特性,提出了一種TW-Itti(Texture weight-Itti)視覺顯著模型,并基于此模型提取影像的顯著區(qū)域,該方法能快速精確地反映顯著地物的范圍,進(jìn)而獲取顯著特征。2)對水平集分割中的零水平集初始化函數(shù)進(jìn)行了改進(jìn),利用顯著區(qū)域輪廓對零水平集函數(shù)進(jìn)行初始化,充分考慮目標(biāo)的灰度特性與空間位置。3)對形狀曲線匹配方法的采樣點(diǎn)的選擇進(jìn)行改進(jìn),不再以固定的角度θ為間隔進(jìn)行采樣,而采用設(shè)定采樣點(diǎn)數(shù)m,以周長的為間距對區(qū)域的外邊界進(jìn)行取樣,它既很好地描述目標(biāo)區(qū)域的外在形狀特征,又保持旋轉(zhuǎn)、縮放和平移的不變性。
圖1所示為基于視覺顯著特征的快速粗配準(zhǔn)方法流程。首先,利用Itti模型和TW-Itti模型分別在光學(xué)與SAR影像上獲取視覺顯著圖,得到視覺顯著圖后,利用OTSU算法對該顯著圖進(jìn)行二值分割,可以獲得疑似目標(biāo)區(qū)域(suspected water region,SWR),通過連通區(qū)域跟蹤算法,可獲得該SWR 區(qū)域的邊界。假設(shè)該邊界為φ0,則可將此邊界φ0作為零水平集函數(shù),分別對光學(xué)與SAR 影像進(jìn)行水平集分割,獲得分割的面目標(biāo)集合Ao和As。分別對集合Ao和As中的面目標(biāo)計算面積,選擇面積最大且形狀規(guī)則的前10 個面目標(biāo)集合{Ao1,Ao2,…,Ao10}和{As1,As2,…,As10},兩兩進(jìn)行形狀相似性判斷,如存在相似的同名面目標(biāo),則將其質(zhì)心點(diǎn)作為同名匹配點(diǎn)。
圖1 基于視覺顯著特征的快速粗配準(zhǔn)Fig.1 Fast coarse registration based on visual salient features
經(jīng)典的Itti 模型包含3 個基本的信息處理模塊:特征圖、顯著圖和勝者全取(winner-takes-all,WTA)網(wǎng)絡(luò)。其操作過程如下:1)根據(jù)特征整合理論使用不同尺度的高斯差函數(shù)對圖像的不同特征(例如顏色、亮度、方向)濾波,得到的各個特征的響應(yīng)形成特征圖;2)將這些特征圖融合為1幅顯著圖,引導(dǎo)視覺注意過程,顯著圖中的顯著值反映各個位置視覺顯著性;3)顯著值控制圖像中各個位置的相互競爭,顯著值大的位置成為注意焦點(diǎn);4)通過對注意焦點(diǎn)的返回抑制實(shí)現(xiàn)注意焦點(diǎn)的轉(zhuǎn)移。
1.1.1 特征圖生成
第1步是進(jìn)行多尺度分解,利用二元高斯金字塔將影像分解成9個尺度,獲取亮度分量金字塔I(σ),σ∈[0,1,…,8]。其中,σ為尺度;I為歸一化的紅(r)、綠(g)、藍(lán)(b)這3個顏色分量,
由于簡單的歸一化有局限性,可按如下式對紅、綠和藍(lán)顏色分量重新定義,同時增加黃色分量:
式中:R,G,B和Y分別為紅、綠、藍(lán)和黃色分量。
結(jié)合二元高斯金字塔,對上述的4個顏色分量進(jìn)行多尺度分解,分別得到顏色分量金字塔R(σ),G(σ),B(σ)和Y(σ)。
Gabor 函數(shù)有很好的方向選擇性,因此,使用Gabor濾波器對歸一化顏色分量RMS=0.896進(jìn)行卷積以提取方向特征。二維的Gabor濾波函數(shù)如下式:
式中:λ為波長;θ為方位角;φ為相位移;ε為標(biāo)準(zhǔn)差;γ為方向曲率。
該模型通過對歸一化顏色分量RMS=0.896 進(jìn)行0°,45°,90°,135°共4 個方向的Gabor 濾波后得到方向金字塔,記為O(σ,θ),其中σ∈[0,1,…,8]表示圖像尺度,θ∈{0°,45°,90°,135°}表示4個方向。
至此,可以得到1個亮度分量金字塔δ∈(0,1)(由9 張?zhí)卣髯訄D構(gòu)成),4 個顏色分量金字塔(由4×9=36張?zhí)卣髯訄D構(gòu)成)和4個方向分量金字塔O(σ,θ)(由4×9=36張?zhí)卣髯訄D構(gòu)成)。
得到上述多尺度特征子圖后,利用“中央周邊差”機(jī)制對這些特征子圖做運(yùn)算,生成對應(yīng)的特征圖。該機(jī)制定義,作為中央的特征圖尺度范圍c∈{2,3, 4},作為周邊的特征圖尺度范圍s=c+δ,δ∈(3, 4)。因此,就產(chǎn)生(2-3,2-4,3-6,3-7,4-7,4-8)這6 種對比關(guān)系,將原始的9 層金字塔縮小為6 層,這樣,就在使用更少的特征子圖的同時利用多尺度信息。針對亮度特征,利用式(4)對亮度特征子圖進(jìn)行“中央周邊差”運(yùn)算,得到6張亮度特征圖。
式中:?為用定義為中央的特征子圖減去定義為周邊的特征子圖。因?yàn)橹醒胩卣鲌D與周邊特征圖的尺度不一樣,所以,采用線性插值的方法將周邊特征圖擴(kuò)大到與中央特征圖同樣的大小,再對它們做減法運(yùn)算。
顏色特征圖的計算如式(5)和(6)所示。
使用紅綠、黃藍(lán)這2對顏色通道來代表顏色特征圖,這樣就得到紅綠、黃藍(lán)這2對顏色通道,各6張?zhí)卣髯訄D,總共12 張顏色特征圖。方向特征圖的計算如式(7)所示,對4個方向的金字塔都進(jìn)行中央周邊差計算,可得到24張方向特征圖。
1.1.2 顯著圖生成
ITTI 等[13]提出一個特征圖歸一化算子N(·),該算子可以增強(qiáng)顯著峰較少的特征圖,同時削弱存在大量顯著峰的特征圖。具體計算如下。
亮度顯著圖:
顏色顯著圖:
方向顯著圖:
式中:⊕表示逐點(diǎn)求和。
在得到各個分量的顯著圖后,需要對各個分量的顯著圖進(jìn)行融合,獲取全局顯著圖,如下式:
式中:S為全局顯著圖。
1.1.3 視點(diǎn)轉(zhuǎn)移
全局顯著圖中的灰度最大值表示影像中的最顯著區(qū)域。最后,結(jié)合“勝者全取”[14]和“返回抑制”方法[15]進(jìn)行注意焦點(diǎn)的轉(zhuǎn)移,依次尋找影像中的顯著目標(biāo)。
經(jīng)典的Itti 模型主要針對自然影像、醫(yī)學(xué)影像或者光學(xué)影像,對亮度、顏色、方向等初級視覺特征進(jìn)行提取,沒有使用紋理特征,而SAR 影像上紋理特征豐富,能在宏觀上反映灰度的一些變化規(guī)律。同時,由于SAR 影像上的水體、道路、機(jī)場跑道等標(biāo)志性地物一般占有大量面積或者灰度較低,呈現(xiàn)黑色或暗色?;诖耍疚奶岢鲆环N考慮SAR 影像紋理特性及顯著目標(biāo)灰度特性的TW-Itti 視覺顯著模型,模型主要是對早期特征選擇進(jìn)行改進(jìn),將顏色特征替換為SAR 影像紋理特征,該紋理特征圖像通過灰度共生矩陣(gray level co-occurrence matrix,GLCM)計算獲得。同時,考慮到SAR 影像顯著目標(biāo)的灰度特性,對亮度特征中央周邊差的計算增加一項(xiàng)權(quán)重系數(shù)。
對于紋理特征主要通過灰度共生矩陣[12]算法獲取,下面計算紋理特征子圖。T0為通過GLCM 算法獲取的紋理特征子圖,這里主要計算能量、相關(guān)性、局部穩(wěn)定性、熵和慣性矩等5種紋理特征?;叶裙采仃嚮瑒哟翱诖笮镾L像素,距離步長為1 個像素,灰度級為16,方向取4個方向的均值(0,45,90和135°)。獲取上述紋理特征子圖像后,利用主成分分析(principal component analysis,PCA)算法計算得到前3個主成分圖像,將這前3 個主成分圖像表示為R,G和B通道,合成最終紋理圖像XL-1,對于中心尺度,c={2,3,4},對于四周尺度,s=c+δ,而δ∈{3,4},這樣,共有6幅紋理特征顯著圖生成,計算如下式:
考慮到目標(biāo)的低灰度特性,對經(jīng)典的Itti 模型中公式(4)亮度特征中央周邊差的計算進(jìn)行改進(jìn),引入一權(quán)重系數(shù)w,且w∈[0,1],w可根據(jù)顯著目標(biāo)的整體亮度值而改變,當(dāng)顯著目標(biāo)整體亮度偏亮?xí)r,w靠近1;當(dāng)顯著目標(biāo)整體亮度偏暗時,w靠近0,具體計算公式如下:
本文方向特征圖不改變,依然采用經(jīng)典的Itti 模型中式(7)的方向特征圖。在得到各個分量的顯著圖后,對各個分量的顯著圖進(jìn)行融合,即可得到全局顯著圖,式(11)變?yōu)槿缦率剑?/p>
上述全局顯著圖中的灰度最大值表示影像中的最顯著區(qū)域。
水平集方法是一種將曲線(或曲面)隱藏在更高一維連續(xù)曲面的零水平集中隱式地完成曲線演化的方法。在圖像分割領(lǐng)域,水平集方法是用于主動輪廓模型的求解,它的核心思想是把n維曲面描述視為n+1維超曲面(稱為水平集函數(shù))的水平集。在求解主動輪廓模型時,水平集方法將平面閉合曲線隱含的表達(dá)為三維連續(xù)曲面φ(x,y,t)的具有相同函數(shù)值的同值曲線,通常取φ=0 為零水平集,φ(x,y,t)為水平集函數(shù)。水平集方法通過不斷更新水平集函數(shù),達(dá)到演化隱含在水平集函數(shù)中閉合曲線的目的。
在得到視覺顯著圖后,對于顯著目標(biāo)的提取,本文提出一種基于顯著特征的水平集分割方法,該方法主要是對水平集分割中的零水平集初始化函數(shù)進(jìn)行改進(jìn)。經(jīng)典水平集方法采用符號距離函數(shù)(signal distance function,SDF)來初始化零水平集函數(shù),而通常的符號距離函數(shù)收斂速度很慢,且容易收斂到局部極小值。利用SDF 來初始化零水平集(通常為圓或者矩形)即某點(diǎn)像素遠(yuǎn)離初始化的圓或者矩形邊緣時,則該點(diǎn)難以演化至邊緣,反之亦然,該方法完全取決于空間位置關(guān)系,沒有考慮圖像本身的灰度信息。因此,本文利用視覺顯著圖得到的粗略目標(biāo)輪廓來初始化零水平集函數(shù)。
水平集分割模型即使用1個水平集函數(shù)將圖像劃分為目標(biāo)和背景2類區(qū)域。其中,CHAN等[16]提出的CV 模型最為著名,基于經(jīng)典水平集模型的光學(xué)影像分割方法相對來說比較成熟,且能取得較好的分割效果,因此,本文采用CV 模型對光學(xué)影像進(jìn)行分割。對于SAR 影像,考慮到斑點(diǎn)噪聲的影響,本文采用統(tǒng)計Gamma分布模型定義水平集函數(shù)。
對于初始化零水平集函數(shù),本文利用OTSU算法對顯著區(qū)域進(jìn)行二值分割,由于此顯著區(qū)域只是顯著目標(biāo)的大致輪廓,不是精確的目標(biāo)位置,故僅利用此輪廓來初始化零水平集函數(shù)。假設(shè)t0為通過OTSU算法計算出來的分割閾值,I為原始影像,則可以通過下式來初始化零水平集函數(shù)φ0:
可以得到零水平集函數(shù)φ0=0,為影像上滿足I=t0的點(diǎn)集。
在分割出上述面目標(biāo)后,對這些面目標(biāo)初步判斷是否存在可以直接配準(zhǔn)的面特征。這里,首先描述和分析光學(xué)與SAR 影像上分割出的面目標(biāo);其次,為了消除分割過程中目標(biāo)粘連和大量不連續(xù)陰影的干擾,同時,為了后續(xù)的配準(zhǔn)需求,本文對目標(biāo)形狀進(jìn)行約束,利用形狀因子的概念[17],只保留形狀規(guī)則的單個目標(biāo)。同時,在利用形狀因子對分割后的目標(biāo)進(jìn)行第1次篩選。為了提高配準(zhǔn)時間效率,對上述目標(biāo)進(jìn)行第2 次篩選,僅保留面積最大的前10 個顯著目標(biāo)。
形狀曲線是一種基于距離-距離的方式來獲取的標(biāo)記圖。常用的形狀曲線方法以固定的角度θ為間隔進(jìn)行采樣,θ為兩相鄰采樣點(diǎn)與質(zhì)心的連線所形成的夾角。首先,對于固定角度取點(diǎn),當(dāng)要描述的對象為凹多邊形時,由于質(zhì)心在多邊形外,會產(chǎn)生重復(fù)采樣點(diǎn),導(dǎo)致匹配無效;其次,如果2個對象的尺度不一樣,按照角度進(jìn)行選點(diǎn)采樣,會導(dǎo)致選擇的采樣點(diǎn)偏差很大,造成匹配失效。因此,本文設(shè)定采樣點(diǎn)數(shù)m,以周長的為間距對區(qū)域的外邊界進(jìn)行取樣。多邊形被描述為以1個周長為周期的曲線,即區(qū)域的形狀曲線。它既可以很好地描述目標(biāo)區(qū)域的外在形狀特征,又可保持旋轉(zhuǎn)、縮放和平移的不變性。
圖2所示為多邊形及其形狀曲線。如圖2(a)和圖2(b)所示:假設(shè)有2 個多邊形A 和B,它們的外形相似但是存在一定的旋轉(zhuǎn)角度差異,利用距離-距離標(biāo)記圖法生成歸一化的形狀曲線。由圖2(c)可見:如果穩(wěn)定一條曲線不動,讓另一條曲線相對其進(jìn)行相位移動做相關(guān)運(yùn)算,那么必有當(dāng)相位移動d0(i)時,形狀曲線的相似度最大,即2個曲線的吻合程度最高、最相關(guān)。此相關(guān)度就是2個多邊形的形狀相似度,偏移相位ω就是多邊形之間的相對旋轉(zhuǎn)差異值。
計算形狀曲線A和B之間的相似度p如下式:
圖2 多邊形及其形狀曲線Fig.2 Polygons and its shape curves
式中:為多邊形A外邊界的第i采樣點(diǎn)到質(zhì)心的距離;為所有diA的均值;為多邊形B由第j點(diǎn)為起點(diǎn)后第i點(diǎn)到質(zhì)心的距離;為所有的均值。
在實(shí)際運(yùn)算過程中,對多邊形按預(yù)先給定的采樣點(diǎn)數(shù)采樣后,分別生成形狀曲線,為避免尺度的依賴性對其進(jìn)行歸一化處理,這里d(i)=di(i)/d0(i),d0(i)為所有半徑值的均值,di(i)為第i點(diǎn)的半徑。固定基準(zhǔn)目標(biāo)區(qū)域的形狀曲線不動,從待配準(zhǔn)形狀曲線的起點(diǎn)開始相對其進(jìn)行滑動相關(guān)運(yùn)算,從而避免標(biāo)記圖的起點(diǎn)選擇的問題。
相位偏移量對應(yīng)的影像間旋轉(zhuǎn)角度就是向量Or(jmax)與向量Ob(i0)之間的夾角,其中jmax是相似度最大時待配準(zhǔn)多邊形的第j個采樣點(diǎn),Or是待配準(zhǔn)多邊形的質(zhì)心,Ob是基準(zhǔn)多邊形的質(zhì)心,io是基準(zhǔn)多邊形的起點(diǎn)。
通過上述匹配方法得到同名點(diǎn)對后,需要對光學(xué)與SAR 影像進(jìn)行糾正。由于多項(xiàng)式模型能更好地擬合光學(xué)影像與SAR 影像之間的非剛性變換,本文采用多項(xiàng)式模型對同名點(diǎn)進(jìn)行擬合,且同名匹配點(diǎn)數(shù)至少需要3對。
為了驗(yàn)證本文方法的有效性,對比2組不同分辨率、不同特征與場景下的光學(xué)與SAR影像。圖3所示為2 組光學(xué)與SAR 影像實(shí)驗(yàn)數(shù)據(jù)。表1所示為上述2組光學(xué)與SAR影像實(shí)驗(yàn)數(shù)據(jù)對比。
為了驗(yàn)證本文提出的TW-Itti模型對SAR影像的有效性,將該模型與經(jīng)典的Itti 模型進(jìn)行對比,同時利用得到的顯著圖來初始化水平集函數(shù),對影像進(jìn)行分割。
圖4所示為基于不同視覺顯著模型的城區(qū)SAR影像顯著區(qū)域提取。由圖4可見:實(shí)驗(yàn)數(shù)據(jù)顯著特征主要體現(xiàn)為水體,在SAR 影像中表現(xiàn)為暗目標(biāo),且灰度均勻,所占面積較大。圖4(a)所示為基于經(jīng)典的Itti模型獲取的SAR 影像顯著區(qū)域,圖4(b)所示為基于TW-Itti模型獲取的SAR影像顯著區(qū)域,顯著區(qū)域均由黃色框線表示。通過這2幅圖可以看到本文提出的TW-Itti模型對SAR影像顯著區(qū)域獲取效果好,范圍更精確,且可以很好地得到水體區(qū)域。建筑物等高亮目標(biāo)的干擾較少。經(jīng)典的Itti 模型得到的顯著區(qū)域目標(biāo)整體不連貫。雖然顯著區(qū)域可以獲得目標(biāo)的大致輪廓,但邊緣缺乏細(xì)節(jié),目標(biāo)區(qū)域不準(zhǔn)確,不能直接用于后續(xù)配準(zhǔn)。因此,需要在此基礎(chǔ)上利用水平集方法對結(jié)果進(jìn)行優(yōu)化,使得到的分割結(jié)果精確且完整,有利于下一步形狀曲線配準(zhǔn)。
圖3 2組光學(xué)與SAR影像實(shí)驗(yàn)數(shù)據(jù)Fig.3 Two sets of experimental data of optical and SAR images
表1 2組光學(xué)與SAR影像實(shí)驗(yàn)結(jié)果對比Table 1 Two sets of experimental results comparison of optical and SAR images
圖4 基于不同視覺顯著模型的城區(qū)SAR影像顯著區(qū)域提取Fig.4 Extraction of salient regions from urban SAR images based on different visual saliency models
圖5所示為基于不同視覺顯著模型的山區(qū)SAR影像顯著區(qū)域提取。由圖5可見:圖5(a)中A和B表示Itti 模型檢測的結(jié)果,圖5(b)中C和D表示TW-Itti 模型檢測的結(jié)果。實(shí)驗(yàn)數(shù)據(jù)顯著特征主要體現(xiàn)為道路和部分水體,存在嚴(yán)重干擾的是山體的陰影。與經(jīng)典的Itti模型進(jìn)行比較后發(fā)現(xiàn),本文提出的TW-Itti視覺顯著模型能更好地發(fā)現(xiàn)暗目標(biāo),高亮目標(biāo)大部分被屏蔽。
圖5 基于不同視覺顯著模型的山區(qū)SAR影像顯著區(qū)域提取Fig.5 Extraction of salient regions from SAR images in mountainous areas based on different visual saliency models
圖6所示為實(shí)驗(yàn)數(shù)據(jù)1 基于形狀區(qū)域的顯著區(qū)域特征粗配準(zhǔn)結(jié)果。其中,圖6(a)和(b)所示分別為光學(xué)影像和SAR 影像顯著區(qū)域提取結(jié)果,圖6(c)和(d)所示分別為光學(xué)和SAR 影像基于顯著區(qū)域的水平集分割結(jié)果,圖6(e)和(f)所示分別為光學(xué)和SAR 影像顯著目標(biāo)提取及同名點(diǎn)查找結(jié)果。值得注意的是:這里的顯著特征提取結(jié)果是在視覺顯著水平集分割的基礎(chǔ)上進(jìn)行后處理的結(jié)果。圖6(g)所示為利用查找到的同名點(diǎn)進(jìn)行幾何糾正后的結(jié)果,可以看出,同名點(diǎn)集中的A區(qū)域的配準(zhǔn)結(jié)果比較精確,B區(qū)域的配準(zhǔn)結(jié)果存在一些位移,但2幅影像可以得到初步配準(zhǔn)。
圖7所示為基于形狀區(qū)域的顯著區(qū)域特征實(shí)驗(yàn)數(shù)據(jù)2粗配準(zhǔn)結(jié)果。其中圖7(a)所示為基于Itti模型的光學(xué)影像顯著區(qū)域提取結(jié)果,圖7(b)所示為基于TWItti 模型的SAR 影像顯著區(qū)域提取結(jié)果。從圖7(b)可以看出:大部分同名地物被顯著區(qū)域包含,這個操作可以大大減少同名區(qū)域配準(zhǔn)時間,且提高配準(zhǔn)精度。圖7(c)和圖7(d)所示為利用形狀曲線進(jìn)行的同名點(diǎn)查找結(jié)果,共可得到3 對正確同名匹配點(diǎn),圖7(e)所示為基于顯著區(qū)域特征的SAR 影像粗配準(zhǔn)結(jié)果疊加顯示,可以看到SAR 影像經(jīng)過配準(zhǔn)后消除了尺度和角度影響,僅存在少量的位置誤差。
圖7 基于形狀區(qū)域的顯著區(qū)域特征實(shí)驗(yàn)數(shù)據(jù)2粗配準(zhǔn)Fig.7 Coarse registration results of Experimental data 2 based on salient region features of shape regions
為了驗(yàn)證本文方法的有效性,測試時間效率。時間采用秒記時,所有算法均在個人臺式機(jī)上完成,配置如下:英特爾酷睿i3 CPU(TM),四核處理器運(yùn)行于3.07 GHz,內(nèi)存為2.99 GB,Windows XP系統(tǒng)。
表2所示為時間結(jié)果對比表,其中常規(guī)方法指的是,首先對整幅影像進(jìn)行水平集分割,接著對分割結(jié)果矢量化,計算每個矢量對象的面積和形狀因子,選擇面積最大且形狀規(guī)則的前10 個對象兩兩進(jìn)行形狀匹配。需要注意的是:全圖水平集分割時間包括對光學(xué)和SAR 影像分別進(jìn)行分割的時間之和。視覺顯著區(qū)域提取的時間包含利Iitti 模型對光學(xué)與以及利用TW-Itti模型對SAR影像提取的時間。形狀匹配的時間包含分割結(jié)果矢量化、分割對象屬性選擇以及形狀匹配的時間。
由表2可見:1)本文方法的時間明顯低于常規(guī)方法的時間,特別是圖像越大,優(yōu)勢越明顯。2)常規(guī)方法耗時主要體現(xiàn)在2個方面:全圖水平集分割和分割后形狀匹配。因?yàn)樾螤钇ヅ涞臅r間包含了二值結(jié)果矢量化,矢量化算法耗時占整個形狀匹配算法耗時的80%,而全圖影像分割后所得到的分割對象細(xì)碎、繁多,矢量化的時間消耗會增加。3)對于實(shí)驗(yàn)2 來說,利用常規(guī)的面特征匹配方法無法得到匹配結(jié)果,因?yàn)槿珗D分割后,一方面,面目標(biāo)繁多,在進(jìn)行面積和形狀剔除后,可以匹配的同名面目標(biāo)減少;另一方面,由于是對全圖進(jìn)行水平集分割,有些面目標(biāo)和相鄰的地物產(chǎn)生蔓延,造成分割出的面目標(biāo)不完備,因此,在進(jìn)行形狀匹配時,無法找到同名面目標(biāo),造成配準(zhǔn)失敗。
表2 不同方法的時間對比Table 2 Comparison of time for difference methods
1)提出的TW-Itti視覺顯著模型能更精確的提取SAR影像上顯著目標(biāo)的范圍。
2)提出的全自動的光學(xué)與SAR 影像粗配準(zhǔn)方法無需任何初始條件。
3) 相對于常規(guī)配準(zhǔn)方法,本文方法在減少時間消耗的基礎(chǔ)上,能保證光學(xué)與SAR影像的有效配準(zhǔn)。