王森
摘要:傳統(tǒng)的SIFT算法在配準(zhǔn)高分二號(hào)全色與多光譜影像時(shí)配準(zhǔn)效率較低,本文使用一種新的配準(zhǔn)策略:首先對(duì)圖像進(jìn)行區(qū)域劃分并計(jì)算每個(gè)區(qū)域的信息熵,只針對(duì)信息熵較大的部分采用改進(jìn)的Harris算法提取特征點(diǎn),然后使用SIFT算法描述特征點(diǎn)并進(jìn)行粗匹配,再用PROSAC進(jìn)行特征點(diǎn)的提純,實(shí)現(xiàn)精匹配,最后完成圖像配準(zhǔn)。
關(guān)鍵詞:高分二號(hào);圖像配準(zhǔn);信息熵;SIFT;PROSAC
中圖分類號(hào):TP391.4 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1007-9416(2020)01-0104-02
0 引言
在遙感圖像處理中,圖像配準(zhǔn)是很重要的處理環(huán)節(jié)。配準(zhǔn)精度的高低直接會(huì)影響到后續(xù)的圖像處理質(zhì)量,因此對(duì)遙感圖像配準(zhǔn)進(jìn)行深入的研究具有很重要的現(xiàn)實(shí)意義。近年來(lái)Harris算子和SIFT算子在圖像配準(zhǔn)領(lǐng)域應(yīng)用較為廣泛,這兩種方法在處理普通圖像時(shí)能夠取得較好的配準(zhǔn)效果,但是對(duì)于遙感圖像配準(zhǔn)而言往往配準(zhǔn)精度較低。因此本文基于這兩種算法對(duì)高分二號(hào)衛(wèi)星圖像的配準(zhǔn)方法進(jìn)行研究,從而充分利用這兩種算法的優(yōu)點(diǎn)。
Harris[1]角點(diǎn)檢測(cè)算法是通過(guò)微分算子計(jì)算像素點(diǎn)在任意方向上的灰度變化,并根據(jù)角點(diǎn)響應(yīng)函數(shù)的值來(lái)判斷目標(biāo)像素點(diǎn)是否為角點(diǎn)。該算法運(yùn)算量較小,且提取的角點(diǎn)分布較為均勻。尺度不變特征變換(SIFT)[2]算法是圖像配準(zhǔn)領(lǐng)域較為經(jīng)典的一種算法,SIFT特征對(duì)圖像的尺度、旋轉(zhuǎn)、平移等具有不變性,該算法的主要步驟包括:尺度空間構(gòu)造、極值點(diǎn)檢測(cè)、特征點(diǎn)主方向分配、特征描述子生成。SIFT算法在普通圖像中的配準(zhǔn)效果較好,但是對(duì)于大幅面的遙感圖像往往具有配準(zhǔn)速度慢、精度低等特點(diǎn)。配準(zhǔn)速度慢主要體現(xiàn)在檢測(cè)到的特征點(diǎn)數(shù)量多,從而在特征描述階段會(huì)有較多的時(shí)間消耗,因此本文在特征檢測(cè)部分使用改進(jìn)的Harris算法代替SIFT算法進(jìn)行特征檢測(cè)。
1 基于Harris-SIFT的圖像配準(zhǔn)算法
1.1 特征點(diǎn)檢測(cè)
經(jīng)典的Harris算子檢測(cè)出的角點(diǎn)不具有尺度不變性,因此本文使用Harris-Laplace[3]算法進(jìn)行角點(diǎn)檢測(cè),使其具有尺度不變性。Harris算子是通過(guò)角點(diǎn)響應(yīng)函數(shù)CRF(corner response function)的值來(lái)判斷該點(diǎn)是否為角點(diǎn),當(dāng)CRF的值超過(guò)所設(shè)定的閾值時(shí),則認(rèn)為該點(diǎn)為需要的角點(diǎn)。但是CRF值的計(jì)算會(huì)受到經(jīng)驗(yàn)常數(shù)k的影響,進(jìn)而會(huì)影響到后續(xù)的配準(zhǔn)效果,因此為了避免k值的選取,本文使用改進(jìn)的角點(diǎn)響應(yīng)函數(shù)[4],計(jì)算式為:
其中是圖像的水平方向梯度,是圖像的垂直方向梯度,其中,,是任意小的正數(shù),可以避免分母為零的情況。
針對(duì)該改進(jìn)的Harris算法依然存在無(wú)效的角點(diǎn)的問(wèn)題,本文參考王崴等[5]提出的在當(dāng)前的目標(biāo)像素點(diǎn)8鄰域的范圍內(nèi)統(tǒng)計(jì)與之相似的像素點(diǎn)個(gè)數(shù),以此來(lái)剔除無(wú)效的角點(diǎn)。由于高分二號(hào)圖像的特殊性,且波段間灰度存在較大的差異,這樣容易使角點(diǎn)的定位存在偏差。故需要對(duì)用上述方法檢測(cè)到的角點(diǎn)進(jìn)行精定位,本文參考經(jīng)典的Forstner[6]算子對(duì)角點(diǎn)進(jìn)行精定位。
1.2 特征描述子生成
由于本文不直接對(duì)整幅圖像進(jìn)行特征檢測(cè),而僅對(duì)信息熵較大的區(qū)域使用改進(jìn)的Harris算子檢測(cè)角點(diǎn)特征,這樣大大的降低了算法的運(yùn)算量,所以不必再為了進(jìn)一步提高運(yùn)算速度而降低特征描述符的維數(shù),因?yàn)樵诮稻S的同時(shí)可能會(huì)使配準(zhǔn)精度降低。因此,為了確保配準(zhǔn)精度,本文使用傳統(tǒng)的SIFT算法進(jìn)行特征描述,生成128維特征向量,具體可參考文獻(xiàn)[2]中的方法。
1.3 針對(duì)高分二號(hào)衛(wèi)星影像的配準(zhǔn)方法
由于高分二號(hào)圖像的數(shù)據(jù)量較大,因此傳統(tǒng)的配準(zhǔn)策略在此已不能滿足實(shí)時(shí)性的要求。本文方法為:首先對(duì)整幅圖像進(jìn)行區(qū)域劃分[7]并計(jì)算各區(qū)域信息熵,然后針對(duì)信息熵較大的區(qū)域使用改進(jìn)的Harris算法進(jìn)行特征提取,從而縮短特征檢測(cè)的時(shí)間,而且能夠使特征點(diǎn)在整幅圖像中分布均勻。之后使用SIFT算法對(duì)特征點(diǎn)進(jìn)行描述并且進(jìn)行粗匹配,然后使用PROSAC[8]算法進(jìn)一步提純特征點(diǎn)并估算出變換模型參數(shù),從而實(shí)現(xiàn)最終的圖像配準(zhǔn)。
2 實(shí)驗(yàn)分析
本文選取全色影像為基準(zhǔn)圖像,由于多光譜影像中的近紅外波段和全色影像存在較大的灰度差異,故以近紅外波段為例作為待配準(zhǔn)圖像進(jìn)行實(shí)驗(yàn)更能驗(yàn)證配準(zhǔn)算法的有效性,全色影像大小為2286×2225,近紅外波段影像大小為746×749。本文使用VS2013結(jié)合GDAL庫(kù)編程。使用傳統(tǒng)的SIFT算法作為對(duì)比實(shí)驗(yàn),本文算法實(shí)驗(yàn)結(jié)果如圖1所示,兩種算法配準(zhǔn)效果比較如表1所示。實(shí)驗(yàn)結(jié)果表明,本文算法明顯比SIFT算法檢測(cè)到的特征點(diǎn)少、配準(zhǔn)速度快,在提高配準(zhǔn)速度的同時(shí),配準(zhǔn)精度也較SIFT算法高。
3 結(jié)語(yǔ)
本文針對(duì)高分二號(hào)遙感圖像提出了一種在區(qū)域劃分的基礎(chǔ)上,使用改進(jìn)的Harris算子和SIFT算子相結(jié)合的圖像配準(zhǔn)方法。實(shí)驗(yàn)證明,該算法提取的特征點(diǎn)較SIFT算法更少且更均勻,配準(zhǔn)速度和配準(zhǔn)精度都較SIFT算法有顯著的提高。
參考文獻(xiàn)
[1] Harris C,Stephens M.A combined corner and edge detector[C].Proceedings of the Alvey Vision Conference,Manchester,UK,1988:147-151.
[2] Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[3] Mikolajczyk K,Schmid C.Scale & affine invariant interest point detectors[J].International Journal of Computer Vision,2004,60(1):63-86.
[4] 毛晨,錢惟賢,顧國(guó)華,等.基于雙邊濾波的Harris角點(diǎn)檢測(cè)[J].紅外技術(shù),2014,36(10):812-815+819.
[5] 王崴,唐一平,任娟莉,等.一種改進(jìn)的Harris角點(diǎn)提取算法[J].光學(xué)精密工程,2008(10):1995-2001.
[6] 張艷,張志成.混合Forstner算法和SIFT灰度圖像特征點(diǎn)提取[J].科技通報(bào),2012(10):64-70.
[7] 李玉峰,王竹筠.基于Harris-SIFT特征匹配的圖像自動(dòng)配準(zhǔn)算法研究[J].電視技術(shù),2015,39(23):26-30.
[8] CHUM O,MATAS J.Matching with PROSAC-progressive sample consensus[C].IEEE Computer Society Conference on Computer Vision & Pattern Recognition(ICCV),Beijing:IEEE,2005:220-226.