摘要:醫(yī)學(xué)圖像是臨床診斷的關(guān)鍵依據(jù),在醫(yī)學(xué)研究與應(yīng)用中具有重要價值。眼底圖像是醫(yī)學(xué)圖像的重要分支,可以通過眼底儀拍攝人體視網(wǎng)膜獲得。然而,受限于眼底相機(jī)固有的視場限制,單幅眼底圖像通常僅能捕獲視網(wǎng)膜的部分區(qū)域信息。為了獲得完整的眼底信息便于醫(yī)師的臨床診斷,需要對拍攝的多幅同一眼球的眼底圖像進(jìn)行配準(zhǔn)。文章研究了經(jīng)典的SIFT、SURF算法,并針對眼底圖像特性,提出了一種基于血管結(jié)構(gòu)特征的匹配方法,旨在為提升后續(xù)眼底圖像配準(zhǔn)精度提供理論與方法參考。
關(guān)鍵詞:眼底圖像配準(zhǔn);血管分叉點(diǎn);SURF;特征提?。惶卣鼽c(diǎn)匹配
中圖分類號:TP3" "文獻(xiàn)標(biāo)識碼:A
文章編號:1009-3044(2025)18-0102-04
開放科學(xué)(資源服務(wù)) 標(biāo)識碼(OSID)
0 引言
信息技術(shù)的飛速進(jìn)步推動了計算機(jī)技術(shù)在醫(yī)療診斷領(lǐng)域的廣泛應(yīng)用。醫(yī)學(xué)影像為疾病診斷提供了豐富的科學(xué)依據(jù),其處理與分析技術(shù)已成為醫(yī)學(xué)影像學(xué)的核心組成部分。眼科醫(yī)師通過觀察和分析獲取的眼底醫(yī)學(xué)影像,進(jìn)而對與視網(wǎng)膜有關(guān)的疾病做出及時有效的臨床診斷。例如高血壓性視網(wǎng)膜病變就是一種典型的醫(yī)學(xué)病癥實(shí)例,其初期表現(xiàn)為眼底血管中的動脈硬化,是高血壓的重要早期指標(biāo)之一。
為獲取全面的眼底信息,需采用圖像配準(zhǔn)技術(shù),將同一視網(wǎng)膜在不同視角下獲取的多幅圖像融合成一幅寬視場圖像,從而實(shí)現(xiàn)眼底圖像的自動配準(zhǔn)。本文旨在比較經(jīng)典的SIFT、SURF特征提取算法與一種基于血管分叉點(diǎn)(利用八鄰域分析檢測) 的特征點(diǎn)提取及匹配方法在眼底圖像中的性能。
1 SIFT特征點(diǎn)提取與匹配
1999年,David.Lowe提出了尺度不變特征SIFT算法,在2004年他又對該算法進(jìn)行了改進(jìn)[1],該特征提取方法在圖像配準(zhǔn)領(lǐng)域應(yīng)用十分廣泛。其提取的特征點(diǎn)滿足旋轉(zhuǎn)不變性、縮放不變性和局部不變性,對于亮度、噪聲等影響因素也能保持很強(qiáng)的穩(wěn)定性,實(shí)現(xiàn)原理是在圖像的尺度空間內(nèi),通過高斯差分來檢測圖像的極值點(diǎn),對極值點(diǎn)進(jìn)行特征描述后,構(gòu)建特征向量,得到特征點(diǎn),再從特征點(diǎn)中找到匹配的特征點(diǎn)對用于圖像配準(zhǔn)。實(shí)現(xiàn)過程可以分為以下四步:
1)圖像尺度空間建立
尺度空間理論是在多尺度方法的基礎(chǔ)上,對一維信號尺度空間進(jìn)行定義,構(gòu)建圖像一維的尺度空間。在一維空間的基礎(chǔ)上,對圖像的二維空間進(jìn)行拓展,通過連續(xù)信號[I(x,y)]的高斯卷積,將不同尺度空間內(nèi)的信號進(jìn)行差分后形成差分尺度空間,尺度空間高斯差分函數(shù)公式如下:
[L(x,y,σ)=G(x,y,σ)I(x,y)] (1)
式(1)中,[?]表示卷積過程,[G(x,y,σ)]為尺度空間高斯核函數(shù),公式如下:
[G(x,y,σ)=12πσ2exp(-x2+y22σ2)] (2)
式(2)中,[σ]為高斯拉普拉斯算子(LOG) 用于檢測該尺度空間的特征尺度。通過高斯差分(DoG) 近似高斯拉普拉斯算子(LoG) ,并在不同尺度上構(gòu)建高斯金字塔,從而建立DOG尺度空間。
2)SIFT關(guān)鍵點(diǎn)檢測
DOG尺度空間中存在著局部極值也可以稱其為斑點(diǎn),即為檢測到的SIFT關(guān)鍵點(diǎn)。通過比較采樣點(diǎn)同一尺度空間和上下相鄰尺度空間的26個(同尺度8個,上下各9個) 鄰域像素點(diǎn),當(dāng)采樣點(diǎn)大于所有26個相鄰點(diǎn)時,則判定該采樣點(diǎn)為極值點(diǎn),即SIFT關(guān)鍵點(diǎn)。利用以采樣點(diǎn)為原點(diǎn)的高斯尺度空間核函數(shù)[G(x,y,σ)]進(jìn)行泰勒二次展開式曲面擬合,展開公式如下:
[D(X)=D+?DT?XΔX+12ΔXT?2D?X2ΔX] (3)
X為采樣得到的極值點(diǎn),對X求導(dǎo)后函數(shù)在極值點(diǎn)的導(dǎo)數(shù)為0,求得極值點(diǎn)相對于采樣極值點(diǎn)的偏移量[ΔX],公式如下:
[ΔX=-?2D-1?D?x2?D?x] (4)
多次迭代后得到極值點(diǎn)[X],將式(4)代入式(3)后得到泰勒展開公式如下:
[D(X)=D+12?DT?X] (5)
當(dāng)[D(X)]位于閾值區(qū)間[0.01,0.05]內(nèi)時,判定其為穩(wěn)定的SIFT關(guān)鍵點(diǎn)并保留下來。這樣找到的SIFT關(guān)鍵點(diǎn)中包含圖像邊緣處的點(diǎn),該類極值點(diǎn)難以定位且對噪聲極其敏感,故也需要將其剔除。
3)SIFT特征描述子
SIFT特征描述是通過SIFT關(guān)鍵點(diǎn)鄰域內(nèi)像素梯度特性,確定特征點(diǎn)的主方向。每個極值點(diǎn)[L(x,y)]梯度的模[m(x,y)]與方向幅角[θ(x,y)]表示公式如下:
[m(x,y)=(L(x+1,y)-L(x-1,y))2+(L(x,y+1)-L(x,y-1))2] (6)
[θ(x,y)=tan-1(L(x,y+1)-L(x,y-1))/L(x+1,y)-L(x-1,y)] (7)
通過直方圖對鄰域內(nèi)極值點(diǎn)的梯度值和幅角值進(jìn)行統(tǒng)計,確定在直方圖最高峰處為關(guān)鍵點(diǎn)的方向。以關(guān)鍵點(diǎn)為中心選取16×16的鄰域窗口,并將其劃分為4×4的子區(qū)域,每個子區(qū)域統(tǒng)計8個方向的梯度,從而形成128維特征向量,對向量進(jìn)行歸一化后得到SIFT特征描述子。
4)SIFT特征點(diǎn)匹配
在對SIFT關(guān)鍵點(diǎn)進(jìn)行特征描述后,將兩幅圖像上的特征點(diǎn)進(jìn)行匹配。特征點(diǎn)的匹配,一般采用最近鄰法,并通過最近鄰與次近鄰距離比進(jìn)行篩選,將滿足條件的點(diǎn)擬定為匹配的SIFT特征點(diǎn)對[2]。對眼底圖像進(jìn)行SIFT特征提取后,初始匹配結(jié)果如圖1所示。
從圖1中可以看出,通過SIFT算法對眼底圖像進(jìn)行特征點(diǎn)提取匹配后發(fā)現(xiàn),SIFT特征點(diǎn)對于對比度低的眼底圖像匹配得到的特征點(diǎn)對太少,在后續(xù)使用匹配的特征點(diǎn)對來計算圖像配準(zhǔn)變換模型時,由于用來計算的特征點(diǎn)對數(shù)量不足,使得變換模型參數(shù)不夠準(zhǔn)確,影響最終的配準(zhǔn)結(jié)果。
2 SURF特征點(diǎn)提取與匹配
2006年,Bay等人[3]針對SIFT特征點(diǎn)在計算速度和效率上無法滿足實(shí)時性的這一問題,對SIFT算法進(jìn)行了改進(jìn),提出了快速魯棒特征(SURF) 算法,與SIFT算法相比,SURF算法通過采用積分圖像和盒狀濾波器近似高斯二階導(dǎo)數(shù),實(shí)現(xiàn)了尺度不變特征的快速檢測與描述。其具體實(shí)現(xiàn)步驟如下:
1)積分圖像
SURF算法將圖像與二階高斯微分模板進(jìn)行卷積濾波后,對得到的積分圖像進(jìn)行加減操作。定義源圖像I上任意一點(diǎn)[x',y']處的圖像灰度值為[I(x',y')],將該點(diǎn)處對應(yīng)的對角線矩形區(qū)域內(nèi)灰度值相加求和,表達(dá)公式如下:
[IZ(x,y)=i=0i?x'j=0j?y'I(x',y')] (8)
式(8)中,[IZ(x,y)]為在[(x',y')]點(diǎn)處的積分圖像數(shù)值。
2)圖像尺度空間建立
圖像[I]中任意像素點(diǎn)定義為[x,y],在尺度[σ]上的Hessian矩陣[H(x,σ)]表示公式如下:
[H(x,σ)=Lxx(x,σ)Lxy(x,σ)Lxy(x,σ)Lyy(x,σ)] (9)
式(9)中,[Lxx(x,σ)]是二階高斯微分與圖像對應(yīng)的像素點(diǎn)(x,y)在X方向上的卷積結(jié)果,同理求得[Lxy(x,σ)],[Lyy(x,σ)]。
將高斯二階微分圖形模板轉(zhuǎn)化成9×9的盒子濾波器模板,旋轉(zhuǎn)該模型發(fā)現(xiàn),當(dāng)圖像旋轉(zhuǎn)奇數(shù)倍的[π/4]時,檢測到的特征點(diǎn)有較少的重復(fù);當(dāng)旋轉(zhuǎn)偶數(shù)倍[π/4]時,重復(fù)率明顯增高。通過旋轉(zhuǎn)濾波器方向,對矩形區(qū)域中的白色,灰度,黑色區(qū)域分別填充1, 0,[-1]。
3)SURF特征描述子
SURF算法通過積分圖像與盒子濾波器進(jìn)行卷積后構(gòu)建空間金字塔,使其特征點(diǎn)具有尺度不變特性[4]。將每個特征點(diǎn)分配一個主方向,在4×4的鄰域范圍內(nèi)尋找x,y兩個方向上的Haar小波響應(yīng)值,用64維的特征向量來描述特征點(diǎn)。通過降低特征向量維度以及重構(gòu)尺度空間金字塔的方式,實(shí)現(xiàn)了對SIFT算法時間運(yùn)行復(fù)雜度上的優(yōu)化和改進(jìn)。
同樣的,對眼底圖像進(jìn)行SURF特征點(diǎn)的提取和初始匹配,結(jié)果如圖2所示。
從圖2中可以看出,SURF算法提取得到的特征點(diǎn)對布局相對集中,無法很好地描述整幅圖像的結(jié)構(gòu)信息,因此在后續(xù)使用圖像配準(zhǔn)變換模型對圖像進(jìn)行拼接時,得到的配準(zhǔn)結(jié)果也會較差。
3 基于血管分叉點(diǎn)的特征提取與匹配
本文中使用的眼底圖像對比度低,而傳統(tǒng)的特征點(diǎn)提取算法難以保證提取到的眼底圖像特征點(diǎn)數(shù)量以及準(zhǔn)確度。因此根據(jù)眼底圖像的特點(diǎn),從眼底圖像上提取血管樹,在血管中心線上尋找血管分叉點(diǎn),并通過對分叉點(diǎn)進(jìn)行SURF特征描述后,實(shí)現(xiàn)對眼底圖像特征點(diǎn)的提取,為后續(xù)特征點(diǎn)的匹配打下基礎(chǔ)。算法主要步驟如下:
1)血管樹的提取
本文主要通過二值化對眼底圖像進(jìn)行初始化處理后,進(jìn)行血管樹的提取。取RGB眼底彩色圖像綠色通道上的灰度圖像進(jìn)行二值化處理,結(jié)合眼底血管特性,血管中心通常是較暗或較亮的條紋,因此梯度方向垂直于血管,因此本論文從空間平面角度出發(fā),將空間平面每15°進(jìn)行血管劃分,設(shè)置血管檢測濾波器,然后將提取的12幅眼底圖像的像素點(diǎn)進(jìn)行整合,本文具體實(shí)現(xiàn)方法如下:
血管邊緣一般為三個像素點(diǎn),定義一個7×7的模板,將模板依次旋轉(zhuǎn)15°,共旋轉(zhuǎn)12次,旋轉(zhuǎn)的模板與眼底圖像依次進(jìn)行卷積。對于圖像上任意一點(diǎn)[m],將其模板區(qū)域內(nèi)的像素與定義的模板進(jìn)行卷積,將模板區(qū)域內(nèi)所有像素點(diǎn)卷積值的總和與設(shè)定的閾值進(jìn)行比較,當(dāng)該點(diǎn)處的值小于閾值時,則將其認(rèn)定為血管樹上像素點(diǎn),否則判定其為背景點(diǎn)。計算公式如下:
[P=i=0Nmi] (10)
式(10)中,N為模板區(qū)域內(nèi)的像素點(diǎn)數(shù),mi為m點(diǎn)處模板區(qū)域內(nèi)每個像素點(diǎn)對應(yīng)的卷積值。
[b=0" "Plt;V1" "P≥V] (11)
將各個像素點(diǎn)對應(yīng)的值與設(shè)定的閾值V進(jìn)行對比,b為分割后像素點(diǎn)對應(yīng)的二值化的值,0為分割出來的血管像素點(diǎn),1為眼底圖像背景像素點(diǎn)。
對FIRE眼底圖像數(shù)據(jù)庫中的圖像進(jìn)行血管樹的提取,各角度下提取效果及最終提取血管樹效果如圖3和圖4所示。
在得到了具有寬度的血管樹之后,利用血管邊緣的梯度、散度信息,將具有方向的梯度矢量轉(zhuǎn)變?yōu)樯⒍葮?biāo)量值,通過將像素點(diǎn)鄰域范圍內(nèi)的散度值和與閾值進(jìn)行比較,提取出眼底血管中心線。分別沿著水平和垂直方向?qū)G(x,y)]圖像內(nèi)像素點(diǎn)進(jìn)行梯度化處理,得到兩個方向上的梯度矢量[M,N],對該點(diǎn)處的梯度矢量進(jìn)行歸一化處理公式如下:
[M'=MM2+N2N'=NM2+N2] (12)
在此基礎(chǔ)上,根據(jù)眼底血管的不同方向,將梯度矢量轉(zhuǎn)化成散度標(biāo)量,并附加上角度旋轉(zhuǎn)來獲取不同角度下的血管中心線。公式如下:
[Pi=dM'dxcosθ+dN'dysinθ] (13)
式(13)中,Pi為單個圖像像素點(diǎn)的散度,將其周圍領(lǐng)域內(nèi)像素點(diǎn)散度相加,該像素點(diǎn)在鄰域內(nèi)的散度和SG(x,v)計算公式如下:
[SG(x,v)=i=1nPi] (14)
式(14)中,[n]表示鄰域內(nèi)像素點(diǎn)數(shù)。計算得到圖像中所有像素點(diǎn)的散度標(biāo)量值之后,通過設(shè)定的閾值將血管中心線提取出來,公式如下:
[I(x,y)∈0" "if" SG(x,y)≥t1" "if" SG(x,y)lt;t] (15)
式(15)中,t是中心線處設(shè)定的閾值,通過多次實(shí)驗(yàn)對比,本文中閾值大小[5]設(shè)定為0.8。將散度值大于閾值的像素點(diǎn)確定為血管中心線上的點(diǎn),再通過數(shù)學(xué)形態(tài)學(xué)上的腐蝕、膨脹和去骨刺等操作,將血管中心線圖像上出現(xiàn)的骨刺、邊緣骨骼等去掉,方便后續(xù)眼底圖像特征點(diǎn)的尋找。
2)血管分叉點(diǎn)提取
在提取得到血管中心線二值化圖像后,需要提取血管中線上的血管分叉點(diǎn)。
本文采用文獻(xiàn)[5]中的八鄰域模板定義,以P點(diǎn)為中心將其周圍八個像素點(diǎn)確定為連接點(diǎn),由于血管分叉點(diǎn)分布特征需要滿足其周圍至少具有三個鄰域點(diǎn),總共會出現(xiàn)[C38]=56種情況,找出16種滿足血管分叉點(diǎn)分布形態(tài)的情況,如圖5所示。
文獻(xiàn)[5]中定義的血管分叉點(diǎn)八鄰域模板能夠很好的實(shí)現(xiàn)血管分叉點(diǎn)的提取,但其對于分叉點(diǎn)的特征描述,通過角度以及長度信息對分叉點(diǎn)局部特征進(jìn)行描述,構(gòu)建了32維的特征向量。在降低特征向量維度的情況下,加快了分叉點(diǎn)特征描述時間,但其對于分叉點(diǎn)局部特征信息描述不夠詳細(xì),使得一些細(xì)小血管上的分叉點(diǎn)特征描述不夠完善,造成了分叉特征點(diǎn)的誤匹配以及漏匹配。針對這一問題,本文對其特征點(diǎn)的特征描述進(jìn)行了改進(jìn),通過使用滿足尺度不變特性,且在計算效率上足夠高效的SURF特征描述子對分叉點(diǎn)進(jìn)行特征描述,得到分叉特征點(diǎn),再通過歐式距離比較兩組特征向量,得到初始匹配的分叉特征點(diǎn),如圖6所示。
對初始匹配的血管分叉點(diǎn)通過歐式距離進(jìn)行提純后,剔除誤匹配點(diǎn)對,得到匹配的分叉特征點(diǎn),如圖7所示。
從圖7中可以看出,找到的血管分叉特征點(diǎn)遍布眼底圖像的重疊區(qū)域,能夠很好地描述整幅眼底圖像的結(jié)構(gòu)特征,匹配的特征點(diǎn)數(shù)量足夠多,且保持尺度不變特性,能夠很好地滿足眼底圖像配準(zhǔn)過程中的投影變換。
4 總結(jié)
從實(shí)驗(yàn)結(jié)果來看,經(jīng)典的SIFT算法對于對比度低的眼底圖像提取到的匹配特征點(diǎn)數(shù)量太少,這使得最終的拼接結(jié)果較差;SURF算法通過對SIFT算法的改進(jìn),由于尺度空間金字塔構(gòu)建方式的不同,能夠找到較多的特征點(diǎn)對,但從圖2中可以看出,使用SURF算法找到的特征點(diǎn)對過于集中,無法很好地滿足圖像的全局配準(zhǔn),且由于其對特征點(diǎn)的灰度差異值敏感,對于部分對比度過低的眼底圖像,其特征點(diǎn)提取數(shù)量也較少,穩(wěn)定性較差。
本文通過分割眼底圖像血管樹,在血管中心線上通過定義的八鄰域模板找出血管分叉點(diǎn),并將血管分叉點(diǎn)作為特征匹配點(diǎn),通過對分叉點(diǎn)進(jìn)行SURF特征描述,在SURF特征描述子本身滿足尺度不變、旋轉(zhuǎn)縮放不變特性的同時,提取到的分叉點(diǎn)匹配特征點(diǎn)對數(shù)足夠多,從圖7中也可以看出,特征點(diǎn)分布在眼底圖像全局,能夠很好地表示整幅眼底圖像結(jié)構(gòu),后續(xù)可通過匹配的特征點(diǎn)實(shí)現(xiàn)同一病患不同角度眼底圖像的配準(zhǔn)拼接,從而便于醫(yī)師的臨床診斷。但本文在對血管分割準(zhǔn)確性的依賴,以及嚴(yán)重病變圖像的性能方面,缺乏廣泛的量化評估指標(biāo),在后續(xù)的實(shí)驗(yàn)中,會繼續(xù)探索基于深度學(xué)習(xí)[6]的分叉點(diǎn)特征檢測器、描述子與其他最新方法進(jìn)行廣泛的量化比較,從而將本文方法更好地應(yīng)用于特定的臨床任務(wù)。
參考文獻(xiàn):
[1] LOWE D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[2] 寇元超,張?zhí)K楠,古佳堯.改進(jìn)的SIFT算法在醫(yī)學(xué)圖像匹配中的應(yīng)用[J].山西電子技術(shù),2025(2):7-9.
[3] BAY H,TUYTELAARS T,VAN GOOL L.SURF:speeded up robust features[C]//Computer Vision-ECCV 2006.Berlin,Heidelberg:Springer,2006:404-417.
[4] 陳丹華.彩色眼底視網(wǎng)膜圖像配準(zhǔn)算法研究[D].桂林:廣西師范大學(xué),2019.
[5] HANG Y L,ZHANG X F,SHAO Y Q,et al.Retinal image registration based on the feature of bifurcation point[C]//2017 10th International Congress on Image and Signal Processing,BioMedical Engineering and Informatics (CISP-BMEI).October 14-16,2017.Shanghai.IEEE,2017:1-6.
[6] 何夏蘭.基于深度學(xué)習(xí)的視網(wǎng)膜眼底圖像分割與病變分類研究[D].南京:南京林業(yè)大學(xué),2024.
【通聯(lián)編輯:朱寶貴】