張克軍,竇建君
(1.徐州工程學(xué)院,江蘇 徐州 221018;2.西北工業(yè)大學(xué) 理學(xué)院,陜西 西安 710129)
基于小波方向波變換和灰度共生矩陣的紋理圖像檢索
張克軍1,2,竇建君1
(1.徐州工程學(xué)院,江蘇 徐州 221018;2.西北工業(yè)大學(xué) 理學(xué)院,陜西 西安 710129)
針對(duì)紋理檢索中的圖像特征提取問(wèn)題,基于小波方向波變換和灰度共生矩陣,提出了一種新的紋理圖像特征提取方法,可對(duì)紋理圖像進(jìn)行檢索.首先通過(guò)計(jì)算小波方向波變換分解后獲得的各子帶的均值和標(biāo)準(zhǔn)方差以及灰度共生矩陣的二階矩、對(duì)比度、相關(guān)系數(shù)、熵的均值構(gòu)造紋理圖像的特征向量,然后采用不同權(quán)值的平均歐氏相似性度量方法作為相似度衡量標(biāo)準(zhǔn)進(jìn)行檢索.研究結(jié)果表明該方法具有更好的檢索效果,平均查準(zhǔn)率有較大的提高.
圖像檢索;小波方向波變換;灰度共生矩陣;特征提取
在基于內(nèi)容的圖像檢索系統(tǒng)中,提取圖像的特征是一關(guān)鍵步驟,而合適的特征向量可以有效地提高圖像檢索的精確度,那么如何有效地表示圖像信息就成為圖像特征提取的關(guān)鍵問(wèn)題.為了尋找有效的圖像信息表示方法,眾多研究者提出了一些能夠提供圖像的稀疏表示的多尺度幾何分析方法[1-5],其中基于整數(shù)格的完全重構(gòu)和臨界采樣的多方向各向異性變換——方向波變換(directionlet transform,DT)具有復(fù)雜度低、設(shè)計(jì)簡(jiǎn)單和多方向性等優(yōu)良特性,已應(yīng)用于圖像融合、圖像重構(gòu)、遙感圖像去噪、邊緣檢測(cè)等領(lǐng)域[6-11],并產(chǎn)生了很好的效果.然而,DT不能較好地表示圖像中的平滑區(qū)域,因此為了彌補(bǔ)DT的缺陷,徐華楠等[12]提出了小波方向波變換(wavelet-directionlet transform,WT-DT),并應(yīng)用于圖像去噪和圖像增強(qiáng)中.小波方向波變換在保持WT的多分辨尺度關(guān)系的基礎(chǔ)上,綜合了WT和DT多分辨率、多方向表達(dá)等優(yōu)點(diǎn),具有多分辨率、多方向的圖像表示特性,能很好表示圖像的平滑區(qū)域和細(xì)節(jié)信息.本研究結(jié)合小波方向波變換和灰度共生矩陣提取紋理圖像的特征,對(duì)紋理圖像進(jìn)行檢索,且經(jīng)Brodatz標(biāo)準(zhǔn)紋理庫(kù)圖像檢索實(shí)驗(yàn)驗(yàn)證,能夠?qū)y理圖像進(jìn)行很好的檢索,具有較高的查準(zhǔn)率.
1.1 方向波變換
標(biāo)準(zhǔn)的二維小波變換是各向同性的,不能有效獲取圖像的輪廓、邊緣這類(lèi)各向異性特征.文獻(xiàn)[5]提出了各向異性小波變換(anisotropic wavelet transform,AWT),指出在AWT(n1,n2)中,同一尺度上沿圖像的水平和垂直方向進(jìn)行變換的次數(shù)n1、n2可以不相同,而各向異性比率ρ=n1/n2可定義為AWT(n1,n2)基函數(shù)的延伸率.以AWT(2,1)為例,其結(jié)構(gòu)如圖1[5]所示,那么AWT(2,1)可以表示二維小波變換.
圖1 AWT(2,1)變換示意圖及頻域劃分
為了更好地獲取圖像的多方向特性,可采用整數(shù)格方法.整數(shù)格Λ由1個(gè)不唯一的生成矩陣MΛ[13]來(lái)表示,即
對(duì)給定的整數(shù)格Λ,利用它的生成矩陣MΛ將圖像分成若干陪集,然后對(duì)這些陪集沿水平和垂直方向進(jìn)行各向異性小波變換,即為斜小波變換(skewed anisotropic wavelet transform,SAWT),也稱(chēng)為方向波變換,其基稱(chēng)為方向波[5],記為SAWT(MΛ,n1,n2),在一個(gè)迭代步驟中分別沿變換方向和隊(duì)列方向具有n1和n2次的變換.方向波變換能夠更加有效地表示圖像的多方向各向異性特征.
1.2 小波方向波變換
方向波變換雖然能夠有效表示圖像的多方向各向異性特征,但不能很好處理圖像的平滑區(qū)域,而小波變換卻能解決這一問(wèn)題.結(jié)合小波變換和方向波變換的優(yōu)點(diǎn),文獻(xiàn)[12]構(gòu)造的小波方向波變換具有分辨率尺度關(guān)系、靈活多變的方向以及各向異性的基等特性。其構(gòu)造過(guò)程如下:首先在每一尺度上,對(duì)圖像進(jìn)行小波變換,獲得1個(gè)低頻子帶和3個(gè)高頻子帶,然后對(duì)每個(gè)高頻子帶進(jìn)行方向波變換,依此在獲得的低頻子帶上迭代進(jìn)行,即為小波方向波變換,記為WT-DT(MΛ,n1,n2)。它在進(jìn)行方向波變換時(shí),采用的整數(shù)格生成矩陣為MΛ,沿變換方向和隊(duì)列方向分別具有n1和n2次的變換.圖2給出了對(duì)一幅紋理圖像分別進(jìn)行小波變換、方向波變換和小波方向波變換后的子帶圖像.3種變換都采用“9-7”濾波器,進(jìn)行2層分解.將方向波變換和小波方向波變換中的方向波變換使用矩陣[1,1;0,1]作為整數(shù)格生成矩陣,沿變換方向和隊(duì)列方向進(jìn)行變換的次數(shù)分別為1和2.
圖2 對(duì)紋理圖像進(jìn)行變換得到的子帶圖像
2.1 基于小波方向波變換的紋理特征提取
對(duì)紋理圖像進(jìn)行2層小波方向波變換,變換后獲得1個(gè)低頻子帶和48個(gè)高頻子帶圖像,然后對(duì)每一子帶分別計(jì)算其均值μs,k和標(biāo)準(zhǔn)方差σs,k.其定義分別如下:
(1)
(2)
式中Ws,k(i,j)表示第s個(gè)尺度k個(gè)方向上的子帶圖像的系數(shù).將所有子帶的均值和標(biāo)準(zhǔn)方差級(jí)聯(lián),構(gòu)成一個(gè)98維的向量
2.2 基于灰度共生矩陣的紋理特征提取
灰度共生矩陣(gray level concurrence matrix,GLCM)描述了圖像灰度關(guān)于方向、相鄰間隔、變化幅度等信息.Haralick[14]等定義了用于紋理分析的14個(gè)灰度共生矩陣特征參數(shù),其中僅有二階矩、對(duì)比度、相關(guān)系數(shù)、熵4個(gè)特征是不相關(guān)的.一般情況下,采用這4個(gè)特征描述圖像的紋理信息,其定義分別如下:
二階矩
(3)
對(duì)比度
(4)
相關(guān)系數(shù)
(5)
熵
(6)
式中:p(i,j)是歸一化后的灰度共生矩陣的元素;μ1、μ2、σ1、σ2分別為
(7)
(8)
(9)
(10)
2.3 相似性度量
目前,用于紋理圖像檢索的相似性度量方法有很多種,但是它們都存在一些不足.Zhu等[15]提出的一種平均歐氏相似性度量方法,能夠綜合利用所有的特征,和傳統(tǒng)距離相似性度量方法相比,具有較高的檢索率.因此,選擇平均歐氏相似性度量方法作為相似度衡量標(biāo)準(zhǔn).相似性度量公式為
(11)
式中xik、yjk分別表示待檢索圖像xi和圖像庫(kù)中的目標(biāo)圖像yj的特征向量的分量.
3.1 實(shí)驗(yàn)方法
將Brodatz標(biāo)準(zhǔn)紋理庫(kù)中的112幅512×512的紋理圖像進(jìn)行分割,分為不相交的16幅子圖(128×128),獲得一個(gè)包含1792幅子圖的圖像庫(kù).屬于同一幅原始圖像的16幅子圖形成1個(gè)分組,那么理想狀況下對(duì)檢索圖像的檢索結(jié)果應(yīng)該是與之屬于同一幅原始圖像的子圖.
基于小波方向波變換和灰度共生矩陣的紋理圖像檢索算法過(guò)程如下:
步驟1 對(duì)一幅待檢索子圖和圖像庫(kù)中的子圖分別構(gòu)造特征向量F1和F2.
步驟2 對(duì)檢索子圖和圖像庫(kù)中的子圖分別構(gòu)造特征向量G1和G2.
步驟4 為更好地利用上述紋理特征,采用不同權(quán)值的平均歐氏相似性度量方法對(duì)待檢索子圖和圖像庫(kù)中的目標(biāo)子圖的相似度進(jìn)行衡量.計(jì)算公式如下:
(12)
式中:xik、yjk分別表示待檢索子像xi和圖像庫(kù)中的目標(biāo)子像yj的特征向量的分量;α、β、γ都是正的常數(shù),且α+β+γ=1.
按照式(12)分別計(jì)算待檢索子圖與圖像庫(kù)中的所有子圖的距離,從而根據(jù)距離的大小得到距離待檢索子圖特征向量最近的16個(gè)特征向量所對(duì)應(yīng)的子圖;查看其中包含多少幅子圖屬于該檢索子圖所屬的分組,并將該值除以16作為該檢索子圖查準(zhǔn)率.
步驟5 按照步驟1~4分別計(jì)算圖像庫(kù)中1792幅子圖的查準(zhǔn)率,并求平均值,將其作為平均查準(zhǔn)率.平均查準(zhǔn)率可定義為
(13)
式中:m為圖像庫(kù)中紋理子圖的總數(shù);S(n,i)表示第i幅子圖作為待檢索子圖,而得到的n幅最匹配結(jié)果子圖中包含第i幅子圖所屬的分組的子圖的數(shù)目.
步驟6 對(duì)于n∈{16,20,30,40,50},分別計(jì)算每個(gè)n對(duì)應(yīng)的查準(zhǔn)率.
3.2 實(shí)驗(yàn)結(jié)果與分析
為檢驗(yàn)相似性度量方法中的權(quán)值對(duì)檢索效果的影響,對(duì)權(quán)值分別取不同的數(shù)值進(jìn)行檢索.結(jié)果見(jiàn)表1.
表1 不同權(quán)值的平均查準(zhǔn)率的比較 %
圖3 5種方法的平均查準(zhǔn)率
實(shí)驗(yàn)結(jié)果表明:基于小波方向波變換的紋理特征和基于灰度共生矩陣的紋理特征對(duì)紋理圖像的檢索效果是有差距的,即基于灰度共生矩陣的紋理特征分量占用較小分量時(shí),檢索效果較好.經(jīng)過(guò)多次實(shí)驗(yàn)驗(yàn)證,當(dāng)α=0.4,β=0.4,γ=0.2時(shí),紋理圖像檢索效果最好.
為檢驗(yàn)本方法的有效性,將它與灰度共生矩陣(GLCM)、小波變換(WT)、Contourlet變換(CT)、小波方向波變換(WT-DT)進(jìn)行比較,并都采用“9-7”濾波器進(jìn)行2層分解.結(jié)果如圖3所示.
從圖3中可以看出,與其他4種方法相比,本方法的平均查準(zhǔn)率有較大的提高,特別是當(dāng)n=16時(shí),紋理圖像檢索的平均查準(zhǔn)率提高到75.2%.
提出一種基于小波方向波變換和灰度共生矩陣的紋理圖像檢索方法,可采用小波方向波變換對(duì)紋理圖像進(jìn)行2層分解,獲得不同尺度、不同方向上的高、低頻子帶;分別計(jì)算各子帶的均值和標(biāo)準(zhǔn)方差,然后計(jì)算灰度共生矩陣的二階矩、對(duì)比度、相關(guān)系數(shù)、熵的均值;在此基礎(chǔ)上,構(gòu)造紋理圖像的特征向量,并采用不同權(quán)值的平均歐氏相似性度量方法作為相似度衡量標(biāo)準(zhǔn)進(jìn)行檢索.實(shí)驗(yàn)結(jié)果表明,與基于灰度共生矩陣、小波變換、Contourlet變換、小波方向波變換等傳統(tǒng)方法相比,本方法取得了更好的檢索效果,平均查準(zhǔn)率有較大的提高.
[1] CANDèS E J.Ridgelets:theory and applications[D].California:Department of Statistics,Stanford University,1998.
[2] CANDèS E J,DONOHO D L.Curvelets:a surprisingly effective nonadaptive representation for objects with edges[D].Saint-Malo:Vanderbilt University.Press,1999.
[3] DONOHO D L,HUO X.Beanmlets and multiscale images analysis[R].Department of Statistics,Stanford University,1999.
[4] DO M N,VETTERLI M.The contourlet transform: an efficient directional multiresolution image representation[J].IEEE Transactions Image on Processin,2005,14(12):2091-2106.
[5] VELISAVLIJEVIC V,BEFERULLLOZANO B,VETTERLI M,et al.Directionlets: anisotropic multidirectional representation with separable filtering[J].IEEE Transactions on Image Processing,2006,25(7):1916-1933.
[6] 林玉池,劉啟海,陶力,等.一種基于Directionlet變換的圖像融合算法[J].納米技術(shù)與精密工程,2010,8(6):565-568.
[7] REJI A P,THOMAS T.A learning based single image super resolution method using directionlets[C].2010 International Conference on Advances in Computer Engineering,2010:69-73.
[8] MA N,ZHOU Z M,ZHANG P,et al.SAR image despeckling using directionlet transform and gaussian scale mixtures model[C].2010 2nd International Conference on Future Computer and Communication,2010:636-640.
[9] 李彥,張德祥,桂樹(shù)國(guó).基于Directionlet變換的遙感圖像降噪算法研究[J].佳木斯大學(xué)學(xué)報(bào)(自然科學(xué)版),2016,34(4):560-563.
[10] HOU B,GUAN H,JIANG J G,et al.SAR image despeckling based on improved directionlet domain gaussian mixtures model[C].2011 IEEE International Geoscience and Remote Sensing Symposium,2011:3795-3798.
[11] BAI J,ZHOU H J.Edge detection approach based on directionlet transform[C].2011 IEEE International Conference on Multimedia Technology,2011:3512-3515.
[12] 徐華楠,彭國(guó)華,劉哲.基于小波變換的多方向小波變換[J].計(jì)算機(jī)科學(xué),2014,41(3):282-285.
[13] 焦李成,侯彪,王爽,等.圖像多尺度幾何分析理論與應(yīng)[M].西安:西安電子科技大學(xué)出版社,2008.
[14] HARALICK R M,SHANMUGAM K,DINSTEIN I.Textural features for image classification[J].IEEE Transactions on Systems,Man and Cybernetic,1973,3(6):610-621.
[15] ZHU Z L,ZHAO C X,HOU YI K.Research on similarity measurement for texture image retrieval[J].Plos One,2012,7(9):1-14.
(編輯 徐永銘)
Texture Image Retrieval Based on Wavelet-Directionlet Transform and GLCM
ZHANG Kejun1,2,DOU Jianjun1
(1.Xuzhou Institute of Technology , Xuzhou 221018,China;2.School of Natural and Applied Sciences, Northwestern Polytechnical University, Xi'an 710129,China)
For the problem of image feature extraction in texture retrieval,a method of texture image feature extraction is proposed based on Wavelet-directionlet transform and gray level concurrence matrix(GLCM) and applied to the texture image retrieval.Feature vector of texture image is constructed by calculating the mean and standard deviation of sub-bands after decomposing image by Wavelet-directionlet transform,and the mean of the angular second moment,contrast,correlation, entropy of the GLCM.Then the similarity measurement of average Euclidean with different weights is used for image retrieval.The experiments show that the method has a better retrieval accuracy,and average precision is greatly improved.
image retrieval; wavelet-directionlet transform; gray level concurrence matrix (GLCM);feature extraction
2016-10-11
國(guó)家自然科學(xué)基金項(xiàng)目(61201323)
張克軍(1979-),男,講師,博士研究生,主要從事圖像處理、模式識(shí)別研究.
TP391.41
A
1674-358X(2016)04-0065-05