• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      結(jié)合中心投影和NSCT的圖像不變特征提取

      2013-01-31 05:23:14李康順
      電視技術(shù) 2013年17期
      關(guān)鍵詞:區(qū)分度廣義復(fù)雜度

      吳 軍,孫 濤,李康順,2

      (1.江西理工大學(xué) 信息工程學(xué)院,江西 贛州341000;2.華南農(nóng)業(yè)大學(xué) 信息學(xué)院,廣東 廣州510642)

      圖像不變特征提取是圖像處理、模式識別、計(jì)算機(jī)視覺等領(lǐng)域的熱點(diǎn)研究問題,有著廣闊的應(yīng)用領(lǐng)域[1-2]。根據(jù)提取特征時(shí)圖像信息利用程度不同,不變特征提取的算法主要包括基于輪廓的算法和基于區(qū)域的算法[3]。基于輪廓的算法最常用的方法有Fourier描述子和小波描述子[4]。基于輪廓的算法具有易于理解、計(jì)算量較小等優(yōu)點(diǎn),但其特征提取結(jié)果依賴于輪廓提取的結(jié)果,而且只適用于單一輪廓的物體,極大地限制了其應(yīng)用范圍?;趨^(qū)域的算法則是利用圖像上所有的點(diǎn)進(jìn)行不變特征提取,常用的圖像全局特征提取方法有Hu矩、連續(xù)正交矩[5]、小波矩[6]等。基于區(qū)域的算法具有較完善的理論基礎(chǔ),在很多領(lǐng)域得到了廣泛應(yīng)用。但基于區(qū)域的方法存在計(jì)算復(fù)雜度較高和對圖像背景上的噪點(diǎn)敏感等不足。

      針對目前不變特征提取方法普遍存在方法技巧性強(qiáng)、缺乏理論基礎(chǔ)等不足,本文提出了一種結(jié)合中心投影和非下采樣Contourlet變換(Non-subsampled Contourlet Transform,NSCT)的全局圖像不變特征提取算法。算法首先利用中心投影獲得圖像的廣義輪廓表示,其次在相位域中對廣義輪廓進(jìn)行離散傅里葉變換,最后對離散傅里葉系數(shù)進(jìn)行NSCT變換并構(gòu)造不變特征。實(shí)驗(yàn)結(jié)果表明本文算法構(gòu)造的不變特征對相同目標(biāo)圖像仿射變換具有較強(qiáng)的穩(wěn)健性,對不同目標(biāo)圖像具有較好的敏感性,是一種有效的仿射不變特征提取算法。

      1 中心投影變換

      文獻(xiàn)[7]提出中心投影變換,成功地用于字符、二值圖像等的旋轉(zhuǎn)不變特征提取。利用中心投影變換,不僅能夠?qū)崿F(xiàn)數(shù)據(jù)降維,而且能將多部分組成的物體轉(zhuǎn)化為一個(gè)閉合輪廓。

      假設(shè)區(qū)域D上存在二值圖像I(x,y),D0?D為待識別對象,則

      將式(1)從笛卡爾坐標(biāo)系轉(zhuǎn)換為極坐標(biāo)系,以目標(biāo)區(qū)域的質(zhì)心m為原點(diǎn),目標(biāo)區(qū)域中像素與質(zhì)心的最大距離為半徑R,則G(r,θ)為原始圖像I(x,y)在極坐標(biāo)下的表示,從而可給出中心投影變換的定義。

      推論:當(dāng)G(r,θ)為二值圖像的極坐標(biāo)表示,那么{f(θ)|θ∈[0,2π]}為原始圖像I(x,y)的廣義輪廓。

      由推論可知:f(θ)為角度θ上圖像各像素灰度值的累加和,(f(θ),θ)為極坐標(biāo)系下的一條閉合曲線;同時(shí)推論給出了原始圖像在笛卡爾坐標(biāo)系下與極坐標(biāo)系下圖像灰度值和坐標(biāo)之間的對應(yīng)關(guān)系。

      2 非采樣Contourlet變換

      2002年Do M N[8]提出了一種真正的非自適應(yīng)圖像多尺度幾何表示方法——Contourlet變換,即塔形方向?yàn)V波器組(PDFB)。Contourlet變換是一種多分辨率、局域、多方向的圖像表示方法。與其他變換相比,Contourlet變換能夠僅使用少量系數(shù)有效地表示圖像平滑輪廓,而平滑輪廓正是自然圖像中的重要特征之一。但由于Contourlet變換在LP濾波和DFB濾波中均存在上采樣和下采樣,因此Contourlet變換不具有平移不變性。2005年Arthur Cunha[9]等人提出了一種改進(jìn)的Contourlet變換——非下采樣Contourlet變換。

      非下采樣Contourlet變換[10]結(jié)構(gòu)和Contourlet變換的結(jié)構(gòu)在本質(zhì)上具有相似的子帶分解,但是不具有上采樣和下采樣過程。非下采樣塔形濾波器和非下采樣方向性濾波器都是雙通道濾波器,它們的頻率響應(yīng)如圖1所示。非下采樣Contourlet變換可以分成具有平移不變性的兩個(gè)部分:非下采樣塔形濾波器和非下采樣方向性濾波器。非下采樣塔形濾波器(NSP)確保多尺度性,非下采樣方向性濾波器(NSDFB)確保多方向性。由于沒有上采樣和下采樣,所有的子帶分解都與原圖大小相同。非下采樣Contourlet變換是一種完善的變換,具有平移不變性、多尺度性、多方向性,并能快速實(shí)現(xiàn),其構(gòu)造原理圖和頻域示意圖分別如圖2、圖3所示。

      3 特征提取算法

      3.1 廣義輪廓參數(shù)化

      通過中心投影變換可將圖像轉(zhuǎn)換為廣義輪廓,同時(shí)為了能夠使用基于輪廓的分析方法,需要將廣義輪廓參數(shù)化,從而提取圖像的不變特征。本文采用EAN(Equal Area Normalization)[11]的參數(shù)化方法,主要包括以下步驟:

      1)離散的廣義輪廓{(x(θk),y(θk)):k=0,1,2,…,N-1},計(jì)算廣義輪廓所圍的總面積為

      圖2 NSCT結(jié)構(gòu)圖

      圖3 NSCT頻域示意圖

      2)選擇廣義輪廓的起始點(diǎn)作為參數(shù)化曲線的起始點(diǎn)P0(x'(θ0),y'(θ0))。從P0開始,尋找點(diǎn)P1(x'(θ1),y'(θ1)),使曲線P0GP1圍成的面積等于Spart,G為物體質(zhì)心。

      3)類似地,從P1(x'(θ1),y'(θ1))開始沿著廣義輪廓計(jì)算所有點(diǎn)Pi(x'(θi),y'(θi)),i∈{2,3,…,N-1}。圖4為廣義輪廓EAN參數(shù)化的示例。

      圖4 EAN參數(shù)化示例

      3.2 特征提取

      本文利用圖像廣義輪廓的概念構(gòu)造了NSCT域圖像目標(biāo)的不變特征。該特征不僅具有中心投影變換所具有的旋轉(zhuǎn)不變特性,同時(shí)還具有NSCT變換所具備的平移不變、多尺度、多方向特性,二者的結(jié)合提高了對相近目標(biāo)的區(qū)分能力。

      本文設(shè)計(jì)的仿射不變特征提取算法主要包含以下步驟:1)將圖像I(x,y)從笛卡爾坐標(biāo)系轉(zhuǎn)換到極坐標(biāo)系I(r,θ),極坐標(biāo)系以質(zhì)心)為圓心,徑向r分量的取值范圍為提取圖像I(r,θ)的廣義輪廓?I,利用原始圖像在笛卡爾坐標(biāo)系下與極坐標(biāo)系下圖像灰度值和坐標(biāo)之間的對應(yīng)關(guān)系,對廣義輪廓?I閉合曲線區(qū)域內(nèi)元素賦值,得到IS(r,θ);3)相位域中對IS(r,θ)進(jìn)行一維離散傅里葉變換,得到ISR(r,θ);4)對ISR(r,θ)進(jìn)行NSCT變換,得到NSCT域仿射不變特征向量。

      假設(shè)原始圖像I(x,y)大小為N×N,根據(jù)特征提取算法步驟可分析其計(jì)算復(fù)雜度如下:坐標(biāo)系轉(zhuǎn)換復(fù)雜度為O(N2),廣義輪廓復(fù)雜度為O(N),一維離散傅里葉復(fù)雜度為O(N2logN),NSCT復(fù)雜度為O(N2)。因此整個(gè)算法的計(jì)算復(fù)雜度為O(N2logN)。

      4 實(shí)驗(yàn)結(jié)果

      4.1 穩(wěn)健性分析

      為了驗(yàn)證本文算法的有效性,選用圖5所示的飛機(jī)圖像作為原始測試圖像,對圖4中的圖像分別進(jìn)行平移(平移量為0,±5,±10)、比例縮放(比例因子為0.75,0.85,0.95,1.05,1.15,1.25)、旋轉(zhuǎn)(旋轉(zhuǎn)角為0°,30°,60°,90°,120°,150°)變換,得到測試圖像集。選用分離度D(i,K)=1-作為衡量指標(biāo),部分結(jié)果分別如表1和表2所示。

      圖5 原始測試圖像

      表1 不同位置和方向圖像與原圖像間分離度

      表2 不同位置和尺寸圖像與原圖像間分離度

      表1和表2的實(shí)驗(yàn)結(jié)果分別顯示了原始圖像仿射變換前后間的分離度值。從表1可以看出本文算法提取的不變特征對平移變換具有很好的穩(wěn)健性,對兩種組合變換引入的最大誤差為0.067 9。從表2的實(shí)驗(yàn)結(jié)果可以看出本文算法在比例縮放攻擊下引入的最大誤差為0.059 9,最小為0.002。因此本文算法抗比例縮放變換性能略優(yōu)于文獻(xiàn)[12]。

      4.2 敏感性分析

      圖像仿射不變特征除了3對圖像的各種幾何變形具有較好的魯棒性外,還必須能夠區(qū)分內(nèi)容很接近的目標(biāo)圖像,即提取的特征既具穩(wěn)健性又具敏感性。通過對NSCT變換系數(shù)的分析,考慮到子帶系數(shù)的統(tǒng)計(jì)特性,選用類間區(qū)分度d(Ii,Ij)衡量特征的敏感性,定義為

      式中:Ci和Cj分別表示第i類目標(biāo)圖像和第j類目標(biāo)圖像的仿射不變特征;WKLD(Ii,Ij)是目標(biāo)圖像間自帶系數(shù)分布的Kullback-Leibler[13]距離;|Ci-Cj|是特征值的歐氏距離。類間分離度d(Ii,Ij)取值越大,則表示目標(biāo)圖像間區(qū)分越大。

      表3所示為目標(biāo)圖像與對比圖像在某些仿射變換下的區(qū)分度值,從表3可見不同目標(biāo)圖像間的區(qū)分度最大值為0.967 1,最小值為0.801 4,遠(yuǎn)大于相同目標(biāo)圖像間的分離度值。因此本文設(shè)計(jì)算法具有較好的類間區(qū)分度。

      表3 測試圖像的類間區(qū)分度

      4.3 與類似算法的比較

      文獻(xiàn)[14]提出了一種基于輪廓追蹤的穩(wěn)健特征識別和提取方法,本文算法采用與文獻(xiàn)[14]相同的實(shí)驗(yàn)數(shù)據(jù)進(jìn)行特征提取,實(shí)驗(yàn)結(jié)果如表4所示。從表4可見,本文算法在字符A、H、己、已之間的區(qū)分度從文獻(xiàn)[14]的0.185 2和0.178 0分別提高到本文算法下的0.815 5和0.921 2。因此在相同實(shí)驗(yàn)數(shù)據(jù)下,本文算法的區(qū)分度優(yōu)于對比文獻(xiàn)[14]。

      表4 字符A、H、己、已的區(qū)分度

      5 結(jié)論

      本文設(shè)計(jì)了一種新的全局不變特征提取算法,該特征結(jié)合中心投影和NSCT變換,充分利用了兩種技術(shù)的優(yōu)勢,使得提取的圖像特征具有良好的仿射不變性。實(shí)驗(yàn)結(jié)果證明本文算法設(shè)計(jì)的特征對相同目標(biāo)圖像具有較高的穩(wěn)健性,對不同目標(biāo)圖像具有很好的敏感性,是一種有效的仿射不變特征提取算法。接下來的工作將集中在結(jié)合局部仿射不變特征和全局仿射不變特征二者的優(yōu)勢,在有效控制算法復(fù)雜度的前提下,設(shè)計(jì)出性能更加優(yōu)異的仿射不變特征提取算法。

      [1]索增強(qiáng),卓東風(fēng).基于非下采樣Contourlet變換多描述圖像編碼方法[J].電視技術(shù),2012,36(17):23-25.

      [2]王昕,李影昉,王影.基于分塊和Contourlet變換相結(jié)合的多聚焦圖像融合算法[J].電視技術(shù),2011,35(23):22-24.

      [3]ZHANG D S,LU G J.Review of shape representation and description techniques[J].Pattern Recognition,2004(37):1-19.

      [4]MA F,CHANG C Q,HUNG Y S.A subsapce approach for matching 2D shapes under affine distortions[J].Pattern Recognition,2011(44):210-221.

      [5]ZHANG H,SHU H Z,HAIGRON P,et al.Construction of a complete set of orthogonal fourier-mellin moment invariants for pattern recognition applications[J].Image and Vision Computing,2010(28):38-44.

      [6]ZHANG F,LIU S Q,WANG D B,et al.Aircraft recognition in infrared image using wavelet moment invariants[J].Image and Vision Computing,2009(27):313-318.

      [7]TANG Y Y,TAO T,LAM E C M.New method for extraction based on fractal behavior[J].Pattern Recognition,2002(35):1071-1081.

      [8]DO M N,VETTERLI M.The contourlet transform:an efficient directional multiresolution image representation[J].IEEE Trans.Image Processing,2005,14(12):2091-2106.

      [9]CUNHA A L,ZHOU Jianpin,DO M N.The nonsubsampled contourlet transform:theory,design,and applications[J].IEEE Trans.Image Processing,2006,15(10):3089-3101.

      [10]CANDES E J,DONOHO D L.Curvelets:a surprisingly effective non-adaptive representation for objects with edges[EB/OL].[2012-09-02].http://www-stat.stanford.edu/~candes/papers/Curvelet-SMStyle.pdf.

      [11]YANG M Q,KPALMA K,RONSIN J.Affine invariance contour descriptou based on the equal area normalization[J].LAENG International Journal of Applied Mathematics,2007(36):2-7.

      [12]梅雪,夏良正.Contourlet域目標(biāo)不變特征提取[J].計(jì)算機(jī)工程,2010,37(11):275-277.

      [13]梅雪,李久賢,夏良正.基于contourlet變換的加權(quán)小波特征抽取算法[J].數(shù)據(jù)采集與處理,2008,23(1):23-27.

      [14]楊明,劉強(qiáng),尹忠科,等.基于輪廓追蹤的字符識別特征提取[J].計(jì)算機(jī)工程與應(yīng)用,2007,43(20):207-209.

      猜你喜歡
      區(qū)分度廣義復(fù)雜度
      Rn中的廣義逆Bonnesen型不等式
      從廣義心腎不交論治慢性心力衰竭
      淺談試卷分析常用的幾個(gè)參數(shù)及其應(yīng)用
      一種低復(fù)雜度的慣性/GNSS矢量深組合方法
      圖形推理測量指標(biāo)相關(guān)性考察*
      江淮論壇(2018年4期)2018-08-24 01:22:30
      求圖上廣探樹的時(shí)間復(fù)雜度
      淺觀一道題的“區(qū)分度”
      有限群的廣義交換度
      某雷達(dá)導(dǎo)51 頭中心控制軟件圈復(fù)雜度分析與改進(jìn)
      單維參數(shù)型與非參數(shù)型項(xiàng)目反應(yīng)理論項(xiàng)目參數(shù)的比較研究*
      青海省| 双江| 五寨县| 邛崃市| 沙田区| 报价| 梁山县| 隆尧县| 江油市| 新绛县| 新乡县| 分宜县| 华容县| 本溪市| 衡阳县| 安吉县| 靖西县| 赤峰市| 六安市| 松滋市| 青河县| 石家庄市| 山阳县| 深泽县| 扎赉特旗| 永春县| 天门市| 广西| 敦煌市| 城步| 沿河| 武邑县| 五指山市| 客服| 兴海县| 中卫市| 祁连县| 武平县| 北票市| 凤山市| 高陵县|