姚娜 呂海芳 陳杰
(塔里木大學信息工程學院,新疆 阿拉爾 843300)
對于圖像紋理特征的提取研究主要是基于模型類、統(tǒng)計類、信號處理類三大類的方法,各種方法的有效性相差無幾,查準率和查全率的乘積的最大值在0.1~0.3 之間波動,但是在計算復雜度、反映圖像信息的全面性、像素之間的依賴性和多分辨特性等角度各有各的優(yōu)勢與不足,其中多種方法都有計算量大,計算復雜度高的缺點[1]。1999年,Johnson在Eckhorn 貓視覺神經元模型的基礎上提出了脈沖耦合神經網絡(Pulse Coupled Neural Network,PCNN)[2-4]。PCNN 在圖像處理[5]方面得到了廣泛的應用,包括圖像融合、去噪、分割、邊緣提取等,近期也用在了圖像特征提取方面[6-7],論文提出將脈沖耦合神經網絡的方法用于漢字圖像的紋理特征的提取中。中華文化中的漢字復原對于文化遺產的保護和傳承有著極其重要的作用,對于漢字的特征提取重要的是形狀提取和紋理提取,形狀特征的提取相對簡單,紋理特征的提取相對復雜,但紋理特征的提取是漢字圖像的特征中一個很重要的特征,所以紋理特征提取是建立圖像數(shù)據(jù)特征庫并且進行復原的一個重要前提。論文提出將脈沖耦合神經網絡的方法結合梯度向量對漢字圖像進行紋理特征提取,計算復雜度低,且具有旋轉不變性和尺度不變性的優(yōu)點。
2.1 PCNN 模型
脈沖耦合神經網絡(PCNN)是由多個神經元相互連接形成的反饋型網絡,是對Eckhorn 提出的貓視覺皮層模型的一種擴展,其結構組成如圖1所示[8]。
圖1 單個神經元簡化模型的內部結構
其中,構成PCNN的每一個神經元主要由接收部分、調制部分和脈沖產生三部分組成。接收部分由兩部分來組成,其中一部分用于接收外部信號的饋入輸入(Feeding Inputs),其運算關系為:
另一部分則用來接收來自其它神經元的連接輸入(Linking Inputs),其運算關系為:
在公式(1)(2)中,和是連接權系數(shù)矩陣,表示卷積運算,為神經元是否點火的信息,和為時間衰減常量,和為連接和饋入常量,為神經元接受的外部激勵。在調制部分,饋入輸入和連接輸入經過調制后產生神經元的內部活動,其運算關系為:
公式(3)中為連接調制常量。神經元的脈沖產生是根據(jù)內部活動的一個階躍函數(shù)而產生二值輸出,并根據(jù)神經元是否點火的狀態(tài)自動調整閾值的大小。在時間,如果內部活動比閾值函數(shù)大,脈沖輸出的值為1,稱神經元點火;否則取值為0,稱神經元未點火。如果神經元點火,則閾值根據(jù)下面兩式進行自動調整:
其中,為時間衰減常量,為閾值常量,式(5)為階躍函數(shù)。
2.2 梯度向量
Lee 和Cok 對圖像梯度向量的研究從二維空間擴展到了多維的空間[9]。如果用函數(shù)來表示一幅二維空間的圖像,那么該圖像的梯度向量為一階導數(shù)。在三維空間的彩色圖像中,假設彩色圖像的函數(shù)為,則該彩色圖像的梯度向量為:
該方法在文獻[9]中有更詳細的闡述,論文中待處理的源圖像為RGB 模式的彩色圖像,先將其轉換成L*a*b 空間模式的圖像,再用此方法進行求解梯度圖像如圖3 所示,圖2 為待處理的源圖像,圖4 為RGB 圖像直接運用文獻[9]求出的梯度圖像,由仿真結果可以看出將RGB 模式的圖像轉換成L*a*b 空間模式后對于噪聲的敏感度降低,更適合人類的視覺,更有利于紋理特征的提取。
圖2 待處理的源圖像
圖3 L*a*b 空間模式下的梯度圖像
圖4 RGB 模式下梯度圖像
3.1 簡化PCNN 模型的改進
PCNN的基本模型在實際應用中過于復雜,Gu Xiao dong 等提出了改進的簡化PCNN 模型[8],公式表達如下:
通過公式可以看出改進模型的特點:
3.1.1 L 通道的各個脈沖輸入線路上的突觸聯(lián)結權變成1。
3.1.2 把外部神經元的空間累積效果歸一化。
3.1.3 將閾值調節(jié)器的非線性指數(shù)變化方式變?yōu)榫€性方式。
該模型舍去了通用模型的空間累加特性,保留了其它特性,為圖像處理帶來了好處。
3.2 漢字紋理特征的提取
論文在此改進簡化模型的基礎上結合梯度向量對圖像進行特征提取:先將RGB 模式的漢字彩色圖像轉換成L*a*b 空間模式的圖像,然后對圖像求梯度得出梯度圖像,對該梯度圖像進行PCNN 迭代點火,每次迭代后的圖像進行概率統(tǒng)計,最后得出一個向量作為提取的紋理特征。具體的改進后的紋理特征提取算法如下:
3.2.1 將RGB 模式轉換為L*a*b 空間模式,漢字圖像灰度化,求梯度圖像;
3.2.2 將梯度圖像歸一化到0 和1 之間;L=U=0,θ=1,F(xiàn)=0;同時,令每個神經元Y=0;令N=20 β=0.2 Δ=0.05;
3.2.3 L=Step(Y ?K);
3.2.4 Y=Step(U- θ),D=Y,U=F*(1+βL);
3.2.5 如果Y=D,到(6);否則,L=Step(Y ?K),返回(4);
3.2.6 如果Y(i,j)=1,B=(i,j)=1,(i=1,…,H;j=1,…W)其中Y(i,j),B(i,j),分別為矩陣Y,B的元素;
3.2.7 θ=θ- Δ,隨著調整次數(shù)N的增加降低閾值;
3.2.8 如果Y(i,j)=1,θ(i,j)=100.(i=1,…,H;j=1,…W),其中θ(i,j)為矩陣θ的元素。當某神經元點火后,迅速增加其閾值到一個足夠大的固定值,使之不再點火;
3.2.9 B=Y,計算矩陣中值為1的概率P;
3.2.10 N=N-1。如果N ≠0,返回(2);否則,結束[P1P2……P20]。為20 次迭代后的概率統(tǒng)計向量。
其中,B 為點火結果矩陣,N 為循環(huán)次數(shù),L 是連接矩陣,K 為運算核矩陣。論文采用8 鄰域聯(lián)接,核矩陣為:
圖5 源圖像的處理結果
圖6 源圖像大小的0.7 倍處理結果
圖7 源圖像旋轉180°處理結果
Δ 為閾值調節(jié)矩陣,與循環(huán)次數(shù)相對應,Δ=1/N=0.05。D 為保存中間結果的臨時矩陣;為圖像的高度;為圖像的寬度;各個矩陣的維數(shù)都一致,均為H ×W。概率統(tǒng)計向量[P1P2……P20]即為提取的紋理特征。
論文所做仿真實驗都是在CPU 為酷睿i5,CPU頻率為2.5GHz的硬件條件下測得的仿真結果及數(shù)據(jù)。論文所做的部分紋理特征提取仿真結果如圖5(d)圖6(d)和圖7(d),源圖像為RGB 模式的圖像如圖2,來自于微軟Office Word 中宋體文字的截圖,圖5(c)圖6(c)和圖7(c)的分割結果為20 次迭代中任意一次的分割結果。圖5(d)為迭代次數(shù)為20,全部迭代次數(shù)的點火像素的概率統(tǒng)計直方圖,圖6(d)為迭代次數(shù)為20,圖像大小變?yōu)樵磮D像大小的0.7 倍后,全部迭代次數(shù)的點火像素的概率統(tǒng)計直方圖,圖7(d)為迭代次數(shù)為20,源圖像旋轉180°后,全部迭代次數(shù)的點火像素的概率統(tǒng)計直方圖。通過理論分析及仿真結果得出總的分析如下:
4.1 不同的漢字圖像有不同的灰度分布信息,該方法統(tǒng)計像素為1的概率,實際上是統(tǒng)計了漢字圖像的灰度分布信息,即不同的漢字圖像有不同的概率統(tǒng)計直方圖,所以概率統(tǒng)計向量可以表示紋理特征的特點;
4.2 圖5(d)、圖6(d)和圖7(d)中概率為0的次數(shù)都為15,概率在[0-0.015]之間的次數(shù)都為5次。雖然經過變換大小和旋轉角度,有5 次在進行PCNN 點火時,每次點火的概率不完全相同,但是在某個范圍內有共同的特點,所以在一定的范圍內表示出該方法具有旋轉不變性和尺度不變性的優(yōu)點,只要設置適當?shù)钠ヅ鋽?shù)據(jù)范圍就可以將提取的紋理特征數(shù)據(jù)與數(shù)據(jù)庫中的數(shù)據(jù)進行匹配,然后進一步完成漢字的復原;
4.3 PCNN 具有并行高速傳播的特點,所以該方法運行的速度高于普通的數(shù)學統(tǒng)計算速度,并且該方法的數(shù)學計算量較少,具有計算復雜度低的優(yōu)點。
本論文將20 幅漢字圖像進行紋理提取的仿真實驗和匹配仿真實驗,與常用的gabor 變換算法、灰度共生矩陣和局部二值模式(LBP)方法進行運行時間和匹配正確率的比較,如表1 所示。通過表中數(shù)據(jù)可以看出本文方法在綜合考慮運行時間和匹配正確率的角度與其他三種方法相比具有優(yōu)越性。
表1 運行時間及匹配正確率的比較
論文提出了一種用改進的簡化PCNN 模型結合梯度向量對漢字圖像進行紋理特征提取的方法。首先將RGB 模式的漢字圖像轉換成L*a*b 空間模式的圖像,然后再對其求梯度向量得到梯度圖像,這樣能夠降低該方法對于噪聲的敏感度,最后統(tǒng)計每次迭代點火后像素為1的概率統(tǒng)計直方圖作為紋理特征。由理論分析及仿真結果分析可以表明該方法的有效性及優(yōu)越性。如果旋轉在180°以內,大小改變在2 倍以內,該方法的紋理特征具有旋轉不變性和尺度不變性,該方法對漢字圖像的紋理特征提取提供了新的理論依據(jù),更具體的特征規(guī)律還有待于進一步的研究。
[1]劉麗,匡綱要.圖像紋理提取方法綜述[J].中國圖象圖形學報,2009,14(4):622-635.
[2]Johnson J L,Padgett M L.PCNN Models and Applications[J].IEEE Transactions on Neural Networks,1999,10(3):480-496.
[3]Kuntimad G,Rangnath H S.Perfect Image Segmentation Using Pulse Coupled Neural Networks[J].IEEE Trans on Neural Network s,1999,10(3):591-598.
[4]Eckhorn R,Reitboeck H J,Arndtetal M.Feature linking viasynch ronization among dist ributed assemblies:Simulation of results from acortex[J].Neural Computation,1990,2(3):293-307.
[5]Lindblad T,Kinser J M.Image Processing Using Pulse-Coupled Neural Networks [M].New York:Springer,2005.
[6]Yang Cheg,Gu Xiaodong.Combining PCNN with color distribution entropy and vector gradient in feature extraction[C].2012 8th International Conference on Natural Computation(ICNC 2012),2012:207-211.
[7]李雙科,吳記群,孫傳慶.一種基于PCNN的指紋特征提取算法[J].自動化與儀器儀表,2011,(5):134-137.
[8]Gu Xiaodong,Guo Shide,Yu Daoheng.A New Approach for Automated Image Segmentation Based on Unit-linking PCNN[C].International Conference on Machine Learning and Cybernetics,2002,1(1):175-178.
[9]Hsien-Che Lee,David R.Cok.Detecting Boundaries in a Vector Field[J].IEEE Transactions on Signal Processing,1991,39(5):1181-1194.