,
(西安培華學(xué)院,西安 710125)
近年來(lái),字符識(shí)別一直是圖像處理及模式識(shí)別領(lǐng)域的研究熱點(diǎn)[1-5],其實(shí)用性強(qiáng),尤其在大規(guī)模數(shù)據(jù)統(tǒng)計(jì)上,其應(yīng)用前景更是廣闊。伴隨著計(jì)算機(jī)的快速發(fā)展,在圖像處理及模式識(shí)別研究中,許多人類(lèi)難以解決的相對(duì)復(fù)雜的問(wèn)題,都可以借助計(jì)算機(jī)的高速運(yùn)算來(lái)解決[6-9]。在字符識(shí)別領(lǐng)域里,是否能夠選取合適的特征提取算法,其將直接影響到識(shí)別率的高低,鑒于粗網(wǎng)格特征法具有反映字符的整體特征又能縮減網(wǎng)絡(luò)的規(guī)模的優(yōu)點(diǎn),為了更好地提高字符識(shí)別的正確率,本文提出了一種基于粗網(wǎng)格特征法對(duì)圖像特征量進(jìn)行提取的字符識(shí)別系統(tǒng)。同時(shí),由于量子神經(jīng)網(wǎng)絡(luò)具有高速并行處理能力、良好的容錯(cuò)能力、自學(xué)習(xí)能力及較強(qiáng)的分類(lèi)能力等特點(diǎn)[10-11],且QNN克服了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)所具有的識(shí)別精度低、學(xué)習(xí)速率慢等的缺陷。所以在識(shí)別階段,對(duì)于識(shí)別字符來(lái)說(shuō),本文采用神經(jīng)網(wǎng)絡(luò)分類(lèi)器是非常有效的手段。
本文以數(shù)字型字符為研究對(duì)象,針對(duì)數(shù)字,設(shè)計(jì)了基于粗網(wǎng)格特征提取及QNN的字符識(shí)別系統(tǒng),系統(tǒng)大致可分為數(shù)字輸入、預(yù)處理、 特征提取、QNN識(shí)別 4 個(gè)部分。其工作過(guò)程為:首先利用樣品進(jìn)行訓(xùn)練,確定QNN識(shí)別器的具體參數(shù),完成分類(lèi)器的設(shè)計(jì)。然后再把待識(shí)別數(shù)字樣本集的樣品輸入到網(wǎng)絡(luò)中,用經(jīng)二值化、行字切分、平滑 、 去噪、細(xì)化等預(yù)處理后,再特征提取的特征量來(lái)作為量子神經(jīng)網(wǎng)絡(luò)的輸入來(lái)識(shí)別待識(shí)別數(shù)字,并輸出識(shí)別結(jié)果。
由于現(xiàn)實(shí)環(huán)境的影響難以避免,實(shí)際獲得的數(shù)字圖像可能受到嚴(yán)重的噪聲干擾,所以進(jìn)行特征提取前要先對(duì)數(shù)字圖像進(jìn)行二值化、平滑、去噪聲等預(yù)處理,然后對(duì)其進(jìn)行特征提取。而且當(dāng)數(shù)字圖像出現(xiàn)偏移時(shí),將導(dǎo)致對(duì)應(yīng)網(wǎng)格之間的錯(cuò)位,從而降低識(shí)別率,所以逐個(gè)識(shí)別前,還要進(jìn)行歸一化處理,必須把它們的位置和大小歸一化到一個(gè)標(biāo)準(zhǔn)尺寸上,為數(shù)字識(shí)別做準(zhǔn)備。
由于數(shù)字經(jīng)二值化、平滑、去噪聲等預(yù)處理后,可能還存在大小不一的現(xiàn)象,因此需進(jìn)行歸一化過(guò)程。歸一化又分為大小及位置歸一化。
位置歸一化是把整個(gè)字符點(diǎn)陣圖移到規(guī)定位置上,從而消除其位置偏差。以質(zhì)心為基礎(chǔ)的位置歸一化比基于字符外邊框的位置歸一化方法抗干擾能力強(qiáng),所以本文選用基于質(zhì)心的位置歸一化方法。
質(zhì)心計(jì)算:
(1)
(2)
式中,x,y分別為橫、縱坐標(biāo),f(x,y)為字符二值點(diǎn)陣,T,B,L,R分別表示字符的上下左右邊界。
字符大小歸一化原理:假設(shè)f(x,y)為原字符圖像,大小為m×n,g(u,v)為歸一化后字符圖像,大小為M×N。f(x,y)中的任意一點(diǎn)(x0,y0)對(duì)應(yīng)于g(u,v)中的點(diǎn)(u0,v0)。(u0,v0)和(x0,y0)
之間的映射關(guān)系為:
(3)
若映射的(x0,y0)是整點(diǎn)坐標(biāo),可直接令:g(u0,v0)=f(x0,y0)。若不是整點(diǎn)坐標(biāo),再經(jīng)差值運(yùn)算確定將f(x,y)中哪一個(gè)點(diǎn)映射到g(u,v)中。本文選用鄰近插值算法,即是取(x0,y0)相鄰的上下左右4個(gè)點(diǎn)中,距離和(x0,y0)最近的點(diǎn)作為插值結(jié)果,將此點(diǎn)的f(x,y)值賦給g(u0,v0)。將字符大小歸一為16*16像素。
常用的特征提取方法如:逐像素特征提取法的算法簡(jiǎn)單,運(yùn)算快,可以使網(wǎng)絡(luò)很快地收斂,但適應(yīng)性不強(qiáng);骨架特征提取法對(duì)于線(xiàn)條粗細(xì)不同的數(shù)字有一定的適應(yīng)性,但難以識(shí)別偏移圖像 ;垂直方向數(shù)據(jù)統(tǒng)計(jì)特征提取法效果不是很理想,適應(yīng)性不強(qiáng)[12]。本文采用粗網(wǎng)格特征法進(jìn)行特征量提取。由于粗網(wǎng)格特征法具有抗位置變化能力差的缺陷,所以將其進(jìn)一步改善,即是在特征提取步驟的前面,先對(duì)字符圖像定位,找到其中心,并平移到模板中心,再提取粗網(wǎng)格特征[13]。 本文將已歸一化為16*16像素的數(shù)字字符劃分為大小為2*2的8*8個(gè)網(wǎng)格,并將每個(gè)網(wǎng)格內(nèi)的黑像素?cái)?shù)量作為特征,因而共抽取64個(gè)特征。
由于QNN具有容錯(cuò)性、自學(xué)習(xí)、并行處理和分類(lèi)識(shí)別能力強(qiáng)的優(yōu)點(diǎn),且字符識(shí)別普遍存在相近字符數(shù)據(jù)交叉問(wèn)題,所以本文的識(shí)別系統(tǒng),采用基于多層激勵(lì)函數(shù)的QNN模型,進(jìn)行數(shù)字字符識(shí)別[14-15]。
本文采用基于多層激勵(lì)函數(shù)的QNN進(jìn)行識(shí)別工作,網(wǎng)絡(luò)結(jié)構(gòu)分為輸入層、隱含層和輸出層。隱含層激勵(lì)為多個(gè)S型函數(shù)的疊加,相鄰函數(shù)間有著不同的量子間隔,因而一個(gè)隱層神經(jīng)元能表示的量級(jí)和狀態(tài)增多,網(wǎng)絡(luò)模糊性增加,網(wǎng)絡(luò)模式識(shí)別的準(zhǔn)確率提高。線(xiàn)性疊加的S型函數(shù)如圖1所示。
圖1 量子神經(jīng)網(wǎng)絡(luò)激勵(lì)函數(shù)
量子神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示,LA、LB、LC分別為輸入層、隱層、輸出層,其各層對(duì)應(yīng)節(jié)點(diǎn)數(shù)m、u、n。激勵(lì)函數(shù)f(x)=(1+e-x)-1,Wij、Vij分別為輸入層神經(jīng)元到隱層神經(jīng)元、隱含層神經(jīng)元到輸出層神經(jīng)元的連接權(quán),θs為隱層量子間隔,(s=1,2,...,ns),φ表示輸出層單元的閾值,X是網(wǎng)絡(luò)的輸入向量。
圖2 量子神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
則可得隱含層節(jié)點(diǎn)輸出函數(shù)表達(dá)式為:
輸出層節(jié)點(diǎn)輸出函數(shù)表達(dá)式為:
Cj=f(VTB-φ)
式中,β是斜率因子,W為權(quán)向量,
X為輸入向量。r=1,2,....,u,j=1,...,n。
對(duì)QNN的訓(xùn)練主要分為對(duì)權(quán)值和對(duì)隱層神經(jīng)元的量子間隔調(diào)整。量子間隔調(diào)整使數(shù)據(jù)不確定性合理化,權(quán)值調(diào)整可以對(duì)輸入數(shù)據(jù)更好地分類(lèi)。
具體過(guò)程為:
1)令輸入特征向量:
Xk=[x1,k,x2,k,...,xm,k],則對(duì)第k個(gè)輸入,隱層第j個(gè)單元的輸出為:
(4)
輸出層第i個(gè)單元的輸出為:
(5)
2)權(quán)值調(diào)整采用誤差梯度下降算法:
設(shè)第k個(gè)輸入向量對(duì)應(yīng)實(shí)際目標(biāo)輸出:
(6)
期望輸出:
Yk=[y1,k,y2,k,...,ym,k]
(7)
輸出誤差:
(8)
對(duì)輸出誤差求偏導(dǎo),并結(jié)合式(4)、(5)、(8)得權(quán)值調(diào)整公式:
(9)
(10)
η為學(xué)習(xí)速率,在0~1內(nèi)取值,wpj,k-1,wpj,k為輸入層第p個(gè)節(jié)點(diǎn)與隱層第j個(gè)節(jié)點(diǎn)間調(diào)整前后的權(quán)值。wsq,k-1wsq,k為隱層第s個(gè)節(jié)點(diǎn)與輸出層第q個(gè)節(jié)點(diǎn)間調(diào)整前后的權(quán)值。
3)量子間隔調(diào)整仍采用梯度下降法,輸入同一類(lèi)樣本,對(duì)應(yīng)輸出會(huì)映射到同一量級(jí)上;輸入不同類(lèi)樣本,對(duì)應(yīng)輸出會(huì)映射到不同量級(jí)上。
設(shè)對(duì)第m個(gè)類(lèi)Cm的所有樣本計(jì)算其隱層第P個(gè)單元的輸出變化:
(11)
(12)
其中:|Cm|代表類(lèi)Cm數(shù)集系數(shù)。
則:
(13)
(14)
(15)
對(duì)于數(shù)字值0,1,...,9,本文通過(guò)Windows自帶的畫(huà)圖工具分別構(gòu)造了50個(gè)粗細(xì)不一樣的相等的數(shù)字值,共500個(gè)樣本作為訓(xùn)練樣本庫(kù),計(jì)算出他們各自的128個(gè)特征量,訓(xùn)練神經(jīng)網(wǎng)絡(luò)。由用戶(hù)手寫(xiě)0,1,...,9,共10個(gè)數(shù)字值各50個(gè)做為待識(shí)別樣本庫(kù)。
經(jīng)預(yù)處理及特征提取后,得到64個(gè)特征量,又網(wǎng)絡(luò)輸出采用8421編碼,故網(wǎng)絡(luò)神經(jīng)元個(gè)數(shù)輸入為64,輸出為4,隱層采用3層激勵(lì)函數(shù),神經(jīng)元個(gè)數(shù)為 15,輸出層激勵(lì)為S型函數(shù),訓(xùn)練誤差平方和不大于0.005、學(xué)習(xí)率為0.005。
圖3為采集圖像原始圖,二值化處理效果如圖4所示。
圖3 采集圖像原始圖 圖4 采集圖像二值化結(jié)果
為驗(yàn)證算法有效性,本文首先將訓(xùn)練樣本庫(kù)中的數(shù)字樣本數(shù)據(jù)分別輸入到量子神經(jīng)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,以得到合適的權(quán)值及量子間隔,再將測(cè)試樣本經(jīng)預(yù)處理、特征提取后送入到網(wǎng)絡(luò)中識(shí)別,并得出識(shí)別結(jié)果。本文采用Matlab做仿真實(shí)驗(yàn),例如對(duì)其中數(shù)字2,4,6進(jìn)行測(cè)試的實(shí)驗(yàn)結(jié)果及誤差分別如圖5~7所示,由此可見(jiàn),誤差范圍的確在合理范圍0.005內(nèi)。例如對(duì)數(shù)字2識(shí)別的均方誤差為2.631189e-03,對(duì)數(shù)字2識(shí)別的均方誤差為1.307583e-03。式(16)為正確識(shí)別率的公式:
(16)
圖5 數(shù)字2識(shí)別結(jié)果
圖6 數(shù)字4識(shí)別結(jié)果
圖7 數(shù)字6識(shí)別結(jié)果
對(duì)實(shí)驗(yàn)結(jié)果進(jìn)行統(tǒng)計(jì)得表1,表2為采用傳統(tǒng)BP神經(jīng)網(wǎng)絡(luò)的識(shí)別結(jié)果。由表1可以看出本方案的識(shí)別準(zhǔn)確率一般都在92%以上,甚至對(duì)數(shù)字1和6的識(shí)別準(zhǔn)確率達(dá)到了100%。而從表2中可以看出,采用傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的對(duì)數(shù)字的識(shí)別準(zhǔn)確率有不少都是在90%以下,例如,對(duì)數(shù)字3和8的識(shí)別準(zhǔn)確率才達(dá)到88%,并且沒(méi)有一個(gè)數(shù)字的識(shí)別準(zhǔn)確率可以達(dá)到100%。這表明本文將圖像處理技術(shù)與QNN相結(jié)合確實(shí)達(dá)到提高識(shí)別準(zhǔn)確率的目的,并且采用QNN進(jìn)行數(shù)字字符識(shí)別的方法比傳統(tǒng)神經(jīng)網(wǎng)絡(luò)具有更高的識(shí)別效率,更好的適用性。仔細(xì)觀(guān)察表1,表2還可以發(fā)現(xiàn),這兩個(gè)方法對(duì)數(shù)字3,4,5,8的識(shí)別準(zhǔn)確率一般都偏低,這是由于這些數(shù)字的結(jié)構(gòu)比其他數(shù)字復(fù)雜些,而訓(xùn)練樣本的數(shù)目有限致使不能達(dá)到足夠高的訓(xùn)練精度,所以會(huì)識(shí)別率會(huì)比較低。
表1 QNN識(shí)別結(jié)果統(tǒng)計(jì)表
表3為對(duì)數(shù)字1在不同的噪聲級(jí)別下進(jìn)行測(cè)試得到的正確識(shí)別率的統(tǒng)計(jì)結(jié)果,從中可以發(fā)現(xiàn),在噪聲級(jí)別相同時(shí),QNN的識(shí)別正確率比BPNN的識(shí)別正確率明顯大得多,尤其是噪聲級(jí)別較高時(shí),其效果更為明顯,例如當(dāng)噪聲級(jí)別為0.50時(shí),QNN比BPNN的識(shí)別正確率高20%。 這表明量子神經(jīng)網(wǎng)絡(luò)比傳統(tǒng)神經(jīng)網(wǎng)絡(luò)具有更高的抗噪能力及可靠性。同時(shí)可以看出,無(wú)論是BPNN還是BPNN,他們的識(shí)別正確率都隨著噪聲級(jí)別的增大而減小,只是QNN減小的比較緩慢,所以抗噪能力強(qiáng)。
表2 BPNN識(shí)別結(jié)果統(tǒng)計(jì)表
表3 BPNN和QNN在不同噪聲級(jí)
傳統(tǒng)識(shí)別方法一般都是單純依靠圖像處理技術(shù),其普遍存在識(shí)別率低的問(wèn)題。為了能夠有效地提高字符的識(shí)別率和可靠性,本文將粗特征提取法與基于多層激勵(lì)函數(shù)的QNN相結(jié)合,并引入模式識(shí)別之中,提出一種基于粗特征提取和QNN的數(shù)字字符識(shí)別算法。用粗網(wǎng)格特征法提取圖像的特征量,既能夠反映字符的整體特征,又能夠在一定程度上使網(wǎng)絡(luò)規(guī)模減小,具有一定的優(yōu)越性,QNN作為一種模糊系統(tǒng),能合理分配決策的不確定性數(shù)據(jù)到各模式中,從而提高識(shí)別的準(zhǔn)確率。本文以數(shù)字字符為例,結(jié)合圖像處理技術(shù),采用Matlab編程進(jìn)行進(jìn)行字符識(shí)別仿真實(shí)驗(yàn),通過(guò)比較發(fā)現(xiàn),QNN比傳統(tǒng)的BPNN的有更高的識(shí)別效率,抗噪能力強(qiáng),可以更好地分類(lèi),隱層多層激勵(lì)函數(shù)的使用使得相近字符的數(shù)據(jù)交叉問(wèn)題得到有效解決。
參考文獻(xiàn):
[1] 陳園園,袁煥麗,室齊雙.基于神經(jīng)網(wǎng)絡(luò)的手寫(xiě)體數(shù)字識(shí)別[J].智能計(jì)算機(jī)與應(yīng)用,2016.
[2] 趙 偉,王俊宏,李 娟,等. BP網(wǎng)絡(luò)在手寫(xiě)體數(shù)字識(shí)別中的應(yīng)用[J].林業(yè)勞動(dòng)安全2005,20(9):1073-1076.
[3] 蔡自興,成 浩. 一種基于骨架特征和神經(jīng)網(wǎng)絡(luò)的手寫(xiě)字符識(shí)別技術(shù)[J]. 計(jì)算技術(shù)與自動(dòng)化,2001,20(3):59-65.
[4] Qing W, Zhen C, Feng D D, et al. Match between normalization schemes and feature sets for handwritten Chinese character recognition[A].Document Analysis and Recognition,Proceedings six International Conference[C].2001:551-555.
[5] 胡鐘山,樓 震,楊靜宇,等. 基于多分類(lèi)器組合的手寫(xiě)體數(shù)字識(shí)別[J].計(jì)算機(jī)學(xué)報(bào),1999,22(14):369-374.
[6] 高津京.計(jì)算機(jī)測(cè)量與控制[M].2002.
[7] 張光建,申時(shí)全.基于Windows的計(jì)算機(jī)測(cè)量與控制軟件設(shè)計(jì)[J].貴州大學(xué)學(xué)報(bào):自然科學(xué)版, 2003, 20(4):411-413.
[8] 茍永明. 《計(jì)算機(jī)測(cè)量與控制》發(fā)展之路[J]. 今傳媒, 2011, 19(6):78-79.
[9] 馬智峰.淺析計(jì)算機(jī)測(cè)量控制系統(tǒng)的自我診斷[J].無(wú)線(xiàn)互聯(lián)科技, 2015(17):93-94.
[10] Kak S C. On quantum neural computing [J]. Information Sciences, 1995, 83: 143-160.
[11] Behman E C, Chandrashkar V G, Wang C K. A quantum neural network computes entanglement [J]. Physical Review Letters, 2002, 16(1): 152-150.
[12] 楊淑瑩.模式識(shí)別與智能計(jì)算— Matlab 技術(shù)實(shí)現(xiàn)[M].北京:電子工業(yè)出版社,2008.
[13] 陳艷平,趙 磊.基于8鄰域編碼逐像素跟 蹤法的指紋細(xì)節(jié)特征提取算法[J].電腦知識(shí) 與技術(shù):學(xué)術(shù)交流,2008,3(11):932-934.
[14] 李政廣,吳黎明,等.骨架提取在IC晶片 缺陷機(jī)器視覺(jué)識(shí)別中的研究[J] .半導(dǎo)體技 術(shù),2007,32(4):53-56,86.
[15] 劉春麗,呂淑靜.基于混合特征的孟加拉手寫(xiě)體數(shù)字識(shí)別[J].計(jì)算機(jī)工程與應(yīng)用, 2007,43(20):214-215.