鄭 琳,王福龍
(廣東工業(yè)大學(xué) 應(yīng)用數(shù)學(xué)學(xué)院,廣州 510520)
迄今為止,車牌識別技術(shù)已研究多年,雖在計算機(jī)視覺領(lǐng)域,車牌識別技術(shù)已經(jīng)做了大量的工作,但還沒有真正成熟的運用到高速交通管制、刑事偵查等領(lǐng)域。如何在實際情況中快速準(zhǔn)確的識別車牌仍然是一個具有挑戰(zhàn)性的課題。
目前,針對車牌定位的方法主要有:基于顏色與紋理的定位方法[1],該方法主要利用車牌顏色信息和車牌區(qū)域呈現(xiàn)特定的紋理特征來定位,但對于車牌底色與車身相近或車身包含廣告語的車輛定位效果較差;基于數(shù)學(xué)形態(tài)學(xué)的定位方法[2-3],該方法主要是利用開、閉運算處理圖像來定位車牌,開、閉運算的處理主要依賴于結(jié)構(gòu)元的選??;基于圖像視覺特征的定位方法,諸如SURF特征、SIFT特征、HAAR特征等[4-7],這類方法通常需要考慮特征維數(shù)以及信息冗余問題;基于多特征融合的定位方法[8-9],相對于利用單一特征定位車牌,多特征融合的定位方法魯棒性較高;基于神經(jīng)網(wǎng)絡(luò)的定位方法[10-11]的計算能力強(qiáng)大,但由于模型的復(fù)雜性以及龐大的計算量,需要云端服務(wù)器處理數(shù)據(jù),計算成本較高。
字符分割的主要方法有:基于連通域的分割[12-14],該方法根據(jù)字符的連通性標(biāo)記目標(biāo)像素后,與相鄰像素的值對比來分割字符,但是歸并標(biāo)記運算量大,易出現(xiàn)像素的重復(fù)標(biāo)記;基于投影法的分割[15-18]方法,主要是統(tǒng)計二值化后車牌字符的波峰、波谷排列信息確定字符左右邊界。該方法需要去除車牌螺帽的干擾,對字符區(qū)域存在粘連、模糊或遮擋的情況分割效果較差;基于模板匹配的分割[19-20]方法是基于車牌模板特性,尋找字符區(qū)域與字符間隙區(qū)域像素點的最大差值分割字符,對車牌尺寸規(guī)范要求高。字符識別研究的主要方法有:特征提取法[21-24],通過提取待識別字符的特征與字符庫中的特征匹配得到識別結(jié)果。該方法可提取到字符的顯著特征,但提取特征過程中圖像變換易導(dǎo)致特征丟失,且提取到的字符特征維數(shù)較高,耗時長;模板匹配法[25-27],通過重合度函數(shù)度量待識別字符與標(biāo)準(zhǔn)字符的相似度,取相似度最大的樣本作為識別結(jié)果。該方法應(yīng)用廣泛,但難以區(qū)分相似字符;神經(jīng)網(wǎng)絡(luò)法[28-32],通過學(xué)習(xí)大量車牌樣本,將得到的樣本特征匹配待識別車牌。該方法對數(shù)據(jù)的計算能力強(qiáng)大,且識別能力依賴收集的大量車牌樣本,訓(xùn)練樣本消耗的時間較長。
車牌識別工作有其區(qū)域性特色,各個國家的車牌特征各有不同。據(jù)統(tǒng)計,大部分國家的車牌由阿拉伯?dāng)?shù)字、英文字母與本國的文字組成,一部分國家或地區(qū)的車牌由阿拉伯?dāng)?shù)字和英文字母組成。現(xiàn)有的車牌識別方法可分為兩大類:一類是分割字符的車牌識別,主要由車輛圖像預(yù)處理、車牌區(qū)域定位、車牌字符分割和車牌字符識別4部分組成,其識別流程如圖1所示;另一類是免分割的識別,即端到端的識別,其識別流程如圖2所示。
圖1 基于分割的識別流程
圖2 免分割識別流程
車牌識別的難點主要包括以下幾個方面:
(1)車牌檢測識別算法在移動設(shè)備中的部署成本,設(shè)備與車輛的距離和相機(jī)的變焦系數(shù)。
(2)車輛包含廣告標(biāo)語,車身顏色與車牌顏色相近。
(3)車牌傾斜、畸變、模糊;車牌部分被遮擋、字符粘連、缺損或斷裂。
(4)字符結(jié)構(gòu)特征難以提取,字符相似性高。
(5)多數(shù)車牌識別工作針對特定國家的車牌,限制了實際應(yīng)用性[33]。
獲取到車牌圖像,由于受天氣、光線強(qiáng)度、攝像機(jī)與車輛之間的距離、車牌自身磨損等因素影響,圖像存在模糊、對比度低、噪聲干擾等問題。在對采集的圖像進(jìn)行定位檢測之前,需要進(jìn)行圖像的預(yù)處理。圖像預(yù)處理主要包括濾波去噪、圖像灰度化、邊緣檢測、圖像二值化和傾斜校正等。
濾波操作主要用于圖像去噪,濾波的形式有多種,如均值濾波、中值濾波、雙邊濾波等,中值濾波對圖像中椒鹽噪聲的抑制效果好,又能保持圖像的邊緣清晰,一般選用中值濾波對車輛圖像去噪??紤]到三通道圖像數(shù)據(jù)的復(fù)雜性,要將車輛原圖灰度化,圖像灰度化操作通過RGB三通道的數(shù)值加權(quán)計算?;叶然饺缡?1):
Gray=r×0.299+g×0.587+b×0.114
(1)
得到灰度化圖像后,用閾值將圖像像素點的灰度值設(shè)置為0或255,使整個圖像呈現(xiàn)明顯的黑白效果,區(qū)分目標(biāo)和背景,該過程即圖像二值化。其中,選取閾值的主要方法有:OSTU法、迭代閾值法和局部閾值法等,車牌識別技術(shù)中常采用OSTU法。為精確提取車牌區(qū)域的邊緣特征,常用微分算子對圖像進(jìn)行銳化處理,使圖像的灰度反差增強(qiáng),突出邊緣部分[34]。一階微分算子和二階微分算子得到的圖像邊緣各不相同,相較于一階微分算子,二階微分算子能提取到豐富的紋理信息,得到較細(xì)的雙邊緣,銳化效果更好。
車牌定位是指從視頻流中檢測出車牌區(qū)域,或直接從移動設(shè)備拍攝的車輛圖像中提取車牌區(qū)域,車牌定位的準(zhǔn)確性直接影響車牌的識別結(jié)果。顏色和紋理是車牌圖像的兩個重要特征。顏色特征描述車牌的顏色通道數(shù)據(jù)信息,紋理特征刻畫圖像中重復(fù)出現(xiàn)的局部模式和排列規(guī)則。在車牌定位階段,通常需要利用車牌的顏色和紋理信息來提取車牌區(qū)域,而單一的車牌特征信息不利于精確提取車牌區(qū)域。因此,多數(shù)定位方法通過多種算法結(jié)合定位車牌區(qū)域。
2.1.1 數(shù)學(xué)形態(tài)學(xué)
數(shù)學(xué)形態(tài)學(xué)運算在圖像處理中常用于分析物體的幾何形狀和結(jié)構(gòu),由形態(tài)學(xué)的代數(shù)運算子組成?;镜男螒B(tài)學(xué)運算子有:腐蝕、膨脹、開運算和閉運算[35]。該算法的缺點是不能精確找出車牌左右邊界。
開運算:先腐蝕后膨脹,可消除細(xì)小物體,平滑較大物體邊界時,不明顯改變面積大小。
X°S=(XΘS)⊕S
(2)
閉運算:先膨脹后腐蝕,可去除物體內(nèi)部的小孔,平滑物體邊緣輪廓,填補斷裂輪廓線。
X·S=(X⊕S)ΘS
(3)
2.1.2 離散小波變換[26]
圖像處理中通過二維離散小波變換將低頻和高頻信號分離,達(dá)到圖像增強(qiáng)的目的。圖像大小為M×N的離散小波變換如公式(4)。
(4)
其中,j0為任意初始尺度;Wφ(j0,m,n)為j0的近似系數(shù);φj0,m,n(x,y)為尺度函數(shù)。
2.1.3 SURF算法
SURF算法是一種局部特征提取算法,具有尺度、旋轉(zhuǎn)不變性。該算法主要分為4部分:
(1)計算積分圖像,即計算圖像中矩形區(qū)域內(nèi)所有像素點之和。
(2)構(gòu)造Hessian矩陣,這是SURF算法的核心部分,目的是為了生成圖像的突變點,用于特征提取。Hessian矩陣定義如式(5)所示:
(5)
式中,Lxx為高斯二階偏導(dǎo)Gxx與圖像I(x,y)的二維卷積,Lxy,Lyy與Lxx含義類似,g(x,y)為高斯函數(shù)[5]。當(dāng)矩陣判別式取局部極大值時,判定當(dāng)前點是比周圍鄰域內(nèi)其它點更亮或更暗的點,據(jù)此定位特征點。
(3)確定特征點主方向。Hessian矩陣初步得到特征點后,統(tǒng)計特征點鄰域內(nèi)60°扇形內(nèi)HAAR小波響應(yīng)總和,取響應(yīng)總和最大時扇形的方向為特征點主方向。
(4)構(gòu)造SURF特征進(jìn)行匹配。在特征點周圍取一個4*4的矩形區(qū)域塊,每個子區(qū)域統(tǒng)計25個像素水平和垂直方向的HAAR小波特征,得到64維特征描述符,最后通過計算特征點間的歐式距離進(jìn)行配準(zhǔn)。
字符分割是指在定位出的車牌區(qū)域中把每個字符切割出來,車牌中常用的分割算法主要有:基于連通域的分割、基于投影的分割和基于模板匹配的分割。
(1)連通域分割法?;谶B通域的算法主要分為兩大類:一類是從局部到整體檢查連通域,確定“起點”,再標(biāo)記周圍鄰域;另一類是從整體到局部,先確定不同的連通域成分,再用區(qū)域填充的方法標(biāo)記連通域[12]。車牌字符中的阿拉伯?dāng)?shù)字和英文字母都有較好的連通性。掃描車牌的二值圖像,提取值為“1”的像素點,用不同的數(shù)值標(biāo)記不同的連通域,與相鄰像素點的值對比后切割字符[14]。這種分割方法在字符破損、粘連或存在噪聲等情況時無法有效分割字符,且難以解決漢字的分割問題。
(2)投影分割法。投影分割法分為水平投影分割和垂直投影分割。這種方法主要根據(jù)車牌字符固定規(guī)格的間隙來分割字符。其基本思想是:對二值化車牌的白色像素進(jìn)行水平和垂直方向上的統(tǒng)計,根據(jù)字符區(qū)域白色像素點多,字符間隙區(qū)域白色像素點少的特點,檢測字符間白色像素點個數(shù)的波谷分割字符[36]。這種分割方法對變形程度較輕的車牌分割效果好,但對模糊、損壞的字符分割效果較差。
(3)模板匹配分割法。模板匹配分割法的基本思想:確定車牌模板后,在字符圖像上從左至右滑動,確定字符上下邊界的車牌圖像,以模板字符寬、高為標(biāo)準(zhǔn),求得字符區(qū)域與間隙區(qū)域白色像素的最大差值分割字符。該算法是基于車牌模板特征的算法,能有效解決漢字不連通問題。
車牌字符識別算法可分為兩大類:一類是識別分割好的車牌字符;另一類是直接識別定位好的車牌,即端到端的識別。車牌識別算法主要分為以下3類。
(1)模板匹配法。這是一種經(jīng)典的模式識別算法,需要先根據(jù)車牌字符類型建立完整的字符模板庫,然后通過重合度函數(shù)度量車牌字符與樣本字符的相似度,取最大相似樣本作為識別結(jié)果,重合度函數(shù)如式(6)所示[25]。該算法實現(xiàn)簡單,具有一定的容錯性,但識別效果易受光照影響,對相似字符的區(qū)分能力差。
(6)
式中,f為模板二值圖;g為車牌二值圖;兩者二值圖尺寸相同,均為M×N;Tf和Tg分別為模板字符二值圖像和車牌字符二值圖像中數(shù)值為1的像素個數(shù);符號Λ為與運算。
(2)特征提取法。車牌字符的結(jié)構(gòu)特征分類效果顯著,從被切割和歸一化處理后的字符中能提取到體現(xiàn)字符特性的特征向量。特征提取法提取字符的統(tǒng)計特征,再通過判決函數(shù)對車牌字符進(jìn)行識別。特征提取方法包括:逐像素特征提取法、骨架特征提取法、垂直方向數(shù)據(jù)統(tǒng)計特征提取法、弧度梯度特征提取法等。其中,逐像素特征提取法是指對圖像進(jìn)行逐行逐列的掃描,取黑色像素特征值為1,白色像素特征值為0,最終形成維數(shù)與圖像中像素點的個數(shù)相同的特征向量矩陣。這種方法可提取到分類顯著的特征,但提取特征耗時較長。
(3)神經(jīng)網(wǎng)絡(luò)法。神經(jīng)網(wǎng)絡(luò)算法發(fā)展至今,已經(jīng)從傳統(tǒng)的人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)發(fā)展到如今的卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)、生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)等。使用神經(jīng)網(wǎng)絡(luò)算法識別車牌最大的難點在于:神經(jīng)網(wǎng)絡(luò)需要大量樣本進(jìn)行訓(xùn)練,由于各個國家的車牌規(guī)格存在差異,車牌通用性不高,車牌樣本不足[31];神經(jīng)網(wǎng)絡(luò)模型復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)保證了強(qiáng)大的計算能力,同時也不可避免的導(dǎo)致了數(shù)據(jù)過擬合、梯度消失等問題,且龐大的網(wǎng)絡(luò)模型限制了在車牌識別所需移動設(shè)備中的部署。
文獻(xiàn)[1]中提出,首先利用車牌顏色信息得到候選區(qū)域,再利用車牌底色與字符間的搭配特性去除偽車牌,最后根據(jù)車牌字符的先驗知識,驗證得到的區(qū)域是否為車牌。該算法可在交通視頻截取的圖像中定位多個車牌,白天和夜晚平均定位準(zhǔn)確率為95.01%,平均定位時間為763.49 ms。文獻(xiàn)[9]中則先將整幅圖像劃分為小單元,計算小單元的邊緣密度,根據(jù)其邊緣密度分布和車牌尺寸大小過濾背景區(qū)域;再用形態(tài)學(xué)操作算子(高帽與低帽運算)提取候選區(qū)域,利用霍夫變換確定精確位置;最后通過模板匹配法,判斷得到的車牌區(qū)域是否為數(shù)字與字母來去除誤檢區(qū)域。該算法的定位準(zhǔn)確率為97.9%,平均定位時間163 ms。文獻(xiàn)[8]在小波變換的基礎(chǔ)上,用Sobel垂直檢測算子邊緣檢測,根據(jù)車牌結(jié)構(gòu)的先驗知識連接邊緣檢測中的水平躍變點提取車牌候選區(qū)域;最后用縱向條帶滑動窗口和句法評判函數(shù)去除偽區(qū)域,句法評判函數(shù)如式(7)。該算法在夜晚和大霧天氣的定位率分別為96%和97%,定位耗時分別為79 ms和65 ms。文獻(xiàn)[5]中先將車輛RGB圖像轉(zhuǎn)換到HSL顏色空間,再對二值化后的圖像做形態(tài)學(xué)腐蝕和膨脹操作,連通相鄰的非連通區(qū)域,然后結(jié)合車牌的先驗知識篩選出候選車牌區(qū)域,最后利用SURF算法實現(xiàn)圖像配準(zhǔn),實現(xiàn)車牌的精確定位。文中利用車牌的多種特征提取候選區(qū)域,可以減少后續(xù)步驟中SURF算法特征匹配的次數(shù),降低匹配時間,提高算法的實時性。該算法定位準(zhǔn)確率達(dá)到了96.5%,平均定位時間為740 ms。表1為近3年來車牌定位算法常用方法分類。
表1 車牌定位算法對比
(7)
在車牌檢測定位的諸多算法中,大部分定位車牌的算法都表現(xiàn)出了良好的性能。文獻(xiàn)[7]和文獻(xiàn)[11]中提出的算法不受車牌顏色以及先驗知識的限制,可對不同國家、不同地區(qū)的車牌進(jìn)行定位。文獻(xiàn)[1]和文獻(xiàn)[4]中提出的算法能在擁擠的交通道路中實現(xiàn)多車牌定位。其中,文獻(xiàn)[4]對車牌的定位率達(dá)到了98.96%,但由于采用算法受車牌顏色以及先驗知識的限制,只能對中國的藍(lán)色車牌進(jìn)行多車牌定位,且在交通道路視頻中截取的圖像中車輛過多、車牌尺寸過小、車牌污損、車牌老化等情況,會導(dǎo)致該算法產(chǎn)生車牌漏檢。文獻(xiàn)[1]能夠在夜晚光線較差的情況下實現(xiàn)多車牌的定位,且定位率達(dá)到了93.78%,但由于該算法處理的圖像像素為2 592*2 096,所以該算法的定位時間較其它算法耗時較長。該算法一個大的優(yōu)點就是不需要手動設(shè)置閾值范圍,而是通過自動確定亮度條件來決定使用全局閾值法還是自適應(yīng)閾值法來設(shè)置閾值。同樣,該算法也因為顏色以及先驗知識的限制,只能對中國地區(qū)藍(lán)色和黃色的車輛牌照實現(xiàn)多車牌定位,也不適用于因污損或彩色光而改變顏色的車牌的定位。
文獻(xiàn)[18]主要基于車牌字符粘連、斷裂和被遮擋的條件下分割車牌字符。其先采用投影法粗分割字符,根據(jù)車牌字符的先驗知識將粗分割得到的字符塊分成3類:非合并塊、合并塊和不確定字符塊。合并塊按既定準(zhǔn)則合并,不確定字符塊和粘連字符塊根據(jù)模板匹配法二次分割。該算法可分割部分人眼難以分辨的遮擋字符,分割時間只需10 ms左右。文獻(xiàn)[13]主要采用連通域方法來分割字符。先對車牌二值圖像做4鄰域連通區(qū)域標(biāo)記,通過寬、高篩選和同高篩選方式得到字符特征區(qū)域。大量的特征篩選會導(dǎo)致車牌字符出現(xiàn)信息缺漏,文中根據(jù)車牌模板特點設(shè)計了填補方案補全缺漏字符,同時利用投影法界定字符邊界。字符分割算法的文獻(xiàn)對比情況見表2。
表2 字符分割算法對比
文獻(xiàn)[23]通過提取車牌二值字符圖像上的外輪廓特征(ET1特征)與內(nèi)部結(jié)構(gòu)信息(DT12特征),經(jīng)主成分分析法(PCA),將特征向量降至50維后,再進(jìn)行識別。該算法對數(shù)字和字母字符的識別精度分別為99.37%、99.35%,平均耗時分別為2.1 ms、1.52 ms,適用于數(shù)字和字母組成的車牌。文獻(xiàn)[24]中的算法,提取原始字符的4個尺度不變特征,在級聯(lián)的特征向量上選用F-score法降維后,送入支持向量機(jī)分類器中識別,該算法在高速公路圖像中對車牌的識別率為97.6%。文獻(xiàn)[26]提出了一種頂帽重構(gòu)的方法,解決車牌圖像中不均勻照度的問題。頂帽重構(gòu)是數(shù)學(xué)形態(tài)學(xué)中的一種變換,是形態(tài)學(xué)中原圖像與開運算的結(jié)果圖之差。形態(tài)學(xué)的開運算操作是先腐蝕再膨脹,這種運算放大了裂縫或局部最低亮度的區(qū)域,可去除圖像中較小的亮點。但開運算的膨脹過程會導(dǎo)致字符變形,因此文中使用重構(gòu)代替膨脹作開運算。作者在車牌字符識別階段采用全局相似度函數(shù)進(jìn)行模板匹配,但由于模板匹配法對相似字符的識別能力較差,文中未提取字符的特征信息,車牌的識別率為77.86%,識別時間為15.35 ms。文獻(xiàn)[30]中設(shè)計了一個改進(jìn)的6層CNN模型,用來提取圖像中的特征信息。根據(jù)提取的特征信息,采用雙向遞歸神經(jīng)網(wǎng)絡(luò)(Bidirectional Recursive Neural Network, BRNN)識別特征,最后利用連接時序分類(Connectionist Temporal Classification, CTC)對BRNN的輸出解碼翻譯,得到識別結(jié)果。文中提出的6層CNN模型融合了第4層和第6層卷積層,在融合時使用了平均池進(jìn)行池化運算。改進(jìn)后的模型提取的特征更大程度的保留了車牌字符的信息,提高了識別性能。以平均17.53 ms的速度識別220*70像素的車輛圖像,識別率為96.62%。文獻(xiàn)[31]的核心思想就是使用Wasserstein 距離損失,衡量卷積生成對抗網(wǎng)絡(luò)中的損失函數(shù),結(jié)合深度可分離循環(huán)卷積神經(jīng)網(wǎng)絡(luò),識別免分割的車牌圖像。文中使用 Wasserstein 距離作為一種新的標(biāo)準(zhǔn),衡量卷積生成對抗網(wǎng)絡(luò)中生成器和判別器兩種分布的距離,在判別器的最后一層添加一個全連接層來實現(xiàn)操作,圖3為文中生成對抗網(wǎng)絡(luò)示意圖。文中采用深度可分離卷積得到車牌的特征信息,深度可分離卷積將標(biāo)準(zhǔn)卷積分成深度卷積和逐點卷積。其中,深度卷積在每個通道上起到濾波作用,逐點卷積負(fù)責(zé)通道的轉(zhuǎn)換,作用在深度卷積的輸出特征映射上,圖4為深度可分離卷積示意圖。文獻(xiàn)中采用的算法解決了實際情況中車牌訓(xùn)練樣本不足的問題,降低了網(wǎng)絡(luò)參數(shù)的計算量,壓縮了網(wǎng)絡(luò)模型大小。表3為模式識別算法的文獻(xiàn)對比情況,表4所列為近4年神經(jīng)網(wǎng)絡(luò)識別算法的對比情況。
表3 模式識別算法的對比
表4 神經(jīng)網(wǎng)絡(luò)識別算法對比
圖3 生成對抗網(wǎng)絡(luò)示意圖[31]
(a)標(biāo)準(zhǔn)的3D卷積核 (b)深度卷積核 (c)逐點卷積
在車牌識別技術(shù)的諸多研究中,對于質(zhì)量較好的車輛圖像,大部分識別算法都有著較高的識別性能??偨Y(jié)以往的研究工作,仍存在一些問題需要解決:
(1)對于被遮擋和斷裂的車牌字符仍未找到好的解決方式。
(2)對于模式識別算法,應(yīng)尋求識別模糊程度更高的車牌。
(3)神經(jīng)網(wǎng)絡(luò)算法中的網(wǎng)絡(luò)模型相當(dāng)于一個“黑盒”,把圖像輸入網(wǎng)絡(luò)模型,得到識別的車牌。在這個過程中,無法對模型進(jìn)行“解釋”,靈活性不足,得到車牌信息時極大的依賴于大量的訓(xùn)練試錯。此類算法依舊需要考慮的是如何解決訓(xùn)練樣本、模型部署、梯度消失,對系統(tǒng)性能的影響問題。
(4)對于可達(dá)到較好性能且相對簡單的網(wǎng)絡(luò)結(jié)構(gòu),較好的解決了訓(xùn)練樣本的生成問題,但對于車牌紋理豐富的圖像,生成的樣本質(zhì)量有待提高。
本文對車牌檢測與識別算法進(jìn)行了全面回顧,重點關(guān)注了車牌定位與字符識別算法的研究。給出了圖像預(yù)處理、車牌定位、字符分割和字符識別步驟的介紹,并對各個步驟的方法和優(yōu)缺點進(jìn)行了闡述。研究表明,大部分定位與識別算法表現(xiàn)出良好的性能。在實際的交通道路應(yīng)用中,常出現(xiàn)交通擁擠,車流量過大、車速過快等情況。因此,對于算法在移動設(shè)備中的部署、識別率以及實時性有著極高的要求。模式識別算法較神經(jīng)網(wǎng)絡(luò)算法在設(shè)備部署上有著明顯的優(yōu)點,考慮如何利用模式識別算法結(jié)合其它方法提高低質(zhì)量圖像下車牌的識別率與識別速度,得到低成本與高識別率的車牌識別算法是一個重要的研究方向。神經(jīng)網(wǎng)絡(luò)算法有著強(qiáng)大的并行計算能力,避免了人工提取特征,但需要大量的學(xué)習(xí)樣本,存在著收集樣本成本較大、網(wǎng)絡(luò)模型復(fù)雜、泛化部署代價過高的問題。如何降低深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)模型的大小,權(quán)衡車牌識別率與識別成本是利用神經(jīng)網(wǎng)絡(luò)算法識別車牌的重要研究方向。本文提出一個新的方法:將文獻(xiàn)[38]中利用多紋理特征提取字符特征的方法運用到文獻(xiàn)[26]中,可解決車牌字符的不均勻照度問題,在保證識別速度的同時,識別率有較大的提高。在車牌識別技術(shù)真正應(yīng)用到高速交通管制、刑事追蹤等領(lǐng)域之前,仍有許多問題需要解決。