張 嶠
(重慶工業(yè)職業(yè)技術(shù)學(xué)院,重慶 401120)
智能交通體系極大地方便了人們的出行和生活。隨著智能交通的飛速發(fā)展與完善,車牌識別技術(shù)在交通管理、數(shù)字安全監(jiān)控、車輛識別、停車管理、監(jiān)視過境和搜索可疑車輛等多個(gè)領(lǐng)域中頻繁使用,已成為智能交通系統(tǒng)的重要組成部分。這些具有巨大經(jīng)濟(jì)價(jià)值的應(yīng)用技術(shù),不僅顯著地提高了工作效率,還節(jié)約了人力和物力資源。
LPR 系統(tǒng)是幾個(gè)模塊的組合,涉及對象檢測、圖像處理和模式識別。除了圖像采集和預(yù)處理之外,讀取車牌的過程還經(jīng)歷了三個(gè)主要階段:第一階段是板定位或板提取,即定位圖片中的牌照位置;第二階段是字符分割,即把每個(gè)字符都被檢測到并與其他字符分開;第三階段是字符識別,即把分割好的字符進(jìn)行識別,并最終組成牌照號碼。車牌識別過程中,牌照顏色的識別依據(jù)算法不同,可能在上述不同步驟實(shí)現(xiàn),通常與車牌識別互相配合、互相驗(yàn)證。實(shí)際上,車牌識別過程包括圖像采集、預(yù)處理、車牌定位、字符分割、字符識別、結(jié)果輸出等一系列算法運(yùn)算。
目前車牌識別技術(shù)發(fā)展已經(jīng)比較成熟,識別準(zhǔn)確率和魯棒性均比較高。C.Sharma 和 A.Kaur 提出了利用直方圖均衡的邊緣檢測技術(shù)來檢測和識別印度車牌,識別率為89%,其主要領(lǐng)域是分割部分,但所提出的方法對角度和環(huán)境敏感。M.H.Dashtban 嘗試使用邊緣檢測和神經(jīng)網(wǎng)絡(luò)算法兩種算法來測試巴黎車牌,識別率達(dá)到94%。這項(xiàng)研究的優(yōu)勢在于圖像數(shù)據(jù)庫包含了在不同光照條件下具有不同背景和坡度的各種車輛的圖像。R.Lee 和K.Hung 使用100 個(gè)樣本圖像研究了基于Haar 離散小波變換這種執(zhí)行速度較快的方法進(jìn)行實(shí)時(shí)車牌識別,有93%的準(zhǔn)確率[1]。G.Lekhana 和R.Srikantaswamy 用神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)支持向量機(jī)識別車牌號,無需對圖像進(jìn)行任何增強(qiáng),這種方法能夠成功識別運(yùn)動中的車輛。S.Qing-kun 和Y.Hui-jun 利用140 個(gè)樣本圖像對中國車牌進(jìn)行了基于數(shù)學(xué)形態(tài)學(xué)方法和RBF 神經(jīng)網(wǎng)絡(luò)的車牌識別研究,達(dá)到了94%的識別率。通過使用RBF神經(jīng)網(wǎng)絡(luò)基函數(shù)中心確定算法,可以直接確定隱藏節(jié)點(diǎn)的數(shù)量,易于實(shí)現(xiàn)且識別精度較高。另一方面,在中國的車牌識別領(lǐng)域中也提出了一種新的方法,即PVD,這種方法可以適應(yīng)性地處理車牌中的各種變化,例如旋轉(zhuǎn)、縮放、照明。利用支持向量機(jī)與神經(jīng)網(wǎng)絡(luò)的模板匹配,成功識別出印度車牌,識別率為96%。H.Rajput 通過邊緣檢測和形態(tài)學(xué)運(yùn)算進(jìn)行Gussing 濾波的實(shí)驗(yàn),該實(shí)驗(yàn)對250 個(gè)澳大利亞車牌進(jìn)行了測試,并獲得了96%的識別率[2]。
對于車牌文字識別的方法,目前主要是采用判別式分析方法,這些方法包括基于模板匹配的字符識別、基于支持向量機(jī)的字符識別和神經(jīng)網(wǎng)絡(luò)的字符識別算法等。
艾哈邁德(Ahmed)等人提出了模板匹配。模板匹配是一種簡單的方法。字符和模板之間的相似性是度量,與角色最相似的模板被識別為目標(biāo),大多數(shù)模板匹配方法都使用二進(jìn)制圖像,因?yàn)榛叶葧捎诠庹盏淖兓淖儯趯⑻崛〉淖址{(diào)整為相同大小后執(zhí)行模板匹配。此方法對于識別非旋轉(zhuǎn),不間斷的單個(gè)字體很有用。如果由于字體變化、旋轉(zhuǎn)、雜音而使字符與模板不同,則模板匹配會產(chǎn)生錯誤的識別[3]。
LeCun 等人使用HOG 功能進(jìn)行字符識別,在訓(xùn)練階段,從每個(gè)字母的高分辨率圖像生成訓(xùn)練數(shù)據(jù),然后獲得每個(gè)字母在HOG 特征空間中的分布。在識別階段,從圖像中切出每個(gè)字符,計(jì)算出HOG 特征向量,并根據(jù)上面獲得的HOG 特征空間中的分布識別字符。支持向量機(jī)和神經(jīng)網(wǎng)絡(luò)有較強(qiáng)的自學(xué)能力,能夠在一定程度上克服字符形狀的改變和位置偏移的缺陷[4]。
Siddharth 等人使用支持向量機(jī)(SVM)分類器,SVM分類器由一組給定的訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,并準(zhǔn)備了一個(gè)基于該模型對測試數(shù)據(jù)進(jìn)行分類的模型。對于多分類問題,我們將多分類問題分解為多個(gè)二進(jìn)制分類問題,并設(shè)計(jì)了合適的組合多個(gè)二進(jìn)制SVM 分類器。根據(jù)如何以適當(dāng)?shù)挠嗔繉⑺袠颖痉譃椴煌念悇e,在SVM 分類器中使用了不同類型的內(nèi)核[5]。
Sharma 和Singh 已將人工神經(jīng)網(wǎng)絡(luò)應(yīng)用于字符識別,這種方法模擬了人類神經(jīng)系統(tǒng)創(chuàng)建智能行為的方式。這個(gè)想法是采用大量的角色(稱為訓(xùn)練集),然后開發(fā)一個(gè)可以從這些訓(xùn)練中學(xué)習(xí)的系統(tǒng)。換句話說,神經(jīng)網(wǎng)絡(luò)使用訓(xùn)練來自動推斷識別字符的規(guī)則。這些方法在良好的數(shù)據(jù)集上可以取得令人印象深刻的結(jié)果,但在質(zhì)量較差的數(shù)據(jù)集上仍會產(chǎn)生不正確的識別,CNN 的引入使得模糊數(shù)據(jù)集的字符識別做得更好。
Bounchain 在角色識別任務(wù)中應(yīng)用了Lenet-5,該網(wǎng)絡(luò)已用包含50,000 多個(gè)手寫數(shù)字的數(shù)據(jù)庫進(jìn)行了測試,所有數(shù)字均在輸入圖像中進(jìn)行了標(biāo)準(zhǔn)化,達(dá)到了約0.95%的錯誤率[6]。
實(shí)際應(yīng)用中,車牌識別系統(tǒng)的識別率還與牌照質(zhì)量和拍攝質(zhì)量密切相關(guān)。牌照質(zhì)量會受到各種因素的影響,如生銹、污損、油漆剝落、字體褪色、牌照被遮擋、牌照傾斜、高亮反光、多牌照、假牌照等等;實(shí)際拍攝過程也會受到環(huán)境亮度、拍攝方式、車輛速度等等因素的影響。這些影響因素不同程度上降低了車牌識別的識別率,也正是車牌識別系統(tǒng)的困難和挑戰(zhàn)所在。為了提高識別率,除了不斷地完善識別算法還應(yīng)該想辦法克服各種光照條件,使采集到的圖像最利于識別。
車牌識別在過去的幾年內(nèi)取得了驕人的成績,但還是存在著有待解決的問題。比如,現(xiàn)實(shí)應(yīng)用中往往會因?yàn)樯硥m、濺起的泥巴、雨水腐蝕、風(fēng)化等各種原因使得車牌的字符不完整,致使字符分割和識別可能會遇到麻煩。上文提到的高識別準(zhǔn)確率的方法在不完整車牌識別中結(jié)果不盡如人意。在常態(tài)下識別率達(dá)到98%的XX 網(wǎng)絡(luò)用于識別文字殘缺不全的車牌,識別率降低一半以下,因此如何正確地分割和識別車牌文字成為一項(xiàng)艱巨的任務(wù)。
令人振奮的是,得益于圖像修復(fù)技術(shù)的發(fā)展,我們可以通過技術(shù)手段對殘缺文字進(jìn)行修補(bǔ),還原文字的真實(shí)形態(tài)。近年來,深度學(xué)習(xí)在圖像語義修復(fù)、情感感知、模式識別以及特征分類等領(lǐng)域展現(xiàn)出噴發(fā)時(shí)發(fā)展的態(tài)勢[7],特別在圖像生成方面,表現(xiàn)出優(yōu)越的性能。基于深度學(xué)習(xí)的圖像生成算法相對于傳統(tǒng)的基于結(jié)構(gòu)和紋理的生成算法能夠捕獲更多圖像的高級特征,常用于進(jìn)行紋理合成和圖像風(fēng)格化遷移。2014 年由Goodfellow 提出的生成式對抗網(wǎng)絡(luò)(GAN)在圖像生成領(lǐng)域取得了開創(chuàng)性進(jìn)展,在圖像生成的過程中,生成式對抗網(wǎng)絡(luò)相對于傳統(tǒng)的編碼-解碼器而言能夠更好地?cái)M合數(shù)據(jù),且速度較快,生成的樣本更加銳利,但該方法也存在不足,如數(shù)據(jù)訓(xùn)練不穩(wěn)定、模型自由不可控、訓(xùn)練崩潰等問題。[8]2016 年,Radford 等人發(fā)表了一篇名為《無監(jiān)督代表性學(xué)習(xí)與深度卷積生成式對抗性網(wǎng)絡(luò)》的論文,提出深度卷積生成式對抗網(wǎng)絡(luò)DCGAN。DCGAN 融合CNN和GAN,通過設(shè)計(jì)獨(dú)特的網(wǎng)絡(luò)結(jié)構(gòu),使得訓(xùn)練更加穩(wěn)定[9],這是首篇表明向量運(yùn)算可以作為從生成器中學(xué)習(xí)的固有屬性進(jìn)行特征表達(dá)的論文。2019 年SHENG ZHANG 等人提出了一個(gè)有效而高效的共享對抗訓(xùn)練網(wǎng)絡(luò)(SATN),該網(wǎng)絡(luò)可以在具備標(biāo)準(zhǔn)模板渲染車牌的先驗(yàn)知識的情況下,從車牌中學(xué)習(xí)與環(huán)境無關(guān)且無透視的語義特征[10]。
生成式對抗網(wǎng)絡(luò)(GAN)的出現(xiàn)也給類似被遮擋的車牌識別問題帶來曙光,將車牌識別率進(jìn)一步提高。當(dāng)然,車牌識別還會受到光照、傾斜度、陰影、字符磨損變形、運(yùn)動等諸多因素影響[11],因此車牌識別仍需要繼續(xù)研究。