張世豪,楊繡郡,吳林煌,陳平平
福州大學(xué) 物理與信息工程學(xué)院,福州350000
車牌自動(dòng)識(shí)別系統(tǒng)在城市交通管理中起著非常重要的作用,是“智慧城市”的重要組成部分。車牌識(shí)別技術(shù)通常分為三個(gè)步驟:車牌檢測(cè)、字符分割、字符識(shí)別[1]。車牌檢測(cè)技術(shù)是車牌識(shí)別系統(tǒng)中的第一步,也是極為重要的一步,車牌定位的準(zhǔn)確度往往直接影響后續(xù)字符分割和字符識(shí)別的性能。傳統(tǒng)的車牌檢測(cè)方法都是在固定角度的情況下進(jìn)行研究[2],而自然場(chǎng)景下的車牌檢測(cè)因?yàn)槭艿焦庹?、拍照角度、失真、模糊等各種不利因素的影響,仍然是一個(gè)具有挑戰(zhàn)性的任務(wù)[1]。
由于近年來深度學(xué)習(xí)領(lǐng)域的不斷發(fā)展,深度學(xué)習(xí)在車牌檢測(cè)領(lǐng)域的應(yīng)用逐漸受到人們的廣泛關(guān)注。車牌檢測(cè)技術(shù)通過深度神經(jīng)網(wǎng)絡(luò)能夠提取出更深層次的特征,大大提高了檢測(cè)的準(zhǔn)確度[1],并且基于深度學(xué)習(xí)的車牌檢測(cè)方法魯棒性強(qiáng),因此逐漸取代了傳統(tǒng)的車牌檢測(cè)方法。目前性能比較好的目標(biāo)檢測(cè)器都是建立在非常深的卷積神經(jīng)網(wǎng)絡(luò)上,深層卷積神經(jīng)網(wǎng)絡(luò)會(huì)帶來模型參數(shù)的增加以及計(jì)算量的增加,使得模型很難部署在移動(dòng)端的設(shè)備,并且實(shí)時(shí)性較差。
鑒于當(dāng)前車牌檢測(cè)方法存在的問題,本文提出使用輕量型網(wǎng)絡(luò)MobileNet 作為骨干網(wǎng)絡(luò)[3],在保證準(zhǔn)確度的情況下能夠顯著減少網(wǎng)絡(luò)的參數(shù)以及計(jì)算量。車牌在圖像中所占的區(qū)域很小,相比于區(qū)域較大的物體比較難以檢測(cè)出來,本文提出使用特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)來獲取多尺度特征,提高對(duì)小目標(biāo)的檢測(cè)精度??梢宰⒁獾?,真實(shí)交通環(huán)境下的車牌具有豐富的上下文信息,車牌通常不會(huì)單獨(dú)出現(xiàn),而是伴隨車輛一起出現(xiàn),受到文獻(xiàn)[4]中使用不同大小的卷積核構(gòu)成上下文模塊來提升人臉檢測(cè)性能的啟發(fā),本文在網(wǎng)絡(luò)中使用RFB(Receptive Field Block)結(jié)構(gòu)來擴(kuò)大感受野,從而利用上下文信息提高了對(duì)小目標(biāo)車牌的檢測(cè)精度。真實(shí)的交通環(huán)境是復(fù)雜多變的,復(fù)雜的交通環(huán)境會(huì)影響網(wǎng)絡(luò)對(duì)于車牌的檢測(cè)性能,受到文獻(xiàn)[5-6]中通過使用注意力機(jī)制來減少實(shí)際交通環(huán)境中對(duì)交通標(biāo)志的誤檢率的啟發(fā),本文在網(wǎng)絡(luò)中使用注意力機(jī)制來減少復(fù)雜環(huán)境下的誤檢個(gè)數(shù)。同時(shí)注意到車牌具有很明顯的顏色特征和形狀特征,因此選擇由通道注意力(Channel Attention)和空間注意力(Spatial Attention)串聯(lián)組成的CBAM(Convolutional Block Attention Module)注意力結(jié)構(gòu)來提升網(wǎng)絡(luò)的檢測(cè)性能。
本文的主要貢獻(xiàn)可歸納如下:
(1)提出了一種輕量級(jí)的車牌檢測(cè)網(wǎng)絡(luò),通過使用MobileNet 作為骨干網(wǎng)絡(luò),顯著減少了網(wǎng)絡(luò)的參數(shù)量和計(jì)算量。
(2)在網(wǎng)絡(luò)中使用特征金字塔網(wǎng)絡(luò)獲取多尺度特征,通過融合低層特征的高分辨率和高層特征的強(qiáng)語義信息提升了網(wǎng)絡(luò)的檢測(cè)準(zhǔn)確度。
(3)使用感受野模塊RFB,通過整合目標(biāo)區(qū)域的上下文信息,來幫助網(wǎng)絡(luò)正確地檢測(cè)出車牌。
(4)在網(wǎng)絡(luò)中使用注意力機(jī)制,通過注意力機(jī)制可以減少復(fù)雜環(huán)境所帶來的誤檢個(gè)數(shù),從而提升網(wǎng)絡(luò)的檢測(cè)準(zhǔn)確度。
(5)使用分類損失函數(shù)、檢測(cè)框回歸損失函數(shù)和角點(diǎn)回歸損失函數(shù)聯(lián)合優(yōu)化,既能夠提升網(wǎng)絡(luò)的檢測(cè)性能,同時(shí)又可以檢測(cè)出車牌的4個(gè)角點(diǎn)。
車牌檢測(cè)任務(wù)是指將一張圖片中的車牌檢測(cè)定位出來,輸入的是一張圖片,輸出為車牌的位置信息。通常車牌檢測(cè)任務(wù)主要有兩類檢測(cè)方法:一類是基于傳統(tǒng)的人工設(shè)計(jì)的特征提取的方法;一類是基于深度學(xué)習(xí)的檢測(cè)方法。
基于傳統(tǒng)的人工設(shè)計(jì)的特征提取的方法主要包括:基于顏色的檢測(cè)定位方法[7-8]、基于邊緣特征的檢測(cè)[9-10]、基于字符的檢測(cè)[11-12]、基于紋理特征的檢測(cè)[13]、基于幾何特征的檢測(cè)[14]。這些方法在一定條件下能夠取得令人滿意的效果,但是基于人工提取出來的特征是不全面的,只反映了部分特征,而且在自然環(huán)境下,容易受到光照強(qiáng)度、遮擋、拍攝角度以及模糊度的影響。
基于深度學(xué)習(xí)的檢測(cè)方法主要包括兩種:間接定位和直接定位。間接定位是指通過車牌與車輛之間的關(guān)系間接得到車牌的位置信息[1],或者通過首先定位字符區(qū)域從而對(duì)車牌進(jìn)行定位。在文獻(xiàn)[15]中,首先通過字符/非字符分類器定位出字符區(qū)域,然后通過車牌/非車牌進(jìn)一步檢測(cè)出車牌區(qū)域,并消除非車牌區(qū)域。直接定位是指輸入一張圖像,可以直接預(yù)測(cè)得到車牌的位置信息。文獻(xiàn)[16]提出了一種基于通用的目標(biāo)檢測(cè)Faster-RCNN的車牌檢測(cè)模型,可以通過該模型直接預(yù)測(cè)得到車牌的位置信息。
本文的車牌檢測(cè)網(wǎng)絡(luò)結(jié)構(gòu)LPDNet(License Plate Detection Net)如圖1所示,網(wǎng)絡(luò)整體結(jié)構(gòu)采用one-stage目標(biāo)檢測(cè)的方法。車牌具有明顯的顏色、紋理、字符等信息,傳統(tǒng)的車牌檢測(cè)網(wǎng)絡(luò)能夠快速地提取這些信息,但也容易受到光照等不利因素的影響。傳統(tǒng)的深度學(xué)習(xí)的車牌檢測(cè)方法往往能夠獲得較高的精確率和召回率,但自然環(huán)境下的車牌檢測(cè)往往會(huì)涉及到小目標(biāo)的車牌,傳統(tǒng)的深度學(xué)習(xí)檢測(cè)方法只使用最后一層特征圖進(jìn)行預(yù)測(cè)會(huì)導(dǎo)致小目標(biāo)的車牌檢測(cè)準(zhǔn)確率下降。本文提出的車牌檢測(cè)方法采用多尺度特征融合的方法,通過圖1(a)中的骨干網(wǎng)絡(luò)MobileNet 提取不同層的特征圖{C1,C2,C3},低層特征圖獲得豐富的細(xì)節(jié)紋理信息,高層特征圖獲得豐富的語義信息,由特征金字塔生成的尺度特征圖{P1,P2,P3}具有高分辨率的細(xì)節(jié)紋理信息,同時(shí)也具有低分辨率的語義信息,可以提高對(duì)小目標(biāo)的檢測(cè)精度。真實(shí)交通環(huán)境下的車牌具有豐富的上下文信息,車牌通常是伴隨車輛一起出現(xiàn)。因此在網(wǎng)絡(luò)中使用RFB,融合后的特征送入圖1(b)RFB結(jié)構(gòu),通過擴(kuò)大感受野來整合上下文信息,利用上下文信息來提升對(duì)車牌的檢測(cè)準(zhǔn)確度,該模塊與多尺度特征圖聯(lián)合使用,可以在保證實(shí)時(shí)性的前提下顯著提升對(duì)車牌的檢測(cè)精度。將經(jīng)過RFB結(jié)構(gòu)后得到的不同尺度的特征圖送入圖1(c)注意力結(jié)構(gòu)CBAM,可以對(duì)卷積神經(jīng)網(wǎng)絡(luò)的通道和空間區(qū)域進(jìn)行選擇,提高卷積神經(jīng)網(wǎng)絡(luò)的注意力,減少復(fù)雜環(huán)境所帶來的影響造成的誤檢的個(gè)數(shù),進(jìn)而提升對(duì)目標(biāo)的檢測(cè)精度。
圖1 LPDNet的網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 LPDNet network structure
隨著卷積神經(jīng)網(wǎng)絡(luò)的深度越來越深,模型越來越復(fù)雜,卷積神經(jīng)網(wǎng)絡(luò)在目標(biāo)檢測(cè)任務(wù)中所得到的性能也越來越好,但隨之也帶來了模型參數(shù)量的增加,模型的運(yùn)算復(fù)雜度越來越高,使其只能夠在性能優(yōu)越的服務(wù)器上運(yùn)行,難以在移動(dòng)平臺(tái)端上部署。輕量型網(wǎng)絡(luò)SqueezeNet、ShuffleNet、MobileNet[3,17-18]的出現(xiàn)使得模型在移動(dòng)端的部署成為可能。輕量型網(wǎng)絡(luò)主要是對(duì)網(wǎng)絡(luò)的計(jì)算方式進(jìn)行優(yōu)化設(shè)計(jì),從而使得網(wǎng)絡(luò)參數(shù)減少,同時(shí)不會(huì)損失網(wǎng)絡(luò)的性能。本文所使用的輕量化的網(wǎng)絡(luò)模型結(jié)構(gòu)為MobileNetV1,它是由谷歌提出的輕量化的網(wǎng)絡(luò)模型,主要貢獻(xiàn)是提出使用深度可分離卷積來替代傳統(tǒng)的卷積。深度可分離卷積是指將卷積過程分為深度卷積(Depthwise)和點(diǎn)卷積(Pointwise)兩個(gè)步驟。深度卷積的特征是每個(gè)卷積核的通道數(shù)為1,而傳統(tǒng)卷積過程的卷積核的個(gè)數(shù)為輸入特征圖的通道數(shù)。點(diǎn)卷積實(shí)際上就是1×1 的普通卷積的卷積核。兩種卷積過程對(duì)比如圖2 所示,左側(cè)為傳統(tǒng)的卷積過程,右側(cè)為深度可分離卷積。可以看出深度可分離卷積將傳統(tǒng)卷積拆分為Depthwise 和Pointwise 兩部分,輸入特征圖和輸出特征圖的維度是一致的,通過對(duì)傳統(tǒng)卷積進(jìn)行分解,實(shí)現(xiàn)對(duì)卷積計(jì)算量的壓縮,傳統(tǒng)卷積的計(jì)算量為DK×DK×M×N×DF1×DF2,深度可分離卷積的計(jì)算量為DK×DK×M×DF1×DF2+M×N×DF1×DF2,前半部分為Depthwise部分的計(jì)算量,后半部分為Pointwise 部分的計(jì)算量。其中DF1、DF2分別表示輸入特征圖的寬度和高度,DK表示卷積核的尺寸,M為輸入特征圖的通道數(shù),N輸出特征圖的通道數(shù)。如式(1)所示,深度可分離卷積可以將計(jì)算量減少至傳統(tǒng)卷積的,從而也加快了網(wǎng)絡(luò)的計(jì)算速度。
圖2 卷積過程Fig.2 Convolution process
本文提出的網(wǎng)絡(luò)使用了RFB 卷積結(jié)構(gòu),如圖3 所示。RFB是一個(gè)多分支的卷積模塊,主要是解決輕量型的網(wǎng)絡(luò)精度不足的問題。RFB 的靈感主要來自于人類的視覺感受野結(jié)構(gòu)。人類的視覺系統(tǒng)是由多個(gè)不同的感受野部分復(fù)合而成的,而一般的CNN 每層的感受野是固定的,這樣會(huì)丟失掉一些信息,導(dǎo)致精度偏低,因此引入多分支卷積和膨脹卷積層,在每個(gè)卷積分支上使用不同的膨脹率,獲得不同大小的感受野,并在最后進(jìn)行融合[19]。這種設(shè)計(jì)方式與人的視覺感受野機(jī)制十分相似,實(shí)驗(yàn)中使用RFB模塊,能夠達(dá)到提升精度的目的。
圖3 RFB卷積結(jié)構(gòu)Fig.3 RFB convolution structure
CBAM是一個(gè)卷積注意力模塊,如圖4所示。注意力機(jī)制在提高目標(biāo)檢測(cè)的精度任務(wù)中有著重要的意義。通過引入注意力機(jī)制,人們可以關(guān)注到重要的特征,抑制不重要的特征。通常卷積操作在特征提取時(shí),混合通道CBAM 由通道注意力模塊、空間注意力模塊和空間信息來提取特征,通過這兩個(gè)模塊來對(duì)卷積神經(jīng)網(wǎng)絡(luò)的通道和空間區(qū)域進(jìn)行選擇,提高卷積神經(jīng)網(wǎng)絡(luò)的注意力,減少背景等無關(guān)特征對(duì)結(jié)果的影響[20]。
圖4 CBAM卷積注意力模塊Fig.4 CBAM convolutional attention module
通道注意力模塊如圖5所示,輸入通道注意力模塊的特征為F∈RC×H×W,為了更好地計(jì)算每個(gè)特征通道的重要程度,需要將輸入的特征圖通過平均池化層(Average Pooling)和最大池化層(Max Pooling)進(jìn)行壓縮得到再分別將得到的兩個(gè)通道特征輸入多層感知機(jī)(MultiLayer Perceptron,MLP)進(jìn)行卷積運(yùn)算,運(yùn)算完成后得到的輸出再進(jìn)行逐元素相加,并利用Sigmoid函數(shù)進(jìn)行激活,從而得到通道注意力權(quán)重的特征圖Mc(F)∈RC×1×1。通道注意力權(quán)重的特征圖Mc的計(jì)算公式如式(2)所示:
圖5 通道注意力模塊結(jié)構(gòu)Fig.5 Channel attention module structure
其中,σ表示Sigmoid激活函數(shù),W0和W1表示MLP的權(quán)重。
特征圖的每一個(gè)通道都被看作一個(gè)特征檢測(cè)器。通道注意力模塊主要專注于關(guān)鍵特征“是什么”。與通道注意力模塊不同,空間注意力模塊專注于關(guān)鍵特征“在哪里”,是對(duì)通道注意力的補(bǔ)充??臻g注意力模塊如圖6 所示,輸入為特征圖,經(jīng)過Mc加權(quán)后的新的特征圖F′,經(jīng)過平均池化層和最大池化層后得到再將兩個(gè)空間特征拼接在一起,形成通道數(shù)為2 的新的空間特征圖,然后通過卷積層進(jìn)行卷積,并使用Sigmoid函數(shù)進(jìn)行激活,從而得到空間注意力權(quán)重的特征圖Ms(F)∈RH×W??臻g注意力權(quán)重的特征圖Ms的計(jì)算公式如式(3)所示:
圖6 空間注意力模塊結(jié)構(gòu)Fig.6 Spatial attention module structure
其中,f7×7表示使用7×7 的卷積核的卷積層。CBAM的整個(gè)處理過程如式(4)所示:
其中,?表示對(duì)應(yīng)元素逐個(gè)相乘。輸入特征圖F先送入通道注意力模塊生成通道注意力權(quán)重的特征圖Mc,并與原始輸入特征圖對(duì)應(yīng)元素相乘得到新的特征圖F′。新的特征圖F′送入空間注意力模塊生成空間注意力權(quán)重的特征圖Ms,并與F′逐元素相乘得到最終的特征圖F″。
本文的模型使用多任務(wù)損失函數(shù)進(jìn)行聯(lián)合優(yōu)化,損失函數(shù)如式(5)所示,包括三部分:車牌的分類損失函數(shù)、車牌框的回歸損失函數(shù)、車牌角點(diǎn)的回歸損失函數(shù)。
車牌的分類損失函數(shù)Lcls采用的是softmax 損失,pi表示第i個(gè)anchor點(diǎn)可能是車牌的概率,表示第i個(gè)anchor點(diǎn)為正例時(shí)值為1,為負(fù)例時(shí)值為0;Lbox表示車牌框的回歸損失函數(shù),其中R表示smooth-L1損失函數(shù),分別表示第i個(gè)anchor 點(diǎn)對(duì)車牌框坐標(biāo)的預(yù)測(cè)值和與該anchor點(diǎn)相對(duì)應(yīng)的車牌框坐標(biāo)的真實(shí)值;Lpts表示車牌角點(diǎn)的回歸損失函數(shù),車牌角點(diǎn)的損失函數(shù)仍然使用smooth-L1 損失函數(shù),其中分別表示第i個(gè)anchor 點(diǎn)對(duì)車牌4 個(gè)角點(diǎn)的預(yù)測(cè)值和與該anchor 點(diǎn)相對(duì)應(yīng)的車牌4 個(gè)角點(diǎn)的真實(shí)值。λ1和λ2表示車牌框預(yù)測(cè)和角點(diǎn)預(yù)測(cè)在車牌檢測(cè)任務(wù)中的權(quán)值。
實(shí)驗(yàn)環(huán)境如表1所示。
表1 實(shí)驗(yàn)環(huán)境Table 1 Experimental environment
實(shí)驗(yàn)中采用SGD(Stochastic Gradient Descent)的優(yōu)化方法對(duì)模型進(jìn)行訓(xùn)練,學(xué)習(xí)率設(shè)置為0.001,動(dòng)量設(shè)置為0.9,實(shí)驗(yàn)進(jìn)行40 個(gè)完整的迭代周期,當(dāng)進(jìn)行到第30 個(gè)迭代周期時(shí),將學(xué)習(xí)率調(diào)整為0.000 1。實(shí)驗(yàn)中將車牌檢測(cè)任務(wù)中的車牌框預(yù)測(cè)和角點(diǎn)預(yù)測(cè)的權(quán)值λ1和λ2分別設(shè)置為2和1。
使用中國(guó)城市停車數(shù)據(jù)集(CCPD)[21]在本文的模型上進(jìn)行訓(xùn)練和測(cè)試。CCPD 數(shù)據(jù)集是目前國(guó)內(nèi)開源的最大的車牌檢測(cè)識(shí)別數(shù)據(jù)集,數(shù)據(jù)集中一共有35 萬張標(biāo)注好的圖片,分為8個(gè)不同的子集CCPD-base、CCPDblur、CCPD-challenge、CCPD-db、CCPD-fn、CCPD-rotate、CCPD-tilt、CCPD-weather,其中包含了不同角度、不同清晰度的各類車牌,每張包含車牌的圖片的分辨率大小均為1 160×720。將數(shù)據(jù)集中的每個(gè)子集均選取一半,獲得17.5萬張圖片作為訓(xùn)練集,將CCPD-base子集中的一半共10萬張圖片作為驗(yàn)證集,將數(shù)據(jù)集中的其余7.5萬張圖片作為測(cè)試集測(cè)試網(wǎng)絡(luò)模型的性能。
為了提高網(wǎng)絡(luò)的性能,在訓(xùn)練過程中使用數(shù)據(jù)增強(qiáng)處理,對(duì)原始圖片隨機(jī)進(jìn)行裁剪、顏色變換、鏡像翻轉(zhuǎn)等操作,每個(gè)操作進(jìn)行的概率均為0.5[22]。數(shù)據(jù)增強(qiáng)后得到的圖像如圖7所示。
圖7 數(shù)據(jù)增強(qiáng)圖像Fig.7 Data augmentation diagrams
本文在實(shí)驗(yàn)部分使用平均精確率(Average Precision,AP)、召回率(Recall)作為評(píng)價(jià)指標(biāo)。AP為不同召回率下的平均精確度。Precision 和Recall 的計(jì)算如下所示:
這些評(píng)價(jià)指標(biāo)也是在目標(biāo)檢測(cè)任務(wù)中常用的評(píng)價(jià)指標(biāo)。Precision指的是在所有檢測(cè)出來的目標(biāo)中,檢測(cè)正確的車牌所占的比例;Recall 指的是所有車牌中,網(wǎng)絡(luò)所檢測(cè)出來的車牌所占的比例;TP 指的是被正確預(yù)測(cè)的車牌的數(shù)量;FP為被錯(cuò)誤預(yù)測(cè)為車牌的數(shù)量;FN為車牌被預(yù)測(cè)為背景的數(shù)量。
為了驗(yàn)證本文提出的方法的有效性,同時(shí)確定增加的各種結(jié)構(gòu)在性能改善中所起到的作用,并為其他研究人員提供改善的想法,在驗(yàn)證集上進(jìn)行了消融實(shí)驗(yàn),實(shí)驗(yàn)對(duì)比結(jié)果如表2所示。
表2 探索了實(shí)驗(yàn)中使用的損失函數(shù)以及各個(gè)模塊對(duì)實(shí)驗(yàn)結(jié)果的影響。由實(shí)驗(yàn)數(shù)據(jù)可以看到,當(dāng)使用了角點(diǎn)回歸損失函數(shù)時(shí),獲得了較大的性能提升(AP提升了3.79%),實(shí)驗(yàn)中使用FPN、RFB、CBAM 模塊時(shí),實(shí)驗(yàn)結(jié)果均有所提升,當(dāng)不再使用數(shù)據(jù)增強(qiáng)時(shí),可以看到檢測(cè)性能有明顯下降,驗(yàn)證了本文提出的方法的有效性,并且驗(yàn)證了在實(shí)驗(yàn)中使用數(shù)據(jù)增強(qiáng)可以提升網(wǎng)絡(luò)的性能。
表2 不同結(jié)構(gòu)對(duì)檢測(cè)結(jié)果的影響Table 2 Influence of different structures on detection results
為了驗(yàn)證本文提出的方法對(duì)小目標(biāo)車牌檢測(cè)的精度,將驗(yàn)證集中每張圖片中車牌的像素大小統(tǒng)計(jì)下來,并將其按升序排列,取出前1 000 張圖片用來測(cè)試模型的檢測(cè)精度,檢測(cè)結(jié)果如表3所示。
表3 1 000張小車牌圖像的檢測(cè)性能Table 3 Detection performance of 1000 small license plate images
由表3中數(shù)據(jù)可以看到,使用通用的目標(biāo)檢測(cè)網(wǎng)絡(luò)時(shí),小目標(biāo)車牌的檢測(cè)精度僅為73.76%,當(dāng)使用本文提出的方法之后,檢測(cè)小目標(biāo)車牌的精度提升為92.17%,性能顯著提高,可以得到本文提出的方法可以有效檢測(cè)到小目標(biāo)車牌。
將訓(xùn)練得到的網(wǎng)絡(luò)模型與目前最先進(jìn)的車牌檢測(cè)模型進(jìn)行對(duì)比,結(jié)果如表4所示。
表4 不同模型在CCPD數(shù)據(jù)集上的性能比較Table 4 Performance comparison of different models on CCPD data sets
從表4 中的實(shí)驗(yàn)結(jié)果可以得知,本文提出的車牌檢測(cè)方法不僅在檢測(cè)精度上優(yōu)于目前最先進(jìn)的方法,并且仍然能夠達(dá)到實(shí)時(shí)的檢測(cè)速度,檢測(cè)速度優(yōu)于其他大部分的網(wǎng)絡(luò),檢測(cè)結(jié)果如圖8所示。
圖8 LPDNet檢測(cè)結(jié)果Fig.8 LPDNet test results
表5 是本文提出的方法與主流的車牌檢測(cè)方法的參數(shù)數(shù)量的對(duì)比,從表中可以看出,本文提出的方法的參數(shù)數(shù)量遠(yuǎn)低于MTLPR。極少的網(wǎng)絡(luò)參數(shù)數(shù)量使得網(wǎng)絡(luò)在移動(dòng)端的部署成為可能。
表5 不同模型參數(shù)量比較Table 5 Comparison of number of different model parameters
針對(duì)自然場(chǎng)景下受到環(huán)境干擾導(dǎo)致車牌檢測(cè)性能差的問題,本文提出了一種基于多尺度注意力機(jī)制的輕量型的車牌檢測(cè)方法。該方法使用輕量型的網(wǎng)絡(luò)結(jié)構(gòu)MobileNet,減少了網(wǎng)絡(luò)參數(shù)的數(shù)量;使用特征金字塔網(wǎng)絡(luò)來提升對(duì)小目標(biāo)的檢測(cè)精度;網(wǎng)絡(luò)中添加注意力機(jī)制來增強(qiáng)網(wǎng)絡(luò)對(duì)重要特征的關(guān)注程度,抑制對(duì)不重要信息的關(guān)注程度,從而提升網(wǎng)絡(luò)的檢測(cè)效果;在網(wǎng)絡(luò)中使用具有不同大小感受野的RFB模塊,通過整合目標(biāo)附近的上下文信息來提升車牌的檢測(cè)效果。與目前車牌檢測(cè)中先進(jìn)的方法進(jìn)行比較,實(shí)驗(yàn)結(jié)果表明,本文方法在CCPD數(shù)據(jù)集上取得了很好的檢測(cè)效果,取得了98.05%的平均精確率和98.71%召回率,而且能夠達(dá)到64 frame/s的檢測(cè)速度。