管德永,鞠銘,安連華
(山東科技大學(xué)交通學(xué)院,山東青島266590)
近幾年,隨著從“平安城市”到“智慧城市”的推廣,很多科研項(xiàng)目陸續(xù)開展,取得了不錯(cuò)的成果,提出了“3111工程[1]”、“立體化社會(huì)治安防控體系”等概念。權(quán)威電子行業(yè)研究機(jī)構(gòu)IMSResearch研究表明,全球攝像頭每年呈指數(shù)增長,并且攝像后端的數(shù)據(jù)存儲(chǔ)十分龐大。據(jù)統(tǒng)計(jì),2011年安裝攝像系統(tǒng)260多萬臺(tái),一天的數(shù)據(jù)存儲(chǔ)達(dá)100 PB,而在2015年攝像設(shè)備增加到5454萬臺(tái),相應(yīng)的一天儲(chǔ)存數(shù)據(jù)也高達(dá)2000 PB。在這個(gè)大數(shù)據(jù)的時(shí)代,面臨著以下2大瓶頸:(1)提取結(jié)構(gòu)化信息,縮減監(jiān)控?cái)z像頭產(chǎn)生的海量冗余視頻數(shù)據(jù);(2)建立監(jiān)控平臺(tái)網(wǎng)絡(luò),更好的實(shí)現(xiàn)監(jiān)控各子系統(tǒng)之間的連接,達(dá)到監(jiān)控資源共享。如何解決這些問題成為近幾年的研究熱點(diǎn),即視頻特征信息提取服務(wù)器的研究。車身顏色識(shí)別技術(shù)是一個(gè)重要研究方向,而其對(duì)車輛的識(shí)別與搜索、并為公安部門打擊套牌車輛具有重要的意義。
目前,深度卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用,在車型識(shí)別、圖片識(shí)別、車身顏色識(shí)別等方面取得了較高的識(shí)別率。鄧柳基于其建立的車型數(shù)據(jù)庫,從車型識(shí)別的提取速度和效果方面,進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)的深度研究[2]。隨婷婷提出一種深度卷積網(wǎng)絡(luò)CLMF模型,從多目標(biāo)角度提取特征,利用加融融合進(jìn)行目標(biāo)識(shí)別[3]。王茜等建立多角度拍攝的圖片數(shù)據(jù)庫,利用深度學(xué)習(xí)進(jìn)行圖片識(shí)別,VGG16模型準(zhǔn)確率達(dá)到97.58%[4]。楊楠利用 CIFAR-10神經(jīng)網(wǎng)絡(luò),自己搭建網(wǎng)絡(luò)的訓(xùn)練方法,提高了網(wǎng)絡(luò)訓(xùn)練的正確率[5]。
車身顏色識(shí)別技術(shù)的研究大致分為2類:(1)基于顏色空間的色差方法;(2)構(gòu)建顏色模板,提取顏色特征,通過分類器進(jìn)行分類、識(shí)別。趙紅波等提出了一種新的車身顏色識(shí)別算法,提取車輛顏色特征,這種新算法把白色分成白色和銀白色2種,把車身顏色數(shù)據(jù)庫分為7種,進(jìn)行識(shí)別且精度較高[6]。Michelel建立了15種顏色數(shù)據(jù)庫,采用K近鄰算法進(jìn)行顏色識(shí)別[7]。宋曉紅通過聯(lián)合共享技術(shù)對(duì)車身顏色識(shí)別技術(shù)研究,對(duì)圖像先進(jìn)行圖像預(yù)處理,采用算法進(jìn)行顏色特征提取,最后通過支持向量機(jī)SVM分類器進(jìn)行分類識(shí)別,得到較高的車身顏色識(shí)別率[8]。Fang等將車身顏色數(shù)據(jù)庫分為7種,在HIS的3個(gè)通道中提取車身顏色中每個(gè)像素的微觀特性值,利用這些特征來進(jìn)行顏色分類識(shí)別[9]。Wu等首先通過獲取車輛前景圖,去噪得到識(shí)別區(qū)域,采用SVM分類器進(jìn)行分類識(shí)別,總體識(shí)別率得到提高,但黑、銀、綠顏色識(shí)別誤差大,識(shí)別率較低[10]。胡焯源等針對(duì)傳統(tǒng)的HSV模型中的局限性,即光線變化對(duì)車身顏色識(shí)別的影響,改進(jìn)了模型顏色的量化模板和判別原則,提高了顏色的識(shí)別效果[11]。
從上述研究可以看出,復(fù)雜環(huán)境因素對(duì)于汽車車身顏色的識(shí)別影響并沒有得到很好的解決,車身顏色的識(shí)別率比較低,而且圍繞車身識(shí)別技術(shù)的研究,受到光照、環(huán)境等方面的噪音影響,研究結(jié)果不理想,造成的識(shí)別誤差也比較大。車身顏色識(shí)別模型的建立,需要克服復(fù)雜的數(shù)據(jù)庫中的噪音,避免因環(huán)境因素造成的識(shí)別錯(cuò)誤。基于以上車身顏色識(shí)別技術(shù)的研究現(xiàn)狀,文章利用深度學(xué)習(xí)技術(shù),在AlexNet[12]網(wǎng)絡(luò)模型的基礎(chǔ)上,并搭建 caffe深度學(xué)習(xí)框架,通過車身顏色的數(shù)據(jù)庫,進(jìn)行自主學(xué)習(xí),提出一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的車身顏色識(shí)別技術(shù)的研究方案。
深度學(xué)習(xí)是一個(gè)自主學(xué)習(xí)的過程,從底層到高層,類似于人體的神經(jīng)網(wǎng)絡(luò)系統(tǒng)。學(xué)習(xí)過程由低到高,層層挖掘數(shù)據(jù)的本質(zhì)信息。在圖像識(shí)別領(lǐng)域,HoG[13]、SIFT[14]等特征識(shí)別應(yīng)用比較多,但這些特征有著各自的限定條件。深度學(xué)習(xí)一開始應(yīng)用于圖像分類,在深度學(xué)習(xí)技術(shù)中,caffe框架是常用框架。2014年,caffe框架由伯克利大學(xué)發(fā)布,后來賈揚(yáng)清團(tuán)隊(duì)開發(fā)并由C++編譯caffe框架,搭配計(jì)算機(jī)GPU,其計(jì)算速度得到了很大的提高,Caffe所提供的測(cè)試單元在實(shí)際中廣泛應(yīng)用[15]。
隨著神經(jīng)計(jì)算模型[16]的提出,第一代感知機(jī)的神經(jīng)網(wǎng)絡(luò)[17]取得了良好的識(shí)別效果,特別是近幾年,深度學(xué)習(xí)模型優(yōu)化迅速發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)CNN(Convolutional Neural Network)模型[18]應(yīng)用于圖像識(shí)別、人臉識(shí)別中效果較好,受限于莫爾茲曼RBM(Restricted Boltzmann Machines)模型和堆棧式自動(dòng)編碼機(jī)SAN(Stacked Auto-encoder Network)模型同樣是深度學(xué)習(xí)的重要應(yīng)用模型。卷積神經(jīng)網(wǎng)絡(luò)模擬人的神經(jīng)網(wǎng)絡(luò),成功訓(xùn)練多層(輸入層、卷積層、降采樣層、全連接層)神經(jīng)網(wǎng)絡(luò),此算法省去了圖像預(yù)處理,直接通過圖片輸入,自主學(xué)習(xí)圖像特征。最重要的是模型結(jié)構(gòu)、參數(shù)配置得到優(yōu)化,提高了模型訓(xùn)練測(cè)試速度和效果[19]。神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。

圖1 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖
(1)輸入層 卷積神經(jīng)網(wǎng)絡(luò)避免了圖像預(yù)處理,直接輸入原始圖片、多通道圖像或者圖像序列。
(2)卷積層 是卷積神經(jīng)網(wǎng)絡(luò)的關(guān)鍵。卷積層對(duì)原始圖像進(jìn)行卷積運(yùn)算,獲取特征圖特征,得到卷積特征圖,其結(jié)果經(jīng)過激勵(lì)函數(shù)作用,最終輸出為卷積層的輸出神經(jīng)元,從而構(gòu)成此層的特征向量表達(dá)式由式(1)表示為

式中:f為激活函數(shù);t為卷積層數(shù);kij為卷積核;*為2D的卷積操作;btj為偏置。
(3)降采樣層 可以得到抽樣特征,利用圖像局部相關(guān)性,對(duì)圖像進(jìn)行子抽樣,減少數(shù)據(jù)處理的工作量,由式(2)表示為

式中:w為權(quán)重;down(·)為降采樣函數(shù)。
(4)全連接層 神經(jīng)網(wǎng)絡(luò)的輸入層、卷積層、降采樣層的神經(jīng)元都與全連接層的各個(gè)神經(jīng)元連接。
利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行車身顏色識(shí)別,輸入層輸入原始圖像,卷積層通過卷積運(yùn)算,得到特征單元,降采樣層提取抽象特征,通過全連接層進(jìn)行分類,輸出層進(jìn)行輸出。卷積網(wǎng)絡(luò)中的各層相鄰神經(jīng)元之間互相連接。首先在圖像中獲取最原始的特征,特征提取的方法和位置無關(guān),這些特征可以為更高層的神經(jīng)元所用[19]。特征圖的組成部分是模塊元,具有相同的權(quán)值,但位置不同。這些特征圖通過多次卷積,得到結(jié)果,再通過降采樣并反向調(diào)節(jié),最后通過全連接層,實(shí)現(xiàn)對(duì)圖像的特征獲取,得到圖像的本質(zhì)信息。
研究方案可以分為2個(gè)模塊:樣本訓(xùn)練模塊和樣本測(cè)試模塊。方案設(shè)計(jì)的原理:(1)樣本訓(xùn)練模塊是通過機(jī)器學(xué)習(xí)來提取已知的車身圖片顏色特征,確定車身顏色的識(shí)別模型;(2)樣本測(cè)試模塊的處理過程利用樣本訓(xùn)練模塊得到的模型進(jìn)行特征提取,通過自主學(xué)習(xí),得到車身顏色的識(shí)別最優(yōu)模型??傮w設(shè)計(jì)方案如圖2所示。

圖2 車身顏色識(shí)別研究方案圖
研究方案表述的識(shí)別過程,(1)建立車身顏色數(shù)據(jù)庫,對(duì)數(shù)據(jù)庫進(jìn)行標(biāo)準(zhǔn)化處理,分類出實(shí)驗(yàn)所需要的車身顏色的訓(xùn)練樣本和車身顏色的測(cè)試樣本,通過車身顏色訓(xùn)練樣本來提取特征,確定研究的車身顏色識(shí)別模型;(2)利用車身顏色訓(xùn)練樣本得到的車身顏色識(shí)別模型,對(duì)測(cè)試樣本進(jìn)行測(cè)試,得到測(cè)試樣本的圖片特征,完成測(cè)試分類,識(shí)別出最終的車身顏色。
實(shí)驗(yàn)選取的caffe框架在科研項(xiàng)目中應(yīng)用廣泛,其優(yōu)勢(shì)在于利用計(jì)算機(jī)的GPU來進(jìn)行訓(xùn)練,速度快、框架完整、兼容性強(qiáng),并且容易搭建測(cè)試環(huán)境。因此,利用caffe框架來實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)模型。
計(jì)算機(jī)的處理器要求比較高,選擇Intel(R)Core(TM)i5-3210M@2.5GHZ;運(yùn)行內(nèi)存比較大,以滿足caffe框架的運(yùn)行,選擇4.00 GB RAM;操作系統(tǒng)類型,要求兼容性強(qiáng),選擇64位;實(shí)驗(yàn)需要搭建環(huán)境,配置Microsoft Visual Studio 2010軟件。
實(shí)驗(yàn)過程中,統(tǒng)計(jì)了近幾年中國國內(nèi)車輛車身顏色比例。將顏色分為8種并進(jìn)行樣本訓(xùn)練和測(cè)試,按照標(biāo)準(zhǔn)分為白、黑、灰、紅、藍(lán)、黃、綠和紫,其比例各占22%、20%、12%、9%、6%、3%、3% 和1%,如圖3所示。

圖3 國內(nèi)車身顏色的比例統(tǒng)計(jì)圖
訓(xùn)練和測(cè)試的車輛顏色樣本是高清監(jiān)控或者卡口圖片,構(gòu)建的數(shù)據(jù)庫主要選取正常光照下的車輛圖片,包括少量逆光、順光、傍晚等背景下的車輛圖片。實(shí)驗(yàn)中建立車身顏色數(shù)據(jù)庫,包括白、黑、灰、紅、藍(lán)、黃、綠和紫各為1000張。數(shù)據(jù)庫中的樣本標(biāo)準(zhǔn):車身顏色圖片具有唯一性,不可重復(fù)地存在于一個(gè)數(shù)據(jù)庫中;車身顏色肉眼可識(shí)別出結(jié)果,即顏色無明顯的顏色偏差;車身顏色圖片具有統(tǒng)一性,需要對(duì)圖片進(jìn)行歸一處理(高寬比大小256×256),得到輸入層要求的圖片尺寸;車身顏色圖片的復(fù)雜性,即車身顏色數(shù)據(jù)庫中包括黑天、白天、霧天、雨天等情況,增加數(shù)據(jù)庫的復(fù)雜性。實(shí)驗(yàn)需要進(jìn)行樣本訓(xùn)練和樣本測(cè)試,因此需要把車身顏色數(shù)據(jù)庫分為訓(xùn)練樣本數(shù)據(jù)庫和測(cè)試樣本數(shù)據(jù)庫,訓(xùn)練樣本數(shù)據(jù)庫包括白、黑、灰、紅、藍(lán)、黃、綠和紫各900張,其余的100張車身顏色圖片作為模型的測(cè)試樣本。
利用卷積神經(jīng)網(wǎng)絡(luò)能夠提取良好的特征,基于AlexNet網(wǎng)絡(luò),搭建caffe深度學(xué)習(xí)框架進(jìn)行訓(xùn)練,配置好基本參數(shù)之后,需要進(jìn)行參數(shù)的微調(diào)才能得到較好的分類結(jié)果。識(shí)別精度由式(3)表示為

式中:Prei為第i類車身顏色圖片的識(shí)別準(zhǔn)確度;PTi為車身顏色圖片識(shí)別的正確樣本數(shù);PFi為車身顏色圖片識(shí)別的錯(cuò)誤樣本數(shù)。
2.3.1 模型的訓(xùn)練
運(yùn)用訓(xùn)練樣本進(jìn)行CNN網(wǎng)絡(luò)的訓(xùn)練,模型的訓(xùn)練過程需要進(jìn)行層層特征提取,得到特征圖。模型訓(xùn)練之前,把樣本分成N組,樣本個(gè)數(shù)設(shè)為m,這樣就需要訓(xùn)練N次,每一次需要選取m/N個(gè)樣本。
(1)正向傳播
正向傳播需要將車身顏色的訓(xùn)練樣本的原始圖片通過輸入層輸入CNN網(wǎng)絡(luò),通過卷積運(yùn)算,得到基本特征信息的特征圖。特征圖的大小為A×A,濾波器w的大小為n×n,最終提取的車身顏色特征圖大?。ˋ-n+1)×(A-n+1)。卷積層中每個(gè)特征圖的非線性輸入的結(jié)果,由式(4)表示為

卷積過程Conv在Matlab中由式(5)表示為

把式(5)中的卷積層計(jì)算的結(jié)果,通過激活函數(shù)作用,得到非線性的卷積結(jié)果由式(6)表示為

其下采樣過程不需要自身的學(xué)習(xí)過程,輸出f×f的區(qū)域值。如果經(jīng)過一個(gè)最大值的變換,即輸入層大小為N×N,由于每一個(gè)f×f的區(qū)域都要經(jīng)過最大值函數(shù)變化,變成一個(gè)值輸出,因此整個(gè)下采樣層輸出的大小為
(2)反向傳播
反向傳播是正向傳播的逆過程,過程中需要逐層計(jì)算,把實(shí)際輸出值與理想值進(jìn)行計(jì)算,得到誤差值。在卷積過程中,通過方差函數(shù)E來計(jì)算方差值,然后通過反向計(jì)算得到函數(shù)值,進(jìn)而來計(jì)算權(quán)值的梯度。在計(jì)算權(quán)值梯度的過程中,可以得到每一層的每一個(gè)神經(jīng)元輸出的方差為


根據(jù)鏈?zhǔn)椒▌t,誤差值反向傳播到前一層,具體的實(shí)現(xiàn)過程由式(9)表示為

根據(jù)式(7)~(9),通過反向傳播的逐層計(jì)算,誤差值逐層向上一層反饋,得到首層的誤差值。
2.3.2 模型的優(yōu)化
模型優(yōu)化關(guān)系到最終模型的優(yōu)劣。從模型的網(wǎng)絡(luò)層數(shù)、迭代次數(shù)、學(xué)習(xí)率三方面優(yōu)化卷積神經(jīng)網(wǎng)絡(luò),通過自主提取特征,得到識(shí)別率較高的最優(yōu)模型。
(1)確定最優(yōu)的網(wǎng)絡(luò)層數(shù)
網(wǎng)絡(luò)層數(shù)的選取關(guān)系到模型的處理速度和圖像的信息效果。網(wǎng)絡(luò)層數(shù)過少,車身顏色的信息提取速度快,會(huì)失去有效信息。網(wǎng)絡(luò)層數(shù)過多,特征信息提取精度高,但訓(xùn)練速度慢。
根據(jù)實(shí)驗(yàn)構(gòu)建的數(shù)據(jù)庫,最優(yōu)的網(wǎng)絡(luò)層數(shù)需要識(shí)別效果來反饋。學(xué)習(xí)率設(shè)為0.001,迭代次數(shù)為30000次,通過控制變量法,設(shè)定不同的網(wǎng)絡(luò)層數(shù),即網(wǎng)絡(luò)層數(shù)分別為7、8、9,各顏色樣本數(shù)為900張時(shí)的車身顏色識(shí)別正確率的變化,見表1。

表1 網(wǎng)絡(luò)層數(shù)的選取與識(shí)別正確率之間的關(guān)系表
從表1的識(shí)別效果來看,8層網(wǎng)絡(luò)的效果最好,而9層網(wǎng)絡(luò)的準(zhǔn)確率最低。
(2)迭代次數(shù)的確定
迭代次數(shù)在一定范圍內(nèi),識(shí)別率與迭代次數(shù)成正比,當(dāng)?shù)螖?shù)超過這個(gè)范圍時(shí),模型訓(xùn)練時(shí)間會(huì)增長,迭代次數(shù)對(duì)識(shí)別正確率的提升作用會(huì)減弱。
針對(duì)于相同的數(shù)據(jù)集,迭代次數(shù)的確定需要根據(jù)最終的分類識(shí)別效果來確定,假設(shè)卷積神經(jīng)網(wǎng)絡(luò)為8層,學(xué)習(xí)率初設(shè)為0.001,迭代次數(shù)分別取值10、20、30、40萬次,各顏色樣本數(shù)為 900張時(shí)的識(shí)別率變化,見表2。

表2 迭代次數(shù)的選取與識(shí)別正確率之間的關(guān)系表
從表2的識(shí)別效果來看,隨著迭代次數(shù)的增加,識(shí)別正確率也增加,迭代次數(shù)與識(shí)別正確率關(guān)系中來看,隨著迭代次數(shù)的增加,識(shí)別正確率的增加幅度越來越小,趨于平穩(wěn)。結(jié)果表明:迭代次數(shù)為30萬次是識(shí)別準(zhǔn)確率變化的轉(zhuǎn)折值,而迭代次數(shù)超過30萬次時(shí),識(shí)別效果趨于穩(wěn)定,但不會(huì)出現(xiàn)過擬合現(xiàn)象。
(3)學(xué)習(xí)率的確定
學(xué)習(xí)率是深度學(xué)習(xí)中的一個(gè)重要的參數(shù),學(xué)習(xí)率太大,會(huì)跨越識(shí)別率的極值點(diǎn),設(shè)置太小,造成跨度太小,容易出現(xiàn)局部最優(yōu)。
采用基于經(jīng)驗(yàn)的手動(dòng)調(diào)整。通過控制變量法進(jìn)行訓(xùn)練測(cè)試,設(shè)網(wǎng)絡(luò)層數(shù)為8,迭代次數(shù)為30萬,嘗試采用不同的固定學(xué)習(xí)率進(jìn)行模型優(yōu)化,即0.1、0.01、0.001、0.0001。各顏色樣本數(shù)為 900張時(shí),學(xué)習(xí)率的選取與識(shí)別正確率之間的關(guān)系見表3。

表3 學(xué)習(xí)率的選取與識(shí)別正確率之間的關(guān)系表
從表3中可以看出,當(dāng)學(xué)習(xí)率為0.1和0.001時(shí)識(shí)別正確率為92.7%,在其它參數(shù)一致的情況下,增大學(xué)習(xí)率,識(shí)別準(zhǔn)確率也會(huì)相應(yīng)下降。通過分析變化過程,發(fā)現(xiàn)識(shí)別準(zhǔn)確率變化波動(dòng)較大,當(dāng)學(xué)習(xí)率過大時(shí),準(zhǔn)確率開始不穩(wěn)定。因此,根據(jù)學(xué)習(xí)率與識(shí)別正確率的關(guān)系,學(xué)習(xí)率設(shè)為0.001,進(jìn)行模型訓(xùn)練和測(cè)試。
(4)確定最優(yōu)網(wǎng)絡(luò)
實(shí)驗(yàn)表明,在深度卷積神經(jīng)網(wǎng)絡(luò)中,網(wǎng)絡(luò)層數(shù)、迭代次數(shù)、學(xué)習(xí)率影響車身顏色特征提取的速度和精度。同樣,濾波器的選取、特征維度和激活函數(shù)等,也是影響卷積神經(jīng)網(wǎng)絡(luò)模型的重要因素。
針對(duì)搜集的車身顏色數(shù)據(jù)庫,基于AlexNet網(wǎng)絡(luò)模型,確定的最終模型為卷積神經(jīng)網(wǎng)絡(luò)CNN模型層數(shù)為8,最大迭代次數(shù)為30萬,學(xué)習(xí)率為0.001。模型包括5個(gè)卷積層,以及3個(gè)全連接層,在每一個(gè)卷積層中都包含了激勵(lì)函數(shù)RELU與局部響應(yīng)歸一化LRN處理,之后再經(jīng)過降采樣處理。各顏色樣本數(shù)為900張時(shí),模型的訓(xùn)練優(yōu)化結(jié)果,見表4。

表4 模型訓(xùn)練優(yōu)化結(jié)果表
通過測(cè)試白、黑、灰、紅、藍(lán)、黃、綠和紫各100張車身顏色圖片,判斷卷積神經(jīng)網(wǎng)絡(luò)模型的性能優(yōu)劣。將卷積神經(jīng)網(wǎng)絡(luò)CNN模型與改進(jìn)后的HSV模型[20]、支持向量機(jī) SVM進(jìn)行測(cè)試,對(duì)結(jié)果進(jìn)行對(duì)比。基于建立的車身顏色數(shù)據(jù)庫,卷積神經(jīng)網(wǎng)絡(luò)模型的識(shí)別率達(dá)到93,2%,明顯優(yōu)于支持向量機(jī)SVM、改進(jìn)后的HSV模型的識(shí)別率,見表5。

表5 SVM、改進(jìn)后HSV模型、CNN模型結(jié)果對(duì)比表
由表5可以看出,SVM分類器、改進(jìn)后的HSV模型、卷積神經(jīng)網(wǎng)絡(luò)CNN模型的識(shí)別率都>80%,改進(jìn)后的HSV顏色空間量化模板車身顏色識(shí)別率達(dá)到85.25%,略優(yōu)于傳統(tǒng)的SVM方法。利用深度學(xué)習(xí)技術(shù),通過卷積神經(jīng)網(wǎng)絡(luò)CNN模型自主提取車身顏色特征,識(shí)別率遠(yuǎn)遠(yuǎn)高于前兩種方法,故滿足實(shí)時(shí)的要求。
通過分析原始樣本圖像可知,車身顏色數(shù)據(jù)庫中的樣本被識(shí)別錯(cuò)誤的原因主要是背景的多樣性,逆光會(huì)讓顏色變暗,順光會(huì)增加光線強(qiáng)度,夜晚遠(yuǎn)光燈會(huì)讓顏色增強(qiáng),失去車身顏色的原色,在識(shí)別過程中,出現(xiàn)了如圖4所示的情況。
(1)傍晚 綠車識(shí)別為黑色,這是由于在學(xué)習(xí)的過程中,夜間光線灰暗,再加上車燈照射,造成光線混亂,部分顏色偏暗,車身部分背光。
(2)逆光 黑色識(shí)別為藍(lán)色,這是由于在學(xué)習(xí)的過程中,正常光線下,深藍(lán)與黑色的色差較小,加上白天逆光狀態(tài),光線灰暗,顏色混淆。
(3)順光 灰色識(shí)別為白色,這是由于銀色、灰色與白色顏色相近,在學(xué)習(xí)的過程中,白天順光情況下,白天強(qiáng)光的照射,造成車身部分反光,顏色混淆。

圖4 車身顏色識(shí)別錯(cuò)誤樣本代表圖
通過上述研究可知:
(1)基于車身顏色數(shù)據(jù)庫,對(duì)卷積神經(jīng)網(wǎng)絡(luò)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,網(wǎng)絡(luò)層數(shù)為8時(shí),模型識(shí)別率為89.5%;迭代次數(shù)為30萬次時(shí),模型趨于穩(wěn)定;學(xué)習(xí)率為0.001時(shí),識(shí)別率為92.7%。因此,卷積神經(jīng)網(wǎng)絡(luò)最優(yōu)模型的神經(jīng)網(wǎng)絡(luò)層數(shù)為8,最大迭代次數(shù)為30萬,學(xué)習(xí)率為0.001。
(2)卷積神經(jīng)網(wǎng)絡(luò)顏色識(shí)別模型與改進(jìn)后的HSV顏色識(shí)別模型、支持向量機(jī)(SVM)顏色識(shí)別模型進(jìn)行測(cè)試對(duì)比,支持向量機(jī)SVM模型顏色識(shí)別率為80.05%、改進(jìn)后的 HSV模型顏色識(shí)別率為85.25%,卷積神經(jīng)網(wǎng)絡(luò)模型顏色識(shí)別率為90.20%,卷積神經(jīng)網(wǎng)絡(luò)模型顏色識(shí)別效果最好。
參考文獻(xiàn):
[1]顧長海.公共安全中的視頻結(jié)構(gòu)化[J].中國公共安全,2016(17):141-143.
[2]鄧柳.基于深度卷積神經(jīng)網(wǎng)絡(luò)的車型識(shí)別[D].成都:西南交通大學(xué),2015.
[3]隨婷婷,王曉峰.一種基于CLMF的深度卷積神經(jīng)網(wǎng)絡(luò)模型[J/OL].自動(dòng)化學(xué)報(bào),2016,42(6):875-882[2018-01-05].
[4]王茜,張海仙.基于深度神經(jīng)網(wǎng)絡(luò)的汽車車型識(shí)別[J].現(xiàn)代計(jì)算機(jī)(專業(yè)版),2015(35):61-64.
[5]楊楠.基于Caffe深度學(xué)習(xí)框架的卷積神經(jīng)網(wǎng)絡(luò)研究[D].石家莊:河北師范大學(xué),2016.
[6]趙紅波,張涵.車輛顏色識(shí)別方法研究[J].電視技術(shù),2013,37(23):207-209,233.
[7]Merler M.Car Color and Logo Recognition[C].CSE IM90A Projet in Vision and Learning,2006:46-49.
[8]宋曉紅.車身顏色識(shí)別在高速公路卡口中的應(yīng)用[J].中國交通信息化,2014(3):87-90.
[9]Fang J,Yue H J,Li X Z.Color identifying of vehicles based on color container and BP network[C].Proceeding of IEEE Conference on Business Management and Electronic lnformation,2012:226-229.
[10]Wu Y T,Kao JH,Yu M.A Vehicle color classification method for video surveillance system concerning model-based background subtraction[C].Advances in Multimedia Information Processing-PCM,2010:369-380.
[11]胡焯源,曹玉東,李羊.基于HSV顏色空間的車身顏色識(shí)別算法[J].遼寧工業(yè)大學(xué)學(xué)報(bào)(自然科學(xué)版),2017,37(1):10-12.
[12]Krizhevsky A,Sutskever I,Hinton G E.ImageNet classification with deep convolutionalneural networks[J].Commun ACM,2017,60(6):84-90.
[13]Dalal N,Triggs B.Histograms of oriented gradients for human detection[C].IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2005:84-90.
[14]Lowe D G.Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision,2004,60(2):91-110.
[15]Jia Y,Shelhamer E,Donahue J,etɑl.Caffe:Convolutional architecture for fast feature embedding[C].Proceedings of the ACM International Conference on Multimedia,2014:667-675.
[16]Mcculloch W S,PittsW.A logical calculus of the ideas immanent in nervous activity[J].The Bulletin of Mathematical Biophysics,1943,5(4):115-133.
[17]Rosenblatt F. The perceptron: A probabilistic model for information storage and organization in the brain[J].Psychological Review,1958,65(6):386.
[18]Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science,2013,313(5786):504-507.
[19]賈世杰,楊東坡,劉金環(huán).基于卷積神經(jīng)網(wǎng)絡(luò)的商品圖像精細(xì)分類[J].山東科技大學(xué)學(xué)報(bào)(自然科學(xué)版),2014,33(6):91-96.
[20]敖道敢.無監(jiān)督特征學(xué)習(xí)結(jié)合神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像識(shí)別[D].廣州:華南理工大學(xué),2014.