彭 清,季桂樹+,謝林江,張少波,2
1.中南大學(xué) 信息科學(xué)與工程學(xué)院,長(zhǎng)沙 410083
2.湖南科技大學(xué) 計(jì)算機(jī)科學(xué)與工程學(xué)院,湖南 湘潭 411201
隨著經(jīng)濟(jì)的快速發(fā)展,我國(guó)汽車工業(yè)和公路交通事業(yè)也隨之快速發(fā)展,汽車已成為居民日常生活中不可或缺的交通工具,汽車安全逐漸成為現(xiàn)代社會(huì)重點(diǎn)關(guān)注的一個(gè)領(lǐng)域。在汽車行駛過(guò)程中容易發(fā)生追尾碰撞等事故,因此采用視覺(jué)目標(biāo)識(shí)別的汽車安全輔助駕駛系統(tǒng)(advanced driver assistant system,ADAS)[1-3]起著重要作用,車輛識(shí)別是其中的一個(gè)代表性技術(shù)。
在車輛識(shí)別中,最常見的方法主要有基于模板的方法[4]和基于學(xué)習(xí)的方法[5-8]。文獻(xiàn)[4]利用樣本的PCA(principal component analysis)子空間建立了一個(gè)類的模板,根據(jù)新樣本與模板的誤差進(jìn)行決策匹配;文獻(xiàn)[5-6]使用車輛HOG(histogram of oriented gradient)特征訓(xùn)練支持向量機(jī)(support vector machine,SVM)分類器來(lái)對(duì)車輛進(jìn)行識(shí)別;文獻(xiàn)[7]使用Wavelet提取車輛特征,并利用SVM對(duì)其進(jìn)行訓(xùn)練;文獻(xiàn)[8]利用PCA降維得到的特征進(jìn)行分類,利用SVM作為分類器,得到了最好的識(shí)別效果。在以上方法中,基于模板的方法對(duì)選取的車輛模板依賴性很大,很難找到一套能夠代表所有車輛的模板,并且計(jì)算量復(fù)雜,耗時(shí)長(zhǎng)以及識(shí)別率低?;趯W(xué)習(xí)的方法是當(dāng)前車輛識(shí)別研究中的重點(diǎn),但是依然存在計(jì)算量大,特征提取復(fù)雜等問(wèn)題。
在機(jī)器學(xué)習(xí)領(lǐng)域中,深度學(xué)習(xí)成為近年研究的熱點(diǎn)[9-14]。它首先由Hinton等人[15]于2006年提出,通過(guò)自下而上的方式逐層進(jìn)行特征學(xué)習(xí),最終獲得特征的非線性表達(dá)。深度學(xué)習(xí)通過(guò)降維和使用梯度下降算法對(duì)海量數(shù)據(jù)進(jìn)行簡(jiǎn)化和優(yōu)化。深度學(xué)習(xí)對(duì)海量數(shù)據(jù)的處理能力是其他算法無(wú)法比擬的,只需使用簡(jiǎn)潔的參數(shù)就能學(xué)習(xí)到復(fù)雜的特征。卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)是深度學(xué)習(xí)模型的一種,它在圖像處理方面具有如下優(yōu)點(diǎn)(:1)輸入圖像和網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)能很好地吻合;(2)特征提取和模式分類同時(shí)進(jìn)行;(3)權(quán)值共享可以減少網(wǎng)絡(luò)的訓(xùn)練參數(shù),使神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)變得更簡(jiǎn)單,適應(yīng)性更強(qiáng)。
近年來(lái),有人通過(guò)提取CNN全連接層的特征并結(jié)合支持向量機(jī)進(jìn)行識(shí)別[16-17],達(dá)到了良好的識(shí)別效果。CNN+SVM具有以下優(yōu)點(diǎn):(1)在很多情況下,SVM比CNN全連接層的線性分類泛化能力好;(2)CNN最后通過(guò)sigmoid函數(shù)輸出,其輸出值兩極化,而SVM是估算每一類樣本的概率值,更加可靠,評(píng)價(jià)機(jī)制更好;(3)與其他特征提取方法相比,CNN提取的特征具有更多的細(xì)節(jié)且具有不變性。
卷積神經(jīng)網(wǎng)絡(luò)通過(guò)多個(gè)隱含層逐層進(jìn)行特征學(xué)習(xí),在這個(gè)過(guò)程中難免會(huì)產(chǎn)生少量特征遺漏的情況。對(duì)此,本文在訓(xùn)練好的CNN模型的基礎(chǔ)上,提取隱含層所有層的特征,結(jié)合SVM進(jìn)行識(shí)別。與相關(guān)方法進(jìn)行對(duì)比,實(shí)驗(yàn)證明本文CNN+SVM方法對(duì)車輛識(shí)別的正確率有所提高。
卷積神經(jīng)網(wǎng)絡(luò)在人工神經(jīng)網(wǎng)絡(luò)的應(yīng)用中,得到了越來(lái)越多的重視[18-22]。由于該網(wǎng)絡(luò)無(wú)需對(duì)圖像進(jìn)行復(fù)雜的前期預(yù)處理,可直接輸入原始圖像,避免了復(fù)雜的特征提取和數(shù)據(jù)重建,因而在圖像模式識(shí)別領(lǐng)域得到廣泛應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)通過(guò)局域感受野、權(quán)值共享和池化實(shí)現(xiàn)識(shí)別位移、縮放和扭曲不變性[23]。局域感受野指的是網(wǎng)絡(luò)層的神經(jīng)元與前一層的某個(gè)區(qū)域內(nèi)的神經(jīng)單元連接,通過(guò)局域感受野,每個(gè)神經(jīng)元可以提取初級(jí)的視覺(jué)特征;權(quán)值共享使得卷積神經(jīng)網(wǎng)絡(luò)只需要較少的參數(shù)就能完成對(duì)數(shù)據(jù)的訓(xùn)練;池化通過(guò)降低特征的分辨率減少計(jì)算量,防止過(guò)擬合。卷積神經(jīng)網(wǎng)絡(luò)是一種多層的監(jiān)督學(xué)習(xí)網(wǎng)絡(luò),有輸入層、隱含層(包括卷積層、下采樣層)和輸出層,通過(guò)誤差反向傳導(dǎo)算法優(yōu)化網(wǎng)絡(luò)結(jié)構(gòu),求解未知參數(shù)。
卷積的操作如圖1所示。在卷積層,特征圖的每一個(gè)神經(jīng)元與前一層的局部感受野相連接,與一個(gè)可學(xué)習(xí)的核進(jìn)行卷積,經(jīng)過(guò)卷積操作提取局部特征。卷積層的計(jì)算公式如式(1):
其中,l代表層數(shù);k代表卷積核;Mj代表輸入層的感受野;b代表每個(gè)輸出圖的一個(gè)偏置。卷積層的前一層可以是初始圖像,也可以是卷積層或者下采樣層生成的特征圖。卷積核與局部感受野進(jìn)行點(diǎn)乘,然后求和加偏置,卷積核內(nèi)部的參數(shù)是可訓(xùn)練的,偏置b的初始值為0。
Fig.1 Convolutional process schematic圖1 卷積操作示意圖
在下采樣中,計(jì)算圖像某區(qū)域的特征值的時(shí)候,需要對(duì)這個(gè)區(qū)域進(jìn)行分析和統(tǒng)計(jì),用新的特征來(lái)表達(dá)這個(gè)區(qū)域的總體特征。這個(gè)區(qū)域就叫作池化域,這個(gè)過(guò)程就是池化,池化操作如圖2所示。輸入的特征圖經(jīng)過(guò)池化操作后,其個(gè)數(shù)不變,邊長(zhǎng)大小變?yōu)樵瓉?lái)的1/n(n為池化的尺寸大?。?。下采樣層的計(jì)算公式如式(2):
其中,down()代表池化函數(shù);β代表權(quán)重系數(shù);b代表偏置。池化的方法有很多,其中最常見的兩種方法為平均值池化和最大值池化。平均值池化是對(duì)池化域內(nèi)所有值求和并取其平均值作為下采樣特征圖的特征值;最大值池化則是取池化域中的最大值作為下采樣特征圖的特征值。將池化的結(jié)果加上偏置b進(jìn)行計(jì)算,遍歷原特征圖的池化域后,得到下采樣特征圖。
Fig.2 Pooling process schematic圖2 池化操作示意圖
傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)最早應(yīng)用于手寫字符識(shí)別,并取得了非常好的效果。其結(jié)構(gòu)如圖3所示,分別為輸入層、兩個(gè)卷積層、兩個(gè)下采樣層以及輸出層,卷積核大小為5×5。
Fig.3 Convolutional neural network structure圖3 卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖
(1)輸入層(Input)為28×28的輸入圖像,圖像為灰度圖像。
(2)第一個(gè)卷積層(C1)包含6個(gè)特征圖,每個(gè)特征圖與輸入圖像的5鄰域(5×5)相連接,特征圖大小為24×24。
(3)第一個(gè)下采樣層(S2)包含6個(gè)12×12的特征圖,由C1池化得到,每個(gè)特征圖與C1中的一個(gè)特征圖相對(duì)應(yīng),且每個(gè)神經(jīng)元與相對(duì)應(yīng)的特征圖的2×2鄰域相連接。
(4)第二個(gè)卷積層(C3)由12個(gè)大小為8×8的特征圖組成,特征圖的每個(gè)神經(jīng)元與S2的若干特征圖的5鄰域(5×5)相連接。C3與S2的連接方式如表1所示,其中每一列代表C3的12個(gè)特征圖,每一行代表S2的6個(gè)特征圖,x代表兩個(gè)特征圖連接。例如在表1中,C3的特征圖1與S2的特征圖1、2、3相連接。
(5)第二個(gè)下采樣層(S4)中有12個(gè)4×4的特征圖,由C3池化得到,特征圖的每個(gè)神經(jīng)元與對(duì)應(yīng)的特征圖的2×2鄰域相連接。
(6)輸出層(Output)由10個(gè)神經(jīng)元組成,這些神經(jīng)元同時(shí)構(gòu)成了分類器,對(duì)應(yīng)圖像的類別。
為了對(duì)車輛進(jìn)行識(shí)別,CNN需要對(duì)大量的數(shù)據(jù)進(jìn)行訓(xùn)練。共采集到4 716張圖片,其中包括2 316張車輛正樣本和2 400張非車輛負(fù)樣本。采集到的圖片全部是由實(shí)景拍攝的,部分樣本如圖4所示。
Table 1 C3 and S2 connection mode表1 C3與S2連接方式
Fig.4 Partial image samples圖4 圖像數(shù)據(jù)部分樣本示例
實(shí)驗(yàn)使用Core i7-4510U的處理器,8 GB的內(nèi)存,GeForce 840M的顯卡,在Matlab的環(huán)境下進(jìn)行。由于實(shí)驗(yàn)使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)識(shí)別車輛,為了方便,所有的樣本通過(guò)Matlab進(jìn)行灰度化處理并統(tǒng)一歸一化為28×28像素。
將傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)用于測(cè)試車輛樣本集,因?yàn)閭鹘y(tǒng)CNN是應(yīng)用于手寫字符識(shí)別,最后的輸出層有10個(gè)神經(jīng)元,而本文的車輛識(shí)別只是一個(gè)車輛與非車輛的二分類問(wèn)題,所以O(shè)utput層只有兩個(gè)神經(jīng)元,對(duì)應(yīng)了車輛與非車輛。分別從車輛樣本和非車輛樣本中各自隨機(jī)選取400張圖片作為測(cè)試圖片,即共3 916張訓(xùn)練圖片,800張測(cè)試圖片,樣本集組成如表2所示。
Table 2 Sample component表2 樣本集成分組成
將學(xué)習(xí)效率(alpha)設(shè)為1、批訓(xùn)練樣本數(shù)量(batchsize)設(shè)為4(以下實(shí)驗(yàn)全部相同),實(shí)驗(yàn)通過(guò)1到100次迭代找出最大正確率,當(dāng)?shù)螖?shù)(epoch)等于31時(shí),正確率為95.5%(共36個(gè)錯(cuò)誤,其中車輛樣本有7個(gè)錯(cuò)誤,非車輛樣本有29個(gè)錯(cuò)誤),其正確率和樣本均方誤差如圖5所示。
通過(guò)以上實(shí)驗(yàn),發(fā)現(xiàn)傳統(tǒng)CNN在車輛識(shí)別上具有良好的識(shí)別效果。下面將對(duì)不同的卷積核和網(wǎng)絡(luò)層數(shù)以及隱含層輸出特征圖個(gè)數(shù)進(jìn)行測(cè)試,以便得到更好的識(shí)別效率。
在傳統(tǒng)CNN的基礎(chǔ)上對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn),分別將卷積核大小設(shè)為7、9、11、13,網(wǎng)絡(luò)層數(shù)均為5層,隱含層輸出特征圖數(shù)為12,各結(jié)構(gòu)測(cè)試結(jié)果如表3所示。
Fig.5 Test results of traditional convolutional neural network圖5 傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)測(cè)試結(jié)果
Table 3 Accuracy of different size of convolution kernel表3 不同卷積核正確率
從表3中可以看出,隨著卷積核n的增大,正確率也在提高,當(dāng)n=11時(shí),正確率達(dá)到最高,說(shuō)明卷積核為11×11時(shí)更能夠?qū)囕v樣本集進(jìn)行特征提取。但繼續(xù)增大到n=13時(shí),正確率卻下降了,說(shuō)明卷積核過(guò)大會(huì)導(dǎo)致特征提取效果變差。圖6顯示了在不同卷積核下迭代次數(shù)為1到100次的網(wǎng)絡(luò)測(cè)試結(jié)果。從圖6(a)中也能看出卷積核為11的曲線居于其他曲線之上,進(jìn)一步說(shuō)明卷積核為11的效果優(yōu)于其他卷積核。
Fig.6 Test results of different size of convolution kernel圖6 不同卷積核下網(wǎng)絡(luò)測(cè)試結(jié)果
從圖6(b)中可以看出,雖然卷積核為9的曲線低于11,但是卷積核為9的曲線波動(dòng)較大,沒(méi)有卷積核為11的平穩(wěn),導(dǎo)致最后的正確率低于卷積核為11的正確率。因?yàn)榫矸e核的大小決定了感受野的大小,感受野過(guò)大,提取的特征超出卷積核的表達(dá)范圍,而感受野過(guò)小,則無(wú)法提取有效的局部特征,所以卷積核大小對(duì)網(wǎng)絡(luò)的性能有著重要的影響。
基于之前所得結(jié)論,卷積核取11,將網(wǎng)絡(luò)層數(shù)分別設(shè)為3、4、6(由于6層網(wǎng)絡(luò)結(jié)構(gòu)過(guò)多的關(guān)系,C1層卷積核不變?yōu)?1×11,將C3層卷積核改為4×4,C5層卷積核改為3×3),特征圖數(shù)為12,各結(jié)構(gòu)測(cè)試結(jié)果如表4所示。
圖7顯示了在不同網(wǎng)絡(luò)層數(shù)下迭代次數(shù)為1到100次的網(wǎng)絡(luò)測(cè)試結(jié)果。從表4和圖7(a)中可以發(fā)現(xiàn),網(wǎng)絡(luò)層數(shù)為5的曲線始終高于其他曲線,并且最快達(dá)到峰值。
Table 4 Accuracy of different number of network layers表4 不同網(wǎng)絡(luò)層數(shù)正確率
Fig.7 Test results of different number of network layers圖7 不同網(wǎng)絡(luò)層數(shù)下網(wǎng)絡(luò)測(cè)試結(jié)果
從圖7(b)中可以發(fā)現(xiàn),網(wǎng)絡(luò)層數(shù)為3、6時(shí)網(wǎng)絡(luò)收斂較慢。網(wǎng)絡(luò)層數(shù)為4時(shí),雖然能夠收斂得到結(jié)果,但是正確率低于5層網(wǎng)絡(luò)的正確率。因?yàn)榫W(wǎng)絡(luò)層數(shù)過(guò)低會(huì)導(dǎo)致信息表達(dá)能力不足,通過(guò)增加網(wǎng)絡(luò)的層數(shù),其特征信息表達(dá)能力逐步增強(qiáng),但層數(shù)過(guò)多也會(huì)致使網(wǎng)絡(luò)結(jié)構(gòu)過(guò)于復(fù)雜,訓(xùn)練時(shí)間增加,易出現(xiàn)過(guò)擬合現(xiàn)象,所以選擇合適的層數(shù)對(duì)提高網(wǎng)絡(luò)訓(xùn)練效率和檢測(cè)結(jié)果有重要影響。
在卷積神經(jīng)網(wǎng)絡(luò)中,隱含層提取圖像特征后,由最后一層分類器對(duì)提取的圖像特征進(jìn)行分類,因此輸入的特征維數(shù)高低對(duì)最終的分類結(jié)果也有影響,而輸入的特征維數(shù)高低與隱含層輸出特征圖個(gè)數(shù)有關(guān)。實(shí)驗(yàn)采用卷積核為11×11,層數(shù)為5的網(wǎng)絡(luò)結(jié)構(gòu)(最后隱含層輸出為1×1的特征圖)對(duì)不同的隱含層輸出特征圖數(shù)進(jìn)行實(shí)驗(yàn),測(cè)試結(jié)果如表5所示。
Table 5 Accuracy of different number of feature maps表5 不同特征圖數(shù)正確率
在表5中,隨著特征圖數(shù)的增加,正確率跟著提高,在特征圖數(shù)為12時(shí),正確率達(dá)到最高。而繼續(xù)增加特征圖數(shù),正確率反而降低。圖8顯示了在不同特征圖數(shù)下迭代次數(shù)為1到100次的網(wǎng)絡(luò)測(cè)試結(jié)果。
由圖8(a)可以發(fā)現(xiàn),特征圖數(shù)為12的正確率明顯高于其他特征維數(shù)曲線,結(jié)合表5得知特征圖數(shù)取12時(shí),網(wǎng)絡(luò)表現(xiàn)最好。在圖8(b)中,特征圖數(shù)過(guò)少或者過(guò)多都會(huì)導(dǎo)致網(wǎng)絡(luò)收斂較慢,因此在設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)時(shí)應(yīng)該根據(jù)樣本特征的復(fù)雜度等因素調(diào)整特征圖數(shù),過(guò)高或過(guò)低均不能產(chǎn)生理想效果。
支持向量機(jī)[24]是一種機(jī)器學(xué)習(xí)算法,可以分析數(shù)據(jù),識(shí)別模式,也可以用于分類和回歸分析,通過(guò)將輸入向量映射到一個(gè)高維的特征空間,在這個(gè)空間中構(gòu)造最優(yōu)分類面,從而達(dá)到兩類或者多類的劃分。車輛識(shí)別是一個(gè)二分類問(wèn)題,給定一組訓(xùn)練樣本,分為兩類進(jìn)行標(biāo)記,訓(xùn)練之后得到一個(gè)訓(xùn)練模型,用模型將新的測(cè)試樣本劃分為兩類。
Fig.8 Test results of different number of feature maps圖8 不同特征圖數(shù)下網(wǎng)絡(luò)測(cè)試結(jié)果
經(jīng)過(guò)4.2節(jié)的實(shí)驗(yàn)證明,卷積核取11×11,網(wǎng)絡(luò)層數(shù)為5,特征圖數(shù)為12時(shí),卷積神經(jīng)網(wǎng)絡(luò)對(duì)車輛樣本集的識(shí)別能達(dá)到最好的效果。在此基礎(chǔ)上,使用CNN訓(xùn)練好的模型對(duì)圖片進(jìn)行特征提取,將提取到的每一層特征向量進(jìn)行融合,最后結(jié)合SVM進(jìn)行識(shí)別。
實(shí)驗(yàn)使用Matlab中自帶svmtrain函數(shù)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,然后用svmclassify函數(shù)將測(cè)試數(shù)據(jù)用訓(xùn)練得到的模型進(jìn)行分類。其中,SVM選取RBF核函數(shù),通過(guò)交叉驗(yàn)證,sigma值為55時(shí),正確率最高為97.00%。為了驗(yàn)證本文方法的優(yōu)越性,使用文獻(xiàn)[16]的方法提取CNN全連接層特征,結(jié)合SVM進(jìn)行識(shí)別。結(jié)果對(duì)比如表6所示。
從表6中得知,本文方法對(duì)正樣本和負(fù)樣本的識(shí)別率都高于文獻(xiàn)[16]的方法,這是因?yàn)镃NN在逐層提取特征的過(guò)程中遺漏了一些殘余特征。實(shí)驗(yàn)證明了殘余的部分特征對(duì)車輛識(shí)別的結(jié)果有一定的影響。
Table 6 Error comparison表6 誤識(shí)樣本對(duì)比
CNN+SVM錯(cuò)誤分類的部分圖像如圖9所示,圖(a)、(b)分別為錯(cuò)誤分類的正樣本和負(fù)樣本。從圖9中可以看出,大部分正樣本錯(cuò)誤分類主要原因是車輛本身與背景太過(guò)相似,大大干擾了機(jī)器的識(shí)別。對(duì)于某些圖片,人眼做出錯(cuò)誤判斷的可能也很大,負(fù)樣本錯(cuò)誤分類主要集中于帶窗戶的建筑上,原因是這種建筑的外形類似于車形,這對(duì)分類結(jié)果也造成了一定影響。
Fig.9 Partial error samples圖9 錯(cuò)誤分類部分樣本
經(jīng)過(guò)以上實(shí)驗(yàn)后,為了驗(yàn)證所提方法的有效性,將本文樣本集運(yùn)用傳統(tǒng)方法進(jìn)行對(duì)比測(cè)試,分別統(tǒng)計(jì)得到的結(jié)果如表7所示。
Table 7 Comparison of different vehicle recognition methods表7 不同的車輛識(shí)別方法對(duì)比
從正確率來(lái)看,傳統(tǒng)CNN高于其他方法,而改進(jìn)的CNN+SVM比傳統(tǒng)CNN高了1.50%;從耗時(shí)來(lái)看,CNN+SVM的速度明顯高于其他方法。不管是從正確率還是耗時(shí)來(lái)考慮,CNN+SVM都具有很大的優(yōu)勢(shì),這是因?yàn)镃NN只需要簡(jiǎn)單的計(jì)算就能夠提取到復(fù)雜的特征。
本文提出了基于卷積神經(jīng)網(wǎng)絡(luò)的車輛識(shí)別方法,它能更好地提取復(fù)雜的車輛特征,完成對(duì)車輛的識(shí)別,并詳細(xì)分析了卷積神經(jīng)網(wǎng)絡(luò)的主要結(jié)構(gòu)參數(shù)。在3 916個(gè)訓(xùn)練樣本,800個(gè)測(cè)試樣本的基礎(chǔ)上,經(jīng)過(guò)大量實(shí)驗(yàn)表明,對(duì)卷積核為11×11,網(wǎng)絡(luò)層數(shù)為5,特征圖數(shù)為12的CNN提取隱含層所有特征后,進(jìn)行SVM分類,識(shí)別準(zhǔn)確率達(dá)到了97.00%。結(jié)果顯示CNN+SVM明顯優(yōu)于傳統(tǒng)的車輛識(shí)別方法,具有一定的可行性和使用價(jià)值。
本文分析了沒(méi)能正確識(shí)別的樣本,發(fā)現(xiàn)這些樣本的目標(biāo)物與背景極為相似,影響了對(duì)這些目標(biāo)物的識(shí)別。計(jì)劃在未來(lái)的研究中,針對(duì)難以識(shí)別的特征,進(jìn)行多特征融合的卷積神經(jīng)網(wǎng)絡(luò)研究,以進(jìn)一步提高車輛的識(shí)別率。
[1]Sun Rui,Wang Jingjing.A vehicle recognition method based on kernelK-SVD and sparse representation[J].Pattern Recognition andArtificial Intelligence,2014,27(5):435-442.
[2]Li Xiuzhi,Wu Jian,Cui Zhiming,et al.Sparse representa-tion method of vehicle recognition in complex traffic scenes[J].Journal of Image and Graphics,2012,17(3):387-392.
[3]Zhang Zhaoxiang,Tan Tieniu,Huang Kaiqi,et al.Threedimensional deformable-model-based localization and recognition of road vehicles[J].IEEE Transactions on Image Processing,2012,21(1):1-13.
[4]Wu Junwen,Zhang Xuegong.A PCA classifier and its application in vehicle detection[C]//Proceedings of the 2001 International Joint Conference on Neural Networks,Washington,Jul 15-19,2001.Piscataway:IEEE,2001,1:600-604.
[5]Teoh S S,Br?unl T.Performance evaluation of HOG and Gabor features for vision-based vehicle detection[C]//Proceedings of the 2015 IEEE International Conference on Control System,Computing and Engineering,Penang,Nov 27-29,2015.Piscataway:IEEE,2015:66-71.
[6]Sun Diqing,Watada J.Detecting pedestrians and vehicles in traffic scene based on boosted HOG features and SVM[C]//Proceedings of the 9th International Symposium on Intelligent Signal Processings,Siena,May 15-17,2015.Piscataway:IEEE,2015:1-4.
[7]Papageorgiou C,Poggio T.A trainable system for object detection[J].International Journal of Computer Vision,2000,38(1):15-33.
[8]Sidla O,Paletta L,Lypetskyy Y,et al.Vehicle recognition for highway lane survey[C]//Proceedings of the 7th International IEEE Conference on Intelligent Transportation Systems,Washington,Oct 3-6,2004.Piscataway:IEEE,2004:531-536.
[9]Bengio Y.Learning deep architectures for AI[J].Foundations and Trends in Machine Learning,2009,2(1):1-71.
[10]Dahl G E,Yu Dong,Deng Li,et al.Context-dependent pretrained deep neural networks for large-vocabulary speech recognition[J].IEEE Transactions on Audio,Speech,and Language Processing,2012,20(1):30-42.
[11]Fan Jianping,Zhao Tianyi,Kuang Zhenzhong,et al.HDMTL:hierarchical deep multi-task learning for large-scale visual recognition[J].IEEE Transactions on Image Processing,2017,26(4):1923-1938.
[12]Liu Hao,Lu Jiwen,Feng Jianjiang,et al.Learning deep sharable and structural detectors for face alignment[J].IEEE Transactions on Image Processing,2017,26(4):1666-1678.
[13]Jiu Mingyuan,Sahbi H.Nonlinear deep kernel learning for image annotation[J].IEEE Transactions on Image Processing,2017,26(4):1820-1832.
[14]Wang Jin,Wang Zheng,Gao Changxin,et al.DeepList:learning deep features with adaptive listwise constraint for person reidentification[J].IEEE Transactions on Circuits and Systems for Video Technology,2017,27(3):513-524.
[15]Hinton G E,Salakhutdinov R R.Reducing the dimensionality of data with neural networks[J].Science,2006,313:504-507.
[16]Niu Xiaoxiao,Suen C Y.A novel hybrid CNN-SVM classifier for recognizing handwritten digits[J].Pattern Recognition,2012,45(4):1318-1325.
[17]Elleuch M,Maalej R,Kherallah M.A new design based-SVM of the CNN classifier architecture with dropout for offline Arabic handwritten recognition[J].Procedia Computer Science,2016,80:1712-1723.
[18]Li Hong,Liu Fang,Yang Shuyuan,et al.Remote sensing image fusion based on deep support value learning networks[J].Chinese Journal of Computers,2016,39(8):1583-1596.
[19]Gao Junyu,Yang Xiaoshan,Zhang Tianzhu,et al.Robust visual tracking method via deep learning[J].Chinese Journal of Computers,2016,39(7):1419-1434.
[20]Thomas C,Ranchin T,Wald L,et al.Synthesis of multispectral images to high spatial resolution:a critical review of fusion methods based on remote sensing physics[J].IEEE Transactions on Geoscience&Remote Sensing,2008,46(5):1301-1312.
[21]Liang Xiaodan,Xu Chunyan,Shen Xiaohui,et al.Human parsing with contextualized convolutional neural network[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(1):115-127.
[22]Zhao Zijing,Kumar A.Accurate periocular recognition under less constrained environment using semantics-assisted convolutional neural network[J].IEEE Transactions on Information Forensics and Security,2017,12(5):1017-1030.
[23]LeCun Y,Bottou L,Bengio Y,et al.Gradient-based learning applied to document recognition[J].Proceedings of the IEEE,1989,86(11):2278-2324.
[24]Annabella A,Fuduli A.The proximal trajectory algorithm in SVM cross validation[J].IEEE Transactions on Neural Networks and Learning Systems,2016,27(5):966-977.
附中文參考文獻(xiàn):
[1]孫銳,王晶晶.一種基于核K-SVD和稀疏表示的車輛識(shí)別方法[J].模式識(shí)別與人工智能,2014,27(5):435-442.
[2]李修志,吳健,崔志明,等.復(fù)雜交通場(chǎng)景中采用稀疏表示的車輛識(shí)別方法[J].中國(guó)圖象圖形學(xué)報(bào),2012,17(3):387-392.
[18]李紅,劉芳,楊淑媛,等.基于深度支撐值學(xué)習(xí)網(wǎng)絡(luò)的遙感圖像融合[J].計(jì)算機(jī)學(xué)報(bào),2016,39(8):1583-1596.
[19]高君宇,楊小汕,張?zhí)熘?等.基于深度學(xué)習(xí)的魯棒性視覺(jué)跟蹤方法[J].計(jì)算機(jī)學(xué)報(bào),2016,39(7):1419-1434.