李洪均 周 澤
(1.南通大學(xué)電子信息學(xué)院,南通,226019;2.南通智能信息技術(shù)聯(lián)合研究中心,南通,226019;3.通科微電子學(xué)院,南通,226019)
近年來(lái),隨著交通監(jiān)控設(shè)備的普及和計(jì)算機(jī)視覺(jué)的迅猛發(fā)展,一些基于交通視頻圖像的計(jì)算機(jī)視覺(jué)技術(shù)被應(yīng)用在現(xiàn)代化智能交通體系中。實(shí)時(shí)的車型識(shí)別技術(shù)作為智能交通體系的重要組成部分,具有廣泛的應(yīng)用范圍,如高速公路收費(fèi)系統(tǒng)、交通流量統(tǒng)計(jì)、城市交通監(jiān)控以及協(xié)助刑偵[1-3]等方面。目前車型識(shí)別領(lǐng)域的研究主要可以分為3類:(1)基于車輛三維模型的車型識(shí)別方法[4-7]。該方法對(duì)不同類型的車輛進(jìn)行三維建模,然后通過(guò)模型匹配的方式,實(shí)現(xiàn)車型識(shí)別,Voulodimos等[8]建立每類車輛的三維模型,將待識(shí)別的車輛投影到模型空間,通過(guò)模型匹配的方式實(shí)現(xiàn)了87.5%的車型識(shí)別精度。(2)基于深度學(xué)習(xí)[9-14]的車型識(shí)別方法。該方法先對(duì)車輛樣本圖像進(jìn)行特征提取,然后用所獲得的特征向量來(lái)訓(xùn)練網(wǎng)絡(luò)分類器,利用訓(xùn)練好的分類器識(shí)別車輛類型,雷倩等[15]采用具有13層的深度神經(jīng)網(wǎng)絡(luò)CaffeNet實(shí)現(xiàn)車型識(shí)別,識(shí)別精度高達(dá)95.2%,但需要使用GPU來(lái)加速網(wǎng)絡(luò)訓(xùn)練。(3)基于車輛淺層特征的車型識(shí)別方法[16-20]。該方法利用以先驗(yàn)知識(shí)所設(shè)計(jì)的特征提取器,提取車輛圖像的固定化特征,如SIFT特征、Haaris角點(diǎn)特征以及梯度方向直方圖(Histogram of oriented gradient,HOG)特征等,張彤等[21]提出了改進(jìn)的Harris角點(diǎn)檢測(cè)的方法提取車輛圖像的角點(diǎn)特征,采用角點(diǎn)匹配的方式實(shí)現(xiàn)了對(duì)5類車輛的類型識(shí)別,識(shí)別精度為90%?;谲囕v三維模型的方法匹配原理簡(jiǎn)單,但建模過(guò)程復(fù)雜,魯棒性較差,識(shí)別精度偏低;基于深度學(xué)習(xí)的方法具有較強(qiáng)的容錯(cuò)能力,識(shí)別精度較高,但該類方法需要大量的訓(xùn)練樣本,運(yùn)算復(fù)雜度高,網(wǎng)絡(luò)訓(xùn)練耗時(shí)長(zhǎng),難以實(shí)現(xiàn)實(shí)時(shí)性效果;基于車輛淺層特征的方法因其固定的特征提取方式,特征提取速度相比于深度網(wǎng)絡(luò)模型更快,但其識(shí)別精度偏低。
為了解決目前車型識(shí)別的精度和實(shí)時(shí)性問(wèn)題,本文提出了分層式寬度模型針對(duì)高速公路監(jiān)控視頻中的車輛圖像進(jìn)行分類。分層式寬度模型的特點(diǎn)在于分層式的特征提取方式使得模型特征表達(dá)能力強(qiáng),提高了車型識(shí)別精度;輕量化的網(wǎng)絡(luò)結(jié)構(gòu)使得模型訓(xùn)練速度快,實(shí)現(xiàn)了車型識(shí)別實(shí)時(shí)性效果。
寬度學(xué)習(xí)系統(tǒng)(Broad learning system,BLS)[22]是基于傳統(tǒng)的隨機(jī)向量函數(shù)鏈接神經(jīng)網(wǎng)絡(luò)(Random vector function-link neural network,RVFLNN)提出的,傳統(tǒng)的RVFLNN直接使用輸入數(shù)據(jù),建立增強(qiáng)節(jié)點(diǎn),然后求出輸入與輸出之間的權(quán)重系數(shù)矩陣;而B(niǎo)LS首先利用稀疏自編碼方式將輸入數(shù)據(jù)映射成稀疏化特征圖,構(gòu)造特征節(jié)點(diǎn),優(yōu)良的稀疏化特征圖決定著寬度學(xué)習(xí)系統(tǒng)的性能表現(xiàn);然后為了進(jìn)一步減少特征相關(guān)性,利用特征節(jié)點(diǎn)生成增強(qiáng)節(jié)點(diǎn);最后建立稀疏化特征圖和增強(qiáng)節(jié)點(diǎn)與輸出之間的關(guān)系,通過(guò)嶺回歸學(xué)習(xí)算法[23]求出二者之間的權(quán)重系數(shù)矩陣。BLS的結(jié)構(gòu)圖如圖1所示。BLS的具體構(gòu)造過(guò)程如下。
首先定義輸入樣本數(shù)據(jù)X∈RN×M,其中X共有N個(gè)樣本,每個(gè)樣本具有M維特征;然后按照式(1)生成特征圖Zi。
圖1 BLS的結(jié)構(gòu)示意圖Fig.1 Schematic of BLS
為了得到最優(yōu)解Wei,對(duì)式(2)變形,即
ADMM迭代算法的過(guò)程為
式中:ρ>0;S是軟閾值處理函數(shù);Oei為Wei的對(duì)偶矩陣;P為主殘差;t表示迭代次數(shù);λ為懲罰系數(shù),如式(6)所示。
將訓(xùn)練得到的完備字典Wei和X代入式(1),可得到稀疏化特征圖Zi,有
其次定義Zn≡[Z1,…,Zn]為前n個(gè)稀疏化特征圖組,利用Zn生成m個(gè)增強(qiáng)節(jié)點(diǎn)有
式中:Whj∈Rnk×γ和βhj∈Rγ分別為隨機(jī)生成的正交規(guī)范矩陣和偏值向量,其中γ為增強(qiáng)原子,其目的在于將稀疏化特征圖映射到正交空間上,進(jìn)一步減少相鄰特征之間的相關(guān)性;ξ為非線性函數(shù),如式(9)所示。
式中:s∈(0,1]為收縮參數(shù);tansig()為激活函數(shù),其表達(dá)式為
并定義Hm≡[H1,…,Hm]為m個(gè)增強(qiáng)節(jié)點(diǎn)。
最后定義輸出Y∈RN×C,其中C表示類別,建立稀疏化特征圖組和增強(qiáng)節(jié)點(diǎn)與輸出之間的關(guān)系為
式中:Q=[Zn|Hm];通過(guò)嶺回歸學(xué)習(xí)算法求出式(11)的最優(yōu)權(quán)重系數(shù)矩陣Wm,令式(11)等于0,并對(duì)Wm求導(dǎo),結(jié)果為
因此可求得
式中I為單位矩陣,理論上當(dāng)λ=0時(shí),最優(yōu)解Wm=Q+Y,其中Q+是Q的偽逆,即有
因此權(quán)重系數(shù)矩陣Wm表示為
HOG[25]是通過(guò)檢測(cè)圖像邊緣方向的分布來(lái)提取目標(biāo)物體的輪廓邊緣特征。具體做法是將待提取特征的圖像分成若干大小固定的區(qū)域,通過(guò)獲得該區(qū)域圖像像素梯度并進(jìn)行特征計(jì)算來(lái)累加梯度特征,從而獲得一定維數(shù)的梯度方向直方圖。具體步驟如下[26]。
(1)灰度化處理彩色圖像,HOG特征只對(duì)像素點(diǎn)的亮度值求梯度信息。
(2)為了調(diào)節(jié)圖像對(duì)比度,減少光照不均勻以及噪聲的影響,采用Gamma校正法對(duì)輸入的圖像進(jìn)行歸一化操作。
(3)為了捕獲目標(biāo)物體的輪廓信息,通過(guò)式(16)計(jì)算圖像中各個(gè)像素點(diǎn)(x,y)的梯度大小G(x,y)和方向D(x,y)
式中Gx(x,y),Gy(x,y)分別表示像素點(diǎn)在垂直坐標(biāo)系x軸和y軸方向的梯度如式(17)所示。
式中H(x,y)表示像素點(diǎn)(x,y)的亮度值。
(4)將圖像區(qū)域分層劃分,第1層是相互連通的Cell單元,各個(gè)Cell單元互不重疊,第2層是若干個(gè)Cell單元組成的Block區(qū)塊。
(5)將360?等分成若干個(gè)被稱為Bin的方向塊,檢測(cè)各個(gè)Cell單元的梯度方向分布,并累加每個(gè)Cell單元的梯度幅度;然后歸一化Block區(qū)塊的對(duì)比度。
(6)將圖像內(nèi)所有Block區(qū)塊的HOG特征串聯(lián)起來(lái),即得到了圖像的HOG特征向量。
BLS因其輕量化的網(wǎng)絡(luò)結(jié)構(gòu),所以在訓(xùn)練和測(cè)試速度上非??欤谝恍?fù)雜場(chǎng)景下其識(shí)別精度偏低,為了實(shí)現(xiàn)車型識(shí)別的實(shí)時(shí)性和高精度效果,本文提出了分層式寬度模型,該模型包括輸入層、淺層特征層、寬度特征層以及輸出層,其中淺層特征層用于提取樣本圖像的淺層特征和降維操作;寬度特征層用于訓(xùn)練完備字典和正交規(guī)范矩陣,實(shí)現(xiàn)樣本特征的稀疏化表示和非線性映射;建立輸出層與樣本特征之間的關(guān)系,求出權(quán)重系數(shù)。分層式寬度模型如圖2所示。
淺層特征層作為分層式寬度模型特征處理的首要環(huán)節(jié),主要包括樣本圖像的顏色空間轉(zhuǎn)換、多通道HOG特征提取以及降維操作。
2.1.1 顏色空間轉(zhuǎn)換
RGB顏色空間是彩色圖像最常用的顏色空間,該顏色空間的3個(gè)通道都包含亮度信息,因此3個(gè)通道都會(huì)受到光照影響。相比于RGB顏色空間,HSV,HSI以及YCbCr等顏色空間下的圖像亮度信息和色度信息相互獨(dú)立,不同的光照環(huán)境只影響圖像的亮度信息,而通過(guò)色度信息也能夠反映圖像屬性。由于HSV和HSI顏色空間模型較為復(fù)雜,與RGB顏色空間的轉(zhuǎn)換是非線性的,而YCbCr顏色空間模型簡(jiǎn)單,且與RGB顏色空間的轉(zhuǎn)換關(guān)系是線性的,如式(18)所示??紤]到訓(xùn)練所用的數(shù)據(jù)集中包含不同光照環(huán)境下所采集的車輛圖像,因此將原始的RGB圖像轉(zhuǎn)換到Y(jié)CbCr顏色空間,減少光照影響。首先將輸入層的彩色樣本圖像尺寸設(shè)定為80像素×60像素;然后通過(guò)式(18),實(shí)現(xiàn)顏色空間轉(zhuǎn)換。
圖2 分層式寬度模型示意圖Fig.2 Schematic diagram of layered broad model
式中:Y(x,y),Cb(x,y),Cr(x,y)分別表示YCbCr顏色空間下3個(gè)顏色通道的像素值;R(x,y),G(x,y),B(x,y)分別表示RGB顏色空間下3個(gè)顏色通道的像素值。經(jīng)過(guò)顏色空間轉(zhuǎn)換后樣本特征為XYCbCr∈RN×M,其中N為彩色樣本圖像的數(shù)量,M為每個(gè)樣本的特征維度大小。
圖3和圖4分別表示RGB和YCbCr顏色空間下的3通道圖像。由于YCbCr顏色空間的Y通道、Cb通道和Cr通道分別表示亮度信息、藍(lán)色分量和紅色分量,因此不同通道反映圖像的不同特征屬性;而RGB顏色空間的3個(gè)通道由于亮度和色度信息沒(méi)有分離,3個(gè)通道圖之間具有很大的相似性。
圖3 RGB顏色空間的3通道圖Fig.3 Three-channel maps of RGB color space
圖4 YCbCr顏色空間的3通道圖Fig.4 Three-channel maps of YCbCr color space
2.1.2 多通道HOG特征
通常HOG特征是在灰度圖像上提取的,灰度圖像只包含亮度信息,容易受到光照環(huán)境的影響,而通過(guò)顏色空間轉(zhuǎn)換后,圖像的亮度信息和色度信息相互獨(dú)立,為了減少光照環(huán)境的影響同時(shí)提高特征多樣性,提出了多通道HOG特征提取算法,按照1.2節(jié)所述的HOG特征提取流程(2)—(6)分別提取YCbCr顏色空間下3個(gè)顏色通道的HOG特征,其中設(shè)置Cell單元的尺寸Size=10,步長(zhǎng)Stride=10,2×2個(gè)Cell單元組成的Block區(qū)塊,設(shè)置Bin方向塊l=18,因此在一張80像素×60像素分辨率圖像上進(jìn)行區(qū)域劃分,水平方向和垂直方向分別得到7個(gè)和5個(gè)Block區(qū)塊。
最后每張彩色圖像能夠得到7×5×72×3=7 560維的HOG特征向量,XYCbCr經(jīng)過(guò)多通道HOG特征提取后樣本特征為XH∈RN×M1,M1表示特征提取后的特征維度。
2.1.3 降維
經(jīng)過(guò)多通道HOG特征提取后,樣本特征維度較高,影響車型識(shí)別算法的速度,通過(guò)主成分分析(Principal component analysis,PCA)算法不僅實(shí)現(xiàn)了樣本特征XH的降維效果,同時(shí)減少了噪聲和冗余信息的影響。
首先通過(guò)式(19)計(jì)算所有樣本特征XH的協(xié)方差矩陣Cov∈RM1×M1;然后通過(guò)奇異值分解方式,對(duì)協(xié)方差矩陣進(jìn)行分解,如式(20);然后設(shè)定貢獻(xiàn)率,通過(guò)式(21)選定特征值向量矩陣Σ的前p個(gè)特征值;最后將前p個(gè)特征值所對(duì)應(yīng)的特征向量構(gòu)成降維矩陣Vp,通過(guò)式(22)實(shí)現(xiàn)降維目的。
寬度特征層用于對(duì)淺層特征層輸出的樣本特征進(jìn)行二次特征處理,主要包括樣本特征稀疏化和非線性映射等操作。特征稀疏化是指通過(guò)訓(xùn)練完備字典將樣本特征稀疏化表示,減少特征之間的相關(guān)性;非線性映射是指利用正交規(guī)范矩陣,將稀疏化特征非線性映射到正交空間上,進(jìn)一步減少相鄰特征之間的相關(guān)性,提高模型的特征表達(dá)能力。
2.2.1 特征稀疏化
首先訓(xùn)練完備字典將淺層特征層的輸出樣本特征U稀疏化表示,按照式(2)將完備字典訓(xùn)練過(guò)程等價(jià)為最優(yōu)化求解過(guò)程,即有
式中:Zi為第i個(gè)隨機(jī)特征圖;Wei∈RM2×k表示待訓(xùn)練的第i個(gè)完備字典,i=1,…,n,k為特征點(diǎn)數(shù)量。通過(guò)式(4—6)所述的ADMM迭代算法,可以得到完備字典Wei,因此按照式(7)將得到的完備字典Wei和U映射生成Zi∈ RN×k,有
式中激活函數(shù)φ為歸一化函數(shù),有
式中x表示向量,x表示向量中的元素;并定義Zn=[φ(UWe1),…,φ(UWen)]為n個(gè)稀疏化特征圖組。
2.2.2 非線性映射
為了進(jìn)一步減少相鄰特征之間的相關(guān)性,構(gòu)造正交規(guī)范矩陣,將稀疏化特征非線性映射到正交空間上,提高模型的特征表達(dá)能力。首先隨機(jī)生成一定大小的正交規(guī)范矩陣Whj,其中正交規(guī)范矩陣Whj包含了偏置向量βhj;然后根據(jù)式(9)的非線性映射關(guān)系,Whj和Zn可以映射生成增強(qiáng)節(jié)點(diǎn)Hj,有
式中s∈(0,1]為收縮參數(shù)。因此Zn通過(guò)非線性映射生成Hm定義為
定義Y為輸出樣本標(biāo)簽矩陣,因此可以建立[Zn|Hm]與Y之間的關(guān)系,有
式中W為稀疏化特征圖和增強(qiáng)節(jié)點(diǎn)與輸出之間的權(quán)重系數(shù)矩陣,有
式中[Zn|Hm]+是[Zn|Hm]的偽逆,通過(guò)式(14)可以求得偽逆[Zn|Hm]+,有
因此權(quán)重系數(shù)矩陣W為
本文算法流程如下。
輸入:訓(xùn)練樣本;
輸出:樣本標(biāo)簽;
·X通過(guò)式(18)顏色空間轉(zhuǎn)換得到XYCbCr∈ RN×M;
·根據(jù)2.1.2節(jié)的多通道HOG特征提取算法,提取XYCbCr的HOG特征得到XH∈RN×M1;
·由式(19-22)對(duì)XH進(jìn)行PCA降維操作,得到U ∈RN×M2;
·設(shè)定n個(gè)稀疏化特征圖和m個(gè)增強(qiáng)節(jié)點(diǎn)。
每個(gè)稀疏化特征圖提取過(guò)程如下:
(1)隨機(jī)生成 Wei與 βei;
(2)通過(guò)式(23)訓(xùn)練生成完備字典Wei;
(3)根據(jù)式(24)得到稀疏化特征圖Zi;
重復(fù)n次步驟(1—3),并定義Zn=[Z1,…,Zn]為n個(gè)稀疏化特征圖組。
每個(gè)增強(qiáng)節(jié)點(diǎn)的生成過(guò)程如下:
(4)隨機(jī)生成 Whj與 βhj;
(5)通過(guò)式(26)生成增強(qiáng)節(jié)點(diǎn)Hj;
重復(fù)m次步驟(4,5),并定義Hm=[H1,…,Hm]為m個(gè)增強(qiáng)節(jié)點(diǎn);
·通過(guò)式(28)建立[Zn|Hm]與樣本標(biāo)簽矩陣Y的關(guān)系;
·根據(jù)式(31)計(jì)算出權(quán)重系數(shù)矩陣W。
實(shí)驗(yàn)在Core i7-6800K CPU,頻率為3.40 GHz,16 GB RAM的Windows10系統(tǒng)計(jì)算機(jī)上運(yùn)行,運(yùn)行環(huán)境為MATLAB2016b 64位。采用識(shí)別精度和識(shí)別速度,單位為幀/s來(lái)衡量算法性能。
BIT-Vehicle數(shù)據(jù)集[27]是在高速公路攝像頭上采集的分辨率為1 920像素×1 080像素和1 600像素×1 200像素的車輛前臉圖像,共9 850張圖像,其中約有10%的夜間圖像,另外還有許多光照環(huán)境、車輛表面顏色變化的圖像,如圖5所示。該數(shù)據(jù)庫(kù)中的所有車型分為6類,分別是Bus,Minivan,Microbus,Truck,Sedan和SUV,對(duì)應(yīng)每類車輛數(shù)量分別為558,476,862,823,5 769和1 362。圖6為數(shù)據(jù)庫(kù)中6類車輛的示意圖。
圖5 復(fù)雜環(huán)境下的車輛圖像Fig.5 Vehicle images in complex environment
圖6 樣本圖像示意圖Fig.6 Sample image schematic
分層式寬度模型的淺層特征層參數(shù)設(shè)置Cell單元的尺寸Size=10,步長(zhǎng)Stride=10,每個(gè)Block區(qū)塊由2×2個(gè)Cell單元組成,Bin方向塊l=18;寬度特征層參數(shù)設(shè)置n=20,k=100,m=800,s=0.8。實(shí)驗(yàn)結(jié)果表明本文所提算法的識(shí)別精度為96.69%,識(shí)別速度為70.3幀/s,達(dá)到了實(shí)時(shí)性效果。車型識(shí)別精度混淆矩陣圖,如圖7所示。
由圖7可知,Microbus和Minivan容易和其他多種車型混淆,其中Microbus與Minivan之間最易產(chǎn)生誤判,一方面是因?yàn)檫@兩類車型前臉圖像之間有很大的相似性,另一方面是由于部分Minivan存在載貨現(xiàn)象,如圖8所示。
圖7 車型識(shí)別精度混淆矩陣圖Fig.7 Confusion matrix of vehicle type recognition accuracy
圖8 相似車輛的前臉圖Fig.8 Front face of similar vehicles
3.2.1 淺層特征層中各特征處理環(huán)節(jié)實(shí)驗(yàn)
為了進(jìn)一步說(shuō)明淺層特征層中各個(gè)特征處理環(huán)節(jié)的重要性,針對(duì)特征處理環(huán)節(jié)的不同組合,作了以下3組實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果如表1所示。由表1可知,多通道HOG特征+PCA降維+BLS算法與所提算法的對(duì)比實(shí)驗(yàn)說(shuō)明YCbCr顏色空間下圖像的亮度信息和色度信息相互分離,光照環(huán)境只影響亮度信息,而色度信息也能反映圖像的特征屬性,通過(guò)顏色空間轉(zhuǎn)換能有效地減少光照環(huán)境的影響;顏色空間轉(zhuǎn)換+PCA降維+BLS算法與所提算法的對(duì)比實(shí)驗(yàn)表明多通道HOG特征具有較強(qiáng)的車輛前臉特征表達(dá)能力,主要因?yàn)榛趫D像邊緣梯度的HOG特征能夠有效地描述不同類型車輛的前臉特征,此外多通道的特征提取方式保留了特征多樣性,是淺層特征層中的關(guān)鍵環(huán)節(jié);顏色空間轉(zhuǎn)換+多通道HOG特征+BLS算法與所提算法對(duì)比實(shí)驗(yàn)證明了特征提取后的PCA降維操作有效地減少了圖像噪聲干擾。
3.2.2 多通道與單通道HOG特征實(shí)驗(yàn)
為了驗(yàn)證多通道HOG特征提取的合理性,作了3組對(duì)比性實(shí)驗(yàn),只改變HOG特征提取的顏色通道,實(shí)驗(yàn)結(jié)果如表2所示。由表2可知,多通道HOG特征的組合方式優(yōu)于單通道HOG特征。其中Y通道下的HOG特征對(duì)車型識(shí)別精度的貢獻(xiàn)比其他通道更大,主要是因?yàn)閅通道反映的是圖像亮度信息,包含豐富的邊緣紋理特征,而HOG特征描述算子對(duì)圖像邊緣梯度變化較大的區(qū)域較為敏感。
為了說(shuō)明本文所提算法在車型識(shí)別方面的優(yōu)越性,對(duì)比了其他算法在BIT-Vehicle數(shù)據(jù)集上的測(cè)試結(jié)果,如表3所示。
表1 淺層特征層中各特征處理環(huán)節(jié)的實(shí)驗(yàn)對(duì)比Tab.1 Experimental comparison of various feature pr ocessing links in shallow featur e layer
表2多通道與單通道HOG特征實(shí)驗(yàn)對(duì)比Tab.2 Comparison of multi-channel and singlechannel HOG feature experiments
表3不同識(shí)別算法的實(shí)驗(yàn)對(duì)比Tab.3 Experimental comparison of different recognition algorithms
由表3可知,本文所提算法的識(shí)別精度和識(shí)別速度優(yōu)于其他算法如無(wú)監(jiān)督的CNN算法[27]、深度玻爾茲曼機(jī)算法[28]以及基于可形變模型算法[29]。另外通過(guò)對(duì)比BLS算法與所提算法可知,所提算法的識(shí)別精度高于BLS算法,主要因?yàn)闇\層特征層中特征處理環(huán)節(jié)不僅減少了光照等噪聲的影響而且還提取了車輛前臉的關(guān)鍵性特征,具有較強(qiáng)的特征表達(dá)能力,同時(shí)由于淺層特征層特征處理環(huán)節(jié)消耗了部分時(shí)間,因此所提算法的識(shí)別速度比BLS算法慢,但所提算法已經(jīng)達(dá)到了實(shí)時(shí)性要求。
本文提出的分層式寬度模型能夠?qū)崿F(xiàn)車輛類型識(shí)別效果,具有識(shí)別精度高、識(shí)別速度快等優(yōu)點(diǎn)。淺層特征層中通過(guò)將顏色空間轉(zhuǎn)換與多通道HOG算法相結(jié)合,有效地減少了光照環(huán)境影響的同時(shí),提取了車輛前臉圖像的關(guān)鍵性特征;寬度特征層通過(guò)訓(xùn)練完備字典和生成正交規(guī)范矩陣,實(shí)現(xiàn)樣本特征稀疏化表示和非線性映射,減少了圖像特征相關(guān)性;最后直接求出樣本特征與輸出樣本標(biāo)簽之間的權(quán)重系數(shù)矩陣,實(shí)現(xiàn)車型識(shí)別。輕量化的網(wǎng)絡(luò)結(jié)構(gòu)和分層式的特征提取方式兼顧了車型識(shí)別的識(shí)別速度和精度。下一步將針對(duì)多目標(biāo)的車型識(shí)別以及遮擋等問(wèn)題進(jìn)行研究,使算法模型的泛化能力更強(qiáng)。