華 夏,王新晴,俞垚魏,孟凡杰,馬昭燁,王 東,邵發(fā)明
(中國(guó)人民解放軍陸軍工程大學(xué), 南京 210018)
現(xiàn)階段的道路檢測(cè)算法主要分為基于特征、 基于模型、基于機(jī)器學(xué)習(xí)三大類?;谔卣鞯乃惴╗1-3]主要是識(shí)別出道路的某些特征對(duì)道路進(jìn)行檢測(cè),在具有清晰道路標(biāo)識(shí),特征差異明顯的結(jié)構(gòu)化道路上取得了較好的識(shí)別效果,但是它抗干擾能力較差,對(duì)于復(fù)雜環(huán)境下的道路識(shí)別效果較差;基于模型的算法主要是先建立道路參數(shù)模型,然后根據(jù)圖像分析確定對(duì)應(yīng)的模型參數(shù),從而得到道路的邊緣和走向信息,對(duì)于常見(jiàn)的結(jié)構(gòu)化道路,該種算法對(duì)道路邊緣的擬合簡(jiǎn)單迅速,但對(duì)邊界復(fù)雜的道路,模型過(guò)于復(fù)雜、計(jì)算量大,無(wú)法保證其全局的優(yōu)化性和識(shí)別的精確性;基于機(jī)器學(xué)習(xí)的方法[4-6]利用神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)特性進(jìn)行道路檢測(cè),它的識(shí)別精度高,抗干擾能力和魯棒性強(qiáng),但訓(xùn)練集的及時(shí)更新和算法的實(shí)時(shí)性仍是當(dāng)前的關(guān)鍵難點(diǎn)問(wèn)題。
由于非結(jié)構(gòu)化道路存在著路面環(huán)境復(fù)雜、 路面特征易受天氣、光照變化的干擾等客觀原因,實(shí)現(xiàn)精確、實(shí)時(shí)的非結(jié)構(gòu)化道路檢測(cè)仍然是一個(gè)極具挑戰(zhàn)性的難題[1]。本文提出了一種野外場(chǎng)景自適應(yīng)道路識(shí)別算法,與現(xiàn)有道路識(shí)別算法相比具有較高的道路檢測(cè)精度和較好的實(shí)時(shí)性,能夠?qū)崿F(xiàn)對(duì)野外非結(jié)構(gòu)化道路精準(zhǔn)有效識(shí)別。指定數(shù)據(jù)庫(kù)檢測(cè)結(jié)果表明,本文算法道路識(shí)別精度達(dá)91.9%,單幀圖像處理用時(shí)0.98s。
根據(jù)先驗(yàn)知識(shí)并結(jié)合工程實(shí)際, 本文中的道路識(shí)別算法基于以下假設(shè):道路顏色特征和紋理特征的變化是漸變的,極少會(huì)出現(xiàn)特征突變的情況;相機(jī)拍攝視角的正前方為道路區(qū)域,道路區(qū)域從圖像的底端向上延伸;道路區(qū)域?yàn)橐粔K大的連通區(qū)域。
車輛在行駛過(guò)程中,在通道寬度內(nèi),當(dāng)視覺(jué)系統(tǒng)安裝固定且沿車輛軸向時(shí),恒定視野區(qū)域始終為可靠的道路區(qū)域[2]。在道路類聚類中心(超像素種子塊)的選取上融合了車前最小左右轉(zhuǎn)彎半徑交叉覆蓋范圍內(nèi),必定為路的先驗(yàn)知識(shí)(參考下文),既提升了對(duì)野外“車走路變”的自適應(yīng)性,又避免了隨機(jī)選取道路類超像素種子塊可能引起的訓(xùn)練偏差和效率降低。
環(huán)境圖像道路區(qū)域示意圖如圖1。可以確定道路圖像中,車前以略大于車寬的尺寸D為底邊長(zhǎng),高為l的等腰三角形區(qū)域,作為圖像中道路類超像素種子塊選取最佳區(qū)域。依據(jù)幾何學(xué)知識(shí)可以求得高為:
(1)
式(1)中:D為車寬對(duì)應(yīng)在圖像中的尺寸;r為汽車最小轉(zhuǎn)彎半徑對(duì)應(yīng)圖像中尺寸;R為汽車最大轉(zhuǎn)彎半徑對(duì)應(yīng)圖像中尺寸。
在野外復(fù)雜環(huán)境下對(duì)非結(jié)構(gòu)化道路檢測(cè)產(chǎn)生干擾最為嚴(yán)重的就是陰影遮擋和強(qiáng)光影響兩大因素。 為了消除這兩種干擾,需要對(duì)環(huán)境圖像進(jìn)行檢測(cè)分類。依據(jù)先驗(yàn)知識(shí),可以將野外非結(jié)構(gòu)化道路分為三類,如表1所示。
表1 圖像類別及特點(diǎn)
1.2.1 分類指標(biāo)
定義了兩個(gè)分類指標(biāo):顏色值(Color valuecv)、顏色均勻度(Color uniformitycu)。
定義1 顏色值
依據(jù)人類對(duì)圖像顏色的感知,圖像中占有比重大的顏色對(duì)圖像語(yǔ)義的貢獻(xiàn)也大,本文定義這種顏色為主色。
圖像中每個(gè)像素點(diǎn)的顏色由R、G、B三個(gè)顏色分量共同決定,本文通過(guò)人眼對(duì)顏色感知的心理學(xué)公式,有:
cv=0.30×r+0.59×g+0.11×b
(2)
對(duì)這三種顏色分量進(jìn)行加權(quán)線性融合可以在圖像的每個(gè)像素點(diǎn)獲得一個(gè)代表該點(diǎn)顏色的數(shù)值,本文將其定義為顏色值cv。各點(diǎn)的顏色值構(gòu)成了一個(gè)與圖像等大小的二維矩陣,定義為顏色值矩陣(Color value matrixcm)。本文通過(guò)數(shù)理統(tǒng)計(jì)的方式,統(tǒng)計(jì)獲得了cm中各元素的頻率,將頻率最大的cv值認(rèn)為是代表主色的顏色值。在提取主色值的過(guò)程中通過(guò)去相關(guān)對(duì)比度拉伸法,放大圖像的顏色特征。通過(guò)顏色加強(qiáng)可以使圖像中的主色更加容易被區(qū)分。
定義2 顏色均勻度
如圖2所示,將圖像的道路區(qū)域等分為三塊長(zhǎng)為l1、l2、l3寬為20的長(zhǎng)方形區(qū)域,l1、l2、l3由式(1)可得。分別統(tǒng)計(jì)得主色值為cv1、cv2、cv3,由式(4) 兩兩進(jìn)行比較。
(3)
(4)
對(duì)于比較的結(jié)果,本文定義主色的最大差值為道路區(qū)域顏色均勻度,衡量道路區(qū)域顏色均勻程度。統(tǒng)計(jì)實(shí)驗(yàn)結(jié)果如表2所示。
表2 道路顏色均勻度
1.2.2 分類依據(jù)
通過(guò)對(duì)主色值取值范圍的劃分準(zhǔn)確判別第二和第三類道路圖像,通過(guò)兩個(gè)指標(biāo)的融合判定第一類道路圖像。受陰影影響嚴(yán)重的圖像,陰影的顏色值就是圖像的主色值;受強(qiáng)光影響嚴(yán)重的圖像,強(qiáng)光的顏色值就是圖像的主色值。如表3所示。
表3 不同類型圖像主色值選取范圍
僅通過(guò)主色值判定第一類圖像的效果并不理想。復(fù)雜環(huán)境下與陰影相似度較高的顏色會(huì)對(duì)主色值的選取造成極大干擾。為了解決這類問(wèn)題,結(jié)合道路區(qū)域顏色特征均勻這一假設(shè),對(duì)可能的第一類道路圖像進(jìn)行進(jìn)一步檢測(cè)。分類結(jié)果如表4所示。
表4 不同類型圖像主色值選取范圍
1) 第一類道路圖像的針對(duì)性預(yù)處理
當(dāng)檢測(cè)出環(huán)境圖像屬于第一類道路圖像時(shí),采用HSV顏色空間的Retinex結(jié)構(gòu)光圖像增強(qiáng)法[7]增強(qiáng)圖像的顏色特征,同時(shí)有效減小陰影遮擋對(duì)道路檢測(cè)的影響,可以使圖像中原本被陰影所淹沒(méi)的道路變得清晰可見(jiàn),有利于后續(xù)對(duì)非結(jié)構(gòu)化道路的提取與編碼[8]。
2) 第二類道路圖像的針對(duì)性預(yù)處理
當(dāng)檢測(cè)出道路圖像受強(qiáng)光影響時(shí),采用了一種快速Gammar校正算法降低強(qiáng)光對(duì)道路的干擾[3]。通過(guò)Gammar校正法處理強(qiáng)光圖像可以使原本被強(qiáng)光遮蓋的道路圖像變得更加清晰,有利于后續(xù)的非結(jié)構(gòu)化道路提取與編碼。
3) 第三類道路圖像的針對(duì)性預(yù)處理
圖像經(jīng)過(guò)檢測(cè),如果不屬于受到光照和陰影強(qiáng)烈影響的圖像,則通過(guò)去相關(guān)對(duì)比度拉伸法(decorr stretch) 放大圖像各部分的顏色特征。經(jīng)過(guò)顏色加強(qiáng)后,原本顏色特征相近的道路和周圍環(huán)境顏色差異被放大,道路區(qū)域更加容易通過(guò)顏色進(jìn)行區(qū)分。
用限制對(duì)比度直方圖均衡(Contrast Limited Adaptive histgram equalization/CLAHE)提升圖像的對(duì)比度,該算法更適合于改進(jìn)圖像的局部對(duì)比度,以及獲得更多的圖像細(xì)節(jié),算法能有效限制放大圖像中相同區(qū)域的噪音。CLAHE法提升對(duì)比度能夠有效降低雨、霧等因素造成的對(duì)道路的遮蔽干擾,大大提高了圖像質(zhì)量。自適應(yīng)預(yù)處理過(guò)程如圖3所示。
超像素將圖像從像素級(jí)劃分成區(qū)域級(jí),將圖像劃分為同質(zhì)的區(qū)域再進(jìn)行分類,可以提高圖像分割的效率。采用SLIC(Simple Linear Iterative Cluster)算法進(jìn)行超像素塊分割。SLIC算法與傳統(tǒng)超像素分割方法相比處理速度更快、占用內(nèi)存更小、邊緣吻合度更高,可以將圖像劃分為均勻的小塊區(qū)域,鄰域特征比較容易表達(dá),且保留物體的邊緣和輪廓等重要信息。
為了獲得區(qū)分性較好的視覺(jué)特征,通過(guò)多種特征融合的方式來(lái)描述超像素塊。結(jié)合野外非結(jié)構(gòu)化道路場(chǎng)景圖像特點(diǎn),本文提取以下4類特征構(gòu)成視覺(jué)特征集。
顏色對(duì)圖像的視角、方向、尺寸沒(méi)有依賴性,具有更好的魯棒性和更低的復(fù)雜度。野外道路場(chǎng)景圖像的顏色信息非常豐富,一般天空會(huì)呈現(xiàn)天藍(lán)色、灰白色或者白色,道路則是褐色或者紅褐色,只有垂直物的顏色變化比較大,但是綠色最為常見(jiàn)。Lab色彩模型是由亮度L和有關(guān)色彩的a,b三個(gè)要素組成,致力于感知均勻性,它的L分量密切匹配人類對(duì)亮度感知,對(duì)陰影和光照有較強(qiáng)的魯棒性。所以本文在HSV(色調(diào)、飽和度、明度)和Lab這2種顏色空間下提取顏色統(tǒng)計(jì)特征。提取超像素在Lab顏色空間下2個(gè)顏色通道a,b的均值(mean)、方差(variance)、斜度(skewness)以及在HSV顏色空間下的色度直方圖和飽和度直方圖[4]。
采用灰度共生矩陣(Gray Level Co-occurrence MatrixGLCM)來(lái)描述超像素塊的紋理特征[9]。一般選取基于灰度共生矩陣的14個(gè)紋理特征中的4 個(gè)互不相關(guān)的紋理特征描述圖像紋理,既便于計(jì)算又具有較高的分類精度。這 4 個(gè)特征分別為:
能量(二階矩):
(5)
熵:
(6)
對(duì)比度:
(7)
相關(guān):
(8)
描述矩陣中行或列元素之間的相似程度,是對(duì)灰度線性關(guān)系的度量。圖像中紋理沿著哪個(gè)方向,則該方向上的灰度矩陣相關(guān)值較大。
求得f1、f2、f3、f4后,求得對(duì)應(yīng)的均值m1、m2、m3、m4和對(duì)應(yīng)的標(biāo)準(zhǔn)差sq1、sq2、sq3、sq4,以向量T1={m1,m2,m3,m4,sq1,sq2,sq3,sq4} 作為最終8維紋理特征。
野外非結(jié)構(gòu)化道路場(chǎng)景中超像素塊的坐標(biāo)和形狀能夠?yàn)槌袼貕K分類提供很強(qiáng)的幾何布局線索。
由圖4超像素塊的分割結(jié)果可以看出,因?yàn)榈缆穮^(qū)域紋理、顏色等多種特征融合復(fù)雜,所以分割形成的超像素塊形狀并不均勻,與天空、水坑等特征均勻區(qū)域的均勻六邊形超像素塊對(duì)比明顯。采用基于Hu不變矩[10]的方法提取形狀特征, 即歸一化的超像素不變矩和離心率值。
依據(jù)一定的模型和先驗(yàn)知識(shí),針對(duì)非結(jié)構(gòu)化道路識(shí)別問(wèn)題,車輛在行駛過(guò)程中,在通道寬度內(nèi),當(dāng)視覺(jué)系統(tǒng)安裝固定且沿車輛軸向時(shí),恒定視野區(qū)域始終為可靠的道路區(qū)域。因此超像素塊的位置信息同樣具有較好的區(qū)分度,提取超像素塊位置特征[11],即歸一化的超像素塊中心像素位置。綜合超像素塊的位置和形狀特征即可得到特征向量T2。
拉普拉斯支持向量機(jī)(LapSVM)算法是一種基于流形正則的半監(jiān)督分類算法,研究如何同時(shí)利用少量的有標(biāo)識(shí)樣本和大量的未標(biāo)識(shí)樣本進(jìn)行訓(xùn)練和分類[10]。通過(guò)引入樣本流形正則項(xiàng)[10],LapSVM算法的學(xué)習(xí)模型中將包含樣本的固有幾何結(jié)構(gòu)信息。LapSVM加入了未標(biāo)識(shí)樣本的流形結(jié)構(gòu)信息,并將這一信息以Laplacian流形正則項(xiàng)的方式加入SVM,學(xué)習(xí)過(guò)程中充分考慮了樣本間的局部幾何結(jié)構(gòu),使蘊(yùn)含在樣本中局部的鑒別信息得以體現(xiàn),可以得到更加準(zhǔn)確的分類結(jié)果。
樣本集合S={xi,i=1,…,n},xi代表第i個(gè)樣本,n表示樣本的個(gè)數(shù)。集合L={xi,i=1,…,m}表示標(biāo)識(shí)樣本,m表示標(biāo)識(shí)樣本的個(gè)數(shù),U={xi,i=1,…,u} 表示無(wú)標(biāo)識(shí)樣本的集合,u表示未標(biāo)識(shí)樣本的個(gè)數(shù)。用yi表示第i個(gè)樣本所屬類別,yi∈{-1,1}。LapSVM模型定義為
(9)
(10)
(11)
式(11)中:I是單位矩陣;L是Laplacian矩陣;Y∈Rm×m是由標(biāo)識(shí)樣本yi,i=1,…,m組成的對(duì)角矩陣;JL∈Rm×m是由標(biāo)識(shí)樣本與未標(biāo)識(shí)樣本形成的分塊矩陣[I0];β是Lagrange乘子,即
(12)
(13)
(14)
從上面的定義可以看出,LapSVM算法中涉及許多矩陣的運(yùn)算和轉(zhuǎn)換,當(dāng)無(wú)標(biāo)記樣本很多時(shí),需要很大的內(nèi)存空間和很長(zhǎng)的 CPU 占用時(shí)間,甚至引起內(nèi)存溢出等問(wèn)題??梢酝ㄟ^(guò)原始優(yōu)化加速訓(xùn)練過(guò)程,將LapSVM的模型式重新定義為
(15)
式(15)中,b為SVM定義中的閾值。
利用LapSVM算法進(jìn)行分類,標(biāo)識(shí)樣本數(shù)量越少,則分類結(jié)果誤差越大。本文通過(guò)上文動(dòng)態(tài)選取道路區(qū)域標(biāo)識(shí)樣本,選取那些在確定道路區(qū)域里面或者附近的超像素塊樣本,即可能屬于道路區(qū)域的超像素塊樣本加入訓(xùn)練樣本集,舍棄了離確定道路區(qū)域較遠(yuǎn)或在圖像四角位置的無(wú)標(biāo)記樣本,使得參與訓(xùn)練的無(wú)標(biāo)記樣本提供更豐富的啟發(fā)信息。
結(jié)合動(dòng)態(tài)道路預(yù)選取樣本的Lap SVM超像素塊分類算法,首先對(duì)全部無(wú)標(biāo)記樣本選取少量含啟發(fā)信息更為豐富的m個(gè)無(wú)標(biāo)記樣本,假設(shè)有l(wèi)個(gè)標(biāo)記樣本,以及預(yù)選取m個(gè)無(wú)標(biāo)記樣本,以l+m個(gè)樣本建立k近鄰圖,然后,在此圖上構(gòu)造目標(biāo)函數(shù)f實(shí)現(xiàn)分類。
算法基本流程如下:
1) 輸入標(biāo)識(shí)樣本集合L={xi,i=1,…,m}和無(wú)標(biāo)識(shí)樣本的集合U={xi,i=1,…,u}
2) 從u個(gè)無(wú)標(biāo)記樣本中預(yù)選取含啟發(fā)信息更為豐富的m個(gè)無(wú)標(biāo)記樣本;
3) 利用高斯核函數(shù),計(jì)算核矩陣Kij=K(xi,xj);
5) 選取合適的權(quán)重γA,γI;
通過(guò)對(duì)標(biāo)識(shí)樣本和無(wú)標(biāo)識(shí)樣本的超像素塊特征向量進(jìn)行訓(xùn)練學(xué)習(xí),可以得到Lap SVM分類器,即可用于對(duì)野外復(fù)雜非結(jié)構(gòu)化道路圖像進(jìn)行道路區(qū)域檢測(cè)與識(shí)別。
為了驗(yàn)證本文算法對(duì)野外復(fù)雜場(chǎng)景下非結(jié)構(gòu)化道路識(shí)別的有效性。實(shí)驗(yàn)測(cè)試了多種典型復(fù)雜非結(jié)構(gòu)化道路,并與文獻(xiàn)[3]中的算法以及文獻(xiàn)[5]中的算法效果進(jìn)行比較,對(duì)實(shí)驗(yàn)結(jié)果采用定性和定量評(píng)價(jià)方法分析。
實(shí)驗(yàn)以四核Intel i7處理器,8.0 G 內(nèi)存PC 機(jī)為硬件平臺(tái),在 Windows 7操作系統(tǒng)下以 Matlab R2014a作為開(kāi)發(fā)工具。實(shí)驗(yàn)所用非結(jié)構(gòu)化道路圖像數(shù)據(jù)取自于DGC(DARPA Grand Challenge)場(chǎng)景分割數(shù)據(jù)庫(kù)和在南京珠山采集的非結(jié)構(gòu)化道路數(shù)據(jù)庫(kù)以及互聯(lián)網(wǎng)上經(jīng)過(guò)篩選得到的典型復(fù)雜非結(jié)構(gòu)化道路圖像,將所有實(shí)驗(yàn)圖像進(jìn)行尺寸歸一化為640像素×480像素。
為了能夠?qū)Ω鱾€(gè)算法的道路邊緣檢測(cè)質(zhì)量進(jìn)行定量比較,本文采用精準(zhǔn)度τ來(lái)評(píng)價(jià)各算法邊緣檢測(cè)精度,τ越小檢測(cè)精度越低,反之檢測(cè)精度越高。
(16)
式(16)中:Bt是人工標(biāo)定的道路區(qū)域像素集;Bo是算法檢測(cè)出的道路區(qū)域像素集;Bt∩Bo表示二者交集,即共同部分;Bt∪Bo表示二者并集。
在實(shí)驗(yàn)中定性及定量地對(duì)比了本文和文獻(xiàn)以及文獻(xiàn)提出的非結(jié)構(gòu)化道路邊緣檢測(cè)算法的檢測(cè)性能,檢測(cè)結(jié)果如圖5所示,其中第一列為原圖,第二列為文獻(xiàn)[3]算法道路分割效果圖,第三列為文獻(xiàn)[5]算法道路分割效果圖,第四列為本文算法道路分割效果圖。不同類型圖像主色值選取范圍如表5所示。
表5 不同類型圖像主色值選取范圍
從圖5以及表5可以看出,在以上復(fù)雜野外環(huán)境場(chǎng)景下,由于具有特征自學(xué)習(xí)及在新場(chǎng)景下自動(dòng)調(diào)整的能力,文獻(xiàn)[5]和本文算法均具有極好的道路分割效果,優(yōu)于傳統(tǒng)基于顏色紋理特征的方法。對(duì)于本文選取的圖像數(shù)據(jù)庫(kù),本文道路檢測(cè)算法的精準(zhǔn)度τ總體達(dá)到了91.9%,相比文獻(xiàn)[3]的基于特征的傳統(tǒng)算法,檢測(cè)精準(zhǔn)度提升67%,且相比于文獻(xiàn)[5]的基于DCNN及自編碼器的道路分割算法,算法處理效率提升63.8%,具有較高的道路檢測(cè)精度和較好的實(shí)時(shí)性。
通過(guò)實(shí)驗(yàn)驗(yàn)證,本文道路檢測(cè)算法的精準(zhǔn)度τ總體達(dá)到了91.9%,精度略低于基于深度學(xué)習(xí)的道路識(shí)別算法,但運(yùn)行效率遠(yuǎn)高于它,提升了63.8%;與基于人工構(gòu)造特征的道路識(shí)別算法相比較,盡管處理速度略慢,但精度卻遠(yuǎn)高于它,提升67%。本算法在檢測(cè)的實(shí)時(shí)性與精準(zhǔn)度問(wèn)題上的合理協(xié)調(diào),具有較高的道路檢測(cè)精度和較好的實(shí)時(shí)性,能夠?qū)崿F(xiàn)對(duì)野外非結(jié)構(gòu)化道路精準(zhǔn)檢測(cè)。
[1] 王明東, 王天祥.新概念武器的現(xiàn)狀與發(fā)展趨勢(shì)[J].四川兵工學(xué)報(bào),2014(6):1-5.
[2] 孟凡杰,王新晴,呂高旺,等.基于多特征準(zhǔn)則改進(jìn)區(qū)域生長(zhǎng)的非結(jié)構(gòu)化道路識(shí)別[J].電腦知識(shí)與技術(shù),2016,12(35):200-202.
[4] 鄧燕子,盧朝陽(yáng),李靜,等.采用多層圖模型推理的道路場(chǎng)景分割算法[J].西安交通大學(xué)學(xué)報(bào)(自然科學(xué)版),2017,51(12):62-67.
[5] 王海,蔡英鳳,賈允毅,等.基于深度卷積神經(jīng)網(wǎng)絡(luò)的場(chǎng)景自適應(yīng)道路分割算法[J].電子與信息學(xué)報(bào),2017,39(2):263-269.
[6] 龔建偉,葉春蘭,姜巖,等.多層感知器自監(jiān)督在線學(xué)習(xí)非結(jié)構(gòu)化道路識(shí)別[J].北京理工大學(xué)學(xué)報(bào),2014,34(3):261-266.
[7] 秦緒佳,王慧玲,杜軼誠(chéng),等.HSV色彩空間的 Retinex結(jié)構(gòu)光圖像增強(qiáng)算法[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2013,25(4):488-493.
[8] 刁彥華,孟子鈺,王曉君.基于 Hu不變矩的圖像形狀特征提取研究[J].網(wǎng)絡(luò)安全技術(shù)與應(yīng)用,2017(10):46-47.
[9] 高程程,惠曉威.基于灰度共生矩陣的紋理特征提取[J].計(jì)算機(jī)系統(tǒng)應(yīng)用,2010,19(6):196-198.
[10] 王晨,樊養(yǎng)余,熊磊.利用LapSVM的快速顯著性檢測(cè)方法[J].中國(guó)圖像圖形學(xué)報(bào),2017,22(10):1392-1400.
[11] COSTEA A D,NEDEVSCHI S.Fast traffic scene segmentation using multi-range features from multi-resolution filtered and spatial context channels[C]//IEEE Intelligent Vehicles Symposium Proceedings.Piscataway,NJ,USA:IEEE,2016:328-334.