陳政宏 李?lèi)?ài)娟 邱緒云 袁文長(zhǎng) 葛慶英
摘要:環(huán)境視覺(jué)感知技術(shù)是智能車(chē)獲取外界環(huán)境信息的主要手段,是智能車(chē)進(jìn)行自主駕駛的前提條件。在綜合分析以不同檢測(cè)對(duì)象為目標(biāo)的檢測(cè)技術(shù)方法的基礎(chǔ)上,給出了環(huán)境視覺(jué)感知研究的主要內(nèi)容,討論了研究涉及的關(guān)鍵技術(shù):車(chē)道檢測(cè)技術(shù)、車(chē)輛檢測(cè)技術(shù)、行人檢測(cè)技術(shù)、交通標(biāo)志檢測(cè)技術(shù),并對(duì)每種檢測(cè)技術(shù)各子技術(shù)的優(yōu)點(diǎn)和不足之處進(jìn)行了分析。在總結(jié)全文的基礎(chǔ)上,提出未來(lái)智能駕駛中環(huán)境視覺(jué)感知技術(shù)的主要發(fā)展趨勢(shì)包括:基于多特征融合的環(huán)境視覺(jué)感知技術(shù)的發(fā)展;復(fù)雜環(huán)境下多種環(huán)境感知技術(shù)的融合應(yīng)用;三維圖像在圖像處理方面的應(yīng)用;改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法在圖像處理方面的應(yīng)用。
關(guān)鍵詞:車(chē)輛工程;視覺(jué)感知;車(chē)道檢測(cè);行人檢測(cè);車(chē)輛檢測(cè);交通標(biāo)志檢測(cè)
中圖分類(lèi)號(hào):U273文獻(xiàn)標(biāo)志碼:A
CHEN Zhenghong, LI Aijuan, QIU Xuyun, et al.Survey of environment visual perception for intelligent vehicle and its supporting key technologies[J].Journal of Hebei University of Science and Technology,2019,40(1):15-23.Survey of environment visual perception for intelligent
vehicle and its supporting key technologies
CHEN Zhenghong, LI Aijuan, QIU Xuyun, YUAN Wenchang, GE Qingying
(School of Automotive Engineering, Shan Dong Jiaotong University, Jinan, Shandong 250357, China)
Abstract:Environmental visual perception technology is one of the main means for intelligent vehicles to obtain external environmental information and the precondition for autonomous driving of intelligent vehicles. Based on the comprehensive analysis of the detection technology and methods targeted at different detection objects, the main contents of environmental visual perception research are provided, and the key technologies that the study involves including lane detection technology, vehicle detection technology, the pedestrian detection technology, and traffic signs detection technology are discussed. The advantages and disadvantages of each sub-technique of each technology are analyzed. Finally, on the basis of summarization of the paper, the prospect of unmanned environment of visual perception technology in the future development direction is given:the development of the multi-feature fusion based environment visual perception technology; the fusion application of several environment perception technologies under complicated conditions; the application of the three-dimensional image in picture processing; the application of the improved CNN method in picture processing.
Keywords:vehicle engineering; visual perception; lane detection; pedestrian detection; vehicle detection; traffic signs detection
智能車(chē)是自主實(shí)施任務(wù)決策,具備一定自適應(yīng)和學(xué)習(xí)能力的智能設(shè)備[1]。智能車(chē)在自主運(yùn)動(dòng)時(shí)會(huì)涉及到環(huán)境感知問(wèn)題[2],若對(duì)環(huán)境感知沒(méi)有正確的認(rèn)識(shí),使用不準(zhǔn)確的感知信息來(lái)指導(dǎo)任務(wù)決策、軌跡規(guī)劃、控制系統(tǒng),智能車(chē)則會(huì)做出錯(cuò)誤的判斷,降低駕駛效率。例如,交通標(biāo)志檢測(cè)系統(tǒng)因錯(cuò)過(guò)一個(gè)停車(chē)標(biāo)志,就會(huì)發(fā)生交通事故。
目前,智能車(chē)輛的研究處于不成熟階段,本身又是非完整系統(tǒng),復(fù)雜的環(huán)境使得智能車(chē)在自主行駛過(guò)程中的環(huán)境感知問(wèn)題變得不再單一。車(chē)輛進(jìn)行環(huán)境感知的主要目的是給車(chē)輛的自主導(dǎo)航和軌跡規(guī)劃提供最根本的基礎(chǔ)依據(jù),保證車(chē)輛能夠自主、安全、可靠的行駛[3]。
本文主要分析智能車(chē)輛環(huán)境視覺(jué)感知的4種關(guān)鍵技術(shù)——車(chē)道檢測(cè)技術(shù)、車(chē)輛檢測(cè)技術(shù)、行人檢測(cè)技術(shù)、交通標(biāo)志檢測(cè)技術(shù)的研究現(xiàn)狀以及各技術(shù)的適用性、優(yōu)缺點(diǎn),并對(duì)視覺(jué)感知技術(shù)未來(lái)的發(fā)展趨勢(shì)進(jìn)行展望。
1智能車(chē)輛視覺(jué)感知概況
隨著智能車(chē)的發(fā)展和普及,環(huán)境視覺(jué)感知技術(shù)受到了極大的關(guān)注[4]。視覺(jué)感知技術(shù)是從相機(jī)中獲取、解釋數(shù)據(jù),執(zhí)行關(guān)鍵任務(wù)的,如對(duì)車(chē)輛、道路、行人檢測(cè)。自動(dòng)駕駛系統(tǒng)通常會(huì)有其他傳感器的參與,但相機(jī)是必不可少的,因?yàn)樗梢阅M人眼,獲得真實(shí)的環(huán)境信息,大多數(shù)交通規(guī)則是通過(guò)假定視覺(jué)感知能力來(lái)設(shè)計(jì)的。例如,許多交通標(biāo)志有著相似的外形,它們的顏色模式只能通過(guò)視覺(jué)感知系統(tǒng)識(shí)別。
河北科技大學(xué)學(xué)報(bào)2019年第1期陳政宏,等:智能車(chē)環(huán)境視覺(jué)感知及其關(guān)鍵技術(shù)研究現(xiàn)狀視覺(jué)感知主要用于檢測(cè)動(dòng)態(tài)(如車(chē)輛、行人)或靜態(tài)(如車(chē)道、交通標(biāo)志)障礙物,不同的障礙物會(huì)使車(chē)輛面臨著不同的任務(wù)決策和駕駛規(guī)則。例如,一條道路對(duì)邊界進(jìn)行了嚴(yán)格定義,車(chē)輛必須在保證不超過(guò)邊界的情況下安全行駛。近年來(lái),研究者主要集中于車(chē)道、車(chē)輛、行人、交通標(biāo)志的檢測(cè)與研究[5]。
2視覺(jué)感知的關(guān)鍵技術(shù)
綜合了研究者的部分文獻(xiàn),本文的視覺(jué)感知技術(shù)主要以車(chē)道、車(chē)輛、行人和交通標(biāo)志為檢測(cè)對(duì)象進(jìn)行分類(lèi),視覺(jué)感知關(guān)鍵技術(shù)的分類(lèi)圖如圖1所示。
2.1車(chē)道檢測(cè)技術(shù)
車(chē)道檢測(cè)[6]是智能車(chē)在道路上安全行駛不可或缺的重要技術(shù),若不正確檢測(cè)車(chē)道,會(huì)危及車(chē)輛自身及道路上其他車(chē)輛的安全?,F(xiàn)階段,視覺(jué)感知技術(shù)中車(chē)道大多是由車(chē)道標(biāo)記[7]來(lái)定義的,文獻(xiàn)[8]中研究了一種車(chē)道檢測(cè)算法,它能夠處理彎曲車(chē)道、磨損的車(chē)道標(biāo)記、車(chē)道變化等,實(shí)現(xiàn)魯棒性、實(shí)時(shí)性檢測(cè)。
2.1.1基于Hough變換的車(chē)道檢測(cè)
針對(duì)光照和背景雜波問(wèn)題,文獻(xiàn)[9]采用改進(jìn)的Hough變換(HT)提取車(chē)道輪廓小線(xiàn)段,利用帶有噪聲的基于密度的聚類(lèi)算法 (density-based spatial clustering of applications with noise,DBSCAN)將小線(xiàn)段進(jìn)行聚類(lèi),通過(guò)曲線(xiàn)擬合來(lái)識(shí)別車(chē)道,實(shí)驗(yàn)結(jié)果表明檢測(cè)效果優(yōu)于直線(xiàn)算法(line segment detector,LSD),比傳統(tǒng)的Hough變換更精確,對(duì)噪聲具有很強(qiáng)的魯棒性。為了適應(yīng)復(fù)雜多變的車(chē)道環(huán)境,文獻(xiàn)[10]中提出了基于多約束條件下的Hough變換檢測(cè)方法:通過(guò)改變?cè)紙D像(red green blue, RGB)的分量權(quán)重轉(zhuǎn)化為灰度化圖像,增加圖像約束條件后,利用Hough變換提取車(chē)道標(biāo)記線(xiàn),概率表決程序估計(jì)線(xiàn)段上的消失點(diǎn),用消失點(diǎn)約束線(xiàn)段[11],進(jìn)而再對(duì)車(chē)道線(xiàn)K-means聚類(lèi),此方法優(yōu)于傳統(tǒng)Hough變換消失點(diǎn)約束方法,具有很好的魯棒性和實(shí)時(shí)性,而文獻(xiàn)[12]是在自由條件下先利用傳統(tǒng)的Hough變換提取道路標(biāo)記線(xiàn),再對(duì)原始灰度圖像進(jìn)行操作,并在幾個(gè)概率最高的候選點(diǎn)附近識(shí)別地標(biāo)特征,然后利用這些特征提取出更高精度的車(chē)道邊界。
2.1.2基于逆透視變換的車(chē)道檢測(cè)
逆透視變換是根據(jù)相機(jī)的標(biāo)定信息對(duì)圖像進(jìn)行自上而下的平行投影,得到車(chē)道線(xiàn)的俯視圖。文獻(xiàn)[13]的綜述中給出了一種基于逆透視變換的車(chē)道檢測(cè)方法,可濾除圖像中的透視效果和車(chē)道線(xiàn)不平行的干擾,但不適用于車(chē)輛上下坡。文獻(xiàn)[14]中根據(jù)逆透視變換得到車(chē)道線(xiàn)的俯視圖后,采用局部二值模式算子(local binary patterns, LBP)對(duì)圖像紋理進(jìn)行分析,檢測(cè)出車(chē)道線(xiàn)邊緣,用貝賽爾曲線(xiàn)擬合出車(chē)道線(xiàn),但僅適用于平面道路上行駛的車(chē)輛。
2.1.3基于卷積神經(jīng)網(wǎng)絡(luò)的車(chē)道檢測(cè)
通過(guò)剔除噪聲和障礙物,卷積神經(jīng)網(wǎng)絡(luò)[15](convolutional neural networks, CNN)可以增強(qiáng)車(chē)道檢測(cè)前的輸入圖像。研究表明,傳統(tǒng)的CNN需要大量的計(jì)算和數(shù)據(jù)集,文獻(xiàn)[16]則提出了一種利用極端學(xué)習(xí)機(jī)進(jìn)行CNNs學(xué)習(xí)的新算法,大大節(jié)省了計(jì)算和數(shù)據(jù)收集的時(shí)間。由于卷積特征無(wú)法清晰地檢測(cè)到微小物體,文獻(xiàn)[17]提出了一種基于改進(jìn)的快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(fast regions with CNN features, Fast R-CNN)方法,對(duì)圖像中的小目標(biāo)進(jìn)行快速多層次組合、上下文線(xiàn)索和錨點(diǎn)生成方法檢測(cè),實(shí)驗(yàn)表明,準(zhǔn)確率優(yōu)于R-CNN。為了提高車(chē)道檢測(cè)的準(zhǔn)確性和魯棒性,文獻(xiàn)[18]提出了基于CNN和馬爾可夫隨機(jī)場(chǎng)(Markov random fields, MRF)結(jié)合的車(chē)道檢測(cè)方法,利用迭代聚類(lèi)算法將圖像分割成大小均勻的超像素圖像,同時(shí)利用CNN訓(xùn)練模型對(duì)道路和非道路區(qū)域進(jìn)行分類(lèi),基于超像素鄰域之間的關(guān)系,利用MRF對(duì)CNN的分類(lèi)結(jié)果進(jìn)行優(yōu)化,該方法在光照和道路陰影變化時(shí)具有很好的魯棒性。彎道、車(chē)道線(xiàn)模糊、光線(xiàn)昏暗等復(fù)雜環(huán)境下,文獻(xiàn)[19]提出了基于全卷積神經(jīng)網(wǎng)絡(luò)[20]的檢測(cè)算法,首先將圖像信息輸入到全卷積神經(jīng)網(wǎng)絡(luò)中,然后利用條件隨機(jī)場(chǎng)[21](conditional random fields, CRF)對(duì)圖像信息進(jìn)行處理,得到的結(jié)果與原始圖像具有一致性,經(jīng)過(guò)驗(yàn)證,此方法在檢測(cè)精度、識(shí)別率和速度上都有很明顯的優(yōu)越性。
2.1.4基于改進(jìn)蟻群算法的車(chē)道檢測(cè)
為了準(zhǔn)確識(shí)別出車(chē)道線(xiàn),并去除圖像噪聲,文獻(xiàn)[22]中先對(duì)道路圖像濾波,再利用基于改進(jìn)蟻群算法[23]的二維Otsu算法[24]進(jìn)行圖像分割,從而擬合并識(shí)別出車(chē)道線(xiàn)?;诟倪M(jìn)的蟻群算法可以有效增加車(chē)道線(xiàn)的有效特征點(diǎn)?,F(xiàn)階段,車(chē)道檢測(cè)技術(shù)已趨于自動(dòng)化,文獻(xiàn)[25]結(jié)合各種空間、光譜和紋理對(duì)象等描述符,提出了一種利用模糊推理系統(tǒng)[26](fuzzy inference system, FIS)對(duì)圖像進(jìn)行分析的基于蟻群算法的改進(jìn)高分辨率(very high resolution, VHR)遙感衛(wèi)星圖像路網(wǎng)檢測(cè)方法[27],使用邊緣保持引導(dǎo)過(guò)濾器[28]平滑衛(wèi)星道路圖像,磁共振探測(cè)(magnetic resonance sounding, MRS)方法[29]生成圖像對(duì)象,該結(jié)果的平均完整性、正確性和質(zhì)量都比較好,但僅適用于城市車(chē)道。
綜上所述,基于Hough特征變換的車(chē)道檢測(cè)技術(shù)可以克服光照、復(fù)雜多變的道路環(huán)境,但惡劣環(huán)境下(如雨天)車(chē)道線(xiàn)檢測(cè)模糊;基于逆透視變換的車(chē)道檢測(cè)技術(shù)僅適用于平面行駛的車(chē)輛;基于改進(jìn)蟻群算法的車(chē)道檢測(cè)技術(shù)可以解決車(chē)輛、廣告牌等邊緣物體的干擾,增加有效車(chē)道線(xiàn),較趨于自動(dòng)化,但僅適用于城市車(chē)道檢測(cè);基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的車(chē)道檢測(cè)技術(shù)可得到與現(xiàn)實(shí)環(huán)境相似的信息,較前幾種方法環(huán)境適應(yīng)性、魯棒性好。
2.2車(chē)輛檢測(cè)技術(shù)
正確的車(chē)輛目標(biāo)檢測(cè)是安全駕駛的關(guān)鍵。目前采用的方法可分為基于知識(shí)的、基于特征的、基于學(xué)習(xí)的、基于立體的和基于運(yùn)動(dòng)的[30]。傳統(tǒng)的檢測(cè)方法主要由兩個(gè)步驟構(gòu)成:從原圖像中提取可用的特征,利用合適的算法(AdaBoost算法[31])構(gòu)建高效分類(lèi)器辨別圖像場(chǎng)景。傳統(tǒng)的基于邊緣的車(chē)輛檢測(cè)方法易受到噪聲和背景干擾,文獻(xiàn)[32]中利用邊緣信息可以幫助突出輪廓及投射物體陰影的原理,提出了一種基于高斯差分的多尺度邊緣融合的車(chē)輛檢測(cè)方法。
2.2.1基于梯度方向直方圖的車(chē)輛檢測(cè)
梯度方向直方圖[33](histogram of gradient, HOG)是進(jìn)行車(chē)輛目標(biāo)檢測(cè)應(yīng)用最廣泛的特征。文獻(xiàn)[34]中提出HOG和局部自相似(local self-similarity, LSS)特征結(jié)合的檢測(cè)方法,結(jié)合Adaboost、支持向量機(jī)[35](support vector maching, SVM)分類(lèi)器進(jìn)行實(shí)驗(yàn),結(jié)果表明,組合特征的描述能力優(yōu)于單一特征。為了適應(yīng)復(fù)雜的城市環(huán)境,文獻(xiàn)[36]提出了一種基于Harr特征和HOG特征結(jié)合的兩步算法,利用Harr特征提取出HOG特征的感興趣區(qū)域(region of interest, ROI),級(jí)聯(lián)結(jié)構(gòu)Adaboost分類(lèi)器對(duì)其特征和目標(biāo)區(qū)域進(jìn)行分類(lèi),從ROI區(qū)域中提取出HOG特征,該方法的檢測(cè)精度很高。
2.2.2基于卷積神經(jīng)網(wǎng)絡(luò)的車(chē)輛檢測(cè)
文獻(xiàn)[37]中提出了一種快速車(chē)輛提議網(wǎng)絡(luò)(fast vehicle proposal network, FVPN)的淺度完全卷積神經(jīng)網(wǎng)絡(luò),可實(shí)時(shí)定位車(chē)輛對(duì)象。為了得到精細(xì)的顯著目標(biāo),文獻(xiàn)[38]中提出了一種可實(shí)現(xiàn)端到端的基于層次顯著性循環(huán)卷積神經(jīng)網(wǎng)絡(luò)檢測(cè)方法,它首先是通過(guò)視覺(jué)幾何組(visual geometry group, VGGNet)對(duì)圖像中的車(chē)輛目標(biāo)進(jìn)行檢測(cè)得到粗略顯著性圖像,然后使用層次循環(huán)卷積神經(jīng)網(wǎng)絡(luò)對(duì)目標(biāo)逐層細(xì)化得到顯著性圖像,最后采用自適應(yīng)分割閾值的方法提取目標(biāo)區(qū)域,此方法更好解決了光照條件的影響。
2.2.3基于顏色的車(chē)輛檢測(cè)
為了對(duì)環(huán)境了解更全面,文獻(xiàn)[39]提出了基于三維激光雷達(dá)和彩色攝像機(jī)數(shù)據(jù)的車(chē)輛檢測(cè)體系,利用單目彩色相機(jī)校準(zhǔn)激光雷達(dá)RGB圖像,以提高車(chē)輛檢測(cè)效率。文獻(xiàn)[40]提出了一種基于顏色強(qiáng)度分離的車(chē)輛檢測(cè)方法,利用強(qiáng)度信息濾波ROI的光照變化、陰影和雜亂背景,再對(duì)車(chē)輛進(jìn)行檢測(cè),該方法依賴(lài)于車(chē)輛與周?chē)h(huán)境之間的顏色強(qiáng)度差,適用于實(shí)施應(yīng)用。文獻(xiàn)[41]是將RGB視頻幀轉(zhuǎn)換為色域圖像(hue saturation lightness, HSV),更準(zhǔn)確地區(qū)分了車(chē)輛的顏色特征,實(shí)現(xiàn)對(duì)車(chē)輛的跟蹤,其每一幀的噪聲都可以降低或消除。
綜上所述,基于梯度方向直方圖(HOG特征)的車(chē)輛檢測(cè)技術(shù)在復(fù)雜環(huán)境下需與各分類(lèi)器或特征結(jié)合;基于顏色的車(chē)輛檢測(cè)技術(shù)雖可以實(shí)現(xiàn)車(chē)輛識(shí)別和跟蹤,但依賴(lài)于顏色強(qiáng)度;基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的車(chē)輛檢測(cè)技術(shù)可以解決光照條件的影響,較前兩種方法具有很好的魯棒性和運(yùn)算效率。
2.3行人檢測(cè)技術(shù)
現(xiàn)階段,行人檢測(cè)是機(jī)器視覺(jué)研究的一個(gè)重要領(lǐng)域,智能車(chē)輛在行駛過(guò)程中面臨著行人的衣著、光線(xiàn)、姿態(tài)多變等因素,這就需要?jiǎng)討B(tài)感應(yīng),發(fā)現(xiàn)行人的蹤跡,因此,行人檢測(cè)和規(guī)避行人的研究領(lǐng)域極具挑戰(zhàn)性。
2.3.1基于感興趣區(qū)域的行人檢測(cè)
在遮擋、旋轉(zhuǎn)、光照條件的影響下,文獻(xiàn)[42]提出基于感興趣區(qū)域和級(jí)聯(lián)分類(lèi)器的檢測(cè)方法,識(shí)別、定位和提取包含行人的候選區(qū),用分類(lèi)器對(duì)目標(biāo)信息進(jìn)行提取。文獻(xiàn)[43]提出SVM提取ROI的行人檢測(cè)方法,而SVM的分類(lèi)器特征較低,會(huì)導(dǎo)致部分行人劃分錯(cuò)誤,影響檢測(cè)結(jié)果。針對(duì)復(fù)雜環(huán)境的行人檢測(cè),文獻(xiàn)[44]提出了基于雙目視覺(jué)感興趣區(qū)域的行人檢測(cè),利用相機(jī)標(biāo)定的信息,獲取視差圖和深度圖,在去除干擾獲得感興趣區(qū)域后,與CNN訓(xùn)練模型對(duì)比判定行人,此方法也適合逆光環(huán)境,但會(huì)出現(xiàn)錯(cuò)檢或漏檢。
2.3.2基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測(cè)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)已經(jīng)被證明具有最先進(jìn)的行人檢測(cè)精度,然而,在處理單個(gè)圖像時(shí)常需要數(shù)十億浮點(diǎn)運(yùn)算的情況下,代價(jià)是昂貴的,為了解決這個(gè)復(fù)雜性問(wèn)題,文獻(xiàn)[45]中提出Fast R-CNN和只需瞄一眼[46](you only look once, YOLO)便可識(shí)別出圖像中的行人及位置信息,降低了計(jì)算成本?;贑NN的框架,文獻(xiàn)[47]提出了基于深度卷積神經(jīng)網(wǎng)絡(luò)的多光譜行人檢測(cè)方法,采用不同于文獻(xiàn)[48]融合圖像的方法,為了更好地進(jìn)行魯棒性行人檢測(cè),文獻(xiàn)[49]給出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行無(wú)監(jiān)督多光譜特征學(xué)習(xí)的行人檢測(cè)方法,利用自動(dòng)標(biāo)注框架與多光譜數(shù)據(jù)信息進(jìn)行互補(bǔ),在可見(jiàn)通道中進(jìn)行迭代標(biāo)注行人,此方法與最先進(jìn)的基于深度神經(jīng)網(wǎng)絡(luò)(deep neural networks, DNNs)的行人檢測(cè)性能相當(dāng),但它無(wú)法通過(guò)注釋正確識(shí)別一些微不足道的行人樣本。
2.3.3基于梯度方向直方圖的行人檢測(cè)
通過(guò)利用梯度方向直方圖來(lái)構(gòu)成人體特征的方法,能夠很好地描述人體的邊緣,文獻(xiàn)[50]先提取出運(yùn)動(dòng)目標(biāo)區(qū)域中的HOG特征作為描述符,再利用數(shù)據(jù)分析方法(principal component analysis, PCA)在HOG特征維度高處進(jìn)行降維,因此得到HOG-PCA特征,為了更好地進(jìn)行行人檢測(cè),文獻(xiàn)[51]則是將基于PCA算法的特征與基于經(jīng)典的字典訓(xùn)練算法K-SVD的稀疏表示特征直接結(jié)合起來(lái),在靜態(tài)圖像中快速實(shí)現(xiàn)行人檢測(cè),其中K-SVD是K-means的擴(kuò)展形式,實(shí)驗(yàn)結(jié)果表明,該方法是一種有效的行人檢測(cè)方法。由于單一特征的信息不全面,文獻(xiàn)[52]和文獻(xiàn)[53]提出了基于HOG與LBP特征結(jié)合的檢測(cè)方法,將分別獲得的HOG特征向量和LBP特征向量進(jìn)行合成,SVM再對(duì)新特征向量進(jìn)行訓(xùn)練和測(cè)試,結(jié)果表明該方法克服了單一特征的不足。
綜上所述,基于感興趣區(qū)域(ROI)的行人檢測(cè)技術(shù)雖可以縮減計(jì)算、提高檢測(cè)效率,但需要與分類(lèi)器、CNN訓(xùn)練模型結(jié)合實(shí)驗(yàn),具有一定的局限性;基于梯度方向直方圖(HOG特征)的行人檢測(cè)技術(shù)可以很好地描述人體邊緣,但要具體檢測(cè)行人須與PCA,LBP等特征算法相結(jié)合;基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的行人檢測(cè)技術(shù)是最先進(jìn)的,而多光譜行人檢測(cè)是計(jì)算機(jī)視覺(jué)應(yīng)用中的一項(xiàng)重要功能,研究者證明CNN與它相結(jié)合會(huì)事半功倍,總的來(lái)說(shuō)基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的方法可以得到精確的行人信息。
2.4交通標(biāo)志檢測(cè)技術(shù)
交通標(biāo)志為智能交通系統(tǒng)(intelligent transportation systems, ITS)的運(yùn)行提供了指向能力,文獻(xiàn)[54]、文獻(xiàn)[55]中實(shí)現(xiàn)了基于圖像預(yù)處理和交通標(biāo)志定位算法的檢測(cè)技術(shù),在提高交通標(biāo)志檢測(cè)效率的同時(shí),交通運(yùn)行速率也會(huì)提升,降低交通事故率。
2.4.1基于卷積神經(jīng)網(wǎng)絡(luò)的檢測(cè)方法
文獻(xiàn)[56]提出了一種訓(xùn)練有素基于全卷積網(wǎng)絡(luò)(fully convolutional networks, FCN)的方法,可產(chǎn)生多個(gè)判別候選對(duì)象,有助于檢測(cè)系統(tǒng)快速、準(zhǔn)確地完成作業(yè)。文獻(xiàn)[57]在Faster-RCNN中引入了一個(gè)AN(attention network)進(jìn)行尋找潛在的感興趣區(qū)域,并根據(jù)交通標(biāo)志的顏色特征將其大致分類(lèi),供車(chē)輛做出選擇,文獻(xiàn)[58]發(fā)現(xiàn)Faster-RCNN與Inception Resnet V2網(wǎng)絡(luò)模型結(jié)合應(yīng)用可快速識(shí)別出最佳目標(biāo)區(qū)域,提高檢測(cè)效率。在考慮交通標(biāo)志牌表面特性和圖案屬性下,文獻(xiàn)[59]則是在圖像色彩(hue saturation value,HSV)的灰度圖上提取交通標(biāo)志候選區(qū)域,然后通過(guò)CNN提取特征選擇出合適的交通標(biāo)志區(qū)域,此方法能夠準(zhǔn)確識(shí)別和確定交通標(biāo)志和非交通標(biāo)志區(qū)域。
2.4.2基于區(qū)域的檢測(cè)方法
文獻(xiàn)[60]給出基于區(qū)域顏色快速分割的檢測(cè)方法,基于顏色空間(hue saturation intensity, HSI),結(jié)合閾值處理,按顏色進(jìn)行分層得到圖像中含有交通標(biāo)志的ROI,用形態(tài)學(xué)識(shí)別區(qū)域形狀,最后進(jìn)行內(nèi)容的圖像檢索[61],實(shí)驗(yàn)結(jié)果顯示,其檢測(cè)的準(zhǔn)確率在90%以上,但對(duì)白色交通標(biāo)志的檢測(cè)有很大缺陷。文獻(xiàn)[62]通過(guò)創(chuàng)建矩形框標(biāo)記標(biāo)識(shí)所處的ROI,用這些區(qū)域的數(shù)據(jù)判斷不同類(lèi)別交通標(biāo)志的位置,但精度和優(yōu)化方面都不好,實(shí)驗(yàn)結(jié)果表明若為感興趣區(qū)域添加更多的過(guò)濾會(huì)是一個(gè)很大的改進(jìn)。
2.4.3基于圖像處理的檢測(cè)方法
文獻(xiàn)[63]中對(duì)圖像預(yù)處理后提取感興趣區(qū)域,進(jìn)而再對(duì)交通標(biāo)志進(jìn)行檢測(cè)和識(shí)別,此方法提高了檢測(cè)效率。文獻(xiàn)[64]中經(jīng)Hough變換利用點(diǎn)與線(xiàn)的對(duì)偶性[65],將原始圖像中檢測(cè)曲線(xiàn)的問(wèn)題轉(zhuǎn)換為尋找空間參數(shù)的峰值問(wèn)題,經(jīng)過(guò)線(xiàn)段檢測(cè)、形狀測(cè)量,計(jì)算面積比和周長(zhǎng)比等數(shù)據(jù)信息后,與原數(shù)據(jù)庫(kù)模板進(jìn)行比對(duì),以此來(lái)實(shí)現(xiàn)對(duì)交通標(biāo)志的智能識(shí)別,該方法可實(shí)現(xiàn)對(duì)不同交通標(biāo)志的準(zhǔn)確檢測(cè)和識(shí)別。
綜上所述,基于區(qū)域的檢測(cè)方法需要考慮交通標(biāo)志的顏色,具有一定的局限性;基于圖像處理的檢測(cè)方法是計(jì)算ROI中交通標(biāo)志的數(shù)據(jù)信息,與原數(shù)據(jù)庫(kù)對(duì)比直接選擇出交通標(biāo)志,不需要考慮交通標(biāo)志的顏色問(wèn)題;基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的檢測(cè)方法是應(yīng)用最廣泛的,可識(shí)別出交通標(biāo)志和非交通標(biāo)志區(qū)域,提高檢測(cè)效率,其中Faster R-CNN 的表現(xiàn)最佳。
3結(jié)語(yǔ)
本文主要介紹了以檢測(cè)對(duì)象為目標(biāo)的環(huán)境視覺(jué)感知關(guān)鍵技術(shù),并對(duì)各個(gè)關(guān)鍵技術(shù)子技術(shù)的優(yōu)點(diǎn)和不足之處進(jìn)行了歸納總結(jié)和分析。總而言之,現(xiàn)階段智能車(chē)環(huán)境視覺(jué)感知技術(shù)的研究已經(jīng)取得了一定的成果,但智能車(chē)在行駛過(guò)程中的視覺(jué)感知系統(tǒng)需要對(duì)技術(shù)、算法、硬件等進(jìn)行持續(xù)的完善和升級(jí),且距離實(shí)際的應(yīng)用還有一定的距離。對(duì)于智能車(chē)的環(huán)境視覺(jué)感知領(lǐng)域涉及眾多先進(jìn)技術(shù),尚需不斷地進(jìn)行探索與創(chuàng)新。面對(duì)新的挑戰(zhàn)和領(lǐng)域,環(huán)境視覺(jué)感知技術(shù)的新發(fā)展趨勢(shì)如下。
1)不能僅局限于一種特征的探索,基于多特征融合的環(huán)境視覺(jué)感知技術(shù)會(huì)更好地描繪出物體的參數(shù)和屬性,大大提高精確度,因此新技術(shù)的發(fā)展應(yīng)該趨向于融合。目前,這樣的新方法已有一些成果,例如:文獻(xiàn)[66]提出了在基于卷積神經(jīng)網(wǎng)絡(luò)中引入通道金字塔特征和跨通道信息融合思想,解決了光照、天氣等影響,豐富了行人特征,提高了檢測(cè)效率。
2)復(fù)雜環(huán)境下應(yīng)采用多種環(huán)境感知技術(shù)融合的方法,以彌補(bǔ)誤差和提高精度,更真實(shí)地反映出環(huán)境信息,真正做到像人一樣敏感,提高駕駛安全。例如:基于視覺(jué)-激光數(shù)據(jù)融合的檢測(cè)方法[67],在視覺(jué)局限性的情況下,激光雷達(dá)彌補(bǔ)了其短板,可以更好地檢測(cè)出微小物體,為無(wú)人駕駛車(chē)輛的自主軌跡規(guī)劃與導(dǎo)航提供了一種精確的道路邊界模型。
3)圖像處理可以應(yīng)用三維圖像。三維圖像層次分明,可模擬人眼反映真實(shí)信息,而不是僅局限于靜止?fàn)顟B(tài),可以顯著提高檢測(cè)效果。例如:文中提到的基于逆透視變換的車(chē)道檢測(cè)技術(shù),車(chē)輛上下坡時(shí)其算法需要進(jìn)一步分析,而立體視覺(jué)可以克服這一點(diǎn);文獻(xiàn)[68]提出基于雙目視覺(jué)感知的無(wú)參考三維圖像視覺(jué)質(zhì)量評(píng)價(jià),即在預(yù)測(cè)生成三維圖像上,利用雙通道卷積神經(jīng)網(wǎng)絡(luò)模型來(lái)模擬人類(lèi)視覺(jué)系統(tǒng)具有一定的效果。
4)由于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的泛化能力優(yōu)于其他方法,可以避免復(fù)雜特征提取和數(shù)據(jù)重建過(guò)程[69],因此圖像處理時(shí)可以采用改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)方法來(lái)提高檢測(cè)效率。例如:文獻(xiàn)[70]提出基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的全局車(chē)道線(xiàn)檢測(cè)算法研究,在彎道、車(chē)道線(xiàn)模糊、光線(xiàn)昏暗下具有魯棒性和實(shí)時(shí)性;文獻(xiàn)[71]提出基于Faster R-CNN深度學(xué)習(xí)框架的交通標(biāo)志檢測(cè)方法,解決了光照、遮擋、模糊下的交通標(biāo)志,檢測(cè)效率高。
參考文獻(xiàn)/References:
[1]閻巖, 唐振民. UGV 協(xié)同系統(tǒng)研究進(jìn)展[J]. 計(jì)算機(jī)應(yīng)用究, 2011, 28(10): 3623-3628.
YAN Yan, TANG Zhenmin. Advances in unmanned ground vehicles coordination system[J]. Application Research of ?Computer, 2011, 28(10): 3623-3628.
[2]王世峰, 戴祥, 徐寧, 等. 無(wú)人駕駛汽車(chē)環(huán)境感知技術(shù)綜述[J].長(zhǎng)春理工大學(xué)學(xué)報(bào)(自然科學(xué)版), 2017, 40(1): 1-6.
WANG Shifeng, DAI Xiang, XU Ning, et al. Overview of environmental perception technology for unmanned ground vehicle[J]. Journal of Changchun University of Science and Technology(Natural Science Edition), 2017, 40(1): 1-6.
[3]劉嚴(yán)巖, 王進(jìn), 冒蓉. 無(wú)人地面車(chē)輛的環(huán)境感知技術(shù)[J].太赫茲科學(xué)與電子信息學(xué)報(bào), 2015, 13(5): 810-815.
LIU Yanyan,WANG Jin, MAO Rong. Environment perception awareness technology for unmanned ground vehicles[J]. Journal of Terahertz Science and Electronic Information Technology, 2015, 13(5): 810-815.
[4]WANG Yue, SHEN Dinggang, TEOH E K. Lane detection using spline model [J]. Pattern Recognition Letters, 2003, 24(2): 2301-2313.
[5]胡房武. 基于圖像采集的智能車(chē)系統(tǒng)設(shè)計(jì)[D].大連: 大連海事大學(xué), 2011.
HU Fangwu. Design of Intelligent Vehicle System based on Image Acquisition[D]. Dalian: Dalian Maritime University, 2011.
[6]王春陽(yáng). 車(chē)道檢測(cè)方法綜述[J]. 科技視界, 2016(9): 322-324.
WANG Chunyang. Review of lane detection[J]. Science & Technology Vision, 2016(9): 322.
[7]XU H, WANG X, HUANG H, et al. A fast and stable lane detection method based on b-spline curve[C]// IEEE International Conference on Computer-aided Industrial Design & Conceptual Design. Wenzhou: IEEE, 2010: 1036-1040.
[8]KIM Z W . Robust lane detection and tracking in challenging scenarios[J]. IEEE Transactions on Intelligent Transportation Systems, 2008, 9(1):16-26.
[9]NIU Jianwei, LU Jie, XU Mingliang, et al. Robust lane detection using two-stage feature extraction with curve fitting[J]. Pattern Recognition, 2016, 10(59): 225-233.
[10]石林軍, 余粟. 基于多約束條件下的霍夫變換車(chē)道線(xiàn)檢測(cè)方法[J]. 計(jì)算機(jī)測(cè)量與控制, 2018, 26(9): 9-12.
SHI Linjun, YU Su. Hough transform lane detection based on multiple constrains[J]. Computer Measurement and Control, 2018, 26(9): 9-12.
[11]YUAN J, TANG S, PAN X, et al. A robust vanishing point estimation method for lane detection[C]// Control Conference. Nanjing: IEEE, 2014:4887-4893.
[12]SAHAR M, MAJID S. Design and FPGA implementation of dual-stage lane detection, based on Hough transform and localized stripe features[J]. Microprocessors and Microsystems, 2019, 64(2): 12-22.
[13]方睿. 基于視覺(jué)的車(chē)道線(xiàn)檢測(cè)技術(shù)綜述[J]. 內(nèi)江科技, 2018, 39(7): 41-42.
[14]沈超. 微縮智能車(chē)及其視覺(jué)感知關(guān)鍵技術(shù)研究[D]. 西安: 長(zhǎng)安大學(xué), 2016.
SHEN Chao.Research on Microscale Intelligent Vehicle and Its Key Technologies of Visual Perception [D]. Xian: Changan University, 2016.
[15]LU H M, LI Y J, UEMURA T, et al. Filtering deep convolutional network for marine organism classification[J]. Multimedia Tools and Applications, 2017(2): 1-14.
[16]KIM J,KIM J, JANG G, et al. Fast learning method for convolutional neural networks using extreme learning machine and its application to lane detection[J]. Neural Networks, 2017, 3(87): 109-121.
[17] TIAN Y, GELEMTER J, WANG X, et al. Lane marking detection via deep convolutional neural network[J]. Neurocomputing, 2018, 280(3): 46-55.
[18]GENG Lei, SUN Jiangdong, XIAO Zhitao, et al. Combining CNN and MRF for road detection[J]. Computers & Electrical Engineering, 2018, 70(8): 895-903.
[19]洪名佳, 汪慧蘭, 黃娜君, 等. 一種基于FCN的車(chē)道線(xiàn)檢測(cè)算法[J].無(wú)線(xiàn)電通信技術(shù), 2018, 44(6): 587-592.
HONG Mingjia, WANG Huilan, HUANG Najun, et al.A lane detection algorithm based on FCN [J]. Radio Communication Technology, 2018, 44(6): 587-592.
[20]施澤浩, 趙啟軍. 基于全卷積網(wǎng)絡(luò)的目標(biāo)檢測(cè)算法[J]. 計(jì)算機(jī)技術(shù)與發(fā)展, 2018, 28(5): 55-58.
SHI Zehao, ZHAO Qijun. Object detection algorithm based on fully convolutional neural ?network [J]. Computer Technology and Development, 2018, 28(5): 55-58.
[21]LAFFERTYJ D, MCCALLUM A, PEREIRAF C N. Conditional random fields: Probabilistic models for segmenting and labeling sequence data[J]. Proceedings of Icml, 2001, 3(2):282-289.
[22]侯利龍, 李讓軍. 基于改進(jìn)蟻群算法的道路圖像分割算法研究[J]. 決策探索(中), 2018, 9: 92-93.
[23]柳丹, 郭忠, 張樹(shù)麗. 基于無(wú)人機(jī)航路規(guī)劃問(wèn)題的蟻群算法綜述[J]. 汽車(chē)實(shí)用技術(shù), 2018, 1: 111-112.
LIU Dan, GUO Zhong, ZHANG Shuli. The review of ant colony algorithm based on UAV route planning [J]. Automobile Applied Technology, 2018, 1:111-112.
[24]郎咸朋, 朱楓, 都穎明,等. 基于積分圖像的快速二維 Otsu 算法[J]. 儀器儀表學(xué)報(bào), 2009, 30(1): 40-41.
LANG Xianpeng, ZHU Feng, DU Yingming,et al. Fast two-dimensional Otsu algorithm based on integral image [J].Chinese Journal of Scientific Instrument, 2009,30(1):40-41.
[25]MEHDI M, JALAL A, SHIRIN M, et al. Integrating fuzzy object based image analysis and ant colony optimization for road extraction from remotely sensed images[J]. ISPRS Journal of Photogrammetry and Remote Sensing, 2018, 138(4): 151-163.
[26]JALAL A. Road Identification from Satellite Images based on a Fuzzy Reasoning Model[D].Tehran:University of Tehran,2002.
[27]GROTE A, HEIPKE C, ROTTENSTEINER F. Road network extraction in suburban areas[J]. Photogram, 2012, 137(27): 8-28.
[28]ZHANGY, ZHANG J, LI T. Road extraction and intersection detection based on tensor voting[J]. IEEE, International Geoscience and Remote Sensing Symposium (IGARSS), 2016: 1587-1590.
[29]HADAVANDA, SAADATSERESHT M, HOMAYOUNI S. Segmentation parameter selection for object-based Land-cover mapping from ultra high resolution spectral and elevation data[J]. Int Remote Sens, 2017, 38 (12): 3586-3607.
[30]YANG Zi, LILIAN S C, CHENG P. Vehicle Detection in transportation systems and its applications under varying environments: A review[J]. Image and Vision Computing, 2018, 69: 143-154.
[31]JEON D, DONG Q, KIM Y, et al. A 23-MW face recognition processor with mostly-read 5 T memory in 40-NM CMOS[J]. IEEE Solid-State Circuits, 2017, 52(6): 1628-1642.
[32]MU Kenan, HUI Fei, ZHAO Xiangmo, et al. Multiscale edge fusion for vehicle detection based on difference of Gaussian[J]. Optik, 2016, 127(11): 4794-4798.
[33]DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[J]. IEEE CVPR, 2005, 1: 886-893.
[34]YAO S, WANG T, SHEN W, et al. A novel combination feature HOG-LSS for pedestrian detection[C]// Emerging Intelligent Computing Technology and Applications. Berlin: Springer, 2013: 177-181.
[35]HU Jiangsheng. Body Detection based on Adaboost and SVM[D]. Wuhan: South-Central University for Nationalities, 2011.
[36]WEI Yun, TIAN Qing, GUO Jianhua, et al. Multi-vehicle detection algorithm through combining Harr and HOG features[J]. Mathematics and Computers in Simulation, 2019, 155(1): 130-145.
[37]ZHOU Y,LIU L,SHAO L,et al. A unified framework for fast vehicle detection and annotation[J]. European Conference on Computer Vision, 2016, 10:278-293.
[38]梁敏健. 智能車(chē)行車(chē)環(huán)境視覺(jué)感知關(guān)鍵技術(shù)研究[D]. 西安:長(zhǎng)安大學(xué), 2017.
LIANG Minjian. Research on Key Technologies of Visual Perception of Driving Environment of Intelligent Vehicles [D]. Xian: Changan University, 2017.
[39]ASVADI A, GARROTE L, PREMEVIDA C, et al. Multimodal vehicle detection: Fusing 3D-LIDAR and color camera data[J]. Pattern Recognition Letters, 2018, 115:20-29.
[40]SRAVANM S,NATARAJIAN S, KRISHNA E S, et al. Fast and accurate on-road vehicle detectionbased on color intensity segregation[J]. Procedia Computer Science,2018,133: 594-603.
[41]ANANDHALLI M, BALIGAR V P. A novel approach in real-time vehicle detection and tracking using raspberry Pi[J]. Alexandria Engineering Journal, 2018, 57(3): 1597-1607.
[42]HALIDOU A, YOU X, HAMIDINE M, et al. Fast pedestrian detection based on region of interest and multi-block local binary pattern descriptors[J]. Computers & Electrical Engineering, 2014, 40(8): 375-389.
[43]靳培飛, 周莉, 劉建,等.基于支持向量機(jī)提取感興趣區(qū)域的行人檢測(cè)[J]. 計(jì)算機(jī)工程與設(shè)計(jì), 2017, 38(4): 1098-1102.
JIN Peifei, ZHOU Li, LIU Jian, et al. Pedestrian detection based on region of interest extracted by support vector machine[J]. Computer Engineering and Design, 2017, 38(4): 1098-1102.
[44]應(yīng)光林. 基于雙目視覺(jué)感興趣區(qū)域的行人檢測(cè)[J]. 信息通信, 2018(3): 48-50.
[45]SHI W J,BLAWIEH M B,LI X. Algorithm and hardware implementation for visual perception system in autonomous vehicle: A survey[J]. Integration Volume, 2017, 59: 148-156.
[46]REDMON J,F(xiàn)ARHADI A YOLO9000:Better,faster,stronger[C]//Conference on Computer Vision and Pattern Recognition.Honolulu:IEEE,2017:6517-6525.
[47]HOU Yali, SONG Yaoyao, HAO Xiaoli. Multispectral pedestrian detection based on deep convolutional neural networks[C]//Infrared Physics & Technology.Seoul:IEEE, 2018, 94: 69-77.
[48]CHOIE J, PARK D J. Human detection using image fusion of thermal and visible image with new joint bilateral filter[C]// International Conference on Computer Sciences and Convergence Information Technology.Seoul:IEEE, 2010: 882-885.
[49]CAO Yanpeng, GUAN Dayan, HUANG Weilin, et al. Pedestrian detection with unsupervised multispectral feature learning using deep neural networks[J]. Information Fusion, 2019, 46(3): 206-217.
[50]劉文振. 基于HOG特征的行人檢測(cè)系統(tǒng)的研究[D]. 南京:南京郵電大學(xué), 2016.
LIU Wenzhen. Research on HOG-based Pedestrian Detection System [D]. Nanjing: Nanjing University of Posts and Telecommunications, 2016.
[51]ZHENG Chunhou, PEI Wenjuan,YAN Qing, et al. Pedestrian Detection based on Gradient and Texture Feature Integration[J]. Neurocomputing, 2017, 228(8): 71-78.
[52]PEI W J, ZHANG Y L, ZHANG Y, et al. Pedestrian detection based on HOG and LBP[M]. [S.l]:Springer International Pablishing, 2014.
[53]閆敬文, 江志東, 劉蕾. 基于HOG -多尺度LBP特征的人臉性別識(shí)別[J]. 揚(yáng)州大學(xué)學(xué)報(bào)(自然科學(xué)版), 2016, 19(3): 58-62.
YAN Jingwei,JIANG Zhidong,LIU Lei,et al.Face gencler recognition based on HOG and LBP feature[J].Journal of Yangzhou Univeristy(Natural Science Edition),2016,19(3):58-62.
[54]FURSOV V, BIBKOV S,YAKIMOV P. Localization of objects contours with different scales in images using Hough transform[J]. Computer Optics, 2013, 37(4): 502-508.
[55]YAKIMOV P. Tracking traffic signs in video sequences based on a vehicle velocity[J]. Computer Optics, 2015, 39(5): 795-800.
[56]ZHU Yingying, ZHANG Chengquan, ZHOU Duoyou, et al. Traffic sign detection and recognition using fully convolutional network guided proposals[J]. Neurocomputing, 2016, 214(19): 758-766.
[57]YANG Tingting, LONG Xiang, ARUN K S, et al. Deep detection network for real-life traffic sign in vehicular networks[J]. Computer Networks, 2018, 136(8): 95-104.
[58]ARCOS G , LVAREZ G J A, SORIA M L M. Evaluation of deep neural networks for traffic sign detection systems[J]. Neurocomputing, 2018, 316(17): 332-344.
[59]王方石, 王堅(jiān), 李兵, 等. 基于深度屬性學(xué)習(xí)的交通標(biāo)志檢測(cè)[J]. 吉林大學(xué)學(xué)報(bào)(工學(xué)版), 2018, 48(1): 319-329.
WANG Fangshi, WANG Jian, LI Bing, et al. Deep attribute learning based traffic sign detection [J]. Journal of Jilin University(Engineering and Technology Edition), 2018, 48(1): 319-329.
[60]金旭暉. 基于區(qū)域顏色分割的交通標(biāo)志檢測(cè)和識(shí)別[J]. 電氣自動(dòng)化, 2016, 38(3): 14-16.
JIN Xuhui. Traffic sign detection and recognition by block-based color segmentation [J]. Electrical Automation, 2016, 38(3): 14-16.
[61]張華偉, 孫勁光. 基于顏色與形狀圖像檢索的研究[J]. 計(jì)算機(jī)仿真, 2009, 26( 11): 207-210.
ZHANG Huawei, SUN Jinguang. A research of image retrieval based on color and shape [J]. Computer Simulation, 2009, 26(11): 207-210.
[62]KRYVINSKA N,PONISIEWSKA M A,GREGUS M. an approach towards service building for road traffic signs detection and recognition[J]. ?Procedia Computer Science, 2018, 141: 64-71.
[63]孫小霞. 基于視頻圖像的道路交通標(biāo)志檢測(cè)與識(shí)別[D]. 武漢:華中科技大學(xué), 2015.
SUN Xiaoxia. Detection and Recognition of Road Traffic Signs based on Video Image [D]. Wuhan: Huazhong University of Science and Technology, 2015.
[64]趙玉偉. 基于圖像處理的道路交通標(biāo)志檢測(cè)與識(shí)別方法[J]. 交通世界, 2018, 3(9): 42-43.
[65]滕今朝, 邱杰. 利用Hough變換實(shí)現(xiàn)直線(xiàn)的快速精確檢測(cè)[J]. 中國(guó)圖象圖形學(xué)報(bào), 2008, 13(2): 234-237.
TENG Jinchao, QIU Jie.Fas tand precise detection of straight lines with Hough transform[J]. Journal of Image and Graphics, 2008, 13(2): 234-237.
[66]孫玲. 基于卷積神經(jīng)網(wǎng)絡(luò)的行人與車(chē)輛檢測(cè)方法研究[D]. 成都:電子科技大學(xué), 2018.
SUN Ling. Research on Pedestrian and Vehicle Detection Methods based on Convolutional Neural Network [D].Chengdu: University of Electronic Science and Technology, 2018.
[67]LIU Yisha, XU Wenhao. DOBAIA A M, et al. Autonomous road detection and modeling for UGVs using vision-laser data fusion[J]. Neurocomputing, 2017, 275:2752-2761.
[68]鄢杰斌. 基于雙目視覺(jué)感知的無(wú)參考三維圖像視覺(jué)質(zhì)量評(píng)價(jià)[D]. 南昌:江西財(cái)經(jīng)大學(xué),2018.
YAN Binjie. Visual Quality Evaluation of Unreferenced 3d Images Based on Binocular Visual Perception[D]. Nanchang: Jiangxi Univer-sity of Finance and Economics, 2018.
[69]陳兵旗. 機(jī)器視覺(jué)技術(shù)[M]. 北京: 化學(xué)工業(yè)出版社, 2018.
[70]景輝. 基于卷積神經(jīng)網(wǎng)絡(luò)的全局車(chē)道線(xiàn)檢測(cè)算法研究[D]. 北京:北京交通大學(xué), 2018.
JING Hui. Research on Global Lane Line Detection Algorithm based on Convolutional Neural Network[D]. Beijing: Beijing Jiaotong University, 2018.
[71]武林秀, 李厚杰, 賀建軍, 等. 基于深度學(xué)習(xí)的交通標(biāo)志檢測(cè)方法研究[J]. 大連民族大學(xué)學(xué)報(bào), 2018, 20(5): 460-463.
WU Linxiu, LI Wujie, HE Jianjun, et al. Research on traffic sign detection method based on deep learning[J]. Journal of Dalian Minzu University, 2018, 20(5): 460-463.