李愛娟,鞏春鵬,黃欣,曹家平,劉剛
1.山東交通學(xué)院 汽車工程學(xué)院,山東 濟(jì)南 250357;2.山東交通學(xué)院 信息科學(xué)與電氣工程學(xué)院,山東 濟(jì)南 250357;3.山東交通學(xué)院 教務(wù)處,山東 濟(jì)南 250357
汽車自動(dòng)駕駛技術(shù)主要包括環(huán)境感知、定位導(dǎo)航、軌跡規(guī)劃和執(zhí)行控制4個(gè)方面[1],其中環(huán)境感知為自動(dòng)駕駛汽車的決策和控制提供外界環(huán)境信息,是自動(dòng)駕駛的前提和保障,目標(biāo)檢測(cè)是環(huán)境感知的重要內(nèi)容[2-3]。綜合分析國內(nèi)外部分研究文獻(xiàn),以目標(biāo)檢測(cè)采用的傳感器數(shù)量和種類對(duì)目標(biāo)檢測(cè)方法進(jìn)行分類,綜述各檢測(cè)方法的特點(diǎn)及研究現(xiàn)狀,并對(duì)目標(biāo)檢測(cè)方法未來發(fā)展方向進(jìn)行展望。自動(dòng)駕駛汽車目標(biāo)檢測(cè)方法分類如圖1所示。
圖1 自動(dòng)駕駛汽車目標(biāo)檢測(cè)方法分類
自動(dòng)駕駛汽車目標(biāo)檢測(cè)的傳感器主要有相機(jī)、超聲波雷達(dá)、毫米波雷達(dá)、激光雷達(dá)等[4],目標(biāo)檢測(cè)常用傳感器的特性如表1所示。
表1 目標(biāo)檢測(cè)常用傳感器的特性
相機(jī)是自動(dòng)駕駛汽車獲取周圍環(huán)境信息的主要來源之一。早期的目標(biāo)檢測(cè)多采用視覺獲取信息,基于視覺的目標(biāo)檢測(cè)方法是先選擇候選區(qū)域,再對(duì)候選區(qū)域提取特征并判斷目標(biāo)類型,包括基于傳統(tǒng)視覺的目標(biāo)檢測(cè)方法和基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法。
1.1.1 基于傳統(tǒng)視覺的目標(biāo)檢測(cè)方法
基于傳統(tǒng)視覺的目標(biāo)檢測(cè)方法采用手工提取特征[5],主要檢測(cè)方法有VJ檢測(cè)器[6]、方向梯度直方圖(histogram of oriented gradient,HOG)檢測(cè)器[7]、可變形部件模型(deformable part-based model,DPM)[8]等。
VJ檢測(cè)器采用滑動(dòng)窗口遍歷整個(gè)圖像,判斷目標(biāo)是否存在。文獻(xiàn)[6]通過VJ檢測(cè)器實(shí)現(xiàn)對(duì)人臉的實(shí)時(shí)檢測(cè),采用檢測(cè)級(jí)聯(lián)增加對(duì)有效目標(biāo)的計(jì)算,提高了檢測(cè)速度。但該方法檢測(cè)的目標(biāo)種類及大小均不固定,滑動(dòng)窗口不能適應(yīng)物體大小的改變。
文獻(xiàn)[7]改進(jìn)VJ檢測(cè)器的缺點(diǎn),采用HOG檢測(cè)器,沿用VJ檢測(cè)器滑動(dòng)窗口的思想,引入多尺度圖像金字塔適應(yīng)檢測(cè)目標(biāo)的變化。文獻(xiàn)[9]采用HOG檢測(cè)器與支持向量機(jī)分類器相結(jié)合的方法識(shí)別前方車輛,并可刪除提取區(qū)域中的非車輛目標(biāo)。
文獻(xiàn)[8]改進(jìn)HOG檢測(cè)器,采用DPM,將整體檢測(cè)目標(biāo)分解為局部檢測(cè)目標(biāo),分別檢測(cè)目標(biāo)的各個(gè)部件,再整合檢測(cè)結(jié)果。傳統(tǒng)的DPM主要檢測(cè)目標(biāo)圖像的梯度特征,容易過濾一些信息。文獻(xiàn)[10]提出基于車輛顏色的DPM檢測(cè)方法,目標(biāo)檢測(cè)準(zhǔn)確率大于90%,相比傳統(tǒng)目標(biāo)檢測(cè)方法的檢測(cè)效率和準(zhǔn)確率均較高。
VJ檢測(cè)器對(duì)自動(dòng)駕駛汽車目標(biāo)檢測(cè)方法的進(jìn)步做出了較大貢獻(xiàn),為后來的目標(biāo)檢測(cè)方法提供了思想支持;HOG檢測(cè)器克服了VJ檢測(cè)器不能適應(yīng)物體大小改變的缺點(diǎn);DPM將整體目標(biāo)化為局部目標(biāo)進(jìn)行檢測(cè),一定程度上提升了檢測(cè)效率。但上述方法均基于手工選取特征區(qū)域,存在計(jì)算量大、實(shí)時(shí)性差等問題,不能滿足自動(dòng)駕駛汽車高可靠性的要求[11]。
1.1.2 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法
基于深度學(xué)習(xí)與基于傳統(tǒng)視覺的目標(biāo)檢測(cè)方法主要區(qū)別為特征區(qū)域的提取方式不同,前者采用神經(jīng)網(wǎng)絡(luò)解決檢測(cè)目標(biāo)的分類和回歸問題,按檢測(cè)原理不同分為單階段和兩階段目標(biāo)檢測(cè)方法。
1.1.2.1 單階段目標(biāo)檢測(cè)方法
單階段目標(biāo)檢測(cè)方法是直接應(yīng)用單個(gè)檢測(cè)網(wǎng)絡(luò),代表算法有“你只需看一次”(you only look once, YOLO)[12]系列算法、單點(diǎn)多框檢測(cè)器(single shot multibox detector,SSD)[13]、RetinaNet[14]等。
文獻(xiàn)[12]提出了1種統(tǒng)一的、實(shí)時(shí)的檢測(cè)框架YOLO,將目標(biāo)檢測(cè)轉(zhuǎn)化為回歸類問題,可實(shí)現(xiàn)檢測(cè)目標(biāo)與背景環(huán)境的區(qū)分與關(guān)聯(lián),降低誤檢率。但對(duì)小目標(biāo)和集群目標(biāo)的檢測(cè)較低。目前YOLO系列算法已經(jīng)發(fā)展到v5版本,在保證高檢測(cè)速度的同時(shí),提升了檢測(cè)準(zhǔn)確率[15]。
針對(duì)YOLO v1版本存在的問題,文獻(xiàn)[13]采用SSD方法引入多尺度檢測(cè),在神經(jīng)網(wǎng)絡(luò)的不同層檢測(cè)多個(gè)不同尺度的目標(biāo),提升了小目標(biāo)的檢測(cè)準(zhǔn)確率。文獻(xiàn)[16]將SSD應(yīng)用于小型交通標(biāo)志的檢測(cè),具有較高準(zhǔn)確率。為解決單階段目標(biāo)檢測(cè)方法無法兼顧速度與準(zhǔn)確率的問題,文獻(xiàn)[14,17]提出了新的單階段檢測(cè)框架RetinaNet,該算法引入焦點(diǎn)損失函數(shù),使檢測(cè)框架的關(guān)注焦點(diǎn)放在難分類的檢測(cè)目標(biāo)上,極大地提升了單階段檢測(cè)方法的檢測(cè)效果。
YOLO v1作為第1個(gè)單階段目標(biāo)檢測(cè)方法,解決了檢測(cè)速度慢的問題,滿足實(shí)時(shí)檢測(cè)要求,但對(duì)不同尺度目標(biāo)尤其是小目標(biāo)的檢測(cè)效果較差;SSD引入多尺度檢測(cè),有效提升了小目標(biāo)的檢測(cè)性能,這一思想也被應(yīng)用到Y(jié)OLO v3算法中。單階段目標(biāo)檢測(cè)方法的主要缺點(diǎn)是檢測(cè)準(zhǔn)確率低,而引入焦點(diǎn)損失函數(shù)的RetinaNet算法,在保持高檢測(cè)速度的同時(shí),達(dá)到了兩階段算法的檢測(cè)準(zhǔn)確率。
1.1.2.2 兩階段目標(biāo)檢測(cè)方法
兩階段目標(biāo)檢測(cè)方法將目標(biāo)檢測(cè)問題分2步解決,先產(chǎn)生候選區(qū)域,再對(duì)候選區(qū)域分類,主要包括區(qū)域卷積網(wǎng)絡(luò)(region proposals with CNN,R-CNN)[18]、空間金字塔池化網(wǎng)絡(luò)(spatial pyramid pooling networks,SPPNet)[19]和特征金字塔網(wǎng)絡(luò)(feature pyramid network,F(xiàn)PN)[20]等系列算法。兩階段目標(biāo)檢測(cè)方法比單階段目標(biāo)檢測(cè)方法更準(zhǔn)確,但檢測(cè)速度較慢。
文獻(xiàn)[18]首次提出在自動(dòng)駕駛汽車目標(biāo)檢測(cè)領(lǐng)域應(yīng)用R-CNN,成為兩階段算法的研究基礎(chǔ)。R-CNN在神經(jīng)網(wǎng)絡(luò)中輸入1個(gè)固定大小的圖像進(jìn)行訓(xùn)練并提取目標(biāo)特征,比傳統(tǒng)目標(biāo)檢測(cè)方法的檢測(cè)準(zhǔn)確率高,但會(huì)產(chǎn)生大量重復(fù)計(jì)算,降低目標(biāo)檢測(cè)速度。文獻(xiàn)[21-22]分別在R-CNN算法的基礎(chǔ)上提出了Fast R-CNN、Faster R-CNN兩階段目標(biāo)檢測(cè)方法,但仍存在重復(fù)計(jì)算,達(dá)不到單階段目標(biāo)檢測(cè)方法的實(shí)時(shí)性。
針對(duì)R-CNN存在需輸入固定大小圖像導(dǎo)致檢測(cè)速度慢的問題,文獻(xiàn)[19]引入空間金字塔模型,消除固定尺寸約束,提出了SPPNet,該算法不需要將目標(biāo)縮放,減少了多余計(jì)算,提高了檢測(cè)速度,但仍無法適應(yīng)自動(dòng)駕駛環(huán)境的實(shí)時(shí)檢測(cè)目標(biāo)。
上述目標(biāo)檢測(cè)方法只在神經(jīng)網(wǎng)絡(luò)的頂層進(jìn)行檢測(cè),不利于檢測(cè)目標(biāo)的分類,文獻(xiàn)[20]提出了FPN算法,充分利用神經(jīng)網(wǎng)絡(luò)檢測(cè)多尺度目標(biāo)。文獻(xiàn)[23]將FPN算法用于小目標(biāo)檢測(cè),該算法簡單易實(shí)現(xiàn),對(duì)小目標(biāo)的檢測(cè)效果明顯。
SPPNet、FPN等算法的核心思想,不但應(yīng)用在兩階段目標(biāo)檢測(cè)算法中提升檢測(cè)準(zhǔn)確率,也被引入單階段檢測(cè)算法,如在YOLO v3算法中引入FPN結(jié)構(gòu),將不同特征層融合后的結(jié)果用作目標(biāo)檢測(cè),在小目標(biāo)檢測(cè)中起到關(guān)鍵作用;在YOLO v4算法中加入SPP模塊,實(shí)現(xiàn)了局部特征和全局特征的融合。兩階段目標(biāo)檢測(cè)方法雖然檢測(cè)準(zhǔn)確率高,但會(huì)產(chǎn)生一些冗余計(jì)算導(dǎo)致檢測(cè)速度慢,F(xiàn)aster R-CNN是R-CNN系列算法中檢測(cè)速度最快、最接近實(shí)時(shí)檢測(cè)要求的兩階段目標(biāo)檢測(cè)算法。
綜上所述,基于視覺的目標(biāo)檢測(cè)方法的發(fā)展框架如圖2所示?;趥鹘y(tǒng)視覺的目標(biāo)檢測(cè)方法實(shí)時(shí)性差、檢測(cè)準(zhǔn)確率低,不能適應(yīng)復(fù)雜的自動(dòng)駕駛運(yùn)行環(huán)境;基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)目標(biāo)檢測(cè)算法的檢測(cè)速度與準(zhǔn)確率一直未達(dá)到最優(yōu)平衡點(diǎn)[24]。
圖2 基于視覺的目標(biāo)檢測(cè)方法的發(fā)展框架
自動(dòng)駕駛汽車運(yùn)行環(huán)境復(fù)雜多變,基于視覺的目標(biāo)檢測(cè)方法易受環(huán)境光照影響出現(xiàn)誤檢和漏檢情況。雷達(dá)檢測(cè)范圍擴(kuò)大,分辨率不斷提高,已成為最主要的目標(biāo)檢測(cè)傳感器?;诶走_(dá)的目標(biāo)檢測(cè)方法多采用點(diǎn)云特征,首先在三維點(diǎn)云數(shù)據(jù)中提取感興趣區(qū)域(regions of interest,ROI),再提取檢測(cè)目標(biāo)的特征,對(duì)檢測(cè)目標(biāo)進(jìn)行分類[25]。
傳統(tǒng)基于點(diǎn)云特征的檢測(cè)方法與基于視覺的檢測(cè)方法相似,均采用手工方式提取特征。基于雷達(dá)的目標(biāo)檢測(cè)方法受基于深度學(xué)習(xí)目標(biāo)檢測(cè)方法的啟發(fā),將神經(jīng)網(wǎng)絡(luò)運(yùn)用到雷達(dá)提取點(diǎn)云特征。文獻(xiàn)[26]將圖像檢測(cè)方法引入基于點(diǎn)云特征的目標(biāo)檢測(cè),提出1種實(shí)時(shí)三維點(diǎn)云檢測(cè)網(wǎng)絡(luò)Complex-YOLO,能夠?qū)崟r(shí)檢測(cè)多種類型的目標(biāo);文獻(xiàn)[27]提出采用二維全卷積網(wǎng)絡(luò)(fully convolutional network,F(xiàn)CN),將三維信息投影到二維點(diǎn)圖中預(yù)測(cè)目標(biāo)的置信度和邊界框。上述2種檢測(cè)方法均采用三維信息投影到二維點(diǎn)圖的方法,容易缺失部分信息。文獻(xiàn)[28]直接在點(diǎn)云信息上進(jìn)行目標(biāo)檢測(cè),提出PointNet算法,該算法結(jié)構(gòu)簡單,引入最大值池化將每個(gè)點(diǎn)獨(dú)立分類檢測(cè),再通過FCN將各點(diǎn)云特征整合獲得全局特征。文獻(xiàn)[29]將PointNet運(yùn)用到行人檢測(cè),結(jié)合點(diǎn)云的多尺度局部特征和全局特征在激光雷達(dá)上實(shí)現(xiàn)行人檢測(cè),試驗(yàn)表明檢測(cè)效果良好。PointNet在局部處理上存在缺陷,在此基礎(chǔ)上文獻(xiàn)[30]提出了PointNet++算法。
基于雷達(dá)與基于視覺的目標(biāo)檢測(cè)方法有類似之處,也分為單階段和雙階段檢測(cè)方法。毫米波雷達(dá)的分辨率較低,激光雷達(dá)的成本較高,基于深度學(xué)習(xí)的視覺檢測(cè)方法提升了檢測(cè)效率和準(zhǔn)確率,但易受天氣影響且不能獲取目標(biāo)的距離、速度等信息,無法提供準(zhǔn)確可靠的環(huán)境信息[31]。由于自身特性的局限性和天氣等影響因素,基于視覺和雷達(dá)的單一傳感器目標(biāo)檢測(cè)方法不能適應(yīng)復(fù)雜的自動(dòng)駕駛環(huán)境[32]。
相機(jī)檢測(cè)到的目標(biāo)特征信息比雷達(dá)更豐富,但無法獲取目標(biāo)的距離、速度及三維信息[33]。將雷達(dá)與相機(jī)進(jìn)行數(shù)據(jù)融合,既能獲取圖像信息,又能獲取檢測(cè)目標(biāo)的深度信息[34],目前目標(biāo)檢測(cè)最常用的傳感器融合方式是相機(jī)與毫米波雷達(dá)融合[35]。文獻(xiàn)[36]研究了基于相機(jī)和毫米波雷達(dá)融合的目標(biāo)檢測(cè)方法,相機(jī)識(shí)別目標(biāo)特征的能力和毫米波雷達(dá)在惡劣環(huán)境中的抗干擾能力相結(jié)合,提升了目標(biāo)檢測(cè)準(zhǔn)確率。文獻(xiàn)[37]基于密度的聚類算法(density-based spatial clustering of applications with noise,DBSCAN)對(duì)激光雷達(dá)采集的點(diǎn)云數(shù)據(jù)進(jìn)行聚類,利用Faster R-CNN算法識(shí)別圖像信息,提出了基于激光雷達(dá)和視覺信息融合的框架,能快速準(zhǔn)確地識(shí)別目標(biāo)信息。
多傳感器融合的目標(biāo)檢測(cè)方法是國內(nèi)外高校及汽車行業(yè)的研究熱點(diǎn)[38]。多倫多大學(xué)和Uber公司提出了1種通過神經(jīng)網(wǎng)絡(luò)連續(xù)融合圖像和激光雷達(dá)點(diǎn)云信息的檢測(cè)方法,通過融合2種傳感器的數(shù)據(jù)信息準(zhǔn)確獲取目標(biāo)的三維空間信息[39];百度與清華大學(xué)研發(fā)團(tuán)隊(duì)提出了多視圖3維網(wǎng)絡(luò)(multi-view 3D networks, MV3D)[40],融合框架采用點(diǎn)云的主視圖和俯視圖,同時(shí)處理相機(jī)的光學(xué)三原色圖像和激光雷達(dá)點(diǎn)云2種信息,縮短了信息處理時(shí)間,保證了目標(biāo)檢測(cè)的實(shí)時(shí)性[41]。
信息融合是一門交叉學(xué)科,涵蓋概率統(tǒng)計(jì)、估計(jì)理論及神經(jīng)網(wǎng)絡(luò)等[42]。信息融合的方法主要包括基于隨機(jī)模型的加權(quán)平均融合法[43]、卡爾曼濾波(Kalman filtering,KF)融合法[44]、貝葉斯估計(jì)融合法[45]、D-S證據(jù)推理融合法[46]等傳統(tǒng)融合算法和正在蓬勃發(fā)展的神經(jīng)網(wǎng)絡(luò)法、模糊邏輯法、遺傳算法等人工智能融合法。
2.1.1 加權(quán)平均融合法
加權(quán)平均融合法是按不同權(quán)重處理多個(gè)傳感器的數(shù)據(jù)。文獻(xiàn)[47]加權(quán)分配2個(gè)超聲波雷達(dá)的觀測(cè)值,研究表明:當(dāng)觀測(cè)值權(quán)重取值合適時(shí)可獲取最優(yōu)估計(jì)值,結(jié)論推廣到多個(gè)超聲波雷達(dá)及激光雷達(dá)數(shù)據(jù)融合同樣具有較高的可行性。但加權(quán)平均融合法不易確定各傳感器數(shù)據(jù)的權(quán)重,影響采集信息的準(zhǔn)確率。文獻(xiàn)[48]提出了1種自適應(yīng)加權(quán)平均融合法,采用不同方法處理高頻、低頻數(shù)據(jù),較傳統(tǒng)加權(quán)平均融合方法的準(zhǔn)確率更高,但不易處理傳感器自身誤差及環(huán)境干擾。文獻(xiàn)[49]通過設(shè)置權(quán)重淘汰檢測(cè)結(jié)果差的傳感器數(shù)據(jù),減少多傳感器的測(cè)量誤差和不確定性,在實(shí)際應(yīng)用中提高了融合系統(tǒng)的準(zhǔn)確率。
2.1.2 KF融合法
KF是1種常見的數(shù)據(jù)處理方法,實(shí)時(shí)性好,廣泛應(yīng)用于計(jì)算機(jī)視覺、圖像檢測(cè)及自動(dòng)駕駛環(huán)境感知等領(lǐng)域。KF融合法基于KF進(jìn)行拓展,目前主要有不變擴(kuò)展KF算法[50]、加權(quán)測(cè)量融合KF算法[51]、無跡KF與神經(jīng)網(wǎng)絡(luò)結(jié)合算法[52]等。文獻(xiàn)[53]研究目標(biāo)關(guān)聯(lián)后的不同融合方法,提出了基于KF的多傳感器信息融合算法。由于復(fù)雜的運(yùn)行環(huán)境及目標(biāo)的不確定性,文獻(xiàn)[54]基于KF提出了1種實(shí)時(shí)多目標(biāo)追蹤(multiple object trackin,MOT)框架。文獻(xiàn)[55]改進(jìn)迭代擴(kuò)展KF,提出了多傳感器融合狀態(tài)估計(jì)算法,考慮獲取信息的不確定性,先將各傳感器獲取的信息單獨(dú)處理再進(jìn)行并聯(lián),提高目標(biāo)檢測(cè)的可靠性。
2.1.3 貝葉斯估計(jì)融合法
貝葉斯估計(jì)理論[56]通過先驗(yàn)信息與檢測(cè)目標(biāo)信息相結(jié)合預(yù)測(cè)事件發(fā)生的概率。文獻(xiàn)[57]通過試驗(yàn)得到貝葉斯估計(jì)融合法,可有效融合多個(gè)傳感器獲取的數(shù)據(jù),但該方法需要大量先驗(yàn)信息,在實(shí)際應(yīng)用中先驗(yàn)信息并不容易獲取。文獻(xiàn)[58]提出了1種利用置信距離理論與貝葉斯估計(jì)相結(jié)合的多傳感器信息融合法,充分利用2種理論的特性,提高了檢測(cè)系統(tǒng)性能,但該方法只適用于同類型傳感器檢測(cè)同一目標(biāo)的情況。貝葉斯估計(jì)融合法對(duì)不確定的信息處理較困難,文獻(xiàn)[59]提出將KF與貝葉斯估計(jì)理論相結(jié)合的多傳感器信息融合法,該方法能有效解決各傳感器獲取信息的不確定性和不一致性,提高了檢測(cè)準(zhǔn)確率。
2.1.4 D-S證據(jù)推理融合法
相較于貝葉斯估計(jì)理論,D-S證據(jù)推理在處理不確定信息方面有一定優(yōu)勢(shì),是貝葉斯估計(jì)融合法的改進(jìn)。文獻(xiàn)[60]通過試驗(yàn)驗(yàn)證了D-S證據(jù)推理應(yīng)用在多傳感器融合的自動(dòng)駕駛汽車目標(biāo)檢測(cè)方面的可行性和有效性。由于自動(dòng)駕駛環(huán)境的復(fù)雜性和單一傳感器的檢測(cè)缺陷,對(duì)遠(yuǎn)距離目標(biāo)及小目標(biāo)的檢測(cè)存在準(zhǔn)確率低、可靠性差等問題[61]。文獻(xiàn)[62]采用D-S證據(jù)推理對(duì)可見光和紅外熱圖像進(jìn)行決策級(jí)融合,提出了基于決策級(jí)融合的遠(yuǎn)距離目標(biāo)檢測(cè)方法。D-S證據(jù)推理融合法雖然在解決不確定信息問題上有良好的效果,但無法較好地處理證據(jù)沖突情況。文獻(xiàn)[63]提出了1種結(jié)合加權(quán)法改進(jìn)的D-S證據(jù)推理融合法,通過均值加權(quán)思想將D-S證據(jù)推理中的矛盾證據(jù)弱化,通過仿真驗(yàn)證了改進(jìn)后的算法能有效彌補(bǔ)D-S證據(jù)推理融合法的缺陷。
基于人工智能的目標(biāo)檢測(cè)融合方法主要包括神經(jīng)網(wǎng)絡(luò)融合法、模糊邏輯融合法、遺傳算法等,目前多傳感器融合常用的方法是神經(jīng)網(wǎng)絡(luò)融合法。通過給神經(jīng)網(wǎng)絡(luò)輸入大量信息,經(jīng)過訓(xùn)練產(chǎn)生固定邏輯獲得最佳的融合權(quán)值[64]。為解決雷達(dá)與紅外傳感器的融合問題,文獻(xiàn)[65]在協(xié)方差未知的環(huán)境下,采用神經(jīng)網(wǎng)絡(luò)融合2種傳感器獲取的信息,通過仿真分析驗(yàn)證算法的可行性。文獻(xiàn)[66]提出1種多傳感器融合神經(jīng)網(wǎng)絡(luò),將毫米波雷達(dá)的先驗(yàn)信息添加到卷積神經(jīng)網(wǎng)絡(luò)中得到新的注意力機(jī)制模塊,再將該模塊與SSD目標(biāo)檢測(cè)網(wǎng)絡(luò)相結(jié)合,這種基于深度學(xué)習(xí)的融合算法提高了目標(biāo)檢測(cè)的穩(wěn)定性和可靠性。文獻(xiàn)[67]發(fā)現(xiàn)利用神經(jīng)網(wǎng)絡(luò)可有效解決多傳感器融合的固有問題,但要達(dá)到最佳融合結(jié)果,需收集全部可能發(fā)生的事件數(shù)據(jù)。
綜上所述,面對(duì)復(fù)雜的自動(dòng)駕駛環(huán)境,融合方法的應(yīng)用使自動(dòng)駕駛汽車充分利用各傳感器獲取更多、更豐富的環(huán)境信息,提高了目標(biāo)檢測(cè)的準(zhǔn)確率和可靠性,減少了獲取信息的時(shí)間和費(fèi)用[49]。加權(quán)平均融合法和KF融合法直接處理原始數(shù)據(jù),屬于低層次的數(shù)據(jù)級(jí)融合方法,原始數(shù)據(jù)丟失少,需集中處理大量信息,影響目標(biāo)檢測(cè)的實(shí)時(shí)性;貝葉斯估計(jì)融合法、D-S證據(jù)推理融合法相比前2種方法,計(jì)算量小,屬于高層次的融合方法,但先驗(yàn)信息不易獲得、適用范圍較??;神經(jīng)網(wǎng)絡(luò)融合法以神經(jīng)元的形式輸入,無需大量的先驗(yàn)信息,有較強(qiáng)的自適應(yīng)性。
基于隨機(jī)模型的目標(biāo)檢測(cè)融合方法是多傳感器融合方法的發(fā)展基礎(chǔ),基于人工智能的目標(biāo)檢測(cè)融合方法是多傳感器融合方法的發(fā)展趨勢(shì),但傳感器融合方法均存在計(jì)算量大、規(guī)則難建立等缺點(diǎn)。只有充分利用各傳感器的特點(diǎn),綜合多種融合方法,才能為自動(dòng)駕駛汽車提供安全保障。
自動(dòng)駕駛的目的是降低交通事故的發(fā)生概率,保證行車安全?;趩蝹鞲衅鞯哪繕?biāo)檢測(cè)方法無法滿足復(fù)雜的自動(dòng)駕駛行車環(huán)境,基于多傳感器融合的目標(biāo)檢測(cè)方法需要結(jié)合多種學(xué)科、多個(gè)領(lǐng)域的技術(shù)?,F(xiàn)有的目標(biāo)檢測(cè)方法只能實(shí)現(xiàn)在特定環(huán)境下的自動(dòng)駕駛,目標(biāo)較小或天氣環(huán)境惡劣時(shí)對(duì)自動(dòng)駕駛系統(tǒng)的穩(wěn)定性提出了較大挑戰(zhàn)。為滿足自動(dòng)駕駛高可靠性的要求,可通過增加目標(biāo)檢測(cè)傳感器的數(shù)量增加獲取的目標(biāo)信息量,或通過增強(qiáng)自動(dòng)駕駛目標(biāo)檢測(cè)方法的魯棒性,提高系統(tǒng)穩(wěn)定性。針對(duì)自動(dòng)駕駛目標(biāo)檢測(cè)方法的問題與難點(diǎn),文獻(xiàn)[68]提出將YOLO與Faster R-CNN結(jié)合,利用YOLO將整張圖像輸入神經(jīng)網(wǎng)絡(luò)的特點(diǎn),解決兩階段Fast-RCNN算法背景檢測(cè)錯(cuò)誤率高的問題,增強(qiáng)目標(biāo)檢測(cè)的效果;文獻(xiàn)[69]將視覺、毫米波雷達(dá)和激光雷達(dá)3種傳感器融合,實(shí)時(shí)獲取環(huán)境的點(diǎn)云信息、方位角、速度和距離等深度信息,極大地提高了目標(biāo)檢測(cè)的準(zhǔn)確率和實(shí)時(shí)性;文獻(xiàn)[70]通過融合深度相機(jī)和激光雷達(dá)傳感器提高了小目標(biāo)檢測(cè)的準(zhǔn)確率;文獻(xiàn)[71]將毫米波雷達(dá)與相機(jī)融合用于惡劣天氣環(huán)境下的目標(biāo)檢測(cè);文獻(xiàn)[72]研究了自動(dòng)駕駛汽車在坑洼路段及濕地運(yùn)行時(shí)的目標(biāo)檢測(cè),采用YOLO作為檢測(cè)算法并在數(shù)據(jù)集上增加對(duì)坑洼、濕地等環(huán)境運(yùn)行時(shí)的訓(xùn)練,使自動(dòng)駕駛汽車更安全可靠。
自動(dòng)駕駛汽車目標(biāo)檢測(cè)方法研究與應(yīng)用已取得較大進(jìn)步,但與實(shí)現(xiàn)真正的自動(dòng)駕駛?cè)源嬖诓罹?。目?biāo)檢測(cè)方法未來研究與發(fā)展的重點(diǎn)和趨勢(shì)如下:1)基于視覺的目標(biāo)檢測(cè)方法多依賴高性能計(jì)算機(jī)及強(qiáng)大的顯卡算力,而汽車上的內(nèi)存和計(jì)算資源有限,無法滿足要求,因此基于視覺目標(biāo)檢測(cè)方法的發(fā)展趨勢(shì)是發(fā)展計(jì)算量小、識(shí)別速度快、便于在移動(dòng)設(shè)備上安裝的輕量級(jí)車載應(yīng)用;2)目前基于多傳感器融合的目標(biāo)檢測(cè)方法較多對(duì)2種傳感器的融合技術(shù)進(jìn)行研究,未來發(fā)展趨勢(shì)是應(yīng)用3種及以上傳感器進(jìn)行數(shù)據(jù)融合,采用的傳感器種類越多,獲取目標(biāo)信息越豐富,更能反映目標(biāo)的特性,檢測(cè)結(jié)果更準(zhǔn)確可靠;3)對(duì)遠(yuǎn)距離目標(biāo)、小目標(biāo)和集群等特殊目標(biāo)檢測(cè)的研究較少,獲取目標(biāo)特征較少的小目標(biāo)檢測(cè)是最具挑戰(zhàn)的目標(biāo)檢測(cè)任務(wù)之一,所以采用提高采集和輸入圖像信息分辨率和融合多種傳感器獲取多尺度特征的目標(biāo)檢測(cè)方法是未來發(fā)展趨勢(shì);4)目前研究的汽車自動(dòng)駕駛技術(shù)多在路況良好的城市道路進(jìn)行,對(duì)路況差及某種傳感器在復(fù)雜環(huán)境下被遮擋或失效等問題的研究較少[73],未來發(fā)展趨勢(shì)是在復(fù)雜環(huán)境中應(yīng)用多傳感器融合技術(shù)。