趙樹廉,吳思宇,趙鵬云,田浩東,唐 宇,孟璋劼,唐逸超
(1.清華大學車輛與運載學院,北京 100084;2.中國汽車工程研究院股份有限公司,重慶 401122;3.中汽院智能網(wǎng)聯(lián)科技有限公司,重慶 401122;4.重慶大學機械與運載工程學院,重慶 400044)
汽車已成為交通運輸中的重要組成部分,是民眾出行的重要選擇。隨著汽車持有量持續(xù)增加,交通安全、能源消耗越來越成為制約汽車產(chǎn)業(yè)發(fā)展的主要因素。汽車新能源、智能化、網(wǎng)聯(lián)化技術(shù)的出現(xiàn),為解決上述問題提供了解決手段。國務(wù)院《中國制造2025》、汽車產(chǎn)業(yè)“十三五”發(fā)展狀況圖解以及《國家車聯(lián)網(wǎng)產(chǎn)業(yè)標準體系建設(shè)指南(智能網(wǎng)聯(lián)汽車)(2017)》均提出“智能網(wǎng)聯(lián)汽車”是未來的重要發(fā)展方向。2021年上半年,具備L2輔助駕駛功能的乘用車新車累計銷量156.8萬輛,市場滲透率達到20%左右,其中新能源汽車市場滲透率超過30%。由此可知,智能網(wǎng)聯(lián)電動車,已成為汽車行業(yè)的研究熱點。
然而,智能駕駛汽車突破的關(guān)鍵點之一在于構(gòu)建高精度、高可靠性及實時的環(huán)境感知模型。環(huán)境感知模型是汽車與外界環(huán)境交互的媒介,是汽車決策系統(tǒng)的前提條件。目前,毫米波雷達、視覺相機以及激光雷達是感知系統(tǒng)主要應(yīng)用的傳感器。毫米波雷達能夠可靠地檢測遠距離目標并測速,擴展感知范圍,提高跟蹤精度;視覺傳感器能夠提供豐富的環(huán)境語義信息,為感知系統(tǒng)對環(huán)境的理解提供支持;激光雷達能夠穩(wěn)定可靠地檢測遠距離目標物并測量其速度。針對單一傳感器無法滿足感知需要的現(xiàn)狀,多傳感器目標跟蹤融合成為研究的熱點。
多傳感器目標融合主要包括集中式融合、分布式融合以及混合式融合,數(shù)據(jù)融合過程主要包括多源傳感器目標物信息關(guān)聯(lián),多目標跟蹤及融合3個部分:
(1)數(shù)據(jù)關(guān)聯(lián)包括點跡與航跡的關(guān)聯(lián)以及航跡與航跡的關(guān)聯(lián),是按照一定的關(guān)聯(lián)度量標準進行的。所采用的方法主要包括最近鄰域法、概率密度數(shù)據(jù)關(guān)聯(lián)、聯(lián)合概率數(shù)據(jù)關(guān)聯(lián)、多假設(shè)追蹤等。由于這些方法采用的關(guān)聯(lián)指標為馬氏距離與歐氏距離,關(guān)聯(lián)區(qū)域為不同傳感器探測范圍的重疊區(qū)域,所以存在探測范圍較小、易丟失非重疊區(qū)域的信息、在多目標情況下匹配不準確、后續(xù)跟蹤不穩(wěn)定等問題。此外,多源異構(gòu)傳感器采集的數(shù)據(jù)在時間和空間上并不完全一致,因此數(shù)據(jù)融合前需進行空間同步。由于不同傳感器的測量精度不同,給后期的數(shù)據(jù)關(guān)聯(lián)和融合帶來較大難度。
(2)多目標跟蹤針對傳感器會存在數(shù)據(jù)丟失引起某一目標物下一幀缺少關(guān)聯(lián)值的問題,現(xiàn)有的目標跟蹤方法通常采用目標估測值的閾值進行跟蹤,通過考察在設(shè)定的周期內(nèi)有無觀測值來判斷目標物是否丟失或消失。如果周期內(nèi)均無觀測值,則認為目標物消失。但是該方法并未有效解決跟蹤不穩(wěn)定的問題。
(3)目標級數(shù)據(jù)融合算法對不同類型的傳感器系統(tǒng)檢測到的目標通過融合算法獲得被感知目標物更精確的信息。常用的方法為基于隨機統(tǒng)計的方法,主要包括加權(quán)平均法、卡爾曼濾波法、貝葉斯估計法、DS證據(jù)推理法等。由于不同傳感器的測量特性存在差別,所以需要考慮不同傳感器的誤差進行數(shù)據(jù)融合,劉衛(wèi)東等等為得到位置誤差更小的、更加精確可靠的、融合性能更優(yōu)的信息,利用凸組合融合算法和Bar-Shalom-Campo融合算法對目標航跡進行融合估計,并利用這3種方法對設(shè)定目標的運動情況進行仿真估計,從而給出仿真結(jié)果。
然而,目前大多數(shù)傳感器數(shù)據(jù)融合為毫米波雷達與視覺傳感器的數(shù)據(jù)融合,它僅基于毫米波雷達檢測到的目標物在視覺傳感器生成的圖像中設(shè)定感知區(qū)域,然后通過視覺方法對該區(qū)域繼續(xù)檢測。盡管該方法在一定程度上提高了雷達的檢測準確率和視覺檢測的運算效率,但未加強兩種傳感器的信息互補,所以融合效果不佳,感知準確度有待提升。ZHANG Bingli等針對這一問題提出了一種基于YOLO v2和分層聚類的融合方法,但在隧道或車輛密集處等復雜場景中仍會出現(xiàn)一定程度的誤差。同時,該算法的驗證僅局限于照片檢測,并未開展實車試驗。
因此,針對現(xiàn)有方法存在的探測范圍較小,易丟失非重疊信息,并且在多目標情況下匹配不準確,會導致后續(xù)跟蹤不穩(wěn)以及融合效果不佳等問題,本文基于歐氏距離與余弦相似度的點跡和航跡的數(shù)據(jù)關(guān)聯(lián)提出了多源異構(gòu)的目標融合方法,充分考慮不同傳感器的優(yōu)缺點并進行優(yōu)勢互補,大大減小了計算量并提高了跟蹤效果,使用狀態(tài)更新方程對不同傳感器測量值進行融合,并最終通過在實車環(huán)境中利用毫米波雷達和視覺傳感器進行試驗,驗證了算法的準確性。
基于最小鄰近點跡和航跡的多源異構(gòu)目標融合方法采用的多源異構(gòu)數(shù)據(jù)來源于Mobileye視覺傳感器和毫米波雷達感知的目標數(shù)據(jù),通過最小臨近實現(xiàn)點跡和航跡的正確關(guān)聯(lián)。其中,Mobileye視覺傳感器主要用來識別車道線、信號燈、車輛和行人等,并測量目標物的位置和速度;毫米波雷達用于識別障礙物并得到精確的位置和速度測量值。Mobileye視覺傳感器的優(yōu)點為目標物類別識別準確且橫向測距精度高,相比于Mobileye視覺傳感器,毫米波雷達的縱向測距和測速更準確。因此,該方法利用多源數(shù)據(jù)的各自優(yōu)勢進行融合互補,開發(fā)Mobileye視覺傳感器和前向毫米波雷達的目標級數(shù)據(jù)融合算法,主要技術(shù)流程如下:
(1)數(shù)據(jù)解析:Mobileye視覺傳感器和毫米波雷達數(shù)據(jù)解析。
(2)坐標統(tǒng)一及目標篩選:Mobileye視覺傳感器和毫米波雷達坐標統(tǒng)一,并進行目標物的篩選。
(3)目標物初始化:初始化目標物狀態(tài)信息。
(4)數(shù)據(jù)關(guān)聯(lián):使用空間相似度指標(歐式距離、余弦相似度、航跡信息)對兩個傳感器檢測的目標物運動狀態(tài)信息進行關(guān)聯(lián)。
(5)目標物管理及跟蹤:目標物的生命周期管理,確定有效目標物,對于匹配的測量值小于設(shè)定的幀數(shù)的目標物認為是虛假目標,進行剔除。
(6)數(shù)據(jù)融合:考慮不同傳感器的測量特性進行視覺和雷達系統(tǒng)輸出信號融合。
(7)融合結(jié)果:在確定目標物狀態(tài)的基礎(chǔ)上,再根據(jù)攝像頭給出的分類信息來確定目標物種類。
多源異構(gòu)目標融合方法流程,如圖1所示。
圖1 多源異構(gòu)目標融合方法流程
如圖2所示,由于在車體坐標系中,向前、向左、向上,而在激光雷達坐標系中,指向輸出電纜的相反方向,向左、向上,不同的傳感器坐標系在時間同步和空間坐標不能完全統(tǒng)一,所以會對多傳感器數(shù)據(jù)標定造成困難。
圖2 不同傳感器間的坐標變換
因此,在數(shù)據(jù)解析階段對Mobileye視覺傳感器和毫米波雷達的坐標進行統(tǒng)一。坐標統(tǒng)一步驟如下:
(1)在目標點云中取出點集。
(2)從原始點云中取出點集對應(yīng)的點集。
(3)求出到的變換矩陣。
(4)對原始點云應(yīng)用變換矩陣得到新的點集。
(5)計算出和點集中對應(yīng)點的平均距離ˉ。
(6)判斷平均距離ˉ是否小于閾值或迭代次數(shù)是否大于設(shè)定值NUM,若兩個條件任滿足其一,則輸出坐標統(tǒng)一結(jié)果,迭代結(jié)束;否則返回(2)重新迭代。
其中,到坐標變換矩陣的一般形式為:
數(shù)據(jù)關(guān)聯(lián)是目標跟蹤,尤其是雜波環(huán)境下多目標跟蹤的重要環(huán)節(jié)。點跡關(guān)聯(lián)和航跡關(guān)聯(lián)是目前常見的數(shù)據(jù)關(guān)聯(lián)方法。這兩種方法均可對兩個傳感系統(tǒng)的目標物數(shù)據(jù)列表中對應(yīng)同一個目標物的數(shù)據(jù)進行關(guān)聯(lián)。當僅使用點跡關(guān)聯(lián)方法可對目標物進行快速地關(guān)聯(lián)和匹配,而目標物又距離較遠時,會存在較大的誤差。如果結(jié)合使用航跡關(guān)聯(lián)方法,則可較好地彌補點跡關(guān)聯(lián)的不足。因此,本文提出了點跡關(guān)聯(lián)與航跡關(guān)聯(lián)相結(jié)合的關(guān)聯(lián)方法,可同時對距離較遠和距離較近的目標物實現(xiàn)準確有效的關(guān)聯(lián)匹配。
本方法包含點跡關(guān)聯(lián)和航跡關(guān)聯(lián),在進行目標物關(guān)聯(lián)之前,需將Mobileye視覺傳感器和毫米波雷達的坐標統(tǒng)一,并對目標物進行篩選和初始化,如圖3所示,其具體步驟為:
圖3 數(shù)據(jù)關(guān)聯(lián)算法流程
(1)判斷目標物是否為首次出現(xiàn)在傳感系統(tǒng)的探測范圍內(nèi)。如果是,則執(zhí)行(2),否則執(zhí)行(3)。
(2)根據(jù)兩個傳感系統(tǒng)輸出的目標物的點跡位置數(shù)據(jù),計算目標物之間的最小臨近參數(shù)(歐式距離和余弦相似度),并構(gòu)建數(shù)據(jù)關(guān)聯(lián)矩陣,再根據(jù)關(guān)聯(lián)矩陣和預設(shè)閾值對兩個傳感系統(tǒng)輸出的目標物數(shù)據(jù)進行關(guān)聯(lián),輸出目標物關(guān)聯(lián)結(jié)果。
(3)判斷目標物航跡信息是否可以使用。如果是則執(zhí)行(4),否則執(zhí)行(2)。(4)根據(jù)前后幀的目標物的航跡信息,確定關(guān)聯(lián)目標物,輸出目標物關(guān)聯(lián)結(jié)果。
在(2)中,構(gòu)建關(guān)聯(lián)矩陣使用的方法為點跡關(guān)聯(lián),涉及的最小臨近參數(shù)為歐氏距離與余弦相似度,在構(gòu)建時需計算兩個目標物之間的最小歐式距離和最大余弦相似度,具體計算方法如下:
假設(shè)Mobileye視覺傳感器檢測到的目標為:
毫米波雷達檢測到的目標為:
根據(jù)點跡最小臨近距離和最大余弦相似度,對與進行點跡關(guān)聯(lián),其關(guān)聯(lián)函數(shù)可表述為:
式中:為融合最小臨近歐氏距離與最大余弦相似度的點跡關(guān)聯(lián)結(jié)果。
為最小臨近距離關(guān)聯(lián)函數(shù),其表達式為:
式中:D為與的歐式距離。
為點跡余弦相似度關(guān)聯(lián)函數(shù),其表達式為:
式中:θ為與的夾角。
在(4)中使用的方法為航跡關(guān)聯(lián)方法,使用的航跡信息包括目標物ID和生命周期狀態(tài)。Mobileye視覺傳感器和雷達均對各自探測的目標進行了跟蹤,并在系統(tǒng)中賦予對應(yīng)的ID,在對前后幀數(shù)據(jù)進行關(guān)聯(lián)時,使用跟蹤的ID及目標物生命周期情況進行匹配可增加融合結(jié)果跟蹤的穩(wěn)定性,并減小計算量。在目標物剛進入兩個傳感系統(tǒng)的探測范圍中時,可以先使用點跡關(guān)聯(lián)確定關(guān)聯(lián)矩陣,關(guān)聯(lián)完成后,后續(xù)的周期中可以使用航跡進行關(guān)聯(lián),省去計算關(guān)聯(lián)矩陣的計算消耗。
目標物跟蹤步驟主要是用于形成對目標物的生命周期管理,方便對目標物有效性進行評價,及時剔除失效的或虛假的目標,提高檢測的可靠性和有效性。目標物跟蹤步驟包括:
(1)對目標物數(shù)據(jù)應(yīng)用卡爾曼濾波,形成下一時刻的預測狀態(tài)值和與狀態(tài)值對應(yīng)的預測協(xié)方差:卡爾曼濾波算法主要是根據(jù)當前的相對運動狀態(tài),預測下一周期目標物的可行區(qū)域,并根據(jù)實際目標物信息進行修正,從而實現(xiàn)前后數(shù)據(jù)的連續(xù)跟蹤。本文中采用的卡爾曼濾波器的計算過程,如圖4所示。
圖4 卡爾曼濾波器的計算過程
(2)對當前時刻的各個目標物數(shù)據(jù)與上個時刻的目標物數(shù)據(jù)進行關(guān)聯(lián)匹配得到匹配結(jié)果,匹配結(jié)果包括完全匹配的目標物數(shù)據(jù)、新目標物數(shù)據(jù)以及當前時刻不存在目標物數(shù)據(jù)。
(3)對完全匹配的目標物數(shù)據(jù)則使用當前時刻的目標物數(shù)據(jù)對(1)中的預測結(jié)果進行修正和更新,得到目標新的狀態(tài)值,并賦予同一ID。
對當前時刻不存在目標物數(shù)據(jù)的目標物,即(2)的檢測結(jié)果為當前時刻不存在目標物數(shù)據(jù)時,會記錄對應(yīng)目標物連續(xù)未出現(xiàn)幀數(shù),當連續(xù)未出現(xiàn)幀數(shù)大于幀數(shù)閾值時,則判定目標物消失;幀數(shù)閾值根據(jù)目標物的連續(xù)存在時長以及目標物位置數(shù)據(jù)進行調(diào)整;目標物已存在的時間越長,幀數(shù)閾值越大,目標物已經(jīng)存在時間越短,幀數(shù)閾值越小,如果目標物位于目標區(qū)域以內(nèi),則增大幀數(shù)閾值,如果目標物位于目標區(qū)域以外,則減小幀數(shù)閾值。在實際情況下由于傳感器誤差等原因,可能會出現(xiàn)目標物短暫消失或目標物是由誤差造成的等情況,所以設(shè)置幀數(shù)閾值可以避免錯誤地將目標物移除,目標物已存在的時間越長,則目標物是由誤差造成的可能性就越小,因此為其預留更長的幀數(shù)閾值;相反,目標物存在的時間越短,則其是由誤差造成的可能性就越大,因此為其預留的幀數(shù)閾值更小,如果目標物出現(xiàn)在目標區(qū)域內(nèi),如正前方或與傳感系統(tǒng)距離非常近,則代表對當前系統(tǒng)可能有一定的威脅,應(yīng)當重點關(guān)注,幀數(shù)閾值應(yīng)適當調(diào)大。
目標物跟蹤步驟中,如果一個目標物僅在一個傳感系統(tǒng)中有對應(yīng)的目標物數(shù)據(jù),則由對應(yīng)的傳感系統(tǒng)對其進行持續(xù)跟蹤,當目標物進入兩個傳感系統(tǒng)共同的探測范圍內(nèi)時,直接進行目標物數(shù)據(jù)融合。如果某一個傳感系統(tǒng)先檢測到目標物后,目標物離開第1個傳感系統(tǒng)進入第2個傳感系統(tǒng)的檢測范圍,那么會把第1個傳感器記錄的數(shù)據(jù)刪除掉,不再與第2個傳感器感知的數(shù)據(jù)融合。
本文中,則是在只有1個傳感系統(tǒng)檢測到目標物時就進行跟蹤,當目標進入兩個傳感器共同的探測范圍時,進行融合,進而實現(xiàn)目標物的穩(wěn)定跟蹤,在此過程中,目標物對應(yīng)的系統(tǒng)ID不變,也不需要進行關(guān)聯(lián)匹配。提高處理速度,同時相比現(xiàn)有技術(shù)可以利用和保留更多的數(shù)據(jù)信息。
目標物的生命周期是對目標物從形成到消亡的整個過程進行描述。不同目標的生命周期值反映了該目標的有效性,從而為后續(xù)的傳感器信息融合提供依據(jù)。為描述目標生命周期,引入表1所示的參數(shù)。
表1 目標物周期管理參數(shù)
目標跟蹤算法流程,如圖5所示。
圖5 目標跟蹤管理流程
數(shù)據(jù)融合的本質(zhì)是通過融合算法整合來自多個傳感器的信息,擴展系統(tǒng)的時空覆蓋率,提高系統(tǒng)的精度、可靠性以及信息利用率。融合算法則是使用基于卡爾曼濾波的狀態(tài)更新方程進行融合。其步驟為根據(jù)上一時刻的融合結(jié)果預測當前時刻的預測狀態(tài)值及對應(yīng)的預測協(xié)方差矩陣,然后對兩個傳感系統(tǒng)的數(shù)據(jù)進行融合,融合公式如下:
式中:為預測狀態(tài)值;為預測協(xié)方差矩陣;和分別為對應(yīng)時刻的兩個傳感系統(tǒng)對同一目標物的觀測值;和為對應(yīng)的噪聲矩陣;X和P分別為融合后的狀態(tài)值和協(xié)方差矩陣。
X為目標物的狀態(tài)變量,本研究中目標物狀態(tài)變量為目標物與主車的速度和距離,即
其中,噪聲矩陣和滿足噪聲矩陣模型:
在預測過程中,通過調(diào)整噪聲矩陣中的參數(shù)來調(diào)節(jié)兩個傳感系統(tǒng)的觀測值對融合結(jié)果的影響程度。具體的目標物數(shù)據(jù)包括橫向信息、縱向信息、速度信息和類別信息。當融合得到目標物的橫向信息或類別信息時,通過調(diào)節(jié)噪聲矩陣增大Mobileye視覺傳感器的觀測值的影響程度;當融合得到目標物的縱向信息或速度信息時,通過調(diào)節(jié)噪聲矩陣增大毫米波雷達系統(tǒng)的觀測值的影響程度。
為驗證該方法準確值的有效性,本研究在實車上搭建數(shù)據(jù)采集平臺,對目標車和跟車兩種場景進行試驗,并分析試驗數(shù)據(jù)。此法是以高精度定位慣導系統(tǒng)為基準,對數(shù)據(jù)采集的精度進行分析,即根據(jù)高精度定位系統(tǒng)計算目標物的位置與運動狀態(tài),并與主車傳感器輸出數(shù)據(jù)進行對比以明確偏差。
通過選用6路大陸408 mm波雷達、1個Mobileye EQ2攝像頭、6路攝像頭、i-Tester數(shù)據(jù)采集設(shè)備以及組合慣導來搭建數(shù)據(jù)獲取平臺實車。
(1)毫米波雷達可以提供目標物類型、尺寸、精準的目標物位置與速度信息等,其位置測量精度可以達到分米級,速度測量精度達到0.1 km/h,且位置與速度信息為獨立測量,互不干擾。
(2)Mobileye視覺傳感器安裝于車輛前方,可以彌補毫米波雷達在目標物類別識別、標志牌識別和車道線識別方面的弱勢,提供更加豐富的場景信息。
(3)攝像頭安裝于車輛前方和左、右側(cè),提供各方向的視場信息,可以彌補Mobileye視覺傳感器無法提供視頻圖像的缺陷,為數(shù)據(jù)分析人員提供更加直觀的視頻數(shù)據(jù)。
(4)i-Tester用來采集自車的CAN總線數(shù)據(jù),以及儲存毫米波雷達和Mobileye視覺傳感器的目標物感知數(shù)據(jù)。
(5)差分全球定位系統(tǒng)(Differential Global Position System,DGPS)可以提供車輛實時經(jīng)緯度位置,方便進行車輛定位管理、行駛區(qū)域自動區(qū)分等操作,DGPS還可以作為多傳感器時間同步的基準。
由于毫米波雷達和視覺傳感器被廣泛應(yīng)用于自適應(yīng)巡航控制(Adaptive Cruise Control,ACC)系統(tǒng)、自動緊急制動(Autonomous Emergency Braking,AEB)系統(tǒng)、前方碰撞預警(Forward Collision Warning,F(xiàn)CW)系統(tǒng)中,所以這些系統(tǒng)主要對主車前方目標物進行識別,并根據(jù)識別結(jié)果觸發(fā)其功能。因此,本試驗設(shè)置了兩個具有代表性的場地工況與實際道路測試,通過這些案例來驗證目標級數(shù)據(jù)融合算法的精度、多源傳感器的橫向與縱向位置和速度。其中,兩個典型的場地測試場景分別為目標車靜止與跟車試驗。
2.2.1 目標車靜止
主車與目標車均靜止,測量不同車間距時的目標物測量精度,其中車間距分別取值7.5 m和125 m。目標車靜止如圖6所示。
圖6 目標車靜止
2.2.2 跟車條件
主車與目標車初始間距20 m、100 m,同時起步,主車速度增加至50 km/h以上,目標車穩(wěn)定至30 km/h,即保證目標車速度低于主車,兩車間距可以逐漸減小,主車駕駛員根據(jù)車間距變化逐步正常減速跟車,當跟車穩(wěn)定5 s后,目標車制動停車,主車跟隨停車。車間距動態(tài)增加,如圖7所示。
圖7 車間距動態(tài)增加
2.2.3 實際道路測試
實際道路測試,是在裝有本方案的測試車輛上、在高速公路上采集數(shù)據(jù),通過人工標注作為真值與本算法的處理結(jié)果來對比驗證本方案的準確性,定義入檢率、正檢率、誤檢率、漏檢率等指標,其計算公式為:
式中:為車輛總數(shù);為檢測到的車輛數(shù);為漏檢的車輛數(shù);為檢測到的正確的車輛數(shù);為檢測到的錯誤的車輛數(shù)。
本次試驗主要目的是驗證基于最小鄰近點跡和航跡數(shù)據(jù)關(guān)聯(lián)的多源異構(gòu)的目標融合方法的縱向位置和縱向速度精度,通過使用該方法在探測時間和空間兩個維度上融合Mobileye視覺傳感器和毫米波雷達目標數(shù)據(jù)并跟蹤目標。傳感器真值使用DGPS數(shù)據(jù)。數(shù)據(jù)分析采用均方根誤差(Root Mean Squared Error,RMSE)來評價傳感器誤差大小。融合結(jié)果在探測時間和空間范圍上為Mobileye視覺傳感器和毫米波雷達的并集,對于以下3種情況下的目標物都進行了數(shù)據(jù)采集與分析:單獨毫米波雷達檢測到的目標物、單獨Mobileye視覺傳感器檢測到的目標物、Mobileye視覺傳感器和毫米波雷達同時檢測到的目標物,并與DGPS真值數(shù)據(jù)進行對比。
2.3.1 靜止場景
遠距靜止場景下縱向測距的計算結(jié)果,毫米波雷達的RMSE為0.615 m,Mobileye視覺傳感器的RMSE為12.753 m,融合之后的RMSE為0.853 m,Mobileye視覺傳感器在遠距場景下的識別誤差大于毫米波雷達識別誤差。而對于縱向速度的檢測,毫米波雷達的RMSE為0.051 m/s,Mobileye視覺傳感器的RMSE為0.291 m/s,融合之后的RMSE為0.052 m/s。遠距靜止下各傳感器的RMSE見表1。遠距靜止下的位置與速度的誤差對比,如圖8所示。
表1 遠距靜止下各傳感器的RMSE
圖8 遠距靜止下的位置與速度的誤差對比
近距靜止場景下縱向測距的計算結(jié)果,毫米波雷達的RMSE為0.144 m,Mobileye視覺傳感器的RMSE為0.35 m,融合之后的RMSE為0.134 m,Mobileye視覺傳感器在遠距場景下的識別誤差大于毫米波雷達的識別誤差,融合的結(jié)果優(yōu)于兩個傳感器。而對于縱向速度的檢測,毫米波雷達的RMSE為0.046 m/s,Mobileye視覺傳感器的RMSE為0.049 m/s,融合之后的RMSE為0.47 m/s。根據(jù)誤差分析可知,融合結(jié)果的速度縱向位置精度更加接近毫米波雷達的探測結(jié)果,橫向位置的精度更加考慮Mobileye視覺傳感器的識別結(jié)果,而匹配上的類型均使用Mobileye視覺傳感器的識別結(jié)果,用毫米波雷達的測距測速性能彌補了Mobileye視覺傳感器的短板,根據(jù)不同傳感器的測量特性來調(diào)整誤差矩陣,實現(xiàn)上述優(yōu)化結(jié)果。近距靜止下各傳感器的RMSE,見表2。近距靜止場景下各傳感器位置與速度對比,如圖9所示。
圖9 近距靜止場景下各傳感器位置與速度對比
表2 近距靜止下各傳感器的RMSE
2.3.2 跟車場景
遠距跟車場景下縱向測距的計算結(jié)果,毫米波雷達的RMSE為0.96 m,Mobileye視覺傳感器的RMSE為2.37 m,融合之后的RMSE為0.87 m,融合后的結(jié)果優(yōu)于兩個傳感器的識別結(jié)果,Mobileye視覺傳感器在遠距場景下識別誤差遠大于毫米波雷達。而對于縱向速度的檢測,毫米波雷達的RMSE為0.54 m/s,Mobileye視覺傳感器的RMSE為0.76 m/s,融合之后的RMSE為0.60 m/s,毫米波雷達在測速方面更有優(yōu)勢。遠距跟車場景下各傳感器的RMSE,見表3。遠距跟車下的位置與速度的誤差對比,如圖10所示。
圖10 遠距跟車下的位置與速度的誤差對比
表3 遠距跟車場景下各傳感器的RMSE
近距跟車場景下縱向測距的計算結(jié)果,毫米波雷達的RMSE為0.28 m,Mobileye視覺傳感器的RMSE為0.21 m,融合之后的RMSE為0.23 m,Mobileye視覺傳感器在遠距場景下識別誤差小于毫米波雷達,融合的結(jié)果介于兩者之間。而對于縱向速度的檢測,毫米波雷達的RMSE為0.14 m/s,Mobileye視覺傳感器的RMSE為0.21 m/s,融合之后的RMSE為0.13 m/s,融合的結(jié)果優(yōu)于兩個傳感器。近距跟車場景下各傳感器的RMSE,見表4。近距跟車場景下位置與速度對比,如圖11所示。
表4 近距跟車場景下各傳感器的RMSE
圖11 近距跟車場景下位置與速度對比
2.3.3 實際道路測試
實際道路測試,是在高速公路上采集數(shù)據(jù),通過人工標注作為真值與本算法的處理結(jié)果來對比驗證其準確率。根據(jù)式(9),對實際道路測試中傳感器的檢測數(shù)據(jù)分析計算出其入檢率、正檢率、誤檢率與漏檢率并與ZHANG Bingli等的試驗結(jié)果進行對比,分析結(jié)果見表5。由此可知,相比于單一傳感器,本文基于最小臨近點跡和航跡關(guān)聯(lián)的多源目標融合方法成功融合了毫米波雷達與Mobileye的優(yōu)勢,在降低了漏檢率的同時提高了檢測準確率。實際道路測試中傳感器的檢測結(jié)果對比,見表5。
表5 實際道路測試中傳感器的檢測結(jié)果對比
2.3.4 試驗結(jié)論
根據(jù)誤差分析可知,融合結(jié)果的速度縱向位置精度更加接近毫米波雷達探測結(jié)果,橫向位置的精度更加考慮Mobileye視覺傳感器的識別結(jié)果,而匹配上的類型均使用Mobileye視覺傳感器的識別結(jié)果,用毫米波雷達的測距測速性能彌補了Mobileye視覺傳感器的短板,根據(jù)不同傳感器的測量特性來調(diào)整誤差矩陣,實現(xiàn)上述優(yōu)化結(jié)果。同時,利用狀態(tài)更新方程融合多傳感器匹配目標的數(shù)據(jù)可以調(diào)整噪聲矩陣參數(shù),實現(xiàn)多傳感器互補的優(yōu)勢。最終的融合結(jié)果優(yōu)于單個傳感器。因此,通過毫米波雷達與Mobileye視覺傳感器的多源異構(gòu)的目標融合方法進行環(huán)繞視野感知可以獲得更準確的環(huán)境信息,不僅提高了準確率,還降低了漏檢率,從而實現(xiàn)更好的檢測效果。
本文探討了多源異構(gòu)傳感器數(shù)據(jù)融合問題,通過采用點跡和航跡相結(jié)合的數(shù)據(jù)關(guān)聯(lián)算法對多源傳感器的數(shù)據(jù)關(guān)聯(lián)算法進行改進,提高了匹配的精確度,減小了計算量,對不同區(qū)域的目標物設(shè)置不同的估計預測值的最大閾值,對于感興趣區(qū)域的目標物更加穩(wěn)定,使用狀態(tài)更新方程對多傳感器匹配的目標物進行數(shù)據(jù)融合,調(diào)整噪聲矩陣參數(shù),實現(xiàn)多傳感器的優(yōu)勢互補,融合結(jié)果優(yōu)于單一傳感器,體現(xiàn)了該融合算法的可行性和有效性。
本文研究的內(nèi)容為前向毫米波雷達和前向視覺的融合,而對于后向和側(cè)向區(qū)域的探測不足,未來考慮加入多個毫米波雷達和多線激光雷達進行環(huán)視感知,尤其是激光雷達的測距更精確,并且可以提供目標物三維信息,得到更精確的環(huán)境信息。