【摘" 要】隨著智能駕駛技術(shù)的快速發(fā)展,對(duì)智能駕駛功能的測(cè)試需求日益迫切。傳統(tǒng)基于真實(shí)道路的測(cè)試存在諸多限制,而硬件在環(huán)(HIL)仿真系統(tǒng)測(cè)試可以在受控環(huán)境下高效、安全地評(píng)估智能駕駛功能。文章提出一種基于HIL的智能駕駛功能測(cè)試系統(tǒng),包括車輛模型、環(huán)境模型、傳感器模型和仿真模型。基于Simulink以及dSPACE軟硬件環(huán)境設(shè)計(jì)典型輔助駕駛系統(tǒng)的多核仿真,對(duì)自動(dòng)駕駛和輔助駕駛功能進(jìn)行仿真測(cè)試和結(jié)果分析。研究表明,所提出的HIL測(cè)試系統(tǒng)能有效驗(yàn)證智能駕駛功能,為其在真實(shí)環(huán)境的應(yīng)用奠定基礎(chǔ)。
【關(guān)鍵詞】智能駕駛;硬件在環(huán)仿真;Simulink;dSPACE工具
中圖分類號(hào):U463.675" " 文獻(xiàn)標(biāo)識(shí)碼:A" " 文章編號(hào):1003-8639(2025)02-0001-05
Research on Intelligent Driving Technology Based on HIL Simulation System
ZHAN Denghui,SONG Zhenguang,WU Huiyan,QIAN Wenguo,HUANG Shen,LIANG Zhengfei
(GAC Automotive Research amp; Development Center,Guangzhou 510000,China)
【Abstract】With the rapid development of intelligent driving technology,it is increasingly urgent to test intelligent driving functions. While traditional vehicle testing has many limitations,hardware-in-the-loop(HIL)simulation system testing can efficiently and safely evaluate intelligent driving functions in a controlled environment. This paper presents an intelligent driving function test system based on HIL system,which includes vehicle model,environment model,sensor model and simulation model. This paper designs multi-core simulation model of typical driving assistance system based on Simulink and dSPACE software and hardware environment,and the simulation test and result analysis of automatic driving and driving assistance functions are carried out. The research shows that the proposed HIL test system can effectively verify the intelligent driving function and lay a foundation for its application in real environment.
【Key words】intelligent driving;HIL simulation;simulink;dSPACE tools
0" 引言
近年來,自動(dòng)駕駛和輔助駕駛系統(tǒng)等智能駕駛技術(shù)蓬勃發(fā)展,引領(lǐng)著未來出行方式的變革。智能駕駛系統(tǒng)集成了環(huán)境感知、決策規(guī)劃、執(zhí)行控制等多項(xiàng)關(guān)鍵功能,可顯著提高駕駛安全性和效率。但同時(shí),這些復(fù)雜系統(tǒng)的可靠性和健壯性亟需通過嚴(yán)格測(cè)試來保證。
傳統(tǒng)基于真實(shí)道路的測(cè)試存在場(chǎng)景單一、費(fèi)用高昂、安全隱患等諸多限制[1]。硬件在環(huán)HIL仿真技術(shù)通過在虛擬環(huán)境中與真實(shí)硬件對(duì)接,為智能駕駛系統(tǒng)提供了一種高效、可重復(fù)、可控的測(cè)試手段[2]。
目前,HIL仿真在汽車電子電器控制系統(tǒng)測(cè)試領(lǐng)域已有廣泛應(yīng)用[3]。在智能駕駛功能測(cè)試方面,諸多研究機(jī)構(gòu)也開展了相關(guān)工作。Koschi等[4]提出一種用于測(cè)試自動(dòng)駕駛功能的HIL仿真框架,集成了多個(gè)關(guān)鍵模塊。Zhou等[5]設(shè)計(jì)了一套基于HIL的智能駕駛仿真測(cè)試平臺(tái),用于評(píng)估自動(dòng)泊車和自動(dòng)巡航等功能。然而,現(xiàn)有研究大多針對(duì)特定功能模塊,缺乏一個(gè)通用的綜合測(cè)試框架。為此,本文提出一種面向智能駕駛?cè)δ軠y(cè)試的HIL仿真系統(tǒng)。
1" HIL仿真系統(tǒng)原理及應(yīng)用
HIL仿真系統(tǒng)是將真實(shí)硬件與虛擬模型相結(jié)合的一種混合仿真技術(shù)[6]。其核心是通過實(shí)時(shí)運(yùn)行在計(jì)算機(jī)上的虛擬環(huán)境模型,與被測(cè)硬件通過實(shí)時(shí)總線(如CANFD、CAN、車載以太網(wǎng)等)或接口實(shí)現(xiàn)雙向通信和對(duì)接。HIL仿真具有如下主要優(yōu)勢(shì)[7]。
1)提高測(cè)試效率:可在虛擬環(huán)境下快速構(gòu)建和重復(fù)多種工況。
2)保證測(cè)試安全:避免真實(shí)路況下的風(fēng)險(xiǎn)和損失。
3)降低測(cè)試成本:無需特殊測(cè)試場(chǎng)地和大量測(cè)試車輛。
4)提高測(cè)試覆蓋率:可模擬極端、罕見情況。
HIL仿真系統(tǒng)可用于測(cè)試和驗(yàn)證智能駕駛系統(tǒng)的諸多功能模塊。如對(duì)環(huán)境感知模塊(雷達(dá)、攝像頭等傳感器)的檢測(cè)和跟蹤性能進(jìn)行測(cè)試;對(duì)決策規(guī)劃模塊(行為決策、運(yùn)動(dòng)規(guī)劃等)面對(duì)各種復(fù)雜場(chǎng)景的響應(yīng)進(jìn)行評(píng)估;對(duì)車輛執(zhí)行系統(tǒng)(控制算法、執(zhí)行器等)的動(dòng)力學(xué)表現(xiàn)進(jìn)行驗(yàn)證。
與在真實(shí)道路環(huán)境中測(cè)試相比,HIL仿真測(cè)試具有如下顯著優(yōu)勢(shì):①安全性,不會(huì)對(duì)真實(shí)道路車輛和行人帶來安全隱患;②可重復(fù)性,同一測(cè)試場(chǎng)景可以被精確重復(fù)模擬;③便利性,不受場(chǎng)地、天氣等客觀條件限制;④高效性,自動(dòng)化腳本,大幅節(jié)省時(shí)間和人力成本;⑤全面性,可模擬極端、罕見的特殊情況;⑥靈活性,可自由編輯虛擬環(huán)境和交通流模型。
因此,HIL仿真已成為智能駕駛功能測(cè)試不可或缺的重要手段。
2" 測(cè)試系統(tǒng)設(shè)計(jì)
為全面評(píng)估車輛智能駕駛功能,需要構(gòu)建一個(gè)包含車輛模型、環(huán)境模型、傳感器模型和執(zhí)行器模型在內(nèi)的HIL仿真測(cè)試系統(tǒng)。本文設(shè)計(jì)的仿真系統(tǒng)整體架構(gòu)如圖1所示。設(shè)計(jì)11路攝像頭仿真、3路LiDAR仿真以及Radar/USS總線仿真。
本文聚焦的是實(shí)時(shí)系統(tǒng)中仿真模型的搭建與上位機(jī)(圖1中本地電腦)場(chǎng)景搭建以及ConfigurationDesk中配置工程的建立,最終實(shí)現(xiàn)仿真系統(tǒng)的運(yùn)行,具體如圖2所示。
2.1" 車輛模型
車輛模型是HIL仿真測(cè)試系統(tǒng)的核心,用于模擬真實(shí)車輛的運(yùn)動(dòng)學(xué)和動(dòng)力學(xué)行為。本文車輛運(yùn)動(dòng)學(xué)模型采用基于ASM幾何模型的運(yùn)動(dòng)學(xué)模型。該模型基于車輪運(yùn)動(dòng)學(xué)方程和車身運(yùn)動(dòng)學(xué)方程構(gòu)建,能夠精確描述車輛隨著時(shí)間變化的運(yùn)動(dòng)狀態(tài)。在閉環(huán)模型中動(dòng)力學(xué)模型各子模塊如圖3所示。
車輛動(dòng)力學(xué)模型基于dSpace公司的ASM動(dòng)力學(xué)模型,描述了車輛縱向、橫向和垂向的各項(xiàng)動(dòng)力學(xué)。該模型考慮了車輛質(zhì)量、慣量、空氣阻力等多種影響因素,能較為準(zhǔn)確地預(yù)測(cè)真實(shí)車輛在各種工況下的動(dòng)力學(xué)響應(yīng)。
2.2" 配置工程搭建
利用ConfigurationDesk軟件建立模型與被測(cè)ECU的映射,其中ECU引腳定義為輸入文檔,I/O function以及HW resource需要在ConfigurationDesk中創(chuàng)建,而Model port就是Simulink中模型的變量。邏輯映射關(guān)系如圖4所示。
本文因?yàn)樯婕暗蕉鄠鞲衅鞯姆抡?,所以設(shè)計(jì)了多核模型架構(gòu),包括組合慣導(dǎo)模塊、激光雷達(dá)模塊、CAN通信模塊以及ASM動(dòng)力學(xué)模塊。
2.3" 閉環(huán)模型搭建
本文設(shè)計(jì)4個(gè)模型,其中ASM動(dòng)力學(xué)模型只有CAN模塊以及Environment中配置傳感器信息;CAN模塊需要引入智駕域控的主控信號(hào)用于控制車輛,包括橫向、縱向轉(zhuǎn)角、油門踏板、制動(dòng)等信號(hào),如圖5所示。
CAN I/O模型主要負(fù)責(zé)域控與實(shí)時(shí)機(jī)總線的收發(fā),本文按照電氣架構(gòu)設(shè)計(jì)2路Public_CAN、7路雷達(dá)CAN,如圖6所示。
其中,雷達(dá)之間的時(shí)間同步以域控的SOC發(fā)出的時(shí)間戳為準(zhǔn)。
組合慣導(dǎo)模型主要將ASM模型中車輛姿態(tài)信息關(guān)聯(lián)到INU模型,然后通過INU仿真節(jié)點(diǎn)發(fā)送至域控,如圖7所示。
在INU模型中需要定義以太網(wǎng)數(shù)據(jù)包結(jié)構(gòu),配置IMU的零偏角以及初始加速度等信息。本文中Z向的初始加速度為9.8m/s2。
LiDAR模型主要完成端口定義、IP地址定義、PTP時(shí)間同步以及DIFOP數(shù)據(jù)結(jié)構(gòu)定義,模型架構(gòu)如圖8所示。
2.4" 仿真場(chǎng)景搭建
環(huán)境模型用于在虛擬世界中模擬智能駕駛車輛的真實(shí)工作場(chǎng)景,主要包括道路模型、駕駛員行為和交通流模型等。本文利用dSPACE公司的Model desk搭建道路模型以及定義駕駛員行為。本文使用的場(chǎng)景如圖9所示,場(chǎng)景主要是單向三車道,由直道和彎道構(gòu)成,彎道的曲率逐漸縮小,以檢驗(yàn)智駕系統(tǒng)的直道以及彎道居中表現(xiàn)。
其次是定義駕駛員行為以及社會(huì)車輛,如圖10所示,分別在自車前方200m、400m、800m定義社會(huì)車輛并以特定速度行駛,自車則以80km/h的初速度行駛,在沒有收到輔助駕駛功能激活指令之前跟隨場(chǎng)景定義的路徑行駛,收到激活指令之后則由智駕系統(tǒng)控制車輛行駛。
交通流模型生成各類靜態(tài)和動(dòng)態(tài)障礙物,包括車輛、行人、障礙物以及龍門架等,本文設(shè)計(jì)的系統(tǒng)主要聚焦于動(dòng)態(tài)障礙物。
2.5" 傳感器模型設(shè)置
傳感器模型對(duì)智能駕駛車輛的主要傳感器設(shè)備(如雷達(dá)、攝像頭、激光雷達(dá)等)進(jìn)行逼真仿真,以評(píng)估環(huán)境感知功能。
雷達(dá)模型考慮不同波長(zhǎng)下的反射、衰減等物理效應(yīng),模擬毫米波雷達(dá)在不同場(chǎng)景下的探測(cè)表現(xiàn)。與真實(shí)雷達(dá)相比,誤差在5%以內(nèi)[8]。
攝像頭模型融合了物理渲染和機(jī)器學(xué)習(xí)模型,能較好地模擬各種復(fù)雜光照和天氣情況下的攝像頭數(shù)據(jù)。渲染效果評(píng)估分達(dá)0.73[9]。
激光雷達(dá)模型基于光線追蹤算法,利用地物反射率、漫/透射等物理原理模擬激光在三維空間的傳播行為,能逼真重現(xiàn)激光雷達(dá)點(diǎn)云數(shù)據(jù)。在dSPACE MotionDesk中配置傳感器模型,傳感器包括泊車攝像頭、行車攝像頭以及LiDAR。攝像頭傳感器參數(shù)主要包括安裝位置以及外參,如圖11所示。
LiDAR傳感器主要包括安裝位置以及掃描陣列LiDAR_Middle.csv文件。LiDAR參數(shù)如圖12所示。
3" 仿真試驗(yàn)與結(jié)果分析
基于上述搭建場(chǎng)景對(duì)自動(dòng)駕駛和輔助駕駛功能進(jìn)行了仿真測(cè)試和試驗(yàn)分析。結(jié)果表明,基于本文設(shè)計(jì)的多核模型可以完整地實(shí)現(xiàn)對(duì)域控多傳感器輸入的仿真,行車系統(tǒng)融合效果如圖13所示,其中紅色為前視攝像頭感知線,可見視頻注入效果良好。
在該仿真系統(tǒng)中成功地調(diào)通了行車橫向、縱向控制中的撥桿變道以及自動(dòng)泊車功能,如圖14所示。
4" 總結(jié)與展望
本文提出了一種基于HIL仿真的智能駕駛功能測(cè)試系統(tǒng)。通過構(gòu)建車輛模型、環(huán)境模型、傳感器模型和執(zhí)行器模型,搭建了一個(gè)完整的虛擬測(cè)試環(huán)境。設(shè)計(jì)了多種傳感器模型并且成功實(shí)現(xiàn)了時(shí)間同步以達(dá)到準(zhǔn)確輸出融合目標(biāo)的效果。試驗(yàn)結(jié)果表明,該HIL測(cè)試系統(tǒng)能夠全面評(píng)估智能駕駛系統(tǒng)的各項(xiàng)功能,為智能駕駛技術(shù)在實(shí)際道路環(huán)境中的應(yīng)用打下基礎(chǔ)。
當(dāng)然,本研究也存在一些不足之處。例如傳感器位置安裝精度不高以及傳感器標(biāo)定結(jié)果與實(shí)車存在偏差;試用例的設(shè)計(jì)還可以更加貼近真實(shí)統(tǒng)計(jì)場(chǎng)景分布等。在未來的工作中,將持續(xù)優(yōu)化和完善HIL測(cè)試系統(tǒng),同時(shí)將其應(yīng)用于更多智能駕駛系統(tǒng)產(chǎn)品的測(cè)試驗(yàn)證中。
參考文獻(xiàn)
[1] Wachenfeld W,Winner H.The release of autonomous vehicles[C]//Autonomous Driving,2016.
[2] Zofka M R,Koh H J,Jithin K,et al. Automotive 3D Mapping[C]//International Conference on Computer Vision Systems,2015.
[3] Isermann R.Fault-diagnosis systems: an introduction from fault detection to fault tolerance[M].Berlin:Springer Science amp; Business Media,2006.
[4] M Koschi,C Pek,M Beikirch,et al.Set-based prediction of pedestrians in urban environments considering formalized traffic rules[C]//IEEE Int Conf on Intelligent Transportation,2018.
[5] Zhou F,Tan J,Lu B R,et al.Enhanced multi-sensor vehicle navigation system for intelligent vehicle applications[J].SAE International Journal of Passenger Cars-Electronic and Electrical Systems,2011,4(1):92-99.
[6] Isermann R,Schaffnit J,Sinsel S.Hardware-in-the-loop simulation for the design and testing of engine-control systems[J].Control Engineering Practice,1999,7(5):643-653.
[7] Chindamo D,Lazzari M,Kussmann B,et al. Development of a novel hardware-in-the-loop(HIL)test bench to support ISO 26262 automotive safety standard[C]//2013 XXIV International Conference on Information,Communication and Automation Technologies(ICAT),2013.
[8] Hirsenkorn N,Hanke T,Rauch A,et al. Virtual sensor models for real-time applications[J].Advances in Radio Science,2016,14(1):31-37.
[9] Mangharam R,Uijt De Haag M,Douthitt S,et al.Integrating realistic cameras for closed-loop control of autonomous cameras in an urban simulation[C]//2020 IEEE International Conference on Robotics and Automation(ICRA),2020.
(編輯" 楊凱麟)
收稿日期:2024-06-19