【摘要】為增強(qiáng)自動(dòng)駕駛車輛對(duì)動(dòng)態(tài)環(huán)境的理解能力及其道路行駛安全性,提出基于門控循環(huán)單元(GRU)和Transformer的車輛軌跡預(yù)測(cè)模型STGTF,使用GRU提取車輛的歷史軌跡特征,通過雙層多頭注意力(MHA)機(jī)制提取車輛的時(shí)空交互特征,生成預(yù)測(cè)軌跡。試驗(yàn)結(jié)果表明,預(yù)測(cè)結(jié)果的均方根誤差(RMSE)平均降低7.3%,STGTF在短期預(yù)測(cè)和長(zhǎng)期預(yù)測(cè)方面均有不同程度的提升,驗(yàn)證了模型的有效性。
主題詞:車輛軌跡預(yù)測(cè) 門控循環(huán)單元 Transformer 車輛交互 多頭注意力機(jī)制
中圖分類號(hào):TP399 " 文獻(xiàn)標(biāo)志碼:A " DOI: 10.19620/j.cnki.1000-3703.20230877
Vehicle Trajectory Prediction Method Based on GRU and Transformer
Wang Qingrong1, Tan Xiaoze1, Zhu Changfeng2, Li Yujie1
(1. Institute of Electronic and Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070; 2. Institute of Transportation, Lanzhou Jiaotong University, Lanzhou 730070)
【Abstract】In order to enhance the understanding of the dynamic environment of autonomous vehicles and to improve road driving safety, this article proposed a vehicle trajectory prediction STGTF model based on the Gated Recurrent Unit (GRU) and Transformer that used the GRU to extract the historical trajectory features of vehicles, and used a two-layer Multi-Headed Attention (MHA) mechanism to extract the spatio-temporal interaction features of vehicles, generating the predicted trajectories. The experimental results show that the Root-Mean-Square Error (RMSE) of the predicted results decrease by 7.3% on average, STGTF model has different degrees of improvement compared with other existing methods for both short-term prediction and long-term prediction, proving validity of this model.
Key words: Vehicle trajectory prediction, Gated Recurrent Unit (GRU), Transformer, Vehicle interaction, Multi-head attention mechanism
【引用格式】 王慶榮, 譚小澤, 朱昌鋒, 等. 基于門控循環(huán)單元和Transformer的車輛軌跡預(yù)測(cè)方法[J]. 汽車技術(shù), 2024(7): 1-8.
WANG Q R, TAN X Z, ZHU C F, et al. Vehicle Trajectory Prediction Method Based on GRU and Transformer[J]. Automobile Technology, 2024(7): 1-8.
1 前言
自動(dòng)駕駛系統(tǒng)中,車輛軌跡預(yù)測(cè)直接關(guān)聯(lián)車輛的決策與控制,是實(shí)現(xiàn)智能交通的核心技術(shù)之一。車輛行駛軌跡通常受周圍車輛影響[1],為確保自動(dòng)駕駛車輛能夠安全、有效地適應(yīng)環(huán)境變化,需實(shí)時(shí)了解臨近車輛的駕駛狀態(tài)和意圖[2]。因此,車輛軌跡預(yù)測(cè)對(duì)防止交通事故的發(fā)生、提升道路行駛的安全性具有重要意義。
傳統(tǒng)車輛軌跡預(yù)測(cè)方法主要依靠物理模型或機(jī)器學(xué)習(xí)方法,如運(yùn)動(dòng)學(xué)和動(dòng)力學(xué)模型、隱馬爾可夫模型和卡爾曼濾波等[3]。此類方法適用于駕駛意圖識(shí)別和短期的軌跡預(yù)測(cè),無法準(zhǔn)確理解復(fù)雜場(chǎng)景,導(dǎo)致長(zhǎng)期預(yù)測(cè)效果不佳[4]。隨著深度學(xué)習(xí)的發(fā)展,人工神經(jīng)網(wǎng)絡(luò)逐漸應(yīng)用于軌跡預(yù)測(cè)問題[5]。Deo等[6]提出車輛軌跡預(yù)測(cè)模型卷積社交長(zhǎng)短時(shí)記憶(Convolutional Social Long Short Term Memory,CS-LSTM)網(wǎng)絡(luò),使用卷積池化層代替社交長(zhǎng)短時(shí)記憶(Social Long Short Term Memory,S-LSTM)網(wǎng)絡(luò)[7]的池化層,以提取周圍車輛的交互信息進(jìn)行軌跡預(yù)測(cè)。李文禮等[8]在社交生成對(duì)抗網(wǎng)絡(luò)(Social Generative Adversarial Network,S-GAN)模型[9]的基礎(chǔ)上考慮車輛的行駛狀態(tài)參數(shù)和形狀尺寸,并建立車輛間交互影響力場(chǎng)模型,體現(xiàn)了車輛間的復(fù)雜空間交互影響特性。為加強(qiáng)車輛間交互關(guān)系,可通過引入注意力機(jī)制聚焦歷史軌跡數(shù)據(jù)中的關(guān)鍵信息,從而提取車輛間交互特征[10]。Messaoud等[11]提出基于長(zhǎng)短時(shí)記憶(Long Short Term Memory,LSTM)網(wǎng)絡(luò)的編、解碼器框架,并采用多頭注意力(Multi-Head Attention,MHA)機(jī)制強(qiáng)調(diào)相鄰車輛間的交互作用以提高軌跡預(yù)測(cè)的精度。Liu等[12]提出mmTransformer(Multimodal Motion Transformer)模型,使用多頭自注意機(jī)制捕捉相鄰車輛的交互特征,并采用基于區(qū)域的訓(xùn)練策略實(shí)現(xiàn)了多模態(tài)軌跡預(yù)測(cè),但此類方法僅關(guān)注交互車輛的空間相關(guān)性,忽略了交互的時(shí)間依賴性。
在動(dòng)態(tài)密集的駕駛環(huán)境中,車輛運(yùn)動(dòng)受到周圍車輛的交互作用通常隨著時(shí)間動(dòng)態(tài)變化。鑒于此,本文提出基于門控循環(huán)單元(Gated Recurrent Unit,GRU)和Transformer的車輛軌跡預(yù)測(cè)模型STGTF(Spatio-Temporal GRU-Transformer),利用GRU編碼歷史軌跡數(shù)據(jù)提取車輛的歷史軌跡特征,設(shè)計(jì)具有雙層多頭注意力機(jī)制的Transformer編碼器,同時(shí)捕獲車輛間的時(shí)空交互特征,使用Transformer解碼器生成預(yù)測(cè)軌跡。
2 軌跡預(yù)測(cè)模型
2.1 車輛軌跡預(yù)測(cè)模型
根據(jù)目標(biāo)車輛的歷史軌跡以及交通環(huán)境信息準(zhǔn)確預(yù)測(cè)目標(biāo)車輛未來一段時(shí)間的行駛軌跡[13]。以場(chǎng)景內(nèi)所有車輛在歷史時(shí)段Tp內(nèi)的軌跡序列P作為輸入:
[P=pT-Tp,…,pt,…,pTpt=p1t,…,pit,…,pntpit=xit,yit,vit,uit,cit] " " " " " " " " " " (1)
式中:T為當(dāng)前時(shí)刻;Tp為歷史時(shí)間;n為車輛總數(shù)量;pt為t時(shí)刻車輛的歷史特征;[pit]為t時(shí)刻車輛i的歷史特征,包括車輛i在t時(shí)刻的橫坐標(biāo)[xit]、縱坐標(biāo)[yit]、瞬時(shí)速度[vit]、瞬時(shí)加速度[uit]和車輛類型[cit]。
模型的輸出為場(chǎng)景內(nèi)所有車輛在未來時(shí)段Tf內(nèi)的軌跡序列F:
[F=fT+1,…, ft,…, fT+Tfft=f1t,…, fit,…, fntfit=xit,yit] " " " " " " " " " "(2)
式中:ft為t時(shí)刻車輛的預(yù)測(cè)特征;[fit]為t時(shí)刻車輛i的預(yù)測(cè)特征,包括目標(biāo)車輛的橫坐標(biāo)[xit]和縱坐標(biāo)[yit]。
在t時(shí)刻,以采集區(qū)域內(nèi)目標(biāo)車輛的前軸中心坐標(biāo)(x0,y0)為原點(diǎn),以行駛方向?yàn)閤軸、垂直方向?yàn)閥軸建立坐標(biāo)系,如圖1所示。假設(shè)周圍車輛使用局部坐標(biāo)(xn,yn),所在坐標(biāo)系的相對(duì)坐標(biāo)為[x′n,y′n],則有:
[x′n=xn-x0y′n=yn-y0] " " " nbsp; " " " " " " " " " " " " (3)
當(dāng)目標(biāo)車輛行駛方向的偏轉(zhuǎn)角為θ時(shí),周圍車輛的行駛方向不變,此時(shí)周圍車輛的相對(duì)坐標(biāo)為[xθn,yθn]:
[θ=arctanxt0-xt-10yt0-yt-10] " " " " " " " " " " " " " (4)
[xθn=x′ncosθ+y′nsinθyθn=-x′ncosθ+y′nsinθ] " " " " " " " " " " " "(5)
式中:[xt0,yt0]為t時(shí)刻車輛的前軸中心坐標(biāo)。
2.2 預(yù)測(cè)模型構(gòu)建
為實(shí)現(xiàn)車輛在復(fù)雜交通場(chǎng)景中軌跡的準(zhǔn)確預(yù)測(cè),本文提出基于GRU和改進(jìn)Transformer的時(shí)空交互注意網(wǎng)絡(luò)STGTF,如圖2所示。STGTF分為以下3個(gè)部分:
a. 軌跡特征提取模塊,通過GRU對(duì)輸入的車輛歷史軌跡序列P進(jìn)行編碼,提取歷史軌跡的時(shí)間序列特征。
b. 交互特征提取模塊,使用雙層多頭注意力機(jī)制的Transformer編碼器對(duì)編碼向量進(jìn)行注意力加權(quán),先獲取車輛之間的空間交互特征,再獲取空間交互特征序列的時(shí)間依賴關(guān)系,最終得到車輛的時(shí)空交互特征。
c. 軌跡解碼模塊,通過Transformer解碼器實(shí)現(xiàn)對(duì)時(shí)空交互特征的解碼,生成最終預(yù)測(cè)軌跡序列F。
3 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)
3.1 軌跡特征提取模塊
軌跡特征提取模塊首先通過多層感知機(jī)(Multi-Layer Perceptron,MLP)將車輛各時(shí)刻運(yùn)動(dòng)狀態(tài)轉(zhuǎn)換成嵌入表示:
et=fMLP(pt,We) " " " " " " " " " " " " " " " "(6)
式中:We為嵌入權(quán)重矩陣,fMLP為MLP層。
利用GRU對(duì)嵌入編碼并提取歷史軌跡特征,如圖3所示。其中:zt為t時(shí)刻更新門(Update Gate)的輸出,控制要被繼續(xù)傳遞到未來的信息量;rt為t時(shí)刻重置門(Reset Gate)的輸出,控制將要遺忘的信息量。
通過重置門對(duì)t時(shí)刻車輛的運(yùn)動(dòng)狀態(tài)et和上一時(shí)刻傳遞的隱藏狀態(tài)ht-1計(jì)算出需要被遺忘的信息量。同時(shí),使用更新門計(jì)算需要被傳遞的信息量,將重置門的輸出rt與上一時(shí)刻的隱藏狀態(tài)ht-1相乘并與et進(jìn)行映射,計(jì)算候選隱藏狀態(tài)。最后,將上述記憶內(nèi)容與當(dāng)前記憶內(nèi)容疊加進(jìn)行更新記憶,得到t時(shí)刻的隱藏狀態(tài):
[rt=σWr?[ht-1,et]+brzt=σWz?[ht-1,et]+bzht=tanhWh?[rt,ht-1,et]+bh] " " " " " " " " "(7)
[ht=zt×ht+(1-zt)×ht-1] " " " " " " " " " " " (8)
式中:σ為S型函數(shù)(Sigmoid函數(shù)),ht為t時(shí)刻的隱藏狀態(tài),[ht]為t時(shí)刻候選隱藏狀態(tài),tanh為激活函數(shù),Wr、Wz、Wh分別為重置門、更新門和候選隱藏單元的權(quán)重矩陣,br、bz、bh分別為重置門、更新門和候選隱藏單元的偏置向量。
對(duì)所有嵌入進(jìn)行處理,得到所有車輛的運(yùn)動(dòng)隱藏狀態(tài)后進(jìn)行信息編碼,作為車輛的歷史軌跡特征H={ht1,…,hti,…,htn}。
3.2 交互特征提取模塊
在歷史軌跡特征提取模塊中,各車輛均以獨(dú)立的GRU單元編碼,不考慮各車輛間交互關(guān)系。實(shí)際上,車輛的行駛軌跡受自身駕駛狀態(tài)影響的同時(shí),還會(huì)受到其他車輛駕駛行為交互作用的影響。由于不同車輛對(duì)目標(biāo)車輛的影響程度存在差異,為了考慮車輛交互作用的影響程度,使用Transformer編碼器的多頭注意力機(jī)制對(duì)車輛歷史軌跡的編碼信息建立各車輛間的聯(lián)系。
Transformer編碼器結(jié)構(gòu)如圖4所示,包含位置編碼(Positional Encoding,PE)、多頭注意力機(jī)制層、前饋網(wǎng)絡(luò)(Feed Forward Network,F(xiàn)FN)層、殘差連接和層歸一化(Residual Connection and Layer Normalization,Addamp;Norm)。車輛間交互作用存在空間性及時(shí)間依賴性,因此,本文將Transformer編碼器中的多頭注意力機(jī)制層設(shè)計(jì)成雙層多頭注意力機(jī)制。
首層MHA中,為獲取交互作用的空間性,在每個(gè)時(shí)間戳內(nèi)計(jì)算車輛之間交互作用程度,對(duì)各車輛與周圍車輛的歷史軌跡特征進(jìn)行相似度計(jì)算,通過加權(quán)求和得到周圍車輛的注意力權(quán)重。第二層MHA中,計(jì)算不同時(shí)間戳之間的注意力權(quán)重,使模型更多地關(guān)注上層中有強(qiáng)交互作用的時(shí)間戳內(nèi)的信息。
3.2.1 位置編碼
由于Transformer中不存在處理時(shí)序數(shù)據(jù)的循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)[14]結(jié)構(gòu),所以在輸入嵌入(Input Embedding)后增加位置編碼(Positional Encoding),以提供輸入的時(shí)序信息:
[PE(l,2i)=sin(l/10 0002i/dmodel)PE(l,2i+1)=cos(l/10 0002i/dmodel)] " " " " " " " " "(9)
式中:PE(l,2i)、PE(l,2i+1)分別為偶數(shù)位置和奇數(shù)位置的編碼,l為軌跡點(diǎn)在整條軌跡中的位置,i為對(duì)應(yīng)軌跡點(diǎn)向量的維度,dmodel為嵌入的總維度。
3.2.2 多頭注意力機(jī)制層
計(jì)算首層MHA中各車輛與其他車輛間在空間中交互作用的程度,注意力機(jī)制的原理如圖5所示。
首先,將車輛的歷史特征通過3個(gè)權(quán)重矩陣[Wq]、[Wk]、[Wv]分別映射得到對(duì)應(yīng)的查詢(Query)矩陣Q、鍵(Key)矩陣K和值(Value)矩陣V:
[Q=q1t,…,qit,…,qntK=k1t,…,kit,…,kntV=v1t,…,vit,…,vnt] " " " " " " " " (10)
[qit=Wq?hitkit=Wk?hitvit=Wv?hit] " " " " " " " " " " " " " (11)
式中:[qit]、[kit]、[vit]分別為t時(shí)刻車輛i的查詢向量、鍵向量和值向量。
通過計(jì)算車輛i的[qit]和車輛j的[kit]的點(diǎn)積得到車輛j對(duì)車輛i的注意力得分為[st(i,j)=qit?kit],并通過Softmax函數(shù)進(jìn)行歸一化處理,再將其與車輛j的[vit]相乘,對(duì)所有加權(quán)值求和,得到對(duì)應(yīng)的注意力權(quán)重:
[at,i=i=1nj=1nSoftmaxst(i,j)dkey?vjt] " " " " " " "(12)
式中:dkey為值向量的維度。
將多個(gè)原始特征向量Wa、Wk、Wv映射到不同空間,計(jì)算相似度。通過拼接(Concat)操作拼接各注意力權(quán)重,從而得到包含所有注意力頭的權(quán)重:
[At=fConcat(a1t,…,aht)?Wo] " " " " " " " " "(13)
式中:[fConcat]為拼接(Concat)函數(shù),At為h個(gè)注意力頭的權(quán)重,[aht]為第h個(gè)頭的注意力權(quán)重,Wo為線性轉(zhuǎn)換的權(quán)重矩陣,h為映射的空間的數(shù)量,即頭數(shù)。
車輛在各時(shí)間戳內(nèi)均需進(jìn)行計(jì)算,因此,車輛的空間交互特征序列[H=AT-Tp,…,AT]。將空間交互特征序列[H]作為第二層MHA的輸入,同理,車輛的時(shí)空交互特征序列[H]為:
[H={A1,…,Ai,…,An}Ai=fConcat(a1t,…,aht)?Woai,t=t=T-TpTt=T-TpTSoftmaxqt?ktdkey?vt] " " " " "(14)
3.3 軌跡解碼模塊
使用Transformer解碼器進(jìn)行解碼,包括掩碼多頭注意力(Masked Multi-Head Attention,MMHA)層、編碼器-解碼器注意力(Encoder-Decoder Attention,EDA)層、前饋網(wǎng)絡(luò)層、殘差連接和層歸一化。
MMHA是解碼器特有結(jié)構(gòu),為保證未來的信息不被提前解碼,需要對(duì)當(dāng)前時(shí)刻之后的信息進(jìn)行掩碼處理。EDA通過計(jì)算編碼器的輸出Key、Value和解碼器上一時(shí)刻的輸出Query之間的權(quán)重,使解碼器能夠?qū)⒆⒁饬杏趯?duì)當(dāng)前車輛交互影響更大的車輛。此外,編碼器或解碼器均由數(shù)量為N的相同的編碼層或解碼層堆疊而成。
解碼后,需對(duì)解碼器的輸出進(jìn)行全連接線性映射,并通過Softmax函數(shù)歸一化預(yù)測(cè)值,輸出軌跡的預(yù)測(cè)位置,獲得最終預(yù)測(cè)軌跡序列。
4 試驗(yàn)結(jié)果及分析
4.1 數(shù)據(jù)集
本文使用美國(guó)聯(lián)邦公路管理局采集的公開軌跡數(shù)據(jù)集NGSIM(Next Generation Simulation),由多個(gè)高架攝像機(jī)以10 Hz的采樣頻率記錄的真實(shí)高速公路駕駛場(chǎng)景組成。本文使用US 101和I-80兩個(gè)場(chǎng)景下的數(shù)據(jù),如圖6所示。每個(gè)數(shù)據(jù)集有45 min數(shù)據(jù),其中,稀疏、中等和稠密3種交通狀況各15 min,數(shù)據(jù)內(nèi)容包括車輛的坐標(biāo)、速度、加速度等。
4.2 參數(shù)設(shè)置
本文提出的模型在NVIDIA GeForce RTX 3090圖形處理器的試驗(yàn)環(huán)境下進(jìn)行,在PyTorch框架下使用Python語(yǔ)言完成。其中,GRU隱藏單元數(shù)為64,并使用tanh函數(shù)將輸出約束在[-1,1]范圍內(nèi)。MHA頭數(shù)為8,Transformer編解碼器設(shè)置為6層。采用自適應(yīng)矩估計(jì)(Adaptive Moment Estimation,Adam)優(yōu)化器[15],初始學(xué)習(xí)率設(shè)置為0.000 5。每次訓(xùn)練的樣本批量大小為32,模型迭代次數(shù)為400次。每個(gè)場(chǎng)景共有8 s的觀測(cè)數(shù)據(jù),以前3 s的數(shù)據(jù)作為歷史軌跡數(shù)據(jù),后5 s的數(shù)據(jù)作為需要預(yù)測(cè)的未來軌跡數(shù)據(jù),并以7∶1∶2的比例劃分為訓(xùn)練集、驗(yàn)證集與測(cè)試集。
在訓(xùn)練過程中,將最小平方誤差損失作為模型的損失函數(shù),即[lLoss=t=TT+Tfft-ft2]。其中,ft為模型預(yù)測(cè)的軌跡,[ft]為真實(shí)軌跡。
4.3 模型評(píng)價(jià)
模型評(píng)估采用的評(píng)價(jià)指標(biāo)為均方根誤差(Root Mean Square Error,RMSE),即在預(yù)測(cè)時(shí)間內(nèi)預(yù)測(cè)軌跡位置和真實(shí)軌跡位置的平均歐幾里得距離(Mean Euclidean Distance,MED)之間的差異,反映模型的平均預(yù)測(cè)性能。RMSE的值越小,表示模型的預(yù)測(cè)軌跡與真實(shí)軌跡之間的偏移越小,預(yù)測(cè)效果越好:
[eRMSE=1ni=1nxit-xit2+yit-yit2] " " " " " " " (15)
式中:[xit]、[yit]分別為t時(shí)刻軌跡預(yù)測(cè)位置的橫、縱坐標(biāo),[xit]、[yit]分別為t時(shí)刻軌跡真實(shí)位置的橫、縱坐標(biāo)。
4.4 試驗(yàn)結(jié)果
4.4.1 交互車輛選取范圍分析
為了驗(yàn)證臨近車輛與待預(yù)測(cè)車輛的交互作用范圍,選擇縱向距離前、后分別為0 m、50 m、100 m、150 m和橫向距離左、右分別為0 m、4 m、8 m進(jìn)行分析,試驗(yàn)結(jié)果如圖7所示。
由圖7a可知,當(dāng)周圍車輛與待預(yù)測(cè)目標(biāo)車輛的縱向距離為前、后100 m時(shí),模型可以取得優(yōu)于其他距離的結(jié)果。由圖7b可知,當(dāng)周圍車輛與待預(yù)測(cè)目標(biāo)車輛的橫向距離為左、右4 m時(shí),模型可以取得優(yōu)于其他距離的結(jié)果。以上結(jié)果說明,不考慮周圍車輛的交互影響或考慮過多周圍車輛的交互影響均會(huì)降低預(yù)測(cè)精度。
4.4.2 基準(zhǔn)模型對(duì)比試驗(yàn)
為了評(píng)估模型性能,將本文模型STGTF與基準(zhǔn)模型進(jìn)行比較,不同預(yù)測(cè)時(shí)域tp條件下的預(yù)測(cè)結(jié)果如表1和圖8所示。對(duì)比模型包括S-LSTM模型、S-GAN模型、CS-LSTM模型和規(guī)劃軌跡預(yù)測(cè)(Planning-informed trajectory Prediction,PiP)[16]模型。
由預(yù)測(cè)結(jié)果可知,本文模型STGTF的性能均優(yōu)于其他基準(zhǔn)模型,且在3~5 s內(nèi)的長(zhǎng)期預(yù)測(cè)中優(yōu)勢(shì)明顯。在1~2 s內(nèi)各模型預(yù)測(cè)性能相近源于短期預(yù)測(cè)更多受到車輛歷史軌跡和即時(shí)狀態(tài)的影響,比長(zhǎng)期預(yù)測(cè)更容易取得較好性能,交互作用的影響在長(zhǎng)期預(yù)測(cè)上表現(xiàn)更為明顯。S-LSTM雖然考慮了空間交互作用的影響,但與其他模型相比范圍較小,故預(yù)測(cè)結(jié)果較差。S-GAN使用生成式對(duì)抗網(wǎng)絡(luò),交互作用的范圍更大,使得預(yù)測(cè)效果有所提升。CS-LSTM使用了卷積池化層,相較于S-LSTM的最大池化層能夠更好地捕捉到車輛之間的交互,但預(yù)測(cè)精度仍略低于考慮自車運(yùn)動(dòng)趨勢(shì)的PiP模型。本文提出的STGTF同時(shí)考慮了交互的空間相關(guān)性和時(shí)間依賴性,使模型能夠更穩(wěn)健地對(duì)車輛之間的交互作用進(jìn)行建模,從而預(yù)測(cè)結(jié)果更佳。
4.4.3 消融實(shí)驗(yàn)
為進(jìn)一步驗(yàn)證本文模型各模塊的有效性,對(duì)STGTF模型進(jìn)行消融實(shí)驗(yàn),結(jié)果如表2和圖9所示。
消融實(shí)驗(yàn)結(jié)果顯示,從STGTF中去除不同部分后,得到的模型普遍存在不同程度的性能退化。其中,STTF(Spatio-Temporal Transformer)為去掉歷史軌跡特征提取模塊的模型,將歷史軌跡數(shù)據(jù)經(jīng)過一層全連接層直接輸入時(shí)空交互特征提取模塊,STGTF與之相比,RMSE降低約5.2%,說明提取車輛的歷史軌跡時(shí)間序列特征和運(yùn)動(dòng)狀態(tài)特征能夠提升模型的預(yù)測(cè)能力。TGTF(Temporal GRU-Transformer)為只考慮待預(yù)測(cè)車輛歷史軌跡而不考慮空間交互作用的模型,STGTF與之相比,RMSE降低約10.2%。結(jié)果表明,隨著預(yù)測(cè)時(shí)長(zhǎng)的增加,未考慮車輛交互的模型性能退化愈發(fā)明顯,說明車輛間交互作用影響車輛的軌跡預(yù)測(cè),在長(zhǎng)期預(yù)測(cè)問題中格外關(guān)鍵。SGTF(Spatial GRU-Transformer)只考慮交互作用的空間相關(guān)性而不考慮時(shí)間依賴性的模型,STGTF與之相比,RMSE降低約2.4%,說明考慮交互作用的時(shí)間依賴性是有必要的。綜上可知,本文模型各模塊對(duì)提升模型性能均有效。
4.4.4 可視化結(jié)果分析
對(duì)模型進(jìn)行定性分析,選擇具有代表性的2種場(chǎng)景,并對(duì)其預(yù)測(cè)結(jié)果進(jìn)行可視化,如圖10所示。
圖10a可知,本文模型比較準(zhǔn)確地預(yù)測(cè)出車輛直行時(shí)的未來軌跡,同時(shí),該場(chǎng)景下周圍車輛的換道行為,并未影響對(duì)目標(biāo)車輛軌跡的預(yù)測(cè),說明本文模型具有一定的抗干擾性。圖10b中,本文模型雖然在換道點(diǎn)附近的預(yù)測(cè)結(jié)果稍有偏差,但仍可準(zhǔn)確地預(yù)測(cè)車輛的行駛趨勢(shì)。
本文模型與對(duì)比模型在換道場(chǎng)景中的預(yù)測(cè)軌跡對(duì)比結(jié)果如圖11所示。在變道的復(fù)雜場(chǎng)景中,本文模型同樣能夠更準(zhǔn)確地預(yù)測(cè)未來軌跡,且更接近真實(shí)軌跡。
5 結(jié)束語(yǔ)
為提升自動(dòng)駕駛技術(shù)在復(fù)雜交通環(huán)境下的安全性,本文建立了基于GRU和Transformer的車輛軌跡預(yù)測(cè)方法STGTF,實(shí)現(xiàn)了對(duì)車輛未來行駛軌跡的預(yù)測(cè)。通過RMSE比較預(yù)測(cè)軌跡與真實(shí)軌跡之間的差異,驗(yàn)證了本文模型的性能及各組成部分的有效性。定量試驗(yàn)結(jié)果表明,本文模型與現(xiàn)有模型相比,在1~5 s內(nèi)的預(yù)測(cè)精度均有所提升,且提升效果隨時(shí)間增長(zhǎng)明顯。定性試驗(yàn)結(jié)果表明,本文模型能夠得到較為接近真實(shí)軌跡的預(yù)測(cè)結(jié)果。
未來,將考慮引入道路環(huán)境數(shù)據(jù)信息,使預(yù)測(cè)結(jié)果符合道路的幾何特征,增強(qiáng)預(yù)測(cè)結(jié)果的可靠性,進(jìn)一步提升自動(dòng)駕駛汽車路徑規(guī)劃的安全性。
參 考 文 獻(xiàn)
[1] HU L, ZHOU X Q, ZHANG X, et al. A Review on Key " " "Challenges in InIntelligent Vehicles: Safety and " Driver-Oriented Features[J]. IET Intelligent Transport Systems, 2021, 15(9): 1093-1105.
[2] LIU J B, MAO X Y, FANG Y Q, et al. A Survey on Deep-Learning Approaches for Vehicle Trajectory Prediction in Autonomous Driving[C]// 2021 IEEE International " " " " " " " " Conference on Robotics and Biomimetics (ROBIO). Sanya, China: IEEE, 2021: 978-985.
[3] LEFèVRE S, VASQUEZ D, LAUGIER C. A Survey on " " Motion Prediction and Risk Assessment for Intelligent " " " " " "Vehicles[J]. Robomech Journal, 2014, 1(1): 1-14.
[4] CHEN W H, WANG F F, SUN H B. "S2TNet: Spatio-Temporal Transformer Networks for Trajectory Prediction in " Autonomous Driving[C]// Asian Conference on Machine Learning. Online: PMLR, 2021: 454-469.
[5] 高振海, 鮑明喜, 高菲, 等. 智能駕駛系統(tǒng)對(duì)周邊交通車輛預(yù)期軌跡的單模態(tài)網(wǎng)絡(luò)預(yù)測(cè)方法[J]. 汽車技術(shù), 2022(11): 1-9.
GAO Z H, BAO M X, GAO F, et al. A Uni-Modal Network Prediction Method for Surrounding Vehicle Expected " " " " "Trajectory in Intelligent Driving System[J]. Automobile " " Technology, 2022(11): 1-9.
[6] DEO N, TRIVEDI M M. Convolutional Social Pooling for "Vehicle Trajectory Prediction[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City, UT, USA: IEEE, 2018: 1468-1476.
[7] ALAHI A, GOEL K, RAMANATHAN V, et al. Social LSTM: Human Trajectory Prediction in Crowded Spaces[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV, USA: IEEE, 2016: 961-971.
[8] 李文禮, 韓迪, 石曉輝, 等. 基于時(shí)-空注意力機(jī)制的車輛軌跡預(yù)測(cè)[J]. 中國(guó)公路學(xué)報(bào), 2023, 36(1): 226-239.
LI W L, HAN D, SHI X H, et al. Vehicle Trajectory " " " " " "Prediction Based on Spatial-Temporal Attention Mechanism[J]. China Journal of Highway and Transport, 2023, 36(1): 226-239.
[9] AGRIM G, JUSTIN J, LI F F, et al. Social GAN: Socially " " Acceptable Trajectories with Generative Adversarial " " " " Networks[C]// Proceedings of the IEEE Conference on " " " " "Computer Vision and Pattern Recognition. Salt Lake City, UT, USA: IEEE, 2018: 2255-2264.
[10] LI L, ZHAO W Z, WANG C Y, et al. BRAM-ED: Vehicle Trajectory Prediction Considering the Change of Driving Behavior[J]. IEEE/ASME Transactions on Mechatronics, 2022, 27(6): 5690-5700.
[11] MESSAOUD K, YAHIAOUI A, VERROUST-BLONDET A, et al. Attention Based Vehicle Trajectory Prediction[J]. IEEE Transactions on Intelligent Vehicles, 2021, 6(1): 175-185.
[12] LIU Y C, ZHANG J H, FANG L J, et al. Multimodal Motion Prediction with Stacked Transformers[C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Nashville, TN, USA: IEEE, 2021: 7573-7582.
[13] 趙樹恩, 蘇天彬, 趙東宇. 基于圖神經(jīng)網(wǎng)絡(luò)的交互車輛駕駛意圖識(shí)別及軌跡預(yù)測(cè)[J]. 汽車技術(shù), 2023(7): 24-30.
ZHAO S E, SU T B, ZHAO D Y. Interactive Vehicle " " " " Driving Intention Recognition and Trajectory Prediction Based on Graph Neural Network[J]. Automobile " " " " " Technology, 2023(7): 24-30.
[14] CHOI S, KIM J, YEO H. Attention-Based Recurrent " " " Neural Network for Urban Vehicle Trajectory Prediction[J]. Procedia Computer Science, 2019, 151: 327-334.
[15] ZHANG Z J. Improved Adam Optimizer for Deep Neural Networks[C]// 2018 IEEE/ACM 26th International " " " " " " Symposium on Quality of Service (IWQoS). Banff, AB, " " "Canada: IEEE, 2018: 1-2.
[16] SONG H R, DING W C, CHEN Y X, et al. PiP: Planning-Informed Trajectory Prediction for Autonomous Driving[C]// European Conference on Computer Vision. Glasgow, United Kingdom: Springer, Cham, 2020: 598-614.
(責(zé)任編輯 瑞 秋)
修改稿收到日期為2023年11月20日。