摘 要:針對因為忽略車輛運動狀態(tài)而導致的車輛預測軌跡不準確的問題,提出了一種基于運動狀態(tài)的軌跡預測模型Movement-DenseTNT。首先,對交通參與者的軌跡信息和地圖信息以圖神經網絡的方法進行編碼;其次,使用LSTM提取車輛的運動狀態(tài)信息;然后,將場景編碼信息與在可行駛區(qū)域內采樣得到的候選軌跡終點集合通過注意力機制的方式進行信息融合,從而得到每個候選軌跡終點的概率值;最后,通過篩選得到最終的軌跡終點并進行軌跡補全,以此得到準確的軌跡預測結果。該模型在兩個基準數據集上與九個基線模型進行了比較,實驗結果顯示,Movement-DenseTNT模型在四個常用評估指標上優(yōu)于基線模型,驗證了加入車輛運動信息可以有效提升車輛軌跡預測的精度。
關鍵詞:軌跡預測;運動狀態(tài);注意力機制;圖神經網絡
中圖分類號:TP273"" 文獻標志碼:A""" 文章編號:1001-3695(2025)04-015-1080-05
doi: 10.19734/j.issn.1001-3695.2024.09.0295
Trajectory prediction method based on motion state
Gu Yifan, Mo Lei
(School of Automation, Southeast University, Nanjing 210096, China)
Abstract:Aiming at the problem of inaccurate vehicle prediction trajectory caused by ignoring the vehicle motion state, this paper proposed a trajectory prediction model based on the motion state named Movement-DenseTNT. Firstly, the trajectory information and map information of traffic participants were encoded using the graph neural network method. Secondly, it used LSTM to extract the motion state information of the vehicle. Then, it fused the scene coding information with the set of candidate trajectory endpoints sampled in the drivable area through the attention mechanism, so as to obtain the probability value of each candidate trajectory endpoint. Finally, by filtering out the final trajectory endpoint and completing the trajectory, it obtained an accurate trajectory. The model was compared with nine baseline models on two benchmark datasets. The experimental results show that the Movement-DenseTNT model is superior to the baseline model in four commonly used metrics. It verifies that adding vehicle motion states can effectively improve the accuracy of vehicle trajectory prediction.
Key words:trajectory prediction; motion state; attention mechanism; graph neural network(GNN)
0 引言
近年來,自動駕駛技術在工業(yè)界和學術界引起了廣泛關注和研發(fā)熱潮[1]。自動駕駛系統利用車載傳感器感知道路環(huán)境,融合多種傳感器的信息[2],并根據融合得到的信息規(guī)劃車輛路徑,控制車輛的轉向和速度,確保車輛能夠安全地到達目的地[3]。軌跡預測作為自動駕駛算法的一個重要組成部分,利用感知到的信息來預測周圍環(huán)境的演變,預測其他交通參與者在未來一段時間內的軌跡和行駛意圖[4],從而使自動駕駛車輛能夠更舒適、更安全地行駛[5]。
傳統的軌跡預測方法主要通過建模車輛的運動狀態(tài)來獲取車輛的狀態(tài)信息,常用的模型包括高斯混合模型和卡爾曼濾波。高斯混合模型通過將多個不同參數的高斯概率密度函數進行線性組合,可以準確地量化數據[6]??柭鼮V波則通過狀態(tài)反饋對無法直接觀測的變量進行估計,以實現最優(yōu)估計過程,同時也可以將其看作是濾波的過程[7]。然而,傳統的軌跡預測方法存在一些局限性。首先,這些方法只能捕捉簡單的交互特征和交通參與者自身的狀態(tài),難以完全學習復雜軌跡的結構特征和運動目標之間的交互特征。其次,傳統方法只關注距離較近的目標之間的建模,很難考慮到較遠距離目標之間的交互行為[8]。近年來,深度學習在軌跡預測領域發(fā)展迅猛,并且基于數據驅動的深度學習方法越來越受到關注。循環(huán)神經網絡、卷積神經網絡、注意力機制、圖神經網絡和生成對抗網絡等在軌跡預測中得到廣泛應用[9],有效地解決了傳統方法無法建模復雜場景和融合交通參與者互動信息的問題[10]。例如,Ye等人[11]提出了一種圖自注意力網絡,可以快速測量車輛干預的影響。該網絡每次構建一個加權圖,并將其反饋到空間自注意力模塊中,從而嵌入自車與鄰近車輛的交互信息。HiVT方法[12]只編碼待預測車輛周圍一小塊區(qū)域的場景信息,并將不同待預測車輛周圍編碼的場景信息進行交互,從而使得場景編碼具有平移不變性。QCNet方法[13]將軌跡預測任務作為流式任務來處理,使得每次只對當前時刻的場景進行編碼,并復用之前時刻的編碼信息,多車場景編碼時,可以降低場景編碼的計算量。ADAPT方法[14]提出一種通過動態(tài)權重學習來適應每輛待預測車輛的方案,通過模型來學習一個變換到每一輛待預測車輛坐標系下的變換矩陣。BiFF方法[15]提出了通過兩級融合機制來獲取待預測車輛未來軌跡的交互,融合高級未來意圖和低級未來行為,并且設計了基于折線的坐標系來表達軌跡。MTR++方法[16]提出一個對稱的場景上下文建模模塊,采用共享的上下文編碼器對所有待預測車輛進行場景編碼,同時提出了一個相互引導的意圖查詢模塊,用于對多輛待預測車輛未來意圖實現交互。GameFormer方法[17]通過層次博弈論來表述交互預測問題,并應用基于Transformer的編碼器和解碼器來有效模擬場景元素及迭代地完善交互過程。HPNet方法[18]提出了一種動態(tài)軌跡預測的方法,通過結合歷史幀和歷史預測結果來提高預測的穩(wěn)定性和準確性,并引入歷史預測注意力模塊,以編碼連續(xù)預測之間的動態(tài)關系。上述這些方法,很好地將深度學習中的相關技術,如圖神經網絡、注意力機制、Transformer等應用在了軌跡預測的場景編碼、信息融合、預測軌跡生成等具體任務中,有效解決了傳統方法無法對復雜場景進行建模和對多個交通參與者進行信息融合的問題。整體而言,上述方法在編碼部分,仍較少考慮到對車輛運動狀態(tài)信息的提取,使得部分對于軌跡預測的信息有所缺失。
由于人類行為固有的隨機性,車輛未來的軌跡通常包含多種模式,例如在路口場景中,車輛直行、轉彎或變道的概率各不相同。為了解決軌跡預測中的不確定性,基于目標點的深度學習方法取得了良好效果?;谀繕它c的軌跡預測方法首先對道路和交通參與者進行編碼,然后在地圖上預測多個未來軌跡終點,以表示未來軌跡的多種可能性,最后通過預測的終點來補全軌跡。這種方法不僅提高了軌跡預測的可解釋性,還增加了預測的準確率。例如,HOME方法[19]利用卷積神經網絡和注意力機制對地圖和車輛進行編碼,并生成包含軌跡終點概率的熱力圖。通過對熱力圖進行采樣,可以找到未來的軌跡終點并將軌跡補充完整。MultiPath方法[20]從輸入整幀的大圖中提取特征,之后針對每一個待預測的車輛,剪切下來一個特征小圖,然后基于該特征小圖的特征,預測每個錨軌跡的概率和預測點的高斯分布。TNT方法[21]通過基于場景采樣候選點,并給予偏置,給出一組可能的目標點。然后選擇其中的一部分目標點,預測一段軌跡,再對軌跡進行評分和篩選。DenseTNT方法[22]將軌跡和道路向量化,并使用圖神經網絡對其進行編碼。通過注意力機制將場景的編碼信息融入至地圖上密集采樣的候選點中,以獲取候選軌跡終點的概率。然后從中篩選出較高概率的軌跡終點,補充完整軌跡。然而,上述基于目標點的軌跡預測方法在編碼階段都忽略了車輛運動狀態(tài)的信息,而忽略這些信息將導致預測的軌跡不準確。例如,一輛高速行駛的車輛所需的轉彎半徑將大于一輛低速行駛車輛所需的轉彎半徑,因為車輛的運動狀態(tài)會對未來軌跡產生影響。
Ghoul等人[23]試圖將車輛運動狀態(tài)考慮到軌跡預測中,他們通過基于運動狀態(tài)的徑向網格和運動學方程對未來的軌跡點進行采樣,然后將采樣點與車輛歷史軌跡編碼后的信息使用多頭注意力機制進行融合,以完成預測。然而,在編碼階段,他們沒有考慮地圖信息,這導致了道路信息的丟失,從而影響了未來軌跡預測的準確性。LaneRCNN方法[24]試圖通過構建LaneRol算子來編碼交通參與者的軌跡和周圍地圖的信息,并最終形成一個全局圖來聚合不同交通參與者之間的信息。但是通過LaneRol算子來處理軌跡信息仍舊無法有效提取待預測車輛歷史軌跡中的時序信息。
為了解決編碼階段因為忽略車輛運動狀態(tài)信息、無法有效提取歷史軌跡中的時序信息而帶來的預測軌跡不準確的問題,本文提出了一種融合車輛運動狀態(tài)的軌跡預測模型Movement-DenseTNT。該模型首先對交通參與者的歷史軌跡和道路信息進行編碼,并根據車輛的歷史軌跡編碼車輛的運動狀態(tài)。然后,通過疊加的方式將車輛的運動狀態(tài)編碼融入交通參與者的歷史軌跡編碼中。接下來,利用注意力機制生成表示未來軌跡終點概率的熱力圖。最后,通過選擇概率較高的候選點集來完善軌跡,完成預測。
1 Movement-DenseTNT
Movement-DenseTNT的整體結構如圖1所示:對場景中的交通參與者和道路進行編碼,獲取場景信息。使用LSTM對車輛的運動信息進行編碼,并將編碼得到的信息融入采樣得到的候選軌跡終點當中,獲得候選軌跡終點的概率值。依據軌跡終點的概率值篩選軌跡終點,并將軌跡補充完整。
1.1 道路信息及交通參與者軌跡信息編碼
對場景中交通參與者及道路信息進行編碼是軌跡預測的第一步,以獲取交通參與者的軌跡信息和道路特征。本文使用基于層次圖神經網絡的編碼器VectorNet[25]來完成場景編碼。具體來說,將場景中的道路和相關交通參與者的軌跡進行向量化,通過首尾相連的向量Vi進行表示。然后應用圖神經網絡,使得向量之間的信息可以相互傳遞,如式(1)所示。
V(l+1)i=φrel(Vli,φagg(Vlj))
(1)
其中:Vli表示當前節(jié)點;Vlj表示相鄰節(jié)點;函數φagg(·)匯聚相鄰節(jié)點的信息;函數φrel(·)整合當前節(jié)點與相鄰節(jié)點的信息。經過l次迭代,可以得到表示單個交通參與者軌跡的局部圖和表示單條道路的局部圖。再經過一次最大池化,可以完整提取局部圖的信息。將道路和交通參與者各自編碼之后得到的局部圖信息,再應用一次圖神經網絡,組成全局圖,完成一個場景的編碼。最終得到一個場景編碼的二維特征矩陣Fw,其中特征矩陣Fw的每一行是對于交通參與者軌跡信息及道路信息的編碼向量。
1.2 車輛運動狀態(tài)信息編碼
車輛運動狀態(tài)可以看作是一組歷史運動狀態(tài)的集合,建模為時間序列問題。循環(huán)神經網絡是解決時間序列問題的重要方法,而長短期記憶網絡(long short term memory,LSTM)則是循環(huán)神經網絡的一種特殊實現。LSTM的特點是可以提取特征之間的長期關系,考慮序列信息并對輸入的依賴性進行建模。它們對每個輸入執(zhí)行相同的操作,同時考慮之前的輸入對于當前狀態(tài)的影響。所以本文使用LSTM編碼器來對車輛的運動狀態(tài)進行編碼。車輛運動狀態(tài)信息編碼的整體結構如圖2所示,下面將會對每個部分進行詳細闡述。
在對運動狀態(tài)編碼之前,先對軌跡坐標進行映射,如式(2)所示。將待預測車輛過去不同時刻的原始坐標xt進行嵌入操作,得到嵌入向量et,表示不同時刻的坐標編碼信息:
et=φembed(xt;Wemb)
(2)
其中:φembed(·)代表嵌入坐標時的全連接層;Wemb代表這一嵌入過程的全連接層需要訓練的參數。接著將嵌入向量et按照各個時刻依次輸入LSTM編碼器進行編碼,如式(3)所示。
hti=LSTM(ht-1i,eti,Wencoder)
(3)
其中:hti代表第t個時刻LSTM編碼器的隱變量向量。不同場景中,LSTM編碼器共享同一個模型參數Wencoder。LSTM編碼器的隱藏層狀態(tài)的維度設置為30,堆疊層數設置為2。把歷史軌跡各個時刻的向量et輸入完畢之后,可以得到由歷史運動狀態(tài)堆疊而成的表示車輛當前狀態(tài)的編碼向量hcurrent 。之后,將向量hcurrent 經過帶有LeakyReLU的全連接層,最終得到待預測車輛運動狀態(tài)信息的編碼向量Fa,如式(4)所示。
Fa=φoutput(hcurrent ;Wout)
(4)
其中:φoutput (·)為輸出編碼向量時的全連接層;Wout為輸出過程中全連接層需要訓練的參數。
1.3 編碼信息融合
考慮到待預測車輛的運動狀態(tài)不僅對待預測車輛自身會產生影響,還會對同一場景下其他交通參與者產生影響。比如當自車高速行駛時,旁邊車道的車輛不會輕易變道,以免發(fā)生碰撞。當自車減速經過路口時,橫跨路口的行人看到車輛減速,才會加速通過。所以本文把待預測車輛的運動狀態(tài)信息同時融入到待預測車輛自身和相關交通參與者的編碼當中去。編碼信息融合的流程如圖3所示。
首先,將場景編碼矩陣Fw和待預測車輛運動狀態(tài)向量Fa進行融合,得到包含場景信息和待預測車輛運動狀態(tài)信息的編碼矩陣Fc。其次,將編碼矩陣Fc和在可行駛區(qū)域上采樣得到的候選軌跡終點集G進行融合。最終,得到包含未來軌跡終點概率的熱力圖。接下來對各個過程進行描述。為了融合編碼信息,本文首先將待預測車輛運動信息編碼Fa按照式(5)進行堆疊。道路信息對應的行用零向量進行填充,得到矩陣H:
H=FaFa[0,…,0][0,…,0]
(5)
接下來把矩陣H和場景編碼矩陣Fw進行相加,如式(6)所示。
FC=Add(Fw,H)
(6)
由此可得到包含車輛狀態(tài)信息和場景信息的編碼矩陣Fc。接下來在車輛未來可行使區(qū)域內進行候選軌跡終點采樣,得到候選軌跡終點集合G。然后將場景編碼信息通過注意力機制融入進候選軌跡終點當中。首先將信息編碼矩陣Fc和候選軌跡終點集合G進行投影,如式(7)所示。
Q=GωQ,K=FCωK,V=FCωV
(7)
其中:ωQ、ωK、ωV是投影矩陣;Q、K、V分別對應查詢矩陣、鍵矩陣和值矩陣;Fc是場景的編碼矩陣;G是候選軌跡終點的集合。接著計算注意力分布,并進行加權求和,如式(8)所示。
A=softmaxQKTdV
(8)
其中:d是矩陣ωQ、ωK、ωV的列數。A表示注意力分布與值矩陣加權融合的結果。接著通過融入場景信息的候選軌跡終點的集合,求出每個候選軌跡終點的概率,得到包含候選軌跡終點的概率熱力圖,如式(9)所示。
τi=exp(φ(Gi))∑Nn=1exp(φ(Gn))
(9)
其中:τi是最后得到的每個軌跡終點候選點的概率值;φ(·)是一個兩層的全連接層。
1.4 軌跡終點篩選及軌跡補全
得到軌跡終點概率熱力圖之后,需要從中篩選出K個最有可能的軌跡終點,并根據車輛歷史軌跡信息來補全軌跡。首先,需要從熱力圖上選取可能的終點,本模型采用Dense-TNT[22]中對于候選點的篩選方式。具體來說,需要訓練一個目標點預測器,并設計一個離線模型來為目標點預測器提供偽標簽。在離線模型中,通過優(yōu)化算法如爬山算法,計算期望誤差,來為每個候選軌跡終點打上標簽。通過離線算法得到偽標簽,可以讓在線模型擁有更快的推理速度。在目標點預測器的訓練中,通過離線算法提供的偽標簽來進行訓練,最終得到K個最有可能的軌跡終點。然后,將得到的軌跡終點和車輛歷史軌跡一起通過一個兩層的全連接層,并輸出完整的軌跡。
2 實驗驗證
為了驗證Movement-DenseTNT的有效性,本實驗將使用兩個基準數據集,并與九個基線模型進行比較。為了評估模型的有效性,將使用四個常用的指標進行評估。本文模型的實現方法如下:開發(fā)環(huán)境使用Ubuntu 22.04系統,開發(fā)語言使用Python 3.7.16,開發(fā)框架使用PyTorch 1.13.1,CPU為Intel i5-13400F,GPU為GeForce RTX 3060(12 GB),RAM為48 GB。
2.1 數據集
對比實驗將使用兩個基準數據集,即Argoverse1預測數據集[26]和Argoverse2預測數據集[27]。Argoverse1發(fā)布于2019年,包含了交通參與者的軌跡和對應的高精度地圖。該數據集共涵蓋了320 h的數據,被劃分成了323 557個5 s的場景,根據過去2 s的軌跡來預測未來3 s的軌跡,采樣頻率為10 Hz。Argoverse2發(fā)布于2021年,同樣包含了交通參與者的軌跡和高精度地圖。該數據集共涵蓋了763 h的數據,被劃分成了250 000個11 s的場景,根據過去5 s的軌跡來預測未來6 s的軌跡,采樣頻率為10 Hz。
2.2 評價指標
根據Argoverse1和Argoverse2中的實驗設置,本文采用了最小平均位移誤差(minADE)、最小最終位移誤差(minFDE)、錯誤率(miss rate)和帶有懲罰項的最小最終位移誤差(brier_minFDE)四個指標,用于對比實驗。其中第四個指標是Argoverse2預測數據集上新引入的[12]。最小平均位移誤差(min-ADE)反映了真實軌跡和預測軌跡之間的平均歐幾里德距離。計算過程是通過比較模型生成的K條軌跡和真實軌跡的每個時間步的位置差值,然后取平均值,最后找到這K個平均值中的最小值來作為最終的minADE結果。最小最終位移誤差(minFDE)反映了真實軌跡終點與預測軌跡終點之間的歐幾里德距離。通過計算模型生成的K條軌跡終點與真實軌跡終點位置之間的差值,找到K個差值中的最小值來作為minFDE的結果。錯誤率(miss rate)反映了模型生成的K條軌跡中,嚴重偏離真實軌跡的數量占全部生成軌跡數量的比例。具體來說,計算生成的K條軌跡中軌跡終點偏離真實軌跡終點2 m之外的軌跡數量,再除以K作為最終的miss rate結果。帶有懲罰項的最小最終位移誤差(brier_minFDE)是在minFDE指標的基礎上,為端點的L2距離誤差添加一個概率相關的懲罰項,懲罰項是基于預測器最佳猜測輸出的概率。上述四個評價指標,都是數值越小,代表預測軌跡質量越高。
2.3 模型訓練及超參數設置
與DenseTNT相似,Movement-DenseTNT也可分為兩階段進行模型訓練:a)模型訓練目標點預測器之外部分,該部分包括對道路、交通參與者和車輛運動狀態(tài)的編碼及信息融合;b)模型主要針對目標點預測器進行訓練,通過離線算法提供的偽標簽來訓練在線算法。模型訓練的批大小(batch size)設置為64,模型隱藏層的維度設置為128。K值(即最優(yōu)軌跡數量)設置為6。使用Adam優(yōu)化器來訓練模型。在第一階段的訓練中,訓練輪數設置為16輪,學習率的初始值為0.001,并且每5輪會衰減至30%。在第二階段的訓練中,訓練輪數設置為6輪,學習率的初始值為0.001,并且每一輪都會衰減至30%。
2.4 實驗結果分析
本文在Argoverse1預測數據集的驗證集和Argoverse2預測數據集的驗證集上進行了對比實驗,表1展示了Argoverse1預測數據集的實驗結果,表2展示了Argoverse2預測數據集的實驗結果。
在Argoverse1預測數據集中,Movement-DenseTNT在兩個階段中都能取得比DenseTNT更好的效果。在minADE和minFDE兩個指標上,Movement-DenseTNT在對應階段相較于DenseTNT,都有顯著下降。由于DenseTNT自身結構所限,以及經過第二階段訓練之后,會產生過擬合的現象,所以Dense TNT和Movement-DenseTNT第二階段的minADE和minFDE的指標相較于第一階段有所上升,miss rate指標會顯著下降。對比其他方法,Movement-DenseTNT在minADE指標上略高于TNT和QCNet,但在minFDE和miss rate指標上,Movement-DenseTNT優(yōu)于TNT和OCNet。相較于MultiPath、LaneRCNN和SceneTransformer,由于Movement-DenseTNT模型考慮了車輛運動狀態(tài)信息,所以在minADE和minFDE指標上都能取得良好效果。在miss rate指標上,Movement-DenseTNT的第二階段也顯著優(yōu)于其他方法。與HiVT、Wayformer和ProphNet比較,Movement-DenseTNT模型在minADE指標上較為接近,但在minFDE和miss rate指標上,能顯著優(yōu)于其余模型。
為了進一步驗證Movement-DenseTNT模型的有效性,本文在Argoverse2預測數據集的驗證集上進行實驗。將Movement-DenseTNT和DenseTNT、HiVT、MultiPath進行比較。Movement-DenseTNT通過將車輛運動信息融入至編碼過程中,在對應兩個階段中都能取得優(yōu)于DenseTNT與HiVT模型的實驗結果。在與MultiPath的比較中,除了在minADE指標上略高于MultiPath,其余三個指標都遠優(yōu)于MultiPath,驗證了Movement-DenseTNT模型的優(yōu)越性。
2.5 典型場景分析
通過搜集車輛實際行駛中的數據,挑選車輛遇到的典型場景,如直行、換道、匝道、十字路口等進行可視化,展示Movement-DenseTNT模型在真實道路場景下的實際軌跡預測效果,可視化結果如圖4所示。
圖中車輛實際行駛的軌跡用綠色線條表示,融合運動狀態(tài)及道路信息的熱力圖通過紅色點狀圖表示,車輛預測到的軌跡用橘色線條表示(參見電子版)。從圖中可以看出,在多模式的路口及匝道場景下,模型可以預測到車輛直行及轉彎的軌跡,符合真實駕駛情況。在直行時,模型可以預測車輛直行及換道的軌跡。同時,在預測軌跡中,模型還能融合車輛運動狀態(tài)的信息,轉彎時會預測車輛減速,直行且車道無其他障礙物時,會預測車輛加速。
3 結束語
本文針對目前主流的基于目標點的軌跡預測方法忽略待預測車輛運動狀態(tài)的問題,提出了考慮運動狀態(tài)的Movement-DenseTNT軌跡預測模型。分別將車輛運動狀態(tài)、地圖信息和交通參與者的軌跡信息進行編碼,并將編碼得到的信息進行融合,融入在可行使區(qū)域內采樣得到的候選軌跡終點集合中,得到各個軌跡終點的概率,從而篩選出最后的軌跡終點并將軌跡進行補全。Movement-DenseTNT模型在Argoverse1和Argoverse2預測數據集上與九個基線模型進行了比較,取得了良好的實驗效果,驗證了本文方法的有效性。本文模型更多聚焦在單車軌跡的預測上,并未考慮多車軌跡預測及其帶來的軌跡交互的問題。同時本文模型只考慮自車的運動狀態(tài),并未涉及周圍其他車輛及行人的運動狀態(tài)對軌跡預測的影響,這些不足將在后續(xù)的工作中進行深入研究。
參考文獻:
[1]Ying Liufu, Jin Long, Shang Mingsheng, et al. ACP-incorporated perturbation-resistant neural dynamics controller for autonomous vehicles [J]. IEEE Trans on Intelligent Vehicles, 2024, 9(4): 4675-4686.
[2]Liu Dexiang, Hua Guodong, Mo Lei. Painted PIXOR:a real-time multi-sensor fusion object detection pipeline for autonomous vehicles[C]//Proc of the 37th Youth Academic Annual Conference of Chinese Association of Automation. Piscataway,NJ: IEEE Press, 2022: 1357-1362.
[3]Ying Liufu, Jin Long, Wang Feiyue. Neural-dynamics-based active stee-ring control for autonomous vehicles with noises[C]//Proc of IEEE Intelligent Vehicles Symposium. Piscataway,NJ: IEEE Press, 2024: 436-441.
[4]王紅霞, 聶振凱, 鐘強. 融合距離閾值和雙向TCN的時空注意力行人軌跡預測模型 [J]. 計算機應用研究,2024,41(11):3303-3310. (Wang Hongxia, Nie Zhenkai, Zhong Qiang. Fusion of distance threshold and Bi-TCN for spatio-temporal attention pedestrian trajectory prediction model [J]. Application Research of Compu-ters, 2024,41(11):3303-3310.)
[5]趙懂宇, 王志建, 宋程龍. 基于Informer算法的網聯車輛運動軌跡預測模型 [J]. 計算機應用研究, 2024, 41(4): 1029-1033. (Zhao Dongyu, Wang Zhijian, Song Chenglong. Model of predicting motion trajectory of connected vehicles based on Informer algorithm [J]. Application Research of Computers, 2024, 41(4): 1029-1033.)
[6]喬少杰, 金琨, 韓楠, 等. 一種基于高斯混合模型的軌跡預測算法 [J]. 軟件學報, 2015, 26(5): 1048-1063. (Qiao Shaojie, Jin Kun, Han Nan, et al. Trajectory prediction algorithm based on Gaussian mixture model [J]. Journal of Software, 2015, 26(5): 1048-1063.)
[7]Xu Wenda, Pan Jia, Wei Junqing,et al. Motion planning under uncertainty for on-road autonomous driving[C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press, 2014: 2507-2512.
[8]Huang Yanjun, Du Jiatong, Yang Ziru,et al. A survey on trajectory-prediction methods for autonomous driving [J]. IEEE Trans on Intelligent Vehicles, 2022, 7(3): 652-674.
[9]Yin Huilin, Wen Yurong, Li Jiaxiang. A survey of vehicle trajectory prediction based on deep-learning[C]// Proc of the 3rd International Conference on Neural Networks, Information and Communication Engineering. Piscataway,NJ: IEEE Press, 2023: 140-144.
[10]Xing Haolin, Liu Wei, Ning Zuotao,et al. Deep learning based tra-jectory prediction in autonomous driving tasks: a survey[C]// Proc of the 16th International Conference on Computer and Automation Engineering. Piscataway,NJ: IEEE Press, 2024: 556-561.
[11]Ye Luyao, Wang Zezhong, Chen Xinhong,et al. GSAN: graph self-attention network for interaction measurement in autonomous driving[C]// Proc of the 17th IEEE International Conference on Mobile Ad Hoc and Sensor Systems. Piscataway,NJ: IEEE Press, 2020: 274-282.
[12]Zhou Zikang, Ye Luyao, Wang Jianping,et al. HiVT: hierarchical vector transformer for multi-agent motion prediction[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2022: 8813-8823.
[13]Zhou Zikang, Wang Jianping, Li Yunghui, et al. Query-centric trajectory prediction[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2023: 17863-17873.
[14]Aydemir G, Akan A K, Güney F. ADAPT: efficient multi-agent traje-ctory prediction with adaptation[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2023: 8261-8271.
[15]Zhu Yiyao, Luan Di, Shen Shaojie. BiFF:bi-level future fusion with polyline-based coordinate for interactive trajectory prediction[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2023: 8226-8237.
[16]Shi Shaoshuai, Jiang Li, Dai Dengxin,et al. MTR++: multi-agent motion prediction with symmetric scene modeling and guided intention querying [J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2024, 46(5): 3955-3971.
[17]Huang Zhiyu, Liu Haochen, Lyu Chen. GameFormer:game-theoretic modeling and learning of Transformer-based interactive prediction and planning for autonomous driving[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2023: 3880-3890.
[18]Tang Xiaolong, Kan Meina, Shan Shiguang,et al. HPNet: dynamic trajectory forecasting with historical prediction attention[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2024: 15261-15270.
[19]Gilles T, Sabatini S, Tsishkou D,et al. HOME: heatmap output for future motion estimation[C]// Proc of IEEE International Intelligent Transportation Systems Conference. Piscataway,NJ: IEEE Press, 2021: 500-507.
[20]Chai Yuning, Sapp B, Bansal M, et al. MultiPath: multiple probabilistic anchor trajectory hypotheses for behavior prediction[C]// Proc of Conference on Robot Learning.2019.
[21]Zhao Hang, Gao Jiyang, Lan Tian,et al. TNT: target-driveN trajectory prediction [EB/OL]. (2020-08-19). https://arxiv.org/abs/2008.08294.
[22]Gu Junru, Sun Chen, Zhao Hang. DenseTNT:end-to-end trajectory prediction from dense goal sets[C]// Proc of IEEE/CVF International Conference on Computer Vision. Piscataway,NJ: IEEE Press, 2021: 15283-15292.
[23]Ghoul A, Messaoud K, Yahiaoui I,et al. A lightweight goal-based model for trajectory prediction[C]// Proc of the 25th IEEE Interna-tional Conference on Intelligent Transportation Systems. Piscataway,NJ: IEEE Press, 2022: 4209-4214.
[24]Zeng Wenyuan, Liang Ming, Liao Renjie,et al. LaneRCNN: distri-buted representations for graph-centric motion forecasting[C]// Proc of IEEE/RSJ International Conference on Intelligent Robots and Systems. Piscataway,NJ: IEEE Press, 2021: 532-539.
[25]Gao Jiyang, Sun Chen, Zhao Hang,et al. VectorNet: encoding HD maps and agent dynamics from vectorized representation[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2020: 11522-11530.
[26]Chang Mingfang, Lambert J, Sangkloy P, et al. Argoverse: 3D trac-king and forecasting with rich maps[C]// Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2019: 8740-8749.
[27]Wilson B, Qi W, Agarwal T, et al. Argoverse 2: next generation datasets for self-driving perception and forecasting[C]// Proc of Conference on Neural Information Processing Systems. 2021.
[28]Ngiam J,Vasudevan V, Caine B, et al. Scene Transformer: a unified architecture for predicting future trajectories of multiple agents[C]// Proc of International Conference on Learning Representations. 2021.
[29]Nayakanti N, Al-Rfou R, Zhou A,et al. Wayformer: motion forecasting via simple amp; efficient attention networks[C]// Proc of IEEE International Conference on Robotics and Automation. Piscataway,NJ: IEEE Press, 2023: 2980-2987.
[30]Wang Xishun, Su Tong, Da Fang,et al. ProphNet: efficient agent-centric motion forecasting with anchor-informed proposals[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition. Piscataway,NJ: IEEE Press, 2023: 21995-22003.