摘 要:針對現(xiàn)有的交通流預(yù)測模型存在難以對非鄰近節(jié)點之間的時空相關(guān)性顯式建模的問題,提出一種新的利用超圖表征空間相關(guān)性的超圖卷積神經(jīng)網(wǎng)絡(luò)模型(double attention hypergraph convolution neural network,A2HGCN)。首先,通過尋找節(jié)點之間的相似關(guān)系構(gòu)造超邊,利用節(jié)點之間的連接關(guān)系構(gòu)造超圖;然后提出一個超圖卷積模型,其中利用超圖卷積和將超圖線擴展為圖后利用線圖卷積來捕獲潛在的空間相關(guān)性;再利用融合雙層注意力機制的卷積長短時記憶網(wǎng)絡(luò)捕獲時間相關(guān)性,最后得出預(yù)測結(jié)果。在數(shù)據(jù)集PEMS-BAY中,A2HGCN方法的評價指標MAE、MAPE和RMSE在預(yù)測步長為15 min時為1.223、2.617%、2.547,30 min時為1.554、3.541%、3.420,60 min時為1.867、4.578%、4.224。在數(shù)據(jù)集PEMSM中,該方法的評價指標MAE、MAPE和RMSE在預(yù)測步長為15 min時為1.858、4.385%、3.339,30 min時為2.374、5.775%、4.362,60 min時為3.046、7.713%、5.479。結(jié)果表明,該方法在不同預(yù)測步長下均優(yōu)于基線模型,驗證了考慮非鄰近節(jié)點之間的時空相關(guān)性對于提高交通預(yù)測準確性的有效性。由此可得,超圖卷積神經(jīng)網(wǎng)絡(luò)在捕獲時空相關(guān)性方面具有優(yōu)勢。
關(guān)鍵詞:交通流預(yù)測;超圖理論;圖卷積網(wǎng)絡(luò)
中圖分類號:TP391"" 文獻標志碼:A""" 文章編號:1001-3695(2025)03-024-0825-09
doi: 10.19734/j.issn.1001-3695.2024.07.0261
Traffic prediction model considering spatial correlation of non-neighboring nodes
Yan Guanghui, Li Hongtao, Zhang Bin, Chang Wenwen
(School of Electronic amp; Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China)
Abstract:This paper proposed a novel double attention hypergraph convolution neural network (A2HGCN) to address the challenge of explicitly modeling spatiotemporal correlations between non-adjacent nodes in existing traffic flow prediction mo-dels. The method used the construction of hyperedges based on similarities between nodes and created hypergraphs through node connectivity to represent spatial correlations. It proposed a hypergraph convolution model, which employed hypergraph convolution and line graph convolution after expanding hypergraph lines into graphs to capture potential spatial correlations. Meanwhile, it used a convolutional long short-term memory network integrated with a double attention mechanism to capture temporal features. The algorithm made predictions based on spatial and temporal features. In the PEMS-BAY dataset, the A2HGCN method achieved evaluation metrics of MAE, MAPE, and RMSE at a prediction step of 15 minutes as 1.223, 2.617%, and 2.547, respectively, at 30 minutes as 1.554, 3.541%, and 3.420, and at 60 minutes as 1.867, 4.578%, and 4.224. In the PEMSM dataset, the method achieved evaluation metrics of MAE, MAPE, and RMSE at a prediction step of 15 minutes as 1.858, 4.385%, and 3.339, at 30 minutes as 2.374, 5.775%, and 4.362, and at 60 minutes as 3.046, 7.713%, and 5.479. The results demonstrate that the proposed method outperforms baseline models at different prediction steps, validating the effectiveness of considering spatiotemporal correlations between non-adjacent nodes in enhancing traffic prediction accuracy. It is concluded that hypergraph convolutional neural networks have an advantage in capturing spatiotemporal correlations.
Key words:traffic prediction; hypergraph theory; graph convolution network(GCN)
0 引言
交通流預(yù)測是基于歷史道路信息,對未來道路信息進行預(yù)測的研究,包括了交通流量、速度、密度、擁堵情況等交通流指標的預(yù)測,是智慧交通應(yīng)用的基石。高精度的交通流預(yù)測對于大型城市的交通管理和智慧出行具有重要的科研價值和實際應(yīng)用價值。面對復(fù)雜多維交通流數(shù)據(jù),如何有效地提取時空特征,并實現(xiàn)端到端的一體化預(yù)測已成為目前研究熱點。
交通流預(yù)測的研究主要分為三類,分別是統(tǒng)計學(xué)模型、機器學(xué)習模型和深度學(xué)習模型。統(tǒng)計學(xué)模型的早期研究主要從時序預(yù)測角度出發(fā),有歷史平均模型、自回歸滑動平均模型等。后續(xù)發(fā)現(xiàn)交通數(shù)據(jù)中蘊藏著非線性、不平穩(wěn)性等特點,開始采用差分自回歸移動平均模型[1]、卡爾曼濾波模型[2]等進行預(yù)測,這些統(tǒng)計學(xué)模型較為簡單,計算速度快,對于平穩(wěn)數(shù)據(jù)的預(yù)測效果較好,但對于非線性和復(fù)雜的交通數(shù)據(jù)的預(yù)測效果較差,不能適用于復(fù)雜的交通場景;且對每個站點進行單獨預(yù)測,忽略了交通數(shù)據(jù)中的空間相關(guān)性。20世紀90年代,得益于機器學(xué)習理論的巨大發(fā)展,相關(guān)理論也應(yīng)用在了交通流預(yù)測領(lǐng)域[3],如Toan等人[4]提出的基于支持向量機(support vector machine, SVM)模型和Lin等人[5]提出的基于K近鄰模型等都證明了機器學(xué)習方法在交通預(yù)測領(lǐng)域中的有效性,但傳統(tǒng)的機器學(xué)習方法在處理深度非線性的交通數(shù)據(jù)時會出現(xiàn)預(yù)測性能不佳的問題,并且需要更為細致的特征工程。
受深度學(xué)習在計算機視覺和自然語言處理領(lǐng)域取得巨大成果的鼓舞,研究人員開始將循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)[6]和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)等深度學(xué)習模型應(yīng)用于交通預(yù)測領(lǐng)域,強大的非線性建模能力彌補了機器學(xué)習模型的不足,并取得了前所未有的成功,在此之后基于深度學(xué)習的交通預(yù)測研究越來越多。為了能體現(xiàn)交通數(shù)據(jù)中的空間性,Ma等人[7]通過二維矩陣將交通速度數(shù)據(jù)轉(zhuǎn)換為具有時空關(guān)系的圖像,經(jīng)過卷積池化操作之后預(yù)測路上未來時段的車輛速度。然而,這類模型通常適用于規(guī)則的歐幾里德數(shù)據(jù),如圖像數(shù)據(jù)、網(wǎng)格數(shù)據(jù)等。但實際中的交通數(shù)據(jù)是分布在路網(wǎng)上的時序數(shù)據(jù),其結(jié)構(gòu)為非歐幾里德結(jié)構(gòu),因此這些模型在捕獲交通數(shù)據(jù)中的空間相關(guān)性方面有一定的局限性。為此,產(chǎn)生了圖神經(jīng)網(wǎng)絡(luò),其核心思想是將臨近節(jié)點的信息聚合到中心節(jié)點,從而提取圖結(jié)構(gòu)中的空間特征,這正適用于利用天然路網(wǎng)構(gòu)建的基于拓撲的交通數(shù)據(jù),用圖卷積操作代替卷積操作,捕獲不同站點之間的空間相關(guān)性。如Yu等人[8]提出的STGCN模型,結(jié)合圖卷積和門控時間卷積構(gòu)造了時空卷積塊,提取時間和空間特征;Li等人[9]提出的DCRNN模型通過有向圖上的隨機游走實現(xiàn)空間圖卷積,門控循環(huán)單元獲取時間特征。由此可以看出,基于圖神經(jīng)網(wǎng)絡(luò)的模型發(fā)展會主要集中在時間特征和空間特征提取方面。
在時間維度上,Guo等人[10]提出的ASTGCN從ST-ResNet中繼承了最近觀測值、每日周期性和周趨勢形式,采用堆疊模型結(jié)構(gòu),將多個STGCN和注意力機制組合在一起,形成一個多層結(jié)構(gòu),以進一步提高模型的精度和魯棒性;Song等人[11]提出的STSGCN通過將所有節(jié)點與前一步和后一步的自己連接,構(gòu)建了一個局部時間圖,更新鄰接矩陣,然后只使用GCN同時進行空間和時間建模。此外,還融入注意力機制的模型以獲取更好的時間特征提取能力。如周楚昊等人[12]提出的基于多通道Transformer的交通量預(yù)測方法(MCST-Transformer),首先使用Transformer結(jié)構(gòu)提取不同數(shù)據(jù)的內(nèi)在規(guī)律,然后引入空間關(guān)聯(lián)模塊挖掘不同數(shù)據(jù)間的關(guān)聯(lián)特征,并通過通道注意力機制整合優(yōu)化全局信息,以提高模型的預(yù)測準確度;何婷等人[13]提出的基于時空位置關(guān)注圖神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測方法(ST-PAGNN),利用圖神經(jīng)網(wǎng)絡(luò)中的位置關(guān)注機制,強化了對交通節(jié)點空間依賴關(guān)系的捕捉能力,利用結(jié)合了Trendformer的門控遞歸神經(jīng)網(wǎng)絡(luò)同時捕獲交通流序列在時間維度上的局部和全局信息,并使用改進的網(wǎng)格搜索優(yōu)化方法,以提高模型的預(yù)測能力和預(yù)測效率。
在空間維度上,從靜態(tài)圖發(fā)展到自適應(yīng)圖。Graph WaveNet[14]、MTGNN[15]和AGCRN[16]采用了自適應(yīng)依賴矩陣或者圖學(xué)習層構(gòu)建圖鄰接矩陣以捕獲隱藏的空間依賴,而不是像STGCN和DCRNN使用的靜態(tài)圖;Lan等人[17]提出的DSTAGNN模型使用多頭注意力表示節(jié)點之間的動態(tài)空間相關(guān)性以取代傳統(tǒng)圖卷積中常用的預(yù)定義靜態(tài)圖。以上模型使用自適應(yīng)圖和動態(tài)圖以動態(tài)學(xué)習全局或者局部圖結(jié)構(gòu),去更好地挖掘交通數(shù)據(jù)中隱藏的時空關(guān)系。
然而,以上模型使用的都是傳統(tǒng)圖,其表示方法局限于兩點之間的成對關(guān)聯(lián),難以對數(shù)據(jù)之間的高階復(fù)雜關(guān)聯(lián)關(guān)系進行顯式建模,也就是非鄰近節(jié)點之間的空間相關(guān)性,即一個傳感器上的信息可以影響其他與之沒有物理直接相連的傳感器上的信息。以交通路網(wǎng)為例,由于城市中存在不同的功能區(qū),在同樣功能區(qū)附近的站點所收集的交通數(shù)據(jù)會呈現(xiàn)一定的相似性,然而這類站點之間并非兩兩直接相連。以PEMS-BAY數(shù)據(jù)集中編號為403401和401809節(jié)點為例,分別用H和I表示,數(shù)據(jù)可視化結(jié)果如圖1所示,結(jié)合地圖分析,H和I分別位于商場功能附近且沒有直接連接,而這兩個節(jié)點所記錄的數(shù)據(jù)具有相同的變化趨勢,由此可以得出非鄰近節(jié)點之間存在一定的空間相關(guān)性。
針對無法對非鄰近節(jié)點之間的空間相關(guān)性顯式建模的問題,本文采用超圖對交通數(shù)據(jù)中非鄰近空間關(guān)系表示,超圖可借由超邊同時連接多個節(jié)點,從而突破成對關(guān)系的限制,實現(xiàn)數(shù)據(jù)的高階表示。有一些將超圖學(xué)習與交通流預(yù)測結(jié)合的工作。如Yi等人[18]將超圖卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)相結(jié)合,針對于交通流預(yù)測提出一種新的預(yù)測模型;張永凱等人[19]提出了時空超圖網(wǎng)絡(luò),該網(wǎng)絡(luò)使用超圖神經(jīng)網(wǎng)絡(luò)來處理交通對象之間的高階關(guān)系,但這兩個模型都忽略了超圖中超邊與超邊之間的多節(jié)點空間相關(guān)性;文獻[19]和Zhao等人[20]提出的模型中都使用了基于距離的超圖構(gòu)造方法,其模型預(yù)測效果容易受到其鄰近節(jié)點個數(shù)或者聚類系數(shù)大小的影響。因此,本文提出了一種用于交通預(yù)測的時空超圖卷積神經(jīng)網(wǎng)絡(luò)(A2HGCN)。首先,提出使用聚類算法從全局層面尋找交通數(shù)據(jù)中有相似變化規(guī)律的傳感器;然后再利用局部連接關(guān)系構(gòu)建超圖,將鄰近節(jié)點空間相關(guān)性和非鄰近節(jié)點空間相關(guān)性相融合;最后設(shè)計一個空間提取模塊,利用超圖卷積和線圖卷積挖掘交通數(shù)據(jù)中的多節(jié)點之間的空間關(guān)系,并利用融合注意力的卷積長短時記憶網(wǎng)絡(luò)獲取交通數(shù)據(jù)中的時間特征,以實現(xiàn)準確的交通流預(yù)測。實驗結(jié)果表明,模型的預(yù)測結(jié)果在平均絕對誤差、均方根誤差和平均絕對百分誤差等方面均優(yōu)于基線模型。
1 準備工作
1.1 圖與超圖
與圖類似地,也可計算超圖中節(jié)點的度和超邊的度。節(jié)點的度表示該節(jié)點包含到超邊的超邊數(shù)目,定義為d(vi)=∑ei∈EHh(vi,ei);超邊的度表示該超邊上包含節(jié)點的數(shù)目,定義為d(ei)=∑vi∈Vh(vi,ei)。由超圖的關(guān)聯(lián)矩陣可以計算每個節(jié)點和每條超邊的度,分別對應(yīng)節(jié)點度矩陣Dv和超邊度矩陣De,且都為對角矩陣。由此可計算出圖2(b)所對應(yīng)的節(jié)點度矩陣Dv對角線上每個節(jié)點的度{1,2,1,2,2,2,1},所對應(yīng)的超邊度矩陣De對角線上每條超邊的度{5,3,3},即圖2(e)所示。
1.2 超圖學(xué)習
超圖提供了一種捕獲復(fù)雜的高階關(guān)系的方式,與普通圖相比,由于超圖的超邊可以自然地連接多個頂點,使得它能夠更容易地描述多個對象間的潛在高階相關(guān)性,解決了圖的局限性。隨著深度學(xué)習的蓬勃發(fā)展,超圖神經(jīng)網(wǎng)絡(luò)也受到了廣泛的關(guān)注。Feng等人于2019年提出第一個超圖神經(jīng)網(wǎng)絡(luò)HGNN[21,22],首先將圖卷積應(yīng)用于超圖。之后出現(xiàn)了大量的超圖神經(jīng)網(wǎng)絡(luò)模型,它們被充分地應(yīng)用于計算機視覺、推薦系統(tǒng)、生物化學(xué)等領(lǐng)域。
依據(jù)設(shè)計模型采用的方法不同,超圖神經(jīng)網(wǎng)絡(luò)模型被劃分為超圖卷積神經(jīng)網(wǎng)絡(luò)、以HGC-RNN[18]為代表的超圖循環(huán)神經(jīng)網(wǎng)絡(luò)和以HGGAN[23]為代表的超圖生成對抗網(wǎng)絡(luò)。超圖循環(huán)神經(jīng)網(wǎng)絡(luò)和超圖生成對抗網(wǎng)絡(luò)一般都會采用超圖卷積挖掘數(shù)據(jù)間的高階關(guān)系,因此主要介紹超圖卷積神經(jīng)網(wǎng)絡(luò)模型。超圖卷積神經(jīng)網(wǎng)絡(luò)可分為基于譜域的超圖卷積神經(jīng)網(wǎng)絡(luò)和基于普通圖的超圖神經(jīng)網(wǎng)絡(luò),具體如表1所示。
分類特點代表模型優(yōu)勢不足
基于譜域的超圖卷積神經(jīng)網(wǎng)絡(luò)根據(jù)圖信號和超圖譜理論,依托傅里葉變換和小波變換,隱式地將圖卷積遷移到超圖上
HGNN[21]考慮對象之間的高階關(guān)系和多模態(tài)特征,使用無向超圖建模數(shù)據(jù)間的高階關(guān)系,并且設(shè)計出超邊卷積層超圖結(jié)構(gòu)不隨節(jié)點特征結(jié)構(gòu)動態(tài)變化,且無法表征數(shù)據(jù)流向
DHConv[24]相比于無向超圖,可攜帶關(guān)鍵的方向信息采用的超圖是靜態(tài)的,超圖結(jié)構(gòu)不隨節(jié)點特征動態(tài)調(diào)整,影響模型性能
AHGCN[25]超圖結(jié)構(gòu)隨著頂點特征的更新而動態(tài)調(diào)整
動態(tài)超圖的構(gòu)建可能會引入額外的計算負擔,超參數(shù)會影響模型性能,如超邊的大小和聚類算法的參數(shù)
基于普通圖的超圖神經(jīng)網(wǎng)絡(luò)顯式地將圖卷積神經(jīng)網(wǎng)絡(luò)拓展到超圖上HyperGCN[26]利用超圖譜理論將超圖轉(zhuǎn)換成一個帶權(quán)普通圖,然后在該圖上執(zhí)行圖卷積操作超圖轉(zhuǎn)普通圖過程中,超邊中部分節(jié)點會被刪除,導(dǎo)致信息丟失
LHCN[27]先將超圖映射為一個線圖,然后對線圖執(zhí)行圖卷積操作,最后依據(jù)反向映射規(guī)則從線圖的卷積結(jié)果生成原超圖中頂點的特征,保留了完整信息
LHCN需要顯式地計算超圖線圖,增加了計算成本
3.3 基線模型
為了對比分析預(yù)測模型的預(yù)測效果,選擇在交通流預(yù)測中應(yīng)用較為廣泛且比較有代表性的預(yù)測模型作為基線模型。下面列出用于對比實驗的基線模型:
歷史平均法(historical average, HA):是基于統(tǒng)計學(xué)方法的模型,該模型將交通數(shù)據(jù)看作一個周期性變化數(shù)據(jù),采用前幾周期的平均值作為未來時期的預(yù)測。將之前的7個歷史步長取平均值,并將其作為預(yù)測值。
LSTNet(long- and short-term time-series network)[33]:是一個多變量時序模型,使用LSTM結(jié)合卷積層捕獲時空依賴性,使用一個額外的自回歸模型捕捉非周期性的時間依賴性。
DCRNN:使用以隨機游走為特征的擴散過程對空間依賴性進行建模,該過程以卷積的方式傳播信息,并被嵌入到GRU層以捕獲時間依賴性。
STGCN:該模型使用切比雪夫多項式近似作為卷積層的核,夾在兩個用于捕獲時空依賴關(guān)系的門控卷積之間。
Graph WaveNet:基于GCN的模型通過節(jié)點嵌入學(xué)習自適應(yīng)鄰接矩陣,并結(jié)合擴張的1D卷積層來捕獲時間和空間依賴關(guān)系。
GMAN[34]:基于編碼器-解碼器架構(gòu)的時空圖注意力模型,其中編碼器和解碼器均由多個時空注意塊組成,以模擬時空因素對交通狀況的影響。
ASTGCN:基于注意力的時空圖卷積網(wǎng)絡(luò),將注意力機制引入時空預(yù)測建模中,用于捕捉交通數(shù)據(jù)中的動態(tài)時空關(guān)聯(lián)。結(jié)合GCNs捕獲空間信息和CNNs捕獲時間信息的基于注意力的模型。
MTGNN:一個受初始啟發(fā)的模型使用擴張卷積層來捕捉時間相關(guān)性,以及一個基于從節(jié)點嵌入獲得的動態(tài)圖表示的混合跳傳播層來捕捉空間相關(guān)性。
AGCRN:一種基于GCN增強層的模型,該模型具有嵌入到多個GRU塊中的節(jié)點自適應(yīng)參數(shù)學(xué)習模塊(NAPL)。
SAGCN-SST[35]:具有空間、子空間和時間塊的自注意力圖卷積網(wǎng)絡(luò)(SAGCN-SST)模型將自注意力機制集成到GCN中,同時使用序列到序列編碼器-解碼器架構(gòu)來提取交通數(shù)據(jù)中的長期依賴關(guān)系。
3.4 實驗結(jié)果對比及分析
本文在兩個真實數(shù)據(jù)集上進行性能驗證,表2展示A2HGCN模型和對比方法在PEMSM和PEMS-BAY數(shù)據(jù)集上未來3、6和12個時間步的多步交通流預(yù)測平均誤差結(jié)果。
實驗數(shù)據(jù)集為PEMSM時,在15 min預(yù)測步長下,基線模型中表現(xiàn)最好的是SAGCN-SST,相較于該模型,A2HGCN模型在MAE、MAPE和RMSE指標上分別降低了0.15、0.39%和0.35;在30 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是SAGCN-SST,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.2、0.57%和0.48;在60 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是SAGCN-SST,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.11、0.27%和0.37;實驗數(shù)據(jù)集為PEMS-BAY時,在15 min預(yù)測步長下,基線模型中表現(xiàn)最好的是SAGCN-SST,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.10、0.18%和0.23;在30 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是MTGNN,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.11、0.23%和0.38;在60 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是MTGNN,相較于該模型,A2HGCN在MAE,MAPE和RMSE指標上分別降低了0.08、0.10%和0.27。實驗結(jié)果表明,A2HGCN在所有情況下均表現(xiàn)良好,展現(xiàn)出模型良好的預(yù)測能力。
從表中還可以得出:a)基于統(tǒng)計學(xué)的歷史平均模型(HA)表現(xiàn)較差,與基于神經(jīng)網(wǎng)絡(luò)的模型相差甚遠,這說明了經(jīng)典的傳統(tǒng)方法不適用于復(fù)雜的交通場景;b)盡管時間序列模型LSTNet在短期預(yù)測中具有較好效果,但隨著時間跨度的延長,其性能會下降;c)幾乎所有基于圖的模型在所有指標上都取得了比傳統(tǒng)方法和時間序列模型更好的性能,這表明圖結(jié)構(gòu)能更好地表征交通流數(shù)據(jù)中的空間相關(guān)性,在交通流預(yù)測領(lǐng)域存在一定的優(yōu)勢;d)動態(tài)的生成圖表示的模型,GraphWaveNet、MTGNN和AGCRN模型都采用自適應(yīng)圖挖掘路網(wǎng)中各節(jié)點之間潛在的時空依賴性,三者的預(yù)測效果均優(yōu)于使用預(yù)定義圖的DCRNN和STGCN,這說明自適應(yīng)圖或可學(xué)習圖對于挖掘潛在的空間相關(guān)性的有效性,對提升預(yù)測精度具有重要作用;e)SAGCN-SST模型以自然道路網(wǎng)絡(luò)為依托,引入k跳領(lǐng)域的概念,構(gòu)建從目標節(jié)點在圖結(jié)構(gòu)中k跳內(nèi)可到達的節(jié)點集合,以建模非鄰近節(jié)點之間的空間相關(guān)性,利用集成了子注意力機制的圖卷積捕獲空間相關(guān)性,取得了不錯的預(yù)測效果,但由于本文采用超圖卷積和線圖卷積更能捕獲多節(jié)點之間的空間關(guān)系,所以預(yù)測效果更好。
文中任意選擇PEMSM數(shù)據(jù)集中的兩個傳感器并隨機選取288步(一天)的真實值和預(yù)測值進行可視化,如圖6所示,其中(a)~(c)分別對應(yīng)1號傳感器預(yù)測時間步為3、6和12的對比圖;(d)~(f)對應(yīng)2號傳感器預(yù)測時間步為3、6和12的對比圖??梢钥闯觯篴)本文的模型能很好地預(yù)測數(shù)據(jù)變化趨勢;b)在短時預(yù)測中,本文模型能學(xué)習到所有時間的峰值和谷值;c)隨著預(yù)測時間步的增長,預(yù)測值與真實值之間的差距愈加明顯,說明模型的長時預(yù)測能力隨時間步的增長有所降低。
與基線模型中預(yù)測效果較好的SAGCN-SST和MTGNN相比,本文模型在結(jié)構(gòu)和算法方面都比較簡單,沒有構(gòu)造自適應(yīng)圖或者使用子空間塊以表征潛在的空間相關(guān)性,也沒有使用k跳概念構(gòu)建多節(jié)點集合,但是本文模型在兩個數(shù)據(jù)集上的表現(xiàn)優(yōu)于基線模型,這說明:在空間特征提取方面,模型中所提出的利用交通流數(shù)據(jù)的空間相似性來構(gòu)造超圖以表征節(jié)點之間的潛在空間相關(guān)性是有效的,對于提升預(yù)測精度具有重要作用,但這種非鄰近節(jié)點之間的空間相關(guān)性并非是一成不變的,本文所構(gòu)建的超圖是靜態(tài)的,存在一定的局限性;在時間特征提取方面,MTGNN使用TCN來提取時間特征,其預(yù)測效果均好于使用GRU、LSTM等遞歸神經(jīng)網(wǎng)絡(luò)提取時間特征的模型,本文通過添加雙層注意力機制來提高模型的時間特征提取能力是可行的,但從評價指標的變化程度上來看,提升效果是有限的。
3.5 消融實驗
為了驗證各模塊在A2HGCN中的有效性,本文在PEMSBAY數(shù)據(jù)集上設(shè)計了多個變體進行預(yù)測步長為12的消融實驗,如圖7所示。以下是A2HGCN的變體模型:將移除雙層注意力機制的模型命名為HGCN;將移除線圖卷積組件,只使用超圖卷積的預(yù)測模型命名為A2sHGCN;將移除超圖卷積組件,只使用線圖卷積的預(yù)測模型命名為A2LGCN。在PEMS-BAY和PEMSM數(shù)據(jù)集上進行各個消融模型的實驗分析:a)當雙注意力機制添加到模型中,預(yù)測結(jié)果在30 min和60 min上有了提升,表明通過雙注意力機制增強時間特征來提高模型長時預(yù)測能力的有效性;b)A2LGCN相比于A2sHGCN效果更好,說明捕捉多節(jié)點之間的高階空間相關(guān)性比捕捉相似節(jié)點之間空間相關(guān)性在空間特征提取方面有更好的挖掘能力;c) A2sHGCN和A2LGCN模型的效果都低于A2HGCN,證明在挖掘空間相關(guān)性時,除了考慮鄰近節(jié)點之間的空間相關(guān)性,還需要考慮相似節(jié)點之間以及相似節(jié)點群體之間的空間相關(guān)性,即超圖中的超邊中節(jié)點之間的特征和超邊與超邊之間的特征。
3.6 案例分析
本文從數(shù)據(jù)集中隨機選一天(288步)和一個傳感器,繪制實際和預(yù)測的時間序列,如圖8所示。為了能使時間序列圖清晰明了,本文只繪制了LSTNet、STGCN、MTGNN和A2HGCN的預(yù)測結(jié)果??梢杂^察到:a)三個模型都學(xué)習到了所有時間的峰值和谷值;b)基于圖的模型DCRNN和MTGNN的性能始終優(yōu)于時間序列模型LSTNet,證明了GCN在捕捉空間相關(guān)性和依賴性方面具有優(yōu)異的性能;c)這四種模型的預(yù)測結(jié)果均存在時間滯后,特別是當天220步左右(即18點20分左右),原始時間序列出現(xiàn)劇烈波動時最為明顯。盡管如此,基于超圖的A2HGCN模型在波動預(yù)測誤差方面相較于基于圖的模型仍稍好一些。
4 結(jié)束語
雖然目前已有一些關(guān)于捕捉交通數(shù)據(jù)中潛在空間相關(guān)性的研究,但其中大多是利用圖結(jié)構(gòu)進行建模,主要表征成對節(jié)點之間的相關(guān)性,存在一定的局限性。因此,提出一種新的網(wǎng)絡(luò)框架來解決交通流預(yù)測問題,本文模型先通過節(jié)點之間的相似性構(gòu)造超邊以表征非鄰近節(jié)點之間的空間相關(guān)性,再利用節(jié)點之間天然的連接關(guān)系構(gòu)成超圖以顯式建模交通數(shù)據(jù)中的空間相關(guān)性,解決了圖結(jié)構(gòu)不能顯式表征交通數(shù)據(jù)中潛在的空間相關(guān)性問題;在空間特征提取模塊中利用超圖卷積提取超邊中多個節(jié)點之間的空間相關(guān)性,再利用線圖卷積提取超邊之間的高階空間關(guān)系,使得模型能捕獲交通數(shù)據(jù)中的隱式空間特征;在時間特征提取模塊中先使用雙層注意力機制增強數(shù)據(jù)特征,再利用卷積長短時記憶網(wǎng)絡(luò)提取時間特征,從而提升模型特征提取能力。在兩個公開數(shù)據(jù)集上的對比實驗和消融實驗結(jié)果證明了模型的有效性,超圖以及超圖卷積的應(yīng)用為未來交通預(yù)測提供了一種新的思路。下一步的研究工作將在空間特征方面考慮,從構(gòu)建自適應(yīng)超圖以及有向超圖的角度來優(yōu)化模型,進一步提升模型的預(yù)測性能;在時間特征方面,可以引入高效的Transformer類模型以提高模型的長時預(yù)測能力;還可以將這類模型應(yīng)用于其他基于圖結(jié)構(gòu)的時空預(yù)測問題中,如人流移動預(yù)測、空氣質(zhì)量預(yù)測等。
參考文獻:
[1]Peng Jiaxin, Xu Yongneng, Wu Menghui. Short-term traffic flow forecast based on ARIMA-SVM combined model[C]// Proc of the 12th International Conference on Green Transportation and Low Carbon Mobility Safety. Singapore: Springer Nature Singapore, 2022: 287-300.
[2]Yu Yadong, Zhang Yong, Qian Sean,et al. A low rank dynamic mode decomposition model for short-term traffic flow prediction [J]. IEEE Trans on Intelligent Transportation Systems, 2021, 22(10): 6547-6560.
[3]Li Cong, Xu Pei. Application on traffic flow prediction of machine learning in intelligent transportation [J]. Neural Computing and Applications, 2021, 33(2): 613-624.
[4]Toan T D, Truong V H. Support vector machine for short-term traffic flow prediction and improvement of its model training using nearest neighbor approach [J]. Transportation Research Record: Journal of the Transportation Research Board, 2021, 2675(4): 362-373.
[5]Lin Guancen, Lin Aijing, Gu Danlei. Using support vector regression and K-nearest neighbors for short-term traffic flow prediction based on maximal information coefficient [J]. Information Sciences, 2022, 608: 517-531.
[6]Chauhan N S, Kumar N. Traffic flow forecasting using attention en-abled Bi-LSTM and GRU hybrid model[C]// Proc of the 29th International Conference on Neural Information Processing. Singapore: Springer Nature Singapore, 2023: 505-517.
[7]Ma Xiaolei, Dai Zhuang, He Zhengbing,et al. Learning traffic as ima-ges: a deep convolutional neural network for large-scale transportation network speed prediction [J]. Sensors, 2017, 17(4): 818.
[8]Yu Bing, Yin Haoteng, Zhu Zhanxing. Spatio-temporal graph convolutional networks: a deep learning framework for traffic forecasting [C]//Proc of the 27th International Joint Conference on Artificial Intelligence. Palo Alto, CA:AAAI Press, 2018: 3634-3640.
[9]Li Yaguang, Yu R, Shahabi C, et al. Diffusion convolutional recurrent neural network: data-driven traffic forecasting [C]// Proc of the 6th International Conference on Learning Representations. Washington DC: ICLR, 2018.
[10]Guo Shengnan, Lin Youfang, Feng Ning,et al. Attention based spatial-temporal graph convolutional networks for traffic flow forecasting[C]// Proc of the 33rd AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2019: 922-929.
[11]Song Chao, Lin Youfang, Guo Shengnan,et al. Spatial-temporal synchronous graph convolutional networks: a new framework for spatial-temporal network data forecasting [C]// Proc of the 34th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 914-921.
[12]周楚昊, 林培群. 基于多通道Transformer的交通量預(yù)測方法 [J]. 計算機應(yīng)用研究, 2023, 40(2): 435-439. (Zhou Chuhao, Lin Peiqun. Traffic flow prediction method based on multi-channel Transformer [J]. Application Research of Computers, 2023, 40(2): 435-439.)
[13]何婷, 周艷秋, 辛春花. 基于時空位置關(guān)注圖神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測方法 [J]. 計算機應(yīng)用研究, 2024, 41(10): 2932-2938. (He Ting, Zhou Yanqiu, Xin Chunhua. Traffic flow prediction method based on spatial temporal position attention graph neural network [J]. Application Research of Computers, 2024, 41(10): 2932-2938.)
[14]Wu Zonghan, Pan Shirui, Long Guodong,et al. Graph WaveNet for deep spatial-temporal graph modeling [C]//Proc of the 28th International Joint Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2019: 1907-1913.
[15]Wu Zonghan, Pan Shirui, Long Guodong,et al. Connecting the dots: multivariate time series forecasting with graph neural networks [C]//Proc of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. New York: ACM Press, 2020: 753-763.
[16]Bai Lei, Yao Lina, Li Can,et al. Adaptive graph convolutional recurrent network for traffic forecasting [C]//Proc of the 34th International Conference on Neural Information Processing Systems. New York: ACM Press, 2020: 17804-17815.
[17]Lan Shiyong, Ma Yitong, Huang Weikang, et al. DSTAGNN: dynamic spatial-temporal aware graph neural network for traffic flow forecasting [C]// Proc of International conference on machine learning. Cambridge: PMLR, 2022: 11906-11917.
[18]Yi J, Park J. Hypergraph convolutional recurrent neural network [C]//Proc of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. New York: ACM Press, 2020: 3366-3376.
[19]張永凱, 武志昊, 林友芳, 等. 面向交通流量預(yù)測的時空超關(guān)系圖卷積網(wǎng)絡(luò) [J]. 計算機應(yīng)用, 2021, 41(12): 3578-3584. (Zhang Yongkai, Wu Zhihao, Lin Youfang, et al. Spatio-temporal hyper-relationship graph convolutional network for traffic flow forecasting [J]. Journal of Computer Applications, 2021, 41(12): 3578-3584.)
[20]Zhao Zhenzhen, Shen Guojiang, Zhou Junjie,et al. Spatial-temporal hypergraph convolutional network for traffic forecasting [J]. PeerJ Computer Science, 2023, 9: e1450.
[21]Feng Yifan, You Haoxuan, Zhang Zizhao, et al. Hypergraph neural networks [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2019: 3558-3565.
[22]Gao Yue, Feng Yifan, Ji Shuyi, et al. HGNN+: general hypergraph neural networks [J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2023, 45(3): 3181-3199.
[23]Pan Junren, Lei Baiying, Shen Yanyan,et al. Characterization multimodal connectivity of brain network by hypergraph GAN for Alzheimer’s disease analysis[C]// Proc of the 4th Chinese Conference on Pattern Recognition and Computer Vision. Cham: Springer International Publishing, 2021: 467-478.
[24]Luo Xiaoyi, Peng Jiaheng, Liang Jun. Directed hypergraph attention network for traffic forecasting [J]. IET Intelligent Transport Systems, 2022, 16(1): 85-98.
[25]Fu Jun, Hou Chen, Zhou Wei,et al. Adaptive hypergraph convolutional network for No-reference 360-degree image quality assessment [C]//Proc of the 30th ACM International Conference on Multimedia. New York: ACM Press, 2022: 961-969.
[26]Yadati N, Nimishakavi M, Yadav P, et al. HyperGCN: a new method of training graph convolutional networks on hypergraphs [C]// Proc of the 33rd International Conference on Neural Information Processing Systems. Red Hook, NY:Curran Associates, 2019: 1511-1522.
[27]Bandyopadhyay S, Das K, Murty M N. Line hypergraph convolution network:applying graph convolution for hypergraphs [EB/OL]. (2020-02-09). https://arxiv.org/abs/2002.03392.
[28]谷振宇, 陳聰, 鄭家佳, 等. 考慮時空相似性的動態(tài)圖卷積神經(jīng)網(wǎng)絡(luò)交通流預(yù)測 [J]. 控制與決策, 2023, 38(12): 3399-3408. (Gu Zhenyu, Chen Cong, Zheng Jiajia, et al. Traffic flow prediction based on STG-CRNN [J]. Control and Decision, 2023, 38(12): 3399-3408.)
[29]Dai Qionghai, GaoYue. Hypergraph Computation [M]. Singapore: Springer Nature Singapore, 2023.
[30]Shi Xingjian, Chen Zhourong, Wang Hao,et al. Convolutional LSTM network [C]//Proc of the 28th International Conference on Neural Information Processing Systems. New York: ACM Press, 2015: 802-810.
[31]Chen Yunpeng, Kalantidis Y, Li Jianshu, et al. A 2-Nets: double attention networks [C]// Proc of the 32nd International Conference on Neural Information Processing Systems. Red Hook,NY: Curran Associates, 2018: 350-359.
[32]Jiang Renhe, Yin Du, Wang Zhaonan,et al. DL-traff: survey and benchmark of deep learning models for urban traffic prediction [C]//Proc of the 30th ACM International Conference on Information amp; Knowledge Management. New York: ACM Press, 2021: 4515-4525.
[33]Lai Guokun, Chang Weicheng, Yang Yiming,et al. Modeling long- and short-term temporal patterns with deep neural networks [C]// Proc of the 41st International ACM SIGIR Conference on Research amp; Development in Information Retrieval. New York: ACM Press, 2018: 95-104.
[34]Zheng Chuanpan, Fan Xiaoliang, Wang Cheng,et al. GMAN: a graph multi-attention network for traffic prediction[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 1234-1241.
[35]Zheng Ge, Chai W K, Katos V. A dynamic spatial-temporal deep learning framework for traffic speed prediction on large-scale road networks [J]. Expert Systems with Applications, 2022, 195: 116585.