• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于時(shí)空位置關(guān)注圖神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測(cè)方法

    2024-10-14 00:00:00何婷周艷秋辛春花
    計(jì)算機(jī)應(yīng)用研究 2024年10期

    摘 要:針對(duì)現(xiàn)有交通流預(yù)測(cè)方法存在難以構(gòu)建空間和時(shí)間依賴關(guān)系的問(wèn)題,提出了新的利用時(shí)空位置注意力的圖神經(jīng)網(wǎng)絡(luò)(ST-PAGNN)方法。首先,該圖神經(jīng)網(wǎng)絡(luò)中包含有位置關(guān)注機(jī)制,由此能夠更好地對(duì)城市道路網(wǎng)絡(luò)中交通節(jié)點(diǎn)的空間依賴關(guān)系進(jìn)行有效捕捉;然后,利用帶有trend adaptive Transformer (Trendformer)的門控遞歸神經(jīng)網(wǎng)絡(luò)來(lái)捕捉交通流序列在時(shí)間維度上的局部和全局信息;最后,利用改進(jìn)的網(wǎng)格搜索優(yōu)化方法對(duì)模型的引入?yún)?shù)進(jìn)行優(yōu)化,并以較高的時(shí)間效率獲得全局最優(yōu)解。實(shí)驗(yàn)結(jié)果表明,在數(shù)據(jù)集PEMS-BAY中,預(yù)測(cè)步長(zhǎng)分別為15 min,30 min,60 min時(shí),ST-PAGNN的評(píng)價(jià)指標(biāo)RMSE、MAE和MAPE分別為1.37,2.57,2.67%,1.55,3.64,3.37%,1.97,4.37,4.43%;在數(shù)據(jù)集METR-LA中,預(yù)測(cè)步長(zhǎng)分別為15 min,30 min,60 min時(shí),ST-PAGNN的評(píng)價(jià)指標(biāo)RMSE、MAE和MAPE分別為2.73,5.16,7.13%,2.99,5.97,7.86%,3.53,7.16,9.96%。結(jié)論表明,ST-PAGNN在不同粒度下的評(píng)價(jià)指標(biāo)中均高于現(xiàn)有模型,從而說(shuō)明了ST-PAGNN在解決交通預(yù)測(cè)問(wèn)題方面的有效性和優(yōu)越性。

    關(guān)鍵詞:ST-PAGNN;交通流預(yù)測(cè);深度學(xué)習(xí);圖卷積神經(jīng)網(wǎng)絡(luò);門控循環(huán)單元;Trendformer

    中圖分類號(hào):TP391 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1001-3695(2024)10-008-2932-07

    doi:10.19734/j.issn.1001-3695.2024.01.0026

    Traffic flow prediction method based on spatial temporal positionattention graph neural network

    He Ting, Zhou Yanqiu, Xin Chunhua

    (Dept. of Computer Technology & Information Management, Inner Mongolia Agricultural University, Baotou Nei Mongol 010010, China)

    Abstract:To address the challenge of constructing spatial and temporal dependencies in existing traffic flow prediction me-thods, this paper proposed a new method called spatial temporal position attention graph neural network (ST-PAGNN), which utilized spatiotemporal location attention. Firstly, the graph neural network contained a location attention mechanism, which could better capture the spatial dependence of traffic nodes in the urban road network. Then, it used a gated recurrent neural network with trend adaptive transformer (Trendformer) to capture the local and global information of the traffic flow sequence in the time dimension. Finally, it used the improved grid search optimization method to optimize the introduced para-meters of the model, obtaining the global optimal solution with high time efficiency. The experimental results show that in the dataset PEMS-BAY, the evaluation indexes RMSE, MAE and MAPE of the ST-PAGNN method are 1.37, 2.57, 2.67%, 1.55, 3.64, 3.37%, 1.97, 4.37 and 4.43%, respectively, when the prediction step size is 15 min, 30 min and 60 min, respectively. In the dataset METR-LA, when the prediction step size is 15 min, 30 min and 60 min, the evaluation indexes RMSE, MAE and MAPE of the ST-PAGNN method are 2.73, 5.16, 7.13%, 2.99, 5.97, 7.86%, 3.53, 7.16 and 9.96%, respectively. The results show that the proposed ST-PAGNN method is higher than the existing models in the evaluation indexes under different granularities, which illustrates the effectiveness and superiority of ST-PAGNN in solving traffic prediction problems.

    Key words:ST-PAGNN; traffic flow forecasting; deep learning; GCN; GRU; Trendformer

    0 引言

    隨著城市化進(jìn)程的加速和人口的不斷增長(zhǎng),交通擁堵問(wèn)題在人們的日常生活中也越來(lái)越嚴(yán)重[1]。準(zhǔn)確地預(yù)測(cè)未來(lái)短期內(nèi)的交通流是解決交通擁堵問(wèn)題的關(guān)鍵。最近幾年,交通流預(yù)測(cè)領(lǐng)域開(kāi)始普遍應(yīng)用大數(shù)據(jù)以及深度學(xué)習(xí)技術(shù),在此影響下獲得了更加有效的問(wèn)題解決方案[2]。

    大數(shù)據(jù)技術(shù)已經(jīng)成為現(xiàn)代社會(huì)不可或缺的組成部分[3]。在交通領(lǐng)域,大數(shù)據(jù)來(lái)源于各類傳感器、移動(dòng)設(shè)備、交通監(jiān)控系統(tǒng)以及社交媒體等多種渠道,提供了大量的交通信息。這些數(shù)據(jù)的分析和挖掘,通過(guò)準(zhǔn)確地捕捉交通流的特征和模式,可以為短時(shí)交通流預(yù)測(cè)提供有力支持[4]。作為機(jī)器學(xué)習(xí)技術(shù)領(lǐng)域的最新研究和應(yīng)用成果,深度學(xué)習(xí)由于自身所具有的模式識(shí)別能力非常強(qiáng),特征學(xué)習(xí)能力也比較突出等特點(diǎn),所以能夠被深入應(yīng)用到交通流預(yù)測(cè)當(dāng)中。

    目前,對(duì)于短期交通流預(yù)測(cè)的研究主要分為經(jīng)典統(tǒng)計(jì)方法、機(jī)器學(xué)習(xí)方法和深度學(xué)習(xí)方法三類[5]。經(jīng)典統(tǒng)計(jì)方法模型較為簡(jiǎn)單,因此計(jì)算方便,速度較快,但是這些方法對(duì)于平穩(wěn)數(shù)據(jù)的預(yù)測(cè)效果較好,對(duì)于非線性和復(fù)雜的交通流數(shù)據(jù)表現(xiàn)較差?;跈C(jī)器學(xué)習(xí)的方法利用了回歸和分類算法進(jìn)行建模和預(yù)測(cè),能夠?qū)崿F(xiàn)較好的預(yù)測(cè)效果,但在大量數(shù)據(jù)和特征維度較高的情況下,仍然存在性能瓶頸。隨著深度學(xué)習(xí)技術(shù)的興起,基于深度學(xué)習(xí)的方法在交通流預(yù)測(cè)領(lǐng)域取得了顯著的突破,其強(qiáng)大的非線性建模能力使得預(yù)測(cè)準(zhǔn)確性大幅提高[6]。

    為了彌補(bǔ)機(jī)器學(xué)習(xí)相關(guān)方法的不足,現(xiàn)存的深度學(xué)習(xí)方法,大多是通過(guò)設(shè)計(jì)和完善神經(jīng)網(wǎng)絡(luò)來(lái)捕捉交通流信息的時(shí)間和空間依賴性。例如,循環(huán)卷積神經(jīng)網(wǎng)絡(luò) RNN 通過(guò)二維時(shí)空矩陣將時(shí)空交通狀態(tài)轉(zhuǎn)換為描述交通流時(shí)空關(guān)系的圖像,增強(qiáng)了時(shí)空的關(guān)聯(lián)性。RNN的變體[7]長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM解決了RNN梯度消失的問(wèn)題,提高了時(shí)空依賴性。Fu等人[8]提出將門控循環(huán)單元(GRU)遞歸神經(jīng)網(wǎng)絡(luò)(NN)結(jié)合LSTM方法來(lái)捕獲時(shí)空依賴性模型表現(xiàn)良好。以上方法通常適用于規(guī)則的歐幾里德結(jié)構(gòu)的數(shù)據(jù)[9],例如圖像、網(wǎng)格等。但是用于收集交通流信息的檢測(cè)器的分布屬于非歐幾里德結(jié)構(gòu),因此這些方法在交通流預(yù)測(cè)的準(zhǔn)確性上存在局限性。為此,Liu等人[10]提出基于圖卷積網(wǎng)絡(luò)(GCN)的模型用來(lái)提取交通流的領(lǐng)域信息和社區(qū)信息,加快了圖卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展。在圖卷積神經(jīng)網(wǎng)絡(luò)中,層次交叉的交通路線被建模成圖結(jié)構(gòu),圖中交通連接的地方稱為圖結(jié)構(gòu)中的節(jié)點(diǎn),邊權(quán)值叫做節(jié)點(diǎn)歐氏距離。為了捕獲交通數(shù)據(jù)的時(shí)間和空間的依賴性,時(shí)間圖卷積網(wǎng)絡(luò)(T-GCN)、圖卷積網(wǎng)絡(luò)和門控循環(huán)單元相結(jié)合[11~13],用圖卷積學(xué)習(xí)拓?fù)浣Y(jié)構(gòu)以捕捉空間依賴性,同時(shí)用門控遞歸單元學(xué)習(xí)交通數(shù)據(jù)變化以捕獲數(shù)據(jù)的時(shí)間依賴性。相較于之前沒(méi)有采用GCN的方法,這些方法雖然在模型的預(yù)測(cè)精度上有了一定的提升,但是仍然存在一些問(wèn)題:a)采用的是定義好的不變的圖結(jié)構(gòu)[14],不能動(dòng)態(tài)地反映出節(jié)點(diǎn)之間的影響關(guān)系;b)無(wú)法很好地捕捉交通情況,以上方法使用共享模型參數(shù),而對(duì)于特征的交通數(shù)據(jù)情況,無(wú)法捕捉到細(xì)粒度的特征表示,例如交通路段封閉;c)不能同時(shí)有效地捕捉交通流數(shù)據(jù)的時(shí)空依賴性,從而導(dǎo)致其在預(yù)測(cè)準(zhǔn)確率上面存在局限性[15]。

    由于現(xiàn)存方法不能有效解決空間和時(shí)間方面依賴關(guān)系,針對(duì)上述問(wèn)題,本文設(shè)計(jì)了一個(gè)融合空間-時(shí)間依賴和位置注意力圖神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測(cè)方法(spatial temporal position attention graph neural network, ST-PAGNN)。

    本文的主要貢獻(xiàn)如下:

    a)為了捕捉道路之間的空間關(guān)系,引入添加位置注意力機(jī)制的圖神經(jīng)網(wǎng)絡(luò)模型,從而更加有效地聚集來(lái)自相鄰道路的交通流信息。

    b)利用改進(jìn)的網(wǎng)格搜索優(yōu)化方法對(duì)模型的引入?yún)?shù)進(jìn)行優(yōu)化,并以較高的時(shí)間效率獲得全局最優(yōu)解,可以保證整合后模型的普適性。

    c)通過(guò)GCN學(xué)習(xí)拓?fù)鋪?lái)捕獲空間依賴性,將LSTM[15]網(wǎng)絡(luò)嵌入到GCN增加網(wǎng)絡(luò)時(shí)間記憶功能來(lái)捕獲時(shí)間特征,增強(qiáng)長(zhǎng)序列處理的能力。

    d)通過(guò)結(jié)合GRU和Trendformer來(lái)捕捉局部和全局的時(shí)間依賴性,獲取交通流的動(dòng)態(tài)趨勢(shì),增強(qiáng)模型對(duì)特殊事件發(fā)生的魯棒性。

    e)提出了新的ST-PAGNN框架進(jìn)行交通流的預(yù)測(cè),特別用于對(duì)具有復(fù)雜拓?fù)浜蜁r(shí)間依賴性的系列數(shù)據(jù)進(jìn)行建模。在真實(shí)的數(shù)據(jù)集上驗(yàn)證了ST-PAGNN的可行性和優(yōu)勢(shì),特別是對(duì)于以分鐘為單位的短時(shí)交通速度預(yù)測(cè)。實(shí)驗(yàn)表明,提出的模型明顯優(yōu)于其他幾種先進(jìn)的方法。

    1 相關(guān)工作

    在交通流預(yù)測(cè)領(lǐng)域,基于傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的方法已經(jīng)取得了一定的研究成果[16]。基于短時(shí)交通流預(yù)測(cè)問(wèn)題的深入研究和分析需要,本文在對(duì)交通流預(yù)測(cè)方法進(jìn)行闡釋時(shí),主要基于傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)兩個(gè)維度進(jìn)行。

    1.1 基于傳統(tǒng)的機(jī)器學(xué)習(xí)的交通流預(yù)測(cè)方法

    基于傳統(tǒng)的機(jī)器學(xué)習(xí)方法通常依賴于手動(dòng)選取的特征提取,通過(guò)構(gòu)建和訓(xùn)練機(jī)器學(xué)習(xí)模型來(lái)預(yù)測(cè)交通流量[17]。這些方法主要基于統(tǒng)計(jì)模型、回歸模型和決策樹等,它們?cè)诮煌髁款A(yù)測(cè)中具有一定的可靠性和可解釋性。

    常見(jiàn)的基于傳統(tǒng)的機(jī)器學(xué)習(xí)的方法包括:回歸模型如線性回歸和非線性回歸;決策樹算法如CART、隨機(jī)森林和支持向量機(jī)(SVM)等。Toan等人[18]提出了一種使用支持向量機(jī)進(jìn)行短期交通流預(yù)測(cè)的有效方法,與基線方法(包括歷史平均值、基于當(dāng)前時(shí)間和雙指數(shù)平滑預(yù)測(cè)因子)進(jìn)行比較。為了證明 SVM 的效率和準(zhǔn)確性,在新加坡泛島高速公路的一段路上使用了一個(gè)月的時(shí)間序列交通流量數(shù)據(jù)來(lái)訓(xùn)練和測(cè)試模型。結(jié)果表明,在大多數(shù)預(yù)測(cè)區(qū)間和各種交通條件下,在30 min的滾動(dòng)水平線上,SVM的性能顯著優(yōu)于基線方法。Miao等人[19]提出了一種多任務(wù)貝葉斯增強(qiáng)的對(duì)抗時(shí)空網(wǎng)絡(luò)MBA-STNet來(lái)學(xué)習(xí)特定任務(wù)的特征和共享特征。結(jié)果表明,MBA-STNet優(yōu)于目前先進(jìn)的方法。這些方法能夠利用歷史交通數(shù)據(jù)和其他影響因素,構(gòu)建模型來(lái)預(yù)測(cè)交通流量。Peng等人[20]提出了ARIMA-SVM組合預(yù)測(cè)模型用于預(yù)測(cè)城市短期交通流量。首先,利用ARIMA和SVM預(yù)測(cè)城市短期交通流量;然后,利用更新的動(dòng)態(tài)權(quán)重加權(quán)融合方法預(yù)測(cè)城市交通流量,得到ARIMA-SVM組合預(yù)測(cè)模型,并將結(jié)果與單獨(dú)的ARIMA和SVM進(jìn)行比較。實(shí)證結(jié)果表明,ARIMA-SVM組合模型能夠更準(zhǔn)確地預(yù)測(cè)城市的短期交通流量。然而,這類方法對(duì)于特征提取的依賴性較強(qiáng),需要人工選取合適的特征,并且在處理非線性和高維數(shù)據(jù)方面的能力有限。

    1.2 基于深度學(xué)習(xí)的交通流預(yù)測(cè)方法

    最近幾年,研究領(lǐng)域開(kāi)始越來(lái)越關(guān)注基于深度學(xué)習(xí)的交通流預(yù)測(cè)方法。深度學(xué)習(xí)方法通過(guò)構(gòu)建多層神經(jīng)網(wǎng)絡(luò),可以自動(dòng)學(xué)習(xí)交通流的特征和模式,并將其應(yīng)用于交通流量的預(yù)測(cè)。相對(duì)于傳統(tǒng)的機(jī)器學(xué)習(xí)方法,深度學(xué)習(xí)具有更強(qiáng)的非線性建模和特征學(xué)習(xí)能力[21]。

    在日常的研究中,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是應(yīng)用最為普遍的基于深度學(xué)習(xí)的方法,但是除此之外,由此衍生出來(lái)的門控循環(huán)單元網(wǎng)絡(luò)以及卷積神經(jīng)網(wǎng)絡(luò)(CNN)等也比較常見(jiàn)。文獻(xiàn)[22]提出了一種名為M-B-LSTM的混合深度學(xué)習(xí)網(wǎng)絡(luò)模型來(lái)對(duì)短期交通流進(jìn)行預(yù)測(cè)。該模型包括數(shù)據(jù)映射層、統(tǒng)計(jì)分布和深度雙向長(zhǎng)短期記憶網(wǎng)絡(luò)(DBLSTM)。通過(guò)這些組件,M-B-LSTM能夠有效地處理交通流數(shù)據(jù)存在的分布不平衡、過(guò)擬合和不確定性問(wèn)題,從而準(zhǔn)確預(yù)測(cè)未來(lái)一段時(shí)間內(nèi)的交通流狀態(tài)。此外,經(jīng)過(guò)充分的對(duì)比實(shí)驗(yàn),結(jié)果表明,與現(xiàn)有方法相比,所提模型在解決不確定性和過(guò)擬合問(wèn)題方面具有更好的能力。Zheng等人[23]提出了一種基于深度學(xué)習(xí)的模型,該模型使用混合和多層架構(gòu)來(lái)自動(dòng)提取交通流數(shù)據(jù)的固有特征。首先,為了對(duì)空間和短期時(shí)間特征進(jìn)行有效的提取,最好的方法就是進(jìn)行基于注意力的Conv-LSTM模塊的開(kāi)發(fā),而這又必須要建立在卷積神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)基礎(chǔ)之上;科學(xué)合理制定注意力機(jī)制,在自動(dòng)對(duì)各個(gè)權(quán)重進(jìn)行有效分配的基礎(chǔ)之上,能夠有效對(duì)各個(gè)時(shí)間流序列的不同重要程度進(jìn)行界定。其次,基于對(duì)長(zhǎng)期時(shí)間特征進(jìn)行深入研究的需要,構(gòu)建了全新的雙向LSTM(Bi-LSTM)模塊,據(jù)此來(lái)對(duì)每日和每周的周期性特征進(jìn)行提取,由此能夠更好地對(duì)交通流從前向和后向的發(fā)展變化情況進(jìn)行捕捉。最后,通過(guò)大量的實(shí)驗(yàn)結(jié)果表明,與其他現(xiàn)有方法相比,所提結(jié)合注意力轉(zhuǎn)換和Bi-LSTM的模型具有更好的預(yù)測(cè)性能。Han等人[24]提出了一個(gè)名為L(zhǎng)ST-GCN的模型。利用LSTM(長(zhǎng)短期記憶)網(wǎng)絡(luò)優(yōu)化GCN(圖卷積網(wǎng)絡(luò))參數(shù)來(lái)模擬交通流預(yù)測(cè)中存在的時(shí)空相關(guān)性。具體來(lái)說(shuō),本文通過(guò)GCN學(xué)習(xí)拓?fù)鋪?lái)捕獲空間相關(guān)性,通過(guò)將LSTM網(wǎng)絡(luò)嵌入GCN的訓(xùn)練過(guò)程中來(lái)捕獲時(shí)間相關(guān)性。該方法改進(jìn)了原有時(shí)空交通流預(yù)測(cè)中循環(huán)神經(jīng)網(wǎng)絡(luò)和圖神經(jīng)網(wǎng)絡(luò)相結(jié)合的傳統(tǒng)方法,能夠更好地捕捉交通流中存在的時(shí)空特征。在PEMS數(shù)據(jù)集上進(jìn)行的大量實(shí)驗(yàn)證明了與其他最新方法相比,該方法更有效。 Liu等人[25]提出一種基于GCN和LSTM網(wǎng)絡(luò)的深度學(xué)習(xí)網(wǎng)絡(luò)。該模型是使用綿陽(yáng)市的本地交通數(shù)據(jù)進(jìn)行訓(xùn)練和測(cè)試的。在引入新的深度學(xué)習(xí)網(wǎng)絡(luò)后,本文還建立了一種基于時(shí)間相關(guān)性選擇相關(guān)道路鏈接作為模型輸入的數(shù)據(jù)縮減方法。最后,將所提算法與其他常用方法進(jìn)行對(duì)比,在常規(guī)的5 min預(yù)測(cè)測(cè)試中可以獲得更好的結(jié)果。同時(shí),GCN-LSTM模型的性能可以通過(guò)多步預(yù)測(cè),在5~125 min的不同時(shí)間內(nèi)保持,比其他模型要好得多。這些方法能夠通過(guò)多層次的網(wǎng)絡(luò)結(jié)構(gòu),捕捉交通流的時(shí)序特征和空間關(guān)系,提高交通流量預(yù)測(cè)的準(zhǔn)確性。深度學(xué)習(xí)方法還可以通過(guò)端到端的訓(xùn)練過(guò)程,自動(dòng)進(jìn)行特征學(xué)習(xí)和模型優(yōu)化,減少對(duì)人工特征工程的依賴。

    基于上述分析可知,盡管現(xiàn)有的交通流預(yù)測(cè)方法取得了優(yōu)異的表現(xiàn),但是當(dāng)前利用注意力機(jī)制捕獲動(dòng)態(tài)空間依賴的模型只使用了車速信息,忽視了其他的一些信息,也沒(méi)有利用全局的時(shí)間依賴。并且大多數(shù)的研究工作在空間和時(shí)間依賴性的建模上有一定的局限性,難以充分挖掘潛藏在復(fù)雜交通網(wǎng)絡(luò)中的內(nèi)在模式,難以實(shí)現(xiàn)精準(zhǔn)的交通流預(yù)測(cè)。因此,提出了基于ST-PAGNN的交通流預(yù)測(cè)方法。

    2 基于ST-PAGNN的交通流預(yù)測(cè)方法

    時(shí)空?qǐng)D神經(jīng)網(wǎng)絡(luò)框架如圖1所示,由三個(gè)主要部分組成:a)空間圖神經(jīng)網(wǎng)絡(luò)(S-GNN)層,用于捕捉道路之間的空間關(guān)系;b)GRU層,用于捕捉序列中的時(shí)間關(guān)系(或局部時(shí)間依賴性);c)改進(jìn)的Transformer層,用于直接捕捉序列中的長(zhǎng)程時(shí)間依賴性(或全局時(shí)間依賴性)。需要注意的是,S-GNN層用于模擬節(jié)點(diǎn)之間的空間關(guān)系,并且同時(shí)應(yīng)用于GRU單元的輸入和隱藏表示,如圖1所示。GRU層[26]和改進(jìn)的Transformer層[27]都用于獨(dú)立地捕捉每個(gè)節(jié)點(diǎn)的時(shí)間相關(guān)性,分別從不同的角度進(jìn)行捕捉。接下來(lái),首先討論利用S-GNN來(lái)建??臻g依賴性,然后介紹如何利用GRU層和Transformer層來(lái)捕捉時(shí)間依賴性。在介紹完這些組件之后,將對(duì)整個(gè)框架進(jìn)行簡(jiǎn)要總結(jié)。

    2.1 空間依賴性建模

    交通網(wǎng)絡(luò)G對(duì)道路之間的關(guān)系進(jìn)行了編碼。交通網(wǎng)絡(luò)中的道路如果彼此之間連接在一起,那么其存在相似屬性的幾率也就越大。如果屬于間距較近的兩條路,那么其中任意一條路上出現(xiàn)的交通狀況都可能會(huì)影響到對(duì)方。所以,有必要借助于圖神經(jīng)網(wǎng)絡(luò)模型(graph neural networks model)[28]來(lái)對(duì)其空間進(jìn)行捕捉,通過(guò)網(wǎng)絡(luò)轉(zhuǎn)換和傳播信息。給定網(wǎng)絡(luò)上Xin∈Euclid ExtraaBpN×din的輸入信息,可生成輸出Xout∈Euclid ExtraaBpN×dout如下:

    Xout=σ(D-1/2AD-1/2XinW)(1)

    其中:σ為非線性激活函數(shù),采用ReLU(·);A=A+IN是細(xì)化鄰接矩陣;IN是N維標(biāo)識(shí)矩陣;D是細(xì)化度矩陣Dii=∑jAij;W是要學(xué)習(xí)的參數(shù)。式(1)中的運(yùn)算總結(jié)如下:

    Xout=fg(A,Xin)(2)

    上述都是以網(wǎng)絡(luò)信息為載體的工作,而處于道路上傳感器間的地理臨近性又是形成網(wǎng)絡(luò)信息的基本前提。但是,道路間實(shí)際上可能會(huì)存在更為復(fù)雜的影響。比如,車輛密度、道路狀況等因素也都可能會(huì)對(duì)交通流量產(chǎn)生重大影響。所以,式(1)在具體進(jìn)行聚合的過(guò)程當(dāng)中,要避免在某個(gè)中心點(diǎn)對(duì)相近節(jié)點(diǎn)的信息進(jìn)行平均聚合。本文嘗試采用全新的位置表示來(lái)對(duì)各個(gè)節(jié)點(diǎn)的這些因素進(jìn)行捕捉。如果用vi來(lái)表示各節(jié)點(diǎn),那么對(duì)應(yīng)地采用pi來(lái)表示該點(diǎn)對(duì)周圍點(diǎn)的信息進(jìn)行聚合之后的結(jié)果,任意兩個(gè)節(jié)點(diǎn)之間的相互作用關(guān)系計(jì)算如式(3)所示。

    R[i, j]=exp(Φ(score(pi,pj)))∑Nk=1exp(Φ(score(pi,pk)))(3)

    其中:Φ表示非線性映射函數(shù),用來(lái)對(duì)節(jié)點(diǎn)間的得分進(jìn)行變換;score()是一個(gè)用點(diǎn)積建模的關(guān)系得分函數(shù)。

    score(pi,pj)=pTipj(4)

    除此之外,借助于掩碼來(lái)稀疏化處理關(guān)系矩陣R,從而使計(jì)算變得更加簡(jiǎn)便:

    mask(R)=Rij if Aij > 0

    0 otherwise(5)

    然后,就可以對(duì)新學(xué)習(xí)的關(guān)系矩陣mask(R)進(jìn)行GCN運(yùn)算:

    Xout=σ(D-1/2RRD-1/2RXinW(l))(6)

    其中:R=mask(R)+IN;DR是R的度矩陣。式(7)為式(6)的簡(jiǎn)寫,以捕捉空間關(guān)系:

    Xout=fa(A,Xin)(7)

    2.2 時(shí)間依賴性建模

    基于對(duì)時(shí)間依賴性進(jìn)行捕捉的需要,本文在對(duì)序列信息進(jìn)行處理時(shí)借助了門控遞歸單元[26]。各個(gè)時(shí)間步分別有對(duì)應(yīng)的一個(gè)隱藏表示被保留,以便對(duì)下個(gè)時(shí)間步的信息流進(jìn)行控制,同時(shí)當(dāng)前時(shí)間步也是以此作為輸出。在所有的節(jié)點(diǎn)上都獨(dú)立應(yīng)用了GRU運(yùn)算,但是彼此之間能夠共享GRU參數(shù)。為了在對(duì)序列進(jìn)行處理時(shí)能夠?qū)⒖臻g關(guān)系納入其中,借助于式(7)中修改后的GCN來(lái)對(duì)GRU的輸入和隱藏表示進(jìn)行運(yùn)算。具體而言,將Xt和上一步的隱藏表示Ht-1輸入到t也就是時(shí)間步驟當(dāng)中,將修正的GCN運(yùn)算應(yīng)用其中:

    Xt=fa(A,Xt)Ht-1=fa(A,Ht-1)

    (8)

    那么,對(duì)于時(shí)間步長(zhǎng)為t的每個(gè)節(jié)點(diǎn) vi,GRU 的運(yùn)行情況 可以表示如下:

    zt=σz(WzXt[i,:]+UzHt-1[i,:]+bz)

    rt=σr(WrXt[i,:]+UrHt-1[i,:]+br)

    Ht[i,:]=tanh(WhXt[i,:]+Uh(rt⊙UhHt-1[i,:])+bh)

    Ht[i,:]=(1-zt)Ht-1[i,:]+zt⊙Ht[i,:]

    (9)

    其中:元素相乘用⊙表示;Wz和Uz代表更新門的權(quán)重矩陣;Wr和Ur代表重置門的權(quán)重矩陣;Wh,Uh代表候選隱藏狀態(tài)的權(quán)重矩陣;Ht[i,:]具有雙重角色,為及時(shí)輸出結(jié)果,同時(shí)也作為輸入存在于下一時(shí)間步中。

    GRU的主要作用在于對(duì)局部時(shí)間信息進(jìn)行捕捉。但是,在現(xiàn)實(shí)當(dāng)中,時(shí)間信息除了具有順序相關(guān)之外還存在其他相關(guān)性。所以,在預(yù)測(cè)交通速度過(guò)程當(dāng)中必須要做好對(duì)全局時(shí)間信息的捕捉。因此,在GRU層之后,采用了Trendformer來(lái)直接捕捉全局相關(guān)性。對(duì)于節(jié)點(diǎn)vi,將GRU的輸出序列(H1[i,:],…,HT[i,:])作為轉(zhuǎn)換器的輸入。

    Trendformer由一個(gè)自適應(yīng)趨勢(shì)模塊、一個(gè)時(shí)空編碼器、一個(gè)時(shí)空解碼器和一個(gè)輸出模塊組成。時(shí)空編碼器的主要構(gòu)成部分為時(shí)間編碼器和空間編碼器,且兩者并行存在。對(duì)于后者而言,又可以細(xì)分為串行存在的時(shí)間編碼器和空間編碼器。時(shí)間編碼器和時(shí)間解碼器對(duì)序列進(jìn)行多頭關(guān)注,以提取時(shí)間相關(guān)性??臻g編碼器和空間解碼器對(duì)傳感器圖進(jìn)行多頭關(guān)注,以提取空間相關(guān)性。將時(shí)間編碼器和空間編碼器的輸出進(jìn)行融合,以獲得編碼輸出。自適應(yīng)趨勢(shì)模塊根據(jù)編碼輸出確定可向解碼器傳輸多少趨勢(shì)信息,并控制預(yù)測(cè)輸出在趨勢(shì)周圍的波動(dòng)強(qiáng)度。然后,編碼器和自適應(yīng)趨勢(shì)模塊的輸出被送入時(shí)空解碼器。時(shí)空解碼器之后是一個(gè)輸出模塊,用于產(chǎn)生多步預(yù)測(cè)輸出,并最終輸出Hviout∈Euclid ExtraaBpT×d。Trendformer的網(wǎng)絡(luò)結(jié)構(gòu)如圖2所示。

    2.3 預(yù)測(cè)層

    在經(jīng)過(guò)Trendformer之后,將輸入數(shù)據(jù)設(shè)定為{Hviout|∈vi∈V},借助于多層前饋網(wǎng)絡(luò)以便更好地對(duì)交通流未來(lái)的變化情況進(jìn)行預(yù)測(cè)。

    訓(xùn)練時(shí)必須要按照三部分來(lái)拆分歷史數(shù)據(jù)y,得到的為ytrain、ytest以及yvalid,分別對(duì)應(yīng)的內(nèi)容為訓(xùn)練、測(cè)試以及驗(yàn)證。然后,通過(guò)滑動(dòng),在訓(xùn)練數(shù)據(jù)ytrain上能夠得到窗口,其長(zhǎng)度為T+T′,由此能夠得到相應(yīng)的訓(xùn)練序列。其中輸入為前T個(gè)元素,而基本事實(shí)則是剩下的T′元素。最后,將損失設(shè)定為平均絕對(duì)誤差,可以表示如下:

    L=∑|ytrain|-T′t=1d(f(Yt+1,…,Yt+T),(Yt+T+1,…,Yt+T+T′))(10)

    其中:

    d(f(Yt+1,…,Yt+T),(Yt+T+1,…,Yt+T+T′))=

    ∑T′i=1‖Y^t+T+i-Yt+T+i‖(11)

    (Y^t+T+1,…,Y^t+T+T′)=f(Yt+1,…,Yt+T)(12)

    其中: f()是預(yù)測(cè)模型,通過(guò)式(10)的最小化損失函數(shù)完成訓(xùn)練。

    2.4 參數(shù)優(yōu)化策略

    參數(shù)的選擇對(duì)模型的性能起著至關(guān)重要的作用。所提模型利用C和Gamma的獨(dú)立特性,通過(guò)分布式資源并行執(zhí)行網(wǎng)格搜索來(lái)縮短模型搜索時(shí)間。

    a)對(duì)數(shù)據(jù)集進(jìn)行數(shù)據(jù)清理和歸一化。根據(jù)時(shí)間延遲t和嵌入維度m重構(gòu)相空間后,作為模型訓(xùn)練和測(cè)試輸入。

    b)初始化模型參數(shù),并將訓(xùn)練集分為兩部分,第一部分訓(xùn)練集用于GRU訓(xùn)練數(shù)據(jù),第二部分子集用于預(yù)測(cè)。

    c)將第二部分子集的預(yù)測(cè)值和實(shí)際值拼接后作為元學(xué)習(xí)器的訓(xùn)練數(shù)據(jù)。

    d)初始化Trendformer的C和Gamma參數(shù)范圍和步驟,通過(guò)多線程網(wǎng)格搜索找到最優(yōu)模型,并在交叉驗(yàn)證后返回最優(yōu)參數(shù)組合。

    e)根據(jù)最優(yōu)參數(shù)重建集成模型,并調(diào)用該模型對(duì)測(cè)試數(shù)據(jù)進(jìn)行預(yù)測(cè)。

    3 實(shí)驗(yàn)

    3.1 實(shí)驗(yàn)環(huán)境和數(shù)據(jù)集

    實(shí)驗(yàn)環(huán)境配置參數(shù)如表1所示。每個(gè)模型的實(shí)驗(yàn)結(jié)果均為十次實(shí)驗(yàn)結(jié)果的平均值。

    實(shí)驗(yàn)中采用前12個(gè)節(jié)點(diǎn)進(jìn)行預(yù)測(cè),分別預(yù)測(cè)未來(lái)15 min、30 min、60 min的交通流速[29]。在本次實(shí)驗(yàn)中,將模型訓(xùn)練的迭代次數(shù)(epoch)設(shè)置為100,批量大?。╞atch size)設(shè)置為64,同時(shí)優(yōu)化器(optimizer)選擇了AdamW,損失函數(shù)(loss function)使用的是MAE指標(biāo)。實(shí)驗(yàn)中的學(xué)習(xí)率為動(dòng)態(tài)學(xué)習(xí)率[30],如式(1)所示。

    newepochlr=startlr×[epochstepsize](13)

    其中:newepochlr代表對(duì)應(yīng)迭代次數(shù)的學(xué)習(xí)率;startlr代表模型訓(xùn)練時(shí)的初始學(xué)習(xí)率;為每次更新學(xué)習(xí)率的乘法因子;[]為向下取整運(yùn)算;stepsize為更新學(xué)習(xí)率的步長(zhǎng)。初始學(xué)習(xí)率startlr設(shè)置為0.001,乘法因子設(shè)置為0.999,更新步長(zhǎng)stepsize設(shè)置為10。這里的初始學(xué)習(xí)率startlr、乘法因子以及更新步長(zhǎng)stepsize均是根據(jù)文獻(xiàn)[30]來(lái)進(jìn)行設(shè)置的,同時(shí)也通過(guò)采用控制變量法進(jìn)行對(duì)比實(shí)驗(yàn),驗(yàn)證了這些參數(shù)的設(shè)置能夠使得模型取得最好的結(jié)果。此外,這些參數(shù)被設(shè)置后,再次通過(guò)使用控制變量法進(jìn)行實(shí)驗(yàn),然后選取對(duì)比實(shí)驗(yàn)中結(jié)果最佳狀態(tài)下的批量大小。

    在兩個(gè)真實(shí)世界的流量數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),簡(jiǎn)要介紹如下:

    a)METR-LA。該數(shù)據(jù)為從洛杉磯縣的高速公路上的檢測(cè)器上收集的交通速度[31]數(shù)據(jù)。每5 min記錄一次每個(gè)節(jié)點(diǎn)的交通速度,本文使用的數(shù)據(jù)的時(shí)間跨度為2020年3月1日至2020年6月30日,時(shí)間為4個(gè)月。時(shí)間片總數(shù)為34 272個(gè)。

    b)PEMS-BAY。該數(shù)據(jù)集來(lái)自加州交通部(Caltrans)的性能測(cè)量系統(tǒng)(PeMS)[32]。本文使用的數(shù)據(jù)來(lái)自灣區(qū)的325個(gè)傳感器,時(shí)間跨度為2020年1月1日至2020年5月31日,為期6個(gè)月。同樣該數(shù)據(jù)每5 min被記錄一次,包含了52 116個(gè)時(shí)間切片。表2展示了兩個(gè)數(shù)據(jù)集的關(guān)鍵信息。

    3.2 評(píng)估指標(biāo)

    為了能夠確保最終的實(shí)驗(yàn)結(jié)果更加具有客觀性,在選取性能指標(biāo)上主要包括平均絕對(duì)誤差(mean absolute error, MAE)、平均絕對(duì)誤差百分比(mean absolute percentage error,MAPE)和均方根誤差(root mean square error,RMSE)三部分。

    評(píng)價(jià)指標(biāo)計(jì)算公式如式(14)~(16)所示。

    MAE=1n∑ni=1|yi-i|(14)

    RMSE=1n∑ni=1(yi-i)2(15)

    MAPE=1n∑ni=1yi-iyi×100%(16)

    其中:yi代表實(shí)際的客流量數(shù)據(jù);i代表預(yù)測(cè)的客流量數(shù)據(jù);n為樣本數(shù)量。上述評(píng)估指標(biāo)的值越小,說(shuō)明模型得到的交通流預(yù)測(cè)效果越好。

    3.3 模型性能比較

    為了驗(yàn)證該模型的優(yōu)越性,設(shè)計(jì)了一組比較實(shí)驗(yàn)。其中,比較模型包括M-B-LSTM[22]、LST-GCN[24]和GCN-LSTM[25]。

    表3、4分別顯示了在數(shù)據(jù)集PEMS-BAY和METR-LA下的預(yù)測(cè)結(jié)果。本文對(duì)提前15 min、30 min和60 min的預(yù)測(cè)結(jié)果進(jìn)行了平均,并突出顯示了每種設(shè)置下的最佳結(jié)果。

    由表3、4可知,實(shí)驗(yàn)數(shù)據(jù)集為PEMS-BAY時(shí),在15 min預(yù)測(cè)步長(zhǎng)下,基線模型中表現(xiàn)最好的是GCN-LSTM,相較于該模型,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)分別降低了0.08、0.41和0.3百分點(diǎn);在30 min預(yù)測(cè)步長(zhǎng)下,基線模型中整體上表現(xiàn)較好的是GCN-LSTM,相較于該模型,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)分別降低了0.19、0.33和0.53百分點(diǎn);在60 min預(yù)測(cè)步長(zhǎng)下,基線模型中整體上表現(xiàn)較好的是LST-GCN,相較于該模型,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)分別降低了0.40、0.30和0.71百分點(diǎn)。實(shí)驗(yàn)數(shù)據(jù)集為METR-LA時(shí),在15 min、30 min以及60 min預(yù)測(cè)步長(zhǎng)時(shí),基線模型中GCN-LSTM均表現(xiàn)較好。在15 min預(yù)測(cè)步長(zhǎng)下,相較于GCN-LSTM,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)分別降低了0.24、0.53和0.66百分點(diǎn);在30 min預(yù)測(cè)步長(zhǎng)下,相較于GCN-LSTM,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)分別降低了0.68、0.89和1.10百分點(diǎn);在60 min預(yù)測(cè)步長(zhǎng)下,相較于GCN-LSTM,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)分別降低了0.23、0.60和0.61百分點(diǎn)。實(shí)驗(yàn)結(jié)果表明,ST-PAGNN在所有情況下均表現(xiàn)良好,展現(xiàn)出模型良好的表現(xiàn)能力。

    3.4 交通流預(yù)測(cè)的性能分析

    為了展示所提模型處理復(fù)雜交通情況的能力,在兩個(gè)真實(shí)數(shù)據(jù)集上進(jìn)行案例研究。從每個(gè)數(shù)據(jù)集分別隨機(jī)選擇一個(gè)交通傳感器節(jié)點(diǎn),時(shí)間間隔設(shè)置為5 min,利用ST-PAGNN獲得交通流預(yù)測(cè)值,并將其與每個(gè)時(shí)間段的真實(shí)值進(jìn)行對(duì)比,在METR-LA和PEMS-BAY數(shù)據(jù)集上得到的可視化結(jié)果如圖3、4所示。

    圖3中,提出模型在早期訓(xùn)練階段(1個(gè)epoch)表現(xiàn)不佳,經(jīng)過(guò)5個(gè)訓(xùn)練epoch后,該模型整體上表現(xiàn)良好,但仍然不能很好地適應(yīng)一些突變情況,如175個(gè)時(shí)間間隔附近。幸運(yùn)的是,當(dāng)執(zhí)行50個(gè)epoch后,該模型的預(yù)測(cè)能力被繼續(xù)提升,且在100個(gè)epoch后幾乎可以完美地接近真實(shí)值。值得注意的是,該傳感器在第100個(gè)時(shí)間間隔附近存在一些缺失值(圖中顯示的數(shù)值為零)。經(jīng)過(guò)100個(gè)訓(xùn)練epoch后,提出模型能夠通過(guò)合理的預(yù)測(cè)來(lái)有效彌合這些缺失值的差距。

    圖4中,對(duì)于從PEMS-BAY采樣的節(jié)點(diǎn),真實(shí)值的曲線非常復(fù)雜,尤其是在末端。同樣,提出的模型能夠快速學(xué)習(xí)以獲得接近真實(shí)值的預(yù)測(cè)結(jié)果,表明該模型可以有效地處理復(fù)雜的交通流量預(yù)測(cè)問(wèn)題。

    3.5 空間依賴性建模分析

    為了驗(yàn)證引入位置注意力機(jī)制的合理性,ST-PAGNN分別與引入無(wú)位置注意力的模型和未引入注意力的模型進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)數(shù)據(jù)集為METR-LA,如表5所示。

    實(shí)驗(yàn)結(jié)果表明,引入位置注意力的ST-PAGNN使得模型在RMSE、MAE和MAPE指標(biāo)上均有所降低,例如,在15 min預(yù)測(cè)步長(zhǎng)下,相較于引入無(wú)位置注意力機(jī)制的模型,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)分別降低了0.15、0.43和0.67百分點(diǎn)。引入位置注意力機(jī)制的ST-PAGNN可以更好地捕捉城市道路網(wǎng)絡(luò)中交通節(jié)點(diǎn)的空間依賴關(guān)系,從而使得交通流預(yù)測(cè)效果得以提升。

    3.6 時(shí)間依賴性建模分析

    為了驗(yàn)證GRU+Trendformer構(gòu)建的合理性,ST-PAGNN分別與未加入Trendformer、未加入GRU和GRU+Transformer進(jìn)行實(shí)驗(yàn)對(duì)比,實(shí)驗(yàn)數(shù)據(jù)集為METR-LA,如表6所示。

    實(shí)驗(yàn)結(jié)果表明,引入位置注意力機(jī)制的GRU+Trendformer使得模型在RMSE、MAE和MAPE指標(biāo)上均有所降低,例如,在15 min預(yù)測(cè)步長(zhǎng)下,相較于對(duì)比模型中表現(xiàn)較好的GRU+Transformer而言,引入位置注意力機(jī)制的GRU+Trendformer在RMSE、MAE和MAPE指標(biāo)方面分別降低了0.94、1.21和2.85百分點(diǎn)。GRU層能夠捕捉時(shí)間依賴,Trendformer層可以捕捉長(zhǎng)期時(shí)間依賴,引入帶有Trendformer層的門控遞歸神經(jīng)網(wǎng)絡(luò)的ST-PAGNN可以更好地捕捉交通流序列在時(shí)間維度上的局部和全局信息,從而使得交通流預(yù)測(cè)效果得以提升。

    為了測(cè)試不同基線和模型的整體性能,本文測(cè)試了Trendformer在RMSE、MAE和MAPE三種指標(biāo)上的精度,表7為各模型在PEMS-BAY數(shù)據(jù)集上對(duì)60 min時(shí)間步長(zhǎng)的預(yù)測(cè)結(jié)果。LSTM相對(duì)比VAR和SVR等傳統(tǒng)的機(jī)器學(xué)習(xí)算法,取得了良好的效果,這說(shuō)明LSTM給本文的模型提供了時(shí)空相關(guān)性。與改進(jìn)的Trendformer相對(duì)比,Transformer在RMSE、MAE和MAPE三個(gè)指標(biāo)上,分別下降了2.11%,2.99%和1.59%,這說(shuō)明Trendformer相比Transformer能夠提供時(shí)空自適應(yīng)學(xué)習(xí)以更好地捕獲數(shù)據(jù)的時(shí)空相關(guān)性。另外對(duì)ST-PAGNN各個(gè)組成部分進(jìn)行消融實(shí)驗(yàn),對(duì)于S-GNN+GRN和Trendformer而言,ST-PAGNN在RMSE、MAE和MAPE指標(biāo)上降低了0.80,0.98,6百分點(diǎn)和0.50,1.30和4.71百分點(diǎn)。當(dāng)結(jié)合三種算法的時(shí)候,三個(gè)指標(biāo)的誤差都有所下降。這驗(yàn)證了Trendformer能夠很好地捕捉交通數(shù)據(jù)的時(shí)空相關(guān)性,同時(shí)在交流預(yù)測(cè)任務(wù)中具有普遍的實(shí)用性和有效性。

    4 結(jié)束語(yǔ)

    雖然目前已有一些關(guān)于預(yù)測(cè)未來(lái)交通流量的研究,但其中大多數(shù)研究在建立空間和時(shí)間依賴關(guān)系模型方面存在一定的局限性。因此,提出了一種新的時(shí)空?qǐng)D神經(jīng)網(wǎng)絡(luò)框架來(lái)解決交通流預(yù)測(cè)問(wèn)題。通過(guò)實(shí)驗(yàn)驗(yàn)證了所提方法的有效性。通過(guò)以上分析和描述,可以得出以下結(jié)論:a)如果圖神經(jīng)網(wǎng)絡(luò)帶有位置注意力機(jī)制,那么據(jù)此能夠?qū)Τ鞘械缆肪W(wǎng)絡(luò)中交通節(jié)點(diǎn)的空間依賴關(guān)系進(jìn)行捕捉;b)利用帶有轉(zhuǎn)換層的門控遞歸神經(jīng)網(wǎng)絡(luò)可以捕捉交通流序列在時(shí)間維度上的局部和全局信息。這有效證明了所提框架在解決交通預(yù)測(cè)問(wèn)題方面的有效性和優(yōu)越性。

    然而,交通網(wǎng)絡(luò)與其他類型的網(wǎng)絡(luò)在結(jié)構(gòu)和動(dòng)態(tài)特性上存在許多差異。因此,直接將該模型應(yīng)用于其他網(wǎng)絡(luò)結(jié)構(gòu)或應(yīng)用場(chǎng)景是不夠嚴(yán)謹(jǐn)?shù)摹榱烁玫乩斫夂屠眠@種時(shí)空模型,未來(lái)將在進(jìn)一步分析不同網(wǎng)絡(luò)的特征和動(dòng)態(tài)的基礎(chǔ)上,嘗試將其優(yōu)勢(shì)應(yīng)用于對(duì)社交網(wǎng)絡(luò)的分析和預(yù)測(cè)任務(wù)中。

    參考文獻(xiàn):

    [1]周楚昊, 林培群. 基于多通道Transformer的交通量預(yù)測(cè)方法[J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(2): 435-439. (Zhou Chuhao, Lin Peiqun. Traffic flow prediction method based on multi-channel Transformer[J]. Application Research of Computers, 2023, 40(2): 435-439.)

    [2]Li Mengzhang, Zhu Zhanxing. Spatial-temporal fusion graph neural networks for traffic flow forecasting[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto, CA: AAAI Press, 2021: 4189-4196.

    [3]劉衛(wèi)明, 羅全成, 毛伊敏, 等. 基于Spark和AMPSO的并行深度卷積神經(jīng)網(wǎng)絡(luò)優(yōu)化算法[J]. 計(jì)算機(jī)應(yīng)用研究, 2023, 40(10): 2957-2966. (Liu Weiming, Luo Quancheng, Mao Yimin,et al. Pa-rallel deep convolutional neural network optimization algorithm based on Spark and AMPSO[J]. Application Research of Computers, 2023, 40(10): 2957-2966.)

    [4]Wang Haoxiang, Smys S. Big data analysis and perturbation using data mining algorithm[J]. Journal of Soft Computing Paradigm, 2021, 3(1): 19-28.

    [5]劉起東, 劉超越, 邱紫鑫, 等. 基于時(shí)間感知Transformer的交通流預(yù)測(cè)方法[J]. 計(jì)算機(jī)科學(xué), 2023, 50(11): 88-96. (Liu Qidong, Liu Chaoyue, Qiu Zixin,et al. Time-aware Transformer for traffic flow forecasting [J]. Computer Science, 2023, 50(11): 88-96.)

    [6]Shu Wanneng, Cai Ken, Xiong N N. A short-term traffic flow prediction model based on an improved gate recurrent unit neural network[J]. IEEE Trans on Intelligent Transportation Systems, 2021, 23(9): 16654-16665.

    [7]Ma Xiaolei, Dai Zhuang, He Zhengbing,et al. Learning traffic as ima-ges: a deep convolutional neural network for large-scale transportation network speed prediction[J]. Sensors, 2017, 17(4): 818.

    [8]Fu Rui, Zhang Zuo, Li Li. Using LSTM and GRU neural network methods for traffic flow prediction[C]// Proc of the 31st Youth Academic Annual Conference of Chinese Association of Automation. Piscataway, NJ: IEEE Press, 2016: 324-328.

    [9]Li Chensheng, Qin Xiaowei, Xu Xiaodong,et al. Scalable graph convolutional networks with fast localized spectral filter for directed graphs[J]. IEEE Access, 2020, 8: 105634-105644.

    [10]Liu Yanbei, Wang Qi, Wang Xiao,et al. Community enhanced graph convolutional networks[J]. Pattern Recognition Letters, 2020, 138: 462-468.

    [11]Yu Bing, Yin Haoteng, Zhu Zhanxing. Spatio-temporal graph convolutional networks: a deep learning framework for traffic forecasting[C]// Proc of the 27th International Joint Conference on Artificial Intelligence. [S.l.]: International Joint Conferences on Artificial Intelligence Organization, 2017: 3634-3640.

    [12]Guo Shengnan, Lin Youfang, Feng Ning,et al. Attention based spatial-temporal graph convolutional networks for traffic flow forecasting[C]// Proc of the 33rd AAAI Conference on Artificial Intelligence and the 31st Innovative Applications of Artificial Intelligence Confe-rence and the 9th AAAI Symposium on Educational Advances in Artificial Intelligence. Palo Alto, CA: AAAI Press, 2019: 922-929.

    [13]Zhao Ling, Song Yujiao, Zhang Chao,et al. T-GCN: a temporal graph convolutional network for traffic prediction [J]. IEEE Trans on Intelligent Transportation Systems, 2020, 21(9): 3848-3858.

    [14]Seo Y, Defferrard M, Vandergheynst P,et al. Structured sequence modeling with graph convolutional recurrent networks[M]// Cheng Long, Leung A C S, Ozawa S. Neural Information Processing. Cham: Springer International Publishing, 2018: 362-373.

    [15]Wang Yunbo, Long Mingsheng, Wang Jianmin,et al. PredRNN: recurrent neural networks for predictive learning using spatiotemporal LSTMs[C]// Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2017: 879-888.

    [16]倪慶劍, 彭文強(qiáng), 張志政, 等. 基于信息增強(qiáng)傳輸?shù)臅r(shí)空?qǐng)D神經(jīng)網(wǎng)絡(luò)交通流預(yù)測(cè)[J]. 計(jì)算機(jī)研究與發(fā)展, 2022, 59(2): 282-293. (Ni Qingjian, Peng Wenqiang, Zhang Zhizheng,et al. Spatial-temporal graph neural network for traffic flow prediction based on information enhanced transmission[J]. Journal of Computer Research and Development, 2022, 59(2): 282-293.)

    [17]Li Cong, Xu Pei. Application on traffic flow prediction of machine learning in intelligent transportation[J]. Neural Computing and Applications, 2021, 33(2): 613-624.

    [18]Toan T D, Truong V H. Support vector machine for short-term traffic flow prediction and improvement of its model training using nearest neighbor approach[J]. Transportation Research Record, 2021, 2675(4): 362-373.

    [19]Hao Miao, Shen Jiaxing, Cao Jiannong,et al. MBA-STNet: Bayes-enhanced discriminative multi-task learning for flow prediction[J]. IEEE Trans on Knowledge and Data Engineering, 2023, 35(7): 7164-7177.

    [20]Peng Jiaxin, Xu Yongneng, Wu Menghui. Short-term traffic flow forecast based on ARIMA-SVM combined model[M]// Wang Wuhong, Wu Jianping, Jiang Xiaobei,et al. Green Transportation and Low Carbon Mobility Safety. International Conference on Green Intelligent Transportation System and Safety. Singapore: Springer Nature Singapore, 2021: 287-300.

    [21]Kashyap A A, Raviraj S, Devarakonda A,et al. Traffic flow prediction models–a review of deep learning techniques[J]. Cogent Engineering, 2022, 9(1): 2010510.

    [22]Qu Zhaowei, Li Haitao, Li Zhihui,et al. Short-term traffic flow forecasting method with M-B-LSTM hybrid network[J]. IEEE Trans on Intelligent Transportation Systems, 2020, 23(1): 225-235.

    [23]Zheng Haifeng, Lin Feng, Feng Xinxin,et al. A hybrid deep learning model with attention-based conv-LSTM networks for short-term traffic flow prediction[J]. IEEE Trans on Intelligent Transportation Systems, 2020, 22(11): 6910-6920.

    [24]Han Xu, Gong Shicai. LST-GCN: long short-term memory embedded graph convolution network for traffic flow forecasting[J]. Electro-nics, 2022, 11(14): 2230.

    [25]Liu Daoguang, Hui Shen, Li Li,et al. A method for short-term traffic flow forecasting based on GCN-LSTM[C]// Proc of International Conference on Computer Vision, Image and Deep Learning. Pisca-taway, NJ: IEEE Press, 2020: 364-368.

    [26]Chauhan N S, Kumar N. Traffic flow forecasting using attention enabled Bi-LSTM and GRU hybrid model[C]// Proc of International Conference on Neural Information Processing. Singapore: Springer Nature Singapore, 2022: 505-517.

    [27]Huang Lei, Zhu Feng, Li Zhiheng. Trendformer: trend adaptive transformer for traffic flow prediction[C]// Proc of the 5th International Conference on Data Science and Information Technology. Piscataway, NJ: IEEE Press, 2022: 1-6.

    [28]Wang Chunzhi, Wang Lu, Wei Siwei,et al. STN-GCN: spatial and temporal normalization graph convolutional neural networks for traffic flow forecasting[J]. Electronics, 2023, 12(14): 3158.

    [29]賀文武, 裴博彧, 毛國(guó)君, 等. 基于輕量時(shí)空?qǐng)D卷積模型的路網(wǎng)交通流預(yù)測(cè)[J]. 鐵道科學(xué)與工程學(xué)報(bào), 2022, 19(9): 2552-2562. (He Wenwu, Pei Boyu, Mao Guojun,et al. Traffic flow forecasting based on lightweight spatial-temporal graph convolution networks model[J]. Journal of Railway Science & Engineering, 2022, 19(9): 2552-2562.)

    [30]Smith L N. Cyclical learning rates for training neural networks [C]// Proc of IEEE Winter Conference on Applications of Computer Vision. Piscataway, NJ: IEEE Press, 2017: 464-472.

    [31]Yuan Lilian, Fang Weilin, Xiao Hongbo,et al. Short-term traffic flow prediction by graph deep learning with spatial temporal modeling[C]// Proc of the 2nd International Conference on Electronic Information Technology and Smart Agriculture. Piscataway, NJ: IEEE Press, 2022: 172-177.

    [32]Wang Luxuan, Bai Lei, Li Ziyue,et al. Correlated time series self-supervised representation learning via spatiotemporal bootstrapping[C]// Proc of the 19th International Conference on Automation Science and Engineering. Piscataway, NJ: IEEE Press, 2023: 1-7.

    [33]Bai Lei, Yao Lina, Li Can,et al. Adaptive graph convolutional recurrent network for traffic forecasting[C]// Proc of the 34th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates Inc., 2020: 17804-17815.

    成人黄色视频免费在线看| 麻豆精品久久久久久蜜桃| 中文在线观看免费www的网站| 内射极品少妇av片p| 这个男人来自地球电影免费观看 | 亚洲,欧美,日韩| 国产女主播在线喷水免费视频网站| 精品国产三级普通话版| 18禁在线无遮挡免费观看视频| 免费在线观看成人毛片| 国产在线男女| 亚洲精品视频女| 精品午夜福利在线看| 亚洲国产最新在线播放| 国产日韩欧美亚洲二区| 国产有黄有色有爽视频| 大码成人一级视频| a 毛片基地| 亚洲人成网站高清观看| 午夜福利网站1000一区二区三区| 国产亚洲午夜精品一区二区久久| 黄色视频在线播放观看不卡| 国产91av在线免费观看| 黄色配什么色好看| 日本wwww免费看| 久久人人爽av亚洲精品天堂 | 男女下面进入的视频免费午夜| 欧美少妇被猛烈插入视频| 日韩亚洲欧美综合| 国产成人a区在线观看| 亚洲人成网站在线观看播放| 男女啪啪激烈高潮av片| 成人漫画全彩无遮挡| 少妇人妻精品综合一区二区| 在线播放无遮挡| 亚洲激情五月婷婷啪啪| 国产男人的电影天堂91| 99九九线精品视频在线观看视频| 国产精品女同一区二区软件| 国产精品精品国产色婷婷| 校园人妻丝袜中文字幕| 精品久久久久久久末码| 国产老妇伦熟女老妇高清| 日本黄色片子视频| 亚洲国产精品国产精品| av视频免费观看在线观看| 久久鲁丝午夜福利片| 国产av码专区亚洲av| 天天躁夜夜躁狠狠久久av| 又大又黄又爽视频免费| 成人18禁高潮啪啪吃奶动态图 | 黑人猛操日本美女一级片| 老司机影院成人| 日本欧美视频一区| 亚洲国产高清在线一区二区三| 菩萨蛮人人尽说江南好唐韦庄| 在线观看免费高清a一片| 在线亚洲精品国产二区图片欧美 | 国产精品不卡视频一区二区| 精华霜和精华液先用哪个| 国产av国产精品国产| 极品教师在线视频| 黄色日韩在线| 又粗又硬又长又爽又黄的视频| 99久国产av精品国产电影| 在线观看一区二区三区激情| 午夜福利网站1000一区二区三区| 成人影院久久| 中文字幕亚洲精品专区| 国产熟女欧美一区二区| 黑人高潮一二区| 亚洲四区av| 精品一区二区三卡| 久久久午夜欧美精品| av一本久久久久| 久久精品国产亚洲网站| 99re6热这里在线精品视频| 精品人妻视频免费看| 久久影院123| 久久久久性生活片| 欧美激情极品国产一区二区三区 | 一级爰片在线观看| av在线蜜桃| 九色成人免费人妻av| 人妻少妇偷人精品九色| 亚洲无线观看免费| 在线观看一区二区三区| 中文字幕精品免费在线观看视频 | 欧美日韩视频高清一区二区三区二| 99热这里只有是精品在线观看| 亚洲性久久影院| 免费人妻精品一区二区三区视频| 久久 成人 亚洲| 亚洲国产精品国产精品| 久久热精品热| 亚洲,一卡二卡三卡| 蜜桃久久精品国产亚洲av| 亚洲色图av天堂| 99热网站在线观看| 国产黄色视频一区二区在线观看| 在线精品无人区一区二区三 | 黄色欧美视频在线观看| 国产永久视频网站| 舔av片在线| 欧美3d第一页| 欧美最新免费一区二区三区| 夫妻午夜视频| 免费看av在线观看网站| 亚洲av二区三区四区| 七月丁香在线播放| 男人和女人高潮做爰伦理| 国产成人a区在线观看| 国产爱豆传媒在线观看| 嫩草影院新地址| 国产欧美日韩一区二区三区在线 | 国产午夜精品一二区理论片| 亚洲成人av在线免费| 日日撸夜夜添| 51国产日韩欧美| 亚洲国产精品999| 少妇人妻一区二区三区视频| 午夜福利影视在线免费观看| 中文资源天堂在线| 3wmmmm亚洲av在线观看| 国产精品久久久久成人av| 日韩欧美一区视频在线观看 | 国产精品女同一区二区软件| 成年av动漫网址| 女性生殖器流出的白浆| 国产欧美另类精品又又久久亚洲欧美| a级毛色黄片| 日本黄色日本黄色录像| 亚洲伊人久久精品综合| 日韩 亚洲 欧美在线| 亚洲无线观看免费| 一本色道久久久久久精品综合| 日韩亚洲欧美综合| 日本黄色日本黄色录像| 日韩av免费高清视频| 日韩一区二区三区影片| 亚洲成人av在线免费| 2018国产大陆天天弄谢| 女的被弄到高潮叫床怎么办| 男女免费视频国产| 校园人妻丝袜中文字幕| 日韩视频在线欧美| 国产黄频视频在线观看| 日韩免费高清中文字幕av| 一级毛片aaaaaa免费看小| 国产黄频视频在线观看| 毛片女人毛片| 国产精品不卡视频一区二区| 中国三级夫妇交换| 免费黄色在线免费观看| 人体艺术视频欧美日本| 成人漫画全彩无遮挡| 熟妇人妻不卡中文字幕| 久久精品人妻少妇| 又粗又硬又长又爽又黄的视频| 国产 精品1| 亚洲性久久影院| 菩萨蛮人人尽说江南好唐韦庄| 老司机影院成人| 欧美老熟妇乱子伦牲交| 街头女战士在线观看网站| 激情五月婷婷亚洲| 在线免费十八禁| 尤物成人国产欧美一区二区三区| 中国美白少妇内射xxxbb| 免费av不卡在线播放| 国产精品99久久99久久久不卡 | 人妻系列 视频| 丝瓜视频免费看黄片| h视频一区二区三区| 国产有黄有色有爽视频| www.色视频.com| 久久国产亚洲av麻豆专区| 久久精品久久久久久久性| av专区在线播放| 人妻夜夜爽99麻豆av| 一本—道久久a久久精品蜜桃钙片| 女人十人毛片免费观看3o分钟| 国产一级毛片在线| 国产成人一区二区在线| 亚洲精品亚洲一区二区| 97在线视频观看| 日本一二三区视频观看| 国产一区二区三区综合在线观看 | 亚洲av中文字字幕乱码综合| 日本wwww免费看| 国产精品99久久99久久久不卡 | 人妻一区二区av| 久久久成人免费电影| 国产美女午夜福利| 九九在线视频观看精品| 成人影院久久| 中文字幕久久专区| 亚洲欧洲国产日韩| 欧美3d第一页| 国产乱人视频| 亚洲欧美清纯卡通| 黄色配什么色好看| 夫妻午夜视频| 亚洲人成网站高清观看| 亚洲欧美精品专区久久| 亚洲欧美中文字幕日韩二区| .国产精品久久| 丰满乱子伦码专区| 最近最新中文字幕大全电影3| 亚洲精品自拍成人| 国产精品熟女久久久久浪| 精品少妇黑人巨大在线播放| 国产男女内射视频| 观看免费一级毛片| 亚洲av成人精品一二三区| 水蜜桃什么品种好| av天堂中文字幕网| 日本爱情动作片www.在线观看| tube8黄色片| 亚洲真实伦在线观看| videossex国产| 亚洲欧美成人精品一区二区| 一边亲一边摸免费视频| 伊人久久国产一区二区| 最黄视频免费看| 老司机影院成人| 黄色配什么色好看| 久久人人爽av亚洲精品天堂 | 免费大片18禁| 精品一品国产午夜福利视频| av免费在线看不卡| 婷婷色av中文字幕| 日韩一本色道免费dvd| 国产精品久久久久久av不卡| 伊人久久精品亚洲午夜| 亚洲精品国产色婷婷电影| 精品亚洲乱码少妇综合久久| 国产 一区精品| 国产淫片久久久久久久久| 国产一区二区三区综合在线观看 | 日本黄色日本黄色录像| 久久影院123| 成人美女网站在线观看视频| 少妇人妻 视频| 亚洲欧美日韩另类电影网站 | 啦啦啦中文免费视频观看日本| 涩涩av久久男人的天堂| 久久精品久久久久久噜噜老黄| 狂野欧美白嫩少妇大欣赏| 久久久久久久久久人人人人人人| 啦啦啦视频在线资源免费观看| 午夜视频国产福利| 又粗又硬又长又爽又黄的视频| 内地一区二区视频在线| 91aial.com中文字幕在线观看| 成年人午夜在线观看视频| 性高湖久久久久久久久免费观看| 欧美一区二区亚洲| 久久久欧美国产精品| 99久久中文字幕三级久久日本| 91精品国产九色| 国产爱豆传媒在线观看| 国产老妇伦熟女老妇高清| 亚洲av二区三区四区| 美女xxoo啪啪120秒动态图| 成人美女网站在线观看视频| 日日撸夜夜添| 久久精品国产鲁丝片午夜精品| 午夜福利在线在线| 亚洲欧美中文字幕日韩二区| 日本黄大片高清| 久久6这里有精品| 免费看不卡的av| 18禁裸乳无遮挡动漫免费视频| 婷婷色av中文字幕| 在线观看免费日韩欧美大片 | 亚洲综合精品二区| 久久久久国产网址| 人人妻人人添人人爽欧美一区卜 | 18禁裸乳无遮挡动漫免费视频| 麻豆乱淫一区二区| 国产乱人视频| 乱系列少妇在线播放| 成人亚洲欧美一区二区av| 亚洲精品久久午夜乱码| 一级毛片aaaaaa免费看小| 日韩伦理黄色片| 精品人妻熟女av久视频| 寂寞人妻少妇视频99o| 国产免费视频播放在线视频| www.av在线官网国产| 91久久精品国产一区二区三区| 国产成人精品一,二区| 观看av在线不卡| 亚洲精品成人av观看孕妇| 亚洲欧美精品自产自拍| 久久午夜福利片| 国产精品99久久久久久久久| 久久久久人妻精品一区果冻| 另类亚洲欧美激情| 麻豆国产97在线/欧美| 观看免费一级毛片| 最近最新中文字幕免费大全7| 婷婷色av中文字幕| 亚洲,欧美,日韩| 欧美精品国产亚洲| av在线老鸭窝| 99久久精品热视频| 婷婷色av中文字幕| 日韩av在线免费看完整版不卡| 亚洲国产精品一区三区| 99久久精品国产国产毛片| 九九久久精品国产亚洲av麻豆| 亚洲国产精品一区三区| 麻豆成人午夜福利视频| 成年女人在线观看亚洲视频| 欧美精品人与动牲交sv欧美| 国产精品女同一区二区软件| 亚洲av在线观看美女高潮| 亚洲欧美一区二区三区黑人 | 欧美精品一区二区大全| 久久青草综合色| 精品人妻一区二区三区麻豆| 永久免费av网站大全| 久久综合国产亚洲精品| 老女人水多毛片| 亚洲熟女精品中文字幕| 亚洲精品日本国产第一区| 欧美人与善性xxx| 国产精品秋霞免费鲁丝片| 免费黄色在线免费观看| 久久久久久久久久久免费av| 国产成人精品婷婷| 国产精品一二三区在线看| 寂寞人妻少妇视频99o| 天堂8中文在线网| 国产大屁股一区二区在线视频| 国产黄频视频在线观看| 亚洲综合精品二区| 国产精品99久久久久久久久| 亚洲自偷自拍三级| 亚洲精品乱码久久久v下载方式| 国产精品无大码| 精品人妻熟女av久视频| 欧美区成人在线视频| 一级毛片久久久久久久久女| 人妻 亚洲 视频| 国产欧美另类精品又又久久亚洲欧美| 狠狠精品人妻久久久久久综合| 国产精品偷伦视频观看了| 熟女人妻精品中文字幕| 欧美区成人在线视频| 国产成人免费无遮挡视频| 在线播放无遮挡| 九色成人免费人妻av| 国产精品蜜桃在线观看| 日本免费在线观看一区| 久久人人爽av亚洲精品天堂 | 日韩强制内射视频| 久久国产精品男人的天堂亚洲 | 热re99久久精品国产66热6| 边亲边吃奶的免费视频| 日本一二三区视频观看| 亚洲av二区三区四区| 综合色丁香网| 91精品一卡2卡3卡4卡| 男女边吃奶边做爰视频| 久久国产精品男人的天堂亚洲 | 性色av一级| 国产爱豆传媒在线观看| 亚洲av免费高清在线观看| 国产高清不卡午夜福利| 久久国产亚洲av麻豆专区| 日日摸夜夜添夜夜添av毛片| 在线观看三级黄色| av在线app专区| 成人国产麻豆网| 晚上一个人看的免费电影| av在线观看视频网站免费| 精品人妻熟女av久视频| 精品熟女少妇av免费看| 美女福利国产在线 | 少妇人妻一区二区三区视频| 水蜜桃什么品种好| 亚洲精品乱码久久久久久按摩| 欧美xxxx黑人xx丫x性爽| .国产精品久久| 国模一区二区三区四区视频| 制服丝袜香蕉在线| 下体分泌物呈黄色| 男人舔奶头视频| 国产视频内射| 黄片wwwwww| 女的被弄到高潮叫床怎么办| 菩萨蛮人人尽说江南好唐韦庄| 久久久久久久久久久丰满| 亚洲av男天堂| 国产成人a区在线观看| 久久人人爽人人爽人人片va| av视频免费观看在线观看| 噜噜噜噜噜久久久久久91| 欧美老熟妇乱子伦牲交| 一区二区三区四区激情视频| 夫妻性生交免费视频一级片| 国产精品久久久久成人av| 成人毛片60女人毛片免费| 国产精品99久久99久久久不卡 | 中文天堂在线官网| 亚洲精品第二区| 国产精品福利在线免费观看| 中文字幕亚洲精品专区| 国产成人免费观看mmmm| 夜夜爽夜夜爽视频| 91久久精品国产一区二区三区| 尾随美女入室| 91久久精品国产一区二区成人| 成人免费观看视频高清| 精品久久久精品久久久| 成人毛片a级毛片在线播放| 熟女人妻精品中文字幕| 国产精品无大码| 中文字幕免费在线视频6| 亚洲综合色惰| 亚洲丝袜综合中文字幕| 成人漫画全彩无遮挡| 亚洲欧美日韩东京热| 久久久久久久精品精品| 一个人看的www免费观看视频| 欧美xxxx黑人xx丫x性爽| 亚洲第一区二区三区不卡| 国产人妻一区二区三区在| 日日啪夜夜撸| 欧美 日韩 精品 国产| 亚洲av成人精品一二三区| 久久久a久久爽久久v久久| 九色成人免费人妻av| 91精品一卡2卡3卡4卡| 国产高清有码在线观看视频| 国产熟女欧美一区二区| 最近的中文字幕免费完整| 亚洲精品,欧美精品| 久久久久久久大尺度免费视频| 亚洲伊人久久精品综合| 久久精品熟女亚洲av麻豆精品| 国产高清国产精品国产三级 | 2021少妇久久久久久久久久久| 久久久久久九九精品二区国产| 99热全是精品| 日韩精品有码人妻一区| 欧美一级a爱片免费观看看| 精品一区在线观看国产| 黄色配什么色好看| 免费观看的影片在线观看| 国产乱人视频| 欧美 日韩 精品 国产| 国产成人91sexporn| 美女中出高潮动态图| 国产精品一区二区在线不卡| 三级经典国产精品| 精品国产乱码久久久久久小说| 亚洲图色成人| 中文精品一卡2卡3卡4更新| 国产精品人妻久久久久久| 国产精品久久久久久精品电影小说 | 青春草亚洲视频在线观看| 亚洲无线观看免费| videossex国产| 日韩欧美 国产精品| 人妻系列 视频| 国内揄拍国产精品人妻在线| 特大巨黑吊av在线直播| 91aial.com中文字幕在线观看| 国产精品国产三级国产专区5o| 日韩人妻高清精品专区| 一本久久精品| 99国产精品免费福利视频| 男女国产视频网站| 久久国产精品男人的天堂亚洲 | 一级毛片久久久久久久久女| 男人添女人高潮全过程视频| 免费播放大片免费观看视频在线观看| 国产淫片久久久久久久久| 免费观看在线日韩| 亚洲成人手机| 国产成人精品福利久久| 我要看日韩黄色一级片| 亚洲av成人精品一区久久| 精品久久久久久电影网| 国产v大片淫在线免费观看| 亚洲精品久久久久久婷婷小说| 久久精品国产亚洲网站| 99久久精品热视频| 亚洲av中文字字幕乱码综合| 啦啦啦视频在线资源免费观看| 永久网站在线| 亚洲成人一二三区av| 一级毛片 在线播放| 国产av一区二区精品久久 | 亚洲欧美成人精品一区二区| 亚洲高清免费不卡视频| 午夜福利高清视频| 如何舔出高潮| 午夜激情久久久久久久| 亚洲欧美日韩东京热| 国产亚洲精品久久久com| 自拍偷自拍亚洲精品老妇| 伊人久久国产一区二区| 91久久精品国产一区二区三区| 五月开心婷婷网| 女性被躁到高潮视频| 街头女战士在线观看网站| 老师上课跳d突然被开到最大视频| 男女国产视频网站| 久久女婷五月综合色啪小说| 最近的中文字幕免费完整| 亚洲欧洲国产日韩| a级一级毛片免费在线观看| 亚洲欧美日韩卡通动漫| av在线蜜桃| 蜜桃亚洲精品一区二区三区| 亚洲自偷自拍三级| 国产探花极品一区二区| 美女cb高潮喷水在线观看| av在线观看视频网站免费| av黄色大香蕉| 搡老乐熟女国产| 欧美日韩亚洲综合一区二区三区_| 99热全是精品| 久久久久久亚洲精品国产蜜桃av| 国产伦理片在线播放av一区| 91九色精品人成在线观看| 国产成人影院久久av| 亚洲av成人不卡在线观看播放网 | 一二三四在线观看免费中文在| 女警被强在线播放| 午夜福利一区二区在线看| 国产成人精品久久二区二区免费| 久久久亚洲精品成人影院| 韩国精品一区二区三区| 成人影院久久| 欧美激情高清一区二区三区| 另类精品久久| 成人三级做爰电影| 大香蕉久久网| a 毛片基地| 午夜老司机福利片| 免费看不卡的av| 天天躁日日躁夜夜躁夜夜| 大香蕉久久成人网| 亚洲第一av免费看| 精品少妇久久久久久888优播| 大话2 男鬼变身卡| 午夜精品国产一区二区电影| 一边亲一边摸免费视频| 久久久国产精品麻豆| 午夜激情av网站| 久久久精品国产亚洲av高清涩受| 久久天堂一区二区三区四区| 亚洲欧美一区二区三区久久| 超色免费av| 免费黄频网站在线观看国产| 青青草视频在线视频观看| 国产免费福利视频在线观看| 丝袜在线中文字幕| 日本猛色少妇xxxxx猛交久久| videosex国产| 亚洲熟女毛片儿| 亚洲精品乱久久久久久| 久久鲁丝午夜福利片| 水蜜桃什么品种好| 国产成人91sexporn| 人妻一区二区av| 热99国产精品久久久久久7| 麻豆国产av国片精品| 欧美黑人精品巨大| 亚洲国产最新在线播放| 制服诱惑二区| 一区福利在线观看| 午夜91福利影院| 如日韩欧美国产精品一区二区三区| 日韩 欧美 亚洲 中文字幕| 91精品伊人久久大香线蕉| 汤姆久久久久久久影院中文字幕| 精品人妻一区二区三区麻豆| 人人妻人人添人人爽欧美一区卜| 国产女主播在线喷水免费视频网站| 嫩草影视91久久| 久久国产精品人妻蜜桃| 最近最新中文字幕大全免费视频 | 国产成人啪精品午夜网站| 国产精品.久久久| 一边摸一边做爽爽视频免费| 国产精品人妻久久久影院| 岛国毛片在线播放| 亚洲精品成人av观看孕妇| 久久久久视频综合| 五月开心婷婷网| 国产精品国产三级国产专区5o| 精品欧美一区二区三区在线| 久久久国产精品麻豆| 精品国产超薄肉色丝袜足j| 国产男女内射视频| 人体艺术视频欧美日本| 欧美 日韩 精品 国产| 伦理电影免费视频| 欧美xxⅹ黑人| 日韩制服丝袜自拍偷拍| 91老司机精品| 日韩人妻精品一区2区三区| 国产日韩欧美亚洲二区| 国产99久久九九免费精品| 亚洲av国产av综合av卡| 国产日韩欧美在线精品| 99久久综合免费| 成人黄色视频免费在线看|