• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    考慮非鄰近節(jié)點空間相關(guān)性的交通流預(yù)測模型

    2025-04-10 00:00:00閆光輝李鴻濤張斌常文文
    計算機應(yīng)用研究 2025年3期

    摘 要:針對現(xiàn)有的交通流預(yù)測模型存在難以對非鄰近節(jié)點之間的時空相關(guān)性顯式建模的問題,提出一種新的利用超圖表征空間相關(guān)性的超圖卷積神經(jīng)網(wǎng)絡(luò)模型(double attention hypergraph convolution neural network,A2HGCN)。首先,通過尋找節(jié)點之間的相似關(guān)系構(gòu)造超邊,利用節(jié)點之間的連接關(guān)系構(gòu)造超圖;然后提出一個超圖卷積模型,其中利用超圖卷積和將超圖線擴展為圖后利用線圖卷積來捕獲潛在的空間相關(guān)性;再利用融合雙層注意力機制的卷積長短時記憶網(wǎng)絡(luò)捕獲時間相關(guān)性,最后得出預(yù)測結(jié)果。在數(shù)據(jù)集PEMS-BAY中,A2HGCN方法的評價指標MAE、MAPE和RMSE在預(yù)測步長為15 min時為1.223、2.617%、2.547,30 min時為1.554、3.541%、3.420,60 min時為1.867、4.578%、4.224。在數(shù)據(jù)集PEMSM中,該方法的評價指標MAE、MAPE和RMSE在預(yù)測步長為15 min時為1.858、4.385%、3.339,30 min時為2.374、5.775%、4.362,60 min時為3.046、7.713%、5.479。結(jié)果表明,該方法在不同預(yù)測步長下均優(yōu)于基線模型,驗證了考慮非鄰近節(jié)點之間的時空相關(guān)性對于提高交通預(yù)測準確性的有效性。由此可得,超圖卷積神經(jīng)網(wǎng)絡(luò)在捕獲時空相關(guān)性方面具有優(yōu)勢。

    關(guān)鍵詞:交通流預(yù)測;超圖理論;圖卷積網(wǎng)絡(luò)

    中圖分類號:TP391"" 文獻標志碼:A""" 文章編號:1001-3695(2025)03-024-0825-09

    doi: 10.19734/j.issn.1001-3695.2024.07.0261

    Traffic prediction model considering spatial correlation of non-neighboring nodes

    Yan Guanghui, Li Hongtao, Zhang Bin, Chang Wenwen

    (School of Electronic amp; Information Engineering, Lanzhou Jiaotong University, Lanzhou 730070, China)

    Abstract:This paper proposed a novel double attention hypergraph convolution neural network (A2HGCN) to address the challenge of explicitly modeling spatiotemporal correlations between non-adjacent nodes in existing traffic flow prediction mo-dels. The method used the construction of hyperedges based on similarities between nodes and created hypergraphs through node connectivity to represent spatial correlations. It proposed a hypergraph convolution model, which employed hypergraph convolution and line graph convolution after expanding hypergraph lines into graphs to capture potential spatial correlations. Meanwhile, it used a convolutional long short-term memory network integrated with a double attention mechanism to capture temporal features. The algorithm made predictions based on spatial and temporal features. In the PEMS-BAY dataset, the A2HGCN method achieved evaluation metrics of MAE, MAPE, and RMSE at a prediction step of 15 minutes as 1.223, 2.617%, and 2.547, respectively, at 30 minutes as 1.554, 3.541%, and 3.420, and at 60 minutes as 1.867, 4.578%, and 4.224. In the PEMSM dataset, the method achieved evaluation metrics of MAE, MAPE, and RMSE at a prediction step of 15 minutes as 1.858, 4.385%, and 3.339, at 30 minutes as 2.374, 5.775%, and 4.362, and at 60 minutes as 3.046, 7.713%, and 5.479. The results demonstrate that the proposed method outperforms baseline models at different prediction steps, validating the effectiveness of considering spatiotemporal correlations between non-adjacent nodes in enhancing traffic prediction accuracy. It is concluded that hypergraph convolutional neural networks have an advantage in capturing spatiotemporal correlations.

    Key words:traffic prediction; hypergraph theory; graph convolution network(GCN)

    0 引言

    交通流預(yù)測是基于歷史道路信息,對未來道路信息進行預(yù)測的研究,包括了交通流量、速度、密度、擁堵情況等交通流指標的預(yù)測,是智慧交通應(yīng)用的基石。高精度的交通流預(yù)測對于大型城市的交通管理和智慧出行具有重要的科研價值和實際應(yīng)用價值。面對復(fù)雜多維交通流數(shù)據(jù),如何有效地提取時空特征,并實現(xiàn)端到端的一體化預(yù)測已成為目前研究熱點。

    交通流預(yù)測的研究主要分為三類,分別是統(tǒng)計學(xué)模型、機器學(xué)習模型和深度學(xué)習模型。統(tǒng)計學(xué)模型的早期研究主要從時序預(yù)測角度出發(fā),有歷史平均模型、自回歸滑動平均模型等。后續(xù)發(fā)現(xiàn)交通數(shù)據(jù)中蘊藏著非線性、不平穩(wěn)性等特點,開始采用差分自回歸移動平均模型[1]、卡爾曼濾波模型[2]等進行預(yù)測,這些統(tǒng)計學(xué)模型較為簡單,計算速度快,對于平穩(wěn)數(shù)據(jù)的預(yù)測效果較好,但對于非線性和復(fù)雜的交通數(shù)據(jù)的預(yù)測效果較差,不能適用于復(fù)雜的交通場景;且對每個站點進行單獨預(yù)測,忽略了交通數(shù)據(jù)中的空間相關(guān)性。20世紀90年代,得益于機器學(xué)習理論的巨大發(fā)展,相關(guān)理論也應(yīng)用在了交通流預(yù)測領(lǐng)域[3],如Toan等人[4]提出的基于支持向量機(support vector machine, SVM)模型和Lin等人[5]提出的基于K近鄰模型等都證明了機器學(xué)習方法在交通預(yù)測領(lǐng)域中的有效性,但傳統(tǒng)的機器學(xué)習方法在處理深度非線性的交通數(shù)據(jù)時會出現(xiàn)預(yù)測性能不佳的問題,并且需要更為細致的特征工程。

    受深度學(xué)習在計算機視覺和自然語言處理領(lǐng)域取得巨大成果的鼓舞,研究人員開始將循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)[6]和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)等深度學(xué)習模型應(yīng)用于交通預(yù)測領(lǐng)域,強大的非線性建模能力彌補了機器學(xué)習模型的不足,并取得了前所未有的成功,在此之后基于深度學(xué)習的交通預(yù)測研究越來越多。為了能體現(xiàn)交通數(shù)據(jù)中的空間性,Ma等人[7]通過二維矩陣將交通速度數(shù)據(jù)轉(zhuǎn)換為具有時空關(guān)系的圖像,經(jīng)過卷積池化操作之后預(yù)測路上未來時段的車輛速度。然而,這類模型通常適用于規(guī)則的歐幾里德數(shù)據(jù),如圖像數(shù)據(jù)、網(wǎng)格數(shù)據(jù)等。但實際中的交通數(shù)據(jù)是分布在路網(wǎng)上的時序數(shù)據(jù),其結(jié)構(gòu)為非歐幾里德結(jié)構(gòu),因此這些模型在捕獲交通數(shù)據(jù)中的空間相關(guān)性方面有一定的局限性。為此,產(chǎn)生了圖神經(jīng)網(wǎng)絡(luò),其核心思想是將臨近節(jié)點的信息聚合到中心節(jié)點,從而提取圖結(jié)構(gòu)中的空間特征,這正適用于利用天然路網(wǎng)構(gòu)建的基于拓撲的交通數(shù)據(jù),用圖卷積操作代替卷積操作,捕獲不同站點之間的空間相關(guān)性。如Yu等人[8]提出的STGCN模型,結(jié)合圖卷積和門控時間卷積構(gòu)造了時空卷積塊,提取時間和空間特征;Li等人[9]提出的DCRNN模型通過有向圖上的隨機游走實現(xiàn)空間圖卷積,門控循環(huán)單元獲取時間特征。由此可以看出,基于圖神經(jīng)網(wǎng)絡(luò)的模型發(fā)展會主要集中在時間特征和空間特征提取方面。

    在時間維度上,Guo等人[10]提出的ASTGCN從ST-ResNet中繼承了最近觀測值、每日周期性和周趨勢形式,采用堆疊模型結(jié)構(gòu),將多個STGCN和注意力機制組合在一起,形成一個多層結(jié)構(gòu),以進一步提高模型的精度和魯棒性;Song等人[11]提出的STSGCN通過將所有節(jié)點與前一步和后一步的自己連接,構(gòu)建了一個局部時間圖,更新鄰接矩陣,然后只使用GCN同時進行空間和時間建模。此外,還融入注意力機制的模型以獲取更好的時間特征提取能力。如周楚昊等人[12]提出的基于多通道Transformer的交通量預(yù)測方法(MCST-Transformer),首先使用Transformer結(jié)構(gòu)提取不同數(shù)據(jù)的內(nèi)在規(guī)律,然后引入空間關(guān)聯(lián)模塊挖掘不同數(shù)據(jù)間的關(guān)聯(lián)特征,并通過通道注意力機制整合優(yōu)化全局信息,以提高模型的預(yù)測準確度;何婷等人[13]提出的基于時空位置關(guān)注圖神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測方法(ST-PAGNN),利用圖神經(jīng)網(wǎng)絡(luò)中的位置關(guān)注機制,強化了對交通節(jié)點空間依賴關(guān)系的捕捉能力,利用結(jié)合了Trendformer的門控遞歸神經(jīng)網(wǎng)絡(luò)同時捕獲交通流序列在時間維度上的局部和全局信息,并使用改進的網(wǎng)格搜索優(yōu)化方法,以提高模型的預(yù)測能力和預(yù)測效率。

    在空間維度上,從靜態(tài)圖發(fā)展到自適應(yīng)圖。Graph WaveNet[14]、MTGNN[15]和AGCRN[16]采用了自適應(yīng)依賴矩陣或者圖學(xué)習層構(gòu)建圖鄰接矩陣以捕獲隱藏的空間依賴,而不是像STGCN和DCRNN使用的靜態(tài)圖;Lan等人[17]提出的DSTAGNN模型使用多頭注意力表示節(jié)點之間的動態(tài)空間相關(guān)性以取代傳統(tǒng)圖卷積中常用的預(yù)定義靜態(tài)圖。以上模型使用自適應(yīng)圖和動態(tài)圖以動態(tài)學(xué)習全局或者局部圖結(jié)構(gòu),去更好地挖掘交通數(shù)據(jù)中隱藏的時空關(guān)系。

    然而,以上模型使用的都是傳統(tǒng)圖,其表示方法局限于兩點之間的成對關(guān)聯(lián),難以對數(shù)據(jù)之間的高階復(fù)雜關(guān)聯(lián)關(guān)系進行顯式建模,也就是非鄰近節(jié)點之間的空間相關(guān)性,即一個傳感器上的信息可以影響其他與之沒有物理直接相連的傳感器上的信息。以交通路網(wǎng)為例,由于城市中存在不同的功能區(qū),在同樣功能區(qū)附近的站點所收集的交通數(shù)據(jù)會呈現(xiàn)一定的相似性,然而這類站點之間并非兩兩直接相連。以PEMS-BAY數(shù)據(jù)集中編號為403401和401809節(jié)點為例,分別用H和I表示,數(shù)據(jù)可視化結(jié)果如圖1所示,結(jié)合地圖分析,H和I分別位于商場功能附近且沒有直接連接,而這兩個節(jié)點所記錄的數(shù)據(jù)具有相同的變化趨勢,由此可以得出非鄰近節(jié)點之間存在一定的空間相關(guān)性。

    針對無法對非鄰近節(jié)點之間的空間相關(guān)性顯式建模的問題,本文采用超圖對交通數(shù)據(jù)中非鄰近空間關(guān)系表示,超圖可借由超邊同時連接多個節(jié)點,從而突破成對關(guān)系的限制,實現(xiàn)數(shù)據(jù)的高階表示。有一些將超圖學(xué)習與交通流預(yù)測結(jié)合的工作。如Yi等人[18]將超圖卷積和循環(huán)神經(jīng)網(wǎng)絡(luò)相結(jié)合,針對于交通流預(yù)測提出一種新的預(yù)測模型;張永凱等人[19]提出了時空超圖網(wǎng)絡(luò),該網(wǎng)絡(luò)使用超圖神經(jīng)網(wǎng)絡(luò)來處理交通對象之間的高階關(guān)系,但這兩個模型都忽略了超圖中超邊與超邊之間的多節(jié)點空間相關(guān)性;文獻[19]和Zhao等人[20]提出的模型中都使用了基于距離的超圖構(gòu)造方法,其模型預(yù)測效果容易受到其鄰近節(jié)點個數(shù)或者聚類系數(shù)大小的影響。因此,本文提出了一種用于交通預(yù)測的時空超圖卷積神經(jīng)網(wǎng)絡(luò)(A2HGCN)。首先,提出使用聚類算法從全局層面尋找交通數(shù)據(jù)中有相似變化規(guī)律的傳感器;然后再利用局部連接關(guān)系構(gòu)建超圖,將鄰近節(jié)點空間相關(guān)性和非鄰近節(jié)點空間相關(guān)性相融合;最后設(shè)計一個空間提取模塊,利用超圖卷積和線圖卷積挖掘交通數(shù)據(jù)中的多節(jié)點之間的空間關(guān)系,并利用融合注意力的卷積長短時記憶網(wǎng)絡(luò)獲取交通數(shù)據(jù)中的時間特征,以實現(xiàn)準確的交通流預(yù)測。實驗結(jié)果表明,模型的預(yù)測結(jié)果在平均絕對誤差、均方根誤差和平均絕對百分誤差等方面均優(yōu)于基線模型。

    1 準備工作

    1.1 圖與超圖

    與圖類似地,也可計算超圖中節(jié)點的度和超邊的度。節(jié)點的度表示該節(jié)點包含到超邊的超邊數(shù)目,定義為d(vi)=∑ei∈EHh(vi,ei);超邊的度表示該超邊上包含節(jié)點的數(shù)目,定義為d(ei)=∑vi∈Vh(vi,ei)。由超圖的關(guān)聯(lián)矩陣可以計算每個節(jié)點和每條超邊的度,分別對應(yīng)節(jié)點度矩陣Dv和超邊度矩陣De,且都為對角矩陣。由此可計算出圖2(b)所對應(yīng)的節(jié)點度矩陣Dv對角線上每個節(jié)點的度{1,2,1,2,2,2,1},所對應(yīng)的超邊度矩陣De對角線上每條超邊的度{5,3,3},即圖2(e)所示。

    1.2 超圖學(xué)習

    超圖提供了一種捕獲復(fù)雜的高階關(guān)系的方式,與普通圖相比,由于超圖的超邊可以自然地連接多個頂點,使得它能夠更容易地描述多個對象間的潛在高階相關(guān)性,解決了圖的局限性。隨著深度學(xué)習的蓬勃發(fā)展,超圖神經(jīng)網(wǎng)絡(luò)也受到了廣泛的關(guān)注。Feng等人于2019年提出第一個超圖神經(jīng)網(wǎng)絡(luò)HGNN[21,22],首先將圖卷積應(yīng)用于超圖。之后出現(xiàn)了大量的超圖神經(jīng)網(wǎng)絡(luò)模型,它們被充分地應(yīng)用于計算機視覺、推薦系統(tǒng)、生物化學(xué)等領(lǐng)域。

    依據(jù)設(shè)計模型采用的方法不同,超圖神經(jīng)網(wǎng)絡(luò)模型被劃分為超圖卷積神經(jīng)網(wǎng)絡(luò)、以HGC-RNN[18]為代表的超圖循環(huán)神經(jīng)網(wǎng)絡(luò)和以HGGAN[23]為代表的超圖生成對抗網(wǎng)絡(luò)。超圖循環(huán)神經(jīng)網(wǎng)絡(luò)和超圖生成對抗網(wǎng)絡(luò)一般都會采用超圖卷積挖掘數(shù)據(jù)間的高階關(guān)系,因此主要介紹超圖卷積神經(jīng)網(wǎng)絡(luò)模型。超圖卷積神經(jīng)網(wǎng)絡(luò)可分為基于譜域的超圖卷積神經(jīng)網(wǎng)絡(luò)和基于普通圖的超圖神經(jīng)網(wǎng)絡(luò),具體如表1所示。

    分類特點代表模型優(yōu)勢不足

    基于譜域的超圖卷積神經(jīng)網(wǎng)絡(luò)根據(jù)圖信號和超圖譜理論,依托傅里葉變換和小波變換,隱式地將圖卷積遷移到超圖上

    HGNN[21]考慮對象之間的高階關(guān)系和多模態(tài)特征,使用無向超圖建模數(shù)據(jù)間的高階關(guān)系,并且設(shè)計出超邊卷積層超圖結(jié)構(gòu)不隨節(jié)點特征結(jié)構(gòu)動態(tài)變化,且無法表征數(shù)據(jù)流向

    DHConv[24]相比于無向超圖,可攜帶關(guān)鍵的方向信息采用的超圖是靜態(tài)的,超圖結(jié)構(gòu)不隨節(jié)點特征動態(tài)調(diào)整,影響模型性能

    AHGCN[25]超圖結(jié)構(gòu)隨著頂點特征的更新而動態(tài)調(diào)整

    動態(tài)超圖的構(gòu)建可能會引入額外的計算負擔,超參數(shù)會影響模型性能,如超邊的大小和聚類算法的參數(shù)

    基于普通圖的超圖神經(jīng)網(wǎng)絡(luò)顯式地將圖卷積神經(jīng)網(wǎng)絡(luò)拓展到超圖上HyperGCN[26]利用超圖譜理論將超圖轉(zhuǎn)換成一個帶權(quán)普通圖,然后在該圖上執(zhí)行圖卷積操作超圖轉(zhuǎn)普通圖過程中,超邊中部分節(jié)點會被刪除,導(dǎo)致信息丟失

    LHCN[27]先將超圖映射為一個線圖,然后對線圖執(zhí)行圖卷積操作,最后依據(jù)反向映射規(guī)則從線圖的卷積結(jié)果生成原超圖中頂點的特征,保留了完整信息

    LHCN需要顯式地計算超圖線圖,增加了計算成本

    3.3 基線模型

    為了對比分析預(yù)測模型的預(yù)測效果,選擇在交通流預(yù)測中應(yīng)用較為廣泛且比較有代表性的預(yù)測模型作為基線模型。下面列出用于對比實驗的基線模型:

    歷史平均法(historical average, HA):是基于統(tǒng)計學(xué)方法的模型,該模型將交通數(shù)據(jù)看作一個周期性變化數(shù)據(jù),采用前幾周期的平均值作為未來時期的預(yù)測。將之前的7個歷史步長取平均值,并將其作為預(yù)測值。

    LSTNet(long- and short-term time-series network)[33]:是一個多變量時序模型,使用LSTM結(jié)合卷積層捕獲時空依賴性,使用一個額外的自回歸模型捕捉非周期性的時間依賴性。

    DCRNN:使用以隨機游走為特征的擴散過程對空間依賴性進行建模,該過程以卷積的方式傳播信息,并被嵌入到GRU層以捕獲時間依賴性。

    STGCN:該模型使用切比雪夫多項式近似作為卷積層的核,夾在兩個用于捕獲時空依賴關(guān)系的門控卷積之間。

    Graph WaveNet:基于GCN的模型通過節(jié)點嵌入學(xué)習自適應(yīng)鄰接矩陣,并結(jié)合擴張的1D卷積層來捕獲時間和空間依賴關(guān)系。

    GMAN[34]:基于編碼器-解碼器架構(gòu)的時空圖注意力模型,其中編碼器和解碼器均由多個時空注意塊組成,以模擬時空因素對交通狀況的影響。

    ASTGCN:基于注意力的時空圖卷積網(wǎng)絡(luò),將注意力機制引入時空預(yù)測建模中,用于捕捉交通數(shù)據(jù)中的動態(tài)時空關(guān)聯(lián)。結(jié)合GCNs捕獲空間信息和CNNs捕獲時間信息的基于注意力的模型。

    MTGNN:一個受初始啟發(fā)的模型使用擴張卷積層來捕捉時間相關(guān)性,以及一個基于從節(jié)點嵌入獲得的動態(tài)圖表示的混合跳傳播層來捕捉空間相關(guān)性。

    AGCRN:一種基于GCN增強層的模型,該模型具有嵌入到多個GRU塊中的節(jié)點自適應(yīng)參數(shù)學(xué)習模塊(NAPL)。

    SAGCN-SST[35]:具有空間、子空間和時間塊的自注意力圖卷積網(wǎng)絡(luò)(SAGCN-SST)模型將自注意力機制集成到GCN中,同時使用序列到序列編碼器-解碼器架構(gòu)來提取交通數(shù)據(jù)中的長期依賴關(guān)系。

    3.4 實驗結(jié)果對比及分析

    本文在兩個真實數(shù)據(jù)集上進行性能驗證,表2展示A2HGCN模型和對比方法在PEMSM和PEMS-BAY數(shù)據(jù)集上未來3、6和12個時間步的多步交通流預(yù)測平均誤差結(jié)果。

    實驗數(shù)據(jù)集為PEMSM時,在15 min預(yù)測步長下,基線模型中表現(xiàn)最好的是SAGCN-SST,相較于該模型,A2HGCN模型在MAE、MAPE和RMSE指標上分別降低了0.15、0.39%和0.35;在30 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是SAGCN-SST,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.2、0.57%和0.48;在60 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是SAGCN-SST,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.11、0.27%和0.37;實驗數(shù)據(jù)集為PEMS-BAY時,在15 min預(yù)測步長下,基線模型中表現(xiàn)最好的是SAGCN-SST,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.10、0.18%和0.23;在30 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是MTGNN,相較于該模型,A2HGCN在MAE、MAPE和RMSE指標上分別降低了0.11、0.23%和0.38;在60 min預(yù)測步長下,基線模型中整體上表現(xiàn)較好的是MTGNN,相較于該模型,A2HGCN在MAE,MAPE和RMSE指標上分別降低了0.08、0.10%和0.27。實驗結(jié)果表明,A2HGCN在所有情況下均表現(xiàn)良好,展現(xiàn)出模型良好的預(yù)測能力。

    從表中還可以得出:a)基于統(tǒng)計學(xué)的歷史平均模型(HA)表現(xiàn)較差,與基于神經(jīng)網(wǎng)絡(luò)的模型相差甚遠,這說明了經(jīng)典的傳統(tǒng)方法不適用于復(fù)雜的交通場景;b)盡管時間序列模型LSTNet在短期預(yù)測中具有較好效果,但隨著時間跨度的延長,其性能會下降;c)幾乎所有基于圖的模型在所有指標上都取得了比傳統(tǒng)方法和時間序列模型更好的性能,這表明圖結(jié)構(gòu)能更好地表征交通流數(shù)據(jù)中的空間相關(guān)性,在交通流預(yù)測領(lǐng)域存在一定的優(yōu)勢;d)動態(tài)的生成圖表示的模型,GraphWaveNet、MTGNN和AGCRN模型都采用自適應(yīng)圖挖掘路網(wǎng)中各節(jié)點之間潛在的時空依賴性,三者的預(yù)測效果均優(yōu)于使用預(yù)定義圖的DCRNN和STGCN,這說明自適應(yīng)圖或可學(xué)習圖對于挖掘潛在的空間相關(guān)性的有效性,對提升預(yù)測精度具有重要作用;e)SAGCN-SST模型以自然道路網(wǎng)絡(luò)為依托,引入k跳領(lǐng)域的概念,構(gòu)建從目標節(jié)點在圖結(jié)構(gòu)中k跳內(nèi)可到達的節(jié)點集合,以建模非鄰近節(jié)點之間的空間相關(guān)性,利用集成了子注意力機制的圖卷積捕獲空間相關(guān)性,取得了不錯的預(yù)測效果,但由于本文采用超圖卷積和線圖卷積更能捕獲多節(jié)點之間的空間關(guān)系,所以預(yù)測效果更好。

    文中任意選擇PEMSM數(shù)據(jù)集中的兩個傳感器并隨機選取288步(一天)的真實值和預(yù)測值進行可視化,如圖6所示,其中(a)~(c)分別對應(yīng)1號傳感器預(yù)測時間步為3、6和12的對比圖;(d)~(f)對應(yīng)2號傳感器預(yù)測時間步為3、6和12的對比圖??梢钥闯觯篴)本文的模型能很好地預(yù)測數(shù)據(jù)變化趨勢;b)在短時預(yù)測中,本文模型能學(xué)習到所有時間的峰值和谷值;c)隨著預(yù)測時間步的增長,預(yù)測值與真實值之間的差距愈加明顯,說明模型的長時預(yù)測能力隨時間步的增長有所降低。

    與基線模型中預(yù)測效果較好的SAGCN-SST和MTGNN相比,本文模型在結(jié)構(gòu)和算法方面都比較簡單,沒有構(gòu)造自適應(yīng)圖或者使用子空間塊以表征潛在的空間相關(guān)性,也沒有使用k跳概念構(gòu)建多節(jié)點集合,但是本文模型在兩個數(shù)據(jù)集上的表現(xiàn)優(yōu)于基線模型,這說明:在空間特征提取方面,模型中所提出的利用交通流數(shù)據(jù)的空間相似性來構(gòu)造超圖以表征節(jié)點之間的潛在空間相關(guān)性是有效的,對于提升預(yù)測精度具有重要作用,但這種非鄰近節(jié)點之間的空間相關(guān)性并非是一成不變的,本文所構(gòu)建的超圖是靜態(tài)的,存在一定的局限性;在時間特征提取方面,MTGNN使用TCN來提取時間特征,其預(yù)測效果均好于使用GRU、LSTM等遞歸神經(jīng)網(wǎng)絡(luò)提取時間特征的模型,本文通過添加雙層注意力機制來提高模型的時間特征提取能力是可行的,但從評價指標的變化程度上來看,提升效果是有限的。

    3.5 消融實驗

    為了驗證各模塊在A2HGCN中的有效性,本文在PEMSBAY數(shù)據(jù)集上設(shè)計了多個變體進行預(yù)測步長為12的消融實驗,如圖7所示。以下是A2HGCN的變體模型:將移除雙層注意力機制的模型命名為HGCN;將移除線圖卷積組件,只使用超圖卷積的預(yù)測模型命名為A2sHGCN;將移除超圖卷積組件,只使用線圖卷積的預(yù)測模型命名為A2LGCN。在PEMS-BAY和PEMSM數(shù)據(jù)集上進行各個消融模型的實驗分析:a)當雙注意力機制添加到模型中,預(yù)測結(jié)果在30 min和60 min上有了提升,表明通過雙注意力機制增強時間特征來提高模型長時預(yù)測能力的有效性;b)A2LGCN相比于A2sHGCN效果更好,說明捕捉多節(jié)點之間的高階空間相關(guān)性比捕捉相似節(jié)點之間空間相關(guān)性在空間特征提取方面有更好的挖掘能力;c) A2sHGCN和A2LGCN模型的效果都低于A2HGCN,證明在挖掘空間相關(guān)性時,除了考慮鄰近節(jié)點之間的空間相關(guān)性,還需要考慮相似節(jié)點之間以及相似節(jié)點群體之間的空間相關(guān)性,即超圖中的超邊中節(jié)點之間的特征和超邊與超邊之間的特征。

    3.6 案例分析

    本文從數(shù)據(jù)集中隨機選一天(288步)和一個傳感器,繪制實際和預(yù)測的時間序列,如圖8所示。為了能使時間序列圖清晰明了,本文只繪制了LSTNet、STGCN、MTGNN和A2HGCN的預(yù)測結(jié)果??梢杂^察到:a)三個模型都學(xué)習到了所有時間的峰值和谷值;b)基于圖的模型DCRNN和MTGNN的性能始終優(yōu)于時間序列模型LSTNet,證明了GCN在捕捉空間相關(guān)性和依賴性方面具有優(yōu)異的性能;c)這四種模型的預(yù)測結(jié)果均存在時間滯后,特別是當天220步左右(即18點20分左右),原始時間序列出現(xiàn)劇烈波動時最為明顯。盡管如此,基于超圖的A2HGCN模型在波動預(yù)測誤差方面相較于基于圖的模型仍稍好一些。

    4 結(jié)束語

    雖然目前已有一些關(guān)于捕捉交通數(shù)據(jù)中潛在空間相關(guān)性的研究,但其中大多是利用圖結(jié)構(gòu)進行建模,主要表征成對節(jié)點之間的相關(guān)性,存在一定的局限性。因此,提出一種新的網(wǎng)絡(luò)框架來解決交通流預(yù)測問題,本文模型先通過節(jié)點之間的相似性構(gòu)造超邊以表征非鄰近節(jié)點之間的空間相關(guān)性,再利用節(jié)點之間天然的連接關(guān)系構(gòu)成超圖以顯式建模交通數(shù)據(jù)中的空間相關(guān)性,解決了圖結(jié)構(gòu)不能顯式表征交通數(shù)據(jù)中潛在的空間相關(guān)性問題;在空間特征提取模塊中利用超圖卷積提取超邊中多個節(jié)點之間的空間相關(guān)性,再利用線圖卷積提取超邊之間的高階空間關(guān)系,使得模型能捕獲交通數(shù)據(jù)中的隱式空間特征;在時間特征提取模塊中先使用雙層注意力機制增強數(shù)據(jù)特征,再利用卷積長短時記憶網(wǎng)絡(luò)提取時間特征,從而提升模型特征提取能力。在兩個公開數(shù)據(jù)集上的對比實驗和消融實驗結(jié)果證明了模型的有效性,超圖以及超圖卷積的應(yīng)用為未來交通預(yù)測提供了一種新的思路。下一步的研究工作將在空間特征方面考慮,從構(gòu)建自適應(yīng)超圖以及有向超圖的角度來優(yōu)化模型,進一步提升模型的預(yù)測性能;在時間特征方面,可以引入高效的Transformer類模型以提高模型的長時預(yù)測能力;還可以將這類模型應(yīng)用于其他基于圖結(jié)構(gòu)的時空預(yù)測問題中,如人流移動預(yù)測、空氣質(zhì)量預(yù)測等。

    參考文獻:

    [1]Peng Jiaxin, Xu Yongneng, Wu Menghui. Short-term traffic flow forecast based on ARIMA-SVM combined model[C]// Proc of the 12th International Conference on Green Transportation and Low Carbon Mobility Safety. Singapore: Springer Nature Singapore, 2022: 287-300.

    [2]Yu Yadong, Zhang Yong, Qian Sean,et al. A low rank dynamic mode decomposition model for short-term traffic flow prediction [J]. IEEE Trans on Intelligent Transportation Systems, 2021, 22(10): 6547-6560.

    [3]Li Cong, Xu Pei. Application on traffic flow prediction of machine learning in intelligent transportation [J]. Neural Computing and Applications, 2021, 33(2): 613-624.

    [4]Toan T D, Truong V H. Support vector machine for short-term traffic flow prediction and improvement of its model training using nearest neighbor approach [J]. Transportation Research Record: Journal of the Transportation Research Board, 2021, 2675(4): 362-373.

    [5]Lin Guancen, Lin Aijing, Gu Danlei. Using support vector regression and K-nearest neighbors for short-term traffic flow prediction based on maximal information coefficient [J]. Information Sciences, 2022, 608: 517-531.

    [6]Chauhan N S, Kumar N. Traffic flow forecasting using attention en-abled Bi-LSTM and GRU hybrid model[C]// Proc of the 29th International Conference on Neural Information Processing. Singapore: Springer Nature Singapore, 2023: 505-517.

    [7]Ma Xiaolei, Dai Zhuang, He Zhengbing,et al. Learning traffic as ima-ges: a deep convolutional neural network for large-scale transportation network speed prediction [J]. Sensors, 2017, 17(4): 818.

    [8]Yu Bing, Yin Haoteng, Zhu Zhanxing. Spatio-temporal graph convolutional networks: a deep learning framework for traffic forecasting [C]//Proc of the 27th International Joint Conference on Artificial Intelligence. Palo Alto, CA:AAAI Press, 2018: 3634-3640.

    [9]Li Yaguang, Yu R, Shahabi C, et al. Diffusion convolutional recurrent neural network: data-driven traffic forecasting [C]// Proc of the 6th International Conference on Learning Representations. Washington DC: ICLR, 2018.

    [10]Guo Shengnan, Lin Youfang, Feng Ning,et al. Attention based spatial-temporal graph convolutional networks for traffic flow forecasting[C]// Proc of the 33rd AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2019: 922-929.

    [11]Song Chao, Lin Youfang, Guo Shengnan,et al. Spatial-temporal synchronous graph convolutional networks: a new framework for spatial-temporal network data forecasting [C]// Proc of the 34th AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 914-921.

    [12]周楚昊, 林培群. 基于多通道Transformer的交通量預(yù)測方法 [J]. 計算機應(yīng)用研究, 2023, 40(2): 435-439. (Zhou Chuhao, Lin Peiqun. Traffic flow prediction method based on multi-channel Transformer [J]. Application Research of Computers, 2023, 40(2): 435-439.)

    [13]何婷, 周艷秋, 辛春花. 基于時空位置關(guān)注圖神經(jīng)網(wǎng)絡(luò)的交通流預(yù)測方法 [J]. 計算機應(yīng)用研究, 2024, 41(10): 2932-2938. (He Ting, Zhou Yanqiu, Xin Chunhua. Traffic flow prediction method based on spatial temporal position attention graph neural network [J]. Application Research of Computers, 2024, 41(10): 2932-2938.)

    [14]Wu Zonghan, Pan Shirui, Long Guodong,et al. Graph WaveNet for deep spatial-temporal graph modeling [C]//Proc of the 28th International Joint Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2019: 1907-1913.

    [15]Wu Zonghan, Pan Shirui, Long Guodong,et al. Connecting the dots: multivariate time series forecasting with graph neural networks [C]//Proc of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. New York: ACM Press, 2020: 753-763.

    [16]Bai Lei, Yao Lina, Li Can,et al. Adaptive graph convolutional recurrent network for traffic forecasting [C]//Proc of the 34th International Conference on Neural Information Processing Systems. New York: ACM Press, 2020: 17804-17815.

    [17]Lan Shiyong, Ma Yitong, Huang Weikang, et al. DSTAGNN: dynamic spatial-temporal aware graph neural network for traffic flow forecasting [C]// Proc of International conference on machine learning. Cambridge: PMLR, 2022: 11906-11917.

    [18]Yi J, Park J. Hypergraph convolutional recurrent neural network [C]//Proc of the 26th ACM SIGKDD International Conference on Knowledge Discovery amp; Data Mining. New York: ACM Press, 2020: 3366-3376.

    [19]張永凱, 武志昊, 林友芳, 等. 面向交通流量預(yù)測的時空超關(guān)系圖卷積網(wǎng)絡(luò) [J]. 計算機應(yīng)用, 2021, 41(12): 3578-3584. (Zhang Yongkai, Wu Zhihao, Lin Youfang, et al. Spatio-temporal hyper-relationship graph convolutional network for traffic flow forecasting [J]. Journal of Computer Applications, 2021, 41(12): 3578-3584.)

    [20]Zhao Zhenzhen, Shen Guojiang, Zhou Junjie,et al. Spatial-temporal hypergraph convolutional network for traffic forecasting [J]. PeerJ Computer Science, 2023, 9: e1450.

    [21]Feng Yifan, You Haoxuan, Zhang Zizhao, et al. Hypergraph neural networks [C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2019: 3558-3565.

    [22]Gao Yue, Feng Yifan, Ji Shuyi, et al. HGNN+: general hypergraph neural networks [J]. IEEE Trans on Pattern Analysis and Machine Intelligence, 2023, 45(3): 3181-3199.

    [23]Pan Junren, Lei Baiying, Shen Yanyan,et al. Characterization multimodal connectivity of brain network by hypergraph GAN for Alzheimer’s disease analysis[C]// Proc of the 4th Chinese Conference on Pattern Recognition and Computer Vision. Cham: Springer International Publishing, 2021: 467-478.

    [24]Luo Xiaoyi, Peng Jiaheng, Liang Jun. Directed hypergraph attention network for traffic forecasting [J]. IET Intelligent Transport Systems, 2022, 16(1): 85-98.

    [25]Fu Jun, Hou Chen, Zhou Wei,et al. Adaptive hypergraph convolutional network for No-reference 360-degree image quality assessment [C]//Proc of the 30th ACM International Conference on Multimedia. New York: ACM Press, 2022: 961-969.

    [26]Yadati N, Nimishakavi M, Yadav P, et al. HyperGCN: a new method of training graph convolutional networks on hypergraphs [C]// Proc of the 33rd International Conference on Neural Information Processing Systems. Red Hook, NY:Curran Associates, 2019: 1511-1522.

    [27]Bandyopadhyay S, Das K, Murty M N. Line hypergraph convolution network:applying graph convolution for hypergraphs [EB/OL]. (2020-02-09). https://arxiv.org/abs/2002.03392.

    [28]谷振宇, 陳聰, 鄭家佳, 等. 考慮時空相似性的動態(tài)圖卷積神經(jīng)網(wǎng)絡(luò)交通流預(yù)測 [J]. 控制與決策, 2023, 38(12): 3399-3408. (Gu Zhenyu, Chen Cong, Zheng Jiajia, et al. Traffic flow prediction based on STG-CRNN [J]. Control and Decision, 2023, 38(12): 3399-3408.)

    [29]Dai Qionghai, GaoYue. Hypergraph Computation [M]. Singapore: Springer Nature Singapore, 2023.

    [30]Shi Xingjian, Chen Zhourong, Wang Hao,et al. Convolutional LSTM network [C]//Proc of the 28th International Conference on Neural Information Processing Systems. New York: ACM Press, 2015: 802-810.

    [31]Chen Yunpeng, Kalantidis Y, Li Jianshu, et al. A 2-Nets: double attention networks [C]// Proc of the 32nd International Conference on Neural Information Processing Systems. Red Hook,NY: Curran Associates, 2018: 350-359.

    [32]Jiang Renhe, Yin Du, Wang Zhaonan,et al. DL-traff: survey and benchmark of deep learning models for urban traffic prediction [C]//Proc of the 30th ACM International Conference on Information amp; Knowledge Management. New York: ACM Press, 2021: 4515-4525.

    [33]Lai Guokun, Chang Weicheng, Yang Yiming,et al. Modeling long- and short-term temporal patterns with deep neural networks [C]// Proc of the 41st International ACM SIGIR Conference on Research amp; Development in Information Retrieval. New York: ACM Press, 2018: 95-104.

    [34]Zheng Chuanpan, Fan Xiaoliang, Wang Cheng,et al. GMAN: a graph multi-attention network for traffic prediction[C]// Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2020: 1234-1241.

    [35]Zheng Ge, Chai W K, Katos V. A dynamic spatial-temporal deep learning framework for traffic speed prediction on large-scale road networks [J]. Expert Systems with Applications, 2022, 195: 116585.

    久久香蕉激情| 亚洲欧美一区二区三区久久| 国产精品1区2区在线观看.| 男女午夜视频在线观看| 亚洲精品美女久久久久99蜜臀| 欧美在线一区亚洲| 欧美丝袜亚洲另类 | 在线播放国产精品三级| 久久精品国产综合久久久| 999久久久精品免费观看国产| avwww免费| 国产免费现黄频在线看| 久久九九热精品免费| 男女高潮啪啪啪动态图| 欧美精品啪啪一区二区三区| 波多野结衣高清无吗| 日韩三级视频一区二区三区| 视频在线观看一区二区三区| 成人亚洲精品av一区二区 | 自线自在国产av| 国产精品电影一区二区三区| 欧美久久黑人一区二区| 国产av一区在线观看免费| 在线av久久热| 很黄的视频免费| 国产精品秋霞免费鲁丝片| 久久精品亚洲av国产电影网| 人成视频在线观看免费观看| 国产成人精品久久二区二区91| 亚洲欧美一区二区三区黑人| 亚洲九九香蕉| 日韩视频一区二区在线观看| 黄色视频,在线免费观看| 久久欧美精品欧美久久欧美| 国产成年人精品一区二区 | 亚洲精品中文字幕在线视频| 亚洲精品一二三| 久久久久久久久久久久大奶| 成人亚洲精品av一区二区 | 电影成人av| 精品午夜福利视频在线观看一区| 女人爽到高潮嗷嗷叫在线视频| 亚洲专区中文字幕在线| 天堂√8在线中文| 亚洲色图 男人天堂 中文字幕| 亚洲情色 制服丝袜| 久久国产精品影院| 啦啦啦免费观看视频1| 国内毛片毛片毛片毛片毛片| 日韩一卡2卡3卡4卡2021年| 久久 成人 亚洲| 亚洲国产欧美日韩在线播放| 欧美黄色片欧美黄色片| 99riav亚洲国产免费| 成人18禁在线播放| 老司机在亚洲福利影院| 亚洲国产看品久久| 日本a在线网址| 久久久国产成人精品二区 | 一边摸一边抽搐一进一小说| 丰满人妻熟妇乱又伦精品不卡| 成年版毛片免费区| 国产又色又爽无遮挡免费看| 久久精品国产亚洲av高清一级| 老司机午夜福利在线观看视频| 日韩免费高清中文字幕av| av中文乱码字幕在线| 午夜福利在线免费观看网站| 国产精品秋霞免费鲁丝片| 午夜日韩欧美国产| www.自偷自拍.com| 久久香蕉国产精品| 欧美日韩一级在线毛片| 欧美最黄视频在线播放免费 | av超薄肉色丝袜交足视频| 欧美另类亚洲清纯唯美| 9热在线视频观看99| 久久狼人影院| 男女下面插进去视频免费观看| 欧美日韩亚洲国产一区二区在线观看| a级毛片黄视频| 日韩 欧美 亚洲 中文字幕| 性色av乱码一区二区三区2| 欧美中文日本在线观看视频| 国产免费男女视频| 亚洲第一av免费看| 高清黄色对白视频在线免费看| 成熟少妇高潮喷水视频| 亚洲一区中文字幕在线| 日韩欧美一区视频在线观看| av网站免费在线观看视频| www.精华液| 亚洲欧美精品综合一区二区三区| 免费av毛片视频| 日韩大码丰满熟妇| 亚洲在线自拍视频| 久久婷婷成人综合色麻豆| 亚洲精品美女久久av网站| 国产极品粉嫩免费观看在线| 男男h啪啪无遮挡| 婷婷精品国产亚洲av在线| 91av网站免费观看| 高清av免费在线| 美女国产高潮福利片在线看| 亚洲片人在线观看| 久久久久九九精品影院| 人人澡人人妻人| 久久婷婷成人综合色麻豆| 国产三级黄色录像| 日本wwww免费看| 欧美日韩国产mv在线观看视频| 亚洲美女黄片视频| 最近最新中文字幕大全免费视频| 国产精品 欧美亚洲| 侵犯人妻中文字幕一二三四区| 亚洲视频免费观看视频| 欧美成狂野欧美在线观看| 国产99久久九九免费精品| 女人被躁到高潮嗷嗷叫费观| 亚洲人成77777在线视频| 97超级碰碰碰精品色视频在线观看| 香蕉久久夜色| 亚洲片人在线观看| 国产精品偷伦视频观看了| 久久青草综合色| 韩国精品一区二区三区| 色综合站精品国产| 国产成人欧美在线观看| av免费在线观看网站| 久久精品国产清高在天天线| 麻豆国产av国片精品| 国产1区2区3区精品| 新久久久久国产一级毛片| 午夜亚洲福利在线播放| 亚洲avbb在线观看| 国产亚洲精品久久久久久毛片| 男女床上黄色一级片免费看| 99热国产这里只有精品6| 精品国产国语对白av| 国产真人三级小视频在线观看| 国产精品久久久久久人妻精品电影| 在线播放国产精品三级| 亚洲成人久久性| 一个人免费在线观看的高清视频| 亚洲欧美精品综合久久99| 九色亚洲精品在线播放| 在线免费观看的www视频| 69精品国产乱码久久久| 亚洲午夜理论影院| 巨乳人妻的诱惑在线观看| 一边摸一边抽搐一进一小说| 啦啦啦在线免费观看视频4| 人人妻,人人澡人人爽秒播| 午夜福利在线免费观看网站| 18禁裸乳无遮挡免费网站照片 | 正在播放国产对白刺激| 亚洲国产欧美网| 天堂俺去俺来也www色官网| 亚洲伊人色综图| 80岁老熟妇乱子伦牲交| 国产精品国产高清国产av| 亚洲欧美一区二区三区久久| 美女国产高潮福利片在线看| 久久欧美精品欧美久久欧美| 他把我摸到了高潮在线观看| 欧美午夜高清在线| 亚洲欧美日韩无卡精品| 天天躁狠狠躁夜夜躁狠狠躁| 1024香蕉在线观看| 国产成人精品无人区| 久99久视频精品免费| 欧美久久黑人一区二区| 欧美性长视频在线观看| 午夜激情av网站| 91成人精品电影| 欧美黑人欧美精品刺激| 国产精品 国内视频| 国产精品美女特级片免费视频播放器 | 变态另类成人亚洲欧美熟女 | 在线观看午夜福利视频| 日日爽夜夜爽网站| 天天影视国产精品| 亚洲色图 男人天堂 中文字幕| 美国免费a级毛片| 日韩欧美一区视频在线观看| 精品熟女少妇八av免费久了| 老司机深夜福利视频在线观看| 精品国产美女av久久久久小说| 欧美人与性动交α欧美精品济南到| 又黄又粗又硬又大视频| 国产精品香港三级国产av潘金莲| 久久久国产成人免费| 免费在线观看视频国产中文字幕亚洲| 久久精品国产清高在天天线| 免费不卡黄色视频| av免费在线观看网站| 五月开心婷婷网| 中文字幕色久视频| 在线观看免费视频日本深夜| 欧美日韩中文字幕国产精品一区二区三区 | 午夜免费激情av| 看片在线看免费视频| 亚洲第一av免费看| 国产av又大| 无限看片的www在线观看| av视频免费观看在线观看| 视频区图区小说| 岛国在线观看网站| 亚洲av成人av| 老司机午夜福利在线观看视频| 精品国产超薄肉色丝袜足j| 欧美激情高清一区二区三区| 最近最新中文字幕大全电影3 | 亚洲中文日韩欧美视频| 日韩精品免费视频一区二区三区| 制服诱惑二区| 欧美 亚洲 国产 日韩一| 欧美午夜高清在线| 久久这里只有精品19| www日本在线高清视频| 深夜精品福利| 91麻豆av在线| 国产成人欧美| 在线看a的网站| 99精品在免费线老司机午夜| avwww免费| 黄色片一级片一级黄色片| 亚洲精品一卡2卡三卡4卡5卡| 黄色视频不卡| 老司机福利观看| 欧美一区二区精品小视频在线| 精品福利永久在线观看| 欧美最黄视频在线播放免费 | 桃色一区二区三区在线观看| 曰老女人黄片| 久久精品影院6| 精品午夜福利视频在线观看一区| 精品电影一区二区在线| 久久亚洲真实| 中文字幕高清在线视频| 精品国产美女av久久久久小说| 日韩一卡2卡3卡4卡2021年| 午夜两性在线视频| 亚洲欧美一区二区三区黑人| 中文字幕av电影在线播放| 两个人免费观看高清视频| 热99re8久久精品国产| 亚洲精品一卡2卡三卡4卡5卡| 日韩视频一区二区在线观看| 午夜免费鲁丝| 美女午夜性视频免费| 久久久国产成人免费| 97人妻天天添夜夜摸| 嫩草影院精品99| 国产精品一区二区在线不卡| 无遮挡黄片免费观看| 国产av又大| 水蜜桃什么品种好| 日韩欧美免费精品| 免费观看精品视频网站| 国产精品久久久人人做人人爽| 国产精品秋霞免费鲁丝片| 亚洲人成网站在线播放欧美日韩| 午夜亚洲福利在线播放| 久久国产亚洲av麻豆专区| 国产精品香港三级国产av潘金莲| 99久久精品国产亚洲精品| 亚洲三区欧美一区| 满18在线观看网站| 国产1区2区3区精品| 一进一出好大好爽视频| 大码成人一级视频| 午夜视频精品福利| 国产精品久久视频播放| 超碰成人久久| 色综合站精品国产| 我的亚洲天堂| 欧美在线黄色| 久久香蕉激情| 亚洲熟女毛片儿| 俄罗斯特黄特色一大片| 精品国产乱子伦一区二区三区| 国产主播在线观看一区二区| 亚洲免费av在线视频| 天堂俺去俺来也www色官网| 国产成人精品无人区| netflix在线观看网站| 岛国视频午夜一区免费看| 成年女人毛片免费观看观看9| 91字幕亚洲| 69av精品久久久久久| 久久人人爽av亚洲精品天堂| 99re在线观看精品视频| 极品人妻少妇av视频| 999久久久精品免费观看国产| 国产精品 国内视频| 免费在线观看视频国产中文字幕亚洲| 91成年电影在线观看| 国产日韩一区二区三区精品不卡| 色在线成人网| 亚洲人成伊人成综合网2020| 麻豆久久精品国产亚洲av | 又黄又粗又硬又大视频| 久久久久久免费高清国产稀缺| 伦理电影免费视频| 婷婷丁香在线五月| 热99国产精品久久久久久7| 九色亚洲精品在线播放| 久久人人精品亚洲av| 99re在线观看精品视频| 国产成人精品无人区| 久久国产精品人妻蜜桃| 黑人巨大精品欧美一区二区mp4| 午夜a级毛片| 午夜福利免费观看在线| 国产成人啪精品午夜网站| 久久精品亚洲熟妇少妇任你| 欧美av亚洲av综合av国产av| www.www免费av| 日本三级黄在线观看| 国产精品亚洲一级av第二区| 亚洲av美国av| 美女 人体艺术 gogo| 欧美精品啪啪一区二区三区| 午夜福利一区二区在线看| www.www免费av| 日日爽夜夜爽网站| 在线视频色国产色| 丝袜人妻中文字幕| 久久青草综合色| 久久人人精品亚洲av| 狠狠狠狠99中文字幕| 日韩欧美在线二视频| 又黄又粗又硬又大视频| 亚洲av成人不卡在线观看播放网| 久久人妻福利社区极品人妻图片| 熟女少妇亚洲综合色aaa.| 亚洲精品中文字幕在线视频| 免费观看人在逋| 精品欧美一区二区三区在线| 一边摸一边抽搐一进一出视频| 欧美黑人精品巨大| 中文欧美无线码| 啦啦啦在线免费观看视频4| ponron亚洲| 亚洲国产精品一区二区三区在线| 法律面前人人平等表现在哪些方面| 亚洲熟女毛片儿| 淫秽高清视频在线观看| 国产成人欧美在线观看| 激情视频va一区二区三区| 女性生殖器流出的白浆| 国产激情久久老熟女| ponron亚洲| 啪啪无遮挡十八禁网站| 日日摸夜夜添夜夜添小说| av欧美777| 欧美日韩福利视频一区二区| 日韩国内少妇激情av| 日本黄色日本黄色录像| 精品久久久久久电影网| 悠悠久久av| 香蕉国产在线看| 成人特级黄色片久久久久久久| 国产精品久久视频播放| 久热爱精品视频在线9| 精品福利永久在线观看| 九色亚洲精品在线播放| 视频在线观看一区二区三区| 变态另类成人亚洲欧美熟女 | 中出人妻视频一区二区| 天天躁狠狠躁夜夜躁狠狠躁| 亚洲免费av在线视频| 少妇粗大呻吟视频| 18禁黄网站禁片午夜丰满| 大型黄色视频在线免费观看| 女警被强在线播放| 久久久久亚洲av毛片大全| 一进一出抽搐动态| 久久久久亚洲av毛片大全| 色婷婷av一区二区三区视频| 久久国产乱子伦精品免费另类| 国产单亲对白刺激| 欧美av亚洲av综合av国产av| 成熟少妇高潮喷水视频| 一区二区日韩欧美中文字幕| 国产人伦9x9x在线观看| a级片在线免费高清观看视频| 国产高清videossex| 18禁国产床啪视频网站| 久久国产精品人妻蜜桃| 长腿黑丝高跟| 麻豆一二三区av精品| 国产成人精品在线电影| 成人精品一区二区免费| 天天躁狠狠躁夜夜躁狠狠躁| 51午夜福利影视在线观看| 国产激情久久老熟女| 久久人人97超碰香蕉20202| 麻豆av在线久日| 精品国产国语对白av| 男女床上黄色一级片免费看| 成人国语在线视频| 久热爱精品视频在线9| 中文字幕人妻丝袜制服| 亚洲 欧美一区二区三区| 国产精品久久久人人做人人爽| 99久久精品国产亚洲精品| 999久久久精品免费观看国产| 69av精品久久久久久| 91在线观看av| 男女床上黄色一级片免费看| 国产成人啪精品午夜网站| 亚洲精品一区av在线观看| 国产成人影院久久av| 国产1区2区3区精品| 免费在线观看影片大全网站| 亚洲久久久国产精品| 香蕉国产在线看| 国产精品免费视频内射| 两性夫妻黄色片| 身体一侧抽搐| 国产成人一区二区三区免费视频网站| 亚洲自拍偷在线| 大码成人一级视频| 另类亚洲欧美激情| 久久久久久久久免费视频了| 琪琪午夜伦伦电影理论片6080| 中文字幕高清在线视频| 日本免费a在线| 午夜福利影视在线免费观看| 啪啪无遮挡十八禁网站| 久久精品91蜜桃| 亚洲人成电影免费在线| 亚洲美女黄片视频| 欧洲精品卡2卡3卡4卡5卡区| 国产91精品成人一区二区三区| 国产aⅴ精品一区二区三区波| 亚洲男人天堂网一区| 脱女人内裤的视频| 久久中文字幕人妻熟女| 欧美激情久久久久久爽电影 | 亚洲精品国产一区二区精华液| 91麻豆精品激情在线观看国产 | 亚洲一码二码三码区别大吗| 曰老女人黄片| 日韩高清综合在线| 欧美日韩亚洲高清精品| 99久久精品国产亚洲精品| 99re在线观看精品视频| 黑人欧美特级aaaaaa片| 亚洲av电影在线进入| 成人永久免费在线观看视频| 国产精品久久视频播放| ponron亚洲| 亚洲一区高清亚洲精品| 国产主播在线观看一区二区| 精品国产乱子伦一区二区三区| 成人亚洲精品一区在线观看| 岛国在线观看网站| 成人手机av| 黑人巨大精品欧美一区二区蜜桃| 色综合欧美亚洲国产小说| 午夜免费观看网址| 亚洲精品av麻豆狂野| 日韩欧美免费精品| 日韩欧美免费精品| 一级a爱视频在线免费观看| 国产精品成人在线| 国产男靠女视频免费网站| 精品欧美一区二区三区在线| 日韩欧美三级三区| 9191精品国产免费久久| 国产成人精品久久二区二区91| 亚洲中文字幕日韩| 老司机午夜十八禁免费视频| 久久狼人影院| 免费在线观看日本一区| 日本免费a在线| 亚洲精品成人av观看孕妇| 欧美色视频一区免费| 国产亚洲精品第一综合不卡| 亚洲欧洲精品一区二区精品久久久| 天堂动漫精品| 中文字幕精品免费在线观看视频| 99riav亚洲国产免费| 亚洲专区中文字幕在线| 成人亚洲精品av一区二区 | 在线观看舔阴道视频| 满18在线观看网站| 999精品在线视频| 亚洲免费av在线视频| 日韩欧美一区二区三区在线观看| 麻豆一二三区av精品| 亚洲一码二码三码区别大吗| 久久婷婷成人综合色麻豆| 欧美黄色淫秽网站| 1024香蕉在线观看| netflix在线观看网站| 久久久久久久久久久久大奶| 国产欧美日韩一区二区三区在线| 老司机福利观看| 99精品欧美一区二区三区四区| 丝袜美足系列| 久久天躁狠狠躁夜夜2o2o| 亚洲成人久久性| 久久草成人影院| 男女做爰动态图高潮gif福利片 | 亚洲一区中文字幕在线| 欧美人与性动交α欧美精品济南到| 波多野结衣av一区二区av| 国内久久婷婷六月综合欲色啪| 国产精品九九99| 色老头精品视频在线观看| 男人操女人黄网站| 久久久国产欧美日韩av| 欧美久久黑人一区二区| 精品国产乱码久久久久久男人| 国产视频一区二区在线看| x7x7x7水蜜桃| 久热这里只有精品99| 国产成人av激情在线播放| 日韩视频一区二区在线观看| 亚洲五月色婷婷综合| 免费在线观看黄色视频的| 国产又色又爽无遮挡免费看| 国产激情欧美一区二区| 精品福利永久在线观看| 亚洲全国av大片| 成人亚洲精品av一区二区 | 两性午夜刺激爽爽歪歪视频在线观看 | 中文字幕最新亚洲高清| 90打野战视频偷拍视频| 777久久人妻少妇嫩草av网站| 免费在线观看黄色视频的| 午夜a级毛片| 久久 成人 亚洲| 久久久久久久久久久久大奶| 97碰自拍视频| 国产人伦9x9x在线观看| 丝袜美腿诱惑在线| 久久久久久免费高清国产稀缺| www国产在线视频色| 亚洲久久久国产精品| 久久精品亚洲熟妇少妇任你| 午夜精品久久久久久毛片777| 在线观看一区二区三区激情| 我的亚洲天堂| 大型av网站在线播放| 午夜精品国产一区二区电影| 久久伊人香网站| 精品久久久久久久毛片微露脸| 国产精品98久久久久久宅男小说| 亚洲人成伊人成综合网2020| a级片在线免费高清观看视频| 亚洲一区二区三区不卡视频| 大香蕉久久成人网| 国产在线观看jvid| 99精品在免费线老司机午夜| 母亲3免费完整高清在线观看| 自线自在国产av| 正在播放国产对白刺激| 久久人妻福利社区极品人妻图片| 不卡一级毛片| 亚洲avbb在线观看| 国产成人精品在线电影| 亚洲成人免费电影在线观看| www国产在线视频色| 亚洲熟妇熟女久久| 亚洲精品一卡2卡三卡4卡5卡| 日韩一卡2卡3卡4卡2021年| 欧美激情 高清一区二区三区| 日韩国内少妇激情av| av福利片在线| 另类亚洲欧美激情| 欧美乱色亚洲激情| 一级作爱视频免费观看| 久久精品国产亚洲av香蕉五月| 美女福利国产在线| 久久久久九九精品影院| 免费少妇av软件| 看片在线看免费视频| 一边摸一边抽搐一进一小说| 久久国产乱子伦精品免费另类| 脱女人内裤的视频| 中亚洲国语对白在线视频| 新久久久久国产一级毛片| 亚洲欧美日韩高清在线视频| 亚洲黑人精品在线| 女人高潮潮喷娇喘18禁视频| 精品久久久久久久久久免费视频 | 黑人操中国人逼视频| 中文欧美无线码| av在线播放免费不卡| 亚洲av成人一区二区三| 成人手机av| 日韩精品免费视频一区二区三区| 99久久99久久久精品蜜桃| 欧美精品一区二区免费开放| 亚洲第一av免费看| 国产成人精品久久二区二区免费| 亚洲五月婷婷丁香| 国产精品香港三级国产av潘金莲| 在线国产一区二区在线| 欧美乱妇无乱码| 日韩 欧美 亚洲 中文字幕| 丝袜美足系列| 欧美乱妇无乱码| 久久亚洲精品不卡| netflix在线观看网站| 成人黄色视频免费在线看| avwww免费| 国产亚洲精品一区二区www| 亚洲色图 男人天堂 中文字幕| 日韩欧美一区视频在线观看|