• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于iTransformer的高速公路通行費(fèi)精準(zhǔn)預(yù)測(cè)模型

    2025-02-13 00:00:00王恒昆谷金宋之凡王江鋒
    山東科學(xué) 2025年1期
    關(guān)鍵詞:通行費(fèi)預(yù)測(cè)模型

    摘要:高速公路通行費(fèi)受到節(jié)假日、突發(fā)事件等復(fù)雜因素影響,傳統(tǒng)預(yù)測(cè)方法在處理這些問題時(shí),往往無法充分考慮多維因素之間的復(fù)雜交互作用,導(dǎo)致預(yù)測(cè)精度難以達(dá)到理想水平。大型語言模型利用自注意力機(jī)制能夠?qū)崿F(xiàn)對(duì)復(fù)雜時(shí)空數(shù)據(jù)的擬合,并具有更強(qiáng)的特征學(xué)習(xí)能力,可有效解決高速公路通行費(fèi)的精準(zhǔn)預(yù)測(cè)問題。利用此特性提出了一種基于iTransformer的高速公路通行費(fèi)精準(zhǔn)預(yù)測(cè)模型,該預(yù)測(cè)模型將時(shí)間信息作為獨(dú)立維度嵌入輸入序列中,并倒置了自注意力機(jī)制與前饋網(wǎng)絡(luò)的職責(zé),使得預(yù)測(cè)模型能夠更準(zhǔn)確地捕捉時(shí)間序列的動(dòng)態(tài)特征和多變量之間的相關(guān)性。實(shí)例分析結(jié)果顯示,所提出的預(yù)測(cè)模型在普通場景下較SARIMA模型和LSTM模型平均預(yù)測(cè)精度分別提高23.47%和17.84%。特殊場景下具有更優(yōu)預(yù)測(cè)效果,分別提升70.92%和45.64%。針對(duì)所提出預(yù)測(cè)模型進(jìn)行敏感性分析,模型對(duì)前饋網(wǎng)絡(luò)層數(shù)和編碼器堆疊層數(shù)較為敏感,對(duì)注意力頭數(shù)變化不敏感。該研究為解決復(fù)雜交通環(huán)境下的通行費(fèi)預(yù)測(cè)問題提供了新的方法論支持,對(duì)提高高速公路通行費(fèi)預(yù)測(cè)精度具有重要意義。

    關(guān)鍵詞:大語言模型;預(yù)測(cè)模型;自注意力機(jī)制;通行費(fèi)

    中圖分類號(hào):U491.1+22""" 文獻(xiàn)標(biāo)志碼:A""" 文章編號(hào):1002-4026(2025)01-0120-09

    開放科學(xué)(資源服務(wù))標(biāo)志碼(OSID):

    DOI:10.3976/j.issn.1002-4026.20240055【交通運(yùn)輸】

    收稿日期:2024-04-07

    基金項(xiàng)目:國家重點(diǎn)基礎(chǔ)研究發(fā)展計(jì)劃(2022YFB4300404);河北省中央引導(dǎo)地方科技發(fā)展資金項(xiàng)目(236Z0802G)

    作者簡介:王恒昆(1991—),男,碩士,工程師,研究方向?yàn)榻煌üこ?。E-mail: 15054123066@163.com

    *通信作者,王江鋒,男,教授,研究方向?yàn)檐嚶?lián)網(wǎng)、綜合交通大數(shù)據(jù)。E-mail: wangjiangfeng@bjtu.edu.cn, Tel:13811805476

    A precise highway toll prediction model based on iTransformer

    WANG Hengkun1,GU Jin2,SONG Zhifan3,WANG Jiangfeng3*

    (1. Shandong Traffic Research Institute, Jinan 250002, China;2. Shandong Provincial Communications Planning and Design Institute

    Group Co., Ltd., Jinan 250002, China;3. School of Traffic and Transportation, Beijing Jiaotong University, Beijing 100044, China)

    Abstract∶The prediction of highway tolls is affected by complex factors such as holidays and unexpected events. Traditional prediction methods often fail to fully account for intricate interactions between these multiple factors, resulting in less-than-ideal prediction accuracy. By leveraging the self-attention mechanism, large language models can better fit complex spatiotemporal data and have enhanced feature learning capabilities, making them highly effective for precise highway toll prediction. Therefore, this study proposes a highway toll prediction model based on iTransformer. This model embeds temporal information as an independent dimension into the input sequence and reverses the roles of the self-attention mechanism and feed-forward network, thereby allowing the model to more accurately capture the dynamic features of time series and correlations between multiple variables. Case studies show that the proposed model improves the average prediction accuracy by 23.47% and 17.84% compared with the SARIMA and LSTM models, respectively, in regular scenarios. In irregular scenarios, the model demonstrates even better predictive performance, improving the accuracy by 70.92% and 45.64%, respectively. A sensitivity analysis of the proposed model indicates that it is highly sensitive to the number of feed-forward network layers and stacked encoder layers but is less sensitive to changes in the number of attention heads. Thus, this study provides a new methodological approach for addressing the challenges associated with toll prediction in complex traffic environments and has significant implications in terms of improving the accuracy of highway toll predictions.

    Key words∶large language model; prediction model; self-attention; toll fee

    通行費(fèi)是高速公路的主要營收來源之一,精準(zhǔn)的通行費(fèi)預(yù)測(cè)可以為高速公路運(yùn)營管理提供有力的數(shù)據(jù)支持[1],然而現(xiàn)有預(yù)測(cè)模型由于精度較差、適應(yīng)場景單一等諸多原因無法滿足其需求[2]。隨著ChatGPT等生成式預(yù)訓(xùn)練模型應(yīng)用越來越廣泛,其背后的Transformer模型滲透到深度學(xué)習(xí)的各個(gè)研究領(lǐng)域,其強(qiáng)大的特征捕獲性能為高速公路通行費(fèi)精準(zhǔn)預(yù)測(cè)提供了另一種可能性,對(duì)于提高我國高速公路運(yùn)營管理和服務(wù)水平有著重要意義[3]。

    目前的通行費(fèi)預(yù)測(cè)模型主要分為直接預(yù)測(cè)法、間接預(yù)測(cè)法[4]和深度學(xué)習(xí)預(yù)測(cè)法。其中直接預(yù)測(cè)法以差分自回歸移動(dòng)平均模型(ARIMA)[5]、Holt-Winters[6]模型為代表,它所需數(shù)據(jù)簡單、易于實(shí)現(xiàn),但在非線性、不平穩(wěn)的數(shù)據(jù)集上表現(xiàn)欠佳。間接預(yù)測(cè)法以線性回歸、多元回歸等方法為代表,對(duì)于相關(guān)指標(biāo)的選取有著較高要求,同樣在復(fù)雜模式的預(yù)測(cè)中存在局限性。深度學(xué)習(xí)預(yù)測(cè)法通過對(duì)長期時(shí)序數(shù)據(jù)的學(xué)習(xí)表現(xiàn)出良好的預(yù)測(cè)性能[7],如循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)[8]和長短期記憶網(wǎng)絡(luò)(LSTM)[9],但這類方法對(duì)于訓(xùn)練數(shù)據(jù)集的可靠性有著較高的要求。

    時(shí)間序列與Transformer的結(jié)合成為近幾年深度學(xué)習(xí)領(lǐng)域的一個(gè)焦點(diǎn),相比傳統(tǒng)的深度學(xué)習(xí)方法,Transformer模型在捕捉長時(shí)序數(shù)據(jù)的動(dòng)態(tài)特征方面展現(xiàn)了更強(qiáng)的能力。近年來出現(xiàn)不少將Transformer模型應(yīng)用于時(shí)間序列任務(wù)的嘗試,首先是多尺度建模的Transformer模型,它們強(qiáng)調(diào)在不同時(shí)間尺度上捕捉時(shí)間序列的特征,如Pathformer[10]和SCALEFORMER[11]。其次是頻域與時(shí)域結(jié)合的模型,此類模型結(jié)合了頻域和時(shí)域的信息來提升預(yù)測(cè)能力,如InParformer[12]和FEDformer[13]。在自注意力機(jī)制改進(jìn)方面,Informer設(shè)計(jì)了一種高效的長序列時(shí)間序列預(yù)測(cè)模型。最后,在復(fù)雜時(shí)間模式提取方面,iTransformer僅僅通過倒置自注意力機(jī)制和前饋網(wǎng)絡(luò)的職責(zé),集成多層次注意力機(jī)制,實(shí)現(xiàn)了時(shí)間序列的全局和局部特征的精準(zhǔn)提?。?4],能夠處理大規(guī)模時(shí)間序列數(shù)據(jù),并通過減少計(jì)算復(fù)雜度來提高效率[15]。

    本文以G9211甬舟高速通行費(fèi)數(shù)據(jù)為基礎(chǔ),提出了基于iTransformer的高速公路通行費(fèi)精準(zhǔn)預(yù)測(cè)模型,測(cè)試模型在不同場景下的表現(xiàn),與傳統(tǒng)預(yù)測(cè)模型進(jìn)行性能比較,為高速公路通行費(fèi)預(yù)測(cè)問題提供了一種新的解決思路和方法,探索了深度學(xué)習(xí)技術(shù)和大語言模型服務(wù)交通領(lǐng)域的可能性。

    1" 數(shù)據(jù)預(yù)處理

    本文采用卡爾曼濾波對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,卡爾曼濾波通過對(duì)系統(tǒng)狀態(tài)進(jìn)行遞歸估計(jì),減少觀測(cè)數(shù)據(jù)中的噪聲和不確定性,突出系統(tǒng)長期趨勢(shì),使數(shù)據(jù)更易于分析和理解,處理過程包含狀態(tài)更新方程和觀測(cè)更新方程,如下所示。

    狀態(tài)更新方程:

    x︿k|k-1=Fkx︿k-1|k-1+Bkuk,(1)

    Pk|k-1=FkPk-1|k-1FTk+Qk,(2)

    式中,x︿k|k-1為由時(shí)刻k-1的狀態(tài)得到的時(shí)刻k的狀態(tài)預(yù)測(cè)估計(jì)值;x︿k-1|k-1為由時(shí)刻k-1的狀態(tài)得到的時(shí)刻k-1的狀態(tài)預(yù)測(cè)估計(jì)值;Fk為描述系統(tǒng)動(dòng)態(tài)特性的狀態(tài)轉(zhuǎn)移矩陣;Bk為表示外部輸入對(duì)系統(tǒng)影響的控制輸入矩陣;uk為控制輸入向量;Pk|k-1為預(yù)測(cè)向量的協(xié)方差矩陣;Pk-1|k-1為時(shí)刻k-1時(shí)狀態(tài)的協(xié)方差矩陣;Qk為狀態(tài)轉(zhuǎn)移過程中系統(tǒng)噪聲的協(xié)方差矩陣。

    觀測(cè)更新方程:

    x︿k|k=x︿k|k-1+Kkzk-Hkx︿k|k-1,(3)

    Pk|k=I-KkHkPk|k-1,(4)

    Kk=Pk|k-1HkTHkPk|k-1HkT+Rk-1,(5)

    式中,x︿k|k為在時(shí)刻k的狀態(tài)估計(jì)值;Kk為卡爾曼增益矩陣;zk為在時(shí)刻k的觀測(cè)值;Hk為用于將狀態(tài)空間映射到觀測(cè)空間的觀測(cè)矩陣;Rk為觀測(cè)噪聲協(xié)方差矩陣;I為單位矩陣。

    2" 基于iTransformer的時(shí)間序列預(yù)測(cè)模型

    2.1" 模型框架

    本文基于iTransformer的高速公路通行費(fèi)精準(zhǔn)預(yù)測(cè)模型的研究主要分為3部分,分別是數(shù)據(jù)預(yù)處理、預(yù)測(cè)模型和模型性能評(píng)價(jià),如圖1所示。其中核心部分預(yù)測(cè)模型由輸入嵌入、編碼器等模塊構(gòu)成,輸入嵌入模塊負(fù)責(zé)將時(shí)間序列數(shù)據(jù)進(jìn)行編碼,以便模型能夠理解輸入數(shù)據(jù)的含義和特征。編碼器通過多層堆疊實(shí)現(xiàn)對(duì)輸入序列的特征提取,每個(gè)編碼器包含多頭自注意力機(jī)制和前饋網(wǎng)絡(luò),用于捕捉序列中的長期依賴關(guān)系和變化規(guī)律。

    2.2" 輸入嵌入

    Transformer模型在處理時(shí)間序列數(shù)據(jù)時(shí),首先需要將數(shù)據(jù)嵌入為計(jì)算機(jī)可處理的三維張量形式,這一步驟是模型對(duì)時(shí)間序列數(shù)據(jù)進(jìn)行處理和理解的關(guān)鍵。一般將包含變量數(shù)為N、長度為T的數(shù)據(jù)表示為如下形式的三維張量。

    X=x1,…,xT∈瘙綆T×N,(6)

    EmbeddingX=B,N,D,(7)

    式中,X為輸入矩陣;B為批次大小,即一次輸入模型的樣本數(shù)量;N為特征維度,即每個(gè)時(shí)間步所包含的變量數(shù)量;T為時(shí)間步數(shù),即時(shí)間序列的長度或觀察窗口的大??;D為數(shù)據(jù)被嵌入的維度。

    以往使用Transformer模型處理時(shí)間序列數(shù)據(jù)時(shí)使用位置編碼來記錄時(shí)間步的順序信息,然而這種傳統(tǒng)的順序表示方法在時(shí)間序列任務(wù)中存在限制,各個(gè)變量具有不同的物理意義,而它為不同變量在相同的時(shí)間步賦予相同的時(shí)間戳,這種表示可能會(huì)導(dǎo)致相關(guān)性提取不準(zhǔn)確,從而影響模型的性能和表現(xiàn)。在iTransformer模型中,將時(shí)間信息作為一個(gè)獨(dú)立的維度嵌入到輸入變量序列中,這樣每個(gè)時(shí)間點(diǎn)都可以被表示為一個(gè)獨(dú)特的向量,準(zhǔn)確地捕捉時(shí)序數(shù)據(jù)中的動(dòng)態(tài)特征和相關(guān)性,具體步驟如下:

    (1)將維度為B,N,T的數(shù)據(jù)輸入全連接層,每個(gè)時(shí)間步的數(shù)據(jù)映射到一個(gè)更高維度的特征空間中,輸出維度是B,N,D,其中D表示嵌入的維度。

    (2)通過Rearrange函數(shù)將數(shù)據(jù)的維度重新排列成B,D,T的形式,這種形式可以更好地融合變量和時(shí)間步的信息,以便后續(xù)的自注意力機(jī)制能夠更好地捕捉時(shí)間序列數(shù)據(jù)中變量之間的關(guān)系。

    (3)將數(shù)據(jù)輸入Layer Normalization層,對(duì)嵌入后的數(shù)據(jù)進(jìn)行歸一化處理,提高模型的訓(xùn)練穩(wěn)定性和收斂速度,表示如下:

    LayerNormx=x-μσ⊙γ+β,(8)

    式中,μ為數(shù)據(jù)的均值,σ為數(shù)據(jù)的標(biāo)準(zhǔn)差,γ和β為可學(xué)習(xí)的縮放因子和偏置項(xiàng)。

    2.3" 編碼器

    Transformer模型中的編碼器由多個(gè)模塊堆疊構(gòu)成,每個(gè)模塊包括自注意力機(jī)制和前饋網(wǎng)絡(luò)兩個(gè)主要組件。對(duì)于時(shí)間序列數(shù)據(jù),編碼器的作用是將輸入的時(shí)間序列數(shù)據(jù)轉(zhuǎn)換為包含語義信息和上下文信息的隱藏狀態(tài),幫助模型更好地理解時(shí)間序列數(shù)據(jù)的內(nèi)在規(guī)律和特征,提高模型在時(shí)間序列分析任務(wù)上的性能。

    iTransformer模型在傳統(tǒng)Transformer模型的基礎(chǔ)上對(duì)編碼器進(jìn)行了改進(jìn),倒置了自注意力機(jī)制和前饋網(wǎng)絡(luò)的職責(zé),因此稱之為Inverted Transformer模型。在傳統(tǒng)的Transformer模型中,自注意力機(jī)制主要用于捕獲輸入序列的自相關(guān)性,前饋網(wǎng)絡(luò)用于學(xué)習(xí)序列中的局部特征。然而在iTransformer模型中,這兩者的職責(zé)發(fā)生顛倒,自注意力機(jī)制用于捕獲多變量之間的相關(guān)性,而前饋網(wǎng)絡(luò)則負(fù)責(zé)學(xué)習(xí)“序列-全局”表示,處理全局特征關(guān)系。

    2.3.1" 自注意力機(jī)制

    iTransformer模型中改進(jìn)的自注意力機(jī)制用于在輸入序列中捕獲多變量之間的關(guān)系,通過計(jì)算序列中每個(gè)位置與其他所有位置之間的關(guān)聯(lián)度,從而實(shí)現(xiàn)對(duì)序列的建模和特征提取。在本文所采用的模型中,自注意力機(jī)制通過以下幾個(gè)步驟構(gòu)建。

    (1)首先通過3個(gè)線性變換層,將輸入數(shù)據(jù)映射到Q、K和V的空間,這一過程可以用

    Q、K、V表示,公式如下:

    Q=X·WQ,(9)

    K=X·WK,(10)

    V=X·WV,(11)

    式中,WQ、WK和WV分別為Q、K、V空間對(duì)應(yīng)的權(quán)重矩陣。

    (2)計(jì)算注意力分?jǐn)?shù)矩陣并歸一化處理,以獲取變量與變量之間的相關(guān)性。

    AttentionQ,K,V=softmaxQK" dhV,(12)

    式中,softmax為歸一化函數(shù),dh為注意力頭的維度。

    (3)最后將注意力分?jǐn)?shù)矩陣通過線性變換和殘差連接傳遞給下一層網(wǎng)絡(luò)進(jìn)行處理。

    2.3.2" 前饋網(wǎng)絡(luò)

    前饋網(wǎng)絡(luò)承接自注意力機(jī)制的輸出,其核心功能是通過線性變換將輸入特征映射到高維空間,通過激活函數(shù)對(duì)特征進(jìn)行非線性變換,使得模型能夠?qū)W習(xí)到更加復(fù)雜和豐富的特征表示。

    在本文使用的模型中,前饋網(wǎng)絡(luò)由以下幾個(gè)關(guān)鍵部分組成:

    (1)線性層:輸入序列通過線性變換層將原始維度映射到更高維度的特征空間,有助于提取輸入序列中的復(fù)雜特征信息。

    (2)激活函數(shù):線性層處理過的序列經(jīng)過一個(gè)門控線性單元(GEGLU)激活函數(shù)的處理,將每個(gè)特征分成兩個(gè)部分,分別進(jìn)行乘積和sigmoid激活函數(shù)的操作,然后再進(jìn)行點(diǎn)乘操作,從而引入了更多的非線性建模能力。

    (3)Dropout層:激活函數(shù)處理過的序列通過Dropout層進(jìn)行正則化,以減少過擬合的風(fēng)險(xiǎn)。

    (4)輸出歸一化:最后經(jīng)過正則化的序列通過另一個(gè)線性變換層將特征映射回原始的維度,得到最終的前饋網(wǎng)絡(luò)輸出。

    3" 實(shí)例分析

    3.1" 數(shù)據(jù)來源

    選取滬杭甬高速和甬舟高速2013年1月至2023年8月每月通行費(fèi)數(shù)據(jù)進(jìn)行實(shí)例分析,其通行費(fèi)原始數(shù)據(jù)變化如圖2所示。從圖中可以看出,滬杭甬高速通行費(fèi)收入整體上大于甬舟高速,兩條高速通行費(fèi)數(shù)據(jù)在時(shí)間特征上均顯示出一定的趨勢(shì)性,2013—2019年通行費(fèi)收入呈現(xiàn)出逐年增長的趨勢(shì),2020年受新冠疫情影響通行費(fèi)總額有所降低,2023年之后恢復(fù)增長趨勢(shì)。在模式特征上均顯示出明顯的周期性,受節(jié)假日的影響較大,每年的通行費(fèi)數(shù)據(jù)呈現(xiàn)出明顯的季節(jié)性波動(dòng),春節(jié)、五一、十一假期受節(jié)假日通行費(fèi)免費(fèi)政策影響數(shù)值較低,而暑期受旅游業(yè)影響數(shù)值較高,其中滬杭甬高速受五一假期和十一假期產(chǎn)生的波谷更為明顯,甬舟高速受暑期旅游影響產(chǎn)生的波峰更為明顯。2020年受新冠疫情的影響采取了交通管制等措施導(dǎo)致數(shù)據(jù)變化異常。

    3.2" 模型有效性分析

    選取SARIMA模型和長短期記憶神經(jīng)網(wǎng)絡(luò)LSTM模型作為比較,分別就普通場景和特殊場景測(cè)試iTransformer模型的有效性,普通場景數(shù)據(jù)集為通行費(fèi)變化較為規(guī)律的2013—2019年,特殊場景關(guān)注模型在疫情發(fā)生后追蹤數(shù)據(jù)變化特征的性能。

    在使用卡爾曼濾波進(jìn)行數(shù)據(jù)預(yù)處理時(shí),針對(duì)一維通行費(fèi)時(shí)間序列數(shù)據(jù),設(shè)置狀態(tài)轉(zhuǎn)移矩陣Fk=1,控制輸入矩陣Bk=0,控制輸入向量uk=0,觀測(cè)矩陣Hk=1,初始狀態(tài)估計(jì)x0為時(shí)間序列數(shù)據(jù)的第一個(gè)值。滬杭甬高速數(shù)據(jù)過程噪聲協(xié)方差矩陣Qk=0.01,觀測(cè)噪聲協(xié)方差矩陣Rk=0.001,初始誤差協(xié)方差矩陣P0=1。甬舟高速數(shù)據(jù)過程噪聲協(xié)方差矩陣Qk=0.001,觀測(cè)噪聲協(xié)方差矩陣Rk=0.001,初始誤差協(xié)方差矩陣P0=100。

    在模型有效性研究實(shí)驗(yàn)中,iTransformer模型學(xué)習(xí)率設(shè)置為0.000 1,隱藏維度設(shè)置為256,注意力頭數(shù)為8,前饋網(wǎng)絡(luò)層數(shù)為512,編碼器堆疊層數(shù)為2。

    3.2.1" 普通場景

    本節(jié)分別用3種模型對(duì)滬杭甬高速和甬舟高速2019年1月至12月的通行費(fèi)進(jìn)行預(yù)測(cè),選取平均絕對(duì)誤差δMAE、均方誤差δMSE、均方根誤差δRMSE、平均相對(duì)誤差δMAPE作為評(píng)價(jià)指標(biāo)。3種模型預(yù)測(cè)結(jié)果的誤差指標(biāo)如圖3所示。

    從圖3中可以看出,4種誤差指標(biāo)波動(dòng)趨勢(shì)相似。SARIMA模型在大部分時(shí)間步上預(yù)測(cè)誤差維持在一定區(qū)間,較其他兩種深度學(xué)習(xí)模型預(yù)測(cè)誤差水平偏大,5月和10月的預(yù)測(cè)值誤差較大;LSTM模型和iTransformer模型整體表現(xiàn)穩(wěn)定,預(yù)測(cè)精度較好,iTransformer模型預(yù)測(cè)效果更佳。以δMAPE值為度量,iTransformer模型較SARIMA模型月平均預(yù)測(cè)誤差降低23.47%,較LSTM模型月平均預(yù)測(cè)誤差降低17.84%。這是因?yàn)楸拘」?jié)使用的數(shù)據(jù)集涵蓋了疫情發(fā)生前變化相對(duì)規(guī)律的年份,符合SARIMA模型對(duì)季節(jié)性和趨勢(shì)性的假設(shè),并且能穩(wěn)定地估計(jì)模型參數(shù),因此預(yù)測(cè)誤差也普遍較低。而兩種深度學(xué)習(xí)模型使用不同方式對(duì)時(shí)間序列長期關(guān)系精準(zhǔn)建模,在識(shí)別這些簡單的數(shù)據(jù)模式特征上有效、簡潔,從而能夠達(dá)到較高的預(yù)測(cè)精度。

    3.2.2" 特殊場景

    新冠疫情對(duì)經(jīng)濟(jì)和社會(huì)生活產(chǎn)生了重大影響,因此模型在特殊場景下的特征追蹤能力對(duì)于預(yù)測(cè)疫情期間的通行費(fèi)數(shù)據(jù)變化至關(guān)重要。本節(jié)使用甬舟高速2019年及之前通行費(fèi)數(shù)據(jù)對(duì)2020年1月至2023年8月通行費(fèi)進(jìn)行預(yù)測(cè),不同模型預(yù)測(cè)結(jié)果的誤差指標(biāo)如表1所示,預(yù)測(cè)結(jié)果如圖4所示。

    由圖表結(jié)果可知,2020年突發(fā)新冠疫情,SARIMA模型由于其依賴歷史數(shù)據(jù)和季節(jié)性趨勢(shì)性的假設(shè),無法適應(yīng)突發(fā)事件引起的數(shù)據(jù)變化特征,雖能大致刻畫數(shù)據(jù)的周期性變化,但其預(yù)測(cè)的精準(zhǔn)度顯著下降。LSTM模型通過門控機(jī)制學(xué)習(xí)時(shí)間序列的自相關(guān)性,在特殊場景下仍具有一定的預(yù)測(cè)能力。相比之下,iTransformer模型憑借其對(duì)時(shí)間戳的精準(zhǔn)表示和自注意力機(jī)制的強(qiáng)大解析能力,仍能產(chǎn)生與真實(shí)值較為吻合的預(yù)測(cè)結(jié)果。iTransformer模型在特殊場景下的預(yù)測(cè)精度仍為最優(yōu),較SARIMA模型預(yù)測(cè)平均誤差降低70.92%,較LSTM模型降低45.64%。

    為了定性評(píng)價(jià)模型在特殊情景下的預(yù)測(cè)效果,我們還使用皮爾遜相關(guān)系數(shù)作為實(shí)際值與模型預(yù)測(cè)值之間的趨勢(shì)擬合度量,計(jì)算得到SARIMA模型的皮爾遜相關(guān)系數(shù)為0.842,LSTM模型的皮爾遜相關(guān)系數(shù)為0.903,而iTransformer模型的皮爾遜相關(guān)系數(shù)為0.992。所有模型都與實(shí)際值趨勢(shì)曲線有著顯著的相關(guān)性,但iTransformer模型的擬合效果最佳,其皮爾遜相關(guān)系數(shù)接近于1,表示預(yù)測(cè)趨勢(shì)與實(shí)際趨勢(shì)之間的線性關(guān)系非常強(qiáng)。

    3.3" 模型敏感性分析

    本節(jié)對(duì)基于iTransformer的高速公路通行費(fèi)精準(zhǔn)預(yù)測(cè)模型進(jìn)行參數(shù)敏感性評(píng)估,將2013—2019年通行費(fèi)數(shù)據(jù)按照3∶2比例劃分為訓(xùn)練集和測(cè)試集,研究編碼器復(fù)雜程度決策參數(shù)和編碼器堆疊層數(shù)對(duì)所提出預(yù)測(cè)模型的精度影響。

    3.3.1" 編碼器復(fù)雜程度決策參數(shù)

    編碼器復(fù)雜程度決策參數(shù)包括注意力頭數(shù)n和前饋網(wǎng)絡(luò)層數(shù)d,不同決策參數(shù)情況下所提出預(yù)測(cè)模型的預(yù)測(cè)誤差如表2所示。

    為了更好地觀察這兩個(gè)參數(shù)對(duì)模型性能的聯(lián)合影響,使用二維插值補(bǔ)全散點(diǎn)之間的數(shù)據(jù)并繪制三維曲面圖如圖5所示。從表2和圖5可以看出,注意力頭數(shù)和前饋網(wǎng)絡(luò)層數(shù)對(duì)預(yù)測(cè)結(jié)果有著不同的影響規(guī)律。相比較而言,前饋網(wǎng)絡(luò)層數(shù)d對(duì)預(yù)測(cè)結(jié)果影響更明顯,隨著層數(shù)d值增加,預(yù)測(cè)誤差先減小后增大最后再小幅減小,預(yù)測(cè)誤差圖像呈現(xiàn)出明顯的凹陷形狀,最小誤差約為2.69%,表明在模型在此數(shù)據(jù)集上對(duì)前饋網(wǎng)絡(luò)層數(shù)d有著一定的敏感性,較少的層數(shù)無法精確表征數(shù)據(jù)變化特征,但增加層數(shù)可能會(huì)導(dǎo)致梯度消失或爆炸的問題,影響預(yù)測(cè)效果。而注意力頭數(shù)對(duì)預(yù)測(cè)結(jié)果無明顯影響,主要是由于本模型中自注意力機(jī)制主要用于捕捉多變量之間相關(guān)性,而所采用數(shù)據(jù)集僅包含交通量和通行費(fèi)兩個(gè)變量,且具有顯著相關(guān)性,因此增加注意力頭數(shù)不會(huì)顯著改變模型的預(yù)測(cè)性能。

    3.3.2" 編碼器堆疊層數(shù)

    編碼器堆疊層數(shù)也是決定模型深度的重要參數(shù),調(diào)整參數(shù)e得到預(yù)測(cè)誤差,預(yù)測(cè)結(jié)果趨勢(shì)圖如圖6所示。從圖中我們可以發(fā)現(xiàn),模型對(duì)于編碼器堆疊層數(shù)具有一定的敏感性。當(dāng)編碼器堆疊的層數(shù)較小時(shí),模型未能充分學(xué)習(xí)到數(shù)據(jù)的復(fù)雜特征,預(yù)測(cè)效果相對(duì)較差。編碼器堆疊層數(shù)增加至2時(shí),模型學(xué)習(xí)到更多數(shù)據(jù)的特征和信息,預(yù)測(cè)效果達(dá)到最優(yōu),誤差僅為2.69%。然而當(dāng)編碼器堆疊的層數(shù)進(jìn)一步增加時(shí),模型可能會(huì)出現(xiàn)過擬合的情況,從而導(dǎo)致預(yù)測(cè)效果變差。

    4" 結(jié)語

    使用iTransformer模型進(jìn)行時(shí)間序列數(shù)據(jù)的預(yù)測(cè),模型改進(jìn)了時(shí)間序列數(shù)據(jù)的輸入方式,倒置了自注意力機(jī)制和前饋網(wǎng)絡(luò)的職責(zé),可以更好地捕獲時(shí)間序列的長時(shí)間依賴性和多變量相關(guān)性。以滬杭甬高速和甬舟高速2013—2023年的月度通行費(fèi)數(shù)據(jù)為基礎(chǔ),就普通場景和特殊場景兩種情景測(cè)試模型有效性,實(shí)例分析結(jié)果顯示基于iTransformer的高速公路通行費(fèi)精準(zhǔn)預(yù)測(cè)模型較SARIMA模型和LSTM預(yù)測(cè)精度均有大幅提高,特殊場景下提升比例更高。在模型敏感性測(cè)試中,通過調(diào)整編碼器內(nèi)部注意力頭數(shù)和前饋網(wǎng)絡(luò)層數(shù)兩個(gè)參數(shù),發(fā)現(xiàn)模型對(duì)解析全局特征的前饋網(wǎng)絡(luò)層數(shù)更加敏感,通過調(diào)整編碼器堆疊個(gè)數(shù)發(fā)現(xiàn),在本數(shù)據(jù)集上編碼器堆疊層數(shù)為2時(shí)模型性能最佳。

    參考文獻(xiàn):

    [1]李海東. 高速公路經(jīng)濟(jì)論[D]. 成都: 四川大學(xué), 2004.

    [2]石京. 一般收費(fèi)道路通行費(fèi)收入實(shí)用預(yù)測(cè)方法研究[J]. 公路工程, 2007, 32(4): 103-106. DOI: 10.3969/j.issn.1674-0610.2007.04.026.

    [3]劉闖. 高速公路運(yùn)營收入預(yù)測(cè)模型與方法[J]. 中外公路, 2005, 25(3): 125-127. DOI: 10.3969/j.issn.1671-2579.2005.03.038.

    [4]蔣強(qiáng), 唐敏. 基于收費(fèi)政策的高速公路通行費(fèi)預(yù)測(cè)方法研究[J]. 公路工程, 2019, 44(5): 263-268. DOI: 10.19782/j.cnki.1674-0610.2019.05.050.

    [5]何九冉, 四兵鋒. ARIMA-RBF模型在城市軌道交通客流預(yù)測(cè)中的應(yīng)用[J]. 山東科學(xué), 2013, 26(3): 75-81. DOI: 10.3976/j.issn.1002-4026.2013.03.015.

    [6]饒建輝, 王登才. Holt-Winters時(shí)間序列模型在江陰大橋車流量預(yù)測(cè)中的應(yīng)用[J]. 中國交通信息化, 2018(增刊): 39-41.

    [7]鄭宣傳, 韓寶明, 李得偉. 基于RBF神經(jīng)網(wǎng)絡(luò)的城市快速路短時(shí)交通流預(yù)測(cè)研究[J]. 山東科學(xué), 2012, 25(3): 23-28.

    [8]BAI S J, KOLTER J Z, KOLTUN V. An empirical evaluation of generic convolutional and recurrent networks for sequence modeling[EB/OL]. [2024-03-20]. http://arxiv.org/abs/1803.01271.

    [9]王鑫, 吳際, 劉超, 等. 基于LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)的故障時(shí)間序列預(yù)測(cè)[J]. 北京航空航天大學(xué)學(xué)報(bào), 2018, 44(4): 772-784. DOI: 10.13700/j.bh.1001-5965.2017.0285.

    [10]CHEN P, ZHANG Y Y, CHENG Y Y, et al. Pathformer: multi-scale transformers with adaptive pathways for time series forecasting[EB/OL]. [2024-03-20]. http://arxiv.org/abs/2402.05956.

    [11]SHABANI A, ABDI A, MENG L L, et al. Scaleformer: iterative multi-scale refining transformers for time series forecasting[EB/OL]. [2024-03-20]. http://arxiv.org/abs/2206.04038.

    [12]CAO H Z, HUANG Z H, YAO T C, et al.InParformer: evolutionary decomposition transformers with interactive parallel attention for long-term time series forecasting[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2023, 37(6): 6906-6915. DOI: 10.1609/aaai.v37i6.25845.

    [13]ZHOU T, MA Z Q, WEN Q S, et al. FEDformer: frequency enhanced decomposed transformer for long-term series forecasting[C]//Proceedings of the 39th International Conference on Machine Learning, 2022,162: 27268-27286.

    [14]ZHOU H Y, ZHANG S H, PENG J, et al. Informer: beyond efficient transformer for long sequence time-series forecasting[C].Proceedings of the AAAI conference on artificial intelligence. 2021, 35(12): 11106-11115.

    [15]LIU Y, HU T G, ZHANG H R, et al. iTransformer: inverted transformers are effective for time series forecasting[EB/OL]. [2024-03-20]. http://arxiv.org/abs/2310.06625.

    猜你喜歡
    通行費(fèi)預(yù)測(cè)模型
    通行費(fèi)校核分析方法探究
    淺談國內(nèi)高速公路通行費(fèi)移動(dòng)支付
    高速公路通行費(fèi)收益補(bǔ)償方案設(shè)計(jì)
    基于矩陣?yán)碚撓碌母咝=處熑藛T流動(dòng)趨勢(shì)預(yù)測(cè)
    東方教育(2016年9期)2017-01-17 21:04:14
    基于支持向量回歸的臺(tái)灣旅游短期客流量預(yù)測(cè)模型研究
    基于神經(jīng)網(wǎng)絡(luò)的北京市房價(jià)預(yù)測(cè)研究
    商情(2016年43期)2016-12-23 14:23:13
    中國石化J分公司油氣開發(fā)投資分析與預(yù)測(cè)模型研究
    基于IOWHA法的物流需求組合改善與預(yù)測(cè)模型構(gòu)建
    基于預(yù)測(cè)模型加擾動(dòng)控制的最大功率點(diǎn)跟蹤研究
    科技視界(2016年1期)2016-03-30 13:37:45
    高速公路偷逃通行費(fèi)現(xiàn)狀與對(duì)策
    2022亚洲国产成人精品| 少妇熟女欧美另类| 亚洲图色成人| 人妻一区二区av| 亚洲欧美一区二区三区黑人 | 国产亚洲91精品色在线| 国语对白做爰xxxⅹ性视频网站| 五月天丁香电影| 亚洲色图综合在线观看| 国产女主播在线喷水免费视频网站| 欧美激情国产日韩精品一区| 成人美女网站在线观看视频| 精品亚洲乱码少妇综合久久| 少妇 在线观看| 人妻系列 视频| 超碰97精品在线观看| 99热这里只有精品一区| 国产免费又黄又爽又色| 国产一区二区三区综合在线观看 | 精品酒店卫生间| 亚洲成人av在线免费| 亚洲av日韩在线播放| 久久热精品热| 精华霜和精华液先用哪个| 日本vs欧美在线观看视频 | 欧美丝袜亚洲另类| 欧美高清成人免费视频www| 在线看a的网站| 十分钟在线观看高清视频www | 午夜福利影视在线免费观看| av在线老鸭窝| 亚洲欧美精品自产自拍| 一边亲一边摸免费视频| 亚洲人与动物交配视频| 精品一品国产午夜福利视频| 天天躁夜夜躁狠狠久久av| 一本色道久久久久久精品综合| 毛片一级片免费看久久久久| 丝瓜视频免费看黄片| 国产在线视频一区二区| 日本与韩国留学比较| 一本—道久久a久久精品蜜桃钙片| 日本vs欧美在线观看视频 | 少妇人妻精品综合一区二区| 女的被弄到高潮叫床怎么办| 中文字幕人妻熟人妻熟丝袜美| 最近最新中文字幕大全电影3| 国产伦在线观看视频一区| 国产成人精品久久久久久| 午夜日本视频在线| 26uuu在线亚洲综合色| 亚洲精品日韩av片在线观看| 日韩伦理黄色片| 99久久精品热视频| 久久精品国产自在天天线| 日本欧美视频一区| 成人午夜精彩视频在线观看| 少妇的逼水好多| 久久鲁丝午夜福利片| 欧美xxⅹ黑人| 免费高清在线观看视频在线观看| 亚洲国产av新网站| 免费av中文字幕在线| 国产成人免费无遮挡视频| 简卡轻食公司| 少妇熟女欧美另类| 亚洲精品国产av蜜桃| 中文字幕免费在线视频6| 久久久久久久久久久丰满| 亚洲第一av免费看| 亚洲欧美成人精品一区二区| 黄色日韩在线| 欧美日韩一区二区视频在线观看视频在线| 国产爱豆传媒在线观看| 亚洲美女黄色视频免费看| 成人国产av品久久久| 少妇人妻 视频| 深爱激情五月婷婷| 青春草国产在线视频| 亚洲精华国产精华液的使用体验| 成人黄色视频免费在线看| 久久99热这里只频精品6学生| 免费看av在线观看网站| 色综合色国产| 最新中文字幕久久久久| 日本一二三区视频观看| 国产欧美日韩精品一区二区| 久久99精品国语久久久| 日韩成人av中文字幕在线观看| 亚洲成人一二三区av| 精品少妇黑人巨大在线播放| 少妇人妻久久综合中文| 久久久色成人| 午夜免费男女啪啪视频观看| 亚洲欧美日韩无卡精品| 欧美成人一区二区免费高清观看| 中文字幕久久专区| 婷婷色麻豆天堂久久| 男女国产视频网站| 欧美成人精品欧美一级黄| 伊人久久精品亚洲午夜| 日韩制服骚丝袜av| 日韩亚洲欧美综合| 亚洲精华国产精华液的使用体验| 最新中文字幕久久久久| 日本欧美国产在线视频| 国产午夜精品一二区理论片| 精华霜和精华液先用哪个| 亚洲欧美日韩卡通动漫| 极品少妇高潮喷水抽搐| 午夜福利高清视频| 国产黄片视频在线免费观看| 老师上课跳d突然被开到最大视频| 最近中文字幕2019免费版| 高清日韩中文字幕在线| 亚洲,一卡二卡三卡| 亚洲色图综合在线观看| 熟女av电影| 国产久久久一区二区三区| 精品一区二区三卡| 精品酒店卫生间| 亚洲国产高清在线一区二区三| 欧美亚洲 丝袜 人妻 在线| 成人国产av品久久久| 日韩欧美 国产精品| 亚洲欧美成人综合另类久久久| 欧美国产精品一级二级三级 | 毛片女人毛片| 狂野欧美白嫩少妇大欣赏| 99九九线精品视频在线观看视频| 精品久久久久久久末码| 亚洲精品456在线播放app| 香蕉精品网在线| 免费少妇av软件| 成人免费观看视频高清| 亚洲精品乱码久久久久久按摩| 在线观看免费日韩欧美大片 | av不卡在线播放| 99热6这里只有精品| 国产91av在线免费观看| 久久精品熟女亚洲av麻豆精品| 伦理电影大哥的女人| 日韩av不卡免费在线播放| www.色视频.com| 人人妻人人添人人爽欧美一区卜 | 小蜜桃在线观看免费完整版高清| 人体艺术视频欧美日本| 欧美精品一区二区免费开放| 国产亚洲91精品色在线| 99久久综合免费| 国产69精品久久久久777片| 欧美日本视频| 高清日韩中文字幕在线| 天堂俺去俺来也www色官网| 国产在线免费精品| 少妇的逼好多水| 国产精品国产三级国产专区5o| 欧美激情国产日韩精品一区| 免费不卡的大黄色大毛片视频在线观看| av女优亚洲男人天堂| kizo精华| 成人国产av品久久久| 亚洲成色77777| 18禁裸乳无遮挡动漫免费视频| 熟女人妻精品中文字幕| 国产白丝娇喘喷水9色精品| 一本色道久久久久久精品综合| 国产精品一区www在线观看| 人人妻人人爽人人添夜夜欢视频 | xxx大片免费视频| 丝袜脚勾引网站| 国产伦理片在线播放av一区| 国产精品秋霞免费鲁丝片| 中文乱码字字幕精品一区二区三区| 免费看不卡的av| av国产免费在线观看| 国模一区二区三区四区视频| 在线播放无遮挡| 国产精品av视频在线免费观看| 国产精品久久久久久av不卡| 在线观看一区二区三区激情| 哪个播放器可以免费观看大片| 能在线免费看毛片的网站| 国产欧美日韩精品一区二区| av免费观看日本| 婷婷色综合www| 国产伦精品一区二区三区四那| 国产 一区精品| 一级毛片我不卡| 国产在线男女| 少妇人妻久久综合中文| 秋霞在线观看毛片| 插逼视频在线观看| 校园人妻丝袜中文字幕| 国产欧美日韩精品一区二区| 少妇人妻久久综合中文| 超碰97精品在线观看| 国产av精品麻豆| av一本久久久久| 18禁动态无遮挡网站| 国产成人精品久久久久久| 深爱激情五月婷婷| 日韩电影二区| 国产伦精品一区二区三区视频9| 精品一区二区三区视频在线| 波野结衣二区三区在线| 在线观看国产h片| 直男gayav资源| 久久热精品热| 一本久久精品| 人妻制服诱惑在线中文字幕| 国产亚洲最大av| 熟妇人妻不卡中文字幕| 久久热精品热| 婷婷色综合www| 人妻一区二区av| 国产精品国产三级国产av玫瑰| 亚洲精品第二区| av福利片在线观看| 国产精品爽爽va在线观看网站| 纯流量卡能插随身wifi吗| 亚洲欧美精品自产自拍| 天美传媒精品一区二区| 久热这里只有精品99| 男女下面进入的视频免费午夜| 日韩亚洲欧美综合| 波野结衣二区三区在线| 午夜免费鲁丝| 亚洲av中文字字幕乱码综合| 免费不卡的大黄色大毛片视频在线观看| 美女cb高潮喷水在线观看| 精品视频人人做人人爽| 亚洲精品,欧美精品| 久久国产亚洲av麻豆专区| 亚洲av成人精品一区久久| 男女免费视频国产| 各种免费的搞黄视频| 亚洲欧美清纯卡通| 亚洲av在线观看美女高潮| 黄色日韩在线| 精品国产乱码久久久久久小说| 国产精品精品国产色婷婷| 精品人妻熟女av久视频| av在线老鸭窝| 久久女婷五月综合色啪小说| 哪个播放器可以免费观看大片| 日韩成人av中文字幕在线观看| 亚洲精品456在线播放app| 国产探花极品一区二区| av播播在线观看一区| 黄色怎么调成土黄色| 一级av片app| 秋霞在线观看毛片| 国产高清国产精品国产三级 | 狠狠精品人妻久久久久久综合| 日韩国内少妇激情av| 欧美精品一区二区免费开放| 午夜免费鲁丝| 亚洲国产成人一精品久久久| 五月开心婷婷网| 搡女人真爽免费视频火全软件| 久久6这里有精品| 如何舔出高潮| 三级经典国产精品| 久久久成人免费电影| 夜夜骑夜夜射夜夜干| 国产成人a区在线观看| 永久网站在线| 亚洲内射少妇av| 美女cb高潮喷水在线观看| 高清不卡的av网站| 成年av动漫网址| 国产精品一区二区三区四区免费观看| 观看av在线不卡| 最后的刺客免费高清国语| 亚洲三级黄色毛片| 国产精品无大码| 欧美成人一区二区免费高清观看| 男女无遮挡免费网站观看| 我的老师免费观看完整版| 一级毛片 在线播放| 欧美成人一区二区免费高清观看| 欧美一级a爱片免费观看看| 22中文网久久字幕| 国产欧美另类精品又又久久亚洲欧美| 亚洲精品国产av成人精品| 一个人免费看片子| 男女免费视频国产| 国产精品三级大全| 国产精品国产三级国产专区5o| 在线播放无遮挡| 亚洲成人中文字幕在线播放| 久久国产亚洲av麻豆专区| 亚洲国产精品国产精品| 欧美xxⅹ黑人| 丰满乱子伦码专区| 成人二区视频| .国产精品久久| 中国三级夫妇交换| 国产老妇伦熟女老妇高清| 国产成人午夜福利电影在线观看| 日本vs欧美在线观看视频 | 亚洲aⅴ乱码一区二区在线播放| 国产精品伦人一区二区| 看免费成人av毛片| 一区二区av电影网| 能在线免费看毛片的网站| 国产高清三级在线| 久久久久久九九精品二区国产| 噜噜噜噜噜久久久久久91| 国产一级毛片在线| 网址你懂的国产日韩在线| 亚州av有码| 亚洲av免费高清在线观看| 精品一品国产午夜福利视频| 国产爱豆传媒在线观看| 欧美日韩视频高清一区二区三区二| 中文字幕亚洲精品专区| 成人亚洲精品一区在线观看 | 高清欧美精品videossex| 精品视频人人做人人爽| 亚洲自偷自拍三级| 97在线人人人人妻| 3wmmmm亚洲av在线观看| 最近的中文字幕免费完整| 成年美女黄网站色视频大全免费 | 国国产精品蜜臀av免费| 男女无遮挡免费网站观看| 成人国产av品久久久| 好男人视频免费观看在线| 一个人看视频在线观看www免费| 精品一区在线观看国产| 人人妻人人看人人澡| 啦啦啦在线观看免费高清www| 国产日韩欧美亚洲二区| 七月丁香在线播放| 精品亚洲成国产av| 18禁裸乳无遮挡动漫免费视频| 久久精品国产a三级三级三级| 欧美日韩精品成人综合77777| 久久精品久久久久久久性| 中文字幕av成人在线电影| 国内精品宾馆在线| av在线蜜桃| 国语对白做爰xxxⅹ性视频网站| 三级经典国产精品| 美女内射精品一级片tv| 久久女婷五月综合色啪小说| 国产av国产精品国产| 亚洲国产精品999| 国产亚洲午夜精品一区二区久久| 久久久精品免费免费高清| 中文精品一卡2卡3卡4更新| 国产大屁股一区二区在线视频| 亚洲av成人精品一二三区| 国产一级毛片在线| 国产一区二区三区av在线| 99热6这里只有精品| 国产永久视频网站| 亚洲欧美一区二区三区国产| 久久久亚洲精品成人影院| 亚洲精品日本国产第一区| 一级毛片黄色毛片免费观看视频| 久久国内精品自在自线图片| 全区人妻精品视频| 热99国产精品久久久久久7| 黑丝袜美女国产一区| 国产精品久久久久久av不卡| 久久国产精品大桥未久av | 免费黄网站久久成人精品| 哪个播放器可以免费观看大片| 免费看av在线观看网站| 欧美日韩精品成人综合77777| 蜜桃亚洲精品一区二区三区| 26uuu在线亚洲综合色| 晚上一个人看的免费电影| 91aial.com中文字幕在线观看| 黄色视频在线播放观看不卡| 人人妻人人澡人人爽人人夜夜| 日本午夜av视频| 人人妻人人澡人人爽人人夜夜| 日韩大片免费观看网站| 国产在视频线精品| 一个人看视频在线观看www免费| 成人毛片60女人毛片免费| 一级二级三级毛片免费看| 婷婷色av中文字幕| 国产熟女欧美一区二区| 亚洲精品国产色婷婷电影| 精品亚洲乱码少妇综合久久| av网站免费在线观看视频| 免费观看性生交大片5| 一级爰片在线观看| 少妇人妻一区二区三区视频| 日韩免费高清中文字幕av| 亚洲,欧美,日韩| 国产男人的电影天堂91| 晚上一个人看的免费电影| 两个人的视频大全免费| 亚洲aⅴ乱码一区二区在线播放| 久久精品熟女亚洲av麻豆精品| 在线观看一区二区三区| 亚洲人与动物交配视频| 国产成人精品久久久久久| 老司机影院成人| 欧美精品一区二区大全| 人妻系列 视频| 一区二区三区精品91| 成人二区视频| 国产精品秋霞免费鲁丝片| 亚洲精品一区蜜桃| 亚洲av福利一区| 在线观看免费视频网站a站| 免费av中文字幕在线| 18+在线观看网站| 我要看日韩黄色一级片| 亚洲国产日韩一区二区| 欧美成人一区二区免费高清观看| 大话2 男鬼变身卡| 99热6这里只有精品| 久久99蜜桃精品久久| 啦啦啦啦在线视频资源| 看非洲黑人一级黄片| 蜜桃久久精品国产亚洲av| 日本wwww免费看| 老师上课跳d突然被开到最大视频| 亚洲精品色激情综合| 成人一区二区视频在线观看| 成人18禁高潮啪啪吃奶动态图 | 午夜福利影视在线免费观看| 91久久精品电影网| 国产亚洲一区二区精品| 99热国产这里只有精品6| 亚洲精品一区蜜桃| 中文精品一卡2卡3卡4更新| 日韩欧美一区视频在线观看 | 狂野欧美白嫩少妇大欣赏| 亚洲精品亚洲一区二区| 一二三四中文在线观看免费高清| 免费看光身美女| 99九九线精品视频在线观看视频| 国产欧美日韩精品一区二区| 啦啦啦在线观看免费高清www| 国产伦精品一区二区三区四那| 国产高清国产精品国产三级 | 亚洲综合精品二区| 日日摸夜夜添夜夜添av毛片| 久久久久久久精品精品| 夫妻性生交免费视频一级片| 日韩亚洲欧美综合| 久久99精品国语久久久| 熟妇人妻不卡中文字幕| 日韩三级伦理在线观看| 国产又色又爽无遮挡免| 国产高清有码在线观看视频| 最近中文字幕2019免费版| 国产亚洲精品久久久com| 交换朋友夫妻互换小说| 国产无遮挡羞羞视频在线观看| 男女下面进入的视频免费午夜| 国产欧美日韩一区二区三区在线 | 国产午夜精品久久久久久一区二区三区| 欧美成人精品欧美一级黄| 少妇人妻 视频| 久久久久久久亚洲中文字幕| 丰满乱子伦码专区| 国产欧美亚洲国产| 我要看黄色一级片免费的| 国产女主播在线喷水免费视频网站| 久久人人爽人人片av| 日本av免费视频播放| 老熟女久久久| 精品久久久久久久久av| 欧美+日韩+精品| 在线观看免费高清a一片| 九九在线视频观看精品| 精品人妻熟女av久视频| 日本午夜av视频| 中文字幕人妻熟人妻熟丝袜美| 2018国产大陆天天弄谢| 色5月婷婷丁香| 国产精品久久久久久av不卡| 1000部很黄的大片| 免费看av在线观看网站| 日日撸夜夜添| 久久毛片免费看一区二区三区| 日韩成人av中文字幕在线观看| 国产高清不卡午夜福利| 国产美女午夜福利| 精品国产乱码久久久久久小说| 一个人免费看片子| 成人影院久久| 国产精品.久久久| 国产精品熟女久久久久浪| 日产精品乱码卡一卡2卡三| 精品99又大又爽又粗少妇毛片| 免费不卡的大黄色大毛片视频在线观看| 国产av一区二区精品久久 | 久久久精品免费免费高清| 嫩草影院新地址| 国产有黄有色有爽视频| 久久久久性生活片| 亚洲国产av新网站| 人妻 亚洲 视频| 亚洲,一卡二卡三卡| 亚洲国产高清在线一区二区三| 午夜激情福利司机影院| 日韩不卡一区二区三区视频在线| 日韩电影二区| av在线播放精品| 亚洲欧美一区二区三区黑人 | kizo精华| 王馨瑶露胸无遮挡在线观看| 日韩av不卡免费在线播放| 国产欧美日韩一区二区三区在线 | 日韩伦理黄色片| 亚洲第一av免费看| 日韩成人av中文字幕在线观看| 插逼视频在线观看| 国产视频内射| 99热网站在线观看| 在线播放无遮挡| 久久午夜福利片| 国产永久视频网站| 免费黄网站久久成人精品| 少妇的逼好多水| 日韩,欧美,国产一区二区三区| 国内精品宾馆在线| 国产 一区精品| 亚洲国产毛片av蜜桃av| 深爱激情五月婷婷| 欧美日韩综合久久久久久| 亚洲欧美日韩另类电影网站 | 最近的中文字幕免费完整| 又大又黄又爽视频免费| 又黄又爽又刺激的免费视频.| 精品一区在线观看国产| 成人免费观看视频高清| 欧美精品亚洲一区二区| 亚洲美女视频黄频| 国产精品国产av在线观看| 大片免费播放器 马上看| 久久久亚洲精品成人影院| 国产爽快片一区二区三区| 亚洲自偷自拍三级| 国产成人freesex在线| 中文字幕精品免费在线观看视频 | 美女视频免费永久观看网站| 亚洲一级一片aⅴ在线观看| 尾随美女入室| 夜夜骑夜夜射夜夜干| 黄片无遮挡物在线观看| 亚洲av成人精品一区久久| 午夜免费鲁丝| 亚洲av日韩在线播放| 女的被弄到高潮叫床怎么办| 一级片'在线观看视频| 九草在线视频观看| 熟女人妻精品中文字幕| 国产午夜精品久久久久久一区二区三区| 妹子高潮喷水视频| 最黄视频免费看| 亚洲不卡免费看| 日韩精品有码人妻一区| 纯流量卡能插随身wifi吗| 欧美bdsm另类| 亚洲精品乱码久久久v下载方式| 国产成人aa在线观看| 亚洲av国产av综合av卡| 国产亚洲一区二区精品| 日本午夜av视频| 亚洲图色成人| 日日撸夜夜添| 夜夜爽夜夜爽视频| 精品一区在线观看国产| 亚洲国产精品999| 最近中文字幕高清免费大全6| 国产成人精品福利久久| 99久久综合免费| 波野结衣二区三区在线| 国产免费一区二区三区四区乱码| 亚洲电影在线观看av| av女优亚洲男人天堂| 国产乱人视频| 麻豆乱淫一区二区| 黄片wwwwww| 新久久久久国产一级毛片| 久久人人爽人人爽人人片va| 人人妻人人看人人澡| 国产av国产精品国产| 久久热精品热| 又爽又黄a免费视频| 欧美日韩视频高清一区二区三区二| 日本黄大片高清| 午夜精品国产一区二区电影| 一级毛片电影观看| 国产有黄有色有爽视频| 国产精品久久久久久久久免| 国产国拍精品亚洲av在线观看| 网址你懂的国产日韩在线| 人妻系列 视频| xxx大片免费视频| 国产白丝娇喘喷水9色精品| 日韩一区二区三区影片| 亚洲国产欧美在线一区| 亚洲色图av天堂| 建设人人有责人人尽责人人享有的 | 日韩av不卡免费在线播放| 极品少妇高潮喷水抽搐| 免费大片18禁| 永久免费av网站大全| 免费黄网站久久成人精品| 亚洲国产精品一区三区| 1000部很黄的大片| 精品亚洲乱码少妇综合久久|