• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    結(jié)合對抗互信息的多變量時間序列抗噪異常檢測

    2024-08-15 00:00:00張本初喬焰胡榮耀
    計算機(jī)應(yīng)用研究 2024年8期

    摘 要:近年來,對多變量時間序列的異常檢測在各領(lǐng)域中逐漸突顯出其重要性。然而,由于多變量時間序列的時空依賴性以及采集所存在的噪聲干擾,使得模型學(xué)習(xí)到的分布與真實分布存在一定的偏差,進(jìn)而影響檢測性能。為了解決以上問題,提出一種結(jié)合對抗互信息的多變量時間序列抗噪異常檢測模型(RADAM)。通過設(shè)計對比學(xué)習(xí)機(jī)制來達(dá)到多變量時間序列全局信息和局部信息的互信息最大化,以此來學(xué)習(xí)多變量時間序列的時間與空間依賴性;利用自適應(yīng)權(quán)重和過濾器模塊減少噪聲樣本對于訓(xùn)練過程的干擾,使模型在訓(xùn)練過程中具備較高的抗噪能力。在五個真實數(shù)據(jù)集上與六個先進(jìn)的同類異常檢測方法進(jìn)行了對比實驗,實驗結(jié)果證明RADAM性能明顯優(yōu)于其他基線模型,說明RADAM能顯著提升在包含噪聲的多變量時間序列數(shù)據(jù)集上異常檢測的準(zhǔn)確度。

    關(guān)鍵詞:多變量時間序列; 抗噪異常檢測; 生成對抗學(xué)習(xí); 對比學(xué)習(xí); 互信息最大化

    中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2024)08-019-2384-08

    doi:10.19734/j.issn.1001-3695.2023.11.0579

    Robust anomaly detection for multivariate time series based onadversarial mutual information

    Zhang Benchu, Qiao Yan, Hu Rongyao

    (Anhui Province Key Laboratory of Industry Safety and Emergency Technology, Hefei University of Technology, Hefei 230601, China)

    Abstract:In recent years, anomaly detection for multivariate time series has gradually highlighted its importance in various fields. However, due to the spatiotemporal correlation of the multivariate time series distribution and the inevitable noise in the multivariate time series collected, there exists a non-negligible deviation between the distribution learned by the model and the real distribution, which will affect the detection performance. To tackle the above problems, this paper proposed a new robust anomaly detection model (RADAM) for multivariate time series. The new model used contrastive learning to maximize the mutual information of global and local information of multivariate time series to learn the spatiotemporal correlation among time series. It also used the adaptive weights and a sample filter module to reduce the interference of abnormal samples on the training process, which enabled the model to have high noise resistance ability during training. Finally, through comparing the new model with the-state-of-the-art anomaly detection models on five real-world multivariate time series datasets, the experimental results show that RADAM performs better than other baseline models, which demonstrate that RADAM can significantly improve the performance of anomaly detection on polluted multivariate time series datasets.

    Key words:multivariable time series; robust anomaly detection; generative adversarial learning; contrastive learning; mutual information maximization

    0 引言

    多變量時間序列是由多個隨時間變化的時間序列所組成的,每個時間序列描述了被監(jiān)測對象的不同屬性值。如航天器的遙感通道在連續(xù)時間內(nèi)對溫度、輻射、動力等屬性的測量值[1],云服務(wù)器內(nèi)部節(jié)點的CPU利用率、內(nèi)存利用率等性能值[2]。相對單變量時間序列數(shù)據(jù),多變量時間序列能更全面地呈現(xiàn)對象特征。對多變量時間序列的異常檢測是指檢測出時間序列中不符合現(xiàn)實變化規(guī)律的數(shù)據(jù)片段,這些異常的數(shù)據(jù)段通常表明被監(jiān)測對象正處于一種異常的工作狀態(tài),有時也代表某類異常事件的發(fā)生。若監(jiān)測中的異常數(shù)據(jù)沒有被及時發(fā)現(xiàn)并處理,則可能會導(dǎo)致巨大的經(jīng)濟(jì)損失甚至人員傷亡。因此,及時、準(zhǔn)確地檢測出多變量時間序列中的異常數(shù)據(jù)具有重要的現(xiàn)實意義。

    傳統(tǒng)的異常檢測方法一般通過建立靜態(tài)閾值來判斷數(shù)據(jù)是否出現(xiàn)異常[3]。然而,該類方法僅能應(yīng)用于單變量時間序列(如圖1(a)所示)的異常檢測。多變量時間序列(如圖1(b)所示)不僅具有時間依賴性(即每個序列在相鄰時間的相關(guān)性),還具有空間依賴性(即同一時間所有序列之間的相關(guān)性)。因而無法用傳統(tǒng)的閾值法來界定多變量時間序列異常。

    隨著機(jī)器學(xué)習(xí)技術(shù)的發(fā)展,基于機(jī)器學(xué)習(xí)的異常檢測方法迅速涌現(xiàn)。這些方法主要分為基于聚類的異常檢測方法、基于單分類的異常檢測方法和基于重構(gòu)的異常檢測方法。其中基于聚類的方法(如K均值聚類算法[4]和密度聚類算法[5])將遠(yuǎn)離任何聚類中心的觀測值視為異常?;趩畏诸惖姆椒ǎㄈ鐔畏诸愔С窒蛄繖C(jī)(one-class SVM,OCSVM)[6]和孤立森林算法(isolation forest,IF)[7])只對正常數(shù)據(jù)進(jìn)行分布建模,將不符合此分布的觀測值視為異常。以上兩類方法在檢測高維度時間序列時存在較高的時間復(fù)雜度,且無法保證檢測準(zhǔn)確度。近年來,基于重構(gòu)的異常檢測方法逐漸成為研究熱點。此類方法大多采用自編碼器(autoencoder,AE)模型,利用數(shù)據(jù)的重構(gòu)誤差進(jìn)行檢測。并且通過引入長短期記憶網(wǎng)絡(luò)(long short term memory,LSTM)[8]、門控循環(huán)單元(gate recurrent unit,GRU)[9]來捕捉時間維度的動態(tài)變化,但卻忽略了不同時間序列之間空間依賴性。為了解決這一問題,一些研究者引入了圖神經(jīng)網(wǎng)絡(luò)(graphic nuaral network,GNN)[10,11]來更好地建??臻g依賴關(guān)系。然而,此類模型通常應(yīng)用于圖像和視頻等依賴關(guān)系存在于相鄰區(qū)域的樣本數(shù)據(jù),對于具有較長片段及復(fù)雜空間依賴關(guān)系的多變量時間序列樣本無法到達(dá)較好的檢測效果。

    隨著生成對抗網(wǎng)絡(luò)(generative adversarial network,GAN)[12]的提出,基于GAN的異常檢測方法在復(fù)雜數(shù)據(jù)的異常檢測問題中表現(xiàn)出更優(yōu)的性能。AnoGAN[13]首先將GAN應(yīng)用于醫(yī)學(xué)圖像的異常檢測中。Zenati等人[14]提出基于Bidirectional GAN(BiGAN)架構(gòu)的異常檢測方法,提高了AnoGAN的檢測準(zhǔn)確度。然而以上方法僅適用于圖像領(lǐng)域的異常檢測問題,且基于GAN的異常檢測模型需要無噪聲的純凈數(shù)據(jù)集才能學(xué)習(xí)到準(zhǔn)確的樣本特征,而現(xiàn)實世界中的多變量時間序列在采集過程中不可避免地存在噪聲[1],這更加大了GAN模型的學(xué)習(xí)難度。

    綜上所述,對于多變量時間序列異常檢測,本文的核心思想是在消除數(shù)據(jù)中噪聲影響的同時,對多變量時間序列的時間依賴性和空間依賴性進(jìn)行建模,以更好地捕獲多變量時間序列的正常模式。對于多變量時間序列中復(fù)雜的時空依賴性,通過利用門控循環(huán)單元作為模型的基本網(wǎng)絡(luò)來捕獲時序數(shù)據(jù)的長期依賴,并引入對比學(xué)習(xí)機(jī)制來學(xué)習(xí)數(shù)據(jù)的局部特征和全局特征,從而構(gòu)建更加豐富的重構(gòu)信息;此外,為消除數(shù)據(jù)中噪聲的影響,應(yīng)用對抗訓(xùn)練中不斷放大重構(gòu)誤差的原理,設(shè)計了自適應(yīng)權(quán)重和噪聲過濾模塊,有助于防止?jié)撛谠肼晫?dǎo)致的模型過擬合。本文的主要貢獻(xiàn)如下:a)提出了結(jié)合對抗互信息的多變量時間序列異常檢測模型(RADAM),通過引入對比學(xué)習(xí)機(jī)制來促進(jìn)鑒別器特征編碼之間的互信息最大化,從而有效地學(xué)習(xí)多變量時間序列樣本的時間與空間依賴性,提高模型在多變量時間序列數(shù)據(jù)上的特征學(xué)習(xí)和重構(gòu)能力;b)設(shè)計了基于重構(gòu)誤差的樣本自適應(yīng)權(quán)重與噪聲過濾模塊,自適應(yīng)權(quán)重可在訓(xùn)練過程中動態(tài)調(diào)整樣本重構(gòu)損失,過濾模塊可根據(jù)時間序列樣本的重構(gòu)誤差區(qū)分樣本質(zhì)量,過濾疑似噪聲,從而使模型能夠在受污染訓(xùn)練集中更準(zhǔn)確地學(xué)習(xí)正常樣本分布特征;c)在五個真實多變量時間序列數(shù)據(jù)集上對RADAM方法進(jìn)行實驗評估,并與同類算法進(jìn)行對比,驗證了本文模型的優(yōu)越性。

    1 相關(guān)工作

    目前基于機(jī)器學(xué)習(xí)的異常檢測方法主要可以分為基于聚類的異常檢測方法518a1a327c916ee632180c0fe11f97d3、基于單類分類的異常檢測方法和基于重構(gòu)的異常檢測方法三類。

    基于聚類的異常檢測方法將樣本到聚類中心點的距離作為異常評分。例如K均值聚類算法[4]和密度聚類算法[5],將遠(yuǎn)離聚類中心的樣本點視為異常樣本。Saeedi等人[15]提出基于密度的聚類算法(DBSCAN)來檢測無線傳感器網(wǎng)絡(luò)中的異常數(shù)據(jù)。基于聚類的異常檢測方法的模型復(fù)雜度低,易于實現(xiàn),然而對于復(fù)雜分布的數(shù)據(jù)會產(chǎn)生較高的檢測誤差。基于單分類的異常檢測方法首先學(xué)習(xí)樣本中大多數(shù)數(shù)據(jù)分布,再將不符合此分布的樣本視為異常。Tax等人[16]提出的SVDD模型通過建立超球體來囊括盡可能多的數(shù)據(jù),將超球體外的樣本點視為異常樣本。Shen等人[17]提出的THOC通過建立多個超球體將正常數(shù)據(jù)包圍起來,通過評估觀察值與超球體所代表的正常模式的偏離程度來進(jìn)行異常點的檢測。Khreich等人[18]提出了一種基于OCSVM的異常檢測方法(ADS),該方法將樣本的時間信息與OCSVM相結(jié)合,以此來降低異常檢測的誤差。基于單分類的異常檢測方法對于低維度數(shù)據(jù)有較好的檢測性能,但對于高維度的多變量時間序列同樣會出現(xiàn)檢測時間過長及準(zhǔn)確度欠佳的情況?;谥貥?gòu)的異常檢測方法首先學(xué)習(xí)正常的樣本分布,再通過重構(gòu)樣本來檢測異常。例如基于自編碼器的異常檢測方法[19,20]在訓(xùn)練過程中通過編碼器和解碼器對訓(xùn)練樣本進(jìn)行重構(gòu),在異常檢測時通過判斷樣本的重構(gòu)誤差來鑒別異常。周小暉等人[20]采用自編碼器模型,通過在編碼器的時域卷積模塊和自注意力模塊間加入信息共享機(jī)制來實現(xiàn)信息融合,實現(xiàn)對多維時序更好地重構(gòu)。InterFusion[21]采用分層的VAE學(xué)習(xí)多變量時間序列的樣本重構(gòu),每一層的潛在變量均參與學(xué)習(xí)多變量時間序列的空間相關(guān)性和時間相關(guān)性,以此提高異常檢測效果。Adformer[22]通過兩個階段的訓(xùn)練使Transformer能夠放大重建誤差,并充分捕捉時間序列中的短期趨勢,以此增強(qiáng)了模型的異常檢測能力。楊超城等人[23]提出了一種融合雙重注意力機(jī)制的單變量時間序列異常檢測方法,通過設(shè)計兩個注意力機(jī)制來挖掘子序列的局部特征和捕獲時間序列的長期依賴關(guān)系。伍冠潮等人[24]則是提出了一種全局自適應(yīng)融合與交互學(xué)習(xí)的網(wǎng)絡(luò)結(jié)構(gòu)來保留時間序列的依賴關(guān)系。近年來隨著生成對抗網(wǎng)絡(luò)(GAN)的出現(xiàn),基于GAN的異常檢測算法[25,26]顯示出比自編碼器更優(yōu)異的檢測性能,尤其適用于具有復(fù)雜分布的高維樣本的異常檢測問題。尹春勇等人[27]提出使用多個生成器來保證生成樣本的多樣性,通過堆疊式LSTM捕獲時間序列的時間相關(guān)性。然而大多數(shù)基于GAN的異常檢測方法對訓(xùn)練樣本有較高的要求,在受噪聲污染訓(xùn)練集中很難學(xué)習(xí)到準(zhǔn)確的數(shù)據(jù)分布。FGANomaly[28]則是提出了用于噪聲數(shù)據(jù)集的異常檢測方法,通過設(shè)計過濾模塊處理數(shù)據(jù)集中的噪聲樣本。然而該模型未考慮時間序列樣本的時空特征,導(dǎo)致異常檢測效果也難以達(dá)到最優(yōu)。

    針對現(xiàn)有異常檢測方法在應(yīng)用于真實多變量時間序列異常檢測問題時出現(xiàn)的問題,本文設(shè)計了一種新的多變量時間序列異常檢測模型,能通過自適應(yīng)權(quán)重和樣本過濾有效地剔除噪聲樣本對于訓(xùn)練的干擾,并設(shè)計對比學(xué)習(xí)機(jī)制來充分捕獲時間與空間重構(gòu)信息,從而提升模型對于多變量時間序列樣本的重構(gòu)能力,提高多變量時間序列中異常檢測的準(zhǔn)確度。

    2 結(jié)合對抗互信息的多變量時間序列抗噪異常檢測

    2.1 數(shù)據(jù)處理

    多變量時間序列數(shù)據(jù)是在固定時間間隔采樣的,由多維時間變量形成的時間序列Xr={x1,x2,…,xR}。每個觀測點xr都是在時間戳r下獲得的多維數(shù)據(jù),xr∈Rm,r∈{1,2,…,R}。由于不同維度數(shù)據(jù)的量綱不同,特征向量的取值范圍也不同。為了提升模型的收斂速度以及檢測性能,在模型訓(xùn)練前,對多變量時間序列進(jìn)行歸一化處理:

    xi=xr-Min(Xr)Max(Xr)-Min(Xr)(1)

    其中:xi是歸一化后的向量;Max(Xr)和Min(Xr)分別表示該特征數(shù)據(jù)在多變量時間序列Xr中的最大值和最小值。原始數(shù)據(jù)Xr經(jīng)過歸一化處理后得到時間序列X??紤]到時間序列存在時間相關(guān)性,構(gòu)建長度為n的時間窗口W(t)={xt1,xt2,…,xtn},其中t代表當(dāng)前時間窗口的序列號,為了簡單起見,在下文中將省略t進(jìn)行描述。給定一個多變量時間序列X,將其轉(zhuǎn)換為時間窗口數(shù)據(jù)W={W(1),W(2),…,W(T)},然后用時間窗口數(shù)據(jù)W作為模型的輸入。這樣,模型的異常檢測將不只是關(guān)注觀測值本身,而是根據(jù)觀測值的時間依賴信息來判斷該觀測值是否異常。

    2.2 RADAM異常檢測模型

    RADAM模型的整體框架如圖2所示。該模型由生成器模塊、過濾器模塊和對比鑒別器模塊三個模塊組成。在該框架中,多變量時間序列經(jīng)過數(shù)據(jù)處理得到時間窗口數(shù)據(jù)。生成器模塊G為輸入數(shù)據(jù)生成重構(gòu)數(shù)據(jù)。過濾器模塊首先計算兩個時間窗口數(shù)據(jù)W和W^的重構(gòu)誤差,再依據(jù)重構(gòu)誤差為每個觀測值計算偽標(biāo)簽和生成器模塊中的自適應(yīng)權(quán)重,最后將疑似為噪聲的樣本舍棄。在對比鑒別器中,構(gòu)造了基于局部特征和全局特征的對比學(xué)習(xí)機(jī)制,鑒別器模塊D對過濾后的樣本進(jìn)行對比學(xué)習(xí):首先將鑒別器網(wǎng)絡(luò)中不同層的編碼特征進(jìn)行配對,再對配對后的編碼特征進(jìn)行正負(fù)樣本劃分,最后利用正負(fù)樣本的對比損失對生成器和鑒別器網(wǎng)絡(luò)進(jìn)行優(yōu)化。通過對比學(xué)習(xí),可學(xué)習(xí)到時間序列樣本的時間與空間依賴性,從而更準(zhǔn)確地重構(gòu)時間序列樣本。以下將分別對模型中的生成器、過濾器與對比鑒別器模塊做詳細(xì)介紹。

    2.2.1 生成器

    生成器模塊采用變分自編碼器(VAE)網(wǎng)絡(luò)結(jié)構(gòu),VAE中的編碼器網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)均由門控循環(huán)單元(GRU)組成。編碼器的作用是將輸入數(shù)據(jù)xi編碼到潛在空間,并學(xué)習(xí)從輸入xi到潛在空間變量σi的后驗分布q(σi|xi)。該分布的學(xué)習(xí)可轉(zhuǎn)換為對潛在變量σi的均值μi與方差εi的學(xué)習(xí)。為了約束潛在空間的分布,將潛在空間變量的先驗分布p(σ)用正態(tài)分布N(0,1)建模,并在模型訓(xùn)練過程中最小化潛在變量先驗分布和后驗分布之間的KL散度。解碼器的功能是從后驗分布q(σi|xi)中采樣,并最大化對數(shù)似然logp(xi|σi)來生成重構(gòu)數(shù)據(jù)xi。從重構(gòu)的角度,定義生成器的重構(gòu)損失為

    Lirec=Eq(σi|xi)[logp(xi|σi)]-DKL(q(σi|xi)‖p(σ))=

    ‖xi-i‖-1/2(μ2i+ε2i-2log(εi)-1)(2)

    其中:重構(gòu)損失Lirec是由輸入xi與生成i的重構(gòu)差異和KL散度正則項組成。KL正則項的作用是使編碼器生成的潛在變量σi更加連續(xù)和有序,確保在該空間中均勻采樣的點能夠生成具有多樣性的樣本。

    當(dāng)訓(xùn)練集中包含噪聲或異常數(shù)據(jù)時,模型在學(xué)習(xí)正常樣本特征的同時也會學(xué)習(xí)到噪聲或異常的樣本特征,從而產(chǎn)生過擬合現(xiàn)象?!霸肼暋迸c“異?!本笖?shù)據(jù)集中所出現(xiàn)的非正常數(shù)據(jù), 當(dāng)異常數(shù)據(jù)出現(xiàn)在訓(xùn)練數(shù)據(jù)集中時會對模型的訓(xùn)練效果產(chǎn)生影響,因此本文將訓(xùn)練集中的異常數(shù)據(jù)稱之為“噪聲”。RADAM在重構(gòu)損失中增加自適應(yīng)權(quán)重來引導(dǎo)生成器網(wǎng)絡(luò)盡可能學(xué)習(xí)正常的樣本分布。由于噪聲樣本往往具有較大的重構(gòu)誤差[13],且隨著訓(xùn)練次數(shù)的增加,噪聲樣本的重構(gòu)誤差與正常樣本的差異在不斷擴(kuò)大。所以,可利用樣本的重構(gòu)誤差來估計樣本質(zhì)量。假設(shè)輸入樣本W(wǎng)={x1,x2,…,xn}與重構(gòu)樣本W(wǎng)^={1,2,…,n}的重構(gòu)誤差為d={d1,d2,…,dn},其中di=‖xi-i‖,1≤i≤n,根據(jù)所有樣本重構(gòu)誤差,定義觀測值xi的偏離分值為zi,其計算公式為

    zi=di-δ(3)

    其中:和δ分別為重構(gòu)誤差d的均值和方差。重構(gòu)誤差越大,觀測值xi為噪聲的可能性越大。因此根據(jù)偏離分?jǐn)?shù),為每個觀測值xi的重構(gòu)損失Lirec乘上自適應(yīng)權(quán)重Δi,其計算公式為

    Δi=1Z×eziezi+e-zi×N-1×ezi+e-ziN×ezi(4)

    其中:Z為歸一化因子;N為訓(xùn)練的總迭代次數(shù);為0~1的小數(shù)。分配的權(quán)重越大,樣本質(zhì)量越高。訓(xùn)練剛剛開始時,N=1且Δi=1/n,意味著每個觀測值都有相同的權(quán)重值,貢獻(xiàn)了相同的重構(gòu)損失。隨著訓(xùn)練次數(shù)的增加,觀測值的權(quán)重差異會越來越大。當(dāng)zi>0,即重構(gòu)誤差di大于平均值時,樣本會被分配較小的權(quán)重;相反,當(dāng)zi<0,即重構(gòu)誤差di小于平均值時,樣本會被分配較大的權(quán)重。通過為樣本的重構(gòu)損失Lirec分配自適應(yīng)權(quán)重,生成器可更傾向于學(xué)習(xí)正常數(shù)據(jù)分布。

    2.2.2 過濾器

    模型在鑒別器之前添加過濾器,將訓(xùn)練數(shù)據(jù)中疑似為噪聲的樣本篩除。通過在每一輪的訓(xùn)練過程中對訓(xùn)練樣本動態(tài)添加偽標(biāo)簽n(n∈{0,1}) :當(dāng)n 為0時,表示樣本為高質(zhì)量樣本,可用于鑒別器訓(xùn)練;當(dāng)n為1時,表示該樣本為低質(zhì)量樣本,不參與鑒別器訓(xùn)練。與生成器的自適應(yīng)權(quán)重類似,樣本偽標(biāo)簽的計算同樣與重構(gòu)誤差和訓(xùn)練迭代次數(shù)兩個因素相關(guān)。重構(gòu)誤差越大,則樣本為噪聲的概率越大;訓(xùn)練次數(shù)越高重構(gòu)誤差的可信度越高。

    給定輸入數(shù)據(jù)W={x1,x2,…,xn},首先將樣本xi的異常信度定義為

    B^(xi)=eziezi+e-zi(5)

    其中:zi如式(3)所定義。式(5)根據(jù)重構(gòu)誤差的不同,將異常信度置于0~1。當(dāng)樣本重構(gòu)誤差等于均值時,其異常信度為0.5;當(dāng)樣本重構(gòu)誤差大于均值時,該樣本異常信度大于0.5;反之,樣本的異常信度小于0.5。

    然而,B^(xi)擁有效果的前提是模型有效地學(xué)習(xí)到多變量時間序列數(shù)據(jù)的特征。但在訓(xùn)練剛剛開始時,生成器與鑒別器還未能充分地學(xué)習(xí)到時間序列特征分布,僅依靠重構(gòu)損失并不能準(zhǔn)確地反映異常概率。因此,設(shè)計了能隨著訓(xùn)練迭代次數(shù)的增加,不斷優(yōu)化過濾器過濾效果的平衡因子(1-1/N),觀測值xi的異常概率最終被定義為

    P^(xi)=eziezi+e-zi×(1-1N)(6)

    其中:N為訓(xùn)練的迭代次數(shù)。根據(jù)上式,異常概率會隨著訓(xùn)練的迭代次數(shù)動態(tài)調(diào)整。得到異常概率P^={P^(x1),P^(x2),…,P^(xn)}。并采用四分位法為每個樣本生成偽標(biāo)簽:假設(shè)ρ為P^從小到大排列第(n+1)×0.75位置的數(shù)值。隨著訓(xùn)練的進(jìn)行,觀測值xi的異常概率P^(xi)若小于ρ則被分為正常樣本(i=0),大于ρ則被分為疑似噪聲樣本(i=1),以此生成偽標(biāo)簽={1,2,…,n}。

    2.2.3 對比鑒別器

    多變量時間序列不僅有著時間依賴性,還具有空間依賴性。傳統(tǒng)的生成對抗網(wǎng)絡(luò)很難同時學(xué)習(xí)時間與空間依賴性,因而對于多變量時間序列特征的學(xué)習(xí)往往不夠充分,從而導(dǎo)致重構(gòu)誤差作為異常評分的效果并不顯著。因此,模型RADAM添加對比鑒別器模塊,通過對比學(xué)習(xí)對生成器網(wǎng)絡(luò)和鑒別器網(wǎng)絡(luò)進(jìn)行訓(xùn)練。對比學(xué)習(xí)目前多應(yīng)用于視覺特征提取領(lǐng)域,通過最大化樣本與特征之間的互信息來提取更精細(xì)的樣本特征。對于兩個離散隨機(jī)變量X和Y,其互信息定義如下:

    I(X;Y)=∑x∈X∑y∈Yp(x,y)log(p(x,y)p(x)p(y))(7)

    其中:p(x,y)是X和Y的聯(lián)合概率密度函數(shù),而p(x)和p(y)分別是X和Y的邊緣概率密度函數(shù)。對于包含參數(shù)ψ的編碼網(wǎng)絡(luò)Eψ,通過最大化輸入數(shù)據(jù)X和編碼器數(shù)據(jù)Eψ(X)之間的互信息MI(X;Eψ(X)),可使編碼網(wǎng)絡(luò)Eψ提取更深層次的樣本特征[29]??紤]到MI(X;Eψ(X))計算的復(fù)雜性,文獻(xiàn)[30]提出了MI(X;Eψ(X))的下界:

    MI(Cψ(X);Eψ(X))≤MI(X;Eψ(X))(8)

    其中:Cψ(X)和Eψ(X)是同一編碼器在網(wǎng)絡(luò)參數(shù)ψ下的不同層輸出特征,通過最大化MI(Cψ(X);Eψ(X))可以間接最大化MI(X;Eψ(X))。RADAM通過將鑒別網(wǎng)絡(luò)中間層特征與輸出層的輸出作為樣本的局部特征與全局特征,最大化樣本間的局部特征與全局特征的互信息來間接最大化時間序列樣本與鑒別網(wǎng)絡(luò)輸出之間的互信息,從而更全面地學(xué)習(xí)多變量時間序列樣本的時間與空間依賴性。對比鑒別器內(nèi)部結(jié)構(gòu)如圖3所示。

    對于包含n個樣本的窗口W,對比鑒別器為每個窗口W生成中間局部特征Cφ(W)和中間全局特征Eφ(W):

    Cφ(W)=Cφ,t(Cφ,t-1(…Cφ,1(W))(9)

    EXENghV0Gsh+Jl4xn1FXAJW5ckCOfxG/XKtA8L15vAyI=φ(W)=fφ(Cφ(W))(10)

    其中:Cφ=Cφ,1,…,Cφ,t是鑒別器網(wǎng)絡(luò)的一系列中間層,用以生成中間局部特征Cφ(W)∈Rn×m,而fφ則是鑒別器的最后一層全連接層,用于將中間局部特征Cφ(W)編碼壓縮為中間全局特征Eφ(W)∈Rn×1。生成的中間全局特征和中間局部特征通過線性評價網(wǎng)絡(luò)α:Rn×1→Rn×1和β:Rn×m→Rn×M分別映射到空間Rn×1和Rn×M,其中M>m,兩個線性評價網(wǎng)絡(luò)分別為

    α(Eφ(W))=ReLU(linear(Eφ(W)))(11)

    β(Cφ(W))=ReLU(linear(Cφ(W)))(12)

    其中:linear(.)為全連接網(wǎng)絡(luò);ReLU(.)為激活函數(shù),得到全局特征α(Eφ(W))和局部特征β(Cφ(W))。局部特征映射到Rn×M空間后,窗口W中的一個樣本xi局部特征可表示為β(Cφ(xi))={β(C(1)φ(xi)),β(C(2)φ(xi)),…,β(C(M)φ(xi))},其中β(C(k)φ(xi))稱為樣本xi的第k個局部特征,1≤k≤M。在獲取線性評價后的全局特征α(Eφ(xi))和局部特征β(Cφ(xi))后,模型對局部特征和全局特征進(jìn)行配對,并劃分正負(fù)樣本。如圖3所示,一個正樣本對是由α(Eφ(xi))和β(C(k)φ(xi)) 配對而成,構(gòu)成正樣本對(α(Eφ(xi)),β(C(k)φ(xi))),其中k∈Euclid Math OneMAp={1,2,…,M}是樣本局部特征的索引。對應(yīng)負(fù)樣本對的構(gòu)成可從兩方面考慮:a)負(fù)樣本可由同一時間窗口的另一時間序列xj的局部特征來構(gòu)成,表示為(α(Eφ(xi)),β(C(k)φ(xj))),xj∈W,j≠i,該樣本能使模型學(xué)習(xí)到樣本間的時間依賴關(guān)系;b)負(fù)樣本可由相同樣本的另一局部特征來構(gòu)成,記作(α(Eφ(xi)),β(C(z)φ(xi))),z∈Euclid Math OneMAp,z≠k,該樣本能使模型學(xué)習(xí)到樣本間的空間依賴關(guān)系。根據(jù)以上規(guī)則,在一個時間窗口的n個多維時間序列數(shù)據(jù)中,對正樣本進(jìn)行n×m次配對,每產(chǎn)生一個正樣本,會產(chǎn)生n×m-1個負(fù)樣本。

    在得到所有的正負(fù)樣本后,模型通過InfoNCE對比損失[31]來最大化局部特征和全局特征的互信息MI(Cφ(xi);Eφ(xi)):

    Linfo(W)=-Ex∈WEk∈Euclid Math OneMAp[θ]

    θ=logexp(α(Eφ(xi))β(C(k)φ(xi))T)∑(xj,k)∈W×Euclid Math OneMApexp(α(Eφ(xi))β(C(k)φ(xj))T)(13)

    其中:W={x1,…,xn}為包含n個多變量時間序列的窗口樣本;Euclid Math OneMAp={1,…,M}代表每個樣本M維局部特征的索引。在訓(xùn)練中,模型通過不斷區(qū)分正樣本和負(fù)樣本,能夠逐步理解多變量時間序列數(shù)據(jù)中的關(guān)聯(lián)性和特征表達(dá),讓模型學(xué)習(xí)到樣本的時間依賴性和空間依賴性,從而提高模型在多變量時間序列數(shù)據(jù)上的特征學(xué)習(xí)和重構(gòu)能力。

    2.3 模型訓(xùn)練

    為了讓模型的訓(xùn)練更加穩(wěn)定,實驗中使用Wassertein loss[32]作模型的對抗損失:

    Lgan_D(D,G^)=-Ex~pr[D(x)]+Ez~pz[D(G^(z))](14)

    Lgan_G(D^,G)=-Ez~pz[D^(G(z))](15)

    其中:x表示輸入數(shù)據(jù);z表示潛空間向量;G^代表訓(xùn)練鑒別器D時,參數(shù)固定的生成器;D^代表訓(xùn)練生成器G時,參數(shù)固定的鑒別器。

    在生成器G的訓(xùn)練過程中,除了考慮對抗損失外,還增加了生成數(shù)據(jù)的對比損失Linfo(W^)和重構(gòu)損失Lrec,將重構(gòu)損失Lrec與自適應(yīng)權(quán)重Δ相結(jié)合能極大降低噪聲樣本的影響。因此,生成器的損失函數(shù)為

    Ltotal_G=Lgan_G(D^,G)+∑ni=1Lirec·[Δi]+λgLinfo(W^)(16)

    其中:λg為超參數(shù)。

    在對比鑒別器D的訓(xùn)練過程中,訓(xùn)練目標(biāo)為最小化對抗損失與真實樣本W(wǎng)的對比損失。為了消除樣本中噪聲數(shù)據(jù)對訓(xùn)練的影響,根據(jù)過濾器對樣本添加的偽標(biāo)簽來過濾疑似噪聲樣本。因此,對比鑒別器的損失函數(shù)可表示為

    Ltotal_D=-1K∑ni=1(1-i)[Lgan_D(D,

    G^)+λdLinfo(W)](17)

    其中:K表示過濾器過濾后樣本的數(shù)量;i為過濾器生成的偽標(biāo)簽;λd為超參數(shù)。

    RADAM異常檢測模型訓(xùn)練過程如算法1所示。

    算法1 RADAM模型訓(xùn)練算法

    輸入:多變量時間序列W={W(1),W(2),…,W(T)};模型迭代次數(shù)N;超參數(shù)λg,λd,。

    輸出:訓(xùn)練后的生成器G和對比鑒別器D。

    for epoch=1,2,…,N do

    for t=1,2,…,T do

    重構(gòu)樣本數(shù)據(jù)W^←G(W)

    for all xi∈W(t) do

    計算重構(gòu)誤差d←{d1,d2,…,dn}

    根據(jù)式(4)計算得到自適應(yīng)權(quán)重Δ

    根據(jù)式(6)為每個觀測值xi計算異常概率P^(xi)

    ρ←P^的上四分位數(shù)

    if P^(xi)<ρ then

    i←0

    else

    i←1

    end if

    end for

    ←{1,2,…,n}

    將重構(gòu)樣本送入對比鑒別器得到對比損失Linfo(W^),并使用式(16)計算生成器損失,更新生成器G參數(shù)wG

    將過濾后的真實樣本送入對比鑒別器得到對比損失Linfo(W),并使用式(17)計算鑒別器損失,更新對比鑒別器D參數(shù)wD

    end for

    end for

    return 訓(xùn)練后的生成器G和對比鑒別器D

    2.4 異常檢測

    訓(xùn)練后的RADAM模型可檢測樣本是否為異常。首先,測試樣本X′={x′1,x′2,…,x′J},被轉(zhuǎn)換為一系列滑動窗口W′={W′(1),W′(2),…,W′(T)}。其次,RADAM的生成器G針對樣本窗口W′生成重構(gòu)數(shù)據(jù)。最后,對于每個窗口數(shù)據(jù)計算輸入數(shù)據(jù)和重構(gòu)數(shù)據(jù)的重構(gòu)誤差,并以此計算測試樣本的異常分值:

    A(x′i)=softmax(d′i-d′δ′)(18)

    其中,d′i為測試樣本x′i與相應(yīng)重構(gòu)樣本′i的重構(gòu)誤差;d′和δ′分別為當(dāng)前窗口數(shù)據(jù)重構(gòu)誤差的均值和方差,異常評分越高表明該測試樣本點越異常。

    3 實驗

    3.1 數(shù)據(jù)集

    本實驗使用了五個真實的多變量時間序列數(shù)據(jù)集。表1列出了五個數(shù)據(jù)集的統(tǒng)計信息。

    a)MSL和SMAP[1]。MSL是由探測器本身的傳感器數(shù)據(jù)和執(zhí)行器數(shù)據(jù)組合而成。SWAP則是探測器收集的土壤樣本和遙感信息組成的數(shù)據(jù)集。MSL和SMAP的每個數(shù)據(jù)分別由55和25維數(shù)據(jù)組成。兩個數(shù)據(jù)集均由一個訓(xùn)練集和一個測試集組成,其中測試集中的異常均已被標(biāo)記。

    b)SMD[9]。SMD由文獻(xiàn)[9]收集的一家大型互聯(lián)網(wǎng)公司連續(xù)5周的服務(wù)器性能數(shù)據(jù)。SMD包含28臺服務(wù)器數(shù)據(jù),每臺服務(wù)器數(shù)據(jù)均包含38維性能指標(biāo),如內(nèi)存使用率、CPU負(fù)載等。

    c)PSM[2]。PSM是從eBay的多個應(yīng)用程序服務(wù)器節(jié)點內(nèi)部收集的性能數(shù)據(jù)。數(shù)據(jù)集中的時間序列分別描述了服務(wù)器的26個不同性能指標(biāo)。訓(xùn)練集包含13周的服務(wù)器數(shù)據(jù),測試集包含8周的服務(wù)器數(shù)據(jù)。

    d)SWaT[33]。SWaT是從水處理實驗設(shè)備上收集的多變量時間序列數(shù)據(jù)。SWaT數(shù)據(jù)集中包含51個特征,如壓強(qiáng)變化,水位信息等。本實驗將數(shù)據(jù)集前7天正常場景下的數(shù)據(jù)作為訓(xùn)練集,后4天受攻擊場景下的數(shù)據(jù)作為測試集。

    3.2 基準(zhǔn)模型

    本實驗將具有代表性的六種異常檢測模型作為實驗基準(zhǔn)模型:

    a)isolation forest(IF)[7]。其為最具有代表性的機(jī)器學(xué)習(xí)異常檢測方法之一,通過將分布稀疏且遠(yuǎn)離高密度群體的點作為異常點。

    b)BeatGAN[25]。其為一種基于GAN模型的異常檢測方法,采用自編碼器結(jié)構(gòu)和鑒別器作對抗正則化來緩解過擬合,通過比較輸入時間序列和反向生成的時間序列來定位時間序列異常。

    c)OmniAnomaly[9]。其為一種基于VAE模型的異常檢測方法,利用隨機(jī)變量連接、平面歸一化流等技術(shù)同時考慮多變量時間序列的時間依賴性。

    d)InterFusion[21]。其為一種基于VAE的模型,通過分層VAE在兩個潛在空間中學(xué)習(xí)多變量時間序列低維的時空嵌入。

    e)GDN[10]。其為一種基于圖神經(jīng)網(wǎng)絡(luò)的異常檢測方法,通過使用圖注意力機(jī)制學(xué)習(xí)多變量時間序列數(shù)據(jù)之間的關(guān)系圖,以此來捕獲變量間的依賴性。

    f)Adformer[22]。其是一種基于AE與對抗學(xué)習(xí)的異常檢測方法。通過將第一階段的重構(gòu)誤差作為第二階段編碼器的先驗知識,再經(jīng)過兩階段對抗性訓(xùn)練使變換器放大重構(gòu)誤差,同時能捕捉時間序列中的短期變化趨勢。

    3.3 實驗設(shè)置

    參照已有的多變量時間序列特征學(xué)習(xí)模型[9,21],本文實驗中樣本的滑動窗口大小和步長分別設(shè)置為100和1。生成器的編碼器和解碼器均由三層GRU網(wǎng)絡(luò)組成,對比鑒別器的Cφ中間層數(shù)t設(shè)置為3,GRU層的維度選取范圍為{64,128,256}。在模型訓(xùn)練階段,設(shè)置樣本批量batch大小為256,訓(xùn)練迭代次數(shù)N為100,采用初始學(xué)習(xí)率為0.000 1的ADAM優(yōu)化器對模型進(jìn)行優(yōu)化。生成器潛在空間維度設(shè)置為128,高維局部特征的M設(shè)置為256。式(4)(16)和(17)的超參數(shù) 、λg和λd分別設(shè)置為0.8、0.1和0.1。在實驗中,所有數(shù)據(jù)集均使用原始的劃分得到訓(xùn)練集和測試集。

    在計算異常分值時,考慮到時間序列中的異常存在時間連續(xù)性,參照文獻(xiàn)[34],對檢測出的異常進(jìn)行點調(diào)整策略,將時間序列中每個不連續(xù)的異常時間段作為一個異常。依據(jù)文獻(xiàn)[9]將每個異常分值逐一設(shè)置為閾值來評估分?jǐn)?shù),從中選出最佳的F1分?jǐn)?shù)。

    3.4 實驗結(jié)果及分析

    七個模型在五個不同數(shù)據(jù)集下的準(zhǔn)確度(P),召回率(R)和F1分?jǐn)?shù)如表2所示。

    從表2可看出,RADAM在五個數(shù)據(jù)集中均優(yōu)于基準(zhǔn)模型。IF把每個樣本點作為獨立個體來考慮,忽略了樣本點的分布規(guī)律,呈現(xiàn)出最低的檢測性能。BeatGAN在整體則表現(xiàn)出較低的性能,雖然BeatGAN在對抗訓(xùn)練中加入正則化機(jī)制來緩解過擬合,但是缺乏對時間和空間依賴性的充分考慮,很難學(xué)習(xí)到多變量時間序列數(shù)據(jù)的復(fù)雜分布。InterFusion的性能在整體上優(yōu)于OmniAnomaly,因為相對于OmniAnomaly,InterFusion不僅考慮了樣本自身的時間相關(guān)性,同時也考慮了樣本之間的空間相關(guān)性。GDN通過基于圖模型的結(jié)構(gòu)來學(xué)習(xí)多變量時間序列的空間依賴特征,而未充分學(xué)習(xí)序列的時間依賴關(guān)系。Adformer的兩階段訓(xùn)練則更加注重捕捉時間序列中的短期趨勢,而且缺少對多變量空間依賴性的學(xué)習(xí)。本文RADAM在五個數(shù)據(jù)集中均獲得了最高的F1值,超過了所有的基準(zhǔn)模型。

    圖4展示了五個數(shù)據(jù)集下各模型的AUC。AUC被定義為ROC曲線下的面積,ROC曲線則是以誤報率為橫軸,正報率為縱軸繪制的曲線。更高的AUC代表模型具有更低的誤報率和更高的正報率。從圖4可看出,RADAM的AUC優(yōu)于所有的基準(zhǔn)模型。這也表明,RADAM在多變量時間序列異常檢測中能更精準(zhǔn)地識別出樣本異常。

    3.5 消融實驗

    本小節(jié)對RADAM中的過濾器模塊、生成器中的自適應(yīng)權(quán)重以及模型的對比學(xué)習(xí)機(jī)制分別進(jìn)行了消融實驗,以驗證各個部分的重要性與RADAM模型結(jié)構(gòu)的合理性。實驗方法如下:

    a)w/o (without) F。在RADAM中去除過濾器模塊,將所有數(shù)據(jù)直接送入鑒別器中進(jìn)行訓(xùn)練,從而驗證過濾器在模型中的作用。

    b)w/o (without) AW。在RADAM中去除生成器中的自適應(yīng)權(quán)重,令生成器直接使用重構(gòu)損失,以驗證自適應(yīng)權(quán)重的作用。

    c)w/o (without) CL。在RADAM中去除模型中的對比學(xué)習(xí)機(jī)制,以驗證對比學(xué)習(xí)對于模型的作用。

    d)RADAM。本文提出的原始模型,采用了過濾器、自適應(yīng)權(quán)重和對比機(jī)制。

    表3列出了三種消融實驗的實驗結(jié)果??梢钥闯觯琑ADAM在分別去除過濾器、自適應(yīng)權(quán)重及對比學(xué)習(xí)機(jī)制后異常檢測性能均有不同程度下降。其中,去除過濾器后模型性能下降幅度最大,這表明受到噪聲數(shù)據(jù)的影響,RADAM很難學(xué)習(xí)到準(zhǔn)確的數(shù)據(jù)分布。從自適應(yīng)權(quán)重消融實驗可看出,通過在生成器中增加樣本自適應(yīng)權(quán)重,能夠進(jìn)一步消除噪聲對于模型訓(xùn)練的影響。對比學(xué)習(xí)消融實驗結(jié)果可看出,對比學(xué)習(xí)能夠使模型更全面地學(xué)習(xí)多變量時間序列的時間依賴性和空間依賴性,從而提升了RADAM異常檢測的性能。

    3.6 魯棒性驗證

    本節(jié)實驗通過在訓(xùn)練集中加入不同比例的噪聲樣本,驗證模型在不同噪聲比例下的魯棒性。所有噪聲樣本從高斯分布(μ=0,δ=1)數(shù)據(jù)集中隨機(jī)取樣,并注入訓(xùn)練集中。

    為了驗證模型的魯棒性,實驗在訓(xùn)練集中加入了0%~20%的噪聲樣本,并對比未使用過濾器與未使用自適應(yīng)權(quán)重的性能。以MSL數(shù)據(jù)集為例,三種模型在注入異常后的F1分?jǐn)?shù)對比如圖5所示。從圖5可看出,RADAM的F1雖然隨著噪聲比的增加有一定的下降,但都維持在0.9左右。這證明了RADAM具有較高的魯棒性。在去除過濾器和去除自適應(yīng)權(quán)重兩種情況下,F(xiàn)1隨著噪聲比例的增加而迅速下降。且隨著噪聲比例的增加,兩個模型與原始模型的F1分?jǐn)?shù)差異越來越大。

    圖6比較了RADAM、BeatGAN和Adformer三種基于對抗方法的模型在五個數(shù)據(jù)集上的魯棒性。注入的噪聲比為0%~30%。從圖中可看出,BeatGAN的魯棒性最差,其隨著噪聲比率的增加,F(xiàn)1分?jǐn)?shù)迅速下降。尤其在SMD數(shù)據(jù)集上,F(xiàn)1下降到0.6以下。這是因為BeatGAN僅能應(yīng)用于純凈的訓(xùn)練集,當(dāng)訓(xùn)練集中包含噪聲時會學(xué)習(xí)到有偏差的樣本分布。由于Adformer提出的融合異常策略在訓(xùn)練中能更加清晰地分出正常和異常之間的區(qū)別,其相較于BeatGAN具有更好的魯棒性。RADAM不僅加入了樣本過濾模塊,同時融入了對比損失和自適應(yīng)權(quán)重?fù)p失,從而具有更優(yōu)的魯棒性和更強(qiáng)的特征學(xué)習(xí)能力。在PSM數(shù)據(jù)集上,RADAM的F1分?jǐn)?shù)隨著噪聲比例的增加而略有提升,這是因為模型采用對比學(xué)習(xí),將注入訓(xùn)練集的噪聲作為新的對抗樣本,并利用互信息最大化捕捉更多的樣本的特征,從而增加提升了模型的整體性能。

    3.7 案例研究

    現(xiàn)階段,隨著我國企事業(yè)單位信息技術(shù)程度的不斷加深,信息系統(tǒng)運營的規(guī)模也在逐步擴(kuò)大。為了維護(hù)系統(tǒng)的穩(wěn)定運行,一般需對大量監(jiān)測模塊收集到的多維時序數(shù)據(jù)進(jìn)行檢測分析,以及時發(fā)現(xiàn)系統(tǒng)中的異常狀態(tài)。隨著在線服務(wù)系統(tǒng)的部署和更改日漸頻繁(如上線新功能、修復(fù)錯誤和更改配置等),導(dǎo)致系統(tǒng)出現(xiàn)異常的概率也在不斷升高。因此,采用穩(wěn)定且準(zhǔn)確的異常檢測方法,及時檢測出多維時序數(shù)據(jù)中的異常對于維護(hù)系統(tǒng)的穩(wěn)定至關(guān)重要。

    為了直觀地驗證RADAM的異常檢測能力,本小節(jié)使用GCP[35]數(shù)據(jù)集進(jìn)行案例研究。該數(shù)據(jù)集由一家國際互聯(lián)網(wǎng)內(nèi)容平臺發(fā)布,該平臺每日為超過8億的活躍用戶提供搜索、排序和數(shù)據(jù)處理等服務(wù)。GCP數(shù)據(jù)集記錄了其在七周時間內(nèi)從30個在線服務(wù)系統(tǒng)上收集而來的服務(wù)指標(biāo)數(shù)據(jù)。數(shù)據(jù)集維度為19,收集頻率為每五分鐘取樣一次。通過實驗結(jié)果表明,RADAM在GCP數(shù)據(jù)集上的準(zhǔn)確度(P)達(dá)到了0.966 5、召回率(R)達(dá)到了0.987 1以及F1分?jǐn)?shù)達(dá)到了0.976 7。圖7展示了TCP連接狀態(tài)以及CPU運行指標(biāo)等屬性的時間序列曲線,圖底部的紅線表示測試集中標(biāo)記的異常段,紅色陰影表示被檢測到的異常數(shù)據(jù)。圖7(a)是由于網(wǎng)絡(luò)中斷問題導(dǎo)致服務(wù)響應(yīng)時間過長從而引發(fā)的異常,圖7(b)是由于上線新功能而引發(fā)的服務(wù)中斷。從圖中可看出RADAM能夠有效地檢測出兩種異常。

    4 結(jié)束語

    本文提出了用于多變量時間序列的抗噪異常檢測模型RADAM,可在有噪聲的數(shù)據(jù)集中學(xué)習(xí)正常的時間序列樣本分布,并在測試階段準(zhǔn)確地檢測出異常樣本。RADAM利用對比學(xué)習(xí)達(dá)到互信息最大化的同時學(xué)習(xí)多變量時間序列的時間依賴性與空間依賴性,提高模型在多變量時間序列數(shù)據(jù)上的特征學(xué)習(xí)和重構(gòu)能力。為了降低噪聲樣本對模型訓(xùn)練的影響, RADAM加入了自適應(yīng)權(quán)重和過濾器模塊。自適應(yīng)權(quán)重能促使生成器學(xué)習(xí)正常的樣本分布,而過濾器模塊能在訓(xùn)練鑒別器之前過濾訓(xùn)練集中的噪聲及異常樣本,提高鑒別器的訓(xùn)練準(zhǔn)確度。最后,通過五個真實數(shù)據(jù)集上的實驗將RADAM與六個具有代表性的異常檢測模型做了對比,實驗結(jié)果表明,RADAM在噪聲數(shù)據(jù)集中具有顯著的優(yōu)越性。在以后的工作中,本文將進(jìn)一步探究多變量時間序列的周期與頻率信息,以實現(xiàn)更好的多變量時間序列異常檢測效果。

    參考文獻(xiàn):

    [1]Hundman K, Constantinou V, Laporte C, et al. Detecting spacecraft anomalies using LSTMs and nonparametric dynamic thresholding[C]//Proc of the 24th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2018:387-395.

    [2]Abdulaal A, Liu Zhuanghua, Lancewicki T. Practical approach to asynchronous multivariate time series anomaly detection and localization[C]//Proc of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2021: 2485-2494.

    [3]Roy J. Rule-based expert system for maritime anomaly detection[C]//Proc of Sensors, and Command, Control, Communications, and Intelligence(C3I) Technologies for Homeland Security and Homeland Defense IX. 2010: 597-608.

    [4]Candelieri A. Clustering and support vector regression for water demand forecasting and anomaly detection[J]. Water, 2017, 9(3): 224.

    [5]Sharma R, Chaurasia S. An enhanced approach to fuzzy C-means clustering for anomaly detection[C]//Proc of the 1st International Conference on Smart System, Innovations and Computing. Berlin: Springer, 2018: 623-636.

    [6]Scholkopf B, Platt J C, Shawe-Taylor J, et al. Estimating the support of a high-dimensional distribution[J]. Neural Computation, 2001, 13(7): 1443-1471.

    [7]Liu Feitong, Ting Kaiming, Zhou Zhihua. Isolation forest[C]//Proc of the 8th IEEE International Conference on Data Mining. Pisca-taway,NJ: IEEE Press, 2008: 413-422.

    [8]Park D, Hoshi Y, Kemp C C. A multimodal anomaly detector for robot-assisted feeding using an lstm-based variational autoencoder[J]. IEEE Robotics and Automation Letters, 2018, 3(3): 1544-1551.

    [9]Su Ya, Zhao Youjian, Niu Chenhao, et al. Robust anomaly detection for multivariate time series through stochastic recurrent neural network[C]//Proc of the 25th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York: ACM Press, 2019: 2828-2837.

    [10]Deng A, Hooi B. Graph neural network-based anomaly detection in multivariate time series[C]//Proc of AAAI Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2021: 4027-4035.

    [11]李懷翱, 周曉鋒, 房靈申, 等. 基于時空圖卷積網(wǎng)絡(luò)的多變量時間序列預(yù)測方法[J]. 計算機(jī)應(yīng)用研究, 2022, 39(12): 3568-3573. (Li Huaiao, Zhou Xiaofeng, Fang Lingshen, et al. Multivaria-te time series forecasting with spatio-temporal graph convolutional network[J]. Application Research of Computers, 2022, 39(12): 3568-3573.)

    [12]Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Nets[C]//Proc of the 27th International Conference on Neural Information Processing Systems. Cambridge,MA:MIT Press, 2014: 2672-2680.

    [13]Schlegl T, Seebock P, Waldstein S M, et al. Unsupervised anomaly detection with generative adversarial networks to guide marker disco-very[C]//Proc of International conference on information processing in medical imaging. Berlin: Springer, 2017: 146-157.

    [14]Zenati H, Romain M, Foo C S, et al. Adversarially learned anomaly detection[C]//Proc of IEEE International conference on data mi-ning. Piscataway,NJ: IEEE Press, 2018: 727-736.

    [15]Saeedi E H, Mazinani S M. A novel anomaly detection algorithm using DBSCAN and SVM in wireless sensor networks[J].BIpf/cYsHVNipd/GzpxAkA== Wireless Personal Communications, 2018, 98: 2025-2035.

    [16]Tax D M J, Duin R P W. Support vector data description[J]. Machine Learning, 2004, 54: 45-66.

    [17]Shen Lifeng, Li Zhuocong, Kwok J. Timeseries anomaly detection using temporal hierarchical one-class networks[C]//Proc of the 33th International Conference on Neural Information Processing Systems. Red Hook,NY: Curran Associates Inc., 2020: 13016-13026.

    [18]Khreich W, Khosravifar B, Hamou-Lhadj A, et al. An anomaly detection system based on variable N-gram features and one-class SVM[J]. Information and Software Technology, 2017, 91: 186-197.

    [19]張月, 唐倫, 王愷, 等. 基于GB-AENet-FL網(wǎng)絡(luò)的物聯(lián)網(wǎng)設(shè)備異常檢測[J]. 計算機(jī)應(yīng)用研究, 2022, 39(11): 3410-3416. (Zhang Yue, Tang Lun, Wang Kai, et al. Anomaly detction algorithm of IoT devices based on GB-AENet-FL network[J]. Application Research of Computers, 2022, 39(11): 3410-3416.)

    [20]周小暉, 王意潔, 徐鴻祚, 等. 基于融合學(xué)習(xí)的無監(jiān)督多維時間序列異常檢測[J]. 計算機(jī)研究與發(fā)展, 2023, 60(3): 496-508. (Zhou Xiaohui, Wang Yijie, Xu Hongzuo, et al. Fusion learning based unsupervised anomaly detection for multi-dimensional[J]. Journal of Computer Research and Development, 2023, 60(3): 496-508.)

    [21]Li Zhihan, Zhao Youjian, Han Jiaqi, et al. Multivariate time series anomaly detection and interpretation using hierarchical inter-metric and temporal embedding[C]//Proc of the 27th ACM SIGKDD Conference on Knowledge Discovery and Data Mining, Singapore. New York: ACM Press, 2021: 3220-3230.

    [22]Zeng Fanyu, Chen Mengdong, Qian Cheng, et al. Multivariate time series anomaly detection with adversarial Transformer architecture in the Internet of Things[J]. Future Generation Computer Systems, 2023, 144: 244-255.

    [23]楊超城, 嚴(yán)宣輝, 陳容均, 等. 融合雙重注意力機(jī)制的時間序列異常檢測模型[J]. 計算機(jī)科學(xué)與探索, 2024,18(3): 740-754. (Yang Chaocheng, Yan Xuanhui, Chen Rongjun, et al. A time series anomaly detection model with dual attention mechanism[J]. Journal of Frontiers of Computer Science and Technology, 2024,18(3): 740-754.

    [24]伍冠潮, 凌捷. 基于自適應(yīng)交互學(xué)習(xí)的CPS時間序列異常檢測[J]. 計算機(jī)應(yīng)用研究, 2023, 40(10): 2933-2938. (Wu Guanchao, Ling Jie. Time series anomaly detection for cyber physical systems based on adaptive interactive learning[J]. Application Research of Computers, 2023, 40(10): 2933-2938.)

    [25]Zhou Bin, Liu Shenghua, Hooi B, et al. BeatGAN: anomalous rhythm detection using adversarially generated time series[C]//Proc of International Joint Conference on Artificial Intelligence. Palo Alto,CA: AAAI Press, 2019: 4433-4439.

    [26]段雪源, 付鈺, 王坤. 基于VAE-WGAN的多維時間序列異常檢測方法[J]. 通信學(xué)報, 2022, 43(3): 1-13. (Fu Xueyuan, Fu Yu, Wang Kun. Multi-dimensional time series anomaly detection method based on VAEWGAN[J]. Journal on Communications, 2022, 43(3): 1-13.)

    [27]尹春勇, 周立文. 基于再編碼的無監(jiān)督時間序列異常檢測模型[J]. 計算機(jī)應(yīng)用, 2023, 43(3): 804-811. (Yin Chunyong, Zhou Liwen. Unsupervised time series anomaly detection model based on re-encoding[J]. Journal of Computer Applications, 2023, 43(3): 804-811.)

    [28]Du Bowen, Sun Xuanxuan, Ye Junchen, et al. GAN-based anomaly detection for multivariate time series using polluted training set[J]. IEEE Trans on Knowledge and Data Engineering, 2023, 35(12): 12208-12219.

    [29]Linsker R. Self-organization in a perceptual network[J]. Compu-ter, 1988, 21(3): 105-117.

    [30]Tschannen M, Djolonga J, Rubenstein P K, et al. On mutual information maximzation for representation learning[EB/OL]. (2020-01-23) . https://arxiv.org/abs/1907.13625.

    [31]Oord A, Li Yazhe, Vinyals O. Representation learning with contrastive predictive coding[EB/OL]. (2019-01-22) . https://arxiv.org/abs/1807.03748.

    [32]Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training of Wasserstein GANs[C]//Proc of the 31st International Conference on Neural Information Processing Systems. Red Hook,NY: Curran Associates Inc., 2017: 5769-5779.

    [33]Mathur A P, Tippenhauer N O. SWaT: a water treatment testbed for research and training on ICS security[C]//Proc of International Workshop on Cyber-physical Systems for Smart Water Networks. Piscataway,NJ: IEEE Press, 2016: 31-36.

    [34]Xu Haowen, Chen Wenxiao, Zhao Nengwen, et al. Unsupervised anomaly detection via variational autoencoder for seasonal KPIs in Web applications[C]//Proc of World Wide Web Conference. New York: ACM Press, 2018: 187-196.

    [35]Ma Minghua, Zhang Shenglin, Chen Junjie, et al. Jump-starting multivariate time series anomaly detection for online service systems[C]//Proc of USENIX Annual Technical Conference. Berkeley,CA: USENIX, 2021: 413-426.

    干丝袜人妻中文字幕| 国产午夜精品论理片| 亚洲国产日韩欧美精品在线观看| 此物有八面人人有两片| 久久精品影院6| 最近最新免费中文字幕在线| 婷婷丁香在线五月| 91在线观看av| av在线观看视频网站免费| 国产精品国产三级国产av玫瑰| 亚洲av第一区精品v没综合| 精品无人区乱码1区二区| 免费观看精品视频网站| 精品人妻偷拍中文字幕| 国产男人的电影天堂91| 午夜福利在线观看吧| 97超级碰碰碰精品色视频在线观看| 联通29元200g的流量卡| 两个人的视频大全免费| 亚洲熟妇熟女久久| 乱系列少妇在线播放| 精品久久久久久久久久免费视频| 国内精品美女久久久久久| 久久久成人免费电影| 成人午夜高清在线视频| 麻豆国产97在线/欧美| 日本 欧美在线| 99久国产av精品| 波多野结衣巨乳人妻| 我的老师免费观看完整版| 国产私拍福利视频在线观看| 久久国内精品自在自线图片| 国产av一区在线观看免费| 欧美激情久久久久久爽电影| 热99在线观看视频| 国产精品久久视频播放| 别揉我奶头 嗯啊视频| 欧美日韩瑟瑟在线播放| 一区福利在线观看| 久久天躁狠狠躁夜夜2o2o| 亚洲av电影不卡..在线观看| 人妻制服诱惑在线中文字幕| 村上凉子中文字幕在线| 亚洲欧美日韩卡通动漫| av黄色大香蕉| 午夜福利在线观看免费完整高清在 | 久久精品国产鲁丝片午夜精品 | 禁无遮挡网站| 亚洲在线自拍视频| 国产高潮美女av| 日本精品一区二区三区蜜桃| 99精品久久久久人妻精品| av在线老鸭窝| 久久香蕉精品热| 久久久成人免费电影| 嫩草影院入口| av在线老鸭窝| 成人国产一区最新在线观看| 18禁在线播放成人免费| 日本撒尿小便嘘嘘汇集6| 成人精品一区二区免费| 国产午夜精品久久久久久一区二区三区 | 免费av毛片视频| 久久亚洲真实| 国产色爽女视频免费观看| 欧美区成人在线视频| 黄色女人牲交| 日本欧美国产在线视频| 成人一区二区视频在线观看| 又粗又爽又猛毛片免费看| 欧美性猛交黑人性爽| 国产成人aa在线观看| 国产欧美日韩精品一区二区| 亚洲av中文av极速乱 | 成人国产综合亚洲| 国产精品久久久久久精品电影| 日韩欧美精品免费久久| 久久久久久久亚洲中文字幕| 22中文网久久字幕| 偷拍熟女少妇极品色| 日本黄色片子视频| 99久久九九国产精品国产免费| 日韩中字成人| 最后的刺客免费高清国语| 级片在线观看| 国产高潮美女av| 国产精品日韩av在线免费观看| 乱系列少妇在线播放| 在线国产一区二区在线| 国产午夜精品久久久久久一区二区三区 | 哪里可以看免费的av片| 久99久视频精品免费| 波多野结衣巨乳人妻| 日日啪夜夜撸| 久久6这里有精品| 免费黄网站久久成人精品| 国产乱人伦免费视频| 亚洲综合色惰| 精品欧美国产一区二区三| 亚洲三级黄色毛片| av在线观看视频网站免费| 免费观看人在逋| 91精品国产九色| 国产毛片a区久久久久| 久久精品久久久久久噜噜老黄 | 日本黄大片高清| 亚洲国产欧洲综合997久久,| 国内精品久久久久久久电影| 国产精品98久久久久久宅男小说| 天堂√8在线中文| 乱系列少妇在线播放| 国产亚洲精品综合一区在线观看| 久久精品国产自在天天线| 一个人观看的视频www高清免费观看| 亚洲人成网站在线播| 一个人看的www免费观看视频| 久久久成人免费电影| 久久午夜亚洲精品久久| 成人三级黄色视频| 日本爱情动作片www.在线观看 | 国语自产精品视频在线第100页| 久久精品国产亚洲av香蕉五月| 亚洲精品久久国产高清桃花| 欧美一级a爱片免费观看看| 12—13女人毛片做爰片一| 琪琪午夜伦伦电影理论片6080| 免费在线观看成人毛片| .国产精品久久| 久久中文看片网| 久久午夜亚洲精品久久| 欧美日韩国产亚洲二区| 日日撸夜夜添| 午夜激情福利司机影院| 黄色配什么色好看| 亚洲av美国av| 亚洲一区高清亚洲精品| 99视频精品全部免费 在线| 久久精品影院6| 欧美色欧美亚洲另类二区| 日本熟妇午夜| 日本精品一区二区三区蜜桃| 女的被弄到高潮叫床怎么办 | 午夜爱爱视频在线播放| 色5月婷婷丁香| 国产一区二区在线观看日韩| 国产亚洲精品久久久com| 成人一区二区视频在线观看| 我的老师免费观看完整版| 亚洲中文字幕日韩| 日本成人三级电影网站| 97碰自拍视频| 在线免费观看的www视频| 午夜亚洲福利在线播放| 久久国内精品自在自线图片| 午夜福利成人在线免费观看| 午夜免费男女啪啪视频观看 | 国产女主播在线喷水免费视频网站 | 国产在视频线在精品| 欧美日韩瑟瑟在线播放| 日韩欧美精品v在线| 国产一区二区激情短视频| 美女 人体艺术 gogo| 搞女人的毛片| 免费av毛片视频| 日韩 亚洲 欧美在线| 国产成人一区二区在线| 亚州av有码| 亚洲欧美激情综合另类| 在线天堂最新版资源| 九九热线精品视视频播放| 精品午夜福利视频在线观看一区| 男女边吃奶边做爰视频| a在线观看视频网站| 中文字幕高清在线视频| 丰满的人妻完整版| 午夜精品久久久久久毛片777| 中文资源天堂在线| 97超视频在线观看视频| 午夜爱爱视频在线播放| 日本成人三级电影网站| 国产黄色小视频在线观看| 高清在线国产一区| 久久精品91蜜桃| 久久久久久大精品| av黄色大香蕉| 美女免费视频网站| 久久久久九九精品影院| 老司机深夜福利视频在线观看| 国产精品久久久久久精品电影| 亚洲人与动物交配视频| 亚洲av二区三区四区| 国产av不卡久久| 美女高潮的动态| 少妇高潮的动态图| 国产三级在线视频| 18禁裸乳无遮挡免费网站照片| 亚洲第一电影网av| 欧美三级亚洲精品| 岛国在线免费视频观看| 国产激情偷乱视频一区二区| 搡女人真爽免费视频火全软件 | x7x7x7水蜜桃| 日韩中文字幕欧美一区二区| 亚洲av第一区精品v没综合| 十八禁国产超污无遮挡网站| 亚洲精品成人久久久久久| 美女cb高潮喷水在线观看| 国产精品人妻久久久久久| 一a级毛片在线观看| 在现免费观看毛片| 伦理电影大哥的女人| 色哟哟·www| 精品久久久久久成人av| 午夜免费成人在线视频| 午夜精品久久久久久毛片777| 亚洲国产精品合色在线| 成人特级av手机在线观看| 日本在线视频免费播放| 18禁黄网站禁片免费观看直播| 99久久精品国产国产毛片| 亚洲精华国产精华液的使用体验 | 少妇人妻一区二区三区视频| av女优亚洲男人天堂| 国产探花极品一区二区| 波多野结衣高清作品| 欧美中文日本在线观看视频| 国产爱豆传媒在线观看| 春色校园在线视频观看| 欧美激情久久久久久爽电影| 听说在线观看完整版免费高清| 色尼玛亚洲综合影院| 亚洲 国产 在线| 嫩草影院入口| 少妇熟女aⅴ在线视频| 国产精品免费一区二区三区在线| 人妻久久中文字幕网| 12—13女人毛片做爰片一| 免费搜索国产男女视频| 韩国av一区二区三区四区| 他把我摸到了高潮在线观看| 亚洲电影在线观看av| 免费大片18禁| 18+在线观看网站| 99久久中文字幕三级久久日本| 干丝袜人妻中文字幕| 欧美日韩黄片免| 日本爱情动作片www.在线观看 | 12—13女人毛片做爰片一| 色播亚洲综合网| 看片在线看免费视频| 男女做爰动态图高潮gif福利片| 国产中年淑女户外野战色| 日韩中文字幕欧美一区二区| 色精品久久人妻99蜜桃| 婷婷亚洲欧美| 一夜夜www| 人妻丰满熟妇av一区二区三区| 色噜噜av男人的天堂激情| 非洲黑人性xxxx精品又粗又长| 全区人妻精品视频| 夜夜爽天天搞| 亚洲国产精品合色在线| 国产黄色小视频在线观看| 日韩一区二区视频免费看| 国产伦精品一区二区三区视频9| 麻豆精品久久久久久蜜桃| 日本-黄色视频高清免费观看| 一区二区三区四区激情视频 | 色尼玛亚洲综合影院| 欧美日本亚洲视频在线播放| 国产成人aa在线观看| 中文亚洲av片在线观看爽| 午夜亚洲福利在线播放| 欧美日韩国产亚洲二区| 久久久精品欧美日韩精品| 天堂网av新在线| 国产一区二区在线观看日韩| 国产单亲对白刺激| 午夜福利在线在线| 国产精品一区www在线观看 | 麻豆av噜噜一区二区三区| 精品一区二区三区视频在线观看免费| 亚洲精品影视一区二区三区av| 韩国av一区二区三区四区| 丰满人妻一区二区三区视频av| 日本黄色片子视频| 人人妻,人人澡人人爽秒播| 毛片女人毛片| 女同久久另类99精品国产91| 免费搜索国产男女视频| 国产精品一区二区三区四区免费观看 | 精品免费久久久久久久清纯| 91在线观看av| 我要看日韩黄色一级片| 亚洲av中文字字幕乱码综合| 国产一区二区在线av高清观看| 99久久成人亚洲精品观看| 国产熟女欧美一区二区| 男女视频在线观看网站免费| 人妻制服诱惑在线中文字幕| 亚洲七黄色美女视频| 波多野结衣巨乳人妻| 亚洲熟妇中文字幕五十中出| 精品久久久噜噜| 精品国产三级普通话版| 精品午夜福利视频在线观看一区| 婷婷色综合大香蕉| 国产69精品久久久久777片| 国产女主播在线喷水免费视频网站 | 成人性生交大片免费视频hd| 国产午夜福利久久久久久| 夜夜爽天天搞| 黄色日韩在线| 91久久精品国产一区二区成人| 亚洲成av人片在线播放无| 哪里可以看免费的av片| 可以在线观看毛片的网站| 国产伦精品一区二区三区视频9| 极品教师在线视频| 国产真实伦视频高清在线观看 | 国产精品乱码一区二三区的特点| .国产精品久久| 日本免费a在线| 日韩在线高清观看一区二区三区 | 婷婷丁香在线五月| 美女大奶头视频| x7x7x7水蜜桃| 2021天堂中文幕一二区在线观| 真人一进一出gif抽搐免费| 变态另类成人亚洲欧美熟女| 两个人视频免费观看高清| 中国美白少妇内射xxxbb| 欧美日韩中文字幕国产精品一区二区三区| 免费人成在线观看视频色| 五月玫瑰六月丁香| 国产成人a区在线观看| 99久久精品热视频| 日韩欧美国产在线观看| 亚洲综合色惰| 直男gayav资源| eeuss影院久久| 夜夜夜夜夜久久久久| 日韩一本色道免费dvd| 最近在线观看免费完整版| 免费av不卡在线播放| 69人妻影院| 搡老熟女国产l中国老女人| 久久精品综合一区二区三区| 亚洲精华国产精华液的使用体验 | 亚洲av免费在线观看| 国内久久婷婷六月综合欲色啪| 男人舔女人下体高潮全视频| 亚洲图色成人| 精品一区二区免费观看| 国产aⅴ精品一区二区三区波| 搡女人真爽免费视频火全软件 | 啦啦啦观看免费观看视频高清| 亚洲精品色激情综合| 中文在线观看免费www的网站| 精品一区二区免费观看| 老女人水多毛片| 丰满的人妻完整版| 九色国产91popny在线| 色综合亚洲欧美另类图片| 精品日产1卡2卡| 深夜a级毛片| 成人二区视频| 少妇丰满av| 国产精品久久久久久久久免| www日本黄色视频网| 欧美中文日本在线观看视频| 亚洲乱码一区二区免费版| 一进一出抽搐动态| 中文字幕av成人在线电影| 国产真实乱freesex| 久久久久久九九精品二区国产| 成人av在线播放网站| 动漫黄色视频在线观看| 亚洲欧美日韩高清专用| 又粗又爽又猛毛片免费看| 99热6这里只有精品| 又粗又爽又猛毛片免费看| 国产人妻一区二区三区在| 国产爱豆传媒在线观看| 欧美色欧美亚洲另类二区| 2021天堂中文幕一二区在线观| 国产亚洲欧美98| av在线观看视频网站免费| 亚洲成a人片在线一区二区| 亚洲精品在线观看二区| 国产精品伦人一区二区| 3wmmmm亚洲av在线观看| 高清在线国产一区| 欧美黑人欧美精品刺激| 精品国内亚洲2022精品成人| 日韩强制内射视频| 成人永久免费在线观看视频| 亚洲七黄色美女视频| 99久久九九国产精品国产免费| 99久久无色码亚洲精品果冻| 伦理电影大哥的女人| 欧美在线一区亚洲| 亚洲av二区三区四区| 久久久久国内视频| 三级国产精品欧美在线观看| 51国产日韩欧美| 国产三级中文精品| 日本黄色片子视频| 最新中文字幕久久久久| 国产精品久久电影中文字幕| 99热网站在线观看| 亚洲av成人精品一区久久| 国产精品久久久久久av不卡| 国产亚洲精品久久久久久毛片| 国产成人影院久久av| 日本黄大片高清| 亚洲欧美日韩高清专用| 99国产极品粉嫩在线观看| 成人二区视频| 国产免费av片在线观看野外av| 国产综合懂色| 亚洲国产欧美人成| 欧美+日韩+精品| 丝袜美腿在线中文| 麻豆成人av在线观看| 俺也久久电影网| 国产午夜福利久久久久久| 简卡轻食公司| 日韩欧美精品v在线| 一卡2卡三卡四卡精品乱码亚洲| 久久婷婷人人爽人人干人人爱| 级片在线观看| 女生性感内裤真人,穿戴方法视频| 日韩在线高清观看一区二区三区 | 免费一级毛片在线播放高清视频| 噜噜噜噜噜久久久久久91| 亚洲在线观看片| 色综合站精品国产| 伦精品一区二区三区| 91在线精品国自产拍蜜月| 亚洲精品一卡2卡三卡4卡5卡| 国产精品久久久久久av不卡| 日本黄色视频三级网站网址| 人妻少妇偷人精品九色| 国产精品无大码| 亚洲国产精品久久男人天堂| 噜噜噜噜噜久久久久久91| 国产探花在线观看一区二区| 最近视频中文字幕2019在线8| 欧美精品啪啪一区二区三区| 亚洲精华国产精华精| 亚洲第一区二区三区不卡| 国产美女午夜福利| 搡老岳熟女国产| 蜜桃久久精品国产亚洲av| 日韩欧美三级三区| 联通29元200g的流量卡| 乱人视频在线观看| 婷婷精品国产亚洲av| 中亚洲国语对白在线视频| 国内精品美女久久久久久| 国产成人aa在线观看| 亚洲国产精品sss在线观看| 直男gayav资源| 免费高清视频大片| 91在线观看av| 最近最新免费中文字幕在线| 老熟妇仑乱视频hdxx| 国产成人av教育| 色在线成人网| 日本在线视频免费播放| 免费电影在线观看免费观看| 国产伦精品一区二区三区四那| 国产精品精品国产色婷婷| 国内精品一区二区在线观看| 国内精品宾馆在线| 亚洲精品在线观看二区| 亚洲图色成人| 亚洲国产欧美人成| 欧美激情久久久久久爽电影| 好男人在线观看高清免费视频| 亚洲精品一区av在线观看| 色av中文字幕| 在线免费观看的www视频| 久久久久久久久中文| 女人十人毛片免费观看3o分钟| 一区二区三区激情视频| 美女 人体艺术 gogo| 在线观看一区二区三区| 成人美女网站在线观看视频| 超碰av人人做人人爽久久| 三级男女做爰猛烈吃奶摸视频| 日韩亚洲欧美综合| 深夜a级毛片| 中文在线观看免费www的网站| 国产精品日韩av在线免费观看| 成人高潮视频无遮挡免费网站| 亚洲精品影视一区二区三区av| 1000部很黄的大片| 中出人妻视频一区二区| 日本精品一区二区三区蜜桃| 伦精品一区二区三区| 成人无遮挡网站| 老熟妇仑乱视频hdxx| 极品教师在线视频| 国产男人的电影天堂91| 欧美绝顶高潮抽搐喷水| 给我免费播放毛片高清在线观看| 午夜福利18| 国产aⅴ精品一区二区三区波| 蜜桃亚洲精品一区二区三区| 18禁黄网站禁片免费观看直播| 国产在线精品亚洲第一网站| 国产精品女同一区二区软件 | 久9热在线精品视频| 成人三级黄色视频| 淫妇啪啪啪对白视频| 男女边吃奶边做爰视频| 伦理电影大哥的女人| 国产真实乱freesex| 欧美日韩精品成人综合77777| 老女人水多毛片| 欧美性猛交╳xxx乱大交人| 国语自产精品视频在线第100页| 最近在线观看免费完整版| 97人妻精品一区二区三区麻豆| 亚洲天堂国产精品一区在线| av在线天堂中文字幕| 免费av不卡在线播放| 在线免费十八禁| 国产一区二区在线观看日韩| 最近最新中文字幕大全电影3| 欧美性猛交╳xxx乱大交人| 欧美区成人在线视频| 久久精品国产亚洲网站| 久久精品国产清高在天天线| 在线国产一区二区在线| 日韩欧美精品免费久久| 最好的美女福利视频网| 亚洲天堂国产精品一区在线| 十八禁网站免费在线| 国内精品久久久久精免费| 我的老师免费观看完整版| 亚洲专区中文字幕在线| 嫁个100分男人电影在线观看| 婷婷亚洲欧美| 欧美成人性av电影在线观看| 免费av观看视频| 久久精品影院6| 日日夜夜操网爽| 国产高清视频在线观看网站| 国产精品电影一区二区三区| 成年女人永久免费观看视频| 久久久久久久久中文| а√天堂www在线а√下载| 亚洲经典国产精华液单| 美女xxoo啪啪120秒动态图| 亚洲国产精品合色在线| 国产精品久久视频播放| 欧美高清性xxxxhd video| 欧美日韩国产亚洲二区| or卡值多少钱| 久久精品国产亚洲av涩爱 | 国产伦精品一区二区三区四那| АⅤ资源中文在线天堂| 麻豆一二三区av精品| 国产精品女同一区二区软件 | 国模一区二区三区四区视频| 一个人看的www免费观看视频| 嫩草影院新地址| 亚洲狠狠婷婷综合久久图片| 国产色爽女视频免费观看| 香蕉av资源在线| 国产探花在线观看一区二区| 噜噜噜噜噜久久久久久91| 国产精品乱码一区二三区的特点| 亚洲aⅴ乱码一区二区在线播放| 亚洲性久久影院| 色播亚洲综合网| 免费观看在线日韩| 狂野欧美白嫩少妇大欣赏| 美女大奶头视频| 国产精品久久电影中文字幕| 成人国产麻豆网| 最近最新中文字幕大全电影3| 长腿黑丝高跟| 亚洲午夜理论影院| 一级毛片久久久久久久久女| 精品福利观看| 国产亚洲精品久久久com| 午夜福利高清视频| 给我免费播放毛片高清在线观看| 国产免费一级a男人的天堂| 麻豆国产av国片精品| 免费看a级黄色片| 亚洲美女搞黄在线观看 | 久久久久久国产a免费观看| 韩国av一区二区三区四区| 99久久无色码亚洲精品果冻| 国产一级毛片七仙女欲春2| 中文字幕精品亚洲无线码一区| 日本五十路高清| 女的被弄到高潮叫床怎么办 | 亚洲人成网站高清观看| 综合色av麻豆| 国产成人一区二区在线| 亚洲五月天丁香| 欧美一区二区精品小视频在线| 久久午夜福利片| 人妻夜夜爽99麻豆av| 欧美色欧美亚洲另类二区| 亚洲美女视频黄频| 国产又黄又爽又无遮挡在线| or卡值多少钱| 99久久九九国产精品国产免费|