• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于ADASYN與改進(jìn)殘差網(wǎng)絡(luò)的入侵流量檢測(cè)識(shí)別

    2022-11-19 08:12:38唐璽博張立民鐘兆根
    關(guān)鍵詞:準(zhǔn)確率卷積流量

    唐璽博, 張立民, 鐘兆根

    (1. 海軍航空大學(xué)信息融合研究所, 山東 煙臺(tái) 264001; 2. 海軍航空大學(xué)航空基礎(chǔ)學(xué)院, 山東 煙臺(tái) 264001)

    0 引 言

    入侵檢測(cè)是指在計(jì)算機(jī)及數(shù)據(jù)網(wǎng)絡(luò)正常開(kāi)放運(yùn)行的同時(shí),對(duì)其進(jìn)行的一種安全監(jiān)測(cè)和保障。入侵檢測(cè)的目標(biāo)是實(shí)時(shí)識(shí)別系統(tǒng)內(nèi)部人員及外部入侵人員對(duì)計(jì)算機(jī)系統(tǒng)未經(jīng)授權(quán)的使用[1]。迅速發(fā)展的互聯(lián)網(wǎng)技術(shù)在給予人們便利生活的同時(shí),也使得計(jì)算機(jī)系統(tǒng)面臨著惡意攻擊、網(wǎng)絡(luò)病毒等安全威脅,這使得入侵檢測(cè)技術(shù)日益成為保證網(wǎng)絡(luò)信息安全的重要技術(shù)手段。目前,與防火墻等傳統(tǒng)網(wǎng)絡(luò)防御技術(shù)相比,網(wǎng)絡(luò)入侵檢測(cè)系統(tǒng)(network intrusion detection system, NIDS)能夠更好地對(duì)網(wǎng)絡(luò)異常流量進(jìn)行檢測(cè)識(shí)別,從而防止網(wǎng)絡(luò)受到可能的入侵,以確保其機(jī)密性、完整性和可用性[2]。

    隨著互聯(lián)網(wǎng)技術(shù)的巨大發(fā)展,網(wǎng)絡(luò)節(jié)點(diǎn)與規(guī)模在全球范圍內(nèi)迅速擴(kuò)張,網(wǎng)絡(luò)需處理的數(shù)據(jù)信息量呈爆炸式增長(zhǎng),同時(shí)大量新出現(xiàn)的協(xié)議均使用動(dòng)態(tài)端口分配技術(shù),端口易被重定向,這使傳統(tǒng)的流量監(jiān)測(cè)技術(shù)如基于端口的流量檢測(cè)方法[3]對(duì)于入侵流量的檢測(cè)效果較差。為了有效滿足入侵檢測(cè)技術(shù)的需求,人們廣泛嘗試采用機(jī)器學(xué)習(xí)與深度學(xué)習(xí)技術(shù)對(duì)網(wǎng)絡(luò)流量進(jìn)行處理。其中,基于機(jī)器學(xué)習(xí)的入侵檢測(cè)系統(tǒng)需依靠特征工程對(duì)網(wǎng)絡(luò)流量進(jìn)行特征的篩選與剔除,從而實(shí)現(xiàn)對(duì)入侵流量的特征學(xué)習(xí)以完成檢測(cè)識(shí)別。文獻(xiàn)[4]提出基于支持向量機(jī)的螞蟻系統(tǒng)(ant system with support vector machine, ASVM)模型,采用蟻群算法對(duì)特征進(jìn)行過(guò)濾選擇,而后利用支持向量機(jī)(support vector machine, SVM)對(duì)縮減的特征集進(jìn)行訓(xùn)練和測(cè)試,在規(guī)范化的KDD99數(shù)據(jù)集上對(duì)正常流量與入侵流量進(jìn)行二分類(lèi)的準(zhǔn)確率達(dá)到84.28%。文獻(xiàn)[5]提出一種自學(xué)習(xí)入侵檢測(cè)系統(tǒng)對(duì)數(shù)據(jù)集進(jìn)行特征學(xué)習(xí)和降維,提升了SVM對(duì)攻擊的預(yù)測(cè)精度,在NSL-KDD數(shù)據(jù)集進(jìn)行流量監(jiān)測(cè)分類(lèi)實(shí)驗(yàn),其二分類(lèi)準(zhǔn)確率達(dá)到84.96%,五分類(lèi)準(zhǔn)確率達(dá)到80.48%。文獻(xiàn)[6]提出一種自適應(yīng)集成學(xué)習(xí)模型,通過(guò)構(gòu)造多決策樹(shù)以提升入侵檢測(cè)性能,在NSL-KDD數(shù)據(jù)集的檢測(cè)準(zhǔn)確率達(dá)到85.2%。機(jī)器學(xué)習(xí)技術(shù)在網(wǎng)絡(luò)流量監(jiān)測(cè)上的應(yīng)用廣泛,但依賴于特征降維和篩選,對(duì)于原始形式的自然數(shù)據(jù)處理能力有限,需要利用其他方法先對(duì)數(shù)據(jù)集進(jìn)行特征預(yù)處理,否則難以對(duì)入侵流量達(dá)到較好的識(shí)別效果。同時(shí),上述機(jī)器學(xué)習(xí)技術(shù)提出的模型存在識(shí)別準(zhǔn)確率較低、泛化性不強(qiáng)的問(wèn)題。

    深度學(xué)習(xí)通過(guò)對(duì)非線性模塊的組合應(yīng)用,能夠?qū)W習(xí)高維數(shù)據(jù)中的復(fù)雜結(jié)構(gòu)[7],因此具備處理原始數(shù)據(jù)集的能力,無(wú)需采用其他算法構(gòu)建特征處理器。文獻(xiàn)[8]提出多卷積層的雙向長(zhǎng)短時(shí)記憶與注意機(jī)制(bi-directional long short-term memory and attention mechanism with multiple convolutional layers, BAT-MC)模型,結(jié)合了雙向長(zhǎng)短時(shí)記憶(bi-directional long short term memory, BLSTM)和注意機(jī)制,采用卷積層對(duì)數(shù)據(jù)集進(jìn)行處理,能夠自動(dòng)完成網(wǎng)絡(luò)流量層次結(jié)構(gòu)的學(xué)習(xí),在NSL-KDD數(shù)據(jù)集上進(jìn)行流量檢測(cè)分類(lèi)實(shí)驗(yàn),其五分類(lèi)準(zhǔn)確率為84.25%。文獻(xiàn)[9]提出一種基于長(zhǎng)短時(shí)記憶(long short term memory, LSTM)與改進(jìn)殘差網(wǎng)絡(luò)優(yōu)化的異常流量檢測(cè)方法,提高了LSTM層的特征適應(yīng)性,在NSL-KDD與來(lái)自Fsecrurify開(kāi)源網(wǎng)站應(yīng)用防火墻(Web application fivewall, WAF)混合數(shù)據(jù)集上二分類(lèi)和五分類(lèi)的準(zhǔn)確率分別為92.3%和89.3%。文獻(xiàn)[10]提出一種帶邏輯回歸的稀疏自動(dòng)編碼器,通過(guò)堆疊自動(dòng)編碼器創(chuàng)建深度網(wǎng)絡(luò),在NSL-KDD數(shù)據(jù)集二分類(lèi)準(zhǔn)確率達(dá)到84.6%。文獻(xiàn)[11]提出一種基于自動(dòng)編碼器和變分自動(dòng)編碼器及單類(lèi)支持向量機(jī)(one-class support vector machine, OCSVM)的半監(jiān)督深度學(xué)習(xí)入侵檢測(cè)方法,對(duì)CICIDS2017數(shù)據(jù)集進(jìn)行檢測(cè)識(shí)別,結(jié)果顯示變分自編碼器(variational auto-encoder, VAE)的分類(lèi)效果最佳,接受者操作特性曲線(receiver operating characteristic curve, ROC)下面積值(area under the curve of ROC, AUC)達(dá)到0.759 6。

    上述模型相比于機(jī)器學(xué)習(xí)方法,在識(shí)別準(zhǔn)確率上均有所提升,但仍具備提升空間。大部分研究對(duì)于數(shù)據(jù)都未進(jìn)行合理的預(yù)處理,尤其對(duì)于不平衡數(shù)據(jù)集,直接采用歸一化處理,這直接導(dǎo)致神經(jīng)網(wǎng)絡(luò)忽略對(duì)小樣本的特征學(xué)習(xí),進(jìn)而導(dǎo)致小樣本的識(shí)別率低下,特征選擇出現(xiàn)偏差,泛化性不強(qiáng)?;谝陨蠁?wèn)題,本文采用了自適應(yīng)合成(adaptive synthetic, ADASYN)采樣方法在預(yù)處理階段對(duì)NSL-KDD數(shù)據(jù)集中的小樣本數(shù)據(jù)(如來(lái)自遠(yuǎn)程主機(jī)的未授權(quán)訪問(wèn)(unauthorized access from a remote machine to a local machine, R2L)、未授權(quán)的本地超級(jí)用戶特權(quán)訪問(wèn)(unauthorized access to local superuser privileges by a local unprivileged user, U2R)類(lèi)型)進(jìn)行過(guò)采樣,使經(jīng)過(guò)上采樣之后的攻擊類(lèi)型流量及正常流量在數(shù)據(jù)集中各自占比相差不大,將不平衡數(shù)據(jù)集采樣成為平衡數(shù)據(jù)集,再輸入到深度學(xué)習(xí)網(wǎng)絡(luò)中使神經(jīng)網(wǎng)絡(luò)能夠?qū)?種流量類(lèi)型都進(jìn)行充分的學(xué)習(xí),避免小樣本的數(shù)據(jù)特征被淹沒(méi)在數(shù)據(jù)集中。采用改進(jìn)的殘差網(wǎng)絡(luò)作為訓(xùn)練模型,有效地解決了常用深度學(xué)習(xí)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中出現(xiàn)的過(guò)擬合以及梯度消失的問(wèn)題,并且在二分類(lèi)及多分類(lèi)的情況下,均取得了較高的分類(lèi)準(zhǔn)確率,在精確率、召回率等指標(biāo)上誤報(bào)率低,具備較強(qiáng)的泛化性,有較高的工程應(yīng)用價(jià)值。

    1 入侵流量檢測(cè)模型與處理

    本節(jié)介紹卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)等網(wǎng)絡(luò)。

    1.1 CNN

    CNN是由卷積層、池化層以及全連接層等通過(guò)交叉堆疊構(gòu)成的一種前饋神經(jīng)網(wǎng)絡(luò)。CNN具有局部連接、權(quán)重共享的特性,與全連接的網(wǎng)絡(luò)相比使用的參數(shù)更少,并在一定程度上具有平移、縮放和旋轉(zhuǎn)不變性[12]?;窘Y(jié)構(gòu)是包含卷積層、池化層、全連接層等。

    卷積層的作用是依照卷積核的大小對(duì)圖像進(jìn)行相應(yīng)的局部特征提取。卷積層的神經(jīng)元是一維的,但是一維的卷積層難以對(duì)二維圖像進(jìn)行特征提取。為了提高圖像區(qū)域信息的利用率,卷積層的神經(jīng)元通常搭建為三維結(jié)構(gòu),其大小為高度M×寬度N×深度D,由D個(gè)M×N大小的特征映射構(gòu)成。如果特征映射的圖像為彩色圖像,則輸入層深度D=3;如果輸入為灰度圖像,則輸入層深度D=1。本文將協(xié)議數(shù)據(jù)處理成二維矩陣后,即相當(dāng)于灰度圖像輸入。卷積層的運(yùn)算過(guò)程可表示為

    (1)

    式中:Wp為卷積核;X為輸入特征映射;bp為標(biāo)量偏置;f(·) 為非線性激活函數(shù);Yp為輸出特征映射。卷積層通過(guò)對(duì)輸入特征進(jìn)行卷積運(yùn)算并引入非線性,從而實(shí)現(xiàn)局部特征的提取。

    池化層能夠有效減少網(wǎng)絡(luò)中神經(jīng)節(jié)點(diǎn)的數(shù)量,對(duì)局部連接產(chǎn)生的大量特征信息進(jìn)行采樣,對(duì)高維數(shù)據(jù)進(jìn)行降維,方法包括進(jìn)行最大池化和平均池化,通過(guò)對(duì)特征信息進(jìn)行據(jù)合同及處理,可以降低算法運(yùn)行耗時(shí),保留重要特征信息,防止訓(xùn)練產(chǎn)生過(guò)擬合現(xiàn)象。全連接層一般處于交替堆疊的卷積層和池化層之后,一般有0~2層,作用是調(diào)整特征輸出數(shù)量,神經(jīng)元數(shù)等于分類(lèi)數(shù)。

    1.2 LSTM網(wǎng)絡(luò)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrent neural network, RNN)具備短期記憶能力,對(duì)于處理具有序列關(guān)系的信息十分有效。但是當(dāng)輸入序列比較長(zhǎng)時(shí),將出現(xiàn)梯度爆炸或梯度消失的問(wèn)題,即長(zhǎng)程依賴問(wèn)題[13]。LSTM網(wǎng)絡(luò)通過(guò)引入門(mén)控機(jī)制的方法來(lái)解決此問(wèn)題,通過(guò)信息的有用程度進(jìn)行權(quán)重確定,包括向神經(jīng)元中引入新信息、遺忘、輸出的權(quán)重,以此來(lái)控制信息的累積速度。LSTM網(wǎng)絡(luò)引入了3種門(mén),分別是輸入門(mén)it、遺忘門(mén)ft、輸出門(mén)ot。其中,ft表示上一個(gè)時(shí)刻的內(nèi)部狀態(tài)遺忘信息權(quán)重;it表示當(dāng)前時(shí)刻候選狀態(tài)保存信息權(quán)重;ot表示當(dāng)前時(shí)刻輸出給外部狀態(tài)信息權(quán)重。3個(gè)門(mén)均以一定比例允許信息通過(guò),其計(jì)算方式為

    (2)

    圖1 LSTM網(wǎng)絡(luò)的循環(huán)單元結(jié)構(gòu)圖

    LSTM單元可以使網(wǎng)絡(luò)建立一種長(zhǎng)時(shí)序依賴關(guān)系,各計(jì)算狀態(tài)為

    (3)

    (4)

    ht=ot⊙tanh(ct)

    (5)

    式中:⊙表示向量元素相乘。

    1.3 殘差神經(jīng)網(wǎng)絡(luò)

    在深度學(xué)習(xí)網(wǎng)絡(luò)中,層數(shù)越多,對(duì)數(shù)據(jù)特征的提取就會(huì)越細(xì)致全面,但當(dāng)深層次的網(wǎng)絡(luò)收斂時(shí)再增加網(wǎng)絡(luò)層數(shù),神經(jīng)網(wǎng)絡(luò)將會(huì)出現(xiàn)退化現(xiàn)象:隨著網(wǎng)絡(luò)的深度不斷增加,網(wǎng)絡(luò)訓(xùn)練的精度先上升達(dá)到飽和,然后出現(xiàn)下降。這種現(xiàn)象不是由過(guò)擬合產(chǎn)生,而是因?yàn)槎嘤嗟木W(wǎng)絡(luò)對(duì)非恒等映射的參數(shù)進(jìn)行學(xué)習(xí)造成的。而殘差神經(jīng)網(wǎng)絡(luò)通過(guò)在深層網(wǎng)絡(luò)中增加跳躍連接,構(gòu)成殘差塊,能夠起到優(yōu)化訓(xùn)練、解決退化問(wèn)題的效果。殘差塊的結(jié)構(gòu)如圖2所示。

    圖2 殘差塊結(jié)構(gòu)

    將期望的底層映射設(shè)為H(x),將堆疊的非線性層擬合的映射表示為F(x)。此時(shí)映射關(guān)系為

    H(x)=F(x)+x

    (6)

    式中:x為輸入;F(x)為殘差函數(shù)。由文獻(xiàn)[14]可知,當(dāng)H(x)為恒等映射時(shí),信號(hào)可由一個(gè)單元直接傳遞到其他任何單元,此時(shí)模型的訓(xùn)練損失和測(cè)試誤差達(dá)到最小。在恒等映射為算法參數(shù)最優(yōu)的情況下,相比于用堆疊非線性層來(lái)擬合恒等映射,令殘差函數(shù)F(x)為0來(lái)構(gòu)造恒等映射更加容易,算法難度更低[15]。

    殘差網(wǎng)絡(luò)采用恒等變換和跳躍連接的方式解決了深度學(xué)習(xí)網(wǎng)絡(luò)的層數(shù)退化問(wèn)題,跳躍連接保護(hù)了信息的完整性,網(wǎng)絡(luò)只需學(xué)習(xí)輸入與輸出的差別部分,復(fù)雜度降低;恒等變換有效拓展了網(wǎng)絡(luò)深度,能夠避免因?yàn)樯疃仍黾訉?dǎo)致的梯度消失和訓(xùn)練難度提升,隨著層數(shù)增加,殘差網(wǎng)絡(luò)的性能不會(huì)下降,而是會(huì)有一定程度的提升[16],這提升了網(wǎng)絡(luò)的性能與可遷移性。

    1.4 不平衡數(shù)據(jù)集及處理方法

    不平衡數(shù)據(jù)集指各個(gè)類(lèi)別數(shù)據(jù)的樣本數(shù)目相差巨大的數(shù)據(jù)集。以二分類(lèi)問(wèn)題為例,假設(shè)數(shù)據(jù)集為Q,S1和S2為數(shù)據(jù)子集,且S1∪S2=Q、S1∩S2=?,此時(shí)可通過(guò)不平衡比率IBR=S1/S2的取值來(lái)界定數(shù)據(jù)集的不平衡程度。IBR的取值越接近1,則不平衡程度越小;IBR的取值越接近0和∞,則不平衡程度越大[17]。

    訓(xùn)練集數(shù)據(jù)不平衡是實(shí)際應(yīng)用問(wèn)題中的常見(jiàn)情況,例如在信用欺詐交易識(shí)別中,所收集的數(shù)據(jù)絕大部分是正常交易,只有極少數(shù)交易是不正常的。在二分類(lèi)數(shù)據(jù)集中,若樣本比例大于10∶1,則很難建立起有效的深度學(xué)習(xí)分類(lèi)器,大部分算法將忽略少數(shù)數(shù)據(jù)集的特征數(shù)據(jù),而大多數(shù)的不平衡數(shù)據(jù)集的少數(shù)樣本才是數(shù)據(jù)集的關(guān)鍵樣本,此時(shí)準(zhǔn)確率這一評(píng)價(jià)指標(biāo)將失效。

    對(duì)于不平衡數(shù)據(jù)集的處理方法,可以采用擴(kuò)充數(shù)據(jù)集、重采樣、屬性值隨機(jī)采樣等手段對(duì)數(shù)據(jù)集進(jìn)行改善。在固定使用NSL-KDD數(shù)據(jù)集的情況下,難以在相同情況下進(jìn)行數(shù)據(jù)集的擴(kuò)充;重采樣可以分為過(guò)采樣與欠采樣,過(guò)采樣即對(duì)小類(lèi)樣本進(jìn)行上采樣,使采樣個(gè)數(shù)大于樣本個(gè)數(shù),欠采樣則是減少大類(lèi)樣本的個(gè)數(shù),采樣算法容易實(shí)現(xiàn),但可能會(huì)增大模型偏差,并對(duì)于不同類(lèi)別的數(shù)據(jù)需要采用不同的比例;屬性值隨機(jī)采樣在樣本的每個(gè)屬性空間都隨機(jī)取值組合成為一個(gè)新樣本,能夠有效增加小樣本的數(shù)量,但引入隨機(jī)性易打破樣本原有的線性關(guān)系,并且需要增設(shè)限定條件以防產(chǎn)生現(xiàn)實(shí)中不存在的數(shù)據(jù)。

    2 基于ADASYN與改進(jìn)殘差網(wǎng)絡(luò)(residual network, ResNet)的入侵流量檢測(cè)模型

    2.1 數(shù)據(jù)集分析與采樣

    1999年舉辦的KDD杯數(shù)據(jù)挖掘工具競(jìng)賽以收集流量記錄為目的,以建立一個(gè)可區(qū)分攻擊流量和正常流量的網(wǎng)絡(luò)入侵檢測(cè)模型,大量互聯(lián)網(wǎng)流量記錄被KDD99數(shù)據(jù)集收錄,該數(shù)據(jù)集包括了41個(gè)特征指標(biāo),共5類(lèi)數(shù)據(jù)[18],而后經(jīng)過(guò)新布倫瑞克大學(xué)進(jìn)行修訂和清理產(chǎn)生了NSL-KDD數(shù)據(jù)集[19]。相比于KDD99數(shù)據(jù)集,NSL-KDD數(shù)據(jù)集訓(xùn)練集中不含冗余記錄,測(cè)試集中無(wú)重復(fù)數(shù)據(jù)[20],對(duì)于算法性能的檢測(cè)更加準(zhǔn)確,訓(xùn)練集和測(cè)試集的數(shù)據(jù)量設(shè)置合理,無(wú)需進(jìn)行篩選和選擇,更適合作為入侵流量檢測(cè)模型的訓(xùn)練數(shù)據(jù)集。

    NSL-KDD數(shù)據(jù)集由正常流量及4種攻擊流量組成,攻擊流量類(lèi)型分別為:DoS、Probing、R2L、U2R。每種攻擊類(lèi)型下又細(xì)分有若干小類(lèi)別的攻擊流量,為了統(tǒng)計(jì)識(shí)別便利,采用數(shù)據(jù)集給出的5個(gè)大類(lèi)進(jìn)行分類(lèi)識(shí)別。測(cè)試集的部分流量屬于未在訓(xùn)練集中出現(xiàn)的小類(lèi)別,將這一部分流量進(jìn)行剔除。本文采用數(shù)據(jù)集的KDDTrain+作為訓(xùn)練集,KDDTest+作為測(cè)試集,各數(shù)據(jù)類(lèi)型的分布如表1所示[21]。

    表1 各類(lèi)型數(shù)據(jù)分布

    由表1可知,訓(xùn)練集和測(cè)試集都存在明顯的數(shù)據(jù)不平衡現(xiàn)象,最小的樣本僅占比0.04%,樣本比例高達(dá)1 336.5∶1,需要對(duì)數(shù)據(jù)集進(jìn)行平衡化的處理。R2L數(shù)據(jù)的特點(diǎn)在于,測(cè)試集的數(shù)量大于訓(xùn)練集數(shù)量,這說(shuō)明檢測(cè)模型在訓(xùn)練集上將難以充分學(xué)習(xí)R2L的特征并在測(cè)試集中準(zhǔn)確分類(lèi)?;谝陨蠁?wèn)題,本文采用ADASYN方法進(jìn)行升采樣,對(duì)訓(xùn)練集中的小樣本數(shù)據(jù)進(jìn)行擴(kuò)充。ADASYN算法步驟如下[22]。

    步驟 1數(shù)據(jù)集小樣本選擇,對(duì)Normal、DoS、Probing、R2L、U2R進(jìn)行樣本編號(hào),將小樣本數(shù)據(jù)相加得到總數(shù)ms,大樣本數(shù)據(jù)數(shù)量為ml。

    步驟 2計(jì)算樣本間的不平衡程度d=ms/ml,其中d

    步驟 3計(jì)算待合成的樣本Q=β(ml-ms),其中參數(shù)β∈(0,1],表示新樣本的不平衡程度。

    步驟 6合成新樣本,對(duì)于小樣本的n維向量xi的k個(gè)鄰近樣本中隨機(jī)選取一個(gè)小樣本xzi,新合成樣本為:Li=xi+λ(xzi-xi),其中λ∈(0,1]為隨機(jī)數(shù)。

    2.2 殘差網(wǎng)絡(luò)構(gòu)建

    和CNN一次僅進(jìn)行一種尺寸的卷積核運(yùn)算相比,Inception模塊使用多尺寸卷積,有1×1,3×3和5×5共3種卷積核[23],能夠同時(shí)進(jìn)行多個(gè)卷積路徑,增加了網(wǎng)絡(luò)的寬度,可以使網(wǎng)絡(luò)同時(shí)對(duì)稀疏和非稀疏特征進(jìn)行學(xué)習(xí),獲得一個(gè)強(qiáng)相關(guān)的特征集合。而添加了殘差網(wǎng)絡(luò)的Inception網(wǎng)絡(luò),通過(guò)跳躍連接使Inception塊得到簡(jiǎn)化,并加深了網(wǎng)絡(luò)層數(shù)[24],獲得了更好的泛化性和準(zhǔn)確度。文章引入Inception-ResNet的部分模塊,并針對(duì)NSL-KDD數(shù)據(jù)集對(duì)參數(shù)進(jìn)行優(yōu)化改進(jìn),構(gòu)建進(jìn)行分類(lèi)識(shí)別的殘差網(wǎng)絡(luò)模型,圖3為模型結(jié)構(gòu)示意圖。

    圖3 改進(jìn)殘差網(wǎng)絡(luò)結(jié)構(gòu)

    Stem模塊由卷積層和池化層堆疊構(gòu)成,在Inception模塊之前引入,能夠加深網(wǎng)絡(luò)結(jié)構(gòu),擴(kuò)充數(shù)據(jù)維數(shù)。卷積層采用padding=same形式,濾波器數(shù)量標(biāo)注在卷積層的括號(hào)中。Stem結(jié)構(gòu)如圖4所示。

    圖4 Stem模塊結(jié)構(gòu)

    Inception-ResNet-A模塊的主要作用是提取淺層特征信息,輸入特征尺寸為11×11,所有卷積核都采用padding=same形式,1×1卷積核的作用為調(diào)整濾波器輸出維數(shù),以減少計(jì)算復(fù)雜度、匹配輸入和輸出維度。Inception-ResNet-A結(jié)構(gòu)如圖5所示。

    圖5 Inception-ResNet-A模塊結(jié)構(gòu)

    特征降維Reduction模塊也是由Inception模塊修改而來(lái),在其基礎(chǔ)上減少了卷積運(yùn)算,增加池化運(yùn)算。相比于單獨(dú)的池化層,并行的卷積運(yùn)算能夠引入額外的特征以彌補(bǔ)池化壓縮維度的過(guò)程中丟失的特征信息。Reduction-A模塊的輸入尺寸為11×11,輸出尺寸為5×5,運(yùn)算模塊中標(biāo)注“V”的表示padding=valid,否則表示padding=same。Reduction-A的結(jié)構(gòu)如圖6所示。

    圖6 Reduction-A模塊結(jié)構(gòu)

    Inception-ResNet-B模塊可以提取數(shù)據(jù)深層的特征信息,輸入、輸出尺寸均為5×5,所有卷積核都采用padding=same形式,模塊結(jié)構(gòu)如圖7所示。

    圖7 Inception-ResNet-B模塊結(jié)構(gòu)

    Reduction-B模塊的輸入尺寸為5×5,輸出尺寸為2×2,對(duì)特征進(jìn)行了進(jìn)一步壓縮,模塊結(jié)構(gòu)如圖8所示。經(jīng)過(guò)以上處理后,對(duì)數(shù)據(jù)進(jìn)行全局池化處理,將特征向量壓縮為1×1的尺寸輸出,相比于直接添加全連接能夠減少計(jì)算量,避免過(guò)擬合的發(fā)生。在經(jīng)過(guò)全局池化后添加參數(shù)為0.25的Dropout層,降低神經(jīng)元之間的相互耦合,減少過(guò)擬合情況的發(fā)生。之后,將數(shù)據(jù)輸入到全連接層,利用Softmax函數(shù)完成對(duì)分類(lèi)類(lèi)別的輸出。

    圖8 Reduction-B模塊結(jié)構(gòu)

    3 實(shí)驗(yàn)分析

    3.1 數(shù)據(jù)預(yù)處理

    NSL-KDD數(shù)據(jù)集中每個(gè)樣本均有42維特征和一個(gè)標(biāo)簽class組成,其中accuracy特征表示21種機(jī)器學(xué)習(xí)模型中能成功識(shí)別該樣本的個(gè)數(shù),對(duì)于模型的訓(xùn)練無(wú)實(shí)際意義,因此舍去。數(shù)據(jù)集預(yù)處理的步驟如圖9所示。

    圖9 數(shù)據(jù)預(yù)處理

    在剩余的41維特征中有3類(lèi)非數(shù)據(jù)類(lèi)型的特征,分別是protocol_type、service、flag。針對(duì)非數(shù)據(jù)類(lèi)型的特征,應(yīng)當(dāng)按照每種特征的類(lèi)型數(shù)設(shè)置one-hot編碼,將非數(shù)據(jù)特征轉(zhuǎn)換為數(shù)據(jù)特征。同時(shí),對(duì)數(shù)據(jù)類(lèi)型的特征需要進(jìn)行歸一化處理以減少不同維度特征的數(shù)據(jù)差異,文章采用min-max歸一化,其表達(dá)式為

    (7)

    數(shù)據(jù)經(jīng)過(guò)ADASYN升采樣后,新產(chǎn)生的小樣本數(shù)據(jù)其One-hot編碼部分為連續(xù)型小數(shù),需要進(jìn)行取整以獲取貼近實(shí)際的數(shù)據(jù)。采樣完畢后訓(xùn)練集的數(shù)據(jù)分布如表2所示,觀察可知升采樣后攻擊流量及正常流量的占比基本相同,數(shù)據(jù)集各樣本達(dá)到平衡。為保證數(shù)據(jù)的隨機(jī)性,需要對(duì)數(shù)據(jù)進(jìn)行隨機(jī)亂序排列。經(jīng)統(tǒng)計(jì)發(fā)現(xiàn),數(shù)據(jù)中特征num_file_creations在訓(xùn)練集、測(cè)試集的所有樣本中的取值均為0,為無(wú)效特征,故將其剔除。3種非數(shù)據(jù)類(lèi)型的特征protocol_type、service、flag分別轉(zhuǎn)化為3、70、11位的One-hot編碼,與數(shù)據(jù)特征進(jìn)行組合得到121維的特征向量,為了更好發(fā)揮卷積層的運(yùn)算效果,將其轉(zhuǎn)換成尺寸為11×11的二維特征向量。

    表2 升采樣后的訓(xùn)練集數(shù)據(jù)

    3.2 模型參數(shù)與評(píng)估指標(biāo)

    模型架構(gòu)采用圖3的結(jié)構(gòu),為確定模型最佳訓(xùn)練輪數(shù),從訓(xùn)練集中按數(shù)據(jù)類(lèi)型隨機(jī)抽取20%的數(shù)據(jù)作為驗(yàn)證集,進(jìn)行輪數(shù)epoch=50次的訓(xùn)練,得到的準(zhǔn)確率及損失函數(shù)如圖10所示。由變化曲線可知,在訓(xùn)練輪數(shù)為0~30輪時(shí),驗(yàn)證集的分類(lèi)準(zhǔn)確率先升高,后保持穩(wěn)定;當(dāng)訓(xùn)練輪數(shù)epoch>30時(shí),驗(yàn)證集的分類(lèi)準(zhǔn)確率開(kāi)始下降并在epoch>45輪后出現(xiàn)明顯振蕩,相應(yīng)的損失函數(shù)取值上升并且在epoch>45輪后出現(xiàn)明顯振蕩,這說(shuō)明模型在訓(xùn)練后期出現(xiàn)了過(guò)擬合現(xiàn)象,算法性能開(kāi)始下降。因此,本文將實(shí)驗(yàn)?zāi)P偷挠?xùn)練輪數(shù)設(shè)置為30輪。

    圖10 驗(yàn)證集準(zhǔn)確率及損失函數(shù)變化曲線

    此外,模型采用的優(yōu)化器類(lèi)型為Adam優(yōu)化器,具備快速收斂、自適應(yīng)學(xué)習(xí)率的能力,參數(shù)設(shè)置為β1=0.9,β2=0.99。批處理大小設(shè)置為64,算法使用categorical-crossentropy作為損失函數(shù)。

    實(shí)驗(yàn)采用準(zhǔn)確率Accuracy、精確率Precision、召回率Recall、調(diào)和平均值F1對(duì)多分類(lèi)中各算法的性能進(jìn)行評(píng)價(jià),各性能指標(biāo)的計(jì)算公式[25]為

    (8)

    式中:TP表示被正確分類(lèi)的正例數(shù)量;FN表示被錯(cuò)分為負(fù)例的正例數(shù)量;TN表示被正確分類(lèi)的負(fù)例數(shù)量;FP表示被錯(cuò)分為正例的負(fù)例數(shù)量。

    在二分類(lèi)的評(píng)估中,還使用AUC值及ROC曲線作為評(píng)價(jià)指標(biāo)。其中準(zhǔn)確率值越高,算法的總體性能就越好;精確率和召回率值高,算法的誤報(bào)率越低。AUC值是ROC曲線下的面積大小,對(duì)于二分類(lèi)問(wèn)題而言,AUC取值越大,模型預(yù)測(cè)的準(zhǔn)確率越高。

    3.3 模型性能對(duì)比驗(yàn)證

    為了與實(shí)驗(yàn)?zāi)P彤a(chǎn)生對(duì)照,本文還設(shè)計(jì)了3種由經(jīng)典深度學(xué)習(xí)方法構(gòu)成的算法進(jìn)行對(duì)比實(shí)驗(yàn),各網(wǎng)絡(luò)結(jié)構(gòu)如表3所示。

    結(jié)構(gòu)表中各層命名及變量說(shuō)明如下:FC(X)中X表示全連接層中包含的節(jié)點(diǎn)數(shù)目,取值為m表示該值等于分類(lèi)數(shù);DR(X)中X表示dropout層中隨機(jī)將神經(jīng)元輸出置零的比例;LSTM(X)中X表示輸出空間的維數(shù);Conv(X,Y,Z,N,M)中各個(gè)參數(shù)的含義為:X表示該卷積層中用到的過(guò)濾器個(gè)數(shù),Y、Z分別表示卷積核的寬度和高度,N表示步長(zhǎng),M表示padding的狀態(tài),如果寫(xiě)成“V”則表示設(shè)置為“Valid”,如果寫(xiě)成“S”則表示設(shè)置為“Same”;MaxPool(X,Y,N,M)中各個(gè)參數(shù)的含義為:X、Y分別表示池化層的寬度和高度,N表示步長(zhǎng),M表示padding的狀態(tài),命名規(guī)則同上。

    為了進(jìn)一步確定經(jīng)典深度學(xué)習(xí)算法及本文實(shí)驗(yàn)算法對(duì)測(cè)試集進(jìn)行分類(lèi)識(shí)別的最佳訓(xùn)練輪數(shù),本文利用KDDTrain+對(duì)4種算法進(jìn)行訓(xùn)練,然后使用4種算法對(duì)測(cè)試集KDDTest+內(nèi)的數(shù)據(jù)進(jìn)行分類(lèi)識(shí)別,觀察不同訓(xùn)練輪數(shù)下各算法的識(shí)別準(zhǔn)確率和損失函數(shù),以研究每種算法取得最佳效果時(shí)對(duì)應(yīng)的訓(xùn)練輪數(shù)。訓(xùn)練總輪數(shù)設(shè)為50輪,圖11和圖12分別為4種算法在不同訓(xùn)練輪數(shù)下對(duì)測(cè)試集數(shù)據(jù)識(shí)別的準(zhǔn)確率及損失函數(shù)曲線。

    圖11 各算法準(zhǔn)確率變化曲線(測(cè)試集)

    圖12 各算法損失函數(shù)變化曲線(測(cè)試集)

    從圖11和圖12的變化曲線可以發(fā)現(xiàn),4種算法對(duì)測(cè)試集的識(shí)別準(zhǔn)確率呈現(xiàn)快速收斂的特點(diǎn),在5輪以內(nèi)的訓(xùn)練輪數(shù)就能夠達(dá)到較高的性能指標(biāo),并且隨著訓(xùn)練輪數(shù)增加,準(zhǔn)確率和損失函數(shù)呈現(xiàn)振蕩的特點(diǎn),這與算法采用的Adam優(yōu)化器特征相一致,即Adam優(yōu)化器采用自適應(yīng)學(xué)習(xí)率設(shè)置,在優(yōu)化后期對(duì)于學(xué)習(xí)率的調(diào)節(jié)會(huì)導(dǎo)致模型收斂結(jié)果的振蕩。由圖11可知,4種算法均在30輪內(nèi)取到了準(zhǔn)確率最大值,即Resnet算法在第23輪、CNN算法在第4輪、DNN算法在第18輪、LSTM算法在第10輪實(shí)現(xiàn)了模型的最佳分類(lèi)效果。在訓(xùn)練輪數(shù)epoch>30輪后,4種算法準(zhǔn)確率處于較低水平,損失函數(shù)振蕩幅度加大且取值逐步上升,這說(shuō)明訓(xùn)練輪數(shù)大于30輪后,算法均出現(xiàn)了不同程度的過(guò)擬合狀態(tài),這與模型在驗(yàn)證集上的表現(xiàn)相吻合。

    在這種情況下,為了取到經(jīng)典深度學(xué)習(xí)算法及改進(jìn)Resnet模型的最佳識(shí)別效果,文章采用Keras框架中的callbacks.EarlyStopping進(jìn)行訓(xùn)練的提前終止,以保證在節(jié)約內(nèi)存的條件下輸出模型不會(huì)錯(cuò)過(guò)最佳訓(xùn)練效果。以圖11和圖12各算法的振蕩情況為參考,將提前終止的耐心度設(shè)置為8,即當(dāng)模型輸出的準(zhǔn)確率連續(xù)8輪都小于之前能達(dá)到的最大值時(shí),模型將終止訓(xùn)練并輸出之前訓(xùn)練的最佳模型。同時(shí)為了避免各算法出現(xiàn)過(guò)擬合現(xiàn)象,將訓(xùn)練輪數(shù)上限設(shè)置為30輪。為了對(duì)比模型的性能差異,經(jīng)典深度學(xué)習(xí)模型的訓(xùn)練輪數(shù)、優(yōu)化器、損失函數(shù)類(lèi)型與改進(jìn)的Resnet模型保持一致。

    3.3.1 多分類(lèi)性能對(duì)比分析

    本節(jié)分別使用CNN、LSTM、DNN、改進(jìn)Resnet模型對(duì)原數(shù)據(jù)訓(xùn)練集KDDTrain+和經(jīng)過(guò)ADASYN采樣的新訓(xùn)練集進(jìn)行學(xué)習(xí),以測(cè)試集KDDTest+作為兩次學(xué)習(xí)的測(cè)試集,分別在有重采樣和無(wú)重采樣的情況下對(duì)比各模型對(duì)攻擊流量的分類(lèi)識(shí)別性能,并對(duì)重采樣前后各模型自身的性能變化進(jìn)行比較以驗(yàn)證ADASYN重采樣的有效性。圖13和圖14分別為各模型在原訓(xùn)練集和重采樣訓(xùn)練集下學(xué)習(xí)后的性能評(píng)估圖。可以看出,各模型的性能指標(biāo)均是精確率最高、準(zhǔn)確率和召回率次之,調(diào)和平均值最小。無(wú)論是否進(jìn)行ADASYN采樣,改進(jìn)的Resnet網(wǎng)絡(luò)的4項(xiàng)性能指標(biāo)均高于經(jīng)典的深度學(xué)習(xí)網(wǎng)絡(luò),并且在新訓(xùn)練集上兩者的差異更加明顯。

    圖13 各模型性能評(píng)估(原訓(xùn)練集)

    圖14 各模型性能評(píng)估(新訓(xùn)練集)

    由于實(shí)驗(yàn)中測(cè)試集不變,因此該組實(shí)驗(yàn)結(jié)果說(shuō)明了在多分類(lèi)問(wèn)題的情況下,改進(jìn)Resnet模型的各性能均優(yōu)于CNN、DNN、LSTM等經(jīng)典深度學(xué)習(xí)網(wǎng)絡(luò),驗(yàn)證了模型解決多分類(lèi)問(wèn)題的有效性和泛化性。殘差網(wǎng)絡(luò)的設(shè)計(jì)是基于堆疊卷積池化層并添加跳躍連接,提升了網(wǎng)絡(luò)深度,本文的模型又向其中添加Inception模塊使模型網(wǎng)絡(luò)寬度變寬,最終使得改進(jìn)的Resnet網(wǎng)絡(luò)在特征提取、分類(lèi)識(shí)別方面性能獲得提升。

    為了驗(yàn)證多分類(lèi)情況下ADASYN采樣的有效性,將基于原訓(xùn)練集和新訓(xùn)練集得到的模型性能指標(biāo)進(jìn)行對(duì)比,如表4所示。由表4可知,除了LSTM模型的精確率、召回率在過(guò)采樣后出現(xiàn)了極小的下降,其余的模型在采樣后的新訓(xùn)練集下得到的所有性能指標(biāo)均高于原訓(xùn)練集,這驗(yàn)證了ADASYN過(guò)采樣的有效性。其中改進(jìn)的Resnet網(wǎng)絡(luò)在采樣前后性能提升的最大,采樣前后的混淆矩陣如表5所示。

    表4 各模型性能指標(biāo)對(duì)比

    表5 無(wú)上采樣的改進(jìn)Resnet混淆矩陣(多分類(lèi))

    表5數(shù)據(jù)由兩部分構(gòu)成,第一部分是由預(yù)測(cè)類(lèi)型與實(shí)際類(lèi)型相構(gòu)成的混淆矩陣,為表格內(nèi)容前5行,其中行表頭表示將測(cè)試集樣本預(yù)測(cè)為該類(lèi)型流量,列表頭表示測(cè)試集樣本的實(shí)際類(lèi)型;第二部分是5種類(lèi)型流量在測(cè)試集預(yù)測(cè)的精確率與召回率,為表格內(nèi)容的后2行。表5是模型在無(wú)ADASYN上采樣的原訓(xùn)練集下訓(xùn)練,并在測(cè)試集上得到的預(yù)測(cè)結(jié)果,表6是在新訓(xùn)練集上得到的相應(yīng)測(cè)試結(jié)果。

    表6 含上采樣的改進(jìn)Resnet混淆矩陣(多分類(lèi))

    對(duì)比表5和表6可得出以下結(jié)論:

    (1) 在新訓(xùn)練集上得到的模型,對(duì)測(cè)試集正確預(yù)測(cè)分類(lèi)的結(jié)果更好。除Normal流量的預(yù)測(cè)數(shù)量有極小的減少外,其余4種攻擊流量在新訓(xùn)練集的模型下正確預(yù)測(cè)的數(shù)量都得到了較大提升,其中R2L的正確預(yù)測(cè)數(shù)量增加的最明顯,數(shù)量由541增加至850,增加了36.35%。

    (2) U2R類(lèi)型流量在不進(jìn)行上采樣時(shí)的模型上正確分類(lèi)的個(gè)數(shù)為0,精確率和召回率值都為0,因?yàn)樵谠?xùn)練集中U2R的樣本數(shù)量極少,不平衡的數(shù)據(jù)分布導(dǎo)致算法在學(xué)習(xí)過(guò)程中直接忽略了U2R的特征信息,導(dǎo)致模型不具備檢測(cè)U2R類(lèi)型流量的能力,這說(shuō)明了采用殘差網(wǎng)絡(luò)進(jìn)行入侵檢測(cè)時(shí),解決數(shù)據(jù)集不平衡問(wèn)題的必要性。在進(jìn)行了上采樣后,各類(lèi)數(shù)據(jù)分布變得平衡,算法在學(xué)習(xí)過(guò)程中所有類(lèi)型的特征信息都可學(xué)習(xí)提取,因此對(duì)于5種流量類(lèi)型都可進(jìn)行有效的分類(lèi),算法的泛化性和可靠性得以提升。其中U2R的召回率的上升最明顯,增加了51.35%。

    (3) 兩種情況下算法都將大部分R2L類(lèi)型的流量誤判為Normal類(lèi)型,其原因在于R2L流量在訓(xùn)練集中的數(shù)量少于在測(cè)試集的數(shù)量,因此算法在學(xué)習(xí)中無(wú)法完全掌握測(cè)試集中R2L的特征信息。這說(shuō)明NSL-KDD數(shù)據(jù)集存在一定的數(shù)據(jù)劃分不合理性。

    3.3.2 二分類(lèi)性能對(duì)比分析

    在入侵流量檢測(cè)的實(shí)際應(yīng)用中,通常也使用二分類(lèi)的手段對(duì)流量進(jìn)行劃分,從而方便快捷地篩選找出入侵流量并進(jìn)行處理。為了檢驗(yàn)在二分類(lèi)情況下ADASYN采樣及改進(jìn)Resnet網(wǎng)絡(luò)的分類(lèi)性能,將4種攻擊流量標(biāo)簽進(jìn)行合并,統(tǒng)一改寫(xiě)為“Attack”類(lèi)型,便得到了用于二分類(lèi)檢測(cè)識(shí)別的訓(xùn)練集和測(cè)試集。圖15和圖16為4種算法模型在二分類(lèi)情況下的,分別在沒(méi)有ADASYN采樣的原訓(xùn)練集和有上采樣的新訓(xùn)練集下訓(xùn)練的測(cè)試集評(píng)估結(jié)果。

    圖15 二分類(lèi)模型性能評(píng)估(原訓(xùn)練集)

    圖16 二分類(lèi)模型性能評(píng)估(新訓(xùn)練集)

    由圖可知,在原訓(xùn)練集下得到的模型中,CNN在測(cè)試集中的性能最優(yōu),準(zhǔn)確率為88.01%,精確率達(dá)到89.30%,改進(jìn)Resnet網(wǎng)絡(luò)的性能其次;而在新訓(xùn)練集下得到的模型中,改進(jìn)Resnet網(wǎng)絡(luò)的性能得到了明顯提高,性能為4種模型中最優(yōu),性能的提高程度比多分類(lèi)情況下的上采樣還要大,其中準(zhǔn)確率達(dá)到91.88%,提升了4.47%,精確率達(dá)到91.94%,提升了2.92%。

    經(jīng)過(guò)上采樣后,4種模型在測(cè)試集的性能均得到不同程度的提高,這說(shuō)明了在二分類(lèi)情況下,ADASYN上采樣的方法依舊能夠有效改善數(shù)據(jù)的不平衡性,使算法對(duì)特征信息的提取更加全面,提升了算法的分類(lèi)準(zhǔn)確率和泛化性。而改進(jìn)的Resnet網(wǎng)絡(luò)在各項(xiàng)指標(biāo)上都優(yōu)于其他模型,這體現(xiàn)出改進(jìn)殘差網(wǎng)絡(luò)對(duì)于二分類(lèi)的流量檢測(cè)識(shí)別具有更好的適應(yīng)性,算法結(jié)構(gòu)和參數(shù)設(shè)計(jì)合理。

    表7和表8給出了在二分類(lèi)的情況下改進(jìn)Resnet網(wǎng)絡(luò)在原訓(xùn)練集和新訓(xùn)練集下的測(cè)試集預(yù)測(cè)混淆矩陣。表格數(shù)據(jù)由兩部分組成,第1部分是由預(yù)測(cè)類(lèi)型與實(shí)際類(lèi)型相構(gòu)成的混淆矩陣,其中行表頭表示將測(cè)試集樣本預(yù)測(cè)為該類(lèi)型流量,列表頭表示測(cè)試集樣本的實(shí)際類(lèi)型;第2部分為Normal流量與Attack流量在測(cè)試集上預(yù)測(cè)的精確率和召回率。由表可知,在新訓(xùn)練集下得到的改進(jìn)Resnet模型對(duì)Attack流量的正確分類(lèi)數(shù)量明顯提升,Attack流量的TN樣本數(shù)量上升、FN樣本數(shù)量下降也使得Normal流量的精確率及Attack流量的召回率提升,這充分說(shuō)明了在經(jīng)過(guò)ADASYN采樣后,模型對(duì)于Attack流量的特征信息學(xué)習(xí)更加充分,算法的總體分類(lèi)能力得到提升。

    表7 無(wú)上采樣的改進(jìn)Resnet混淆矩陣(二分類(lèi))

    表8 含上采樣的改進(jìn)Resnet混淆矩陣(二分類(lèi))

    通過(guò)比較表7和表8,發(fā)現(xiàn)在二分類(lèi)的情況下,測(cè)試集的TN樣本數(shù)量更多,FP、FN樣本數(shù)量更少,整體的分類(lèi)性能也是二分類(lèi)情況優(yōu)于多分類(lèi)情況,這說(shuō)明在二分類(lèi)情況下,改進(jìn)Resnet網(wǎng)絡(luò)的分類(lèi)效果更好,對(duì)入侵流量有更準(zhǔn)確的檢測(cè)能力,缺點(diǎn)在于二分類(lèi)無(wú)法對(duì)入侵流量的類(lèi)型進(jìn)行細(xì)化區(qū)分。

    二分類(lèi)問(wèn)題中,ROC曲線及其下面積AUC值可以用作衡量分類(lèi)器的分類(lèi)效率及平衡性,因?yàn)锳UC不受先驗(yàn)概率及閾值的影響[26],AUC取值為[0,1],取值越大,算法的預(yù)測(cè)準(zhǔn)確率越高;ROC曲線的變化不受正負(fù)樣本數(shù)據(jù)分布的影響,能夠客觀反映出模型的分類(lèi)性能。圖17、圖18分別給出了4種算法在原訓(xùn)練集、新訓(xùn)練集下得到的模型在測(cè)試集中的ROC曲線圖,其中實(shí)線代表將Normal流量作為正例繪制的ROC曲線,虛線代表將Attack流量作為正例繪制的ROC曲線。

    圖17 模型測(cè)試集ROC曲線(原訓(xùn)練集)

    圖18 模型測(cè)試集ROC曲線(新訓(xùn)練集)

    表9表示使用ADASYN采樣前后的各模型測(cè)試集預(yù)測(cè)的AUC值。

    表9 模型測(cè)試集AUC值

    結(jié)合觀察圖17、圖18和表9,可以得出如下結(jié)論:

    (1) 4種算法在經(jīng)過(guò)上采樣的訓(xùn)練集中得到的模型AUC值均大于在原訓(xùn)練集中得到的模型,而ROC曲線基本不受測(cè)試集數(shù)據(jù)不平衡的影響,導(dǎo)致AUC值提高的根本原因就是模型的分類(lèi)能力提高,因?yàn)樵诮?jīng)過(guò)ADASYN采樣的訓(xùn)練集上,大幅提高了小樣本數(shù)量,使模型在訓(xùn)練過(guò)程中不會(huì)忽略小樣本的特征信息,提高了模型識(shí)別的泛化性和準(zhǔn)確性。

    (2) 在上采樣后的ROC曲線中,改進(jìn)的Resnet模型AUC值高于其他3種模型,ROC曲線更加飽滿,貼近左上角。這表明改進(jìn)Resnet模型的分類(lèi)效果優(yōu)于其他模型,這一結(jié)論與圖15、圖16和表7的結(jié)果相一致,充分說(shuō)明了本文提出的算法在二分類(lèi)的情況下能夠獲得最高的準(zhǔn)確率和AUC,并且誤報(bào)率低,具備良好的入侵流量檢測(cè)能力。

    3.4 算法性能驗(yàn)證

    本節(jié)為驗(yàn)證算法模型的實(shí)際性能和應(yīng)用價(jià)值,采用文獻(xiàn)[5,9]提出的算法與本文算法進(jìn)行性能對(duì)比,分別在多分類(lèi)和二分類(lèi)的情況下針對(duì)準(zhǔn)確率、精確率、召回率和F1值進(jìn)行評(píng)估。其中,文獻(xiàn)[5,9]采用NSL-KDD的原始KDDTrain+作為訓(xùn)練集,本文提出的改進(jìn)Resnet算法采用經(jīng)ADASYN采樣后的數(shù)據(jù)集作為訓(xùn)練集進(jìn)行訓(xùn)練。結(jié)果如圖19和圖20所示。

    圖19 算法性能比較(多分類(lèi))

    圖20 算法性能比較(二分類(lèi))

    由圖可知,文獻(xiàn)[5]采用的STL-IDS進(jìn)行特征降維,并使用SVM進(jìn)行分類(lèi)識(shí)別,雖然具備較高的精確率,但是在多分類(lèi)和二分類(lèi)情況下均存在準(zhǔn)確率、召回率低下的問(wèn)題,尤其是多分類(lèi)情況下算法的召回率只有68.29%,這表明算法在查全率上存在較大缺陷,各性能指標(biāo)效果差異大。文獻(xiàn)[9]算法采用堆疊LSTM和空洞殘差網(wǎng)絡(luò)進(jìn)行構(gòu)建,和本文的改進(jìn)殘差網(wǎng)絡(luò)具備一定相似性,在多分類(lèi)情況下F1值取值較低,整體各個(gè)性能指標(biāo)表現(xiàn)均衡,在查準(zhǔn)率和查全率上都具備較好的性能。

    相比于兩種文獻(xiàn)算法,本文提出的改進(jìn)Resnet算法在經(jīng)ADASYN上采樣的訓(xùn)練集上得到的模型在多分類(lèi)和二分類(lèi)情況上都具備最高的準(zhǔn)確率和最低的誤報(bào)率。這充分說(shuō)明了算法設(shè)計(jì)的合理性,模型分類(lèi)識(shí)別具備較高的準(zhǔn)確性和泛化性,可靠性良好。

    4 結(jié)束語(yǔ)

    本文提出了一種基于Inception-ResNet模塊改進(jìn)的殘差神經(jīng)網(wǎng)絡(luò)模型,算法通過(guò)添加跳躍連接的方式增加了網(wǎng)絡(luò)深度,解決了網(wǎng)絡(luò)過(guò)深導(dǎo)致性能下降的問(wèn)題,同時(shí)使用Inception-ResNet模塊拓寬了網(wǎng)絡(luò)寬度,利用特征降維模塊有效減少了池化過(guò)程中的特征丟失。通過(guò)ADASYN對(duì)數(shù)據(jù)訓(xùn)練集進(jìn)行上采樣,改善小樣本在不平衡數(shù)據(jù)集中的分布,解決了深度學(xué)習(xí)網(wǎng)絡(luò)在不平衡數(shù)據(jù)集的學(xué)習(xí)中易忽略小樣本特征信息的問(wèn)題,通過(guò)采樣前后的對(duì)比說(shuō)明了自適應(yīng)合成采樣對(duì)于算法性能提高的重要作用。

    文章最后在多分類(lèi)、二分類(lèi)情況下分別對(duì)經(jīng)典深度學(xué)習(xí)算法和改進(jìn)Resnet算法進(jìn)行性能評(píng)估,并進(jìn)行算法的效能對(duì)比,使用的指標(biāo)包括準(zhǔn)確率、精確率、召回率、調(diào)和平均值、ROC曲線和AUC值。實(shí)驗(yàn)結(jié)果表明,在多分類(lèi)的情況下,改進(jìn)的Resnet算法在上采樣訓(xùn)練集下得到的模型準(zhǔn)確率可達(dá)到89.40%,二分類(lèi)時(shí)為91.88%,均在所有算法中達(dá)到最高,同時(shí)算法的誤報(bào)率低、泛化性好,具備較高的可靠性和工程應(yīng)用價(jià)值。

    猜你喜歡
    準(zhǔn)確率卷積流量
    冰墩墩背后的流量密碼
    玩具世界(2022年2期)2022-06-15 07:35:36
    基于3D-Winograd的快速卷積算法設(shè)計(jì)及FPGA實(shí)現(xiàn)
    張曉明:流量決定勝負(fù)!三大流量高地裂變無(wú)限可能!
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準(zhǔn)確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準(zhǔn)確率比較探討
    2015—2017 年寧夏各天氣預(yù)報(bào)參考產(chǎn)品質(zhì)量檢驗(yàn)分析
    尋找書(shū)業(yè)新流量
    出版人(2020年4期)2020-11-14 08:34:26
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    高速公路車(chē)牌識(shí)別標(biāo)識(shí)站準(zhǔn)確率驗(yàn)證法
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    真人一进一出gif抽搐免费| 母亲3免费完整高清在线观看| 国产亚洲精品久久久久久毛片| 国产亚洲精品av在线| 熟女少妇亚洲综合色aaa.| 美女免费视频网站| 日韩中文字幕欧美一区二区| 亚洲色图av天堂| 美女国产高潮福利片在线看| 久久欧美精品欧美久久欧美| 午夜精品国产一区二区电影| 久久人人精品亚洲av| 亚洲精品久久成人aⅴ小说| 男人舔女人下体高潮全视频| 亚洲第一青青草原| 日本五十路高清| 黄色 视频免费看| 99国产极品粉嫩在线观看| 亚洲国产精品sss在线观看| av在线播放免费不卡| 精品国产美女av久久久久小说| 亚洲成av片中文字幕在线观看| 一区福利在线观看| 色综合亚洲欧美另类图片| 精品一品国产午夜福利视频| 丰满的人妻完整版| 色综合欧美亚洲国产小说| 亚洲欧美一区二区三区黑人| 岛国视频午夜一区免费看| 国产一级毛片七仙女欲春2 | 大陆偷拍与自拍| 色哟哟哟哟哟哟| 在线观看舔阴道视频| 91在线观看av| 亚洲午夜理论影院| 日日夜夜操网爽| 久久午夜综合久久蜜桃| 午夜a级毛片| 国产成人免费无遮挡视频| 欧美一级a爱片免费观看看 | 咕卡用的链子| 一级黄色大片毛片| 首页视频小说图片口味搜索| 亚洲一卡2卡3卡4卡5卡精品中文| 女警被强在线播放| 桃色一区二区三区在线观看| 国产av又大| 色综合欧美亚洲国产小说| 国产日韩一区二区三区精品不卡| 欧美精品啪啪一区二区三区| 男女午夜视频在线观看| 国内毛片毛片毛片毛片毛片| 中文字幕色久视频| 又黄又爽又免费观看的视频| 久久国产精品男人的天堂亚洲| 欧美日本中文国产一区发布| 女警被强在线播放| 国产伦一二天堂av在线观看| 国产成人系列免费观看| 满18在线观看网站| 级片在线观看| 亚洲五月色婷婷综合| 午夜a级毛片| 免费看美女性在线毛片视频| 国产单亲对白刺激| 成人国产综合亚洲| 日韩欧美一区二区三区在线观看| 日本 欧美在线| 老司机午夜福利在线观看视频| 男男h啪啪无遮挡| 91字幕亚洲| www.999成人在线观看| 欧美乱妇无乱码| 久久人人爽av亚洲精品天堂| 午夜视频精品福利| videosex国产| 欧美色视频一区免费| 天堂影院成人在线观看| 亚洲精品国产区一区二| 色综合站精品国产| 亚洲成国产人片在线观看| 韩国av一区二区三区四区| 丝袜在线中文字幕| 亚洲中文av在线| 波多野结衣一区麻豆| 夜夜躁狠狠躁天天躁| 激情视频va一区二区三区| 午夜a级毛片| 亚洲五月天丁香| 免费久久久久久久精品成人欧美视频| 亚洲熟女毛片儿| 男女做爰动态图高潮gif福利片 | 波多野结衣高清无吗| 女生性感内裤真人,穿戴方法视频| 香蕉国产在线看| 高清在线国产一区| 亚洲成人久久性| 天堂√8在线中文| 69精品国产乱码久久久| 在线观看舔阴道视频| 亚洲少妇的诱惑av| 啪啪无遮挡十八禁网站| 黑人欧美特级aaaaaa片| 日韩精品青青久久久久久| 欧美激情极品国产一区二区三区| 老司机午夜十八禁免费视频| 欧美 亚洲 国产 日韩一| 涩涩av久久男人的天堂| 老鸭窝网址在线观看| www.精华液| 亚洲最大成人中文| 丰满的人妻完整版| 欧美日韩福利视频一区二区| 一本综合久久免费| 少妇被粗大的猛进出69影院| 如日韩欧美国产精品一区二区三区| 国产aⅴ精品一区二区三区波| 精品不卡国产一区二区三区| 日韩三级视频一区二区三区| 色综合欧美亚洲国产小说| 老熟妇乱子伦视频在线观看| 黄片小视频在线播放| 99riav亚洲国产免费| 正在播放国产对白刺激| 日本免费一区二区三区高清不卡 | 成人永久免费在线观看视频| 婷婷六月久久综合丁香| 精品久久久久久,| 色播亚洲综合网| 正在播放国产对白刺激| 精品电影一区二区在线| 亚洲av电影在线进入| 亚洲免费av在线视频| 久久精品亚洲熟妇少妇任你| 亚洲激情在线av| 两性夫妻黄色片| 日日夜夜操网爽| 乱人伦中国视频| 香蕉丝袜av| 亚洲av电影不卡..在线观看| 国产午夜福利久久久久久| 午夜福利,免费看| 99精品久久久久人妻精品| 91在线观看av| 国产精品久久久人人做人人爽| 桃红色精品国产亚洲av| 亚洲国产欧美网| 久久国产乱子伦精品免费另类| 亚洲av熟女| 国产av一区在线观看免费| 亚洲成人免费电影在线观看| 国产精品精品国产色婷婷| 国产亚洲欧美精品永久| 少妇 在线观看| 亚洲男人天堂网一区| 操出白浆在线播放| 亚洲国产精品合色在线| 亚洲熟妇熟女久久| 老司机福利观看| 久热爱精品视频在线9| 亚洲av美国av| 日本撒尿小便嘘嘘汇集6| 一边摸一边抽搐一进一出视频| 一进一出好大好爽视频| 99久久精品国产亚洲精品| 久久精品亚洲熟妇少妇任你| 亚洲精品美女久久av网站| 国内精品久久久久久久电影| 亚洲欧美精品综合一区二区三区| 国产亚洲欧美在线一区二区| 午夜久久久在线观看| 亚洲 欧美 日韩 在线 免费| 叶爱在线成人免费视频播放| 久久国产精品人妻蜜桃| 久久久国产欧美日韩av| 青草久久国产| 免费在线观看视频国产中文字幕亚洲| 亚洲av美国av| 91麻豆av在线| 一区二区三区高清视频在线| 69av精品久久久久久| 国产av一区在线观看免费| 午夜福利高清视频| 在线观看午夜福利视频| 久久精品亚洲精品国产色婷小说| 岛国视频午夜一区免费看| 人人妻人人澡人人看| 超碰成人久久| 变态另类丝袜制服| 午夜久久久在线观看| 国产高清视频在线播放一区| 午夜福利在线观看吧| 99精品在免费线老司机午夜| 亚洲片人在线观看| 美女 人体艺术 gogo| 岛国在线观看网站| 欧美激情极品国产一区二区三区| 亚洲第一电影网av| 涩涩av久久男人的天堂| 麻豆国产av国片精品| 久久精品亚洲精品国产色婷小说| 亚洲熟妇熟女久久| svipshipincom国产片| 老熟妇仑乱视频hdxx| 国产伦人伦偷精品视频| 看免费av毛片| 日韩欧美一区视频在线观看| 日本vs欧美在线观看视频| 国语自产精品视频在线第100页| 欧美日本中文国产一区发布| 亚洲精品国产色婷婷电影| 此物有八面人人有两片| 嫁个100分男人电影在线观看| 男男h啪啪无遮挡| 久久精品国产亚洲av香蕉五月| 亚洲色图 男人天堂 中文字幕| 欧美乱色亚洲激情| 亚洲精品粉嫩美女一区| 国产片内射在线| 成人国产一区最新在线观看| a在线观看视频网站| 精品久久久精品久久久| 老汉色av国产亚洲站长工具| 多毛熟女@视频| 日本免费一区二区三区高清不卡 | 老司机靠b影院| 黄频高清免费视频| 免费一级毛片在线播放高清视频 | 丁香六月欧美| 欧美午夜高清在线| 大码成人一级视频| 午夜福利高清视频| 两性夫妻黄色片| 色婷婷久久久亚洲欧美| 国产精品爽爽va在线观看网站 | 窝窝影院91人妻| 国产一区在线观看成人免费| 精品一区二区三区四区五区乱码| 久久久久久免费高清国产稀缺| 国内毛片毛片毛片毛片毛片| 麻豆一二三区av精品| 日韩欧美一区视频在线观看| 可以免费在线观看a视频的电影网站| 亚洲精品中文字幕在线视频| 亚洲国产精品成人综合色| 中文字幕高清在线视频| 久久精品影院6| 成人亚洲精品av一区二区| 亚洲全国av大片| 一个人观看的视频www高清免费观看 | 欧美日韩亚洲国产一区二区在线观看| 亚洲精品一区av在线观看| 高清毛片免费观看视频网站| 欧美激情久久久久久爽电影 | 曰老女人黄片| 欧美日韩亚洲综合一区二区三区_| 国产日韩一区二区三区精品不卡| 精品人妻在线不人妻| 国产成人一区二区三区免费视频网站| 999久久久精品免费观看国产| 性色av乱码一区二区三区2| 黄片播放在线免费| 黄色女人牲交| 人妻久久中文字幕网| 午夜精品国产一区二区电影| 高清毛片免费观看视频网站| 亚洲欧美精品综合一区二区三区| 大型av网站在线播放| 国产成人免费无遮挡视频| 久久精品国产亚洲av香蕉五月| 桃色一区二区三区在线观看| 97碰自拍视频| 69精品国产乱码久久久| 国产99白浆流出| 久久亚洲真实| 美女国产高潮福利片在线看| 日韩欧美免费精品| 在线国产一区二区在线| 女性生殖器流出的白浆| 夜夜躁狠狠躁天天躁| 两个人免费观看高清视频| 日本vs欧美在线观看视频| 亚洲精品国产区一区二| 亚洲熟妇中文字幕五十中出| 亚洲精品国产色婷婷电影| 美女大奶头视频| 在线观看免费午夜福利视频| 亚洲欧美激情在线| 欧美在线一区亚洲| 精品国内亚洲2022精品成人| 99re在线观看精品视频| av福利片在线| 一本大道久久a久久精品| 欧美午夜高清在线| 黄色丝袜av网址大全| 波多野结衣av一区二区av| 在线观看免费午夜福利视频| 欧美亚洲日本最大视频资源| 大香蕉久久成人网| 精品少妇一区二区三区视频日本电影| 日韩av在线大香蕉| 99久久99久久久精品蜜桃| 免费在线观看完整版高清| 欧美成人免费av一区二区三区| 婷婷精品国产亚洲av在线| 好男人在线观看高清免费视频 | 亚洲男人天堂网一区| 国产激情久久老熟女| 成人三级黄色视频| 亚洲一区高清亚洲精品| 亚洲精品一区av在线观看| 日本一区二区免费在线视频| 一区二区三区高清视频在线| 亚洲一卡2卡3卡4卡5卡精品中文| 每晚都被弄得嗷嗷叫到高潮| 如日韩欧美国产精品一区二区三区| 麻豆成人av在线观看| 久久精品国产亚洲av高清一级| 欧美乱码精品一区二区三区| 免费高清在线观看日韩| 免费一级毛片在线播放高清视频 | 欧美乱色亚洲激情| 日本免费a在线| 色综合婷婷激情| 国产欧美日韩精品亚洲av| 午夜久久久久精精品| 午夜福利欧美成人| 老司机福利观看| 亚洲国产精品999在线| 久久久精品国产亚洲av高清涩受| 神马国产精品三级电影在线观看 | 久久久久九九精品影院| 女同久久另类99精品国产91| 久久天躁狠狠躁夜夜2o2o| 欧美日韩瑟瑟在线播放| 国产高清有码在线观看视频 | 女人被狂操c到高潮| 日韩欧美国产一区二区入口| 国产成人一区二区三区免费视频网站| 自线自在国产av| 69精品国产乱码久久久| 18禁观看日本| 黄色片一级片一级黄色片| 欧美亚洲日本最大视频资源| av福利片在线| 亚洲av成人不卡在线观看播放网| 非洲黑人性xxxx精品又粗又长| 12—13女人毛片做爰片一| 两性夫妻黄色片| 动漫黄色视频在线观看| 18禁裸乳无遮挡免费网站照片 | 伊人久久大香线蕉亚洲五| 国产精品美女特级片免费视频播放器 | 日日干狠狠操夜夜爽| av电影中文网址| 精品久久久久久久毛片微露脸| 可以在线观看毛片的网站| 天堂动漫精品| 精品国内亚洲2022精品成人| 久久久久久久午夜电影| 在线国产一区二区在线| 91av网站免费观看| 免费在线观看视频国产中文字幕亚洲| 国产成人精品无人区| 亚洲va日本ⅴa欧美va伊人久久| 久久中文字幕人妻熟女| 国产精品乱码一区二三区的特点 | 亚洲中文字幕一区二区三区有码在线看 | 国产伦一二天堂av在线观看| а√天堂www在线а√下载| 中文字幕精品免费在线观看视频| 久久人妻熟女aⅴ| 国产伦一二天堂av在线观看| 满18在线观看网站| 久久国产精品影院| 黄片大片在线免费观看| 悠悠久久av| 好男人在线观看高清免费视频 | 久久精品人人爽人人爽视色| 色播在线永久视频| 免费女性裸体啪啪无遮挡网站| 99国产精品一区二区三区| 51午夜福利影视在线观看| 老司机深夜福利视频在线观看| 18禁美女被吸乳视频| 欧美最黄视频在线播放免费| 国产精品爽爽va在线观看网站 | 精品少妇一区二区三区视频日本电影| 成人手机av| 老汉色∧v一级毛片| 99香蕉大伊视频| 成人av一区二区三区在线看| 国内精品久久久久久久电影| 美女大奶头视频| 亚洲av电影不卡..在线观看| 91麻豆精品激情在线观看国产| 天堂影院成人在线观看| 久久精品影院6| 真人做人爱边吃奶动态| 日韩欧美免费精品| 老司机在亚洲福利影院| www.www免费av| 亚洲中文字幕日韩| 99在线视频只有这里精品首页| 亚洲一区二区三区色噜噜| 久久性视频一级片| 久久人妻福利社区极品人妻图片| 激情在线观看视频在线高清| 最近最新免费中文字幕在线| 精品一区二区三区视频在线观看免费| 别揉我奶头~嗯~啊~动态视频| 成人av一区二区三区在线看| 99久久精品国产亚洲精品| 亚洲国产精品999在线| 欧美日韩亚洲国产一区二区在线观看| 国产一卡二卡三卡精品| 日日爽夜夜爽网站| 91av网站免费观看| 国产精品免费视频内射| 国产av又大| 自线自在国产av| 久久久久久亚洲精品国产蜜桃av| 亚洲国产精品999在线| 国产激情久久老熟女| 国产私拍福利视频在线观看| 久久青草综合色| 19禁男女啪啪无遮挡网站| 9191精品国产免费久久| cao死你这个sao货| 少妇 在线观看| 青草久久国产| 久久欧美精品欧美久久欧美| 国产成人欧美在线观看| 18禁观看日本| 中出人妻视频一区二区| 国产91精品成人一区二区三区| 中文字幕久久专区| 丝袜美腿诱惑在线| 黄片播放在线免费| 国产成人精品在线电影| 国产成+人综合+亚洲专区| 免费人成视频x8x8入口观看| av免费在线观看网站| 国产一区二区三区在线臀色熟女| 精品国产一区二区久久| 丝袜美足系列| 美女午夜性视频免费| 国产成人av教育| 亚洲国产欧美日韩在线播放| x7x7x7水蜜桃| 免费少妇av软件| 桃色一区二区三区在线观看| 韩国精品一区二区三区| 亚洲熟妇熟女久久| 亚洲 欧美一区二区三区| 日韩视频一区二区在线观看| 亚洲av五月六月丁香网| 亚洲精品久久国产高清桃花| 999久久久国产精品视频| 日本vs欧美在线观看视频| 久久狼人影院| 久久久久精品国产欧美久久久| 久久亚洲精品不卡| 欧美最黄视频在线播放免费| 国产亚洲精品久久久久5区| 99国产精品一区二区三区| 久久久久国内视频| 国产欧美日韩一区二区三区在线| 大码成人一级视频| 亚洲国产看品久久| 精品国产乱子伦一区二区三区| 国产一区二区三区在线臀色熟女| 欧美日韩精品网址| 1024视频免费在线观看| 一区二区三区高清视频在线| 精品久久蜜臀av无| 日本 av在线| 国产人伦9x9x在线观看| 十八禁网站免费在线| 欧美乱码精品一区二区三区| 18美女黄网站色大片免费观看| 亚洲精品中文字幕在线视频| 欧美丝袜亚洲另类 | 欧美丝袜亚洲另类 | 91在线观看av| 最近最新免费中文字幕在线| 日本免费一区二区三区高清不卡 | 人人妻人人爽人人添夜夜欢视频| 国产亚洲精品av在线| 国产一区二区在线av高清观看| 亚洲av成人一区二区三| 国产伦人伦偷精品视频| 久久精品91蜜桃| 1024视频免费在线观看| 97碰自拍视频| 欧美国产日韩亚洲一区| 色综合站精品国产| 97人妻天天添夜夜摸| 午夜精品久久久久久毛片777| 亚洲精品中文字幕在线视频| 久久精品国产99精品国产亚洲性色 | 一级,二级,三级黄色视频| 欧美 亚洲 国产 日韩一| 大香蕉久久成人网| 91成人精品电影| 成熟少妇高潮喷水视频| 在线天堂中文资源库| 丁香六月欧美| 狠狠狠狠99中文字幕| 国产一区二区三区视频了| 性欧美人与动物交配| 在线免费观看的www视频| 欧美大码av| 长腿黑丝高跟| 99国产精品一区二区三区| 国产亚洲av嫩草精品影院| 久久人人精品亚洲av| 最新美女视频免费是黄的| 深夜精品福利| 成人精品一区二区免费| 51午夜福利影视在线观看| 欧美日韩黄片免| 69精品国产乱码久久久| 在线观看一区二区三区| 亚洲男人的天堂狠狠| 88av欧美| 久久精品亚洲熟妇少妇任你| 久9热在线精品视频| 亚洲自拍偷在线| 国产aⅴ精品一区二区三区波| 成在线人永久免费视频| 亚洲三区欧美一区| aaaaa片日本免费| 波多野结衣av一区二区av| 亚洲在线自拍视频| а√天堂www在线а√下载| 国产一级毛片七仙女欲春2 | 国产成+人综合+亚洲专区| 午夜福利视频1000在线观看 | 午夜成年电影在线免费观看| 在线天堂中文资源库| 国产免费男女视频| 亚洲精品久久国产高清桃花| 免费看a级黄色片| 级片在线观看| 免费观看人在逋| 老司机在亚洲福利影院| 国产精品秋霞免费鲁丝片| 精品国产美女av久久久久小说| 国产精品一区二区在线不卡| 淫秽高清视频在线观看| 国产精品亚洲一级av第二区| 国产麻豆69| av视频免费观看在线观看| 亚洲欧洲精品一区二区精品久久久| 亚洲性夜色夜夜综合| 黑人巨大精品欧美一区二区mp4| 国产成人一区二区三区免费视频网站| 欧美午夜高清在线| 看片在线看免费视频| 夜夜爽天天搞| 嫩草影视91久久| 午夜久久久在线观看| 露出奶头的视频| 侵犯人妻中文字幕一二三四区| e午夜精品久久久久久久| 丰满的人妻完整版| 国产成+人综合+亚洲专区| 好男人在线观看高清免费视频 | 免费搜索国产男女视频| 成人av一区二区三区在线看| 黄色片一级片一级黄色片| 国产高清激情床上av| 国产人伦9x9x在线观看| 午夜亚洲福利在线播放| 麻豆久久精品国产亚洲av| 国产成人欧美在线观看| 人人妻人人爽人人添夜夜欢视频| 岛国在线观看网站| 国产精品秋霞免费鲁丝片| 免费少妇av软件| 日本在线视频免费播放| 欧美激情高清一区二区三区| 国产午夜福利久久久久久| 精品欧美一区二区三区在线| 亚洲中文av在线| 国产亚洲精品久久久久久毛片| 国产麻豆69| 亚洲成av片中文字幕在线观看| 一边摸一边抽搐一进一出视频| 18禁黄网站禁片午夜丰满| 国产av一区二区精品久久| 91在线观看av| 好男人在线观看高清免费视频 | 久久天躁狠狠躁夜夜2o2o| 国产野战对白在线观看| 亚洲天堂国产精品一区在线| 久久精品国产亚洲av高清一级| 伊人久久大香线蕉亚洲五| 久久国产精品人妻蜜桃| 亚洲aⅴ乱码一区二区在线播放 | 日韩中文字幕欧美一区二区| 欧美丝袜亚洲另类 | 久久人人爽av亚洲精品天堂| 69av精品久久久久久| 国产av在哪里看| av天堂久久9| 久久人妻福利社区极品人妻图片| 亚洲三区欧美一区| 大码成人一级视频| 露出奶头的视频| 在线观看www视频免费| 国产成人啪精品午夜网站| 变态另类丝袜制服| 中文亚洲av片在线观看爽|