• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于雙注意力機(jī)制和改進(jìn)對抗訓(xùn)練的漏洞分類方法

    2024-12-31 00:00:00楊盡能李汶珊何俊江周紹鴻李濤王運(yùn)鵬
    計算機(jī)應(yīng)用研究 2024年11期
    關(guān)鍵詞:網(wǎng)絡(luò)安全

    摘 要:漏洞報告在網(wǎng)絡(luò)安全中發(fā)揮著重要作用,大量且不斷增加的漏洞對漏洞分類的效率和準(zhǔn)確性提出了巨大挑戰(zhàn)。為了緩解漏洞分類深度學(xué)習(xí)模型無法關(guān)注重要特征和容易陷入過擬合的問題,提出了一種新穎的基于雙注意力機(jī)制和改進(jìn)對抗訓(xùn)練的漏洞分類方法。首先,提出TextCNN-DA(text convolutional neural network with double attention) 模型,將空間注意力和通道注意力機(jī)制與 TextCNN 結(jié)合,以更好地關(guān)注到重要特征。然后,提出SWV-FGM (single word vector-fast gradient method) 算法,對模型進(jìn)行對抗訓(xùn)練,進(jìn)而提高模型的魯棒性和泛化性。在漏洞數(shù)據(jù)集上與其他基線算法進(jìn)行了對比,并且對不同漏洞類型數(shù)據(jù)的表現(xiàn)進(jìn)行了具體分析,該方法在accuracy、macro-F1等多項指標(biāo)上都有更良好的表現(xiàn),能夠更好地完成漏洞分類任務(wù)。

    關(guān)鍵詞:網(wǎng)絡(luò)安全; 漏洞分類; 注意力機(jī)制; 對抗訓(xùn)練

    中圖分類號:TP319 文獻(xiàn)標(biāo)志碼:A

    文章編號:1001-3695(2024)11-036-3447-08

    doi: 10.19734/j.issn.1001-3695.2024.01.0061

    Vulnerability classification method based on double-attention mechanism and adversarial training

    Yang Jinneng1, Li Wenshan1, 2, He Junjiang1, Zhou Shaohong1, Li Tao1, Wang Yunpeng1, 3?

    (1.School of Cyber Science amp; Engineering, Sichuan University, Chengdu 610207, China; 2. School of Cyber Science amp; Engineering, Chengdu University of Information Technology, Chengdu 610225, China; 3. Smart Rongcheng Operation Center, Xindu District, Chengdu 610095, China)

    Abstract:Vulnerability reports play a pivotal role in cybersecurity, and the ever-growing number of vulnerabilities challenges the efficiency and accuracy of vulnerability classification. To alleviate issues with deep learning models in vulnerability classification, which often fail to focus on significant features and are prone to overfitting, this paper introduced a novel vulnerability classification approach based on a double attention mechanism and improved adversarial training. Firstly, this paper proposed the TextCNN-DA model, which augmented the conventional TextCNN with spatial and channel attention mechanisms to enhance focus on pertinent features. Furthermore, this paper introduced the SWV-FGM algorithm for adversarial training to increase the robustness and generalization of the model. Comparative analysis with other baseline algorithms on a vulnerability dataset, and specific performance evaluation across different vulnerability types, show that the proposed method outperforms in several key metrics such as accuracy and macro-F1, effectively advancing vulnerability classification tasks.

    Key words:cyber security; vulnerability classification; attention mechanism; adversarial training

    0 引言

    當(dāng)前,計算機(jī)和網(wǎng)絡(luò)系統(tǒng)中的安全漏洞對個人、組織和國家網(wǎng)絡(luò)安全構(gòu)成嚴(yán)重威脅。CVE (common vulnerabilities and exposures) 提供了一個唯一識別的公開已知網(wǎng)絡(luò)安全漏洞列表,被廣泛應(yīng)用于網(wǎng)絡(luò)安全產(chǎn)品和服務(wù)中。其中,在軟件開發(fā)生命周期中為避免漏洞的產(chǎn)生,需要從大量不同類型的CVE中準(zhǔn)確識別和了解漏洞類型。因此,快速準(zhǔn)確地識別和了解漏洞類型對于軟件開發(fā)人員、集成商和用戶至關(guān)重要。

    CWE (common weakness enumeration) 是一種對軟件弱點或漏洞進(jìn)行分類的行業(yè)標(biāo)準(zhǔn)。每個弱點都被分配了一個唯一的字母數(shù)字標(biāo)識符,稱為CWE ID。將現(xiàn)有和新發(fā)現(xiàn)的漏洞映射為CWE是快速理解和減輕漏洞影響的重要方法。通過用相應(yīng)的CWE ID標(biāo)記漏洞報告(例如CVE條目),可以很容易地識別漏洞的類型。然而,目前為漏洞報告分配CWE ID基本上是人工任務(wù),需要花費(fèi)大量人力,且存在可擴(kuò)展性較差、質(zhì)量難以保證的問題。根據(jù)NVD (national vulnerability database)的統(tǒng)計,2013年報告了5 187個條目,2023年增加到28 963個,如圖1所示。面對不斷增加的漏洞報告數(shù)量,人工標(biāo)注會變得越來越不現(xiàn)實;另外,為正確分配CWE ID,必須要由熟悉每個弱點描述的安全專業(yè)人員來進(jìn)行標(biāo)注,標(biāo)注成本太高。因此,亟需一種將CWE ID自動分配給漏洞報告的方法。

    隨著網(wǎng)絡(luò)安全威脅的不斷增加,利用機(jī)器學(xué)習(xí)技術(shù)對漏洞進(jìn)行高效、準(zhǔn)確的分類成為了研究重點。盡管傳統(tǒng)的機(jī)器學(xué)習(xí)算法為漏洞分類提供了初步解決方案,但面對數(shù)據(jù)的高維度和復(fù)雜性,它們逐漸顯示出局限性。深度學(xué)習(xí)技術(shù)因能應(yīng)對這些挑戰(zhàn)而獲得關(guān)注,并顯示出在自動漏洞分類任務(wù)中相比傳統(tǒng)算法的顯著優(yōu)勢。

    盡管深度學(xué)習(xí)已經(jīng)在漏洞分類領(lǐng)域有了很多研究,但現(xiàn)有研究依舊存在許多不足。一方面,其缺乏關(guān)注重要特征的能力;另一方面,模型的泛化性較差。為了解決這些問題,本文提出一種基于雙注意力機(jī)制和對抗訓(xùn)練的漏洞分類框架。首先,本文對漏洞文本數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理,并利用word2vec模型得到初始詞嵌入;然后,本文將空間注意力機(jī)制和通道注意力機(jī)制引入TextCNN模型,提出 TextCNN-DA (TextCNN with double attention) 模型,該模型可以對輸入特征分別在空間維度和通道維度上進(jìn)行注意力計算,更好關(guān)注到兩個維度上的重要特征,從而增強(qiáng)漏洞分類效果;最后,本文提出SWV-FGM (single word vector-FGM) 算法,該方法根據(jù)每一次反向傳播的梯度信息,以單個詞向量為基本單位來生成擾動數(shù)據(jù),對模型進(jìn)行對抗訓(xùn)練,迫使模型在不同類別之間尋找更具有區(qū)分性的決策邊界,增強(qiáng)了模型的泛化性。實驗結(jié)果證明了該方法的有效性。本文的主要貢獻(xiàn)如下:a)提出將空間注意力機(jī)制和通道注意力機(jī)制引入TextCNN模型,使模型能更好地關(guān)注到重要特征,增強(qiáng)漏洞分類效果;b)提出改進(jìn)對抗樣本生成算法SWV-FGM,該算法對FGM算法進(jìn)行改進(jìn),使其更適合漏洞文本分類任務(wù),增強(qiáng)了模型的泛化性;c)在收集的漏洞文本數(shù)據(jù)集上評估了該方法的有效性。實驗結(jié)果表明,該方法在macro-F1度量為86.54%,優(yōu)于其他分類算法。

    1 相關(guān)工作

    為了實現(xiàn)漏洞報告的自動分類,研究人員首先利用機(jī)器學(xué)習(xí)算法進(jìn)行研究。Neuhaus等人[1]研究CVE數(shù)據(jù)庫的漏洞報告,使用LDA主題模型來半自動地找到普遍的漏洞類型和新趨勢。Wijayasekara等人[2]提出了一種基于文本挖掘Bug數(shù)據(jù)庫來識別隱藏影響B(tài)ug的方法。文本挖掘過程提取錯誤報告的句法信息,壓縮后生成特征向量送入機(jī)器學(xué)習(xí)分類器。Na等人[3]使用樸素貝葉斯分類器將CVE條目分類到對應(yīng)漏洞類型。Davari等人[4]提出一個使用隨機(jī)森林等機(jī)器學(xué)習(xí)方法的漏洞自動分類框架。Yang等人[5]將模糊熵用于脆弱性特征選擇,用TF-IDF確定特征權(quán)重,用改進(jìn)的粒子群優(yōu)化算法優(yōu)化支持向量機(jī)的參數(shù),提高了分類精度,縮短了分類時間。Chen等人[6]提出了一種基于詞頻-逆重力矩陣TF-IGM和特征選擇的漏洞嚴(yán)重性分類框架。Aota等人[7]選取19個弱點作為目標(biāo),利用機(jī)器學(xué)習(xí)方法對弱點進(jìn)行分類,最終得出Boruta用于特征提取和隨機(jī)森林用于分類器的分類性能最好。文獻(xiàn)[8]結(jié)合文本分析和XGBoost等樹模型自動對漏洞進(jìn)行分類。Russo等人[9]提出了CVErizer,自動生成每日發(fā)布漏洞摘要并進(jìn)行分類,實驗利用了不同的機(jī)器學(xué)習(xí)方法,其中表現(xiàn)最好的是貝葉斯網(wǎng)絡(luò)。Terdchanakul等人[10]提出了一種基于n-gram IDF的漏洞報告分類方法,該方法利用n-gram IDF和主題建模的特征構(gòu)建邏輯回歸和隨機(jī)森林的分類模型。文獻(xiàn)[11]使用三種特征,應(yīng)用監(jiān)督和非監(jiān)督方法將軟件漏洞報告自動分類為安全和非安全相關(guān)。

    隨著漏洞描述的復(fù)雜性和對應(yīng)的弱點數(shù)量的增加,傳統(tǒng)的機(jī)器學(xué)習(xí)方法已經(jīng)難以滿足需求。近年來,深度學(xué)習(xí)迅速發(fā)展,深度學(xué)習(xí)在文本分類中具有自動特征提取、學(xué)習(xí)長期依賴關(guān)系的能力和強(qiáng)語義表示等優(yōu)點。因此,大量研究提出了基于深度學(xué)習(xí)的漏洞分類方法。Aghaei等人[12]利用TF-IDF對文本進(jìn)行向量化,并使用單層神經(jīng)網(wǎng)絡(luò)進(jìn)行多標(biāo)簽分層分類,將漏洞分類為弱點類別。Huang 等人[13]將詞向量模型與神經(jīng)網(wǎng)絡(luò)相結(jié)合,證明了神經(jīng)網(wǎng)絡(luò)在 NVD 數(shù)據(jù)集上的分類性能優(yōu)于傳統(tǒng)機(jī)器學(xué)習(xí)分類器。Nakagawa 等人[14]使用特征級別 CNN 預(yù)測漏洞的嚴(yán)重程度。Sharma等人[15]使用單詞嵌入和CNN來評估軟件漏洞的嚴(yán)重性,數(shù)據(jù)集包括Linux、微軟、谷歌和混合供應(yīng)商的漏洞。Das等人[16]基于Transformer的V2W-BERT,將CVE和CWE嵌入到同一空間,通過鏈接預(yù)測相互映射,對于頻繁出現(xiàn)的CVE得到了不錯的分類效果。Vishnu等人[17]提出使用自注意力深度神經(jīng)網(wǎng)絡(luò)對CVE漏洞進(jìn)行分類,并使用潛在狄利克雷分配 (LDA) 方法進(jìn)行主題建模,以發(fā)現(xiàn)數(shù)據(jù)集中各種 CVE 類別的主題趨勢,實驗結(jié)果顯示該方法優(yōu)于其他深度學(xué)習(xí)方法。Wang等人[18]提出基于加權(quán)詞向量和融合神經(jīng)網(wǎng)絡(luò)的自動漏洞分類算法。通過改進(jìn)TF-IDF算法并與word2vec模型相結(jié)合,生成加權(quán)單詞嵌入向量,并構(gòu)建TCNN-BiGRU模型,以進(jìn)一步自動提取漏洞描述的特征并實現(xiàn)漏洞分類。Dong等人[19]提出DeKeDVer,利用TextRCNN和代碼屬性圖對漏洞描述文本和源代碼進(jìn)行漏洞分類。

    2 基于雙注意力機(jī)制和改進(jìn)對抗訓(xùn)練的分類方法

    為了解決當(dāng)前漏洞分類面臨的挑戰(zhàn),本文提出了一種基于雙注意力機(jī)制和對抗訓(xùn)練的漏洞分類方法,如圖2所示。首先,本文從NVD中收集了漏洞文本數(shù)據(jù),包括漏洞描述、對應(yīng)的CVE ID和CWE ID,并進(jìn)行文本預(yù)處理清洗文本,通過word2vec模型得到詞嵌入。然后,過濾的文本信息被送入本文TextCNN-DA模型來進(jìn)行漏洞分類任務(wù),輸出預(yù)測的CWE ID。最后,為了增強(qiáng)模型的魯棒性和泛化性,本文利用提出的SWV-FGM算法使用對抗訓(xùn)練進(jìn)一步提升模型效果,使生成的對抗樣本更符合文本數(shù)據(jù)的特點。

    2.1 漏洞文本預(yù)處理

    在這個階段,本文對漏洞描述文本數(shù)據(jù)進(jìn)行預(yù)處理,以使文本數(shù)據(jù)足夠干凈。本文的預(yù)處理工作具體步驟如下:

    a)大小寫轉(zhuǎn)換。將所有大寫轉(zhuǎn)換為小寫,消除大小寫產(chǎn)生的差異。

    b)去除特殊符號。刪除文本中的特殊符號、標(biāo)點符號和HTML標(biāo)簽等。本文會將像“7.3.5”這種表示版本信息的文本形式保留。

    c)刪除停用詞。刪除文本中通常被忽略的單詞,因為這些單詞通常不會改變文本的意義,例如:“the”“and”和“in”等。

    d)處理縮寫詞。本文會將縮寫詞后面的縮寫刪除,例如:“it’s”變?yōu)椤癷t”,這是因為大多數(shù)的縮寫都屬于停用詞。

    e)詞干化。本文將單詞后綴去除,保留核心部分。例如,將詞匯“jumps”和“jumping”轉(zhuǎn)換為“jump”。

    f)詞性還原。將一些單詞還原成基本形式,即詞元。例如,“best”“better”還原成“good”。

    本文經(jīng)過文本數(shù)據(jù)預(yù)處理后的漏洞數(shù)據(jù)如表1所示。

    2.2 TextCNN-DA 模型

    為解決傳統(tǒng)漏洞分類模型缺乏關(guān)注文本重要特征的能力導(dǎo)致分類效果不佳的問題,本文提出了基于雙注意力機(jī)制的TextCNN-DA模型。由于漏洞數(shù)據(jù)集是一種領(lǐng)域特定的短文本數(shù)據(jù),往往根據(jù)文本中的幾個關(guān)鍵詞就可以確定漏洞所屬類別,而TextCNN是一種將卷積網(wǎng)絡(luò)應(yīng)用到文本領(lǐng)域的典型代表,具有很強(qiáng)的局部特征捕捉能力,非常適合領(lǐng)域性短文本數(shù)據(jù)集,因此本文選擇TextCNN模型作為基本模型。傳統(tǒng)TextCNN模型的缺陷在于會將每個通道的特征和單個通道上的特征都視為同等重要的特征信息,導(dǎo)致模型不能關(guān)注到重要特征?;诖藛栴},本文將空間注意力機(jī)制和時間注意力機(jī)制引入到了TextCNN模型中,改進(jìn)后的TextCNN-DA模型不僅可以在空間域中更加重視關(guān)鍵詞的特征,而且在通道域上更加關(guān)注重要的通道特征。

    2.2.1 空間注意力機(jī)制

    空間注意力機(jī)制主要在空間維度進(jìn)行注意力計算。不是圖像中的所有區(qū)域?qū)θ蝿?wù)的貢獻(xiàn)都是同樣重要的,只有任務(wù)相關(guān)的區(qū)域才是需要關(guān)心的,空間注意力模型就是尋找網(wǎng)絡(luò)中最重要的部位進(jìn)行處理。將其應(yīng)用到文本分類任務(wù)中,相當(dāng)于從整個文本中選擇重要的詞匯??臻g注意力機(jī)制原理如圖3所示,其中展示了空間注意力機(jī)制根據(jù)特征信息生成空間注意力權(quán)重矩陣的過程。

    在圖3中,輸入的文本矩陣形狀為(c, h, 1),其中通道數(shù)為 c,文本長度為 h,詞向量維度為 1,將矩陣在通道維度分別進(jìn)行最大池化和平均池化, 得到兩個(1, h, 1)的矩陣,以此獲取到關(guān)鍵特征和特征變化趨勢,然后在通道維度上進(jìn)行矩陣連接,保留兩種特征信息,形成(2, h, 1)的矩陣A。為了保證卷積后矩陣維度保持不變,將矩陣A進(jìn)行填充得到矩陣B,隨后進(jìn)行卷積得到矩陣C。最后經(jīng)過一個sigmoid層得到最終的空間注意力權(quán)重矩陣。

    在本文的TextCNN-DA模型中,空間注意力機(jī)制扮演了決定一句話中每個詞語重要性的角色。模型利用它來識別并強(qiáng)調(diào)輸入文本的那些對分類任務(wù)貢獻(xiàn)最大的部分。具體地,輸入的文本矩陣形狀為(c, h, 1),其中通道數(shù)為 c,文本長度為 h,詞向量維度為 1,輸出為形狀為 (1,h,1) 的空間注意力權(quán)重矩陣,該矩陣會與輸入矩陣相乘,附加權(quán)值到輸入文本矩陣中,從而突出那些對分類貢獻(xiàn)程度最高的部分。例如,在處理一個包含“sql”和“injection”的文本矩陣時,空間注意力機(jī)制允許模型重點關(guān)注這些關(guān)鍵詞的表示。這個過程如圖4所示,其中包含了從識別關(guān)鍵特征到生成空間注意力權(quán)重,再到如何賦予這些權(quán)重來突出重點區(qū)域的詳細(xì)步驟。具體流程如下:

    a)形為(6, 5)的文本矩陣代表的是文本“sql injection is a common vulnerability”的文本特征圖,文本中的“sql” 和“injection”是具有區(qū)分文本類別能力的關(guān)鍵詞,其中“sql” 的詞向量為[0.1, 0, 0, 0, 0],“injection”的詞向量為[0.2, 0, 0, 0, 0],相較于其他非關(guān)鍵詞,關(guān)鍵詞的重要性沒有在初始的文本矩陣中得到體現(xiàn)。

    b)初始的文本矩陣經(jīng)過卷積之后,生成了(4, 1)的文本矩陣A,在矩陣A中可以看到1號特征同時包含了“sql”和“injection”兩個關(guān)鍵詞,2號特征包含了“injection”關(guān)鍵詞,但兩個特征的權(quán)值都低于其他非關(guān)鍵詞組成的特征。

    c)空間注意力矩陣B擁有和矩陣A相同的形狀,為了讓模型可以關(guān)注到重要的詞匯,矩陣B為1號和2號特征賦予更高的權(quán)值。

    d)將矩陣A和B逐元素相乘之后,得到了具有空間注意力的矩陣C,此時的1號和2號位的特征值高于其他非關(guān)鍵詞組成的特征,使得模型在后續(xù)的分類任務(wù)中,可以關(guān)注到重要詞匯的信息。

    2.2.2 通道注意力機(jī)制

    基于通道的注意力機(jī)制通過建模各個特征通道的重要程度,然后針對不同的任務(wù)增強(qiáng)或者抑制不同的通道。通道注意力機(jī)制原理如圖5所示,其中展示了通道注意力根據(jù)特征信息生成通道注意力權(quán)重矩陣的過程。

    輸入形狀為(c, h, 1)的特征矩陣。將矩陣在空間維度上分別進(jìn)行最大池化和平均池化操作, 得到兩個(c, 1, 1)的矩陣,以此獲取到關(guān)鍵特征和特征變化趨勢,并進(jìn)行矩陣變換形成兩個(1, c)的矩陣,然后進(jìn)行矩陣相加保留兩種特征信息,得到矩陣A。為了讓卷積后的矩陣可以保持維度不變,在矩陣A的基礎(chǔ)上進(jìn)行填充得到矩陣B。將矩陣B送入到卷積層進(jìn)行卷積得到矩陣C,通過 sigmoid 層后得到矩陣D,最后將矩陣D進(jìn)行矩陣變換,得到最終的通道注意力權(quán)重矩陣。

    通道注意力機(jī)制能衡量各個特征通道的重要程度,本文使用通道注意力機(jī)制讓模型關(guān)注具有良好區(qū)分漏洞類別能力的通道特征。輸入的文本矩陣形狀為(c, h, 1),其中通道數(shù)為 c,文本長度為 h,詞向量維度為 1,輸出為形狀為 (c,1,1) 的通道注意力權(quán)重矩陣,該矩陣用于附加權(quán)值到文本矩陣中。

    例如,在處理一個包含“sql”和“injection”的文本矩陣時,通道注意力機(jī)制允許模型重點關(guān)注關(guān)鍵特征通道的表示。具體過程如圖6所示, 為了方便表示,圖中對向量的數(shù)值進(jìn)行了簡化。

    具體流程如下:

    a)形為(6, 5)的文本矩陣代表的文本是“sql injection is a common vulnerability”的文本特征圖。文本中的“sql”和“injection”是具有良好區(qū)分文本類別能力的關(guān)鍵詞,其中“sql”的詞向量為[0.4, 0, 0, 0, 0],“injection”的詞向量為[0.3, 0, 0, 0, 0]。

    b)初始的文本矩陣送入到3個不同的卷積核后,生成具有三個通道數(shù)的文本矩陣D,三個通道的特征圖分別用A、B、C表示,三個特征圖的1號特征包含了“sql”和“injection”兩個關(guān)鍵詞的信息,2號特征包含了“injection”關(guān)鍵詞的信息。

    c)通過分析發(fā)現(xiàn),通道B的1號和2號特征值在整個矩陣中占比最高,分別為0.333和0.256,通道A的1號特征值占比為0.321,高于通道C中的占比。因此認(rèn)為通道B具有最好的文本類別區(qū)分能力,其次為通道A。

    d)根據(jù)每個通道的重要性,通道注意力權(quán)重矩陣為每個通道附加不同的權(quán)值,最終得到經(jīng)過加權(quán)的文本矩陣D′,其中通道B′的權(quán)值最高,通道A′的權(quán)值其次,通道C′的權(quán)值最小。使得模型可以更加重視通道B′的信息。

    為了根據(jù)文本矩陣的通道數(shù)來確定通道注意力模塊中一維卷積層的卷積核大小,本文采用ECA注意力機(jī)制中的自適應(yīng)函數(shù)來計算每次卷積大小,該函數(shù)如式(1)所示。

    k=|log2cγ+bγ|(1)

    其中:γ為2;b為1;當(dāng)k不為奇數(shù)時,k的值加1。

    2.2.3 雙注意力機(jī)制

    最終融合了空間注意力機(jī)制 (SA)和通道注意力機(jī)制 (CA) 的 TextCNN-DA 模型如圖7所示。假設(shè)輸入文本矩陣形狀為(7×3),處理流程如下:

    a)將形為(1, 7, 3)的單通道文本矩陣送入到TextCNN-DA網(wǎng)絡(luò)中。

    b)文本矩陣經(jīng)過不同的卷積層進(jìn)行卷積,生成形為(2, 5, 1)和(2, 4, 1)的矩陣。

    c)將不同卷積層生成的矩陣送入到不同的空間注意力模塊中,這一步相當(dāng)于選擇具有關(guān)鍵詞信息的特征。

    d)將空間注意力模塊輸出的形為(2, 5, 1)和(2, 4, 1)的矩陣,送入到共享的通道注意力模塊中,這一步相當(dāng)于確定什么樣的特征組合更能區(qū)分文本類別。

    e)最后將通道注意力模塊輸出的形為(2, 5, 1)和(2, 4, 1)的矩陣,經(jīng)過池化層和向量連接之后,組合成新的向量,送入后續(xù)的全連接層。

    2.3 SWV-FGM算法

    為解決傳統(tǒng)漏洞分類方法容易過擬合和泛化性不好的問題,進(jìn)一步提升模型效果,本文提出了改進(jìn)對抗樣本生成算法SWV-FGM。

    對抗樣本生成算法就是利用對抗訓(xùn)練來緩解模型的過擬合和泛化性問題。對抗訓(xùn)練的核心在于將經(jīng)過精心構(gòu)造的對抗樣本納入訓(xùn)練集中,從而迫使模型學(xué)習(xí)到更為一般化和健壯的數(shù)據(jù)特征表示。文獻(xiàn)[20]對此提供了直觀的闡述,如圖8所示。圖8(a)展示的是模型學(xué)習(xí)到的基于原始訓(xùn)練數(shù)據(jù)的決策邊界。可以觀察到,部分?jǐn)?shù)據(jù)點緊鄰這一邊界,這導(dǎo)致模型在遇到新的或邊緣樣本時更易出錯。這些接近邊界的數(shù)據(jù)表示模型對于所學(xué)習(xí)的知識過于自信,產(chǎn)生過擬合現(xiàn)象,沒有足夠的邊緣區(qū)域來應(yīng)對新樣本的波動。圖8(b)進(jìn)一步描繪了每個數(shù)據(jù)點的變化區(qū)域,用方框來表示。當(dāng)數(shù)據(jù)在這些方框內(nèi)發(fā)生微小變動時,如果模型的泛化能力不足,可能導(dǎo)致錯誤的預(yù)測。圖中的星號示例顯示了模型的原始決策邊界錯誤地將本應(yīng)屬于綠色類別的數(shù)據(jù)劃分為黃色類別(詳見電子版)。最終,圖8(c)展示了采用對抗訓(xùn)練后的效果。在訓(xùn)練過程中加入這些方框內(nèi)的對抗樣本,迫使模型去重新調(diào)整和優(yōu)化其決策邊界。通過這種方式,模型不僅學(xué)習(xí)了原始數(shù)據(jù)的模式,也涵蓋了潛在的數(shù)據(jù)變化,從而具備更好的泛化能力,最終能夠更準(zhǔn)確地區(qū)分不同的數(shù)據(jù)類別。

    一個經(jīng)典的對抗樣本生成算法是FGM(fast gradient method),其原理是在模型訓(xùn)練過程中,通過計算輸入樣本的梯度信息,然后在梯度方向上對輸入樣本進(jìn)行微小的擾動。公式如下:

    其中:x 表示原始的樣本數(shù)據(jù);xadv表示添加擾動后樣本;ε 是人為設(shè)置的一個值來保證產(chǎn)生的擾動在一個很小范圍內(nèi); xJ(θ,x,y) 表示J(θ,x,y)損失值對x求偏導(dǎo)。計算擾動時使用L2范數(shù)對全局梯度數(shù)值進(jìn)行了歸一化,這樣既保留了原始梯度的特征,也控制了擾動的大小。

    為了解決模型在處理漏洞分類任務(wù)時可能出現(xiàn)的過擬合問題及泛化能力有限的挑戰(zhàn),本文SWV-FGM通過專門設(shè)計的對抗樣本生成流程增強(qiáng)模型的魯棒性。與傳統(tǒng)的FGM相比,SWV-FGM考慮到單個詞向量的梯度信息,對每個詞產(chǎn)生針對性的擾動,而不是使用全局標(biāo)量。這種針對單個詞向量的梯度信息處理允許模型在學(xué)習(xí)過程中考慮到詞匯層面的變化,可以更有效地捕獲文本數(shù)據(jù)的細(xì)微差異,從而降低過擬合風(fēng)險且提升模型在未知數(shù)據(jù)上的泛化能力。本文SWV-FGM如式(3) 所示,與式(2)相比,后半部分不是對全局梯度歸一化,而是對單個詞向量梯度歸一化,θ 是可調(diào)參數(shù),作用是防止某個詞向量梯度為0,可以根據(jù)不同數(shù)據(jù)集進(jìn)行調(diào)整。該算法的框架如圖9所示,完整對抗訓(xùn)練流程如算法1所示,具體解釋如下:

    a)圖中第1步是第一次前向傳播過程和反向傳播過程。得到模型輸出的embedding層A并計算損失獲取梯度矩陣B,對應(yīng)算法2~6行;

    b)圖中第2步是對embedding層A進(jìn)行備份,得到備份矩陣A′,對應(yīng)于算法8行。備份矩陣A′用于后續(xù)梯度更新前,將embedding層A中的參數(shù)恢復(fù)成原始狀態(tài),再進(jìn)行梯度更新;

    c)圖中第3步是梯度矩陣B以每一行向量為單位進(jìn)行L2范數(shù)運(yùn)算,得到范數(shù)梯度C,對應(yīng)于算法9行;

    d)圖中第4步是范數(shù)梯度C與一個可調(diào)參數(shù) θ 相加,得到范數(shù)梯度D,對應(yīng)于算法10行;

    e)圖中第5步是梯度矩陣B和范數(shù)梯度D每一行分別進(jìn)行向量相除,得到歸一化的擾動矩陣E,對應(yīng)于算法11行;

    f)圖中第6步是擾動矩陣E和原始的embedding層矩陣A相加,得到添加了擾動的embedding層,對應(yīng)于算法12行;

    g)繼續(xù)后面的第二次前向傳播和反向傳播,對應(yīng)于算法13~15行。

    h)然后先將模型參數(shù)恢復(fù)到添加對抗樣本之前,再在原始參數(shù)上更新梯度信息,對應(yīng)于算法17、18行。

    算法1 SWV-FGM對抗訓(xùn)練流程

    輸入:訓(xùn)練數(shù)據(jù)train_data;總輪數(shù)epoch;當(dāng)前輪數(shù)time;模型model;可調(diào)參數(shù)θ。

    輸出:模型model。

    1 while time lt; epoch do:

    2 for trains, labels in train_data:

    3 model.zero_grad() // 梯度清零

    4 outputs← model(trains)

    5 loss← 損失計算(outputs, labels)

    6 loss.backward() //反向傳播

    7 /* 對抗樣本生成模塊 */

    8 backup← model.param.clone() //備份原始參數(shù)

    9 c← L2(model.grad, dim=1) //L2范數(shù)計算

    10 c← c + θ

    11 radv ← model.grad / c

    //生成擾動

    12 model.param ← model.param + radv

    13 outputs← model(trains)

    14 loss_adv ← 損失計算(outputs, labels)

    15 loss_adv.backward()

    16 /* 對抗樣本恢復(fù)模塊 */

    17 model.param ← backup //恢復(fù)參數(shù)

    18 梯度更新(model, loss_adv)

    19

    time← time + 1

    20 end while

    21 return model

    3 實驗與分析

    3.1 數(shù)據(jù)集

    本文在 NVD 網(wǎng)站收集了 70 819 條漏洞數(shù)據(jù),每條漏洞數(shù)據(jù)集的組成包括漏洞文本描述、CVE 編號和 CWE 編號。其中漏洞文本描述介紹了該漏洞的相關(guān)信息,例如漏洞類型、軟件版本、系統(tǒng)版本和利用方式等。CWE 編號表示漏洞所屬類型,CVE 編號用于唯一表示某個漏洞。

    本文以 CWE 編號作為標(biāo)簽信息,以漏洞文本描述作為文本訓(xùn)練數(shù)據(jù)來構(gòu)建漏洞環(huán)境分類器。本文收集的漏洞數(shù)據(jù)一共包含 17 種漏洞類型,具體信息如表2所示。

    每種漏洞類型的數(shù)量分布如圖10所示。本文以7∶1.5∶1.5的比例分為訓(xùn)練集、驗證集和測試集,具體信息如表3所示。

    3.2 實驗設(shè)置

    3.2.1 評價標(biāo)準(zhǔn)

    因為本實驗是多類別的分類任務(wù),所以本文采用accuracy、macro-precision、macro-recall和macro-F1指標(biāo)來評估模型表現(xiàn)。

    3.2.2 實施細(xì)節(jié)

    在本實驗中,使用word2vec生成詞向量,word2vec模型訓(xùn)練的類型為skip-gram,上下文窗口大小為3,最小詞匯數(shù)為1。負(fù)采樣數(shù)設(shè)置為30,高頻詞下采樣閾值設(shè)置為1E-3,隨機(jī)種子為1,輸出詞嵌入的維度為100。

    對于模型訓(xùn)練過程的參數(shù),本文設(shè)置dropout為0.6,epoch為60,batch size為128,學(xué)習(xí)率為1E-3,早停為1 000,卷積核為256。對于式(3)中的可變參數(shù)θ,不同模型設(shè)置不一樣,具體細(xì)節(jié)會在結(jié)果分析部分進(jìn)行參數(shù)分析。所有模型訓(xùn)練環(huán)境為Intel Xeon Silver 4214R CPU和NVIDIA GeForce RTX 3080 Ti GPU,Python和PyTorch的版本分別為3.10.9和2.0.1。

    3.3 基線方法

    本文使用TextCNN、DPCNN和TextRNN為基礎(chǔ)模型進(jìn)行實驗對比。同時,為了表現(xiàn)出本文引入的空間注意力模塊和通道注意力模塊對實驗結(jié)果的影響,實驗針對 TextCNN-DA 模型進(jìn)行了消融實驗的對比,在下文的實驗結(jié)果展示中:TextCNN-DA(c)表示只加入了通道注意力機(jī)制;TextCNN-DA(s)表示只加入了空間注意力機(jī)制;TextCNN-DA(cs)表示先進(jìn)行通道注意力計算,再進(jìn)行空間注意力計算;TextCNN-DA(sc)表示先進(jìn)行空間注意力計算,再進(jìn)行通道注意力計算。為了避免隨機(jī)性產(chǎn)生的影響,實驗選取了 1~5的數(shù)字作為隨機(jī)種子,對比實驗結(jié)果以 5 次實驗取平均為準(zhǔn)。

    3.4 實驗結(jié)果與分析

    為證實本文TextCNN-DA(sc)+SWV-FGM方法的有效性,在漏洞文本數(shù)據(jù)集上對多種模型進(jìn)行了比較實驗,每種模型都用了原始、添加FGM對抗樣本算法和SWV-FGM對抗樣本算法三種方法進(jìn)行實驗評估,實驗結(jié)果以5次實驗取平均為準(zhǔn)。得到的實驗結(jié)果如表4所示。

    從表4可以看出,本文TextCNN-DA+SWV-FGM方法在所有指標(biāo)上都優(yōu)于其他三個baseline model。與TextCNN相比,本文TextCNN-DA(sc)+SWV-FGM方法在accuracy、macro-precision、macro-recall、macro-F1指標(biāo)分別提升了1.5百分點、1.54百分點、1.84百分點、1.74百分點。所有模型在添加了對抗樣本算法后表現(xiàn)都有了明顯的提升,并且與添加FGM算法相比,添加SWV-FGM方法提升都更加明顯,提升從0.6百分點到3.19百分點不等。從實驗結(jié)果可以看出,在本文的漏洞數(shù)據(jù)集上,TextCNN-DA+SWV-FGM方法具有優(yōu)勢,證明了該方法能夠關(guān)注到重要特征,并增強(qiáng)模型的泛化性。除此之外,本文對結(jié)果差距進(jìn)行了可視化展示,展示了每個模型在漏洞數(shù)據(jù)集上相對于TextCNN-DA+SWV-FGM方法的指標(biāo)對比,如圖11所示,可以明顯看出其他方法和本文方法的差距。

    為了決定最終的漏洞分類模型,本文從5次實驗中選擇效果最優(yōu)的模型來作為最終的漏洞分類器。每個模型在SWV-FGM算法基礎(chǔ)上的最優(yōu)結(jié)果如表5所示。從實驗結(jié)果可以看出,TextCNN-DA(sc)模型綜合表現(xiàn)更好。

    為了評估每種具體漏洞類型的分類效果,得到了該數(shù)據(jù)集的混淆矩陣,如圖12所示。從實驗結(jié)果可以看出,CWE-79和CWE-89漏洞種類的分類效果是最好的,CWE-79在2 484條測試數(shù)據(jù)中只有45條誤報和40條漏報,CWE-89在841條測試數(shù)據(jù)中只有8條誤報和4條漏報。這可能是因為XSS漏洞(CWE-79)和SQL注入漏洞(CWE-89)的特征比較明顯且常見,與其他漏洞的區(qū)別較大。然而,CWE-787、CWE-119、CWE-20、CWE-125和CWE-120的分類表現(xiàn)相比之下就不是很理想。為了判斷造成這種現(xiàn)象的原因,本文深入分析了CWE-119(緩存區(qū)錯誤)的混淆矩陣。在CWE-119的874個測試數(shù)據(jù)中,CWE-787(越界寫入)是最常被分類錯誤的漏洞類型,有58個。其次是CWE-20(不正確的輸入驗證)的43個,之后是CWE-120(經(jīng)典緩存區(qū)溢出)和CWE-125(越界讀?。?。可以發(fā)現(xiàn)這幾個漏洞類型之間的相關(guān)性比較強(qiáng)。實際上,CWE-119是一個寬泛的類別,包含多種內(nèi)存相關(guān)的安全漏洞,而CWE-120、CWE-125和CWE-787都是CWE-119漏洞下的細(xì)分項,也就是說緩存區(qū)錯誤會包括緩沖區(qū)溢出、越界讀取和越界寫入的錯誤。與此同時,CWE-20(不正確的輸入驗證)漏洞的主要特點是由于軟件沒有正確驗證輸入數(shù)據(jù)的有效性,從而可能被攻擊者利用觸發(fā)緩沖區(qū)溢出、執(zhí)行代碼等多種攻擊。也就是說CWE-20漏洞可能會引發(fā)CWE-119漏洞,具體來說,如果一個惡意輸入由于沒有被正確驗證和清洗,最終觸發(fā)了緩沖區(qū)溢出,那么這個漏洞很可能會被分類為CWE-119,雖然其根源是輸入驗證問題,即CWE-20。綜上所述,漏洞CWE-119和CWE-20、CWE-120、CWE-125、CWE-787之間的界限很模糊,并且漏洞描述文本在某種程度上是相似的,所以它們更有可能被錯誤地分類,導(dǎo)致最后結(jié)果不佳。除此之外,還有一些CWE-20的漏洞與CWE-200和CWE-287的漏洞相互被錯分,這可能是由于不正確的輸入驗證(CWE-20)、信息泄漏(CWE-200)和身份驗證問題(CWE-287)使幾種漏洞的定義有所重疊,從而導(dǎo)致了漏洞描述文本的相似性,致使分類錯誤。

    3.5 比較實驗

    由于所選擇的漏洞類型及其數(shù)據(jù)的數(shù)量在不同的研究中存在顯著差異,所以無法直接將本文模型的性能與其他研究的性能進(jìn)行比較。據(jù)此,本文選擇了與其他研究人員研究的漏洞類型有重疊的幾個最常見的漏洞類型,并在這些漏洞類型上將本文模型性能與文獻(xiàn)[18]進(jìn)行了比較,這幾個漏洞的分類性能呈現(xiàn)在表6中。

    實驗結(jié)果表明,與文獻(xiàn)[18]相比,盡管本文選取的測試數(shù)據(jù)數(shù)量要更多,本文提出的分類模型依然能保持一個相似的分類表現(xiàn)。在CWE-78、CWE-79、CWE-89、CWE-125上,本文方法macro-F1值稍低,但在CWE-190、CWE-352、CWE-787上,本文方法都要比文獻(xiàn)[18]的方法好,特別是對于CWE-787漏洞,本文方法的查準(zhǔn)率為88.67%,高于文獻(xiàn)[18]的70.70%,且最終的F1值也有7.94百分點的提升。

    3.6 消融實驗

    對本文方法進(jìn)行了消融實驗,結(jié)果如表4、5和圖11所示。為了驗證SWV-FGM的有效性,本文對每個模型都進(jìn)行了原始和添加FGM對抗樣本算法的實驗對比。為了驗證TextCNN-DA(sc)的有效性,本文使用不同設(shè)置的模型進(jìn)行對比,TextCNN-DA(c)表示只加入了通道注意力機(jī)制,TextCNN-DA(s)表示只加入了空間注意力機(jī)制,TextCNN-DA(cs)表示先進(jìn)行通道注意力計算,再進(jìn)行空間注意力計算,TextCNN-DA(sc)表示先進(jìn)行空間注意力計算,再進(jìn)行通道注意力計算。實驗結(jié)果顯示,SWV-FGM算法和TextCNN-DA模型都對結(jié)果提升有重要的作用,并且先進(jìn)行空間注意力計算,再進(jìn)行通道注意力計算的順序?qū)β┒捶诸愋Ч奶嵘詈谩?/p>

    3.7 參數(shù)分析

    本文對SWV-FGM中的可調(diào)參數(shù)θ提供了超參數(shù)分析。θ是一個較小的值,作用是避免范數(shù)梯度出現(xiàn)零的情況,該參數(shù)需要根據(jù)不同的數(shù)據(jù)集和模型進(jìn)行調(diào)整。因此本文針對不同模型進(jìn)行可調(diào)參數(shù)θ的確定,實驗以單次實驗結(jié)果為準(zhǔn),如圖13所示。θ的取值原則是:如果兩者之間的準(zhǔn)確率相差較大,則選擇準(zhǔn)確率高的參數(shù)值;如果兩者之間的準(zhǔn)確率相差較小,則優(yōu)先選擇參數(shù)在1E-5~1E-3的值,避免生成的擾動過大或過小。實驗結(jié)果顯示,除了 TextCNN-DA(sc)選取準(zhǔn)確率第二高(89.11%) 時對應(yīng)的參數(shù) 1E-5 外,其余都選擇準(zhǔn)確率最高時對應(yīng)的參數(shù)值。最后的參數(shù)選擇情況如表7所示。

    4 結(jié)束語

    本文研究了漏洞文本分類問題,主要針對兩個漏洞分類領(lǐng)域的挑戰(zhàn):缺乏對重要特征的關(guān)注能力和面對未知文本時泛化性不佳的問題。為了解決這些問題,本文首先引入空間注意力機(jī)制和通道注意力機(jī)制,將其與TextCNN結(jié)合,使得模型可以關(guān)注更具有類別區(qū)分能力的關(guān)鍵詞特征和通道特征;然后,本文提出了改進(jìn)的對抗樣本生成算法,根據(jù)梯度矩陣的每一行生成擾動數(shù)據(jù),使得每個詞向量會在不同的擾動范圍內(nèi)生成對抗樣本,更加符合文本數(shù)據(jù)的特點;最后通過對分類模型進(jìn)行對抗訓(xùn)練以提升模型的魯棒性和泛化性。本文在NVD漏洞數(shù)據(jù)集上對本文方法進(jìn)行了評估,證明了與其他分類模型相比,本文方法在多數(shù)情況下都表現(xiàn)出了優(yōu)異的效果。

    盡管本文方法能夠有效提升漏洞分類效果,但是將兩個注意力機(jī)制引入到模型中也大大增加了模型的參數(shù)數(shù)量,并且SWV-FGM對每一個詞向量都計算擾動,這些都導(dǎo)致提出的方法需要更多的計算資源和訓(xùn)練時間。未來研究將考慮解決這些問題。

    參考文獻(xiàn):

    [1]Neuhaus S, Zimmermann T. Security trend analysis with CVE topic models[C]// Proc of the 21st International Symposium on Software Reliability Engineering. Piscataway, NJ: IEEE Press, 2010: 111-120.

    [2]Wijayasekara D, Manic M, McQueen M. Vulnerability identification and classification via text mining bug databases[C]// Proc of the 40th Annual Conference of the IEEE Industrial Electronics Society. Piscataway, NJ: IEEE Press, 2014: 3612-3618.

    [3]Na S, Kim T, Kim H. A study on the classification of common vulnera-bilities and exposures using Na?ve Bayes[C]// Proc of the 11th International Conference on Broad-Band Wireless Computing, Communication and Applications. Cham: Springer, 2017: 657-662.

    [4]Davari M, Zulkernine M, Jaafar F. An automatic software vulnerability classification framework[C]// Proc of International Conference on Software Security and Assurance. Piscataway, NJ: IEEE Press, 2017: 44-49.

    [5]Yang Huiting, Guo Wenbin, ZouZhenwan, et al. Research on vulnerability classification method based on DMO-PSO-SVM algorithm[C]// Proc of the 3rd Advanced Information Technology, Electronic and Automation Control Conference. Piscataway, NJ: IEEE Press, 2018: 1180-1183.

    [6]Chen Jinfu, Kudjo P K, Mensah S, et al. An automatic software vulnerability classification framework using term frequency-inverse gravity moment and feature selection[J]. Journal of Systems and Software, 2020, 167: 110616.

    [7]Aota M, Kanehara H, Kubo M," et al." Automation of vulnerability classification from its description using machine learning [C]// Proc of IEEE Symposium on Computers and Communications. Piscataway, NJ: IEEE Press, 2020: 1-7.

    [8]Aivatoglou G, Anastasiadis M, Spanos G, et al. A tree-based machine learning methodology to automatically classify software vulnerabilities[C]// Proc of IEEE International Conference on Cyber Secu-rity and Resilience. Piscataway, NJ: IEEE Press, 2021: 312-317.

    [9]Russo E R, Di Sorbo A, Visaggio C A, et al. Summarizing vulnerabili-ties’descriptions to support experts during vulnerability assessment activities[J]. Journal of Systems and Software, 2019, 156: 84-99.

    [10]Terdchanakul P, Hata H, Phannachitta P, et al. Bug or not? Bug report classification using n-gram IDF[C]// Proc of IEEE International Conference on Software Maintenance and Evolution. Piscataway, NJ: IEEE Press, 2017: 534-538.

    [11]Goseva-Popstojanova K, Tyo J. Identification of security related bug reports via text mining using supervised and unsupervised classification[C]// Proc of IEEE International Conference on Software Quality, Reliability and Security. Piscataway, NJ: IEEE Press, 2018: 344-355.

    [12]Aghaei E, Al-Shaer E.ThreatZoom: neural network for automated vulnerability mitigation[C]// Proc of the 6th Annual Symposium on Hot Topics in the Science of Security. New York: ACM Press, 2019: 1-3.

    [13]Huang Guoyang, Li Yazhou, Wang Qian, et al. Automatic classification method for software vulnerability based on deep neural network[J]. IEEE Access, 2019, 7: 28291-28298.

    [14]Nakagawa S, Nagai T, Kanehara H, et al. Character-level convolutional neural network for predicting severity of software vulnerability from vulnerability description[J]. IEICE Trans on Information and Systems, 2019, 102(9): 1679-1682.

    [15]Sharma R, Sibal R, Sabharwal S. Software vulnerability prioritization using vulnerability description[J]. International Journal of System Assurance Engineering and Management, 2021, 12: 58-64.

    [16]Das S S, Serra E, Halappanavar M, et al. V2W-BERT: a framework for effective hierarchical multiclass classification of software vulnerabilities[C]// Proc of the 8th International Conference on Data Science and Advanced Analytics. Piscataway, NJ: IEEE Press, 2021: 1-12.

    [17]Vishnu P R, Vinod P, Yerima S Y. A deep learning approach for classifying vulnerability descriptions using self attention based neural network[J]. Journal of Network and Systems Management, 2022, 30(1): article No. 9.

    [18]Wang Qian, Gao Yuying, Ren Jiadong, et al. An automatic classification algorithm for software vulnerability based on weighted word vector and fusion neural network[J]. Computers amp; Security, 2023, 126: 103070.

    [19]Dong Yukun, Tang Yeer, Cheng Xiaotong, et al. DeKeDVer: a deep learning-based multi-type software vulnerability classification framework using vulnerability description and source code[J]. Information and Software Technology, 2023, 163: 107290.

    [20]Madry A,Makelov A, Schmidt L, et al. Towards deep learning models resistant to adversarial attacks[EB/OL]. (2019-09-04). https://arxiv.org/abs/1706.06083.

    猜你喜歡
    網(wǎng)絡(luò)安全
    網(wǎng)絡(luò)安全(上)
    網(wǎng)絡(luò)安全知多少?
    工會博覽(2023年27期)2023-10-24 11:51:28
    新量子通信線路保障網(wǎng)絡(luò)安全
    網(wǎng)絡(luò)安全
    網(wǎng)絡(luò)安全人才培養(yǎng)應(yīng)“實戰(zhàn)化”
    上網(wǎng)時如何注意網(wǎng)絡(luò)安全?
    網(wǎng)絡(luò)安全與執(zhí)法專業(yè)人才培養(yǎng)探索與思考
    設(shè)立網(wǎng)絡(luò)安全專項基金 促進(jìn)人才培養(yǎng)
    網(wǎng)絡(luò)安全監(jiān)測數(shù)據(jù)分析——2015年12月
    網(wǎng)絡(luò)安全監(jiān)測數(shù)據(jù)分析——2015年11月
    大型黄色视频在线免费观看| 51国产日韩欧美| АⅤ资源中文在线天堂| 欧美日本亚洲视频在线播放| 日本黄大片高清| av天堂中文字幕网| av福利片在线观看| 757午夜福利合集在线观看| 最新美女视频免费是黄的| 美女高潮的动态| tocl精华| 国模一区二区三区四区视频| 国产精品 国内视频| 嫩草影视91久久| 欧美成人性av电影在线观看| 丰满人妻一区二区三区视频av | 欧美在线黄色| 久久久久亚洲av毛片大全| 免费无遮挡裸体视频| 午夜视频国产福利| 天堂网av新在线| 法律面前人人平等表现在哪些方面| 亚洲精品456在线播放app | 精品国内亚洲2022精品成人| 国产麻豆成人av免费视频| 男女视频在线观看网站免费| 久久天躁狠狠躁夜夜2o2o| 夜夜爽天天搞| 久久久久久久精品吃奶| 极品教师在线免费播放| 综合色av麻豆| 丰满乱子伦码专区| 午夜免费观看网址| 久久99热这里只有精品18| 久久这里只有精品中国| 国产高清激情床上av| 精华霜和精华液先用哪个| 国产三级中文精品| 岛国在线观看网站| 亚洲欧美日韩高清在线视频| 国产又黄又爽又无遮挡在线| 老司机午夜十八禁免费视频| 欧美乱妇无乱码| 狠狠狠狠99中文字幕| 亚洲内射少妇av| 国产精品av视频在线免费观看| 欧美又色又爽又黄视频| 午夜两性在线视频| 欧美激情久久久久久爽电影| 人人妻人人看人人澡| 99久久精品一区二区三区| 一本精品99久久精品77| 99久久综合精品五月天人人| 久久久久九九精品影院| 国产黄a三级三级三级人| 欧美在线黄色| 精品人妻偷拍中文字幕| 亚洲av二区三区四区| 看片在线看免费视频| 亚洲国产中文字幕在线视频| 午夜精品久久久久久毛片777| 91在线精品国自产拍蜜月 | www国产在线视频色| 久久午夜亚洲精品久久| 观看美女的网站| 九色成人免费人妻av| 少妇丰满av| 久久精品人妻少妇| 99久久九九国产精品国产免费| 久久久久久久久中文| 精品一区二区三区av网在线观看| 亚洲av成人精品一区久久| 国内久久婷婷六月综合欲色啪| 精品日产1卡2卡| 亚洲国产精品久久男人天堂| 成人av在线播放网站| 成年人黄色毛片网站| 久久午夜亚洲精品久久| 女警被强在线播放| 国产视频内射| 成年免费大片在线观看| 在线免费观看不下载黄p国产 | 国产三级中文精品| 亚洲精品成人久久久久久| 久久久久亚洲av毛片大全| 老熟妇乱子伦视频在线观看| 可以在线观看毛片的网站| 日韩欧美国产在线观看| 成人精品一区二区免费| 日韩国内少妇激情av| 成人特级黄色片久久久久久久| 久久精品国产亚洲av涩爱 | 精品人妻偷拍中文字幕| 久久久久亚洲av毛片大全| 一区福利在线观看| 91麻豆精品激情在线观看国产| 日韩 欧美 亚洲 中文字幕| 99久久精品热视频| 女生性感内裤真人,穿戴方法视频| 男女床上黄色一级片免费看| 亚洲国产欧洲综合997久久,| 免费高清视频大片| 亚洲一区高清亚洲精品| 一级黄片播放器| 老鸭窝网址在线观看| а√天堂www在线а√下载| 岛国在线免费视频观看| www.www免费av| 欧美日韩福利视频一区二区| 亚洲最大成人手机在线| 午夜福利在线观看吧| 两个人视频免费观看高清| 亚洲av第一区精品v没综合| 国产精品自产拍在线观看55亚洲| 久久久久久大精品| 国产黄a三级三级三级人| 19禁男女啪啪无遮挡网站| 99国产综合亚洲精品| 午夜免费激情av| 丝袜美腿在线中文| 亚洲无线在线观看| 日本精品一区二区三区蜜桃| 欧美bdsm另类| 国产男靠女视频免费网站| 国产免费一级a男人的天堂| 亚洲精品一卡2卡三卡4卡5卡| 国产精品国产高清国产av| 欧美乱码精品一区二区三区| 怎么达到女性高潮| 国产综合懂色| 中文字幕人妻熟人妻熟丝袜美 | 成年女人看的毛片在线观看| 精品不卡国产一区二区三区| 婷婷亚洲欧美| 激情在线观看视频在线高清| 国产探花极品一区二区| 国产熟女xx| 日韩欧美在线乱码| 日日摸夜夜添夜夜添小说| 午夜精品一区二区三区免费看| 两个人看的免费小视频| 两个人看的免费小视频| 国产成+人综合+亚洲专区| 九九在线视频观看精品| 在线观看免费视频日本深夜| 成年女人看的毛片在线观看| 亚洲自拍偷在线| 午夜免费观看网址| 亚洲av电影在线进入| 欧美性感艳星| 俄罗斯特黄特色一大片| 中国美女看黄片| x7x7x7水蜜桃| 亚洲精品乱码久久久v下载方式 | 男人舔奶头视频| 最新中文字幕久久久久| 亚洲内射少妇av| 母亲3免费完整高清在线观看| 国产淫片久久久久久久久 | 97超视频在线观看视频| 丰满的人妻完整版| 亚洲熟妇中文字幕五十中出| 性色av乱码一区二区三区2| 亚洲av免费高清在线观看| 午夜福利成人在线免费观看| 看黄色毛片网站| 老司机深夜福利视频在线观看| 欧美日韩国产亚洲二区| 韩国av一区二区三区四区| 亚洲成av人片在线播放无| 欧美最新免费一区二区三区 | 看免费av毛片| 老司机在亚洲福利影院| 亚洲 欧美 日韩 在线 免费| 日本五十路高清| 男女做爰动态图高潮gif福利片| 十八禁网站免费在线| 九九热线精品视视频播放| 日本 欧美在线| 国产成人欧美在线观看| 啦啦啦韩国在线观看视频| 欧美激情久久久久久爽电影| 精品国产超薄肉色丝袜足j| 久久欧美精品欧美久久欧美| 午夜免费成人在线视频| 亚洲精品成人久久久久久| 亚洲18禁久久av| 女人十人毛片免费观看3o分钟| 欧美成人一区二区免费高清观看| 狠狠狠狠99中文字幕| 久久天躁狠狠躁夜夜2o2o| 男人和女人高潮做爰伦理| 国产精品美女特级片免费视频播放器| 日本撒尿小便嘘嘘汇集6| 蜜桃久久精品国产亚洲av| 中文在线观看免费www的网站| 久久久久久久久中文| 老司机在亚洲福利影院| 国产三级中文精品| 欧美在线黄色| 他把我摸到了高潮在线观看| 欧美性猛交╳xxx乱大交人| 日韩欧美免费精品| 欧美成人a在线观看| 国产亚洲精品久久久com| 国产成人aa在线观看| 欧美丝袜亚洲另类 | 国产免费一级a男人的天堂| 国产三级中文精品| 一级a爱片免费观看的视频| 午夜a级毛片| 欧美一区二区国产精品久久精品| 日本a在线网址| 麻豆国产av国片精品| 欧美日韩亚洲国产一区二区在线观看| 国产av麻豆久久久久久久| av天堂中文字幕网| 99国产极品粉嫩在线观看| 村上凉子中文字幕在线| 一进一出好大好爽视频| 有码 亚洲区| 性色avwww在线观看| 亚洲av电影不卡..在线观看| 搡老熟女国产l中国老女人| 日韩国内少妇激情av| 亚洲电影在线观看av| 日本 av在线| 国内毛片毛片毛片毛片毛片| 热99re8久久精品国产| 丰满人妻熟妇乱又伦精品不卡| 99久久99久久久精品蜜桃| 熟妇人妻久久中文字幕3abv| 亚洲人成网站在线播放欧美日韩| 2021天堂中文幕一二区在线观| 国产高清视频在线观看网站| av视频在线观看入口| x7x7x7水蜜桃| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 深夜精品福利| 偷拍熟女少妇极品色| 一级作爱视频免费观看| 制服人妻中文乱码| 日韩精品中文字幕看吧| 2021天堂中文幕一二区在线观| 精品国产美女av久久久久小说| 国产精品日韩av在线免费观看| 少妇裸体淫交视频免费看高清| www.www免费av| 首页视频小说图片口味搜索| 午夜视频国产福利| 婷婷精品国产亚洲av| 好男人电影高清在线观看| 九色成人免费人妻av| 欧美色视频一区免费| 午夜精品一区二区三区免费看| 亚洲人成网站在线播放欧美日韩| 色吧在线观看| 99国产精品一区二区蜜桃av| 在线看三级毛片| 色av中文字幕| 色综合婷婷激情| 全区人妻精品视频| 搡女人真爽免费视频火全软件 | 国产99白浆流出| 欧美在线黄色| 欧美一区二区国产精品久久精品| 夜夜爽天天搞| 国产亚洲欧美98| 免费人成在线观看视频色| 免费无遮挡裸体视频| 日韩欧美国产一区二区入口| 国产精品久久久久久精品电影| 51午夜福利影视在线观看| 日本黄色片子视频| 日韩大尺度精品在线看网址| 亚洲va日本ⅴa欧美va伊人久久| 国产极品精品免费视频能看的| 在线视频色国产色| 亚洲av免费在线观看| 天美传媒精品一区二区| 久久久色成人| 欧美中文日本在线观看视频| 国产色婷婷99| 三级男女做爰猛烈吃奶摸视频| 无遮挡黄片免费观看| 香蕉丝袜av| 97超级碰碰碰精品色视频在线观看| 亚洲在线自拍视频| 国产精品一区二区三区四区免费观看 | 日韩高清综合在线| 日本三级黄在线观看| 欧美高清成人免费视频www| 欧美三级亚洲精品| 国产蜜桃级精品一区二区三区| 母亲3免费完整高清在线观看| 精品久久久久久成人av| 欧美不卡视频在线免费观看| 亚洲乱码一区二区免费版| 黄片小视频在线播放| 日韩欧美免费精品| 99在线视频只有这里精品首页| 黄色丝袜av网址大全| 成人特级黄色片久久久久久久| 欧美黄色片欧美黄色片| 国产精品嫩草影院av在线观看 | 久久久精品大字幕| 韩国av一区二区三区四区| 亚洲国产欧美人成| 国产真实乱freesex| 国内精品久久久久精免费| 国产99白浆流出| 女生性感内裤真人,穿戴方法视频| 一进一出抽搐动态| 真人做人爱边吃奶动态| 999久久久精品免费观看国产| 国产精品av视频在线免费观看| 母亲3免费完整高清在线观看| 亚洲人成网站在线播| 熟妇人妻久久中文字幕3abv| 免费看a级黄色片| 国产精品女同一区二区软件 | 亚洲美女视频黄频| 青草久久国产| 久久国产精品人妻蜜桃| 老熟妇乱子伦视频在线观看| 亚洲精品一区av在线观看| 岛国视频午夜一区免费看| 嫁个100分男人电影在线观看| 国产在视频线在精品| 全区人妻精品视频| 色吧在线观看| 一个人观看的视频www高清免费观看| 免费在线观看成人毛片| 午夜视频国产福利| 国产爱豆传媒在线观看| 长腿黑丝高跟| 真人一进一出gif抽搐免费| 国产在线精品亚洲第一网站| 熟女电影av网| 在线免费观看的www视频| 日韩欧美精品免费久久 | 18禁黄网站禁片午夜丰满| 啦啦啦韩国在线观看视频| 久久精品91蜜桃| 日韩欧美一区二区三区在线观看| 亚洲av熟女| 色视频www国产| 9191精品国产免费久久| 午夜福利高清视频| 国产欧美日韩精品亚洲av| 美女cb高潮喷水在线观看| svipshipincom国产片| 婷婷亚洲欧美| 中文字幕人成人乱码亚洲影| 国产精品爽爽va在线观看网站| 在线观看日韩欧美| 欧美最黄视频在线播放免费| 亚洲一区二区三区色噜噜| 男人舔奶头视频| 村上凉子中文字幕在线| 国产一区二区在线av高清观看| 亚洲最大成人手机在线| 亚洲av中文字字幕乱码综合| 午夜福利在线在线| 欧美激情在线99| 婷婷丁香在线五月| 欧美乱色亚洲激情| 久久久久久人人人人人| 床上黄色一级片| 欧美色欧美亚洲另类二区| 国产色爽女视频免费观看| 亚洲成人免费电影在线观看| 亚洲激情在线av| 午夜福利视频1000在线观看| 观看免费一级毛片| 麻豆久久精品国产亚洲av| 综合色av麻豆| 久久草成人影院| 小说图片视频综合网站| 少妇的逼好多水| 熟女人妻精品中文字幕| 99久久精品一区二区三区| 91字幕亚洲| 国内毛片毛片毛片毛片毛片| 国产久久久一区二区三区| 麻豆成人av在线观看| 成人特级av手机在线观看| 老司机福利观看| 精品一区二区三区视频在线观看免费| 国产一区二区在线av高清观看| 可以在线观看的亚洲视频| 午夜视频国产福利| 3wmmmm亚洲av在线观看| 久久久国产成人免费| 99国产精品一区二区三区| 美女黄网站色视频| 亚洲成a人片在线一区二区| 内射极品少妇av片p| 国内揄拍国产精品人妻在线| 国产精品久久视频播放| 欧美国产日韩亚洲一区| 亚洲成人免费电影在线观看| 变态另类丝袜制服| 又爽又黄无遮挡网站| 亚洲电影在线观看av| 舔av片在线| 成人18禁在线播放| 国产免费一级a男人的天堂| 成人特级av手机在线观看| 日本黄色片子视频| 亚洲av二区三区四区| 亚洲,欧美精品.| av女优亚洲男人天堂| 亚洲中文日韩欧美视频| 欧美bdsm另类| 一进一出抽搐动态| 国产精品1区2区在线观看.| 久久久久久久午夜电影| 国产高清videossex| 国产高清视频在线播放一区| 国产精品精品国产色婷婷| 色尼玛亚洲综合影院| 好男人电影高清在线观看| 亚洲五月天丁香| 精品久久久久久久久久免费视频| 老熟妇仑乱视频hdxx| 日本免费a在线| 天堂网av新在线| 五月伊人婷婷丁香| 久久九九热精品免费| 欧美乱码精品一区二区三区| 国产私拍福利视频在线观看| 亚洲人与动物交配视频| 小说图片视频综合网站| 日本a在线网址| 一区二区三区国产精品乱码| 在线视频色国产色| 亚洲精品影视一区二区三区av| 99久久精品国产亚洲精品| 精品一区二区三区av网在线观看| 亚洲成人久久性| 国产黄色小视频在线观看| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 桃红色精品国产亚洲av| 免费人成在线观看视频色| 久久欧美精品欧美久久欧美| 岛国在线免费视频观看| 国产色爽女视频免费观看| 此物有八面人人有两片| 亚洲aⅴ乱码一区二区在线播放| 两个人看的免费小视频| 午夜福利在线在线| 母亲3免费完整高清在线观看| 国产成人av激情在线播放| 人人妻,人人澡人人爽秒播| 久久亚洲真实| 啦啦啦韩国在线观看视频| 免费看a级黄色片| 午夜福利在线观看吧| 亚洲中文日韩欧美视频| 婷婷六月久久综合丁香| 97超级碰碰碰精品色视频在线观看| 国产亚洲精品久久久久久毛片| 一二三四社区在线视频社区8| 美女 人体艺术 gogo| 内射极品少妇av片p| 久久久久久久久大av| bbb黄色大片| 婷婷亚洲欧美| 琪琪午夜伦伦电影理论片6080| 一卡2卡三卡四卡精品乱码亚洲| 亚洲 国产 在线| 嫩草影院精品99| 亚洲不卡免费看| 国产乱人视频| www.www免费av| 日韩国内少妇激情av| 亚洲精品粉嫩美女一区| 欧美国产日韩亚洲一区| 麻豆久久精品国产亚洲av| АⅤ资源中文在线天堂| 国产单亲对白刺激| 亚洲成人免费电影在线观看| 色综合站精品国产| 99热这里只有是精品50| 欧美av亚洲av综合av国产av| 男人的好看免费观看在线视频| 特级一级黄色大片| 亚洲国产欧美人成| 久久人妻av系列| 日本 av在线| 国产欧美日韩一区二区精品| 日韩欧美在线乱码| 免费av毛片视频| 婷婷丁香在线五月| 亚洲av成人不卡在线观看播放网| 最近最新免费中文字幕在线| 国产色婷婷99| 午夜a级毛片| 99热6这里只有精品| 色哟哟哟哟哟哟| 色精品久久人妻99蜜桃| 国内精品一区二区在线观看| 亚洲性夜色夜夜综合| 国产单亲对白刺激| 99热这里只有精品一区| 日本黄大片高清| 久久亚洲真实| 亚洲国产精品合色在线| 国内毛片毛片毛片毛片毛片| 色综合欧美亚洲国产小说| av福利片在线观看| 亚洲精品国产精品久久久不卡| 国产精品永久免费网站| 国产一区二区在线观看日韩 | 黑人欧美特级aaaaaa片| 国产蜜桃级精品一区二区三区| 国产精品美女特级片免费视频播放器| 成年版毛片免费区| 国产一区二区亚洲精品在线观看| 久久草成人影院| 精品电影一区二区在线| 一区二区三区免费毛片| 久久久久国产精品人妻aⅴ院| 99国产综合亚洲精品| 中文字幕av在线有码专区| 久久婷婷人人爽人人干人人爱| 中亚洲国语对白在线视频| 怎么达到女性高潮| 黄色女人牲交| 亚洲第一欧美日韩一区二区三区| 精品电影一区二区在线| 十八禁人妻一区二区| 老司机在亚洲福利影院| 制服丝袜大香蕉在线| 精品久久久久久久人妻蜜臀av| 99精品欧美一区二区三区四区| 日本三级黄在线观看| 一级a爱片免费观看的视频| 欧美日韩福利视频一区二区| 午夜日韩欧美国产| 97超视频在线观看视频| 国产精品久久电影中文字幕| 国产不卡一卡二| 美女cb高潮喷水在线观看| 小蜜桃在线观看免费完整版高清| 国产精品香港三级国产av潘金莲| 狂野欧美白嫩少妇大欣赏| 欧美日韩黄片免| 欧美xxxx黑人xx丫x性爽| 国产探花极品一区二区| or卡值多少钱| 制服人妻中文乱码| 草草在线视频免费看| 99久久综合精品五月天人人| 国产乱人视频| 欧美在线一区亚洲| 免费一级毛片在线播放高清视频| 亚洲美女视频黄频| 中出人妻视频一区二区| 亚洲成人中文字幕在线播放| 欧美3d第一页| 国产一区在线观看成人免费| 国产亚洲欧美98| 成人av一区二区三区在线看| 亚洲精华国产精华精| 成人精品一区二区免费| www.色视频.com| 亚洲精品456在线播放app | 久99久视频精品免费| 久久久久久九九精品二区国产| 在线观看免费午夜福利视频| 亚洲电影在线观看av| 午夜福利在线观看吧| 伊人久久精品亚洲午夜| 免费大片18禁| 熟妇人妻久久中文字幕3abv| 欧美性猛交黑人性爽| 国产av麻豆久久久久久久| 亚洲精品美女久久久久99蜜臀| 国产又黄又爽又无遮挡在线| 亚洲18禁久久av| 精品国内亚洲2022精品成人| 亚洲精品国产精品久久久不卡| 亚洲av中文字字幕乱码综合| 国产精品一区二区三区四区久久| 真实男女啪啪啪动态图| 国产免费av片在线观看野外av| 成人亚洲精品av一区二区| 美女免费视频网站| 日本撒尿小便嘘嘘汇集6| 国产乱人视频| 国产成人aa在线观看| 亚洲av成人不卡在线观看播放网| 欧美色欧美亚洲另类二区| 欧美av亚洲av综合av国产av| 欧美日韩亚洲国产一区二区在线观看| 久久精品夜夜夜夜夜久久蜜豆| www.熟女人妻精品国产| 亚洲激情在线av| 亚洲天堂国产精品一区在线| 丰满的人妻完整版| 真实男女啪啪啪动态图| 长腿黑丝高跟| 真人做人爱边吃奶动态| 亚洲狠狠婷婷综合久久图片| 国产伦一二天堂av在线观看| 男女之事视频高清在线观看| 国产精品乱码一区二三区的特点| 18禁美女被吸乳视频| 成人国产综合亚洲| 性色avwww在线观看| 三级国产精品欧美在线观看| 国产美女午夜福利| 午夜福利18|