李道全,王 雪,于 波,黃泰銘
青島理工大學(xué) 信息與控制工程學(xué)院,山東 青島266520
流量分類(lèi)在網(wǎng)絡(luò)流量工程中具有重要意義。通過(guò)將流量準(zhǔn)確分類(lèi),可以實(shí)現(xiàn)服務(wù)質(zhì)量保證(QoS),資源合理化使用,惡意軟件檢測(cè)以及入侵檢測(cè)等目的[1]。近年來(lái),對(duì)于流量分類(lèi)工作的研究在不斷的發(fā)展。最初的方法是基于端口的流量分類(lèi)方法,這種分類(lèi)方法雖然簡(jiǎn)單高效,但由于出現(xiàn)了很多應(yīng)用程序偽裝端口號(hào)或不使用標(biāo)準(zhǔn)注冊(cè)端口號(hào)的情況,使得這種分類(lèi)方法的準(zhǔn)確度在不斷下降[2]。文獻(xiàn)[3]中提出的使用深度包檢測(cè)機(jī)制(DPI)進(jìn)行流量分類(lèi)的研究方法解決了基于端口的分類(lèi)方法所帶來(lái)的問(wèn)題,然而這種基于數(shù)據(jù)包中載荷信息進(jìn)行流量分類(lèi)的方法只適用于未加密流量并且計(jì)算開(kāi)銷(xiāo)很高。因此,基于統(tǒng)計(jì)特征的新一代方法應(yīng)運(yùn)而生,這種分類(lèi)方法依賴于統(tǒng)計(jì)特征或時(shí)間序列特性,能夠處理加密和未加密的流量?;诮y(tǒng)計(jì)特征的分類(lèi)方法通常采用經(jīng)典的機(jī)器學(xué)習(xí)(ML)算法,如文獻(xiàn)[4]提出使用無(wú)監(jiān)督聚類(lèi)算法(K-means)進(jìn)行流量分類(lèi)并取得了90%的分類(lèi)準(zhǔn)確度,后來(lái)的文獻(xiàn)中相繼使用監(jiān)督式分類(lèi)算法(如KNN、C4.5、Naive-Bayes)與半監(jiān)督式分類(lèi)算法進(jìn)行流量分類(lèi)并取得了較高的分類(lèi)準(zhǔn)確度[5-9]。基于機(jī)器學(xué)習(xí)的流量分類(lèi)方法由于依賴特征的選取,從而限制了它們的可推廣性。近來(lái)關(guān)于使用機(jī)器學(xué)習(xí)算法進(jìn)行流量分類(lèi)的研究也主要以優(yōu)化特征的選擇為主[10]。
隨著人工智能及大數(shù)據(jù)時(shí)代的到來(lái),深度學(xué)習(xí)算法在圖像識(shí)別、自然語(yǔ)言處理以及情感分析等各大領(lǐng)域都取得了很好的應(yīng)用。這種學(xué)習(xí)算法通過(guò)訓(xùn)練過(guò)程自動(dòng)選取特征,可以用來(lái)解決使用機(jī)器學(xué)習(xí)算法進(jìn)行網(wǎng)絡(luò)流量分類(lèi)的特征選取問(wèn)題。文獻(xiàn)[11]使用多層感知機(jī)(MLP)進(jìn)行流量分類(lèi)與傳統(tǒng)機(jī)器學(xué)習(xí)算法的流量分類(lèi)效果作比較,但是由于文中各分類(lèi)器使用的分類(lèi)數(shù)據(jù)集并不相同,其最終結(jié)果無(wú)法比較深度學(xué)習(xí)算法與機(jī)器學(xué)習(xí)算法對(duì)于流量分類(lèi)的準(zhǔn)確度。文獻(xiàn)[12]首次提出一種端到端的流量分類(lèi)模式,使用傳統(tǒng)一維卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),將數(shù)據(jù)處理為特定的文件形式,通過(guò)卷積神經(jīng)網(wǎng)絡(luò)構(gòu)造特征空間,然后使用分類(lèi)器進(jìn)行分類(lèi)并取得了較好的分類(lèi)結(jié)果。本文在其研究基礎(chǔ)上重新設(shè)計(jì)了一維卷積神經(jīng)網(wǎng)絡(luò)模型,從神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)預(yù)處理方式、代價(jià)函數(shù)以及梯度優(yōu)化方面提高了一維卷積神經(jīng)網(wǎng)絡(luò)對(duì)于加密應(yīng)用程序的流量分類(lèi)效果。
基于客戶機(jī)下載的內(nèi)容多于他們上傳的內(nèi)容而設(shè)計(jì)的現(xiàn)有網(wǎng)絡(luò)接入鏈路結(jié)構(gòu)是不對(duì)稱的,然而對(duì)稱需求應(yīng)用程序(如對(duì)等(P2P)應(yīng)用程序、IP語(yǔ)音(VoIP)和視頻呼叫)的普遍性改變了客戶的需求,使其偏離了最初的設(shè)計(jì)。因此,為了給客戶提供滿意的體驗(yàn),需要其他應(yīng)用程序級(jí)別的知識(shí)來(lái)為這些應(yīng)用程序分配足夠的資源。對(duì)用戶隱私和數(shù)據(jù)加密的日益增長(zhǎng)的需求極大地提高了當(dāng)今互聯(lián)網(wǎng)的加密流量的數(shù)量[13]。加密過(guò)程將原始的流量數(shù)據(jù)轉(zhuǎn)換成一種偽隨機(jī)格式,使其難以解密。這種加密過(guò)程導(dǎo)致流量數(shù)據(jù)幾乎不包含任何可被用來(lái)識(shí)別網(wǎng)絡(luò)流量的數(shù)據(jù)模式。因此,對(duì)于加密的應(yīng)用程序流量的準(zhǔn)確分類(lèi)已成為現(xiàn)代網(wǎng)絡(luò)的一個(gè)挑戰(zhàn)[14]。
應(yīng)用程序流量分類(lèi)問(wèn)題的傳統(tǒng)處理流程如圖1所示,特征的選擇是傳統(tǒng)流量分類(lèi)的研究瓶頸。本文使用的卷積神經(jīng)網(wǎng)絡(luò)可以從原始數(shù)據(jù)集中通過(guò)多層卷積網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)自主選擇特征,然后根據(jù)卷積神經(jīng)網(wǎng)絡(luò)自身網(wǎng)絡(luò)結(jié)構(gòu)構(gòu)造特征空間并通過(guò)大量數(shù)據(jù)的訓(xùn)練不斷優(yōu)化特征空間。這種分類(lèi)方法不僅解決了特征選擇的困難而且為在線流量分類(lèi)提供了可能。
圖1 傳統(tǒng)流量分類(lèi)流程圖
基于卷積神經(jīng)網(wǎng)絡(luò)流量分類(lèi)方法的研究是監(jiān)督式的,需要有完全標(biāo)記的數(shù)據(jù)集作為訓(xùn)練子集。本文采用網(wǎng)絡(luò)公開(kāi)數(shù)據(jù)集“ICSX VPN-nonVPN”,已有不少文獻(xiàn)使用該網(wǎng)絡(luò)數(shù)據(jù)集進(jìn)行研究,如文獻(xiàn)[12,15]。本文采用的流量數(shù)據(jù)集統(tǒng)計(jì)信息如表1所示。數(shù)據(jù)集中流量類(lèi)型包含通過(guò)虛擬專(zhuān)用網(wǎng)絡(luò)(VPN)會(huì)話捕獲的數(shù)據(jù)包。VPN是分布式站點(diǎn)之間的一種專(zhuān)用覆蓋網(wǎng)絡(luò),通過(guò)公共通信網(wǎng)絡(luò)(如Internet)上挖掘流量來(lái)運(yùn)行。VPN最突出的方面是通過(guò)隧道IP數(shù)據(jù)包,確保對(duì)服務(wù)器和服務(wù)的安全遠(yuǎn)程訪問(wèn)[16]。與常規(guī)(非VPN)通信類(lèi)似,VPN通信是根據(jù)不同的應(yīng)用程序而被捕獲的,如語(yǔ)音呼叫、視頻呼叫和聊天等。本文根據(jù)表1中應(yīng)用程序的種類(lèi)進(jìn)行網(wǎng)絡(luò)流量分類(lèi),應(yīng)用程序的種類(lèi)數(shù)量對(duì)于本文神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)的設(shè)計(jì)十分重要。
表1 本文流量數(shù)據(jù)集統(tǒng)計(jì)信息
在模型訓(xùn)練前必須經(jīng)過(guò)的一步是數(shù)據(jù)的預(yù)處理,文獻(xiàn)[12]開(kāi)發(fā)了一種數(shù)據(jù)預(yù)處理工具“USTC-TK2016”,對(duì)原始數(shù)據(jù)包進(jìn)行流量切分、流量清理、圖片生成等一系列操作后將訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集生成為不同類(lèi)型的IDX文件形式。本文的數(shù)據(jù)預(yù)處理流程圖如圖2所示。
圖2 數(shù)據(jù)預(yù)處理流程圖
由于“ICSX VPN-nonVPN”數(shù)據(jù)集是在數(shù)據(jù)鏈路層捕獲的,因此它包括以太網(wǎng)頭。其中包含有關(guān)物理鏈路的信息,例如媒體訪問(wèn)控制(MAC)地址,這對(duì)于網(wǎng)絡(luò)中幀的轉(zhuǎn)發(fā)是必不可少的,但對(duì)于應(yīng)用程序標(biāo)識(shí)或流量特征化分類(lèi)任務(wù)來(lái)說(shuō),它沒(méi)有具體的意義。因此,在數(shù)據(jù)預(yù)處理階段,首先刪除以太網(wǎng)頭。在傳輸層段,傳輸控制協(xié)議(TCP)和用戶數(shù)據(jù)報(bào)協(xié)議(UDP)在報(bào)頭長(zhǎng)度上有所不同。前者報(bào)頭長(zhǎng)度通常是20個(gè)字節(jié)長(zhǎng)度,而后者僅8個(gè)字節(jié)。為了使傳輸層段長(zhǎng)度一致,在UDP段頭的末尾添加零,使其與TCP段頭的長(zhǎng)度相等。然后將數(shù)據(jù)包從位轉(zhuǎn)換為字節(jié),這有助于減小卷積神經(jīng)網(wǎng)絡(luò)的輸入大小。
因?yàn)閿?shù)據(jù)集是在真實(shí)網(wǎng)絡(luò)中捕獲到的,所以含有一些本文不感興趣的數(shù)據(jù)包,如在建立連接或完成連接的過(guò)程中的SYN、ACK、FIN標(biāo)志段,這些字段并不攜帶有關(guān)生成它們的應(yīng)用程序的信息,因此可以將這些段刪除。此外,數(shù)據(jù)集中還有一些域名服務(wù)(DNS)段。這些字段用于主機(jī)名解析,即將URL轉(zhuǎn)換為IP地址,這些字段與流量分類(lèi)不相關(guān),因此從數(shù)據(jù)集中刪除。
經(jīng)過(guò)以上步驟后的數(shù)據(jù)包文件已經(jīng)滿足流量分類(lèi)的數(shù)據(jù)集的要求,然而除了考慮數(shù)據(jù)包中的有效載荷問(wèn)題外還需要考慮卷積神經(jīng)網(wǎng)絡(luò)的輸入要求。圖3顯示了經(jīng)過(guò)以上步驟處理后的數(shù)據(jù)包長(zhǎng)度概率密度分布圖。如柱狀圖所示,數(shù)據(jù)集中的數(shù)據(jù)包長(zhǎng)度變化很大。而使用卷積神經(jīng)網(wǎng)絡(luò)模型則需要使用固定大小的輸入,因此需要選取固定的數(shù)據(jù)包長(zhǎng)度。在文獻(xiàn)[12,15]的經(jīng)驗(yàn)基礎(chǔ)上,使用全部的數(shù)據(jù)包長(zhǎng)度會(huì)增大算法所需的空間和時(shí)間復(fù)雜度,因此本文選擇同文獻(xiàn)[12]相同的前784 Byte,對(duì)于有效負(fù)載小于784 Byte的數(shù)據(jù)包在末尾處作補(bǔ)零操作。為了獲得更好的性能,進(jìn)行離差標(biāo)準(zhǔn)化(min-max Normalization)操作將所有輸入值歸一化到范圍[0∶1]內(nèi)。
圖3 數(shù)據(jù)包長(zhǎng)度概率密度分布圖
迄今為止,深度卷積神經(jīng)網(wǎng)絡(luò)已廣泛運(yùn)用于計(jì)算機(jī)視覺(jué)以及自然語(yǔ)言處理方面。文獻(xiàn)[17]指出了一維卷積神經(jīng)網(wǎng)絡(luò)適用于序列數(shù)據(jù)或語(yǔ)言數(shù)據(jù),二維卷積神經(jīng)網(wǎng)絡(luò)擅長(zhǎng)處理圖像或音頻頻譜圖等數(shù)據(jù),三維卷積神經(jīng)網(wǎng)絡(luò)適用于視頻或體積圖像等數(shù)據(jù)。
本文通過(guò)分析流量數(shù)據(jù)的特點(diǎn)得出:流量數(shù)據(jù)是一個(gè)按層次結(jié)構(gòu)組織的一維字節(jié)流。字節(jié)、數(shù)據(jù)包、會(huì)話和整個(gè)流量的結(jié)構(gòu)與NLP領(lǐng)域中的字符、字、句和整篇文章的結(jié)構(gòu)非常相似。這種序列類(lèi)型的數(shù)據(jù)非常適合選用一維卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行流量分類(lèi)。本文設(shè)計(jì)的一維卷積神經(jīng)網(wǎng)絡(luò)模型如圖4所示。
圖4 卷積神經(jīng)網(wǎng)絡(luò)模型圖
由圖4可知,卷積神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)為:輸入層、卷積層、卷積層、池化層、三層全連接層以及輸出層。卷積層共兩層,分別為C1、C2,卷積層可表述為:
其中,x代表輸入,k代表卷積核,b代表偏置值。f為激活函數(shù),常用的激活函數(shù)有ReLu、tanh、sigmoid等函數(shù)。本文選用的激活函數(shù)為ReLu函數(shù)。卷積層C1在序列化數(shù)據(jù)集上作窗口滑動(dòng)與原始數(shù)據(jù)進(jìn)行卷積操作后得到第一層特征。卷積層C2在得到的特征上繼續(xù)作與C1相同的操作后得到更高級(jí)別的特征。
池化層為S1,池化層通常又稱為下采樣層,其主要作用是在保持特征不變性的前提下去掉一些冗余信息把重要的特征抽取出來(lái),在一定程度上可以防止過(guò)擬合。池化層可表述為:
其中β和b為標(biāo)量參數(shù),down為下采樣選擇的函數(shù),一般有最大池化和平均池化。考慮到最大池化層會(huì)產(chǎn)生大量數(shù)據(jù)信息的丟失,本文選用的池化層為平均池化。
通過(guò)以上操作后得到多個(gè)一維特征層,F(xiàn)latten層用來(lái)將多個(gè)一維特征層“壓平”,即將特征層一維化。然后將一維化后的特征數(shù)據(jù)輸入到三層全連接層中,通過(guò)全連接層將特征空間映射到樣本標(biāo)記空間。在全連接層中為了防止過(guò)擬合本文采用了早停法技術(shù)(early stopping),這種技術(shù)可以根據(jù)損失函數(shù)值不再改變時(shí)提前結(jié)束訓(xùn)練過(guò)程以此避免網(wǎng)絡(luò)模型對(duì)訓(xùn)練數(shù)據(jù)的過(guò)度擬合。為了加快學(xué)習(xí)速率,在全連接層中添加了批量歸一化技術(shù)(Batch Normalization)。
輸出層采用的是Softmax函數(shù)分類(lèi)器,假設(shè)通過(guò)全連接層后的輸出為y1,y2,…,yn,經(jīng)過(guò)Softmax層操作后的輸出為:
新的輸出可以理解為一個(gè)樣例為不同類(lèi)別的概率分別是多大。這樣就把神經(jīng)網(wǎng)絡(luò)的輸出變成了一個(gè)概率分布,從而可以通過(guò)交叉熵函數(shù)來(lái)計(jì)算預(yù)測(cè)的概率分布和真實(shí)樣本的概率分布之間的距離。交叉熵函數(shù)表達(dá)式如式(4)所示:
按照以上神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu),根據(jù)網(wǎng)絡(luò)流量數(shù)據(jù)集輸入特性要求,本文設(shè)計(jì)了如表2所示的4種不同超參數(shù)的網(wǎng)絡(luò)模型,對(duì)于每一種網(wǎng)絡(luò)模型進(jìn)行10次10折交叉驗(yàn)證法尋找模型的最優(yōu)參數(shù),每次實(shí)驗(yàn)的結(jié)果為10次交叉驗(yàn)證的平均值。
表2 不同超參數(shù)表
4種不同的實(shí)驗(yàn)編號(hào)的模型訓(xùn)練準(zhǔn)確率對(duì)比圖如圖5所示,模型測(cè)試時(shí)間對(duì)比圖如圖6所示。通過(guò)不同超參數(shù)模型的訓(xùn)練準(zhǔn)確率以及模型測(cè)試時(shí)間對(duì)比,實(shí)驗(yàn)2和實(shí)驗(yàn)3的模型訓(xùn)練準(zhǔn)確率較高,而實(shí)驗(yàn)3和實(shí)驗(yàn)4的模型訓(xùn)練時(shí)間較短,因此本文選用的是實(shí)驗(yàn)3的超參數(shù)空間。本文完整的參數(shù)配置如表3所示。
圖5 不同超參數(shù)模型訓(xùn)練準(zhǔn)確率對(duì)比圖
圖6 不同超參數(shù)模型訓(xùn)練時(shí)間對(duì)比圖
表3 本文一維卷積神經(jīng)網(wǎng)絡(luò)中的超參數(shù)設(shè)置表
為了驗(yàn)證提出的一維卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)于流量分類(lèi)的可行性,本文使用Keras庫(kù),其后端是TensorFlow,部署在一臺(tái)處理器為Inter i5-6500,主頻3.2 GHz,內(nèi)存4 GB,64位Linux操作系統(tǒng)的機(jī)器上。
使用5個(gè)評(píng)估指標(biāo)進(jìn)行模型的對(duì)比,分別為:準(zhǔn)確率、分類(lèi)時(shí)間、召回率、類(lèi)精確率以及F1分?jǐn)?shù)。準(zhǔn)確率用于評(píng)估分類(lèi)模型的總體性能,準(zhǔn)確率越高代表分類(lèi)效果越好。F1分?jǐn)?shù)、召回率、精確率三方面可觀察分類(lèi)模型對(duì)于每一類(lèi)別分類(lèi)的好壞。其中TP是正確分類(lèi)為x的實(shí)例數(shù),TN是正確分類(lèi)為not-x的實(shí)例數(shù),F(xiàn)P是錯(cuò)誤分類(lèi)為x的實(shí)例數(shù),F(xiàn)N是錯(cuò)誤分類(lèi)為not-x的實(shí)例數(shù)。
文獻(xiàn)[12]開(kāi)發(fā)了數(shù)據(jù)預(yù)處理工具,將網(wǎng)絡(luò)流量數(shù)據(jù)集處理為類(lèi)似minist數(shù)據(jù)集形式,使用傳統(tǒng)的一維卷積神經(jīng)網(wǎng)絡(luò)LeNet-5模型進(jìn)行流量分類(lèi)分類(lèi)。本文提出的數(shù)據(jù)預(yù)處理方式保留了網(wǎng)絡(luò)流量的序列化特性并去除了對(duì)于流量分類(lèi)沒(méi)有意義的字段。在本文的實(shí)驗(yàn)環(huán)境平臺(tái)上,從準(zhǔn)確率、類(lèi)精確率、召回率、F1分?jǐn)?shù)以及模型分類(lèi)時(shí)間與傳統(tǒng)的一維卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)比,其對(duì)比結(jié)果如表4、表5、圖7~圖9所示。為確??傮w分類(lèi)時(shí)間對(duì)比結(jié)果的可靠性,兩種模型的分類(lèi)時(shí)間的對(duì)比實(shí)驗(yàn)分別在處理器為Inter i5-6500,主頻3.2 GHz,內(nèi)存4 GB,64位Linux操作系統(tǒng)的機(jī)器上以機(jī)器的正常CPU頻率,最高CPU頻率、最低CPU頻率以及在一臺(tái)處理器為Inter i5-3337U,主頻1.8 GHz,內(nèi)存4 GB,64位Linux操作系統(tǒng)的機(jī)器上以機(jī)器的正常CPU頻率做對(duì)比實(shí)驗(yàn),4次實(shí)驗(yàn)的時(shí)間對(duì)比結(jié)果如表5所示。從表5可以看出在不同主頻和CPU頻率下運(yùn)行傳統(tǒng)神經(jīng)網(wǎng)絡(luò)分類(lèi)模型的平均分類(lèi)時(shí)間為8.891 4 s,運(yùn)行本文神經(jīng)網(wǎng)絡(luò)分類(lèi)模型的平均分類(lèi)時(shí)間為2.535 7 s。因此本文提出的分類(lèi)模型的比傳統(tǒng)模型的分類(lèi)時(shí)間平均縮短了6.355 7 s,平均分類(lèi)時(shí)間節(jié)省了約71.48%,這說(shuō)明所設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)在分類(lèi)時(shí)間上有了很大的提升。
表4 總體準(zhǔn)確率對(duì)比表
表5 總測(cè)試時(shí)間對(duì)比表s
通過(guò)圖7~圖9的對(duì)比結(jié)果可以看出,使用本文的一維卷積神經(jīng)網(wǎng)絡(luò)模型以及超參數(shù)空間與傳統(tǒng)的一維卷積神經(jīng)網(wǎng)絡(luò)模型相比,在總體準(zhǔn)確率、類(lèi)精確率、召回率、F1分?jǐn)?shù)幾方面也有較好的提升。因此,提出的流量分類(lèi)方法為后續(xù)實(shí)時(shí)網(wǎng)絡(luò)應(yīng)用程序流量分類(lèi)奠定了基礎(chǔ)。
圖7 類(lèi)精確率對(duì)比圖
圖8 召回率對(duì)比圖
圖9 F1分?jǐn)?shù)對(duì)比圖
本文基于傳統(tǒng)機(jī)器學(xué)習(xí)算法進(jìn)行流量分類(lèi)的研究問(wèn)題以及相關(guān)研究的基礎(chǔ)上從神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)、數(shù)據(jù)預(yù)處理方式、超參數(shù)空間以及梯度優(yōu)化方面入手提出一種新的一維卷積神經(jīng)網(wǎng)絡(luò)模型。首先設(shè)計(jì)一種新的一維卷積神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu),將網(wǎng)絡(luò)公開(kāi)數(shù)據(jù)集進(jìn)行數(shù)據(jù)預(yù)處理,去除不相關(guān)的字段并截取固定長(zhǎng)度后進(jìn)行標(biāo)準(zhǔn)化操作作為卷積神經(jīng)網(wǎng)絡(luò)的輸入。然后通過(guò)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)特點(diǎn)自主學(xué)習(xí)網(wǎng)絡(luò)流量的更高級(jí)別特征,經(jīng)過(guò)網(wǎng)絡(luò)模型的訓(xùn)練進(jìn)行參數(shù)優(yōu)化后構(gòu)造特征空間進(jìn)而完成網(wǎng)絡(luò)應(yīng)用程序的流量分類(lèi)任務(wù)。最后使用網(wǎng)絡(luò)公開(kāi)數(shù)據(jù)集對(duì)本文提出的流量分類(lèi)算法進(jìn)行驗(yàn)證并取得較好的分類(lèi)效果。因?yàn)樯疃葘W(xué)習(xí)算法在網(wǎng)絡(luò)流量分類(lèi)方面的研究仍處于不成熟的階段,本文在未來(lái)的研究方向應(yīng)朝著處理真實(shí)網(wǎng)絡(luò)流量數(shù)據(jù)的分類(lèi)問(wèn)題繼續(xù)努力。