曹春明,何 戡+,宗學(xué)軍,連 蓮
(1.沈陽(yáng)化工大學(xué) 信息工程學(xué)院,遼寧 沈陽(yáng) 110142;2.沈陽(yáng)化工大學(xué) 遼寧省石油化工行業(yè)信息安全重點(diǎn)實(shí)驗(yàn)室,遼寧 沈陽(yáng) 110142)
基于機(jī)器學(xué)習(xí)的入侵檢測(cè)方法[1]近年來(lái)成為學(xué)者們研究的熱點(diǎn),主流的如算法K近鄰[2]、XGBoost[3]、支持向量機(jī)[4,5]、決策樹[6]和隨機(jī)森林[7,8]等應(yīng)用到入侵檢測(cè)中均取得了一定的效果。
目前,工控系統(tǒng)入侵檢測(cè)在取得成功的同時(shí)還存在兩個(gè)問(wèn)題亟需解決:①樣本不平衡導(dǎo)致模型輸出的預(yù)測(cè)結(jié)果傾向于多數(shù)類,弱化了模型的實(shí)際分類能力;②模型訓(xùn)練復(fù)雜,現(xiàn)實(shí)中的網(wǎng)絡(luò)流量傳輸速度很快,現(xiàn)有方法大多只關(guān)注模型的預(yù)測(cè)精度而忽略了檢測(cè)速率。針對(duì)樣本不平衡問(wèn)題,本文采用變分自編碼器(variational auto-encoders,VAE)對(duì)數(shù)據(jù)集中的少數(shù)類樣本進(jìn)行擴(kuò)充,變分自編碼器是一種深度生成模型,其重構(gòu)原始輸入樣本概率密度分布的能力可以用來(lái)生成攻擊樣本。針對(duì)模型結(jié)構(gòu)復(fù)雜導(dǎo)致檢測(cè)速率低的問(wèn)題,本文提出了一種基于深度漏積回聲狀態(tài)網(wǎng)絡(luò)(deep leaky integrator echo state networks,DLIESN)的入侵檢測(cè)分類模型,漏積回聲狀態(tài)網(wǎng)絡(luò)(leaky integrator echo state network,LIESN)由于舍棄了反向傳播機(jī)制,極大縮短了訓(xùn)練時(shí)間,并且通過(guò)堆疊儲(chǔ)備池可以使模型獲得更好的動(dòng)態(tài)特性。選用天然氣管道數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果驗(yàn)證了所提方法的優(yōu)越性。
圖1 變分自編碼器結(jié)構(gòu)
LIESN是一種帶有儲(chǔ)備池結(jié)構(gòu)的遞歸神經(jīng)網(wǎng)絡(luò),它由一個(gè)儲(chǔ)備池和一個(gè)讀出層組成[10]。儲(chǔ)備池內(nèi)部通常由大量的神經(jīng)元組成,神經(jīng)元之間的連接具有隨機(jī)性和稀疏性,主要功能是將外部輸入映射到高維動(dòng)態(tài)空間中,由此來(lái)獲得較好的動(dòng)態(tài)性能。LIESN的結(jié)構(gòu)如圖2所示。
圖2 漏積回聲狀態(tài)網(wǎng)絡(luò)結(jié)構(gòu)
設(shè)NU、NR分別為輸入特征維度和儲(chǔ)備池內(nèi)神經(jīng)元個(gè)數(shù),u(t)∈RNU和x(t)∈RNR分別表示t時(shí)刻的外部輸入和神經(jīng)元狀態(tài),儲(chǔ)備池中神經(jīng)元狀態(tài)更新方程如下
(1)
讀出層是一個(gè)線性層,是整個(gè)網(wǎng)絡(luò)唯一可訓(xùn)練的部分,輸入為儲(chǔ)備池得到的狀態(tài)x(t),用來(lái)計(jì)算網(wǎng)絡(luò)的輸出。設(shè)NY為輸出維度,y(t)∈RNY表示t時(shí)刻的輸出,f為輸出激活函數(shù),輸出層計(jì)算公式為:y(t)=f(Woutx(t)),其中Wout∈RNY×NR為輸出權(quán)重矩陣。
樣本不平衡一直是機(jī)器學(xué)習(xí)中普遍存在的問(wèn)題,如果使用不平衡的數(shù)據(jù)集訓(xùn)練分類模型,模型極有可能學(xué)習(xí)不到正常樣本與攻擊樣本之間的差異,弱化了模型的實(shí)際分類能力。近年來(lái),深度生成模型成為研究熱門,生成對(duì)抗網(wǎng)絡(luò)[11](generative adversarial networks,GAN),變分自編碼器[12]等在圖像生成領(lǐng)域取得了巨大成功,實(shí)際上,VAE重構(gòu)原始輸入樣本概率密度分布的能力也可以用來(lái)生成異常流量。為了降低樣本不平衡給模型帶來(lái)的影響,本文使用變分自編碼器對(duì)數(shù)據(jù)集中的罕見(jiàn)攻擊類樣本進(jìn)行擴(kuò)充。
2.1.1 VAE網(wǎng)絡(luò)結(jié)構(gòu)
為生成與源數(shù)據(jù)相似的數(shù)據(jù),VAE的層級(jí)結(jié)構(gòu)設(shè)置必須合理,本文中VAE的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示。所有層級(jí)均采用全連接層,編碼器部分:第一層神經(jīng)元個(gè)數(shù)為9,第二層為兩個(gè)獨(dú)立的全連接層,神經(jīng)元個(gè)數(shù)均為2,一個(gè)用來(lái)計(jì)算均值μ,一個(gè)用來(lái)計(jì)算方差σ,均由第一層引出,中間的隱藏變量z=μ+e0.5σ×eps,eps代表正態(tài)分布。解碼器部分:輸入為z,第一層神經(jīng)元個(gè)數(shù)為9,第二層神經(jīng)元個(gè)數(shù)為輸入維度。
圖3 VAE層級(jí)結(jié)構(gòu)
2.1.2 VAE損失函數(shù)的構(gòu)建
損失函數(shù)的構(gòu)建可分為兩部分:一部分負(fù)責(zé)計(jì)算輸入數(shù)據(jù)與生成數(shù)據(jù)之間的誤差,在本文中采取二分類交叉熵(binary cross entropy);另一部分負(fù)責(zé)計(jì)算相對(duì)熵(Kullback-Leibler divergence)。
2.1.3 基于VAE的樣本生成
首先將原始數(shù)據(jù)集按照標(biāo)簽類別(0,1,2,…,N)拆分為N個(gè)子集,分別送入變分自編碼器進(jìn)行訓(xùn)練,訓(xùn)練完畢后,保存每個(gè)模型的解碼器部分,最后輸入隨機(jī)生成的服從正態(tài)分布的兩個(gè)數(shù)生成對(duì)應(yīng)類別的仿真數(shù)據(jù)。
2.1.4 數(shù)據(jù)增強(qiáng)思路
數(shù)據(jù)增強(qiáng)的目的是改善樣本總集中正負(fù)樣本差距過(guò)大的情況,平衡樣本分布。添加數(shù)據(jù)就意味著改變了原始樣本的分布,所以,在數(shù)據(jù)增強(qiáng)前,劃分好數(shù)據(jù)集,只增強(qiáng)訓(xùn)練集,使模型能夠充分學(xué)習(xí)到罕見(jiàn)攻擊類樣本的內(nèi)部特性,而測(cè)試集不做任何改動(dòng),盡可能保留原有的樣本分布。
工控系統(tǒng)入侵檢測(cè)與普通的網(wǎng)絡(luò)入侵檢測(cè)相比,檢測(cè)指標(biāo)要求更加苛刻,工控系統(tǒng)入侵檢測(cè)在保證高精確率的同時(shí)還要求高檢出率,同時(shí)為了適應(yīng)工業(yè)環(huán)境,模型的訓(xùn)練不能過(guò)于復(fù)雜?;芈暊顟B(tài)網(wǎng)絡(luò)具有很強(qiáng)的非線性擬合能力,在時(shí)序預(yù)測(cè)領(lǐng)域應(yīng)用廣泛[13-15],作為遞歸神經(jīng)網(wǎng)絡(luò)的一種,相比于LSTM、GRU等網(wǎng)絡(luò),它的訓(xùn)練要簡(jiǎn)單很多,本文選擇回聲狀態(tài)網(wǎng)絡(luò)作為入侵檢測(cè)方法的核心。
2.2.1 DLIESN網(wǎng)絡(luò)結(jié)構(gòu)
計(jì)算機(jī)算力的提升使人們可以搭建更深層次的網(wǎng)絡(luò),單個(gè)儲(chǔ)備池提供的動(dòng)態(tài)性能有限,提出一種基于深度漏積回聲狀態(tài)網(wǎng)絡(luò)(DLIESN)的入侵檢測(cè)分類模型,DLIESN的網(wǎng)絡(luò)結(jié)構(gòu)特點(diǎn)是儲(chǔ)備池堆疊層次化,如圖4所示。
圖4 深度漏積回聲狀態(tài)網(wǎng)絡(luò)結(jié)構(gòu)
2.2.2 儲(chǔ)備池神經(jīng)元狀態(tài)更新設(shè)置
t時(shí)刻,第一層儲(chǔ)備池由外部輸入u(t) 輸入,之后每一層輸入都是由堆棧中前一層的輸出提供的,不同儲(chǔ)備池內(nèi)的參數(shù)設(shè)置具有很強(qiáng)的靈活性,設(shè)有n個(gè)儲(chǔ)備池,每個(gè)儲(chǔ)備池內(nèi)的神經(jīng)元個(gè)數(shù)均為NR,x(l)(t)∈RNR表示t時(shí)刻第l層的神經(jīng)元狀態(tài)。第一層儲(chǔ)備池的神經(jīng)元狀態(tài)更新方程如下
x(1)(t)=(1-a(1))x(1)(t-1)+
(2)
第二層及以后儲(chǔ)備池的神經(jīng)元狀態(tài)更新方程如下
x(l)(t)=(1-a(l))x(l)(t-1)+
(3)
2.2.3 輸出層設(shè)置
與標(biāo)準(zhǔn)的LIESN一樣,DLIESN的輸入權(quán)重矩陣與每個(gè)層間的連接矩陣,儲(chǔ)備池內(nèi)部的循環(huán)權(quán)重矩陣經(jīng)過(guò)預(yù)設(shè)的初始化后,均不需要再訓(xùn)練,需要訓(xùn)練的只有輸出層。為了簡(jiǎn)化訓(xùn)練,本文選用神經(jīng)網(wǎng)絡(luò)中的全連接層作為輸出層,激活函數(shù)設(shè)置為Softmax。輸出層的輸入為每個(gè)儲(chǔ)備池狀態(tài)的加權(quán)和,即最后輸出層的輸入表示為x(t)=(x(1)(t),x(2)(t),…,x(l)(t))∈Rl×NR,這樣設(shè)置的優(yōu)點(diǎn)是使輸出層能夠接受多個(gè)儲(chǔ)備池的運(yùn)動(dòng)狀態(tài),輸出層最后的輸出維度為標(biāo)簽類別。
2.2.4 DLIESN訓(xùn)練流程
工控系統(tǒng)入侵檢測(cè)本質(zhì)上是一個(gè)多分類問(wèn)題,設(shè)ρ為儲(chǔ)備池的譜半徑,c為儲(chǔ)備池內(nèi)神經(jīng)元的連接度,DLIESN的訓(xùn)練流程如下:
Algorithm 1 DLIESN training
Input:feature vector
Output:Label
# Customize each LIESN Class
Cell_1= LIESN_1(NR,ρ,a,c)
Cell_2= LIESN_2(NR,ρ,a,c)
…
Cell_N= LIESN_N(NR,ρ,a,c)
# LIESN Layer
First_input=Input(input_shape)
Layer_1=RNN(Cell_1)(First_input)
Layer_2=RNN(Cell_2)(Layer_1)
…
Layer_N=RNN(Cell_N)(Layer_N-1)
# Output Layer
X=concat((Layer_1,Layer_2,…,Layer_N),axis=2)
X=reshape(X,(-1,NR×N)
所選用的天然氣管道數(shù)據(jù)集來(lái)自2014年密西西比州立大學(xué)的SCADA安全實(shí)驗(yàn)室,該實(shí)驗(yàn)室搭建了一個(gè)天然氣管道控制系統(tǒng),用來(lái)模擬將天然氣或其它石油產(chǎn)品輸送到市場(chǎng)的真實(shí)工業(yè)現(xiàn)場(chǎng),研究人員通過(guò)攻擊該系統(tǒng)收集工業(yè)流量,最后由專家整理制備而成。
表1 天然氣管道數(shù)據(jù)集描述
去除標(biāo)準(zhǔn)差為零的無(wú)關(guān)特征,由于數(shù)據(jù)集特征數(shù)并不多,故不需要進(jìn)行特征選擇,為消除不同特征間的數(shù)值影響,對(duì)數(shù)據(jù)集進(jìn)行歸一化處理,將標(biāo)簽進(jìn)行one-hot編碼。
實(shí)驗(yàn)平臺(tái)配置為windows 10 64位系統(tǒng),Intel Core I5-9600KF,運(yùn)行內(nèi)存16 G,深度學(xué)習(xí)框架為tensorflow2.3,采用NVIDIA GTX980 TI顯卡加速訓(xùn)練。為客觀評(píng)價(jià)模型的性能,采用入侵檢測(cè)領(lǐng)域中常用的準(zhǔn)確率(Accuracy,ACC)、精確率(Precision,P)、檢出率(Recall,R)和綜合評(píng)價(jià)指標(biāo)(F1-Measure,F(xiàn))來(lái)評(píng)價(jià)分類結(jié)果
(4)
(5)
(6)
(7)
其中,TP表示正確識(shí)別的攻擊類別數(shù)目,F(xiàn)N表示漏報(bào)即未正確識(shí)別攻擊類別的數(shù)目,F(xiàn)P表示誤報(bào)即錯(cuò)誤識(shí)別正常類別的數(shù)目,TN表示正確識(shí)別的正常類別數(shù)目。
3.4.1 VAE參數(shù)設(shè)置與訓(xùn)練
變分自編碼器的優(yōu)化器為Adam,學(xué)習(xí)率為0.001,batch_size設(shè)置為1024,訓(xùn)練epoch設(shè)置1000。分別使用不同類別的樣本數(shù)據(jù)訓(xùn)練VAE,保存VAE中的解碼器部分,之后使用一批服從正態(tài)分布的兩個(gè)數(shù)送入解碼器生成仿真數(shù)據(jù)。
3.4.2 生成數(shù)據(jù)評(píng)價(jià)
在圖像生成領(lǐng)域,人可以憑借自身的視覺(jué)觀察生成圖像的好壞,目前在數(shù)據(jù)生成領(lǐng)域很難判斷生成的數(shù)據(jù)是否真的合理,為驗(yàn)證生成數(shù)據(jù)的有效性,選用Data1訓(xùn)練一個(gè)網(wǎng)絡(luò)深度為3,層內(nèi)神經(jīng)元個(gè)數(shù)為30的LSTM網(wǎng)絡(luò)模型。從生成的數(shù)據(jù)中每類均選取2500條組成一個(gè)樣本總數(shù)為20 000的測(cè)試集,記為Data3。驗(yàn)證用Data1訓(xùn)練好的模型識(shí)別生成的數(shù)據(jù)集Data3的效果,經(jīng)過(guò)100個(gè)周期的訓(xùn)練后,LSTM模型在訓(xùn)練集上的準(zhǔn)確率和損失如圖5所示,模型已經(jīng)達(dá)到深度收斂狀態(tài)。
圖5 訓(xùn)練結(jié)果
通過(guò)輸出混淆矩陣來(lái)分析模型對(duì)Data3的分類情況,如圖6所示。對(duì)角線上的元素表示預(yù)測(cè)類別等于實(shí)際類別的個(gè)數(shù),可以直觀看出,除代號(hào)為1的類別,其余類別LSTM模型都取得了較高的精確率。經(jīng)計(jì)算,LSTM模型在Data3上的準(zhǔn)確率為0.7901,檢出率為0.8233,f1值為0.7916,說(shuō)明使用真實(shí)數(shù)據(jù)訓(xùn)練的模型可以很好識(shí)別仿真數(shù)據(jù),驗(yàn)證了變分自編碼器生成的數(shù)據(jù)樣本是有效的。
3.4.3 數(shù)據(jù)增強(qiáng)前后對(duì)比
在有了上述實(shí)驗(yàn)的基礎(chǔ)上,添加部分仿真數(shù)據(jù)平衡數(shù)據(jù)集,只對(duì)訓(xùn)練集進(jìn)行數(shù)據(jù)增強(qiáng)。為了防止過(guò)擬合,設(shè)置數(shù)量限制,增加Data1中MSCI、MFCI類別的數(shù)量,使其個(gè)數(shù)達(dá)到600,得到新的數(shù)據(jù)集Data4。分別使用Data1和Data4訓(xùn)練上文的LSTM模型,經(jīng)5次實(shí)驗(yàn)取平均值后,模型在測(cè)試集Data2上的分類結(jié)果見(jiàn)表2。
表2 數(shù)據(jù)增強(qiáng)前后對(duì)比
根據(jù)表2,使用Data4訓(xùn)練的分類模型在測(cè)試集上的準(zhǔn)確率、檢出率、F值均有了一定的提升。
選用Data4和Data2作為之后實(shí)驗(yàn)的訓(xùn)練集與測(cè)試集,開始對(duì)DLIESN進(jìn)行深入研究,分析不同網(wǎng)絡(luò)結(jié)構(gòu)和超參數(shù)設(shè)置下模型的性能,最后與目前主流的算法對(duì)比。
3.5.1 DLIESN網(wǎng)絡(luò)結(jié)構(gòu)分析
深度學(xué)習(xí)領(lǐng)域,網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)置影響直接模型的輸出結(jié)果,通常更深的網(wǎng)絡(luò)層可以學(xué)習(xí)到更多的數(shù)據(jù)規(guī)律,但是過(guò)深的網(wǎng)絡(luò)層會(huì)給訓(xùn)練帶來(lái)困難。在設(shè)置Epoch為200,batch_size為1024,儲(chǔ)備池激活函數(shù)為tanh,輸出層激活函數(shù)為Softmax,損失函數(shù)為多分類交叉熵(categorical crossentropy),優(yōu)化器為Adam,學(xué)習(xí)率為0.001,固定漏積參數(shù)a為0.6,譜半徑ρ為0.99的條件下,設(shè)置20種不同的網(wǎng)絡(luò)結(jié)構(gòu),經(jīng)過(guò)5次實(shí)驗(yàn)取平均值后,不同網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置下DLIESN模型在測(cè)試集Data2上的準(zhǔn)確率如圖7所示。
圖7 不同網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置下模型的準(zhǔn)確率
根據(jù)圖7所示,只考慮神經(jīng)元數(shù)量方面:儲(chǔ)備池神經(jīng)元個(gè)數(shù)NR為10時(shí),在測(cè)試集上的準(zhǔn)確率較低,而且當(dāng)網(wǎng)絡(luò)深度為5時(shí),準(zhǔn)確率出現(xiàn)了大幅下降,模型提取特征的能力有限,過(guò)少的神經(jīng)元無(wú)法為模型提供足夠的動(dòng)態(tài)性能,學(xué)習(xí)能力較差。網(wǎng)絡(luò)深度方面,不同NR數(shù)量時(shí)的模型性能并沒(méi)有特定的規(guī)律,不考慮NR=10時(shí)的情況,起初,隨著網(wǎng)絡(luò)深度的增加,模型的性能都有所提高,但是當(dāng)網(wǎng)絡(luò)深度為4時(shí),NR=100、NR=200和NR=300的模型準(zhǔn)確率都出現(xiàn)了略微下降。在20種不同的網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置下,網(wǎng)絡(luò)深度為3,NR=200時(shí)的模型性能最佳,后續(xù)實(shí)驗(yàn)?zāi)J(rèn)DLIESN的網(wǎng)絡(luò)深度為3,儲(chǔ)備池神經(jīng)元個(gè)數(shù)為200。
3.5.2 漏積參數(shù)分析
漏積參數(shù)a決定了儲(chǔ)備池結(jié)構(gòu)中的神經(jīng)元響應(yīng)速度,a的值越大,儲(chǔ)備池對(duì)輸入的響應(yīng)越快,在固定DLIESN的網(wǎng)絡(luò)深度為3,儲(chǔ)備池神經(jīng)元個(gè)數(shù)為200時(shí),設(shè)置4個(gè)不同的漏積參數(shù)(每個(gè)儲(chǔ)備池中的漏積參數(shù)默認(rèn)相同),不同漏積參數(shù)下模型在訓(xùn)練集上的損失如圖8所示。
圖8 不同漏積參數(shù)下的損失
根據(jù)圖8所示,當(dāng)a為0.2時(shí),模型在前100個(gè)周期內(nèi)并沒(méi)有收斂的趨勢(shì),當(dāng)a為0.6時(shí),模型在第200個(gè)周期的損失最低。
3.5.3 DLIESN參數(shù)設(shè)置
在與其它算法對(duì)比前,需確定DLIESN的參數(shù),由于本文還未采用參數(shù)尋優(yōu)方法,故采用經(jīng)驗(yàn)調(diào)參法。結(jié)合3.5.1節(jié)和3.5.2節(jié)實(shí)驗(yàn)的結(jié)果,最終選取的參數(shù)匯聚成表3。
表3 DLIESN模型參數(shù)設(shè)置
3.5.4 對(duì)比實(shí)驗(yàn)分析
為驗(yàn)證DLIESN在工控系統(tǒng)入侵檢測(cè)算法中的優(yōu)越性,設(shè)置對(duì)比實(shí)驗(yàn)與其它經(jīng)典模型作比較,均采用相同的數(shù)據(jù)集和相同的數(shù)據(jù)處理方式,得到結(jié)果匯總成表4和表5。
表4 不同方法的精確率對(duì)比
表5 不同方法的檢出率對(duì)比
由表4和表5可知,DLIESN對(duì)Normal類樣本的精確率為0.9792,明顯高于其它算法。對(duì)于NMRI(簡(jiǎn)單惡意響應(yīng)注入)攻擊類別的檢測(cè)結(jié)果,各類算法的表現(xiàn)均不是很好,盡管1d_CNN和SVM算法在此類攻擊的精確率達(dá)到了1,可是對(duì)應(yīng)的檢出率全是0,通過(guò)查閱此數(shù)據(jù)集的報(bào)告發(fā)現(xiàn),該攻擊方式會(huì)使特征Measurement(測(cè)量值)遠(yuǎn)遠(yuǎn)高于100或低于-1,這嚴(yán)重偏離了正常運(yùn)行時(shí)的數(shù)值,只有DLIESN學(xué)習(xí)到了這類攻擊與其它類別之間的界限,在維持高精確率的同時(shí)其檢出率也達(dá)到了0.9114。此外,DLIESN對(duì)其它類別的檢測(cè)結(jié)果也都很優(yōu)秀。
為測(cè)試在不同網(wǎng)絡(luò)深度下DLIESN的訓(xùn)練復(fù)雜度,與同為深度學(xué)習(xí)領(lǐng)域的1d-CNN算法和LSTM算法對(duì)比,結(jié)果如圖9所示。
圖9 不同方法的訓(xùn)練時(shí)間對(duì)比
根據(jù)圖9,3種算法中DLIESN的增長(zhǎng)率最低,LSTM算法由于其每個(gè)時(shí)間步的計(jì)算都依賴上一個(gè)時(shí)間步的結(jié)果,導(dǎo)致訓(xùn)練緩慢,1d-CNN算法因?yàn)槠渚矸e核的機(jī)制影響了訓(xùn)練時(shí)間,DLIESN在不同網(wǎng)絡(luò)深度下均取得了最短耗時(shí)。
本文介紹了機(jī)器學(xué)習(xí)理論在入侵檢測(cè)中的應(yīng)用,引出了當(dāng)前領(lǐng)域中存在樣本不平衡和模型訓(xùn)練復(fù)雜的問(wèn)題。針對(duì)樣本不平衡問(wèn)題,提出了一種基于VAE的樣本均衡化策略;針對(duì)模型訓(xùn)練復(fù)雜問(wèn)題,提出了一種基于DLIESN的分類模型。首先使用變分自編碼器生成仿真數(shù)據(jù)平衡樣本,之后通過(guò)實(shí)驗(yàn)分析了不同網(wǎng)絡(luò)結(jié)構(gòu)和漏積參數(shù)對(duì)DLIESN模型分類性能的影響,最后與其它主流算法進(jìn)行對(duì)比,不論是訓(xùn)練耗時(shí)還是入侵檢測(cè)指標(biāo),DLIESN模型均取得了良好的結(jié)果。在未來(lái)的工作中需將參數(shù)尋優(yōu)算法應(yīng)用到DLIESN的調(diào)參過(guò)程。