林洋平 , 張明書(shū),2* , 陳培 , 劉佳 , 楊曉元,2
(1.武警工程大學(xué)密碼工程學(xué)院, 西安 710086; 2.網(wǎng)絡(luò)與信息安全武警部隊(duì)重點(diǎn)實(shí)驗(yàn)室, 西安 710086)
隱寫(xiě)術(shù)是一種將秘密消息隱藏在載體信息中,使得攻擊方無(wú)法知曉載體中是否含有秘密消息,從而達(dá)到隱蔽傳輸目的的秘密通信技術(shù)。它在公共服務(wù)、網(wǎng)絡(luò)傳輸、軍事通信等方面的應(yīng)用非常廣泛,相較于加密技術(shù)而言,因其具有的不可感知性,不易受到惡意攻擊方的分析檢測(cè),是目前研究秘密通信領(lǐng)域的熱門課題,在信息化條件下的軍事通信擁有很高的應(yīng)用價(jià)值[1]。
視頻隱寫(xiě)術(shù)是應(yīng)用于視頻媒介的信息隱藏技術(shù),視頻中擁有比圖像更多的冗余信息,它的嵌入容量和安全性有著更好的表現(xiàn),隨著5G高速網(wǎng)絡(luò)的發(fā)展,大量視頻媒介信息在互聯(lián)網(wǎng)中迅速傳播,載密視頻很容易隱藏其中,因此視頻隱寫(xiě)術(shù)在載體數(shù)量與傳播安全性方面的優(yōu)點(diǎn)日益突顯。
原始載體在嵌入秘密消息后,會(huì)對(duì)載體原有的統(tǒng)計(jì)信息進(jìn)行一定程度上的修改。因此在設(shè)計(jì)隱寫(xiě)算法時(shí),通過(guò)某種修改策略使得嵌入后造成的失真減小,失真越小受到攻擊者的惡意攻擊概率越低[2]。
許多學(xué)者提出諸如預(yù)測(cè)模式[3]、DCT(discrete cosine transformation)系數(shù)[4]、運(yùn)動(dòng)矢量[5]等一系列基于壓縮域的視頻隱寫(xiě)算法。而人工構(gòu)建最優(yōu)修改策略在設(shè)計(jì)上是困難的,這需要對(duì)視頻格式特點(diǎn)與統(tǒng)計(jì)信息進(jìn)行詳盡地分析,這也會(huì)加大隱寫(xiě)算法的設(shè)計(jì)難度。深度學(xué)習(xí)技術(shù)為隱寫(xiě)術(shù)的發(fā)展提供了一個(gè)新的思路,它無(wú)需人工對(duì)視頻數(shù)據(jù)進(jìn)行預(yù)先的特殊處理,只要合理地設(shè)計(jì)出網(wǎng)絡(luò)的基本結(jié)構(gòu)和相應(yīng)損失函數(shù),通過(guò)優(yōu)化算法就可達(dá)到修改策略的最優(yōu)化,理論上只要利用大量數(shù)據(jù)進(jìn)行合理的訓(xùn)練便可達(dá)成此目標(biāo)。基于卷積神經(jīng)網(wǎng)絡(luò)與生成式對(duì)抗網(wǎng)絡(luò)的深度學(xué)習(xí)技術(shù)[6-7]的出現(xiàn),為人們提供了一種新的方法。它在計(jì)算機(jī)視覺(jué)的傳統(tǒng)領(lǐng)域諸如分類、超分、去模糊等的應(yīng)用十分廣泛,正是由于其優(yōu)異表現(xiàn),吸引許多研究學(xué)者的注意,通過(guò)結(jié)合目前已有隱寫(xiě)算法構(gòu)架,將其作為隱寫(xiě)特征提取模塊,減少隱寫(xiě)算法的人工設(shè)計(jì)難度。神經(jīng)網(wǎng)絡(luò)在圖像與文本隱寫(xiě)領(lǐng)域中的應(yīng)用十分廣泛,已擁有許多重要的研究成果,但在視頻隱寫(xiě)術(shù)中的應(yīng)用目前還處于探索階段,因而如何將神經(jīng)網(wǎng)絡(luò)與視頻隱寫(xiě)術(shù)進(jìn)行結(jié)合成為研究該領(lǐng)域的重要內(nèi)容。
采用生成修改概率矩陣進(jìn)行消息嵌入的方法,提出一種基于生成對(duì)抗網(wǎng)絡(luò)的視頻隱寫(xiě)算法。在視頻生成對(duì)抗網(wǎng)絡(luò)的基礎(chǔ)上,設(shè)計(jì)一個(gè)隱寫(xiě)生成對(duì)抗網(wǎng)絡(luò),其包含一組隱寫(xiě)生成器與判別器,以生成最優(yōu)修改概率矩陣。同時(shí)為了提高隱寫(xiě)生成器的性能,將視頻生成網(wǎng)絡(luò)生成的前景信息作為隱寫(xiě)生成器的輸入,以便生成修改概率矩陣,而后將其傳遞給嵌入函數(shù)得到最優(yōu)修改映射,進(jìn)行秘密信息的嵌入。隱寫(xiě)判別器以載密與原始樣本作為輸入,將樣本三個(gè)通道分別通過(guò)高通濾波器進(jìn)行預(yù)處理,再利用三維卷積網(wǎng)絡(luò)對(duì)載密和原始樣本進(jìn)行區(qū)分。經(jīng)過(guò)隱寫(xiě)生成器與判別器之間的博弈對(duì)抗,以期于載密樣本能誤導(dǎo)判別器的正確判斷。
在載體修改式隱寫(xiě)術(shù)的思想下,提出視頻隱寫(xiě)算法(steganographic generative adversarial network, SGAN),其架構(gòu)由兩部分組成:視頻生成對(duì)抗網(wǎng)絡(luò)(SGAN-videonet, SGAN-VN)、隱寫(xiě)對(duì)抗網(wǎng)絡(luò)(SGAN-stegonet, SGAN-SN),算法架構(gòu)細(xì)節(jié)如圖1所示。
隱藏算法的主要步驟如下:發(fā)送方在嵌入消息之前,將噪聲Z作為視頻生成對(duì)抗網(wǎng)絡(luò)的輸入,以生成載體視頻G(z),載體視頻由前景f(z)、后景b(z)
圖1 隱寫(xiě)算法架構(gòu)Fig.1 Steganographic structure of the proposed algorithm
與掩模m(z)組成。隱寫(xiě)對(duì)抗網(wǎng)絡(luò)將前景作為輸入,利用隱寫(xiě)生成器生成修改概率矩陣,通過(guò)最優(yōu)二元嵌入函數(shù)自適應(yīng)生成最優(yōu)嵌入修改位置圖,將秘密消息m嵌入到載體視頻像素最低位中,得到含密視頻。
接收方收到含密視頻后,將視頻發(fā)送方經(jīng)過(guò)秘密信道傳輸?shù)男薷奈恢脠D作為提取參考,提取出載密視頻中的秘密信息。
基于修改載體的隱寫(xiě)算法中,設(shè)計(jì)架構(gòu)的目標(biāo)是使得隱寫(xiě)代價(jià)函數(shù)最小,以抵抗基于特征學(xué)習(xí)的隱寫(xiě)分析算法的攻擊[8]。代價(jià)函數(shù)通常定義為
(1)
式(1)中:X=(xi,j)H×W與Y=(yL,j)H×W分別為原始載體樣本與嵌入修改樣本;ρi,j為修改i與j的所需代價(jià)。在這種思想的指導(dǎo)下,許多學(xué)者提出了相應(yīng)的圖像隱寫(xiě)算法,如S-UNIWARD(spatial universal wavelet relative distortion)[9]、HILL(high-pass, low-pass, low-pass)[10]等。針對(duì)將信息嵌入載體后會(huì)導(dǎo)致不同的樣本屬性改變,隱寫(xiě)算法通過(guò)設(shè)計(jì)的相應(yīng)隱寫(xiě)代價(jià)函數(shù),優(yōu)化嵌入方式減少修改原始樣本帶來(lái)的隱性失真。然而,鑒于嵌入消息后帶來(lái)的不同失真而設(shè)計(jì)相應(yīng)代價(jià)函數(shù)難以實(shí)現(xiàn),目前許多算法如ADSL-GAN(automatic steganographic distortion learning framework with GAN)[11]、UT-SCA-GAN(U-net, tanh-simulator, selection channel awareness, GAN)[12]等,利用CNN(convolutional neural networks)作為擬合代價(jià)函數(shù)的工具,引入基于神經(jīng)網(wǎng)絡(luò)的隱寫(xiě)分析算法,利用對(duì)抗模型中的博弈對(duì)抗策略,構(gòu)成生成式對(duì)抗網(wǎng)絡(luò),通過(guò)二者之間博弈訓(xùn)練,使得嵌入消息帶來(lái)的失真最小化。
視頻隱寫(xiě)術(shù)相對(duì)于圖像隱寫(xiě)術(shù)來(lái)講,直接將原始載體輸入網(wǎng)絡(luò)中,將會(huì)使得參數(shù)繁多并且數(shù)據(jù)復(fù)雜難以訓(xùn)練。因此在設(shè)計(jì)架構(gòu)時(shí),利用了雙流生成視頻模型能夠生成視頻運(yùn)動(dòng)信息的特點(diǎn),本文提出通過(guò)將視頻中的時(shí)空特征信息,作為隱寫(xiě)生成器的輸入,以減輕生成器的訓(xùn)練成本。該視頻生成模型不會(huì)直接生成偽樣本,首先會(huì)利用噪聲Z作為輸入,生成代表視頻信息中動(dòng)態(tài)與靜態(tài)的不同部分:前景f(z)、后景b(z),這兩個(gè)部分分別對(duì)應(yīng)現(xiàn)實(shí)世界中外界環(huán)境中的靜止信息與動(dòng)作信息,通過(guò)與掩模m(z)的組合控制來(lái)得到生成的偽視頻,表達(dá)式為
G(z)=m(z)⊙f(z)+[1-m(z)]⊙b(z)
(2)
式(2)中:生成視頻G(z)為利用噪聲Z驅(qū)動(dòng)合成的;m(z)為視頻中的時(shí)空掩模,為不同的像素位置以及時(shí)間選擇前景模型與后景模型進(jìn)行匹配控制,⊙為Hadamard乘積。
而對(duì)于生成的視頻任務(wù),采用了基于DCGAN(deep convolutional generative adversarial net)的視頻生成架構(gòu)[13]。為了提高生成視頻的清晰度與嵌入容量,將生成視頻的分辨率從原始模型的64×64提高到128×128。
本文設(shè)計(jì)的雙生成對(duì)抗網(wǎng)絡(luò)隱寫(xiě)架構(gòu)中包含兩個(gè)生成器:一個(gè)負(fù)責(zé)視頻生成任務(wù),基于DCGAN的視頻生成網(wǎng)絡(luò);另一個(gè)負(fù)責(zé)嵌入修改概率矩陣的生成,稱為隱寫(xiě)生成器。與圖像隱寫(xiě)網(wǎng)絡(luò)不同,視頻信息流中主要包含兩種類型的信息,除了空域信息以外,還包括時(shí)域信息。在圖像空域隱寫(xiě)術(shù)中,較多采用分析單張載體圖像的空域信息,進(jìn)而生成修改概率進(jìn)行隱寫(xiě)。視頻信息往往是連續(xù)不斷的序列信息,在靜止空間與運(yùn)動(dòng)空間中都含有大量的冗余信息,可供進(jìn)行信息的嵌入,但視頻數(shù)據(jù)較圖像而言,數(shù)據(jù)量更大且其特征提取網(wǎng)絡(luò)更不易訓(xùn)練。
因此本文提出的架構(gòu)中,直接將DCGAN所生成前景作為生成器的輸入,利用卷積網(wǎng)絡(luò)來(lái)提取前景的特征信息。在文獻(xiàn)[12]中生成器的基礎(chǔ)上,將二維卷積改為三維卷積網(wǎng)絡(luò),實(shí)現(xiàn)在時(shí)間維度中的采樣,通過(guò)更深層的網(wǎng)絡(luò)結(jié)構(gòu)與大量對(duì)抗訓(xùn)練,得到一個(gè)針對(duì)視頻時(shí)空冗余的概率修改矩陣。在這種架構(gòu)中一共包含16層三維卷積層,前8層每一層包含一個(gè)1×5×5卷積核的三維卷積層,后接一個(gè)BN層,前8組采用的是LeakyReLU激活函數(shù),后8組是ReLU激活函數(shù)與轉(zhuǎn)置三維卷積層,最后一組的輸出用sigmoid激活函數(shù),使用sigmoid函數(shù)將卷積網(wǎng)絡(luò)提取的特征映射,將其轉(zhuǎn)換成數(shù)值在0~1的概率,為了防止修改概率過(guò)大而造成嵌入消息的安全性降低,對(duì)每個(gè)概率減去0.5,將區(qū)間控制在0~0.5。隱寫(xiě)生成器的具體結(jié)構(gòu),如表1所示。
表1 隱寫(xiě)生成器結(jié)構(gòu)Table 1 The structure of steganography generator
生成對(duì)抗網(wǎng)絡(luò)中判別器主要用于判別生成樣本的真假性,判別器的性能會(huì)直接影響到生成器所生成樣本的質(zhì)量,第一個(gè)GAN使用一個(gè)5層三維卷積網(wǎng)絡(luò),卷積核為3×3×3,步長(zhǎng)為2,除了第五層卷積層后使用sidmiod函數(shù)以外,每一層卷積操作后都使用LeakyReLU作為激活函數(shù)。這樣卷積層既可以學(xué)習(xí)視頻背景中的統(tǒng)計(jì)信息,也可以學(xué)習(xí)物體運(yùn)動(dòng)的時(shí)空關(guān)系。第二個(gè)GAN中判別器是作為一個(gè)隱寫(xiě)分析器,經(jīng)過(guò)博弈對(duì)抗訓(xùn)練過(guò)后,生成器生成的修改概率矩陣所對(duì)應(yīng)的載密樣本,強(qiáng)化抵抗隱寫(xiě)分析檢測(cè)的能力。在Xu-Net的基礎(chǔ)上,設(shè)計(jì)一個(gè)基于三維卷積的視頻隱寫(xiě)分析器,將其作為視頻隱寫(xiě)對(duì)抗網(wǎng)絡(luò)的判別器。Xu-Net是文獻(xiàn)[14]中提出的灰度圖像隱寫(xiě)分析模型,考慮到視頻信號(hào)的時(shí)空維度與通道數(shù)目,為了將其用于彩色三通道載密視頻幀的分析檢測(cè),將高通濾波器在時(shí)間維度與通道維度中進(jìn)行拓展,分別對(duì)每一幀的圖像三個(gè)通道進(jìn)行處理,最后合并為一個(gè)通道數(shù)目為18、時(shí)間維度為32的特征圖,以便于處理連續(xù)的視頻信號(hào),而后將其所得殘差特征輸入一個(gè)6層三維卷積網(wǎng)絡(luò)中分析其時(shí)空特征,根據(jù)激活函數(shù)把時(shí)空特征映射為識(shí)別概率值,通道間的處理過(guò)程如圖2所示。
在訓(xùn)練過(guò)程的兩個(gè)階段中分別訓(xùn)練兩個(gè)對(duì)抗網(wǎng)絡(luò),二者的判別器在結(jié)構(gòu)設(shè)計(jì)上存在著差異,但共同將網(wǎng)絡(luò)輸出的標(biāo)簽信息作為衡量判別器性能的
圖2 通道的分離與合并Fig.2 Channels separation and merge
關(guān)鍵參考信息,對(duì)此將兩個(gè)判別器的損失定義為
(3)
式(3)中:y′為判別器中激活函數(shù)輸出;y′i則為判別器對(duì)載體樣本與嵌密樣本的分類標(biāo)簽。對(duì)于生成器的損失函數(shù),將其定義為
lG=-αlD+β(C-3NHWQ)2
(4)
C=C1+C2+C3
(5)
式中:NHWQ為訓(xùn)練之前設(shè)定的期望載荷。在兩個(gè)階段的訓(xùn)練中,第一階段將參數(shù)β設(shè)定為0,參數(shù)α設(shè)定為常數(shù)1;而在下一階段中,會(huì)對(duì)實(shí)際訓(xùn)練需求進(jìn)行參β的合理設(shè)定,以保證目標(biāo)函數(shù)的最優(yōu)化,本文中參數(shù)β設(shè)置為10-71。Ck為嵌密樣本三個(gè)通道中的秘密消息載荷,將其定義為
(6)
(7)
(8)
視頻隱寫(xiě)算法在得到修改概率矩陣之后,需要得到相應(yīng)的嵌入修改位置圖來(lái)進(jìn)行秘密消息的嵌入,而這里的嵌入修改位置圖是通過(guò)式(9)所示最優(yōu)嵌入模擬器生成的[15]:
(9)
式(9)中:pi,j為嵌入變化概率;ni,j為0~1均勻分布產(chǎn)生的隨機(jī)數(shù);mi,jmi,j為嵌入值。但該函數(shù)不能在實(shí)際訓(xùn)練中生成網(wǎng)絡(luò)的梯度反向傳播傳遞梯度,導(dǎo)致訓(xùn)練時(shí)間過(guò)長(zhǎng)。為了解決上述嵌入函數(shù)不連續(xù)的問(wèn)題,引入了一個(gè)基于tanh函數(shù)的最優(yōu)嵌入激活函數(shù)[12],即
m′i,j=-0.5tanh[λ(pi,j-2ni,j)]+
0.5tanh{λ[pi,j-2(1-ni,j)]}
(10)
(11)
式中:λ為縮放因子,控制函數(shù)在階梯狀態(tài)中變化的坡度,不同縮放因子對(duì)應(yīng)函數(shù)的變化,如圖3所示。
圖3 不同縮放因子下的嵌入函數(shù)Fig.3 Embedding functions with different scaling factors
實(shí)驗(yàn)環(huán)境為window10操作系統(tǒng)下的tensorflow1.15深度學(xué)習(xí)構(gòu)架,所用實(shí)驗(yàn)儀器的顯卡型號(hào)為英偉達(dá)GTX TITAN XP,CPU型號(hào)為INTEL Xeon E5-1603,內(nèi)存為16 GB。所有的實(shí)驗(yàn)都是在UCF101數(shù)據(jù)集上進(jìn)行的,UCF101是一個(gè)現(xiàn)實(shí)動(dòng)作視頻的動(dòng)作識(shí)別數(shù)據(jù)集,收集自YouTube,提供了來(lái)自101個(gè)動(dòng)作類別的13 320個(gè)視頻,其大小為320×240,在深度學(xué)習(xí)領(lǐng)域用于視頻的動(dòng)作識(shí)別數(shù)據(jù)集。從UCF101數(shù)據(jù)集中隨機(jī)抽取500段視頻,作為視頻生成網(wǎng)絡(luò)的訓(xùn)練視頻。為了匹配實(shí)驗(yàn)所需的視頻大小,利用基于python的skimage工具包將其轉(zhuǎn)化為大小為128×128的視頻。
實(shí)驗(yàn)中生成對(duì)抗網(wǎng)絡(luò)的訓(xùn)練分為兩個(gè)階段,首先訓(xùn)練第一個(gè)生成網(wǎng)絡(luò)使其可以生成符合自然語(yǔ)義的偽視頻,經(jīng)過(guò)3 000輪的迭代訓(xùn)練后,再訓(xùn)練第二個(gè)生成網(wǎng)絡(luò)負(fù)責(zé)嵌入修改矩陣的生成,對(duì)其訓(xùn)練共800次。對(duì)于第一個(gè)網(wǎng)絡(luò)中的訓(xùn)練采用的是,訓(xùn)練一次生成器后,進(jìn)行一次判別器的訓(xùn)練。訓(xùn)練中使用學(xué)習(xí)率為0.000 2的Adam優(yōu)化器來(lái)訓(xùn)練模型,對(duì)每個(gè)批次視頻樣本訓(xùn)練3 800次,共500次迭代。
3.2.1 視頻生成對(duì)抗網(wǎng)絡(luò)性能
當(dāng)經(jīng)過(guò)3 000輪的訓(xùn)練后,視頻生成網(wǎng)絡(luò)的訓(xùn)練結(jié)束,參數(shù)在此時(shí)及以后不發(fā)生改變,進(jìn)而進(jìn)行下一部分的第二個(gè)生成網(wǎng)絡(luò)的訓(xùn)練,使其生成最優(yōu)嵌入修改矩陣。對(duì)第二個(gè)網(wǎng)絡(luò)的訓(xùn)練采用的是,每訓(xùn)練兩次生成器,訓(xùn)練一次隱寫(xiě)判別器的方式,兩種模塊的對(duì)抗性訓(xùn)練交替進(jìn)行。
如圖4所示,經(jīng)過(guò)前一輪次的訓(xùn)練后,第一個(gè)生成網(wǎng)絡(luò)已然可以生成擁有逼真效果的偽視頻,相較于原始視頻來(lái)說(shuō),其噪點(diǎn)較多,并且在紋理復(fù)雜的區(qū)域較為模糊。但是這些缺點(diǎn)正好為本文消息的嵌入,提供合理的冗余空間。因?yàn)樵趯?shí)際網(wǎng)絡(luò)環(huán)境中充斥著大量因壓縮算法或者傳輸帶寬不足導(dǎo)致的視頻缺失與模糊,因此在真實(shí)環(huán)境中這樣的視頻是存在的。
圖4 生成視頻幀F(xiàn)ig.4 Generate videos
雙流視頻生成網(wǎng)絡(luò)的特點(diǎn)是能夠同時(shí)生成視頻的靜止與運(yùn)動(dòng)信息:動(dòng)態(tài)前景與靜態(tài)后景,如圖5所示??紤]到視頻隱寫(xiě)術(shù)的關(guān)鍵是利用其中的時(shí)空冗余信息,因此在設(shè)計(jì)第二個(gè)網(wǎng)絡(luò)中本文使用基于三維卷積的特征提取網(wǎng)絡(luò),并利用動(dòng)態(tài)前景作為載體視頻的時(shí)空特征信息,提高隱寫(xiě)生成器生成修改概率矩陣的能力,構(gòu)成雙生成對(duì)抗網(wǎng)絡(luò)視頻隱寫(xiě)算法。
圖5 前景、后景與掩模Fig.5 Foreground, background and mask
3.2.2 抵抗彩色隱寫(xiě)分析器
通過(guò)對(duì)比實(shí)驗(yàn)來(lái)驗(yàn)證本文提出的隱寫(xiě)算法架構(gòu)的抗隱寫(xiě)分析算法攻擊的能力,實(shí)驗(yàn)選取了基于空域的S-UNIWARD算法進(jìn)行對(duì)比,由于S-UNIWARD是灰度圖像隱寫(xiě)算法,對(duì)其進(jìn)行訓(xùn)練時(shí),將一張數(shù)據(jù)集中的圖像拆分為三張灰度圖像,作為該算法的輸入,訓(xùn)練后的隱寫(xiě)模型分別對(duì)三個(gè)彩色通道進(jìn)行嵌密,為了進(jìn)一步驗(yàn)證雙生成對(duì)抗網(wǎng)絡(luò)隱寫(xiě)算法的有效性,增加一組消融性實(shí)驗(yàn)作為對(duì)比,將載體視頻作為隱寫(xiě)生成器的輸入,基于時(shí)空信息與原始載體樣本的兩種隱寫(xiě)對(duì)抗網(wǎng)絡(luò)在三個(gè)模塊的結(jié)構(gòu)、參數(shù)上相一致,不同點(diǎn)在于如何設(shè)置隱寫(xiě)網(wǎng)絡(luò)的輸入,分別用GAN與SGAN表示。為了檢驗(yàn)二者的差異性,從以下隱寫(xiě)安全性方面進(jìn)行評(píng)估。
目前針對(duì)序列視頻信息的空域隱寫(xiě)分析算法較少,且無(wú)法應(yīng)用于基于圖像的S-UNIWARD算法,本文通過(guò)將算法所生成的視頻隨機(jī)抽取幀圖像作為數(shù)據(jù),引入彩色圖像隱寫(xiě)分析算法SCRM[16]作為隱寫(xiě)分析工具,結(jié)合集成分類器[17]對(duì)其進(jìn)行檢測(cè)。
分別對(duì)通道嵌入率為0.05、0.1、0.2、0.3、0.4 bpc (bit per channel, bpc)的載密樣本進(jìn)行分析,共使用了10 500組樣本作為數(shù)據(jù)集,其中9 000組樣本為訓(xùn)練集,1 500組樣本用于測(cè)試分類準(zhǔn)確度,實(shí)驗(yàn)中得到的平均嵌入率分別為0.050、0.099、0.198、0.300、0.401 bpc。
從表2可以看出,本文提出的SGAN架構(gòu)與S-UNIWARD算法相比,在嵌入率為0.05、0.1、0.3 bpc在SCRM檢測(cè)中都取得了較好的表現(xiàn),在檢測(cè)錯(cuò)誤率上分別有0.65%、1.33%、3.26%的提升,在0.1、0.2、0.3 bpc的嵌入率下GAN也要優(yōu)于S-UNIWARD算法,檢測(cè)錯(cuò)誤率的變化曲線如圖6所示。總體上SGAN架構(gòu)與GAN架構(gòu)之間,前者要綜合上優(yōu)于單純地只對(duì)視頻進(jìn)行特征提取的后者,從實(shí)驗(yàn)中證明了前者的抗隱寫(xiě)分析能力要更強(qiáng)。在與S-UNIWARD算法比較時(shí),其只在部分嵌入率下優(yōu)于該算法,整體上并沒(méi)有顯著的提高,但本文算法的嵌入對(duì)象是時(shí)空冗余信息,因此基于空域的圖像隱寫(xiě)分析算法的結(jié)果作為參考,抗隱寫(xiě)分析的能力在部分嵌入率下有所下降是正常的。
表2 SCRM檢測(cè)錯(cuò)誤率Table 2 Error rates of SCRM detection
圖6 SCRM檢測(cè)錯(cuò)誤率Fig.6 Error rates of SCRM detection
3.2.3 時(shí)空內(nèi)容自適應(yīng)性
圖7為本文方案SGAN架構(gòu)在五種通道嵌入率下在紅色通道中修改位置圖,可以看出嵌入位置的選擇多在像素變化較為頻繁的運(yùn)動(dòng)部分,這里時(shí)空冗余較多對(duì)于視頻信息更為適合隱藏秘密消息,并且隨著嵌入率的提高這部分選擇的機(jī)率越來(lái)越高,這表明所提出的方案具有時(shí)空內(nèi)容自適應(yīng)性。
圖7 各嵌入率下的修改位置圖Fig.7 Modification maps under different embedding rates
為了提高視頻隱寫(xiě)術(shù)在公共信道中的安全性,使得其能夠抵抗來(lái)自隱寫(xiě)分析算法的攻擊,提出了基于生成式對(duì)抗網(wǎng)絡(luò)的視頻隱寫(xiě)算法。該算法生成的視頻在質(zhì)量上滿足真實(shí)視頻中的語(yǔ)義信息,利用隱寫(xiě)生成器與判別器之間的博弈學(xué)習(xí),優(yōu)化生成器的性能,減小嵌入帶來(lái)的失真,自適應(yīng)嵌入秘密消息比特。從實(shí)驗(yàn)結(jié)果上來(lái)看,算法生成的載密視頻在空域隱寫(xiě)分析算法SCRM的檢測(cè)下,能在低嵌入率時(shí)較同類算法S-UNIWARD的抗檢測(cè)率有一定提升。