孫文權(quán) 劉佳 鈕可 董煒娜 陳立峰
摘 要:目前,基于深度學(xué)習(xí)的隱寫模型的隱寫容量有所提高,但由于網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜,需要大量的時間來訓(xùn)練。為此,提出輕量化的可逆神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),并以此設(shè)計了高效圖像隱寫方案,采用基于密集連接的可逆神經(jīng)網(wǎng)絡(luò)實現(xiàn)圖像的隱藏與恢復(fù),在減少可逆塊數(shù)量的同時,增加每個可逆塊中可逆函數(shù)f(·)、r(·)和y(·)的卷積塊數(shù)量來保證圖像質(zhì)量。這樣能夠顯著降低計算和存儲開銷,使得模型在計算資源有限的設(shè)備上運行更加高效,模型開發(fā)和迭代的過程更加高效,有效地節(jié)省了寶貴的計算資源。載體圖像與秘密圖像通過正向隱藏可逆變換生成含密圖像,含密圖像與隨機變量通過反向恢復(fù)可逆變換得到恢復(fù)圖像。實驗結(jié)果表明,與HiNet算法相比,輕量級網(wǎng)絡(luò)結(jié)構(gòu)能夠得到良好的圖像質(zhì)量且更具安全性,同時訓(xùn)練時間縮短了46%,隱寫時間縮短了28%。
關(guān)鍵詞:可逆神經(jīng)網(wǎng)絡(luò);隱藏;恢復(fù);隱寫效率
中圖分類號:TP309.2?? 文獻標(biāo)志碼:A?? 文章編號:1001-3695(2024)01-042-0266-06
doi:10.19734/j.issn.1001-3695.2023.05.0215
Lightweight image steganography scheme based on invertible neural network
Abstract:At present,the steganographic capacity of deep learning-based steganographic models has been improved,but due to the complexity of the network structure,it requires a lot of time to train.Aiming at this problem,this paper proposed a lightweight invertible neural network structure and used to design an efficient image steganography scheme,which adopted a dense connection-based invertible neural network to achieve image hiding and recovery,and increased the number of convolutional blocks of invertible functions f(·) ,r(·) and y(·) in each invertible block to ensure the quality of the image while redu-cing the number of invertible blocks.It could significantly reduce the computational and storage overheads,making the model run more efficiently on devices with limited computational resources,making the process of model development and iteration more efficient,and effectively saving valuable computational resources.It transformed the cover and the secret image by forward hidden invertible transform to generate the stego image,and transformed the stego image and the random variable by reversing recovery invertible transform to get the recovered image.The experimental results show that compared with HiNet algorithm,the proposed lightweight network structure can achieve good image quality and security,while reducing the training time by 46% and the steganography time by 28%.
Key words:invertible neural network;conceal;recover;steganography efficiency
0 引言
傳統(tǒng)的隱寫方案通常采用載體修改的方法將秘密信息嵌入到圖像的空域[1]或者變換域[2]。為了抵抗專用隱寫分析[3,4],載體修改的隱寫方法通常僅能保持某一種統(tǒng)計模型不變?;谧钚』д娴淖赃m應(yīng)隱寫方法[5],通過定義修改失真代價,試圖提高隱寫的安全性。然而,隨著基于深度神經(jīng)網(wǎng)絡(luò)的隱寫分析技術(shù)的發(fā)展[6],基于模型保持和最小化失真代價的隱寫方法面臨的安全威脅逐漸增加。
隨著深度學(xué)習(xí)的發(fā)展,基于深度神經(jīng)網(wǎng)絡(luò)的隱寫(deep steganography)方案被提出。Baluja[7,8]首次提出利用深度神經(jīng)網(wǎng)絡(luò)將一整張彩色圖像隱藏在另一張彩色圖像中,基于Encoder-Decoder的預(yù)處理網(wǎng)絡(luò)提取秘密圖像的有用特征,然后利用隱藏網(wǎng)絡(luò)將秘密圖像提取的特征融合到載體圖像中,最后采用恢復(fù)網(wǎng)絡(luò)來恢復(fù)秘密圖像。文獻[7]對該工作進行了擴展,通過對秘密圖像像素的排列來提高隱藏的安全性。文獻[9]在文獻[7]的基礎(chǔ)上增加了一個回歸的損耗,保證了端到端聯(lián)合訓(xùn)練。然而,它們都有顏色失真的問題。Zhang等人[10]通過減少秘密圖像的有效載荷,即只嵌入灰度圖像來緩解這種影響。深度生成模型也對隱寫產(chǎn)生重要影響。Hayes等人[11]提出了一種基于生成對抗網(wǎng)絡(luò)(GAN)的方法,并利用一個生成器和一個判別器來分別生成和區(qū)分含密圖像。在此基礎(chǔ)上,許多改進的網(wǎng)絡(luò)結(jié)構(gòu)被提出。畢新亮等人[12]使用Star GAN的判別器作為特征提取器,將提取的特征映射為秘密消息,直接構(gòu)造了圖像和秘密消息的映射關(guān)系,但圖像質(zhì)量不高。Hu等人[13]提出了一種無修改隱寫方法(SWE),可直接建立噪聲與消息之間的映射關(guān)系。在此基礎(chǔ)上,Liu等人[14]利用圖像補全技術(shù)構(gòu)造了一個數(shù)字化卡登格子方案,由于采樣過程要想獲得整個網(wǎng)絡(luò)最優(yōu)的參數(shù)十分困難,導(dǎo)致無法完全準(zhǔn)確地提取消息。Zhang等人[15]使用生成對抗網(wǎng)絡(luò)優(yōu)化隱寫圖像的感知質(zhì)量。這些方法不易被隱寫分析工具檢測到,具有良好的隱寫安全性,但其容量普遍較小。以上方法的隱藏和恢復(fù)過程是由兩個獨立網(wǎng)絡(luò)依次實現(xiàn)的,即一個網(wǎng)絡(luò)用于隱藏,另一個網(wǎng)絡(luò)用于恢復(fù)秘密圖像,如圖1(a)所示。
Jing等人[16]首次將圖像隱藏和圖像恢復(fù)看作是同一個可逆網(wǎng)絡(luò)的正向和反向過程,設(shè)計了單幅彩色圖像的隱藏方案HiNet,如圖1(b)所示。Dinh等人[17]首次提出可逆神經(jīng)網(wǎng)絡(luò)(invertible neural network,INN),給定一個變量y和正向計算x=fθ(y),可以通過y=f-1θ(x)直接恢復(fù)y,其中逆函數(shù)f-1θ被設(shè)計成與fθ共享相同的參數(shù)θ。為了使INN更好地處理與圖像相關(guān)的任務(wù),Dinh等人[18]在耦合模型中引入了卷積層,并引入了多尺度層,以降低計算成本并提高正則化能力。Kingma等人[19]在INN中引入了可逆的1×1卷積,并提出了Glow算法,該算法對圖像的合成和處理具有顯著的效果。由于INN的優(yōu)異表現(xiàn),在圖像壓縮[20]、圖像縮放[21,22]、圖像到圖像轉(zhuǎn)換[23]、視頻超分辨率[24]、圖像生成[25]等領(lǐng)域有著廣泛的應(yīng)用。由于可逆神經(jīng)網(wǎng)絡(luò)的優(yōu)勢,目前有一些基于可逆神經(jīng)網(wǎng)絡(luò)的圖像隱寫方案研究[16,26~29]將可逆神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像隱寫術(shù)。Liu等人[27]提出了一種映射模塊,該模塊可以壓縮實際嵌入的信息,以提高隱寫圖像的質(zhì)量和反檢測能力。可逆神經(jīng)網(wǎng)絡(luò)在隱寫圖像的視覺質(zhì)量和安全性方面取得了較好的效果,信息提取準(zhǔn)確率達到100%。Xu等人[29]設(shè)計了圖像質(zhì)量增強模塊,在保持隱寫圖像不可感知性和大容量的同時,有效地提高了隱寫圖像的魯棒性。Lu等人[28]提出在相同大小的彩色圖像中隱藏多幅彩色圖像,大大增加了圖像隱寫的隱藏容量。Guan等人[26]在可逆神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上增加了重要映射模塊,利用當(dāng)前圖像的隱藏結(jié)果指導(dǎo)下一幅圖像的隱藏,避免了多幅圖像隱藏造成的輪廓陰影和顏色失真問題,提高了秘密信息的不可見性。與傳統(tǒng)的使用兩個網(wǎng)絡(luò)分別進行嵌入和提取的方法相比,基于可逆神經(jīng)網(wǎng)絡(luò)的隱寫方案提高了提取精度并具有較好的視覺效果。但上述基于可逆網(wǎng)絡(luò)的隱寫方案[16,26~29]結(jié)構(gòu)比較復(fù)雜,神經(jīng)網(wǎng)絡(luò)層數(shù)過多,增加了計算和存儲開銷,使模型無法在計算資源有限的設(shè)備上高效運行,模型的隱寫效率低。因此本文在HiNet[16]的基礎(chǔ)上提出了一個高效的圖像隱寫方案,即輕量化可逆網(wǎng)絡(luò)結(jié)構(gòu),其主要貢獻如下:
a)與HiNet相比,在保證圖像質(zhì)量和安全性的同時精減了網(wǎng)絡(luò)結(jié)構(gòu),減少了網(wǎng)絡(luò)中可逆塊的數(shù)量,加快了訓(xùn)練速度,提升了隱寫效率。
b)能更有效地提取圖像深層次的特征,實現(xiàn)特征重用,提高隱寫圖像與恢復(fù)圖像的質(zhì)量。本文增加可逆函數(shù)f(·)、r(·)和y(·)中密集連接的卷積塊數(shù)量,以抵消可逆塊數(shù)量減少導(dǎo)致的圖像質(zhì)量下降問題。
c)通過優(yōu)化低頻小波損失的權(quán)重參數(shù)設(shè)置,以達到更好的隱寫效果,增加載體圖像與含密圖像之間的相關(guān)性。
1 本文方法
1.1 方案框架
本文提出了一種新型的可逆網(wǎng)絡(luò),以實現(xiàn)輕量、高效、安全的圖像隱寫。傳統(tǒng)隱寫隱藏與恢復(fù)通過兩個網(wǎng)絡(luò)實現(xiàn),而可逆神經(jīng)網(wǎng)絡(luò)能夠在運用一個網(wǎng)絡(luò)的情況下實現(xiàn)圖像的處理與恢復(fù)。由于可逆神經(jīng)網(wǎng)絡(luò)的特點,本文將其應(yīng)用在隱寫過程中,達到通過一個網(wǎng)絡(luò)實現(xiàn)隱藏與恢復(fù)的目的。在隱藏與恢復(fù)過程中運用離散小波變換,將圖像在進行可逆變換前分成低頻和高頻小波子帶,達到更好的隱寫效果。方案整體框架分為前向隱藏過程和反向恢復(fù)過程,兩個過程完全相同,只是由信息流的方向相反來實現(xiàn)圖像的隱藏與恢復(fù)。
1)前向隱藏過程 載體圖像Xco與秘密圖像Xsec共同作為正向網(wǎng)絡(luò)的輸入,首先經(jīng)過離散小波變換(DWT)對圖像進行預(yù)處理,然后將特征圖(feature map)輸入網(wǎng)絡(luò)的可逆塊中,經(jīng)過8層可逆塊變換得到新的特征圖,再經(jīng)過逆小波變換(IWT)處理得到含密圖像XSte與損失信息r。在隱藏過程中,網(wǎng)絡(luò)試圖將秘密圖像Xsec隱藏到載體圖像Xco中。大容量的嵌入不可避免地導(dǎo)致秘密圖像在提取時丟失一部分信息,另外,秘密圖像的嵌入可能也對原始的載體圖像造成影響,丟失的秘密信息和被破壞的載體信息共同構(gòu)成了損失信息r。假設(shè)全部圖像的分布為χ,訓(xùn)練過程中的圖像都從全部圖像中取樣,所以(Xsec,Xco)~χ。因為INN的可逆性,XSte和r也應(yīng)該遵循相同分布,XSte和r的混合分布也應(yīng)遵循相同分布,例如XSte×r~χ。
2)反向恢復(fù)過程 由于網(wǎng)絡(luò)的可逆性,反向恢復(fù)過程需要引入一個隨機變量z。變量z是從一個任意高斯分布中隨機抽取的,該分布應(yīng)與r的分布相同,通過在訓(xùn)練時從后面表示的恢復(fù)損失學(xué)習(xí)得到。與前向隱藏過程完全相反,含密圖像XSte與隨機向量z共同作為反向網(wǎng)絡(luò)的輸入,首先經(jīng)過離散小波變換(DWT)對圖像進行預(yù)處理,然后將特征圖輸入進網(wǎng)絡(luò)的可逆塊中,經(jīng)過8層可逆塊變換得到新的特征圖,經(jīng)過逆小波變換(IWT)處理得到恢復(fù)圖像Xsec-rev與恢復(fù)的載體圖像Xco-rev。
1.2 關(guān)鍵模塊
為了保證網(wǎng)絡(luò)模型的隱寫效果,本文采用了小波變換、可逆塊變換和密集連接。運用小波變換將圖像分解成不同頻率的子帶(高頻與低頻),然后將其輸入可逆塊變換,經(jīng)過其中運算以及采用密集連接的f(·)、r(·)和y(·)函數(shù),更深層次地將秘密圖像Xsec隱藏在載體圖像Xco中,生成含密圖像XSte。這樣能夠在保證隱藏容量的同時,保持較高的視覺質(zhì)量和信息安全性。
1)小波變換 圖像隱藏在像素域容易導(dǎo)致紋理復(fù)制偽影和顏色失真[3,30]。相比于像素域,頻域和高頻域更適合于圖像隱藏。本文采用小波變換將圖像在進行可逆變換前分成低頻和高頻小波子帶,其中高頻子帶包含圖像細節(jié),低頻子帶則包含圖像的整體特征,使網(wǎng)絡(luò)能更好地將秘密信息融合到載體圖像中。相比于在原始圖像域直接操作,小波變換具有較好的視覺保真度。小波變換只在少數(shù)子帶中隱藏信息,對圖像整體的影響相對較小,一般難以察覺。此外,小波良好的重構(gòu)特性有助于減少信息損失,提高圖像隱藏性能。經(jīng)過DWT后,將尺寸(B,C,H,W)的特征圖轉(zhuǎn)換為(B,4C,H/2,W/2),其中B為批量大小,H為高度,W為寬度,C為通道數(shù)。DWT可以降低計算成本,這有助于加速訓(xùn)練過程。本文采用Haar小波函數(shù)實現(xiàn)小波變換和逆變換。由于小波變換也是雙向的,所以不會影響網(wǎng)絡(luò)模型的端到端訓(xùn)練。
2)可逆塊變換 如圖2所示,隱藏過程和恢復(fù)過程具有相同的子模塊,共享相同的網(wǎng)絡(luò)參數(shù),只是信息流方向相反。本文網(wǎng)絡(luò)結(jié)構(gòu)有8個結(jié)構(gòu)相同的可逆塊,構(gòu)造如下:對于正向過程中的第L個隱藏塊,輸入為Xlco和Xlsec,輸出為Xl+1co和Xl+1sec,如式(1)(2)所示。
Xl+1co=Xlco+r(Xlsec)(1)
其中:σ為激活函數(shù),本文采用LeakyReLU;f(·)、r(·)和y(·)為密集連接網(wǎng)絡(luò),最后可逆塊的輸出Xksec和Xkco再經(jīng)過IWT變換得到含密圖像XSte和損失信息r。
反向恢復(fù)過程中的第L個顯示塊,輸入為Xl+1Ste和Zl+1,輸出為XlSte和Zl,如式(3)(4)所示。
在反向過程中,與正向過程信息流方向相反,先經(jīng)過第l+1層再經(jīng)過第l層。最后經(jīng)過第一層可逆變換以后,再對其進行逆小波變換(IWT)得到恢復(fù)圖像Xsec-rev。
3)密集連接 由于網(wǎng)絡(luò)的可逆性f(·)、r(·)和y(·)可以為任意函數(shù),為了能更有效地提取圖像深層次的特征,實現(xiàn)特征重用,提高隱寫圖像與恢復(fù)圖像的質(zhì)量,本文采用密集連接來實現(xiàn)。將前一層的信息直接傳遞到后一層的所有神經(jīng)元,更有效地實現(xiàn)信息傳遞和共享,同時梯度可以更快地傳播回較早的層,加速模型的收斂過程,相比于某些傳統(tǒng)的全連接網(wǎng)絡(luò)結(jié)構(gòu),密集連接可以顯著地減少參數(shù)數(shù)量,提高模型的效率和緊湊性,并節(jié)省內(nèi)存和計算資源。如圖3所示,采取實驗效果最好的卷積層數(shù)量為7的密集連接。
1.3 損失函數(shù)
本文提出的損失主要由三部分組成:
a)隱藏損失L隱藏。隱藏損失的目的是保證生成的含密圖像XSte與Xco不可區(qū)分。
其中:N代表訓(xùn)練樣本的數(shù)量;c計算載體圖像與含密圖像之間的差異,本文采用l2范數(shù)。
b)低頻小波損失L低頻。文獻[7]驗證了隱藏在高頻分量中的信息比隱藏在低頻分量中的信息更不容易被檢測到。為了能更好地應(yīng)對隱寫分析工具的攻擊,讓信息盡量隱藏在圖像的高頻區(qū)域,本文采用了載體圖像與含密圖像的低頻子帶的損失約束,如下所示。
其中:N代表訓(xùn)練樣本的數(shù)量;f計算載體圖像與含密圖像之間的低頻差異;H(·)ll代表提取圖像的低頻子帶操作。
c)恢復(fù)損失L恢復(fù)。為保證恢復(fù)的秘密圖像與嵌入的秘密圖像的一致性,最小化恢復(fù)圖像與秘密圖像之間的差異以提升模型準(zhǔn)確率,如式(7)所示。
其中:N代表訓(xùn)練樣本的數(shù)量;r計算恢復(fù)圖像與秘密圖像之間的差異。隨機向量z采樣的過程是隨機的。
總損失函數(shù)是隱藏損失、低頻小波損失和恢復(fù)損失的加權(quán)求和:
L總計(θ)=λ1L隱藏+λ2L低頻+λ3L恢復(fù)(8)
在訓(xùn)練過程中,首先將λ2設(shè)為0,即不考慮L低頻對網(wǎng)絡(luò)的影響直接對網(wǎng)絡(luò)模型進行預(yù)訓(xùn)練,使網(wǎng)絡(luò)模型先獲得基本的隱藏-恢復(fù)能力。然后再逐漸添加L低頻約束項,進一步優(yōu)化網(wǎng)絡(luò)模型,將秘密圖像隱藏在載體圖像的高頻區(qū)域,以增強模型抵抗隱寫分析的能力。
2 實驗結(jié)果與分析
2.1 實驗設(shè)置
網(wǎng)絡(luò)模型使用Python 3.8編碼語言,CUDA版本為11.6,使用NVIDIA GeForce RTX2070 GPU進行加速。DIV2K數(shù)據(jù)集具有多樣性、高分辨率和真實性,涵蓋了自然風(fēng)景、人物、動物、建筑等多個領(lǐng)域,與信息隱藏的要求場景十分契合。本文使用DIV2K[30]訓(xùn)練數(shù)據(jù)集(800張圖像,分辨率為1024×1024)訓(xùn)練網(wǎng)絡(luò)模型;使用DIV2K驗證數(shù)據(jù)集(100張圖像,分辨率為1024×1024)驗證網(wǎng)絡(luò)模型的效果;使用DIV2K測試數(shù)據(jù)集(100張圖像,分辨率為1024×1024)測試網(wǎng)絡(luò)模型的效果。本文在HiNet代碼的基礎(chǔ)上不斷修改,分別調(diào)試可逆塊、卷積塊數(shù)量和參數(shù)等進行實驗測試。使用Adam優(yōu)化器,λ1=5,λ2=0.5,λ3=1,learning rate=1×10-4.5,batch size=2來訓(xùn)練網(wǎng)絡(luò)模型。整個網(wǎng)絡(luò)模型可逆塊數(shù)量為8,每個塊分別使用三個包含7層卷積塊的DenseNet塊作為f(·)、r(·)和y(·)。其中可逆塊的數(shù)量、損失函數(shù)的權(quán)重和DenseNet中卷積層的數(shù)量對網(wǎng)絡(luò)模型的隱寫能力均有影響。
本文采用兩個度量標(biāo)準(zhǔn)(隱寫效率與圖像質(zhì)量)用于衡量網(wǎng)絡(luò)模型的隱寫能力:
1)隱寫效率 模型訓(xùn)練時間(不同模型訓(xùn)練相同的epoch所需的時間)以及不同模型訓(xùn)練完成以后的隱寫時間(隱藏與恢復(fù)50張圖像所需要時間)。
2)圖像質(zhì)量 含密圖像質(zhì)量以及恢復(fù)圖像質(zhì)量。含密圖像質(zhì)量是指含密圖像與載體圖像之間的相似程度,恢復(fù)圖像質(zhì)量是指恢復(fù)圖像與秘密圖像之間的相似程度,即PSNR與SSIM值。
2.2 隱寫效率
本文對比基于可逆網(wǎng)絡(luò)的圖像隱藏方法HiNet。其中,將HiNet中可逆塊數(shù)量增加到24層,命名為HiNet+,單獨訓(xùn)練,將每個網(wǎng)絡(luò)模型訓(xùn)練50個epoch,測試本文提出的輕量化模型StegaLIN、HiNet和HiNet+的訓(xùn)練時間與隱寫時間。三種模型的隱寫效果對比如表1所示。
如圖4所示,通過實驗發(fā)現(xiàn)本文提出的網(wǎng)絡(luò)模型訓(xùn)練時間最短。由于減少了網(wǎng)絡(luò)模型中可逆塊的數(shù)量并精減了網(wǎng)絡(luò)的整體結(jié)構(gòu),相比于HiNet訓(xùn)練時間縮短46%,隱寫時間縮短28%,提高了網(wǎng)絡(luò)模型的隱寫效率。
2.3 圖像質(zhì)量(PSNR/SSIM)
使用DIV2K驗證數(shù)據(jù)集(100張圖像,分辨率為1024×1024)驗證三個模型的含密圖像質(zhì)量和恢復(fù)圖像質(zhì)量。表1顯示了100張圖像的平均數(shù)值,通過對比可知,經(jīng)過三個模型得到的含密圖像質(zhì)量與恢復(fù)圖像質(zhì)量的平均PSNR/SSIM數(shù)值接近,表明StegaLIN能夠在實現(xiàn)圖像的隱藏與恢復(fù)的同時保證圖像的質(zhì)量,滿足隱寫的要求。
如圖5所示,載體圖像與秘密圖像在經(jīng)過三個模型得到的含密圖像與恢復(fù)圖像在視覺效果上無法區(qū)別,人類肉眼無法分辨,能夠達到混淆對手的目的。
使用DIV2K測試數(shù)據(jù)集(100張圖像,分辨率為1024×1024,50張作為載體圖像,50張作為秘密圖像)測試本文網(wǎng)絡(luò)模型。如圖6所示,經(jīng)過StegaLIN模型得到的載體圖像/含密圖像對和秘密圖像/恢復(fù)圖像對的PSNR/SSIM值發(fā)現(xiàn):秘密圖像/恢復(fù)圖像對PSNR主要集中在34 dB上下波動,SSIM主要集中在0.94上下波動;載體圖像/含密圖像對PSNR主要集中在32 dB上下波動,SSIM主要集中在0.82上下波動。StegaLIN模型隱寫的準(zhǔn)確率和安全性方面都表現(xiàn)出優(yōu)異的效果,能夠滿足圖像隱寫的要求,驗證了StegaLIN模型的實用性。
2.4 可逆塊數(shù)量對隱寫能力的影響
本文研究了可逆塊的數(shù)量對隱寫能力的影響,本文方案中StegaLIN模型的可逆塊數(shù)量為8,Hi-Net的可逆塊數(shù)量為16,HiNet+的可逆塊數(shù)量為24,隨著可逆塊數(shù)量的增加,圖像的PSNR/SSIM數(shù)值也有所增加。圖7柱狀圖分別顯示出含密圖像質(zhì)量與恢復(fù)圖像質(zhì)量,即PSNR/SSIM值。當(dāng)可逆塊數(shù)量為24時,圖像的PSNR/SSIM值最大,PSNR達到了35 dB左右,SSIM達到了0.94以上。但是綜合考慮訓(xùn)練時間成本的成倍增加,當(dāng)可逆塊數(shù)量為8時,已經(jīng)達到圖像隱藏對圖像質(zhì)量的要求,表明輕量級網(wǎng)絡(luò)結(jié)構(gòu)StegaLIN能夠在取得良好的圖像質(zhì)量和安全性的同時降低訓(xùn)練的時間成本,提高了模型的隱寫效率。
2.5 f(·)、r(·)和y(·)不同結(jié)構(gòu)對網(wǎng)絡(luò)的影響
由于網(wǎng)絡(luò)的可逆性,f(·)、r(·)和y(·)可以采用任意函數(shù),本文中f(·)、r(·)和y(·)采用DenseNet。
HiNet中DenseNet采用的卷積塊數(shù)量為5,但是本文通過實驗發(fā)現(xiàn),DenseNet中卷積層的數(shù)量對網(wǎng)絡(luò)的隱寫能力有一定的影響。圖8中柱狀圖顯示了不同結(jié)構(gòu)的f(·)、r(·)和y(·)對應(yīng)的含密圖像質(zhì)量與恢復(fù)圖像質(zhì)量,分析不同結(jié)構(gòu)對網(wǎng)絡(luò)模型性能的影響。由圖8可以看出,當(dāng)卷積層為7時效果最好,這也是本文在HiNet上的改進沒有延續(xù)卷積數(shù)為5,而是采用卷積數(shù)為7的f(·)、r(·)和y(·)結(jié)構(gòu)的原因。
2.6 λ2值對網(wǎng)絡(luò)的影響
本文通過實驗發(fā)現(xiàn),不同的λ2值對網(wǎng)絡(luò)模型隱寫圖像的質(zhì)量具有一定的影響。如圖9所示,固定λ1和λ3數(shù)值不變,當(dāng)λ2=0.5時網(wǎng)絡(luò)模型的隱寫能力最好,PSNR值達到了35.66 dB,SSIM值達到了94.95%。相比于HiNet設(shè)置λ2=8時實驗結(jié)果明顯提高,恢復(fù)圖像的質(zhì)量增強,PSNR提高了1.5 dB,SSIM提高了3.5%。
2.7 隱寫分析
隱寫分析結(jié)果度量了隱寫分析工具[22]區(qū)分含密圖像和載體圖像的可能性。目前主流的隱寫分析方法可分為基于統(tǒng)計的傳統(tǒng)方法和基于深度學(xué)習(xí)的新方法兩類。
1)傳統(tǒng)隱寫分析工具 與文獻[8]一樣,本文使用開源的隱寫分析工具StegExpose[31]評價本文網(wǎng)絡(luò)模型的抗隱寫分析能力。從測試集中隨機選擇50張載體圖像和秘密圖像,通過本文網(wǎng)絡(luò)模型生成含密圖像XSte。為了繪制(ROC)曲線,實驗在很大范圍內(nèi)改變StegExpose中的檢測閾值。圖10為網(wǎng)絡(luò)的ROC曲線。ROC曲線一直圍繞著隨機猜測曲線上下波動,表明檢測結(jié)果與隨機猜測相同。實驗證明StegExpose工具無法檢測由本文網(wǎng)絡(luò)模型生成的圖像是否為含密圖像。
2)基于深度學(xué)習(xí)的隱寫分析工具 SRNet[6]是一種用于圖像隱寫分析的網(wǎng)絡(luò),可區(qū)分含密圖像和載體圖像。SRNet使用Adam優(yōu)化器,輸入圖像大小統(tǒng)一調(diào)整為256×256,learning rate=0.001,batch size=10,epochs=180。表2給出了不同圖像隱藏方法下SRNet的檢測精度。其中,檢測精度越接近50%(隨機猜測),圖像隱藏算法性能越好。可以看出,本文網(wǎng)絡(luò)模型StegaLIN的檢測準(zhǔn)確率為57.64%,顯著優(yōu)于其他方法[8,32,33]。
2.8 小波變換和L低頻損失的有效性
為驗證小波變換與小波低頻損失對圖像安全性的影響,本文設(shè)計了三組實驗,分別為不進行小波變換、進行小波變換但不考慮低頻損失,以及考慮小波低頻損失。這種情況下圖像的檢測率如表3所示,其中隱寫分析模型采用了SRNet的方法。
從表3的第二和第三行可以看出,設(shè)置小波變換和低頻損失顯著提高了方法的安全性,檢測率從77.28%下降到57.64%,證明了通過設(shè)置小波變換與L低頻損失來約束網(wǎng)絡(luò)模型的有效性。
3 結(jié)束語
本文提出了一種基于可逆網(wǎng)絡(luò)的輕量化圖像信息隱藏方案,通過將可逆塊與密集連接中的卷積塊的優(yōu)勢互補,在保持圖像質(zhì)量的同時,縮短了模型的訓(xùn)練與隱寫時間,提高了隱寫效率。通過仿真實驗與隱寫分析,說明了本文隱寫方案的可行性、安全性以及較高的隱寫效率。未來工作可專注于如何對圖像進行預(yù)處理以實現(xiàn)圖像的無損提取。
參考文獻:
[1]Tamimi A A,Abdalla A M A,Al-Allaf O N A.Hiding an image inside another image using variable-rate steganography[J/OL].International Journal of Advanced Computer Science and Applications,2013,4(10).http://doi.org/10.14569/JACSA.2013.041004.
[2]Boland F M,ORuanaidh J J K,Dautzenberg C.Watermarking digital images for copyright protection[C]//Proc of the 5th International Conference on Image Processing and Its Applications.Piscataway,NJ:IEEE Press,1995:326-330.
[3]Fridrich J,Goljan M,Du Rui.Detecting LSB steganography in color,and gray-scale images[J].IEEE MultiMedia,2001,8(4):22-28.
[4]黃思遠,張敏情,柯彥,等.基于自注意力機制的圖像隱寫分析方法[J].計算機應(yīng)用研究,2021,38(4):1190-1194.(Huang Siyuan,Zhang Minqing,Ke Yan.Image steganalysis based on self-attention[J].Application Research of Computers,2021,38(4):1190-1194.)
[5]Pevn T,F(xiàn)iller T,Bas P.Usinghigh-dimensional image models to perform highly undetectable steganography[C]//Proc of International Workshop on? Information Hiding.Berlin:Springer,2010:161-177.
[6]Boroumand M,Chen Mo,F(xiàn)ridrich J J.Deep residual network for steganalysis of digital images[J].IEEE Trans on Information Forensics and Security,2019,14:1181-1193.
[7]Baluja S.Hiding images in plain sight:deep steganography[C]//Proc of the 31st International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2017:2066-2076.
[8]Baluja S.Hiding images within images[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2020,42(7):1685-1697.
[9]Rehman A U,Rahim R,Nadeem M S,et al.End-to-end trained CNN encode-decoder networks for image steganography[EB/OL].(2017-11-20).https://arxiv.org/abs/1711.07201.
[10]Zhang Ru,Dong Shiqi,Liu Jianyi.Invisible steganography via generative adversarial networks [EB/OL].(2018-10-10).https://arxiv.org/abs/1807.08571.
[11]Hayes J,Danezis G.Generating steganographic images via adversarial training[EB/OL].(2017-07-24).https://arxiv.org/abs/1703.00371.
[12]畢新亮,楊曉元,劉文超,等.載體選擇型圖像隱寫算法研究[J].計算機應(yīng)用研究,2021,38(8):2465-2468.(Bi Xinliang,Yang Xiaoyuan,Liu Wenchao,et al.Research on cover selection image steganography algorithm[J].Application Research of Computers,2021,38(8):2465-2468.)
[13]Hu Donghui,Wang Liang,Jiang Wenjie,et al.A novel image ste-ganography method via deep convolutional generative adversarial networks[J].IEEE Access,2018,6:38303-38314.
[14]Liu Jia,Zhou Tanping,Zhang Zhuo,et al.Digital cardan grille:a mo-dern approach for information hiding[EB/OL].(2018-05-11).https://arxiv.org/abs/1803.09219.
[15]Zhang K A,Cuesta-Infante A,Xu Lei,et al.SteganoGAN:high capacity image steganography with GANs[EB/OL].(2019-01-30).https://arxiv.org/abs/1901.03892.
[16]Jing Junpeng,Deng Xin,Xu Mai,et al.HiNet:deep image hiding by invertible network[C]// Proc of IEEE/CVF International Conference on Computer Vision.Piscataway,NJ:IEEE Press,2021:4713-4722.
[17]Dinh L,Krueger D,Bengio Y.NICE:non-linear independent components estimation[EB/OL].(2015-04-10).https://arxiv.org/abs/1410.8516.
[18]Dinh L,Sohl-Dickstein J,Bengio S.Density estimation using real NVP[EB/OL].(2017-02-27).https://arxiv.org/abs/1605.08803.
[19]Kingma D P,Dhariwal P.Glow:generative flow with invertible 1×1 convolutions[EB/OL].(2018-07-10).https://arxiv.org/abs/1807.03039.
[20]Wang Yaolong,Xiao Mingqing,Liu Chang,et al.Modeling lost information in lossy image compression[EB/OL].(2020-07-08).https://arxiv.org/abs/2006.11999.
[21]Pan Zhihong.Learning adjustable image rescaling with joint optimization of perception and distortion[C]//Proc of ICASSP IEEE International Conference on Acoustics,Speech and Signal Processing.Pisca-taway,NJ:IEEE Press,2022:2455-2459.
[22]Xiao Mingqing,Zheng Shuxin,Liu Chang,et al.Invertible image resca-ling[EB/OL].(2020-05-12).https://arxiv.org/abs/2005.05650.
[23]Van der Ouderaa T F A,Worrall D E.Reversible GANs for memory-efficient image-to-image translation[C]//Proc of IEEE/CVF Confe-rence on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:4715-4723.
[24]Zhu Xiaobin,Li Zhuangzi,Zhang Xiaoyu,et al.Residual invertible spatio-temporal network for video super-resolution[C]//Proc of the 33rd? AAAI Conference on Artificial Intelligence? and the 31st Innovative Applications of Artificial Intelligence Conference and the 9th AAAI Symposium on Educational Advances in Artificial Intelligence.Palo Alto,CA:AAAI Press,2019:5981-5988.
[25]Ardizzone L,Lyuth C,Kruse J,et al.Guided image generation with conditional invertible neural networks[EB/OL].(2019-07-10).https://arxiv.org/abs/1907.02392.
[26]Guan Zhenyu,Jing Junpeng,Deng Xin,et al.DeepMIH:deep invertible network for multiple image hiding[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2022,45:372-390.
[27]Liu Lianshan,Tang Li,Zheng Weimin.Lossless image steganography based on invertible neural networks[J].Entropy,2022,24(12):1762.
[28]Lu Shaoping,Wang Rong,Zhong Tao,et al.Large-capacity image steganography based on invertible neural networks[C]// Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Pisca-taway,NJ:IEEE Press,2021:10811-10820.
[29]Xu Youmin,Mou Chong,Hu Yujie,et al.Robust invertible image steganography[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:7865-7874.
[30]Agustsson E.Challenge on single image super-resolution:dataset and study[C]// Proc of IEEE Conference on Computer Vision and Pattern Recognition Workshops.Piscataway,NJ:IEEE Press,2017:1122-1131.
[31]Boehm B.StegExpose:a tool for detecting LSB steganography[EB/OL].(2014-10-24).https://arxiv.org/abs/1410.6656.
[32]Zhu Jiren,Kaplan R,Johnson J,et al.HiDDeN:Hiding data with deep networks[EB/OL].(2018-07-26).https://arxiv.org/abs/1807.09937.
[33]Weng Xinyu,Li Yongzhi,Chi Lu,et al.High-capacity convolutional video steganography with temporal residual modeling[C]//Proc of International Conference on Multimedia Retrieval.New York:ACM Press,2019:87-95.