胡欣玨,付章杰
1.南京信息工程大學(xué) 計算機(jī)學(xué)院、網(wǎng)絡(luò)空間安全學(xué)院,南京 210044
2.南京信息工程大學(xué) 數(shù)字取證教育部工程研究中心,南京 210044
以圖藏圖是一種將秘密圖像通過嵌入算法隱藏到自然載體圖像中,再由接收方通過提取算法提取出秘密圖像的技術(shù),是實現(xiàn)大容量隱蔽通信的有效方法。當(dāng)前以圖藏圖隱寫算法大多采用基于載體嵌入式的深度學(xué)習(xí)隱寫模型[1],即秘密信息的發(fā)送者及接受者可利用訓(xùn)練好的編碼-解碼網(wǎng)絡(luò)在載體圖像上完成秘密圖像的隱藏和提取,秘密信息的發(fā)送者及接受者均不需要具備關(guān)于圖像隱寫方面的先驗知識。
2017年,Baluja[2]發(fā)表了首個以圖藏圖隱寫模型,將一張彩色圖像成功隱藏到了另一張同尺寸的彩色圖像中。該模型包括預(yù)處理網(wǎng)絡(luò)、編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)。編碼網(wǎng)絡(luò)將經(jīng)過預(yù)處理的秘密圖像隱藏進(jìn)載體圖像中,并通過解碼網(wǎng)絡(luò)將秘密圖像提取出來。但由于該模型的網(wǎng)絡(luò)結(jié)構(gòu)僅為簡單的幾層卷積及激活操作,并未針對隱寫任務(wù)設(shè)計特征提取能力較強(qiáng)的結(jié)構(gòu),因此過多的信息嵌入導(dǎo)致了該模型生成的含密圖像存在明顯的嵌入失真,重構(gòu)的秘密圖像平滑區(qū)域噪點(diǎn)較多。為進(jìn)一步提高圖像質(zhì)量,Wu等[3]在2018年提出了Stegnet,通過增加方差損失,使噪聲在圖像中均勻分布,解決了平滑區(qū)域噪點(diǎn)明顯的問題。同時,該模型在編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)中均設(shè)計了可分離卷積模塊,有效降低了訓(xùn)練參數(shù)量,但在訓(xùn)練過程中并未正確學(xué)習(xí)到顏色特征,使得含密圖像依舊存在顏色失真的問題。2019 年,Duan 等[4]將U-Net結(jié)構(gòu)型網(wǎng)絡(luò)作為編碼器,借助其對稱的上采樣、下采樣操作以及跳躍連接方法,有效將深、淺層次的特征融合,從而使生成的含密圖像質(zhì)量更高。同年,Duan等[5]又提出了一種基于FC-DenseNets 的隱寫算法。該算法的編碼網(wǎng)絡(luò)采用圖像分割領(lǐng)域經(jīng)典的FC-DenseNets結(jié)構(gòu),通過幾個Dense 模塊以及跳躍連接操作高效提取圖像特征,使含密圖像達(dá)到了較高的圖像質(zhì)量。同時,與U-Net結(jié)構(gòu)相比,F(xiàn)C-DenseNets 結(jié)構(gòu)參數(shù)量較少,有效節(jié)省了訓(xùn)練時間。
部分研究者為了減少大容量的秘密圖像對載體的影響,將秘密圖像由三通道的彩色圖像更換為單通道的灰度圖像。2018 年,Rehman 等[6]第一次實現(xiàn)了彩色圖像對灰度圖像的隱藏,該模型采用編碼-解碼網(wǎng)絡(luò)實現(xiàn)圖像的隱藏及提取,并結(jié)合圖像質(zhì)量和網(wǎng)絡(luò)權(quán)重設(shè)計了新的損失函數(shù)。但同樣由于其網(wǎng)絡(luò)結(jié)構(gòu)僅為簡單的幾層卷積及激活操作,導(dǎo)致該模型生成的含密圖像質(zhì)量不佳。此后,Zhang 等[7]提出的ISGAN 將彩色載體圖像分為Y/U/V三通道,秘密灰度圖像僅嵌入在載體圖像的Y通道中。之后再將Y通道含密圖像與U、V通道進(jìn)行拼接,生成彩色含密圖像。此項操作有效避免了U、V 通道中亮度和色彩信息的丟失。提高了含密圖像的生成質(zhì)量。2020 年,Chen 等[8]提出的模型運(yùn)用了與ISGAN相近的思路,考慮到人眼對B 通道的較低敏感性,該模型將秘密灰度圖像嵌入到彩色載體圖像的B通道中,并在模型中加入隱寫分析網(wǎng)絡(luò)以提高生成含密圖像的安全性。與ISGAN 相比,該模型生成的含密圖像及重構(gòu)秘密圖像的PSNR 均提高了2 dB 左右??紤]到現(xiàn)有隱寫模型對網(wǎng)絡(luò)穩(wěn)健性鮮有研究,Zhu 等[9]構(gòu)建了一個含有雙重GAN 網(wǎng)絡(luò)的模型DGANS。該模型運(yùn)用第二層GAN 網(wǎng)絡(luò)對經(jīng)過了裁剪、縮放等操作的增強(qiáng)數(shù)據(jù)進(jìn)行訓(xùn)練,從而使模型具有抵抗小幅度幾何攻擊的能力。但由于雙重GAN 網(wǎng)絡(luò)的訓(xùn)練不穩(wěn)定,該模型結(jié)構(gòu)的訓(xùn)練難以達(dá)到最優(yōu)的納什均衡,導(dǎo)致生成的圖像質(zhì)量較差。
此后,從增加隱寫容量的角度出發(fā),Baluja提出“一圖藏兩圖”的模型[10],使得模型的嵌入容量達(dá)到48 bpp,同時通過隱藏多張圖像的方式混淆真正的秘密信息,從而提升了含密圖像的安全性。但該模型結(jié)構(gòu)與文獻(xiàn)[2]相同,僅根據(jù)一圖藏兩圖任務(wù)修改了秘密圖像輸入通道,因此該模型生成的含密圖像及重構(gòu)的秘密圖像失真明顯。
本文針對一圖藏兩圖模型生成的含密圖像以及重構(gòu)的秘密圖像質(zhì)量較差的問題,為進(jìn)一步增強(qiáng)一圖藏兩圖技術(shù)的實用性,提出基于富特征分支網(wǎng)絡(luò)的高圖像質(zhì)量的一圖藏兩圖方法。該方法依舊采用編碼-解碼網(wǎng)絡(luò)結(jié)構(gòu),但在編碼網(wǎng)絡(luò)結(jié)構(gòu)、解碼網(wǎng)絡(luò)結(jié)構(gòu)以及損失函數(shù)方面均設(shè)計了更適合隱寫任務(wù)的改進(jìn),具體工作包括:
(1)設(shè)計了Res2Net-Inception 模塊,極大提升了雙分支編碼網(wǎng)絡(luò)的特征學(xué)習(xí)能力和特征融合能力,從而保證含密圖像質(zhì)量。
(2)設(shè)計了W-Net 網(wǎng)絡(luò)結(jié)構(gòu),利用其長短連接結(jié)合的特點(diǎn),同時提取圖像深層和淺層特征,從而實現(xiàn)秘密圖像的高質(zhì)量提取。
(3)提出了一種MS-SSIM+MAE+MSE混合損失函數(shù),同時考慮兩張圖像像素之間的差異以及圖像整體的差異,提高含密圖像及重構(gòu)秘密圖像的質(zhì)量。
神經(jīng)網(wǎng)絡(luò)會隨著不同感受野的卷積操作提取不同層次的特征,因此網(wǎng)絡(luò)結(jié)構(gòu)越深,表達(dá)能力越好。但當(dāng)模型達(dá)到飽和后,精度會開始退化,一味加深網(wǎng)絡(luò)結(jié)構(gòu)會導(dǎo)致較高的訓(xùn)練誤差。為解決上述問題,He 等提出了殘差網(wǎng)絡(luò)結(jié)構(gòu)ResNet[11],2020 年,Cheng 等對ResNet進(jìn)行改進(jìn),提出了Res2Net[12]殘差網(wǎng)絡(luò)結(jié)構(gòu),如圖1所示。
圖1 Res2Net殘差模塊Fig.1 Res2Net residual module
與傳統(tǒng)的殘差塊相比,Res2Net 對經(jīng)過1×1 卷積后的特征按通道數(shù)均分為s塊,每塊為xi,i∈{1,2,…,s}。每一個xi均經(jīng)過一個3×3 卷積,卷積操作用ki表示。經(jīng)卷積操作后的輸出用yi表示。則yi可以表示為:
不同的yi會得到不同感受野的特征圖,最后將s個特征圖合并再經(jīng)過1×1 卷積得到輸出。此種先將通道拆分提取特征再合并的操作可以更高效地學(xué)習(xí)圖像特征。
Inception[13]模塊屬于2014 年ILSVRC 冠軍算法GoogLeNet 的系列模型,包括1×1 卷積層、3×3 卷積層、5×5卷積層和3×3最大池化層,如圖2所示。Inception模塊運(yùn)用不同大小的卷積核提取特征,并在后期將不同感受野大小的特征進(jìn)行融合,提高了網(wǎng)絡(luò)對尺寸的適應(yīng)性。同時,在3×3卷積層前、5×5卷積層前以及最大池化層后均添加了1×1 卷積層,有效降低了特征圖厚度,提高網(wǎng)絡(luò)效率。
圖2 Inception模塊Fig.2 Inception module
Baluja 提出的一圖藏兩圖模型中,通過預(yù)處理網(wǎng)絡(luò)、編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)完成了兩張彩色圖像的隱藏和提取,其模型結(jié)構(gòu)如圖3所示。兩張秘密圖像經(jīng)過通道合并后輸入預(yù)處理網(wǎng)絡(luò),預(yù)處理網(wǎng)絡(luò)將其基于色彩的像素轉(zhuǎn)換為有利于編碼的特征;編碼網(wǎng)絡(luò)將經(jīng)過處理的兩張秘密圖像隱藏進(jìn)載體圖像生成含密圖像,解碼網(wǎng)絡(luò)從含密圖像中將兩張秘密圖像提取出來。預(yù)處理網(wǎng)絡(luò)、編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)的具體網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。
圖3 Baluja一圖藏兩圖模型結(jié)構(gòu)Fig.3 Baluja’s model of hiding two images
表1 Baluja一圖藏兩圖模型網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Network architectures of hiding two images
在模型訓(xùn)練過程中,Baluja 使用均方誤差(mean square error,MSE)作為損失函數(shù),如式(2)所示。
其中,C表示載體圖像,C′表示含密圖像,S表示秘密圖像,S′表示重構(gòu)出的秘密圖像。該模型采用端到端的訓(xùn)練方式,前半部分計算的載體圖像和含密載體的差異僅影響編碼器網(wǎng)絡(luò)的訓(xùn)練;后半部分計算的重構(gòu)秘密圖像和原始秘密圖像的差異值則會同時影響編碼網(wǎng)絡(luò)和解碼網(wǎng)絡(luò)的參數(shù)。參數(shù)β用于權(quán)衡含密圖像生成真實性與秘密圖像提取準(zhǔn)確率,β越大,恢復(fù)出的秘密圖像質(zhì)量更好。
然而,針對編碼-解碼網(wǎng)絡(luò)結(jié)構(gòu)而言,Baluja 的模型結(jié)構(gòu)較為簡單,無法提取出足夠的特征用于含密圖像及重構(gòu)秘密圖像的生成。此外,針對損失函數(shù)而言,MSE損失僅僅是逐像素比較差異,沒有考慮到人類的視覺感知,即忽略了圖像亮度、結(jié)構(gòu)性等信息。
因此,本文受Baluja工作的啟發(fā),依舊采用編碼-解碼網(wǎng)絡(luò)進(jìn)行秘密圖像的隱寫和提取。但針對編碼網(wǎng)絡(luò)設(shè)計了特征提取能力更強(qiáng)的Res2Net-Inception模塊,針對解碼網(wǎng)絡(luò)設(shè)計了全尺度特征捕捉網(wǎng)絡(luò)W-Net,針對損失函數(shù)設(shè)計了更符合人類視覺感知的混合損失函數(shù)。
本文提出了基于富特征分支網(wǎng)絡(luò)的高圖像質(zhì)量的一圖藏兩圖模型,如圖4所示,由編碼網(wǎng)絡(luò)、解碼網(wǎng)絡(luò)兩部分組成。編碼網(wǎng)絡(luò)中,設(shè)計Res2Net-Inception 模塊,以提高含密載體的質(zhì)量;解碼網(wǎng)絡(luò)中,設(shè)計W-Net 網(wǎng)絡(luò)結(jié)構(gòu),長短連接結(jié)合抓取不同層次的特征,保證提取出的秘密圖像的真實性。
圖4 一圖藏兩圖模型整體框架Fig.4 Overall architecture of hiding two images
2.2.1 Res2Net-Inception模塊
本文將Res2Net模塊中的兩個1×1卷積替換為3×3卷積,將通道拆分后的3×3 卷積替換為Inception 模塊,并在最后的3×3 卷積后加入通道注意力機(jī)制層,構(gòu)成Res2Net-Inception模塊,其結(jié)構(gòu)如圖5所示。
圖5 Res2Net-Inception模塊Fig.5 Res2Net-Inception module
此時yi可以表示為:
其中,IC(·)為Inception模塊。相比于原始的3×3卷積操作,Inception 模塊可以同時從不同感受野提取xi的特征,特征學(xué)習(xí)能力更強(qiáng)。
在最后的3×3卷積后,本方案加入了通道注意力機(jī)制[14]層(簡稱為SE層)。該層可以通過建模各通道之間的關(guān)系來自動學(xué)習(xí)每一個特征通道的重要程度,即自動為每一個通道分配一個對應(yīng)的權(quán)值。模型通過不斷訓(xùn)練,抑制與隱寫任務(wù)關(guān)系不大的特征,提升重要特征通道的權(quán)值,從而達(dá)到更好的隱寫效果。
假設(shè)特征圖合并并經(jīng)過3×3卷積后,得到的特征為z。首先,SE層會將該特征的每一個通道上的空間特征編碼為一個全局特征,計算方法為:
其中,H、W和C分別是圖像的高、寬和通道。
得到了每通道特征的全局描述后,通過降維-ReLU激活-恢復(fù)維度-Sigmoid激活的操作,學(xué)習(xí)各個通道之間的依賴關(guān)系,從而得到屬于每一個特征通道的權(quán)重系數(shù)ec:
最后,將學(xué)習(xí)到的通道權(quán)值乘上原始特征,得到最終特征F:
2.2.2 編碼器結(jié)構(gòu)
編碼器結(jié)構(gòu)如圖6所示,包括特征提取階段和特征融合階段。在特征提取階段,編碼器運(yùn)用其雙分支結(jié)構(gòu)分別獨(dú)立地提取載體圖像和秘密圖像的特征。每個分支上的Res2Net-Inception 模塊負(fù)責(zé)對經(jīng)過卷積操作后的特征在同一分辨率進(jìn)行不同尺度的特征提取和通道重要性學(xué)習(xí)。然后,在特征融合階段,編碼器運(yùn)用拼接操作和反卷積操作將提取到的特征進(jìn)行融合,最后得到含密圖像。
圖6 編碼器結(jié)構(gòu)Fig.6 Encoder architecture
為實現(xiàn)對兩張秘密圖像的無損提取,應(yīng)設(shè)計特征提取能力較強(qiáng)的雙分支輸出網(wǎng)絡(luò)作為解碼網(wǎng)絡(luò)。已有方法常使用U-Net結(jié)構(gòu)型網(wǎng)絡(luò),通過多層下采樣及上采樣操作提取深層次抽象的圖像信息,但在該過程中,一些圖像細(xì)節(jié)易被丟失。為了全尺度捕捉圖像細(xì)粒度細(xì)節(jié)和粗粒度語義,設(shè)計W-Net 結(jié)構(gòu)作為解碼網(wǎng)絡(luò),在普通U-Net結(jié)構(gòu)型網(wǎng)絡(luò)中設(shè)計雙輸出分支及跳躍連接操作。其結(jié)構(gòu)示意圖如圖7所示。
圖7 W-Net解碼網(wǎng)絡(luò)Fig.7 Decoder network W-Net
W-Net網(wǎng)絡(luò)的輸入為含密圖像,經(jīng)過四層下采樣操作后,在最后一個下采樣節(jié)點(diǎn)進(jìn)行通道分離操作,分裂成兩個分支分別執(zhí)行兩張秘密圖像的重構(gòu)工作。
對于W-Net的跳躍連接操作,假設(shè)節(jié)點(diǎn)為xi,j,其中i為下采樣的層數(shù),j為分支數(shù),則xi,j節(jié)點(diǎn)的計算公式為:
其中,C(·)為卷積操作+LeakyReLU激活函數(shù)+BN操作,F(xiàn)(·)代表反卷積操作+LeakyReLU 激活函數(shù)+BN 操作,[·,·]代表通道拼接操作,U(·)代表上采樣操作。通過跳躍連接操作,其上采樣部分的節(jié)點(diǎn)可以得到兩方面的特征信息,一是下采樣部分與其同一分辨率的細(xì)節(jié)特征,二是上采樣部分更高分辨率的特征圖。將淺層次細(xì)節(jié)和深層次語義相融合,從全尺度搜索更多的圖像信息,從而使恢復(fù)出來的兩張秘密圖像質(zhì)量更好。
為了讓模型可以綜合考慮到兩張圖像像素以及整體之間的差異,本文將MS-SSIM(multi-scale structural similarity index)[15]、MAE(mean absolute error)和MSE損失引入構(gòu)建一個復(fù)合損失函數(shù)。其中,MSE 表示圖像x和y的均方誤差,計算公式為:
其中,p表示圖像像素點(diǎn),N表示圖像總像素。
MAE損失是兩張圖像逐像素比較差異,計算公式為:
MSE 損失以及MAE 損失僅是逐像素比較差異,沒有考慮到人類的視覺感知,即忽略了圖像亮度、結(jié)構(gòu)性等信息,因此引入MS-SSIM損失。MS-SSIM損失運(yùn)用到了不同尺度的SSIM(structural similarity index),相當(dāng)于考慮了不同的分辨率,很好地解決了SSIM 損失高斯濾波參數(shù)不好平衡的問題。MS-SSIM損失的計算公式為:
其中,μx、μy分別為x和y的平均值,也代表圖像x和y的亮度;K1為一個小于等于1的常數(shù);M為自定義尺度,在此取值為5;σx、σy分別為x和y的標(biāo)準(zhǔn)差,也代表圖像x和y的對比度;σxy為x和y的協(xié)方差,也代表圖像x和y的結(jié)構(gòu)相似度;K2為一個小于等于1的常數(shù)。通常用1-MS-SSIM(x,y)來衡量兩張圖像的差異。
MS-SSIM 容易導(dǎo)致亮度和顏色的偏差,但可以較好地保留高頻信息[16]。MAE損失可以保證亮度和顏色不變化,因此將兩者結(jié)合起來構(gòu)成混合損失函數(shù)。同時,為防止陷入局部最優(yōu),在運(yùn)用該混合損失函數(shù)訓(xùn)練網(wǎng)絡(luò)收斂后,繼續(xù)用MSE損失進(jìn)行訓(xùn)練,可以達(dá)到更好的訓(xùn)練效果。
由MS-SSIM、MAE、MSE 構(gòu)成的混合損失函數(shù)如式(11)~(14)所示。
其中,c代表載體圖像;c′代表含密圖像;s1代表第一張秘密圖像;代表重構(gòu)的第一張秘密圖像;s2代表第二張秘密圖像;代表重構(gòu)的第二張秘密圖像;α、β、γ是超參數(shù),α用于權(quán)衡MS-SSIM損失與MAE損失分量的重要程度,β、γ用于權(quán)衡含密圖像生成真實性以及秘密圖像提取準(zhǔn)確率。
為了驗證本文提出方案的有效性,實驗使用PASCAL VOC2012 和Tiny ImageNet 兩個數(shù)據(jù)集。從PASCAL VOC2012 數(shù)據(jù)集中隨機(jī)選擇15 000 張圖像作為訓(xùn)練集,1 500 張作為測試集;從Tiny ImageNet 數(shù)據(jù)集中隨機(jī)選擇1 500 張作為測試集,所有圖像的尺寸統(tǒng)一調(diào)整為256×256。算法的實驗環(huán)境是谷歌云端TPU服務(wù)器,程序使用python3.7版本的tensorflow深度學(xué)習(xí)框架實現(xiàn)。
上述方案在訓(xùn)練時,采用Xavier初始化方法來初始化模型參數(shù);初始學(xué)習(xí)率設(shè)置為10-3。網(wǎng)絡(luò)首先采用MS-SSIM+MAE 混合損失函數(shù)訓(xùn)練編碼-解碼網(wǎng)絡(luò),網(wǎng)絡(luò)收斂后采用MSE損失函數(shù)繼續(xù)訓(xùn)練編碼-解碼網(wǎng)絡(luò),訓(xùn)練50 輪后采用keras 的回調(diào)函數(shù),根據(jù)當(dāng)前損失動態(tài)調(diào)整學(xué)習(xí)率,學(xué)習(xí)率的衰減因子為0.2。受限于算力,批尺寸設(shè)置為8;采用Adam 隨機(jī)梯度下降算法來進(jìn)行參數(shù)的迭代優(yōu)化。根據(jù)經(jīng)驗進(jìn)行多輪嘗試后,將損失函數(shù)中的超參數(shù)α、β、γ分別設(shè)置為0.6、1、1。因為本文想要恢復(fù)出較高質(zhì)量的秘密圖像,所以將權(quán)衡含密圖像生成質(zhì)量和秘密圖像提取質(zhì)量的參數(shù)β和γ均設(shè)置為1。
為了驗證本文提出方案設(shè)計的有效性,對本文方案以及文獻(xiàn)[10]方法生成含密圖像以及重構(gòu)秘密圖像的質(zhì)量進(jìn)行對比。常用的衡量圖像質(zhì)量的指標(biāo)是SSIM和PSNR(peak signal to noise ratio),其在兩個數(shù)據(jù)集上的實驗結(jié)果如表2所示??梢钥吹?,本文方案生成含密圖像及重構(gòu)秘密圖像的質(zhì)量遠(yuǎn)優(yōu)于文獻(xiàn)[10]的方法,在Tiny ImageNet數(shù)據(jù)集上,本文方案生成含密圖像的PSNR值比文獻(xiàn)[10]方法提高了12 dB,SSIM 值比文獻(xiàn)[10]方法提高了5%;兩張重構(gòu)秘密圖像的PSNR 平均值比文獻(xiàn)[10]方法提高了10 dB,SSIM 平均值比文獻(xiàn)[10]方法提高了10%。
表2 兩種方案的圖像視覺質(zhì)量對比Table 2 Visual comparison of image quality for two solutions
圖8和圖9給出了本文方案與文獻(xiàn)[10]在兩個數(shù)據(jù)集上可視化結(jié)果的比較。可以看到,即使將兩張秘密圖像隱藏到一張相同尺寸的載體圖像中,本文方案生成的含密圖像以及重構(gòu)的秘密圖像仍具有較高的視覺質(zhì)量,不存在明顯的顏色失真問題。為了展示原始圖像和生成圖像之間的差異,將其殘差圖像放大了10 倍。與文獻(xiàn)[10]對比,本文方案的殘差圖像更暗,說明本文方案生成的含密圖像以及重構(gòu)的兩張秘密圖像均有著更小的誤差,與原始圖像更加接近。實驗表明,本文方案生成的含密圖像以及重構(gòu)的秘密圖像具有較高的圖像質(zhì)量,在定性和定量方面的指標(biāo)都優(yōu)于文獻(xiàn)[10]。與文獻(xiàn)[10]相比,本文方案針對編碼網(wǎng)絡(luò)設(shè)計了雙分支輸入以及Res2Net-Inception模塊,通過兩個分支分別提取載體圖像與秘密圖像特征,可以防止兩類圖像特征混雜,而加入的Res2Net_Inception 模塊從不同感受野提取圖像特征,并通過注意力機(jī)制抑制與隱寫任務(wù)關(guān)系不大的特征,從而使含密圖像擁有良好的視覺效果。針對解碼網(wǎng)絡(luò)設(shè)計了W-Net 結(jié)構(gòu),從全尺度捕捉圖像特征,從而提高重構(gòu)秘密圖像質(zhì)量。針對損失函數(shù)設(shè)計的混合損失綜合考慮兩幅圖像像素級別差異以及整體差異,進(jìn)一步促進(jìn)圖像質(zhì)量的提高。因此,可以得出結(jié)論,在網(wǎng)絡(luò)中將不同層的輸入映射融合作為深卷積層的輸出,最大限度地利用全尺度的特征映射,以及設(shè)計適用于隱寫任務(wù)的損失函數(shù)是提高隱寫圖像視覺質(zhì)量的有效方法。
圖8 兩個在Tiny ImageNet數(shù)據(jù)集上的可視化結(jié)果Fig.8 Two visualization examples on Tiny ImageNet dataset
圖9 兩個在PASCAL VOC2012數(shù)據(jù)集上的可視化結(jié)果Fig.9 Two visualization examples on PASCAL VOC2012 dataset
消融實驗主要討論了不同損失函數(shù)及其組合對圖像質(zhì)量的影響,測試數(shù)據(jù)集為Tiny ImageNet,其結(jié)果如表3所示。在單獨(dú)使用MS-SSIM損失訓(xùn)練時,含密圖像的PSNR值偏低,這是由于MS-SSIM損失可以較好地保留高頻區(qū)域的對比度,而秘密圖像大多隱藏在載體圖像紋理復(fù)雜的區(qū)域,從而導(dǎo)致生成的含密圖像質(zhì)量較差。采用了MS-SSIM+MAE混合損失后,各項測試指標(biāo)均得到了較大的提升。而采用了本文所述的MS-SSIM+MAE混合損失與MSE 損失交替訓(xùn)練的方法后,圖像質(zhì)量進(jìn)一步得到了提升,驗證了本文所提MS-SSIM+MAE+MSE混合損失函數(shù)的優(yōu)越性。
表3 不同損失函數(shù)的消融實驗Table 3 Ablation experiments for different loss functions
為了進(jìn)一步探索本文方案的隱寫能力,對一些極端情況下的圖像隱藏進(jìn)行測試。測試圖像包括單色圖像、噪聲圖像和自然圖像。從圖10和表4結(jié)果中可以看到,在單色圖像和自然圖像相互隱藏的情況下,生成的圖像均具有較好的圖像質(zhì)量。但噪聲圖像作為載體或作為秘密圖像時,噪聲圖像本身不能被很好地重構(gòu)出來。
表4 極端情況下的圖像質(zhì)量Table 4 Visual quality results for extreme cases
圖10 極端情況下的圖像視覺效果Fig.10 Visual results for extreme cases
本文提出了一個基于富特征分支網(wǎng)絡(luò)的高圖像質(zhì)量的一圖藏兩圖方法,可以將兩張秘密圖像隱藏到一張相同尺寸的載體圖像中,且保證生成的含密圖像及重構(gòu)的兩張秘密圖像具有較高的圖像質(zhì)量。編碼網(wǎng)絡(luò)中的Res2Net-Inception 模塊在同一分辨率對不同尺度的特征進(jìn)行提取,并自動抑制與隱寫任務(wù)關(guān)系不大的非重要特征,從而實現(xiàn)特征的高效提取。解碼網(wǎng)絡(luò)的W-Net結(jié)構(gòu)運(yùn)用長短連接結(jié)合的方式抓取不同層次的特征,并運(yùn)用兩個分支同時提取兩張秘密圖像的特征,從而提高了秘密圖像的重構(gòu)質(zhì)量。實驗結(jié)果表明,本文方案生成的含密圖像以及重構(gòu)的秘密圖像均具有較高的視覺質(zhì)量。接下來將進(jìn)一步優(yōu)化以圖藏圖網(wǎng)絡(luò),在保證隱藏容量、圖像質(zhì)量的同時提高含密圖像的抗隱寫分析能力。