黃思遠(yuǎn),張敏情*,柯 彥,畢新亮
(1.武警工程大學(xué)密碼工程學(xué)院,西安 710086;2.網(wǎng)絡(luò)與信息安全武警部隊重點實驗室(武警工程大學(xué)),西安 710086)
(*通信作者電子郵箱aqi_zmq@126.com)
長期以來,圖像隱寫術(shù)和圖像隱寫分析一直在相互斗爭中發(fā)展[1-2]。圖像隱寫術(shù)致力于將秘密信息盡可能地隱藏在圖像中,并盡可能減少圖像在視覺質(zhì)量和統(tǒng)計特征方面的變化;圖像隱寫分析則利用圖像處理和機(jī)器學(xué)習(xí)理論來分析隱寫圖像和載體圖像之間的統(tǒng)計差異,并通過增加特征數(shù)量和增強分類器性能來提高檢測精度。圖像隱寫分析的困難在于隱寫分析模型無法完全有效地建模隱寫操作在圖像中嵌入秘密消息時發(fā)生的細(xì)微差異。近幾年提出的圖像自適應(yīng)隱寫術(shù)利用最小失真函數(shù)用優(yōu)先選擇圖像的紋理復(fù)雜區(qū)域進(jìn)行嵌入,秘密信息更巧妙地隱藏在難以建立隱寫分析模型的區(qū)域中,加大了檢測的難度,提高了隱寫技術(shù)的安全性,給圖像隱寫分析帶來了嚴(yán)峻的挑戰(zhàn)。
為了對抗圖像自適應(yīng)隱寫術(shù),傳統(tǒng)的圖像隱寫分析需要考慮更復(fù)雜、更高維的圖像統(tǒng)計特性。Fridrich 等[3]提出的富模型將多種相異特征融合于一體,使用集成分類器進(jìn)行訓(xùn)練,取得了不錯的效果。但是也面臨諸多困難:首先,算法設(shè)計的復(fù)雜度高、難度大;其次,特征參數(shù)的調(diào)節(jié)需要花費大量的時間和精力,導(dǎo)致實驗效率低下。
近年來,深度學(xué)習(xí)的發(fā)展使得傳統(tǒng)的圖像隱寫分析中提取特征和分類這兩個步驟統(tǒng)一起來并實現(xiàn)自動化,使端到端的方法成為可能,并取得了很好的效果。2015年,Qian等[4]提出一個具有5個卷積層的網(wǎng)絡(luò)結(jié)構(gòu),使用KV 核作為預(yù)處理層對圖像進(jìn)行預(yù)處理,使得模型能夠直接對殘差圖像進(jìn)行學(xué)習(xí),降低了圖像內(nèi)容對訓(xùn)練的干擾。2016 年,Xu 等[5]提出的Xu-Net 使用KV 核作為高通濾波器(High-Pass Filter,HPF)層對圖像進(jìn)行預(yù)處理操作。該網(wǎng)絡(luò)中使用5 個卷積層:為了防止網(wǎng)絡(luò)模型過擬合,前兩個卷積層的卷積核為5× 5,而隨后的卷積層中則使用1× 1大小的卷積核;每個卷積層中均使用了批量標(biāo)準(zhǔn)化(Batch Normalization,BN)操作;前兩個卷積層后使用雙曲正切(Hyperbolic Tangent,TanH)激活函數(shù),其他卷積層使用修正線性單元(Rectified Linear Unit,ReLU)激活函數(shù);每個卷積層通過均值池化來減小特征圖的維度。2017 年Ye 等[6]提出了Ye-Net,該網(wǎng)絡(luò)使用了更深的10 層卷積網(wǎng)絡(luò)結(jié)構(gòu),并且使用30個空域富模型(Spatial Rich Model,SRM)卷積核作為預(yù)處理層來讓模型學(xué)習(xí)更多的特征。Ye 等在文獻(xiàn)中設(shè)計了新的截斷線性單元(Truncated Linear Unit,TLU)作為激活函數(shù),通過適當(dāng)?shù)卦O(shè)置參數(shù)T(一般取3 或7)使網(wǎng)絡(luò)能夠更好地適應(yīng)隱寫噪聲分布;Ye-Net還通過通道選擇,進(jìn)一步改善了 該模型的檢測效果。2018 年,Boroumand 等[7]提出了SRNet,該模型整體由四部分不同作用的卷積層模塊組成,有效地利用了BN 層和殘差網(wǎng)絡(luò),并且加入通道選擇,提高了模型對隱寫算法的檢測準(zhǔn)確率。2019 年,Zhu 等[8]提出的Zhu-Net使用3× 3核代替?zhèn)鹘y(tǒng)的5× 5核,并在預(yù)處理層優(yōu)化卷積層,提高了對空域隱寫術(shù)的檢測精度。
然而,現(xiàn)有的基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)的模型提取的特征仍然存在大量冗余,這意味著特征的大部分維度都是無用的,尤其在檢測圖像自適應(yīng)隱寫算法時,嵌入變化通常被限制在難以建模的復(fù)雜紋理和邊緣區(qū)域,而并非圖像的所有區(qū)域。針對此問題,本文提出了一種基于顯著性檢測的圖像隱寫分析方法,通過對數(shù)據(jù)進(jìn)行預(yù)處理引導(dǎo)模型在訓(xùn)練時提高對圖像隱寫區(qū)域特征的關(guān)注度,從而提高模型的訓(xùn)練效果以及檢測準(zhǔn)確率。
本文的主要工作包括:
1)提出了一種基于顯著性檢測的圖像隱寫分析方法,引導(dǎo)模型對圖像隱寫區(qū)域特征進(jìn)行針對性的學(xué)習(xí);
2)對訓(xùn)練集進(jìn)行數(shù)據(jù)統(tǒng)計分析,并在訓(xùn)練中采取不同的訓(xùn)練策略,對比各種策略給訓(xùn)練效果帶來的影響;
3)在空域和JPEG 域上針對不同嵌入率和自適應(yīng)隱寫算法進(jìn)行驗證,實驗結(jié)果表明本文提出的方法可以有效地提升隱寫分析模型的檢測性能;
4)對模型在不同載體源、不同隱寫算法及不同嵌入率的情況下進(jìn)行了失配測試,測試結(jié)果表明本文方法具有較好的泛化能力和實用性。
圖像自適應(yīng)隱寫術(shù)是現(xiàn)代圖像隱寫術(shù)方案中安全性最高的技術(shù),它通過基于嵌入成本調(diào)整嵌入位置來提高抗檢測能力[9]。許多目前可用的自適應(yīng)隱寫算法,如HUGO[10]、WOW[11]、S-UNIWARD[12]、UED[13]和J-UNIWARD[12],都具有很高的抗檢測能力,并且它們中的大多數(shù)是在最小化失真函數(shù)的框架下設(shè)計的。在該框架中,首先根據(jù)失真函數(shù)為每個覆蓋元素的改變分配成本,然后通過使用一些編碼技術(shù),如STC(Syndrome Trellis Code),根據(jù)失真情況,綜合考慮確定最終要改變的元素,從而使整體失真最小化。
文獻(xiàn)[2]對圖像自適應(yīng)隱寫進(jìn)行了形象的描述,如圖1 所示,由于在圖像紋理復(fù)雜區(qū)域進(jìn)行隱寫操作可以減少圖像在視覺質(zhì)量和統(tǒng)計特征方面的變化,所以圖像中位于紋理復(fù)雜區(qū)域的元素被修改概率較大。因此,對隱寫算法修改概率更高的區(qū)域進(jìn)行更有側(cè)重的檢測,將有利于提升隱寫分析的效果。自適應(yīng)隱寫算法修改概率的損失函數(shù)計算方法為
其中:βi,j為位于圖像位置(i,j)的元素被修改的概率值;λ為大于零的數(shù)值,具體數(shù)值由隱寫的相對嵌入率決定。
圖1 原始圖像及其對應(yīng)的隱寫點圖和嵌入修改概率圖Fig.1 Cover image and the corresponding stego image and embedding probability image
顯著性檢測是計算機(jī)視覺中的一個重要且具有挑戰(zhàn)性的問題,其目的是自動發(fā)現(xiàn)并定位與人類感知一致的視覺感興趣區(qū)域。近年來,顯著性檢測在目標(biāo)跟蹤[14]、圖像壓縮[15]、圖像分割[16]、場景分類[17]等任務(wù)中得到了廣泛的應(yīng)用。
每個圖像的特征可以在低級、中級、高級三個不同的層次上表示:低層特征與原始圖像的顏色、邊緣、紋理有關(guān);中層特征主要對應(yīng)于物體的輪廓、形狀和空間環(huán)境信息;高層特征與背景、對象識別以及對象間的內(nèi)在語義交互有關(guān)。如何在統(tǒng)一的學(xué)習(xí)框架下對上述因素進(jìn)行有效的建模,是顯著性檢測中需要解決的關(guān)鍵和具有挑戰(zhàn)性的問題。
傳統(tǒng)的顯著性檢測通過純數(shù)學(xué)的方法,在不需要訓(xùn)練模型的情況下識別出顯著性區(qū)域。如Itti 等[18]受靈長類動物啟發(fā),在KU 視覺注意模型的基礎(chǔ)上提出了一種經(jīng)典的顯著性檢測方法:針對多尺度圖像,不同的空間位置通過競爭獲取顯著性,然后通過顯著圖融合獲得顯著性區(qū)域,并且在模型后端設(shè)計了一種winner-take-all 激活網(wǎng)絡(luò),模擬人類視覺動態(tài)更新關(guān)注點的位置。Cheng 等[19]使用稀疏直方圖簡化圖像顏色表示,采用基于圖的分割方法將圖像劃分為多個區(qū)域,根據(jù)空間位置距離加權(quán)的顏色對比度之和計算圖像區(qū)域的顯著性。在人工智能興起之后,深度學(xué)習(xí)技術(shù)也廣泛地應(yīng)用于顯著性檢測。Zhang 等[20]提出了控制淺層和深層特征的雙向傳遞,以獲得準(zhǔn)確的預(yù)測;Chen 等[21]采 用HED(Holistically-nested Edge Detection),通過使用逆向注意模型迭代地細(xì)化其輸出;Liu 等[22]通過上下文注意網(wǎng)絡(luò)預(yù)測像素級注意圖,將其與U-Net 結(jié)構(gòu)結(jié)合起來檢測顯著性區(qū)域。雖然這些方法提高了顯著性檢測的標(biāo)準(zhǔn),但在精細(xì)結(jié)構(gòu)段質(zhì)量和邊界精度方面仍有很大的改進(jìn)空間。針對此問題,Qin 等[23]提出了一種基于邊界感知的顯著性檢測模型BASNet,該模型通過融合二值交叉熵(Binary Cross Entropy,BCE)、結(jié)構(gòu)相似性(Structural SIMilarity,SSIM)和交并比(Intersection-over-Union,IoU)三種損失函數(shù),引導(dǎo)網(wǎng)絡(luò)更加關(guān)注邊界質(zhì)量,精確分割顯著性區(qū)域,并且使顯著性區(qū)域邊界更加清晰,如圖2所示。
圖2 BASNet處理效果圖Fig.2 Processing renderings of BASNet
在BASNet模型的啟發(fā)下,本文提出了一種基于顯著性檢測的圖像隱寫分析方法,利用顯著性檢測技術(shù)對訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)處理,引導(dǎo)模型增加對隱寫區(qū)域特征的關(guān)注度,并且減少訓(xùn)練中不利特征的干擾,從而提高模型的訓(xùn)練效果和檢測性能。本文提出的方法整體框架如圖3 所示,主要由顯著性檢測模塊、區(qū)域篩選模塊和判別器模塊組成。
首先由顯著性檢測模塊分割出判別錯誤圖像的顯著性區(qū)域,形成顯著性圖。其次,由區(qū)域篩選模塊對符合預(yù)處理要求的圖像進(jìn)行篩選,保證處理的合理性和有效性,而后將篩選出的符合要求的圖像與其對應(yīng)的原始圖像進(jìn)行圖像融合,形成顯著性融合圖;不符合要求的顯著性圖則用其對應(yīng)的原始圖像替換。最后,將符合要求圖像的顯著性融合圖和不符合要求圖像的對應(yīng)原始圖像合并,形成更新后的數(shù)據(jù)集,輸入判別器模塊進(jìn)行訓(xùn)練,使判別器對與隱寫區(qū)域重合度較高的區(qū)域進(jìn)行有針對性的特征學(xué)習(xí),從而提高模型的訓(xùn)練效果和檢測精度。
圖3 基于顯著性檢測的圖像隱寫分析方法整體框架圖Fig.3 Framework of the method for image steganalysis based on saliency detection
顯著性檢測模塊用于生成待測圖像的顯著性區(qū)域。對于不同內(nèi)容和紋理的圖像,隱寫分析算法的檢測能力是有限的,然而現(xiàn)有的檢測方法通常不區(qū)分不同內(nèi)容和紋理的圖像,將它們放在同一個數(shù)據(jù)集中進(jìn)行訓(xùn)練和分類。如果判別器對圖像中高強度的隱寫噪聲敏感,那么也可能對圖像中低強度的隱寫噪聲敏感;但是,如果判別器對圖像中低強度的隱寫噪聲敏感,則不確定是否對圖像中高強度的隱寫噪聲也敏感[24]。如圖4 所示,對于內(nèi)容和紋理較為簡單的原始圖像I1,噪聲強度量化為S1;隱寫后的圖像為I1′,噪聲強度為S1′,這里滿足表達(dá)式S1′>S1。同時,對于另一幅原始圖像I2,它的內(nèi)容和紋理比I1略為豐富和復(fù)雜,噪聲強度量化為S2,有S2>S1,則存在S1′≈S2的情況,即本來沒有隱寫的原始圖像,其特征復(fù)雜度與隱寫圖像達(dá)到了同一程度,并且從I1′提取的特征也近似等于從I2提取的特征。最終,原始圖像和隱寫圖像就會被判別器誤認(rèn)為是同一類。
圖4 誤判原因示意圖Fig.4 Schematic diagram of error detection
針對上述問題,本文從特征提取方面入手,分析了圖像自適應(yīng)隱寫嵌入?yún)^(qū)域的特征與顯著性檢測標(biāo)注區(qū)域的特征之間的關(guān)聯(lián)。圖像自適應(yīng)隱寫通過STC使圖像在經(jīng)過隱寫后的失真最小化,而其最直觀的表現(xiàn)為秘密信息嵌入在圖像紋理復(fù)雜的區(qū)域,從人類視覺的角度分析,這部分區(qū)域就是與周圍區(qū)域有較強對比度或明顯不同的區(qū)域,即圖像中最為顯著的區(qū)域;顯著性檢測則通過對人類視覺的模擬,將有限的計算資源分配給圖像中更重要的信息,即使模型對圖像中的顯著性區(qū)域進(jìn)行標(biāo)注,所以圖像自適應(yīng)隱寫的嵌入?yún)^(qū)域與顯著性檢測的標(biāo)注區(qū)域在其特征內(nèi)容上存在很大程度的相關(guān)性。
基于上述分析,本文將計算機(jī)視覺領(lǐng)域的顯著性檢測模型引入圖像隱寫分析,使模型能夠?qū)D像中最可能進(jìn)行隱寫的區(qū)域標(biāo)注出來,其他區(qū)域則忽略。因此,模型在訓(xùn)練中更容易學(xué)習(xí)原始圖像和隱寫圖像在噪聲強度上的差異特征,減少出現(xiàn)誤判的情況,從而提高其訓(xùn)練效果和檢測能力。
在顯著性檢測模塊,本文將文獻(xiàn)[23]中BASNet的預(yù)測模塊和多尺度殘差優(yōu)化模塊引入網(wǎng)絡(luò)。
預(yù)測模塊的設(shè)計靈感來源于U-Net[25],該網(wǎng)絡(luò)的主要目的是通過處理得到一個粗糙的顯著性圖。多尺度殘差優(yōu)化模塊首先對比粗糙顯著性圖和真實標(biāo)注之間的殘差,而后通過學(xué)習(xí)來進(jìn)一步優(yōu)化粗糙顯著性圖,最終提高顯著性圖的圖像質(zhì)量,其結(jié)構(gòu)如圖5 所示。本文通過對多尺度殘差優(yōu)化模塊的利用,使模型能夠更準(zhǔn)確地分割出隱寫區(qū)域,為下一步的圖像融合提供更好的實施基礎(chǔ)。
該模型算法的中心思想在文獻(xiàn)[22]中表示為:
其中,Scoarse、Sresidual和Srefined分別表示預(yù)測模塊的殘差、顯著性圖和真實標(biāo)注的殘差以及優(yōu)化后的殘差。該模型主要架構(gòu)由輸入層、編碼器、橋接層、解碼器和輸出層組成。編碼器和解碼器都有四個階段(如圖5 虛線框標(biāo)注),每個階段由一個卷積層和64 個大小為3× 3 的過濾器組成,采用批量歸一化(BN)和ReLU 激活。橋接層設(shè)置一個卷積層,參數(shù)與其他層相同。編碼器中的下采樣用最大池化層(maxpool),解碼器用雙線性上采樣層(bilinear upsample)。顯著性檢測模塊輸出模型的最終顯著性圖。為了獲得高質(zhì)量的區(qū)域細(xì)分和清晰的邊界,文獻(xiàn)[22]還對該模型在訓(xùn)練時定義了一種混合損失?(k),表示為:
圖5 多尺度殘差優(yōu)化模塊結(jié)構(gòu)Fig.5 Structure of multi-scale residual refine module
該損失結(jié)合了BCE、SSIM 和IoU 損失,有助于減小交叉?zhèn)鞑ピ谶吔缟蠈W(xué)習(xí)信息而產(chǎn)生的虛假誤差,使邊界更加精細(xì)化。為了提高實驗效率,本文采用遷移學(xué)習(xí)的方式調(diào)用在顯著性檢測數(shù)據(jù)集ECSSD[26]上預(yù)訓(xùn)練的BASNet模型來進(jìn)行實驗。
在經(jīng)過顯著性檢測模塊處理后,本文對圖像的顯著性區(qū)域與隱寫區(qū)域進(jìn)行對比分析,如圖6 所示。從對比分析中可以看出,區(qū)域重合度存在兩種情況:第一種是圖像中顯著目標(biāo)較為明確時,經(jīng)過處理后的顯著性區(qū)域與隱寫區(qū)域重合度較高;第二種是圖像中顯著目標(biāo)較為模糊時,經(jīng)過處理后的顯著性區(qū)域與隱寫區(qū)域重合度較低。因為顯著性區(qū)域與隱寫區(qū)域重合度較低的圖像不符合實驗要求,所以需要設(shè)計一個區(qū)域篩選模塊,將符合要求的圖像篩選出來,保證處理的合理性和有效性。
區(qū)域篩選模塊用于將符合處理要求的圖像篩選出來。在進(jìn)行圖像自適應(yīng)隱寫操作時,由于其最小化失真函數(shù)的框架,所以秘密信息會優(yōu)先選擇紋理較為復(fù)雜的區(qū)域進(jìn)行嵌入,即圖像中最顯著的區(qū)域,因而顯著性檢測技術(shù)中會將這部分區(qū)域標(biāo)注出來。
本節(jié)首先利用數(shù)據(jù)集BOSSbase1.01[27]對顯著性區(qū)域與隱寫區(qū)域的重合度進(jìn)行數(shù)據(jù)的統(tǒng)計與分析。進(jìn)行分析的圖像數(shù)量為10 000,質(zhì)量因子為75,自適應(yīng)隱寫算法為J-UNIWARD,嵌入率為0.4 bpnzAC(bits per none zero AC)。為了對數(shù)據(jù)分布情況進(jìn)行整體的分析,本文設(shè)計了一種顯著性區(qū)域和隱寫區(qū)域的重合度η的計算方法:
其中:N表示圖像中像素點的總數(shù),Ncoin表示重合區(qū)域的像素點的個數(shù),Nstego表示隱寫區(qū)域的像素點個數(shù),PStego(i,j)和PSD(i,j)分別表示隱寫點圖和顯著性圖在位置(i,j)的像素值。本文利用該算法將10 000張圖像的顯著性區(qū)域和隱寫區(qū)域的重合度進(jìn)行數(shù)據(jù)統(tǒng)計,如表1所示。
表1 顯著性區(qū)域和隱寫區(qū)域的重合度統(tǒng)計Tab.1 Statistics of coincidence rate of saliency regions and steganography regions
由表1 可以看出顯著性區(qū)域和隱寫區(qū)域的重合度主要分布在[0,0.2)和[0.5,1],而重合度小的圖像并不適合進(jìn)行顯著性處理,因此,需要利用區(qū)域篩選模塊對圖像進(jìn)行篩選,保證處理的有效性。
圖6 顯著性圖與隱寫點圖的對比Fig.6 Comparison of saliency images and stego image
本文通過實驗對比分析,將區(qū)域篩選模塊中篩選區(qū)域的閾值K設(shè)為0.7,即篩選出顯著性區(qū)域和隱寫區(qū)域的重合度集中在[0.7,1]的圖像,具體在3.3 節(jié)詳細(xì)闡述。而后利用圖像融合技術(shù),將顯著性圖與原始圖像進(jìn)行融合,其目的是將圖像中顯著性區(qū)域以外的像素置0,引導(dǎo)模型只關(guān)注顯著性區(qū)域的圖像特征,如圖7所示。
初始檢測錯誤的圖像以及更新后數(shù)據(jù)集的重新訓(xùn)練都需要判別器模塊來進(jìn)行處理。圖8 展示了由文獻(xiàn)[7]提供的判別器模型SRNet的細(xì)節(jié)。
SRNet 模型共有四部分:前兩個部分為1~7 層,主要功能是提取噪聲的部分殘差;第三部分為8~11 層,主要功能是降低特征圖的維數(shù);第四部分包括全連接層和Softmax 分類器。第12 層計算每個特征圖的統(tǒng)計矩,并將特征向量輸入分類器。其中,卷積層都采用3× 3 的卷積核;1~7 層不采用池化層;8~11 層采用3× 3 的池化層,步長為2;非線性激活函數(shù)均為ReLU。
圖7 圖像融合示意圖Fig.7 Schematic diagram of image fusion
圖8 SRNet模型結(jié)構(gòu)Fig.8 Structure of SRNet
本實驗在Windows 10 操作系統(tǒng)下運行,深度學(xué)習(xí)框架為TensorFlow-gpu 1.15.2,編程語言為Python 3.6.6,顯卡為NVIDIA V100(32 GB),計算架構(gòu)為CUDA 10.0,依賴包為cudnn7。實驗數(shù)據(jù)集采用的是BOSSbase1.01,分別在空域和JPEG 域進(jìn)行實驗驗證:對于空域,使用S-UNIWARD、HUGO、WOW 和HILL[28]自適應(yīng)隱寫算法進(jìn)行隱寫,嵌入率為0.1~0.4 bpp(bits per pixel);對于JPEG 域,首先對空域圖像進(jìn)行JPEG 壓縮,轉(zhuǎn)換為質(zhì)量因子為75 和95 的JPEG 圖像,而后使用J-UNIWARD 和JC-UED[29]自適應(yīng)隱寫算法對圖像進(jìn)行隱寫,嵌入率為0.1~0.4 bpnzAC。
為了保證顯著性檢測的質(zhì)量和效果,與文獻(xiàn)[7]不同,本文對于數(shù)據(jù)集不作任何尺寸的調(diào)整,使用分辨率為512 × 512的原始圖像進(jìn)行實驗,實驗中,隨機(jī)選取4 000 張圖像作為訓(xùn)練集,1 000 張圖像作為驗證集,5 000 張圖像作為測試集,設(shè)置訓(xùn)練集每一批次(batchsize)為32,驗證集為40,判別器使用SRNet模型,初始學(xué)習(xí)率(learning_rate)為0.001,運用Adam[30]優(yōu)化器,最大迭代次數(shù)為50 0000。在對比實驗過程中,本文提出的方法以及對比方法采用相同的訓(xùn)練集、驗證集和測試集,并且三個數(shù)據(jù)集的圖像互不重復(fù)。
3.3.1 不同訓(xùn)練策略的實驗結(jié)果對比
為了驗證本文方法的隱寫分析性能,在使用J-UNIWARD自適應(yīng)隱寫算法進(jìn)行隱寫,嵌入率為0.4 bpnzAC,圖像質(zhì)量因子為75 的情況下,分別對替換所有圖像、替換所有檢測錯誤的圖像、替換經(jīng)過區(qū)域篩選模塊后合適的圖像這三種訓(xùn)練策略進(jìn)行對比實驗,結(jié)果如圖9 所示。第一種訓(xùn)練策略為替換所有圖像,實驗結(jié)果顯示模型的訓(xùn)練效果很差,檢測準(zhǔn)確率很低,并且難以收斂,因為模型在訓(xùn)練時無法很好地學(xué)習(xí)圖像本身的特征;第二種訓(xùn)練策略為只將判別器檢測錯誤的圖像替換為顯著性圖,這種訓(xùn)練策略的檢測準(zhǔn)確率較第一種訓(xùn)練策略有明顯提升,因為模型對學(xué)習(xí)錯誤的特征進(jìn)行了針對性的訓(xùn)練;第三種訓(xùn)練策略為只將經(jīng)過區(qū)域篩選模塊處理后合適的圖像替換為顯著性圖,實驗結(jié)果表明,第三種訓(xùn)練策略的效果最優(yōu),并且收斂較快。
圖9 不同訓(xùn)練策略的實驗對比Fig.9 Comparison of different training strategies
對于區(qū)域篩選模塊的篩選閾值K,本文也進(jìn)行了實驗分析,通過實驗比較了在不同區(qū)域篩選閾值下訓(xùn)練的模型性能,其中K取0.6,0.7,0.8 三個值,實驗結(jié)果見表2。從實驗結(jié)果可以看出區(qū)域篩選閾值對檢測性能有著一定的影響。當(dāng)K=0.6 時,檢測準(zhǔn)確率下降較多,其原因是部分顯著性區(qū)域與隱寫區(qū)域重合度較低的圖像存在一定的冗余,不利于模型對特征的學(xué)習(xí);當(dāng)K=0.8時,檢測準(zhǔn)確率略微下降,其原因是部分顯著性區(qū)域與隱寫區(qū)域重合度較高的圖像被原始圖像替換,導(dǎo)致模型并不能很好地對有利區(qū)域進(jìn)行針對性的學(xué)習(xí);當(dāng)K=0.7時,模型的檢測準(zhǔn)確率達(dá)到最佳。
表2 不同區(qū)域篩選閾值K下的檢測準(zhǔn)確率Tab.2 Detection accuracies of different region filter thresholds K
ROC(Receiver Operating Characteristic)曲線是一種衡量隱寫分析模型的重要指標(biāo),可以通過縱軸正陽率(True Positive Rate,TPR)和橫軸假陽率(False Positive Rate,F(xiàn)PR)的關(guān)系反映模型在數(shù)據(jù)集正負(fù)樣本分布不均勻的情況下的判別能力,即模型的魯棒性。AUC 值為ROC 曲線所覆蓋的區(qū)域面積,AUC 值越大,模型檢測效果越好。圖10 展示了本文方法和SRNet在不同嵌入率和自適應(yīng)隱寫算法下的ROC曲線以及對應(yīng)的AUC 值,圖像質(zhì)量因子(Quality Factor,QF)為75。其中:“AUC-本文方法-JUNIWARD-0.4 bpnzAC=0.885 3”表示嵌入算法為JUNIWARD,嵌入率為0.4 bpnzAC 的實驗參數(shù)下,本文方法能夠達(dá)到的AUC值為0.8853。
圖10 不同嵌入率和隱寫算法下的ROC曲線Fig.10 ROC curve of different embedding rates and steganography algorithms
3.3.2 不同隱寫算法的實驗結(jié)果對比
為了驗證本文方法對于自適應(yīng)隱寫算法檢測的有效性,分別對用空域和JPEG 域的自適應(yīng)隱寫算法嵌入的數(shù)據(jù)集進(jìn)行隱寫分析,如表3、4 所示。從實驗結(jié)果可以看出,本文的方法在空域和JPEG 域通用,并且整體表現(xiàn)良好,但是在嵌入率較低時,該方法展現(xiàn)不出太大的優(yōu)勢,并且在圖像質(zhì)量較高,自適應(yīng)隱寫算法較復(fù)雜的情況下,存在一定的劣勢,這方面在今后的工作中有待進(jìn)一步提升。
3.3.3 不同隱寫分析模型的實驗結(jié)果對比
為了驗證實驗的可靠性,本文對比了當(dāng)前在JPEG域隱寫分析有一定競爭力的J-XuNet[31]、PNet[32]、SCA-GFR[33]以及在空域隱寫分析有一定競爭力的Ye-Net、Xu-Net、SRM[34],在訓(xùn)練集和測試集數(shù)量相同的情況下,分別對用J-UNIWARD、JC-UED、HUGO、HILL 隱寫算法進(jìn)行嵌入的圖像進(jìn)行隱寫分析,如圖11 所示。從檢測準(zhǔn)確率可以看出,本文方法的性能有明顯的優(yōu)越性。
本文提出的基于顯著性檢測的圖像隱寫分析方法相對于當(dāng)前隱寫分析模型的優(yōu)勢體現(xiàn)在其利用顯著性檢測技術(shù)對圖像中最有可能進(jìn)行隱寫的區(qū)域進(jìn)行針對性地特征提取與學(xué)習(xí),使模型最大限度地學(xué)習(xí)到隱寫區(qū)域的特征,并且和非隱寫區(qū)域的特征產(chǎn)生較強的特征差異性,更加有利于提高模型的判別性能,從而在模型的訓(xùn)練效果以及檢測準(zhǔn)確率方面產(chǎn)生顯著的提升。
表3 空域不同隱寫算法的檢測準(zhǔn)確率 單位:%Tab.3 Detection accuracies of different steganography algorithms in spatial domain unit:%
表4 JPEG域不同隱寫算法的檢測準(zhǔn)確率 單位:%Tab.4 Detection accuracies of different steganography algorithms in JPEG domain unit:%
3.3.4 模型的失配測試
在實際應(yīng)用的環(huán)境下,許多圖像隱寫分析方法具有很強的針對性,它們通常針對一種特定的隱寫算法,這可能會導(dǎo)致某些隱寫分析算法在檢測特定的隱寫算法時有非常好的結(jié)果,但可能無法檢測到其他隱寫術(shù)。對于訓(xùn)練集和測試集來自不同源的情況,不同成像設(shè)備會造成載體量化后噪聲分布不一致,檢測結(jié)果會造成失配;在隱寫圖像生成過程中,不同隱寫方法和嵌入率也會造成失配,這種問題為模型的實用性帶來了極大的考驗。為了進(jìn)一步驗證模型的泛化能力及提升其應(yīng)用價值,本文對模型進(jìn)行了失配測試。
IStego100K 數(shù)據(jù)集[35]中的圖像與BOSSbase1.01 數(shù)據(jù)集來源不同,并且采用不同的成像設(shè)備。本文利用在BOSSbase1.01 數(shù)據(jù)集下訓(xùn)練好的模型,對IStego100K 數(shù)據(jù)集進(jìn)行檢測。在實驗中,將IStego100K 數(shù)據(jù)集中的原始圖像先處理為分辨率為512 × 512的灰度圖像,然后在空域用隱寫算法S-UNIWARD、HUGO、WOW 和HILL 進(jìn)行隱寫,在JPEG 域用隱寫算法J-UNIWARD 和JC-UED 進(jìn)行隱寫。表5 展示了本文提出的方法在不同嵌入算法上進(jìn)行訓(xùn)練和測試的結(jié)果;表6 展示了本文提出的方法在不同嵌入率上進(jìn)行訓(xùn)練和測試的結(jié)果,圖像質(zhì)量因子為75。從表中可以看出,本文方法在應(yīng)對載體庫源失配情況時表現(xiàn)良好,對于不同的隱寫算法和不同嵌入率,雖然由于訓(xùn)練的特征與測試的特征分布不同而導(dǎo)致檢測準(zhǔn)確率降低,但仍能夠達(dá)到與直接訓(xùn)練相近的檢測準(zhǔn)確率,在實際應(yīng)用情況下,不會因為失配問題而導(dǎo)致嚴(yán)重的檢測偏差,說明本文提出的方法具有良好的泛化性能和實用性。
圖11 不同隱寫分析模型的實驗對比Fig.11 Comparison of different steganalysis models
表5 在不同隱寫算法上進(jìn)行訓(xùn)練和測試的準(zhǔn)確率 單位:%Tab.5 Results of different steganography algorithms on train and test unit:%
表6 在不同嵌入率上進(jìn)行訓(xùn)練和測試的準(zhǔn)確率 單位:%Tab.6 Results of different payload on train and test unit:%
考慮到圖像自適應(yīng)隱寫以不同的概率在圖像中不同區(qū)域隱藏秘密信息,然而現(xiàn)有的隱寫分析方法大多不加區(qū)分地從不同區(qū)域提取隱寫分析特征的問題,本文提出了一種基于顯著性檢測的圖像隱寫分析方法,通過顯著性檢測模塊和區(qū)域篩選模塊引導(dǎo)隱寫分析模型更加關(guān)注圖像的隱寫區(qū)域,提高訓(xùn)練的效果和檢測準(zhǔn)確率,準(zhǔn)確率最多可提高3 個百分點。在BOSSbase1.01 數(shù)據(jù)集上通過對不同的隱寫算法和嵌入率的圖像進(jìn)行檢測,驗證了該方法的有效性;并且對模型進(jìn)行了失配測試,該模型在失配情況下檢測準(zhǔn)確率不會產(chǎn)生嚴(yán)重偏差,驗證了方法的泛化性和實用性。下一步的研究方向是改善本文方法對于嵌入率較低圖像的檢測能力,以及進(jìn)一步提升圖像隱寫分析的檢測準(zhǔn)確率和訓(xùn)練效率。