章蕾,王宏霞
(四川大學(xué)網(wǎng)絡(luò)空間安全學(xué)院,四川 成都 610065)
圖像隱寫是一種利用數(shù)字圖像的視覺冗余來嵌入秘密信息的隱蔽通信手段,隱寫的安全性是進行隱蔽通信的雙方需要考慮的問題,即不能被第三方發(fā)現(xiàn)隱寫行為的存在。最近幾年興起的基于最小化失真的隱寫技術(shù)通過設(shè)計嵌入失真函數(shù),以此衡量圖像每個元素的修改對隱寫安全性的影響,并通過最小化總嵌入失真實現(xiàn)隱寫的高安全性。這種根據(jù)圖像的內(nèi)容自適應(yīng)地將秘密信息嵌入圖像紋理豐富或邊緣區(qū)域的隱寫算法又被稱為自適應(yīng)隱寫算法,具有代表性的自適應(yīng)隱寫算法有S-UNIWARD[1]、WOW[2]和HUGO[3]。
圖像隱寫分析的目的是檢測隱寫信號,以區(qū)分載體圖像與載密圖像。傳統(tǒng)的隱寫分析方法根據(jù)統(tǒng)計矩、圖像校準(zhǔn)、鄰域相關(guān)性等來構(gòu)造隱寫分析特征進而進行分類。然而,隨著自適應(yīng)隱寫算法的出現(xiàn),秘密信息被嵌入難以建模的紋理復(fù)雜區(qū)域,給隱寫分析帶來了很大的挑戰(zhàn)。為了提高隱寫分析的準(zhǔn)確率,設(shè)計算法時需要考慮越來越復(fù)雜的圖像統(tǒng)計特性,甚至所設(shè)計的隱寫分析特征需要達到幾萬維[4-6]。卷積神經(jīng)網(wǎng)絡(luò)在圖像隱寫分析中表現(xiàn)出色,基于深度學(xué)習(xí)的隱寫分析技術(shù)得到廣泛關(guān)注[7-12]。這些基于深度學(xué)習(xí)的隱寫分析器往往能夠達到比傳統(tǒng)的基于手工設(shè)計特征的隱寫分析方法更高的檢測準(zhǔn)確率。
然而,基于深度學(xué)習(xí)的方法十分依賴訓(xùn)練集的數(shù)據(jù)和標(biāo)簽,如果訓(xùn)練集的圖像內(nèi)容不夠豐富、數(shù)量不夠大則模型很容易過擬合,且在模型訓(xùn)練時需要將載體圖像和對應(yīng)的載密圖像成對地送入模型中,這為訓(xùn)練集的收集增加了難度。為了提升模型的泛化性能,研究者在訓(xùn)練模型的時候往往會通過隨機裁剪、旋轉(zhuǎn)等操作進行數(shù)據(jù)增強[7-10]來擴充數(shù)據(jù)集。以往的深度學(xué)習(xí)隱寫分析研究假設(shè)訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)服從相同的概率分布。然而測試集的圖像與訓(xùn)練集的圖像差距較大時,模型在測試集上的表現(xiàn)往往不如在訓(xùn)練集上的表現(xiàn)。訓(xùn)練集和測試集存在差異的因素有很多,如圖像來自不同的數(shù)據(jù)集,經(jīng)過不同的圖像處理過程,不同的隱寫算法以及不同的嵌入率等。以上所述就是隱寫分析中的載體源失配(CSM,cover source mismatch)問題?,F(xiàn)實的應(yīng)用場景中有各種各樣的載體源失配問題,因為測試集的圖像與訓(xùn)練集的圖像總會有差別,研究者很難獲取數(shù)據(jù)集、隱寫算法、嵌入率等重要信息。這也是基于深度學(xué)習(xí)的隱寫分析模型很難在實際應(yīng)用場景中部署的原因。為了提升隱寫分析模型在載體源失配情況下的檢測準(zhǔn)確率,本文提出了一種對抗子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)(ASAN,adversarial subdomain adaptation network)以減小訓(xùn)練集和測試集之間的差異。
近年來,已經(jīng)有一些工作研究如何減輕載體源失配現(xiàn)象對隱寫分析器的負面影響,總體上分為兩類。一類是子空間遷移學(xué)習(xí)方法,這類方法試圖尋找一個投影將特征投影到一個公共子空間來減小兩個領(lǐng)域之間的分布差異。Jia等[13]試圖找到一個投影矩陣將源領(lǐng)域和目標(biāo)領(lǐng)域數(shù)據(jù)投影到一個公共的特征子空間,在重構(gòu)矩陣上聯(lián)合低秩約束和稀疏表示來保留局部和全局?jǐn)?shù)據(jù)結(jié)構(gòu)。Xue等[14]提出了一種基于子空間學(xué)習(xí)的無監(jiān)督隱寫分析方法,該方法通過對重構(gòu)系數(shù)矩陣的低秩和稀疏約束來保持?jǐn)?shù)據(jù)的全局和局部結(jié)構(gòu)以獲得新的特征表示,使訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)的特征分布接近。針對JPEG重壓縮,Yang等[15]構(gòu)造多分類器來檢測測試圖像的重壓縮馬爾可夫特性,然后將隱寫分析特征轉(zhuǎn)移到一個新的特征子空間。Feng等[16]提出了一種基于貢獻的特征遷移算法,試圖通過評估樣本特征和維度特征的貢獻來學(xué)習(xí)兩種變換以遷移訓(xùn)練集特征。另一類方法是通過構(gòu)造領(lǐng)域自適應(yīng)分類器,直接將領(lǐng)域自適應(yīng)準(zhǔn)則作為正則化項整合到損失函數(shù)中。Yang等[17]改進了ARTL(adaptation regularization transfer learning)[18]算法,在圖拉普拉斯正則化中加入了條件分布,將聯(lián)合分布自適應(yīng)和幾何結(jié)構(gòu)作為正則化項整合到一個標(biāo)準(zhǔn)監(jiān)督分類器中,以構(gòu)建領(lǐng)域自適應(yīng)分類器。在空域中,針對數(shù)據(jù)集載體源失配問題,Zhang等[19]同時考慮了輸入圖像和預(yù)測標(biāo)簽的聯(lián)合分布。當(dāng)一個在紋理復(fù)雜度低的數(shù)據(jù)集上訓(xùn)練的模型檢測紋理復(fù)雜度高的測試集時,隱寫分析器的準(zhǔn)確率會大幅下降,Zhang等[19]提出的J-Net可以在一定限度上有效地緩解這種下降。
除上述兩類方法,Hu等[20]提出了一種解決CSM問題的新思路,通過度量圖像的紋理復(fù)雜度,然后在一幅圖像中尋找最接近有效范圍的塊來代替整幅圖像進而提高隱寫分析器的準(zhǔn)確率。Zhang等[21]通過研究特征距離與特征運動模式的相似度,為每個測試樣本選擇了專用的訓(xùn)練集訓(xùn)練分類器來解決CSM。對于嵌入率失配,一個通用的思路[12,22-23]是先在高嵌入率下訓(xùn)練模型,然后通過漸近地用低嵌入率的數(shù)據(jù)對模型進行微調(diào),最后得到一個可以檢測低嵌入率隱寫信號的模型?,F(xiàn)在的隱寫分析器很多是基于深度學(xué)習(xí)的,然而以往很多研究[13-17,20-21]針對的隱寫分析特征是基于手工設(shè)計的,如PEV[24]、Rich Model[4]、DCTR[25]、CC-PEV[26]等,很少對深度隱寫分析網(wǎng)絡(luò)的載體源失配問題進行研究。因此,本文以基于深度學(xué)習(xí)的隱寫分析模型為研究對象,探究緩解載體源失配問題的方法。
隱寫分析中的CSM問題與遷移學(xué)習(xí)中的領(lǐng)域自適應(yīng)問題相似。領(lǐng)域自適應(yīng)關(guān)注于解決特征空間和類別空間一致僅特征分布不一致的問題[27],CSM問題也是如此。一些領(lǐng)域自適應(yīng)方法會設(shè)計并最小化一個度量準(zhǔn)則來減小域間差異。最大均值差異(MMD,maximum mean discrepancy)[28]是領(lǐng)域自適應(yīng)中應(yīng)用最為廣泛的度量,它將兩個變量映射到再生核希爾伯特空間(RKHS,reproducing Kernel Hilbert space),然后測量兩種分布在RKHS中的距離。在MMD的基礎(chǔ)上,研究者提出了許多領(lǐng)域自適應(yīng)方法。單核方法,如深度領(lǐng)域混淆[29];多核方法,如深度自適應(yīng)網(wǎng)絡(luò)[30]、聯(lián)合自適應(yīng)網(wǎng)絡(luò)[31]、深度子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)[32]等。Zhu等[32]提出的非對抗的深度子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)通過最小化局部最大均值差異(LMMD, local maximum mean discrepancy)以對齊相關(guān)子領(lǐng)域的分布。而另一些領(lǐng)域自適應(yīng)方法則采用對抗的方式學(xué)習(xí)一種既能用來進行分類又不能使判別器區(qū)分是哪個領(lǐng)域的表示。領(lǐng)域?qū)股窠?jīng)網(wǎng)絡(luò)(DANN,domain-adversarial neural network)[33]最先在領(lǐng)域自適應(yīng)中加入了對抗機制,通過與領(lǐng)域判別器進行對抗,得到域間通用的特征。動態(tài)對抗自適應(yīng)網(wǎng)絡(luò)(DAAN,dynamic adversarial adaption network)[34]分別為邊緣分布和條件分布設(shè)計判別器,并動態(tài)和定量地評估了這兩種分布對對抗學(xué)習(xí)的相對重要性。
這兩類領(lǐng)域自適應(yīng)方法是從兩個不同的角度進行考慮的,僅使用對抗學(xué)習(xí)的領(lǐng)域自適應(yīng)方法不足以將域間特征分布的距離最小化,而僅使用最小化度量的方法又缺失了對域無關(guān)特征的學(xué)習(xí)。因此,針對這些局限性,本文提出了用于失配隱寫分析的對抗子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)。一方面,從減小域間差異的角度出發(fā),對齊相關(guān)子領(lǐng)域的特征分布,擴大類間距離,縮小類內(nèi)距離;另一方面,通過構(gòu)造一個領(lǐng)域判別器與隱寫分析模型進行對抗學(xué)習(xí),使模型在兩個領(lǐng)域上生成的特征更為相近。
本文提出的對抗子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。藍色的數(shù)據(jù)流代表源領(lǐng)域圖像,黃色的數(shù)據(jù)流代表目標(biāo)領(lǐng)域圖像。同時包含源領(lǐng)域圖像和目標(biāo)領(lǐng)域圖像的批數(shù)據(jù)作為模型輸入,預(yù)訓(xùn)練隱寫分析模型共有L層。圖像經(jīng)過模型的第l(l∈L)層后提取到的特征fl會同時進入分類分支(綠色部分)和判別分支(橙色部分)。在分類分支中,分類器給出對一批源領(lǐng)域圖像的預(yù)測值,通過計算與真實標(biāo)簽Ys之間的交叉熵損失得到分類損失。分類器給出對一批目標(biāo)領(lǐng)域數(shù)據(jù)的預(yù)測值,與源領(lǐng)域特征fsl、目標(biāo)領(lǐng)域特征ftl、真實標(biāo)簽Ys一起用于計算局部最大均值差異損失。在判別分支中,特征會首先經(jīng)過一個梯度反轉(zhuǎn)層(GRL,gradient reversal layer)[33]以簡化對抗訓(xùn)練過程。緊接著,領(lǐng)域判別器會對特征的領(lǐng)域標(biāo)簽進行預(yù)測,將預(yù)測值與真實領(lǐng)域標(biāo)簽值Yd計算交叉熵損失作為對抗損失。通過同時最小化這3項損失進行對抗訓(xùn)練,特征提取器提取的特征會更加相似,特征的分布差異也會更小,從而緩解了載體源失配問題對隱寫分析器的負面影響。
圖1 對抗子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)結(jié)構(gòu)Figure 1 Structure of adversarial subdomain adaptation network
本文提出的對抗子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)主要由特征提取器Gf、子領(lǐng)域自適應(yīng)分類器Gy和領(lǐng)域判別器Gd組成,主要是為了提高預(yù)訓(xùn)練隱寫分析模型在失配情況下的檢測準(zhǔn)確率。將現(xiàn)有隱寫分析模型去掉分類層即可作為特征提取器Gf,Gf對輸入的圖像進行特征提取,提取到的特征是由子領(lǐng)域自適應(yīng)分類器Gy和領(lǐng)域判別器Gd共享的。Gf學(xué)習(xí)的目標(biāo)是:提取后的特征盡可能使分類器對樣本進行正確分類,同時使判別器無法區(qū)分樣本是來自源領(lǐng)域還是目標(biāo)領(lǐng)域。子領(lǐng)域自適應(yīng)分類器Gy的網(wǎng)絡(luò)結(jié)構(gòu)與原隱寫分析模型的分類層相同,根據(jù)源領(lǐng)域特征fsl和目標(biāo)領(lǐng)域特征ftl分別給出分類結(jié)果。在分類的同時進行子領(lǐng)域自適應(yīng),通過最小化LMMD損失來減小域間相關(guān)子領(lǐng)域特征分布的差異。領(lǐng)域判別器Gd根據(jù)輸入的特征給出預(yù)測領(lǐng)域的標(biāo)簽,即判斷該特征來自哪一個領(lǐng)域。而Gf作為與Gd對抗的另一方,則希望其生成的特征足夠相似以欺騙領(lǐng)域判別器Gd,這就使Gf尋找源領(lǐng)域和目標(biāo)領(lǐng)域共有的特征。Gy和Gd的雙重約束,可使Gf生成的特征盡可能相似,同時特征分布的差異盡可能地小。
本文的領(lǐng)域分類網(wǎng)絡(luò)是由梯度反轉(zhuǎn)層和領(lǐng)域判別器組成的。采用梯度反轉(zhuǎn)層可以簡化對抗訓(xùn)練過程。梯度反轉(zhuǎn)層實現(xiàn)的原理是:在前向傳播過程中保持輸入特征fl不變,在反向傳播過程中將梯度乘以一個負的定值μ,實現(xiàn)梯度自動取反以達到對抗訓(xùn)練的目的。采用兩個偽函數(shù)來分別表示梯度反轉(zhuǎn)層在正向傳播和反向傳播中的作用。
前向傳播:
反向傳播:
其中,I是一個單位矩陣。
主流的領(lǐng)域自適應(yīng)方法主要學(xué)習(xí)全局領(lǐng)域偏移,即對齊全局源和目標(biāo)分布,這種全局對齊的方法會使分類器忽略很多細節(jié),如同一個領(lǐng)域內(nèi)屬于不同類數(shù)據(jù)之間的關(guān)系,不同領(lǐng)域間屬于相同類數(shù)據(jù)之間的關(guān)系,導(dǎo)致分類器并不能夠很好地描述兩個不同類之間的界限。本文根據(jù)標(biāo)簽類別將源領(lǐng)域和目標(biāo)領(lǐng)域分別劃分為兩個子領(lǐng)域。源領(lǐng)域使用真實標(biāo)簽進行劃分,而目標(biāo)領(lǐng)域數(shù)據(jù)使用網(wǎng)絡(luò)預(yù)測的概率分布。本文通過計算局部最大均值差異[32]來衡量屬于同一類的兩個子領(lǐng)域之間的特征分布差異。LMMD的計算如下。
其中,H是被賦予特征核k的再生核希爾伯特空間,E[?]為數(shù)學(xué)期望。p(c)和q(c)分別是源領(lǐng)域和目標(biāo)領(lǐng)域中屬于類別c的子領(lǐng)域特征分布。φ(xs)和φ(xt)分別表示將源領(lǐng)域和目標(biāo)領(lǐng)域中的樣本映射到再生核希爾伯特空間的特征映射,核是映射φ(xs)和φ(xt)的內(nèi)積。通過最小化局部最大均值差異,同一類別的相關(guān)子領(lǐng)域的特征分布更相近。具體地,LMMD損失的計算方式為
其中,yic是標(biāo)簽向量yi的第c個值。
在本文的訓(xùn)練過程中一共有3個目標(biāo):一是實現(xiàn)源領(lǐng)域圖像分類誤差的最小化;二是減小相關(guān)子領(lǐng)域特征分布之間的差異;三是使領(lǐng)域分類誤差的最大化,尋找域無關(guān)特征。因此可以將總的損失函數(shù)寫為
其中,λ和ω是權(quán)衡參數(shù),Ly,Ll,Ld則分別代表分類損失、LMMD損失和對抗損失。θf,θy,θd分別代表Gf、Gy和Gd的參數(shù)。代表源領(lǐng)域圖像的標(biāo)簽,di則代表圖像的領(lǐng)域標(biāo)簽(源領(lǐng)域的圖像di=0,目標(biāo)領(lǐng)域的圖像di=1)。訓(xùn)練收斂后,參數(shù)將得到式(6)的一個鞍點。
通過采用GRL簡化對抗訓(xùn)練過程,損失函數(shù)可以改寫為
本實驗首先使用3種隱寫算法S-UNIWARD、WOW、HUGO在BOSSbase 1.01數(shù)據(jù)集[35]訓(xùn)練SRNet模型[9];然后將訓(xùn)練好的SRNet模型作為本文載體源失配的研究對象。因為SRNet是一個端到端的深度學(xué)習(xí)網(wǎng)絡(luò),沒有引入過多的手工設(shè)計成分,并且其檢測效果在空域中達到前沿水平,所以選擇該模型。本文探究了數(shù)據(jù)集失配和隱寫算法失配這兩種載體源失配問題。將本文方法與SRM[4]、SRNet[9]、J-Net[19]進行比較。J-Net也用于解決基于深度學(xué)習(xí)的隱寫分析模型面臨的載體源失配問題,其使用聯(lián)合最大均值差異(JMMD,joint maximum mean discrepancy)[31]來最小化數(shù)據(jù)集之間的差異。本實驗的評價指標(biāo)為平均總精度PA,,文獻[17]也采用了平均總精度作為評價指標(biāo)。其中pc是載體圖像的分類準(zhǔn)確率,ps是載密圖像的分類準(zhǔn)確率。在失配實驗中,在訓(xùn)練集隨機選取500對圖像(一幅載體圖像和對應(yīng)的載密圖像為一對)作為源領(lǐng)域數(shù)據(jù),在測試集上隨機選取500對圖像作為目標(biāo)領(lǐng)域圖像來完成遷移任務(wù)。與需要大量標(biāo)簽數(shù)據(jù)進行有監(jiān)督訓(xùn)練的隱寫分析方法不同,本文將待測圖像加以利用,對預(yù)訓(xùn)練隱寫分析模型進行領(lǐng)域自適應(yīng)。其他失配隱寫分析的工作[13-14,17,20]也使用了500對圖像參與訓(xùn)練。
本文的整體隱寫分析過程包括3個階段,分別是預(yù)訓(xùn)練階段、領(lǐng)域自適應(yīng)階段和測試階段。在預(yù)訓(xùn)練階段,隱寫分析模型在源領(lǐng)域所屬數(shù)據(jù)集上進行有監(jiān)督的訓(xùn)練。預(yù)訓(xùn)練完成后,將預(yù)訓(xùn)練隱寫分析模型去掉分類層作為本文的特征提取器Gf。通過構(gòu)造領(lǐng)域判別器來實現(xiàn)對抗子領(lǐng)域自適應(yīng),減小特征分布的差異。在本文實驗中,領(lǐng)域判別器Gd由3個網(wǎng)絡(luò)層組成以對特征的領(lǐng)域標(biāo)簽進行預(yù)測。SRNet的特征維數(shù)為512,隱藏層維數(shù)設(shè)置為512,Gd的網(wǎng)絡(luò)結(jié)構(gòu)如表1所示,其中Linear表示線性層,BNld表示一維批標(biāo)準(zhǔn)化層,ReLU和Sigmoid為激活函數(shù)。子領(lǐng)域自適應(yīng)分類器Gy的網(wǎng)絡(luò)結(jié)構(gòu)與原隱寫分析模型的分類層相同。在測試階段,將目標(biāo)領(lǐng)域圖像送入自適應(yīng)后的網(wǎng)絡(luò)中,標(biāo)簽預(yù)測器從而給出圖像的預(yù)測結(jié)果。
表1 領(lǐng)域判別器Gd的網(wǎng)絡(luò)結(jié)構(gòu)Table 1 Network structure of the domain discriminator Gd
在預(yù)訓(xùn)練階段,本文采用256×256大小的BOSSbase 1.01圖像進行訓(xùn)練。本文使用PIL庫中的resize函數(shù)對原512×512大小的圖像進行下采樣調(diào)整其大小為256×256;接著采用S-UNIWARD、WOW、HUGO 3種隱寫算法對原始載體圖像嵌入秘密信息生成載密圖像。數(shù)據(jù)集的劃分為:5 000對訓(xùn)練集,1 000對驗證集和4 000對測試集。在預(yù)訓(xùn)練過程中沒有使用數(shù)據(jù)增強。本文0.2 bit/pixel的SRNet模型是通過對0.4 bit/pixel的SRNet模型進行100個epoch的再訓(xùn)練得到的。對于SRM,使用BOSSbase1.01數(shù)據(jù)集前5 000對圖像的特征訓(xùn)練分類器。在進行失配實驗時,提取目標(biāo)領(lǐng)域500對圖像的空域富模型(SRM,spatial rich model)特征,利用訓(xùn)練好的分類器對其進行分類。
模型的預(yù)訓(xùn)練以及自適應(yīng)過程均是在Pytorch框架下進行的。對于所有任務(wù),本文使用動量為0.9的小批量隨機梯度下降(SGD,stochastic gradient descent)和文獻[32]中的學(xué)習(xí)速率衰減策略。學(xué)習(xí)率初始化為0.01,并按照ηε=η0/(1+ε)β更新,ε是訓(xùn)練過程中取值范圍為0到1的線性變化,η0=0.01,α=10,β=0.75。通過這種策略,在經(jīng)過200個epoch后,學(xué)習(xí)率會降為0.001 7。本文沒有固定權(quán)衡因子λ,而是通過一個漸進的過程逐步將它從0改變到1,即λε=2/exp(?10ε)?1,這樣做是為了抑制在訓(xùn)練初期模型不穩(wěn)定的輸出。對抗損失權(quán)衡參數(shù)ω(ω=10)在整個實驗中是固定的。訓(xùn)練批大小設(shè)為16。
數(shù)據(jù)集失配實驗從BOSSbase 1.01數(shù)據(jù)集中隨機選取500幅并嵌入秘密信息得到500對大小為256×256的圖像作為源領(lǐng)域數(shù)據(jù),分別從數(shù)據(jù)集UCID[36]、DIV 2K[37]、Flickr25k[38]上隨機選取500對圖像作為目標(biāo)領(lǐng)域數(shù)據(jù)。
表2和表3分別給出了嵌入率為0.4 bit/pixel和0.2 bit/pixel時數(shù)據(jù)集失配的實驗結(jié)果。當(dāng)在BOSSbase1.01數(shù)據(jù)集上訓(xùn)練的模型檢測來自UCID.v2、DIV2K和Flickr 25K的數(shù)據(jù)時,即數(shù)據(jù)集失配時,基于手工特征的傳統(tǒng)隱寫分析方法SRM受數(shù)據(jù)集失配的影響比SRNet更大,其檢測準(zhǔn)確率下降更多。SRM的特征提取過程不是特定于訓(xùn)練集數(shù)據(jù)的,但分類器的訓(xùn)練卻是特定于訓(xùn)練集的。載體源之間的失配也會導(dǎo)致這種傳統(tǒng)隱寫分析方法的檢測準(zhǔn)確率下降。對于SRNet,大部分情況下模型的準(zhǔn)確率會下降,準(zhǔn)確率上升的特例來自Flickr 25K數(shù)據(jù)集,這可能是對其進行的圖像處理使其紋理復(fù)雜度較低導(dǎo)致的。
從表2和表3的實驗結(jié)果可以看出,無論是在紋理復(fù)雜度高還是低的數(shù)據(jù)集上,本文提出的ASAN方法都可以有效地減輕數(shù)據(jù)集失配對基于深度學(xué)習(xí)的隱寫分析器的影響。在嵌入率為0.4 bit/pixel的情況下,本文方法將隱寫分析器的準(zhǔn)確率提高3.8%~11.5%,平均提高8.3%;嵌入率為0.2 bit/pixel時,本文方法將隱寫分析器的準(zhǔn)確率提高10.1%~17.2%,平均提高12.8%。嵌入率為0.2 bit/pixel時的提升效果優(yōu)于0.4 bit/pixel,兩種嵌入率下的檢測準(zhǔn)確率均高于SRM、SRNet、J-Net。
表2 數(shù)據(jù)集失配時準(zhǔn)確率對比(嵌入率為0.4 bit/pixel)Table 2 Detection accuracy comparison in dataset mismatch(0.4 bit/pixel)
表3 數(shù)據(jù)集失配時準(zhǔn)確率對比(嵌入率為0.2 bit/pixel)Table 3 Detection accuracy comparison in dataset mismatch(0.2 bit/pixel)
隱寫算法失配實驗將已知隱寫算法(用來訓(xùn)練SRM和SRNet模型的算法)進行嵌入得到的500個圖像對作為源領(lǐng)域數(shù)據(jù),將其他隱寫算法進行嵌入得到的500個圖像對作為目標(biāo)領(lǐng)域數(shù)據(jù)。實驗數(shù)據(jù)集為BOSSbase1.01。在隱寫算法失配時,SRM仍受失配影響,其檢測準(zhǔn)確率下降,但下降幅度低于數(shù)據(jù)集失配??梢娤啾入[寫算法失配,SRM可能對數(shù)據(jù)集之間的不一致更為敏感。而對于SRNet,大部分隱寫算法失配情況下模型的準(zhǔn)確率會下降,準(zhǔn)確率上升的特例出現(xiàn)在測試算法為S-UNIWARD時。
表4和表5分別給出了嵌入率為0.4 bit/pixel和0.2 bit/pixel時隱寫算法失配的實驗結(jié)果。從實驗結(jié)果可以看出本文提出的ASAN方法可以有效地減輕隱寫算法失配對基于深度學(xué)習(xí)的隱寫分析器的影響。嵌入率為0.4 bit/pixel時,本文方法將隱寫分析器的準(zhǔn)確率提高4.7%~10.2%,平均提高7.2%;嵌入率為0.2 bit/pixel時,本文方法將隱寫分析器的準(zhǔn)確率提高2.5%~11.2%,平均提高6.8%,檢測準(zhǔn)確率均高于SRM、SRNet、J-Net。
表4 隱寫算法失配時準(zhǔn)確率對比(嵌入率為0.4 bit/pixel)Table 4 Detection accuracy comparison in steganographic algorithm mismatch (0.4 bit/pixel)
表5 隱寫算法失配時準(zhǔn)確率對比(嵌入率為0.2 bit/pixel)Table 5 Detection accuracy comparison in steganographic algorithm mismatch (0.2 bit/pixel)
為了進一步評估ASAN的性能,本文使用t-SNE降維技術(shù)[39]對數(shù)據(jù)集失配時網(wǎng)絡(luò)學(xué)習(xí)到的特征分布進行可視化,如圖2所示。來自源領(lǐng)域的樣本用黃色數(shù)值表示,來自目標(biāo)領(lǐng)域的樣本用藍色數(shù)值表示,兩個領(lǐng)域各1 000個樣本點。數(shù)值0代表載體圖像,數(shù)值1代表載密圖像。同時為了更直觀地表示,本文將載體圖像用更淺的黃色或藍色表示。該部分實驗將數(shù)據(jù)集從BOSSbase1.01遷移至UCIDv.2,檢測S-UNIWARD算法的實驗結(jié)果,嵌入率為0.4 bit/pixel。
圖2(a)為進行領(lǐng)域自適應(yīng)之前SRNet提取的特征分布圖,可以觀察到,在源領(lǐng)域(黃色)上,載體圖像特征(淺黃色的0)和載密圖像特征(深黃色的1)之間存在聚類現(xiàn)象,很少有樣本混淆到另一個類別的特征分布中,此時模型的檢測準(zhǔn)確率較高。然而,在目標(biāo)領(lǐng)域(藍色)上,由于載體源失配問題的發(fā)生,特征的分布發(fā)生變化,模型檢測準(zhǔn)確率降低。圖2(b)和圖2(c)分別為采用J-Net[19]和本文方法ASAN進行領(lǐng)域自適應(yīng)之后的特征分布圖??梢钥吹奖疚奶岢龅姆椒梢愿玫貙⒃搭I(lǐng)域和目標(biāo)領(lǐng)域進行對齊,擴大類間距離,減小類內(nèi)距離,從而提升模型的準(zhǔn)確率。結(jié)合t-SNE特征分布圖進行分析,載體源失配會導(dǎo)致預(yù)訓(xùn)練隱寫分析模型提取的特征分布發(fā)生變化,從而使檢測準(zhǔn)確率下降。通過充分利用待測圖像的信息,J-Net和ASAN可以將源領(lǐng)域數(shù)據(jù)和目標(biāo)領(lǐng)域數(shù)據(jù)的特征分布進行對齊以提升檢測準(zhǔn)確率。而J-Net全局地將特征分布進行了對齊,雖然對齊之后全局分布大體相似但具體到兩個類別中,分類器不能充分描述分類邊界。ASAN方法通過結(jié)合子領(lǐng)域自適應(yīng)和對抗學(xué)習(xí)兩種策略,局部地對齊屬于同一類別的相關(guān)子領(lǐng)域,同時使源領(lǐng)域和目標(biāo)領(lǐng)域的特征更加相似,特征分布更緊密,達到了更好的分類效果。
圖2 t-SNE對比Figure2 Comparison result of t-SNE
消融實驗探究了子領(lǐng)域自適應(yīng)和對抗學(xué)習(xí)對最終分類效果的不同影響。選取的載體源失配場景為數(shù)據(jù)集失配,實驗設(shè)置與3.2節(jié)一樣,表6與表7分別為嵌入率為0.4 bit/pixel和0.2 bit/pixel時的消融實驗結(jié)果。表中ADV列表示只采用對抗學(xué)習(xí),DSAN列表示只采用子領(lǐng)域自適應(yīng),而ASAN列則表示同時采用這兩種策略進行領(lǐng)域自適應(yīng)的結(jié)果。由表6和表7中實驗結(jié)果可以看出子領(lǐng)域自適應(yīng)和對抗學(xué)習(xí)兩種方法都可以提升模型的準(zhǔn)確率,二者效果接近,而將二者結(jié)合起來可以更好地進行領(lǐng)域自適應(yīng),從而提升模型的準(zhǔn)確率。
為了更直觀地觀察這種差異,本實驗采用UCIDv.2數(shù)據(jù)集,檢測S-UNIWARD算法時的準(zhǔn)確率曲線如圖3所示。其中圖3(a)是嵌入率為0.4 bit/pixel時的準(zhǔn)確率曲線,圖3(b)是嵌入率為0.2 bit/pixel時的準(zhǔn)確率曲線。可以觀察到,在訓(xùn)練過程中ASAN的提升高于其他兩種方法,這種優(yōu)勢在嵌入率為0.4 bit/pixel時更為明顯。
為了減輕載體源失配問題對基于深度學(xué)習(xí)的隱寫分析模型的負面影響,本文提出了對抗子領(lǐng)域自適應(yīng)網(wǎng)絡(luò)ASAN,從學(xué)習(xí)域無關(guān)特征和減小子領(lǐng)域特征分布差異這兩個角度,將子領(lǐng)域自適應(yīng)和對抗學(xué)習(xí)這兩種領(lǐng)域自適應(yīng)方法結(jié)合,提高了隱寫分析模型在載體源失配情況下的準(zhǔn)確率。通過在多個公開數(shù)據(jù)集以及多種嵌入率上進行了大量的實驗,結(jié)果證明本文所提出的方法可以在數(shù)據(jù)集失配以及隱寫算法失配時都提供較好的檢測性能。在未來的工作中,將繼續(xù)研究JPEG域的失配隱寫分析問題,進一步提升基于深度學(xué)習(xí)的隱寫分析方法的實際應(yīng)用價值。