蘇兆品,沈朝勇,張國富,岳峰,2,胡東輝
一種基于差分進(jìn)化的魯棒音頻隱寫算法
蘇兆品1,2,3,沈朝勇1,張國富1,2,3,岳峰1,2,胡東輝1,2,3
(1. 合肥工業(yè)大學(xué)計(jì)算機(jī)與信息學(xué)院,安徽 合肥 230601;2. 合肥工業(yè)大學(xué)工業(yè)安全應(yīng)急技術(shù)安徽省重點(diǎn)實(shí)驗(yàn)室,安徽 合肥 230601;3. 合肥工業(yè)大學(xué)智能互聯(lián)系統(tǒng)安徽省實(shí)驗(yàn)室,安徽 合肥 230009)
音頻隱寫是將秘密信息隱藏到音頻載體中,已成為信息隱藏領(lǐng)域的一個(gè)研究熱點(diǎn)。已有研究大多聚焦最小化隱寫失真,卻以犧牲隱寫容量為代價(jià),且往往被一些常規(guī)信號攻擊后難以正確提取秘密信息。為此,基于擴(kuò)頻技術(shù),首先,分析了隱寫參數(shù)(分段隱寫強(qiáng)度和分段隱寫容量)與不可感知性和魯棒性的關(guān)系,并構(gòu)建了一種以分段隱寫強(qiáng)度、分段隱寫容量為自變量,以不可感知性和隱寫容量為優(yōu)化目標(biāo),以信噪比為約束條件的音頻隱寫多目標(biāo)優(yōu)化模型;然后,提出了一種基于差分進(jìn)化的魯棒音頻隱寫算法,設(shè)計(jì)了相應(yīng)的編碼、適應(yīng)度函數(shù)、交叉和變異算子。對比實(shí)驗(yàn)結(jié)果表明,所提隱寫算法能夠在保證不可感知性和抗隱寫分析能力的前提下達(dá)到更好的魯棒性,可以有效抵御一些常規(guī)信號處理攻擊。
音頻隱寫;隱寫參數(shù);差分進(jìn)化;魯棒性
隱寫術(shù)是利用人的感知冗余和數(shù)字載體的統(tǒng)計(jì)冗余,將秘密信息隱藏于公開載體之中而不損壞載體的質(zhì)量,以“隱匿秘密和通信存在”的方式實(shí)現(xiàn)秘密信息的傳遞[1]。與圖像隱寫[2]不同,在辨別微小失真方面,人的聽覺系統(tǒng)要比視覺系統(tǒng)敏感得多。因此,音頻隱寫顯得異常困難,發(fā)展較為緩慢[3]。
已有音頻隱寫方法大多利用人類聽覺系統(tǒng)的掩蔽效應(yīng),在音頻信號的時(shí)域或頻域進(jìn)行隱寫。常見的有最低有效位(least significant bit,LSB)、相位編碼和變換域等。例如,鄒明光等[4]首先比較音頻每個(gè)采樣點(diǎn)分組中振幅值之間的關(guān)系,然后基于振幅值修改實(shí)現(xiàn)秘密信息的寫入。Liu等[5]根據(jù)加權(quán)能量自適應(yīng)的選擇宿主音頻的小波包子帶來嵌入秘密信息。Ahani等[6]利用離散小波變換(discrete wavelet transformation,DWT)和稀疏分解將秘密信息嵌入信號的更高語義層。Meligy等[7]基于提升小波變換系數(shù)修改和LSB對秘密信息進(jìn)行嵌入。吳秋玲等[8]通過調(diào)節(jié)DWT的中高頻系數(shù)來隱藏秘密信息。Kanhe和Aghila[9]利用語音信號的發(fā)聲部分,通過離散余弦變換(discrete cosine transform,DCT)和奇異值分解(singular value decomposition,SVD)的級聯(lián)實(shí)現(xiàn)隱寫。Bharti等[10]在嵌入之前對秘密音頻的幅度位進(jìn)行函數(shù)轉(zhuǎn)換,然后將轉(zhuǎn)換后的幅度嵌入載體音頻的幅度中,將秘密音頻信號嵌入載體音頻的LSB。Ali等[11]基于分形編碼和混沌LSB將秘密音頻嵌入具有相同大小的封面音頻中。張雪垣等[12-13]基于雙層校驗(yàn)格碼(syndrome-trellis codes,STC)提出一種音頻分段隱寫方法,通過對音頻LSB載體流進(jìn)行分段切割,利用最佳子校驗(yàn)矩陣嵌入秘密信息。
需要指出的是,上述已有工作大多只考慮如何使隱寫失真達(dá)到最小化,犧牲了隱寫容量,且忽略了魯棒性。隱寫是為了在不被發(fā)覺的情況下傳輸秘密信息,在很多網(wǎng)絡(luò)音頻應(yīng)用中,發(fā)送者上傳的隱寫后的攜密音頻文件很可能會(huì)經(jīng)過常規(guī)信號處理或有損轉(zhuǎn)碼、濾波、加噪等操作。而且,如果網(wǎng)絡(luò)攻擊者高度懷疑音頻文件中包含秘密信息,但利用隱寫分析器又檢測失敗,這時(shí)很可能采取“得不到就毀掉”極端措施,對音頻文件進(jìn)行改動(dòng)、信號處理技術(shù)的加工或環(huán)境噪聲攻擊等。而已有工作,特別是基于壓縮域的音頻隱寫,很難適應(yīng)上述的信號處理和有損轉(zhuǎn)碼等情形,從而可能導(dǎo)致接收者無法從攜密音頻中正確提取出秘密信息,造成信息傳遞的失敗。可見,音頻隱寫的魯棒性也是實(shí)現(xiàn)秘密信息安全傳遞的一個(gè)重要指標(biāo),尤其是在商業(yè)機(jī)密等領(lǐng)域,理應(yīng)受到足夠的重視。
基于上述背景,本文基于擴(kuò)頻(spread spectrum,SS)[14]通信技術(shù),通過分析隱寫強(qiáng)度、隱寫容量與不可感知性、魯棒性之間的關(guān)系構(gòu)建了一種音頻隱寫多目標(biāo)優(yōu)化模型,然后基于差分進(jìn)化(differential evolution,DE)[15]進(jìn)行求解,提出一種魯棒音頻隱寫算法,最后通過實(shí)驗(yàn)驗(yàn)證了所提隱寫算法的有效性。
已有研究表明,基于SS的信息寫入方案通常具有較好的魯棒性[14],但通常是直接對整個(gè)音頻分段后進(jìn)行信息寫入,而沒有考慮靜音段和有聲段對信息寫入的影響不同,無法發(fā)揮音頻載體隱寫的最大性能。為了綜合考慮魯棒性和不可感知性,本文采用如圖1所示的音頻隱寫方案,只在音頻的有聲段進(jìn)行隱寫。
圖1 基于SS的音頻隱寫方案
表1 常規(guī)信號處理攻擊方式
表2 測試音頻
魯棒性與隱寫參數(shù)的關(guān)系如圖3所示,當(dāng)隱寫容量固定時(shí),魯棒性會(huì)隨著隱寫強(qiáng)度增加而逐漸增加;當(dāng)隱寫強(qiáng)度固定時(shí),魯棒性隨著隱寫容量增加基本保持平穩(wěn)。但從總體看,MBER值波動(dòng)平緩,驗(yàn)證了基于SS的音頻隱寫方案本身就具有很好的魯棒性。
圖2 不可感知性與隱寫參數(shù)的關(guān)系
圖3 MBER與隱寫參數(shù)的關(guān)系
圖4 個(gè)體編碼結(jié)構(gòu)
變異操作采用DE/rand/1/bin方式[18]:
為了避免算法的早熟和進(jìn)化后期較優(yōu)解易被破壞,本文選擇文獻(xiàn)[19]的自適應(yīng)變異算子:
本文提出的基于DE的魯棒音頻隱寫算法流程如圖5所示,具體步驟如下。
圖5 基于DE的魯棒音頻隱寫算法流程
步驟3 根據(jù)適應(yīng)度值計(jì)算方法計(jì)算初始種群中每個(gè)個(gè)體的適應(yīng)度值。
步驟4 對初始種群進(jìn)行變異和交叉操作組成進(jìn)化種群。按照邊界處理方法對進(jìn)化種群中的每個(gè)個(gè)體進(jìn)行邊界檢查和處理。
步驟5 根據(jù)適應(yīng)度值計(jì)算方法計(jì)算進(jìn)化種群中每個(gè)個(gè)體的適應(yīng)度值。
步驟6 對初始種群和進(jìn)化種群進(jìn)行選擇操作,生成新的初始種群。
步驟7 如果已達(dá)最大迭代次數(shù),則結(jié)束算法,輸出種群中的最優(yōu)個(gè)體;否則,轉(zhuǎn)步驟4繼續(xù)進(jìn)化。
為了驗(yàn)證本文基于DE的魯棒音頻隱寫算法(后稱DE算法)的有效性,將DE算法與文獻(xiàn)[12-13]提出的分段STC方法(簡稱STC)和文獻(xiàn)[6,8]提出的DWT方法進(jìn)行對比實(shí)驗(yàn)。測試音頻數(shù)據(jù)集為50條采樣率為48 kHz、分辨率為16 bit/s、長度為55 s的wav格式音頻。為了直觀地展示對比方法的效果,秘密信息采用64×64的二值圖像,根據(jù)載體本身的特性,重復(fù)進(jìn)行隱寫。
所有對比方法的代碼均基于MATLAB編寫,并均在AMD Ryzen CPU 3.59 GHz、16 GB內(nèi)存、Windows 10操作系統(tǒng)的個(gè)人計(jì)算機(jī)上進(jìn)行測試。
3種不同方法在測試數(shù)據(jù)集上的MBER結(jié)果如圖6所示,STC方法的MBER值最大為0.43,最小為0.38,平均值在0.4左右,DWT方法的MBER值最大為0.33,最小為22,平均值在0.28左右,而本文DE算法的MBER值最低為0.02,最高為0.29,平均在0.14左右,明顯低于STC方法和DWT方法。上述實(shí)驗(yàn)結(jié)果表明,在無攻擊環(huán)境下,本文DE算法的誤碼率要更低。
圖6 不同方法在測試數(shù)據(jù)集上的MBER結(jié)果
為進(jìn)一步對比3種方法的抗攻擊能力,隨機(jī)選取了test17和test47兩條音頻,將二值圖像完全寫入音頻,對隱寫后的音頻進(jìn)行表1所示的8種常規(guī)攻擊。表3和表4給出了這兩條音頻在每種攻擊之后提取秘密信息與原始密信之間的BER??梢钥闯觯疚腄E算法在MP3壓縮、重量化、幅值修改、重采樣和中值濾波后的誤碼率幾乎接近于0;在經(jīng)加高斯白噪聲和低通濾波后的誤碼率在0.1左右。STC方法只有在裁剪攻擊下誤碼率約為0.04,在其他7種情況下均很難恢復(fù)出秘密信息。DWT方法在幅值修改、重采樣、加高斯白噪聲和裁剪后的誤碼率在0.15左右,在其他4種情況下也很難恢復(fù)出秘密信息??赡艿脑蚴牵疚臏y試音頻相對較長,對20 ms經(jīng)過DWT變換之后,高頻系數(shù)的前半部分能量或后半部分能量可能會(huì)為0,即使在無攻擊情況下也會(huì)出現(xiàn)提取錯(cuò)誤。上述實(shí)驗(yàn)結(jié)果表明,在常規(guī)信號處理攻擊環(huán)境下,本文DE算法的誤碼率更低,可以提取出全部或者大部分秘密信息。
表3 test17在8種攻擊下的BER
表4 test47在8種攻擊下的BER
綜上,本文DE算法所給隱寫方案的魯棒性更強(qiáng),即使在被信號處理攻擊后也能保持較低的誤碼率。
為進(jìn)一步量化分析不同方法的不可感知性,3種方法在測試數(shù)據(jù)集上的SNR和ODG值如圖7所示,STC的不可感知性最好,DWT的不可感知性最差,本文DE算法不可感知性居中。這是因?yàn)?,在?yōu)化目標(biāo)上,STC只追求失真度最小,而DWT同時(shí)考慮SNR和BER,本文DE算法兼顧隱寫容量和ODG。具體來說,本文DE算法在50條測試音頻的SNR值均大于20 dB;除了test17,其余測試音頻的ODG值均大于?2,人耳已經(jīng)很難感知載體音頻的細(xì)微變化。上述實(shí)驗(yàn)結(jié)果表明,本文DE算法給出的隱寫方案保持了很好的不可感知性。此外,test17的VAD結(jié)果如圖8所示,在第37 s和40 s之間,分割出的3個(gè)有聲段長度過小,且包含了靜音段,導(dǎo)致此段的ODG的值較低?;谶@一發(fā)現(xiàn),未來可以考慮不在時(shí)長過短的有聲段中嵌入秘密信息,以確保更好的不可感知性。
采用文獻(xiàn)[20]的卷積神經(jīng)網(wǎng)絡(luò)通用隱寫分析器檢測DE、STC和DWT 3種隱寫方法的抗隱寫分析能力。首先,從開源平臺“喜馬拉雅”下載采樣率為48 kHz、分辨率為16 bit/s的wav格式音頻,利用CoolEdit將其切分為每條時(shí)長55 s、共1 300條語音文件;然后,分別利用DE、STC和DWT對其進(jìn)行隱寫,得到各自的1 300條載密音頻;并分別用1 300條含密語音與1 300條原始音頻訓(xùn)練隱寫分析器;最后,利用訓(xùn)練好的隱寫分析器檢測前面實(shí)驗(yàn)采用的50條測試音頻和對應(yīng)的50條含密音頻。
圖7 不同方法的不可感知性測試結(jié)果
圖8 音頻test 17的VAD結(jié)果
當(dāng)隱寫分析器同時(shí)檢測出原始音頻和對應(yīng)的隱寫音頻時(shí),認(rèn)為檢測正確。3種方法的隱寫分析檢測結(jié)果見表5,本文DE算法可以檢測出10組,正確率為20%;STC方法檢測出11組,正確率為22%;DWT方法檢測出9組,正確率為18%。上述實(shí)驗(yàn)結(jié)果表明,本文DE算法在抗隱寫分析性能上與STC和DWT方法不相上下。
表5 隱寫分析檢測結(jié)果
音頻隱寫是信息隱藏領(lǐng)域中的一個(gè)研究熱點(diǎn),主要致力于將秘密信息寫入音頻信號,同時(shí)在魯棒性、不可感知性、隱寫容量和抗隱寫分析性能之間達(dá)到一個(gè)理想的均衡。為此,本文基于擴(kuò)頻技術(shù)研究音頻隱寫,通過分析隱寫參數(shù)與不可感知性和魯棒性的關(guān)系,構(gòu)建了一種音頻隱寫多目標(biāo)優(yōu)化模型,并基于DE算法進(jìn)行求解,設(shè)計(jì)了相應(yīng)的編碼和初始化方法,變異、交叉、選擇和邊界處理方法。實(shí)驗(yàn)結(jié)果表明,本文所提隱寫算法在保持不可感知性和抗隱寫分析能力的基礎(chǔ)上,具有更好的魯棒性,可以有效抵御一些常規(guī)信號處理的攻擊。
但是,本文只是對基于搜索的音頻隱寫的一個(gè)初步探索,未來仍有許多問題需要進(jìn)一步的深入研究。首先,需要在目標(biāo)函數(shù)中考慮抗檢測性,以期進(jìn)一步提升隱寫方案的抗隱寫分析能力;其次,需要基于VAD分辨出時(shí)長過短的有聲段,以避免在這些有聲段進(jìn)行隱寫造成的過度失真;此外,還將考慮基于多目標(biāo)DE算法求解音頻隱寫模型,以期在隱寫容量、魯棒性、不可感知性和抗檢測性之間達(dá)到一個(gè)理想的均衡。
[1] 李鳳華, 李暉, 賈焰, 等. 隱私計(jì)算研究范疇及發(fā)展趨勢[J]. 通信學(xué)報(bào), 2016, 37(4): 1-11.
LI F H, LI H, JIA Y, et al. Privacy computing: concept, connotation and its research trend[J]. Journal on Communications, 2016, 37(4): 1-11
[2] 孫樹亮. 基于非下采樣Contourlet變換和Hill編碼的圖像隱寫[J]. 電信科學(xué), 2016, 32(6): 124-128.
SUN S L. Image steganography based on nonsubsampled Contourlet transform and Hill cipher[J]. Telecommunications Science, 2016, 32(6): 124-128.
[3] DUTTA H, DAS R K, NANDI S, et al. An overview of digital audio steganography[J]. IETE Technical Review, 2020, 37(6): 632-650.
[4] 鄒明光, 李芝棠. 基于振幅值修改的wav音頻隱寫算法[J]. 通信學(xué)報(bào), 2014(z1): 36-40.
ZOU M G, LI Z T. Wav-audio steganography algorithm based on amplitude modifying [J]. Journal on Communications, 2014(z1): 36-40.
[5] LIU H L, LIU J J, HU R G, et al. Adaptive audio steganography scheme based on wavelet packet energy[C]//2017 IEEE 3rd international conference on big data security on cloud (bigdatasecurity), IEEE international conference on high performance and smart computing (hpsc), and IEEE international conference on intelligent data and security (ids). Piscataway: IEEE Press, 2017: 26-31.
[6] AHANI S, GHAEMMAGHAMI S, WANG Z J. A sparse representation-based wavelet domain speech steganography method[J]. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2015, 23(1): 80-91.
[7] MELIGY A M, NASEF M M, EID F T. An efficient method to audio steganography based on modification of least significant bit technique using random keys[J]. International Journal of Computer Network and Information Security, 2015, 7(7): 24-29.
[8] 吳秋玲, 吳蒙. 基于小波變換的語音信息隱藏新方法[J]. 電子與信息學(xué)報(bào), 2016, 38(4): 834-840.
WU Q L, WU M. Novel audio information hiding algorithm based on wavelet transform[J]. Journal of Electronics & Information Technology, 2016, 38(4): 834-840.
[9] KANHE A, AGHILA G. A DCT-SVD-based speech steganography in voiced frames[J]. Circuits, Systems, and Signal Processing, 2018, 37(11): 5049-5068.
[10] BHARTI S S, GUPTA M, AGARWAL S. A novel approach for audio steganography by processing of amplitudes and signs of secret audio separately[J]. Multimedia Tools and Applications, 2019, 78(16): 23179-23201.
[11] ALI A H, GEORGE L E, ZAIDAN A, et al. High capacity, transparent and secure audio steganography model based on fractal coding and chaotic map in temporal domain[J]. Multimedia Tools and Applications, 2018, 77(23): 31487-31516.
[12] 張雪垣, 王讓定, 嚴(yán)迪群, 等. 基于分段STC的音頻隱寫算法[J]. 電信科學(xué), 2019, 35(7): 115-123.
ZHANG X Y, WANG R D, YAN D Q, et al. An audio steganography algorithm based on segment-STC[J]. Telecommunications Science, 2019, 35(7): 115-123.
[13] ZHANG X Y, WANG R D, YAN D Q, et al. Selecting optimal submatrix for syndrome-trellis codes (STCs)-based steganography with segmentation[J]. IEEE Access, 2020, 8: 61754-61766.
[14] SU Z P, ZHANG G F, YUE F, et al. SNR-constrained heuristics for optimizing the scaling parameter of robust audio watermarking[J]. IEEE Transactions on Multimedia, 2018, 20(10): 2631-2644.
[15] STORN R, PRICE K. Differential evolution - A simple and efficient heuristic for global optimization over continuous spaces[J]. Journal of Global Optimization, 1997, 11(4): 341-359.
[16] CHANG J H, KIM N S, MITRA S K. Voice activity detection based on multiple statistical models[J]. IEEE Transactions on Signal Processing, 2006, 54(6): 1965-1976.
[17] LEI B Y, SOON I Y, TAN E L. Robust SVD-based audio watermarking scheme with differential evolution optimization[J]. IEEE Transactions on Audio, Speech, and Language Processing, 2013, 21(11): 2368-2378.
[18] DAS S, SUGANTHAN P N. Differential evolution: a survey of the state-of-the-art[J]. IEEE Transactions on Evolutionary Computation, 2011, 15(1): 4-31.
[19] YANG Z Y, TANG K, YAO X. Self-adaptive differential evolution with neighborhood search[C]//2008 IEEE Congress on Evolutionary Computation (IEEE World Congress on Computational Intelligence). Piscataway: IEEE Press, 2008: 1110-1116.
[20] JIANG S Z, YE D P, HUANG J Q, et al. SmartSteganogaphy: Light-weight generative audio steganography model for smart embedding application[J]. Journal of Network and Computer Applications, 2020, 165: 102689.
A robust audio steganography algorithm based on differential evolution
SU Zhaopin1,2,3, SHEN Chaoyong1, ZHANG Guofu1,2,3, YUE Feng1,2,, HU Donghui1,2,3
1. School of Computer Science and Information Engineering, Hefei University of Technology, Hefei 230601, China 2. Anhui Province Key Laboratory of Industry Safety and Emergency Technology (Hefei University of Technology),Hefei 230601, China 3. Intelligent Interconnected Systems Laboratory of Anhui Province (Hefei University of Technology), Hefei 230009, China
Audio steganography is to hide secret information into the audio carrier and has become a research hotspot in the field of information hiding. Most of the existing studies focus on minimizing distortion at the expense of steganography capacity, and it is often difficult for them to extract secret information correctly after some common signal processing attacks. Therefore, based on the spread spectrum technology, firstly, the relationship between steganography parameters (i.e., segmented scaling parameters and steganography capacity) and imperceptibility as well as robustness was analyzed. Next, a multi-objective optimization model of audio steganography was presented, in which segmented scaling parameters and steganography capacity were decision variables, imperceptibility and steganography capacity were optimization objectives, and the signal-to-noise ratio was a constraint. Then, a robust audio steganography algorithm based on differential evolution was proposed, including the corresponding encoding, fitness function, crossover and mutation operators. Finally, comparative experimental results show that the proposed steganography algorithm can achieve better robustness against common signal processing attacks on the premise of ensuring imperceptibility and anti-detection.
audio steganography, steganography parameters, differential evolution, robustness
TP309.2
A
10.11959/j.issn.1000?0801.2021246
蘇兆品(1983? ),女,博士,合肥工業(yè)大學(xué)副教授,主要研究方向?yàn)檎Z音安全、進(jìn)化算法。
沈朝勇(1996? ),男,合肥工業(yè)大學(xué)碩士生,主要研究方向?yàn)橐纛l隱寫、進(jìn)化算法。
張國富(1979? ),男,博士,合肥工業(yè)大學(xué)教授,主要研究方向?yàn)檎Z音安全、軟件工程。
岳峰(1981? ),男,博士,合肥工業(yè)大學(xué)副研究員,主要研究方向?yàn)檐浖こ獭⑿畔踩?/p>
胡東輝(1973? ),男,博士,合肥工業(yè)大學(xué)教授,主要研究方向?yàn)樾畔踩?、機(jī)器學(xué)習(xí)。
s: The Anhui Provincial Key Research and Development Program (No.202004d07020011, N0.202104d07020001), MOE (Ministry of Education in China) Project of Humanities and Social Sciences (No.19YJC870021), Guangdong Provincial Key Laboratory of Brain-inspired Intelligent Computation (No.GBL202117), Fundamental Research Funds for the Central Universities (No.PA2020GDKC0015, No.A2021GDSK0073, No.PA2021GDSK0074)
2021?05?24;
2021?10?14
安徽省重點(diǎn)研究與開發(fā)計(jì)劃(No.202004d07020011,No.202104d07020001);教育部人文社會(huì)科學(xué)研究青年基金項(xiàng)目(No.19YJC870021);廣東省類腦智能計(jì)算重點(diǎn)實(shí)驗(yàn)室開放課題(No.GBL202117);中央高?;究蒲袠I(yè)務(wù)費(fèi)專項(xiàng)資金項(xiàng)目(No.PA2020GDKC0015,No.PA2021GDSK0073,No.PA2021GDSK0074)