樊繽,李智,高健
(貴州大學 計算機科學與技術學院,貴陽 550025)
隨著醫(yī)學影像技術的不斷發(fā)展,醫(yī)學圖像成為醫(yī)生診斷患者病情的重要依據。彌散加權成像(Diffusion-Weighted Imaging,DWI)是一種新型的功能磁共振成像技術,通過檢測活體組織內部水分子無規(guī)則的擴散運動,反映機體組織在生理狀態(tài)下水分子擴散的情況,間接地反映細胞密度、組織結構等方面的信息[1]。該技術是目前唯一可以無創(chuàng)地觀察活體組織內部水分子運動的方法,對大腦分割、腫瘤檢測等重大疾病診斷具有巨大的臨床應用價值。為了給患者提供更為準確的臨床診斷和最佳的治療方案,基于醫(yī)學圖像的遠程共享和專家遠程診斷技術已經成為重要的診療方式。伴隨遠程的醫(yī)療共享、診斷技術的不斷發(fā)展與普及,也讓越來越多的原本在醫(yī)院單機上存儲和使用的醫(yī)學圖像數據需要通過網絡進行傳輸??墒俏幢槐Wo的醫(yī)學圖像在遠程傳輸過程中極易遭受竊取、非法使用、惡意攻擊或篡改,嚴重影響醫(yī)學專家的正確診斷。為有效保護醫(yī)學圖像信息的完整性,向遠程專家提供準確的醫(yī)學圖像,以及限制未授權用戶的使用,基于醫(yī)學圖像的數字水印技術成為解決上述問題的有效手段。
對醫(yī)學圖像進行數字水印保護時:一方面要遵循醫(yī)學圖像所具有的分辨率高、邊界模糊、灰度和紋理度分布不均衡、語義明確和結構固定等特點;另一方面不能破壞原始醫(yī)學圖像的灰度信息而影響醫(yī)生的診斷,所以基于醫(yī)學圖像的可逆水印算法成為研究者們關注的重點[2-9]。但當前大多數可逆水印面對各種有意或無意的攻擊時,幾乎不具備魯棒性。因此一些醫(yī)學圖像信息保護領域的學者們探索和嘗試將魯棒水印算法的思想應用于醫(yī)學圖像版權信息保護中[10-14]。文獻[10]中對醫(yī)學圖像的非感興趣區(qū)域進行離散小波變換并根據視覺熵原理選擇合適的中頻子帶進行舒爾變換獲得特征矩陣,然后將無損壓縮后的水印結合經過粒子群細菌覓食優(yōu)化算法計算出的閾值T嵌入到特征矩陣中。該算法引入粒子群細菌覓食優(yōu)化算法平衡水印魯棒性與視覺質量,迭代尋找最佳閾值T,避免人工尋找閾值所面臨的局限性。文獻[11]中提出將醫(yī)學圖像分為多個子塊,對熵值最大的子塊進行非下采樣輪廓波變換、冗余離散小波變換與奇異值分解得到奇異矩陣,再將經過混沌加密的水印嵌入到奇異矩陣中。該算法結合了輪廓波變換具有多尺度、多方向信息,混沌加密具有偽隨機特性的優(yōu)點,使水印的魯棒性、安全性都達到醫(yī)學圖像的要求。文獻[12]中提出將水印嵌入醫(yī)學圖像經離散小波變換與奇異值分解后的奇異矩陣中,加入漢明碼以減少圖像在網絡傳輸中的噪聲帶來的損失。文獻[13]中提出結合最大類間方差算法與面積控制閾值法確定DWI圖像的待嵌入區(qū)域,計算該區(qū)域經整數小波變換后的低頻子帶的統(tǒng)計直方圖,最后根據直方圖的相鄰簇的比值關系嵌入水印。該算法在DWI 圖像的纖維參數改變量極小的情況下,對幾何、噪聲攻擊都具有較高的魯棒性。文獻[14]中對經過離散小波變換與舒爾變換后的醫(yī)學圖像分塊,以最小化圖像失真程度與提高水印魯棒性為目標,通過螢火蟲優(yōu)化算法在圖像塊的中頻子帶中迭代尋找最佳的嵌入位置。
雖然傳統(tǒng)的魯棒水印算法在水印的不可感知性和魯棒性方面具有一定的優(yōu)勢,但傳統(tǒng)的啟發(fā)式算法需要根據圖像的各種特性和專門的噪聲攻擊設計不同的水印保護方法[15]。文獻[15]中利用神經網絡在噪聲攻擊下的高魯棒性,突破了傳統(tǒng)方法的局限性。文獻[16]中通過增加對抗訓練和信道編碼進一步提高水印的魯棒性。文獻[17]中在嵌入水印的過程中結合多尺度的上下文特征重構圖像,使含水印圖在紋理細節(jié)區(qū)域與原圖保持高度相似。與傳統(tǒng)的啟發(fā)式算法相比,神經網絡算法的關鍵優(yōu)勢在于它只需要在訓練過程中加入新的噪聲,而不需要為新的噪聲攻擊設計專門的算法。然而,現有的深度水印算法都是針對數字圖像嵌入水印,面對只有少量數據集、對視覺質量要求較高的DWI 圖像時,無法滿足醫(yī)學圖像的臨床診斷要求,更不能達到DWI 圖像的視覺質量要求。為了解決以上問題,本文針對DWI 圖像提出一種端到端的基于多尺度知識學習的具有對抗結構的深度魯棒水印算法。
本文的主要工作如下:
1)為從少量樣本中重構出高視覺質量的含水印DWI 圖像,本文提出一個具有多尺度結構的水印嵌入網絡,微調預訓練網絡以多尺度的方式充分提取DWI 圖像及其先驗領域知識獲得用于圖像重構的局部以及全局特征。通過融合多尺度的重構特征,使重構得到的含有水印信息的彌散加權圖像的視覺質量和彌散特征滿足臨床診斷要求。
2)為提高水印對噪聲的魯棒性,本文提出一個基于金字塔特征學習的水印提取網絡,從含有水印信號的彌散加權圖像的不同尺度的上下文中提取水印信號,從而有效學習水印信號的分布相關性,提高算法的魯棒性。
如圖1 所示,與一般數字圖像不同,DWI 圖像數據不僅包含明顯的邊界和紋理信息,還有具有高維數據結構。DWI圖像是一個四維的醫(yī)學影像序列。其中,前兩個維度代表器官的切片,第三個維度代表斷層距離,第四個維度代表擴散梯度方向。由于DWI 圖像具有精度高、結構固定、紋理豐富、對失真容忍度低以及樣本數量稀少等特點,使現有的基于深度學習的水印算法不能嚴格滿足臨床診斷中DWI 圖像的視覺質量和擴散參數的要求。
針對DWI 圖像精度高、結構固定、紋理豐富的特點,本文將先驗領域知識引入算法中,不僅利用圖像的語義特征重構圖像,還在重構過程中加入DWI 圖像的邊緣、紋理、頻域特征,使神經網絡在反向傳播的過程中能自適應地整合多種先驗知識重構圖像。最近的研究表明,遷移學習被證明在少量樣本的醫(yī)學圖像重建中具有潛力[18-21],多尺度特征可以充分表達數據的全局信息與局部信息,從而提高模型的擬合能力,提高重建圖像的質量[22-23]。基于以上啟發(fā),本文提出一個基于多尺度知識學習的魯棒水印算法。
利用神經網絡對DWI 圖像進行重構,圖像的邊緣信息會隨著神經網絡的加深而逐漸失真甚至消失。Canny 算子[24]通過結合高斯濾波與雙閾值檢測邊緣,能從高精度的DWI 圖像中去掉圖像噪聲引起的偽邊緣,精確定位DWI 圖像的結構邊緣。針對DWI 圖像具有固定結構、邊緣明顯的特點,本文以高斯標準差為1.5 的Canny 算子提取的紋理特征作為部分先驗知識。計算步驟包括:1)對DWI 圖像進行高斯濾波;2)使用一階偏導有限差分計算圖像的梯度與方向;3)對梯度幅值進行非極大值抑制;4)采用雙閾值算法檢測、連接邊緣。
以多尺度的方式對DWI 圖像進行重構時,雖然不同尺度的特征能充分表達圖像的語義信息,但跨尺度采樣會丟失圖像的紋理細節(jié)特征。本文充分考慮算法的空間與時間復雜度,采用等價局部二值模式(Local Binary Pattern,LBP)算法[25]提取圖像的紋理特征。特征提取過程包括以下3 個步驟:1)遍歷所有像素點,選取每個像素點的3×3 鄰域;2)對于每個鄰域,以中心點為閾值,與周圍8 個點進行計算形成8 位二進制序列;3)計算二進制序列的“01”或“10”的跳變次數,若跳變次數小于3,則該二進制序列對應的十進制即為紋理特征值;否則以鄰域集內的采樣點個數作為紋理特征值。
僅從單一的空間域重構圖像會產生結構性、非局部的偽影。頻域特征作為描述圖像灰度變化劇烈程度的指標,對于減少重構圖像的偽影具有一定的優(yōu)勢[26]。為避免重構圖像的偽影對臨床診斷造成影響,本文對原始圖像進行二維快速傅里葉變換[27],提取其頻域特征作為部分先驗知識。圖2 分別展示了原始圖像及其邊緣、紋理與頻域特征。本文組合這三種特征作為先驗領域知識并引入神經網絡的訓練中,通過多種知識正則化網絡,重構出在視覺質量上與原始圖像高度相似的含水印圖。
本文算法的流程如圖3 所示,水印的嵌入與提取過程包括5 個階段:
1)特征提取。提取原始圖像Io的紋理、邊緣、頻域特征組成先驗領域知識Inf。
2)水印嵌入。水印嵌入網絡結合先驗領域知識Inf重構原始圖像Io,并在該過程中嵌入水印Wo,生成含有水印的圖像Iw。
3)噪聲攻擊。噪聲攻擊模塊對含水印圖像Iw添加噪聲,生成噪聲圖像In。
4)水印提取。水印提取網絡從噪聲圖In中提取水印Wd。
5)視覺增強。對抗網絡縮小含水印圖Iw與原圖Io的視覺質量差距。
現有的神經網絡方法[15-16]使用單一尺度的方式重構圖像,信息獲取不充分限制了網絡捕捉特征的能力,從而導致重構的DWI 圖像在邊緣細節(jié)處較為平滑,纖維走向不能與原圖保持一致。根據香農容量定理[28],信息冗余性是魯棒性的必要條件?;谝陨戏治?,本文提出在圖像特征提取階段,首先對原始圖像及其先驗領域知識進行多尺度特征提取,分別獲得不同尺度下的圖像語義特征和圖像先驗知識特征;接著在圖像重構階段,利用跳轉連接融合多種尺度的圖像特征以此對圖像進行重構,并在該過程中冗余地嵌入水印信息,獲得含有水印信息的DWI 圖像,使重構的含水印圖的邊緣、紋理區(qū)域與原圖高度相似,滿足DWI 圖像的可視質量以及彌散特征要求。整個水印嵌入過程分為特征提取階段與圖像重構階段,本文定義特征提取階段的第i層的提取特征為Feextr_i,圖像重構階段的第i層的重構特征為Fereco_i,分別由式(1)與式(2)計算得到:
其中:Infi表示DWI 圖像的先驗知識特征(i=1,2,…,N,N為多尺度采樣的次數),Inf1由原始DWI 圖像的紋理、邊緣、頻域信息按通道拼接而成;Fk(·)表示級聯一個3×3 卷積與下采樣操作對先驗知識特征進行提??;Wi表示水印矩陣,W0為未擴展的二值水印序列;E(·)表示將長度為L的二值水印序列擴展為通道數為L,長與寬與第i層重構特征相同的水印矩陣;Feextr_1為Io,Fereco_1為Iw;Extrconv與Recoconv分別為本文定義的特征提取運算(式(5))與圖像重構運算(式(6)):
其中:Convk(·)表示感受野為k的卷積運算;Sdown(·)與Sup(·)分別表示下采樣與上采樣;Convpre_i(·)表示利用預訓練網絡的第i個卷積模塊提取特征;{·}表示特征通道拼接;Zi(·)表示級聯一個上采樣或下采樣操作與1×1 卷積將輸入特征的尺寸調整至與第i層重構特征相同大小;SE(·)表示利用通道注意力模塊[29]對特征進行通道權重變換。圖4 展示了水印嵌入的全過程。在圖4 左側的特征提取路徑上,通過級聯多個特征提取運算(圖5),獲得多個不同尺度的提取特征。
特征提取運算首先使用預訓練網絡與下采樣操作對原始圖像的語義特征進行提取,同時利用一個3×3 卷積與下采樣操作對圖像的先驗知識進行特征提取,接著將提取的語義特征與先驗知識特征進行特征通道拼接,最后利用一個1×1卷積對特征通道進行壓縮。在圖4 右側的圖像重構路徑上,級聯多個圖像重構運算(圖6)將不同尺度的提取特征與重構特征融合。
具體地,每層圖像重構運算對上一層輸出的重構特征進行上采樣與1×1 卷積,對同一層的提取特征進行1×1 卷積,對下一層的提取特征進行下采樣與1×1 卷積,通過對以上三種相鄰尺寸的特征進行空間尺度變換后獲得相同尺寸的特征圖,接著將以上特征進行3×3 卷積并與經過擴展的水印矩陣進行通道拼接形成帶有水印的重構特征。為了平衡水印特征、重構語義特征、重構先驗知識特征之間的權重,本文添加一個通道注意力模塊讓圖像重構運算自適應地學習各個特征通道之間的相關性。最后,再利用一個3×3 卷積來降低多尺度特征融合所造成的偽影效應[30]。在整個水印嵌入過程中,上采樣采用步長為2 的雙線性插值,下采樣采用步長為2、感受野為3 的最大池化,預訓練網絡采用殘差網絡(Residual Network,ResNet)[31],每個卷積模塊包含一個卷積運算、批量歸一化(Batch Normalization,BN)層、線性整流激活函數(Rectified Linear Unit,ReLU)。為提高含水印圖與原圖的語義相似度,本文在訓練過程中利用感知損失[32]來縮小兩者之間的語義差距。
當醫(yī)學圖像受到有意或無意的攻擊時,隱藏在圖像中的水印的相關性會被改變。為了提高所提算法的水印魯棒性,需要充分考慮水印的分布特征。由于神經網絡方法自適應地將水印嵌入到整個圖像中,可能導致不同數量的水印信號被嵌入到相同大小的空間中。在這種情況下,傳統(tǒng)的自上而下的卷積難以充分學習水印的分布信息。因此,本文提出一個基于金字塔特征學習的水印提取網絡來解決上述問題。如圖7 所示,所提網絡由多個金字塔特征提取模塊(Pyramid Feature Extraction Module,PFEM)和金字塔下采樣模塊(Pyramid Downsampling Module,PDM)以及一個最大池化操作與全連接運算組成。PFEM 并行使用采樣步長分別為1、2、3 的3×3 擴張卷積[33]提取每個空間位置在不同尺度上的水印信號特征,結合不同范圍的特征使神經網絡充分學習水印信號在局部區(qū)域的分布相關性。圖8 展示了不同采樣步長的擴張卷積所對應的感受野,D為采樣步長,R為特征感受野。在感受野范圍相同的情況下,擴張卷積具有更少的模型參數,能有效提高計算速度。之后,本文級聯一個1×1 卷積進行特征壓縮,并通過跳躍連接融合壓縮后的水印信號特征與原始水印特征以此避免網絡退化。在PDM中,本文并行利用感受野為3 和5 的最大池化運算壓縮水印特征的空間信息,相較于平均池化與卷積下采樣,最大池化能充分保留紋理細節(jié)區(qū)域的梯度相關性[34],使網絡更容易從灰度變化幅度更大的區(qū)域學習水印的相關信息。接著使用一個1×1卷積與通道拼接運算對多尺度的池化特征進行融合,并級聯一個3×3 卷積擬合特征。在整個水印提取過程中,卷積模塊包含一個卷積運算、BN 層、ReLU 激活函數。最后,二值交叉熵(Binary Cross-Entropy,BCE)損失(式(7))用來提高水印的正確率:
其中:Wd是從最后一個PFEM 中提取的水??;Wo是原始水印。水印嵌入與提取過程的損失函數如式(8)所示:
其中:λ1、λ2、λ3為平衡各損失函數的權重值;Lbce為水印損失;Lpercep為文獻[32]中的圖像感知損失;LG為文獻[35]的圖像對抗損失。
針對醫(yī)學圖像在公網傳輸時可能遭受的有意與無意攻擊,本文在訓練過程中分別對含水印圖Ie進行旋轉、裁剪、像素替換、高斯噪聲以及JPEG 壓縮。其中,旋轉攻擊以圖像的中心點為軸旋轉一定的角度,通過旋轉角度θ衡量旋轉強度;裁剪攻擊隨機裁剪Ie的某一區(qū)域,通過(裁剪像素數量-Ie像素數量)與Ie像素數量的占比p控制裁剪強度;像素替換攻擊將Ie的像素隨機替換為其他圖像的像素,像素替換攻擊有2 種替換方式:一種是在全圖范圍選擇像素點替換,一種是隨機選擇圖像內的一個矩形塊替換。通過替換像素數量與Ie像素數量的占比q控制替換強度。前三種方法都會引起像素點缺失,進而造成水印信息丟失;高斯模糊減少圖像在網絡信道傳輸過程中受到的高斯噪聲的影響,使圖像變得平滑,但由于減小了圖像的灰度變化的幅度,隱藏于圖像的水印也會受到影響,本文通過高斯核寬度σ控制高斯噪聲強度;JPEG 壓縮在量化過程中會丟失圖像信息,隱藏于像素點中的水印也會隨之丟失,本文通過質量因子Q控制壓縮強度。
圖9 可視化了DWI 圖像遭受常規(guī)的噪聲攻擊時,噪聲圖與原圖之間的視覺差異。
本文在公共DWI 數據集[36]上進行訓練,并與一個基準算法HiDDeN(Hiding Data with Deep Networks)[15]相比,證明所提算法的優(yōu)越性。通過降低數據的維度,得到約24 000 幅二維切片圖像,選取19 000 幅切片作為訓練集,選取5 000 幅切片作為測試集。為保證對比實驗的公平性,本文將DWI圖像的尺寸裁剪成128×128,水印由長度為32 位的二進制隨機序列組成,采用Adam 優(yōu)化器,學習率為0.000 1,200 個epoch。
本文的多尺度學習從兩個方面體現:一是多尺度采樣,即在重構過程中通過多次下采樣和多次上采樣的方式獲得不同尺度的重構特征,尺度較小的特征圖能表征局部范圍更大的圖像語義信息,而尺度較大的特征圖更注重圖像的紋理、細節(jié)信息;二是多尺度融合,即在圖像重構路徑上,通過融合不同尺度的特征圖,使神經網絡既能學習圖像的語義特征,又能學習圖像的細節(jié)特征。本文以1.6 節(jié)所提網絡為基礎框架,通過調整框架結構證明以上兩個方面都能提高網絡的特征擬合能力。具體地,在重構過程中刪除最大池化與雙線性插值算法來取消多尺度采樣,刪除跳躍連接來取消多尺度融合。實驗結果如表1 所示,對于沒有多尺度采樣與融合的實驗1,其網絡結構類似于自上而下地堆疊步長為1 的卷積運算,平均峰值信噪比(Peak Signal-to-Noise Ratio,PSNR)達到46.12 dB;對于只有多尺度采樣的實驗2,其結果相較于無多尺度采樣的實驗1 有所提高,證明多尺度采樣所得到的特征能有效提高網絡的重構能力。對于實驗3,在多尺度采樣的基礎上,融合了不同尺度的特征,平均PSNR 進一步提高,達到48.17 dB,充分說明多尺度采樣以及多尺度融合對圖像重構具有良好的性能提升。值得一提的是,因為多尺度融合的前提是多尺度采樣,因此刪除上、下采樣,保留跳躍連接不屬于“無多尺度采樣,有多尺度融合”的情況。
表1 多尺度學習對圖像視覺質量的影響Tab.1 Influence of multiscale learning on image visual quality
在圖像重構過程中,本文在特征提取路徑上加入遷移學習以從少量樣本中提取圖像語義特征,表2 展示了不同的預訓練模型對重構圖像視覺質量的影響。其中,實驗1 采用無預訓練的VGG16 網絡[37]作為骨干網絡解碼圖像。表2 第三列的64↗表示特征提取運算最開始的特征通道數為64,通道數量隨著特征提取運算的疊加而增加一倍。64→表示每個特征提取運算的特征通道數量都為64。在該實驗中,本文按表1 中實驗3 的結構設計實驗,即特征提取運算采用預訓練網絡提取不同尺度的特征,卷積通道數隨著特征提取運算的疊加而增加一倍;圖像重構運算融合多尺度的圖像語義特征,卷積通道數隨著圖像重構運算的疊加而減少一半。結果如表2 所示,實驗1~5 證明利用預訓練模型提取語義特征都能不同程度地提高重構圖像的視覺質量,ResNet18 具有最好的視覺效果,平均PSNR 達到54.20 dB。由于結合多尺度的特征重構圖像具有龐大的模型參數,為了輕量化模型,提高計算效率,本文補增實驗6~13,將每個圖像重構運算的特征通道數控制為64 以及128 來探究特征通道數量對重構圖像質量的影響。橫向對比實驗2、6、10、實驗3、7、11、實驗4、8、12、實驗5、9、13 可知,輕量化模型后,DenseNet(Densely Network)[38]的PSNR 出現先下降后上升的情況。SqueezeNet(Squeezed Network)[39]與ResNet18 的PSNR 隨著通道數的減少而增加,在通道數固定為64 的時候取得最高值,PSNR 分別達到52.75 dB 與54.88 dB。VGG16 在通道數固定為128時取得最高值,PSNR 達到54.17 dB。分析減少參數量能提升PSNR 的原因是:高級語義特征是圖像的抽象表示,過多的高級語義特征對重構圖像的細節(jié)紋理是不利的。基于以上分析,本文增加實驗14~17,通過控制特征通道數量隨著圖像重構運算的疊加而減少一半來探究減少高級語義特征對重構圖像視覺質量的影響。觀察實驗2、6、10、14、實驗3、7、11、15、實驗4、8、12、16、實驗5、9、13、17,減少高級語義特征后所有模型的PSNR 都出現下降。分析其原因是:高級語義特征作為圖像的抽象表示,能定位圖像的結構邊緣,這對于結構固定、擁有感興趣區(qū)域的醫(yī)學圖像來說尤其重要,過少的高級特征不利于圖像重構。綜上所述:過多的高級語義特征對圖像重構來說是冗余的,過少的高級語義特征不能清晰重構醫(yī)學圖像。當對視覺質量要求較高時,可選擇PSNR最高的實驗9 的結構作為水印嵌入網絡;當對計算效率要求較高時,可選擇更輕量化的實驗10 的結構作為水印嵌入網絡。
表2 遷移學習對圖像視覺質量的影響Tab.2 Influence of transfer learning on image visual quality
設計消融實驗探究不同先驗知識對提高重構圖像視覺質量的有效性。該部分實驗以表2 中實驗9 的模型為水印嵌入網絡的骨干框架,實驗2~8 在實驗1 的基礎上加入不同類型的先驗知識重構圖像。對比實驗1~4 可知,基于先驗知識的重構結果優(yōu)于單一的空間域重構結果,因為先驗知識提供了更多的空間域無法充分學習的紋理、邊緣以及全局語義特征。為進一步提高神經網絡的泛化性,本文補充實驗5~8,通過組合不同類型的先驗知識讓神經網絡充分學習重構特征。其中,結合三種先驗知識進行重構具有最優(yōu)結果,PSNR達到57.82 dB。
表3 先驗知識對圖像視覺質量的影響Tab.3 Influence of prior knowledge on image visual quality
為了驗證所提算法的優(yōu)越性,本文引入PSNR 與結構相似性(Structural SIMilarity index,SSIM)來評價重構圖像的視覺質量。前者衡量圖像失真,是目前使用最廣泛的一種圖像評價標準;后者考慮人眼的視覺識別感知特性,評價結果與人的主觀感受一致。如圖10 所示,相較于基準算法HiDDeN[15],本文算法在DWI 圖像的感興趣區(qū)具有更高的視覺質量,平均PSNR 達到57.82 dB,而HiDDeN 的平均PSNR僅有39.08 dB,比本文算法低18.74 dB。對于平均SSIM,本文為0.991,而HiDDeN 只有0.934。從第三列的差值圖可以看出,由本文算法生成的重構圖像的紋理和邊緣信息與原始圖像幾乎相同,而HiDDeN 重構出的圖像在大腦的邊緣區(qū)域具有更明顯的差異,這說明HiDDeN 沒有充分學習到DWI 圖像的結構特征,無法滿足DWI 圖像的可視質量要求。不論從圖像的失真程度,還是從人的主觀感受評價,本文算法生成的DWI 圖像都更接近于原始圖像。
本文訓練組合模型與單一模型比較本文所提算法與HiDDeN 算法對噪聲的魯棒性。前一種模型在訓練中隨機加入前文所述的六種噪聲攻擊,而后一種模型只在訓練中加入某一種特定的噪聲攻擊。在訓練過程中,本文同HiDDeN 一樣使用近似微分JPEG-Mask 代替JPEG 壓縮攻擊。如圖11 所示,對于單一模型,即使在裁剪強度為0.1、高斯核寬度為4、旋轉角度為45°的極端情況下,所提算法能達到90%以上的水印正確率,而HiDDeN 只能達到70%左右。本文算法面對極端攻擊仍具有高魯棒性的原因在于:1)在重構階段冗余地嵌入水印到多尺度的重構特征中,神經網絡能從少量的原始圖像信息中提取水??;2)基于金字塔特征學習的水印提取網絡不僅從DWI 圖像的局部特征中尋找隱藏于圖像中的水印信息,還能結合感受野更大的上下文特征與局部特征的相關性來進一步提高所提水印的正確率。對于組合模型,當DWI圖像受到各種輕微噪聲攻擊時,例如裁剪強度小于0.7,像素替換強度小于0.4,高斯核寬度小于1,JPEG 質量因子大于70,旋轉角度小于15°,本文水印正確率可以保持在95%以上。即使在高強度的噪聲攻擊下,如JPEG 壓縮強度為50,裁剪強度為0.5,像素替換強度為0.5等,所提算法的水印正確率仍能達到90%以上。而HiDDeN 面對極端的JPEG 壓縮、高斯模糊、局部像素替換、裁剪攻擊、旋轉攻擊,水印正確率僅為50%。
為驗證嵌入水印的DWI 轉換為彌散張量成像(Diffusion Tensor Imaging,DTI)后不受影響(DWI 與DTI 的相關定義與計算過程在文獻[40-44]中有詳細介紹,本文不再贅述),不改變水分子的彌散特性和組織結構,滿足臨床診斷要求,本文需要計算常用的3 個參數——平均彌散率(Mean Diffusivity,MD)、各項異性(Fraction Anisotropy,FA)和張量橢球(Tensor Ellipsoid,TE)用于臨床診斷參考。實驗選擇16個方向的DWI 圖像進行擬合并嵌入水印。圖12 顯示了本文算法與HiDDeN 算法嵌入水印后的MD、FA、TE 及其與原始圖像的差異。
圖12(a)顯示了本文算法對FA、MD 的改變量基本為0,在人眼視覺上含水印圖與原圖的TE 保持高度一致。圖12(b)顯示了基準算法HiDDeN 所生成的含水印圖在FA、MD、TE3 個指標上都與原圖有明顯的差異。值得一提的是,本文算法可以選擇更少的含水印DWI 圖像來擬合DTI 圖像,通過降低水印容量來達到更高的視覺質量。
本文提出一個適用于彌散加權圖像的基于多尺度知識學習的深度魯棒水印算法。首先,以遷移學習的方式提取DWI 圖像的重構語義特征,在重構過程中加入先驗領域知識,以此從少量樣本中重構出滿足DWI 視覺質量的含水印圖。其次,將水印以多尺度的方式嵌入重構特征中,通過增加水印的冗余性來提高水印的魯棒性。最后,提出一個具有金字塔結構的水印提取網絡,從含水印圖的不同尺度的上下文中充分學習水印的分布特征,進一步提高水印魯棒性。實驗結果表明,本文重構出的含水印圖的PSNR 達到57.82 dB,彌散特性參數改變數量極少,完全滿足DWI 醫(yī)學圖像的張量成像要求。在常見的針對醫(yī)學圖像而實施的旋轉、裁剪、像素替換、高斯噪聲、JPEG 壓縮攻擊下,本文算法具有較高的水印魯棒性,能有效保護DWI 圖像的版權信息。