梁峰,謝先明,2,徐有邈,宋明輝,曾慶寧
(1.桂林電子科技大學 信息與通信學院,廣西 桂林 541004;2.廣西科技大學 電氣與信息工程學院,廣西 柳州 545006)
干涉合成孔徑雷達[1-2](interferometry synthetic aperture radar,InSAR)是合成孔徑雷達與射電天文干涉技術相結合的遙感測繪技術。InSAR技術利用干涉圖相位信息獲取目標高程,已應用于地理信息系統(tǒng)構建、環(huán)境監(jiān)測、地表形變監(jiān)測等領域。干涉圖相位解纏是InSAR測量技術中關鍵步驟,直接關系到InSAR高程測量精度。目前相位解纏算法包括以枝切法[3]與質(zhì)量圖引導算法[4]為代表的路徑跟蹤類算法、以最小二乘法[5]為代表的最小范數(shù)類算法、以網(wǎng)絡流法[6]為代表的網(wǎng)絡規(guī)劃類算法、以卡爾曼濾波法[7]為代表的狀態(tài)估計類算法等。路徑跟蹤類算法利用各種各樣策略定義合適路徑,并沿此路徑積分獲取其解纏相位,以盡量減少或避免相位解纏過程中誤差累積效應。最小范數(shù)類算法首先在最小范數(shù)準則框架下構造一個解纏相位梯度與纏繞相位梯度之差的代價函數(shù),隨后利用各種方法得到代價函數(shù)最小的解。網(wǎng)絡規(guī)劃類算法把干涉圖相位解纏問題轉(zhuǎn)化為網(wǎng)絡流代價函數(shù)的最小化問題。狀態(tài)估計類算法把干涉圖相位解纏問題轉(zhuǎn)化非線性條件下的狀態(tài)估計問題,幾乎同時執(zhí)行相位噪聲抑制與相位解纏。上述各類算法均可在特定的應用場景中獲得穩(wěn)健的結果,然而路徑跟蹤類算法、最小范數(shù)類算法、網(wǎng)絡規(guī)劃類算法易受干涉相位噪聲的影響,有時難以有效解纏噪聲干涉圖,且上述路徑跟蹤類算法與網(wǎng)絡規(guī)劃類算法均在一定程度上存在相位解纏精度與效率難以兼顧的問題。狀態(tài)估計類算法具有較強抗相位噪聲性能,通常能有效處理低信噪比干涉圖的相位解纏問題,但時間耗費代價較大。
深度學習(deep learning,DL)是一種模擬人腦神經(jīng)結構的機器學習方法,通過對數(shù)據(jù)進行表征學習來獲取數(shù)據(jù)更高層次的抽象表示,能夠自動從數(shù)據(jù)中提取特征,已在不同領域的許多問題中都取得了最佳表現(xiàn),如語音識別、文本數(shù)據(jù)挖掘、文本翻譯、人臉識別、圖像分類與識別、圖像分割等。隨著DL技術應用的拓展,它已逐漸應用到合成孔徑雷達(synthetic aperture radar,SAR)圖像分類與分割[8]、SAR目標檢測[9]、干涉SAR圖像分割[10]、SAR圖像配準[11]、逆合成孔徑雷達成像[12]、InSAR干涉圖相位解纏[13]等領域,有力促進了這些領域相關技術的發(fā)展。
2015年,Long等[14]把全卷積神經(jīng)網(wǎng)絡(fully convolutional networks,F(xiàn)CN)應用于圖像語義分割。隨后,一種編碼-解碼架構的像素級分類技術被提出。Ronneberger等[15]提出基于FCN的U-Net網(wǎng)絡框架,成功應用于二分類的醫(yī)學圖像的分割。2019年,Zhang等[16]把FCN應用于干涉圖相位解纏,提出基于FCN的相位解纏算法。該方法把干涉圖相位解纏問題轉(zhuǎn)化為多分類問題,網(wǎng)絡模型前半部分沿用了VGG16網(wǎng)絡模型對輸入圖像進行下采樣,特征圖經(jīng)過卷積層和池化層后進入解碼路徑,最后對特征圖進行上采樣并輸出分類結果。同年,Wang等[17]在U-Net框架基礎上提出基于深度學習的干涉圖相位解纏網(wǎng)絡,纏繞相位經(jīng)過完成訓練后的網(wǎng)絡直接得到解纏相位,該網(wǎng)絡建立纏繞相位與真實相位之間的非線性映射關系,解纏效果提升顯著。
把U-Net架構、空間金字塔池化(atrous spatial pyramid pooling,ASPP)網(wǎng)絡[18]以及瓶頸殘差網(wǎng)絡[19]結合起來,提出一種改進的U-Net的相位解纏方法。不同于文獻[17]所構建的網(wǎng)絡模型,該方法利用ASPP模型結合多尺度信息和擴張卷積的優(yōu)勢,將不同擴張率的擴張卷積特征結合到一起來捕獲豐富的上下文信息,能夠在不犧牲特征空間分辨率的同時擴大特征接收野,有利于精確獲取纏繞干涉條紋特征信息及位置信息,提高相位解纏算法的穩(wěn)健性。此外,瓶頸殘差單元可使網(wǎng)絡模型在減小參數(shù)計算量的同時防止網(wǎng)絡退化,提高網(wǎng)絡訓練精度與效率。模擬與實測干涉圖解纏結果表明,本文方法可獲得與其他同類方法相比更穩(wěn)健的結果。
在深度學習相位解纏中網(wǎng)絡學習到的是纏繞相位圖和解纏相位圖之間的映射關系。在DL框架下通過選擇與設計深度神經(jīng)網(wǎng)絡(deep neural network,DNN),包括選擇恰當?shù)木W(wǎng)絡層級數(shù)并為每一層選擇合適的神經(jīng)元個數(shù)、為每一層設計合理的權重和偏置系數(shù)、激活函數(shù)以及定義合適的損失函數(shù),即可使DNN精確描述該映射關系?;谏疃葘W習相位解纏模型如圖1所示。其中,圖1(a)為網(wǎng)絡訓練示意圖,通過訓練數(shù)據(jù)集建立纏繞相位和真實相位之間的非線性映射,獲得訓練好的網(wǎng)絡模型。將待解纏的纏繞干涉圖輸入到已訓練好的網(wǎng)絡模型中即可得到解纏結果,如圖1(b)所示。
圖1 深度學習模型訓練和預測
在神經(jīng)網(wǎng)絡中添加層數(shù)可以提取更豐富的干涉圖像特征信息,而增加網(wǎng)絡深度會容易造成梯度彌散和梯度爆炸的現(xiàn)象。瓶頸殘差網(wǎng)絡如圖2所示,其中,Conv為卷積層、BN為批量歸一化、ReLU為該模塊使用的激活函數(shù)。特征圖先通過卷積核分別為1×1、3×3、1×1的卷積模塊,再與初始輸入結合通過激活函數(shù)得到輸出,殘差模塊可使網(wǎng)絡模型在減小參數(shù)計算量的同時防止網(wǎng)絡退化。
圖2 殘差模塊
ASPP網(wǎng)絡包括全局平均池化層以及采樣率分別為1、6、12、18的擴張卷積(圖3)。其中,全局池化層先對輸入的特征圖進行全局信息提取,再通過卷積核為1×1的卷積層上采樣至輸入特征圖相同的尺寸。四種不同采樣率的擴張卷積并行操作可以保證在網(wǎng)絡計算量不變的同時,更好地保留干涉圖中的結構特征,讓ASPP網(wǎng)絡可以更完整地對輸入特征圖進行多尺度信息提取。ASPP通過連接層把全局平均池化層以及四個不同采樣率的擴張卷積層輸出的特征圖串接在一起,最后通過卷積核為3×3的卷積層調(diào)整通道數(shù),作為ASPP模塊的輸出。
圖3 ASPP模塊
把U-Net架構、空間金字塔池化網(wǎng)絡以及瓶頸殘差網(wǎng)絡結合起來,構建一種改進的基于U-Net的相位解纏網(wǎng)絡,如圖4所示。該網(wǎng)絡結合U-Net、殘差神經(jīng)網(wǎng)絡和DeepLabv3+網(wǎng)絡模型的特點,由編碼路徑、解碼路徑以及跳躍連接路徑組成。在圖4所示網(wǎng)絡中,藍色條形框表示特征圖在網(wǎng)絡各個階段的分布情況;上方的數(shù)字為特征圖通道數(shù);條形框下方的數(shù)字為特征圖大小;虛線框表示復制對應的編碼路徑輸出層;右下角箭頭標記表示網(wǎng)絡中對應的操作。網(wǎng)絡左邊的編碼路徑的作用是通過六個單元模塊由淺入深地逐層提取輸入相位圖特征信息,其中每個單元模塊包括卷積模塊(Conv層+批量歸一化BN+激活函數(shù)Relu)、殘差網(wǎng)絡層、ASPP網(wǎng)絡層、最大池化層(窗口為2×2)。右邊解碼路徑的作用是通過反卷積操作恢復抽象信息和定位圖像細節(jié)信息,各單元模塊包括上采樣層(窗口為2×2)、連接層、卷積模塊和殘差模塊。其中,上采樣層在放大特征圖的同時通過卷積操作保證通道數(shù)與左側(cè)的編碼路徑相同,使兩側(cè)路徑的特征圖可實現(xiàn)跳躍連接。
在圖4中,單通道的纏繞相位圖從輸入層進入,經(jīng)第一單元模塊卷積層將圖像通道數(shù)調(diào)整為8后通過殘差網(wǎng)絡層輸出特征圖,再通過ASPP網(wǎng)絡層輸出融合了不同尺度信息特征圖,并通過最大池化層實現(xiàn)下采樣。特征圖進入后一單元模塊再利用卷積操作將通道數(shù)加倍,然后類似重復第一單元模塊中的操作,直到特征圖進入編碼路徑后單元模塊完成編碼工作。隨后再依次通過解碼路徑中各單元模塊中上采樣層、跳躍連接、卷積層和殘差網(wǎng)絡層執(zhí)行解纏操作,其中解碼路徑中各單元模塊依次減半圖像通道數(shù),最后由輸出層輸出解纏結果。
圖4 深度學習相位解纏網(wǎng)絡
在網(wǎng)絡訓練中使用自適應矩估計(adaptive moment estimation,Adam)優(yōu)化算法進行迭代反向傳播,損失函數(shù)選用均方誤差(mean squared error,MSE),以10-4的學習速率更新權重系數(shù)和偏置項,訓練輪數(shù)為150,最小訓練批次為16,訓練時間為60 460 s,約16.8 h。數(shù)據(jù)集的制作基于MATLAB 2018b仿真軟件,模型開發(fā)平臺為python3.7,使用Tensorflow-1.13.0框架,Keras版本為2.3.0。用于網(wǎng)絡模型訓練和實驗測試的計算機主要參數(shù)如下:NVIDIA GeForce RTX 2080Ti GPU、Xeon W-2145 CPU(3.7 GHz)+ 64 GB RAM。
目前針對深度學習相位解纏方面,尚無具有代表性的數(shù)據(jù)集提出。為此,分別構建了256像素×256像素的模擬InSAR數(shù)據(jù)和準實測InSAR數(shù)據(jù),將生成的20 000組模擬數(shù)據(jù)與17 000組準實測數(shù)據(jù)進行混合,以組合成完整的InSAR數(shù)據(jù)集。
在創(chuàng)建InSAR數(shù)據(jù)集時,先產(chǎn)生InSAR真實相位值,再通過真實相位和纏繞相位對應的函數(shù)關系(推導過程見文獻[4])計算出纏繞干涉相位。構建模擬InSAR數(shù)據(jù)集步驟如圖5所示。
圖5(a)、圖5(e)、圖5(i)分別為隨機創(chuàng)建的2×2、5×5、10×10初始矩陣,初始值按照高斯分布在0到50之間;圖5(b)、圖5(f)、圖5(j)分別為原初始矩陣的插值放大圖;圖5(c)、圖5(g)、圖5(k)為生成的真實相位圖;圖5(d)、圖5(h)、圖5(l)為含噪聲纏繞干涉圖。首先,按照圖5的方式構建20 000個2×2~20×20的隨機初始矩陣;然后,使用雙三次插值法對初始矩陣進行擴展,插值放大到256像素×256像素,由此得到放大后的真實相位干涉圖;最后,將生成的真實相位圖轉(zhuǎn)換成含不同信噪比的噪聲纏繞相位。在網(wǎng)絡訓練過程中,把上述生成的真實相位圖作為其相應的噪聲纏繞相位圖的標簽圖像。
圖5 模擬InSAR數(shù)據(jù)集生成
利用UKF[20]算法解纏實測InSAR干涉圖,獲得其解纏相位與相應的重纏繞干涉圖,隨后把不同類型的相位噪聲添加到重纏繞干涉圖中,得到不同信噪比的噪聲纏繞相位圖。在網(wǎng)絡訓練過程中,把UKF算法獲得的解纏相位作為其相應的噪聲纏繞相位圖的標簽圖像。圖6(a)~圖6(b)分別為濾波后的Enta火山干涉圖以及某實測InSAR干涉圖;圖7(a)和圖7(d)分別為利用UKF算法解纏圖6(a)~圖6(b)的解纏相位圖;圖7(b)與圖7(d)為對應的重纏繞圖。通過對大量實測InSAR數(shù)據(jù)進行分割、旋轉(zhuǎn)、擴大、加噪操作,共產(chǎn)生17 000組準實測InSAR數(shù)據(jù)。圖8(a)~圖8(b)為對圖7(b)做圖像分割和旋轉(zhuǎn)后獲取的重纏繞圖像;圖8(c)~圖8(d)為圖7(d)分割和放大后得到的重纏繞圖像;圖8(e)~圖8(h)分別為圖8(a)~圖8(d)的標簽圖像。圖9為對干涉圖添加不同強度噪聲后得到的噪聲干涉圖,其中,圖9(a)為解纏相位圖(即標簽圖像);圖9(b)為解纏相位的重纏繞相位圖;圖9(c)~圖9(d)分別為對圖9(b)添加不同噪聲后的纏繞相位圖。
圖6 實測InSAR數(shù)據(jù)
圖7 Enta火山干涉圖以及某實測地形干涉圖解纏相位及重纏繞結果
圖8 圖像分割與旋轉(zhuǎn)構建訓練數(shù)據(jù)集
圖9 通過添加不同的噪聲構建訓練數(shù)據(jù)集
為了驗證本文深度學習網(wǎng)絡方法的性能,利用提出的網(wǎng)絡對模擬干涉圖與實測干涉圖進行解纏,并與文獻[16]以及文獻[17]提出的深度學習相位解纏方法進行比較。
圖10(a)為Peaks真實干涉相位(256像素×256像素);圖10(b)為Peaks纏繞干涉圖(信噪比為7.4 dB)。分別利用文獻[16]方法、文獻[17]方法以及本文方法對圖10(b)進行解纏,其解纏結果如圖11~圖13所示。
圖10 Peaks干涉圖
圖11(a)、圖12(a)、圖13(a)分別為上述三種方法解纏相位;圖11(b)、圖12(b)、圖13(b)分別為上述方法解纏相位誤差;圖11(c)、圖12(c)、圖13(c)分別為上述方法解纏誤差統(tǒng)計直方圖。從圖11(a)~圖11(c)可以看出,文獻[16]方法解纏相位與真實相位明顯不一致,因此該方法誤差較大。盡管文獻[16]方法獲得的結果優(yōu)于文獻[17]方法獲得的結果,然而該方法誤差依然較大,如圖12(a)~圖12(c)所示。本文方法解纏相位與真實相位較為一致,故其相位解纏誤差遠遠小于文獻[16]方法和文獻[17]方法。為測試各方法的抗噪性能,向纏繞相位中添加不同強度的噪聲,用上述三種方法分別對不同信噪比的干涉圖進行解纏,其均方根誤差如表1所示。從表1可以看出,本文方法不僅在不同信噪比條件下解纏相位誤差最小,而且隨著干涉圖信噪比的降低其相位解纏誤差增加緩慢。表2列出了上述方法訓練時間以及解纏單幅干涉圖的平均時間,可以看出本文方法比上述其他兩種方法在訓練、模型加載和生成結果耗時稍長。原因在于本文提出方法具有更復雜的網(wǎng)絡結構以及更多的模型參數(shù),由于本文方法在解纏精度上明顯高于其他方法,故耗時稍長也是可以接受的。
圖11 文獻[16]方法解纏結果
圖12 文獻[17]方法解纏結果
圖13 本文方法解纏結果
表1 各方法均方根誤差
表2 各方法運行時間表
圖14(a)為256像素×256像素的局部三峽某地區(qū)干涉圖;圖14(b)為經(jīng)過均值濾波(窗口大小為3×3)后的干涉圖。將濾波后的局部三峽干涉圖輸入上述三種深度學習解纏模型中,即可獲得解纏相位。解纏結果與重纏繞結果如圖14~圖17所示。
圖14 局部三峽某地區(qū)干涉圖
圖15(a)、圖16(a)、圖17(a)分別為文獻[16]方法、文獻[17]方法以及本文方法解纏相位圖;圖15(b)、圖16(b)、圖17(b)為上述三種方法重纏繞相位圖。從圖15(a)可以看出,解纏相位圖中存在大量的不一致的區(qū)域,這表明文獻[16]方法解纏結果不可靠。文獻[17]方法解纏相位及其重纏繞結果如圖16所示,可以看出該方法重纏繞相位圖部分區(qū)域(已由白色方框框出)與原始干涉圖條紋明顯不一致,這表明該方法上述部分區(qū)域存在較大誤差。本文方法解纏相位及其重纏繞相位如圖17所示,可以看出本文方法解纏相位大致連續(xù),其重纏繞相位圖與原始干涉圖條紋基本一致,且噪聲斑點較少,這表明本文方法有效地去除了干涉圖中的大部分噪聲,并獲得了較為可靠的結果。
圖15 文獻[16]方法解纏結果
圖16 文獻[17]方法解纏結果
圖17 本文方法解纏結果
本文基于深度卷積神經(jīng)網(wǎng)絡的相位解纏方法,以U-Net架構為基礎加入瓶頸模式殘差模塊和空間金字塔池化模塊,構建出編碼-解碼網(wǎng)絡進行相位解纏,利用模擬和準實測InSAR數(shù)據(jù)集進行網(wǎng)絡訓練。實驗結果表明,與其他類型深度學習相位解纏方法相比,本文方法在模擬和實測數(shù)據(jù)解纏實驗中均取得更好的效果,其均方誤差相對較小、解纏精度相對較高、抗噪性相對較強。