王鑫,田甜,2,田金文,2
(1.華中科技大學 人工智能與自動化學院,湖北 武漢 430074; 2.華中科技大學 多譜信息處理技術國家級重點實驗室,湖北 武漢 430074)
針對傳統(tǒng)合成孔徑雷達(synthetic aperture radar, SAR)成像幀率較低且最小可檢測速度較大的問題,美國Sandia國家實驗室2003年提出了VideoSAR[1]成像模式,該模式的成像結果類似于視頻,能夠實現(xiàn)對地面場景的高幀率、高分辨率成像,顯著提升了對觀測場景的動態(tài)感知能力,隨后學者們對VideoSAR成像算法進行了較多的研究[2-12]。然而,在VideoSAR成像結果中,運動目標方位向速度分量會使它的像產生方位向的散焦,距離向速度分量會使它的像產生方位向的頻移。但是,在合成孔徑成像時間內,部分時段或者全程被目標遮擋的區(qū)域由于回波信號弱,在圖像中呈現(xiàn)為黑色區(qū)域,也就是目標遮擋地物而產生的陰影。圖像中的陰影反映了真實目標的存在性,因此可以通過檢測運動目標陰影實現(xiàn)對觀測場景中運動目標的檢測。
當前的VideoSAR動目標陰影檢測算法主要分為單幀檢測算法和多幀檢測算法。單幀檢測算法基于動目標陰影的灰度特性來進行檢測,又可分為傳統(tǒng)方法和深度學習的方法。文獻[13]提出了一種基于動目標陰影局部特征的檢測方法。該方法先用改進的OTSU算法對圖像進行閾值分割,然后使用形態(tài)學操作和連通域分析剔除明顯的虛警,最后根據(jù)檢測結果的局部信雜比大小剔除和目標近似、但與背景特征不一樣的虛警。文獻[14]提出一種基于改進Faster-R-CNN的動目標檢測方法。該方法先用K-means確定anchor box的長寬和長寬比,然后訓練以FPN和Resnet-101作為特征提取器的Faster-R-CNN對目標進行檢測。多幀檢測算法使用相鄰的多幀圖像對背景進行建模,然后使用背景差分的方式提取出前景,即運動目標陰影。文獻[15]提出使用單高斯模型提取動目標陰影,該方法包括SIFT+RANSAC配準、單高斯背景建模獲取前景、連通區(qū)域篩選、形態(tài)學操作幾個步驟。文獻[16]提出使用中值背景建模和三幀差分提取動目標陰影,該方法包括SIFT+RANSAC配準、CattePM降噪、Tsallis灰度熵最大化閾值分割、中值背景建模和三幀差分提取前景、形態(tài)學操作、連通區(qū)域標記等步驟。文獻[17]提出使用檢測前跟蹤的方式檢測Video-SAR視頻序列中的運動目標。文獻[18]提出了一種VideoSAR視頻序列的配準方法,該方法先使用一個網(wǎng)絡估計剛性變換參數(shù),并使用這些參數(shù)進行雙線性插值進行初步配準,然后將初步配準結果輸入到另一個網(wǎng)絡,估計出每個像素的位移矩陣,再次應用雙線性插值得到配準結果。
VideoSAR圖像中動目標陰影是典型的弱目標,其特征較為簡單,與其他的弱反射區(qū)域沒有明顯的區(qū)別,因此基于傳統(tǒng)方法的單幀檢測算法較難取得較好的效果?;谏疃葘W習的單幀檢測算法具有很強的學習能力,但由于VideoSAR視頻數(shù)據(jù)較少,深度神經網(wǎng)絡的訓練及其泛化能力測試也是困難的問題。此外,單幀算法沒有利用VideoSAR的高幀率成像優(yōu)勢和動目標陰影的運動特性;而當前的多幀檢測算法后處理普遍過于簡單,難以有效地消除虛警。為此,本文提出了一種基于單高斯模型的VideoSAR動目標陰影檢測方法,使用一個時間維度的滑窗對視頻序列進行處理,它主要包括深度神經網(wǎng)絡去噪、窗口序列快速配準、建模差分提取前景、后處理消除虛警四個部分,該算法結合多幀圖像的信息實現(xiàn)對動目標陰影的有效檢測。
本文算法單個時間窗口的處理流程如圖1所示,對于窗口內的所有圖像,首先使用RED20深度神經網(wǎng)絡模型[19]抑制圖像中的斑點噪聲,然后使用幀間配準[20]的方式,快速配準當前窗口中的所有圖像;接著使用單高斯模型對窗口中的圖像序列進行背景建模和差分,得到窗口中最后一幀的前景;最后是后處理,先剔除前景中明顯不是陰影的較亮部分,再使用連通區(qū)域篩選和區(qū)域生長消除虛警,得到當前窗口中最后一幀的動目標陰影檢測結果。窗口每往后移動一幀便使用上述方法檢測窗口末幀的運動目標陰影,以此實現(xiàn)對VideoSAR圖像每一幀的處理。
圖1 算法流程Fig.1 Flowchart of the proposed algorithm
斑點噪聲是VideoSAR成像系統(tǒng)中固有的一種噪聲,它表現(xiàn)為相同區(qū)域的像素值在某一平均值附近隨機波動,造成相同區(qū)域不同像素點亮度不一樣,使得原本平滑的區(qū)域產生許多的亮點或者暗點。如圖2所示,上面的紅框中動目標陰影周圍的道路區(qū)域和下面的紅框中的區(qū)域都很不光滑,斑點噪聲的存在嚴重影響了圖像質量,繼而影響了檢測、識別等任務。
圖2 VideoSAR圖像中的斑點噪聲Fig.2 Speckle noises in VideoSAR image
目前VideoSAR圖像去噪大多是基于一定的假設或者先驗知識設計的算法:文獻[16]使用了cattePM[21]模型抑制斑點噪聲,文獻[22]采用的是小波分析去噪[23-25]。上述傳統(tǒng)方法在進行自適應濾波時,對噪聲的感知能力有限,無法精確地獲得噪聲的分布情況,且對于噪聲的處理方式比較單一,難以應對復雜的噪聲。
為了更好地抑制斑點噪聲、提高圖像質量,本文率先將深度學習應用到VideoSAR圖像去噪當中。RED20網(wǎng)絡[19]原本是設計用來對可見光圖像進行去噪處理的,該網(wǎng)絡的結構如圖3所示,網(wǎng)絡前10層為卷積層,后10層為反卷積層,卷積層和反卷積層的核的尺寸都是3×3,后面連接ReLU作為激活函數(shù)。因為池化層會丟失掉圖像中一些有用的細節(jié)信息,因此網(wǎng)絡中沒有使用池化層。網(wǎng)絡中卷積層用于提取特征消除噪聲,反卷積用于恢復圖像細節(jié)。在卷積層中,每隔一層就將該層連接到對稱的反卷積層,因此可以直接進行正向和反向傳播。卷積層與反卷積層的連接,一方面允許信號直接反向傳播到底層,能解決梯度消失問題,使得深度網(wǎng)絡更加容易實現(xiàn),另一方面將圖像細節(jié)從卷積層傳到反卷積層,有利于恢復原始圖像。而隔層連接的方式使得網(wǎng)絡收斂更快。
圖3 RED20網(wǎng)絡結構Fig.3 Structure of RED20
RED20使用MSE作為損失,其計算方式如式(1)所示:
式中:θ表示模型參數(shù);N表示樣本對數(shù)量;Xi和Yi分別表示含有噪聲的圖像及其對應的無噪聲真值圖。
VideoSAR視頻資源少,且沒有不含噪聲的真值圖,因此無法構建數(shù)據(jù)集。考慮到VideoSAR圖像與可見光灰度圖具有一定的相似性,理論上來說,可以通過向可見光灰度圖中添加乘性噪聲來構建訓練集,只要添加的乘性噪聲分布涵蓋了VideoSAR中的噪聲分布,就可以將使用該數(shù)據(jù)集訓練的模型遷移到VideoSAR去噪任務當中,所以需要估計一下VideoSAR視頻序列中的乘性噪聲的分布。對于每一個滑動窗口,具體步驟為:使用1.2節(jié)中的幀間配準思想,配準該窗口中的圖像序列;計算配準后序列的均值,作為不含噪聲的真值圖;對所有配準后的圖片,計算有效區(qū)域每個像素點的噪聲,即“像素點的值/該像素點的均值”,將該噪聲值保存下來。最后利用保存的噪聲數(shù)據(jù)計算噪聲的均值和方差。在Sandia實驗室公布的視頻上使用該方法計算出來的乘性噪聲均值為1.052,標準差為0.096。考慮到噪聲估計存在一定的誤差,仿真數(shù)據(jù)集中添加的是均值為1,標注差為0.2的服從高斯分布的乘性噪聲,即使實際噪聲分布和估計的噪聲相似,那在強噪聲數(shù)據(jù)集上訓練好的模型也能較好地處理更弱的實際噪聲;反之如果仿真數(shù)據(jù)集中添加的是估計出的噪聲分布,一旦噪聲被低估,模型的泛化能力就存疑了。
VOC2012數(shù)據(jù)集作為基準數(shù)據(jù)之一,常被用于對象檢測、圖像分割網(wǎng)絡對比實驗與模型效果評估中,該數(shù)據(jù)集包含了豐富的場景,因此從VOC2012數(shù)據(jù)集(共17 125張)的每張圖片中各隨機裁剪出50×50的圖像塊,轉成灰度圖,并逐像素加入均值為1,標準差為0.2的乘性噪聲構成數(shù)據(jù)集,然后以6:2:2的比例劃分為訓練集、驗證集和測試集,來訓練RED20模型。隨后應用該模型抑制VideoSAR圖像中斑點噪聲,第二部分的對比實驗數(shù)據(jù)表明該方法是可行的。
VideoSAR系統(tǒng)的成像方式分為圓跡式、聚束式和條帶式,不管是哪種模式,都會使得雷達對場景的觀測角度和觀測距離發(fā)生變化,體現(xiàn)在圖像上就是序列之間會發(fā)生平移、旋轉、縮放、透視等幾何畸變。因此在進行像素級背景建模之前,需要通過配準將同一窗口中的所有圖像的背景進行對齊。
配準一組圖像的傳統(tǒng)方法是直接計算所有圖像相對于參考幀的配準矩陣,假設滑動窗口的總數(shù)是n,長度是s,則每個窗口需要計算s-1次配準矩陣,一共需要計算n×(s-1)次配準矩陣,計算量隨著窗口長度的線性增加。
因此這里采用文獻[20]提出的一種VideoSAR圖像序列幀間配準方式:對于所有幀,只計算其與下一幀配準的透視變換矩陣,任意不相鄰的兩幀的配準矩陣通過累乘它們之間的所有的配準矩陣得到。如圖4所示,H0~H3為圖像序列的幀間配準矩陣,當窗口滑動到紅色框所示位置時,img0、img2與 img3的配準矩陣分別為H0×H1×H2、H1×H2、H2,同理當窗口滑動到藍色框位置時配準矩陣分別為H1×H2×H3、H2×H、H3。該方法只需要計算n+s?1次配準矩陣,遠少于直接配準的n×(s?1)次。
圖4 幀間快速配準示意圖Fig.4 Schematic diagram of fast inter frame registration
如圖5紅框標出區(qū)域所示,VideoSAR是對三維場景進行二維成像,對于具有一定高度的物體,不同的觀測角度會得到不同的像,且觀測角度差別越大,像的差別越大。理論上兩張圖像幀號間隔越小,計算配準矩陣受到干擾越小,因此幀間配準會比直接配準具有更高的精度,第2部分的實驗數(shù)據(jù)證明確實如此。
圖5 不同觀測角度的成像結果差異Fig.5 Difference of imaging results from different observation angles
此外,配準結果的部分區(qū)域沒有像素值,如圖6紅框標出的區(qū)域所示,這些區(qū)域無法用于模型初始化和更新。因此,窗口中每一幀與末幀配準時都需要計算出一個有效區(qū)域的掩碼,將窗口中所有掩碼求與,得到窗口掩碼,模型初始化、更新、背景差分均只對窗口掩碼區(qū)域進行。
圖6 配準產生的無效區(qū)域Fig.6 Invalid region generated by registration
窗口中圖像序列進行背景對齊后,使用單高斯模型進行背景建模,背景像素i的均值和方差分別用 μi和 σi2表 示,初始方差用 σinit2表示,學習率用 α表示,更新閾值和前景閾值分別用t1和t2表示,窗口中第t幀中像素點i的值用I(xi,yi,t)表示。本文中 σinit2=100 ,t1=1.35,t2=3 , α =0.1,滑動窗口長度n=20。
首先用窗口中第一幀圖像初始化背景,即μi=I(xi,yi,1), 并初始化方差σi2=σinit2。
然后用第2~n-1幀更新背景和方差,對于I(xi,yi,t),t∈[2,n-1],如果滿足:
μiσi2則對 和 進行如下更新,否則不更新:
最后用第n幀與模型均值進行差分,如果像素點I(xi,yi,n)滿足:
則判斷為前景,否則判斷為背景。至此,初步得到了窗口最后一幀中的動目標陰影。
1)去除前景中過亮的部分
因為觀測角度的變化,靜止場景在不同幀之間的回波強度也會有所不同。圖7展示了一個窗口中的兩幀圖像,右側是末幀圖像,它既是配準的參考圖,也是需要提取前景的幀;左側是首幀圖像,它已經和右圖配準并用于初始化模型的均值。紅框標出了兩個同名點,它們在兩幀中的灰度差別較大,如果左圖中兩個同名點在背景更新后灰度值變化不大,那么背景差分時,右圖比左圖暗的部分(虛線圍起的部分)很有可能會被判定為動目標陰影。
圖7 容易被誤分為前景的背景Fig.7 Background areas that are likely to be mistakenly divided as foreground
為了消除這種干擾,先將窗口末幀進行直方圖均衡化,然后再進行OTSU閾值分割,以得到場景中亮背景的掩碼,最后用前景減去該掩碼,即可消除亮背景區(qū)域的干擾。圖8給出了圖7右側圖像的亮背景掩碼獲取過程,虛線圍起的區(qū)域即使在差分的時候被視為動目標陰影提取了出來,減去該掩碼后即可消除此類干擾。
圖8 獲取亮背景區(qū)域掩碼示意Fig.8 Schematic diagram of getting the mask of the bright background area
2)連通區(qū)域篩選
單高斯模型是像素級的背景建模,盡管前面已經進行了去噪、配準、濾除亮背景干擾的處理,得到的前景中仍然會存在一些離散噪點和非動目標陰影的小面積連通區(qū)域。為此對上一步得到的前景進行連通區(qū)域標記,然后根據(jù)待檢測目標的尺寸、速度范圍、雷達分辨率等參數(shù),計算出動目標陰影的面積范圍,并據(jù)此對連通區(qū)域進行篩選,以消除部分虛警。
3)區(qū)域生長剔除假前景
前面解釋了亮背景帶來的干擾,并提出了消除此類干擾的方法,同理暗背景也會產生干擾,且這種干擾無法用消除亮背景干擾的方式去除。考慮到動目標陰影與周圍區(qū)域的對比度較大,而暗背景干擾與周圍區(qū)域的對比度通常較小,甚至多數(shù)情況下它們與周圍區(qū)域是一體的,因此我們采用區(qū)域生長的方式來消除暗背景干擾。
對于前一步得到的每一個連通區(qū)域,選擇它里面灰度接近該區(qū)域灰度均值的點作為種子點。接下來是確定生長的上下限,首先計算連通區(qū)域的最小包圍矩形,并適當擴大該矩形,計算矩形范圍內的標準差,該標準差乘以一個常系數(shù),得到區(qū)域生長的上下生長范圍。對于暗背景,該方式計算到的標準差比較接近其真實標準差,因此區(qū)域生長會將其與周圍背景連成一片,而動目標陰影因為與背景對比度較大就不會。剔除區(qū)域生長前后面積差值過大和生長結果不符合動目標陰影尺寸的連通區(qū)域,可以一定程度上消除暗背景的干擾,不過此方法對于那種孤立的暗背景干擾則效果不佳。本文采樣矩形區(qū)域尺寸是連通區(qū)域的最小包圍矩形尺寸的兩倍,標準差系數(shù)為5。
網(wǎng)絡訓練的學習率為0.000 1,batch_size設為16,采用的優(yōu)化算法為自適應矩估計(adaptive moment estimation, ADAM),共訓練了110代,第100代的時候在驗證集中的損失最小,且第100代的模型在測試集上測試時去噪效果良好,為此將第100代得到的模型應用到VideoSAR圖像去噪中,并與文獻[16]使用的cattePM[21]模型、文獻[22]采用小波分析去噪[23-25]進行客觀指標和視覺質量的對比。cattePM模型采用和文獻[16]一樣的參數(shù),小波分析去噪的分解層數(shù)為3,小波函數(shù)為rbio1.1。
本文分別使用3種方法對Sandia實驗室公布的VideoSAR視頻的899幀圖像進行了去噪處理,因為沒有不含噪聲的真值圖,所以不能采用峰值信噪比(peak signal-to-noise ratio, PSNR)和結構相似度(structural similarity, SSIM)作為評價指標,因此采用等效視數(shù)(equivalent number of looks,ENL)作為評價標準,ENL值越大,代表圖像越平滑。表1是3種方法的ENL值對比,從數(shù)據(jù)可以看出,RED20去噪結果最平滑,其次是cattePM,最后是小波分析。
表1 不同方法的去噪結果Table 1 Denoising results of different methods
接下來從視覺質量方面對去噪圖像進行對比。首先是總體上進行對比,因為圖像比較暗,不太容易看出它們的差別,因此對去噪結果進行了直方圖均衡化,如圖9所示??梢钥吹皆瓐D顆粒感非常嚴重;小波分析能一定程度上抑制斑點噪聲,但是保留了一些噪聲的紋理,像是蓋了一層毛玻璃;cattePM讓圖像平滑了一些,但是還是存在顆粒感,只不過顆粒比原圖更少且更大了;而RED20則因為能夠獲取到不同尺度的信息和具備復雜的映射關系,具有遠強于前兩者的去噪能力,去噪結果中同質區(qū)域灰度差距小,圖像比前兩者更加平滑。
圖9 去噪效果總體對比Fig.9 Overall comparison of denoising effect
接下來再從細節(jié)上進行對比,截取圖9中兩個感興趣區(qū)域并放大,如圖10所示。第一行圖片中的黑色區(qū)域為動目標陰影,其周圍是道路區(qū)域,原圖不管是動目標陰影還是周圍的道路區(qū)域,內部的像素點都存在較大的差異;小波分析雖然抑制了部分斑點噪聲,但是像前面所說仍保留了一些噪聲的紋理;cattePM相比之下使得讓陰影和道路都平滑了很多,但道路上仍然存在較大的斑塊;而RED20則使得道路區(qū)域更加的平滑,幾乎看不到斑點的存在。第2行圖像選取的是場景中的一塊同質背景區(qū)域,可以看出RED20的去噪結果也是最佳的。綜上,RED20能在保持目標邊緣的情況下,比傳統(tǒng)去噪算法更有效地抑制斑點噪聲,這表明,用可見光灰度圖構建數(shù)據(jù)集來訓練模型,并將其遷移到VideoSAR中是可行的。
圖10 去噪效果細節(jié)對比Fig.10 Detail comparison of denoising effect
前面算法部分的分析說明,計算幀間配準矩陣可以顯著減少配準的計算量,且理論上精度更高。這里以長度為20的窗口對整個視頻序列滑窗進行試驗,計算有效區(qū)域掩碼中參考圖與配準結果的PSNR,將所有配準的平均PSNR作為評價指標。PSNR原本是用于衡量去噪結果和真值圖的差別的,這里之所以能用它衡量配準性能,是因為前面分析已經說明RED20能夠有效地抑制斑點噪聲,可以認為一個窗口中的圖像序列的同名點像素值是相似的,因此配準精度越高,PSNR會越高。表2是實驗結果,其中PSNR是880個窗口共計16 720次配準PSNR的平均值,實驗環(huán)境為windows10 x64位,CPU為i7-8 700,內存為16 GB,程序基于opencv 3.4.6編寫。從表中可以看到幀間配準比直接配準速度快了很多,且精度也略高于直接配準,這與前面的分析是一致的。
表2 不同配準方式的對比Table 2 Comparison of different registration methods
為了量化評估本文算法的檢測性能,將本文算法與文獻[13]提出的傳統(tǒng)的單幀檢測算法、文獻[14]提出的基于深度學習的單幀檢測算法、文獻[16]提出的傳統(tǒng)的多幀檢測算法進行量化對比。Sandia實驗室公布的VideoSAR視頻共有899幀,標注了前660,其中第1~400幀用于訓練文獻[14]使用的改進Faster-RCNN模型,第401~660幀用于測試各個算法的性能,測試的統(tǒng)計結果如表3所示,圖11是各算法第401、450、500、550、600、650幀的檢測結果。因為原圖對比度較小,檢測結果標在了直方圖均衡化后的圖上,紅色的框表示誤檢,綠色的框表示正確檢測,藍色的框表示漏檢。文獻[16]算法是在配準好的圖像上進行的,為了方便對比,將其檢測結果進行了坐標逆變換再標記到了配準前的圖像上。
表3 不同算法的檢測結果Table 3 Detection results of different algorithms
圖11 各算法第 401、450、500、550、600、650 幀的檢測結果Fig.11 Detection results of the 401st, 450th, 500th, 550th, 600th, 650th frames of each algorithm
從表3和圖11可以看出,文獻[13]算法的準確率和召回率都偏低,誤檢和漏檢嚴重,它是一個傳統(tǒng)的單幀檢測算法,流程分為OTSU閾值分割、形態(tài)學操作、連通區(qū)域篩選、局部信雜比篩選幾個步驟。圖12是其對第401幀進行檢測時各個步驟的結果,從圖中可以看到,經過連通區(qū)域篩選后仍然存在很多虛警,而局部信雜比的篩選只能去掉其中一部分,最終結果仍存在較多的誤檢,使得該算法的準確率較低。另外,OTSU分割結果對召回率起著決定性作用,圖12最終結果中左下角和右上角的漏檢是因為分割后目標與其他區(qū)域連成一片造成的,中間的漏檢是因為分割時分錯類別造成的,這就使得該算法召回率較低。
圖12 文獻[13]算法第401幀檢測結果Fig.12 Detection result of the 401th frame of the algorithm in reference[13]
文獻[16]算法的召回率不是很低,但是準確率不高,它是一個傳統(tǒng)的多幀檢測算法,算法流程分為SIFT+RANSAC配準、cattePM去噪、Tsal-lis閾值分割、中值建模和三幀差提取前景、形態(tài)學操作幾個步驟。圖13是其檢測第401幀時各個步驟的結果,可以看到該算法通過中值建模和三幀差,能夠將大部分動目標陰影提取出來,但是用二值化結果進行中值建模還是丟失了大量的信息,導致前景中存在許多的干擾,而后續(xù)的形態(tài)學操作和連通區(qū)域篩選并不能很好地消除虛警,這就導致該算法虛警率高,影響了檢測精度。
圖13 文獻[16]第401幀檢測結果Fig.13 Detection result of the 401st frame of the algorithm in reference[16]
而文獻[14]使用的改進Faster-RCNN算法因為能夠自動學習目標特征,具有很強的目標檢測識別能力,表3和圖11的結果證實了這一點,但是可能由于目標特征單一且訓練數(shù)據(jù)有限,該算法召回率不是特別高,另外該算法是單幀檢測算法,未利用目標的運動信息,導致仍存在一定的虛警,影響了算法的準確率。
從上面的分析我們知道傳統(tǒng)算法中,初步提取的前景決定了召回率的高低,而后處理決定了虛警的多少。圖14是本文算法各個步驟的處理結果。從圖中可以看到,單高斯模型提取的前景中存在的干擾較少,且大部分動目標陰影被提取出來了;消除亮背景干擾這一步能夠在保留住動目標陰影的同時,有效地消除前景中的亮背景;接下來的連通區(qū)域篩選去掉了小的連通區(qū)域;而最后的區(qū)域生長消除了兩個虛警(圖中彩色標記的兩塊區(qū)域),不過左下角和右上角由于背景區(qū)域較暗,動目標陰影與周圍對比度太小,各有一個目標沒有被檢測,左下角的目標四種算法都沒檢測到,右上角的目標只有一個算法檢測到了。
圖14 本文算法第401幀檢測結果Fig.14 Detection result of the 401st frame of the proposed algorithm
從表3和圖12中可以看到,本文算法無論是準確率還是召回率,均優(yōu)于其他3種算法,該算法能夠在準確率極高的情況下,擁有較高的召回率。
本文提出了一種VideoSAR動目標陰影檢測方法,該方法使用一個時間維度的滑動窗口結合多幀信息來檢測VideoSAR序列中的動目標陰影。本文率先將深度學習應用到VideoSAR圖像去噪,表明使用可見光灰度圖像訓練的去噪模型能夠成功遷移到VideoSAR圖像去噪任務當中,且該模型能夠比傳統(tǒng)方法更加有效地抑制Video-SAR中的斑點噪聲;此外,幀間配準方式的應用使得配準速度大大提升且能略微提高配準精度;最后,區(qū)域生長的應用,彌補了許多傳統(tǒng)算法僅僅依靠連通區(qū)域篩選來剔除虛警的不足,更好地利用了圖像的空間和灰度信息。實驗結果證明,該方法與傳統(tǒng)單幀、多幀檢測算法和基于深度學習的單幀檢測算法相比,能夠以更高的精度和召回率檢測出VideoSAR序列中的動目標陰影。
不過本文算法在動目標陰影與背景對比度較低的幀可能會存在漏檢,因此后續(xù)還需要研究如何關聯(lián)幀間檢測結果,以便對于目標未能被檢測到的幀,可以通過歷史軌跡預測出其最可能存在的位置,以此提高召回率。