摘 要:目前,基于U-Net的深度學(xué)習(xí)遙感影像變化檢測方法包含許多偽變化信息,且多數(shù)方法缺乏層級特征間的有效交互。針對上述問題,以經(jīng)典U-Net為基礎(chǔ),提出一種聯(lián)合時空差異注意力與層級細節(jié)增強的高分辨率遙感影像變化檢測方法。首先,分別提取兩期影像的單時相特征與級聯(lián)特征,基于兩期單時相特征的歐氏距離與差值特征,提出一種時空差異注意力模塊,強化級聯(lián)特征對變化區(qū)域的學(xué)習(xí);然后,利用混合空間通道注意力交互相鄰層級特征間的信息,構(gòu)建一種層級細節(jié)增強模塊,促進特征解碼;最后,結(jié)合分塊策略和空洞條形卷積,設(shè)計一種輕量級的多尺度邊界細化模塊,提取多尺度特征并緩解邊界信息的丟失。在四個常用公開數(shù)據(jù)集上的實驗結(jié)果表明,該方法相比于現(xiàn)有8種變化檢測網(wǎng)絡(luò),取得了最好的評價指標(biāo)。
關(guān)鍵詞:深度學(xué)習(xí);遙感影像變化檢測;時空差異注意力;層級細節(jié)增強;U-Net
中圖分類號:TP751.1"" 文獻標(biāo)志碼:A" "文章編號:1001-3695(2025)03-038-0937-07
doi:10.19734/j.issn.1001-3695.2024.05.0218
Joint spatial-temporal differential attention and hierarchical detail enhancement for remote sensing image change detection
Guan Zongsheng1a,1b,Shao Pan1a,1b,Yang Zichao2,Cheng Zemin1a,1b,Yu Kuai1a,1b
(1.a.Hubei Key Laboratory of Intelligent Vision Based Monitoring for Hydroelectric Engineering,b.College of Computer amp; Information Technology,China Three Gorges University,Yichang Hubei 443002,China;2.Advanced Copper Industry,Jiangxi University of Science amp; Technology,Yingtan Jiangxi 335000,China)
Abstract:
Currently,deep learning remote sensing image change detection methods based on U-Net contain many pseudo-change information,and most of them lack effective interaction between layer-level features.Aiming at the above problems,based on the classical U-Net network,this paper proposed a joint spatial-temporal differential attention and hierarchical detail enhancement method for high-resolution remote sensing image change detection.Firstly,this paper extracted the single time-phase features and cascade features of the two periods of images respectively,and based on the Euclidean distance and diffe-rence features of the single time-phase features of the two periods,it proposed a spatial-temporal differential attention module to strengthen the learning of cascade features to the changing region.Secondly,using hybrid spatial channel attention to interact information between adjacent hierarchical features to construct a hierarchical detail enhancement module that facilitated feature decoding.Finally,this paper designed a lightweight multi-scale boundary refinement module to extract multi-scale features and mitigate the loss of boundary information by combining the chunking strategy and atrous strip convolution.Experimental results on four commonly used public datasets show that the method achieves the best evaluation metrics compared to eight existing change detection networks.
Key words:deep learning;remote sensing image change detection;spatial-temporal differential attention;hierarchical detail enhancement;U-Net
0 引言
遙感影像變化檢測是指對同一區(qū)域不同時期采集的多幅遙感影像進行變化區(qū)域提取的過程,在土地規(guī)劃[1]、城市擴張[2]和災(zāi)害監(jiān)測[3]等領(lǐng)域有著廣泛的應(yīng)用。隨著光學(xué)傳感器的快速發(fā)展,高分辨率遙感影像的可用性越來越強,已有許多變化檢測方法和模型被提出[4],大致上可分為傳統(tǒng)變化檢測和深度學(xué)習(xí)變化檢測方法兩大類。傳統(tǒng)變化檢測方法主要依賴于原始圖像信息和手工設(shè)計特征,
對像素級差異進行分析,缺乏對地物、地貌等語義信息的分析,抗干擾能力較差,使得傳統(tǒng)變化檢測方法效果往往不夠理想。
近年來,深度學(xué)習(xí)技術(shù)得到快速發(fā)展,并取得巨大成功。應(yīng)這種趨勢,高分辨率遙感影像的變化檢測研究開始向深度學(xué)習(xí)方法轉(zhuǎn)移,眾多基于深度學(xué)習(xí)的變化檢測方法相繼被提出[5],主要有基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[6~9]、循環(huán)神經(jīng)網(wǎng)絡(luò)[10]、
長短期記憶網(wǎng)絡(luò)[11]和生成對抗網(wǎng)絡(luò)[12]等,但最常用的當(dāng)屬CNN。
作為經(jīng)典CNN之一,U-Net[13]起源于醫(yī)學(xué)影像分割,通過跳躍連接結(jié)合編碼器的輸出與解碼器的輸入,從而在解碼器中保留更多的細節(jié)信息,緩解信息丟失問題,提高分割精度,且結(jié)構(gòu)簡單、推理速度快?;谶@些優(yōu)勢,U-Net被廣泛應(yīng)用于其他計算機視覺領(lǐng)域?,F(xiàn)有許多深度學(xué)習(xí)變化檢測網(wǎng)絡(luò)是通過改進U-Net(或U-Net++)提出的[7,14~18]。首先,顧煉等人[7]將FlowNet中的細化結(jié)構(gòu)應(yīng)用到U-Net中,加強建筑物變化目標(biāo)細粒度的定位,提出FlowS-Unet。朱節(jié)中等人[16]基于U-Net++,通過在編碼器中新增Siamese-diff結(jié)構(gòu)提取建筑物的變化信息。梁燕等人[17]以U-Net3+作為骨干提取網(wǎng)絡(luò),利用邊界引導(dǎo)上下文模塊改善預(yù)測圖的邊緣信息,提出一種針對建筑物的變化檢測網(wǎng)絡(luò)EGCD-UNet3。王超等人[18]引入一種多尺度特征提取差分模塊應(yīng)用到U-Net++網(wǎng)絡(luò)中,增強模型對偽變化的識別能力,同時采用多邊輸出融合策略精細化特征,但是缺乏對變化目標(biāo)尺度多變的考慮。Zhang等人[9]在Peng等人[14]的基礎(chǔ)上改進輸入和上采樣過程,細化變化邊緣的細節(jié)信息,提出變化檢測模型DifUNet++。Huang等人[8]基于U-Net改進孿生網(wǎng)絡(luò),在解碼部分引入一種語義流特征對齊模塊,減緩上采樣過程中由于特征錯位而導(dǎo)致的特征損失,但預(yù)測圖邊界信息丟失嚴(yán)重,且缺乏對全局信息的考慮。
為建模全局上下文的依賴關(guān)系,遙感學(xué)者將Transformer引入U-Net實施變化檢測[19~21]。Yuan等人[19]在深層特征中引入Transformer建模全局上下文信息,增強模型對變化區(qū)域的學(xué)習(xí)。Li等人[20]將Transformer模塊集成到U-Net的編碼器和解碼器之間,學(xué)習(xí)局部-全局語義特征,提出變化檢測模型TransUNetCD。Zhang等人[21]以U-Net為基礎(chǔ),設(shè)計一個純Transformer的孿生變化檢測網(wǎng)絡(luò)。但這些基于Transformer的模型參數(shù)量過大,推理速度慢,“偽變化”干擾嚴(yán)重。
雖然上述基于U-Net(或U-Net++)的深度學(xué)習(xí)變化檢測方法各具優(yōu)勢,且能夠較為有效地進行變化檢測。但它們未充分考慮變化檢測需處理兩期影像的特殊場景,還存在以下不足:a)編碼階段使用注意力時,時空差異特征的考慮不足;b)解碼過程中缺乏對不同層級特征間的綜合考慮,導(dǎo)致特征細節(jié)信息的丟失;c)變化檢測結(jié)果圖中邊界鋸齒狀較為嚴(yán)重,缺乏對變化目標(biāo)尺度多變的考慮。
針對上述問題,本文提出一種聯(lián)合時空差異注意力(spatial-temporal differential attention,STDA)與層級細節(jié)增強(hierarchical detail enhancement,HDE)的高分遙感影像變化檢測網(wǎng)絡(luò)SHNet。首先,在編碼階段分別提取兩期影像的單時相特征和級聯(lián)特征,提出一種時空差異注意力(STDA)模塊,利用兩期單時相特征生成時空差異注意力來輔助增強級聯(lián)分支,有效突出變化區(qū)域并抑制未變化區(qū)域,從而降低虛檢與漏檢;然后,設(shè)計一種層級細節(jié)增強(HDE)模塊,將高層級特征的語義信息引入到低層級特征中,低層級特征的細節(jié)信息嵌入到高層級特征中,從而增強特征的表征能力;最后,為提升模型對不用形狀和大小變化區(qū)域的檢測能力,緩解邊界信息的丟失,借助特征分塊策略和空洞條形卷積,構(gòu)建一種輕量化的多尺度邊界細化(multi-scale boundary refinement,MSBR)模塊。
1 本文方法
1.1 整體網(wǎng)絡(luò)框架
如圖1所示,SHNet變化檢測網(wǎng)絡(luò)采用U型編碼器-解碼器結(jié)構(gòu)??紤]到變化檢測任務(wù)中兩期影像的特殊性,編碼階段,構(gòu)造共享權(quán)重的孿生分支提取單時影像的時空上下文特征,各層級均借助其生成時空差異注意力來強化級聯(lián)分支性能。每個編碼層都由兩個核大小為3×3、步長為1的卷積塊,BatchNorm歸一化層和ReLU修正線性單元層組成,中間引入殘差連接緩解過擬合。編碼完一層特征后采用大小為3、步長為2的最大池化下采樣縮小圖像,過濾掉不相關(guān)的冗余信息,保留關(guān)鍵的變化信息。一共可產(chǎn)生5種(256像素×256像素、128像素×128像素、64像素×64像素、32像素×32像素、16像素×16像素)不同尺寸大小的特征圖,級聯(lián)分支特征圖的通道數(shù)分別為32、64、128、256、512,考慮到GPU有限,同時為了減小模型的計算量和參數(shù)量,提升模型的訓(xùn)練效率,孿生分支各個階段的通道數(shù)均設(shè)置為32。
在解碼階段,本文為綜合考慮不同層級特征間的差異性,設(shè)計一種層級細節(jié)增強模塊,充分融合不同的特征信息,減少特征丟失對模型性能的影響,提升變化檢測精度。具體做法是先將高層特征與前一階段的低層特征運用HDE模塊融合,然后將其與上采樣之后的深層特征級聯(lián),最后采用兩個3×3卷積模塊融合特征,逐漸恢復(fù)原始分辨率。
1.2 時空差異注意力模塊
1.2~1.4節(jié)分別給出時空差異注意力模塊、層級細節(jié)增強模塊和多尺度邊界細化模塊的具體細節(jié)。
由于受到天氣變化、傳感器姿態(tài)變化和配準(zhǔn)誤差等因素的干擾,兩期遙感影像往往包含大量虛假變化信息,給變化檢測任務(wù)帶來了挑戰(zhàn)。通常情況下,變化發(fā)生區(qū)域的像素值差異大于未發(fā)生變化區(qū)域的像素值差異,傳統(tǒng)變化檢測方法已經(jīng)證實了這一點?;诖耍疚奶岢鲆环N時空差異注意力STDA模塊,通過綜合考慮兩期影像特征的歐氏距離與差異特征,生成時空差異注意力,強化級聯(lián)分支對變化區(qū)域的學(xué)習(xí),抑制不相關(guān)的偽變化信息,提升模型對變化區(qū)域的鑒別能力。
2 實驗結(jié)果及分析
2.1 實驗數(shù)據(jù)與實驗設(shè)計
2.1.1 數(shù)據(jù)集簡介
本文采用WHU數(shù)據(jù)集[26]、Google數(shù)據(jù)集[27]、LEVIR數(shù)據(jù)集[28]和GVLM數(shù)據(jù)集[29]來評估模型。其中前三組為建筑物變化檢測數(shù)據(jù)集,GVLM為針對滑坡災(zāi)害變化檢測的數(shù)據(jù)集。
a)WHU數(shù)據(jù)集包含一對大小為32 507×15 354像素的航空遙感影像,分辨率為0.2 m,只包括建筑物變化,不包括大型汽車、集裝箱、溫室等其他變化。
b)Google數(shù)據(jù)集由19對大小為1 006×1 168~4 936×5 224像素的衛(wèi)星遙感影像組成,分辨率為0.55 m,覆蓋了2006—2019年廣州市城市化進程中建筑物的變化。
c)LEVIR數(shù)據(jù)集包含637對大小為1 024×1 024像素的衛(wèi)星遙感影像,分辨率為0.5 m。影像對的時間跨度在5~14年,涵蓋公寓、別墅和車庫等各種類型建筑物的變化。
D)GVLM數(shù)據(jù)集由17對大小從1 946×1 319~10 808×7 424像素的衛(wèi)星遙感影像組成,分辨率為0.59 m,包括由降雨、地震、泥石流和松動巖石等災(zāi)害導(dǎo)致的地表變化。
考慮到GPU的限制,本文將實驗數(shù)據(jù)集中的影像全部裁剪為256像素×256像素大小的影像塊。LEVIR數(shù)據(jù)集按照提供者給定的分類方式進行訓(xùn)練,由于另外三組數(shù)據(jù)集未對數(shù)據(jù)分類,本文則參考經(jīng)典論文BIT[30]中的方式,將影像塊按8∶1∶1隨機劃分為訓(xùn)練集、驗證集和測試集。同時,為防止模型過擬合,提高模型的魯棒性和泛化能力,避免樣本不均衡的問題,通過對稱、旋轉(zhuǎn)和縮放等操作對數(shù)據(jù)影像進行增強。
2.1.2 實驗流程
本文實驗采用PyTorch深度學(xué)習(xí)框架,在GPU型號為NVIDA Geforce GTX 1660,內(nèi)置6 GB顯存的環(huán)境下運行。考慮到計算資源有限,將批規(guī)模(batch size)設(shè)置為4,使用帶有動量的隨機梯度下降(stochastic gradient descent,SGD)來優(yōu)化模型,其中動量設(shè)置為0.99,權(quán)重衰減為0.000 5,采用二元交叉熵?fù)p失作為整個模型的損失函數(shù)??偟螖?shù)為200輪,每訓(xùn)練一輪都會進行驗證,并使用驗證集上的最佳模型對測試集進行評估。參考經(jīng)典論文BIT中的線性衰減策略更新學(xué)習(xí)率,其計算公式為
deacy_lr=initial_lr×1-current_epochmax_epochs+1
(9)
其中:deacy_lr表示當(dāng)前輪的學(xué)習(xí)率;initial_lr表示初始學(xué)習(xí)率,這里將其設(shè)置為0.01;current_epoch表示當(dāng)前輪數(shù);max_epochs表示最大輪數(shù),即200。
2.1.3 評估指標(biāo)
本文使用四種深度學(xué)習(xí)變化檢測中常用的評價指標(biāo)來衡量模型的性能:準(zhǔn)確度(precision,Pre)、召回率(recall,Rec)、F1值(F1)和交并比(intersection over union,IoU)。在這些評價指標(biāo)中,準(zhǔn)確度越高,表示虛檢越少,即未變化區(qū)域被檢測為變化區(qū)域的像素點越少;召回率越高,表示漏檢越少,即變化區(qū)域檢測為未變化區(qū)域的像素點越少。F1值同時考慮分類模型的準(zhǔn)確度和召回率,可以比較均衡地評價模型精度。交并比用于測量真實值和預(yù)測值之間的相關(guān)度。相關(guān)公式定義為
Pre=TPTP+FPRec=TPTP+FN
F1=2×Pre×RecPre+Rec
IoU=TPTP+FP+FN
(10)
其中:TP(true positive)為真正類;FP(1 positive)為假正類;FN(1 negative)為假反類;TN(true negative)為真反類。
2.1.4 模型比較
為驗證本文方法SHNet的有效性,組織如下對比實驗:
a)FC-EF[6]和FC-Conc[6]:兩種基于純CNN的經(jīng)典變化檢測方法,其中FC-EF使用早期融合策略,F(xiàn)C-Conc使用晚期融合策略。
b)IFN[31]和SNUNet[15]:兩種注意力機制改進CNN的變化檢測方法,其中IFN在解碼階段使用通道和空間兩種注意力機制來細化特征,SNUNet集成通道注意力來細化和聚合不同語義層級的特征。
c)BIT[30]和MSCANet[32]:兩種最近提出的Transformer集成CNN的變化檢測方法,其中BIT使用Transformer建模全局上下文關(guān)系并融合特征,MSCANet使用Transformer對多尺度的上下文信息進行細化。
d)LightCDNet[33]和HANet[34]:兩組最新提出的輕量級變化檢測方法,其中LightCDNet利用一種深度監(jiān)督融合模塊指導(dǎo)主要特征的早期融合以提高監(jiān)測性能;HANet使用軸向注意力有效提取特征并減小計算成本。
2.2 實驗結(jié)果與分析
2.2.1 定性分析
本節(jié)在四組數(shù)據(jù)集上對各種變化檢測方法進行定性分析。圖5~8分別展示了在WHU、Google、LEVIR和GVLM數(shù)據(jù)集上各種方法的可視化結(jié)果(每個數(shù)據(jù)集上僅選取三組有代表性的結(jié)果):(a)~(c)分別表示第一時期影像X1、第二時期影像X2和兩期影像的變化參考;(d)~(l)分別表示FC-EF、FC-Conc、IFN、SNUNet、BIT、MSCANet、LightCDNet、HANet和本文提出的SHNet的變化檢測。
由圖5可知,對于WHU數(shù)據(jù)集,SHNet提取的建筑物變化表現(xiàn)出最少的虛檢錯誤與漏檢錯誤,其結(jié)果與變化參考最為接近,如圖5第三行中,八種對比方法均存在嚴(yán)重的漏檢錯誤,F(xiàn)C-Conc和SNUNet抗干擾和噪聲能力太弱,還存在較為嚴(yán)重的虛檢,但SHNet漏檢相對較少,證明SHNet具有更好的檢測性能。從圖6可以看出,在Google數(shù)據(jù)集上,SHNet仍然取得最優(yōu)結(jié)果,其包含的彩色區(qū)域面積最小,例如圖6第一行中,F(xiàn)C-EF和FC-Conc兩種方法存在嚴(yán)重的漏檢錯誤,IFN、BIT和SNUNet存在一定的漏檢,盡管MSCANet可以很好地檢測出變化區(qū)域,但造成不少虛檢錯誤,LightCDNet和HANet的檢測邊界過于粗糙,邊界漏檢錯誤嚴(yán)重。相較而言,SHNet的邊界更加精細,虛檢和漏檢數(shù)量也最低,這主要得益于提出的MSBR模塊中條形卷積的作用,提取多尺度特征的同時細化變化邊界。從圖7給出的LEVIR數(shù)據(jù)集的變化檢測結(jié)果可以看出,對于形狀大小多樣零散的建筑物變化區(qū)域,SHNet依然可以準(zhǔn)確完成檢測,例如圖7第一行和第二行中,僅HANet方法表現(xiàn)效果還不錯,另外七種對比方法對干擾變化的識別能力較差,均存在零碎的虛檢錯誤,但SHNet最接近變化參考。從圖8可以看出,對于形狀復(fù)雜多變的GVLM滑坡變化數(shù)據(jù)集,雖然所有方法都能較為
有效地檢測出滑坡災(zāi)害變化的大致輪廓,但與八組對比方法相比,其他方法檢測出的變化邊界更加粗糙,SHNet檢測出的邊界區(qū)域更加完整,存在較少的漏檢和虛檢錯誤。
由上述分析可以看出,SHNet在四個數(shù)據(jù)集上取得最佳的視覺效果,總體上可以檢測出遙感影像的變化區(qū)域,對于不同形狀大小的變化區(qū)域和變化較隱蔽的區(qū)域均能精準(zhǔn)地檢測出來,檢測出的變化邊界也更加清晰,造成的虛檢和漏檢錯誤相對較少,總體上檢測的結(jié)果與變化參考更加接近。
2.2.2 定量分析
為更加客觀地評價不同變化檢測方法的性能,表1給出不同方法在四組變化檢測數(shù)據(jù)集上的定量結(jié)果(加粗為最高值)。從表1可以很直觀地看出,在四組數(shù)據(jù)集中,SHNet相比于其他八種對比方法,其準(zhǔn)確度Pre和召回率Rec要么排第一,要么排第二,綜合評估指標(biāo)F1和IoU均取得最高結(jié)果,相較于其他變化檢測模型,更能適應(yīng)變化檢測任務(wù)。比如:對于WHU數(shù)據(jù)集,SHNet的F1值和IoU值分別為91.80%、84.84%,比其他方法至少提高3.9、4.47百分點;對于Google數(shù)據(jù)集,SHNet的F1值和IoU值分別為86.13%、75.63%,比其他方法至少提高2.92、4.38百分點。
綜合而言,結(jié)構(gòu)簡單的基礎(chǔ)模型FC-EF和FC-Conc在四組數(shù)據(jù)集上的結(jié)果都很差,主要是由于其特征提取能力弱,不能有效檢測出變化區(qū)域。IFN和SNUNet采用孿生結(jié)構(gòu)提取特征,同時應(yīng)用注意力機制對特征進行有效篩選,突出模型對感興趣區(qū)域的學(xué)習(xí),但是特征間的融合結(jié)構(gòu)復(fù)雜,造成特征的冗余,因此效果不佳。基于Transformer的模型BIT和MASCNet借助Transformer建模全局上下文之間的依賴關(guān)系,提取全局特征,但是缺乏對低層級細節(jié)特征的充分利用,造成整體結(jié)果不太好。輕量級的變化檢測模型LightCDNet結(jié)果也不太理想,因為其較少的參數(shù)量無法提取更多的特征信息。HANet僅在LEVIR數(shù)據(jù)集上取得相對較優(yōu)的結(jié)果,另外三組數(shù)據(jù)集上的效果不容樂觀,說明其泛化能力不夠,不能有效實施變化檢測。整體上來說,SHNet在四組數(shù)據(jù)集上的綜合評估指標(biāo)均最優(yōu),說明SHNet的抗干擾或噪聲能力強,相對于其他方法更加穩(wěn)定,魯棒性和泛化能力良好,可適應(yīng)不同復(fù)雜場景下的變化檢測,展現(xiàn)出較好的檢測性能。
2.3 消融實驗
為驗證提出變化檢測方法中各個模塊的有效性,本文以WHU數(shù)據(jù)集為例,對創(chuàng)新模塊STDA、HDE和MSBR進行相關(guān)消融實驗。三組消融實驗的設(shè)計如下:保持本文方法的其他結(jié)果不變,首先去掉STDA模塊,孿生分支將不復(fù)存在;然后去掉HAF模塊,直接將淺層特征通過跳躍連接傳遞到對應(yīng)的解碼層,級聯(lián)后借助卷積融合;最后去掉MSBR模塊。表2給出上述三組消融實驗的變化檢測結(jié)果(×表示去掉,√表示保留)。
對比表2中的各行實驗結(jié)果可知,移除本文中的任一模塊,都會導(dǎo)致檢測結(jié)果明顯下降,證明STDA、HDE和MSBR模塊在提升變化檢測性能方面的有效性。而三組消融實驗中,去掉STDA的精度最低,F(xiàn)1和IoU分別下降0.76和1.28百分點,這表明STDA是改進的關(guān)鍵模塊,因為STDA模塊生成的時空差異注意力圖能夠有效增強模型對變化區(qū)域的學(xué)習(xí),抑制偽變化信息。去掉HDE和MSBR模塊后,模型性能也有所下降,證明HDE和MSBR模塊在一定程度上也能提升模型性能。
2.4 復(fù)雜度分析
本節(jié)分析不同方法的模型復(fù)雜度,將模型的輸入圖像尺寸大小設(shè)置為256像素×256像素×3通道,計算不同方法的參數(shù)量(parameters,Params)、浮點運算次數(shù)(floating-point operations,F(xiàn)LOPs)和在WHU數(shù)據(jù)集上的F1值,三個指標(biāo)的具體數(shù)值如表3所示。
從表3可知:本文提出的SHNet取得了最高的F1、相對較低的Params和FLOPs;結(jié)構(gòu)簡單的FC-EF和FC-Conc具有較低的Params和FLOPs,但是精度很差,主要是由于其特征提取能力較弱。SHNet的Params低于IFN、SNUNet、BIT和MSCANet四種方法,高于LightCDNet和HANet;FLOPs顯著低于IFN和SNUNet,高于BIT、MSCANet、LightCDNet和HANet四種方法,但F1值比它們至少提高3.9百分點;IFN網(wǎng)絡(luò)采用多種注意力機制增強特征融合,SNUNet采用復(fù)雜的U-Net++結(jié)構(gòu),因此IFN和SNUNet的Params和FLOP都很高。BIT和MSCANet缺乏對低層級細節(jié)特征的有效利用,因此Params和FLOP較低,精度也不夠理想。輕量級變化檢測模型LightCDNet的Params和FLOP最低,但是特征提取能力弱,精度也最低。HANet結(jié)構(gòu)簡單,但是其基于自注意力的特征融合方式計算開銷略大,因此Params較低,F(xiàn)LOPs略高??傮w而言,SHNet在復(fù)雜度和精度方面取得了更好的平衡,優(yōu)于八種對比方法。
3 結(jié)束語
針對高分辨率遙感影像的特點,本文提出一種聯(lián)合時空差異注意力與層級細節(jié)增強的遙感影像變化檢測方法。其中:設(shè)計的時空差異注意力模塊用來增強級聯(lián)分支對變化區(qū)域的學(xué)習(xí),減少偽變化信息的干擾;層級細節(jié)增強模塊有效融合低層級特征中的細節(jié)信息和高層級特征中的語義信息,增強了特征的表示能力;多尺度邊界細化模塊在提取多尺度特征的同時,利用條形卷積細化特征邊界,一定程度上可以緩解檢測預(yù)測圖邊界的鋸齒狀。
在四個公開數(shù)據(jù)集上的實驗結(jié)果表明,SHNet從定性和定量兩方面均優(yōu)于FC-EF、FC-Conc、IFN、SNUNet、BIT、MSCANet、LightCDNet和HANet八種對比方法。
在未來的研究中,會考慮將孿生分支的特征引入到特征解碼階段,三分支特征相互指導(dǎo),增強特征融合,以提升模型的整體檢測能力。
致謝
本文受到三峽大學(xué)先進計算中心資助支持。
參考文獻:
[1]周維勛,劉京雷,彭代鋒,等.MtSCCD:面向深度學(xué)習(xí)的土地利用場景分類與變化檢測數(shù)據(jù)集[J].遙感學(xué)報,2024,28(2):321-333.(Zhou Weixun,Liu Jinglei,Peng Daifeng,et al.MtSCCD:land-use scene classification and change-detection dataset for deep learning[J].National Remote Sensing Bulletin,2024,28(2):321-333.)
[2]Lu Wen,Lu Wei,Minh N.Bi-temporal attention transformer for buil-ding change detection and building damage assessment[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2024,17:4917-4935.
[3]Yin Yutong.Research on natural disaster target change detection method based on deep learning[C]//Proc of the 3rd IEEE International Conference on Power,Electronics and Computer Applications.Piscataway,NJ:IEEE Press,2023:946-950.
[4]張祖勛,姜慧偉,龐世燕,等.多時相遙感影像的變化檢測研究現(xiàn)狀與展望[J].測繪學(xué)報,2022,51(7):1091-1107.(Zhang Zuxun,Jiang Huiwei,Pang Shiyan,et al.Review and prospect in change detection of multi-temporal remote sensing images[J].Acta Geodaetica et Cartographica Sinica,2022,51(7):1091-1107.)
[5]Parelius E J.A review of deep-learning methods for change detection in multispectral remote sensing images[J].Remote Sensing,2023,15(8):2092.
[6]Daudt R C,Bertr L S,Alexandre B.Fully convolutional Siamese networks for change detection[C]//Proc of the 25th IEEE International Conference on Image Processing.Piscataway,NJ:IEEE Press,2018:4063-4067.
[7]顧煉,許詩起,竺樂慶.基于FlowS-Unet的遙感圖像建筑物變化檢測[J].自動化學(xué)報,2020,46(6):1291-1300.(Gu Lian,Xu Shiqi,Zhu Leqing.Detection of building changes in remote sensing images via FlowS-Unet[J].Acta Automatica Sinica,2020,46(6):1291-1300.)
[8]Huang Jianhua,F(xiàn)u Qiang,Wang Xue,et al.Remote sensing building change detection based on improved U-Net[C]//Proc of the 3rd International Conference on Big Data,Artificial Intelligence and Internet of Things Engineering.Piscataway,NJ:IEEE Press,2022:772-775.
[9]Zhang Xiuwei,Yue Yuanzeng,Gao Wenxiang,et al.DifUNet++:a satellite images change detection network based on UNet++and differential pyramid[J].IEEE Geoscience and Remote Sensing Letters,2021,19:1-5.
[10]Bai Beifang,F(xiàn)u Wei,Lu Ting,et al.Edge-guided recurrent convolutional neural network for multitemporal remote sensing image building change detection[J].IEEE Trans on Geoscience and Remote Sensing,2022,60:1-13.
[11]Sun Shuting,Mu Lin,Wang Lizhe,et al.L-UNet:an LSTM network for remote sensing image change detection[J].IEEE Geoscience Remote and Sensing Letters,2022,19:1-5.
[12]Xie Zilin,Jiang Jinbao,Yuan Deshuai,et al.GAN-based sub-instance augmentation for open-pit mine change detection in remote sensing ima-ges[J].IEEE Trans on Geoscience and Remote Sensing,2024,62:1-19.
[13]Ronneberger O,F(xiàn)ischer P,Brox T.U-Net:convolutional networks for biomedical image segmentation[C]//Proc of International Conference on Medical Image Computing and Computer-Assisted Intervention.Cham:Springer,2015:234-241.
[14]Peng Daifeng,Zhang Yongjun,Guan Haiyan.End-to-end change detection for high resolution satellite images using improved UNet++[J].Remote Sensing,2019,11(11):1382.
[15]Fang Sheng,Li Kaiyu,Shao Jinyuan,et al.SNUNet-CD:a densely connected Siamese network for change detection of VHR images[J].IEEE Geoscience and Remote Sensing Letters,2022,19:1-5.
[16]朱節(jié)中,陳永,柯福陽,等.基于Siam-UNet++的高分辨率遙感影像建筑物變化檢測[J].計算機應(yīng)用研究,2021,38(11):3460-3465.(Zhu Jiezhong,Chen Yong,Ke Fuyang,et al.Building change detection from high resolution remote sensing imagery based on Siam-UNet++[J].Application Research of Computers,2021,38(11):3460-3465.)
[17]梁燕,易春霞,王光宇.基于編解碼網(wǎng)絡(luò)UNet3+的遙感影像建筑變化檢測[J].計算機學(xué)報,2023,46(8):1720-1733.(Liang Yan,Yi Chunxia,Wang Guangyu.Detection of building change in remote sensing image based on encoder-decoder network UNet3+[J].Chinese Journal of Computers,2023,46(8):1720-1733.)
[18]王超,王帥,陳曉,等.聯(lián)合UNet++和多級差分模塊的多源光學(xué)遙感影像對象級變化檢測[J].測繪學(xué)報,2023,52(2):283-296.(Wang Chao,Wang Shuai,Chen Xiao,et al.Object-level change detection of multi-sensor optical remote sensing images combined with UNet++and multi-level difference module[J].Acta Geodaetica et Cartographica Sinica,2023,52(2):283-296.)
[19]Yuan Jian,Wang Liejun,Cheng Shuli.STransUNet:a Siamese TransUNet-based remote sensing image change detection network[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2022,15:9241-9253.
[20]Li Qingyang,Zhong Ruofei,Du Xin,et al.TransUNetCD:a hybrid transformer network for change detection in optical remote-sensing images[J].IEEE Trans on Geoscience and Remote Sensing,2022,60:1-19.
[21]Zhang Cui,Wang Liejun,Cheng Shuli,et al.SwinSUNet:pure transformer network for remote sensing image change detection[J].IEEE Trans on Geoscience and Remote Sensing,2022,60:1-13.
[22]Chen Zixuan,He Zewei,Lu Zheming.DEA-Net:single image dehazing based on detail-enhanced convolution and content-guided attention[J].IEEE Trans on Image Processing,2024,33:1002-1015.
[23]邵攀,高梓昂.面向高分辨率遙感影像變化檢測的混合空間金字塔池化網(wǎng)絡(luò)[J/OL].遙感學(xué)報.(2023).https://doi.org/10.11834/jrs.20233229.(Shao Pan,Gao Zi’ang.Hybrid spatial pyramid pooling network to change detection for high resolution remote sensing images[J/OL].National Remote Sensing Bulletin.(2023).https://doi.org/10.11834/jrs.20233229.)
[24]Gao Shanghua,Cheng Mingming,Zhao Kaizhao,et al.Res2Net:a new multi-scale backbone architecture[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2021,43(2):652-662.
[25]Hu Jie,Shen Li,Sun Gang.Squeeze-and-excitation networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2018:7132-7141.
[26]Ji Shunping,Wei Shiqing,Lu Meng.Fully convolutional networks for multisource building extraction from an open serial and satellite imagery data set[J].IEEE Trans on Geoscience and Remote Sen-sing,2019,57(1):574-586.
[27]Peng Daifeng,Bruzzone L,Zhang Yongjun,et al.SemiCDNet:a semisupervised convolutional neural network for change detection in high resolution remote-sensing images[J].IEEE Trans on Geoscience and Remote Sensing,2020,59(7):5891-5906.
[28]Chen Hao,Shi Zhenwei.A spatial-temporal attention-based method and a new dataset for remote sensing image change detection[J].Remote Sensing,2020,12(10):1662.
[29]Zhang Xiaokang,Yu Weikang,Pun M,et al.Cross-domain landslide mapping from large-scale remote sensing images using prototype-guided domain-aware progressive representation learning[J].ISPRS Journal of Photogrammetry and Remote Sensing,2023,197:1-17.
[30]Chen Hao,Qi Zipeng,Shi Zhenwei.Remote sensing image change detection with transformers[J].IEEE Trans on Geoscience and Remote Sensing,2022,60:1-14.
[31]Zhang Chenxiao,Yue Peng,Tapete D,et al.A deeply supervised image fusion network for change detection in high resolution bi-temporal remote sensing images[J].ISPRS Journal of Photogrammetry and Remote Sensing,2020,166:183-200.
[32]Liu Mengxi,Chai Zhuoqun,Deng Haojun,et al.A CNN-transformer network with multiscale context aggregation for fine-grained cropland change detection[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2022,15:4297-4306.
[33]Xing Yuanjun,Jiang Jiawei,Xiang Jun,et al.LightCDNet:lightweight change detection network based on VHR images[J].IEEE Geoscience Remote and Sensing Letters,2023,20:1-5.
[34]Han Chengxi,Wu Chen,Guo Haonan,et al.HANet:a hierarchical attention network for change detection with bitemporal very-high-resolution remote sensing images[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2023,16:3867-3878.