孔嘉嫄,張和生
太原理工大學(xué)礦業(yè)工程學(xué)院,太原 030024
近年來(lái),中國(guó)遙感衛(wèi)星事業(yè)高速發(fā)展,對(duì)于遙感影像的獲取日益簡(jiǎn)便快捷。由于高分辨率圖像的廣泛覆蓋和高精度,它已成為地理信息數(shù)據(jù)的重要來(lái)源。從這些圖像中提取的道路網(wǎng)絡(luò)信息具有廣泛的適用性,包括在導(dǎo)航、制圖,城市規(guī)劃和地理?xiàng)l件監(jiān)視中的應(yīng)用。道路是重要的人工建筑物、現(xiàn)代交通基礎(chǔ)設(shè)施的主體和地理信息系統(tǒng)中的基本數(shù)據(jù)。因此,及時(shí)更新道路信息將對(duì)依賴(lài)于這些系統(tǒng)的所有事物產(chǎn)生影響:如制圖、路線(xiàn)分析和緊急響應(yīng)。利用遙感影像,大范圍自動(dòng)提取道路數(shù)據(jù)吸引了全世界的廣泛關(guān)注。眾多學(xué)者經(jīng)過(guò)多年的研究,提出并改進(jìn)了多種道路提取方法。張永宏等全面總結(jié)分析了現(xiàn)有的道路提取方法,將其分為三類(lèi)[1]:①基于像元的道路提取方法:如羅慶洲等提出了用光譜特征與形狀特征相結(jié)合的方法提取道路[2],林祥國(guó)等使用角度紋理特征和灰度最小二乘匹配進(jìn)行最佳量算提取陰影下帶狀道路[3]。該類(lèi)方法主要利用道路本身波譜特征的差異進(jìn)行道路提取,對(duì)于背景簡(jiǎn)單清晰、目標(biāo)較少的遙感圖像提取效果較好,但對(duì)于背景信息較為復(fù)雜的遙感圖像道路提取效果不佳,需要大量后續(xù)處理。②面向?qū)ο蟮牡缆诽崛》椒?。如陳立福等提出的將馬爾可夫隨機(jī)場(chǎng)分割與數(shù)學(xué)形態(tài)學(xué)處理融合的方法[4],曹云剛等提出的融合像元多尺度對(duì)象級(jí)特征的高分辨率遙感影像道路中心線(xiàn)提取方法[5]。該類(lèi)方法主要將圖像作為整體,將其分割為小像元,再進(jìn)行道路提取。適用于信息量豐富、特征分明的遙感影像,而對(duì)于相似地物容易混分產(chǎn)生粘連現(xiàn)象。③基于深度學(xué)習(xí)的道路提取方法:如Cheng等通過(guò)將兩個(gè)卷積網(wǎng)絡(luò)級(jí)聯(lián)到一個(gè)框架中,提出了級(jí)聯(lián)的端到端卷積神經(jīng)網(wǎng)絡(luò)(CasNet)的方法[6]。Liu等提出的深度解析網(wǎng)絡(luò)(DPN)將卷積神經(jīng)網(wǎng)絡(luò)(CNN)與馬爾可夫隨機(jī)場(chǎng)(MRF)相結(jié)合對(duì)道路進(jìn)行提取[7]。這類(lèi)方法具有高效的學(xué)習(xí)能力和特征表達(dá)能力,在區(qū)別道路與其他非道路地物方面有突出優(yōu)勢(shì),但仍存在道路斷點(diǎn),提取效果有待進(jìn)一步提升。
隨著計(jì)算機(jī)技術(shù)不斷發(fā)展進(jìn)步,不少學(xué)者對(duì)深度學(xué)習(xí)方法做出了許多改進(jìn),以此提高遙感影像道路的識(shí)別精度[8-10]。其中U-Net網(wǎng)絡(luò)[11]的跨越連接結(jié)構(gòu)實(shí)現(xiàn)了多尺度圖像信息的融合,在保留了高級(jí)的語(yǔ)義信息的同時(shí)顧及了低級(jí)的細(xì)節(jié)信息,因其改造性強(qiáng)且訓(xùn)練速度快,目前在圖像分割領(lǐng)域最為常用。袁偉等提出一種新的形態(tài)損失函數(shù)有效提高道路分割精度[12]。金飛等用雙U-Net網(wǎng)絡(luò)聯(lián)合訓(xùn)練和形態(tài)學(xué)后處理方式取得不錯(cuò)效果[13]。王卓等通過(guò)在U-Net網(wǎng)絡(luò)中利用Batch Normalization、ELU 與 Dropout 較好地解決了過(guò)擬合問(wèn)題[14]。
針對(duì)以上分析,研究采用U-Net網(wǎng)絡(luò)模型作為基礎(chǔ)結(jié)構(gòu),提出了一種基于改進(jìn)U-Net的多維度監(jiān)督特征優(yōu)化的網(wǎng)絡(luò)模型MDAU-Net:通過(guò)對(duì)U-Net進(jìn)行加深結(jié)構(gòu)處理,采用7層卷積和下采樣模塊進(jìn)行特征提??;同時(shí),為了優(yōu)化道路目標(biāo)的淺層細(xì)節(jié)特征和深層的語(yǔ)義特征,設(shè)計(jì)了模塊MD-MECA并將其添加至編碼部分到解碼部分的特征傳遞步驟中;并引入Batch Normalization[15]和DropBlock[16]解決網(wǎng)絡(luò)訓(xùn)練過(guò)程中出現(xiàn)的過(guò)擬合問(wèn)題。在遙感影像上進(jìn)行道路提取試驗(yàn),有效減少了提取中的斷裂問(wèn)題,較好地提取細(xì)小道路,實(shí)現(xiàn)遙感影像道路完整提取。
U-Net結(jié)構(gòu)于2015年5月由Ronneberger等[11]提出,最初廣泛應(yīng)用于醫(yī)學(xué)圖像分割領(lǐng)域。作為一種非常經(jīng)典的全卷積網(wǎng)絡(luò)模型,目前在遙感影像分割領(lǐng)域中被廣泛采用,其網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
U-Net分為兩部分,左邊為特征提取部分也稱(chēng)下采樣部分,右邊為上采樣部分。特征提取部分通過(guò)卷積以及池化的計(jì)算方式提取圖像的深層語(yǔ)義特征,每次過(guò)程包括:將圖像經(jīng)過(guò)兩次卷積后變?yōu)橥ǖ罃?shù)增加64的矩陣,接著進(jìn)行最大池化操作,圖像長(zhǎng)寬縮小至原來(lái)的一半。依照相同的過(guò)程,經(jīng)過(guò)4次下采樣之后,圖像變?yōu)?32×
圖1 U-Net網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 U-Net network architecture
32×512 的矩陣,再經(jīng)過(guò)兩次 3×3 的卷積操作得到最終的特征圖。而對(duì)于上采樣部分,從網(wǎng)絡(luò)底層信息開(kāi)始計(jì)算,每經(jīng)過(guò)一次 2×2 的反卷積后與同一層的下采樣特征圖進(jìn)行拼接,和特征提取部分對(duì)應(yīng)的通道數(shù)相同尺度融合,再經(jīng)過(guò)兩次 3×3 的卷積操作完成1次上采樣。通過(guò)不斷結(jié)合特征提取而得到的特征圖,來(lái)進(jìn)行信息補(bǔ)充,從而優(yōu)化分割結(jié)果。
受最近提出的CAR-UNet(channel attention residual U-Net)[17]的啟發(fā),研究改進(jìn)了CAR-UNet中的MECA(modified efficient channel attention)模塊,MECA模塊結(jié)構(gòu)如圖2所示,該模塊在保持性能的同時(shí)大大降低了圖像分類(lèi)、對(duì)象檢測(cè)和實(shí)例分割中的網(wǎng)絡(luò)復(fù)雜性。本文將優(yōu)化后的模塊命名為多維度監(jiān)督機(jī)制MD-MECA(multi dimension modified efficient channel attention),通過(guò)將MD-MECA添加到U-Net架構(gòu)的編碼傳遞特征到解碼模塊,相比于原始的U-Net,結(jié)構(gòu)在特征圖傳遞的過(guò)程中,進(jìn)行了特征圖優(yōu)化,將編碼部分的特征圖進(jìn)行不同方式的信息監(jiān)督,然后傳遞到解碼部分進(jìn)行信息補(bǔ)充。
圖2 MECA模塊結(jié)構(gòu)Fig.2 MECA module structure
通道注意力機(jī)制CA(channel attention mechanism)最初被用作分類(lèi)中的特征壓縮激勵(lì)網(wǎng)絡(luò)塊 (squeeze-and-excitation networks)[18],它通過(guò)對(duì)通道間的依賴(lài)關(guān)系進(jìn)行建模,可以自適應(yīng)的調(diào)整各通道的特征響應(yīng)值。最近研究表明,通道注意力在提高深度卷積神經(jīng)網(wǎng)絡(luò)的性能方面有很大的潛力。近來(lái),Guo等人提出了一種改進(jìn)高效通道注意力(MECA)模塊應(yīng)用于視網(wǎng)膜血管分割,取得較好效果[17],MECA模塊利用卷積來(lái)避免在SE網(wǎng)絡(luò)塊中的降維操作,從而在保持優(yōu)越性能的同時(shí)大大降低了模型的復(fù)雜度。MECA模塊是可嵌入的通道監(jiān)督模塊,通過(guò)使用不同的全局池化計(jì)算來(lái)提取全局特征:平均池化計(jì)算可以提取空間信息,同時(shí)最大值池化可以獲取獨(dú)特的對(duì)象特征,從而可以吸引更多精細(xì)的通道注意。因此,MECA模塊通過(guò)組合兩者提取的全局特征來(lái)獲得更精細(xì)的通道監(jiān)督權(quán)重,并且以C通道為基礎(chǔ)進(jìn)行通道注意監(jiān)控,獲取不同通道之間的權(quán)重參數(shù)。
MECA模塊中特征圖具有不同維度H、W和C,分別代表輸入特征的高(height)、寬(width)和通道(channels)數(shù)量,因而可以通過(guò)多角度全方面進(jìn)行監(jiān)督來(lái)強(qiáng)化MECA模塊,使得特征圖能代表更加精細(xì)的道路信息。基于特征圖的維度特點(diǎn),本文設(shè)計(jì)的一種多維度監(jiān)督機(jī)制MD-MECA(multi dimension modified efficient channel attention):在C通道維度的基礎(chǔ)上,增加H維度和W維度通道,并分別設(shè)計(jì)了相同的注意力監(jiān)督模塊,得到不同維度的監(jiān)督權(quán)重參數(shù)。
本文設(shè)計(jì)的MD-MECA模塊結(jié)構(gòu)如圖3所示, MD-MECA模塊結(jié)構(gòu):以MECA的監(jiān)督結(jié)構(gòu),分別提取基于各維度的監(jiān)督權(quán)重。以C通道為例,首先,輸入特征圖F∈RH×W×C,通過(guò)最大池化計(jì)算和平均池化計(jì)算可產(chǎn)生Fmp∈R1×1×C和Fap∈R1×1×C,在C通道維度上:
0 (1) 0 (2) 式中:Max(·)表示獲取最大值,Pc(·)表示第c個(gè)通道特定位置的像素值。然后將這兩個(gè)計(jì)算值傳送到共享權(quán)重的一維卷積神經(jīng)網(wǎng)絡(luò),從而生成通道監(jiān)督機(jī)制Mc∈R1×1×C, 然后,MECA模塊應(yīng)用通道相加來(lái)組合卷積層輸出的特征向量,計(jì)算如下: M(F)=σ[Conv1D(Fap)+Conv1D(Fmp)] (3) 式中:Conv1D(·)代表一維卷積;σ(·)代表Sigmoid函數(shù)。同樣,用相同的計(jì)算方式獲取基于特征圖H維度和W維度的監(jiān)督權(quán)重,然后以三個(gè)維度對(duì)特征圖進(jìn)行監(jiān)督,再將其進(jìn)行逐像素相加結(jié)合,得到所需的特征圖。 圖3 MD-MECA模塊結(jié)構(gòu)Fig.3 MD-MECA module structure 通過(guò)上述方法,試驗(yàn)對(duì)道路圖像特征圖進(jìn)行了不同維度和層次的優(yōu)化。通過(guò)將MD-MECA添加到U-Net架構(gòu)的編碼傳遞特征到解碼模塊,從而對(duì)編碼部分所傳輸?shù)募?xì)節(jié)紋理特征和語(yǔ)義特征進(jìn)行細(xì)化。因此,解碼部分所獲取的道路特征對(duì)道路目標(biāo)具有更好的表征能力,可以更好的對(duì)道路進(jìn)行分割。 Google團(tuán)隊(duì)在2015年提出了批歸一化(batch normalization)法[15]。深度網(wǎng)絡(luò)中,如果網(wǎng)絡(luò)的激活輸出很大,其梯度就很小,學(xué)習(xí)速率也逐漸減慢,這樣,越深層的網(wǎng)絡(luò)結(jié)構(gòu),淺層梯度很小,學(xué)習(xí)速率就慢;深層梯度變大,學(xué)習(xí)速率就快。對(duì)于這樣的網(wǎng)絡(luò)結(jié)構(gòu)來(lái)說(shuō),就失去了深層的意義。所以為了解決這類(lèi)問(wèn)題,在網(wǎng)絡(luò)中使用BN(batch normalization)層通過(guò)一定的規(guī)范化手段,可解決梯度消失與梯度爆炸,同時(shí)可提升訓(xùn)練速度與網(wǎng)絡(luò)收斂速度,有效防止過(guò)擬合問(wèn)題。 過(guò)擬合是深度神經(jīng)網(wǎng)絡(luò)中存在的一個(gè)嚴(yán)重問(wèn)題。網(wǎng)絡(luò)結(jié)構(gòu)越復(fù)雜,處理速度越慢,因此在測(cè)試時(shí)對(duì)不同的復(fù)雜神經(jīng)網(wǎng)絡(luò)很難處理過(guò)擬合。Srivastava等提出的Dropout同樣是一種解決此問(wèn)題的技術(shù)[19],其關(guān)鍵思想是在訓(xùn)練期間按照一定的概率將神經(jīng)單元從神經(jīng)網(wǎng)絡(luò)中暫時(shí)丟棄。Dropout在全連接層中效果顯著,但是卷積層的特征圖中相鄰位置元素在空間上共享語(yǔ)義信息,所以盡管某個(gè)單元被丟棄掉,但與其相鄰的元素依然可以保有該位置的語(yǔ)義信息,信息仍然可以在卷積神經(jīng)網(wǎng)絡(luò)中流通。因此,針對(duì)這種問(wèn)題,本文引入一種結(jié)構(gòu)形式的dropout—DropBlock[16],DropBlock技術(shù)是Google Brain研發(fā)人員于2018年提出的一項(xiàng)在卷積神經(jīng)網(wǎng)絡(luò)中使用的正則化技術(shù),它可以將特征圖相鄰區(qū)域中的單元同時(shí)丟棄,從而提高精確度。 在U-Net的網(wǎng)絡(luò)中采用了4次下采樣,但對(duì)于遙感圖像特征來(lái)說(shuō),淺層的特征具備充分的道路紋理特征,對(duì)于分割算法的輪廓還原有所幫助;高層的語(yǔ)義特征則對(duì)區(qū)分道路類(lèi)別有所幫助。因此,需要盡可能地結(jié)合兩者的特征,補(bǔ)全道路信息。同時(shí),對(duì)于遙感圖像道路數(shù)據(jù),道路特征通常相對(duì)較小,并且屬于更詳細(xì)的紋理特征。因而,算法需要專(zhuān)注于詳細(xì)紋理特征級(jí)別的優(yōu)化。 針對(duì)上述問(wèn)題,以U-Net網(wǎng)絡(luò)作為基本的網(wǎng)絡(luò)結(jié)構(gòu),研究提出了MDAU-Net網(wǎng)絡(luò)結(jié)構(gòu),整體網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示。MDAU-Net網(wǎng)絡(luò)結(jié)構(gòu)采用多級(jí)的下采樣結(jié)構(gòu)模塊,通過(guò)增加模型深度來(lái)增加非線(xiàn)性映射,從而增強(qiáng)特征擬合能力。試驗(yàn)結(jié)構(gòu)設(shè)計(jì)的7層的下采樣模塊,每個(gè)模塊由一個(gè)3×3卷積層,再加上2×2的maxpooling層組成,卷積層后添加ReLU非線(xiàn)性的激活函數(shù)來(lái)加強(qiáng)網(wǎng)絡(luò)對(duì)非線(xiàn)性特征的擬合能力,并且在每次卷積后利用DropBlock解決網(wǎng)絡(luò)訓(xùn)練過(guò)程中出現(xiàn)的過(guò)擬合問(wèn)題。對(duì)于尺寸為1 024×1 024的輸入數(shù)據(jù),影像經(jīng)過(guò)編碼端7次池化下采樣結(jié)構(gòu),提取后影像尺寸為8×8,大小變?yōu)樵跋竦?/64,同時(shí)得到了7個(gè)不同層級(jí)的特征圖模塊。同樣在上采樣部分,也進(jìn)行了7個(gè)階段的上采樣計(jì)算,每層分別結(jié)合下采樣編碼部分的特征圖,同時(shí)特征拼接后使用Batch Normalization加速收斂,進(jìn)行了信息補(bǔ)充,優(yōu)化了道路分割的輪廓紋理特征。同時(shí),將MD-MECA模塊添加到每層編碼部分的特征圖傳遞部分,通過(guò)多維監(jiān)督計(jì)算來(lái)優(yōu)化編碼部分發(fā)送的特征圖,以突出顯示道路幾何特征并抑制背景特征。 在提出的MDAU-Net神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,采用了多級(jí)編碼和解碼結(jié)構(gòu),充分利用編碼部分不同層次的特征圖構(gòu)建更深的網(wǎng)絡(luò),以精細(xì)的方式提取和組合道路特征,從而獲得更好的預(yù)測(cè)效果。 圖4 MDAU-Net網(wǎng)絡(luò)結(jié)構(gòu)Fig.4 MDAU-Net network architecture 試驗(yàn)選擇美國(guó)馬薩諸塞州道路數(shù)據(jù)集 (Massachusetts roads dataset)作為試驗(yàn)數(shù)據(jù),影像尺寸為1 500像素×1 500像素,空間分辨率為1 m。本文選擇了數(shù)據(jù)集中600張影像用于訓(xùn)練,100張影像用于測(cè)試和100張影像用于驗(yàn)證。 在深度學(xué)習(xí)中,缺少訓(xùn)練樣本很容易導(dǎo)致過(guò)度擬合,也就是說(shuō),模型過(guò)度擬合訓(xùn)練集上的數(shù)據(jù),易導(dǎo)致對(duì)驗(yàn)證集預(yù)測(cè)的不準(zhǔn)確性。本文中使用的訓(xùn)練集600張影像不足以進(jìn)行訓(xùn)練。因此為增加用于訓(xùn)練的數(shù)據(jù)量,需對(duì)用于訓(xùn)練的數(shù)據(jù)影像進(jìn)行處理。試驗(yàn)采用幾何更改的方法擴(kuò)充數(shù)據(jù)集,以下是本文中擴(kuò)充數(shù)據(jù)集的幾種方法: 1)翻轉(zhuǎn)轉(zhuǎn)換:沿垂直或水平方向翻轉(zhuǎn)圖像。 2)隨機(jī)旋轉(zhuǎn)變換:將圖像隨機(jī)旋轉(zhuǎn)幾個(gè)角度。 3)隨機(jī)裁剪:通過(guò)圖像的隨機(jī)裁剪,可以獲得不同位置的局部圖像。 4)對(duì)比度變換:對(duì)圖像隨機(jī)設(shè)置對(duì)比度變換因子,以調(diào)整圖像的對(duì)比度。 其中,圖5(a)為未經(jīng)處理的原始圖像,圖5(b)-圖5(d)分別為順時(shí)針旋轉(zhuǎn)90°,180°,270°,圖5(e)、圖5(f)為以垂直、水平鏡像翻轉(zhuǎn),圖5(g)為對(duì)比度變換,圖5(h)為隨機(jī)裁剪。數(shù)據(jù)影像經(jīng)幾何更改的方法數(shù)據(jù)進(jìn)行擴(kuò)充后,共獲得2000張影像與標(biāo)簽。最后道路數(shù)據(jù)集中,有1 400張影像為訓(xùn)練集,400張影像為測(cè)試集,200張影像為驗(yàn)證集。同時(shí)為探究數(shù)據(jù)增強(qiáng)策略對(duì)本試驗(yàn)結(jié)果是否明顯提高可用于訓(xùn)練的數(shù)據(jù)量,分別建立數(shù)據(jù)擴(kuò)充前后數(shù)據(jù)集在試驗(yàn)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,試驗(yàn)結(jié)果如圖6所示。 試驗(yàn)結(jié)果表明,通過(guò)幾何更改擴(kuò)充后的數(shù)據(jù)影像集,道路識(shí)別效果得到有效提升。數(shù)據(jù)擴(kuò)充對(duì)比試驗(yàn)如圖6所示,區(qū)域a中有大量建筑物,在道路識(shí)別過(guò)程中,很容易將建筑物誤分為道路,在數(shù)據(jù)擴(kuò)充后,明顯減少該類(lèi)情況。區(qū)域b中,存在與道路特征相近的土地,擴(kuò)充前對(duì)細(xì)小道路提取效果不佳,數(shù)據(jù)擴(kuò)充后道路斷裂情況減少。綜上,數(shù)據(jù)進(jìn)行擴(kuò)充后,對(duì)試驗(yàn)效果有較好提升。 圖5 數(shù)據(jù)擴(kuò)充處理結(jié)果Fig.5 Data expansion processing results 圖 6 數(shù)據(jù)擴(kuò)充對(duì)比試驗(yàn) Fig.6 Data expansion comparative experiment 試驗(yàn)采取召回率(recall)、準(zhǔn)確率(rrecision)和F1值(F1-measure)3個(gè)指標(biāo)對(duì)分割結(jié)果進(jìn)行評(píng)價(jià)。召回率指的是正確預(yù)測(cè)的正樣本數(shù)占真實(shí)正樣本總數(shù)的比值。準(zhǔn)確率指的是正確預(yù)測(cè)的樣本數(shù)占總預(yù)測(cè)樣本數(shù)的比值,而F1值指的是準(zhǔn)確率和召回率的調(diào)和平均。計(jì)算公式如下: (4) (5) (6) 式中:TP表示提取正確的道路像素點(diǎn)數(shù)量;FP表示提取錯(cuò)誤的道路像素點(diǎn)數(shù)量;FN表示遺漏的道路像素點(diǎn)數(shù)量。 為了驗(yàn)證本文提出的MDAU-Net對(duì)于在遙感圖像中提取道路的可行性,以及改進(jìn)后神經(jīng)網(wǎng)絡(luò)MDAU-Net提取道路特征相較于U-Net神經(jīng)網(wǎng)絡(luò)和CAR-UNet神經(jīng)網(wǎng)絡(luò)道路提取方法的優(yōu)越性,本文使用同一組訓(xùn)練樣本和測(cè)試樣本進(jìn)行對(duì)比試驗(yàn),試驗(yàn)電腦操作系統(tǒng)為Windows,基于版本1.4.0的PyTorch深度學(xué)習(xí)框架設(shè)計(jì),CPU配置為e2650, 顯卡nvidia 1080TI×2,GPU配置為GeForce GTX 1080,顯存8G。試驗(yàn)參數(shù)如表1所示。 表1 試驗(yàn)參數(shù) 基于試驗(yàn)數(shù)據(jù)集,分別訓(xùn)練經(jīng)典U-Net網(wǎng)絡(luò)、CAR-UNet網(wǎng)絡(luò)與MDAU-Net網(wǎng)絡(luò),并經(jīng)過(guò)測(cè)試對(duì)試驗(yàn)結(jié)果進(jìn)行詳細(xì)的比較。表2為試驗(yàn)測(cè)試結(jié)果的精度評(píng)價(jià)。從表2可得知:在同等試驗(yàn)條件和數(shù)據(jù)集下,研究提出的MDAU-Net網(wǎng)絡(luò)的各項(xiàng)精度指標(biāo)相較于U-Net網(wǎng)絡(luò)和CAR-UNet網(wǎng)絡(luò)都有一定的提升,召回率、準(zhǔn)確率和F1值分別達(dá)到77.68%、97.04%和86.29%,在道路提取方面達(dá)到了很高的要求。 表2 試驗(yàn)精度評(píng)價(jià)表 部分可視化結(jié)果如圖7所示,從結(jié)果顯示圖可以看出,在U-Net提取結(jié)果影像中,存在大量孤立點(diǎn),道路斷裂的現(xiàn)象明顯,存在斷裂情況較多,其中,區(qū)域a和b中細(xì)小道路結(jié)構(gòu)信息提取不完整;區(qū)域c中因?yàn)榻ㄖ锩芗?,?duì)陰影遮擋下的細(xì)小道路識(shí)別不好;區(qū)域d存在少量鄰近道路粘連現(xiàn)象。CAR-UNet提取結(jié)果的影像中,由于對(duì)邊緣檢測(cè)不夠準(zhǔn)確,結(jié)構(gòu)信息提取不完整,導(dǎo)致結(jié)果存在欠分割現(xiàn)象,整體提取效果不佳,區(qū)域a-d道路影像仍然存在孤立點(diǎn);區(qū)域b和c中細(xì)小道路依然識(shí)別不準(zhǔn)確;區(qū)域d中道路粘連情況沒(méi)有解決。相比以上兩種方法,提出的MDAU-Net網(wǎng)絡(luò),則可以有效地全面提取道路,準(zhǔn)確分割道路邊緣,并且對(duì)一些細(xì)微的道路細(xì)節(jié)也可以具有較好的識(shí)別效果。區(qū)域a中,在建筑物密集或陰影遮擋區(qū)域道路提取效果較好,部分區(qū)域的斷裂道路得到修復(fù);區(qū)域b和區(qū)域c中對(duì)一些小道路具有良好的識(shí)別效果;對(duì)于區(qū)域d中改善了道路粘連現(xiàn)象,道路細(xì)節(jié)更為完整。最終的提取效果與標(biāo)簽影像有較高相似度。 圖7 道路對(duì)比試驗(yàn)提取結(jié)果Fig.7 Road comparison experiment extraction results 本文針對(duì)遙感影像道路提取中存在的斷裂和道路細(xì)小的問(wèn)題,提出了一種基于改進(jìn)U-Net網(wǎng)絡(luò)的遙感影像道路提取方法。研究采用多維注意力模塊MD-MECA與七層U-Net網(wǎng)絡(luò)結(jié)構(gòu)相結(jié)合,并在卷積層后添加DropBlock,解碼路徑中添加BN,提高了遙感圖像中道路分割算法的準(zhǔn)確性,同時(shí)通過(guò)試驗(yàn)與經(jīng)典U-Net網(wǎng)絡(luò)結(jié)構(gòu)和CAR-UNet網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了對(duì)比。結(jié)果表明,該方法的召回率、準(zhǔn)確率和F1值都得到明顯的提升,最終提取效果對(duì)道路情況進(jìn)行更為準(zhǔn)確的檢測(cè)分類(lèi)。因此本文提出的MDAU-Net網(wǎng)絡(luò)結(jié)構(gòu)模型在遙感影像道路提取方面具有重要的實(shí)用意義。同時(shí),提出的MD-MECA模塊是一個(gè)方便嵌入的通用特征優(yōu)化模塊,具有較好的普適性,可對(duì)后續(xù)多種遙感圖像分割分類(lèi)奠定基礎(chǔ)。但該方法中采用的激活函數(shù)無(wú)法將全部神經(jīng)元激活,提升精度有限,因此對(duì)模型結(jié)構(gòu)的優(yōu)化,尋求最佳激活函數(shù)是進(jìn)一步的研究工作。2.3 Batch Normalization 與DropBlock
2.4 MDAU-Net的網(wǎng)絡(luò)結(jié)構(gòu)
3 試驗(yàn)數(shù)據(jù)及評(píng)價(jià)指標(biāo)
3.1 試驗(yàn)數(shù)據(jù)與數(shù)據(jù)處理
3.2 評(píng)價(jià)指標(biāo)
4 試驗(yàn)和結(jié)果分析
4.1 試驗(yàn)環(huán)境及參數(shù)
4.2 試驗(yàn)結(jié)果分析
5 結(jié)論