摘要:
針對(duì)城市遙感圖像各種地物分布不均衡、分類(lèi)精度較低的問(wèn)題,提出融合并行注意力與權(quán)重平衡算法的遙感圖像分類(lèi)方法。該方法在DeepLabV3+和ResNet50創(chuàng)建的語(yǔ)義分割網(wǎng)絡(luò)基礎(chǔ)上,采用并行組合方式,融入通道注意力和空間注意力算法,提高網(wǎng)絡(luò)的特征提取能力;針對(duì)遙感圖像地物類(lèi)別占比不均衡問(wèn)題,引入地物類(lèi)別權(quán)重平衡算法,提高小類(lèi)別地物的分類(lèi)精度。為了驗(yàn)證網(wǎng)絡(luò)模型的分類(lèi)效果,利用Vaihingen數(shù)據(jù)集和Postdam數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果表明:融合注意力機(jī)制和權(quán)重平衡算法的分類(lèi)網(wǎng)絡(luò)在Vaihingen數(shù)據(jù)集中測(cè)試數(shù)據(jù)的像素精度、平均交并比、平均F1值分別為96.66%、90.35%、96.66%,在Postdam數(shù)據(jù)集中測(cè)試數(shù)據(jù)的像素精度、平均交并比、平均F1值分別為95.74%、81.47%、91.82%;從分類(lèi)細(xì)節(jié)看,增加注意力機(jī)制和權(quán)重平衡算法對(duì)占比較少的汽車(chē)識(shí)別精度有顯著提高,在Vaihingen數(shù)據(jù)集中汽車(chē)的像素精度提高了26.44%,在Postdam數(shù)據(jù)集中汽車(chē)的像素精度提高了21.84%,取得了較好的分類(lèi)效果。
關(guān)鍵詞:
注意力機(jī)制;權(quán)重平衡算法;DeepLabV3+網(wǎng)絡(luò);遙感圖像;地物分類(lèi)
doi:10.13278/j.cnki.jjuese.20240030
中圖分類(lèi)號(hào):P79
文獻(xiàn)標(biāo)志碼:A
Remote Sensing Image Classification Based on Fusion of Attention Mechanism and Weight Balance Algorithm
Wang Minshui1, Wang Mingchang1, Wang Jingyu2, Liu Ziwei1
1. College of GeoExploration Science and Technology, Jilin University, Changchun 130026, China
2. Jilin Academy of Agricultural Sciences, Changchun 130033, China
Abstract:
Addressing the challenge posed by the uneven distribution of various features and the low classification accuracy of urban remote sensing images, we propose a novel method for remote sensing image classification that integrates parallel attention and weight balance algorithm. Leveraging the semantic segmentation network architecture of DeepLabV3+ and ResNet50, our method combines channel attention and spatial attention algorithms in parallel to improve the network's feature extraction capability. Additionally, to address the issue of imbalanced feature category proportions in remote sensing images, we propose a feature category weight balance algorithm to improve the classification accuracy of minority feature categories. To validate the effectiveness of our network model for classification, we conduct experiments using "Vaihingen and Postdam datasets. The experimental results demonstrate promising performance metrics: The remote sensing image classification algorithm that integrates attention mechanism and weight balance is validated in the Vaihingen dataset with pixel accuracy, mean intersection over union, and mean F1"values of 96.66%, 90.35%, and 96.66%, respectively. In the Postdam dataset, the pixel accuracy, mean intersection over union, and mean F1"values of the validated data are 95.74%, 81.47%, and 91.82%, respectively. From the classification details, incorporating an attention mechanism and a weight balance algorithm significantly enhances the recognition accuracy of cars, which account for a relatively small proportion. Specifically, the pixel accuracy of cars in "Vaihingen dataset has improved by 26.44%, and in "Postdam dataset, it has increased by 21.84%, leading to commendable classification results.
Key words:
attention mechanism; weight balance algorithm; DeepLabV3+network; remote sensing image; land classification
0"引言
隨著高分辨率遙感技術(shù)的發(fā)展,遙感圖像分類(lèi)被廣泛應(yīng)用于農(nóng)業(yè)生產(chǎn)、林業(yè)調(diào)查、城市規(guī)劃、環(huán)境保護(hù)等領(lǐng)域。為了推進(jìn)城市化進(jìn)程及土地合理化利用,利用遙感圖像快速、準(zhǔn)確地進(jìn)行建筑物、道路、植被等地物分類(lèi)成為研究熱點(diǎn)。遙感圖像分類(lèi)是利用圖像中的光譜、形狀、顏色等特征信息,將遙感圖像中的每一個(gè)像素劃分為不同的地物類(lèi)別。遙感圖像分類(lèi)方法分為非監(jiān)督分類(lèi)和監(jiān)督分類(lèi)兩種。非監(jiān)督分類(lèi)無(wú)需預(yù)先標(biāo)記樣本,通過(guò)對(duì)影像中的像素進(jìn)行聚類(lèi),將相似的像素分配到相同的類(lèi)別中,常見(jiàn)的方法包括K均值聚類(lèi)、分層聚類(lèi)等。傳統(tǒng)的遙感圖像監(jiān)督分類(lèi)通過(guò)顏色、光譜、紋理、形狀等信息選擇一些有代表性的地物作為樣本,用于訓(xùn)練分類(lèi)器,使用分類(lèi)器完成地物分類(lèi),常見(jiàn)的方法有支持向量機(jī)(SVM)、隨機(jī)森林等。近年來(lái),利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行高分辨率遙感圖像處理取得了顯著成果[1-3],被廣泛應(yīng)用于遙感圖像分類(lèi)[4-6]、目標(biāo)檢測(cè)、變化檢測(cè)[7-8]等領(lǐng)域。卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)算法的重要分支,具有強(qiáng)大的特征提取能力,特征學(xué)習(xí)過(guò)程無(wú)需人工干預(yù),通過(guò)卷積運(yùn)算、局部感知、池化等操作,學(xué)習(xí)訓(xùn)練數(shù)據(jù)的層次表達(dá)規(guī)律和遙感圖像各通道信息之間的內(nèi)在聯(lián)系。常見(jiàn)的卷積神經(jīng)網(wǎng)絡(luò)有Yolov10、U-Net、DeepLabV3+、SegNet等。同時(shí),隨著遙感技術(shù)的發(fā)展,高分辨率遙感圖像不僅提高了圖像的分辨率,還包含多波段光譜、顏色、紋理以及場(chǎng)景語(yǔ)義信息,這些信息為地物分類(lèi)提供了良好的數(shù)據(jù)基礎(chǔ)。
傳統(tǒng)的監(jiān)督分類(lèi)方法利用選定的分類(lèi)器避免出現(xiàn)不必要的類(lèi)別,但分類(lèi)器選擇需要人工干預(yù),在多類(lèi)別分類(lèi)任務(wù)中有一定的局限性。非監(jiān)督分類(lèi)具有減少人工干預(yù)、操作簡(jiǎn)單的優(yōu)勢(shì),但是容易受到環(huán)境的影響。經(jīng)典的深度學(xué)習(xí)算法減少了人工干預(yù),提高了分類(lèi)精度,但是針對(duì)不同場(chǎng)景下的遙感圖像分類(lèi)任務(wù),需要提高網(wǎng)絡(luò)的適應(yīng)性。通常通過(guò)在經(jīng)典語(yǔ)義分割網(wǎng)絡(luò)基礎(chǔ)上增加殘差模塊[9]、加入注意力機(jī)制[10-13]、采用不同的損失函數(shù)[14]等方式完成網(wǎng)絡(luò)模型的改進(jìn),在樣本數(shù)量不足的情況下,引入機(jī)器主動(dòng)學(xué)習(xí)算法[15]擴(kuò)充樣本數(shù)量,用于提高圖像分類(lèi)精度。以上深度學(xué)習(xí)改進(jìn)方法雖然提高了遙感分類(lèi)精度,但是大多沒(méi)有考慮地物類(lèi)別分布和數(shù)量不均衡對(duì)分類(lèi)精度的影響。
針對(duì)城市場(chǎng)景地物類(lèi)別豐富、各種地物分布和數(shù)量不均衡的問(wèn)題,提出一種融合注意力機(jī)制和權(quán)重平衡算法的遙感圖像地物分類(lèi)方法。該方法融合通道注意力和空間注意力算法,提高特征提取能力,引入地物類(lèi)別權(quán)重平衡算法,提高占比較小地物的特征提取效果,從而提高整體的分類(lèi)精度。
1"數(shù)據(jù)與方法
1.1"權(quán)重平衡算法
卷積神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中會(huì)傾向于占主導(dǎo)的類(lèi)別,對(duì)于像素多的地物類(lèi)別有更好的特征學(xué)習(xí)能力。為了提高占比小的地物的分類(lèi)精度,通過(guò)權(quán)重平衡算法增強(qiáng)小占比地物的特征表達(dá)。首先,計(jì)算各類(lèi)別的像素標(biāo)簽數(shù)量,選出中位數(shù)的地物,然后計(jì)算中位數(shù)地物像素?cái)?shù)與某地物像素?cái)?shù)的比值,將權(quán)重融入網(wǎng)絡(luò)輸出層。權(quán)重計(jì)算公式如下:
Fi=pip;(1)
Wi=Ej"Fi。(2)
式中:Fi為地物i在整幅圖中的像素?cái)?shù)占比;pi為地物i的像素?cái)?shù);p為圖像像素總數(shù);Ej為中位數(shù)地物j在整幅圖的像素?cái)?shù)占比;Wi為地物i的類(lèi)別權(quán)重。
1.2"通道注意力和空間注意力模塊
通道注意力通過(guò)平均池化對(duì)輸入特征圖的高度(H)、寬度(W)和通道數(shù)(C)進(jìn)行壓縮,將維數(shù)從H×W×C壓縮至1×1×C,使網(wǎng)絡(luò)在通道維度上學(xué)習(xí)更多的相關(guān)性信息;根據(jù)每個(gè)通道的重要程度賦予不同的權(quán)重,提高語(yǔ)義信息的表達(dá)能力。空間注意力機(jī)制通過(guò)對(duì)不同區(qū)域賦予不同的權(quán)重,根據(jù)權(quán)重的大小調(diào)節(jié)模型對(duì)區(qū)域特征的關(guān)注度,增強(qiáng)網(wǎng)絡(luò)的特征學(xué)習(xí)能力,提高深度學(xué)習(xí)模型分類(lèi)精度和效率。本文參照CBAM(convolutional block attention module)殘差結(jié)構(gòu)的設(shè)計(jì)思路[16],完成通道注意力和空間注意力機(jī)制殘差結(jié)構(gòu)設(shè)計(jì):通道注意力對(duì)輸入特征進(jìn)行3×3的卷積運(yùn)算,通過(guò)平均池化和最大池化的壓縮后,得到便于通道學(xué)習(xí)的特征,對(duì)“加”操作結(jié)果使用LeakyReLu(leaky rectified linear unit)激活函數(shù)和Sigmoid函數(shù)映射處理得到通道注意力權(quán)重(圖1a);空間注意力對(duì)輸入特征經(jīng)過(guò)平均池化和最大池化,接著使用LeakyReLu激活函數(shù)和Sigmoid函數(shù)進(jìn)行處理,學(xué)習(xí)到更多的空間特征(圖1b)。
1.3"改進(jìn)的語(yǔ)義分割網(wǎng)絡(luò)
在DeepLabV3+和ResNet50創(chuàng)建的語(yǔ)義分割網(wǎng)絡(luò)的基礎(chǔ)上,采用并行組合方式將通道注意力和空間注意力作為殘差結(jié)構(gòu)融入語(yǔ)義分割網(wǎng)絡(luò),加強(qiáng)模型的特征提取和語(yǔ)義表達(dá)能力。同時(shí),統(tǒng)計(jì)輸入數(shù)據(jù)中各地物要素的像素占比,計(jì)算出各地物的類(lèi)別權(quán)重,將權(quán)重融入分類(lèi)層,使用replace()函數(shù)將帶有權(quán)重的分類(lèi)層替換原有的分類(lèi)層,以提高占比較少地物的識(shí)別精度。改進(jìn)的語(yǔ)義分割網(wǎng)絡(luò)如圖2所示。
1.4"數(shù)據(jù)集和預(yù)處理
1.4.1"實(shí)驗(yàn)數(shù)據(jù)集
實(shí)驗(yàn)采用國(guó)際攝影測(cè)量與遙感學(xué)會(huì)(ISPRS)制作的Vaihingen和Postdam數(shù)據(jù)集,把地物分為建筑物、不透水面、低矮植被、樹(shù)木、背景、汽車(chē)等6個(gè)類(lèi)別。其中:Postdam數(shù)據(jù)集由38個(gè)6 000像素×6 000像素的圖像組成,選擇31個(gè)圖像作為訓(xùn)練集,7個(gè)圖像作為測(cè)試集;Vaihingen數(shù)據(jù)集包含33個(gè)影像,影像的大小稍有不同,選擇27個(gè)圖像作為訓(xùn)練數(shù)據(jù),6個(gè)圖像作為測(cè)試數(shù)據(jù)。
1.4.2"數(shù)據(jù)預(yù)處理
訓(xùn)練樣本數(shù)量直接影響網(wǎng)絡(luò)的特征提取能力。當(dāng)訓(xùn)練樣本數(shù)量不足時(shí),容易出現(xiàn)過(guò)擬合問(wèn)題,通常采用旋轉(zhuǎn)、平移等方式增加樣本數(shù)量;當(dāng)輸入圖像過(guò)大時(shí),容易出現(xiàn)內(nèi)存耗盡、GPU占用過(guò)高的問(wèn)題。本文引入隨機(jī)補(bǔ)片算法,直接輸入大尺寸遙感圖像作為數(shù)據(jù)存儲(chǔ),根據(jù)設(shè)定的補(bǔ)片數(shù)量和大小,即可在遙感圖像和標(biāo)簽的對(duì)應(yīng)位置選取小尺寸圖像作為網(wǎng)絡(luò)訓(xùn)練數(shù)據(jù)。統(tǒng)計(jì)Vaihingen數(shù)據(jù)集和Postdam數(shù)據(jù)集遙感圖像中各地物類(lèi)別的像素?cái)?shù)量和占比,計(jì)算出地物類(lèi)別權(quán)重。利用式(1) (2)計(jì)算出各地物類(lèi)別的像素占比和類(lèi)別權(quán)重。地物類(lèi)別處理結(jié)果如表1所示。
2"實(shí)驗(yàn)與結(jié)果分析
2.1"精度評(píng)價(jià)指標(biāo)
1)像素精度。像素精度是指在預(yù)測(cè)圖像中被正
確分類(lèi)的像素?cái)?shù)量與圖像總像素?cái)?shù)量的比值:
ap=∑ni=0pii∑ni=0∑nj=0pij。(3)
式中:ap為像素精度;n為目標(biāo)類(lèi)別數(shù);pij為本屬于i類(lèi)但被預(yù)測(cè)為j類(lèi)的像素?cái)?shù)量;pii為分類(lèi)正確的像素?cái)?shù)量。
2)平均像素精度。平均像素精度是指當(dāng)預(yù)測(cè)圖像中存在多個(gè)地物類(lèi)別時(shí),計(jì)算每個(gè)類(lèi)別被正確分類(lèi)的像素?cái)?shù)量與該類(lèi)別像素總數(shù)的比值,將各地物類(lèi)別的像素精度求和后,再計(jì)算平均值:
amp=1n+1∑ni=0pii∑nj=0pij。 (4)
式中,amp為平均像素精度。
3)平均交并比。交并比是分類(lèi)精度評(píng)價(jià)的重要指標(biāo),是標(biāo)簽和預(yù)測(cè)圖的交集與并集的比值。當(dāng)標(biāo)簽中有多種地物類(lèi)別時(shí),使用平均交并比來(lái)評(píng)價(jià)分類(lèi)精度。平均交并比將每一個(gè)類(lèi)別的交并比的平均值作為最終結(jié)果:
RMIoU=1n+1∑ni=0pii∑nj=0pij+∑nj=0pji-pii。 (5)
式中,RMIoU為平均交并比。
4)F1值。F1值又被稱(chēng)為邊界輪廓匹配分?jǐn)?shù),用于表征每個(gè)地物類(lèi)別中預(yù)測(cè)邊界與標(biāo)簽邊界的吻合程度。當(dāng)有多個(gè)類(lèi)別時(shí),分別求出每個(gè)類(lèi)別的F1值,再取平均值作為最終結(jié)果:
F1"= 2 P·RP + R。(6)
式中:P為精確度;R為召回率。
2.2"實(shí)驗(yàn)設(shè)計(jì)
為了驗(yàn)證融合注意力機(jī)制和權(quán)重平衡算法的遙感圖像分類(lèi)方法的有效性,對(duì)Postdam數(shù)據(jù)集和Vaihingen數(shù)據(jù)集分別設(shè)計(jì)4個(gè)實(shí)驗(yàn)(表2)進(jìn)行精度驗(yàn)證。Vaihingen數(shù)據(jù)集的4個(gè)對(duì)比實(shí)驗(yàn)為實(shí)驗(yàn)1a、實(shí)驗(yàn)1b、實(shí)驗(yàn)1c、實(shí)驗(yàn)1d,Postdam數(shù)據(jù)集的4個(gè)對(duì)比實(shí)驗(yàn)為實(shí)驗(yàn)2a、實(shí)驗(yàn)2b、實(shí)驗(yàn)2c、實(shí)驗(yàn)2d。Vaihingen數(shù)據(jù)集的實(shí)驗(yàn)1a基于DeepLabV3+和ResNet50創(chuàng)建語(yǔ)義分割網(wǎng)絡(luò),輸入RGB圖像進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練;實(shí)驗(yàn)1b在實(shí)驗(yàn)1a創(chuàng)建語(yǔ)分割網(wǎng)絡(luò)的基礎(chǔ)上,在網(wǎng)絡(luò)中融入地物類(lèi)別權(quán)重進(jìn)行網(wǎng)絡(luò)訓(xùn)練;實(shí)驗(yàn)1c在實(shí)驗(yàn)1a創(chuàng)建的語(yǔ)義分割網(wǎng)絡(luò)基礎(chǔ)上加入注意力機(jī)制模塊進(jìn)行網(wǎng)絡(luò)訓(xùn)練;實(shí)驗(yàn)1d在實(shí)驗(yàn)1c創(chuàng)建的語(yǔ)義分割網(wǎng)絡(luò)的基礎(chǔ)上融入地物類(lèi)別權(quán)重進(jìn)行網(wǎng)絡(luò)訓(xùn)練。Postdam數(shù)據(jù)集的實(shí)驗(yàn)2設(shè)計(jì)與實(shí)驗(yàn)1一致,只是網(wǎng)絡(luò)訓(xùn)練的數(shù)據(jù)集不同。
2.3"網(wǎng)絡(luò)訓(xùn)練
硬件配置:NVIDIA RTX3070Ti顯卡,64 G內(nèi)存,Intel I7-11700K處理器。
網(wǎng)絡(luò)訓(xùn)練:Vaihingen數(shù)據(jù)集和Postdam數(shù)據(jù)集的實(shí)驗(yàn)均使用Win10系統(tǒng)和Matlab2023a軟件,數(shù)據(jù)輸入采用隨機(jī)補(bǔ)片算法,將大尺寸遙感圖像和對(duì)應(yīng)的標(biāo)簽圖像分別作為數(shù)據(jù)存儲(chǔ),隨機(jī)補(bǔ)片大小為224像素×224像素,訓(xùn)練選項(xiàng)使用隨機(jī)梯度下降法;動(dòng)量為0.9;采用分段學(xué)習(xí)法,初始學(xué)習(xí)率為0.01;損失函數(shù)使用交叉熵。網(wǎng)絡(luò)訓(xùn)練設(shè)置為100輪,其中:Vaihingen數(shù)據(jù)集實(shí)驗(yàn)訓(xùn)練100輪,每輪3 000次,共計(jì)迭代300 000次;Postdam數(shù)據(jù)集實(shí)驗(yàn)訓(xùn)練100輪,每輪為4 000次,共計(jì)迭代次數(shù) 400 000次。
2.4"實(shí)驗(yàn)結(jié)果分析
2.4.1"Vaihingen數(shù)據(jù)集實(shí)驗(yàn)結(jié)果
從Vaihingen數(shù)據(jù)集的分類(lèi)結(jié)果(圖3)來(lái)看,4個(gè)對(duì)比實(shí)驗(yàn)的地物識(shí)別率較高,具有良好的識(shí)別精度。受限于地物類(lèi)別數(shù)量占比和網(wǎng)絡(luò)特征學(xué)習(xí)能力,在標(biāo)注的細(xì)節(jié)1和細(xì)節(jié)2位置存在明顯的分類(lèi)精度差異。實(shí)驗(yàn)1a不透水面出現(xiàn)明顯的錯(cuò)分,汽車(chē)的邊界不完整;實(shí)驗(yàn)1b在網(wǎng)絡(luò)中加入地物類(lèi)別權(quán)重,不透水面、汽車(chē)的分類(lèi)精度有明顯的提高,邊界更加完整;實(shí)驗(yàn)1c相較于實(shí)驗(yàn)1a加入通道注意力和空間注意力機(jī)制殘差結(jié)構(gòu),提高了地物的識(shí)別率,不透水面的識(shí)別效果有明顯提升,地物邊界表達(dá)也更加完整;實(shí)驗(yàn)1d相較于實(shí)驗(yàn)1a融合了注意力機(jī)制和權(quán)重平衡算法,地物的識(shí)別效果精度最好,尤其是對(duì)占比較少的汽車(chē)具有明顯的識(shí)別效果。
從分類(lèi)精度指標(biāo)(表3)可以看出,實(shí)驗(yàn)1d的像素精度、平均交并比、平均F1值分別達(dá)到96.66%、90.35%、96.66%,實(shí)驗(yàn)1d相較于實(shí)驗(yàn)1a融合了權(quán)重平衡算法和注意力機(jī)制,分類(lèi)精度有明顯提升,像素精度、平均交并比、平均F1值分別提升1.77%、6.11%、0.85%。從各地物分類(lèi)精度指標(biāo)(表4)可以看出:實(shí)驗(yàn)1d相較于實(shí)驗(yàn)1a精度指標(biāo)提升明顯,針對(duì)像素占比少的汽車(chē)類(lèi)別,像素精度、交并比、F1值分別提高26.44%、11.56%、3.71%;但是從實(shí)驗(yàn)1b和實(shí)驗(yàn)1a的對(duì)比結(jié)果看,使用權(quán)重平衡算法后建筑物的像素精度和交并比分別降低了0.99%和0.63%;從實(shí)驗(yàn)1d與實(shí)驗(yàn)1c的對(duì)比結(jié)果看,建筑物和不透水面的像素精度、交并比、F1值都有所下降,其中不透水面的像素精度下降1.52%,F(xiàn)1值降低1.41%。
2.4.2"Postdam數(shù)據(jù)集實(shí)驗(yàn)結(jié)果
從Postdam數(shù)據(jù)集的4個(gè)實(shí)驗(yàn)分類(lèi)結(jié)果(圖4)看:實(shí)驗(yàn)2b相較于實(shí)驗(yàn)2a融入了權(quán)重平衡算法,在細(xì)節(jié)1位置對(duì)建筑物、汽車(chē)和樹(shù)木的識(shí)別都有提升;實(shí)驗(yàn)2c相較于實(shí)驗(yàn)2a加入了注意力機(jī)制,各種地物的表達(dá)更精細(xì);實(shí)驗(yàn)2d相較于實(shí)驗(yàn)2c在融合注意力機(jī)制的基礎(chǔ)上加入權(quán)重平衡算法,對(duì)地物邊界表達(dá)更加細(xì)膩,尤其是樹(shù)木的分類(lèi)效果提升明顯。
從分類(lèi)精度(表3)可以看出,實(shí)驗(yàn)2d的像素精度、平均交并比、平均F1分別達(dá)到95.74%、81.47%、91.82%;實(shí)驗(yàn)2d相較于實(shí)驗(yàn)2a融合了權(quán)重平衡算法和注意力機(jī)制,分類(lèi)精度有明顯提升,像素精度、平均交并比、平均F1值分別提升3.01%、9.59%、11.43%。從各地物分類(lèi)精度指標(biāo)(表4)可以看出:實(shí)驗(yàn)2d相較于實(shí)驗(yàn)2a對(duì)建筑物、汽車(chē)、樹(shù)木等類(lèi)別的精度指標(biāo)提升明顯,尤其是像素占比少的汽車(chē)類(lèi)別,像素精度、交并比、F1值分別提高21.84%、11.56%、5.73%;但是從實(shí)驗(yàn)2b和實(shí)驗(yàn)2a的對(duì)比結(jié)果看,使用權(quán)重平衡算法后不透水面的像素精度和交并比分別降低了0.56%和2.42%;從實(shí)驗(yàn)2d與實(shí)驗(yàn)2c的對(duì)比結(jié)果看,不透水面的像素精度、交并比、F1值都有所下降,其中不透水面的像素精度值下降0.87%,交并比降低1.36%,F(xiàn)1值降低2.29%。
3"結(jié)論
本文綜合DeepLabV3+的空洞卷積和ResNet50的殘差結(jié)構(gòu)優(yōu)勢(shì),采用隨機(jī)補(bǔ)片優(yōu)化策略,支持大尺寸圖像輸入,同時(shí)融合注意力機(jī)制和權(quán)重平衡算法,在保證較高識(shí)別精度的前提下,提高小類(lèi)別地物的識(shí)別精度。
1)直接輸入大尺寸的遙感圖像,在遙感圖像中創(chuàng)建虛擬隨機(jī)補(bǔ)片,給語(yǔ)義分割網(wǎng)絡(luò)提供足夠的訓(xùn)練樣本,同時(shí)避免圖像切割導(dǎo)致的特征損失,取得較好的分類(lèi)精度。
2)從實(shí)驗(yàn)1和實(shí)驗(yàn)2的分類(lèi)結(jié)果可以看出,地物類(lèi)別權(quán)重平衡算法改變了卷積神經(jīng)網(wǎng)絡(luò)對(duì)主導(dǎo)類(lèi)別的傾向性,提升了小類(lèi)別地物的分類(lèi)精度,地物類(lèi)別差異越大,分類(lèi)效果提升越明顯;注意力機(jī)制加強(qiáng)了對(duì)有用信息的關(guān)注度,忽略了無(wú)關(guān)信息,在主干網(wǎng)絡(luò)中融入通道注意力和空間注意力殘差模塊,提高了網(wǎng)絡(luò)的特征提取能力。經(jīng)過(guò)以上算法改進(jìn),有效提高遙感圖像分類(lèi)的準(zhǔn)確率,降低了地物分類(lèi)的虛警率和漏檢率。
3)雖然在實(shí)驗(yàn)中取得了較高的地物分類(lèi)精度,該方法還存在一些不足,比如融合權(quán)重平衡算法會(huì)影響占比高的地物分類(lèi)精度、分類(lèi)后的地物邊界存在碎斑、某些地物存在鋸齒狀邊界等,需要在后續(xù)研究中改進(jìn)。
參考文獻(xiàn)(References):
[1] Liu Z, Wang M, Wang F, et al. A Residual Attention and Local Context-Aware Network for Road Extraction from High-Resolution Remote Sensing Imagery[J]. Remote Sensing, 2021, 13: 4958.
[2] 沈秭揚(yáng),倪歡,管海燕. 遙感圖像跨域語(yǔ)義分割的無(wú)監(jiān)督域自適應(yīng)對(duì)齊方法[J]. 測(cè)繪學(xué)報(bào),2023, 52(12): 2115-2126.
Shen Ziyang, Ni Huan, Guan Haiyan. Unsupervised Domain Adaptation Alignment Method for Cross Domain Semantic Segmentation of Remote Sensing Images[J]. Acta Geodaetica et Cartographica Sinica, 2023, 52(12): 2115-2126.
[3] 馬震環(huán),高洪舉,雷濤. 基于增強(qiáng)特征融合解碼器的語(yǔ)義分割算法[J]. 計(jì)算機(jī)工程,2020, 46(5): 254-258, 266.
Ma Zhenhuan, Gao Hongju, Lei Tao. Semantic Segmentation Algorithm Based on Enhanced Feature Fusion Decoder[J]. Computer Engineering, 2020, 46(5): 254-258, 266.
[4] Liu Z, Wang M, Wang F, et al. A Dual-Channel Fully Convolutional Network for Land Cover Classification Using Multifeature Information[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2022, 15: 2099-2109.
[5] Chen S B, Wei Q S, Wang W Z. Remote Sensing Scene Classification via Multi-Branch Local Attention Network[J]. IEEE Transactions on Image Processing, 2021, 31: 99-109.
[6] 謝樹(shù)春,陳志華,盛斌. 增強(qiáng)細(xì)節(jié)的RGB-IR多通道特征融合語(yǔ)義分割網(wǎng)絡(luò)[J]. 計(jì)算機(jī)工程,2022, 48(10): 230-237, 244.
Xie Shuchun, Chen Zhihua, Sheng Bin. Detail-Enhanced RGB-IR Multichannel Feature Fusion Network for Semantic Segmentation[J]. Computer Engineering, 2022, 48(10): 230-237, 244.
[7] 王明常,朱春宇,陳學(xué)業(yè),等. 基于FPN Res-Unet的高分辨率遙感影像建筑物變化檢測(cè)[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2021, 51(1): 296-306.
Wang Mingchang, Zhu Chunyu, Chen Xueye, et al. Building Change Detection in High Resolution Remote Sensing ImagesBased on FPN Res-Unet[J]. Journal of Jilin University (Earth Science Edition), 2021, 51(1): 296-306.
[8] 王民水,孔祥明,陳學(xué)業(yè),等. 基于隨機(jī)補(bǔ)片和DeepLabV3+的建筑物遙感圖像變化檢測(cè)[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2021, 51(6): 1932-1938.
Wang Minshui, Kong Xiangming, Chen Xueye, et al. Remote Sensing Image Change Detection Based on Random Patches and DeepLabV3+[J]. Journal of Jilin University (Earth Science Edition), 2021, 51(6): 1932-1938.
[9] Guo M Q, Liu H, Xu Y Y, et al. Building Extraction Based on U-Net with an Attention Block and Multiple Losses[J]. Remote Sensing, 2020, 12(9): 1400.
[10] 張立亭,夏文生,羅亦泳,等. 改進(jìn)雙重注意力機(jī)制結(jié)合ResNet50的遙感圖像分類(lèi)[J]. 測(cè)繪科學(xué),2023, 48(4): 98-105.
Zhang Liting, Xia Wensheng, Luo Yiyong, et al. Improved Double Attention Mechanism Combined with ResNet50 for Remote Sensing Image Classification[J]. Science of Surveying and Mapping, 2023, 48(4): 98-105.
[11] Yu S, Wang X L. Remote Sensing Building Segmentation by CGAN with Multilevel Channel Attention Mechanism [J]. Journal of Image and Graphics, 2021, 26(3): 686-699.
[12] Men H,Yuan H C,Shi Y,et al. A Residual Network with Attention Module for Hyperspectral Information of Recognition to Trace the Origin of Rice[J]. Spectrochimica Acta: Part A: Molecular and Biomolecular Spectroscopy, 2021, 263: 120155.
[13] 程曉悅,趙龍章,胡穹,等. 基于密集層和注意力機(jī)制的快速語(yǔ)義分割[J]. 計(jì)算機(jī)工程,2020, 46(4): 247-252, 259.
Cheng Xiaoyue, Zhao Longzhang, Hu Qiong, et al. Fast Semantic Segmentation Based on Dense Layer and Attention Mechanism[J]. Computer Engineering, 2020, 46(4): 247-252, 259.
[14] 高康哲,王鳳艷,劉子維,等. 基于改進(jìn)U-Net網(wǎng)絡(luò)的遙感圖像語(yǔ)義分割[J]. 吉林大學(xué)學(xué)報(bào)(地球科學(xué)版),2024, 54(5): 1752-1763.
Gao Kangzhe, Wang Fengyan, Liu Ziwei, et al. Semantic Segmentation of Remote Sensing Images Based on Improved U-Net Network[J]. Journal of Jilin University (Earth Science Edition), 2024, 54(5): 1752-1763.
[15] 范迎迎,張姍姍. 基于深度主動(dòng)學(xué)習(xí)的高光譜遙感圖像分類(lèi)方法[J]. 東北師大學(xué)報(bào)(自然科學(xué)版),2022, 54(4): 64-70.
Fan Yingying, Zhang Shanshan. Hyper Spectral Remote Sensing Image Classification Method Based on Deepactive Learning[J]. Journal of Northeast Normal University (Natural Science Edition), 2022, 54(4): 64-70.
[16] Woo S, Park J, Lee J Y,et al. CBAM: Convolutional Block Attention Module[C]// Ferrari V, Hebert M, Sminchisescu C, et al. Computer Vision: ECCV 2018. [S. l.]: Springer Cham, 2018: 3-19.