鄭泰皓, 王慶濤,, 李家國(guó), 鄭逢斌, 張永紅, 張 寧
(1.河南大學(xué)計(jì)算機(jī)與信息工程學(xué)院, 開封 475000; 2.中國(guó)科學(xué)院遙感與數(shù)字地球研究所, 北京 100020;3.中華人民共和國(guó)住房和城鄉(xiāng)建設(shè)部城鄉(xiāng)管理規(guī)劃中心, 北京 100835)
遙感能動(dòng)態(tài)監(jiān)測(cè)地表信息,被廣泛應(yīng)用于環(huán)境檢測(cè)、資源探測(cè)、生態(tài)研究、測(cè)繪制圖和軍事指揮等眾多領(lǐng)域[1]。近二十年來,遙感技術(shù)飛速發(fā)展,及時(shí)、精確地從遙感影像上提取水體信息已經(jīng)成為水資源調(diào)查監(jiān)控的重要手段[2]。
目前,中外在水體自動(dòng)提取方面已經(jīng)提出了多種方法,如單波段閾值法、水體指數(shù)法[3]、多波段譜間關(guān)系法[4-5]、決策樹法[6]、指數(shù)法等,其中對(duì)水體指數(shù)法、多波段譜間關(guān)系法、決策樹法的研究較多,應(yīng)用也比較成熟。但隨著影像中地物信息量的增加,傳統(tǒng)水體分類方法在精度和效率上漸漸不能滿足一些高精度的生產(chǎn)需求。
卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks, CNN)是在遙感影像領(lǐng)域應(yīng)用非常成功的一種深度學(xué)習(xí)網(wǎng)絡(luò),它擺脫了人工計(jì)算影像特征的步驟,直接從遙感影像中學(xué)習(xí)光譜、紋理、邊緣等特征,有效解決高維、海量數(shù)據(jù)提取和分類的問題。研究人員基于深度學(xué)習(xí)對(duì)土地利用分類[7-8]、地面目標(biāo)檢測(cè)[9-10]、城市建筑提取[11]等方面進(jìn)行了相關(guān)研究。全卷積神經(jīng)網(wǎng)絡(luò)將傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)的全連接層替換為卷積層,在圖像分割領(lǐng)域的應(yīng)用效果,遠(yuǎn)遠(yuǎn)超過了傳統(tǒng)的圖像分割方法[12]。陳睿敏等[13]基于RIT-18數(shù)據(jù)集,利用全卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行了道路、水體、農(nóng)田等的提取,取得了較高的精度;劉笑等[14]基于資源三號(hào)衛(wèi)星影像,研究了遙感影像道路提取方法,取得了較好的效果。
高分號(hào)(GF-6)衛(wèi)星是中國(guó)2018年發(fā)射的國(guó)產(chǎn)衛(wèi)星,關(guān)于其應(yīng)用潛力的研究逐漸成為一大熱點(diǎn)。以GF-6衛(wèi)星PMS遙感影像為數(shù)據(jù)源,分別構(gòu)建全卷積神經(jīng)網(wǎng)絡(luò)(FCN-8s)、U-Net及U-Net優(yōu)化(VGGUnet1、VGGUnet2)4種神經(jīng)網(wǎng)絡(luò)進(jìn)行水體提取研究,提出組合損失函數(shù)FD-water loss并應(yīng)用于VGGUnet1,以進(jìn)一步提高水體識(shí)別的效果,減少水體的誤分和漏分。
為了探究高分六號(hào)多光譜相機(jī)在不同類型地表水體中的應(yīng)用能力,選擇撫仙湖、官廳水庫、太湖、黃河(山西段)、深圳市5個(gè)區(qū)域作為研究對(duì)象,涵蓋了清潔水體、一般水體、渾濁水體、富營(yíng)養(yǎng)化水體、黑臭水體、近岸海水6種不同類型的水體。各研究區(qū)概況及數(shù)據(jù)源如表1所示。
GF-6衛(wèi)星具有大角度、高質(zhì)量成像、高效能成像等特點(diǎn),能夠在較短的時(shí)間段內(nèi)獲取大區(qū)域多時(shí)相遙感影像。GF-6衛(wèi)星軌道高度760 km,重返周期4d,其多光譜數(shù)據(jù)空間分辨率為8 m,具有藍(lán)、綠、紅、近紅外4個(gè)波段,波長(zhǎng)范圍分別為450~520、520~590、630~690、770~890 nm;全色數(shù)據(jù)分辨率為2 m,波長(zhǎng)范圍450~900 nm。訓(xùn)練數(shù)據(jù)集所采用的影像產(chǎn)品序列號(hào)如表 1所示。
研究流程如圖 1所示。
表1 研究區(qū)概況及數(shù)據(jù)源Table 1 Research area overview and data source
圖1 研究流程Fig.1 Research flow
對(duì)GF-6衛(wèi)星影像進(jìn)行了正射校正、影像配準(zhǔn)、多光譜/全色融合等預(yù)處理。
采用ENVI正射校正流程化工具對(duì)影像進(jìn)行正射校正。設(shè)置多光譜影像分辨率為8 m,全色影像分辨率為2 m,重采樣方式為3次卷積內(nèi)插法(cubic convolution),數(shù)字高程模型(digital elevation model,DEM)數(shù)據(jù)為完整的遙感圖像處理平臺(tái)(the environment for visualizing images,ENVI)自帶的“GMTED2010.jp2”;采用ENVI自動(dòng)配準(zhǔn)流程化工具,以全色數(shù)據(jù)為基準(zhǔn)對(duì)多光譜數(shù)據(jù)進(jìn)行配準(zhǔn);采用ENVI 的NNDiffusePanSharpening工具對(duì)配準(zhǔn)后的全色/多光譜影像進(jìn)行融合。預(yù)處理后影像分辨率2 m,每景約25 G。
水體標(biāo)注包含兩個(gè)步驟:①先使用ENVI的基于特征分類工具(example based feature extraction workflow)進(jìn)行水體粗提取,設(shè)置分類閾值(threshold)為100,對(duì)水體進(jìn)行初步標(biāo)注;②用目視解譯的方式,進(jìn)行增、刪、改等操作,確保所標(biāo)注的水體邊界正確且完整。水體標(biāo)注結(jié)果采用tif進(jìn)行存儲(chǔ),數(shù)據(jù)格式為GDAL_BYTE格式,水體值設(shè)為1,背景值設(shè)置為0,波段數(shù)為1。以局部影像(官廳水庫)為例,原始影像及對(duì)應(yīng)水體標(biāo)注結(jié)果分別如圖2(a)、圖2(b)所示。
將影像及水體區(qū)域tif,進(jìn)行224×224隨機(jī)采樣,對(duì)采樣得到的樣本數(shù)據(jù)進(jìn)行90°、180°、270°旋轉(zhuǎn)及水平、垂直翻轉(zhuǎn)等數(shù)據(jù)集增強(qiáng)操作,以增加模型的魯棒性。最終得到樣本數(shù)據(jù)集161 622對(duì),其中隨機(jī)取26 937對(duì)作為驗(yàn)證數(shù)據(jù)集,134 685對(duì)作為訓(xùn)練數(shù)據(jù)集。
圖2 影像(局部)及對(duì)應(yīng)水體標(biāo)注結(jié)果Fig.2 Image (partial) and water body labeling results
2.2.1 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)模型均由輸入層、卷積層、池化層、全連接層、softmax層等部分組成,通過局部連接、參數(shù)共享等方式大大減少了網(wǎng)絡(luò)參數(shù)量,降低了復(fù)雜度,提升了網(wǎng)絡(luò)的效率和準(zhǔn)確度。以AlexNet[15]為例,AlexNet的隱含層包含5個(gè)卷積層、3個(gè)池化層和3個(gè)全鏈接層,網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,網(wǎng)絡(luò)比較復(fù)雜,可分為上下兩個(gè)子網(wǎng)絡(luò),兩子網(wǎng)絡(luò)是分別對(duì)應(yīng)兩個(gè)圖形處理器(graphics processing unit, GPU),只有到了特定的網(wǎng)絡(luò)層后才需要兩塊GPU進(jìn)行交互,網(wǎng)絡(luò)結(jié)構(gòu)上差異不很大,以下層子網(wǎng)絡(luò)的為例:第一層輸入為224×224×3的圖像,卷積核的數(shù)量為48個(gè),卷積核的大小為11×11×3;步長(zhǎng)(stride)為4,采用不擴(kuò)充邊緣方式卷積,卷積后得到55×55×96個(gè)像素層;池化方式為最大池化(max pooling),池化尺度為3×3,步長(zhǎng)為2,池化后的尺寸為=27;最后為3個(gè)全連接層,第一個(gè)卷積層通過4 096個(gè)6×6×256的卷積核輸出4 096個(gè)本層的輸出結(jié)果值,之后類似生成最終的1 000個(gè)結(jié)果,即為預(yù)測(cè)種類的概率卷積神經(jīng)網(wǎng)絡(luò)得到的是輸入圖像的一個(gè)數(shù)值描述的概率值,即從二維矩陣壓縮為一維,丟失了空間坐標(biāo),并不適用于像素級(jí)的分類任務(wù)。因此Long等提出了全卷積網(wǎng)絡(luò)(fully convolutional network,FCN)[16],Ronneberger等[17]提出了U-Net。
圖3 AlexNet結(jié)構(gòu)Fig.3 AlexNet structure
2.2.2 全卷積網(wǎng)絡(luò)
FCN是在卷積神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上提出的,基于像素級(jí)別的圖像分類網(wǎng)絡(luò),解決了語義級(jí)別的圖像分割問題。FCN將傳統(tǒng)的CNN 模型的全連接層轉(zhuǎn)化成一個(gè)個(gè)卷積層,這樣所有的層都是卷積層,故稱為全卷積網(wǎng)絡(luò)。FCN包括卷積化、上采樣(反卷積) 和跳層結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)如圖 4所示。
圖4 FCN結(jié)構(gòu)Fig.4 FCN strcture
(1)卷積化。在AlexNet結(jié)構(gòu)中,前5層是卷積層,第6層和第7層分別是一個(gè)長(zhǎng)度為4 096的一維向量,第8層是長(zhǎng)度為1 000的一維向量,分別對(duì)應(yīng)1 000個(gè)不同類別的概率。FCN將傳統(tǒng)CNN模型中的全連接層改為卷積層,將第6、7、8層分別表示為卷積層,卷積核(通道數(shù)、寬、高)分別為(4 096*1*1)、(4 096*1*1)及(1 000*1*1)。
(2)上采樣。FCN-8s模型經(jīng)過多次卷積和池化之后,得到的圖像越來越小,分辨率越來越低。FCN為了得到原始影像像素的分類信息,使用上采樣(deconvolution)實(shí)現(xiàn)尺寸還原,輸出同分辨率的分割圖像。上采樣選用雙線性插值反卷積[18]方法。
(3)跳層結(jié)構(gòu)。從32 倍下采樣的圖像直接上采樣插值到原始圖像大小,信息量損失較大,結(jié)果較粗糙,只能表示出對(duì)象的大致形狀。Long等[16]將第4層的輸出和第3層的輸出依次進(jìn)行反卷積,分別為16倍和8倍的上采樣,從而得到了更加精細(xì)的分割結(jié)果。如圖 4所示,將conv7層的輸出經(jīng)過N*1*1卷積后直接上采樣至image大小,得到32倍上采樣預(yù)測(cè)(32×upsampled prediction,FCN-32s);將conv7層的輸出經(jīng)過N*1*1卷積后進(jìn)行2倍上采樣,并與conv4層的輸出經(jīng)過N*1*1卷積后進(jìn)行相加操作,得到16倍上采樣預(yù)測(cè)(16×upsampled prediction,FCN-16s);同理可得到8倍上采樣預(yù)測(cè)(8×upsampled prediction,FCN-8s)。
FCN可接受任意大小的輸入影像,不要求所有的訓(xùn)練圖像和測(cè)試圖像具有同樣的尺寸,且避免了由于使用像素塊而帶來的重復(fù)存儲(chǔ)和計(jì)算卷積的過程,更加高效。采用效果較好的8×upsampled prediction(FCN-8s)進(jìn)行水體提取試驗(yàn)。
2.2.3 U-Net網(wǎng)絡(luò)
U-Net網(wǎng)絡(luò)是基于FCN改進(jìn)得到的一種全卷積網(wǎng)絡(luò),其結(jié)構(gòu)類似于U型,因此稱為U-Net。U-Net網(wǎng)絡(luò)結(jié)構(gòu)由收縮路徑和擴(kuò)張路徑兩部分組成,收縮路徑部分進(jìn)行特征提取,擴(kuò)張路徑部分進(jìn)行反采樣。收縮路徑部分由2個(gè)3*3卷積層和1個(gè)2*2最大池化層組成的塊重復(fù)搭建完成;擴(kuò)張路徑部分先進(jìn)行2*2的反卷積,使特征圖的維數(shù)減半,然后與對(duì)應(yīng)的特征圖(裁剪后)串聯(lián)起來,再接2個(gè)3*3卷積層,并重復(fù)這一結(jié)構(gòu);在最后一層及輸出層,通過1*1卷積核及softmax激活函數(shù)將特征圖映射成所需的種類。U-Net在上采樣部分加入了復(fù)制和裁剪通道,使網(wǎng)絡(luò)能夠?qū)⑸舷挛男畔臏\層傳遞到更高分辨率的層。這種結(jié)構(gòu)使得U-Net和全卷積神經(jīng)網(wǎng)絡(luò)同樣得到一幅分割圖,但是前者的每個(gè)像素都包含了原圖的上下文信息,使其對(duì)小目標(biāo)分割具有更佳的效果。Ronneberger提出的U-Net采用VGGNet13的前10層作為U-Net的收縮路徑部分[17-18],網(wǎng)絡(luò)模型結(jié)構(gòu)示意圖如圖 5所示。
2.2.4 U-Net網(wǎng)絡(luò)優(yōu)化
為了更有效地挖掘數(shù)據(jù)的特征,并減少模型的參數(shù)量,對(duì)U-Net模型進(jìn)行優(yōu)化,構(gòu)建VGGUnet1模型,采用更深層次VGGNet16的前13層作為U-Net的收縮路徑部分,同時(shí)擴(kuò)張路徑部分減少了反卷積層數(shù)。構(gòu)建的VGGUnet1網(wǎng)絡(luò)模型結(jié)構(gòu)如圖6所示。
input image為輸入圖像;channels為通道;prediction為預(yù)測(cè)圖5 U-Net結(jié)構(gòu)Fig.5 U-Net structure
為對(duì)比低層次特征對(duì)分割結(jié)果的影響,構(gòu)建VGGUnet2模型,該模型取消了VGGUnet1中第4層連接層。
2.2.5 損失函數(shù)
基于像素的交叉熵?fù)p失函數(shù)(pixel-wise cross-entropy loss)是圖像分割任務(wù)中最常用的損失函數(shù),被采用在原始U-Net網(wǎng)絡(luò)結(jié)構(gòu)中。該損失單獨(dú)地檢查每個(gè)像素點(diǎn),將類預(yù)測(cè)(深度方向的像素矢量)與one-hot編碼的目標(biāo)矢量進(jìn)行比較,定義為
圖6 VGGUnet1結(jié)構(gòu)Fig.6 VGGUnet1 structure
(1)
式(1)中:yi,j為預(yù)測(cè)結(jié)果;ti,j為真實(shí)值;i表示第i個(gè)像素點(diǎn);j為類別信息。交叉熵?fù)p失函數(shù)可以衡量yi,j與ti,j的相似性,當(dāng)yij與ti,j接近時(shí),loss接近于0。
交叉熵?fù)p失函數(shù)單獨(dú)評(píng)估每個(gè)像素矢量的分類預(yù)測(cè),然后對(duì)所有像素求平均值,所以如果各種類在圖像分布不平衡時(shí),這會(huì)使訓(xùn)練過程將受像素最多的類所支配。
構(gòu)建FD-water loss損失函數(shù),以改善正負(fù)樣本不均衡帶來的損失函數(shù)收斂緩慢甚至無法優(yōu)化至最優(yōu)的問題。
FL(focal loss)[19]是解決分類問題中類別不平衡、分類難度存在差異的損失函數(shù)。
對(duì)于2分類語義分割中的FL,可表示為
(2)
式(2)中:pn為預(yù)測(cè)值;rn為樣本真值;α、γ均為參數(shù);α為平衡因子,用來平衡正負(fù)樣本本身的比例不均。
當(dāng)一個(gè)樣本被錯(cuò)誤分類且pn很小時(shí),認(rèn)為它是難區(qū)分樣本,調(diào)節(jié)因子(1-pn)接近于1,此時(shí)loss可認(rèn)為不受(1-pn)影響;當(dāng)pn→1,認(rèn)為它是易區(qū)分樣本,調(diào)節(jié)因子(1-pn) →0,此時(shí)loss將降低易區(qū)分樣本的權(quán)重。γ參數(shù)調(diào)節(jié)簡(jiǎn)單易分樣本權(quán)重下降的速度。當(dāng)γ=0,FL2就是交叉熵?fù)p失函數(shù),隨著γ的增大,調(diào)制因子(1-pn)的作用也隨之增大。
Dice loss是針對(duì)前景比例太小的問題提出的,dice系數(shù)源于二分類,本質(zhì)上是衡量?jī)蓚€(gè)樣本的重疊部分[20]。對(duì)于2分類語義分割中dice loss(DL2)表達(dá)式為
(3)
式(3)中:N為總像素個(gè)數(shù);pn為預(yù)測(cè)結(jié)果;rn為樣本真值;ε為調(diào)節(jié)參數(shù),避免分母為0。
構(gòu)建的FD-WL(FD-water loss)表達(dá)式為
FD-WL=FL2+DL2
(4)
函數(shù)結(jié)合了FL與DL優(yōu)勢(shì),降低了簡(jiǎn)單負(fù)樣本(背景)在訓(xùn)練中所占的權(quán)重,同時(shí)增強(qiáng)了模型對(duì)于小區(qū)域水體的提取能力。經(jīng)多次實(shí)驗(yàn),α=0.25,γ=2.0,ε=0.000 05時(shí),提取效果較優(yōu)。
由于采用面向像素的語義分割網(wǎng)絡(luò),水體提取的結(jié)果難免存在小范圍的噪聲,比如孤立的像素點(diǎn)及孔洞等,這可能是影像本身存在數(shù)值異常的像素或模型本身等造成的。通過應(yīng)用形態(tài)學(xué)的知識(shí),對(duì)小于一定閾值的孤立像素點(diǎn)進(jìn)行抹除,對(duì)小于一定閾值的孔洞進(jìn)行填充,可改善噪聲帶來的影響。經(jīng)實(shí)驗(yàn)及觀測(cè),閾值選擇8個(gè)像素面積時(shí)較為合適,可進(jìn)一步提高水體提取的精度。
形態(tài)學(xué)中腐蝕的表達(dá)式為
XΘB={x|(B)x?X}
(5)
形態(tài)學(xué)中膨脹的表達(dá)式為
X⊕B={x|(Bv)x∩X≠?}
(6)
式中:X為目標(biāo)圖像;B為結(jié)構(gòu)元素;Bv為B的對(duì)稱集;x表示集合平移的位移量;Θ為腐蝕運(yùn)算的運(yùn)算符;⊕為膨脹運(yùn)算的運(yùn)算符。
形態(tài)學(xué)中開運(yùn)算為先腐蝕再膨脹,閉運(yùn)算為先膨脹再腐蝕。對(duì)圖像進(jìn)行開運(yùn)算和閉運(yùn)算的效果如圖7所示。
圖7 開運(yùn)算與閉運(yùn)算效果Fig.7 Effects of open and close operation
實(shí)驗(yàn)采用Jaccard指數(shù)(JAC)、精確率(Precision)及召回率(Racall)進(jìn)行精度評(píng)價(jià)。Jaccard指數(shù)表達(dá)式為
(7)
精確率表達(dá)式為
(8)
召回率表達(dá)式為
(9)
式中:A表示模型提取水體的結(jié)果;B表示水體標(biāo)注的結(jié)果,二者均為二值柵格;Jaccard指數(shù)越接近1,說明集合A與B的交集越大、A與B越相似,提取效果越好;TP為提取為水且水體標(biāo)注結(jié)果也為水的像素集合;FP為提取為水但水體標(biāo)注結(jié)果為背景的像素集合,即水體錯(cuò)分集合;FN為提取為背景水體標(biāo)注結(jié)果為水的像素集合,即水體漏分集合。水體提取的Precision越高說明提取的精度越高,Racall越高說明提取的丟失率越小,漏分越少。
實(shí)驗(yàn)基于Windows Server 2016操作系統(tǒng),內(nèi)存16G,顯卡為NVIDIA Quadro P2000,顯存5G。
選取三景預(yù)處理后的GF-6 PMS影像作為驗(yàn)證區(qū)影像,景號(hào)分別為L(zhǎng)1A1119837349(山東煙臺(tái)市地區(qū))、L1A1119844867(云南昆明市地區(qū))、L1A1119839138(云南大理市地區(qū))等。驗(yàn)證區(qū)影像及對(duì)應(yīng)的水體標(biāo)注結(jié)果如圖 8所示,其中L1A1119837349大小為57 820×55 008像素,L1A1119844867大小為55 928×53 088像素,L1A1119839138大小為55 836×52 800。圖8(b)中黑色部分為背景,白色部分為水體。
由于預(yù)處理后影像較大,將每幅驗(yàn)證區(qū)影像裁為了4塊,每塊大小約23 000*23 000像素,上下或左右相鄰的塊之間保留60行或60列像素的重疊部分。
采用滑動(dòng)窗口對(duì)分塊后影像進(jìn)行水體提取,滑動(dòng)窗口的大小為224*224像素,步長(zhǎng)為164*164像素。當(dāng)像素處于分塊后影像的邊緣或分塊后影像所剩不足滑窗大小時(shí),對(duì)分塊后影像進(jìn)行邊緣鏡像擴(kuò)充。將滑動(dòng)窗口內(nèi)的影像依次讀入網(wǎng)絡(luò)進(jìn)行預(yù)測(cè)。
圖9 建筑陰影混合條件下水體提取結(jié)果Fig.9 Water extraction under mixed conditions of building shadow
3.2.1 基于交叉熵?fù)p失函數(shù)的模型優(yōu)選
將每個(gè)滑窗內(nèi)影像的提取結(jié)果舍棄四周30像素后進(jìn)行拼接,得到每塊影像的提取結(jié)果;然后對(duì)每塊提取結(jié)果的重疊部分取交集得到整張影像的水體提取結(jié)果;最后進(jìn)行形態(tài)學(xué)處理得到最終水體提取結(jié)果。
為方便觀察對(duì)比,對(duì)最終提取結(jié)果進(jìn)行了矢量化處理。圖9~圖11給出各模型提取后的局部結(jié)果對(duì)比。
圖10 不同水深影響條件下水體提取結(jié)果Fig.10 Water extraction under different water depths
圖11 不同大小水體斑塊混雜條件下水體提取結(jié)果Fig.11 Water extraction under mixed conditions of water bodies in different areas
從圖9可以看出,FCN-8s的提取結(jié)果中存在較多的建筑陰影被誤判為水體,U-Net的提取結(jié)果中陰影的誤分已經(jīng)大為減少,改進(jìn)后的VGGUnet1、VGGUnet2中陰影的誤分進(jìn)一步減少,此外FCN-8s在框2處河道水體處在較多的漏分,VGGUnet1的提取結(jié)果較為理想。圖10中,由于河流深度的不同,影像水體部分存在著一定的色差,從結(jié)果來看,本文所用的各模型的對(duì)于水體與河堤、橋梁的邊界識(shí)別比較清晰,對(duì)于不同顏色水體的提取效果較好,但在沙灘與水體(框1處)的交界處提取能力存在差異,VGGUnet1的提取結(jié)果較好。圖10框2處、圖11框1處可以發(fā)現(xiàn),即使提取效果較好的VGGUnet1,對(duì)于小面積水體扔存在漏分的現(xiàn)象。
使用Jaccard指數(shù)、精確率、召回率對(duì)各模型的水體提取結(jié)果進(jìn)行精度評(píng)價(jià)。各模型提取結(jié)果精度如表2所示。綜合對(duì)識(shí)別示例的分析,VGGUnet1對(duì)于水體提取的效果較優(yōu),提取水體結(jié)果的Jaccard指數(shù)為0.939 787,精確率為94.66%,召回率為94.25%。
3.2.2 FD-Water loss對(duì)水體提取的提升
從VGGUnet1的水體提取結(jié)果中發(fā)現(xiàn),采用交叉熵?fù)p失函數(shù)的VGGUnet1對(duì)于小面積水體存在漏分。因此構(gòu)建了FD-water loss,減少簡(jiǎn)單負(fù)樣本的權(quán)重,提升小面積水體對(duì)損失函數(shù)的貢獻(xiàn)。圖12為采用FD-water loss 的水體提取結(jié)果對(duì)比,同時(shí)選擇了閾值法(NDWI閾值法)、監(jiān)督分類法(最大似然分類法、支持向量機(jī)分類)等方法進(jìn)行了實(shí)驗(yàn)結(jié)果的對(duì)比分析,對(duì)比結(jié)果如表3所示。
表2 各模型水體提取對(duì)比Table 2 Comparison of water extraction of each model
從圖12框1處可以看出,采用FD-water loss后的VGGUnet1對(duì)于小面積水體的識(shí)別能力有著明顯的改善,但是仍有部分小面積水體沒有得到識(shí)別。經(jīng)統(tǒng)計(jì)分析,當(dāng)VGGUnet1+FD-water loss模型提取的水體像素面積大于164時(shí),提取水體與水體標(biāo)注結(jié)果較為一致,此時(shí)水體實(shí)際面積為656 m2。
圖12 不同損失函數(shù)條件下VGGUnet1水體提取結(jié)果Fig.12 Water extraction of VGGUnet1 under different loss functions
圖13 建筑陰影混合條件下3種對(duì)比算法水體提取結(jié)果Fig.13 Water extraction of three comparison algorithms under mixed conditions of building shadow
圖14 不同水深影響條件下3種對(duì)比算法提取結(jié)果Fig.14 Water extraction of three comparison algorithms under conditions of different water depths
表3 各模型水體提取對(duì)比Table 3 Comparison of water extraction of each model
從圖13、圖14可以看出,NDWI閾值法的水體提取精度較差,主要表現(xiàn)為NDWI閾值法將大面積的陰影誤分為水體,且在整副影像中的水體提取中,幾乎難以確定一個(gè)合適的閾值,精確率僅為75.76%,但是當(dāng)閾值設(shè)置比較大時(shí),NDWI漏分較少,召回率達(dá)到了93.76%;最大似然分類仍存在較多陰影的誤分,但是漏分情況較NDWI閾值法有所增加,精確率為86.21%,召回率為89.32%;支持向量機(jī)(support vector machine,SVM)分類法的陰影誤分較少,且漏分情況也有所改善,精確率為92.01%,召回率為91.72%;構(gòu)建的基于FD-water loss損失函數(shù)的VGGUnet1網(wǎng)絡(luò)模型精確率為98.06%,召回率為97.81%,大大減少了陰影的誤分以及水體的漏分,可獲得較優(yōu)的提取結(jié)果。
制作了GF-6衛(wèi)星 PMS影像水體數(shù)據(jù)集,通過FCN-8s、U-Net、VGGUnet1、VGGUnet2這種模型對(duì)GF-6衛(wèi)星PMS影像進(jìn)行了水體自動(dòng)提取的研究,提出了基于FD-water loss的VGGUnet1網(wǎng)絡(luò)模型。經(jīng)實(shí)驗(yàn)結(jié)果對(duì)比分析,得到如下結(jié)論。
(1)基于像素的交叉熵?fù)p失函數(shù)的FCN-8s、U-Net、VGGUnet1、VGGUnet2這4種模型中,VGGUnet1水體提取結(jié)果的Jaccard指數(shù)、精確率、召回率較高,提取結(jié)果較好,是上述四種模型中的較優(yōu)模型,但是對(duì)小面積水體存在較多的漏分現(xiàn)象。
(2)基于FD-water loss 損失函數(shù)的VGGUnet1對(duì)小面積水體的識(shí)別能力得到提高,當(dāng)水體像素面積大于164時(shí),提取水體與水體標(biāo)注結(jié)果較為一致,此時(shí)水體實(shí)際面積為656 m2。
(3)與NDWI閾值法、最大似然分類法、支持向量機(jī)分類等方法相比,基于FD-water loss 損失函數(shù)的VGGUnet1模型對(duì)水體提取精度較高、水體邊界提取清晰,錯(cuò)分、漏分現(xiàn)象大大減少,具有較大的應(yīng)用潛力。
僅進(jìn)行了水體的提取研究,對(duì)于不同類型水體提取尚未深入。未來可以嘗試?yán)肎F-6衛(wèi)星的8波段寬幅影像,進(jìn)行渾濁水體、黑臭水體等不同類型水體提取的研究。