黃玉芬
(遼寧科技學(xué)院 曙光大數(shù)據(jù)學(xué)院,遼寧 本溪117004)
隨著遙感技術(shù)的不斷發(fā)展,它在地理數(shù)據(jù)獲取、地質(zhì)勘測、環(huán)境監(jiān)測等領(lǐng)域發(fā)揮著重要的作用。能夠準(zhǔn)確、迅速地獲得遙感信息遙感圖像是關(guān)鍵,而遙感圖像的分類是對遙感圖像處理重要組成部分。傳統(tǒng)的遙感圖像分類算法有監(jiān)督分類和無監(jiān)督分類兩種。監(jiān)督分類方法如最大似然法、 平行多面體等分類方法存在人為主觀因素較強(qiáng)等問題;無監(jiān)督分類如 K-Means方法會因某地會存在“同物異譜”和“異物同譜”等問題使模型的泛化能力不強(qiáng),分類效果不理想。文章采用基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks)處理遙感圖像分類。卷積神經(jīng)網(wǎng)絡(luò)相對于一般的人工神經(jīng)網(wǎng)絡(luò),通過添加卷積層和池化層使模型對圖像進(jìn)行局部感知;通過參數(shù)共享機(jī)制降低模型復(fù)雜程度,提高模型訓(xùn)練效率。而遙感圖像經(jīng)過數(shù)字化處理后是多維數(shù)組,卷積神經(jīng)網(wǎng)絡(luò)通過卷積層對圖像進(jìn)行特征提取,輸入圖像和訓(xùn)練網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)能很好地吻合[1],相較以統(tǒng)計(jì)學(xué)為基礎(chǔ)的傳統(tǒng)的遙感圖像分類算法,卷積神經(jīng)網(wǎng)絡(luò)有更強(qiáng)的自主學(xué)習(xí)能力和容錯(cuò)能力。
卷積神經(jīng)網(wǎng)絡(luò)中的核心部分是卷積層,它的作用是對圖像在像素值的水平上進(jìn)一步的特征提取,提取的方法是在大小為n×n的特征圖上用卷積核大小為m×m(通常取5×5)的濾波器(Filter)以步長(stride)為1進(jìn)行移動,卷積核與特征圖的圖像像素值做卷積操作,生成 一個(gè)大小為(m-n+1)×(m-n+1)新特征圖作為下一層的輸入層。
卷積操作公式為:
訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程實(shí)際上是在訓(xùn)練一個(gè)卷積層的卷積核,使這些卷積核能檢測到圖像的特定特征[2]。
通常在卷積層后增加激活函數(shù),如果沒有對上一層網(wǎng)絡(luò)的計(jì)算結(jié)果進(jìn)行非線性處理,那么層與層之間都是線性關(guān)系,即輸出結(jié)果為輸入結(jié)果的線性組合,模型的表達(dá)能力有很大的局限性?,F(xiàn)實(shí)生活中大部分問題也并不是簡單的線性關(guān)系,激活函數(shù)可以使模型具有更強(qiáng)的學(xué)習(xí)能力,也可以增大整個(gè)網(wǎng)絡(luò)的稀疏性,加快模型收斂速度。文章采用Relu函數(shù)作為激活函數(shù),其表達(dá)式為f(x)=max(x,0),以Relu函數(shù)作為層與層之間的過渡層[3]。
從卷積層到增加激活函數(shù)再到后來的 Droupout 層,構(gòu)建整個(gè)網(wǎng)絡(luò)的過程中,通過去除一些不重要的信息,控制模型的冗余性,減小后期訓(xùn)練過程出現(xiàn)過度擬合的問題。在卷積層基礎(chǔ)上,引入池化層的目的是可以在保持大部分信息的同時(shí),減小特征圖的尺寸, 通過最大池化或者平均池化,減少輸入的維度和參數(shù)的數(shù)量,進(jìn)而減小計(jì)算量,提高算法的效率。
文章采用的深度學(xué)習(xí)框架為 TensorFlow1.14.0,系統(tǒng)為 Windows10位,處理器為酷睿i5-8265U 1.60 GHz,內(nèi)存為8G,四類遙感圖像,每類圖像700張,模型迭代次數(shù)為 5 000 次。
在將圖像數(shù)據(jù)讀入到神經(jīng)網(wǎng)絡(luò)之前需要做好數(shù)據(jù)的預(yù)處理工作,需要把所有圖像的大小統(tǒng)一,這里采用雙線性插值把圖像尺寸改為64×64,然后對每張圖片像素坐標(biāo)進(jìn)行歸一化,將像素值轉(zhuǎn)化到0~1之間,減小模型的運(yùn)算量[4]。
把有標(biāo)簽的各類遙感圖片整合在一起構(gòu)成其圖像數(shù)據(jù)集DateSet[image1,image2,……,imagen],同時(shí)保存每張圖片所屬的標(biāo)簽Labels[label1,label2,……,labeln],然后對整個(gè)數(shù)據(jù)集進(jìn)行隨機(jī)打亂,按照訓(xùn)練集和測試集比例為75∶25進(jìn)行劃分。
整個(gè)模型中,前三層是卷積層用Convi表示,每一層卷積層包含池化層用Poolingi表示, 其中卷積層Conv1,Conv2和Conv3包含卷積核的個(gè)數(shù)分別有 64、32 和 16,三層卷積核尺寸均為3×3,滑動步長為 1,激活函數(shù)采用 Relu 。池化層Poolingi的池化窗口大小為2×2,池化方式采用最大池化進(jìn)行特征圖下采樣。然后增加兩層全連接層,并引入Dropout 隨機(jī)剔除掉30%的神經(jīng)元,可以有效減少過擬合。最后輸出層通過 Softmax邏輯回歸分類器得出最大概率對應(yīng)的標(biāo)簽[5](如圖1)。
圖1 模型結(jié)構(gòu)圖
在訓(xùn)練集中隨機(jī)選出8張遙感圖像進(jìn)行預(yù)測,圖2為識別結(jié)果,都能準(zhǔn)確識別出各類遙圖像所屬的類別。
圖2 預(yù)測結(jié)果
通過tensorboard可查看詳細(xì)的模型訓(xùn)練情況,最終模型的準(zhǔn)確率在91.7%左右,loss值最終穩(wěn)定在0.16,(如圖3、圖4)。
圖3 模型在訓(xùn)練過程準(zhǔn)確率
圖4 模型損失值
因?yàn)楸締栴}屬于多分類任務(wù), 準(zhǔn)確率不能完全反映分類器的性能, 宏平均 (Macroaveraging) 和微平均(Micro-averaging)是評價(jià)多分類分類器的性能優(yōu)劣的兩種常用方法,宏平均是指所有類別的每一個(gè)統(tǒng)計(jì)指標(biāo)值的算數(shù)平均值,即宏精確率,宏召回率和F值[6]。
宏精確率Pmacro計(jì)算公式為:
宏召回率Rmacro計(jì)算公式為:
宏F值Fmacro計(jì)算公式為:
文章基于CNN卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了遙感圖像的分類,現(xiàn)有遙感圖像數(shù)據(jù)集中分類效果表現(xiàn)良好,最后用宏平均對模型進(jìn)行全面的評估。該方法分類效果優(yōu)于傳統(tǒng)的遙感圖像方法,模型具有良好的泛化性。