左萍萍,付波霖,藍(lán)斐蕪,解淑毓,何宏昌,范冬林,婁佩卿
基于無人機(jī)多光譜的沼澤植被識(shí)別方法
左萍萍,付波霖*,藍(lán)斐蕪,解淑毓,何宏昌,范冬林,婁佩卿
(桂林理工大學(xué)測(cè)繪地理信息學(xué)院,廣西 桂林 541006)
為了探究高分辨率無人機(jī)多光譜數(shù)據(jù)對(duì)沼澤植被群叢識(shí)別能力,在洪河國(guó)家級(jí)自然保護(hù)區(qū)的核心區(qū)、緩沖區(qū)和實(shí)驗(yàn)區(qū)分別建立典型樣區(qū),通過低空無人機(jī)搭載的RGB及多光譜相機(jī)獲取研究區(qū)正射影像,構(gòu)建多維數(shù)據(jù)集并確立4種分類方案.采用面向?qū)ο蟮碾S機(jī)森林(RF)算法,對(duì)輸入的多維數(shù)據(jù)集進(jìn)行變量選擇和參數(shù)(mtry、ntree)調(diào)優(yōu),構(gòu)建適合沼澤植被群叢尺度識(shí)別模型.結(jié)果表明:優(yōu)化的面向?qū)ο蟮腞F算法對(duì)沼澤濕地植被具有較高的識(shí)別能力,在95%的置信區(qū)間內(nèi),核心區(qū)方案四(結(jié)合了光譜波段、紋理特征、幾何特征、位置特征、地表高程信息和植被指數(shù))獲得最高總體精度為87.12%,kappa系數(shù)為0.850,比方案二(結(jié)合了光譜波段、幾何特征和位置特征)總體精度高12.27%,kappa系數(shù)高0.140;對(duì)于單一典型沼澤濕地植被識(shí)別精度中,蘆葦獲得最高的用戶精度高于88%,生產(chǎn)者精度高于90%,小葉章的生產(chǎn)者精度高于85%,但是在核心區(qū)用戶精度較低,僅為78%.該方法可以作為沼澤植被群叢識(shí)別的有效方法,為研究沼澤濕地生態(tài)環(huán)境變化提供更準(zhǔn)確的數(shù)據(jù)支持.
無人機(jī)多光譜數(shù)據(jù);隨機(jī)森林算法;多維數(shù)據(jù)集;變量選擇;參數(shù)調(diào)優(yōu)
濕地是陸地和水生系統(tǒng)之間的過渡地帶,是地球上最重要、最有價(jià)值的生態(tài)系統(tǒng)之一[1-2].濕地植被是濕地生態(tài)系統(tǒng)的重要組成部分,對(duì)環(huán)境保護(hù)起著至關(guān)重要的作用[3-4].濕地植被的動(dòng)態(tài)變化能夠反映濕地的生態(tài)環(huán)境變化,被認(rèn)為是一個(gè)反映濕地環(huán)境變化的敏感指示器[5].因此,詳細(xì)了解和掌握濕地植被的空間分布有助于正確認(rèn)識(shí)和發(fā)揮濕地的資源優(yōu)勢(shì),也可以為濕地植被恢復(fù)技術(shù)和區(qū)域生物多樣性及其形成機(jī)制研究提供數(shù)據(jù)支持.
由于大多數(shù)濕地位于偏遠(yuǎn)且難以到達(dá)的區(qū)域,衛(wèi)星遙感技術(shù)已被廣泛應(yīng)用于濕地類型識(shí)別、信息提取、動(dòng)態(tài)變化監(jiān)測(cè)及資源調(diào)查等方面的研究[6].目前中高分辨率的遙感影像已廣泛應(yīng)用在濕地植被分類中,如程琳琳等[7]以多光譜和全色影像融合后的GF-1影像為數(shù)據(jù)源,采用最鄰近法對(duì)河流濕地和景觀濕地的影像進(jìn)行分類.結(jié)果表明:分類精度達(dá)到96.95%,kappa系數(shù)為0.9584.李恒凱等[8]以GF-1的16m WFV遙感影像為數(shù)據(jù)源,采用極大似然法、非監(jiān)督分類和面向?qū)ο蟮腃ART決策樹分類法對(duì)研究區(qū)土地利用分類信息.結(jié)果表明:3種分類方法中, CART決策樹分類獲得最高的分類精度為93.27%, Kappa系數(shù)高達(dá)0.92.上述都采用了面向?qū)ο蟮姆诸惙椒ú?duì)輸入的特征變量進(jìn)行篩選,減少數(shù)據(jù)的冗余,獲得最佳變量,但是未對(duì)面向?qū)ο蟮姆诸惙椒ㄟM(jìn)行優(yōu)化,提高分類方法的穩(wěn)定性.王猛等[9]以1.2m分辨率WorldView-3的衛(wèi)星影像作為數(shù)據(jù)源,通過特征選擇、調(diào)整隨機(jī)森林決策樹的數(shù)量,構(gòu)建了適合森林分類的面向?qū)ο蟮碾S機(jī)森林模型.結(jié)果顯示,分類總體精度達(dá)到83.34%,kappa系數(shù)為0.7892.Lou等[10]以GF-1和ZY-3遙感數(shù)據(jù)為數(shù)據(jù)源,采用優(yōu)化的面向?qū)ο蟮碾S機(jī)森林算法和變量選擇對(duì)沼澤濕地植被進(jìn)行分類.結(jié)果表明:在95%的置信區(qū)間內(nèi)所有方案總體精度均達(dá)到70.26%以上.以上研究證明,優(yōu)化隨機(jī)森林算法對(duì)處理多維數(shù)據(jù)集具有優(yōu)勢(shì),從而提高分類精度.但中高分辨率的星載光學(xué)遙感數(shù)據(jù)受天氣和云量影響大[11].近年來小型無人機(jī)迅速發(fā)展,具有操作簡(jiǎn)單,使用靈活,空間分辨率高,低成本,高時(shí)效且在云下操作等特點(diǎn),彌補(bǔ)了衛(wèi)星遙感影像的應(yīng)用限制[12].
UAV影像為開展?jié)竦刂脖坏目臻g分布信息提取,掌握其發(fā)展趨勢(shì),監(jiān)測(cè)濕地生態(tài)環(huán)境系統(tǒng)的動(dòng)態(tài)變化等研究,提供了極佳的遙感數(shù)據(jù)源[13-15]. Pande- Chhetri等[16]運(yùn)用無人機(jī)搭載真彩色Olympus ES 420相機(jī)獲取的航攝影像為數(shù)據(jù)源,采用3種分類器(支持向量機(jī)、人工神經(jīng)網(wǎng)絡(luò)和最大似然法),研究基于多分辨率目標(biāo)的分類方法在濕地植被中的應(yīng)用.結(jié)果表明:在相同的分類方案下,基于支持向量機(jī)的對(duì)象分類總體準(zhǔn)確率為70.78%,表現(xiàn)出最好的分類效果. De Giglio[17]為了確定沙丘植被群落識(shí)別所能達(dá)到的詳細(xì)程度,對(duì)無人機(jī)影像采用4種分類算法,其中基于像素的最大似然(ML)、最近鄰(NN)和支持向量機(jī)(SVM)算法分類總體精度分別是53.6%、50.9%和56.8%.以上研究證明了,對(duì)于超高空間分辨率(厘米級(jí))UAS影像,采用面向?qū)ο蟮臋C(jī)器學(xué)習(xí)算法對(duì)濕地植被識(shí)別性能更好[18].肖武等[19]利用無人機(jī)多光譜航攝影像對(duì)采煤沉陷濕地植被進(jìn)行面向?qū)ο蠓诸惡捅O(jiān)督分類.結(jié)果表明:面向?qū)ο蠓诸惙椒梢杂行崛竦刂脖?提取精度為84.2%,Kappa系數(shù)為0.8,除香蒲外, 各類地物分類精度都在80%以上.婁佩卿等[20]以無人機(jī)獲取農(nóng)耕區(qū)正射影像為研究區(qū),分別采用基于像元和面向?qū)ο蟮挠跋穹治黾夹g(shù)與支持向量機(jī)(SVM)算法相結(jié)合.結(jié)果表明:耕地+居民地復(fù)合區(qū)影像基于像元整體分類精度為69.93%,Kappa系數(shù)為0.65.上述研究都采用面向?qū)ο蠓诸惙椒?構(gòu)建多維數(shù)據(jù)集,但是未對(duì)分類方法進(jìn)行優(yōu)化和變量選擇,導(dǎo)致分類的總體精度偏低.劉舒等[21]運(yùn)用大疆精靈4獲取研究區(qū)域正射影像,采用隨機(jī)森林算法并對(duì)其參數(shù)進(jìn)行調(diào)優(yōu)和Boruta特征選擇.結(jié)果表明:隨機(jī)森林算法更擅長(zhǎng)處理高維數(shù)據(jù)集,獲得最高的總體精度98.19%,kappa系數(shù)為0.980.耿仁方等[22]以大疆御Mavic Pro無人機(jī)影像為數(shù)據(jù)源,優(yōu)化面向?qū)ο箅S機(jī)森林算法和變量選擇對(duì)會(huì)仙巖溶濕地植被進(jìn)行分類.結(jié)果顯示,在95%置信區(qū)間內(nèi)總體精度達(dá)到86.75%,Kappa系數(shù)為0.83.對(duì)單一典型巖溶濕地植被狗牙根-白茅-水龍獲得最高的用戶精度為92.86%,生產(chǎn)者精度為82.98%,標(biāo)準(zhǔn)差為2%.以上研究論證了隨機(jī)森林算法具有高效處理高維特征的優(yōu)勢(shì).但是,上述研究只采用了無人機(jī)(RGB)影像,對(duì)具有相似的光譜特征的植被識(shí)別能力較弱.
綜上所述,為了對(duì)沼澤植被實(shí)現(xiàn)群叢尺度識(shí)別,本文以洪河國(guó)家級(jí)自然保護(hù)區(qū)為研究區(qū),分別在核心區(qū)、緩沖區(qū)和試驗(yàn)區(qū)選擇3個(gè)典型樣區(qū),整合無人機(jī)多光譜數(shù)據(jù)和優(yōu)化的面向?qū)ο驲F算法構(gòu)建沼澤植被群叢尺度識(shí)別模型,評(píng)估其對(duì)沼澤植被群叢的識(shí)別能力.
洪河國(guó)家級(jí)自然保護(hù)區(qū)位于中國(guó)黑龍江省的東北部,地理位置為133°34¢382~133°46¢292E, 47°42¢182~47°52¢002N,該地區(qū)地勢(shì)總體平坦,坡度約為1/5000~1/10000,保護(hù)區(qū)占地面積為21835hm2, 2002年1月被國(guó)際濕地公約組織列為國(guó)際重要濕地名單,保護(hù)區(qū)屬溫帶濕潤(rùn)半濕潤(rùn)季風(fēng)性氣候,年平均氣溫為1.9℃,年均降水量約為600mm.保護(hù)區(qū)內(nèi)的植被仍保持原始狀態(tài),以草本沼澤植被和水生植被為主,沼澤植被的代表是毛果苔草、烏拉苔草、甜茅、小葉章和蘆葦?shù)?洪河濕地根據(jù)保護(hù)區(qū)自然資源分布狀況和特殊的地理分布,劃分為核心區(qū)(保存著較為完整的原始濕地生態(tài)系統(tǒng)和生物多樣性,是主要保護(hù)鳥類的集中分布區(qū))、緩沖區(qū)(保存著原生和部分原生性濕地生態(tài)系統(tǒng)類型,對(duì)核心區(qū)起到天然屏障和緩沖作用)和實(shí)驗(yàn)區(qū)(除部分耕地以外的其他濕地還保存完好,并開展了科研教學(xué)、環(huán)志、瀕危物種人工飼養(yǎng)和農(nóng)業(yè)生產(chǎn)等活動(dòng))3個(gè)功能區(qū)域[23].本文分別在這3個(gè)樣區(qū)中選擇具有相同的典型沼澤植被類型作為本文的研究區(qū),具體如圖1所示.
圖1 研究區(qū)地理位置
A位于核心區(qū)、B位于緩沖區(qū)、C位于實(shí)驗(yàn)區(qū)
以核心區(qū)為例,無人機(jī)原始航拍影像采集于2019年8月29日上午11:00~12:00,采集過程中天氣晴朗,無風(fēng),視野良好.試驗(yàn)采用大疆精靈4Pro搭載RGB和Survey3W-OCN相機(jī)同時(shí)進(jìn)行航攝,航向重疊率80%、旁向重疊率70%,飛行高度為110m,獲得606張無人機(jī)影像和1294張多光譜影像.
多光譜影像包括兩種格式,分別為RAW和JPG,不能直接對(duì)多光譜原始影像處理,需要對(duì)其進(jìn)行輻射定標(biāo).輻射定標(biāo)是采用MAPIR公司自帶的處理軟件將多光譜影像DN值轉(zhuǎn)化為反射率.本文利用Pix4D Mapper專業(yè)級(jí)無人機(jī)圖像處理軟件對(duì)無人機(jī)和輻射定標(biāo)后多光譜影像進(jìn)行處理.具體處理過程包括:①導(dǎo)入原始航拍影像、經(jīng)緯度坐標(biāo)以及飛行姿態(tài)等POS數(shù)據(jù);②影像質(zhì)量檢查,剔除航向重疊率小于70%、旁向重疊率小于60%、起飛和降落、曝光不足與過度的影像,保證進(jìn)行空三解算和構(gòu)建加密網(wǎng)的精度;③影像數(shù)據(jù)自動(dòng)匹配、空三解算和區(qū)域網(wǎng)平差,生成研究區(qū)密集點(diǎn)云數(shù)據(jù);④利用密集點(diǎn)云數(shù)據(jù)構(gòu)建研究區(qū)不規(guī)則三角網(wǎng)(TIN),生成研究區(qū)數(shù)字地表三維模型(DSM);⑤利用地表三維模型和空三解算參數(shù)、通過影像勻色、拼接和裁剪處理,得到研究區(qū)數(shù)字正射影像圖(DOM).
實(shí)地調(diào)查于2019年8月24~30日進(jìn)行,樣本數(shù)據(jù)獲取主要有2種途徑:一種方法是通過手持厘米級(jí)定位精度的RTK進(jìn)行拍照記錄,如白樺林、白楊林和灌木;另一是采用大疆御Mavic Pro無人機(jī)搭載的FC220相機(jī)進(jìn)行航攝,飛行高度為30m,對(duì)航拍的影像進(jìn)行解譯確定植被類型,如小葉章、塔頭苔草和蘆葦.本文綜合考慮了野外實(shí)地調(diào)查結(jié)果和無人機(jī)影像特征,確定分為水體、白樺林、白楊林、退化白樺林、灌木、小葉章、塔頭苔草、小葉章和塔頭苔草混合、蘆葦和道路等10種類別,并使用ArcGIS10.5的地統(tǒng)計(jì)分析模塊中的Subset Features工具將實(shí)地采樣數(shù)據(jù)獲取樣本數(shù)據(jù)按照7:3的比例隨機(jī)分成訓(xùn)練和驗(yàn)證樣本數(shù)據(jù),具體如表1表示.
表1 研究區(qū)各類訓(xùn)練和驗(yàn)證樣本數(shù)據(jù)
注:A代表水體;B代表白樺林;C代表白楊林;D代表退化白樺林;E代表灌木;F代表道路;G代表小葉章;H代表塔頭苔草;I代表小葉章與塔頭苔草混合;J代表蘆葦;代表總數(shù).
本文在eCognition Developer 9.01軟件中采用濕地植被信息提取應(yīng)用最廣泛的多尺度分割算法.在多尺度分割算法中主要有3個(gè)重要參數(shù):尺度參數(shù)、形狀權(quán)重和緊湊度,其中尺度參數(shù)是多尺度分割算法最為核心的參數(shù),對(duì)分類精度影響較大,顏色與形狀權(quán)重、平滑度與緊湊度權(quán)重的和分別為1.
對(duì)無人機(jī)影像進(jìn)行多尺度分割時(shí),首先需要確定的形狀權(quán)重和緊湊度參數(shù).已有研究表明,顏色/形狀權(quán)重為0.7/0.3,平滑度/緊湊度權(quán)重為0.5/0.5的對(duì)象最容易識(shí)別不同的沼澤植被斑塊[24].因此,本文中形狀權(quán)重和緊湊度權(quán)重分別設(shè)置為0.3、0.5.在確定這2個(gè)參數(shù)后,利用eCognition Developer最佳分割尺度評(píng)價(jià)工具ESP2進(jìn)行迭代分割,以選取多尺度分割最優(yōu)的分割尺度參數(shù)[25].確定形狀權(quán)重和緊湊度權(quán)重為0.3、0.5后,每個(gè)樣區(qū)的最大分割尺度和最小分割尺度如圖2所示.
圖2 在形狀權(quán)重和緊湊度權(quán)重分別為0.3、0.5條件下,3個(gè)樣區(qū)最大分割尺度和最小分割尺度
表2 植被指數(shù)計(jì)算公式
注:NIR代表近紅外波段;代表紅波段;代表綠波段;代表藍(lán)波段.
當(dāng)用光學(xué)數(shù)據(jù)分類時(shí),由于它們具有相似的光譜響應(yīng),無法將某些光譜曲線相似的沼澤植被群叢區(qū)分開,因此本文進(jìn)一步提取了影像的紋理特征、幾何特征、位置特征、地表高程信息和植被指數(shù),綜合利用以上特征信息進(jìn)行沼澤濕地植被群叢識(shí)別,最終確定的多維數(shù)據(jù)集包括:
(1)光譜特征:無人機(jī)影像紅綠藍(lán)波段(RGB)、多光譜影像橙青近紅外波段(OCN)和DSM光譜特征的平均值、標(biāo)準(zhǔn)偏差、亮度和波段最大差異.
(2)紋理特征:通過灰度共生矩陣(GLCM)來提取DOM和DSM的紋理特征.本文使用9×9的窗口和64個(gè)灰度量化級(jí)別的GLCM來生成平均值、方差、同質(zhì)性、對(duì)比性、異質(zhì)性、信息熵、角二階距和相關(guān)性.
(3)植被指數(shù):為了消除不同輻照度對(duì)植被光譜特征的影響,更好地區(qū)分不同地物類型,提高沼澤濕地植被群叢的識(shí)別精度,本文計(jì)算了5個(gè)無人機(jī)植被指數(shù)和18個(gè)多光譜植被指數(shù)[25-28].具體如表2所示.
(4)幾何特征:提取不對(duì)稱性、形狀指數(shù)、緊湊型、密度、面積、寬和長(zhǎng)寬比周長(zhǎng)比等特征.
(5)位置特征:提取坐標(biāo)中心點(diǎn)位置特征、坐標(biāo)到左/右邊框的距離、坐標(biāo)的最大值和坐標(biāo)的最小值等特征.
根據(jù)光譜特征、影像多尺度分割后的幾何特征與位置特征、紋理特征和植被指數(shù)構(gòu)建多維數(shù)據(jù)集,建立了4種分類方案,如表3所示.
表3 3個(gè)樣區(qū)的4種分類方案
隨機(jī)森林(RF)分類器是由Breiman在1995年Bell Labs原始版本的基礎(chǔ)上開發(fā)的一種結(jié)合去除相關(guān)性較弱的集成分類器[29].RF分類器具有高效處理多維數(shù)據(jù)集并不會(huì)出現(xiàn)過擬合的優(yōu)勢(shì)[30].
本文采用RF分類器對(duì)構(gòu)建的多維數(shù)據(jù)集進(jìn)行遞歸特征消除(簡(jiǎn)稱RFE)和參數(shù)調(diào)優(yōu),構(gòu)建適合沼澤植被群叢尺度識(shí)別的模型并對(duì)3個(gè)典型樣區(qū)中的10種類型進(jìn)行分類,通過驗(yàn)證樣本數(shù)據(jù)集來評(píng)價(jià)分類精度和準(zhǔn)確度.具體內(nèi)容如下:①采用R編程語言,在Rstudio平臺(tái)上首先對(duì)每個(gè)方案進(jìn)行去除高相關(guān)性(去除相關(guān)系數(shù)大于0.95的變量),然后以每個(gè)方案的訓(xùn)練樣本數(shù)據(jù)集為輸入變量,再采用RFE來去除多維數(shù)據(jù)集中無關(guān)和冗余變量,確定總體精度最高的最佳變量個(gè)數(shù).RFE變量選擇是采用10倍交叉驗(yàn)證重采樣方法,開始使用所有的訓(xùn)練數(shù)據(jù)集中的特征構(gòu)建模型并通過得分來衡量不同特征重要程度,然后刪除本次特征集合中得分最低的特征,用剩余的特征集合建模,然后重復(fù)進(jìn)行迭代,直到輸入數(shù)據(jù)集為空,從而確定最佳變量個(gè)數(shù).②已有研究表明,RF算法中的默認(rèn)mtry數(shù)是輸入變量總數(shù)的平方,默認(rèn)ntree數(shù)是500[31].RF算法雖然采用默認(rèn)參數(shù)進(jìn)行沼澤植被識(shí)別,總體精度較高,但極不穩(wěn)定,不具代表性.與默認(rèn)參數(shù)相比,優(yōu)化參數(shù)的整體精度更穩(wěn)定[10].因此本文以最佳變量構(gòu)成的訓(xùn)練數(shù)據(jù)集為輸入變量對(duì)RF分類器進(jìn)行參數(shù)調(diào)優(yōu),確定mtry的范圍為1~15;ntree的范圍為0~2000,步長(zhǎng)為100.每個(gè)方案使用mtry和ntree的不同組合迭代訓(xùn)練15次,以找到總體精度最高的最優(yōu)組合.
為了評(píng)估構(gòu)建沼澤植被群叢尺度識(shí)別模型分類結(jié)果的準(zhǔn)確性,以及評(píng)估無人機(jī)多光譜遙感數(shù)據(jù)在沼澤濕地植被分類中的有效性,利用實(shí)地采集的驗(yàn)證樣本對(duì)分類結(jié)果進(jìn)行精度驗(yàn)證,在95%的置信區(qū)間對(duì)3個(gè)樣區(qū)4種分類方案建立混淆矩陣分別計(jì)算分類結(jié)果的總體精度、Kappa系數(shù)、各類別的用戶精度和生產(chǎn)者精度.本文技術(shù)路線如圖3所示.
圖3 研究技術(shù)路線
對(duì)3個(gè)樣區(qū)的4種分類方案進(jìn)行RFE變量選擇,結(jié)果如表4所示,采用RFE后,核心區(qū)方案一輸入9個(gè)變量(緩沖區(qū)為17個(gè)、實(shí)驗(yàn)區(qū)為8個(gè))時(shí),在95%置信區(qū)間內(nèi)的模型訓(xùn)練精度提高到79.50%(緩沖區(qū)為75.10%、實(shí)驗(yàn)區(qū)為78.30%).核心區(qū)方案二輸入7個(gè)變量(緩沖區(qū)為9個(gè)、實(shí)驗(yàn)區(qū)為9個(gè))時(shí),在95%置信區(qū)間內(nèi)的模型訓(xùn)練精度提高到73.00%(緩沖區(qū)為71.20%、實(shí)驗(yàn)區(qū)為74.00%).核心區(qū)方案三輸入11個(gè)變量(緩沖區(qū)為11個(gè)、實(shí)驗(yàn)區(qū)為14個(gè))時(shí),在95%置信區(qū)間內(nèi)的模型訓(xùn)練精度為75.10%(緩沖區(qū)為74.00%、實(shí)驗(yàn)區(qū)為76.00%).核心區(qū)方案四輸入16個(gè)變量(緩沖區(qū)為67個(gè)、實(shí)驗(yàn)區(qū)為18個(gè))時(shí),在95%置信區(qū)間內(nèi)的模型訓(xùn)練精度達(dá)到82.50%(緩沖區(qū)為79.20%、實(shí)驗(yàn)區(qū)為81.50%).對(duì)3個(gè)樣區(qū)的每種方案進(jìn)行RFE變量選擇后,模型訓(xùn)練精度都提高了,提高最多的緩沖區(qū)方案三(提高了11.38%),論證了去除多維數(shù)據(jù)集中無關(guān)和冗余變量可以提高面向?qū)ο蟮腞F分類器在沼澤植被識(shí)別中的性能.
對(duì)于3個(gè)樣方區(qū)的方案一,經(jīng)過RFE變量選擇之后構(gòu)建的RF模型訓(xùn)練精度比輸入全部非高相關(guān)變量構(gòu)建的RF模型訓(xùn)練精度,分別提升了8.00%、5.34%和10.76%.在輸入的3個(gè)光譜特征、幾何特征和位置特征中,波段最大差分、光譜波段的平均值和標(biāo)準(zhǔn)偏差的重要性最高.方案二模型訓(xùn)練精度分別提升了4.00%、5.41%和4.39%.比方案一多加入的多光譜特征中多光譜波段標(biāo)準(zhǔn)偏差獲得較高的重要性.方案三模型訓(xùn)練精度分別提升了5.97%、11.38%和5.99%,比方案二多加入的紋理特征中同質(zhì)性的重要性較高.每個(gè)樣區(qū)方案四的模型訓(xùn)練精度都是最高的,分別為82.50%、79.20%和81.50%,比輸入全部非高相關(guān)變量構(gòu)建的RF模型訓(xùn)練精度分別提高了3.40%、3.46%和4.36%,其中5個(gè)無人機(jī)光譜指數(shù)、DSM和光譜波段的標(biāo)準(zhǔn)差的重要性最高,具體如表4和圖4所示.
表4 采用RFE變量選擇前后,RF訓(xùn)練精度的對(duì)比
續(xù)表4
圖4 基于RFE變量選擇的前10個(gè)最佳變量及重要性排序
通過RFE變量選擇后,確定最佳變量個(gè)數(shù);調(diào)整參數(shù)確定面向?qū)ο蟮腞F分類器的mtry和ntree最優(yōu)組合并進(jìn)行迭代訓(xùn)練.圖5顯示3個(gè)樣區(qū)中訓(xùn)練樣本數(shù)據(jù)的4種方案的學(xué)習(xí)曲線,隨著mtry和ntree.數(shù)量的增加,模型的訓(xùn)練精度呈上升趨勢(shì),當(dāng)ntree為1000時(shí),具有不同mtry值的每個(gè)分類方案的總體精度的波動(dòng)趨于平穩(wěn).
圖5 3個(gè)樣區(qū)不同mtry和ntree組合與RF訓(xùn)練精度變化趨勢(shì)(變量選擇后)
表5 3個(gè)樣區(qū)最佳mtry和ntree組合的RF訓(xùn)練精度(變量選擇后)
根據(jù)表5對(duì)核心區(qū)、緩沖區(qū)和實(shí)驗(yàn)區(qū)4種分類方案的參數(shù)調(diào)優(yōu)結(jié)果進(jìn)行分析可知,多光譜數(shù)據(jù)添加到多維數(shù)據(jù)集中時(shí),3個(gè)樣區(qū)中方案二的模型訓(xùn)練精度比方案一分別降低8.02%、3.11%和3.17%,說明多光譜數(shù)據(jù)對(duì)沼澤植被群叢識(shí)別性能不如無人機(jī)數(shù)據(jù),可能是多光譜影像存在噪聲,降低了模型精度和效率.方案三比方案二多加入了40個(gè)紋理特征,但是RF模型的訓(xùn)練精度并沒有明顯變化,核心區(qū)提升了1.54%、緩沖區(qū)下降了1.50%、實(shí)驗(yàn)區(qū)下降了0.19%.方案四結(jié)合了光譜數(shù)據(jù)、光譜指數(shù)、DSM、位置特征、幾何特征和紋理特征,RF模型訓(xùn)練精度達(dá)到最高分別為81.83%、79.23%和79.36%.比方案三多加入了23個(gè)植被指數(shù)和DSM,RF模型精度分別提高了9.26%、8.86%和5.61%,說明DSM和光譜植被指數(shù)有效的提高分類精度.
綜合3個(gè)樣區(qū)的4種分類方案的分類效果圖,發(fā)現(xiàn)核心區(qū)中喬木(白樺林和白楊林)和灌木主要分布靠近陸地的區(qū)域;淺水沼澤植被是由陸地過渡到淺水中,分布順序依次是小葉章、小葉章與塔頭苔草混合、塔頭苔草和蘆葦;退化的白樺林主要分布在淺水沼澤植被附近.緩沖區(qū)和實(shí)驗(yàn)區(qū)中10種類別的空間分布與核心區(qū)保持一致.
圖6 核心區(qū)沼澤植被分類結(jié)果對(duì)比
核心區(qū)方案一,水體中有部分圖斑被錯(cuò)分為小葉章類型,在方案二中錯(cuò)分現(xiàn)象嚴(yán)重,可能與該區(qū)域水體的顏色較深、較亮,光譜特征取值與小葉章接近有關(guān).引入紋理特征時(shí)(方案三),上述錯(cuò)分有所改善,卻進(jìn)一步加劇部分蘆葦被錯(cuò)分為灌木的現(xiàn)象.引入指數(shù)特征和DSM時(shí)(方案四),水體與小葉章錯(cuò)分現(xiàn)象有明顯改善,但出現(xiàn)小斑塊蘆葦誤分為水體(圖6).緩沖區(qū)4種分類方案都存在水體與道路錯(cuò)分(圖7),這是由于獲取緩沖區(qū)影像時(shí),水體淹沒棧橋造成影像上棧橋表層光譜特性與水體相近,這種同譜異物現(xiàn)象造成沼澤植被群叢尺度識(shí)別模型混淆提取水體和道路.實(shí)驗(yàn)區(qū)方案一中存在灌木和喬木(白楊林和白樺林)錯(cuò)分現(xiàn)象,在方案二中錯(cuò)分現(xiàn)象明顯加劇,可能與該區(qū)域光譜信息比較多樣,部分灌木和喬木具有相似的光譜曲線,因此對(duì)于利用光譜特征的分類方案,區(qū)分效果不明顯,易造成誤分現(xiàn)象.當(dāng)加入紋理信息后(方案三),分類結(jié)果中小面積斑塊減少,灌木和喬木的混分現(xiàn)象減少.引入指數(shù)特征和DSM時(shí)(方案四),灌木和喬木錯(cuò)分現(xiàn)象有明顯改善,因?yàn)镈SM提供的地表高程信息可以很好的將喬木同灌木區(qū)分開(圖8).上述各樣區(qū)中方案四錯(cuò)分現(xiàn)象都有所改善,分類效果最好,分類結(jié)果能夠準(zhǔn)確描述保護(hù)區(qū)內(nèi)沼澤植被的空間分布位置,可以說明優(yōu)化的面向?qū)ο蟮碾S機(jī)森林算法模型對(duì)沼澤植被群叢具有較高的識(shí)別能力.
圖7 緩沖區(qū)沼澤植被分類結(jié)果對(duì)比
圖8 實(shí)驗(yàn)區(qū)沼澤植被分類結(jié)果對(duì)比
由表6可知,通過變量選擇和參數(shù)調(diào)優(yōu)后,每個(gè)樣區(qū)的方案四在95%的置信區(qū)間內(nèi)的總體分類精度最高(87.12%、83.33%和83.82%),說明在光譜波段、光譜指數(shù)、DSM、紋理特征、位置信息和幾何信息的共同作用下,可以提高沼澤植被群叢識(shí)別的總體精度;其次是方案一的總體分類精度(83.23%、79.11%和81.46%),說明無人機(jī)影像是區(qū)分沼澤植被群叢重要的數(shù)據(jù)源;方案二在95%的置信區(qū)間內(nèi)的總體分類精度最差(74.85%、74.84%和74.88%),這可能是多光譜影像存下噪點(diǎn),不易區(qū)分光譜相似的沼澤植被群叢;其次是方案三的總體分類精度(77.91%、77.42%和75.86%),比方案二分別提高了3.06%、2.58%和0.98%,說明紋理特征可以提高沼澤植被群叢的總體分類精度.
為了評(píng)估隨機(jī)森林分類器對(duì)沼澤植被群叢分類結(jié)果的準(zhǔn)確性,以及無人機(jī)多光譜在沼澤濕地植被識(shí)別中的有效性,利用實(shí)地采樣數(shù)據(jù)獲得的驗(yàn)證樣本,建立混淆矩陣和計(jì)算各類的用戶精度與生產(chǎn)者精度(表7).核心區(qū)方案四對(duì)水體、白樺林、退化白樺林、灌木、道路、小葉章和塔頭苔草混合和蘆葦?shù)淖R(shí)別能力較好,用戶精度在91%以上;用戶精度最低的是塔頭苔草45.4%,生產(chǎn)者精度為41.6%,這是由于塔頭苔草與小葉章混合生長(zhǎng)條件與分布一致,存在光譜特征和紋理特征的相似性,導(dǎo)致不易區(qū)分.緩沖區(qū)方案四對(duì)水體、白樺林、灌木、道路、小葉章和蘆葦?shù)姆诸愖詈?用戶精度都為86%以上,小葉章和塔頭苔草混合用戶精度最差,為63.6%.實(shí)驗(yàn)區(qū)方案四中水體、白楊林、道路和小葉章的分類最好,用戶精度都為91%以上,其中白樺林用戶精度為77.8%,而生產(chǎn)者精度最低,為46.7%,這可能由于沼澤濕地植被類型分布不均一,散碎斑塊較多,使白樺林與小葉章與塔頭苔草的混合出現(xiàn)錯(cuò)分現(xiàn)象.
表6 3個(gè)樣區(qū)RF分類結(jié)果的驗(yàn)證精度
表7 沼澤濕地地物類型混淆矩陣(方案四)
續(xù)表7
注:A代表水體;B代表白樺林;C代表白楊林;D代表退化白樺林;E代表灌木;F代表道路;G代表小葉章;H代表塔頭苔草;I代表小葉章與塔頭苔草混合;J代表蘆葦;代表總數(shù);代表用戶精度;代表生產(chǎn)者精度.
3個(gè)區(qū)域中對(duì)于水體、道路、白樺林和蘆葦分類精度比較好,用戶精度均在80%以上,這是由于隨機(jī)森林算法對(duì)于紋理特征均一的地物或植被具有較高的識(shí)別能力.對(duì)于單一典型沼澤濕地植被,白樺林其用戶精度分別是100%、86.7%和83.9%,核心區(qū)分類精度最高,這是由于核心區(qū)是未經(jīng)或很少經(jīng)人為干擾過的原始濕地生態(tài)系統(tǒng);小葉章和塔頭苔草混合的用戶精度分別為100%、63.6%和47.1%,實(shí)驗(yàn)區(qū)分類精度最低,這是由于實(shí)驗(yàn)區(qū)是一個(gè)多用途的地區(qū),包括有一定范圍的生產(chǎn)活動(dòng),還可有少量居民點(diǎn)和旅游設(shè)施,因此會(huì)降低對(duì)沼澤濕地植被分類效果.
4.1 結(jié)合光譜波段、植被指數(shù)、位置特征、紋理特征和幾何特征作為多維數(shù)據(jù)集輸入變量,可以有效地提高沼澤植被群叢的分類精度.然而,多維數(shù)據(jù)集輸入會(huì)產(chǎn)生許多冗余變量,降低了分類效率和準(zhǔn)確率.基于RF的變量選擇算法能有效去除相關(guān)性高的冗余變量,提高分類精度.對(duì)輸入變量重要性的測(cè)量表明,無人機(jī)光譜指數(shù)(Blue、Green、Red、GLI、GRDI)、DSM和光譜波段的標(biāo)準(zhǔn)偏差等對(duì)沼澤植被群叢識(shí)別貢獻(xiàn)率較大.
4.2 RF模型的參數(shù)調(diào)優(yōu)可以有效地提高其在沼澤植被分類中的適用性,獲得穩(wěn)定的、高精度的分類結(jié)果.3個(gè)典型樣區(qū)中方案四的獲得最高的模型訓(xùn)練精度,其中mtry和ntree的最佳組合為3和1000、12和600、9和400,RF分類器的模型精度分別為81.83%、79.23%和79.36%,kappa系數(shù)分別為0.787、0.768和0.761.
4.3 面向?qū)ο蟮碾S機(jī)森林遙感識(shí)別模型實(shí)現(xiàn)了沼澤植被群叢尺度的高精度分類,3個(gè)典型樣區(qū)中方案四在95%置信區(qū)間內(nèi)的分類正確率最高,分別為87.12%、83.33%和83.82%,kappa系數(shù)分別為0.850、0.814和0.813.對(duì)于單一典型沼澤濕地植被識(shí)別,蘆葦獲得最高用戶精度為100.0%和88.2%,生產(chǎn)者精度分別為100%和91.7%.灌木用戶精度分別為100%、92.3%和87.1%,生產(chǎn)者精度分別為85.7%、80.0%和90.0%.驗(yàn)證了無人機(jī)多光譜數(shù)據(jù)和優(yōu)化的面向?qū)ο驲F算法構(gòu)建沼澤植被群叢尺度識(shí)別模型可以實(shí)現(xiàn)沼澤植被群叢尺度分類,并形成了一套完整的基于低空無人機(jī)多光譜影像進(jìn)行沼澤植被識(shí)別的方法.
[1] Mitsch W J. Restoration of our lakes and rivers with wetlands—an important application of ecological engineering [J]. Water Science and Technology, 1995,31(8):167-177.
[2] Guo M, Li J, Sheng C, et al. A review of wetland remote sensing [J]. Sensors, 2017,17(4):777.
[3] Kokaly R F, Despain D G, Clark R N, et al. Mapping vegetation in Yellowstone National Park using spectral feature analysis of AVIRIS data [J]. Remote sensing of environment, 2003,84(3):437-456.
[4] Yuan L, Zhang L. Identification of the spectral characteristics of submerged plant Vallisneria spiralis [J]. Acta Ecologica Sinica, 2006,26(4):1005-1010.
[5] Dennison W C, Orth R J, Moore K A, et al. Assessing water quality with submersed aquatic vegetation [J]. BioScience, 1993,43(2):86-94.
[6] 張 磊,宮兆寧,王啟為,等. Sentinel-2影像多特征優(yōu)選的黃河三角洲濕地信息提取 [J]. 遙感學(xué)報(bào), 2019,23(2):313-326.Zhang L, Gong Z N, Wang Q W, et al. Extraction of Yellow River Delta wetland information based on multi-feature optimization of Sentinel-2 image [J]. Journal of Remote Sensing, 2019,23(2):313-326.
[7] 程琳琳,董雪梅,詹佳琪,等.基于面向?qū)ο蟮腉F-1遙感影像采煤沉陷區(qū)濕地分類 [J]. 農(nóng)業(yè)工程學(xué)報(bào), 2018,34(9):240-247. Cheng L L, Dong X M, Zhan J Q, et al. Wetland classification based on object-oriented GF-1remote sensing images in coal mining subsidence area [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018,34(9):240-247.
[8] 李恒凱,吳 嬌,王秀麗.基于GF-1影像的東江流域面向?qū)ο笸恋乩梅诸?[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2018,34(10):245-252. Li H K, Wu J, Wang X L. Object-oriented land use classification of Dongjiang basin based on GF-1 image [J]. Transactions of the Chinese Society of Agricultural Engineering, 2018,34(10):245-252.
[9] 王 猛,張新長(zhǎng),王家耀,等.結(jié)合隨機(jī)森林面向?qū)ο蟮纳仲Y源分類 [J]. 測(cè)繪學(xué)報(bào), 2020,49(2):235-244. Wang M, Zhang X C, Wang J Y, et al. Object-oriented classification of forest resources with random forest [J]. Journal of Surveying and Mapping, 2020,49(2):235-244.
[10] Lou P Q, Fu B L, He H C, et al. An optimized object-based random forest algorithm for marsh vegetation mapping using high- spatial-resolution GF-1and ZY-3data [J]. Remote Sensing, 2020,12(8):1270.
[11] Mahdavi S, Salehi B, Amani M, et al. A dynamic classification scheme for mapping spectrally similar classes: Application to wetland classification [J]. International Journal of Applied Earth Observation and Geoinformation, 2019,83:101914.
[12] B?hler J E, Schaepman M E, Kneubühler M. Crop classification in a heterogeneous arable landscape using uncalibrated UAV data [J]. Remote Sensing, 2018,10(8):1282.
[13] Pajares G. Overview and current status of remote sensing applications based on unmanned aerial vehicles (UAVs) [J]. Photogrammetric Engineering & Remote Sensing, 2015,81(4):281-330.
[14] Shahbazi M, Théau J, Ménard P. Recent applications of unmanned aerial imagery in natural resource management [J]. GIScience & Remote Sensing, 2014,51(4):339-365.
[15] Latif M A. An agricultural perspective on flying sensors: State of the art, challenges, and future directions [J]. IEEE Geoscience and Remote Sensing Magazine, 2018,6(4):10-22.
[16] Pande-Chhetri R, Abd-Elrahman A, Liu T, et al. Object-based classification of wetland vegetation using very high-resolution unmanned air system imagery [J]. European Journal of Remote Sensing, 2017,50(1):564-576.
[17] De Giglio M, Greggio N, Goffo F, et al. Comparison of pixel-and object-based classification methods of unmanned aerial vehicle data applied to coastal dune vegetation communities: Casal borsetti case study [J]. Remote Sensing, 2019,11(12):1416.
[18] Wu Q, Zhong R, Zhao W, et al. A comparison of pixel-based decision tree and object-based Support Vector Machine methods for land-cover classification based on aerial images and airborne lidar data [J]. International Journal of Remote Sensing, 2017,38(23):7176-7195.
[19] 肖 武,任 河,呂雪嬌,等.基于無人機(jī)遙感的高潛水位采煤沉陷濕地植被分類 [J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2019,50(2):177-186. Xiao W, Ren H, Lu X J, et al. Vegetation classification of subsided wetlands in coal mining at high phreatic level based on remote sensing by drones [J]. Transactions of the Chinese Society of Agricultural Machinery, 2019,50(2):177-186.
[20] 婁佩卿,陳曉雨,王疏桐,等.基于無人機(jī)影像的喀斯特農(nóng)耕區(qū)地物識(shí)別——以桂林市為例 [J]. 國(guó)土資源遙感, 2020,32(1):216-223. Lou P Q, Chen X Y, Wang S T, et al. Feature recognition in karst farming areas based on UAV images: Taking Guilin as an example [J]. Remote Sensing for Land and Resources, 2020,32(1):216-223.
[21] 劉 舒,朱 航.基于超高空間分辯率無人機(jī)影像的面向?qū)ο笸恋乩梅诸惙椒?[J]. 農(nóng)業(yè)工程學(xué)報(bào), 2020,36(2):87-94. Liu S, Zhu H. Object-oriented land use classification method based on ultra-high spatial resolution UAV images [J]. Transactions of the Chinese Society of Agricultural Engineering, 2020,36(2):87-94.
[22] 耿仁方,付波霖,蔡江濤,等.基于無人機(jī)影像和面向?qū)ο箅S機(jī)森林算法的巖溶濕地植被識(shí)別方法研究 [J]. 地球信息科學(xué)學(xué)報(bào), 2019, 21(8):1295-1306. Geng R F, Fu B L, Cai J T, et al. Research on karst wetland vegetation identification method based on UAV image and object-oriented random forest algorithm [J]. Journal of Geo-Information Science, 2019,21(8):1295 1306.
[23] 朱寶光,董樹斌,朱麗萍,等.洪河國(guó)家級(jí)自然保護(hù)區(qū)濕地功能區(qū)保育與濕地補(bǔ)償研究 [J]. 濕地科學(xué)與管理, 2006,(3):25-28. Zhu B G, Dong S B, Zhu L P, et al. Research on wetland function area conservation and wetland compensation in Honghe National Nature Reserve [J]. Wetland Science and Management, 2006,(3):25-28.
[24] Dragut L, Tiede D, Levick S R. ESP: a tool to estimate scale parameter for multiresolution image segmentation of remotely sensed data [J]. International Journal of Geographical Information Science, 2010,24(6): 859-871.
[25] Dronova I. Object-based image analysis in wetland research: A review [J]. Remote Sensing, 2015,7(5):6380-6413.
[26] 魏鵬飛,徐新剛,李中元,等.基于無人機(jī)多光譜影像的夏玉米葉片氮含量遙感估測(cè) [J]. 農(nóng)業(yè)工程學(xué)報(bào), 2019,35(8):126-133,335. Wei P F, Xu X G, Li Z Y, et al. Remote sensing estimation of nitrogen content in summer maize leaves based on UAV multispectral images [J]. Transactions of the Chinese Society of Agricultural Engineering, 2019,35(8):126-133,335.
[27] Villoslada M, Bergamo T F, Ward R D, et al. Fine scale plant community assessment in coastal meadows using UAV based multispectral data [J]. Ecological Indicators, 2020,111:105979.
[28] Suo C, McGovern E, Gilmer A. Coastal dune vegetation mapping using a multispectral sensor mounted on an UAS [J]. Remote Sensing, 2019,11(15):1814.
[29] Breiman L. Random forests [J]. Machine learning, 2001,45(1):5-32.
[30] Phiri D, Morgenroth J, Xu C. Four decades of land cover and forest connectivity study in Zambia—An object-based image analysis approach [J]. International Journal of Applied Earth Observation and Geoinformation, 2019,79:97-109.
[31] Nguyen U, Glenn E P, Dang T D, et al. Mapping vegetation types in semi-arid riparian regions using random forest and object-based image approach: A case study of the Colorado River Ecosystem, Grand Canyon, Arizona [J]. Ecological Informatics, 2019,50:43-50.
Classification method of swamp vegetation using UAV multispectral data.
ZUO Ping-ping, FU Bo-lin*, LAN Fei-wu, XIE Shu-yu, HE Hong-chang, FAN Dong-lin, LOU Pei-qing
(School of Surveying and Mapping and Geographic Information, Guilin University of Technology, Guilin 541006, China)., 2021,41(5):2399~2410
This paper established machine learning models to classify swamp vegetation communities based on high-resolution UAV multispectral images. In Honghe National Nature Reserve, typical sample areas were selected in the core area, buffer zone and experimental area and ortho-images of these areas were acquired using low-altitude UAVs with RGB and multispectral cameras. Multidimensional datasets were then derived from multiresolution segmentation of ortho-images, and established four classification scenarios. The object-based random forest (RF) algorithm was used to classify vegetation communities after feature selection and parameters (mtry and ntree) optimization and tuning. This algorithm also could rank the importance of each feature in multidimensional datasets and eliminat data redundancy accordingly. The results showed that: The optimized object-based RF algorithm had a high recognition ability for swamp vegetation. The scenario 4 (combination of spectral bands, texture features, geometric features, location features, surface elevation information and vegetation indexes) in the core area obtained the highest overall accuracy (87.12%), and the kappa value was 0.850 at the 95% confidence interval, which was 12.27% higher than scenario 2 (combining spectral bands, geometric features and location features), and the kappa value improved 0.140; For an identification accuracy of typical swamp vegetation, the classification of the reed achieved the highest user’s accuracy of above 88%, and its producer’s accuracy was higher than 90%. The classification ofalso achieved over 85% of producer’s accuracy, but its user’s accuracy (78%) was lower in the core area. This method can be used as an effective method to identify swamp vegetation communities and provide more accurate data support for studying dynamic changes of wetland ecological environment.
UAV multi-spectral data;random forest algorithm;multidimensional data set;variable selection;parameter tuning
X171
A
1000-6923(2021)05-2399-12
左萍萍(1996-),女,河南信陽人,桂林理工大學(xué)碩士研究生,主要從事無人機(jī)濕地遙感.
2020-09-30
國(guó)家自然科學(xué)基金資助項(xiàng)目(41801071);廣西自然科學(xué)基金資助項(xiàng)目(2018GXNSFBA281015);廣西科技計(jì)劃項(xiàng)目(桂科AD20159037);廣西研究生教育創(chuàng)新計(jì)劃項(xiàng)目(RD2000000741、YCSW2021210);桂林理工大學(xué)科研啟動(dòng)基金資助項(xiàng)目(GUTQDJJ2017096);廣西八桂學(xué)者團(tuán)隊(duì)項(xiàng)目聯(lián)合資助
* 責(zé)任作者, 副教授, fbl2012@126.com