中圖分類號(hào):S812;TP751 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):2095-5553(2025)07-0111-07
Abstract:Inorder toextractdesert grassland fractionalvegetationcoverage inrealtime,accuratelyandquickly,this paper proposedalightweightnetwork model method integrated atention mechanism(Lightweightnetwork-Convolutional Block Atention Module,LW—CBAM)based on the collected UAV hyperspectral remote sensing data.This method improved the traditional 2Dconvolution kernel to 3Ddeeplyseparableconvolution kernel,andcombined the multi-branch methodand theatention mechanismmoduletomakethe modellightweightandimprovedtheaccuracyof themodel.Inordertoobtain the optimal model,this paperoptimized the batch size and learning rateof the model.Theresultsshowed thatcompared with popular deep learning methods such as ResNet34,VGG16,MobileNetV2andMobileNetV3,LW—CBAM had a higher classification accuracy,OA was 98.97% , Kappa coefficient was 97.94,and the model had a higher estimation accuracy for fractional vegetation coverage.The absolute error from the true value was only 0.17% .TheLW— CBAM's parameter count was reduced by over 90% compared to the other models,and its computational requirements were respectively 1.37% , 0.74% , 13.33% ,and 14.81% of the four other models. During the model validation stage,the estimation error of fractional vegetation coverage by LW—CBAM was below 0.3% . This model provided a feasible method for estimating fractional vegetation coverage in desert steppe and provided a basis for grassland degradation control.
Keywords:fractional vegetation coverage;hyperspectral remote sensing;deep learning;lightweight network; attention mechanism;desert steppe
0 引言
草原是我國生態(tài)系統(tǒng)中不可或缺的一部分[1]。我國的草地面積將近 4×108hm2 ,居世界第二位[2]。然而,自從20世紀(jì)60年代以來,草原退化現(xiàn)象在全國各地出現(xiàn)上升趨勢[3],黨的二十大報(bào)告指出,推行草原森林河流湖泊濕地休養(yǎng)生息,提升生態(tài)系統(tǒng)多樣性、穩(wěn)定性、持續(xù)性。全國第六次荒漠化和沙化土地監(jiān)測調(diào)查結(jié)果顯示,內(nèi)蒙古荒漠化土地占全國荒漠化土地面積的 23.04%[4] ,土地沙化、次生鹽漬化嚴(yán)重,生態(tài)修復(fù)的任務(wù)艱巨[5]
草原荒漠化主要表現(xiàn)為植被蓋度(FVC)減少、植被種類減少、裸地面積增加等,因此, FVC 是荒漠化監(jiān)測的重要指標(biāo)[6。傳統(tǒng)的植被蓋度監(jiān)測方法以地面實(shí)測為主,優(yōu)點(diǎn)是精度高、數(shù)據(jù)可靠,但只能在小范圍內(nèi)進(jìn)行植被蓋度計(jì)算[7]。得益于技術(shù)的發(fā)展,衛(wèi)星遙感法可以在大范圍內(nèi)對(duì)植被蓋度進(jìn)行反演,但其分辨率不夠高,成本也比較高昂[8]。近年來,無人機(jī)(UAV)搭載高光譜儀借助成本低、分辨率高、操作靈活等優(yōu)勢迅速被大范圍應(yīng)用9,可為荒漠草原植被蓋度的計(jì)算提供技術(shù)支持。
1數(shù)據(jù)采集與預(yù)處理
植被蓋度通常被定義為植被(包括枝、莖、葉)在單位面積內(nèi)的垂直投影面積所占百分比[10]。張燕斌等[11]采用改進(jìn)的3D—ResNet模型對(duì)荒漠草原地物進(jìn)行分類,其總體分類精度為 97.73% ,為荒漠草原整體生態(tài)系統(tǒng)研究奠定基礎(chǔ); Xu 等[12]提出了MSR—3DCNN模型用于高光譜圖像分類,并在3個(gè)開源數(shù)據(jù)集上進(jìn)行試驗(yàn)。深度可分離卷積(DSC)[13]降低了模型參數(shù)量,為深度學(xué)習(xí)模型的輕量化提供新思路。程鉻杰等[14]提出了輕量化殘差網(wǎng)絡(luò)模型,分類精度較高,且計(jì)算量和參數(shù)量較??;孫一帆等[15]提出了融合注意力機(jī)制的輕量化關(guān)系網(wǎng)絡(luò),在小樣本條件下也有較高的分類精度?,F(xiàn)有的方法存在計(jì)算效率不夠高的問題,因此,構(gòu)建一種能夠快速、準(zhǔn)確計(jì)算FVC的方法,對(duì)荒漠草原的治理具有重要的現(xiàn)實(shí)意義。
本文采用無人機(jī)搭載高光譜儀組建無人機(jī)高光譜遙感系統(tǒng),對(duì)研究區(qū)荒漠草原的高光譜影像進(jìn)行采集和數(shù)據(jù)預(yù)處理,構(gòu)建一種融合注意力機(jī)制的輕量化網(wǎng)絡(luò)模型(LW一CBAM),對(duì)高光譜影像中的植被和非植被進(jìn)行分類并計(jì)算FVC,與ResNet34、VGG16、MobileNetV2、MobileNetV3等目前流行的深度學(xué)習(xí)方法進(jìn)行對(duì)比。旨在為以無人機(jī)高光譜遙感為手段的草原監(jiān)測奠定基礎(chǔ),為草原退化治理提供依據(jù)。
1.1 研究區(qū)概況
研究區(qū)位于內(nèi)蒙古農(nóng)牧業(yè)科學(xué)院四子王基地,地處內(nèi)蒙古自治區(qū)中部的烏蘭察布市四子王旗格根塔拉草原,地理坐標(biāo)北緯 41°78′ 、東經(jīng) 111°88′ 。該區(qū)域海拔在 1 400~1 500m ,屬于溫帶大陸性氣候,全年平均氣溫在 1°C~6°C ,年降水量為 280mm[16] ,主要集中在 6-9 月。土壤類型大部分為淡栗鈣土,土壤有機(jī)碳含量為 16g/kg ,含氮量為 1.67g/kg 。作為我國荒漠草原的典型代表,其植被稀疏低矮、種類貧乏,主要有短花針茅、冷蒿、無芒隱子草、錦雞兒、駝絨藜等。
1.2無人機(jī)高光譜遙感系統(tǒng)
無人機(jī)高光譜遙感系統(tǒng)由A3Pro飛行控制系統(tǒng)控制的大疆 M600Pro 六旋翼無人機(jī)、GaiaSky-mini型高光譜儀、如影云臺(tái)MX、小型機(jī)載計(jì)算機(jī)組成,如圖1所示。無人機(jī)采用大疆經(jīng)緯 M600Pro 六旋翼無人機(jī),空機(jī)重量為 9.5kg (含電池),最大起飛重量為 15.5kg ,滿載時(shí)可持續(xù)飛行 16min 。高光譜儀采用GaiaSky一mini型高光譜儀,光譜通道數(shù)為256,光譜范圍為 400~1000nm 光譜分辨率為 3.5nm ,圖像分辨率為775像素 ×696 像素,掃描方式為懸停內(nèi)置掃描。機(jī)載計(jì)算機(jī)的CPU為Inteli7—7567U,配有512G的固態(tài)硬盤。
1.3數(shù)據(jù)采集
無人機(jī)數(shù)據(jù)采集時(shí)間為2023年7—8月,包括高光譜數(shù)據(jù)采集和可見光數(shù)據(jù)采集。在研究區(qū)內(nèi)隨機(jī)布置60個(gè)大小為 1m×1m 的樣方,使用小旗和地墊輔助標(biāo)記樣方。為降低天氣等外部條件對(duì)數(shù)據(jù)采集的影響,選擇時(shí)間為10:00—14:00,且在天氣晴朗、無云霧遮擋、風(fēng)力低于3級(jí)(少風(fēng)或微風(fēng))的條件下采集。高光譜數(shù)據(jù)采集時(shí)無人機(jī)飛行高度為 20m ,空間分辨率為1.73cm/pixel ,且對(duì)每個(gè)地物樣方拍攝3次。每個(gè)架次起飛前后分別進(jìn)行標(biāo)準(zhǔn)白板校正,將光照強(qiáng)度的變化對(duì)高光譜圖像的影響降到最低。可見光數(shù)據(jù)采集使用大疆精靈3無人機(jī)采集,采集高度為 8m ,每個(gè)樣方拍攝2次。
1.4 數(shù)據(jù)預(yù)處理
通過人工對(duì)比,剔除成像不佳、過度曝光以及欠曝光的圖像,將高光譜數(shù)據(jù)導(dǎo)人SpecVIEW軟件,結(jié)合采集的白幀和黑幀對(duì)反射率進(jìn)行校正。圖2為經(jīng)過反射率校正后的光譜曲線??梢钥闯?,植被和非植被的反射率曲線存在明顯差異,在 680nm 處植被反射率曲線有明顯的“波谷”,之后快速上升,而非植被在 400~ 800nm 上升較為平緩,且無明顯波動(dòng)。反射率的差異為精確區(qū)分植被和非植被以及FVC的計(jì)算提供可能。
圖2植被和非植被的反射率曲線 Fig.2Reflectance curve of vegetation and non-vegetation
相比傳統(tǒng)的遙感圖像,高光譜圖像具有分辨率高、特征維數(shù)高的特點(diǎn),但同時(shí)也存在信息冗余的問題,在數(shù)據(jù)處理過程中會(huì)出現(xiàn)維數(shù)災(zāi)難和Hughes現(xiàn)象[17]。為避免模型學(xué)到無關(guān)信息,采用主成分分析(PCA)[18,19]法對(duì)高光譜數(shù)據(jù)進(jìn)行降維處理。表1為高光譜數(shù)據(jù)經(jīng)過PCA后主成分的協(xié)方差貢獻(xiàn)率??梢钥闯觯?jīng)過PCA降維后,前30個(gè)主成分的累計(jì)協(xié)方差貢獻(xiàn)率為 99.80% ,基本可以包含原始高光譜圖像的全部信息,因此,選擇將高光譜數(shù)據(jù)降至30維。為方便處理,將高光譜圖像進(jìn)行裁剪,最終高光譜圖像的尺寸為500lines ×500 samples ×30 bands。
表1協(xié)方差貢獻(xiàn)率Tab.1 Covariance contribution rate
在ENVI5.6軟件中使用ROI感興趣區(qū)域制作標(biāo)簽數(shù)據(jù)集,其中植被像元24809個(gè),非植被像元26673個(gè),共有51482個(gè)樣本,將總樣本的 40% 作為訓(xùn)練集,其余作為測試集。
1.5 FVC真實(shí)值
為確定FVC的真實(shí)值,使用大疆精靈3無人機(jī)采集樣方的可見光圖像,此操作在完成樣方的高光譜數(shù)據(jù)采集后進(jìn)行。為了使可見光圖像與 500lines×500 samples的高光譜影像相對(duì)應(yīng),使用PhotoshopCC2015對(duì)可見光圖像進(jìn)行裁剪,保證可見光圖像的植被蓋度可以作為真實(shí)值。支持向量機(jī)(SVM是一種機(jī)器學(xué)習(xí)算法,常被用于二分類問題,因此,選用SVM對(duì)可見光圖像進(jìn)行監(jiān)督分類并結(jié)合目視解譯法得到FVC真實(shí)值。
將裁剪后的可見光圖像導(dǎo)人ENVI5.6中,首先對(duì)圖像進(jìn)行歸一化處理,接著通過ROI感興趣區(qū)域定義訓(xùn)練樣本(訓(xùn)練樣本約占總樣本的 15%~20% ,并計(jì)算樣本的可分離度??煞蛛x度的值為 0~2.0 ,可分離度大于1.9,說明樣本之間可分離性很好;可分離度小于1.8,則需要重新選擇樣本。最后使用SVM監(jiān)督分類對(duì)整幅圖像進(jìn)行分類,通過目視解譯法對(duì)分類錯(cuò)誤的區(qū)域進(jìn)行調(diào)整,之后分別統(tǒng)計(jì)植被和非植被的像元個(gè)數(shù),植被像元數(shù)與總像元數(shù)的比值即為FVC真實(shí)值。通過SVM對(duì)可見光圖像進(jìn)行監(jiān)督分類并結(jié)合目視解譯法最終得到植被蓋度的真實(shí)值為 50.92% 。
2 研究方法
2.1 注意力機(jī)制
注意力機(jī)制被廣泛應(yīng)用于深度學(xué)習(xí)中,本文將3D卷積注意力機(jī)制模塊(CBAM)[20]融入深度學(xué)習(xí)模型,其可以分為兩部分:第一部分為通道注意力機(jī)制;第二部分為空間注意力機(jī)制。圖3為CBAM的整體結(jié)構(gòu),假設(shè)網(wǎng)絡(luò)輸入的特征尺寸為 H×W×C ,首先在空間維度(H,W 維度)分別作3DGlobalAveragePooling和3DGlobalMaxPooling,接著進(jìn)行通道壓縮、展開操作, r 為通道 C 下降的倍數(shù),即可得到每個(gè) c 的權(quán)重,將二者相加后與原始特征圖相乘即可得到通道加權(quán)后的特征圖。之后在 c 維度分別作3DGlobalAveragePooling和3DGlobalMaxPooling,將二者在通道維度拼接,再通過卷積將通道合二為一,即可得到空間權(quán)重圖,將其與通道加權(quán)特征圖相乘即可得到通道空間加權(quán)的特征圖。
圖3卷積注意力機(jī)制模塊 Fig.3 Convolutional block attention module
2.2 神經(jīng)網(wǎng)絡(luò)模型
傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)運(yùn)算量大、運(yùn)算時(shí)間長,而深度可分離卷積(DSC)的出現(xiàn)大大減少了模型的參數(shù)量和運(yùn)算量。因此,選擇使用DSC,以達(dá)到輕量化的目的。圖4為融合注意力機(jī)制的輕量化網(wǎng)絡(luò)模型(LW—CBAM的結(jié)構(gòu)圖,通過PCA將高光譜數(shù)據(jù)降至30維,經(jīng)過Patch后以 30×9×9 的大小送人神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。首先通過一個(gè) 7×7×7 的3D—DSC,并采用ReLU激活函數(shù)進(jìn)行特征初步提??;接著分為3條支路分別提取特征,第一條支路為 3×3×3 的3D—DSC,第二條支路包括最大池化下采樣和上采樣,將第一條支路和第二條支路提取到的特征在維度方向上進(jìn)行拼接,并在其后融入CBAM,第三條支路同樣是 3× 3×3 的3D—DSC;最后將第三條支路的特征與拼接后的結(jié)果進(jìn)行融合,在其后也融入CBAM,通過展平層、全連接層以及Logsoftmax函數(shù)后輸出分類結(jié)果。此外,在每個(gè)卷積之后都加入批量歸一化(BN)操作,避免梯度消失與爆炸,加快模型收斂。為避免模型過擬合,在訓(xùn)練階段使用dropout操作,隨機(jī)失活 40% 的神經(jīng)元。
圖4神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.4Neural network structure
3 結(jié)果與分析
數(shù)據(jù)處理在Windows10系統(tǒng)上進(jìn)行,RAM為16 GB,CPU 為 Intel Core i5-9300H ,顯卡為NVIDIAGeForceGTX1650,4GB獨(dú)顯。神經(jīng)網(wǎng)絡(luò)模型基于Pytorch1.13.0框架編寫,編譯器選擇Anaconda 的 Spyder。
輸人神經(jīng)網(wǎng)絡(luò)的圖像大小為30像素 ×9 像素 ×9 像素,訓(xùn)練批次為100,采用交叉熵?fù)p失函數(shù),優(yōu)化器選擇Adam。并選用ResNet34、VGG16、MobileNetV2、MobileNetV3等目前流行的深度學(xué)習(xí)模型與LW—CBAM模型進(jìn)行對(duì)比。
3.1 評(píng)價(jià)指標(biāo)
對(duì)于分類精度,選用總體分類精度(OA)和Kappa系數(shù)21進(jìn)行評(píng)價(jià)。 OA 為被正確分類的像元個(gè)數(shù)除以總像元個(gè)數(shù)。 OA 越高, Kappa 越大,模型效果越好。OA和Kappa系數(shù)的計(jì)算如式(1)和式(2)所示。
?
?
式中: k 分類的類別數(shù);xii (204 第 i 類樣本中被正確分類的個(gè)數(shù);n (2 樣本總數(shù)量;P e 期望分類精度;Po 總體分類精度。
假設(shè)每一類真實(shí)樣本個(gè)數(shù)分別為 x1,x2,…,xa , 預(yù)測出的每一類樣本個(gè)數(shù)為 y1,y2,…,ya ,則
?
對(duì)于植被蓋度的計(jì)算結(jié)果,選用估算值與真實(shí)值的絕對(duì)誤差 (AE )進(jìn)行評(píng)價(jià),絕對(duì)誤差越小,植被蓋度的計(jì)算結(jié)果越準(zhǔn)確。絕對(duì)誤差的計(jì)算如式(4)所示。
?
式中: Z (20 -FVC的估算值;
? (204號(hào) -FVC的真實(shí)值。
對(duì)于模型輕量化,選擇參數(shù)量(Params)、運(yùn)算量(Flops)[22] ,并輔以訓(xùn)練時(shí)間和預(yù)測時(shí)間進(jìn)行評(píng)價(jià),Params和Flops運(yùn)算量越小,訓(xùn)練時(shí)間和預(yù)測時(shí)間越短,表明模型越輕量化。
3.2 結(jié)果分析
為得到最優(yōu)模型,將LW—CBAM模型進(jìn)行批量大?。╞atchsize)和學(xué)習(xí)率(learningrate)的優(yōu)化。為避免模型運(yùn)算的偶然性,數(shù)據(jù)均為3次重復(fù)運(yùn)算取平均值的結(jié)果。評(píng)估batchsize對(duì)模型效果的影響時(shí),分別設(shè)置32、64、128、256共4種不同的batchsize,學(xué)習(xí)率為0.001。表2為對(duì)比結(jié)果,可以看出,在4種不同的batchsize下, OA 均高于 97.9% ,當(dāng)batchsize為64時(shí),取得最佳分類精度 98.44% 。
表2批量大小優(yōu)化結(jié)果對(duì)比Tab.2Comparison of optimization results for batch sizt
在batch size為64的基礎(chǔ)上,設(shè)置0.00l、0.004、0.007,0.01,0.02 共5種不同的learningrate,目的是確定最佳的learningrate參數(shù)。由表3可知, OA 介于 98%~99% ,當(dāng)學(xué)習(xí)率為0.01時(shí),總體分類精度最高為 98.97% 。在試驗(yàn)過程中,當(dāng)learningrate為0.02時(shí),訓(xùn)練后期準(zhǔn)確率振蕩劇烈,這是學(xué)習(xí)率過大導(dǎo)致的。因此,經(jīng)過優(yōu)化后,最終的批量大小和學(xué)習(xí)率分別為64、0.01。
表3學(xué)習(xí)率優(yōu)化結(jié)果對(duì)比 Tab.3Comparison of optimization results for learning rate
為更好地評(píng)估模型的性能,將LW一CBAM與ResNet34、VGG16、MobileNetV2、MobileNetV3等深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行對(duì)比。圖5為5種模型的OA和Kappa系數(shù)對(duì)比。由圖5可知, OA 與Kappa系數(shù)的變化呈現(xiàn)相同的趨勢, OA 高的模型Kappa系數(shù)也高,其關(guān)系為LW—CI BAMgt; MobileNetV3gt;VGG16gt; MobileNet V2gt; ResNet34。需要說明的是,本文對(duì)Kappa系數(shù)做了放大100倍的處理。LW—CBAM的 OA 和 Kappa 系數(shù)分別為 98.97% 797.94,MobileNetV3的分類精度緊隨其后,分別為97.76%.96.15 。VGG16的性能處于5種模型的中間位置,分類精度為LW一CBAM的 98.30% 、96.54% 。MobileNetV2的效果表現(xiàn)不佳,OA和Kappa系數(shù)僅為 95.57%.91.13 。ResNet34的OA和Kappa系數(shù)最低,分別為 94.58% 、89.14,相比于LW—CBAM,分別降低 4.39%.8.8 。
模型訓(xùn)練完成,需要對(duì)整幅高光譜圖像的覆蓋度進(jìn)行預(yù)測,并與真實(shí)值進(jìn)行對(duì)比,表4為5種模型計(jì)算FVC的結(jié)果,可以看出,LW—CBAM估算的植被覆蓋度與真實(shí)的植被覆蓋度最為接近,其絕對(duì)誤差為 0.17% 其次為MobileNetV3,估算植被覆蓋度為 50‰ ,絕對(duì)誤差為 0.24% ,VGG16和MobileNetV2模型的估算結(jié)果與真實(shí)值相差不大,絕對(duì)誤差分別為 0.32%.0.35% ResNet34的預(yù)測結(jié)果與真實(shí)值相差最大,絕對(duì)誤差為 0.44% 。
表4FVC估算結(jié)果Tab.4Estimation of FVC
圖5OA和Kappa系數(shù) Fig.5 OA and Kappa coefficient
表5為各模型參數(shù)的對(duì)比,可以看出,LW—CBAM迭代100次的時(shí)間為 9.73min ,分別為ResNet34、VGG16、MobileNetV2、MobileNetV3的27.79% 、 60.12% ! 63.99% 、 66.82% ,預(yù)測時(shí)間為18s ,較其他模型分別降低 23.33s,11.39s,15.61s ‘14.63s 。LW一CBAM的參數(shù)量僅為 0.74M ,較ResNet34、VGG16、MobileNetV2、MobileNetV3模型分別下降 99.11%.98.09%.91.90%.92.39% ,降幅均在 90% 以上,運(yùn)算量分別為其他模型的 1.37% 、0.74%.13.33%.14.81% 。
表5模型參數(shù)對(duì)比Tab.5Model parameter comparison
FVC的可視化對(duì)比如圖6所示。
圖6可視化對(duì)比 Fig.6Visual contrast chart
為驗(yàn)證LW一CBAM在荒漠草原FVC估算方面的有效性,對(duì)另外3張高光譜圖像進(jìn)行FVC估算,結(jié)果如表6所示。可以看出,LW—CBAM對(duì)3張影像的FVC估算值分別為 51.91%.47.51%.52.56% ,與真實(shí)值的絕對(duì)誤差均在 0.3% 以下,驗(yàn)證LW—CBAM在荒漠草原植被蓋度估算中的精準(zhǔn)性。圖7為可視化結(jié)果。
表6FVC估算值與真實(shí)值對(duì)比 Tab.6Compare the estimated value with the truevalueofFVC
圖7覆蓋度估算模型可視化結(jié)果
Fig. 7Visualization results of coverage estimation model
4結(jié)論
通過無人機(jī)遙感系統(tǒng)采集荒漠草原的高光譜數(shù)據(jù),研究融合注意力機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)模型對(duì)荒漠草原植被蓋度計(jì)算的準(zhǔn)確性和快速性。
1)提出一種基于無人機(jī)高光譜圖像計(jì)算植被蓋度的輕量化網(wǎng)絡(luò)模型(LW—CBAM),并在該模型中融合注意力機(jī)制。結(jié)果表明,該模型的OA為 98.97% ,Kappa為97.94,與其余4種模型相比,分類精度更高,且該模型對(duì)荒漠草原植被蓋度估算的絕對(duì)誤差僅為 0.17% ,可以準(zhǔn)確估算荒漠草原的 FVC 。
2)LW—CBAM舍去傳統(tǒng)的2D卷積模塊,采用3D深度可分離卷積模塊(3D—DSC),使得模型更加輕量化。與ResNet34、VGGl6、MobileNetV2、MobileNetV3相比,LW一CBAM的參數(shù)量降低 90% 以上,運(yùn)算量分別為4種模型的 1.37%.0.74%.13.33%.14.81% ,且在模型訓(xùn)練時(shí)間與預(yù)測時(shí)間上都有顯著優(yōu)勢。
3)為驗(yàn)證LW—CBAM在荒漠化草原蓋度估算方面的有效性,使用模型分別對(duì)3張高光譜影像進(jìn)行植被蓋度估算。結(jié)果表明,LW一CBAM對(duì)植被蓋度的估算誤差在 0.3% 以下,實(shí)現(xiàn)高精度、快速的荒漠草原植被蓋度估算。
4)LW—CBAM為荒漠草原植被蓋度的計(jì)算提供一種切實(shí)可行的方法,為以無人機(jī)高光譜遙感為手段的荒漠草原監(jiān)測奠定基礎(chǔ)。
參考文獻(xiàn)
[1]俞樹毅,王睿.草原生態(tài)文明建設(shè)進(jìn)路中“圍欄困境”的破解[J].蘭州大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022,50(4):63-73.Yu Shuyi, Wang Rui. The solution ofthe“FenceDilemma”in the construction of grassland ecologicalcivilization[J]. Journal of Lanzhou University (SocialSciences),2022,50(4):63-73.
[2]石磊,孫海蓮,王慧敏,等.內(nèi)蒙古草地生態(tài)系統(tǒng)質(zhì)量評(píng)估[J].北方農(nóng)業(yè)學(xué)報(bào),2021,49(6):128—134.Shi Lei,Sun Hailian,Wang Huimin,et al.Assessmentof grassland ecosystem quality in Inner Mongolia [J]. Journalof Northern Agriculture,2021,49(6):128—134.
[3]臧琛,尚士友,王志國,等.典型草原退化評(píng)價(jià)因子及其分級(jí)標(biāo)準(zhǔn)的研究[J].中國農(nóng)機(jī)化學(xué)報(bào),2016,37(10):210—213,245.Zang Chen,Shang Shiyou,Wang Zhiguo,et al. Studyon degradation evaluation factorsof typical steppeand its classification standard [J]. Journal of ChineseAgriculturalMechanization,2016,37(10):210-213,245.
[4]昝國盛,王翠萍,李鋒,等.第六次全國荒漠化和沙化調(diào)查主要結(jié)果及分析[J]:林業(yè)資源管理,2023(1):1-7.Zan Guosheng,Wang Cuiping,Li Feng,et al.Keydata results and trend analysis of the sixth national surveyondesertification andsandification[J]. ForestryResources Management,2023(1):1—7.
[5]韓芳,劉朋濤,牛建明,等.50a來內(nèi)蒙古荒漠草原氣候干燥度的空間分布及其演變特征[J].干旱區(qū)研究,2013,30(3):449-456.Han Fang,LiuPengtao,Niu Jianming, etal.Spatial distribution and evolution ofclimaticaridityin desert steppe in Inner Mongolia in recent 5O years [J].AridZoneResearch,2013,30(3):449-456.
[6]Oliveira D E T,F(xiàn)reitas D S D, GianeziniM,et al.Agricultural land use change in the Brazilian Pampa biome:The reduction of natural grasslands [J]. Land Use Policy,2017(63):394-400.
[7]郭慶華,胡天宇,馬勤,等.新一代遙感技術(shù)助力生態(tài)系統(tǒng)
生態(tài)學(xué)研究[J].植物生態(tài)學(xué)報(bào),2020,44(4):418-435.Guo Qinghua,Hu Tianyu,Ma Qin,et al.Advance forthenewremotesensingtechnologyinecosystemecology research [J]. Chinese Journal of Plant Ecology,2020,44(4):418-435.
[8]劉克.衛(wèi)星遙感技術(shù)縣域應(yīng)用現(xiàn)狀及前景分析[J].科技風(fēng),2022(35):7—10.Liu Ke. Application status and prospect analysis ofsatellite remote sensing technology in counties [J].Science and Technology Style,2022(35):7-10.
[9]Riihimaki H, Luoto M,Heiskanen J.Estimatingfractional cover of tundra vegetation at multiple scales usingunmanned aerial systems and optical satelite data [J].Remote Sensing of Environment,2019,224:119—132.
[10]HuaL,MichaelRR,TimRM,etal.Decomposition ofvegetation cover into woody and herbaceous componentsusing AVHRR NDVI time series [J]. Remote Sensing ofEnvironment,2003,86(1):1—18.
[11]張燕斌,杜健民,王圓,等.基于無人機(jī)高光譜遙感和3D—ResNet的荒漠草原地物分類[J].中國農(nóng)機(jī)化學(xué)報(bào),2022,43(4):66—73.Zhang Yanbin, Du Jianmin, Wang Yuan, etal.Terrain classificationindesert steppe based onUAV hyperspectral remote sensing and 3D-ResNet[J]. Journal of Chinese AgriculturalMechanization,2022,43(4):66-73.
[12] Xu H,Yao W,Cheng L,et al.Multiple spectralresolution3Dconvolutional neural networkforhyperspectral image clasification [J]. Remote Sensing,2021,13(7):1248.
[13]Andrew G H,Menglong Z,Bo C,et al. MobileNets:Efficientconvolutionalneuralnetworksformobilevision applications [J].arXiv preprint arXiv:1704.04861,2017.
[14]程諮杰,楊耘,李龍威,等.基于深度可分離卷積的輕量化殘差網(wǎng)絡(luò)高光譜影像分類[J].光學(xué)學(xué)報(bào),2023,43(12):311-320.Cheng Rongjie, Yang Geng, Li Longwei, etal.Lightweightresidual networkbasedon depthwiseseparableconvolution forhyperspectral imageclassification[J]. Acta Optica Sinica,2023,43(12):311—320.
[15]孫一帆,余旭初,譚熊,等.面向小樣本高光譜影像分類的輕量化關(guān)系網(wǎng)絡(luò)[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2022,47(8):1336—1348.SunYifan, Yu Xuchu, Tan Xiong, etal.Lightweightrelation networkorsmall samplehyperspectral'image classification [J]. Geomatics andInformation Science of Wuhan University,2O22,47(8):1336—1348.
[16]潘占磊,王忠武,韓國棟,等.短花針茅荒漠草原甲烷通量對(duì)增溫和施氮的響應(yīng)[J].生態(tài)環(huán)境學(xué)報(bào),2016,25(2):209-216.Pan Zhanlei, Wang Zhongwu, Han Guodong,et al.Responseofmethanefluxes on warming andnitrogen addition in Stipa breviflora desert steppe [J].Ecology and Environment Sciences,2016,25(2):209-216.
[17] Ma W, Gong C, Hu Y, et al.The Hughesphenomenon in hyperspectral classification based onthe ground spectrum of grasslands in the region aroundQinghai Lake[J].The International Society for OpticalEngineering,2013,8910.
[18] Taskin K,Hasan T, Merve E Y, et al.Dimensionality reduction and classification ofhyperspectral images using object-based imageanalysis [J].Journal of the Indian Society of RemoteSensing,2018,46(8):1297—1306.
[19]孫肖,彭軍還,趙鋒,等.基于空間統(tǒng)計(jì)學(xué)的高光譜遙感影像主成分選擇方法[J].自然資源遙感,2022,34(2):37—46.Sun Xiao,Peng Junhuan,Zhao Feng,et al.Principalcomponentselectionmethodofhyperspectralremotesensing images based on spatial statistics [J]. Remote Sensingfor Natural Resources,2022,34(2):37-46.
[20] Chaoqun W,Binbin L,Bin J. Fault diagnosis of rollingbearing basedon convolutionalneuralnetworkofconvolutional block attention module [J]. JournalofPhysics:Conference Series,2021,1732(1):012045.
[21]陳桂芬,曾廣偉,陳航,等.基于紋理特征和神經(jīng)網(wǎng)絡(luò)算法的遙感影像分類方法研究[J].中國農(nóng)機(jī)化學(xué)報(bào),2014,35(1):270—274.ChenGuifen,Zeng Guangwei,Chen Hang,etal.Studyof RS image classification method based on texturefeatures and neural network algorithm [J]. Journal ofChinese Agricultural Mechanization, 2014, 35(1):270—274.
[22] Tao Z, Yuge B, Fei H,etal. Transformerattentionnetworkand unmanned aerial vehiclehyperspectralremote sensingfor grassland rodentpest monitoring research [J]. Journal of Applied RemoteSensing,2022,16(4):044525.