摘 要:為了快速、高效、智能提取滑坡,提高滑坡動(dòng)態(tài)監(jiān)測(cè)工作的效率,探索將YOLO V8模型應(yīng)用于高分辨率遙感影像滑坡自動(dòng)解譯當(dāng)中,通過(guò)建立不同地區(qū)的滑坡解譯樣本,構(gòu)建面向地質(zhì)災(zāi)害監(jiān)測(cè)的識(shí)別樣本庫(kù);采用YOLO V8深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu),基于預(yù)訓(xùn)練模型構(gòu)建大影像滑坡智能解譯模型,實(shí)現(xiàn)滑坡的快速自動(dòng)識(shí)別提取。結(jié)果表明:模型提取的滑坡結(jié)果與人工解譯的滑坡提取邊界重合度高,形狀基本一致,分割精度較好,在驗(yàn)證集上mAP50達(dá)到了0.995,mAP50-95(M)為0.716 18,召回率為0.904 24。相較于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(CNN),模型具有更高的精度和更快的速率,可為滑坡動(dòng)態(tài)監(jiān)測(cè)工作提供技術(shù)支持。
關(guān)鍵詞:滑坡;深度學(xué)習(xí);智能提取模型;地質(zhì)災(zāi)害
中圖分類(lèi)號(hào):TP79" " " " " " " " " " " " " " " " " " " " " " " " " "文獻(xiàn)標(biāo)志碼:A
0 引言
滑坡是最常見(jiàn)的地質(zhì)災(zāi)害之一,具有突發(fā)性、影響范圍廣、難以預(yù)測(cè)等特點(diǎn)。滑坡在自然災(zāi)害造成的經(jīng)濟(jì)損失中位列第二,對(duì)人類(lèi)危害巨大,不僅破壞交通運(yùn)輸、農(nóng)業(yè)生產(chǎn)、城鎮(zhèn)設(shè)施等,也會(huì)給人民生命財(cái)產(chǎn)安全帶來(lái)巨大的損失。
2020年全國(guó)發(fā)生滑坡4 810起,2021年全國(guó)發(fā)生滑坡2 335起,2022年全國(guó)發(fā)生滑坡1 919起。地質(zhì)災(zāi)害統(tǒng)計(jì)結(jié)果顯示,2016—2022 年共發(fā)生70 253 起地質(zhì)災(zāi)害,其中滑坡50 110 起,占地質(zhì)災(zāi)害70%以上[1]?;碌囊?guī)模小至百余立方米,大可達(dá)上億立方米。
利用衛(wèi)星遙感、無(wú)人機(jī)等天地一體化對(duì)地觀測(cè)系統(tǒng)進(jìn)行地理要素提取統(tǒng)計(jì)具有周期性、動(dòng)態(tài)性、宏觀性等方面的巨大優(yōu)勢(shì)[2]?;伦R(shí)別的主要依據(jù)是滑坡發(fā)生后在遙感圖像上所呈現(xiàn)出的紋理、形狀和光譜特性等屬性與周?chē)匚锩黠@不同,可以利用這種差異來(lái)進(jìn)行滑坡目標(biāo)識(shí)別,一般采用面向像元識(shí)別方法、面向?qū)ο笞R(shí)別方法和深度學(xué)習(xí)方法[3]。隨著遙感影像空間分辨率不斷提高,面向?qū)ο蟮臋C(jī)器學(xué)習(xí)分類(lèi)方法逐漸優(yōu)化,在中小尺度上進(jìn)行遙感影像語(yǔ)義分割相較于傳統(tǒng)機(jī)器學(xué)習(xí)方法有更高的精度[4]。過(guò)去,受限于遙感影像空間分辨率高、數(shù)據(jù)量大、計(jì)算機(jī)算力有限,自動(dòng)識(shí)別精度較低,未能廣泛應(yīng)用。隨著大數(shù)據(jù)時(shí)代來(lái)臨和AI技術(shù)高速發(fā)展,機(jī)器學(xué)習(xí)因深度學(xué)習(xí)理論的發(fā)展而取得突破性進(jìn)展,基于深度學(xué)習(xí)理論的遙感影像解譯分析方面涌現(xiàn)出大量研究成果[4-8]。黨宇等[8]基于深度學(xué)習(xí)理論,引入地物圖斑分類(lèi)理論體系,對(duì)地表土地覆蓋地物進(jìn)行分類(lèi)。周楠[4]基于深度學(xué)習(xí)理論,嘗試了精細(xì)化土地覆蓋變化遙感提取研究。
目前應(yīng)用于遙感影像的地物語(yǔ)義分割框架大部分基于CNN模型,遵循編碼器-解碼器的框架。為改進(jìn)基礎(chǔ)框架中的各種限制,衍生出各種模型,例如U-Net網(wǎng)絡(luò)用來(lái)獲取細(xì)節(jié)信息、Deeplab系列引入上下文信息及各種自注意力機(jī)制方法等。YOLO是一種基于圖像全局信息進(jìn)行預(yù)測(cè)的全新目標(biāo)檢測(cè)系統(tǒng),由Redmon等[9]于2016年提出,目前進(jìn)行了多次迭代更新,模型性能逐步強(qiáng)大。YOLO V8作為其最新的改進(jìn)型,在性能上和速度上均有優(yōu)異的表現(xiàn),尤其是計(jì)算效率上相對(duì)于卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型有較大優(yōu)勢(shì)。
由于滑坡具有突發(fā)性、難以預(yù)測(cè)性、破壞性,當(dāng)前階段對(duì)其動(dòng)態(tài)監(jiān)測(cè)主要依賴(lài)人工解譯和遙感,但是人工解譯未實(shí)現(xiàn)全覆蓋。為了提高實(shí)際工作中滑坡動(dòng)態(tài)監(jiān)測(cè)工作的效率,本文探索將YOLO V8模型應(yīng)用于高分辨率遙感影像滑坡自動(dòng)解譯當(dāng)中,建立不同地區(qū)的滑坡解譯樣本,構(gòu)建面向防災(zāi)減災(zāi)的識(shí)別樣本庫(kù);采用YOLO V8深度學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu),基于預(yù)訓(xùn)練模型構(gòu)建大影像的滑坡智能解譯模型,通過(guò)分塊—提取—拼接,實(shí)現(xiàn)滑坡的自動(dòng)識(shí)別及提取。
1 研究區(qū)域
九寨溝地處四川北部阿壩藏族羌族自治州,東臨甘肅省文縣,北與甘肅省舟曲縣、迭部縣交界,西接若爾蓋縣,南同平武縣、松潘縣接壤[9]。域跨103°46′E—104°4′E、32°54′N(xiāo)—33°19′N(xiāo)。地勢(shì)西北高東南低,以高山為主,另有部分山原和平壩,地形呈階次變化,海拔落差達(dá)2 000 m 。地處青藏高原向四川盆地過(guò)渡地帶[10],地質(zhì)背景復(fù)雜,碳酸鹽分布廣泛,褶皺斷裂發(fā)育,新構(gòu)造運(yùn)動(dòng)強(qiáng)烈,地殼抬升幅度大,多種營(yíng)力交錯(cuò)復(fù)合,造就了多種多樣的地貌,發(fā)育了大規(guī)模喀斯特作用的鈣化沉積[11],以植物喀斯特鈣化沉積為主導(dǎo)。九寨溝有角峰、刃脊、懸谷、槽谷,槽谷伸至海拔2 800 m 。
主要數(shù)據(jù)源為高分一號(hào)(GF-1)衛(wèi)星和高分二號(hào)(GF-2)衛(wèi)星,選擇四川省九寨溝縣為試驗(yàn)區(qū)。因九寨溝位于四川盆地與青藏高原接壤地帶[12],縣內(nèi)高山縱橫、河谷交錯(cuò),高山與峽谷地貌占據(jù)了縣內(nèi)大部分地區(qū),海拔落差極大,最高與最低處的海拔差距達(dá)到 3 719 m、植被覆蓋率高,導(dǎo)致該區(qū)域地殼活動(dòng)頻繁,極易發(fā)生滑坡?;聟^(qū)域如圖1所示,紅色點(diǎn)為滑坡易發(fā)區(qū)域。
1.1 樣本庫(kù)構(gòu)建
基于國(guó)產(chǎn)高分系列遙感影像,進(jìn)行滑坡樣本庫(kù)構(gòu)建。為了利用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,將大幅遙感影像進(jìn)行切片處理,切片影像大小為512像素×512像素,重疊度為0%。滑坡樣本切片序列樣本如圖2所示。
YOLO V8模型的訓(xùn)練樣本集文件組織結(jié)構(gòu)采用COCO數(shù)據(jù)集的數(shù)據(jù)組織結(jié)構(gòu),如圖3所示。
本文采用標(biāo)注軟件Labelme對(duì)切片數(shù)據(jù)進(jìn)行標(biāo)注。由于YOLO V8網(wǎng)絡(luò)讀取的標(biāo)簽文件是txt文件,需要將json文件轉(zhuǎn)換成txt文件,每個(gè)多邊形以“類(lèi)別標(biāo)簽+多邊形節(jié)點(diǎn)橫/縱坐標(biāo)串”構(gòu)成一條記錄,并且多邊形的節(jié)點(diǎn)坐標(biāo)轉(zhuǎn)換為圖像的歸一化相對(duì)坐標(biāo),取值為[0,1]。同時(shí)由于滑坡數(shù)據(jù)集有限,為擴(kuò)充樣本集數(shù)量,采用水平翻轉(zhuǎn)、垂直翻轉(zhuǎn)以及重采樣的方式進(jìn)行數(shù)據(jù)增強(qiáng)。實(shí)驗(yàn)中的訓(xùn)練樣本總共有6 351個(gè),訓(xùn)練時(shí)采用7∶2∶1的分配方式構(gòu)成訓(xùn)練集、驗(yàn)證集、測(cè)試集。訓(xùn)練集標(biāo)注框如圖4所示。
1.2 分割模型構(gòu)建
YOLO的模型結(jié)構(gòu)主要分為兩個(gè)部分:骨干網(wǎng)絡(luò)(Backbone Network)和檢測(cè)頭(Detection Head)[13]。
1.2.1 骨干網(wǎng)絡(luò)(Backbone Network)
YOLO使用骨干網(wǎng)絡(luò)提取圖像特征。通常,YOLO使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)作為骨干網(wǎng)絡(luò),如Darknet、ResNet、Tiny YOLO、MobileNet等。骨干網(wǎng)絡(luò)負(fù)責(zé)從原始圖像中提取特征[14],以便檢測(cè)頭能夠更好地理解圖像中的目標(biāo)信息。
1.2.2 檢測(cè)頭(Detection Head)
YOLO的檢測(cè)頭負(fù)責(zé)從骨干網(wǎng)絡(luò)提取的特征中預(yù)測(cè)目標(biāo)的位置和類(lèi)別[15]。檢測(cè)頭通常包括卷積層、全連接層和輸出層。YOLO的輸出層生成目標(biāo)檢測(cè)的最終結(jié)果。對(duì)于每個(gè)網(wǎng)格單元,輸出的通道包含了每個(gè)邊界框的信息,每個(gè)邊界框通常包括:中心坐標(biāo)(x,y)(表示邊界框相對(duì)于當(dāng)前網(wǎng)格單元左上角的相對(duì)位置[16])、寬度和高度(w,h)(表示邊界框的寬度和高度相對(duì)于整個(gè)圖像的比例[17])、類(lèi)別概率(表示目標(biāo)屬于每個(gè)類(lèi)別的概率)。
YOLO在訓(xùn)練時(shí)使用錨點(diǎn)框以適應(yīng)不同尺寸和比例的目標(biāo)。每個(gè)輸出通道的邊界框預(yù)測(cè)都與一個(gè)或多個(gè)錨點(diǎn)框相關(guān)聯(lián)。錨點(diǎn)框的尺寸和比例通過(guò)在數(shù)據(jù)集上進(jìn)行聚類(lèi)得到[18]。
YOLO的工作流程:
(1)輸入圖像。YOLO接收原始圖像作為輸入。
(2)通過(guò)骨干網(wǎng)絡(luò),提取輸入圖像特征。
(3)骨干網(wǎng)絡(luò)的特征傳遞給檢測(cè)頭,生成目標(biāo)檢測(cè)的預(yù)測(cè)結(jié)果。
(4)后處理。對(duì)預(yù)測(cè)結(jié)果進(jìn)行非極大值抑制(NMS)等后處理操作,得到最終的目標(biāo)檢測(cè)結(jié)果[19]。
YOLO V8作為YOLO系列最新的改進(jìn)型,骨干網(wǎng)絡(luò)和Neck部分參考YOLO V7的設(shè)計(jì)思想,將YOLO V5的C3結(jié)構(gòu)換成梯度流更為豐富的C2f結(jié)構(gòu),對(duì)不同尺度模型調(diào)整了不同的通道數(shù),以提升模型性能。Head部分換成主流的解耦頭結(jié)構(gòu),將分類(lèi)和檢測(cè)頭分離,從基于Anchor的模式換成了基于Anchor-Free的模式。從整體上來(lái)看,YOLO V8和YOLO V5基本一致。本研究中采用YOLO V8的預(yù)訓(xùn)練模型“yolo v8s-seg.pt”作為初始化參數(shù),再利用滑坡數(shù)據(jù)集進(jìn)行模型參數(shù)微調(diào)。
2 實(shí)驗(yàn)分析
實(shí)驗(yàn)中采用的訓(xùn)練主機(jī)為1臺(tái)配置有NVIDIA 3060 Ti顯卡的高性能工作站。選用Pytorch網(wǎng)絡(luò)模型庫(kù),設(shè)置batch_size為16,迭代次數(shù)為100。訓(xùn)練總共花費(fèi)3 h。采用TensorBoard模塊監(jiān)測(cè)模型訓(xùn)練過(guò)程。訓(xùn)練設(shè)備性能見(jiàn)表1。
模型中常用調(diào)整的超參數(shù)包括:①學(xué)習(xí)率 (lr0):確定每次迭代的步長(zhǎng),同時(shí)向損失函數(shù)中的最小值移動(dòng)。②批量大?。╞atch):前向傳遞中同時(shí)處理的圖像數(shù)量。③紀(jì)元數(shù)(epochs):一個(gè)紀(jì)元是所有訓(xùn)練示例的一次完整的前向和后向傳遞。④架構(gòu)細(xì)節(jié):例如通道數(shù)、層數(shù)、激活函數(shù)的類(lèi)型等。本模型使用遺傳算法來(lái)優(yōu)化超參數(shù)。超參數(shù)初始值見(jiàn)表2。
本文采用的精度評(píng)定指標(biāo)包括:
(1)并交交集 (IoU):是一種預(yù)測(cè)邊界框與地面真實(shí)邊界框之間重疊的度量。它在評(píng)估目標(biāo)定位的準(zhǔn)確性方面起著基礎(chǔ)作用。
(2)平均精度 (AP):召回率曲線(xiàn)下的面積[20],提供包含模型精度和召回性能的單個(gè)值。若對(duì)于某一個(gè)類(lèi)別具有較低的AP,則表示模型對(duì)于該類(lèi)別識(shí)別率較低。
(3)多對(duì)象平均精度 (mAP):通過(guò)計(jì)算多個(gè)對(duì)象類(lèi)的平均AP值來(lái)擴(kuò)展AP的概念。
(4)精確率和召回率:精確率量化了所有陽(yáng)性預(yù)測(cè)中真陽(yáng)性的比例,評(píng)估模型避免誤報(bào)的能力。召回率量化了實(shí)際為正例的樣本中被正確預(yù)測(cè)為正例的比例。
(5)F1 分?jǐn)?shù):精確率和召回率的調(diào)和平均值[21],在考慮誤報(bào)和漏報(bào)的同時(shí)提供對(duì)模型性能的平衡評(píng)估。
模型訓(xùn)練精度如圖5所示,在訓(xùn)練過(guò)程中,模型類(lèi)別損失值(cls_loss)、邊界框損失值(box_loss)隨著迭代次數(shù)的增加逐步遞減。表3為評(píng)價(jià)指標(biāo)結(jié)果,recall為召回率,precision為精度,seg_loss為分割邊界損失,mAP50為平均精度50%的精度,mAP50-95為交并比50%~95%的精度,train表示訓(xùn)練集,val表示驗(yàn)證集,metrics表示矩陣,B表示最佳檢測(cè)方案,M表示多目標(biāo)。
訓(xùn)練好的模型在驗(yàn)證集上的分割結(jié)果如圖6。由圖6可見(jiàn),模型提取的滑坡結(jié)果與人工解譯的滑坡提取邊界邊界重合度高,形狀基本一致,分割精度較好,在驗(yàn)證集上mAP50達(dá)到了0.995,mAP50-95(M)為0.716 18,召回率為0.904 24(見(jiàn)表3)。本模型在精度上和效率上均優(yōu)于傳統(tǒng)的語(yǔ)義分割模型,在實(shí)際生產(chǎn)工作中具有較強(qiáng)的可行性。
3 結(jié)束語(yǔ)
將“one-stage”深度學(xué)習(xí)語(yǔ)義分割框架YOLO V8模型用于滑坡識(shí)別提取工作中,基于高分系列影像,針對(duì)九寨溝縣構(gòu)建滑坡識(shí)別樣本庫(kù),為后續(xù)的滑坡預(yù)警預(yù)測(cè)分析提供了寶貴的數(shù)據(jù)樣本?;赮OLO V8語(yǔ)義分割預(yù)訓(xùn)練模型,構(gòu)建了滑坡快速提取模型,相較于傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(CNN),本模型具有更高的精度和更快的速率,可為滑坡動(dòng)態(tài)監(jiān)測(cè)工作提供技術(shù)支持。后續(xù)將嘗試結(jié)合坡度,引入大模型,提高模型的自動(dòng)識(shí)別能力,同時(shí)建立不同地區(qū)防災(zāi)減災(zāi)工作的重點(diǎn)監(jiān)管對(duì)象的樣本庫(kù),構(gòu)建多類(lèi)型識(shí)別分割模型,提高識(shí)別滑坡隱患的準(zhǔn)確性和可靠性,為滑坡隱患的防災(zāi)減災(zāi)提供科學(xué)依據(jù)。
參考文獻(xiàn):
[1] 向世康. 滑坡地質(zhì)災(zāi)害預(yù)測(cè)模型研究與應(yīng)用[D]. 成都:電子科技大學(xué),2023.
[2] 趙輝,黎家作,李晶晶.中國(guó)水土流失動(dòng)態(tài)監(jiān)測(cè)與評(píng)價(jià)的現(xiàn)狀與對(duì)策[J].水土保持通報(bào),2016,36(1):115-119.
[3] 賀躍光,姜風(fēng)航,苗則朗,等. 基于深度學(xué)習(xí)和持續(xù)同調(diào)的LiDAR林下滑坡提取[J]. 礦冶工程,2023,43 (5):32-36.
[4] 周楠. 基于深度學(xué)習(xí)的精細(xì)化土地覆蓋變化遙感提取方法研究[D]. 北京:中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院空天信息創(chuàng)新研究院),2022.
[5] TALUKDAR S,SINGHA P,MAHATO S,et al. Land-use Land-cover Classification by Machine Learning Classifiers for Satellite Observations—A Review[J]. Remote Sensing,2020,12(7):1135.
[6] 潘霞. 基于Google Earth Engine云平臺(tái)下地物覆被類(lèi)型的遙感影像智能分類(lèi)方法研究[D].呼和浩特:內(nèi)蒙古農(nóng)業(yè)大學(xué),2021.
[7] 李唯嘉. 面向遙感影像分類(lèi)、目標(biāo)識(shí)別及提取的深度學(xué)習(xí)方法研究[D].北京:清華大學(xué),2019.
[8] 黨宇,鄧喀中,趙有松,等. 基于深度學(xué)習(xí) AlexNet 的遙感影像地表覆蓋分類(lèi)評(píng)價(jià)研究[J]. 地球信息科學(xué)學(xué)報(bào),2017,19(11):1530-1537.
[9] REDMON J,F(xiàn)ARHADI A. YOLO9000:Better,F(xiàn)aster,Stronger[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). July 21-26,2017,Honolulu,HI,USA. New York:IEEE Press,2017:6517-6525.
[10] 賀紅瓊. 九寨溝縣生態(tài)旅游管理研究[D]. 桂林:廣西師范大學(xué),2015.
[11] 藏族地區(qū)世界文化遺產(chǎn)、自然遺產(chǎn)介紹[J]. 中國(guó)藏學(xué),2010(增刊1):105-113,128.
[12] 李金蘭. 神奇的九寨森林[J]. 廣西林業(yè),2016(6):46-48.
[13] 王馨. 喀斯特景觀自然美全球?qū)Ρ确治雠c世界遺產(chǎn)價(jià)值研究:以黃果樹(shù)景區(qū)為例[D]. 貴陽(yáng):貴州師范大學(xué),2023.
[14] 楊茹. 基于Anchor-Free的遙感圖像目標(biāo)檢測(cè)算法研究[D]. 天津:河北工業(yè)大學(xué),2021.
[15] 程瑤,賈寧,高晨斐,等. 基于DCNN降噪器的紅外串?dāng)_圖像復(fù)原方法[J]. 儀表技術(shù)與傳感器,2023(3):77-81.
[16] 姜浩天. 基于深度學(xué)習(xí)的鋼材表面缺陷檢測(cè)算法研究[D]. 哈爾濱:哈爾濱理工大學(xué),2023.
[17] 馬海月. 基于深度學(xué)習(xí)的隧道漏纜卡具故障檢測(cè)系統(tǒng)研究與實(shí)現(xiàn)[D]. 石家莊:河北科技大學(xué),2020.
[18] 楊文陽(yáng),吳葉森,張峰,等. 基于YOLO V5s的社交媒體平臺(tái)火災(zāi)圖像檢測(cè)方法研究[J]. 中國(guó)電子科學(xué)研究院學(xué)報(bào),2022,17 (9):833-841.
[19] 楊明森. 基于多特征融合的行人檢測(cè)技術(shù)研究[D]. 哈爾濱:哈爾濱工程大學(xué),2019.
[20] 王霄仟. 基于輕量網(wǎng)絡(luò)的目標(biāo)檢測(cè)與機(jī)械臂位姿估計(jì)[D]. 西安:西安電子科技大學(xué),2020.
[21] 胡屹群,周紹光,岳順,等. 利用視覺(jué)詞袋模型和顏色直方圖進(jìn)行遙感影像檢索[J]. 測(cè)繪通報(bào),2017(1):53-57.
Intelligent Landslide Extraction Method Based on Deep Learning
ZHAO Jing1,2,CHEN Zhe1,2,WU Yibang1,2,CUI Changlu1,2,LI Jingwei1,2
(1. Spatial Information Technology Application Department,Changjiang River Scientific Research Institute,Wuhan 430010,China;2. Wuhan Research Center on Intelligent Drainage Basin Engineering Technology,Wuhan 430010,China)
Abstract:The aim of this paper is to extract landslides quickly,efficiently and intelligently to improve the efficiency of landslide dynamic monitoring. We explore the application of the YOLO V8 model in automatic interpretation of high-resolution remote sensing landslide image. By establishing landslide interpretation samples in different regions,we constructed a recognition sample library oriented to geohazard monitoring. Based on the YOLO V8 deep learning network structure and pre-training model,we constructed an intelligent interpretation model for large image landslides to rapidly and automatically identify and extract landslides. Findings indicate that the landslide results extracted by the model are highly overlapped with the manually interpreted landslide extraction boundaries,with basically the same shape and good segmentation accuracy. On the validation set,the mAP50 reached 0.995,the mAP50-95 (M) was 0.716 18,and the recall rate was 0.904 24. Compared with the traditional convolutional neural network (CNN),this model has higher accuracy and faster processing speed,providing technical support for landslide dynamic monitoring.
Key words:landslides;deep learning;intelligent extraction model;geologic hazard
基金項(xiàng)目:湖北省自然科學(xué)基金項(xiàng)目(2022CFD173);水利部重大科技項(xiàng)目(SKR2022003);湖南省水利科技項(xiàng)目(XSKJ2022068-12)
作者簡(jiǎn)介:趙 靜,女,工程師,碩士,主要從事水土保持科學(xué)與水利遙感技術(shù)研究。E-mail:michelle111859@hotmail.com
通信作者:陳 喆,女,高級(jí)工程師,博士,主要從事水利遙感、水利信息化等研究。E-mail:airmicheal@126.com