汪權(quán)方,張 雨,汪倩倩,2,孫 佩,3,陳龍躍,楊宇琪
基于視覺注意機(jī)制的洪澇淹沒區(qū)遙感識別方法
汪權(quán)方1,張 雨1,汪倩倩1,2※,孫 佩1,3,陳龍躍1,楊宇琪1
(1. 湖北大學(xué)資源環(huán)境學(xué)院,武漢 430062;2. 安徽省交通規(guī)劃設(shè)計(jì)研究總院股份有限公司,合肥 230000;3. 水利部長江勘測技術(shù)研究所,武漢 430011)
依據(jù)視覺注意機(jī)制,結(jié)合洪澇淹沒區(qū)以色彩可視化表達(dá)的時空過程變化特性,構(gòu)建凸顯淹沒區(qū)視覺顯著性的專題信息增強(qiáng)圖像,對此應(yīng)用NBS色差距離系數(shù),使得同質(zhì)像元在空間上集聚形成顯著區(qū)域,然后采用基于視覺色差檢測的圖像聚類技術(shù),開展大范圍洪澇淹沒區(qū)的遙感識別及信息提取,并利用能夠同時兼顧遙感錯分和漏分信息的復(fù)合分類精度系數(shù)(composite classification accuracy,CCA)進(jìn)行識別精度評價。應(yīng)用上述方法對長江中游2016年夏季洪災(zāi)進(jìn)行了遙感監(jiān)測試驗(yàn),并采用誤差混淆矩陣法對同一識別對象(洪水淹沒區(qū))不同遙感分類方法的可信度進(jìn)行了評價,結(jié)果顯示該次試驗(yàn)的Kappa系數(shù)和CCA系數(shù)各為93.4%和88.5%,較傳統(tǒng)的洪水淹沒區(qū)遙感識別技術(shù)都高出5%左右。在2016年長江中游夏季洪災(zāi)中,漬水農(nóng)田面積約19 143.35 hm2,淹沒區(qū)面積則高達(dá)142 157.5 hm2,其中被淹水稻占16.6%(約23 579 hm2),并且絕大部分位于長江沿岸以及府河和漢江等長江支流沿線地勢低洼的濱河濱湖地帶;武漢市受災(zāi)最為嚴(yán)重,該市以34 492 hm2的洪澇淹沒區(qū)面積居于各受災(zāi)縣市之首,占研究區(qū)域全部受災(zāi)面積的24.26%。基于選擇性視覺注意機(jī)制的洪澇淹沒區(qū)遙感識別方法,能夠有效提高大范圍洪澇淹沒區(qū)的遙感信息提取精度,較好地解決了淹沒區(qū)與水域之間的錯分現(xiàn)象;基于洪災(zāi)前后遙感信息融合的洪澇過程可視化表達(dá),不僅能夠?qū)崿F(xiàn)淹沒區(qū)不同于水體的時空變化特性的數(shù)據(jù)化,從而便于開展淹沒區(qū)的計(jì)算機(jī)視覺檢測,而且還在凸顯淹沒區(qū)視覺顯著性的同時,較好地抑制背景冗余信息,尤其能降低將淹沒區(qū)視同水域進(jìn)行遙感分類檢測時的不確定性。
遙感;檢測;視覺注意機(jī)制;洪澇淹沒區(qū);NBS色差距離系數(shù);長江中游
洪澇災(zāi)害是當(dāng)今世界上影響最為廣泛的自然災(zāi)害之一,快速獲取準(zhǔn)確的洪澇淹沒區(qū)信息對于大范圍精準(zhǔn)應(yīng)急救災(zāi)和防洪抗?jié)硾Q策等具有重要意義。遙感(remote sensing,RS)技術(shù)具有覆蓋范圍廣、時效性強(qiáng)、定位較精準(zhǔn),以及與地理信息系統(tǒng)(geographic information system,GIS)技術(shù)結(jié)合后的強(qiáng)大空間數(shù)據(jù)管理和分析功能等特點(diǎn),因此,大范圍洪澇災(zāi)害發(fā)生后,人們總是希望能夠應(yīng)用衛(wèi)星遙感技術(shù)來進(jìn)行淹沒區(qū)識別與信息提取[1-7]。
從已有研究來看,目前對于洪澇淹沒區(qū)的識別,普遍從淹沒區(qū)視同水域的角度,采用洪災(zāi)前后的水體遙測結(jié)果差異來提取淹沒區(qū)范圍[2-9]。在此過程中,通常采用以下方式來進(jìn)行水體遙感識別:一是利用水敏感波段或基于比值型水體指數(shù)進(jìn)行閾值分割,二是利用譜間關(guān)系法構(gòu)建水體識別的判別條件,三是基于光譜特征或光譜特征與空間形狀、紋理等特征相結(jié)合的圖像分類[6-10]。很顯然,上述這些基于洪災(zāi)前后水域遙測結(jié)果差異的淹沒區(qū)遙感識別方法具有突出的易理解性和較好的易實(shí)現(xiàn)性,因而得到了廣泛應(yīng)用。但是,面對信息量巨大的遙感圖像數(shù)據(jù)以及洪澇淹沒區(qū)分散式廣域分布的復(fù)雜狀況,將上述方法應(yīng)用于大范圍洪澇監(jiān)測時,容易出現(xiàn)淹沒區(qū)的漏分及其與水體等易混淆地物之間的錯分現(xiàn)象,從而導(dǎo)致最終的淹沒區(qū)遙感識別結(jié)果存在較高的不確定性[10-11]。然而,遙感數(shù)據(jù)分類結(jié)果的不確定性不僅反映該數(shù)據(jù)本身的適用性,還會在以該數(shù)據(jù)為輸入信息的各種模型中傳播,進(jìn)而使得模型的運(yùn)算結(jié)果乃至最終的決策具有很大的不確定性[12-14],因此,Bogaert[13]、L?w[15]和Gon?alves[16]等就如何解決和度量遙感圖像專題分類中的不確定性開展了大量研究,但是對于“通常將洪澇淹沒區(qū)視同水域來進(jìn)行遙感分類”所引發(fā)的洪水淹沒區(qū)遙感識別不確定性問題,目前并沒有給予足夠的重視[2-9]。事實(shí)上,洪澇淹沒區(qū)與真實(shí)的水域(文中將以“原有水體”來代稱,以區(qū)別于構(gòu)成淹沒區(qū)的水,下同)有著顯著的內(nèi)在差異。洪澇災(zāi)害的發(fā)生的確大多起因于降水過多或過于集中,從而使得無法及時排出過量雨水的區(qū)域內(nèi)出現(xiàn)淹沒現(xiàn)象[17],但是洪澇淹沒區(qū)實(shí)際上是一種由水和被淹地物組成的復(fù)合區(qū)域,其像元灰度值不僅與原有水體有所區(qū)別,而且還會因被淹地物的不同而復(fù)雜多變,從而使得不同地方的洪澇淹沒區(qū)在遙感影像上的表現(xiàn)并不一致[10,18]。因此,基于洪澇淹沒區(qū)等同于水域的理念來進(jìn)行大范圍淹沒區(qū)遙感檢測,必然容易導(dǎo)致識別不確定性現(xiàn)象的產(chǎn)生[2,10-12,18]。
另外,要解決洪澇淹沒區(qū)遙感識別不確定性問題,顯然不僅需要改變遙感分類中將淹沒區(qū)等同于水域的觀念,同時還要克服僅僅依據(jù)目標(biāo)物與背景地物在敏感波段上的數(shù)值差異進(jìn)行遙感識別,從而導(dǎo)致大范圍淹沒區(qū)信息提取的工作效率低下、精度受限問題[2-9,18-19]?;谝曈X注意機(jī)制的感興趣區(qū)機(jī)器檢測技術(shù)尤其強(qiáng)調(diào)圖像的色彩信息及其在顯著性區(qū)域定位中的應(yīng)用[20-23]。已有研究表明,人類所獲取的外界信息大約80%來自視覺系統(tǒng)所產(chǎn)生的圖像,而在大量的圖像信息中,顏色的視覺一致性和易聚類性突出,其直觀性和易理解性也是其他信息所無法比擬的,因而具有更高的視覺注意優(yōu)先級[22-25]。再加上圖像顏色不僅可以簡化目標(biāo)物的區(qū)分及從場景中提取目標(biāo)的過程,而且與形狀或紋理等幾何特征相比,顏色具有一定的穩(wěn)定性,其對縮放、平移、旋轉(zhuǎn)等具有相當(dāng)強(qiáng)的魯棒性,因此,圖像顏色已成為基于視覺注意機(jī)制的感興趣區(qū)域機(jī)器檢測的重要依據(jù)[19,20,22-23,25-29]。不過,與其他圖像相比,衛(wèi)星遙感影像具有空間覆蓋范圍廣、內(nèi)容復(fù)雜豐富、所含波段通常超過3個波段并且每個波段都具有特定的物理含義等特點(diǎn),因此,如何利用基于視覺注意機(jī)制的機(jī)器視覺檢測技術(shù),從衛(wèi)星影像數(shù)據(jù)集中高效準(zhǔn)確地識別出洪澇淹沒區(qū)等感興趣目標(biāo)仍然具有較大的挑戰(zhàn)性,其中,能否利用被檢測目標(biāo)的本質(zhì)特征,建立新的遙感特征空間來強(qiáng)化感興趣區(qū)的影像表現(xiàn),則是解決上述挑戰(zhàn)的關(guān)鍵所在[19-21,27-30]。
針對上述問題,本文依據(jù)洪澇淹沒區(qū)不同于水域的內(nèi)在屬性,結(jié)合選擇性視覺注意機(jī)制,提出一種適于機(jī)器視覺聚類的洪澇淹沒區(qū)遙感識別方法,以達(dá)到有效降低淹沒區(qū)遙感識別的不確定性,實(shí)現(xiàn)大范圍洪澇淹沒區(qū)高精度遙感識別的目的。為此,以時序遙感影像數(shù)據(jù)作為信息源,利用能夠反映淹沒區(qū)動態(tài)特性的遙感多特征指數(shù)數(shù)據(jù)集,實(shí)現(xiàn)基于選擇性視覺注意機(jī)制的洪澇過程可視化,并增強(qiáng)淹沒區(qū)在圖像上的視覺顯著性;然后,在Munsell HLC顏色空間中,采用NBS顏色距離系數(shù)[31]使得具有相同或相近顏色特征的水體像元在空間上集聚,從而便于應(yīng)用計(jì)算機(jī)視覺顏色聚類技術(shù)進(jìn)行洪澇淹沒區(qū)的遙感識別。最后,基于能夠同時兼顧遙感錯分和漏分信息的復(fù)合分類精度系數(shù)(composite classification accuracy,CCA),采用對比試驗(yàn)對本研究基于視覺注意機(jī)制的洪澇淹沒區(qū)遙感識別效果及方法實(shí)用性進(jìn)行綜合評價。
與原有水體相比,洪水淹沒區(qū)具有時空對比性更為突出的過程變化特性[32],這可以通過被淹地物在洪災(zāi)前后的波譜變化通常較為明顯并且顯著區(qū)別于原有水體來得以體現(xiàn)[10,32]。例如作物,它在被淹前的波譜特性與植被相符、被淹后則表現(xiàn)出類似于水的特征,而原有水體在洪災(zāi)前后的波譜變化一般相對較小或無明顯變化。由此可見,洪水淹沒區(qū)的這一過程變化特性可以作為遙感識別洪澇淹沒區(qū)的重要依據(jù)[10,18,32]。不過,要依據(jù)這一過程變化特性進(jìn)行洪水淹沒區(qū)的遙感視覺精確檢測,有必要基于選擇性視覺注意機(jī)制,以可見、獨(dú)特的顏色特征對該特性進(jìn)行表達(dá),從而使得淹沒區(qū)像元在圖像上形成能夠被計(jì)算機(jī)視覺檢測系統(tǒng)快速準(zhǔn)確識別出來的顯著區(qū)域[20-21]。
已有研究顯示,人類視覺系統(tǒng)在感知外界環(huán)境的過程中存在著極強(qiáng)的動態(tài)選擇性[21,24,33],這使得人類視覺系統(tǒng)在面對一個復(fù)雜的場景時會迅速被少數(shù)顯著對象,尤其是在亮度、顏色和方向等方面具有快速變化的局部區(qū)域所吸引并優(yōu)先進(jìn)行處理,對全局中頻繁、大量、反復(fù)出現(xiàn)的圖像特征進(jìn)行抑制,從而能夠快速、準(zhǔn)確地找到圖像中這些顯著區(qū)域[21,33-37]。因此,為了便于后續(xù)的淹沒區(qū)計(jì)算機(jī)視覺檢測,本研究首先依據(jù)人類視覺系統(tǒng)的這一選擇性視覺注意機(jī)制,以成像于不同洪災(zāi)階段的遙感影像為信息源,通過分析水體、被淹地物(主要是水稻等作物)以及建筑物和裸地等易混淆地物在不同波段上的表現(xiàn)特征,構(gòu)建了3種遙感特征指數(shù)(圖1a、圖1b):歸一化差異植被指數(shù)(normalized difference vegetation index,NDVI)、歸一化差異水體指數(shù)(normalized difference water index,NDWI)和增強(qiáng)型水體指數(shù)(modified normalized difference water index,MNDWI)[38-39];然后,通過不同配色方案的對比試驗(yàn),最終采用將洪水淹沒時(2016年7月23日)的NDWI指數(shù)賦予紅色、洪災(zāi)初期(2016年6月5日)的NDVI和MNDWI指數(shù)分別賦予綠色和藍(lán)色的波段組合及賦色方案,生成了淹沒區(qū)遙感專題信息增強(qiáng)圖像,從而能夠同時凸顯遙感影像上洪水淹沒區(qū)的顏色特征及其與水體等易混淆地物之間的視覺差異(圖 2a)。究其原因,主要在于上述3波段RGB彩色圖像(圖2a)不僅包含了洪水淹沒區(qū)在特定時刻具有類似于水但與建筑物和裸地等易混淆地物之間存在明顯差異的波譜特征,而且還融合了被淹地物以作物為主時所導(dǎo)致的洪水淹沒區(qū)具有不同于原有水體的波譜時間變化特性。
由圖2a可以看出,將洪災(zāi)前后的NDWI、MNDWI和NDVI指數(shù)影像,按照適宜的配色方案進(jìn)行組合顯示以后,不僅洪水淹沒區(qū)的影像表現(xiàn)得以凸顯,同時也使得淹沒區(qū)與易于混淆的原有水體之間產(chǎn)生了較明顯的顏色差異。但是,這種色彩差異是建立在RGB顏色空間的基礎(chǔ)之上。已有研究[22,25,31]表明,RGB顏色空間是一種混合型顏色空間,它的紅、綠、藍(lán)3個分量之間高度相關(guān),從而導(dǎo)致RGB顯色系統(tǒng)具有較大的不穩(wěn)定性,同時人眼對于常見的紅綠藍(lán)3色的敏感程度不同,這使得RGB顏色空間的色彩均勻性極差。
圖1 洪災(zāi)前后水體及被淹地物的影像表現(xiàn)特征
與RGB顏色空間相比,蒙賽爾(Munsell)顏色系統(tǒng)是一種具有較好視覺一致性的顏色立體模型表示方法,它以顏色的視覺特性來制定顏色分類和標(biāo)定系統(tǒng),能成功地模擬人類的顏色視覺特征[22,31]。在本研究中,按照如下過程[25,31,40]對上述淹沒區(qū)信息增強(qiáng)影像(圖2a)進(jìn)行RGB向Munsell HLC顏色空間的轉(zhuǎn)換,所得結(jié)果如圖2b所示。
1)從RGB空間變換到空間
2)從空間變換為空間
3)將空間變換為空間
4)從空間變換為HLC空間
式中、、分別代表Munsell顏色系統(tǒng)中的色相(hue)、明度(lightness)和飽和度(chroma)3個分量。
精度評價是對遙感分類結(jié)果是否可信的一種度量,通常采用誤差混淆矩陣法,由此可計(jì)算Kappa 系數(shù)、總體分類精度(overall classification accuracy,OCA)以及各類別的使用者準(zhǔn)確率(users accuracy,UA)和生產(chǎn)者準(zhǔn)確率(producers accuracy,PA)等評價指標(biāo)[41-43]。其中,UA主要反映遙感分類中的錯分現(xiàn)象,PA則主要反映漏分現(xiàn)象,兩者都只從特定角度來度量目標(biāo)類別的遙感分類準(zhǔn)確性,從而導(dǎo)致僅用UA或PA來比較不同分類方法對于目標(biāo)類別的解譯精度時往往會出現(xiàn)“顧此失彼”的現(xiàn)象。
針對上述狀況,本文設(shè)計(jì)了一種能夠集成目標(biāo)類別遙感分類的使用者準(zhǔn)確率(UA)和生產(chǎn)者準(zhǔn)確率(PA)所包含信息的綜合性評價指標(biāo),也即復(fù)合分類精度(composite classification accuracy,CCA),該指標(biāo)不僅能夠綜合反映目標(biāo)類別的分類準(zhǔn)確性,而且據(jù)此還可以進(jìn)行不同分類方法對于相同目標(biāo)類別的遙感分類可信度檢測和比較。
a. Composited RGB imagery of July 23rd NDWI indice and June 5th indice of NDVI and MNDWI b. Munsell HLC imagery transformed from composited RGB image
長江中游地區(qū)橫跨雨水比較充沛的中亞熱帶和北亞熱帶,又地處中國地勢由第二階梯向第三階梯過渡的內(nèi)陸腹地,自然條件復(fù)雜、水熱資源時空分布變化大,再加上易受東亞季風(fēng)進(jìn)退異常的影響等,使得該地區(qū)成為中國氣象災(zāi)害的高發(fā)區(qū),洪澇災(zāi)害尤其頻繁[44-46]。長江中游地區(qū)也是中國重要的農(nóng)業(yè)生產(chǎn)基地和水稻等糧食作物的主產(chǎn)區(qū),但由于該地特殊的地理位置和氣候條件以及承災(zāi)系統(tǒng)的脆弱性等,洪水災(zāi)害給當(dāng)?shù)丶Z食生產(chǎn)和社會經(jīng)濟(jì)等造成了很大影響[45-46]。2016年受超強(qiáng)厄爾尼諾事件以及西太平洋副熱帶高壓偏強(qiáng)偏西等海洋、大氣環(huán)流、氣候因子的共同影響,長江流域在當(dāng)年的6月中旬-7月下旬期間連續(xù)發(fā)生多次強(qiáng)降雨過程,從而導(dǎo)致長江干流監(jiān)利以下的江段以及洞庭湖、鄱陽湖湖區(qū)的水位都超過警戒水位,長江中下游地區(qū)發(fā)生了區(qū)域性大洪水,部分支流發(fā)生了特大洪水[10,47-48]。
在本研究中,以2景Landsa8/OLI影像(Path/Row編號分別為122/039和123/039)在長江中游地區(qū)的覆蓋范圍(圖3)為研究區(qū)域。水稻是該區(qū)域內(nèi)普遍種植的一種主要糧食作物,在2016年夏季洪災(zāi)期間研究區(qū)內(nèi)有大量的水稻田被淹,同時由于淹水歷時較長,受淹稻田大量減產(chǎn)或絕收的現(xiàn)象比較普遍,尤其是在湖北、安徽、江西等長江中游的省份,水稻生產(chǎn)受災(zāi)最為嚴(yán)重[48]。從被淹水稻的類型來看,既有拔節(jié)抽穗期的中稻(圖4a),也有正處于黃熟期的早稻(圖4b)。
圖3 研究區(qū)地理位置、精度評價點(diǎn)及實(shí)地調(diào)查路線
圖4 研究區(qū)內(nèi)被淹的典型水稻樣點(diǎn)及其位置信息
本文采用的遙感數(shù)據(jù)主要是Landsat8/OLI影像,從USGS(美國地質(zhì)勘探局)網(wǎng)站下載獲得。2016年6月中旬長江中游地區(qū)開始了第一輪暴雨,6月底-7月初出現(xiàn)了大范圍的強(qiáng)降雨天氣,一直到7月中旬才停止,7月下旬后則進(jìn)入持續(xù)退水期[46],因此,本研究選擇該年6月中上旬的兩景Landsat8/OLI影像(path/row分別是122/039和123/039)作為反映受災(zāi)初期研究區(qū)內(nèi)原有水體信息的基礎(chǔ)數(shù)據(jù),成像于7月23日與8月1日的另兩景Landsat8/OLI影像(path/row分別是122/039和123/039)則主要用來反映被淹的區(qū)域情況。上述影像質(zhì)量整體較好,對于其中部分有云覆蓋的地方則采用同時期16 m分辨率的高分一號衛(wèi)星影像來進(jìn)行替換。
此外,還獲取了研究區(qū)域亞米級的Google earth影像以及在洪水期間赴研究區(qū)域所采集的GPS實(shí)地調(diào)查數(shù)據(jù)(圖3、圖4)等,以作為本次研究的參考數(shù)據(jù)。
NBS(National Bureau of Standards Unit,美國國家標(biāo)準(zhǔn)局)顏色距離系數(shù)[31]常被用來量化彩色圖像中目標(biāo)對象與背景地物之間的色差。
假設(shè)=(1,1,1),=(2,2,2)是Munsell顏色空間中的任一顏色對,則它們之間的NBS距離系數(shù)[31]可定義為
式中NBS表示Munsell HLC顏色空間中、顏色對的相似性,其值越小,則、顏色對的相似性越高,反正相似性越低。
在本研究中,主要采用該系數(shù)來測定淹沒區(qū)與非淹沒區(qū)在Munsell HLC空間中的顏色差異,并生成色差圖像(圖5)。由該圖像可以看出,通過NBS系數(shù)的計(jì)算,不僅使得具有相同或相近顏色特征的淹沒區(qū)像元在空間上集聚,形成了能被視覺注意系統(tǒng)快速準(zhǔn)確識別的顯著區(qū)域,而且與原有水體、建筑用地和漬水農(nóng)田等易混分地物之間也存在明顯的色差。因此,對于試驗(yàn)區(qū)在Munsell HLC空間中的NBS色差圖像,采用-means聚類法進(jìn)行了分割和淹沒區(qū)信息提?。▓D6),其中,色差圖像的-means分割通過Matlab代碼實(shí)現(xiàn),主要參數(shù)設(shè)置如下:初始聚類中心點(diǎn)的確定使用-means++算法;每個像元到聚類中心的距離計(jì)算使用“sqEuclidean”函數(shù);最大迭代次數(shù)('MaxIter' )為100。
為構(gòu)建本次分類精度評價所需的誤差混淆矩陣,利用456個隨機(jī)樣點(diǎn)(圖3),并依據(jù)試驗(yàn)所用的兩景OLI源影像,結(jié)合Google earth影像以及在洪水期內(nèi)采集的GPS實(shí)地調(diào)查數(shù)據(jù)等,對各樣點(diǎn)的分類準(zhǔn)確性進(jìn)行了目視判讀(表1),結(jié)果顯示,本次試驗(yàn)的Kappa系數(shù)為93.4%,淹沒區(qū)和原有水體的CCA系數(shù)則各為88.5%和91.6%。這表明本研究對于洪澇淹沒區(qū)的遙感識別結(jié)果具有較好的可靠性,可以用于后續(xù)的洪澇災(zāi)情精確分析。
圖5 Munsell HLC顏色空間中淹沒區(qū)與水和其他地物樣本點(diǎn)之間的NBS距離系數(shù)
圖6 基于NBS色差距離系數(shù)和K-means算法的淹沒區(qū)遙感信息增強(qiáng)影像分類結(jié)果
表1 基于NBS影像視覺色彩聚類的洪水淹沒區(qū)遙感識別精度
如前所述,在傳統(tǒng)的洪澇災(zāi)情遙感監(jiān)測中,通常將淹沒區(qū)視作水域,然后通過對比洪災(zāi)前后的水體監(jiān)測結(jié)果差異來提取淹沒區(qū)范圍。為量化比較這一常規(guī)的洪澇淹沒區(qū)遙感識別模式與本文基于洪水過程特性的淹沒區(qū)機(jī)器視覺顏色分類模式之間的差異,也采用上述456個隨機(jī)樣點(diǎn)(圖3)進(jìn)行了精度評價,結(jié)果(表2)顯示,不管是Kappa系數(shù)和OCA指標(biāo)值,還是淹沒區(qū)和原有水體的CCA系數(shù),傳統(tǒng)的洪澇淹沒區(qū)遙感識別方法都明顯較低;同時,傳統(tǒng)方法將原有水體誤分為淹沒區(qū)的機(jī)率也更高。不過,2種模式對于水體的遙感識別精度都略高于洪澇淹沒區(qū),其原因主要在于淹沒區(qū)相對于水體來說具有較高的異質(zhì)性。
表2 基于洪災(zāi)前后水體監(jiān)測結(jié)果差異的淹沒區(qū)遙感識別精度
依據(jù)近2a(當(dāng)年和上一年度)同時期的遙感影像,對淹沒區(qū)內(nèi)主要被淹地物進(jìn)行了解譯,結(jié)果(圖7)顯示,2016年研究區(qū)內(nèi)被淹面積共計(jì)142 157.5 hm2,其中,武漢市被淹面積約34 492 hm2,占全部受災(zāi)面積的24.26%,居于各受災(zāi)縣市之首;緊隨其后的是天門市、宿松縣、鄂州市和孝感市,它們的被淹面積各為14 105、10 408.5、9 851.5和8 816.5 hm2,分別占總受災(zāi)面積的9.92%、8.41%、7.32%和6.93%。除此之外,洪湖市、漢川市和嘉魚縣在此次洪災(zāi)中的被淹面積也都超過了5 000 hm2,它們與上述5個縣市的洪水淹沒區(qū)面積共占研究區(qū)域全部受災(zāi)面積的68.43%。從淹沒區(qū)的空間分布來看,絕大部分受災(zāi)區(qū)位于長江沿岸及其支流(主要是府河和漢江)沿線的濱河濱湖地帶(圖6),其原因主要在于這些地方的地勢低洼,在進(jìn)入梅雨季節(jié)(6—7月)以后,暴雨強(qiáng)度大、降雨極值多,而同時期的長江中游干流水位高、高水持續(xù)時間長,從而導(dǎo)致沿江湖泊和多數(shù)支流幾乎無法自流外排,再加上近些年來,研究區(qū)內(nèi)的城鎮(zhèn)建設(shè)等大量侵占原有濕地和湖泊,進(jìn)一步削弱了長江中游蓄洪調(diào)洪能力,結(jié)果導(dǎo)致超量洪水難以下泄而壅堵成災(zāi)。
長江中游地區(qū)不僅是中國重要的糧食主產(chǎn)區(qū),水產(chǎn)養(yǎng)殖業(yè)也非常發(fā)達(dá)。在本次洪災(zāi)中,該地區(qū)的農(nóng)業(yè)生產(chǎn)與經(jīng)濟(jì)遭受了嚴(yán)重的影響。截止2016年7月下旬,研究區(qū)內(nèi)被淹沒的稻田、旱地、魚塘和藕塘面積共計(jì)42 773.8 hm2,占總受災(zāi)面積的30.09%。其中又以水稻的淹沒面積最大,約23 579.1 hm2,主要分布于宿松、天門、武漢、孝感和漢川,這些縣市被洪水淹沒的水稻面積分別為4 685.1、4 642.6、4 336.6、2 775.6、1 913.8 hm2;魚塘和藕塘的受災(zāi)面積共約12 376.8 hm2,其中受災(zāi)最嚴(yán)重的4個縣市武漢、天門、鄂州和孝感各占28.61%、16.03%、10.76%和6.98%;被洪水淹沒的旱地受災(zāi)面積約6 817.9 hm2,主要受災(zāi)縣市為天門市、武漢市和宿松縣,其被淹旱地面積分別為4 432.2、737.9、479.9 hm2。另外,研究區(qū)內(nèi)還有受災(zāi)但作物(主要是水稻)未被洪水沒頂淹沒的漬水農(nóng)田約19 143.35 hm2。
注:圖中一個點(diǎn)代表100 hm2,若在某縣市境內(nèi)只有一個數(shù)值點(diǎn),則該點(diǎn)所對應(yīng)的被淹地物面積小于100 hm2。
遙感監(jiān)測洪澇災(zāi)害時,不應(yīng)將淹沒區(qū)視同水域來進(jìn)行識別,否則會人為增加淹沒區(qū)遙感信息提取的不確定性?;谝曈X注意機(jī)制進(jìn)行洪澇過程的可視化表達(dá),不僅可以實(shí)現(xiàn)淹沒區(qū)不同于水體的時空變化特性的數(shù)據(jù)化,使得這一重要信息可方便應(yīng)用于計(jì)算機(jī)視覺檢測,而且還能在凸顯淹沒區(qū)視覺顯著性的同時,較好地抑制背景冗余信息,尤其是原有水體等易混淆背景地物的影響,從而降低淹沒區(qū)遙感識別中的不確定性。
利用基于選擇性視覺注意機(jī)制所構(gòu)建的淹沒區(qū)專題信息增強(qiáng)圖像,結(jié)合基于NBS顏色聚類特性的感興趣區(qū)檢測技術(shù),能夠?qū)崿F(xiàn)更高精度的大范圍洪澇淹沒區(qū)遙感視覺識別,其精度系數(shù)(CCA)比基于洪災(zāi)前后水體遙測結(jié)果差異的淹沒區(qū)遙感識別模式大約高出5%。
在2016年夏季洪災(zāi)中,長江中游地區(qū)共有19 143.35 hm2的漬水農(nóng)田,完全被淹的洪澇災(zāi)區(qū)則高達(dá)142 157.5 hm2,其中30.09%屬于稻田、旱地、魚塘和藕塘;受災(zāi)區(qū)域主要分布于長江中游沿岸及其支流(主要是府河和漢江)沿線地勢低洼的濱河濱湖地帶,其原因主要在于超量洪水難以下泄而壅堵成災(zāi);武漢市受災(zāi)較為嚴(yán)重,該市以34 492.0 hm2的洪澇淹沒區(qū)面積居于各縣市之首,占研究區(qū)內(nèi)全部受災(zāi)面積的24.26%。
本研究充分展示了基于視覺注意機(jī)制的遙感檢測技術(shù)在大范圍洪澇災(zāi)害精確監(jiān)測領(lǐng)域的潛力,但是該方法目前僅針對淹沒區(qū)內(nèi)被淹地物以作物(水稻)為主時開展了方法試驗(yàn),當(dāng)非作物被淹時,需對本研究所提出的淹沒區(qū)遙感視覺識別方法的有效性作進(jìn)一步的試驗(yàn)分析。另外,洪澇災(zāi)害發(fā)生時云雨天氣較多,這會導(dǎo)致以光學(xué)遙感數(shù)據(jù)為信息源而建立的淹沒區(qū)機(jī)器視覺識別方法難以滿足洪澇災(zāi)害實(shí)時監(jiān)測的需求。因此,今后需要結(jié)合雷達(dá)數(shù)據(jù)等,進(jìn)一步完善本研究所提出的洪澇災(zāi)區(qū)遙感視覺識別方法。
[1]Millán V E G, Faude U, Bicsan A, et al. Monitoring flooding damages in vegetation caused by mining activities using optical remote sensing[J]. Journal of Photogrammetry, Remote Sensing and Geoinformation Science, 2018, 86(1): 1-13.
[2]Refice A, D'addabbo A, Capolongo D. Methods, Techniques and Sensors for Precision Flood Monitoring Through Remote Sensing[M]// Refice A, D'addabbo A, Capolongo D(eds). Flood Monitoring Through Remote Sensing. Springer, Cham, 2018: 1-25. https: //doi. org/10. 1007/978-3-319-63959-8_1.
[3]Panteras G, Cervone G. Enhancing the temporal resolution of satellite-based flood extent generation using crowdsourced data for disaster monitoring[J]. International Journal of Remote Sensing, 2018, 39(5): 1459-1474.
[4]Wang Y. Advances in remote sensing of flooding[J]. Water, 2015, 7(11): 6404-6410.
[5]Klemas V. Remote sensing of floods and flood-prone areas: An overview[J]. Journal of Coastal Research, 2015, 31(4): 1005-1013. 7.
[6]李加林,曹羅丹,浦瑞良. 洪澇災(zāi)害遙感監(jiān)測評估研究綜述[J]. 水利學(xué)報(bào),2014,45(3):253-260. Li Jialin, Cao Luodan, Pu Ruiang. Progresses on monitoring and assessment of flood disaster in remote sensing[J]. Journal of Hydraulic Engineering, 2014, 45(3): 253-260. (in Chinese with English abstract)
[7]Alfieri L, Salamon P, Bianchi A, et al. Advances in pan-European flood hazard mapping[J]. Hydrological Processes, 2014, 28(13): 4067-4077.
[8]Henry Z, Banda K, Anthony C, et al. Assessment of trends in inundation extent in the Barotse Floodplain, upper Zambezi River Basin: A remote sensing-based approach[J]. Journal of Hydrology: Regional Studies, 2018, 15: 149-170.
[9]李海亮,汪秀華,戴聲佩,等. 基于環(huán)境減災(zāi)衛(wèi)星CCD數(shù)據(jù)的海南島洪澇災(zāi)害監(jiān)測[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(17):191-198. Li Hailiang, Wang Xiuhua, Dai Shengpei, et al. Flood monitoring in Hainan Island based on HJ-CCD data[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(17): 191-198. (in Chinese with English abstract)
[10]汪權(quán)方,孫佩,王新生,等,基于洪水過程的農(nóng)業(yè)洪災(zāi)變化遙感快速評估模型及其應(yīng)用[J]. 長江流域資源與環(huán)境,2017,26(11):1831-1842. Wang Quanfang, Sun Pei, Wang Xinsheng, et al. Fast assessment model of flood hazards based on flooding process and remote sensing data: A case study in Poyang Lake Region[J]. Resources and Environment in the Yangtze Basin, 2017, 26(11): 1831-1842. (in Chinese with English abstract)
[11]Jiao Y, Wang S, Zhou Y, et al. Uncertainty analysis of flood disaster assessment using radar imagery[C]// 2007 IEEE International Geoscience and Remote Sensing Symposium, Barcelona, 2007: 4729-4732. doi: 10. 1109/IGARSS. 2007. 4423916.
[12]Alasalmi T, Koskim?ki H, Suutala J, et al. Classification uncertainty of multiple imputed data[C]// IEEE Symposium on Computational Intelligence and Data Mining, 2015.
[13]Bogaert P, Waldner F. An information-based criterion to measure pixel-level thematic uncertainty in land cover classifications[J]. Stochastic Environmental Research and Risk Assessment, 2016, 31(9): 2297-2312.
[14]柏延臣,王勁峰. 遙感數(shù)據(jù)專題分類不確定性評價研究:進(jìn)展、問題與展望[J]. 地球科學(xué)進(jìn)展,2005,20(11):1218-1225. Bo Yancheng, Wang Jingfeng. Assessment on uncertainty in remotely sensed data classification: Progress, problems and prospects[J]. Advances in Earth Sciences, 2005, 20(11): 1218-1225. (in Chinese with English abstract)
[15]L?w F, Michel U, Dech S, et al. Impact of feature selection on the accuracy and spatial uncertainty of per-field crop classification using support vector machines[J]. Isprs Journal of Photogrammetry & Remote Sensing, 2013, 85(6): 102-119.
[16]Gon?alves L M S, Fonte C C, Júlio E N B S, et al. The application of uncertainty measures in the training and evaluation of supervised classifiers[J]. International Journal of Remote Sensing, 2012, 33(9): 17.
[17]萬金紅,張葆蔚,劉建剛,等. 1950—2013年我國洪澇災(zāi)情時空特征分析[J]. 災(zāi)害學(xué),2016,31(2):63-68. Wan Jinhong, Zhang Baowei, Liu Jiangang, et al. The distribution of flood disaster loss during 1950-2013[J]. Journal of Catastrophology, 2016, 31(2): 63-68. (in Chinese with English abstract)
[18]王嘉芃,劉婷,俞志強(qiáng),等. 基于COSMO-SkyMed和SPOT-5的城鎮(zhèn)洪水淹沒信息快速提取研究[J]. 遙感技術(shù)與應(yīng)用,2016,31(3):564-571. Wang Jiafan, Liu Ting, Yu Zhiqiang, et al. A research on town flood information rapid extraction based on COSMO-SkyMed and SPOT-5[J]. Remote Sensing Technology and Application, 2016, 31(3): 564-571. (in Chinese with English abstract)
[19]Milan S, Vaclav H, Roger B. Image Processing, Analysis and Machine Vision[M]. 4th ed. Beijing: Tsinghua University Press, 2016.
[20]喬榮華,周明全. 基于主顏色和分塊顏色矩的遙感影像檢索[J]. 微計(jì)算機(jī)信息,2010,26(8-2):189-192. Qiao Ronghua, Zhou Mingquan. Remote sensing image retrieval based on dominant color and segment color moments[J]. Control & Automation, 2010, 26(8-2): 189-192. (in Chinese with English abstract)
[21]Guo M, Zhao Y, Zhang C, et al. Fast object detection based on selective visual attention[J]. Neurocomputing, 2014, 144: 184-197.
[22]Gowda S N, Yuan C. ColorNet: Investigating the importance of color spaces for image classification[C] // Asian Conference on Computer Vision Springer, Cham, 2018: 581-596.
[23]黃凱奇,任偉強(qiáng),譚鐵牛. 圖像物體分類與檢測算法綜述[J]. 計(jì)算機(jī)學(xué)報(bào),2014,36(6):1-18. Huang Kaiqi, Ren Weiqiang, Tan Tieniu. A review on image object classification and detection[J]. Chinese Journal of Computers, 2014, 36(6): 1-18. (in Chinese with English abstract)
[24]黃傳波,金忠. 應(yīng)用視覺注意多分辨率分析的圖像檢索[J]. 中國圖象圖形學(xué)報(bào),2011,16(9):1656-1663. Huang Chuanbo, Jin Zhong. Image retrieval using multi-resolution analysis of visual attention[J]. Journal of Image and Graphics, 2011, 16(9): 1656-1663. (in Chinese with English abstract)
[25]王圓圓,丁志杰,萬華林. 基于視覺顏色聚類的彩色圖像分割[J]. 北京理工大學(xué)學(xué)報(bào),2003,23(6):772-775. Wang Yuanyuan, Ding Zhijie, Wan Hualin. Perceptual color clustering for image segmentation[J]. Transactions of Beijing Institute of Technology, 2003, 23(6): 772-775. (in Chinese with English abstract)
[26]莫玲. 基于RGB彩色空間的圖像分割研究[J]. 計(jì)算機(jī)科學(xué),2016,43(Z6):168-170. Mo Ling. Study on image segmentation based on RGB color image[J]. Computer Science, 2016, 43(Z6): 168-170. (in Chinese with English abstract)
[27]肖秦琨,劉米娜,高嵩. 基于顏色和紋理特征的遙感圖像檢索[J]. 計(jì)算機(jī)技術(shù)與發(fā)展,2013,23(4):107-110. Xiao Qinkun, Liu Mina, Gao Song. Remote sensing image retrieval based on color and texture[J]. Computer Technology and Development, 2013, 23(4): 107-110. (in Chinese with English abstract)
[28]肖志濤,王紅,張芳,等. 復(fù)雜自然環(huán)境下感興趣區(qū)域檢測[J]. 中國圖象圖形學(xué)報(bào),2018,20(5):625-632. Xiao Zhitao, Wang Hong, Zhang Fang, et al. ROI detection under the complicated natural environment[J]. Journal of Image and Graphics, 2018, 20(5): 625-632. (in Chinese with English abstract)
[29]Liu G H, Yang J Y. Content-based image retrieval using color difference histogram[J]. Pattern Recognition, 2013, 46(1): 188-198.
[30]張兵. 遙感大數(shù)據(jù)時代與智能信息提取[J]. 武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2018,43(12):1861-1871. Zhang Bing. Remotely sensed big data era and intelligent information extraction[J]. Geomatics and Information Science of Wuhan University, 2018, 43(12): 1861-1871. (in Chinese with English abstract)
[31]Gong Y H, Proietti G, Faloutsos C. Image indexing and retrieval based on human perceptual color clustering[C]//The International Conference on Computer Vision and Pattern Recognition, IEEE, 1998: 578-585.
[32]周成虎. 洪澇災(zāi)害遙感監(jiān)測研究[J]. 地理研究,1993,12(2):63-68. Zhou Chenghu. Flood disaster surveillance and evaluation remote sensing[J]. Geographical Research, 1993, 12(2): 63-68. (in Chinese with English abstract)
[33]孫曉帥,姚鴻勛. 視覺注意與顯著性計(jì)算綜述[J]. 智能計(jì)算機(jī)與應(yīng)用,2014,4(5):14-18. Sun Xiaoshuai, Yao Hongxun. A survey of visual attention and saliency computation[J]. Intelligent Computer and Applications, 2014, 4(5): 14-18. (in Chinese with English abstract)
[34]Wang C, Bai X, Wang S, et al. Multiscale visual attention networks for object detection in VHR remote sensing images[J]. IEEE Geoscience and Remote Sensing Letters, 2018, 16(2): 310-314.
[35]劉小丹,岳爽. 基于視覺注意的遙感圖像森林植被紋理分割[J]. 計(jì)算機(jī)工程,2018,44(4):274-280. Liu Xiaodan, Yue Shuang. Forest vegetation texture segmentation in remote sensing image based on visual attention[J]. Computer Engineering, 2018, 44(4): 274-280. (in Chinese with English abstract)
[36]孟琭. 基于視覺注意機(jī)制的彩色圖像顯著性區(qū)域提取[J]. 計(jì)算機(jī)應(yīng)用研究,2013,30(10):3159-3161. Meng Lu. Saliency detection for color image based on visual attention mechanism[J]. Application Research of Computers, 2013, 30(10): 3159-3161. (in Chinese with English abstract)
[37]劉尚旺,李名,胡劍蘭,等. 基于視覺顯著性檢測的圖像分類方法[J]. 計(jì)算機(jī)應(yīng)用,2015,35(9):2629-2635. Liu Shangwang, Li Ming, Hu Jianlan, et al. Image classification method based on visual saliency detection[J]. Journal of Computer Applications, 2015, 35(9): 2629-2635. (in Chinese with English abstract)
[38]Mcfeeters S K. The use of the Normalized Difference Water Index (NDWI) in the delineation of open water features[J]. International Journal of Remote Sensing, 1996, 17(7): 1425-1432.
[39]Xu H Q. Modification of Normalised Difference Water Index (NDWI) to enhance open water features in remotely sensed imagery[J]. International Journal of Remote Sensing, 2006, 27(14): 3025-3033.
[40]Miyahara M. Mathematical transform of (R G B) color data to Munsell (H V C) color data[C]// SPIE Visual Communications and Image Processing, IEEE, 1988, 1001(3): 650-657.
[41]Congalton R G. A review of assessing the accuracy of classifications of remotely sensed data[J]. Remote Sensing Environment, 1991, 37: 35-46.
[42]Richards J A. Classifier performance and map accuracy[J]. Remote Sensing Environment, 1996, 57: 161-166.
[43]Stehman S V. Selecting and interpreting measures of thematic classification accuracy[J]. Remote Sensing Environment, 1997, 62: 77-89.
[44]周寅康. 中國近五百年流域性洪澇統(tǒng)計(jì)特征研究[J]. 自然災(zāi)害學(xué)報(bào),1995,4(3):23-28. Zhou Yinkang. Statistical characteristics of basin-wide flood disaster in China[J]. Journal of Natural Disasters, 1995, 4(3): 23-28. (in Chinese with English abstract)
[45]李斌,燕琴,張麗,等. 長江中游洪澇災(zāi)害特征的MODIS時序監(jiān)測與分析[J]. 武漢大學(xué)學(xué)報(bào):信息科學(xué)版,2013,38(7):789-793. Li Bin, Yan Qin, Zhang Li, et al. Flood monitoring and analysis over the Middle Reaches of Yangtze River Basin with MODIS time-series imagery[J]. Geomatics and Information Science of Wuhan University, 2013, 38(7): 789-793. (in Chinese with English abstract)
[46]蔡述明,杜耘,黃進(jìn)良,等. 長江中游洪澇災(zāi)害的成因與監(jiān)測決策支持系統(tǒng)的建立[J]. 地球科學(xué)-中國地質(zhì)大學(xué)學(xué)報(bào),2001,26(6):643-647. Cai Shuming, Du Yun, Huang Jinliang, et al. Causes of flooding and water logging in middle reaches of the Yangtze River and construction of decision-making support system for monitoring and evaluation of flooding and water logging hazards[J]. Earth Science—Journal of China University of Geosciences, 2001, 26(6): 643-647. (in Chinese with English abstract)
[47]李晟銘,劉吉平,王銘,等. 基于Sentinel-1A 的2016年長江中下游重災(zāi)區(qū)洪水遙感監(jiān)測及災(zāi)情評估[J]. 安徽農(nóng)業(yè)科學(xué),2018,46(10):68-74. Li Shengming, Liu Jiping, Wang Ming, et al. Flood remote sensing monitoring and disaster assessment in heavy disaster area of the middle and lower reaches of Yangtze River in 2016 based on Sentinel-1A imagery[J]. Journal of Anhui Agriculture Science, 2018, 46(10): 68-74. (in Chinese with English abstract)
[48]王俊. 2016年長江洪水特點(diǎn)與啟示[J]. 人民長江, 2017, 48(4):54-57. Wang Jun. Characteristics and enlightenment of 2016 Changjiang River flood[J]. Yangtze River, 2017, 48(4): 54-57. (in Chinese with English abstract)
Remote sensing identification method of flood-inundated area based on perceptual visual attention
Wang Quanfang1, Zhang Yu1, Wang Qianqian1,2※, Sun Pei1,3, Chen Longyue1, Yang Yuqi1
(1.,,430062,; 2.,,230000,;3.,430011,)
Emergency flood relief needs fast and precise spatial information of flood-inundated area. Because of spectral similarity to some extent, inundated area was often viewed as water body and then derived from remote sensing classification result of the water areas before flood disaster minus that after flood disaster, which often caused difficulties in separating inundated area from true water body (e.g. river, lake or reservoir) and waterlogged cropland. This paper proposed an optimized method for identifying inundated area based on human perceptual visual attention and spatio-temporal variation characteristics of flood. Flood-inundated area is a temporary compound of water and other flooded objects (e.g., crops). It has specific spatio-temporal dynamic property, which differs from that of water body and could be used as a stable basis for remote sense identification of the inundated area. After the specific property was digitalized into numerical and visual data by generating a composite RGB color imagery of NDVI, MNDWI before the flood event and NDWI after the inundation, apparent coloring difference between water body and the inundated area in the imagery was reached. To gain reliable machine-vision detection based results of the flood-inundated area, an imagery of Munsell HLC color was transformed from the RGB imagery and then adopted in unsupervised classification based on coefficient of NBS color distance and K-means clustering algorithm. A case was studied on applying the proposed method to derive information of the inundated area in 2016 flood disaster in middle reaches of Yangtze River Basin and using Landsat OLI images. And an error confusion matrix method was adopted in the accuracy assessment on recognition results of the inundated area. The results showed that the proposed method gained excellent detection of the area with coefficients of Kappa and composite classification accuracy (CCA) equal to 93.4% and 88.5%, respectively. A controlled experiment on the credibility of different remote sensing classification methods for the same identification object (i.e. flooded-inundated area) was also made. It proved the proposed method for detection of flood-inundated area based on the selective visual attention mechanism could effectively improve the accuracy of remote sensing identification on the area with its CCA coefficient of 5% larger than that of the traditional method. The proposed method also had good performance on easily separating the flooded-inundated areas from water and waterlogged cropland, especially helped solving the misclassification between the flooded-inundated area and the water body. These benefited from three keys: 1) The inundated area was viewed as that not equal to water coverage in remote sensing classification, which could be proven by the former’s higher heterogeneity and its different spatio-temporal dynamic property. As a result, the identification uncertainty of the area was reduced. 2) Digital visualization of spatio-temporal variation features of the inundated area was completed through data fusion of NDWI after the inundation and NDVI and MNDWI before the flood event, which enhanced the area’s visual saliency on the remote sensing image and made it possible to identify them using machine-vision color clustering. 3)Difference of the flooded-inundated areas from the water and waterlogged cropland was precisely captured in the NBS imagein HLC space that was transformed from thefusion image at an optimized RGB color matching scheme (i.e. red given to NDWI after the inundation, green and blue to NDVI and MNDWI before the inundation, respectively). During summer flooding of the study area in 2016, the waterlogged farmland with crops uncovered by water was about 19 143.35 hm2while the inundated acreage was up to 142 157.5 hm2, among which 16.6% (i.e. 23 579 hm2) was being planted with rice paddy. Additionally, most of the inundated areas located in low-lying land along mainstream of the middle Yangtze River and its two branches, namely Hanjiang River and Fuhe River. The most severe flood disaster occurred in Wuhan City with 34 492 hm2of the inundated acreage.
remote sensing; detection; human perceptual visual attention; flood-inundated area; coefficient of NBS Color Distance; Middle Reaches of Yangtze River Basin, China
汪權(quán)方,張 雨,汪倩倩,孫 佩,陳龍躍,楊宇琪. 基于視覺注意機(jī)制的洪澇淹沒區(qū)遙感識別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019,35(22):296-304. doi:10.11975/j.issn.1002-6819.2019.22.035 http://www.tcsae.org
Wang Quanfang, Zhang Yu, Wang Qianqian, Sun Pei, Chen Longyue, Yang Yuqi. Remote sensing identification method of flood-inundated area based on perceptual visual attention[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(22): 296-304. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2019.22.035 http://www.tcsae.org
2019-04-20
2019-10-09
國家自然科學(xué)基金(41471375,40601003),湖北省技術(shù)創(chuàng)新重大項(xiàng)目(2018ABA078)
汪權(quán)方,副教授,博士,主要從事土地遙感和農(nóng)情監(jiān)測研究。Email:wangqf@hubu.edu.cn
汪倩倩,助理工程師,主要從事遙感與GIS技術(shù)應(yīng)用研究。Email:1294293999@qq.com
10.11975/j.issn.1002-6819.2019.22.035
P407.8
A
1002-6819(2019)-22-0296-09