陳一祥,秦 昆,張 曄,袁 媛
1. 南京郵電大學(xué)地理與生物信息學(xué)院,江蘇 南京 210023; 2. 安徽省智慧城市與地理國情監(jiān)測重點(diǎn)實(shí)驗(yàn)室,安徽 合肥 230031; 3. 武漢大學(xué)遙感信息工程學(xué)院,湖北 武漢 430079
視覺顯著性與知覺組織相結(jié)合的高分影像居民地提取方法
陳一祥1,2,秦 昆3,張 曄3,袁 媛1
1. 南京郵電大學(xué)地理與生物信息學(xué)院,江蘇 南京 210023; 2. 安徽省智慧城市與地理國情監(jiān)測重點(diǎn)實(shí)驗(yàn)室,安徽 合肥 230031; 3. 武漢大學(xué)遙感信息工程學(xué)院,湖北 武漢 430079
受人類視覺認(rèn)知機(jī)制的啟發(fā),提出了一種利用視覺顯著性與知覺組織相結(jié)合的高分辨率遙感影像居民地提取方法。首先利用認(rèn)知物理學(xué)中的數(shù)據(jù)場構(gòu)建居民地的視覺顯著性模型,并通過自適應(yīng)閾值法實(shí)現(xiàn)候選居民地的自動(dòng)提取,然后利用多尺度小波變換的高頻特征實(shí)現(xiàn)居民地的知覺組織,最后通過集合交運(yùn)算提取同時(shí)滿足這兩種視覺機(jī)制的居民地。通過ZY-3和Quickbird兩種高分傳感器的影像數(shù)據(jù)集進(jìn)行居民地提取試驗(yàn),驗(yàn)證了該方法的有效性。
高分辨率遙感影像;視覺顯著性;數(shù)據(jù)場;知覺組織;小波變換;居民地提取
近年來,高空間分辨率(高分)對地觀測技術(shù)得到了快速發(fā)展,其分辨率已達(dá)到亞米級的水平,因而能夠在更精細(xì)的尺度上實(shí)現(xiàn)對地物的觀測[1]。居民地是一種建設(shè)用地,它是由建筑物(主要是房屋)聚集覆蓋而構(gòu)成的區(qū)域,及時(shí)準(zhǔn)確地獲取居民地信息對于基礎(chǔ)地理數(shù)據(jù)庫構(gòu)建與更新、土地利用規(guī)劃、城鎮(zhèn)擴(kuò)張及其動(dòng)態(tài)監(jiān)測等具有重要的意義。
高分影像具有光譜信息相對不足、光譜異質(zhì)性較大而紋理、結(jié)構(gòu)等空間信息豐富的特點(diǎn),基于多光譜或高光譜的目標(biāo)分類與探測技術(shù)[2-3]一般不適合高分影像居民地的提取。目前對于高分影像居民地的提取更多地是利用其紋理、結(jié)構(gòu)等空間特征。基于紋理特征的方法把居民地看成是一個(gè)紋理對象,通常使用灰度共生矩陣(GLCM)[4]、Gabor變換[5]、空間統(tǒng)計(jì)[6]等方法描述居民地紋理。比如,PanTex是一種基于灰度共生矩陣(GLCM)紋理構(gòu)建的表征居民地存在性的指數(shù),對SPOT-5全色影像具有很強(qiáng)的穩(wěn)健性[4]。由于不關(guān)注居民地內(nèi)部的幾何結(jié)構(gòu),該類方法對于分辨率低于1 m(比如2~5 m)時(shí)效果較好,但當(dāng)分辨率較高時(shí)(比如亞米級)往往不能獲得理想的結(jié)果。
隨著影像分辨率的提高,居民地內(nèi)部幾何結(jié)構(gòu)及其空間布局更加明顯,局部結(jié)構(gòu)特征為居民地的提取提供了新的線索。在較高分辨率的影像上,居民地內(nèi)部單個(gè)建筑物已可識(shí)別,建筑物的點(diǎn)、線、面等幾何結(jié)構(gòu)特征成為居民地提取的有效判據(jù)。相關(guān)的研究工作主要包括:基于局部特征點(diǎn)分布和空間投票[7]、利用局部邊緣密度和均衡性[8]、利用角點(diǎn)[9-10]以及融合直角點(diǎn)和直角邊[11]的高分影像城市區(qū)/居民地提取方法。這類方法主要依賴于居民地局部的點(diǎn)、線等幾何結(jié)構(gòu)特征及它們的空間分布,對于較高分辨率(比如亞米級)的影像,通常會(huì)比基于紋理的方法表現(xiàn)出更優(yōu)越的性能。但居民地內(nèi)部的點(diǎn)、線等幾何結(jié)構(gòu)特征常與其他地物有混淆,比如道路、農(nóng)田等也具有明顯的角點(diǎn)和邊緣特征,這常常會(huì)導(dǎo)致居民地的偽檢,因此需要更進(jìn)一步的特征或模型進(jìn)行驗(yàn)證。
近年來隨著認(rèn)知科學(xué)、計(jì)算機(jī)視覺和人工智能等技術(shù)的發(fā)展,視覺認(rèn)知規(guī)律和計(jì)算模型開始被引入高分影像典型地物的提取。場景中顯著的對象或區(qū)域更容易引起生物視覺的注意,因此模擬視覺注意機(jī)制的顯著性模型被提出,用于實(shí)現(xiàn)興趣目標(biāo)的識(shí)別[12-13]和場景理解[14-15]。對于高分影像中的居民地,近幾年已有相關(guān)的研究,使用的主要是小波變換的方法,比如非下采樣輪廓波變換(non subsampled contourlet transform,NSCT)[16-17]、提升小波變換(lifting wavelet transform,LWT)[18]等,通過小波變換來建模人類視覺注意對居民地的紋理響應(yīng),然后構(gòu)建居民地的顯著性模型。這類方法由于模擬人類視覺機(jī)制,在模型上通常更勝一籌,但目前的方法主要是根據(jù)色調(diào)或紋理特征來建立居民地的顯著性模型,模擬的是人類視覺對地物的感知方法。神經(jīng)科學(xué)和認(rèn)知科學(xué)的研究表明,除了對顯著地物的感知,人類的視覺機(jī)制還具有將圖像中的基本結(jié)構(gòu)組織成完整目標(biāo)的能力,即知覺組織能力[19-20]。符合知覺組織規(guī)律的目標(biāo),一般會(huì)具有更大的顯著性,更容易引起人的視覺注意。
基于以上分析,本文認(rèn)為在對地物的識(shí)別過程中,視覺注意與知覺組織這兩種機(jī)制都發(fā)揮了作用,綜合利用紋理和結(jié)構(gòu)特征能夠提高高分影像居民地判別能力。鑒于此,本文提出一種利用視覺顯著性與知覺組織相結(jié)合的居民地提取方法。該方法首先基于局部的角點(diǎn)分布構(gòu)建居民地的視覺顯著性模型,并通過閾值分割獲得候選的居民地區(qū)域,然后根據(jù)局部紋理特征的一致性,利用基于區(qū)域的知覺組織和集合交運(yùn)算實(shí)現(xiàn)居民地的精提取,具體流程如圖1所示。
圖1 技術(shù)流程Fig.1 The work flow of the proposed method
本文引入認(rèn)知物理學(xué)中的數(shù)據(jù)場方法來構(gòu)建居民地的視覺顯著性模型?!皥觥笔俏锢韺W(xué)中的概念,用來描述非接觸對象之間的相互作用。把物理學(xué)中場的概念引入數(shù)域空間,將每個(gè)數(shù)據(jù)對象看成是具有一定質(zhì)量的質(zhì)點(diǎn),其周圍存在一個(gè)作用場,位于該場中的任何數(shù)據(jù)對象都將會(huì)受到其他數(shù)據(jù)對象的聯(lián)合作用,那么這個(gè)數(shù)域空間就構(gòu)成了一個(gè)數(shù)據(jù)場[21]。借鑒物理學(xué)中“勢”的概念,數(shù)據(jù)場使用勢函數(shù)來描述數(shù)據(jù)對象之間的相互作用。勢函數(shù)一般具有以下特性:空間任一點(diǎn)的勢值大小與場源強(qiáng)度參數(shù)成正比,并隨該點(diǎn)與場源距離的增大而減小。
本文將高分影像中的居民地看成是由內(nèi)部建筑物(或其局部結(jié)構(gòu))構(gòu)成的場,居民地內(nèi)部由于建筑物顯著的局部視覺特征(如點(diǎn)、邊線、屋頂面、陰影等)以及這些特征的聚集分布,使得居民地整體上具有更大的顯著性,也就具有了更大的勢值。相關(guān)研究表明,影像中的角點(diǎn)特征具有良好的定位和表征建筑物的能力[22]。設(shè)圖像中共有n個(gè)角點(diǎn),其構(gòu)成的集合為P={p1,p2,…,pn},如果選擇局部的角點(diǎn)作為質(zhì)點(diǎn),則這n個(gè)質(zhì)點(diǎn)可以形成一個(gè)數(shù)據(jù)場。對于質(zhì)點(diǎn)pi,它在影像任意一點(diǎn)p處的勢值φi(p)若用高斯函數(shù)來表示,則
(1)
式中,mi為質(zhì)點(diǎn)pi的質(zhì)量,與該點(diǎn)局域的特征有關(guān);σ為表征勢函數(shù)作用范圍的參數(shù),其取值與影像的分辨率以及建筑物自身的特征(如尺寸)相關(guān),本文通過試驗(yàn)發(fā)現(xiàn),對于高分影像,其取值在6到9時(shí)較合適。
基于數(shù)據(jù)場的疊加原理,影像中點(diǎn)p處在n個(gè)質(zhì)點(diǎn)的聯(lián)合作用下,其勢值為
(2)
(3)
將勢值φ(p)作為影像中p點(diǎn)處的顯著性度量,可得到居民地視覺顯著性的定量模型。目前計(jì)算機(jī)視覺領(lǐng)域已有許多角點(diǎn)檢測算子,總體上可分為兩大類:基于圖像邊緣的方法和基于圖像灰度的方法[24],前者依賴于圖像的分割和邊緣提取,對遙感圖像具有較大的計(jì)算難度和計(jì)算量,而后者通過計(jì)算點(diǎn)的梯度和曲率來進(jìn)行角點(diǎn)檢測,可以避免第1類方法的不足。因此本文利用后者,并選擇其中代表性的Harris算子[25]進(jìn)行試驗(yàn)。
通過上文構(gòu)建的數(shù)據(jù)場模型可以獲得影像中任意一點(diǎn)的顯著性值(即勢值),由于影像中的角點(diǎn)主要存在于居民地內(nèi)部并且聚集分布,這將會(huì)使居民地較非居民地獲得更大的視覺顯著性值。為此,可以設(shè)置一個(gè)顯著性閾值T0,輸出滿足條件φ(p)>T0的像素區(qū)域R0={p|φ(p)>T0}作為候選的居民地。目前已有許多自動(dòng)選擇閾值的方法,如Rosin的單峰直方圖閾值法[26]、Otsu的最大類間方差法[27]等,本文選擇后者,自動(dòng)獲得目標(biāo)與背景分割的最佳閾值參數(shù),實(shí)現(xiàn)候選居民地的提取。居民地提取本質(zhì)上是一個(gè)二分類問題,Otsu最大類間方差法是一種自適應(yīng)地確定閾值的方法,該方法根據(jù)圖像的灰度特性,將圖像分成目標(biāo)和背景兩部分。它的優(yōu)勢表現(xiàn)在:基于該方法確定的分割閾值,能夠使得目標(biāo)和背景之間的類間方差最大,這也就意味著錯(cuò)分概率最小。
人類視覺系統(tǒng)能夠快速而又準(zhǔn)確地完成物體識(shí)別的另一機(jī)制是知覺組織,即只需根據(jù)場景中感知的局部線索,就可以將其組織成完整的目標(biāo)。格式塔心理學(xué)派提出了一套適合視覺系統(tǒng)進(jìn)行知覺組織的規(guī)律,包括接近性、相似性、閉合性等[19]。知覺組織和視覺顯著性并不是割裂的,符合知覺組織規(guī)律的目標(biāo)會(huì)具有更大的顯著性,更容易完成物體的識(shí)別。
模擬人類視覺系統(tǒng),本文把居民地的識(shí)別看成是知覺組織的過程。在遙感領(lǐng)域,知覺組織方法已被用于道路[28]、矩形建筑屋頂[29]的提取,主要是對局部的邊緣或線特征進(jìn)行組織。鑒于居民地的復(fù)雜性,不適合使用基于邊線特征的知覺組織法,本文提出使用基于區(qū)域的方法實(shí)現(xiàn)居民地的知覺組織。該方法首先對影像進(jìn)行規(guī)則分塊,將每個(gè)矩形子塊作為局部視覺感知的基本單元,然后獲得每個(gè)子塊具有一致性的視覺特征,并根據(jù)特征相似性或一致性將居民地子塊組織成完整的目標(biāo)。
除了上文提到的點(diǎn)、線、面等幾何結(jié)構(gòu)特征,高分影像中居民地還具有豐富的紋理特征,在視覺上它表現(xiàn)為更高頻率的亮度變化,并且這種特性還會(huì)因距離遠(yuǎn)近的不同而產(chǎn)生差異(即具有多尺度特性),為此本文引入多尺度小波變換來建模每個(gè)子區(qū)域的紋理特征。
多尺度小波變換能夠把信號(hào)分解成低頻和高頻成分,前者對應(yīng)信號(hào)的近似部分(approximation,A),后者對應(yīng)信號(hào)的細(xì)節(jié)部分(details,D)。對于2D圖像f(x,y),在分辨率為2j下的近似(A)和細(xì)節(jié)(D)部分可由下面的卷積公式來計(jì)算[30]
2-jm)](n,m)∈Z2
(4)
2-jm)](n,m)∈Z2
(5)
2-jm)](n,m)∈Z2
(6)
2-jm)](n,m)∈Z2
(7)
式中,j為分解層次;m和n為整數(shù);φ(x)為一維尺度函數(shù);ψ(x)為一維小波函數(shù)。一般來說,φ(x)為平滑函數(shù)(smoothing function),用來提供低頻信息(低通濾波器);ψ(x)為差異函數(shù)(differencing function),用來提供高頻信息(高通濾波器)。
鑒于居民地具有更高的頻率特性,本文使用小波分解的高頻成分來描述居民地的紋理特征。首先對子區(qū)域進(jìn)行小波分解,獲得高頻和低頻成分,然后利用水平、垂直和對角3個(gè)方向的高頻成分來對居民地的紋理進(jìn)行描述,并定義如下的特征描述參數(shù)
(1) 對數(shù)能量(log energy,LOG)
(8)
(2) 香農(nóng)指數(shù)(Shannon’s index,SHAN)
(9)
式中,P(i,j)為分解圖像中第(i,j)個(gè)像元小波系數(shù)值。
在將影像進(jìn)行規(guī)則分塊獲得的子區(qū)域中,屬于居民地的子區(qū)域應(yīng)該具有一致的紋理特征,為此本文利用該規(guī)則將隸屬于居民地的子區(qū)域組織成完整的居民地目標(biāo)。具體過程如下:
(1) 獲取居民地樣本的小波特征。本文采用自動(dòng)化的方式來獲得居民地樣本:首先計(jì)算影像中角點(diǎn)分布的密度,然后以具有極大密度的角點(diǎn)為中心,定義大小為s·s的矩形區(qū)域作為居民地樣本,并根據(jù)式(8)—式(9)計(jì)算其小波紋理特征參數(shù),分別記為S_F1和S_F2。
(2) 對影像進(jìn)行規(guī)則分塊并計(jì)算每個(gè)子塊的小波特征描述參數(shù)。將原始影像(包含m·n個(gè)像素)進(jìn)行規(guī)則網(wǎng)格分塊,劃分成M·N個(gè)邊長為L的影像子塊,則M=floor(m/L),N=floor(m/L),這里floor為向下取整函數(shù)。當(dāng)m和n都能是L的整數(shù)倍時(shí),獲得的每個(gè)矩形子塊的邊長都為L,否則會(huì)在影像的邊界處得到一邊長為L另一邊長小于L或者兩邊長都小于L的矩形子塊。對每個(gè)影像子塊按式(8)—式(9)計(jì)算其小波紋理特征參數(shù)。對于第i個(gè)子塊Bi,其LOG和SHAN特征值分別記為Bi_F1和Bi_F2。
(3) 基于紋理特征一致性對居民地進(jìn)行知覺組織。根據(jù)各影像子塊與居民地樣本紋理特征的一致性,將滿足規(guī)則式(10)的子塊標(biāo)記為居民地,否則標(biāo)記為非居民地(即背景)
(10)
式中,i=1,2,…;M×N為影像塊的編號(hào);k=1或2,k=1為LOG特征,k=2為SHAN特征;T(≥0)為一致性閾值參數(shù),T越小則影像子塊與居民地樣本的紋理特征越一致。
高分影像中的居民地不僅具有視覺顯著性,還符合知覺組織規(guī)律,并且這兩者是相互關(guān)聯(lián)的,即符合知覺組織規(guī)律的目標(biāo)會(huì)具有更強(qiáng)的視覺顯著性。鑒于此,本文進(jìn)一步提取同時(shí)滿足這兩種視覺機(jī)制的居民地,使得居民地的邊界范圍更加準(zhǔn)確。假設(shè)基于這兩種視覺機(jī)制提取的居民地分別為R1和R2,同時(shí)符合這種機(jī)制的居民地為R,則
R=R1∩R2
(11)
在前面的視覺顯著性模型和知覺組織模型中,筆者分別利用了居民地角點(diǎn)結(jié)構(gòu)特征和紋理特征,此時(shí)按式(11)提取的居民地也就同時(shí)利用了這兩種特征,增加了居民地提取的可靠性。圖2為該過程的一組試驗(yàn),其中圖2(a)為原始Quickbird影像數(shù)據(jù),圖2(b)和圖2(c)為分別利用視覺顯著性和知覺組織獲得的候選居民地,而圖2(d)為同時(shí)滿足這兩種視覺機(jī)制的提取結(jié)果??梢钥闯觯ㄟ^取交運(yùn)算,居民地的邊界更為準(zhǔn)確,周邊的噪聲區(qū)域大大減少。
圖2 居民地精提取過程Fig.2 The refinement process of residential area extraction
為驗(yàn)證該方法的有效性,筆者將其應(yīng)用于高分影像居民地的提取。試驗(yàn)中試驗(yàn)了包括資源三號(hào)(ZY-3)和Quickbird兩種不同傳感器的全色影像,其空間分辨率分辨為2.1 m和0.61 m。試驗(yàn)結(jié)果采用查準(zhǔn)率(precision,P)、查全率(recall,R)和F1-score 3個(gè)指標(biāo)進(jìn)行評估,其定義分別為
(12)
(13)
(14)
式中,TP(true positive)為真正類,表示提取的居民地是真實(shí)居民地的像元數(shù)目;FP(false positive)為假正類,表示提取的居民地是非居民地的像元數(shù)目;FN(false negative)為假負(fù)類,表示提取的非居民地是居民地的像元數(shù)目。
試驗(yàn)中涉及的主要參數(shù)包括數(shù)據(jù)場模型的帶寬σ、知覺組織中影像規(guī)則分塊的尺寸L、相似性閾值T。以圖2(a)中的影像數(shù)據(jù)為例,圖3展示了這3個(gè)參數(shù)的不同取值對提取結(jié)果的影響,這里采用固定兩個(gè)參數(shù)(L=40,T=0.5;σ=8,T=0.5;σ=8,L=40)來看F1-score隨第3個(gè)參數(shù)的變化情況。通過對多幅影像數(shù)據(jù)進(jìn)行多次試驗(yàn),帶寬σ合理取值在7附近,L的合理取值在40附近,T的合理取值在0.4~0.6,對于σ=7,L=40,T=0.5,大部分?jǐn)?shù)據(jù)都可以達(dá)到較好的結(jié)果,其提取的精度已達(dá)到或接近最優(yōu)。
在基于視覺顯著性和知覺組織獲得居民地后,在其周圍有時(shí)還會(huì)存在離散分布的噪聲區(qū)域或者在其內(nèi)部存在小的空洞,這破壞了居民地的形狀完整性,為此筆者增加了另外兩個(gè)參數(shù)以進(jìn)一步優(yōu)化居民地的提取,一個(gè)是描述噪聲區(qū)域面積的閾值T1,一個(gè)是描述空洞面積大小的閾值T2,即居民地外部面積小于T1的噪聲區(qū)域被去除,而居民地內(nèi)部面積小于T2的噪聲區(qū)域被填充,通過試驗(yàn),這兩個(gè)參數(shù)設(shè)置為T1=L·L=1600,T2=3·T1=4800,可保證提取的大部分居民地獲得較完整的拓?fù)湫螒B(tài)。
圖3 參數(shù)試驗(yàn)Fig.3 Parameter tests
在知覺組織過程中,本文基于小波變換定義了LOG和SHAN兩個(gè)紋理特征描述參數(shù),其各自的性能分別進(jìn)行了試驗(yàn),在該數(shù)據(jù)集上使用這兩種特征的精度評估結(jié)果如表1所示。表1中第1列為數(shù)據(jù)集編號(hào),其中編號(hào)1—6為6幅河南登封地區(qū)不同場景的ZY-3全色影像,編號(hào)7—12為6幅武漢地區(qū)不同場景的Quickbird全色影像。由該表中的具體數(shù)值可以看出,對于該試驗(yàn)數(shù)據(jù),本文的方法能夠獲得較高的精度,大部分的居民地場景,其F1-score值可以達(dá)到85%以上,對于簡單的場景,其F1-score值可以達(dá)到90%左右。另外,通過比較LOG和SHAN兩種小波特征的居民地提取結(jié)果,可以看出使用這兩種特征獲得的精度是不一樣的,整體上LOG特征略好于SHAN特征的結(jié)果。
表1 居民地提取精度評估結(jié)果
在該數(shù)據(jù)集上,本文方法提取結(jié)果如圖4和圖5所示,其中圖4為ZY-3數(shù)據(jù)集提取結(jié)果,圖5為Quickbird數(shù)據(jù)集提取結(jié)果。在圖4和圖5中,第1列為原始影像數(shù)據(jù),第2列為居民地實(shí)況數(shù)據(jù),第3和第4列為分別使用LOG特征和SHAN特征的居民地提取結(jié)果。通過圖4和圖5可以看出,使用本文的方法能夠較好地實(shí)現(xiàn)高分影像居民地的提取,其提取的結(jié)果已非常接近居民地實(shí)況數(shù)據(jù),并且保持了良好的拓?fù)湫螒B(tài),這將有利于對其進(jìn)行矢量化處理,從而便于地理信息系統(tǒng)(GIS)的進(jìn)一步應(yīng)用。
為進(jìn)一步評估該方法的性能,筆者將其與經(jīng)典的基于空間投票(spatial voting,SV)的方法[7]和基于視覺注意機(jī)制構(gòu)建的BASI指數(shù)法[16-17]進(jìn)行了比較。圖6為在該數(shù)據(jù)集上本文方法與SV方法F1-score的柱狀圖比較,每組的前2列為本文方法分別使用LOG特征和SHAN特征的結(jié)果,而第3列為SV方法的結(jié)果??傮w上看,本文方法獲得了更高的精度。另外,本文方法在獲得較高精度的同時(shí),對不同傳感器的影像數(shù)據(jù)表現(xiàn)出了更好的穩(wěn)定性,而SV方法對Quickbird數(shù)據(jù)(序號(hào)7—12)效果較好,但對ZY-3數(shù)據(jù)(序號(hào)1—6)性能相對較差而且波動(dòng)性較大,這可能是由于SV方法中的Gabor濾波器主要根據(jù)地物濾波響應(yīng)的幅度差異來獲得局部特征點(diǎn),影像中居民地域和非居民地域中常常發(fā)生相似的濾波響應(yīng)特性,這時(shí)獲得的特征點(diǎn)就比較容易混淆。而本文的方法模擬人類視覺機(jī)制,同時(shí)利用了居民地的局部角結(jié)構(gòu)特征和高頻的紋理特征,因而在提高精度同時(shí)也保證了性能的穩(wěn)定性。
圖4 ZY-3影像數(shù)據(jù)提取結(jié)果Fig.4 Residential area extraction results of ZY-3 image data set
圖7為本文方法與BASI指數(shù)法的F1-score值比較結(jié)果,從該圖可以看出,在ZY-3影像(序號(hào)1—6)上,本文方法與BASI性能接近,但在Quickbird影像(序號(hào)7—12)上,本文的方法表現(xiàn)出更優(yōu)越的性能。這是由于BASI指數(shù)僅利用紋理特征來描述居民地顯著性,在影像分辨率較高時(shí),居民地的幾何結(jié)構(gòu)特征以及知覺組織機(jī)制在視覺認(rèn)知中會(huì)發(fā)揮越來越重要的作用,本文的方法正是利用了這一特性,因而會(huì)獲得相對更好的結(jié)果。
圖5 Quickbird影像數(shù)據(jù)提取結(jié)果Fig.5 Residential area extraction results of Quickbird image data set
本文受人類視覺系統(tǒng)的視覺顯著性與知覺組織機(jī)理啟發(fā),提出了一種高分影像居民地提取方法。該方法認(rèn)為高分影像中的居民地由于其特殊的紋理和結(jié)構(gòu)特征,使其表現(xiàn)出視覺顯著性,而對于這種顯著性的認(rèn)知是建立在知覺組織機(jī)制上的,符合知覺組織規(guī)律的局部特征才會(huì)具有更大的視覺顯著性。為此,本文分別提出了基于數(shù)據(jù)場的視覺顯著性模型和基于多尺度小波變換特征的居民地知覺組織方法,并提取了同時(shí)滿足這兩種視覺機(jī)制的居民地域。ZY-3和Quickbird兩種不同傳感器的多種場景高分影像數(shù)據(jù)集的居民地提取試驗(yàn)表明,本文的方法能夠獲得較高的精度,并且提取的居民地域能夠保持良好的拓?fù)湫螒B(tài),進(jìn)一步的比較試驗(yàn)也表明本文方法的優(yōu)越性。
圖6 本文方法與SV方法的比較Fig.6 Comparison between the proposed method and SV
圖7 本文方法與BASI方法的比較Fig.7 Comparison between the proposed method and BASI
本文提出的方法雖然具有較多的參數(shù),但這些參數(shù)的設(shè)置相對容易,本文對兩種傳感器、不同場景的多幅試驗(yàn)數(shù)據(jù)設(shè)置了統(tǒng)一的試驗(yàn)參數(shù),整體上仍獲得了較好的試驗(yàn)效果??紤]到不同數(shù)據(jù)本身的特點(diǎn),這些參數(shù)若有針對性的進(jìn)行適當(dāng)調(diào)整,還可以獲得更好的試驗(yàn)結(jié)果。如何自適應(yīng)地獲得適合于數(shù)據(jù)自身特點(diǎn)的最佳參數(shù),從而實(shí)現(xiàn)居民地的更好提取是未來進(jìn)一步要研究的問題。
致謝:特別感謝田英潔博士提供的BASI算法的試驗(yàn)結(jié)果,協(xié)助本文完成與BASI算法的比較。
[1] 秦昆,陳一祥,甘順子,等.高分辨率遙感影像空間結(jié)構(gòu)特征建模方法綜述[J].中國圖象圖形學(xué)報(bào),2013,18(9):1055-1064.
QIN Kun,CHEN Yixiang,GAN Shunzi,et al.Review on Methods of Spatial Structural Feature Modeling of High Resolution Remote Sensing Images[J].Journal of Image and Graphics,2013,18(9):1055-1064.
[2] BHATTI S S,TRIPATHI N K.Built-up Area Extraction Using Landsat 8 OLI Imagery[J].GIScience & Remote Sensing,2014,51(4):445-467.
[3] DU Bo,ZHANG Yuxiang,ZHANG Liangpei,et al.Beyond the Sparsity-based Target Detector:A Hybrid Sparsity and Statistics-based Detector for Hyperspectral Images[J].IEEE Transactions on Image Processing,2016,25(11):5345-5357.
[4] PESARESI M,GERHARDINGER A,KAYITAKIRE F.A Robust Built-up Area Presence Index by Anisotropic Rotation:Invariant Textural Measure[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2008,1(3):180-192.
[5] 陳洪,陶超,鄒崢嶸,等.一種新的高分辨率遙感影像城區(qū)提取方法[J].武漢大學(xué)學(xué)報(bào)(信息科學(xué)版),2013,38(9):1063-1067.
CHEN Hong,TAO Chao,ZOU Zhengrong,et al.Automatic Urban Area Extraction Using a Gabor Filter and High-resolution Remote Sensing Imagery[J].Geomatics and Information Science of Wuhan University,2013,38(9):1063-1067.
[6] 林晨曦,周藝,王世新,等.基于變差函數(shù)的中高分辨率SAR影像農(nóng)村建筑區(qū)提取[J].中國圖象圖形學(xué)報(bào),2016,21(5):674-682.
LIN Chenxi,ZHOU Yi,WANG Shixin,et al.Variogram-based Rural Build-up Area Extraction from Middle and High Resolution SAR Images[J].Journal of Image and Graphics,2016,21(5):674-682.
[7] SIRMACEK B,UNSALAN C.Urban Area Detection Using Local Feature Points and Spatial Voting[J].IEEE Geoscience and Remote Sensing Letters,2010,7(1):146-150.
[8] HU Xiangyun,SHEN Jiajie,SHAN Jie,et al.Local Edge Distributions for Detection of Salient Structure Textures and Objects[J].IEEE Geoscience and Remote Sensing Letters,2013,10(3):466-470.
[9] 陶超,鄒崢嶸,丁曉利.利用角點(diǎn)進(jìn)行高分辨率遙感影像居民地檢測方法[J].測繪學(xué)報(bào),2014,43(2):164-169,192.DOI:10.13485/j.cnki.11-2089.2014.0024.
TAO Chao,ZOU Zhengrong,DING Xiaoli.Residential Area Detection from High-resolution Remote Sensing Imagery Using Corner Distribution[J].Acta Geodaetica et Cartographica Sinica,2014,43(2):164-169,192.DOI:10.13485/j.cnki.11-2089.2014.0024.
[10] TAO Chao,TAN Yihua,ZOU Zhengrong,et al.Unsupervised Detection of Built-up Areas from Multiple High-resolution Remote Sensing Images[J].IEEE Geoscience and Remote Sensing Letters,2013,10(6):1300-1304.
[11] 林祥國,寧曉剛.融合直角點(diǎn)和直角邊特征的高分辨率遙感影像居民點(diǎn)提取方法[J].測繪學(xué)報(bào),2017,46(1):83-89.DOI:10.11947/j.AGCS.2017.20160389.
LIN Xiangguo,NING Xiaogang.Extraction of Human Settlements from High Resolution Remote Sensing Imagery by Fusing Features of Right Angle Corners and Right Angle Sides[J].Acta Geodaetica et Cartographica Sinica,2017,46(1):83-89.DOI:10.11947/j.AGCS.2017.20160389.
[12] 溫奇,李苓苓,劉慶杰,等.基于視覺顯著性和圖分割的高分辨率遙感影像中人工目標(biāo)區(qū)域提取[J].測繪學(xué)報(bào),2013,42(6):831-837.
WEN Qi,LI Lingling,LIU Qingjie,et al.A Man-made Object Area Extraction Method Based on Visual Saliency Detection and Graph-cut Segmentation for High Resolution Remote Sensing Imagery[J].Acta Geodaetica et Cartographica Sinica,2013,42(6):831-837.
[13] 許妙忠,叢銘,萬麗娟,等.視覺感受與Markov隨機(jī)場相結(jié)合的高分辨率遙感影像分割法[J].測繪學(xué)報(bào),2015,44(2):198-205,213.DOI:10.11947/j.AGCS.2015.20130453.
XU Miaozhong,CONG Ming,WAN Lijuan,et al.A Methodology of Image Segmentation for High Resolution Remote Sensing Image Based on Visual System and Markov Random Field[J].Acta Geodaetica et Cartographica Sinica,2015,44(2):198-205,213.DOI:10.11947/j.AGCS.2015.20130453.
[14] ITTI L,KOCH C,NIEBUR E.A Model of Saliency-based Visual Attention for Rapid Scene Analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.
[15] ZHANG Fan,DU Bo,ZHANG Liangpei.Saliency-guided Unsupervised Feature Learning for Scene Classification[J].IEEE Transactions on Geoscience and Remote Sensing,2015,53(4):2175-2184.
[16] 沈小樂,邵振峰,田英潔.紋理特征與視覺注意相結(jié)合的建筑區(qū)提取[J].測繪學(xué)報(bào),2014,43(8):842-847.DOI:j.cnki.11-2089.2014.0131.
SHEN Xiaole,SHAO Zhenfeng,TIAN Yingjie.Built-up Areas Extraction by Textural Feature and Visual Attention Mechanism[J].Acta Geodaetica et Cartographica Sinica,2014,43(8):842-847.DOI:j.cnki.11-2089.2014.0131.
[17] SHAO Zhenfeng,TIAN Yingjie,SHEN Xiaole.BASI:A New Index to Extract Built-up Areas from High-resolution Remote Sensing Images by Visual Attention Model[J].Remote Sensing Letters,2014,5(4):305-314.
[18] ZHANG Libao,LI Aoxue,ZHANG Zhongjun,et al.Global and Local Saliency Analysis for the Extraction of Residential Areas in High-spatial-resolution Remote Sensing Image[J].IEEE Transactions on Geoscience and Remote Sensing,2016,54(7):3750-3763.
[19] 羅四維.視覺信息認(rèn)知計(jì)算理論[M].北京:科學(xué)出版社,2010.
LUO Siwei.Perception Computing of Visual Information[M].Beijing:Science Press,2010.
[20] SARKAR S,BOYER K L.Perceptual Organization in Computer Vision:A Review and a Proposal for a Classificatory Structure[J].IEEE Transactions on Systems,Man,and Cybernetics,1993,23(2):382-399.
[21] LI Deyi,DU Yi.Artificial Intelligence with Uncertainty[M].Boca Raton:Chapman and Hall/CRC,2007.
[22] MARTINEZ-FONTE L,GAUTAMA S,PHILIPS W,et al.Evaluating Corner Detectors for the Extraction of Man-made Structures in Urban Areas[C]∥Proceedings of 2005 IEEE International Geoscience and Remote Sensing Symposium.Seoul,South Korea:IEEE,2005:237-240.
[23] WU Tao,QIN Kun.Data Field-based Transition Region Extraction and Thresholding[J].Optics and Lasers in Engineering,2012,50(2):131-139.
[24] 王永明,王貴錦.圖像局部不變性特征與描述[M].北京:國防工業(yè)出版社,2010.
WANG Yongming,WANG Guijin.Image Local Invariant Features and Descriptors[M].Beijing:National Defense Industry Press,2010.
[25] HARRIS C,STEPHENS M.A Combined Corner and Edge Detector[C]∥Proceedings of Fourth Alvey Vision Conference.Manchester:University of Manchester,1988:147-152.
[26] ROSIN P L.Unimodal Thresholding[J].Pattern Recognition,2001,34(11):2083-2096.
[27] OTSU N.A Threshold Selection Method from Gray-level Histograms[J].IEEE Transactions on Systems,Man,and Cybernetics,1979,9(1):62-66.
[28] HU Xiangyun,TAO V.Automatic Extraction of Main Road Centerlines from High Resolution Satellite Imagery Using Hierarchical Grouping[J].Photogrammetric Engineering and Remote Sensing,2007,73(9):1049-1056.
[29] WANG Jun,YANG Xiucheng,QIN Xuebin,et al.An Efficient Approach for Automatic Rectangular Building Extraction from Very High Resolution Optical Satellite Imagery[J].IEEE Geoscience and Remote Sensing Letters,2015,12(3):487-491.
[30] MYINT S W,LAM N S N,TYLER J M.Wavelets for Urban Spatial Feature Discrimination:Comparisons with Fractal,Spatial Autocorrelation,and Spatial Co-occurrence Approaches[J].Photogrammetric Engineering and Remote Sensing,2004,70(7):803-812.
A Residential Area Extraction Method for High Resolution Remote Sensing Imagery by Using Visual Saliency and Perceptual Organization
CHEN Yixiang1,2,QIN Kun3,ZHANG Ye3,YUAN Yuan1
1. School of Geographic and Biologic Information,Nanjing University of Posts and Telecommunications,Nanjing 210023,China; 2. Anhui Key Laboratory of Smart City and Geographical Condition Monitoring,Hefei 230031,China; 3. School of Remote Sensing and Information Engineering,Wuhan University,Wuhan 430079,China
Inspired by human visual cognitive mechanism,a method of residential area extraction from high-resolution remote sensing images was proposed based on visual saliency and perceptual organization. Firstly,the data field theory of cognitive physics was introduced to model the visual saliency and the candidate residential areas were produced by adaptive thresholding. Then,the exact residential areas were obtained and refined by perceptual organization based on the high-frequency features of multi-scale wavelet transform. Finally,the validity of the proposed method was verified by experiments conducted on ZY-3 and Quickbird image data sets.
high-resolution remote sensing image;visual saliency;data field;perceptual organization;wavelet transform;residential area extraction
The National Natural Science Foundation of China (No. 41501378);The Natural Science Foundation of Jiangsu Province of China (No. BK20150835);The Open Fund of Anhui Key Laboratory of Smart City and Geographical Condition Monitoring (No. 2016-K-03Z);The sScientific Research Foundation of Nanjing University of Posts and Telecommunications(No. NY214196)
CHEN Yixiang(1984—),male,PhD,lecturer,majors in remote sensing image processing and information extraction.
QIN Kun
E-mail: qink@whu.edu.cn
陳一祥,秦昆,張曄,等.視覺顯著性與知覺組織相結(jié)合的高分影像居民地提取方法[J].測繪學(xué)報(bào),2017,46(12):1959-1968.
10.11947/j.AGCS.2017.20170176.
CHEN Yixiang,QIN Kun,ZHANG Ye,et al.A Residential Area Extraction Method for High Resolution Remote Sensing Imagery by Using Visual Saliency and Perceptual Organization[J]. Acta Geodaetica et Cartographica Sinica,2017,46(12):1959-1968. DOI:10.11947/j.AGCS.2017.20170176.
P237
A
1001-1595(2017)12-1959-10
國家自然科學(xué)基金(41501378);江蘇省自然科學(xué)基金(BK20150835);安徽省智慧城市與地理國情監(jiān)測重點(diǎn)實(shí)驗(yàn)室開放性課題基金資助課題(2016-K-03Z);南京郵電大學(xué)引進(jìn)人才科研啟動(dòng)基金(NY214196)
張艷玲)
2017-04-17
2017-10-26
陳一祥(1984—),男,博士,講師,研究方向?yàn)檫b感圖像處理與信息提取。
E-mail: chenyixiang@njupt.edu.cn
秦昆