李 玉 李 杰 王 玉 趙泉華
(遼寧工程技術大學測繪與地理科學學院遙感科學與應用研究所,遼寧阜新 123000)
圖像分割是根據圖像像素的一些特殊性質(如光譜測度、空間結構特征等),按照某種規(guī)則或算法將圖像分成具有一致特性區(qū)域的方法和手段[1],是遙感圖像處理中的關鍵技術,也是對圖像后續(xù)分析的基礎。至今,圖像分割已經有多種相關方法[2],主要包括:閾值分割[3]、區(qū)域分割[4]、聚類分割[5]和統(tǒng)計模型分割[6]。然而,隨著遙感成像技術的快速發(fā)展,遙感圖像分辨率逐漸提高,增加了其分割的困難性。目前,很多針對低、中分辨率遙感圖像的分割方法已無法滿足在實際應用中對分割精度的要求。因此,如何對遙感圖像進行精確分割愈加受到關注。
由于分辨率的提高,遙感圖像細節(jié)信息愈加豐富,而目前的圖像分割方法多是以單一像素作為處理單元,沒有利用像素之間存在的相關性,使用這種傳統(tǒng)的分割方法得到的結果中必會包含較多錯分像素[7]。因此,如何有效利用像素之間關系成為遙感圖像分割中的關鍵問題。對此,Hassner和Sklansky[8]將馬爾科夫隨機場(Markov Random Field, MRF)引入圖像分割中,為像素及其鄰域的相互關系提供一種描述方式,使得有效利用像素之間的關系成為可能。在基于MRF的圖像分割方法中,常用Potts模型定義鄰域勢能函數[9]。Potts模型將圖像看作像素陣列,像素類別表示模型的狀態(tài),陣列中任意像素的狀態(tài)由該像素的鄰域像素狀態(tài)決定。該模型原理簡單,普適性強,可有效將像素鄰域運用到圖像分割中。然而,Potts模型是將中心像素與其鄰域內像素逐個進行對比,僅考慮鄰域內單個像素對中心像素的作用,未考慮鄰域整體的作用。因此,該模型抗噪性不強[10],容易造成中心像素錯分,尤其體現(xiàn)在處理較復雜的圖像中。為此,本文在波利亞罐模型的基礎上,試圖定義新的鄰域勢能函數,該函數將鄰域整體作為處理單元,從而達到減少像素錯分、提高抗噪性的效果,進而有效提高圖像分割精度。
波利亞罐模型是由Polya和Eggenberger[11]為模擬傳染病在人群中的擴散提出的一種隨機實驗模型,該模型包含許多重要的概率分布,在概率論和應用概率中占有十分重要的地位[12]。波利亞罐模型實驗對罐中不同顏色的小球進行隨機抽取,每次取出一個小球,記錄顏色后放回,然后加入一些同樣顏色的小球,以這樣的過程模擬傳染病的擴散。此過程每進行一次,罐中小球的組成會發(fā)生變化,隨著抽取次數的增加,被取到次數最多的某顏色小球在罐中的數量會逐漸增多。Polya和Eggenberger根據這種隨著抽取次數增加,某顏色小球數量逐漸增多的現(xiàn)象,提出模型的“時間傳染”特性。在Johnson和Kotz[13]的研究中,發(fā)現(xiàn)波利亞罐模型的隨機實驗過程可以生成馬爾科夫鏈和馬爾科夫隨機場。在圖像處理領域,Alajaji和Burlina[14]根據該模型提出一種能夠去除噪聲的圖像重建方法;耿茵茵等[15]則提出了一種區(qū)分圖像前景和背景的判決機制,并應用于指紋圖像處理中;Banerjee等[16]將該模型應用到圖像分割中,根據模型的“空間傳染”特性,得到一種有效提高圖像分割精度的處理方法,但該方法在針對紋理特征比較復雜的區(qū)域上依然存在誤判問題。
本文將波利亞罐模型應用到遙感圖像分割中,根據該模型為圖像標號場定義一新的鄰域勢能函數,在此基礎上結合Bayesian定理,構建圖像統(tǒng)計分割模型,并根據最大后驗概率(Maximum A Posteriori, MAP)準則[17]和Metropolis-Hastings(M-H)算法[18-19]求解分割模型。分別對模擬圖像與真實遙感圖像進行分割實驗,驗證提出方法的可行性和有效性。
罐模型是一種隨機實驗模型,根據預先設計的方案,抽取罐中不同顏色的小球,根據取到小球的顏色改變罐中各顏色小球的數量,從而改變罐中各顏色小球的組成,這樣的隨機實驗模型為罐模型[20]。
波利亞罐模型是一種重要的罐模型。假設罐中有B個藍色小球和W個白色小球,從中隨機抽取一只,記錄顏色后放回,并加入c個相同顏色的小球。每次抽取后,取出的某顏色小球(如藍色小球)數量增加,而另一種顏色小球(如白色小球)數量不變。上述過程重復進行,直到滿足預設的終止條件,這種隨機實驗模型稱為波利亞罐模型。以下是該模型的一些基本性質和推論。
性質1設事件Bn為第n次抽取取到藍色小球,由數學歸納法可得到Bn發(fā)生的概率P(Bn)為:
(1)
上式表明,每次抽取到藍色小球的概率只與B和W相關,等于B/(B+W),即最初罐中藍色小球與所有小球的數量比。
性質2以Xn表示前n次抽取中取到藍色小球的次數,P(Xn=k)表示這n次抽取中取到藍色小球次數為k的概率,則P(Xn=k)為:
(2)
其中,H=B+W,表示抽取前罐中藍、白兩種顏色小球的總個數。式(2)分子分母同除以c,并令α=B/c,γ=W/c,H/c=α+γ,得到該式的另一種表達方式,即:
(3)
其中,〈α〉k=α(α+1)…(α+(k-1)),〈γ〉n-k=γ(γ+1)…(γ+(n-k-1)),〈α+γ〉n=(α+γ)(α+γ+1)…(α+γ+(n-1))。
推論由式(3)可得前n次抽取過程中,取到藍色小球次數的期望E(Xn)為:
(4)
設Yn表示n次抽取后罐中藍色小球的總個數,則Yn=cXn+B,E(Yn)表示n次抽取后罐中藍色小球總個數的期望,由Yn及E(Xn)可得E(Yn):
(5)
可得出n次抽取后罐中藍色小球所占比例P(Yn):
(6)
上式表明,n次抽取后罐中藍色小球數與小球總數比等于最開始時罐中藍色小球數與小球總數之比。因此,若抽取前罐中某顏色(類別)小球數量占優(yōu),經過若干次抽取后,該顏色(類別)小球仍然占優(yōu),體現(xiàn)了波利亞罐模型隨機實驗過程具有保持罐中小球主要類別的特點。
將上述隨機實驗過程作用于圖像像素鄰域,可以強調鄰域像素中的主要類別,針對圖像中孤立的錯分像素,可以根據鄰域將其去除,從而更精確地分割圖像。
設X和Y是兩個離散隨機場,分別表示為X={Xi1Xi∈L,i∈S},Y={Yi1Yi∈D,i∈S},其中,Xi和Yi分別為X和Y中的元素,取值范圍分別為L和D。L、D和S表示三個符號集:L={1, …,L},D={1, …,D},S={1, …,S},i表示隨機場中元素的索引。在基于像素的圖像分割模型中,令離散隨機場X和Y分別表示圖像的標號場和特征場,Xi和Yi分別為像素i對應的隨機變量;符號集L和D分別表示圖像類別的集合和圖像光譜測度的集合,L和D分別為圖像類別總數和圖像最大光譜測度;S表示圖像域,i為圖像像素索引,S為圖像像素總數。對于給定圖像y={yi1yi∈D,i∈S},可視為特征場Y的一個實現(xiàn),yi為像素i的光譜測度。
2.2.1罐模型建立
將波利亞罐模型與圖像標號場相結合,根據鄰域建立罐模型。將像素i視為罐,初始形式用u0(i)表示,像素各類別對應小球的各顏色,u0(i)中各顏色小球數由像素i的鄰域中各類別像素的個數得到。對具有L個目標類的圖像建立罐模型,設Gl,0(i)表示抽取前(即0次抽取后)類別標號為l的小球數量,Gl,0(i)根據像素i的鄰域得到,此過程可由圖1表示。
圖1 像素i鄰域標號場及其初始罐模型u0(i)
圖1表示可分割為3個類屬(L=3)的遙感圖像,結合鄰域像素標號,為中心像素i建立罐模型的過程。圖中像素i鄰域中有3個標號為1的像素,2個標號為2的像素,3個標號為3的像素。令罐中黑、灰、白三色分別對應1、2和3三種標號,設罐中初始小球總數H0(i)為8,則像素i的初始罐模型u0(i)中含3個黑色(標號1)小球、2個灰色(標號2)小球、3個白色(標號3)小球,即G1,0(i)=3,G2,0(i)=2,G3,0(i)=3。將以上過程作用于圖像中的其他像素,完成罐模型的建立。
u0(i)和H0(i)分別為初始時像素i罐模型和小球總數的表示方式,以此類推,則un-1(i)和Hn-1(i)分別表示第n-1次抽取后,進行第n次抽取前像素i的罐模型及小球總數,n=1,2, …。
2.2.2標號場模型
采用MRF描述圖像標號場,并使用波利亞罐模型定義其鄰域勢能函數。假設標號場X中各隨機變量Xi相互獨立,根據MRF與Gibbs隨機場的等價性[21],標號場X的概率密度函數為:
(7)
其中,Ni表示像素i的鄰域像素集合,i′為Ni中的像素,i′∈Ni;η表示鄰域像素的空間作用強度,為預定義參數;Vi′(Xi)為像素i的鄰域勢能函數,可表示為:
(8)
上式利用波利亞罐模型進行定義,Gl,F(i)和HF(i)分別為第F次波利亞罐模型隨機實驗過程后,罐中顏色(標號)為l的小球的個數和所有小球總個數,具體過程說明如下:
(1)抽取及成分更新
根據圖2所示方法在un-1(i)中模擬波利亞罐模型的隨機實驗過程。
圖2 抽取及成分更新過程示意圖
圖2中,在un-1(i)中使用賭輪盤隨機選擇方法[22]取出一個小球,假定得到小球的顏色為黑(①),則向un-1(i)中加入c個黑色(標號1)小球(②,此圖中c=1),得到成分更新后的罐模型un(i)。①中得到的顏色(標號)用Jn(i)表示,則圖中Jn(i)為1。
針對分為L類的圖像,Jn(i)取值如下:
Jn(i)=l,l=1,…,L
(9)
上式也可表示第n次抽取得到的小球標號為l。然后,向罐un-1(i)中加入c個標號為l的小球,得到罐un(i),此過程可表示如下:
un(i)={Gl,n(i),Gl′,n(i)1l,l′=1,…,L,
l≠l′,n=1,2,…}
(10)
其中,如果Jn(i)=l,則Gl,n(i)=Gl,n-1(i)+c,Gl′,n(i)=Gl′,n-1(i)。
重復上述過程,若達到規(guī)定的抽取次數,或者罐un(i)中各顏色小球數量比與罐un-1(i)中對應顏色小球數量比基本一致,停止抽取。假設停止時總共抽取了F次,則有:
uF(i)={Gl,F(i)1l=1,…,L,F=1,2,…}
(11)
(2)鄰域勢能函數
根據上述隨機實驗過程,結合該過程相關性質,得到利用波利亞罐模型定義的鄰域勢能函數,即式(8)。將該式代入式(7),得到最終標號場X的概率密度函數:
(12)
2.2.3特征場模型
若像素i的標號Xi=l,則假設其特征變量Yi服從參數為μl和σl的高斯分布,且所有像素相互獨立。由此,得到Y的聯(lián)合條件概率密度函數:
(13)
其中,p(Yi1Xi=l,θl)為給定標號Xi=l條件下,特征變量Yi的概率密度。θ={θl,l∈L}={μ,σ}={μ1, …,μL,σ1, …,σL}表示特征場模型參數矢量,l為類別標號索引,μ為高斯分布均值矢量,σ為高斯分布標準差矢量。
令高斯分布的均值矢量μ(標準差矢量σ)為相互獨立的隨機變量且滿足某種先驗分布,假設μ(σ)服從均值為μμ(μσ),標準差為σμ(σσ)的高斯分布,其聯(lián)合概率密度函數為:
(14)
(15)
2.2.4后驗概率模型
給定的圖像y可以作為特征場Y的一次實現(xiàn),在此條件下可將Y視為已知量。根據Bayesian定理,可得到由標號場X、特征場Y、參數矢量θ={μ,σ}組成的聯(lián)合后驗概率密度函數:
p(X,θ1Y)∝p(X)p(Y1X,θ)p(θ)
=p(X)p(Y1X,θ)p(μ)p(σ)
(16)
上式為建立的統(tǒng)計分割模型,求出該式中的標號場X和參數矢量θ即可實現(xiàn)圖像分割。利用MAP準則,標號場X的最優(yōu)解Xopt可表示為:
Xopt=arg max{p(X,θ1Y)}
(17)
由MAP準則,當后驗概率密度函數最大時,得到最優(yōu)的圖像分割結果,因此需要求出可令p(X,θ1Y)達到最大的Xopt和θopt。由于M-H算法在進行參數求解時原理簡單、操作方便,本文利用該方法求解X和θ。為完備采樣(X,θ),設計移動操作:(1)改變參數矢量θ;(2)改變標號場X。具體過程如下:
(1)改變參數矢量θ
(18)
(19)
(2)改變標號場X
從Y={Yi1Yi∈D,i∈S}中以等概率方式隨機抽取一像素i,其標號Xi=l;再從L={1,…,L}中以等概率方式隨機抽取一標號l*,若l*≠l,則標號l*的接受率aX(Xi=l,Xi=l*)為:
aX(Xi=l,Xi=l*)=
(20)
本文使用波利亞罐模型重新定義圖像標號場的鄰域勢能函數,并利用M-H算法求解圖像的后驗概率密度函數,提出方法的流程總結如下:
(1)初始化圖像標號場X(0),高斯分布參數矢量θ(0);
(2)根據X(0),為圖像各像素建立罐模型;
(3)進行波利亞罐模型隨機實驗,得到Vi′(Xi);
(4)在t次迭代,執(zhí)行M-H算法采樣總參數矢量(X(t-1),θ(t-1)),求得(X(t),θ(t));
(5)步驟(3)、(4)重復進行,直至達到預設的循環(huán)次數或總參數矢量(X,θ)收斂到穩(wěn)定值,停止迭代。
為驗證本文提出方法的可行性和有效性,在Intel Core i7 3.6GHz/4GB內存/MATLAB R2011a環(huán)境下對模擬圖像和真實遙感圖像進行分割實驗。
為對提出方法進行定性、定量評價和比較,首先對模擬圖像進行實驗。模擬圖像以尺寸為128×128的圖3(a)為模板,其中,①~④表示不同的同質區(qū)域。圖3(b)是依據圖3(a)模板生成的模擬圖像,各同質區(qū)域內像素相互獨立且服從同一高斯分布,各區(qū)域分布參數見表1。由表可知,同質區(qū)域①~④的標準差依次遞增,標準差越大,分割難度越大。利用提出方法對圖3(b)進行分割,并與基于傳統(tǒng)Potts模型的分割方法(即,利用Potts模型定義鄰域勢能函數的分割方法)、文獻[10]Potts模型的改進方法、文獻[16]方法,以及易康軟件中的多尺度分割方法的分割結果進行對比分析,驗證提出方法的抗噪性及優(yōu)越性。
圖3 (a) 幾何模板;(b) 模擬圖像
同質區(qū)域①②③④均值2080140200標準差20304050
本文采用像素的3×3鄰域建立罐模型,實驗結果見圖4(a)??梢钥闯觯岢龇椒ǖ姆指罱Y果比較理想,能夠將各同質區(qū)域較好地分割開,各區(qū)域內基本不含錯分像素。為驗證提出方法比基于傳統(tǒng)Potts模型的分割方法有更好的抗噪性,對二者的分割結果(見圖4(a)和圖4(b))進行比較,可以看出,圖4(a)各同質區(qū)域內的錯分像素明顯少于圖4(b),說明本文使用波利亞罐模型定義的鄰域勢能函數抗噪性較強,優(yōu)于傳統(tǒng)Potts模型。圖4(c)為文獻[10]Potts模型改進方法的實驗結果,此方法將中心像素與鄰域內各像素的光譜測度值及二者的歐式距離引入勢能函數中,以提高抗噪性。圖4(c)各區(qū)域內錯分像素明顯減少,優(yōu)于圖4(b),但沒有本文方法實驗結果圖4(a)理想。此外,波利亞罐模型直接使用鄰域整體,而Potts模型是將中心像素與其鄰域內像素逐個進行對比,導致后者計算量增加,具體體現(xiàn)在實驗運行速度上:圖4(a)的運行時間少于圖4(b)運行時間的三分之二,少于圖4(c)運行時間的四分之三,說明與Potts模型相比,提出方法更方便快捷。圖4(d)為文獻[16]方法的實驗結果,該方法首先對圖像進行初分割,在此基礎上根據波利亞罐模型的隨機實驗過程對結果進行優(yōu)化,以提高圖像分割精度。此方法相對方便快捷,但結果的準確性一定程度上取決于圖像的初分割結果,局限性過強,且圖4(d)各區(qū)域內依然存在錯分像素和噪聲。圖4(e)為易康軟件多尺度分割方法的實驗結果。通過與此結果對比可知,本文方法能夠較好地保持各區(qū)域邊緣。
為對實驗結果進行定量精度評價,以圖3(a)模板為參考圖像,計算圖4分割結果的混淆矩陣,并由此矩陣計算用戶精度、產品精度、總體精度及Kappa系數,計算結果列于表2。比較表2中五種方法的混淆矩陣和Kappa系數,說明使用提出方法進行分割得到了比較準確的實驗結果。圖4(a)的總體精度和Kappa系數分別為99.68%和0.9957,高于另外四種對比算法,總體精度和Kappa系數越接近于1,分割結果越準確[23]。上述定量分析結果驗證了本文提出方法的抗噪性及優(yōu)越性。
為了對實驗結果進行定性評價,對(圖4)提取輪廓線,并將其疊加在模擬圖像圖3(b)上,如圖5所示??梢钥闯觯疚奶岢龇椒ǚ指罱Y果輪廓線與實際輪廓線能夠較好吻合,且吻合程度優(yōu)于對比方法。
圖4 分割結果((a) 提出方法;(b) Potts模型;(c) 文獻[10]方法;(d) 文獻[16]方法;(e) 多尺度分割)
本文方法/Potts模型/文獻[10]方法/文獻[16]方法/多尺度分割方法精度指標同質區(qū)域①②③④用戶精度/%99.95/97.50/99.54/93.20/99.7699.83/93.44/99.10/91.46/99.6399.29/88.97/99.42/91.79/99.3999.63/90.58/97.03/84.53/99.22產品精度/%99.83/98.93/99.95/99.68/99.7399.95/94.53/99.44/93.38/99.8599.63/85.86/96.04/73.14/99.1299.29/91.36/99.58/94.04/99.29總精度/%99.68/92.67/98.75/90.06/99.50Kappa0.9957/0.9023/0.9834/0.8675/0.9933
圖5 視覺評價((a) 提出方法;(b) Potts模型;(c) 文獻[10]方法;(d) 文獻[16]方法;(e) 多尺度分割)
為驗證提出方法的適用性,選取4幅128×128全色遙感圖像(如圖6)進行分割,類別數分別為2、3、4和4,圖像中包含水體、草地、裸地、建筑等常見地物。其中,圖6(a)為0.6 m分辨率QuickBird圖像,圖6(b)為0.5 m分辨率GeoEye-1圖像,圖6(c)為0.8 m分辨率IKONOS圖像,圖6(d)為0.7 m分辨率EROS-B圖像。對四幅圖像分別使用提出方法及四種對比方法進行處理,并對最終結果進行分析比較。
圖7(a1)~(d1)為提出方法分割結果,從整體上看,既能夠將不同類型地物區(qū)分開,又保持了各地物的形狀。與傳統(tǒng)使用Potts模型及其改進方法的分割結果圖7(a2)~(d2)、(a3)~(d3)相比,提出方法各同質區(qū)域內的錯分像素明顯減少。例如,圖6(a)中湖泊周邊陸地區(qū)域中有大量像素和湖泊區(qū)域像素灰度接近,圖7(a2)和(a3)都沒有準確地分割這些像素,使得實驗結果陸地區(qū)域中有大量的湖泊類,而使用本文方法的圖7(a1)可將二者區(qū)分開。這是因為提出方法利用波利亞罐模型的隨機實驗過程,將像素隸屬于各類別的概率之間的差距拉大,偏重鄰域中像素數量較多的類別,可結合鄰域有效去除孤立的錯分像素。實驗結果圖7(b1)~(d1)各區(qū)域內的錯分像素同樣少于圖7(b2)~(d2)、(b3)~(d3),體現(xiàn)了提出方法較Potts模型有更強的抗噪性。此外,圖7(a1)~(d1)的運行時間少于圖7(a2)~(d2)、(a3)~(d3),說明提出方法的運行速度更快。通過與文獻[16]方法的實驗結果圖7(a4)~(d4)對比可知,提出方法可以較好保持各地物的形狀及細節(jié)信息,例如圖7(b4)中右上角裸地區(qū)域變形,下方黑色線狀地物消失,二者在圖7(b1)中得到保持。圖7(a5)~(d5)為易康軟件中多尺度分割方法的分割結果,通過反復實驗調整分割尺度參數,使產生的圖斑形狀盡量與地物形狀相吻合,并在最大程度上使類別數與原圖一致(四幅圖像的形狀因子和緊致度因子均設為0.5,尺度參數分別為90、90、95、60)。然而與圖7(a1)~(d1)相比,此方法結果中存在類別誤判,圖7(b5)和(d5)中存在將同類地物分為多類,不同地物分為同類的現(xiàn)象。
為對真實遙感圖像分割結果圖7進行定量精度評價,以圖6的手動標記模板圖8為標準分割結果,計算圖7的混淆矩陣及各項精度指標,見表3。表3中,圖7(a1)~(d1)的各項精度指標都在90%左右,總體精度和Kappa系數均高于另外四種對比算法。通過這些數值,驗證了提出方法的準確性和優(yōu)越性。
圖6 真實遙感圖像((a) 湖泊;(b) 球場;(c) 海岸;(d) 街區(qū))
圖7 分割結果((a1)~(d1) 提出方法;(a2)~(d2) Potts模型;(a3)~(d3) 文獻[10]方法;(a4)~(d4) 文獻[16]方法;(a5)~(d5) 多尺度分割)
圖8 真實遙感圖像模板
圖9為圖7分割結果的視覺評價,從輪廓線與原圖像的疊加效果來看,提出方法可以很好地實現(xiàn)分割。
表3 真實遙感圖像的定量評價
圖9 視覺評價((a1)~(d1) 提出方法;(a2)~(d2) Potts模型;(a3)~(d3) 文獻[10]方法;(a4)~(d4) 文獻[16]方法;(a5)~(d5) 多尺度分割)
遙感圖像的精確分割一直是遙感圖像處理中的研究熱點。為此,本文提出一種結合波利亞罐模型和M-H算法的遙感圖像分割方法。提出方法通過模擬波利亞模型可以產生MRF的隨機實驗過程,為像素及其鄰域建立一種相互關系,在此基礎上為圖像標號場模型定義新的鄰域勢能函數。此函數根據波利亞罐模型“時間傳染”和“空間傳染”的特性,可以提高分割方法的抗噪性,從而更精確地分割圖像,同時易于求解。采用提出方法分別對模擬圖像和全色遙感圖像進行分割實驗和評價,評價結果驗證了該方法的可行性和有效性。此外,波利亞罐模型還有許多性質可以運用到圖像分割中,在下一步工作中,主要從提高圖像邊緣分割精度和可變類圖像分割兩方面進行研究。
[1] Jensen J R. Introductory Digital Image Processing: A Remote Sensing Perspective(3rd Edition)[M]. Upper Saddle River, United States: Pearson Prentice Hall, 2005: 393-399.
[2] 周莉莉, 姜楓. 圖像分割方法綜述研究[J]. 計算機應用研究, 2017, 34(7): 1921-1928.
Zhou Lili, Jiang Feng. Survey on image segmentation methods[J]. Application Research of Computers, 2017, 34(7): 1921-1928. (in Chinese)
[3] 吳一全, 孟天亮, 吳詩婳. 圖像閾值分割方法研究進展20年(1994-2014)[J]. 數據采集與處理, 2015, 30(1): 1-23.
Wu Yiquan, Meng Tianliang, Wu Shihua. Research progress of image thresholding methods in recent 20 years(1994-2014)[J]. Journal of Data Acquisition and Processing, 2015, 30(1): 1-23. (in Chinese)
[4] 王玉, 李玉, 趙泉華. 可變類多光譜遙感圖像分割[J]. 遙感學報, 2016, 20(6): 1381-1390.
Wang Yu, Li Yu, Zhao Quanhua. Integration of multispectral remote-sensing image segmentation with unknown number of classes[J]. Journal of Remote Sensing, 2016, 20(6): 1381-1390. (in Chinese)
[5] 李玉, 徐秋曄, 林文杰, 等. 結合多元信息聚類與空間約束的遙感圖像分割方法[J]. 信號處理, 2017, 33(5): 749-757.
Li Yu, Xu Qiuye, Lin Wenjie, et al. Remote sensing image segmentation method combining multivariate information clustering with spatial constraints[J]. Journal of Signal Processing, 2017, 33(5): 749-757. (in Chinese)
[6] Wang X F, Min H, Zou L, et al. A novel level set method for image segmentation by incorporating local statistical analysis and global similarity measurement[J]. Pattern Recognition, 2015, 48(1): 189-204.
[7] 宋熙煜, 周利莉, 李中國, 等. 圖像分割中的超像素方法研究綜述[J]. 中國圖象圖形學報, 2015, 20(5): 599- 608.
Song Xiyu, Zhou Lili, Li Zhongguo, et al. Review on superpixel methods in image segmentation[J]. Journal of Image and Graphics, 2015, 20(5): 599- 608. (in Chinese)
[8] Hassner M, Sklansky J. The use of Markov Random Fields as models of texture[J]. Computer Graphics and Image Processing, 1980, 12(4): 357-370.
[9] Besag J. On the Statistical Analysis of Dirty Picture[J]. Journal of the Royal Statistical Society(Series B (Methodological)), 1986, 48(3): 259-302.
[10] 郭雷, 侯一民, 倫向敏. 一種基于圖像上下文信息的無監(jiān)督彩色圖像分割算法[J]. 模式識別與人工智能, 2008, 21(1): 82- 87.
Guo Lei, Hou Yimin, Lun Xiangmin. An unsupervised color image segmentation algorithm based on context information[J]. Pattern Recognition and Artificial Intelligence, 2008, 21(1): 82- 87. (in Chinese)
[11] Eggenberger F, Polya G. Uber die statistik verketter vorgange[J]. Zeit Angew Math Mech, 1923, 3(4): 279-289.
[12] 何朝兵. 關于Polya罐子模型的幾個結論[J]. 海南大學學報:自然科學版, 2009, 27(4): 332-335.
He Chaobing. Several results of Polya urn model[J]. Natural Science Journal of Hainan University, 2009, 27(4): 332-335. (in Chinese)
[13] Johnson N L, Kotz S. Urn Models and Their Application[M]. New York, United States: John Wiley & Sons, 1977: 176-194.
[14] Alajaji F, Burlina P. Image modeling and restoration through contagion urn schemes[C]∥International Conference on Image Processing. Washington, D.C., United States: IEEE Computer Society Press, 1995, 2: 53-56.
[15] 耿茵茵, 蔡安妮, 孫景鰲. 基于瓦罐模型的多判據判決及其在圖像分割中的應用[J]. 電子學報, 2002, 30(7): 1017-1019.
Geng Yinyin, Cai Anni, Sun Jingao. Multiple criterion decisions based on urn model and its application in image segmentation[J]. Acta Electronica Sinica, 2002, 30(7): 1017-1019. (in Chinese)
[16] Banerjee A, Burlina P, Alajaji F. Image segmentation and labeling using the Polya urn model[J]. IEEE Transactions on Image Processing, 1999, 8(9): 1243-1253.
[17] Geman S, Geman D. Stochastic relaxation, Gibbs distribution, and Bayesian restoration of images[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1984, 6(6): 721-741.
[18] Chib S, Greenberg E. Understanding the Metropolis-Hastings algorithm[J]. The American Statistician, 1995, 49(4): 327-335.
[19] Zhao Q H, Wang Y, Li Y. Voronoi tessellation-based regionalised segmentation for colour texture image[J]. IET Computer Vision, 2017, 10(7): 613- 622.
[20] Mahmoud M H. Polya Urn Models[M]. Boca Raton, United States: CRC Press, 2009: 50-53.
[21] Spitzer F. Markov Random Fields and Gibbs ensembles[J]. The American Mathematical Monthly, 1971, 78(2): 142-154.
[22] 周輝仁, 鄭丕諤, 牛犇, 等. 基于遞階遺傳算法和BP網絡的模式分類方法[J]. 系統(tǒng)仿真學報, 2009, 21(8): 2243-2247.
Zhou Huiren, Zheng Pie, Niu Ben, et al. HGA-BP-based pattern classification method[J]. Journal of System Simulation, 2009, 21(8): 2243-2247. (in Chinese)
[23] Congaltonr G, Green K. Assessing the Accuracy of Remotely Sensed Data: Principles and Practices[M]. Boca Raton, United States: CRC Press, 2008: 105-119.