曹天揚(yáng),申 莉
1.北京遙感設(shè)備研究所,北京100039;2.北京航天福道高技術(shù)股份有限公司,北京100195
傳感器是智能交通的基礎(chǔ),為交通指揮提供道路交通狀況信息,如流量、速度、占有率、交通密度、排隊(duì)長(zhǎng)度等[1]。目前常用的傳感器主要是感應(yīng)線圈、壓電式檢測(cè)器、固定攝相機(jī)等[2],它們的監(jiān)測(cè)范圍有限,需組網(wǎng)才能獲取大范圍交通狀況,大多僅部署在城市主干道。
相比于地面?zhèn)鞲衅鳎l(wèi)星遙感的監(jiān)測(cè)面積非常大,可一次性獲取城市整體影像。目前已經(jīng)能夠有效提取出遙感影像中的城市道路[3-4],如文獻(xiàn)[3—5]分別基于形態(tài)學(xué)、多重信息融合、支持向量機(jī)來(lái)提取遙感圖像中的道路,文獻(xiàn)[6]還專門(mén)研究了道路邊緣的提取問(wèn)題。若能再通過(guò)圖像處理技術(shù)進(jìn)一步提取其中的車(chē)輛運(yùn)行信息,則可以與地面?zhèn)鞲衅餍纬苫パa(bǔ),從全局角度為交通指揮提供整個(gè)城市的交通狀況[7]。
目前國(guó)內(nèi)外都在廣泛開(kāi)展交通遙感圖像處理方面的研究,如利用閾值分割技術(shù)區(qū)分道路和汽車(chē)[8-12],在此基礎(chǔ)上采取形態(tài)學(xué)的預(yù)處理措施,可以有效突出汽車(chē)的特征,改善識(shí)別效果[13]。機(jī)器學(xué)習(xí)等自適應(yīng)建模技術(shù)也被大量應(yīng)用于這一研究領(lǐng)域,如通過(guò)徑向基神經(jīng)網(wǎng)絡(luò)、概率神經(jīng)網(wǎng)絡(luò)將紋理特征與亮度特征融合到一起識(shí)別汽車(chē)[14-16]。
交通遙感圖像處理的難點(diǎn)在于汽車(chē)陰影的干擾,它與深色車(chē)亮度相近不易區(qū)分[17-18]。幾輛并排行駛的汽車(chē)很容易被對(duì)方的陰影覆蓋,變成一個(gè)連通的深色區(qū)域,被誤識(shí)別為一輛大型汽車(chē)。視頻檢測(cè)可以利用地面背景信息消除陰影,但這種方法對(duì)遙感圖像并不適用,因?yàn)檫b感衛(wèi)星的過(guò)頂時(shí)間和拍攝次數(shù)有限、對(duì)一個(gè)城市每天最多拍攝一次,很難獲得不包含車(chē)的地面背景。如何去除陰影是遙感圖像處理中的一個(gè)研究重點(diǎn),目前主要采用的方法包括同態(tài)濾波、直方圖均衡、紋理分析等方法[19-20]。但是對(duì)于汽車(chē)陰影,處理難度相對(duì)較大,因?yàn)槠?chē)附近存在多個(gè)相對(duì)運(yùn)動(dòng)的光源,除了太陽(yáng)光,周?chē)钠?chē)、建筑物都會(huì)將太陽(yáng)光反射到汽車(chē)上產(chǎn)生陰影,隨著汽車(chē)的移動(dòng),這些光源的數(shù)量和方向時(shí)刻都在改變,很難通過(guò)數(shù)學(xué)模型準(zhǔn)確描述一輛汽車(chē)的陰影變化。針對(duì)汽車(chē)陰影處理國(guó)內(nèi)外也進(jìn)行了大量研究,例如通過(guò)拍攝時(shí)的太陽(yáng)高度和方位角建立模型、預(yù)測(cè)汽車(chē)的陰影,但這些信息需要在遙感城市道路時(shí)同步記錄,否則無(wú)法實(shí)現(xiàn)車(chē)輛陰影消除[7]。除了陰影,車(chē)窗也會(huì)形成干擾,淺色車(chē)的車(chē)窗(包括前后窗、天窗)呈現(xiàn)深色,會(huì)被誤識(shí)別為深色汽車(chē),很容易把一輛完整的淺色汽車(chē)分割為數(shù)個(gè)互不聯(lián)通的小區(qū)域。
針對(duì)上述問(wèn)題,本文以Phong光照模型為基礎(chǔ),設(shè)計(jì)了一種交通遙感圖像處理方法,用于識(shí)別、定位路面上的汽車(chē)。
汽車(chē)特征提取的主要目的是獲取汽車(chē)、路面、陰影3類物體的區(qū)別,建立識(shí)別車(chē)輛和消除陰影的方案。
汽車(chē)的亮度和陰影的特征可以通過(guò)Phong光照模型來(lái)描述,物體亮度由環(huán)境光的漫反射、太陽(yáng)光的漫反射、太陽(yáng)光的鏡面反射組成,即[21]
式中,ka、kd、ks分別為物體對(duì)環(huán)境光的漫反射系數(shù)、對(duì)太陽(yáng)光的漫反射系數(shù)和鏡面反射系數(shù);Ia、Il分別為環(huán)境光及太陽(yáng)光強(qiáng)度;θ為太陽(yáng)光與物體表面法線之間的夾角;α為反射光與視線之間的夾角;n為鏡面反射參數(shù)。
考慮到實(shí)際自然場(chǎng)景中絕大部分區(qū)域?yàn)榉枪饣瑓^(qū)域,式(1)中的鏡面反射分量Ilkscosnα=0。物體對(duì)環(huán)境光的反射系數(shù)ka和對(duì)太陽(yáng)光的漫反射系數(shù)kd都取決于物體表面特征,二者一致,即ka=kd。因此物體亮度可以表示為
物體的反射系數(shù)ka=1時(shí)稱為白體,ka=0時(shí)稱為黑體。介于白體和黑體之間的稱為灰體。全色遙感圖像中,汽車(chē)分為深、淺兩類。淺色車(chē)接近于白體,反射系數(shù)ka≈1,亮度為
深色車(chē)接近于黑體,反射系數(shù)ka≈0,亮度為
路面亮度處于白體與黑體之間,屬于灰體,亮度為
陰影分為兩種:半影和暗影,它們的亮度可以分別通過(guò)式(6)和式(7)表示
式中,λ是光能的損失系數(shù)。光源被物體完全遮擋時(shí)形成暗影,暗影的光強(qiáng)為一常數(shù),即式(6)中λ=0的情況;光源部分被物體遮擋時(shí)形成半影,0<λ<1;光源沒(méi)有被物體遮擋時(shí),無(wú)陰影,λ=1。陰影的亮度變化是先暗影后半影,順著光照方向陰影由暗變亮,直至達(dá)到路面亮度。
對(duì)于深色車(chē),如圖1(a)所示,由上述公式可知,順著光照方向每一行(圖1(a)中的白線)亮度變化會(huì)經(jīng)歷4個(gè)過(guò)程:路面灰度、黑色、漸變?yōu)榛?、路面灰度,如圖1(b)所示。
對(duì)于淺色車(chē),如圖1(c)所示,順著光照方向每一行(圖1(c)中的黑線)亮度變化會(huì)經(jīng)歷5個(gè)過(guò)程:路面灰度、白色、黑色、漸變?yōu)榛?、路面灰度,如圖1(d)所示。
特征1:深色車(chē)、路面、淺色車(chē)分別處于暗、灰、亮3個(gè)灰度區(qū)域。
特征2:對(duì)于深色車(chē)(含車(chē)和陰影),沿著光照方向亮度變化過(guò)程為:路面灰度、變暗、達(dá)到最小值、增大,路面灰度。
特征3:對(duì)于淺色車(chē)(含車(chē)和陰影),沿著光照方向亮度變化過(guò)程為:路面灰度、變亮、達(dá)到最大值、變暗、達(dá)到最小值、增大,路面灰度。
依據(jù)特征1可從路面中提取車(chē)輛區(qū)域(含車(chē)和陰影),依據(jù)特征2、特征3可以區(qū)分車(chē)和陰影。
圖1 衛(wèi)星遙感圖像中淺色車(chē)和深色車(chē)的亮度變化過(guò)程Fig.1 The luminance variance of dark and bright vehicles in the satellite RS-image
本文的交通遙感車(chē)輛識(shí)別定位方法包括3個(gè)環(huán)節(jié):高斯平滑濾波與圖像旋轉(zhuǎn)、圖層分離與車(chē)輛區(qū)域提取、去除陰影和車(chē)窗的干擾。如圖2所示,首先將根據(jù)特征1從路面遙感圖像中提取出汽車(chē)區(qū)域,然后利用特征2和特征3去除車(chē)輛區(qū)域中陰影和車(chē)窗造成的干擾,其中圖層分離算法、陰影消除算法、車(chē)窗識(shí)別算法是本文根據(jù)亮度特征專門(mén)設(shè)計(jì)的。
為了取得最佳的處理效果,首先通過(guò)高斯平滑濾波與圖像旋轉(zhuǎn)對(duì)原始遙感圖像進(jìn)行預(yù)處理。高斯濾波可以濾除因物體表面不平而引起亮度的起伏波動(dòng),有利于根據(jù)像素點(diǎn)灰度的上升/下降趨勢(shì)識(shí)別陰影。圖像旋轉(zhuǎn)可以調(diào)整每列都平行于光照方向,算法僅需逐列分析灰度變化即可完成陰影識(shí)別,能簡(jiǎn)化圖像處理過(guò)程。
高斯濾波是一種相鄰像素點(diǎn)的加權(quán)平均
式中,B(x,y)為濾波后的圖像像素點(diǎn);A(i,j)為原始圖像的像素點(diǎn);w(i,j)為(x,y)周?chē)拿總€(gè)像素在濾波結(jié)果中的權(quán)重系數(shù)。數(shù)據(jù)處理時(shí),式(8)對(duì)(i,j)∈s的區(qū)域內(nèi)進(jìn)行加權(quán)平均,中心點(diǎn)權(quán)重最高,然后依次向四周遞減。濾波效果如圖1(b)所示,相比于圖1(a)的原始圖像,汽車(chē)和路面的亮度變化都比較緩和。
圖2 交通遙感車(chē)輛識(shí)別定位圖像處理過(guò)程Fig.2 The RS-image processing for vehicles recognition and location
圖像旋轉(zhuǎn)的公式為
式中,(x0,y0)為原始遙感圖像的像素點(diǎn);(x1,y1)為旋轉(zhuǎn)后的像素點(diǎn)坐標(biāo);α為旋轉(zhuǎn)角度。因?yàn)樘?yáng)光是平行光,圖像中所有物體的陰影都指向相同方向,遙感圖像的旋轉(zhuǎn)角度α可通過(guò)計(jì)算淺色車(chē)陰影邊界與圖片邊界之間的夾角確定,旋轉(zhuǎn)效果如圖3(b)所示,列像素與陰影的方向平行。
車(chē)輛區(qū)域識(shí)別的目標(biāo)是將深色車(chē)和淺色車(chē)與路面遙感圖像區(qū)分開(kāi),而多類目標(biāo)區(qū)分一般很難做到準(zhǔn)確:深色車(chē)會(huì)干擾淺色車(chē)的識(shí)別,造成求取的閾值偏小,較亮的路面會(huì)被誤識(shí)別為淺色車(chē);檢測(cè)深色車(chē)時(shí),較暗的路面也會(huì)被誤識(shí)別。一種常用的解決方案是通過(guò)形態(tài)學(xué)神經(jīng)網(wǎng)絡(luò)將圖像變?yōu)閮蓮垼謩e消除深色車(chē)和淺色車(chē)[15],但由于仍有一些殘留,后續(xù)處理會(huì)受影響。
圖3 高斯平滑濾波與圖像旋轉(zhuǎn)的圖像處理效果Fig.3 The processing result of Gaussian smoothing and image rotation
本文設(shè)計(jì)了一種較為徹底的深、淺汽車(chē)分離和檢測(cè)方法:首先基于直方圖確定分界點(diǎn),將原始圖像分為深、淺兩個(gè)圖層,然后利用最大類間方差法在每個(gè)圖層中分別識(shí)別深、淺車(chē)輛。該方法還包含亮度增強(qiáng)和深色圖層反轉(zhuǎn)兩個(gè)輔助環(huán)節(jié),可以有效提高汽車(chē)和路面的區(qū)分效果。
3.2.1 深色車(chē)與淺色車(chē)的圖層分離
由特征1可知,深色車(chē)、路面、淺色車(chē)分別處于黑、灰、白3個(gè)區(qū)間。遙感圖像的直方圖中,路面像素點(diǎn)最多,形成巨大的峰,如圖4(a)所示。深、淺汽車(chē)的像素點(diǎn)分別位于峰的兩側(cè)。
圖4 直方圖Fig.4 Histogram
峰值點(diǎn)的灰度值可以作為圖層的分界點(diǎn)。深色圖層由小于該灰度級(jí)的像素點(diǎn)構(gòu)成,深色車(chē)包含其中;淺色圖層由大于該灰度級(jí)的像素點(diǎn)構(gòu)成,淺色車(chē)包含其中。圖層分離公式如下:
深色圖層
淺色圖層
式中,x是原始遙感圖像;x0是深色圖層;x1是淺色圖層;xmax是分界點(diǎn)。為每個(gè)圖層分別求取各自的閾值,即可準(zhǔn)確劃定遙感圖像中每輛汽車(chē)所在的區(qū)域。
深色圖層灰度范圍為[0,xmax],淺色圖層為[xmax,255],它們的亮度都不足。為了提高汽車(chē)和路面的對(duì)比度,通過(guò)式(13)增強(qiáng)圖層亮度,將灰度范圍擴(kuò)展到[0,255]
式中,[a,b]為變換前的灰度范圍;y(i,j)為變換后的灰度值。淺色圖層的處理效果如圖5(c)所示。
為了提高在計(jì)算機(jī)上的圖像處理的效率,深色圖層的像素點(diǎn)y(i,j)可通過(guò)式(14)反轉(zhuǎn)為z(i,j),使深色車(chē)的形式與淺色車(chē)一致,如圖5(b)所示。分割汽車(chē)和路面時(shí),兩個(gè)圖層可調(diào)用同一個(gè)軟件程序分別求取各自的分割閾值
圖5 交通遙感圖像處理過(guò)程Fig.5 The RS-image processing for traffic
3.2.2 基于閾值分割法的遙感圖像車(chē)輛提取
深、淺圖層的特征可以在直方圖中清晰地顯示出來(lái),汽車(chē)和路面像素點(diǎn)各自集中于高、低兩個(gè)灰度區(qū)域,如圖4(b)、4(c)所示,非常有利于使用最大類間方差法設(shè)定閾值區(qū)分車(chē)輛和路面[13-14]。最大類間方差法的核心是求取汽車(chē)和路面的類間方差σ2t
式中,i為灰度級(jí)(共L級(jí)),它的出現(xiàn)概率為Pi;為汽車(chē)出現(xiàn)的概率;為路面出現(xiàn)的概率;分類準(zhǔn)則函數(shù)為
遍歷256個(gè)灰度級(jí),使σ2t最大的t就是區(qū)分路面和汽車(chē)的最佳閾值。深色車(chē)區(qū)域和路面的分割效果如圖5(d)所示,淺色車(chē)區(qū)域和路面的分割效果如圖5(e)所示。淺色車(chē)區(qū)域中只有淺色車(chē);而深色車(chē)區(qū)域中不但包含深色車(chē),還包含深、淺汽車(chē)的陰影,以及淺色車(chē)的車(chē)窗。陰影和車(chē)窗的去除將在下一環(huán)節(jié)完成。
圖層分離與車(chē)輛區(qū)域提取過(guò)程易受到陰影和車(chē)窗的干擾:①陰影干擾,陰影會(huì)被識(shí)別為深色車(chē),當(dāng)車(chē)間距很小時(shí),深色車(chē)區(qū)域會(huì)被陰影連接到一起,被誤識(shí)別為一輛超大型汽車(chē),如圖5(d)所示;②車(chē)窗干擾,因淺色車(chē)的車(chē)窗呈深色而劃分到深色圖層,一輛完整的淺色車(chē)會(huì)被分割為數(shù)段,如圖5(e)所示。
這里設(shè)計(jì)了一種算法來(lái)消除陰影、車(chē)窗造成的干擾:首先利用光照變化特征2和特征3,順著光照方向分析亮度的變化過(guò)程,消除部分陰影、斷開(kāi)陰影造成的深色車(chē)區(qū)域連接,將每輛車(chē)都劃分到單獨(dú)的區(qū)域進(jìn)行定位;然后利用淺色車(chē)的位置確定深色圖層中哪些是它的陰影和車(chē)窗,通過(guò)閉運(yùn)算將它們與車(chē)合并到一起。此時(shí)深色圖層中僅剩深色車(chē)。
3.3.1 深色車(chē)的陰影識(shí)別和去除
由亮度變化特征3可知,留在深色圖層中的淺色車(chē)陰影與深色車(chē)相近,也呈現(xiàn)類似亮度變化特征2的現(xiàn)象,灰度由大變小再變大、遠(yuǎn)離太陽(yáng)的方向逐步上升。因此可以利用汽車(chē)陰影的這種特征,順著光照方向?qū)ι钌?chē)區(qū)域所包含的遙感圖像逐列掃描,斷開(kāi)車(chē)與車(chē)之間因陰影造成的連接。陰影消除過(guò)程分為兩種情況:
情況1:深色車(chē)區(qū)域內(nèi)只有一輛車(chē)。按照亮度變化特征2,每一列中會(huì)有1個(gè)最小值。該最小值將列像素點(diǎn)分為兩段,遠(yuǎn)離光源一段為陰影,靠近光源一段為汽車(chē)。
情況2:深色車(chē)區(qū)域內(nèi)有多輛車(chē)。因?yàn)檐?chē)輛和陰影交替出現(xiàn),每一列中會(huì)有多個(gè)極小值和極大值交替出現(xiàn)。亮度變化特征2表明,兩個(gè)極大值之間包含一輛汽車(chē)(和它的陰影)。與情況1同理,兩個(gè)極大值之間的極小值可以作為陰影和汽車(chē)的分界線,分界線遠(yuǎn)離光源一段為陰影,靠近光源一段為汽車(chē)。
處理效果如圖5(f)所示,可以有效消除汽車(chē)間的陰影連接。這種方法還可以消除淺色車(chē)的大部分陰影。根據(jù)亮度變化特征3,淺色車(chē)的陰影呈波谷狀,靠近汽車(chē)的一部分陰影仍存在于濾除結(jié)果中。這部分殘留將在下一個(gè)環(huán)節(jié)進(jìn)行處理。
考慮到陰影面積與太陽(yáng)高度角相關(guān),當(dāng)陰影增大時(shí)更多的路面紋理包含其中,會(huì)造成陰影內(nèi)部的亮度波動(dòng)起伏、不利于算法消除陰影。因此本文引入了低通濾波器對(duì)圖像預(yù)處理、消除陰影中的亮度波動(dòng)起伏
式中,Y(i)是平滑后的圖像;z(i)是原始圖像;α為平滑系數(shù)(0<α<1),當(dāng)太陽(yáng)高度角變低、陰影面積增加時(shí),通過(guò)減小α增強(qiáng)濾波能力,可以有效平滑陰影中的亮度起伏。
3.3.2 淺色車(chē)的陰影、車(chē)窗識(shí)別與深、淺汽車(chē)定位
淺色車(chē)陰影、車(chē)窗、天窗造成的干擾可以通過(guò)它們與車(chē)的位置關(guān)系消除。雖然與淺色車(chē)不在同一個(gè)圖層,但陰影、車(chē)窗與汽車(chē)的坐標(biāo)靠在一起。盡管閾值分割會(huì)使它們收縮,但與淺色車(chē)間隔1~2個(gè)像素仍可認(rèn)為是它的車(chē)窗和陰影;由于汽車(chē)之間要保持安全距離(≥2m,≥4像素),深、淺色汽車(chē)不會(huì)靠得像淺色車(chē)與它的陰影(車(chē)窗)一樣近。因此從深色圖層中提取出與淺色車(chē)位置接近的識(shí)別結(jié)果,然后與淺色車(chē)合并,可以將淺色車(chē)的各個(gè)部分重新合并成一輛完整的汽車(chē)。合并過(guò)程采用形態(tài)學(xué)的閉運(yùn)算實(shí)現(xiàn),如圖5(g)所示,可在遙感圖像中準(zhǔn)確標(biāo)識(shí)出每輛淺色車(chē)。閉運(yùn)算是先膨脹后腐蝕
式中,Y表示圖像;S表示結(jié)構(gòu)元素。結(jié)構(gòu)元素S在圖像Y中不斷移動(dòng)。腐蝕的結(jié)果是S完全包含在Y中時(shí),S原點(diǎn)(中心)的位置集合。膨脹的結(jié)果是S中至少有一個(gè)點(diǎn)包含在Y中時(shí),S原點(diǎn)(中心)的位置集合。此時(shí)深色圖層中的剩余部分都是深色汽車(chē)。陰影消除環(huán)節(jié)易造成畸變,汽車(chē)的識(shí)別結(jié)果很容易被割裂。這種問(wèn)題也可以通過(guò)閉運(yùn)算消除,畸變的修整效果如圖5(f)所示。
為了進(jìn)一步改善效果,深、淺汽車(chē)識(shí)別結(jié)果中的噪聲點(diǎn)采用開(kāi)運(yùn)算去除,如圖5(h)、圖5(i)所示
3.4.1 試驗(yàn)結(jié)果
為了驗(yàn)證算法的適用性,本文從GoogleEarth選取了10組衛(wèi)星遙感道路照片進(jìn)行測(cè)試,包括天津市、張家口市、秦皇島市、錦州市,以及美國(guó)的洛杉磯市。識(shí)別定位效果如圖6所示(白色黑框三角形標(biāo)示淺色車(chē),白色十字標(biāo)示深色車(chē))。
表1中,10組圖像的平均識(shí)別率為淺色車(chē)大于92%、深色車(chē)大于87%。
表1 深、淺汽車(chē)在遙感圖像中的識(shí)別結(jié)果Tab.1 The recognition result of vehicles of different color in the RS-image %
3.4.2 試驗(yàn)數(shù)據(jù)分辨率討論
(1)對(duì)于遙感圖像中深淺兩類汽車(chē),圖6的識(shí)別結(jié)果表明算法都能夠較準(zhǔn)確識(shí)別。
(2)對(duì)于不同城市和地區(qū)的遙感圖像,表1的試驗(yàn)結(jié)果表明算法具有較廣泛的適用性。
(3)汽車(chē)靠得比較近時(shí)算法出現(xiàn)分辨率誤差,此處的深色車(chē)位于淺色車(chē)的陰影中(圖6的中部),陰影不能被去除過(guò)多,否則深色汽車(chē)的識(shí)別結(jié)果區(qū)域過(guò)小、會(huì)被當(dāng)作噪聲濾除,因此造成淺色車(chē)陰影有剩余、易被誤識(shí)別為深色汽車(chē)從而產(chǎn)生誤差。如何同時(shí)保證準(zhǔn)確識(shí)別汽車(chē)和有效去除陰影,將是本算法下一步的研究重點(diǎn)。
圖6 遙感圖像中汽車(chē)的識(shí)別定位結(jié)果Fig.6 The recognition and location result of vehicles in the RS-image
遙感技術(shù)可以獲取城市整體交通信息,從全局角度判別交通狀況。本文針對(duì)交通遙感圖像處理的核心環(huán)節(jié),設(shè)計(jì)了一種在交通衛(wèi)星遙感圖像中進(jìn)行車(chē)輛識(shí)別定位的方法,該算法以光照模型為基礎(chǔ),提取出路面、深色車(chē)、淺色車(chē)以及汽車(chē)陰影的亮度變化規(guī)律,以此為基礎(chǔ)能較準(zhǔn)確地識(shí)別定位交通遙感圖像中的每輛汽車(chē),并且可以有效消除陰影和車(chē)窗造成的干擾。
[1] KIM Y W,OKUMA S,NARIKIYO T.Traffic Network Control Based on Hybrid Dynamical System Modeling and Mixed Integer Nonlinear Programming with Convexity Analysis[J].IEEE Transactions on Man and Cybernetics,Part A:Systems and Humans,2008;38(2):346-357.
[2] SETCHELL C,DAGLESS E L.Vision Based Road Traffic Monitoring Sensoring[J].IEEE Proceedings of Vision Image and Signal Processing,2001,148(1):78-84.
[3] ZHU Changqing,WANG Yaoge,MA Qiuhe,et al.Road Extraction from High-resolution Remotely Sensed Image Based on Morphological Segmentation [J]. Acta Geodaetica et Cartographica Sinica,2004,33(4):347-351.(朱長(zhǎng)青,王耀革,馬秋禾,等.基于形態(tài)分割的高分辨率遙感影像道路提?。跩].測(cè)繪學(xué)報(bào),2004,33(4):347-351.)
[4] LI Xiaofeng,ZHANG Shuqing,HAN Fuwei,et al.Road Extraction from High Resolution Remote Sensing Images Based on Multiple Information Fusion [J]. Acta Geodaetica et Cartographica Sinica,2008,37(2):178-184.(李曉峰,張樹(shù)清,韓富偉,等.基于多重信息融合的高分辨率遙感影像道路信息提?。跩].測(cè)繪學(xué)報(bào),2008,37(2):178-184.)
[5] CHEN Jie,DENG Min,XIAO Pengfeng,et al.Object-oriented Classification of High Resolution Imagery Combining Support Vector Machine with Granular Computing[J].Acta Geodaetica et Cartographica Sinica,2011,40(2):137-141.(陳杰,鄧敏,肖鵬峰,等.結(jié)合支持向量機(jī)與粒度計(jì)算的高分辨率遙感影像面向?qū)ο蠓诸悾跩].測(cè)繪學(xué)報(bào),2011,40(2):137-141.)
[6] ZHOU Shaoguang,XU Yong.To Extract Roads with No Clear and Continuous Boundaries in RS Images[J].Acta Geodaetica et Cartographica Sinica,2008,37(3):301-307.(周紹光,徐勇.在高分辨率遙感影像中提取無(wú)清晰連續(xù)邊緣線的道路[J].測(cè)繪學(xué)報(bào),2008,37(3):301-307.)
[7] LIU Zhumei,LIU Yalan,TAN Qulin,et al.Progress in Vehicle Detection from High Resoluion Satellite Imagery[J].Remote Sensing Technology and Application,2012,27(1):8-14.(劉珠妹,劉亞嵐,譚衢霖,等.高分辨率衛(wèi)星影像車(chē)輛檢測(cè)研究進(jìn)展[J].遙感技術(shù)與應(yīng)用,2012,27(1):8-14.)
[8] LARSEN S O,SALBERG A B.Automatic Vehicle Counts from QuickBird Images[C]∥Joint Urban Remote Sensing Event.Munich:IEEE,2011:9-12.
[9] HONG Z,LI L.An Artificial Immune Approach for Vehicle Detection from High Resolution Space Imagery[J].IJCSNS International Journal of Computer Science and Network Security,2007,7(2):67-72.
[10] MISHRA R K,ZHANG Y.Automatic Moving Vehicle’s Information Extraction from One-pass Worldview-2 Satellite Imagery[C]∥Proceedings of International Archives of the Photogrammetry,Remote Sensing and Spatial Information Sciences.Montreal:GEOIDE,2012:323-328.
[11] HE Xiaofei,ZHOU Liqion,LI Jian.Traffic Information Extraction Based on the High Resolution of Remote Sensing Image [J]. Urban Geotechnical Investigation&Surveying,2011(3):49-51.(何曉飛,周麗瓊,李建.基于高分辨率遙感影像的車(chē)流信息提?。跩].城市勘測(cè),2011(3):49-51.)
[12] QI Lina,ZHANG Bo,WANG Zhankai.Application of the OTSU Method in Image Processing[J].Radio Engineering,2006,36(7):25-26.(齊麗娜,張博,王戰(zhàn)凱.最大類間方差法在圖像處理中的應(yīng)用[J].無(wú)線電工程,2006,36(7):25-26.)
[13] YU Yong,ZHENG Hong.Vehicle Detection from High Resolution Satellite Imagery Based on the Morphological Neural Network[J].Joumal of Harbin Engineering University,2006,27:189-193.(余勇,鄭宏.基于形態(tài)神經(jīng)網(wǎng)絡(luò)的高分辨率衛(wèi)星影像車(chē)輛檢測(cè)[J].哈爾濱工程大學(xué)學(xué)報(bào),2006,27:189-193.)
[14] LIU Jianxin.The Study of Algorithm about Vehicle Detection Based on High Resolution Satellite Image[D].Dalian:Dalian Maritime University.(劉建鑫.基于高分辨率衛(wèi)星影像的車(chē)輛檢測(cè)算法研究[D].大連:大連海事大學(xué),2008.)
[15] ZHENG Hong,HU Xuemin.An Antibody Networks Approach for Vehicle Detection from High Resolution Satellite Imagery[J].Journal of Remote Sensing,2009,13(5):920-926.(鄭宏,胡學(xué)敏.高分辨率衛(wèi)星影像車(chē)輛檢測(cè)的抗體網(wǎng)絡(luò)[J].遙感學(xué)報(bào),2009,13(5):920-926.)
[16] EIKVIL L,AURDAL L,KOREN H.Classificationbased Vehicle Detection in High-resolution Satellite Images[J].ISPRS Journal of Photogrammetry and Remote Sensing,2009,64(1):65-72.
[17] SUN H,SUN X,WANG H Q,et al.Automatic Target Detection in High-resolution Remote Sensing Images Using Spatial Sparse Coding Bag-of-words Model[J].IEEE Geoscience and Remote Sensing Letters,2012,9(1):109-113.
[18] LIU J H,F(xiàn)ANG T,LI D R.Shadow Detection in Remotely Sensed Images Based on Self-adaptive Feature Selection[J].IEEE Transactions on Geoscience and Remote Sensing,2011,49(12):5092-5103.
[19] VOICU L I,MYLER H R,WEEKS A R.Practical Considerations on Color Image Enhancement Using Homomorphic Filtering [J].Journal of Electronic Imaging,1997,6(1):108-113.
[20] ZHONG Y.Optimization of Building Detection in Satellite Images by Combining Multispectral Classification and Texture Filtering[J].ISPRS Journal of Photogrammetry&Remote Sensing,1999,54:50-60.
[21] KWON Y S,PARK I C,KYUNG C M.A Hardware Accelerator for the Specular Intensity of Phong Illumination Model in 3-dimensional Graphics[C]∥Proceedings of the ASP-DAC Design Automation Conference.Yokohama:[s.n.],2000:559-564.