• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    深度殘差網(wǎng)絡的多光譜遙感圖像顯著目標檢測

    2018-06-25 03:14:04戴玉超FatihPORIKLI何明一
    測繪學報 2018年6期
    關鍵詞:分辨率光譜顯著性

    戴玉超,張 靜,,F(xiàn)atih PORIKLI,何明一

    1. 西北工業(yè)大學電子信息學院,陜西 西安 710129; 2. 澳大利亞國立大學工程研究院,澳大利亞 堪培拉 2601

    在航空航天等方面,數(shù)字攝影測量與機器視覺的融合發(fā)展成為近來備受關注的高性能對地觀測手段,同時以深度學習為代表的智能化處理方法不斷發(fā)展,如何有效結合深度學習方法實現(xiàn)更加智能的攝影測量成為一個關鍵的研究問題。本文側重于介紹智能化攝影測量深度學習的深度殘差方法,研究基于深度殘差網(wǎng)絡的遙感圖像顯著目標檢測方法。圖像顯著目標檢測致力于自動檢測和定位圖像中對人所最感興趣的目標區(qū)域。該項技術已經(jīng)被成功應用到多項計算機視覺與模式識別任務中,包括交互式圖像分割[1]、圖像剪裁[2]、基于上下文的圖像編輯[3]、圖像識別[4]和動作識別[5]等。傳統(tǒng)的顯著目標檢測方法通過手工設計特征,計算圖像各像素或者超像素與鄰域像素或者超像素之間的對比度實現(xiàn)顯著目標檢測(1代表顯著性前景;0代表非顯著性背景)。對于簡單場景,傳統(tǒng)算法可以取得不錯的結果。然而基于手工設計特征的傳統(tǒng)顯著目標檢測方法難以應對復雜場景,如包含多個顯著目標或者顯著目標在場景中所占比例較低等復雜情形。

    隨著深度學習的巨大進展,特別是全卷積神經(jīng)網(wǎng)絡[6](fully convolutional networks,F(xiàn)CN)的引入,基于深度卷積網(wǎng)絡(convolutional neural network,CNN)的顯著目標檢測算法取得巨大進步。近兩年來出現(xiàn)了眾多基于CNN的顯著目標檢測方法。由于深度網(wǎng)絡可以有效提取顯著目標更抽象且更加高維的特征,相比于傳統(tǒng)方法,基于深度學習的顯著目標檢測性方法取得的巨大的性能提升,特別是在復雜場景的顯著目標檢測方面。

    然而,由于圖像數(shù)據(jù)獲取和標記的困難性,多光譜遙感圖像顯著目標檢測的研究依然以人工定義特征檢測為主。同時,傳統(tǒng)的多光譜數(shù)據(jù)顯著目標檢測算法并沒有充分挖掘波段信息,只是在不同波段按照自然圖像的處理方式來提取顏色對比度信息和紋理信息等。為了有效利用多光譜各譜段信息,本文提出一個基于自上而下深度殘差網(wǎng)絡的多光譜遙感圖像顯著目標檢測模型??紤]到多光譜遙感圖像顯著目標數(shù)據(jù)的有限性和獲取的困難性,本文首先提出一種多光譜超分辨率網(wǎng)絡模型,用于從已有的RGB圖像,產(chǎn)生多光譜遙感圖像(本文從RGB圖像產(chǎn)生近紅外波段圖像)。然后,使用已有的RGB圖像,產(chǎn)生足夠多的多光譜圖像。最后,使用上述模型產(chǎn)生的多光譜圖像來訓練一個基于殘差網(wǎng)絡的自上而下的深度學習模型。本文基于殘差網(wǎng)絡的顯著目標檢測模型結構如圖1所示。

    1 相關研究

    1.1 傳統(tǒng)顯著目標檢測算法

    傳統(tǒng)顯著目標檢測算法依賴于人工定義的特征。文獻[7]提出一種邊界連接性指標(background connectivity),通過計算圖像中每個超像素區(qū)域與圖像邊界的連接程度來計算顯著性值。文獻[8]定義對比度、聚集度和物體度(一個像素或者超像素屬于一個物體的概率)實現(xiàn)顯著目標檢測。文獻[9]將顯著目標檢測問題描述為一個低秩矩陣分解問題,在矩陣分解框架下實現(xiàn)顯著目標檢測。感興趣的讀者可以閱讀文獻(arXiv.eprint:1411.5878,2017)和文獻[10],這些文獻系統(tǒng)總結并比較了深度學習時代之前的傳統(tǒng)顯著目標檢測方法。

    1.2 基于深度學習的顯著目標檢測算法

    與基于人工計算特征的傳統(tǒng)顯著目標檢測算法不同,深度網(wǎng)絡能夠自適應訓練一個深度模型以提取顯著目標更加高維更加抽象的特征,從而實現(xiàn)更好的顯著目標檢測。同時深度卷積網(wǎng)絡可以充分挖掘顯著目標檢測與圖像語義分割之間的聯(lián)系,學習并表達刻畫顯著目標的高層語義信息。文獻[11]提出使用深度特征取代傳統(tǒng)的手工特征,然后通過一個分類器確定區(qū)域的顯著性值。作為文獻[11]的擴展版本,文獻[12]提出結合深度特征和手工特征的顯著性方法,即在深度特征基礎上,添加手工特征,實現(xiàn)更加精確的顯著目標檢測。區(qū)別于文獻[12],文獻[13]提出一種端到端的多模型融合的深度顯著性模型,將手工特征顯著性圖和原始圖像同時輸入深度網(wǎng)絡,從而更好地利用手工特征和深度特征的互補信息。文獻[14]提出一個多任務深度網(wǎng)絡,同時實現(xiàn)顯著目標檢測和圖像語義分割,充分挖掘兩項任務之間的關聯(lián)性,以便充分利用深度網(wǎng)絡中淺層和深層信息。文獻[15—18]研究多尺度信息融合的深度顯著性檢測網(wǎng)絡。由于深度網(wǎng)絡存在池化操作以獲得更大的感受野,導致輸出的顯著性圖分辨率較低,文獻[19]提出一種網(wǎng)狀結構的編解碼模型,以提高輸出顯著性圖的分辨率。文獻[20]提出基于注意力模型的自上而下的深度顯著性模型實現(xiàn)高分辨率顯著性圖輸出。上述深度網(wǎng)絡顯著性模型均依賴與大規(guī)模訓練數(shù)據(jù),文獻[21—22]提出無監(jiān)督深度顯著性檢測模型,其中文獻[21]通過逐步更新和優(yōu)化一個基于先驗信息的測度來迭代更新顯著性圖,文獻[22]則通過同時優(yōu)化一個顯著性模型和噪聲模型實現(xiàn)無監(jiān)督深度顯著性檢測。

    1.3 多光譜圖像顯著目標檢測算法

    常規(guī)顯著目標檢測算法一般針對圖像波段范圍在380~780 nm,即可見光范圍,也就是所說的RGB圖像。與常規(guī)可見光圖像顯著目標檢測不同,對與多光譜圖像,由于其數(shù)據(jù)獲取的困難性,導致多光譜顯著性檢測的研究比較少。文獻[23]和文獻[24]提出綜合考慮RGB和近紅外波段上的對比度信息和紋理信息來進行多光譜顯著性檢測。文獻[25]采用隨機森林回歸機器學習算法檢測圖像中的顯著建筑物。文獻[26]系統(tǒng)研究了通過引入目標先驗信息以獲取與目標更相關的感興趣區(qū)域。

    與現(xiàn)有應用于RGB圖像的顯著目標檢測算法不同,本文研究多光譜遙感圖像顯著目標檢測,

    本文方法包括多光譜顯著目標檢測訓練數(shù)據(jù)產(chǎn)生網(wǎng)絡;使用RGB數(shù)據(jù)作為上述網(wǎng)絡的輸入,從而產(chǎn)生足夠多的多光譜顯著性檢測訓練數(shù)據(jù);使用深度網(wǎng)絡產(chǎn)生的多光譜數(shù)據(jù)訓練顯著目標檢測深度網(wǎng)絡模型。圖1為基于深度殘差網(wǎng)絡自上而下的顯著性檢測模型,采用已有的多光譜數(shù)據(jù)進行了性能驗證。試驗結果證明了本文算法的有效性。

    2 遙感圖像光譜超分辨率

    由于多光譜數(shù)據(jù)的有限性,為了訓練一個多光譜顯著目標檢測深度網(wǎng)絡,本文首先訓練多光譜超分辨率模型,從RGB圖像生成多光譜(多波段)遙感圖像,用于產(chǎn)生多光譜顯著目標檢測訓練數(shù)據(jù)。

    2.1 網(wǎng)絡結構

    目前的深度網(wǎng)絡一般都是基于VGG(arXiv:1409.1556,2014)框架或者ResNet[27]框架。針對目標,即最終產(chǎn)生的多光譜數(shù)據(jù)與輸入圖像尺度應該一致,嘗試通過添加對稱的反卷積層實現(xiàn)分辨率不變的目標。然而試驗結果表明,上述框架對于本文目的無法有效的收斂。進一步考慮本文目的是實現(xiàn)細節(jié)保留的同分辨率數(shù)據(jù)輸出,于是直接設計一個淺層神經(jīng)網(wǎng)絡,如圖2所示。

    本文使用的多光譜數(shù)據(jù)集[28]包含RGB和近紅外波段,為了產(chǎn)生足夠多的多光譜顯著目標檢測訓練數(shù)據(jù),本文構造圖2淺層網(wǎng)絡,用于從已有RGB圖像,產(chǎn)生近紅外數(shù)據(jù)??紤]產(chǎn)生的近紅外數(shù)據(jù)應該和原始圖像具有相同的空間分辨率,本文淺層網(wǎng)絡中沒有使用池化操作(pooling),并保證所有卷積層輸入尺寸相同。

    訓練細節(jié):使用caffe框架訓練網(wǎng)絡,并設置最大迭代次數(shù)為150 000次。每幅訓練圖像的RGB部分作為網(wǎng)絡輸入,近紅外波段作為網(wǎng)絡輸出。對于每幅RGB圖像,均勻剪裁出32×32大小的圖像片送入網(wǎng)絡,并保持相鄰圖像片有4個像素的重疊。使用“xavier”策略初始化網(wǎng)絡參數(shù),設置偏置為常數(shù)。使用隨機梯度下降法更新權值,并設置動量為0.9?;A學習率設置為0.000 001,并固定。使用歐氏距離損失函數(shù)。本文淺層多光譜超分辨率網(wǎng)絡訓練時間是17 h,使用NVIDIA Quadro M4000 GPU。

    注:本文深度網(wǎng)絡模型輸入包括兩部分,即原始RGB圖像和通過本文提出的多光譜超分辨率模型產(chǎn)生的近紅外波段圖像。網(wǎng)絡最后一部分的輸出被逐步反饋到網(wǎng)絡淺層部分,有效實現(xiàn)保留高層語義信息和底層細節(jié)信息的目的。圖1 基于自上而下的深度殘差網(wǎng)絡多光譜遙感圖像顯著目標檢測模型Fig.1 Our deep residual network based top-down multispectral image salient object detection model

    2.2 網(wǎng)絡分析與試驗結果

    由于多光譜近紅外數(shù)據(jù)和原始RGB數(shù)據(jù)相似性較高,特別是在細節(jié)邊緣上,如果使用較深的網(wǎng)絡結構(如VGG或者ResNet),過多的非線性操作將導致原始圖像很多細節(jié)丟失。通過圖2描述的一個淺層網(wǎng)絡可以有效根據(jù)RGB圖像估計近紅外波段,同時保留盡可能多的細節(jié)信息。圖3是多光譜數(shù)據(jù)集上部分數(shù)據(jù)及通過本文多光譜超分辨率網(wǎng)絡產(chǎn)生的近紅外數(shù)據(jù)與原始近紅外波段數(shù)據(jù)對比。從圖3可見,由本文多光譜超分辨率模型產(chǎn)生的近紅外波段與原始近紅外波段比較相似,從而驗證了本文網(wǎng)絡模型的有效性。

    前3個卷積層后面都添加ReLU激活函數(shù).前兩個卷積層使用卷積核大小為5×5,后兩個卷積卷積核大小為3×3。圖2 光譜超分辨率模型Fig.2 The proposed multispectral super-resolution model

    3 深度殘差網(wǎng)絡的多光譜遙感圖像顯著目標檢測

    3.1 深度殘差網(wǎng)絡

    相較于淺層神經(jīng)網(wǎng)絡,深度網(wǎng)絡由于其高維的非線性操作,從而可以實現(xiàn)更抽象的圖像特征提取與表示。然而,隨著網(wǎng)絡層數(shù)的加深,一方面網(wǎng)絡優(yōu)化變得更加困難,另一方面,“梯度消失”現(xiàn)象導致在網(wǎng)絡高層更新的權重信息無法有效地傳遞到網(wǎng)絡底層。為了應對上述問題,文獻[27]提出了一個基于短連接的殘差深層網(wǎng)絡結構(ResNet)。設深度網(wǎng)絡中某隱含層的非線性操作函數(shù)H,對于沒有短連接的深度網(wǎng)絡,給定該層輸入為x,則輸出為H(x)。添加短連接之后,相同的隱層函數(shù)H,最后網(wǎng)絡的輸出變?yōu)镠(x)+x,這樣一來,就可以得到一種全新的殘差結構單元,如圖4所示,其中(a)是一般的深度網(wǎng)絡模型數(shù)據(jù)傳遞過程,(b)是殘差網(wǎng)絡模型的數(shù)據(jù)傳遞過程。殘差單元的輸出由多個卷積層級聯(lián)的輸出與輸入元素間相加(保證卷積層輸出與輸入元素維度相同),再經(jīng)過ReLU激活后得到。與一般深度網(wǎng)絡結構相比,ResNet更容易優(yōu)化,同時較好地防止了梯度消失現(xiàn)象的發(fā)生。

    3.2 自上而下的高分辨率多光譜顯著目標檢測

    原始ResNet網(wǎng)絡中使用5次池化操作,使得最后全連接層之前數(shù)據(jù)分辨率下降為原始分辨率的1/32。為了提高輸出特征圖的分辨率,本文首先去掉最后一個池化操作以及ResNet最后的全連接層,同時使用膨脹卷積層(Dilated Convolution)[27,29],最后改造后的全卷積ResNet網(wǎng)絡輸出分辨率是原始輸入的1/8。為了產(chǎn)生更高的特征圖分辨率,本文提出一種自上而下的殘差網(wǎng)絡結構,如圖1所示。將殘差網(wǎng)絡分成5個部分,conv1、conv2、conv3、conv4和conv5部分。經(jīng)過conv1之后,特征圖分辨率是原始的1/2,經(jīng)過conv2之后,分辨率降到1/4,conv3之后,分辨率保持不變,為1/8。為了進一步提高特征圖分辨率,將高層輸出作為語義信息去優(yōu)化淺層信息。具體是,對于網(wǎng)絡每部分的輸出,首先通過一個3×3的卷積層將其維度降低到M,然后與網(wǎng)絡前一個部分的輸出疊加,其中M設置為網(wǎng)絡上一部分輸出的維度。

    訓練細節(jié):使用caffe框架訓練網(wǎng)絡,并設置最大迭代次數(shù)為10 000次。每幅訓練圖像包括4個波段,分別為原始的RGB圖像,以及由以上多光譜超分辨率網(wǎng)絡產(chǎn)生的近紅外波段。對于每幅輸入圖像,將其尺寸固定為281×281。使用“xavier”策略初始化網(wǎng)絡參數(shù),設置偏置為常數(shù)。使用隨機梯度下降法更新權值,并設置動量為0.9?;A學習率設置為0.000 8,學習率更新策略為“poly”,用“SoftmaxWithLoss”作為損失函數(shù)。整個網(wǎng)絡訓練時間為12 h,使用NVIDIA Quadro M4000 GPU。

    4 試驗結果與分析

    本文多光譜顯著目標檢測模型分為兩部分,即多光譜超分辨率模型和多光譜顯著目標檢測模型。前者用于根據(jù)RGB圖像產(chǎn)生多光譜圖像,后者為本文的顯著目標檢測模型。

    4.1 試驗數(shù)據(jù)

    本文多光譜超分辨率模型數(shù)據(jù)來自文獻[28]。這個數(shù)據(jù)集包括477幅來自9個類別的圖像,包括RGB圖像和對應的近紅外波段圖像。這些圖像是從一個改進的單反相機,通過獨立曝光,分別獲取可見光波段和近紅外波段圖像。每一個圖像對包括可見光圖像和對應區(qū)域的近紅外圖像。大部分圖像中只包括一個顯著目標,比較適合多光譜顯著目標檢測任務。本文選擇15幅圖像作為遙感多光譜圖像顯著目標檢測測試圖像,其余462幅多光譜圖像用于訓練多光譜超分辨率模型,即根據(jù)RGB圖像,預測對應的近紅外波段。

    本文的多光譜遙感圖像顯著檢測數(shù)據(jù)集來自文獻[30]。該數(shù)據(jù)集包括5000幅按像素標注的顯著目標檢測圖像。從中選擇2500幅作為訓練數(shù)據(jù),500幅作為驗證數(shù)據(jù),剩余2000幅為測試數(shù)據(jù),與文獻[17,31]保持一致。

    4.2 性能測度

    本文使用4種性能測度,包括平均絕對誤差(MAE)、最大Fβ度量、平均Fβ度量和準確率/召回率曲線。MAE描述了檢測的顯著性圖與原始真值圖的相似程度,定義如下

    (1)

    式中,W和H是檢測到的顯著性圖S的寬和高,G是真值圖。Fβ度量定義如下

    (2)

    式中,Precision為準確率,Recall為召回率。和文獻[17]等一樣,鑒于在顯著性檢測中,準確率比召回率更重要,使用β2=0.3來更加強調準確率。最大Fβ度量描述了一個顯著檢測模型可以達到的最優(yōu)性能,平均Fβ度量則描述當前模型的整體性能。

    4.3 對比算法

    由于多光譜顯著性檢測算法比較少,而且都沒有現(xiàn)成的代碼或者顯著性圖,針對RGB圖像的顯著性檢測算法進行對比。本文選擇4個傳統(tǒng)顯著性檢測算法(包括DRFI[31],DSR[32],MC[33]和RBD[7])和4個近期的基于深度網(wǎng)絡的顯著性檢測算法(包括DSS[17],LEGS[34],MDF[11],RFCN[35])。由于上述算法只接收3通道RGB圖像的輸入,對于本文4通道測試數(shù)據(jù)集,選擇所有3通道圖像的組合送入對比算法,并選擇最優(yōu)的一組結果作為該算法最終結果。

    4.4 遙感多光譜圖像顯著目標檢測結果比較

    計算上述對比算法在本文標注的15幅多光譜顯著目標檢測測試數(shù)據(jù)集上的Fβ度量和MAE,結果如表1所示。

    表1 本文算法與對比算法在多光譜顯著性檢測數(shù)據(jù)集上的性能比較

    從表1可以得到如下結論:首先,從MAE上考慮,基于深度網(wǎng)路的顯著目標檢測算法優(yōu)于傳統(tǒng)算法,特別是DSS[17]算法,其MAE是上述4個最好傳統(tǒng)算法的0.43倍;其次,本文算法,以圖像4個通道同時輸入,取得了最好的結果,特別是最大Fβ度量,比最好的深度網(wǎng)絡算法提高10%。

    同時,比較準確率/召回率曲線(PR曲線),結果如圖5(a)所示,其中“OUR”表示本文算法。

    由于使用的測試數(shù)據(jù)有限,導致曲線比較不平滑。但還是可以看出,本文算法在準確率/召回率曲線上也明顯優(yōu)于對比算法。圖6顯示了本文算法顯著性和幾個對比算法的顯著性。由于施加了自上而下的策略,本文算法結果在細節(jié)上處理得更合理。

    4.5 在生成多光譜顯著目標檢測數(shù)據(jù)集上的性能

    由于多光譜數(shù)據(jù)的稀有性和獲取的困難性,本文使用了常規(guī)RGB圖像生成近紅外波段,以增加多光譜數(shù)據(jù)量,從而訓練一個基于自上而下殘

    差網(wǎng)絡的深度模型。為了驗證本文算法在生成遙感多光譜圖像上的有效性,在MSRA-B測試數(shù)據(jù)集上,進行了顯著目標檢測試驗。首先通過光譜超分辨率生成多光譜圖像,然后采用本文提出的多光譜遙感圖像顯著目標檢測算法進行目標檢測,試驗結果如圖5(b)和圖7所示。圖5(b)描述的是本文算法與對比算法在2000幅MSRA-B生成多光譜測試數(shù)據(jù)集上的PR曲線對比,其中“OUR”表示本文算法。圖5(b)結果顯示本文算法在PR曲線上優(yōu)于對比算法。圖7展示了生成MSRA-B數(shù)據(jù)集上的測試圖像及本文算法結果,其中近紅外波段是由本文光譜超分辨率模型產(chǎn)生。試驗結果顯示本文算法可以充分應對不同類型的多光譜多波段圖像,同時通過網(wǎng)絡學習生成的多光譜圖像具有更加豐富的物理屬性信息,更加有利于顯著目標的表示與提取,從而取得比傳統(tǒng)方法更好的結果。

    圖5 數(shù)據(jù)Fig.5 Dataset

    從左到右分別是:輸入RGB圖像,輸入近紅外圖像,像素級真值圖,算法LEGS[34],DSS[17]和本文提出算法的顯著目標檢測結果。圖6 本文算法顯著性與對比算法顯著性Fig.6 Visual comparison of our method with the state-of-the-art competing methods

    從左到右:輸入RGB圖像,通過光譜超分辨率模型產(chǎn)生的近紅外波段,像素級別真值,以及本文算法顯著性。圖7 本文算法在RGB圖像上的結果Fig.7 Results of our method on MSRA-B testing dataset

    5 總 結

    以航空航天領域攝影測量與機器視覺的不斷深入融合和以深度學習為代表的智能化處理方法的巨大進展為背景,本文側重于研究智能化攝影測量深度學習中的深度殘差方法,提出基于深度殘差網(wǎng)絡的多光譜遙感圖像顯著目標檢測模型??紤]到多光譜遙感圖像數(shù)據(jù)獲取的困難性,為了應對多波段遙感圖像數(shù)據(jù)量有限、無法訓練深度殘差網(wǎng)絡的問題,本文首先提出通過淺層神經(jīng)網(wǎng)絡從RGB圖像直接生成多波段遙感圖像,實現(xiàn)光譜方向的超分辨率。其次,提出一種基于深度殘差網(wǎng)絡的自上而下的多光波段遙感圖像顯著目標檢測網(wǎng)絡,該網(wǎng)絡可以有效挖掘深度殘差網(wǎng)絡不同層次上的顯著性特征,以端對端方式實現(xiàn)顯著目標檢測。在現(xiàn)有多波段遙感圖像和可見光圖像顯著目標檢測數(shù)據(jù)集上的試驗結果超過當前最好方法10%以上,表明了本文提出方法的有效性。進一步的研究工作將聚焦于通過多維卷積的形式進一步挖掘多光譜遙感圖像空間-譜間聯(lián)合信息,同時構建更大規(guī)模的多光譜遙感圖像顯著目標檢測數(shù)據(jù)集以促進本領域的進一步發(fā)展。

    參考文獻:

    [1] LI Junxia, MA Runing, DING Jundi. Saliency-seeded Region Merging: Automatic Object Segmentation[C]∥First Asian Conference on Pattern Recognition. Beijing, China: IEEE, 2011: 691-695.

    [2] MARCHESOTTI L, CIFARELLI C, CSURKA G. A Framework for Visual Saliency Detection with Applications to Image Thumbnailing[C]∥IEEE 12th International Conference on Computer Vision. Kyoto, Japan: IEEE, 2009: 2232-2239.

    [3] ZHANG Guoxin, CHENG Mingming, HU Shimin, et al. A Shape Preserving Approach to Image Resizing[J]. Computer Graphics Forum, 2009, 28(7): 1897-1906.

    [4] NAVALPAKKAM V, ITTI L. An Integrated Model of Top-down and Bottom-up Attention for Optimizing Detection Speed[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. New York, NY: IEEE, 2006: 2049-2056.

    [5] SHARMA S, KIROS R, SALAKHUTDINOV R. Action Recognition Using Visual Attention[C]∥NIPS Time Series Workshop, 2015.

    [6] SHELHAMER E, LONG J, DARRELL T. Fully Convolutional Networks for Semantic Segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 3431-3440.

    [7] ZHU Wangjiang, LIANG Shuang, WEI Yichen, et al. Saliency Optimization from Robust Background Detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Columbus, OH: IEEE, 2014: 2814-2821.

    [8] JIANG Peng, LING Haibin, YU Jingyi, et al. Salient Region Detection by UFO: Uniqueness, Focusness and Objectness[C]∥IEEE International Conference on Computer Vision. Sydney, NSW, Australia: IEEE, 2013: 1976-1983.

    [9] SHEN Xiaohui, WU Ying. A Unified Approach to Salient Object Detection via Low Rank Matrix Recovery[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2012: 853-860.

    [10] BORJI A, CHENG Mingming, JIANG Huaizu, et al. Salient Object Detection: A Benchmark[J]. IEEE Transactions on Image Processing, 2015, 24(12): 5706-5722.

    [11] LI Guanbin, YU Yizhou. Visual Saliency Based on Multiscale Deep Features[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 5455-5463.

    [12] LI Guanbin, YU Yizhou. Visual Saliency Detection Based on Multiscale Deep CNN Features[J]. IEEE Transactions on Image Processing, 2016, 25(11): 5012-5024.

    [13] ZHANG Jing, LI Bo, DAI Yuchao, et al. Integrated Deep and Shallow Networks for Salient Object Detection[C]∥IEEE International Conference on Image Processing. Beijing, China: IEEE, 2017: 1537-1541.

    [14] LI Xi, ZHAO Liming, WEI Lina, et al. Deepsaliency: Multi-task Deep Neural Network Model for Salient Object Detection[J]. IEEE Transactions on Image Processing, 2016, 25(8): 3919-3930.

    [15] LI Guanbin, YU Yizhou. Deep Contrast Learning for Salient Object Detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 478-487.

    [16] ZHANG Jing, DAI Yuchao, PORIKLI F. Deep Salient Object Detection by Integrating Multi-level Cues[C]∥IEEE Winter Conference on Application of Computer Vision. Santa Rosa, CA: IEEE, 2017: 1-10.

    [17] HOU Qibin, CHENG Mingming, HU Xiaowei, et al. Deeply Supervised Salient Object Detection with Short Connections[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, Hawaii: IEEE, 2017: 5300-5309.

    [18] ZHANG Jing, DAI Yuchao, PORIKLI F, et al. Multi-Scale Salient Object Detection with Pyramid Spatial Pooling[C]∥Asia-Pacific Signal and Information Processing Association Annual Summit and Conference. Kuala Lumpur, Malaysia: IEEE, 2017: 1286-1291.

    [19] ZHANG Ping, WANG Dong, LU Huchuan, et al. Amulet: Aggregating Multi-level Convolutional Features for Salient Object Detection[C]∥IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 202-211.

    [20] ZHANG Jing, DAI Yuchao, LI Bo, et al. Attention to the Scale: Deep Multi-scale Salient Object Detection[C]∥International Conference on Digital Image Computing: Techniques and Application. Sydney, NSW, Australia: IEEE, 2017: 1-7.

    [21] ZHANG Dingwen, HAN Junwei, ZHANG Yu. Supervision by Fusion: Towards Unsupervised Learning of Deep Salient Object Detector[C]∥IEEE International Conference on Computer Vision. Venice, Italy: IEEE, 2017: 4068-4076.

    [22] ZHANG Jing, ZHANG Tong, DAI Yuchao, et al. Deep Unsupervised Saliency Detection: A Multiple Noisy Labeling Perspective[C]∥IEEE International Conference on Computer Vision. [s.l.]: IEEE, 2018.

    [23] WANG Qi, YAN Pingkun, YUAN Yuan, et al. Multi-Spectral Saliency Detection[J]. Pattern Recognition Letters, 2013, 34(1): 34-41.

    [24] WANG Qi, ZHU Guokang, YUAN Yuan. Multi-Spectral Dataset and Its Application in Saliency Detection[J]. Computer Vision and Image Understanding, 2013, 117(12): 1748-1754.

    [25] 潘朝. 多尺度顯著性引導的高分辨率遙感影像建筑物提取[J]. 科技創(chuàng)新與生產(chǎn)力, 2017(5): 106-109.

    PAN Zhao. Building Extraction from High Resolution Remote Sensing Image Based on Visual Saliency Detection[J]. Technology Innovation and Productivity, 2017(5): 106-109.

    [26] 崔曉光. 融合目標信息的遙感圖像顯著性檢測方法研究[D]. 北京: 中國科學院大學, 2013.

    CUI Xiaoguang. Saliency Detection Methods via Fusing Target Information[D]. Beijing: University of Chinese Academy of Sciences, 2013.

    [27] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep Residual Learning for Image Recognition[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, NV: IEEE, 2016: 770-778.

    [28] BROWN M, SUSSTRUNK S. Multi-spectral SIFT for Scene Category Recognition[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Providence, RI: IEEE, 2011: 177-184.

    [29] YU F, KOLTUN V. Multi-Scale Context Aggregation by Dilated Convolutions[C]∥International Conference on Learning Representations. [s.l.]: IEEE, 2016.

    [30] LIU Tie, SUN Jian, ZHENG Nanning, et al. Learning to Detect a Salient Object[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Minneapolis, MN: IEEE, 2007: 1-8.

    [31] JIANG Huaizu, WANG Jingdong, YUAN Zejiang, et al. Salient Object Detection: A Discriminative Regional Feature Integration Approach[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Portland, OR: IEEE, 2013: 2083-2090.

    [32] LI Xiaohui, LU Huchuan, ZHANG Lihe, et al. Saliency Detection via Dense and Sparse Reconstruction[C]∥IEEE International Conference on Computer Vision. Sydney, NSW, Australia: IEEE, 2013: 2976-2983.

    [33] JIANG Bowen, ZHANG Lihe, LU Huchuan, et al. Saliency Detection via Absorbing Markov Chain[C]∥IEEE International Conference on Computer Vision. Sydney, NSW, Australia: IEEE, 2013: 1665-1672.

    [34] WANG Lijun, LU Huchuan, RUAN Xiang, et al. Deep Networks for Saliency Detection via Local Estimation and Global Search[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 3183-3192.

    [35] WANG Linzhao, WANG Lijun, LU Huchuan, et al. Saliency Detection with Recurrent Fully Convolutional Networks[M]∥LEIBE B, MATAS J, SEBE N, et al. Computer Vision-ECCV 2016. Cham: Springer, 2016: 825-841.

    猜你喜歡
    分辨率光譜顯著性
    基于三維Saab變換的高光譜圖像壓縮方法
    EM算法的參數(shù)分辨率
    基于顯著性權重融合的圖像拼接算法
    電子制作(2019年24期)2019-02-23 13:22:26
    基于視覺顯著性的視頻差錯掩蓋算法
    原生VS最大那些混淆視聽的“分辨率”概念
    基于深度特征學習的圖像超分辨率重建
    自動化學報(2017年5期)2017-05-14 06:20:52
    一種基于顯著性邊緣的運動模糊圖像復原方法
    一種改進的基于邊緣加強超分辨率算法
    論商標固有顯著性的認定
    星載近紅外高光譜CO2遙感進展
    中國光學(2015年5期)2015-12-09 09:00:28
    城步| 宜兰市| 西吉县| 彭州市| 黑水县| 清水河县| 侯马市| 鹤岗市| 元氏县| 丹江口市| 竹山县| 蓬溪县| 肇庆市| 凤山县| 广南县| 龙井市| 揭西县| 封开县| 息烽县| 伊宁县| 鄂托克旗| 南汇区| 万安县| 博爱县| 同江市| 习水县| 镶黄旗| 石景山区| 阳原县| 文安县| 社会| 抚宁县| 连南| 甘泉县| 麻栗坡县| 江北区| 长乐市| 紫云| 谢通门县| 云梦县| 额济纳旗|