• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深度學(xué)習(xí)的光學(xué)遙感機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別技術(shù)

    2016-04-08 03:49:08牛新竇勇張鵬曹玉社
    大數(shù)據(jù) 2016年5期
    關(guān)鍵詞:飛行器機(jī)場(chǎng)深度

    牛新,竇勇,張鵬,曹玉社

    國(guó)防科學(xué)技術(shù)大學(xué)并行與分布處理重點(diǎn)實(shí)驗(yàn)室,湖南 長(zhǎng)沙 410073

    基于深度學(xué)習(xí)的光學(xué)遙感機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別技術(shù)

    牛新,竇勇,張鵬,曹玉社

    國(guó)防科學(xué)技術(shù)大學(xué)并行與分布處理重點(diǎn)實(shí)驗(yàn)室,湖南 長(zhǎng)沙 410073

    機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別是遙感數(shù)據(jù)分析中的典型應(yīng)用。研究了光學(xué)遙感大數(shù)據(jù)環(huán)境下面向機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別的深度學(xué)習(xí)技術(shù)。為此,構(gòu)建了一個(gè)面向高分光學(xué)遙感圖像的機(jī)場(chǎng)與飛行器目標(biāo)秒級(jí)識(shí)別系統(tǒng)。使用遷移學(xué)習(xí)的方法在有標(biāo)簽樣本稀缺的情況下有效構(gòu)建深度網(wǎng)絡(luò),利用目標(biāo)先驗(yàn)知識(shí)對(duì)潛在目標(biāo)進(jìn)行高效提取,并提出一種層次式的級(jí)聯(lián)深度網(wǎng)絡(luò)識(shí)別架構(gòu),實(shí)現(xiàn)“大范圍、小目標(biāo)”的實(shí)時(shí)識(shí)別。實(shí)驗(yàn)結(jié)果表明,采用相應(yīng)技術(shù),基于深度學(xué)習(xí)方法可以在秒級(jí)時(shí)間得到比傳統(tǒng)方法更高的識(shí)別精度。

    光學(xué)遙感;目標(biāo)識(shí)別;深度學(xué)習(xí)

    1 引言

    遙感技術(shù)是依靠飛行器、人造衛(wèi)星等載體,通過(guò)光學(xué)、雷達(dá)等傳感器對(duì)遠(yuǎn)距離目標(biāo)進(jìn)行探測(cè)和識(shí)別的綜合技術(shù)。遙感技術(shù)已廣泛應(yīng)用于地圖測(cè)繪、資源監(jiān)管、環(huán)境保護(hù)、城市規(guī)劃、地質(zhì)研究、救災(zāi)搶險(xiǎn)、軍事偵察等領(lǐng)域。近年來(lái),衛(wèi)星、無(wú)人機(jī)等遙感技術(shù)得到了快速發(fā)展,遙感數(shù)據(jù)呈現(xiàn)出體量大、來(lái)源和類型繁多、更新和變化速度快等大數(shù)據(jù)的特點(diǎn)。根據(jù)美國(guó)衛(wèi)星工業(yè)協(xié)會(huì)(SIA)《2015年全球衛(wèi)星產(chǎn)業(yè)狀況報(bào)告》①http://www.sia.org/wp-content/ uploads/2015/06/ Mktg15-SSIR-2015-FINALCompressed.pdf, 2015.數(shù)據(jù)顯示,截至2014年12月,全球在軌商業(yè)遙感衛(wèi)星和軍事監(jiān)視衛(wèi)星超過(guò)270顆。目前,航空航天遙感正向高空間分辨率、高光譜分辨率、高時(shí)間分辨率、多極化、多角度的方向迅猛發(fā)展。2012年我國(guó)發(fā)射的資源3號(hào)衛(wèi)星每天的數(shù)據(jù)觀測(cè)量可達(dá)到10 TB,至2015年,其原始數(shù)據(jù)總量已達(dá)1003 TB。而未來(lái)10年中,空、天、地平臺(tái)部署的傳感器每天獲取的數(shù)據(jù)將超過(guò)10 PB[1]。遙感觀測(cè)應(yīng)用已進(jìn)入大數(shù)據(jù)時(shí)代。

    在遙感應(yīng)用中,應(yīng)用遙感圖像對(duì)機(jī)場(chǎng)及飛行器進(jìn)行目標(biāo)識(shí)別一直是研究的熱點(diǎn)。該技術(shù)已廣泛應(yīng)用于城市規(guī)劃、航空交通以及軍事偵察領(lǐng)域。在遙感圖像上進(jìn)行機(jī)場(chǎng)及飛行器識(shí)別,屬于一種“大范圍、小目標(biāo)”的識(shí)別應(yīng)用。受限于識(shí)別目標(biāo)特別是飛行器目標(biāo)的尺度,以往的研究主要集中于分辨率達(dá)到米級(jí)的高分辨率遙感圖像,因此主要以航拍光學(xué)和高分辨率光學(xué)衛(wèi)星遙感圖像為主。在高分遙感大數(shù)據(jù)條件下,該應(yīng)用突出困難在于以下兩點(diǎn)。

    ● 目標(biāo)的形態(tài)變化更加復(fù)雜:不同種類、不同排列角度、不同尺度、不同采集條件構(gòu)成的目標(biāo)不變性規(guī)律更加難以總結(jié)。

    ● 背景干擾更加明顯:高分辨率條件下,會(huì)出現(xiàn)更多與目標(biāo)在某些圖像特征上難以區(qū)分的背景目標(biāo),例如對(duì)機(jī)場(chǎng)目標(biāo)而言,周圍復(fù)雜的人造建筑區(qū)域或復(fù)雜路網(wǎng)都會(huì)造成干擾;干擾因素也更加突出,如對(duì)飛行器目標(biāo)而言,停機(jī)坪上的紋理以及陰影變化都是很強(qiáng)的干擾。

    為了充分利用大數(shù)據(jù)信息資源,進(jìn)一步提高機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別精度和效率,需要高效的遙感大數(shù)據(jù)智能分析處理技術(shù)。近年來(lái),一種稱作深度學(xué)習(xí)的機(jī)器學(xué)習(xí)方法在大數(shù)據(jù)環(huán)境下異軍突起,特別在諸多圖像分析領(lǐng)域取得了突破性的進(jìn)展,成為目前學(xué)術(shù)和工業(yè)界研究的熱點(diǎn)。如何利用深度學(xué)習(xí)技術(shù)提高機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別的效果,也成為遙感應(yīng)用領(lǐng)域關(guān)注的焦點(diǎn)。

    2 光學(xué)遙感機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別發(fā)展概況

    2.1 傳統(tǒng)機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別面臨的挑戰(zhàn)

    和其他目標(biāo)識(shí)別方法類似,傳統(tǒng)機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別方法一般也分為3個(gè)步驟,分別如下。

    ● 區(qū)域選擇:在給定的圖像上選擇一些區(qū)域作為進(jìn)一步識(shí)別的候選區(qū)域。

    ● 特征提取:對(duì)候選區(qū)域特征進(jìn)行提取。

    ● 目標(biāo)分類:通過(guò)已訓(xùn)練的分類器,依據(jù)提取特征對(duì)區(qū)域進(jìn)行分類識(shí)別。

    其中,目標(biāo)特征的表達(dá)與學(xué)習(xí)是構(gòu)建高效目標(biāo)識(shí)別的關(guān)鍵。高效的目標(biāo)特征應(yīng)有較好的類間區(qū)分性與類內(nèi)不變性,既能夠辨識(shí)同一類目標(biāo)中不同樣本的復(fù)雜變化,也能對(duì)源于不同類的目標(biāo)加以區(qū)分。

    在候選區(qū)選取方法上,通常采用滑窗辦法[2-6],該方法將整個(gè)圖像用不同尺度、不同長(zhǎng)寬比的滑窗進(jìn)行指定步長(zhǎng)的掃描,所有滑窗掃描覆蓋的區(qū)域作為候選區(qū)域進(jìn)行進(jìn)一步識(shí)別。這種方法可以極大程度地避免識(shí)別區(qū)域的遺漏,但計(jì)算量較大,有很多明顯不含目標(biāo)的區(qū)域也參與了計(jì)算,引起了不必要的開銷,且步長(zhǎng)、長(zhǎng)寬比、尺度等參數(shù)也難以選擇。另一種候選區(qū)域方法是基于圖像分割[7-9],即將整個(gè)圖像根據(jù)內(nèi)容的局部同質(zhì)性先分割為圖像塊,這樣目標(biāo)就包含在某個(gè)或某幾個(gè)相鄰的分割塊中,以此分割作為后續(xù)識(shí)別的基礎(chǔ)。此種方法相比滑窗減少了很多識(shí)別候選,但通常候選區(qū)域不規(guī)則,需要制定的識(shí)別方法相對(duì)復(fù)雜。近年來(lái),基于顯著性的候選方法[7-9]得到很大發(fā)展,與滑窗和分割方法不同,基于顯著性的候選方法通過(guò)圖像的邊緣、紋理等特征,找到目標(biāo)區(qū)分于背景的所謂顯著性特點(diǎn),只選擇圖像中此顯著性特征明顯的地方作為候選區(qū)域,而忽略大多數(shù)背景。這種方法只提取少量有限的區(qū)域進(jìn)行識(shí)別,可以極大提高識(shí)別效率。但是顯著性特征的設(shè)計(jì)至關(guān)重要,在復(fù)雜場(chǎng)景下可能會(huì)因顯著性區(qū)分度不高造成目標(biāo)的漏檢。

    在識(shí)別方法上,關(guān)鍵是尋找合適的目標(biāo)圖像特征并設(shè)計(jì)相應(yīng)的分類方法。傳統(tǒng)方法多將特定目標(biāo)識(shí)別作為特殊的通用目標(biāo)識(shí)別應(yīng)用,采用一些先進(jìn)的通用特征,如HOG(histogram of oriented gradient,方向梯度直方圖)、SIFT(scale-invariant feature transform,尺度不變特征變換)[2,4]等。但這些通用特征往往只能表達(dá)圖像目標(biāo)的底層特點(diǎn),難以把握目標(biāo)的不變性及與其他類型的區(qū)分性,在缺少訓(xùn)練樣本的情況下,對(duì)于復(fù)雜場(chǎng)景難以取得穩(wěn)定的效果。也有研究根據(jù)機(jī)場(chǎng)飛行器等具體目標(biāo)特點(diǎn),設(shè)計(jì)具有良好旋轉(zhuǎn)、尺度不變性等特點(diǎn)的模板[10-12]進(jìn)行匹配,或根據(jù)目標(biāo)的顯著性特點(diǎn)等設(shè)計(jì)相應(yīng)的專用手工特征[3,7]進(jìn)行識(shí)別。但這些特征的設(shè)計(jì)依賴相關(guān)的專業(yè)知識(shí),模型較固化,參數(shù)難調(diào)整,在面對(duì)新的復(fù)雜場(chǎng)景時(shí),往往難以保持相對(duì)較高的準(zhǔn)確性。

    上述研究現(xiàn)狀說(shuō)明,在遙感目標(biāo)識(shí)別中高效的特征表達(dá)與學(xué)習(xí)是識(shí)別的關(guān)鍵。除了挖掘目標(biāo)的個(gè)體特征,其鄰域特征或者說(shuō)目標(biāo)之間的相互關(guān)系特征的學(xué)習(xí)和應(yīng)用也會(huì)對(duì)結(jié)果準(zhǔn)確度的提高產(chǎn)生很大影響。而傳統(tǒng)方法對(duì)于遙感數(shù)據(jù)特征的提取都存在一定的局限性。傳統(tǒng)機(jī)器學(xué)習(xí)方法存在以下不足,一定程度上制約了其在大數(shù)據(jù)環(huán)境下的發(fā)展。

    ● 傳統(tǒng)方法基于預(yù)設(shè)的特征模型準(zhǔn)確性低,預(yù)設(shè)模型難以準(zhǔn)確描述具體應(yīng)用場(chǎng)景下的數(shù)據(jù)規(guī)律,且針對(duì)具體應(yīng)用,模型的選擇非常困難。

    ● 特征模型較固化,泛化能力差,難以掌握數(shù)據(jù)的復(fù)雜變化。大多模型本身固定,只可調(diào)整少量的模型參數(shù)。對(duì)于數(shù)據(jù)(如空間平移、旋轉(zhuǎn)、尺度縮放等)的變化難以掌握。

    ● 由于模型較固化、自由度低,難以利用大量數(shù)據(jù)不斷提高模型的表達(dá)能力。

    ● 大多數(shù)傳統(tǒng)機(jī)器學(xué)習(xí)方法等價(jià)于淺層學(xué)習(xí)模型,難以提取目標(biāo)的高層抽象信息。因此,高效的機(jī)器學(xué)習(xí)方法已經(jīng)成為遙感目標(biāo)識(shí)別研究中的熱點(diǎn)。

    2.2 深度學(xué)習(xí)目標(biāo)識(shí)別及其在機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別中的挑戰(zhàn)

    深度學(xué)習(xí)是近年來(lái)在大數(shù)據(jù)環(huán)境下興起的一門機(jī)器學(xué)習(xí)技術(shù),其實(shí)質(zhì)是通過(guò)構(gòu)建具有多層結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù)來(lái)學(xué)習(xí)數(shù)據(jù)中的復(fù)雜特征,用于之后的分析、預(yù)測(cè)等應(yīng)用。由于其具備海量數(shù)據(jù)的學(xué)習(xí)能力和高度的特征抽象能力,在諸多圖像應(yīng)用領(lǐng)域都取得了相比傳統(tǒng)方法革命性的成功。

    自2014年開始,基于深度學(xué)習(xí)(主要是卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)[13])的目標(biāo)識(shí)別在自然圖像應(yīng)用中也取得了巨大突破。例如,以R-CNN(region with CNN features,卷積神經(jīng)網(wǎng)絡(luò)特征區(qū)域)方法為代表的結(jié)合通用候選區(qū)域算法和CNN分類的目標(biāo)識(shí)別框架(R-CNN[14]、SPP-NET(spatial pyramid pooling net,空間金字塔池化網(wǎng)絡(luò))[15]、Fast R-CNN(fast region with CNN features,快速卷積神經(jīng)網(wǎng)絡(luò)特征區(qū)域)方法[16]、Faster R-CNN(faster region with CNN features,更快速卷積神經(jīng)網(wǎng)絡(luò)特征區(qū)域)方法[17])。其候選區(qū)域采用Selective Search(選擇搜索)[18]、EdgeBox(邊緣框選)[19]或BING(binarized normed gradient,二值化賦范梯度)特征[20]等通用目標(biāo)候選方法。而這些通用區(qū)域候選算法本質(zhì)上還是遍歷滑窗的方法。這些方法往往產(chǎn)生巨量的候選窗口(如在一幅遙感圖像上往往可以產(chǎn)生數(shù)百萬(wàn)個(gè)候選目標(biāo)區(qū)域),雖然類似SPPNET、Fast R-CNN、Faster R-CNN等方法采用在卷積出的特征圖上直接提取特征,避免了對(duì)每個(gè)候選區(qū)域進(jìn)行大量的重復(fù)卷積操作,但由于沒有減少非必要的目標(biāo)搜索,其計(jì)算量依然很大。而且為了兼顧通用,目標(biāo)的定位與框選并不十分準(zhǔn)確,進(jìn)而導(dǎo)致后期的CNN識(shí)別錯(cuò)誤。雖然后期的算法包括Fast R-CNN和Faster R-CNN等都采用回歸學(xué)習(xí)方法對(duì)目標(biāo)的準(zhǔn)確位置進(jìn)行了修正,甚至有YOLO(you only look once,框選識(shí)別統(tǒng)一)方法[21]、SSD(single shot multibox detector,多層級(jí)框選識(shí)別統(tǒng)一)方法[22]等算法通過(guò)訓(xùn)練直接給出定位與識(shí)別結(jié)果,但這些算法都需要大量的學(xué)習(xí)樣本用于預(yù)測(cè)準(zhǔn)確的回歸位置,且大多設(shè)計(jì)為針對(duì)圖像中占比大的目標(biāo),對(duì)于“大范圍、小目標(biāo)”的遙感識(shí)別效果并不理想。

    受深度學(xué)習(xí)在通用圖像領(lǐng)域的成功影響,機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別近年來(lái)也進(jìn)行了一些基于深度學(xué)習(xí)的初步嘗試。但深度模型的訓(xùn)練常常需要大量的有標(biāo)簽樣本,受限于遙感目標(biāo)樣本采集的困難,大多數(shù)研究都集中于高分辨率光學(xué)遙感數(shù)據(jù)。這樣可以利用光學(xué)圖像的共性特征,在自然圖像上通過(guò)大量樣本預(yù)訓(xùn)練好的模型(通常是深度CNN),通過(guò)少量樣本微調(diào)的方法引入光學(xué)遙感目標(biāo)識(shí)別[9],進(jìn)而取得明顯優(yōu)于傳統(tǒng)方法的識(shí)別效果。也有采用DBN(deep belief network,深度信念網(wǎng)絡(luò))[23]無(wú)監(jiān)督預(yù)訓(xùn)練的方法,直接在遙感圖像上訓(xùn)練深度模型用于飛行器識(shí)別[5,6,8,24]。但使用DBN的方法,通常網(wǎng)絡(luò)都相對(duì)深度CNN較淺,往往只有10層以下,模型泛化能力較弱,因此其高精度結(jié)果常常需要建立在高效的候選區(qū)上。同時(shí)目前的識(shí)別方法大多只能給出是否是特定目標(biāo)的識(shí)別結(jié)果,而對(duì)目標(biāo)類型進(jìn)一步的精細(xì)分類缺少相應(yīng)研究。

    3 基于深度學(xué)習(xí)的光學(xué)遙感圖像機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別系統(tǒng)與技術(shù)

    針對(duì)遙感大數(shù)據(jù)的挑戰(zhàn),筆者構(gòu)建了一個(gè)面向高分辨率光學(xué)遙感圖像的深度學(xué)習(xí)目標(biāo)識(shí)別系統(tǒng)。以機(jī)場(chǎng)識(shí)別和飛行器目標(biāo)識(shí)別為例,提出了一系列方法期望解決復(fù)雜場(chǎng)景下“大范圍、小目標(biāo)”應(yīng)用的快速準(zhǔn)確定位問題,最終在Goolge Earth 19級(jí)圖像上實(shí)現(xiàn)了高精度的機(jī)場(chǎng)、飛行器秒級(jí)定位。

    該系統(tǒng)工作原理如圖1所示,基于深度學(xué)習(xí)方法,首先進(jìn)行機(jī)場(chǎng)定位,在機(jī)場(chǎng)范圍內(nèi)再進(jìn)行飛行器的識(shí)別,之后再對(duì)飛行器的類型進(jìn)行精細(xì)識(shí)別。在機(jī)場(chǎng)、飛行器目標(biāo)識(shí)別系統(tǒng)中,依然采用候選窗口提取與分類器識(shí)別的識(shí)別框架:采用區(qū)域候選算法提取待識(shí)別目標(biāo)區(qū)域;在候選區(qū)域上應(yīng)用已訓(xùn)練好的深度學(xué)習(xí)模型,對(duì)區(qū)域所含目標(biāo)進(jìn)行分類識(shí)別。

    如前所述,該類型目標(biāo)識(shí)別任務(wù)的困難主要在于以下幾點(diǎn)。

    ● 高精度深度模型構(gòu)建與有標(biāo)簽樣本相對(duì)稀缺的矛盾。遙感大數(shù)據(jù)大多數(shù)是沒有類型標(biāo)簽的數(shù)據(jù),特定目標(biāo)樣本的采集相對(duì)困難,而沒有大量的標(biāo)簽樣本難以對(duì)深度模型進(jìn)行有效訓(xùn)練,例如機(jī)場(chǎng)目標(biāo),在中國(guó)范圍內(nèi)也僅能收集100多個(gè)樣本。而對(duì)于飛行器樣本,大量的人工標(biāo)注依然難以收集足夠的標(biāo)簽樣本來(lái)表現(xiàn)多種飛行器目標(biāo)在不同環(huán)境下的復(fù)雜變化??刹杉臉颖緮?shù)量與訓(xùn)練類似AlexNet[25]這樣的深度網(wǎng)絡(luò)所采用的具有百萬(wàn)量級(jí)的ImageNet圖像庫(kù)相比依然較少。

    ● 追求高分辨率的豐富信息與準(zhǔn)確把握復(fù)雜目標(biāo)特征的矛盾。高分辨率圖像中,目標(biāo)的變化更為豐富,背景干擾更加顯著。雖然深度模型相比傳統(tǒng)方法可以更有效地提取目標(biāo)關(guān)鍵特征,但在樣本采集困難的情況下,如何結(jié)合數(shù)據(jù)本身的先驗(yàn)知識(shí),提升深度學(xué)習(xí)識(shí)別效果也是應(yīng)用中需要解決的問題。

    ● 大范圍遙感圖像中,采用復(fù)雜深度網(wǎng)絡(luò)與追求快速識(shí)別之間的矛盾。深度模型往往較傳統(tǒng)方法更加復(fù)雜,由于采用幾十層到上百層的網(wǎng)絡(luò),計(jì)算量巨大。

    因而,在大范圍遙感圖像中,對(duì)小目標(biāo)采用深度學(xué)習(xí)模型進(jìn)行識(shí)別,需要相應(yīng)的高效系統(tǒng)設(shè)計(jì)。

    圖1 機(jī)場(chǎng)、飛行器目標(biāo)識(shí)別系統(tǒng)流程

    3.1 面向光學(xué)遙感數(shù)據(jù)的深度卷積網(wǎng)絡(luò)特征遷移學(xué)習(xí)

    在圖像分類與識(shí)別領(lǐng)域,CNN是目前應(yīng)用最成功的深度模型之一。很多研究表明,較傳統(tǒng)方法CNN可以學(xué)習(xí)到更高效的高層圖像特征。但是訓(xùn)練一個(gè)識(shí)別率高、泛化能力強(qiáng)的CNN模型,往往需要大量有標(biāo)簽樣本。目前多數(shù)深度學(xué)習(xí)模型是面向自然場(chǎng)景圖像識(shí)別任務(wù),研究比較充分,數(shù)據(jù)量龐大,而且都取得了非常優(yōu)秀的成績(jī)。而在光學(xué)遙感場(chǎng)景下,鮮有已經(jīng)成熟的公開數(shù)據(jù)集。各研究組的研究分散,能使用的數(shù)據(jù)也是有限人力標(biāo)注的少量數(shù)據(jù),這對(duì)訓(xùn)練有效的深度模型構(gòu)成了挑戰(zhàn)。

    盡管如此,CNN在兩個(gè)任務(wù)有別、但數(shù)據(jù)結(jié)構(gòu)相似的圖像集上,依然可以采用遷移學(xué)習(xí)的方法,將大樣本數(shù)據(jù)庫(kù)上預(yù)訓(xùn)練好的模型應(yīng)用在其他少樣本應(yīng)用中。在機(jī)場(chǎng)和飛行器識(shí)別中,研究的光學(xué)遙感圖像和自然場(chǎng)景圖像在成像原理上相似,觀測(cè)目標(biāo)的顏色、紋理、形狀等中、低層圖像特征相近。因而,基于大樣本自然圖像預(yù)訓(xùn)練CNN,采用遷移學(xué)習(xí)方法,用少量樣本加以進(jìn)一步微調(diào)訓(xùn)練,可以有效構(gòu)建面向光學(xué)遙感目標(biāo)識(shí)別的深度CNN模型。

    現(xiàn)有的CNN的網(wǎng)絡(luò)結(jié)構(gòu),其底層卷積層大多提取圖像的通用特征(邊緣檢測(cè)或者色塊檢測(cè)),中層和高層的卷積層或全連接層包含更多的任務(wù)相關(guān)特征。因此遷移網(wǎng)絡(luò)時(shí)更關(guān)注的是網(wǎng)絡(luò)頂層的遷移。直接有效的辦法可采用網(wǎng)絡(luò)微調(diào)的方式,將頂層的分類目標(biāo)替換為現(xiàn)有任務(wù)目標(biāo),再用少量樣本通過(guò)反向傳播訓(xùn)練的方式對(duì)網(wǎng)絡(luò)進(jìn)行微調(diào)。訓(xùn)練樣本的采集根據(jù)目標(biāo)和場(chǎng)景的復(fù)雜程度而確定。一般采取細(xì)分類的辦法,減少類內(nèi)差別,提高識(shí)別精度,如將“背景”依據(jù)圖像特點(diǎn)進(jìn)行多種城區(qū)、農(nóng)田、河流等細(xì)分類。同時(shí),為了增強(qiáng)網(wǎng)絡(luò)的頑健性,即增強(qiáng)網(wǎng)絡(luò)對(duì)于目標(biāo)在光照、平移、角度等復(fù)雜變化下的識(shí)別能力,對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行一定的變換和擾動(dòng)擴(kuò)充,在增加了訓(xùn)練數(shù)據(jù)量的同時(shí)可以讓網(wǎng)絡(luò)充分學(xué)習(xí)到目標(biāo)的變化,如在訓(xùn)練飛行器識(shí)別模型中,增加了飛行器訓(xùn)練樣本7個(gè)方向的旋轉(zhuǎn)變換、1種光照變換和1種鏡像變換,使得樣本擴(kuò)充了(7+1)(1+1)(1+1) =32倍,達(dá)到16萬(wàn)個(gè)樣本的訓(xùn)練量級(jí),如圖2所示。

    對(duì)于機(jī)場(chǎng)飛行器識(shí)別的深度CNN遷移學(xué)習(xí),均采用在ImageNet上取得86%分類精度的AlexNet 作為遷移源模型。在對(duì)6種機(jī)型和背景的分類問題上,采用遷移CNN的方法可以取得明顯優(yōu)于傳統(tǒng)方法的效果,如圖3所示(混淆矩陣中橫坐標(biāo)代表7種類型,其中1-6為6種飛行器,7為背景,色階指示精度高低)。采用類似的方法,同樣構(gòu)造了10萬(wàn)樣本量級(jí)的機(jī)場(chǎng)識(shí)別訓(xùn)練庫(kù)。在對(duì)機(jī)場(chǎng)和背景共11類的分類結(jié)果上,也可以得到相比傳統(tǒng)方法10%以上的精度提升。

    圖2 光學(xué)遙感飛行器目標(biāo)深度CNN遷移學(xué)習(xí)樣本示例

    3.2 結(jié)合先驗(yàn)知識(shí)的待檢區(qū)域篩選

    在機(jī)場(chǎng)、飛行器目標(biāo)識(shí)別系統(tǒng)中,筆者依然采用候選窗口提取與分類器識(shí)別的識(shí)別框架。因此,除了目標(biāo)特征學(xué)習(xí),候選窗口選取方法對(duì)系統(tǒng)識(shí)別效率有著極大影響。如前所述,常用的候選區(qū)域提取方法(如滑窗、BING、EdgeBox、Selective Search等)對(duì)于占圖像比例較大目標(biāo)的識(shí)別應(yīng)用有良好效果。但在“大范圍”的遙感圖像識(shí)別中難以框選“小目標(biāo)”的準(zhǔn)確范圍,且均會(huì)產(chǎn)生大量的候選窗口,對(duì)快速識(shí)別構(gòu)成嚴(yán)重負(fù)擔(dān)。而對(duì)于遙感圖像中的特定目標(biāo),可以利用其先驗(yàn)信息,如機(jī)場(chǎng)的線性圖像特征和飛行器的尺度及邊緣分布規(guī)律,高效地構(gòu)建候選區(qū)域。這些先驗(yàn)信息,還可以在后期識(shí)別中進(jìn)一步提高基于深度學(xué)習(xí)的預(yù)測(cè)精度。

    圖3 飛行器細(xì)分類比較

    圖4 基于邊緣的機(jī)場(chǎng)候選區(qū)域提取示例

    3.2.1 基于線段檢測(cè)的機(jī)場(chǎng)目標(biāo)候選區(qū)域提取

    作為特殊人造建筑,機(jī)場(chǎng)跑道是機(jī)場(chǎng)區(qū)別于其他場(chǎng)景目標(biāo)的主要特征。跑道一般可以被檢測(cè)為具有一定分布規(guī)律的平行長(zhǎng)直線段。據(jù)此先驗(yàn)知識(shí),可以利用線段檢測(cè)的方法提取有限且高質(zhì)量的識(shí)別候選區(qū)域。具體過(guò)程如圖4所示:使用LSD(line segment detector,線段檢測(cè)器)[27]算法快速提取初始線段;設(shè)計(jì)線段連接算法,恢復(fù)被截?cái)嗟拈L(zhǎng)直線段;依據(jù)線段之間的平行關(guān)系和垂直距離對(duì)線段進(jìn)行分組,根據(jù)每一組線段的空間分布提取候選區(qū)域;為了進(jìn)一步減少候選框數(shù)量,根據(jù)每組線段分布特征進(jìn)行打分,篩除明顯錯(cuò)誤窗口。

    經(jīng)此方法得到的機(jī)場(chǎng)候選結(jié)果如圖5所示(粗線框?yàn)闄C(jī)場(chǎng)真實(shí)區(qū)域,細(xì)線框?yàn)榻o出的識(shí)別候選區(qū)域),識(shí)別所需候選區(qū)域數(shù)量大幅降低,大多數(shù)案例中僅僅包含數(shù)個(gè)機(jī)場(chǎng)候選區(qū)域。同時(shí),候選區(qū)域?qū)δ繕?biāo)的覆蓋更加準(zhǔn)確,從而可以有效提高機(jī)場(chǎng)識(shí)別的性能和速度。在200景約3000像素×3000像素大小,分辨率約8 m×8 m Google Earth測(cè)試圖集上(其中,170景有機(jī)場(chǎng),30景無(wú)機(jī)場(chǎng)),筆者提出的線段區(qū)域候選結(jié)合遷移學(xué)習(xí)深度CNN的識(shí)別方法可以得到相比其他傳統(tǒng)方法明顯的準(zhǔn)確率提升,見表1,并且在GTX 780 GPU平臺(tái)上,可以將耗時(shí)控制在秒級(jí)。

    3.2.2 基于邊緣尺度的飛行器目標(biāo)候選區(qū)域提取

    盡管機(jī)場(chǎng)識(shí)別為后續(xù)的飛行器識(shí)別給出了有限的識(shí)別范圍,但在Google Earth 19級(jí)圖像上,典型的機(jī)場(chǎng)區(qū)域邊長(zhǎng)也可達(dá)上萬(wàn)像素。采用傳統(tǒng)候選區(qū)域提取方法,也會(huì)得到百萬(wàn)數(shù)量級(jí)的候選區(qū)。為了提高識(shí)別效率,應(yīng)盡可能減少待識(shí)別候選區(qū)域,并且盡量減少回歸率的降低,結(jié)合飛行器目標(biāo)尺度和邊緣分布規(guī)律,筆者提出了一些候選區(qū)域優(yōu)化方法:根據(jù)Google Earth 19級(jí)分辨率圖像飛行器目標(biāo)尺度分布范圍,排除尺度過(guò)小或過(guò)大的候選區(qū)域;根據(jù)飛行器目標(biāo)候選區(qū)域邊緣密度分布特點(diǎn),排除明顯分布不符合目標(biāo)特點(diǎn)的候選區(qū)域。該方法主要受Edgebox算法啟發(fā),能準(zhǔn)確覆蓋目標(biāo)的候選區(qū)域,其邊框與物體邊緣的交叉機(jī)會(huì)較小,且區(qū)域內(nèi)所含不同類型的目標(biāo),其邊緣分布存在一定規(guī)律。如圖6所示,在邊緣圖像中,不含目標(biāo)的平滑區(qū)域其邊緣密度相對(duì)較低,而復(fù)雜建筑區(qū)或者森林區(qū)域等邊緣密度較高。因此,可以利用此先驗(yàn)來(lái)對(duì)飛行器目標(biāo)候選區(qū)域進(jìn)行篩選。

    圖5 基于邊緣的機(jī)場(chǎng)候選區(qū)域提取結(jié)果示例

    表1 基于所提線段候選方法的機(jī)場(chǎng)識(shí)別效果

    圖6 利用Prewitt算子計(jì)算得到的邊緣圖像信息

    圖7 過(guò)濾算法的效果及對(duì)應(yīng)影響曲線

    在實(shí)驗(yàn)中,該方法可以過(guò)濾平均90%的候選區(qū)域,只造成約10%的回歸率下降,如圖7所示。而根據(jù)應(yīng)用側(cè)重點(diǎn)的不同,可以通過(guò)調(diào)整篩選閾值,選擇相對(duì)保守或激進(jìn)的篩選策略來(lái)調(diào)整實(shí)時(shí)性與準(zhǔn)確性之間的平衡。

    3.3 面向快速識(shí)別的級(jí)聯(lián)式網(wǎng)絡(luò)識(shí)別方法

    即使采取了高效的候選區(qū)域篩選策略,對(duì)于“大范圍、小目標(biāo)”的遙感目標(biāo)識(shí)別任務(wù),若采用復(fù)雜的深度學(xué)習(xí)模型,其計(jì)算量仍然巨大。如前所述,采用候選篩選技術(shù),可以將飛行器的候選區(qū)域減少90%,但對(duì)于機(jī)場(chǎng)圖像中普遍初始有百萬(wàn)數(shù)量級(jí)的候選區(qū)域集合,其篩選后的區(qū)域數(shù)量仍有十萬(wàn)量級(jí)。即便采用GPU硬件加速手段,使用幾十層的深度CNN也需幾十分鐘的識(shí)別時(shí)間。

    為了解決采用深度模型進(jìn)行精確預(yù)測(cè)與追求實(shí)時(shí)性的矛盾,基于遙感圖像目標(biāo)識(shí)別任務(wù)的特點(diǎn),筆者設(shè)計(jì)了一個(gè)快速的、由粗到細(xì)的級(jí)聯(lián)式CNN識(shí)別構(gòu)架。該架構(gòu)基于對(duì)生物視覺系統(tǒng)的模擬,不同輸入對(duì)應(yīng)不同的反映時(shí)間。簡(jiǎn)單的輸入對(duì)應(yīng)較短的判斷時(shí)間,復(fù)雜的輸入對(duì)應(yīng)較長(zhǎng)的處理時(shí)間。整體的識(shí)別框架如圖8所示,級(jí)聯(lián)式網(wǎng)絡(luò)的基本思想采用準(zhǔn)確率相對(duì)低但召回率相對(duì)較高的簡(jiǎn)單網(wǎng)絡(luò)對(duì)候選區(qū)域進(jìn)行層層過(guò)濾。由于簡(jiǎn)單網(wǎng)絡(luò)的計(jì)算代價(jià)較低,可以快速過(guò)濾一些容易判斷的目標(biāo),而將少量難以判斷的目標(biāo)留給之后的復(fù)雜網(wǎng)絡(luò)進(jìn)行判斷,從而在保持精度的前提下提高計(jì)算效率。該構(gòu)架也是基于候選區(qū)域結(jié)合CNN識(shí)別的R-CNN架構(gòu),但與傳統(tǒng)R-CNN采用單一的深層CNN方法不同,筆者精心設(shè)計(jì)了一系列CNN,并且以前后級(jí)聯(lián)的方式連接。

    圖8 面向快速飛行器識(shí)別的級(jí)聯(lián)式CNN架構(gòu)

    在候選區(qū)域提取方法上,得益于之后級(jí)聯(lián)網(wǎng)絡(luò)的效率,可以選擇覆蓋全面的滑窗方法,并結(jié)合圖像金字塔以提取不同尺度的目標(biāo)。對(duì)于輸入待識(shí)別圖像,以1.414為縮放因子建立圖像金字塔,然后以12像素×12像素大小的窗口,4個(gè)像素為步長(zhǎng)對(duì)候選區(qū)域進(jìn)行滑窗提取。由于固定12像素×12像素大小的窗口在不同的金字塔層對(duì)應(yīng)著不同大小的區(qū)域,即可以用固定網(wǎng)絡(luò)輸入大小提取不同尺度的目標(biāo),避免了在固定圖像上采用不同尺度的窗口提取區(qū)域時(shí),為適應(yīng)固定的CNN輸入而造成的大量樣本縮放開銷,即用縮放整張圖像來(lái)代替縮放單個(gè)目標(biāo)區(qū)域。

    尺度滑窗后,再經(jīng)過(guò)前述的候選區(qū)粗篩選,剩余約10萬(wàn)量級(jí)候選區(qū)域進(jìn)入級(jí)聯(lián)式CNN進(jìn)行識(shí)別。如圖9所示,筆者設(shè)計(jì)了4個(gè)CNN,由簡(jiǎn)單到復(fù)雜分別稱之為12-net、24-net、48-net 以及經(jīng)過(guò)遷移學(xué)習(xí)的AlexNet。圖9分別展示了12-net、24-net、48-net的網(wǎng)絡(luò)結(jié)構(gòu)。這3個(gè)結(jié)構(gòu)逐漸復(fù)雜的網(wǎng)絡(luò)被設(shè)計(jì)為判斷是否為飛行器的二分類網(wǎng)絡(luò),其特征提取能力及識(shí)別能力也隨網(wǎng)絡(luò)層數(shù)的增加逐漸增強(qiáng)。輸入候選區(qū)域經(jīng)過(guò)級(jí)聯(lián)網(wǎng)絡(luò)逐層識(shí)別,在被某一網(wǎng)絡(luò)判別為非飛行器目標(biāo)即被丟棄,不再送入后續(xù)的深層次網(wǎng)絡(luò)。在實(shí)驗(yàn)中,采用12-net即可在秒級(jí)過(guò)濾超過(guò)75%的候選區(qū)域。經(jīng)過(guò)48-net處理后,候選區(qū)域剩余約1%剩余區(qū)域。最后得到有限的千余候選區(qū)域供深層次網(wǎng)絡(luò)AlexNet進(jìn)行進(jìn)一步細(xì)分。由于候選區(qū)域大大減少,即使采用深度的AlexNet網(wǎng)絡(luò)也可以實(shí)現(xiàn)秒級(jí)定位識(shí)別。

    圖9 12-net、24-net、48-net的網(wǎng)絡(luò)結(jié)構(gòu)

    圖10展示了級(jí)聯(lián)式CNN在識(shí)別速度上相對(duì)于傳統(tǒng)R-CNN方法上的對(duì)比。圖10中以R-CNN的識(shí)別時(shí)間為單位做了歸一化。其中,橫坐標(biāo)代表試驗(yàn)中用到的58張機(jī)場(chǎng)圖像。平均來(lái)看,筆者提出的級(jí)聯(lián)式CNN結(jié)構(gòu)相對(duì)于傳統(tǒng)R-CNN在速度上能提高40倍,結(jié)合基于圖像低層邊緣信息的“粗過(guò)濾”候選區(qū)域篩選方法,筆者提出的系統(tǒng)在速度上甚至可以提高100倍以上。而應(yīng)用GTX 980 GPU,對(duì)于Google 19級(jí)機(jī)場(chǎng)區(qū)域,識(shí)別時(shí)間可以控制在幾十秒。圖11給出了采用級(jí)聯(lián)CNN與基于BOW的傳統(tǒng)方法在飛行器目標(biāo)識(shí)別識(shí)別精度上的比較,表明了級(jí)聯(lián)式CNN結(jié)構(gòu)在高精度實(shí)時(shí)遙感目標(biāo)識(shí)別應(yīng)用中的可行性。圖12、圖13展示了部分飛行器識(shí)別結(jié)果。

    圖10 級(jí)聯(lián)式CNN快速目標(biāo)識(shí)別系統(tǒng)相對(duì)于傳統(tǒng)R-CNN在識(shí)別時(shí)間上的對(duì)比

    圖11 級(jí)聯(lián)式CNN與BOW R-CNN在識(shí)別精度上的比較

    圖12 級(jí)聯(lián)式CNN飛行器目標(biāo)識(shí)別結(jié)果展示1

    4 結(jié)束語(yǔ)

    深度學(xué)習(xí)技術(shù)為分析處理遙感大數(shù)據(jù)開辟了新的方向。應(yīng)用深度模型可有效學(xué)習(xí)高分遙感圖像中的復(fù)雜規(guī)律特征,從而提高檢測(cè)識(shí)別等遙感應(yīng)用的精度水平。在遙感樣本采集相對(duì)困難的情況下,采用遷移學(xué)習(xí)等技術(shù),可以快速構(gòu)建高效的深度學(xué)習(xí)模型。結(jié)合應(yīng)用目標(biāo)的先驗(yàn)知識(shí),可以提高深度學(xué)習(xí)的應(yīng)用水平。針對(duì)實(shí)時(shí)性應(yīng)用,采用級(jí)聯(lián)式的深度學(xué)習(xí)網(wǎng)絡(luò)可以進(jìn)一步提升數(shù)據(jù)分析的精度和效率。

    雖然深度學(xué)習(xí)技術(shù)在諸多遙感應(yīng)用中取得了初步成效,但是也應(yīng)該清醒地看到在其未來(lái)研究中仍然需要解決以下難題。

    ● 有標(biāo)簽樣本相對(duì)稀缺與構(gòu)建盡可能深網(wǎng)絡(luò)的矛盾。遙感數(shù)據(jù)雖然從總量上看是大數(shù)據(jù),但是對(duì)應(yīng)到具體數(shù)據(jù)、具體應(yīng)用,可采集的樣本量就相對(duì)較少。因此,考慮無(wú)監(jiān)督的訓(xùn)練方法以及可跨越數(shù)據(jù)類型的遷移學(xué)習(xí)方法可能會(huì)為此問題帶來(lái)解決方案。

    ● 多源數(shù)據(jù)的融合問題。多源融合已成為目前遙感大數(shù)據(jù)的發(fā)展趨勢(shì)之一。然而不同的數(shù)據(jù)類型其成像原理有很大差異,數(shù)據(jù)質(zhì)量、結(jié)構(gòu)差異明顯,如何構(gòu)建高效的深度學(xué)習(xí)模型,剔除各源數(shù)據(jù)的冗余信息,最大化信息互補(bǔ)也是深度模型在多源應(yīng)用中的研究難點(diǎn)。此外,利用在異源數(shù)據(jù)上訓(xùn)練好的深度模型快速構(gòu)建本源應(yīng)用,將會(huì)極大減少多源應(yīng)用的開發(fā)成本。

    ● 深度網(wǎng)絡(luò)在遙感數(shù)據(jù)上的強(qiáng)化學(xué)習(xí)能力。雖然深度學(xué)習(xí)有提高應(yīng)用效果的潛力,但是受限于遙感應(yīng)用中可供訓(xùn)練的樣本量以及不斷變化的應(yīng)用需求,需要研究具有不斷強(qiáng)化能力的深度學(xué)習(xí)模型。在具體應(yīng)用中可以只通過(guò)學(xué)習(xí)新添加的樣本而不斷提高模型的預(yù)測(cè)能力,并且能夠?qū)π乱腩愋湍繕?biāo)進(jìn)行強(qiáng)化學(xué)習(xí),在較少影響以往預(yù)測(cè)能力的基礎(chǔ)上,具備解決新問題的能力。

    圖13 級(jí)聯(lián)式CNN飛行器目標(biāo)識(shí)別結(jié)果展示2

    [1] 李國(guó)慶, 鄔延輝.大數(shù)據(jù)時(shí)代的對(duì)地觀測(cè)科學(xué)研究[J].計(jì)算機(jī)學(xué)會(huì)通訊, 2013, 9(9): 27-31.LI G Q, WU Y H.Research on earth observation in age of big data[J].Communications of CCF, 2013, 9(9): 27-31.

    [2] SUN H, SUN X, WANG H, et al.Automatic target detection in highresolution remote sensing images using spatial sparse coding bag-of-words model[J].IEEE Geoscience & Remote Sensing Letters, 2012, 9(1): 109-113.

    [3] ZHANG W, SUN X, FU K, et al.Object detection in high-resolution remote sensing images using rotation invariant parts based model[J].IEEE Geoscience & Remote Sensing Letters, 2014, 11(1): 74-78.

    [4] BAI X, ZHANG H, ZHOU J.VHR object detection based on structural feature extraction and query expansion[J].IEEE Transactions on Geoscience & Remote Sensing, 2014, 52(10): 6508-6520.

    [5] CHEN X, XIANG S, LIU C L, et al.Aircraft detection by deep belief nets[C]// Iapr Asian Conference on Pattern Recognition, November 5-8, 2013, Okinawa, Japan.NewJersey: IEEE Press, 2013: 54-58.

    [6] HAN J, ZHANG D, CHENG G, et al.Object detection in optical remote sensing images based on weakly supervised learning and high-level feature learning[J].IEEE Transactions on Geoscience & Remote Sensing, 2015, 53(6): 3325-3337.

    [7] HU X, SHEN J, SHAN J, et al.Local edge distributions for detection of salient structure textures and objects[J].IEEE Geoscience & Remote Sensing Letters, 2013, 10(3): 466-470.

    [8] DIAO W, SUN X, ZHENG X, et al.Efficient saliency-based object detection in remote sensing images using deep belief networks[J].IEEE Geoscience & Remote Sensing Letters, 2016, 13(2): 137-141.

    [9] ZHOU P, CHENG G, LIU Z, et al.Weakly supervised target detection in remote sensing images based on transferred deep features and negative bootstrapping[J].Multidimensional Systems & Signal Processing, 2016, 27(4): 925-944.

    [10] SUN X, WANG H, FU K.Automatic detection of geospatial objects using taxonomic semantics[J].IEEE Geoscience & Remote Sensing Letters, 2010, 7(1): 23-27.

    [11] INGLADA J, MICHEL J.Qualitative spatial reasoning for high-resolution remote sensing image analysis[J].IEEE Transactions on Geoscience & Remote Sensing, 2009, 47(2): 599-612.

    [12] SUN H, SUN X, WANG H, et al.Automatic target detection in highresolution remote sensing images using a contour-based spatial model[J].IEEE Geoscience & Remote Sensing Letters, 2012, 9(5): 886-890.

    [13] LECUN Y, BOSER B, DENKER J S, et al.Backprop-agation applied to handwritten zip code recognition[J].Neural Computation, 1989, 1(4): 541-551.

    [14] GIRSHICK R, DONAHUE J, DARRELL T, et al.Rich feature hierarchies for accurate object detection and semantic segmentation[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 23-28, 2014, Columbus, OH, USA.New Jersey: IEEE Press, 2014: 580-587.

    [15] HE K, ZHANG X, REN S, et al.Spatial pyramid pooling in deep convolutional networks for visual recognition[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 37(9): 1904-1916.

    [16] GIRSHICK R.Fast R-CNN[C]//The IEEE International Conference on Computer Vision, December 7-13, 2015, Chile.New Jersey: IEEE Press, 2015: 1440-1448.

    [17] REN S, HE K, GIRSHICK R, et al.Faster R-CNN: towards real-time object detection with region proposal networks[J].Computer Science, 2015(99): 1.

    [18] UIJLINGS J R R, SANDE K, GEVERS T, et al.Selective search for object recognition[J].International Journal of Computer Vision, 2013, 104(2): 154-171.

    [19] ZITNICK C L, DOLL R P.Edge boxes: locating object proposals from edges[M]//Computer Vision-ECCV 2014.Switzerland: Springer International Publishing, 2014: 391-405.

    [20] CHENG M M, ZHANG Z, LIN W Y, et al.BING: binarized normed gradients for objectness estimation at 300fps[C]// IEEE Conference on Computer Vision and Pattern Recognition, June 23-28, 2014, Columbus, OH, USA.New Jersey: IEEE Press, 2014: 3286-3293.

    [21] REDMON J, DIVVALA S, GIRSHICK R, et al.You only look once: unified, realtime object detection[J].Computer Science, 2015: arXiv:1506.02640.

    [22] LIU W, ANGUELOV D, ERHAN D, et al.S SD: si ngle shot multibox detector[J].Computer Science, 2015: arXiv:1512.02325.

    [23] HINTON G E.Deep belief networks[J].Scholarpedia, 2009, 4(6): 804-786.

    [24] YU Y, GUAN H, JI Z.Rotation-invariant object detection in high-resolution satellite imagery using superpixel-based deep hough forests[J].IEEE Geoscience & Remote Sensing Letters, 2015, 12(11): 1.

    [25] KRIZ HEVSKY A, SUTSKEVER I, HINTON G E.Imagenet classification with deep convolutional neural networks[J].Advances in Neural Information Processing Systems, 2012, 25(2): 1-9.

    [26] MCCALLUM.BOW: a toolkit for statistical language modeling, text retrieval, classification and clustering[J].Machine Learning, 1996(1): 405-408.

    [27] OGAWA S, HIRAO K, HONGU T, et al.Line segment detector: US, US 20020154121 A1[P].2002.

    [28] ZHU D, WANG B, ZHANG L.Airport target detection in remote sensing images: a new method based on two-way saliency[J].IEEE Geoscience & Remote Sensing Letters, 2015, 12(5): 1096-1100.

    [29] QU Y, LI C, ZHENG N.Airport detection base on support vector machine from a single image[C]// Fifth International Conference on Information, Communications and Signal Processing, December 6-9, 2005, Bangkok, Thailand.New Jersey: IEEE Press, 2005: 546-549.

    Airport and flight recognition on optical remote sensing data by deep learning

    NIU Xin, DOU Yong, ZHANG Peng, CAO Yushe
    National Key Laboratory of Parallel and Distributed Processing (PDL), National University of Defense Technology, Changsha 410073, China

    Airport and flight recognition are the typical remote sensing applications.For the big optical remote sensing data, deep learning techniques for airport and flight recognition have been studied.To this end, a seconds’ response airport and flight recognition system for optical remote sensing data was built.To obtain effective deep learning model with limited labeled samples, transfer learning approach has been employed.Prior knowledge has also been explored for efficient object proposal.To achieve real-time performance for such recognition with “l(fā)arge region and small targets”, a cascade framework of deep networks has been proposed.The results of experiments show that, by the proposed deep learning approaches, significant improvement on recognition accuracy could be achieved with seconds’ response.

    optical remote sensing, object recognition, deep learning

    TP183

    A

    10.11959/j.issn.2096-0271.2016054

    牛新(1983-),男,博士,國(guó)防科學(xué)技術(shù)大學(xué)并行與分布處理重點(diǎn)實(shí)驗(yàn)室助理研究員,主要研究方向?yàn)橛?jì)算機(jī)系統(tǒng)結(jié)構(gòu)、遙感圖像處理、機(jī)器學(xué)習(xí)。

    竇勇(1966-),男,博士,國(guó)防科學(xué)技術(shù)大學(xué)并行與分布處理重點(diǎn)實(shí)驗(yàn)室常務(wù)副主任、研究員、博士生導(dǎo)師,計(jì)算機(jī)系統(tǒng)結(jié)構(gòu)學(xué)科方向?qū)W術(shù)帶頭人,擔(dān)任中國(guó)計(jì)算機(jī)學(xué)會(huì)體系結(jié)構(gòu)專家委員會(huì)主任,是國(guó)家自然科學(xué)基金杰出青年基金獲得者,入選教育部新世紀(jì)優(yōu)秀人才支持計(jì)劃。主要研究方向?yàn)橛?jì)算機(jī)系統(tǒng)結(jié)構(gòu)、并行計(jì)算、計(jì)算機(jī)應(yīng)用。

    張鵬(1993-),男,國(guó)防科學(xué)技術(shù)大學(xué)并行與分布處理重點(diǎn)實(shí)驗(yàn)室碩士生,主要研究方向?yàn)橛?jì)算機(jī)系統(tǒng)結(jié)構(gòu)、遙感圖像處理、機(jī)器學(xué)習(xí)。

    曹玉社(1990-),男,國(guó)防科學(xué)技術(shù)大學(xué)并行與分布處理重點(diǎn)實(shí)驗(yàn)室碩士生,主要研究方向?yàn)橛?jì)算機(jī)系統(tǒng)結(jié)構(gòu)、遙感圖像處理、機(jī)器學(xué)習(xí)。

    2016-08-20

    國(guó)家自然科學(xué)基金資助項(xiàng)目(No.U1435219, No.61402507)

    Foundation Items: The National Natural Science Foundation of China (No.U1435219, No.61402507)

    猜你喜歡
    飛行器機(jī)場(chǎng)深度
    機(jī)場(chǎng)罷工
    高超聲速飛行器
    深度理解一元一次方程
    如何避免GSM-R無(wú)線通信系統(tǒng)對(duì)機(jī)場(chǎng)電磁干擾
    深度觀察
    深度觀察
    深度觀察
    復(fù)雜飛行器的容錯(cuò)控制
    電子制作(2018年2期)2018-04-18 07:13:25
    面部識(shí)別使機(jī)場(chǎng)安檢提速
    最有創(chuàng)意的機(jī)場(chǎng)
    国产不卡一卡二| 国产精品久久久久久亚洲av鲁大| 国产一级毛片七仙女欲春2| 欧美三级亚洲精品| 日韩欧美在线乱码| 99热这里只有是精品50| 最近最新中文字幕大全电影3| 熟女少妇亚洲综合色aaa.| 欧美极品一区二区三区四区| 午夜福利成人在线免费观看| 伦理电影免费视频| 成人三级做爰电影| 成人18禁在线播放| 国产成人av激情在线播放| 日韩欧美国产在线观看| 国产精品久久电影中文字幕| 正在播放国产对白刺激| 脱女人内裤的视频| 在线国产一区二区在线| 99久久99久久久精品蜜桃| 久久久久免费精品人妻一区二区| 婷婷亚洲欧美| 欧美成人午夜精品| 一区二区三区高清视频在线| 亚洲 国产 在线| 18禁黄网站禁片免费观看直播| 美女午夜性视频免费| 婷婷六月久久综合丁香| 亚洲精品美女久久久久99蜜臀| 19禁男女啪啪无遮挡网站| 亚洲国产欧美人成| 亚洲精品中文字幕一二三四区| 免费看十八禁软件| 国产成人影院久久av| 亚洲成av人片免费观看| tocl精华| 非洲黑人性xxxx精品又粗又长| 亚洲一区高清亚洲精品| 国产久久久一区二区三区| 50天的宝宝边吃奶边哭怎么回事| 麻豆一二三区av精品| 少妇熟女aⅴ在线视频| 亚洲精品一卡2卡三卡4卡5卡| 久久婷婷成人综合色麻豆| 国产三级在线视频| 成人三级黄色视频| 他把我摸到了高潮在线观看| 免费高清视频大片| 免费看美女性在线毛片视频| 老鸭窝网址在线观看| 亚洲成av人片免费观看| 欧美色欧美亚洲另类二区| 欧美3d第一页| 欧美中文综合在线视频| 91大片在线观看| 看片在线看免费视频| 亚洲自偷自拍图片 自拍| 熟女电影av网| 午夜福利高清视频| 亚洲乱码一区二区免费版| 亚洲成人中文字幕在线播放| 黄色女人牲交| 变态另类丝袜制服| 午夜福利免费观看在线| а√天堂www在线а√下载| 18禁裸乳无遮挡免费网站照片| 欧美日韩一级在线毛片| 又爽又黄无遮挡网站| 观看免费一级毛片| 亚洲av成人一区二区三| 日本熟妇午夜| 国产视频一区二区在线看| 伊人久久大香线蕉亚洲五| 男女下面进入的视频免费午夜| 国产精品,欧美在线| 琪琪午夜伦伦电影理论片6080| 免费看美女性在线毛片视频| 1024视频免费在线观看| 亚洲一卡2卡3卡4卡5卡精品中文| xxxwww97欧美| 成人18禁在线播放| 91在线观看av| 欧美日韩瑟瑟在线播放| 欧美三级亚洲精品| 久久久国产欧美日韩av| 丰满人妻一区二区三区视频av | 18禁美女被吸乳视频| 男插女下体视频免费在线播放| 欧美色欧美亚洲另类二区| √禁漫天堂资源中文www| 99精品在免费线老司机午夜| 成人永久免费在线观看视频| 国产亚洲精品久久久久久毛片| 日韩精品青青久久久久久| 日韩精品免费视频一区二区三区| 国产不卡一卡二| 国产高清视频在线观看网站| 最近视频中文字幕2019在线8| 午夜免费激情av| 夜夜夜夜夜久久久久| 色尼玛亚洲综合影院| 日日夜夜操网爽| 欧美乱码精品一区二区三区| 国语自产精品视频在线第100页| 国产一级毛片七仙女欲春2| 男女午夜视频在线观看| 精品国产美女av久久久久小说| 亚洲精品粉嫩美女一区| 大型av网站在线播放| 在线观看午夜福利视频| 国产黄色小视频在线观看| 男女视频在线观看网站免费 | 欧美日韩瑟瑟在线播放| 一区二区三区高清视频在线| 亚洲欧美日韩无卡精品| 欧美黄色片欧美黄色片| 亚洲精品中文字幕一二三四区| 欧美人与性动交α欧美精品济南到| 91麻豆av在线| 国内精品久久久久精免费| 国内精品一区二区在线观看| 午夜视频精品福利| av在线播放免费不卡| 哪里可以看免费的av片| 免费搜索国产男女视频| 免费在线观看黄色视频的| 久久久国产成人精品二区| 精品国产乱子伦一区二区三区| 国产精品乱码一区二三区的特点| 老司机靠b影院| 天天躁狠狠躁夜夜躁狠狠躁| 国产91精品成人一区二区三区| 午夜亚洲福利在线播放| 亚洲一卡2卡3卡4卡5卡精品中文| 高清在线国产一区| 免费在线观看视频国产中文字幕亚洲| 夜夜看夜夜爽夜夜摸| 国产三级在线视频| 国产av不卡久久| 国产精品 国内视频| 操出白浆在线播放| 国产精品野战在线观看| 高清在线国产一区| netflix在线观看网站| 妹子高潮喷水视频| www日本黄色视频网| www.999成人在线观看| 亚洲五月天丁香| 国产日本99.免费观看| 丰满人妻熟妇乱又伦精品不卡| 中文字幕av在线有码专区| 欧美日韩精品网址| www.自偷自拍.com| 香蕉av资源在线| 一个人免费在线观看电影 | 可以在线观看的亚洲视频| www.精华液| 午夜日韩欧美国产| 精品不卡国产一区二区三区| 色在线成人网| www.999成人在线观看| 亚洲国产精品成人综合色| 亚洲人成伊人成综合网2020| 国产精品一区二区免费欧美| 国产伦一二天堂av在线观看| 久久香蕉精品热| 人人妻人人澡欧美一区二区| 国产成年人精品一区二区| 欧美在线一区亚洲| 久久久精品国产亚洲av高清涩受| 日本在线视频免费播放| 91九色精品人成在线观看| 欧美日韩黄片免| 黄色女人牲交| 亚洲性夜色夜夜综合| 亚洲五月婷婷丁香| 欧美另类亚洲清纯唯美| 国产1区2区3区精品| 国产精品亚洲一级av第二区| 国产三级在线视频| 床上黄色一级片| 一级片免费观看大全| aaaaa片日本免费| 99热这里只有是精品50| 日韩国内少妇激情av| av天堂在线播放| 亚洲精品美女久久av网站| 日韩大码丰满熟妇| 国产单亲对白刺激| 看黄色毛片网站| av中文乱码字幕在线| 亚洲精品一区av在线观看| 十八禁网站免费在线| 久久精品91无色码中文字幕| 国产亚洲欧美98| 窝窝影院91人妻| 黄色成人免费大全| 无遮挡黄片免费观看| 国产黄a三级三级三级人| 国产精品 国内视频| 国产单亲对白刺激| 中文字幕av在线有码专区| 日韩欧美 国产精品| 一进一出好大好爽视频| 精品免费久久久久久久清纯| av福利片在线| 九色国产91popny在线| 亚洲欧美精品综合一区二区三区| АⅤ资源中文在线天堂| 国产精品 国内视频| e午夜精品久久久久久久| 国产av麻豆久久久久久久| 亚洲中文字幕日韩| 国产真人三级小视频在线观看| 九九热线精品视视频播放| 亚洲五月婷婷丁香| 精品久久久久久成人av| 精品久久久久久久人妻蜜臀av| 国产精品亚洲一级av第二区| 色噜噜av男人的天堂激情| 国内毛片毛片毛片毛片毛片| 99热6这里只有精品| 两个人看的免费小视频| 欧美日韩精品网址| 村上凉子中文字幕在线| 淫秽高清视频在线观看| 最近在线观看免费完整版| 丰满人妻熟妇乱又伦精品不卡| 女人爽到高潮嗷嗷叫在线视频| 日本黄大片高清| 18禁国产床啪视频网站| 色精品久久人妻99蜜桃| 99热这里只有精品一区 | 操出白浆在线播放| 国产aⅴ精品一区二区三区波| 亚洲欧美精品综合一区二区三区| 精华霜和精华液先用哪个| 香蕉丝袜av| 欧美3d第一页| 国产亚洲精品一区二区www| 波多野结衣高清无吗| 亚洲精品美女久久av网站| 欧美乱妇无乱码| 午夜福利成人在线免费观看| 国产亚洲精品一区二区www| 日韩欧美国产一区二区入口| 精品久久久久久久毛片微露脸| bbb黄色大片| 丁香六月欧美| 两个人的视频大全免费| 亚洲精品色激情综合| 亚洲一码二码三码区别大吗| 精品欧美一区二区三区在线| 99国产精品一区二区三区| 国产野战对白在线观看| a级毛片a级免费在线| 中文字幕精品亚洲无线码一区| 亚洲av中文字字幕乱码综合| 国产精品久久久久久久电影 | 国产精品一区二区免费欧美| 激情在线观看视频在线高清| 男女下面进入的视频免费午夜| 最近最新中文字幕大全免费视频| 亚洲精品国产一区二区精华液| 成年版毛片免费区| 国产av一区二区精品久久| 国产成人影院久久av| 中文在线观看免费www的网站 | 色精品久久人妻99蜜桃| 老司机福利观看| 亚洲午夜精品一区,二区,三区| 国产av一区二区精品久久| 中亚洲国语对白在线视频| 欧美极品一区二区三区四区| 两性午夜刺激爽爽歪歪视频在线观看 | 老司机在亚洲福利影院| 国产高清激情床上av| 国产精品久久久久久人妻精品电影| 精品久久久久久成人av| 在线观看66精品国产| 一进一出好大好爽视频| 国产成人影院久久av| 黄色a级毛片大全视频| 日韩欧美 国产精品| 亚洲精品粉嫩美女一区| 99热6这里只有精品| 国产av麻豆久久久久久久| 国产精品影院久久| 久久中文字幕人妻熟女| 久久久久国产一级毛片高清牌| 欧美日韩瑟瑟在线播放| 亚洲成人中文字幕在线播放| 狠狠狠狠99中文字幕| 午夜福利成人在线免费观看| 欧美不卡视频在线免费观看 | 狂野欧美激情性xxxx| 一本大道久久a久久精品| 日本 av在线| 欧美成狂野欧美在线观看| 久久 成人 亚洲| 亚洲精品一区av在线观看| 性色av乱码一区二区三区2| 可以免费在线观看a视频的电影网站| 亚洲va日本ⅴa欧美va伊人久久| 亚洲国产看品久久| 91国产中文字幕| 麻豆一二三区av精品| 男女午夜视频在线观看| 日日干狠狠操夜夜爽| 99热这里只有精品一区 | 亚洲男人的天堂狠狠| 老司机深夜福利视频在线观看| 久久精品夜夜夜夜夜久久蜜豆 | 高清在线国产一区| 久久久久久免费高清国产稀缺| 色综合站精品国产| 又爽又黄无遮挡网站| 精品不卡国产一区二区三区| 十八禁网站免费在线| 午夜激情福利司机影院| 欧美日韩国产亚洲二区| 色在线成人网| 狠狠狠狠99中文字幕| xxx96com| 18禁观看日本| 色综合站精品国产| 久久久国产成人精品二区| 亚洲国产精品合色在线| 亚洲美女视频黄频| 久久性视频一级片| 免费一级毛片在线播放高清视频| 亚洲av成人不卡在线观看播放网| 国产精品精品国产色婷婷| 校园春色视频在线观看| 久久国产精品影院| 国产av不卡久久| 亚洲免费av在线视频| 老司机深夜福利视频在线观看| 91麻豆精品激情在线观看国产| 国产成人aa在线观看| 女人爽到高潮嗷嗷叫在线视频| 日本 av在线| 一级作爱视频免费观看| 国产精品亚洲美女久久久| 午夜福利欧美成人| 毛片女人毛片| 亚洲av片天天在线观看| 午夜影院日韩av| 欧美在线一区亚洲| 91老司机精品| 999精品在线视频| 90打野战视频偷拍视频| 精品久久蜜臀av无| av免费在线观看网站| 日本精品一区二区三区蜜桃| 老司机午夜十八禁免费视频| 国产精品一区二区三区四区免费观看 | 亚洲成人免费电影在线观看| 亚洲精品色激情综合| 亚洲人成伊人成综合网2020| 亚洲一区中文字幕在线| www.999成人在线观看| 国产97色在线日韩免费| 国产精品1区2区在线观看.| 久久香蕉国产精品| 精品午夜福利视频在线观看一区| 三级男女做爰猛烈吃奶摸视频| 哪里可以看免费的av片| 美女 人体艺术 gogo| 一二三四在线观看免费中文在| 亚洲av电影在线进入| 国产激情久久老熟女| 两个人的视频大全免费| 我要搜黄色片| 亚洲第一电影网av| 此物有八面人人有两片| 日本 欧美在线| 国内精品久久久久精免费| 最好的美女福利视频网| 中亚洲国语对白在线视频| 精品高清国产在线一区| 国产又色又爽无遮挡免费看| 国产欧美日韩一区二区精品| 免费在线观看视频国产中文字幕亚洲| 日韩欧美一区二区三区在线观看| 国产欧美日韩一区二区精品| 日韩国内少妇激情av| 岛国视频午夜一区免费看| 成年免费大片在线观看| 欧美成人午夜精品| 黄色视频不卡| 一卡2卡三卡四卡精品乱码亚洲| 国产精品综合久久久久久久免费| 制服丝袜大香蕉在线| 国产在线精品亚洲第一网站| 亚洲精品一区av在线观看| 亚洲五月婷婷丁香| 两性午夜刺激爽爽歪歪视频在线观看 | 免费观看人在逋| 亚洲av成人精品一区久久| 97人妻精品一区二区三区麻豆| 久久精品成人免费网站| 欧美 亚洲 国产 日韩一| 亚洲精品美女久久av网站| 熟女少妇亚洲综合色aaa.| 欧美+亚洲+日韩+国产| 日韩大码丰满熟妇| 熟妇人妻久久中文字幕3abv| 日韩欧美三级三区| 成人国语在线视频| 亚洲中文字幕一区二区三区有码在线看 | 日韩成人在线观看一区二区三区| 又大又爽又粗| 国产成+人综合+亚洲专区| 亚洲精品美女久久久久99蜜臀| 亚洲第一欧美日韩一区二区三区| 国产午夜福利久久久久久| 91av网站免费观看| www.熟女人妻精品国产| 精品人妻1区二区| 国产成人影院久久av| 久久精品亚洲精品国产色婷小说| 免费在线观看完整版高清| 又爽又黄无遮挡网站| 日韩欧美 国产精品| 最近最新免费中文字幕在线| netflix在线观看网站| 美女高潮喷水抽搐中文字幕| 色av中文字幕| 老汉色∧v一级毛片| 久久久久久久精品吃奶| 亚洲av成人一区二区三| 国产精品免费一区二区三区在线| 成人永久免费在线观看视频| 神马国产精品三级电影在线观看 | 亚洲人成网站在线播放欧美日韩| 丝袜美腿诱惑在线| 99热这里只有是精品50| 国产真人三级小视频在线观看| 亚洲人成电影免费在线| 激情在线观看视频在线高清| 久久精品91蜜桃| 制服丝袜大香蕉在线| 人妻丰满熟妇av一区二区三区| 精华霜和精华液先用哪个| 免费在线观看黄色视频的| 亚洲专区国产一区二区| 日韩欧美免费精品| 看片在线看免费视频| 日韩欧美三级三区| 色尼玛亚洲综合影院| 亚洲自拍偷在线| 无人区码免费观看不卡| 国产午夜福利久久久久久| 亚洲黑人精品在线| 亚洲专区字幕在线| 女生性感内裤真人,穿戴方法视频| 日本三级黄在线观看| 2021天堂中文幕一二区在线观| 国产成人aa在线观看| 国产99白浆流出| 久久精品91无色码中文字幕| 一本综合久久免费| 变态另类丝袜制服| 一本精品99久久精品77| 亚洲精品久久成人aⅴ小说| 久久精品国产99精品国产亚洲性色| 91字幕亚洲| 国产精品美女特级片免费视频播放器 | 法律面前人人平等表现在哪些方面| 人人妻,人人澡人人爽秒播| a在线观看视频网站| 在线十欧美十亚洲十日本专区| 免费观看人在逋| 欧美高清成人免费视频www| 久久精品影院6| 男女那种视频在线观看| 丰满的人妻完整版| 特大巨黑吊av在线直播| 人人妻人人澡欧美一区二区| bbb黄色大片| 欧美日韩黄片免| 嫁个100分男人电影在线观看| 国产精品国产高清国产av| 亚洲激情在线av| 国内久久婷婷六月综合欲色啪| www日本黄色视频网| 久久精品国产99精品国产亚洲性色| 熟女电影av网| 日日干狠狠操夜夜爽| 9191精品国产免费久久| 在线免费观看的www视频| 欧美国产日韩亚洲一区| 男女下面进入的视频免费午夜| 校园春色视频在线观看| 五月伊人婷婷丁香| 少妇的丰满在线观看| 最好的美女福利视频网| aaaaa片日本免费| 欧美又色又爽又黄视频| 18禁黄网站禁片午夜丰满| 身体一侧抽搐| 亚洲精品久久国产高清桃花| 国产伦一二天堂av在线观看| 极品教师在线免费播放| 一区二区三区国产精品乱码| 久久久久久久午夜电影| 精品国内亚洲2022精品成人| 免费在线观看完整版高清| 国产人伦9x9x在线观看| 美女免费视频网站| 久久草成人影院| 无遮挡黄片免费观看| e午夜精品久久久久久久| 亚洲精品在线观看二区| 99久久国产精品久久久| 亚洲精品一卡2卡三卡4卡5卡| 欧美黑人巨大hd| 国产精品一区二区三区四区免费观看 | 亚洲欧美激情综合另类| 国内少妇人妻偷人精品xxx网站 | 久9热在线精品视频| 人妻夜夜爽99麻豆av| 制服诱惑二区| 免费在线观看影片大全网站| 久久香蕉激情| 国产高清视频在线播放一区| 久99久视频精品免费| 麻豆久久精品国产亚洲av| 欧美人与性动交α欧美精品济南到| 妹子高潮喷水视频| 最近在线观看免费完整版| 成人av一区二区三区在线看| 久久久久国内视频| 亚洲国产高清在线一区二区三| 十八禁人妻一区二区| 亚洲专区国产一区二区| 久久天躁狠狠躁夜夜2o2o| 手机成人av网站| 老鸭窝网址在线观看| 激情在线观看视频在线高清| 黄频高清免费视频| www日本在线高清视频| 黄频高清免费视频| 老司机深夜福利视频在线观看| 国产成人精品久久二区二区91| 天天一区二区日本电影三级| 两个人视频免费观看高清| 日韩精品中文字幕看吧| 久久久久久久精品吃奶| 在线十欧美十亚洲十日本专区| 色综合站精品国产| 精品第一国产精品| 18禁黄网站禁片免费观看直播| 久久中文字幕人妻熟女| 校园春色视频在线观看| 手机成人av网站| 日韩欧美一区二区三区在线观看| 人成视频在线观看免费观看| 久久久精品国产亚洲av高清涩受| 91九色精品人成在线观看| 亚洲片人在线观看| www国产在线视频色| 精品人妻1区二区| 美女 人体艺术 gogo| 人人妻,人人澡人人爽秒播| 成人国语在线视频| 成人三级黄色视频| 中出人妻视频一区二区| 一区福利在线观看| 午夜久久久久精精品| 亚洲18禁久久av| 窝窝影院91人妻| 中文字幕熟女人妻在线| 国产伦一二天堂av在线观看| 亚洲欧美一区二区三区黑人| www日本在线高清视频| 免费搜索国产男女视频| 国产精品免费视频内射| 18禁裸乳无遮挡免费网站照片| 动漫黄色视频在线观看| 国产欧美日韩一区二区精品| 日本免费一区二区三区高清不卡| x7x7x7水蜜桃| 97人妻精品一区二区三区麻豆| 午夜福利成人在线免费观看| 日韩欧美一区二区三区在线观看| 91大片在线观看| 黄色视频不卡| 国产亚洲精品av在线| 日日干狠狠操夜夜爽| 一级黄色大片毛片| 麻豆国产av国片精品| 成人av一区二区三区在线看| 国产日本99.免费观看| 啦啦啦免费观看视频1| 伦理电影免费视频| 亚洲精品美女久久av网站| 亚洲av成人一区二区三| 两个人视频免费观看高清| 久热爱精品视频在线9| 亚洲五月婷婷丁香| 伊人久久大香线蕉亚洲五| 国产97色在线日韩免费| 日本 av在线| 亚洲人成网站高清观看| 亚洲av日韩精品久久久久久密| 欧美乱色亚洲激情| 欧美黑人巨大hd| 妹子高潮喷水视频| 非洲黑人性xxxx精品又粗又长| 一级a爱片免费观看的视频| 国产精品 欧美亚洲| 男女床上黄色一级片免费看| 一区二区三区国产精品乱码|