• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    衛(wèi)星影像匹配的深度卷積神經(jīng)網(wǎng)絡(luò)方法

    2018-06-25 03:17:14范大昭張永生
    測(cè)繪學(xué)報(bào) 2018年6期
    關(guān)鍵詞:深度特征方法

    范大昭,董 楊,張永生

    信息工程大學(xué)地理空間信息學(xué)院,河南 鄭州 450001

    近年來(lái),遙感信息數(shù)據(jù)處理進(jìn)入大數(shù)據(jù)時(shí)代[1-2],衛(wèi)星影像呈井噴式涌現(xiàn),人們對(duì)影像處理技術(shù)的準(zhǔn)確性和時(shí)效性提出了較高要求。處理衛(wèi)星影像的基礎(chǔ)性工作之一是進(jìn)行影像間的匹配。通常的影像匹配思路是:首先進(jìn)行影像特征點(diǎn)檢測(cè),然后進(jìn)行特征點(diǎn)描述,最后進(jìn)行描述符間的相似性匹配。傳統(tǒng)的影像特征點(diǎn)檢測(cè)算法主要包括:高斯拉普拉斯(Laplace of Gaussian,LOG)檢測(cè)算法[3]、Harris檢測(cè)算法[4]、SIFT(scale-invariant feature transform)檢測(cè)算法[5]等。常用的影像特征描述符主要包括:SIFT特征描述符及其衍生算法[6-7]、brief特征描述符及其衍生算法[8-9]等。影像描述符間的匹配實(shí)現(xiàn)則主要是通過(guò)近似最鄰近搜索,以找到描述符之間歐氏距離最短的對(duì)應(yīng)特征點(diǎn)[10-11]。針對(duì)于描述符能否對(duì)具體問(wèn)題進(jìn)行自適應(yīng)優(yōu)化,可將描述符分為兩種:面向結(jié)構(gòu)的描述符和面向?qū)ο蟮拿枋龇F渲?,面向結(jié)構(gòu)的描述符是指具有固定流程參數(shù)的特征描述符,面向?qū)ο蟮拿枋龇侵改軌蛎嫦蚓唧w問(wèn)題自適應(yīng)生成流程參數(shù)的特征描述符。傳統(tǒng)的手工設(shè)計(jì)描述符能夠在某些方面具有較好的普適表現(xiàn)(如抗尺度變化、抗仿射變化等),但大多是面向結(jié)構(gòu)的描述符,其對(duì)于具體衛(wèi)星影像中內(nèi)含的先驗(yàn)?zāi)J?,很難實(shí)現(xiàn)有針對(duì)性的優(yōu)化。在大多數(shù)具體問(wèn)題中,涉及的衛(wèi)星影像多為單個(gè)或數(shù)個(gè)相機(jī)遠(yuǎn)距離成像拍攝而來(lái),成像對(duì)象也多為山區(qū)、平地、居民地、湖泊等多種類型,同一類型對(duì)象在衛(wèi)星影像上呈現(xiàn)出一定規(guī)律的內(nèi)蘊(yùn)模式。若能充分利用這些良好的先驗(yàn)特性,則有望進(jìn)一步提高衛(wèi)星影像的匹配正確率與數(shù)據(jù)處理效率。因此,設(shè)計(jì)一種面向?qū)ο蟮钠ヅ淞鞒?,尋找衛(wèi)星影像內(nèi)蘊(yùn)的先驗(yàn)?zāi)J?,?shí)現(xiàn)具體問(wèn)題的自適應(yīng)處理,以進(jìn)一步提高衛(wèi)星影像的匹配豐富度與準(zhǔn)確率,具有重要的研究意義。

    當(dāng)前,隨著計(jì)算機(jī)軟硬件水平的提升,深度學(xué)習(xí)方法發(fā)展迅猛,在計(jì)算機(jī)視覺、機(jī)器視覺、模式識(shí)別等相關(guān)領(lǐng)域得到了廣泛應(yīng)用。深度學(xué)習(xí)方法一般是指利用含多個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行經(jīng)驗(yàn)數(shù)據(jù)的自動(dòng)擬合,得到先驗(yàn)參數(shù),據(jù)此實(shí)現(xiàn)對(duì)新數(shù)據(jù)的自動(dòng)處理。深度學(xué)習(xí)方法是一種典型的面向?qū)ο蠓椒?,能夠針?duì)具體的數(shù)據(jù)目標(biāo)進(jìn)行優(yōu)化,具有較大的應(yīng)用潛力。近年來(lái),有不少學(xué)者利用深度學(xué)習(xí)方法進(jìn)行了影像局部描述符提取的研究。其中,文獻(xiàn)[12]利用卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行了窄基線下的影像立體匹配研究;文獻(xiàn)[13]研究了多種神經(jīng)網(wǎng)絡(luò)模型在影像塊匹配中的性能;文獻(xiàn)[14]則設(shè)計(jì)了一種MatchNet模型,進(jìn)行影像特征描述符的提取與匹配。然而,這些研究多是面向較為雜亂的近景影像處理問(wèn)題,對(duì)衛(wèi)星影像中的匹配問(wèn)題卻少有涉及。

    傳統(tǒng)的面向結(jié)構(gòu)的影像匹配算法并不能很好地處理異源、多時(shí)相及多分辨率衛(wèi)星影像間的匹配問(wèn)題。衛(wèi)星影像相對(duì)近景影像,影像目標(biāo)相對(duì)較為單一,內(nèi)容變化相對(duì)簡(jiǎn)單。本文試圖通過(guò)深度學(xué)習(xí)方法,將近年來(lái)發(fā)展較快的神經(jīng)網(wǎng)絡(luò)技術(shù)運(yùn)用到衛(wèi)星影像特征匹配中,自動(dòng)學(xué)習(xí)影像間的匹配模式,實(shí)現(xiàn)一種面向?qū)ο蟮男l(wèi)星影像間自動(dòng)匹配流程,得到更為豐富和更高準(zhǔn)確率的匹配點(diǎn)對(duì)。

    1 影像特征點(diǎn)匹配算法

    1.1 卷積神經(jīng)網(wǎng)絡(luò)

    早期神經(jīng)網(wǎng)絡(luò)也稱為多層感知機(jī)[15],在層內(nèi)使用激勵(lì)函數(shù)進(jìn)行響應(yīng),層間使用全連接進(jìn)行數(shù)據(jù)傳遞,訓(xùn)練中使用反向傳播(back propagation,BP)算法[16]進(jìn)行學(xué)習(xí),如圖1所示。假設(shè)P={p1,p2,…,pn}為層輸入,Q={q1,q2,…,qm}為層輸出,則在全連接神經(jīng)網(wǎng)絡(luò)中對(duì)于第i個(gè)輸出qi,其計(jì)算為

    (1)

    式中,W={w1,w2,…,wn}為權(quán)重向量,b為偏差值,f(x)為激勵(lì)函數(shù)。

    然而,由式(1)及圖1可以看出,隨著神經(jīng)網(wǎng)絡(luò)層數(shù)的不斷增加,待訓(xùn)練的網(wǎng)絡(luò)參數(shù)急劇增長(zhǎng),網(wǎng)絡(luò)參數(shù)求解越發(fā)困難。針對(duì)這一問(wèn)題,可采用“卷積核”簡(jiǎn)化神經(jīng)網(wǎng)絡(luò),從而極大縮減待求參數(shù),進(jìn)一步提高訓(xùn)練過(guò)程的魯棒性,如圖2所示。對(duì)于二維離散影像I(x,y),對(duì)其利用卷積核f(s,t)進(jìn)行操作,可得到新影像I′(x,y),計(jì)算式如下

    (2)

    在卷積神經(jīng)網(wǎng)絡(luò)中,利用式(2)代替式(1)中的WTP項(xiàng),從而可減少待求參數(shù)數(shù)量,增加整體網(wǎng)絡(luò)的穩(wěn)健性。

    圖1 典型全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.1 Typical fully connected neural network structure

    1.2 基于深度卷積神經(jīng)網(wǎng)絡(luò)的影像匹配模型

    提升卷積神經(jīng)網(wǎng)絡(luò)處理性能的方法之一是增加網(wǎng)絡(luò)層數(shù),形成深度卷積神經(jīng)網(wǎng)絡(luò),已有不少學(xué)者對(duì)此進(jìn)行了研究,取得了一些研究成果[17-18]。然而,現(xiàn)有的研究多是針對(duì)近景影像,且目標(biāo)多是影像分類或模式識(shí)別,對(duì)于衛(wèi)星影像間的匹配問(wèn)題少有研究。本文在已有的用于影像分類的神經(jīng)網(wǎng)絡(luò)模型基礎(chǔ)上,通過(guò)模型優(yōu)化,使新的神經(jīng)網(wǎng)絡(luò)模型更加適用于衛(wèi)星影像匹配,從而實(shí)現(xiàn)一種面向?qū)ο蟮挠跋衿ヅ淠P汀?/p>

    圖2 典型卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Fig.2 Typical convolution neural network structure

    1.2.1 兩通道深度卷積神經(jīng)網(wǎng)絡(luò)

    傳統(tǒng)意義的影像分類神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練分為兩部分輸入:一是影像數(shù)據(jù),二是影像對(duì)應(yīng)的標(biāo)簽數(shù)據(jù)。前者提供了神經(jīng)網(wǎng)絡(luò)的實(shí)際輸入值,后者提供了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出值。前者經(jīng)過(guò)前饋網(wǎng)絡(luò)計(jì)算標(biāo)簽輸出值,后者結(jié)合標(biāo)簽輸出值經(jīng)過(guò)后饋網(wǎng)絡(luò)調(diào)整網(wǎng)絡(luò)參數(shù)值,從而實(shí)現(xiàn)整體神經(jīng)網(wǎng)絡(luò)的不斷迭代優(yōu)化。衛(wèi)星影像特征點(diǎn)的匹配,實(shí)質(zhì)是進(jìn)行特征點(diǎn)對(duì)局部影像灰度的分析比較,從而判斷是否為同名點(diǎn)對(duì)。因此,可將待比較的特征點(diǎn)對(duì)局部影像看作為兩通道影像(彩色影像可看為六通道,原理與兩通道相同,下文不再單獨(dú)論述),作為神經(jīng)網(wǎng)絡(luò)的影像輸入值。其中兩個(gè)通道值分別對(duì)應(yīng)兩個(gè)待匹配點(diǎn)的局部灰度值。對(duì)應(yīng)的影像數(shù)據(jù)標(biāo)簽可分為兩類:一類是正確同名點(diǎn)對(duì)局部影像合成的兩通道影像,另一類是錯(cuò)誤同名點(diǎn)對(duì)局部影像合成的兩通道影像。由此,衛(wèi)星影像的匹配問(wèn)題可轉(zhuǎn)換為兩通道影像的分類問(wèn)題。

    在文獻(xiàn)[13]研究成果的基礎(chǔ)上,本文設(shè)計(jì)了兩通道深度卷積神經(jīng)網(wǎng)絡(luò)(2 channel deep convolution neural network,2chDCNN),如圖3所示。2chDCNN輸入數(shù)據(jù)為待匹配點(diǎn)對(duì)局部影像合成的兩通道影像,輸出數(shù)據(jù)為1維標(biāo)量。首先,進(jìn)行4次卷積和ReLu操作;然后,進(jìn)行MaxPooling操作;隨后,再進(jìn)行3次卷積和ReLu操作;最后,進(jìn)行扁平化與兩次全連接操作。兩通道深度卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建簡(jiǎn)單、易于訓(xùn)練,能夠自動(dòng)學(xué)習(xí)衛(wèi)星影像間的匹配模式,實(shí)現(xiàn)了面向?qū)ο蟮钠ヅ溥^(guò)程。但其輸入局部影像塊為固定大小,在衛(wèi)星影像尺度學(xué)習(xí)方面有一定缺陷,還需進(jìn)一步優(yōu)化。

    圖3 兩通道深度卷積網(wǎng)絡(luò)Fig.3 2 channel deep convolution neural network

    1.2.2 優(yōu)化的兩通道深度卷積神經(jīng)網(wǎng)絡(luò)

    結(jié)合傳統(tǒng)數(shù)字?jǐn)z影測(cè)量中特征描述符的提取過(guò)程,分析傳統(tǒng)特征描述符的抗尺度變換特性,本文在兩通道深度卷積神經(jīng)網(wǎng)絡(luò)前端,加入空間尺度卷積層,以加強(qiáng)整體網(wǎng)絡(luò)的抗尺度特性??紤]到sift特征提取過(guò)程中,尺度空間是保證sift特征具有良好抗尺度變換特性的重要因素之一。因此,可對(duì)輸入影像進(jìn)行金字塔影像生成處理,并加入兩層卷積層用于模擬整體尺度空間的生成過(guò)程。為保證隨后處理過(guò)程的簡(jiǎn)潔,將金字塔影像復(fù)制擴(kuò)展到原始影像維度,如圖4所示。這樣兩通道影像經(jīng)過(guò)金字塔處理變?yōu)榱ǖ烙跋?,?jīng)過(guò)空間卷積層處理變?yōu)槌叨忍卣饔跋?,再進(jìn)行2chDCNN中的深度卷積神經(jīng)網(wǎng)絡(luò)處理。在處理過(guò)程中,變換后的六通道影像對(duì)應(yīng)標(biāo)簽依然為原始標(biāo)簽值。

    圖5即為設(shè)計(jì)的基于空間尺度的兩通道深度卷積神經(jīng)網(wǎng)絡(luò)(based-spatial-scale 2 channel deep convolution neural network,BSS-2chDCNN)。由于在2chDCNN網(wǎng)絡(luò)前端加入了空間尺度卷積層,使其能更好地學(xué)習(xí)局部影像間的尺度模式,增加了整體模型的魯棒性。

    圖4 神經(jīng)網(wǎng)絡(luò)中影像金字塔過(guò)程Fig.4 Image pyramid process in neural network

    圖5 基于空間尺度的兩通道深度卷積網(wǎng)絡(luò)Fig.5 Based-spatial-scale 2 channel deep convolution neural network

    1.3 基于深度卷積神經(jīng)網(wǎng)絡(luò)的衛(wèi)星影像匹配

    考慮到之前論述的深度卷積神經(jīng)網(wǎng)絡(luò)模型與衛(wèi)星影像的特殊性,設(shè)計(jì)如下的衛(wèi)星影像匹配流程:①特征點(diǎn)檢測(cè);②基于衛(wèi)星輔助參數(shù)的特征點(diǎn)對(duì)預(yù)匹配;③基于神經(jīng)網(wǎng)絡(luò)的局部影像模式匹配。具體匹配流程如圖6所示。

    圖6 基于深度卷積神經(jīng)網(wǎng)絡(luò)的衛(wèi)星影像匹配流程Fig.6 Satellite image matching process based on deep convolution neural network

    上述流程中,步驟①中特征點(diǎn)檢測(cè)可采用傳統(tǒng)的Harris角點(diǎn)檢測(cè)算子等方法進(jìn)行實(shí)現(xiàn);步驟②中特征點(diǎn)對(duì)預(yù)匹配是指利用衛(wèi)星影像概率地理坐標(biāo)信息進(jìn)行匹配點(diǎn)對(duì)范圍約束,從而縮短整體匹配時(shí)間;步驟③中采用深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)約束范圍內(nèi)的匹配點(diǎn)對(duì)進(jìn)行遍歷匹配判斷,對(duì)于每一點(diǎn)取概率得分最高且大于閾值者為最佳匹配點(diǎn)。

    2 試驗(yàn)及結(jié)果分析

    試驗(yàn)首先著重對(duì)深度卷積神經(jīng)網(wǎng)絡(luò)模型匹配的可行性進(jìn)行分析,然后進(jìn)行實(shí)際衛(wèi)星影像的匹配試驗(yàn),并設(shè)計(jì)了與10種傳統(tǒng)衛(wèi)星影像匹配方法的對(duì)比試驗(yàn)。試驗(yàn)硬件平臺(tái)采用Intel i7 CPU、GTX 980M GPU以及16G內(nèi)存配置,采用Torch7[19]、MXNet(arXiv:1410.0759,2014)及英偉達(dá)cuDNN(arXiv:1107.2490,2011)實(shí)現(xiàn)具體深度卷積神經(jīng)網(wǎng)絡(luò)匹配流程。

    2.1 兩通道深度卷積神經(jīng)網(wǎng)絡(luò)匹配試驗(yàn)

    試驗(yàn)采用兩組數(shù)據(jù),具體參數(shù)及部分影像截圖如表1及圖7所示。GFG數(shù)據(jù)集中,谷歌影像為高分辨率正射拼接影像,高分四號(hào)衛(wèi)星影像為較低分辨率的原始傾斜影像。由圖7可以看出,谷歌及高分四號(hào)衛(wèi)星影像由于分辨率及影像獲取環(huán)境的不同,同名特征點(diǎn)對(duì)相同大小局部區(qū)域的影像灰度特征差別較大,采用傳統(tǒng)匹配算法進(jìn)行影像匹配難度較大。由于使用的影像具有不同的空間分辨率,GFG數(shù)據(jù)集可以較好地驗(yàn)證本文算法提出的空間尺度卷積層的效用。THD數(shù)據(jù)集為天繪衛(wèi)星三線陣相機(jī)拍攝的影像,可用于進(jìn)一步驗(yàn)證本文提出模型的有效性。

    表1 試驗(yàn)數(shù)據(jù)信息介紹

    圖7 試驗(yàn)數(shù)據(jù)部分示意Fig.7 Display of experimental data

    試驗(yàn)中提取局部影像塊的尺寸為32×32像素,網(wǎng)絡(luò)訓(xùn)練最大迭代次數(shù)設(shè)置為100次,訓(xùn)練塊大小設(shè)置為256,采用ASGD(average stochastic gradient descent)方法[22]進(jìn)行網(wǎng)絡(luò)參數(shù)優(yōu)化,學(xué)習(xí)率設(shè)置為0.1,權(quán)重下降值設(shè)置為0.000 5。

    試驗(yàn)中采用TPR(true positive rate)、FPR95(false positive rate at 95% recall)與ROC(receiver operating characteristic)曲線進(jìn)行模型性能的評(píng)估。其中,TPR表征的是模型測(cè)試的正確率;FPR95表征的是模型在召回率為95%情況下的錯(cuò)判率(false positive rate,F(xiàn)PR);ROC曲線橫軸為FPR值,縱軸為對(duì)應(yīng)TPR值[21-22]。其中,TPR與FPR的計(jì)算公式如下所示

    (3)

    (4)

    圖8 GFG訓(xùn)練集TPR統(tǒng)計(jì)Fig.8 TPR results of GFG training set

    由圖8可以看出:利用GFG數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí),優(yōu)化的BSS-2chDCNN模型能夠在迭代計(jì)算13次后就達(dá)到99%的訓(xùn)練集正確率,而2chDCNN模型則要迭代計(jì)算74次后才能達(dá)到99%的訓(xùn)練集正確率。這說(shuō)明優(yōu)化模型中空間尺度卷積層發(fā)揮了積極效用,能夠迅速地學(xué)習(xí)影像匹配模式中的尺度因子,從而極大地減少了模型迭代訓(xùn)練次數(shù)。由圖8可以看出利用GFG數(shù)據(jù)集進(jìn)行測(cè)試時(shí),優(yōu)化的BSS-2chDCNN模型相對(duì)2chDCNN模型具有較低的FPR95值以及較好的ROC曲線。由此也說(shuō)明了BSS-2chDCNN模型相對(duì)2chDCNN模型具有較好的穩(wěn)健性。

    圖9 GFG測(cè)試集ROC曲線統(tǒng)計(jì)Fig.9 ROC results of GFG test set

    利用THD數(shù)據(jù)集進(jìn)一步測(cè)試BSS-2chDCNN模型,部分計(jì)算結(jié)果如表2所示。

    表2 THD數(shù)據(jù)集試驗(yàn)結(jié)果統(tǒng)計(jì)

    由表2可以看出,本文設(shè)計(jì)的BSS-2chDCNN模型能夠較好地處理THD數(shù)據(jù)集影像,具有較好的穩(wěn)健性。這進(jìn)一步驗(yàn)證了利用深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行衛(wèi)星影像匹配的可行性。

    2.2 基于深度卷積神經(jīng)網(wǎng)絡(luò)的衛(wèi)星影像匹配試驗(yàn)

    采用某區(qū)域高分四號(hào)衛(wèi)星影像與谷歌衛(wèi)星影像數(shù)據(jù)進(jìn)行試驗(yàn),如圖10所示。高分四號(hào)衛(wèi)星影像大小為1625×1625像素,分辨率約為70 m;谷歌衛(wèi)星影像大小為1855×1855像素,分辨率約為50 m。試驗(yàn)數(shù)據(jù)為典型的異源、多時(shí)相、多分辨率影像,利用其進(jìn)行對(duì)比試驗(yàn),能夠在一定程度上檢測(cè)本文算法的性能。

    試驗(yàn)設(shè)計(jì)了與多種常用影像匹配方法的對(duì)比,包括SIFT特征提取與描述方法[5]、SURF特征提取與描述方法[7]、KAZE特征提取與描述方法[23]、AKAZE特征提取與描述方法[24]、ORB特征提取與描述方法[25]、BRISK特征提取與描述方法[26]、FAST特征提取方法[27]、AGAST特征提取方法[28]、Harris特征提取方法[29]、Shi-Tomasi特征提取方法[30]等。具體對(duì)比試驗(yàn)方法設(shè)計(jì)如表3所示。

    圖10 匹配對(duì)比試驗(yàn)影像數(shù)據(jù)示意Fig.10 Image data for matching contrast experiment

    試驗(yàn)序號(hào)特征檢測(cè)方法描述符生成方法描述符匹配方法1SIFTSIFTANN2SURFSURFANN3KAZEKAZEBF4AKAZEAKAZEBF5ORBORBBF-Hamming6BRISKBRISKBF7FASTSIFTANN8AGASTSIFTANN9HarrisSIFTANN10Shi-TomasiSIFTANN

    描述符匹配方法中,SIFT與SURF描述符采用快速近似最近鄰(approximate nearest neighbor,ANN)方法進(jìn)行搜索,利用歐氏距離進(jìn)行相似性判斷;KAZE、AKAZE與BRISK描述符采用暴力搜索(brute force,BF)方法進(jìn)行搜索,利用歐氏距離進(jìn)行相似性判斷;ORB描述符采用暴力搜索方法進(jìn)行搜索,利用漢明距離進(jìn)行相似性判斷。在設(shè)計(jì)的10種試驗(yàn)中,為了便于進(jìn)行定量對(duì)比,基于深度卷積神經(jīng)網(wǎng)絡(luò)的衛(wèi)星影像匹配試驗(yàn),采用對(duì)應(yīng)特征檢測(cè)算法進(jìn)行衛(wèi)星影像特征點(diǎn)的檢測(cè),設(shè)置尋找待匹配點(diǎn)的范圍大小為51×51像素,得分最低閾值設(shè)置為0.9,深度卷積神經(jīng)網(wǎng)絡(luò)采用BSS-2chDCNN模型,并利用GFG數(shù)據(jù)集進(jìn)行預(yù)先訓(xùn)練。最終試驗(yàn)結(jié)果如表4及圖11至圖20所示。

    圖11至圖20中,每張小圖上半部分為谷歌衛(wèi)星影像,下半部分為高分四號(hào)衛(wèi)星影像;圖11—20中(a)圖為檢測(cè)到的特征點(diǎn)分布示意圖,藍(lán)色點(diǎn)為檢測(cè)到的特征點(diǎn),對(duì)應(yīng)表4中的谷歌影像提取特征點(diǎn)數(shù)與高分影像提取特征點(diǎn)數(shù)兩欄;圖11—20中(b)圖為傳統(tǒng)匹配方法得到的匹配點(diǎn)對(duì)結(jié)果示意圖,青色線為匹配特征點(diǎn)對(duì)間的連線,對(duì)應(yīng)表4中傳統(tǒng)方法匹配數(shù)一欄;圖11—20中(c)圖為基于BSS-2chDCNN方法得到的匹配點(diǎn)對(duì)結(jié)果示意圖,青色線為匹配特征點(diǎn)對(duì)間的連線,對(duì)應(yīng)表4中基于BSS-2chDCNN方法匹配數(shù)一欄。可以看出,在相同特征檢測(cè)點(diǎn)的情況下,本文方法能夠得到更為豐富的匹配結(jié)果。

    表4 匹配結(jié)果統(tǒng)計(jì)信息

    圖12 SURF對(duì)比試驗(yàn)結(jié)果Fig.12 Matching results based on SURF

    圖13 KAZE對(duì)比試驗(yàn)結(jié)果Fig.13 Matching results based on KAZE

    圖14 AKAZE對(duì)比試驗(yàn)結(jié)果Fig.14 Matching results based on AKAZE

    圖15 ORB對(duì)比試驗(yàn)結(jié)果Fig.15 Matching results based on ORB

    圖17 FAST+sift對(duì)比試驗(yàn)結(jié)果Fig.17 Matching results based on FAST+sift

    利用傳統(tǒng)方法和本文方法分別進(jìn)行匹配試驗(yàn)后,為了進(jìn)一步對(duì)匹配結(jié)果進(jìn)行分析,對(duì)其進(jìn)行RANSAC(random sample consensus)提純[11]并統(tǒng)計(jì)相應(yīng)正確率,結(jié)果如表4。需要說(shuō)明的是,試驗(yàn)中是利用基本矩陣模型進(jìn)行的RANSAC提純操作,誤匹配點(diǎn)對(duì)被全部剔除,但同時(shí)一些正確匹配點(diǎn)對(duì)也會(huì)被當(dāng)作誤匹配點(diǎn)對(duì)剔除。由表4可以看出,對(duì)于本文試驗(yàn)數(shù)據(jù)而言,對(duì)比試驗(yàn)中的10種傳統(tǒng)特征匹配流程未能得到或僅得到較少的匹配點(diǎn)對(duì),而本文提出的方法則能夠提出較為豐富且準(zhǔn)確率較高的匹配點(diǎn)對(duì),最終匹配提純結(jié)果的正確率在90%以上。這進(jìn)一步說(shuō)明本文設(shè)計(jì)的基于深度卷積神經(jīng)網(wǎng)絡(luò)的衛(wèi)星影像匹配方法的正確性和可行性。

    圖18 Agast+sift對(duì)比試驗(yàn)結(jié)果Fig.18 Matching results based on Agast+sift

    圖19 Harris+sift對(duì)比試驗(yàn)結(jié)果Fig.19 Matching results based on Harris+sift

    圖20 Shi-Tomasi+sift對(duì)比試驗(yàn)結(jié)果Fig.20 Matching results based on Shi-Tomasi+sift

    3 結(jié)束語(yǔ)

    影像匹配是數(shù)字?jǐn)z影測(cè)量與計(jì)算機(jī)視覺中重要的研究課題,如何高效、穩(wěn)健地進(jìn)行基于特征的影像匹配是眾多學(xué)者的研究方向。本文結(jié)合深度卷積神經(jīng)網(wǎng)絡(luò)思想,從另一個(gè)角度對(duì)這一經(jīng)典問(wèn)題進(jìn)行了研究,實(shí)現(xiàn)了一種面向?qū)ο蟮男l(wèi)星影像匹配方法。本文設(shè)計(jì)了一種兩通道深度卷積神經(jīng)網(wǎng)絡(luò)模型,并在此基礎(chǔ)上進(jìn)行優(yōu)化,設(shè)計(jì)提出一種空間尺度卷積層結(jié)構(gòu),用于解決神經(jīng)網(wǎng)絡(luò)訓(xùn)練中輸入數(shù)據(jù)的多尺度問(wèn)題。在此基礎(chǔ)上,設(shè)計(jì)了基于深度卷積神經(jīng)網(wǎng)絡(luò)的衛(wèi)星影像匹配流程,實(shí)現(xiàn)了面向?qū)ο蟮男l(wèi)星影像匹配。試驗(yàn)表明,本文提出的兩通道深度卷積神經(jīng)網(wǎng)絡(luò)模型及其優(yōu)化網(wǎng)絡(luò)模型,能夠較好地進(jìn)行衛(wèi)星影像匹配模式的學(xué)習(xí),基于深度卷積神經(jīng)網(wǎng)絡(luò)的影像匹配能夠較好地進(jìn)行衛(wèi)星影像間的高效、穩(wěn)健匹配。

    參考文獻(xiàn):

    [1] 李德仁. 展望大數(shù)據(jù)時(shí)代的地球空間信息學(xué)[J]. 測(cè)繪學(xué)報(bào), 2016, 45(4): 379-384. DOI: 10.11947/j.AGCS.2016.20160057.

    LI Deren. Towards Geo-spatial Information Science in Big Data Era[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(4): 379-384. DOI: 10.11947/j.AGCS.2016.20160057.

    [2] 李德仁, 張良培, 夏桂松. 遙感大數(shù)據(jù)自動(dòng)分析與數(shù)據(jù)挖掘[J]. 測(cè)繪學(xué)報(bào), 2014, 43(12): 1211-1216. DOI: 10.13485/j.cnki.11-2089.2014.0187.

    LI Deren, ZHANG Liangpei, XIA Guisong. Automatic Analysis and Mining of Remote Sensing Big Data[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(12): 1211-1216. DOI: 10.13485/j.cnki.11-2089.2014.0187.

    [3] 嚴(yán)國(guó)萍, 何俊峰. 高斯-拉普拉斯邊緣檢測(cè)算子的擴(kuò)展研究[J]. 華中科技大學(xué)學(xué)報(bào)(自然科學(xué)版), 2006, 34(10): 21-23.

    YAN Guoping, HE Junfeng. Extended Laplacian of Gaussian Operator for Edge Detection[J]. Journal of Huazhong University of Science and Technology (Nature Science Edition), 2006, 34(10): 21-23.

    [4] 趙萬(wàn)金, 龔聲蓉, 劉純平, 等. 一種自適應(yīng)的Harris角點(diǎn)檢測(cè)算法[J]. 計(jì)算機(jī)工程, 2008, 34(10): 212-214, 217.

    ZHAO Wanjin, GONG Shengrong, LIU Chunping, et al. Adaptive Harris Corner Detection Algorithm[J]. Computer Engineering, 2008, 34(10): 212-214, 217.

    [5] LOWE D G. Distinctive Image Features from Scale-invariant Keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91-110.

    [6] KE Yan, SUKTHANKAR R. PCA-SIFT: A More Distinctive Representation for Local Image Descriptors[C]∥ Proceedings of the IEEE Computer Society Computer Vision and Pattern Recognition. Washington, DC: IEEE, 2004: 506-513.

    [7] BAY H, TUYTELAARS T, VAN GOOL L. SURF: Speeded up Robust Features[M]∥LEONARDIS A, BISCHOF H, PINZ A. Computer Vision-ECCV 2006. Berlin: Springer, 2006: 404-417.

    [8] CALONDER M, LEPETIT V, STRECHA C, et al. BRIEF: Binary Robust Independent Elementary Features[M]∥DANIILIDIS K, MARAGOS P, PARAGIOS N. Computer Vision-ECCV 2010. Berlin: Springer, 2010: 778-792.

    [9] CALONDER M, LEPETIT V, OZUYSAL M, et al. BRIEF: Computing a Local Binary Descriptor Very Fast[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(7): 1281-1298.

    [10] 許允喜, 陳方. 局部圖像描述符最新研究進(jìn)展[J]. 中國(guó)圖象圖形學(xué)報(bào), 2015, 20(9): 1133-1150.

    XU Yunxi, CHEN Fang. Recent Advances in Local Image Descriptor[J]. Journal of Image and Graphics, 2015, 20(9): 1133-1150.

    [11] 董楊, 范大昭, 紀(jì)松, 等. 主成分分析的匹配點(diǎn)對(duì)提純方法[J]. 測(cè)繪學(xué)報(bào), 2017, 46(2): 228-236. DOI: 10.11947/j.AGCS.2017.20160250.

    DONG Yang, FAN Dazhao, JI Song, et al. The Purification Method of Matching Points Based on Principal Component Analysis[J]. Acta Geodaetica et Cartographica Sinica, 2017, 46(2): 228-236. DOI: 10.11947/j.AGCS.2017.20160250.

    [12] ?BONTAR J, LECUN Y. Computing the Stereo Matching Cost with a Convolutional Neural Network[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 1592-1599.

    [13] ZAGORUYKO S, KOMODAKIS N. Learning to Compare Image Patches via Convolutional Neural Networks[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 4353-4361.

    [14] HAN Xufeng, LEUNG T, JIA Yangqing, et al. MatchNet: Unifying Feature and Metric Learning for Patch-based Matching[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 3279-3286.

    [15] PAL S K, MITRA S. Multilayer Perceptron, Fuzzy Sets, and Classification[J]. IEEE Transactions on Neural Networks, 1992, 3(5): 683-697.

    [16] TRAPPEY A J C, HSU F C, TRAPPEY C V, et al. Development of a Patent Document Classification and Search Platform Using a Back-propagation Network[J]. Expert Systems with Applications, 2006, 31(4): 755-765.

    [17] SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going Deeper with Convolutions[C]∥IEEE Conference on Computer Vision and Pattern Recognition. Boston, MA: IEEE, 2015: 1-9.

    [18] ?BONTAR J, LECUN Y. Stereo Matching by Training A Convolutional Neural Network to Compare Image Patches[J]. The Journal of Machine Learning Research, 2016, 17(1): 2287-2318.

    [19] COLLOBERT R, KAVUKCUOGLU K, FARABET C. Torch7: A Matlab-like Environment for Machine Learning[C]∥Neural Information Processing Systems Workshop. [s.l]: BigLearn, 2011.

    [20] CHEN Tianqi, LI Mu, LI Yutian, et al. MXNet: A Flexible and Efficient Machine Learning Library for Heterogeneous Distributed Systems[R].Nanjin:Neural Information Processing Systems, Workshop on Machine Learning Systems, 2015.

    [21] BROWN M, HUA Gang, WINDER S. Discriminative Learning of Local Image Descriptors[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(1): 43-57.

    [22] 杜玉龍, 李建增, 張巖, 等. 基于深度交叉CNN和免交互GrabCut的顯著性檢測(cè)[J]. 計(jì)算機(jī)工程與應(yīng)用, 2017, 53(3): 32-40.

    DU Yulong, LI Jianzeng, ZHANG Yan, et al. Saliency Detection Based on Deep Cross CNN and Non-interaction GrabCut[J]. Computer Engineering and Applications, 2017, 53(3): 32-40.

    [23] ALCANTARILLA P F, BARTOLI A, DAVISON A J. KAZE Features[M]∥FITZGIBBON A, LAZEBNIK S, PERONA P, et al. Computer Vision-ECCV 2012. Berlin, Heidelberg: Springer, 2012.

    [24] ALCANTARILLA P F, NUEVO J, BARTOLI A. Fast Explicit Diffusion for Accelerated Features in Nonlinear Scale Spaces[C]∥Proceedings British Machine Vision Conference 2013. Bristol, UK: British Machine Vision Conference, 2013.

    [25] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: An efficient Alternative to SIFT or SURF[C]∥IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2012.

    [26] LEUTENEGGER S, CHLI M, SIEGWART R Y. BRISK: Binary Robust Invariant Scalable Keypoints[C]∥IEEE International Conference on Computer Vision. Barcelona, Spain: IEEE, 2012.

    [27] ROSTEN E, DRUMMOND T. Machine Learning for High-Speed Corner Detection[M]∥LEONARDIS A, BISCHOF H, PINZ A. Computer Vision-ECCV 2006. Berlin, Heidelberg: Springer, 2006.

    [28] MAIR E, HAGER G D, BURSCHKA D, et al. Adaptive and Generic Corner Detection Based on the Accelerated Segment Test[M]∥DANIILIDIS K, MARAGOS P, PARAGIOS N. Computer Vision-ECCV 2010. Berlin: Springer, 2010.

    [29] HARRIS C, STEPHENS M. A Combined Corner and Edge Detector[C]∥Proceedings of the 4th Alvey Vision Conference. Manchester: Springer , 1988: 147-151.

    [30] SHI Jianbo, TOMASI. Good Features to Track[C]∥IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Seattle, WA: IEEE, 1994.

    猜你喜歡
    深度特征方法
    深度理解一元一次方程
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    深度觀察
    深度觀察
    深度觀察
    抓住特征巧觀察
    可能是方法不對(duì)
    用對(duì)方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    欧美av亚洲av综合av国产av| 日韩大尺度精品在线看网址| 国产精品av久久久久免费| 男女午夜视频在线观看| 少妇熟女aⅴ在线视频| 亚洲avbb在线观看| 久久午夜亚洲精品久久| 亚洲欧美一区二区三区黑人| av中文乱码字幕在线| 欧美日本视频| 亚洲男人的天堂狠狠| 久久久久久久精品吃奶| 麻豆国产97在线/欧美 | 亚洲在线自拍视频| 国模一区二区三区四区视频 | 天天躁夜夜躁狠狠躁躁| 激情在线观看视频在线高清| 欧美日韩亚洲国产一区二区在线观看| 久久中文字幕一级| 2021天堂中文幕一二区在线观| 欧美日本视频| 亚洲国产欧美一区二区综合| 久久香蕉国产精品| 一本综合久久免费| 国产欧美日韩一区二区精品| 日本 av在线| 亚洲男人的天堂狠狠| 久久香蕉激情| 久久精品国产亚洲av香蕉五月| 国产精品1区2区在线观看.| 精品国内亚洲2022精品成人| 成人18禁在线播放| 夜夜爽天天搞| 欧美日韩中文字幕国产精品一区二区三区| 国产蜜桃级精品一区二区三区| 一本综合久久免费| 午夜精品久久久久久毛片777| 99在线人妻在线中文字幕| 男人舔奶头视频| 777久久人妻少妇嫩草av网站| 一本精品99久久精品77| 真人一进一出gif抽搐免费| 99热只有精品国产| 一进一出抽搐gif免费好疼| 精品高清国产在线一区| 亚洲成a人片在线一区二区| www.www免费av| 床上黄色一级片| 精华霜和精华液先用哪个| 久久久久久人人人人人| 欧美成人午夜精品| 在线国产一区二区在线| 高清在线国产一区| 狂野欧美激情性xxxx| 亚洲精品中文字幕一二三四区| 久久久国产精品麻豆| 国产精品九九99| 日本 av在线| 一区福利在线观看| 伊人久久大香线蕉亚洲五| 在线观看www视频免费| 日本黄色视频三级网站网址| 熟妇人妻久久中文字幕3abv| xxx96com| 国内久久婷婷六月综合欲色啪| 国产v大片淫在线免费观看| 最近在线观看免费完整版| 国产精品 国内视频| 欧美一区二区国产精品久久精品 | 亚洲国产精品sss在线观看| 欧美日韩黄片免| 999久久久精品免费观看国产| 国产视频一区二区在线看| 又紧又爽又黄一区二区| 白带黄色成豆腐渣| 超碰成人久久| 婷婷亚洲欧美| 久久久久国产精品人妻aⅴ院| 午夜两性在线视频| 小说图片视频综合网站| 好看av亚洲va欧美ⅴa在| 亚洲国产欧美网| 国产成人精品久久二区二区免费| 最近最新中文字幕大全电影3| 欧美成人免费av一区二区三区| 国产亚洲欧美98| 国产成人欧美在线观看| 熟女少妇亚洲综合色aaa.| 女人被狂操c到高潮| 99在线视频只有这里精品首页| 日日干狠狠操夜夜爽| 国产精品九九99| 波多野结衣高清作品| 在线观看一区二区三区| 男人舔奶头视频| 日本黄大片高清| 亚洲 国产 在线| 黄色 视频免费看| 小说图片视频综合网站| 成人特级黄色片久久久久久久| 悠悠久久av| 久久国产精品影院| 欧美日韩国产亚洲二区| 看黄色毛片网站| 怎么达到女性高潮| 男女那种视频在线观看| 亚洲天堂国产精品一区在线| 亚洲人成电影免费在线| 久久久久九九精品影院| 老鸭窝网址在线观看| 黄频高清免费视频| 欧美日韩亚洲综合一区二区三区_| 老汉色av国产亚洲站长工具| 男女床上黄色一级片免费看| 国产成年人精品一区二区| 精品国产美女av久久久久小说| 国产欧美日韩一区二区三| 99久久精品热视频| 五月伊人婷婷丁香| 国产精品一及| 日韩欧美国产一区二区入口| 国产精品久久久久久亚洲av鲁大| 国产三级中文精品| 在线a可以看的网站| 757午夜福利合集在线观看| 亚洲成av人片在线播放无| 男女那种视频在线观看| 一本精品99久久精品77| 欧美成人免费av一区二区三区| 99久久精品国产亚洲精品| 日韩有码中文字幕| tocl精华| 给我免费播放毛片高清在线观看| 又大又爽又粗| 亚洲五月天丁香| 99国产精品一区二区蜜桃av| 欧美zozozo另类| 黄片大片在线免费观看| 午夜精品久久久久久毛片777| 日本撒尿小便嘘嘘汇集6| 国产精品亚洲av一区麻豆| 日韩欧美国产在线观看| 麻豆一二三区av精品| 搞女人的毛片| 日韩国内少妇激情av| av福利片在线观看| 一级a爱片免费观看的视频| 草草在线视频免费看| 国产精品精品国产色婷婷| 成年免费大片在线观看| 欧美日本视频| 精品人妻1区二区| 久久久久久久午夜电影| 久久久国产成人免费| 国产探花在线观看一区二区| 欧美日韩黄片免| 日韩欧美三级三区| 两性夫妻黄色片| 中文字幕久久专区| 久久久久久人人人人人| 国产亚洲欧美在线一区二区| 国产麻豆成人av免费视频| 亚洲 欧美一区二区三区| 欧美精品亚洲一区二区| 欧美日本亚洲视频在线播放| 国产精品av视频在线免费观看| 国产欧美日韩精品亚洲av| 欧美性猛交黑人性爽| 狠狠狠狠99中文字幕| 午夜福利在线观看吧| 午夜精品在线福利| 老司机午夜十八禁免费视频| 久久久久性生活片| 蜜桃久久精品国产亚洲av| 亚洲中文日韩欧美视频| 中文字幕久久专区| 50天的宝宝边吃奶边哭怎么回事| 亚洲第一电影网av| 久久热在线av| 一级毛片高清免费大全| 看片在线看免费视频| 精品国产亚洲在线| 美女免费视频网站| 黄色女人牲交| 国产亚洲欧美在线一区二区| 丝袜人妻中文字幕| 欧美日韩一级在线毛片| 一本一本综合久久| 久久香蕉国产精品| 我要搜黄色片| 午夜免费激情av| 免费看日本二区| 久久午夜综合久久蜜桃| 夜夜躁狠狠躁天天躁| 久久久久免费精品人妻一区二区| 搞女人的毛片| 男人舔女人的私密视频| 久久精品国产亚洲av香蕉五月| 国产欧美日韩精品亚洲av| 两个人视频免费观看高清| 制服诱惑二区| 亚洲人与动物交配视频| 精品久久蜜臀av无| 人妻丰满熟妇av一区二区三区| 成人精品一区二区免费| 国产探花在线观看一区二区| 韩国av一区二区三区四区| 成人一区二区视频在线观看| 日韩精品中文字幕看吧| 一边摸一边做爽爽视频免费| 午夜福利在线在线| 在线观看一区二区三区| 久久亚洲精品不卡| 免费高清视频大片| 日韩av在线大香蕉| 欧美成人性av电影在线观看| 一夜夜www| 久久精品成人免费网站| 国产亚洲av嫩草精品影院| 三级毛片av免费| 精品日产1卡2卡| 国产在线精品亚洲第一网站| 久久 成人 亚洲| www日本在线高清视频| 999久久久精品免费观看国产| 国产亚洲精品第一综合不卡| 他把我摸到了高潮在线观看| 亚洲精品粉嫩美女一区| 精品免费久久久久久久清纯| 禁无遮挡网站| 两人在一起打扑克的视频| 一本精品99久久精品77| 超碰成人久久| 两个人的视频大全免费| 欧美在线黄色| 久久久久久久午夜电影| 制服诱惑二区| svipshipincom国产片| 亚洲专区字幕在线| 不卡一级毛片| 国产爱豆传媒在线观看 | 俄罗斯特黄特色一大片| 欧美在线一区亚洲| 午夜精品久久久久久毛片777| 美女扒开内裤让男人捅视频| 久久国产精品人妻蜜桃| 香蕉久久夜色| 熟妇人妻久久中文字幕3abv| 久久香蕉精品热| 亚洲国产精品999在线| 天天躁狠狠躁夜夜躁狠狠躁| 91麻豆精品激情在线观看国产| 琪琪午夜伦伦电影理论片6080| 国产亚洲精品久久久久5区| 啪啪无遮挡十八禁网站| www.精华液| 亚洲最大成人中文| 婷婷精品国产亚洲av在线| 五月玫瑰六月丁香| 久久精品成人免费网站| 中出人妻视频一区二区| 欧美一级a爱片免费观看看 | 99在线人妻在线中文字幕| av在线天堂中文字幕| 麻豆av在线久日| e午夜精品久久久久久久| 夜夜躁狠狠躁天天躁| 亚洲欧美精品综合一区二区三区| 日本五十路高清| 久久精品国产清高在天天线| 90打野战视频偷拍视频| 丝袜人妻中文字幕| 亚洲精品国产一区二区精华液| 看黄色毛片网站| 人妻夜夜爽99麻豆av| 成人三级黄色视频| 亚洲无线在线观看| 99在线视频只有这里精品首页| 欧美日韩亚洲国产一区二区在线观看| 成人一区二区视频在线观看| 亚洲精品中文字幕在线视频| 国产精品久久久久久精品电影| 嫩草影院精品99| 俺也久久电影网| 又爽又黄无遮挡网站| 国产伦在线观看视频一区| 变态另类成人亚洲欧美熟女| av中文乱码字幕在线| 九色成人免费人妻av| 俺也久久电影网| 99在线视频只有这里精品首页| 亚洲欧洲精品一区二区精品久久久| 91九色精品人成在线观看| 成人国产一区最新在线观看| 九色成人免费人妻av| 久久午夜亚洲精品久久| 国产片内射在线| 无限看片的www在线观看| 亚洲中文字幕一区二区三区有码在线看 | 一二三四社区在线视频社区8| 夜夜爽天天搞| 性欧美人与动物交配| 丁香六月欧美| 在线a可以看的网站| 国产野战对白在线观看| 久久精品影院6| 色精品久久人妻99蜜桃| 欧美3d第一页| 欧美高清成人免费视频www| 久久精品91蜜桃| 少妇人妻一区二区三区视频| 国产一区二区激情短视频| 男女视频在线观看网站免费 | 欧美成人午夜精品| 在线观看一区二区三区| 亚洲欧美一区二区三区黑人| 精品午夜福利视频在线观看一区| 超碰成人久久| 亚洲成人精品中文字幕电影| 一个人免费在线观看电影 | 久久亚洲真实| 女人被狂操c到高潮| 免费一级毛片在线播放高清视频| 天天躁夜夜躁狠狠躁躁| 国产精品免费一区二区三区在线| 香蕉丝袜av| 香蕉国产在线看| 99热这里只有是精品50| 亚洲中文字幕日韩| 免费在线观看完整版高清| 国产高清有码在线观看视频 | 亚洲国产中文字幕在线视频| 一本综合久久免费| 91字幕亚洲| 九色成人免费人妻av| 国产精品久久视频播放| 中出人妻视频一区二区| 女人爽到高潮嗷嗷叫在线视频| 精品国产超薄肉色丝袜足j| 国产精品久久久av美女十八| 亚洲av电影在线进入| 午夜精品久久久久久毛片777| 日韩欧美国产在线观看| 黄色成人免费大全| 亚洲精品久久成人aⅴ小说| 亚洲一码二码三码区别大吗| 99热这里只有精品一区 | 成年人黄色毛片网站| 日韩大尺度精品在线看网址| 在线a可以看的网站| 五月玫瑰六月丁香| 在线观看午夜福利视频| 首页视频小说图片口味搜索| 国产精品乱码一区二三区的特点| 久久国产乱子伦精品免费另类| 一个人免费在线观看电影 | 18禁裸乳无遮挡免费网站照片| 两人在一起打扑克的视频| 怎么达到女性高潮| 两个人的视频大全免费| 国产精品久久久久久精品电影| 两人在一起打扑克的视频| 国产又黄又爽又无遮挡在线| 色老头精品视频在线观看| 婷婷六月久久综合丁香| 岛国在线免费视频观看| 免费在线观看成人毛片| 国产亚洲精品综合一区在线观看 | 99riav亚洲国产免费| 亚洲欧洲精品一区二区精品久久久| 亚洲午夜精品一区,二区,三区| 国产精品久久久久久精品电影| 日韩高清综合在线| 黄色丝袜av网址大全| 亚洲电影在线观看av| 中文字幕人妻丝袜一区二区| 日韩高清综合在线| 最新美女视频免费是黄的| 小说图片视频综合网站| 他把我摸到了高潮在线观看| 1024视频免费在线观看| 亚洲国产中文字幕在线视频| 麻豆成人av在线观看| 一区福利在线观看| 最近最新免费中文字幕在线| 久久久精品国产亚洲av高清涩受| 亚洲av中文字字幕乱码综合| 亚洲国产精品999在线| 亚洲性夜色夜夜综合| 18禁黄网站禁片午夜丰满| 国产午夜精品论理片| 一a级毛片在线观看| 青草久久国产| 伦理电影免费视频| 999久久久精品免费观看国产| 亚洲av成人av| 午夜精品在线福利| 色综合婷婷激情| 99re在线观看精品视频| 一级片免费观看大全| 亚洲国产精品久久男人天堂| 亚洲中文日韩欧美视频| 国产一区二区在线观看日韩 | 在线观看免费午夜福利视频| 国产伦在线观看视频一区| 欧美黑人精品巨大| 嫁个100分男人电影在线观看| 国产又黄又爽又无遮挡在线| 国产精品综合久久久久久久免费| 亚洲av日韩精品久久久久久密| 国产亚洲欧美98| 欧美精品亚洲一区二区| 九色成人免费人妻av| 成人三级做爰电影| 在线观看免费视频日本深夜| 岛国视频午夜一区免费看| 亚洲人与动物交配视频| 手机成人av网站| 麻豆国产97在线/欧美 | 无限看片的www在线观看| 免费高清视频大片| 一进一出抽搐动态| 91在线观看av| 中文字幕人成人乱码亚洲影| 毛片女人毛片| 人人妻人人看人人澡| 日韩成人在线观看一区二区三区| 午夜福利在线观看吧| 成人欧美大片| 少妇人妻一区二区三区视频| 久久久久国内视频| 亚洲 欧美一区二区三区| 亚洲精品一区av在线观看| 亚洲av第一区精品v没综合| 夜夜夜夜夜久久久久| av免费在线观看网站| 美女黄网站色视频| 亚洲人与动物交配视频| 欧美日韩精品网址| 丰满的人妻完整版| 99久久国产精品久久久| 亚洲国产精品合色在线| av国产免费在线观看| 18禁裸乳无遮挡免费网站照片| 中文字幕久久专区| 日本免费一区二区三区高清不卡| 午夜福利免费观看在线| √禁漫天堂资源中文www| 男人舔奶头视频| 最近视频中文字幕2019在线8| 国产激情久久老熟女| 一级黄色大片毛片| 99在线人妻在线中文字幕| 欧美丝袜亚洲另类 | 亚洲精品国产精品久久久不卡| 一卡2卡三卡四卡精品乱码亚洲| 午夜视频精品福利| 在线观看美女被高潮喷水网站 | 中文在线观看免费www的网站 | 老鸭窝网址在线观看| 人人妻人人看人人澡| 国产主播在线观看一区二区| 久久久久性生活片| 日韩欧美 国产精品| 在线观看午夜福利视频| 又黄又粗又硬又大视频| 国产精品九九99| 久久伊人香网站| 亚洲精品一区av在线观看| 又大又爽又粗| 亚洲一区二区三区不卡视频| 丁香欧美五月| 桃红色精品国产亚洲av| 亚洲自偷自拍图片 自拍| 国产av不卡久久| 校园春色视频在线观看| 亚洲全国av大片| 日韩高清综合在线| 欧美日韩瑟瑟在线播放| 琪琪午夜伦伦电影理论片6080| 国产aⅴ精品一区二区三区波| 婷婷精品国产亚洲av在线| 日韩高清综合在线| 两性午夜刺激爽爽歪歪视频在线观看 | 免费高清视频大片| 亚洲国产欧美网| 国产精品亚洲美女久久久| 美女高潮喷水抽搐中文字幕| 免费看日本二区| 天天躁夜夜躁狠狠躁躁| 1024视频免费在线观看| 国产成+人综合+亚洲专区| 久久久久久久久久黄片| 熟女少妇亚洲综合色aaa.| 婷婷精品国产亚洲av在线| 国产成人影院久久av| 久久久久免费精品人妻一区二区| 国产精品一及| 中出人妻视频一区二区| 亚洲电影在线观看av| 两个人视频免费观看高清| 成人一区二区视频在线观看| 欧美黑人精品巨大| 热99re8久久精品国产| 久久国产精品影院| 俄罗斯特黄特色一大片| 国产1区2区3区精品| 五月玫瑰六月丁香| 伦理电影免费视频| 搡老岳熟女国产| 免费在线观看亚洲国产| 亚洲精品中文字幕在线视频| 国产精品久久久久久人妻精品电影| 亚洲国产欧美网| 欧美黄色片欧美黄色片| 婷婷丁香在线五月| 天天躁夜夜躁狠狠躁躁| 国产亚洲av嫩草精品影院| 中文亚洲av片在线观看爽| 日韩欧美免费精品| 久久 成人 亚洲| 欧美av亚洲av综合av国产av| 99久久国产精品久久久| 午夜两性在线视频| 叶爱在线成人免费视频播放| 国产探花在线观看一区二区| 国产免费av片在线观看野外av| 午夜福利成人在线免费观看| 99国产极品粉嫩在线观看| 日韩有码中文字幕| 在线a可以看的网站| 18禁美女被吸乳视频| 中文字幕av在线有码专区| 岛国视频午夜一区免费看| 最新在线观看一区二区三区| 夜夜看夜夜爽夜夜摸| 制服丝袜大香蕉在线| 国产在线精品亚洲第一网站| av在线播放免费不卡| 最新在线观看一区二区三区| 欧美日韩黄片免| 欧美在线一区亚洲| 人人妻人人看人人澡| 床上黄色一级片| 高清在线国产一区| 色在线成人网| 国产精品日韩av在线免费观看| 亚洲av电影不卡..在线观看| 人人妻,人人澡人人爽秒播| 91国产中文字幕| 午夜激情av网站| av视频在线观看入口| 真人做人爱边吃奶动态| 久久精品国产清高在天天线| 又爽又黄无遮挡网站| 久久久久久人人人人人| 两性夫妻黄色片| 一区二区三区激情视频| 18美女黄网站色大片免费观看| 757午夜福利合集在线观看| 成在线人永久免费视频| 日日夜夜操网爽| 五月玫瑰六月丁香| xxx96com| 黄色女人牲交| 可以免费在线观看a视频的电影网站| 成人国产一区最新在线观看| 亚洲欧美日韩高清专用| 999久久久精品免费观看国产| 国产成人影院久久av| 又紧又爽又黄一区二区| 一个人观看的视频www高清免费观看 | 97碰自拍视频| 国产欧美日韩一区二区精品| 国产午夜福利久久久久久| 亚洲精品久久国产高清桃花| 三级男女做爰猛烈吃奶摸视频| 色精品久久人妻99蜜桃| 特级一级黄色大片| 性色av乱码一区二区三区2| 91九色精品人成在线观看| 欧美性猛交╳xxx乱大交人| 精品高清国产在线一区| 嫩草影院精品99| 成人一区二区视频在线观看| 天堂动漫精品| 日本一本二区三区精品| 午夜免费成人在线视频| 两性夫妻黄色片| 国产视频一区二区在线看| 国产亚洲欧美在线一区二区| 成熟少妇高潮喷水视频| 国产真人三级小视频在线观看| 97超级碰碰碰精品色视频在线观看| 亚洲av成人不卡在线观看播放网| 欧美日韩福利视频一区二区| 免费在线观看影片大全网站| 午夜精品在线福利| 精品国产超薄肉色丝袜足j| 嫁个100分男人电影在线观看| 国产亚洲精品久久久久久毛片| 欧美成人一区二区免费高清观看 | 国产午夜精品论理片| 最近最新中文字幕大全免费视频| 757午夜福利合集在线观看| 久久精品成人免费网站| 麻豆成人av在线观看| 后天国语完整版免费观看| 日韩欧美 国产精品| 亚洲一卡2卡3卡4卡5卡精品中文| 99久久久亚洲精品蜜臀av| bbb黄色大片| 国产野战对白在线观看| 成年免费大片在线观看| 久久人人精品亚洲av|