• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    影像連接點(diǎn)均衡化高精度自動(dòng)提取

    2017-02-16 08:13:34張永生
    測(cè)繪學(xué)報(bào) 2017年1期
    關(guān)鍵詞:嵩山連接點(diǎn)格網(wǎng)

    于 英,張永生,薛 武,李 磊

    1. 信息工程大學(xué)地理空間信息學(xué)院,河南 鄭州 450001; 2. 地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,陜西 西安 710054

    影像連接點(diǎn)均衡化高精度自動(dòng)提取

    于 英1,2,張永生1,薛 武1,2,李 磊1,2

    1. 信息工程大學(xué)地理空間信息學(xué)院,河南 鄭州 450001; 2. 地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室,陜西 西安 710054

    針對(duì)空中三角測(cè)量影像連接點(diǎn)提取中存在的誤匹配、點(diǎn)位多而分布不均和點(diǎn)位定位精度低等問(wèn)題,提出了一種影像連接點(diǎn)均衡化高精度自動(dòng)提取方法。首先采用分塊SIFT技術(shù)進(jìn)行特征的提取與匹配,并利用并查集數(shù)據(jù)結(jié)構(gòu)進(jìn)行特征點(diǎn)的高效多視追蹤;然后采用提出的物方分塊點(diǎn)位篩選算法對(duì)點(diǎn)位進(jìn)行了相對(duì)均衡化的擇優(yōu)挑選;最后采用最小二乘匹配技術(shù)對(duì)得到的SIFT連接點(diǎn)坐標(biāo)位置進(jìn)行精化。選取中國(guó)嵩山遙感定標(biāo)場(chǎng)的有人機(jī)影像和沙漠地區(qū)無(wú)人機(jī)影像作為試驗(yàn)數(shù)據(jù),通過(guò)目視檢查、像方反投影誤差和檢查點(diǎn)精度等3個(gè)指標(biāo)進(jìn)行了分析,結(jié)果表明本文方法有效克服了弱紋理和重復(fù)紋理導(dǎo)致的連接點(diǎn)提取與匹配困難,并改善了連接點(diǎn)分布的均勻性和提高了連接點(diǎn)的定位精度。

    連接點(diǎn)提取;SIFT;分塊;并查集;最小二乘匹配

    空中三角測(cè)量是影響攝影測(cè)量成果精度的主要因素??罩腥菧y(cè)量主要包括連接點(diǎn)提取和光束法平差兩個(gè)環(huán)節(jié)[1-2]。由于不同影像之間存在尺度、色差和攝影角度等差別,這些差別使得影像連接點(diǎn)自動(dòng)提取效果常常難以令人滿(mǎn)意[3]。

    近年來(lái),計(jì)算機(jī)視覺(jué)領(lǐng)域中影像不變特征提取與匹配技術(shù)的日益成熟推動(dòng)了影像連接點(diǎn)提取技術(shù)的進(jìn)步[4-5]。影像不變特征提取與匹配技術(shù)的一般過(guò)程為:首先采用不變特征檢測(cè)器進(jìn)行特征提取,然后通過(guò)計(jì)算生成特征描述向量完成特征匹配。比較典型的不變特征檢測(cè)器有:具有仿射不變性的Harris-Affine算法、具有尺度不變性的SIFT算法、SURF算法、KAZE算法以及具有視角不變性的ASIFT算法。常用的特征描述符有SIFT描述符、DAISY描述符、二值描述符等[6-9]。在眾多影像局部特征描述符中,SIFT描述符應(yīng)用最廣,它對(duì)尺度、旋轉(zhuǎn)、亮度以及一定大小的視角變化都具有不變性,因此本文選用SIFT不變特征提取算法進(jìn)行連接點(diǎn)自動(dòng)化提取的研究。雖然SIFT算法計(jì)算復(fù)雜度高,但其計(jì)算速度可通過(guò)GPU進(jìn)行并行加速[10]。

    采用不變特征進(jìn)行影像空三連接點(diǎn)提取是目前連接點(diǎn)提取的主流技術(shù)方法。文獻(xiàn)[11]采用SIFT算法進(jìn)行異源高分辨率光學(xué)衛(wèi)星遙感影像匹配,并通過(guò)RANSAC算法和多項(xiàng)式擬合迭代法等多種策略剔除了誤匹配點(diǎn)。文獻(xiàn)[12]利用POS信息對(duì)傾斜影像糾正消除因大傾角引起的仿射變形,通過(guò)SIFT匹配和特征追蹤自動(dòng)獲取多視連接點(diǎn)。盡管目前基于不變特征進(jìn)行影像空三連接點(diǎn)提取技術(shù)取得了一些成果,但仍存在不少問(wèn)題。本文從連接點(diǎn)提取的正確率、分布合理性以及定位精度等方面考慮,主要解決以下3個(gè)問(wèn)題。

    (1) 隨著航空傳感器成像分辨率的不斷提高,使得單幅影像上出現(xiàn)重復(fù)紋理的概率大幅增加。此外,沙漠、海島和雪地等特殊地區(qū)影像存在大量的弱紋理區(qū)域。影像中的重復(fù)紋理和弱紋理將嚴(yán)重降低SIFT匹配的正確率。

    (2) 采用SIFT算法使得單幅影像上的連接點(diǎn)數(shù)量常常達(dá)到幾千甚至上萬(wàn)的數(shù)量級(jí)。根據(jù)邊界效應(yīng)理論,當(dāng)連接點(diǎn)的數(shù)量達(dá)到一定數(shù)量后,隨著連接點(diǎn)數(shù)量的繼續(xù)飆升并不會(huì)提高光束法平差的精度,反而成為計(jì)算的負(fù)擔(dān)。簡(jiǎn)單采用多視重疊度準(zhǔn)則對(duì)點(diǎn)位進(jìn)行篩選剔除的方法[13],極容易導(dǎo)致連接點(diǎn)分布不均進(jìn)而影響光束法平差精度。

    (3) SIFT算法本身主要是強(qiáng)調(diào)不變特征的識(shí)別性能而非定位精度。雖然SIFT算法在特征提取階段通過(guò)插值技術(shù)提供了亞像素的坐標(biāo)位置,但由于特征點(diǎn)提取與匹配的相對(duì)獨(dú)立性,這使得匹配的同名點(diǎn)對(duì)不能實(shí)現(xiàn)位置上的精確對(duì)應(yīng)[4-5]。

    以上述3個(gè)問(wèn)題為導(dǎo)向,基于SIFT特征構(gòu)建了一種均衡化高精度影像連接點(diǎn)自動(dòng)提取方法,選取中國(guó)嵩山遙感定標(biāo)場(chǎng)有人機(jī)影像數(shù)據(jù)和西北沙漠地區(qū)無(wú)人機(jī)影像數(shù)據(jù)對(duì)本方法的效果進(jìn)行了試驗(yàn)分析,試驗(yàn)結(jié)果證明了本方法的正確性和有效性。

    1 方法原理

    1.1 方法流程

    本文連接點(diǎn)提取方法適用于有人機(jī)或無(wú)人機(jī)面陣影像數(shù)據(jù)。此外,本文影像之間的關(guān)系(大于設(shè)定的重疊度閾值)已經(jīng)通過(guò)輔助數(shù)據(jù)(飛控?cái)?shù)據(jù)、POS數(shù)據(jù)等)計(jì)算重疊度[12,14]得到或者通過(guò)低分辨率影像數(shù)據(jù)增量重建得到[15]。

    如圖1所示,本文方法流程包括4個(gè)階段:①在對(duì)影像提取完SIFT特征后,為避免重復(fù)紋理的干擾,首先用低分辨率影像計(jì)算單應(yīng)矩陣和基礎(chǔ)矩陣,然后進(jìn)行單應(yīng)矩陣和基礎(chǔ)矩陣雙重約束下的分塊匹配,最后根據(jù)子塊匹配結(jié)果計(jì)算精確的單應(yīng)陣和基礎(chǔ)矩陣以實(shí)現(xiàn)對(duì)本塊匹配結(jié)果的粗差剔除;②采用并查集數(shù)據(jù)結(jié)構(gòu)實(shí)現(xiàn)SIFT特征的多視追蹤,然后通過(guò)多片前方交會(huì)得到物方點(diǎn)坐標(biāo);③在物方空間構(gòu)建均勻格網(wǎng),計(jì)算每個(gè)物方點(diǎn)平均反投影誤差和多視重疊度的加權(quán)值,設(shè)定閾值并依據(jù)冒泡排序方法對(duì)點(diǎn)位進(jìn)行篩選,保證連接點(diǎn)分布相對(duì)的均勻;④采用最小二乘匹配對(duì)篩選得到的SIFT連接點(diǎn)坐標(biāo)位置進(jìn)行精化。

    1.2 SIFT特征分塊提取與匹配

    對(duì)每張影像都進(jìn)行兩次SIFT特征提取,第1次SIFT特征提取是在低分辨率影像上進(jìn)行。第2次SIFT特征提取是在原始分辨率影像上進(jìn)行,具體方法是:將原始分辨率影像劃分成若干影像塊,在特征提取時(shí)根據(jù)每個(gè)影像塊的信息熵設(shè)置不同的提取參數(shù)(DOG閾值、邊緣閾值、檢測(cè)金字塔層級(jí)等),這使得提取到的特征點(diǎn)分布相對(duì)均勻[4]。

    從影像關(guān)系庫(kù)中任取出一對(duì)立體影像,采用比值法對(duì)兩張影像的低分辨率SIFT特征進(jìn)行匹配,再通過(guò)RANSAC方法計(jì)算兩張影像之間的單應(yīng)矩陣H。設(shè)原始分辨率立體影像上有同名像點(diǎn)對(duì)(x,y)和(x′,y′),根據(jù)單應(yīng)矩陣的定義得到如式(1)所示的對(duì)應(yīng)關(guān)系

    (1)

    式中,hi(i=1,2,…,8)是單應(yīng)矩陣H的8個(gè)元素。

    圖1 連接點(diǎn)提取流程Fig.1 Flowchart of tie points extraction

    將右影像的4個(gè)角點(diǎn)坐標(biāo)代入式(1)中計(jì)算出4個(gè)透視變換坐標(biāo),以這4個(gè)透視變換坐標(biāo)為頂點(diǎn)的四邊形與左影像的交集即為左影像上這兩幅影像的重疊區(qū)域。同理,可求得右影像上這兩幅影像的重疊區(qū)域。將左影像重疊區(qū)域劃分成多個(gè)子塊,同樣依據(jù)式(1)將每一個(gè)子塊的4個(gè)角點(diǎn)坐標(biāo)投影到右影像上,由于透視變換的原因,右影像上相應(yīng)的4個(gè)角點(diǎn)構(gòu)成的四邊形通常是一個(gè)不規(guī)則的四邊形,選取該不規(guī)則四邊形的外接矩形作為左影像子塊在右影像上的對(duì)應(yīng)區(qū)域。

    以影像子塊為單位對(duì)原始分辨率SIFT特征進(jìn)行單應(yīng)陣和基礎(chǔ)矩陣約束下的比值法匹配,再用子塊匹配結(jié)果計(jì)算兩影像對(duì)應(yīng)子塊之間精確的單應(yīng)矩陣和基礎(chǔ)矩陣,并利用這兩個(gè)矩陣對(duì)匹配結(jié)果進(jìn)行粗差剔除,其原理如圖2所示。SIFT分塊匹配通過(guò)搜索空間的壓縮使得因重復(fù)紋理導(dǎo)致的奇異匹配點(diǎn)干擾大幅減少,故可一定程度上提高匹配的成功率。

    圖2 雙矩陣約束與誤差剔除原理Fig.2 Principle of double matrix constraint and error elimination

    1.3 特征多視追蹤

    SIFT特征分塊提取與匹配實(shí)現(xiàn)了兩張影像特征點(diǎn)之間的對(duì)應(yīng),而攝影測(cè)量空三光束法平差需要多視連接點(diǎn)方能取得較好的平差精度。如圖3所示,通過(guò)將每一組兩兩匹配的結(jié)果進(jìn)行查找和追蹤,即可實(shí)現(xiàn)特征的多視追蹤。

    圖3 多視追蹤Fig.3 Multi-view tracks

    本文采用并查集數(shù)據(jù)結(jié)構(gòu)[16-17]高效地實(shí)現(xiàn)了特征的多視追蹤,具體過(guò)程如下。

    (1) 創(chuàng)建并查集節(jié)點(diǎn),節(jié)點(diǎn)數(shù)量等于所有影像的原始分辨率SIFT特征數(shù)量之和。

    (2) 若像點(diǎn)a和像點(diǎn)b是同名像點(diǎn),則對(duì)節(jié)點(diǎn)a和節(jié)點(diǎn)b執(zhí)行并查集中的查找操作(Find)來(lái)判斷兩個(gè)節(jié)點(diǎn)的根節(jié)點(diǎn)是否相同。如果兩個(gè)節(jié)點(diǎn)的根節(jié)點(diǎn)相同則跳過(guò),否則通過(guò)執(zhí)行并查集中的合并操作(Join)將節(jié)點(diǎn)a的根節(jié)點(diǎn)修改為節(jié)點(diǎn)b。

    (3) 將匹配鏈表上所有的同名像點(diǎn)進(jìn)行步驟(2)處理,然后取出具有相同根節(jié)點(diǎn)的節(jié)點(diǎn)即實(shí)現(xiàn)了SIFT特征的多視追蹤。

    1.4 基于物方分塊的點(diǎn)位篩選

    (1) 統(tǒng)計(jì)物方點(diǎn)在平面上的分布范圍Xmin、Xmax、Ymin和Ymax,在平面上劃分平行于X軸和Y軸的二維格網(wǎng),格網(wǎng)的尺寸一般設(shè)為單張影像地面覆蓋范圍的1/9或者1/12。設(shè)格網(wǎng)單元X方向和Y方向的尺寸分別為X_size和Y_size,則X和Y方向的格網(wǎng)數(shù)量X_num和Y_num為

    (2)

    (2) 循環(huán)計(jì)算每個(gè)物方點(diǎn)所在的格網(wǎng)編號(hào),并統(tǒng)計(jì)每個(gè)格網(wǎng)中物方點(diǎn)的數(shù)量,若格網(wǎng)中物方點(diǎn)的數(shù)量大于指定的閾值κ,則轉(zhuǎn)到步驟(3)。

    (3) 依據(jù)式(3)計(jì)算格網(wǎng)中每一個(gè)物方點(diǎn)的Valuei值,該值是點(diǎn)位反投影誤差和多視重疊度值Oi的加權(quán)計(jì)算值

    (3)

    采用冒泡法對(duì)格網(wǎng)中點(diǎn)的Valuei進(jìn)行從大到小排序,取前κ個(gè)作為該格網(wǎng)有效物方點(diǎn)。

    1.5 最小二乘匹配坐標(biāo)位置精化

    在物方點(diǎn)位篩選結(jié)束后,SIFT特征點(diǎn)的坐標(biāo)精度可由最小二乘匹配進(jìn)行優(yōu)化提高[20]。SIFT特征點(diǎn)的信息由位置(p)、尺度(σ)和方向(θ)組成。設(shè)物方點(diǎn)P在影像I1、I2、…、In上成像的像點(diǎn)為m1(pm1,σm1,θm1)、m2(pm2,σm2,θm2)、…、mn(pmn,σmn,θmn),計(jì)算物方點(diǎn)P與I1、I2、…、In攝站中心之間的距離D1、D2、…、Dn。若D1是所有距離中的最小值,則選m1(pm1,σm1,θm1)為最小二乘匹配的基準(zhǔn)點(diǎn),然后讓m1分別與其他的同名像點(diǎn)進(jìn)行最小二乘匹配。下面以同名像點(diǎn)對(duì)m1和m2為例進(jìn)行最小二乘匹配說(shuō)明。

    設(shè)σm1>=σm2,s=(σm1/σm2),θ=(θm1-θm2)。以m1和m2為中心的兩個(gè)相關(guān)窗口分別為W1和W2,大小為(2w+1)×(2w+1)。記m2窗口鄰域坐標(biāo)為p=[xy]T,Η·p表示對(duì)坐標(biāo)p依據(jù)矩陣Η進(jìn)行透視變換,則窗口W1和W2可表示為[21]

    (4)

    式中,Η中含義如下

    (5)

    式中,sx、sy分別為x、y方向的縮放因子,δ為窗口W1和W2之間的相對(duì)旋轉(zhuǎn)角度。由于m1和m2為同名像點(diǎn),則有式(6)成立

    h0+h1W1+n1=W2+n2

    (6)

    (7)

    式中,h0、h1為窗口之間線(xiàn)性灰度畸變參數(shù),n1、n2為與坐標(biāo)有關(guān)的影像隨機(jī)噪聲。對(duì)式(6)進(jìn)行線(xiàn)性化得到誤差方程式,通過(guò)最小二乘平差求解得到像點(diǎn)坐標(biāo)精確值。在進(jìn)行最小二乘平差求解之前先利用SIFT特征信息按式(7)對(duì)仿射相關(guān)參數(shù)sx、sy和δ的初始值進(jìn)行設(shè)置[22],并以NCC最大為準(zhǔn)則搜索確定k和dθ的最佳值[4-5]。

    2 試驗(yàn)與分析

    2.1 試驗(yàn)數(shù)據(jù)與評(píng)價(jià)方法

    第1組試驗(yàn)數(shù)據(jù)是在中國(guó)嵩山遙感定標(biāo)場(chǎng)用“運(yùn)5”飛機(jī)搭載飛思IXA180面陣CCD相機(jī)和Applanix POS AV510設(shè)備獲得了航空影像和位姿數(shù)據(jù)。該組影像數(shù)據(jù)對(duì)應(yīng)區(qū)域的地物信息豐富且重復(fù)紋理較多,非常適合驗(yàn)證本方法的匹配效果和點(diǎn)位篩選效果。此外,中國(guó)嵩山遙感定標(biāo)場(chǎng)航空幾何定標(biāo)場(chǎng)占地64 km2,分級(jí)布設(shè)了214個(gè)亞厘米級(jí)精度的永久性地面標(biāo)志,可為本文連接點(diǎn)提取方法提供物方幾何精度驗(yàn)證條件[23]。第2組試驗(yàn)數(shù)據(jù)是用固定翼無(wú)人機(jī)在西北沙漠地區(qū)搭載Canon EOS 5DS獲取的沙漠無(wú)人機(jī)影像,沙漠無(wú)人機(jī)影像由于紋理貧乏使得連接點(diǎn)的自動(dòng)提取異常困難。表1對(duì)兩組試驗(yàn)數(shù)據(jù)的影像大小、地面分辨率(GSD)、重疊度等與本文試驗(yàn)相關(guān)的具體參數(shù)信息進(jìn)行了詳細(xì)的介紹。依據(jù)本文方法,基于Win7 64位系統(tǒng)、VC++2010、GDAL1.8 64位和CUDA5.5開(kāi)發(fā)了影像三維建模軟IMAGE SURPASS的空三處理模塊,本文如下的試驗(yàn)均采用該軟件模塊完成。試驗(yàn)中的計(jì)算機(jī)配置為:英特爾酷睿i7、主頻3.2 GHz 8核,內(nèi)存32 GB,顯卡為4 GB英偉達(dá)QuadroK2200。

    采用如下3種指標(biāo)方法對(duì)本文連接點(diǎn)提取效果進(jìn)行評(píng)價(jià)。

    (1) 通過(guò)目視檢查的方法,查看連接點(diǎn)提取的正確性與分布情況。

    (2) 對(duì)提取出的連接點(diǎn)進(jìn)行空三光束法平差,通過(guò)反投影誤差分析連接點(diǎn)提取的精度。反投影誤差的計(jì)算見(jiàn)式(8)

    (8)

    表1 試驗(yàn)影像數(shù)據(jù)描述

    (3) 設(shè)定一定數(shù)量的檢查點(diǎn),在少量控制點(diǎn)參與下,對(duì)連接點(diǎn)進(jìn)行光束法平差,通過(guò)比較檢查點(diǎn)的平差坐標(biāo)與外業(yè)坐標(biāo)來(lái)分析連接點(diǎn)提取的效果[20]。檢查點(diǎn)精度分析計(jì)算見(jiàn)式(9)

    (9)

    2.2 連接點(diǎn)提取效果

    采用本文連接點(diǎn)提取方法(IMAGESURPASS的空三處理模塊)對(duì)787張嵩山影像和1209張沙漠影像分別進(jìn)行了處理,成功提取出連接點(diǎn)的個(gè)數(shù)分別為1 253 100和330 359,數(shù)據(jù)處理時(shí)間分別為9.67h和10.54h。本文方法的數(shù)據(jù)處理時(shí)間包括特征提取、特征匹配、多視追蹤、點(diǎn)位篩選和點(diǎn)位優(yōu)化等5個(gè)部分,其中特征提取和特征匹配已采用了GPU并行加速,其余3個(gè)部分暫未采用任何加速措施。部分圖像的提取效果如圖4和圖5所示,圖4和圖5中的小圓點(diǎn)用于標(biāo)識(shí)連接點(diǎn),紅色箭頭連線(xiàn)為人工加上去用于標(biāo)識(shí)個(gè)別同名像點(diǎn)。從目視上看可得出如下幾點(diǎn)結(jié)論。

    (1) 對(duì)嵩山影像和沙漠影像各隨機(jī)抽取了50個(gè)連接點(diǎn)進(jìn)行同名像點(diǎn)目視檢查,檢查結(jié)果表明50個(gè)連接點(diǎn)均為正確的連接點(diǎn)(同名像點(diǎn)定位精度優(yōu)于1像素)。連接點(diǎn)目視檢查全部正確是

    本文方法中的多種技術(shù)共同作用的結(jié)果,具體為:首先,采用影像分塊變參數(shù)的提取策略,在紋理信息豐富的影像子塊特征提取時(shí)本文方法自動(dòng)提高特征檢測(cè)的門(mén)檻閾值,這樣得到的特征點(diǎn)具有比較高的識(shí)別度,不容易出現(xiàn)匹配錯(cuò)誤;其次,在影像匹配階段采用具有壓縮搜索空間特點(diǎn)的分塊匹配和帶約束的比值法匹配策略,這有利于提高匹配的正確率;最后,本文連接點(diǎn)提取方法在像方采用單應(yīng)陣和基礎(chǔ)矩陣進(jìn)行了粗差剔除,然后在物方又通過(guò)顧及反投影誤差和多視重疊度的點(diǎn)位篩選技術(shù)也在一定程度上剔除了部分粗差連接點(diǎn)。

    (2) 沙漠影像數(shù)據(jù)紋理匱乏且重復(fù),但本文方法依然提取了足夠量的連接點(diǎn),這是因?yàn)楸疚姆椒ú捎梅謮K不變特征提取與匹配技術(shù),每個(gè)影像塊根據(jù)各自信息熵采用不同的特征提取參數(shù)。當(dāng)對(duì)紋理信息匱乏的影像子塊進(jìn)行特征提取時(shí),本文方法自動(dòng)降低特征檢測(cè)的門(mén)檻閾值,這可增加檢測(cè)到的特征點(diǎn)數(shù)量。本文的影像分塊不變特征提取與匹配技術(shù)對(duì)影像紋理的變化具有較強(qiáng)適應(yīng)能力,不僅實(shí)現(xiàn)了特征點(diǎn)提取數(shù)量的自適應(yīng),而且也提高了匹配的正確率。

    2.3 定位精度分析

    對(duì)嵩山影像和沙漠影像分別進(jìn)行光束法平差[24],通過(guò)反投影誤差σr在和檢查點(diǎn)實(shí)際精度ΔXY與ΔZ等指標(biāo)進(jìn)行精度分析[25],平差結(jié)果如表2所示,表中本文方法指采用了本文整體連接點(diǎn)提取方法,表中本文方法變形A指采用本文方法但不使用基于物方分塊的點(diǎn)位篩選技術(shù),表中本文方法變形B指采用本文方法但不使用最小二乘匹配坐標(biāo)位置精化技術(shù)。在嵩山影像數(shù)據(jù)處理中,控制點(diǎn)個(gè)數(shù)為2表示對(duì)角布設(shè)控制,控制點(diǎn)個(gè)數(shù)為4表示4個(gè)角布設(shè)控制,控制點(diǎn)個(gè)數(shù)為5表示4個(gè)角和1個(gè)中心點(diǎn)布設(shè)控制。

    圖4 嵩山影像連接點(diǎn)(Image i(i=1,2,3,4)為同一地物不同攝站的影像)Fig.4 Tie points of Songshan image(Image i(i=1,2,3,4) are from different stations for the same object)

    分析表2可得出如下結(jié)論。

    (1) 本文連接點(diǎn)提取方法取得了比較滿(mǎn)意的效果,嵩山數(shù)據(jù)平差后計(jì)算的平均反投影誤差為0.36像素,沙漠?dāng)?shù)據(jù)平差后計(jì)算的平均反投影誤差為0.52像素。此外,控制點(diǎn)的引入不影響光束法像方平差的平均反投影誤差精度,這是因?yàn)槠骄赐队罢`差反映的是內(nèi)符合精度。對(duì)于嵩山影像數(shù)據(jù),當(dāng)控制點(diǎn)的數(shù)量上升為4個(gè)時(shí)物方檢查點(diǎn)的精度已經(jīng)比較高,分別是平面精度約為1個(gè)GSD,高程精度約為1.5個(gè)GSD。當(dāng)控制點(diǎn)的數(shù)量增加到5個(gè)時(shí),對(duì)精度提升不大,這說(shuō)明4個(gè)控制點(diǎn)的控制方案已經(jīng)有效消除了坐標(biāo)系之間的絕對(duì)誤差,所以實(shí)際測(cè)量時(shí)可考慮只在測(cè)區(qū)的4個(gè)角各布設(shè)1個(gè)控制點(diǎn),進(jìn)而減少外業(yè)布設(shè)控制點(diǎn)的工作量。注:嵩山影像數(shù)據(jù)覆蓋范圍內(nèi)有部分控制點(diǎn)風(fēng)化損壞、難以辨識(shí),另有部分點(diǎn)被植物等覆蓋,經(jīng)人工甄別,共有18個(gè)點(diǎn)可以正常使用。

    圖5 沙漠影像連接點(diǎn)(Image i(i=1,2,3,4)為同一地物不同攝站的影像)Fig.5 Tie points of desert image(Image i(i=1,2,3,4) are from different stations for the same object)

    數(shù)據(jù)平差方法控制點(diǎn)個(gè)數(shù)檢查點(diǎn)個(gè)數(shù)連接點(diǎn)個(gè)數(shù)平均反投影誤差/像素實(shí)際精度/m平面高程嵩山數(shù)據(jù)本文方法本文方法變形A本文方法變形B21812531000.360.1140.16241612531000.360.1030.14251512531000.360.0970.13521818783260.450.1450.18241618783260.450.1080.14751518783260.450.1160.15321812531000.480.1580.18741612531000.480.1140.16151512531000.480.1260.167嵩山數(shù)據(jù)本文方法--3303590.52--本文方法變形A--3514680.56--本文方法變形B--3303590.72--

    (2) 對(duì)于嵩山影像數(shù)據(jù)和沙漠影像數(shù)據(jù),采用基于物方分塊的點(diǎn)位篩選技術(shù)時(shí),物方格網(wǎng)大小分別設(shè)置為(258 m×258 m)和(326 m×290 m),單個(gè)格網(wǎng)內(nèi)點(diǎn)數(shù)量閾值κ分別設(shè)置為150和100,則提取到的連接點(diǎn)數(shù)量比例分別減少了33%和6%,但像方精度反而分別提高了0.09像素和0.04像素。這是因?yàn)槲锓椒謮K的點(diǎn)位篩選技術(shù)不僅可以提升平差的幾何強(qiáng)度,還能剔除了一些粗差點(diǎn),故提高了平差的精度。對(duì)于沙漠?dāng)?shù)據(jù)采用基于物方分塊的點(diǎn)位篩選技術(shù)對(duì)于精度提高的效果不甚明顯,其原因是沙漠?dāng)?shù)據(jù)紋理匱乏導(dǎo)致提取出來(lái)的連接點(diǎn)數(shù)量不夠多,所以使得物方分塊點(diǎn)位篩選技術(shù)的作用力不足。

    (3) 對(duì)于嵩山影像數(shù)據(jù)和沙漠影像數(shù)據(jù),采用 SIFT特征點(diǎn)采用最小二乘匹配技術(shù)像方精度分別提高了0.12像素和0.18像素。這是因?yàn)楸疚牟捎肧IFT點(diǎn)位信息初始化最小二乘匹配的參數(shù),對(duì)提高最小二乘匹配精度非常有效。本文結(jié)果同時(shí)表明SIFT特征的定位結(jié)果雖為亞像素級(jí),但依然還有較大提高空間。

    3 結(jié) 論

    本文對(duì)影像連接點(diǎn)自動(dòng)提取技術(shù)中存在的問(wèn)題進(jìn)行了梳理,進(jìn)而有針對(duì)性地構(gòu)建了一種均衡化高精度的影像連接點(diǎn)提取方法,選取嵩山影像數(shù)據(jù)和沙漠影像數(shù)據(jù)進(jìn)行了試驗(yàn)測(cè)試,結(jié)果證明本文方法在重復(fù)紋理、弱紋理處理、連接點(diǎn)篩選和連接點(diǎn)高精度定位等方面具有優(yōu)勢(shì)。未來(lái)將對(duì)連接點(diǎn)數(shù)量、分布情況以及定位精度等因素與光束法平差精度之間更深層次的內(nèi)在關(guān)系進(jìn)行研究,使得連接點(diǎn)提取更加有的放矢,同時(shí)也將采用更多類(lèi)型的影像數(shù)據(jù)對(duì)方法進(jìn)行廣泛的測(cè)試。

    [1] 于英. 無(wú)人機(jī)動(dòng)態(tài)攝影測(cè)量若干關(guān)鍵技術(shù)研究[D]. 鄭州:信息工程大學(xué), 2014. YU Ying. Research on Key Technologies of UAV Dynamic Photogrammetry[D]. Zhengzhou: Information Engineering University, 2014.

    [2] 薛武. 無(wú)人機(jī)視頻地理信息定標(biāo)與直播處理技術(shù)[D]. 鄭州:信息工程大學(xué), 2014. XUE Wu. The Calibration of UAV Video Geo-information and Live Processing Technology[D]. Zhengzhou: Information Engineering University, 2014.

    [3] SCHINDLER K, HARTMANN W, HAVLENA M. Recent Developments in Large-scale Tie-point Search[C]∥Proceedings of the 55th Photogrammetric Week. Stuttgart: ETH, 2015: 7-11.

    [4] 楊化超, 張書(shū)畢, 張秋昭. 基于SIFT的寬基線(xiàn)立體影像最小二乘匹配方法[J]. 測(cè)繪學(xué)報(bào), 2010, 39(2): 187-194. YANG Huachao, ZHANG Shubi, ZHANG Qiuzhao. Least Squares Matching Methods for Wide Base-line Stereo Images Based on SIFT Features[J]. Acta Geodaetica et Cartographica Sinica, 2010, 39(2): 187-194.

    [5] 楊化超, 張磊, 姚國(guó)標(biāo), 等. 局部單應(yīng)約束的高精度圖像自動(dòng)配準(zhǔn)方法[J]. 測(cè)繪學(xué)報(bào), 2012, 41(3): 401-408. YANG Huachao, Zhang Lei, YAO Guobiao, et al. An Automated Image Registration Method with High Accuracy Based on Local Homography Constrain[J]. Acta Geodaetica et Cartographica Sinica, 2012, 41(3): 401-408.

    [6] BAY H, TUYTELAARS T, VAN GOOL L. Surf: Speeded up Robust Features[C]∥Proceedings of the 9th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2006: 404-417.

    [7] YU Guoshen, MOREL J M. Asift: An Algorithm for Fully Affine Invariant Comparison[J]. Image Processing On Line, 2011(1):2105-2132.

    [8] ALCANTARILLA P F, BARTOLI A, DAVISON A J. KAZE Features[C]∥Proceedings of the 12th European Conference on Computer Vision. Berlin Heidelberg: Springer, 2012: 214-227.

    [9] 羅楠, 孫權(quán)森, 陳強(qiáng), 等. 結(jié)合SURF特征點(diǎn)與DAISY描述符的圖像匹配算法[J]. 計(jì)算機(jī)科學(xué), 2014, 41(11): 286-290, 300. LUO Nan, SUN Quansen, CHEN Qiang, et al. Image Matching Algorithm Combining SURF Feature Point and DAISY Descriptor[J]. Computer Science, 2014, 41(11): 286-290, 300.

    [10] WU Changchang. SiftGPU: A GPU Implementation of Scale Invariant Feature Transform (SIFT)[EB/OL]. (2011-06-30).[2015-12-13]. http:∥cs.unc.edu/~ccwu/siftgpu.

    [11] 戴激光, 宋偉東, 賈永紅, 等. 一種新的異源高分辨率光學(xué)衛(wèi)星遙感影像自動(dòng)匹配算法[J]. 測(cè)繪學(xué)報(bào), 2013, 42(1): 80-86. DAI Jiguang, SONG Weidong, JIA Yonghong, et al. A New Automatically Matching Algorithm for Multi-source High Resolution Optical Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(1): 80-86.

    [12] 閆利, 費(fèi)亮, 葉志云, 等. 大范圍傾斜多視影像連接點(diǎn)自動(dòng)提取的區(qū)域網(wǎng)平差法[J]. 測(cè)繪學(xué)報(bào), 2016, 45(3): 310-317, 338. DOI: 10.11947/j.AGCS.2016.20140673. YAN Li, FEI Liang, YE Zhiyun, et al. Automatic Tie-points Extraction for Triangulation of Large-scale Oblique Multi-view Images[J]. Acta Geodaetica et Cartographica Sinica, 2016, 45(3): 310-317, 338. DOI: 10.11947/j.AGCS.2016.20140673.

    [13] BARAZZETTI L, REMONDINO F, SCAIONI M. Extraction of Accurate Tie Points for Automated Pose Estimation of Close-range Blocks[C]∥ISPRS Technical Commission Ⅲ Symposium on Photogrammetric Computer Vision and Image Analysis. Saint-Mandé, France: ISPRS, 2010.

    [14] 肖雄武, 郭丙軒, 李德仁, 等. 一種具有仿射不變性的傾斜影像快速匹配方法[J]. 測(cè)繪學(xué)報(bào), 2015, 44(4): 414-421. DOI: 10.11947/j.AGCS.2015.20140048. XIAO Xiongwu, GUO Bingxuan, LI Deren, et al. A Quick and Affine Invariance Matching Method for Oblique Images[J]. Acta Geodaetica et Cartographica Sinica, 2015, 44(4): 414-421. DOI: 10.11947/j.AGCS.2015.20140048.

    [15] 許志華, 吳立新, 劉軍, 等. 顧及影像拓?fù)涞腟fM算法改進(jìn)及其在災(zāi)場(chǎng)三維重建中的應(yīng)用[J]. 武漢大學(xué)學(xué)報(bào)(信息科學(xué)版), 2015, 40(5): 599-606. XU Zhihua, WU Lixin, LIU Jun, et al. Modification of SfM Algorithm Referring to Image Topology and Its Application in 3-Dimension Reconstruction of Disaster Area[J]. Geomatics and Information Science of Wuhan University, 2015, 40(5): 599-606.

    [16] CHEN Tianze, CHEN Limin. A Union Matching Method for SAR Images Based on SIFT and Edge Strength[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2014, 7(12): 4897-4906.

    [17] ALSTRUP S, THORUP M, GRTZ I L, et al. Union-find with Constant Time Deletions[J]. ACM Transactions on Algorithms (TALG), 2014, 11(1): 6.

    [18] EISENBEIβ H. UAV Photogrammetry[D]. Zürich: ETH, 2009.

    [19] 崔紅霞, 林宗堅(jiān), 楊洪, 等. 無(wú)人飛艇低空數(shù)碼影像多視攝影測(cè)量[J]. 光電工程, 2008, 35(7): 73-78. CUI Hongxia, LIN Zongjian, YANG Hong, et al. Multiview Photogrammetry Using Low Altitude Digital Images from Unmanned Airship[J]. Opto-Electronic Engineering, 2008, 35(7): 73-78.

    [20] 紀(jì)松. 多視匹配策略與優(yōu)化方法研究[D]. 鄭州:信息工程大學(xué), 2012. JI Song. Study on the Strategy and Improvement Method of Multi-view Matching Technology[D]. Zhengzhou: Information Engineering University, 2012.

    [21] 姚國(guó)標(biāo), 鄧喀中, 張力, 等. 融合互補(bǔ)仿射不變特征的傾斜立體影像高精度自動(dòng)配準(zhǔn)方法[J]. 測(cè)繪學(xué)報(bào), 2013, 42(6): 869-876. YAO Guobiao, DENG Kazhong, ZHANG Li, et al. An Automated Registration Method with High Accuracy for Oblique Stereo Images Based on Complementary Affine Invariant Features[J]. Acta Geodaetica et Cartographica Sinica, 2013, 42(6): 869-876.

    [22] HUO Chunlei, PAN Chunhong, HUO Leigang, et al. Multilevel SIFT Matching for Large-size VHR Image Registration[J]. IEEE Geoscience and Remote Sensing Letters, 2012, 9(2): 171-175.

    [23] 張永生. 高分辨率遙感測(cè)繪嵩山實(shí)驗(yàn)場(chǎng)的設(shè)計(jì)與實(shí)現(xiàn)——兼論航空航天遙感定位精度與可靠性的基地化驗(yàn)證方法[J]. 測(cè)繪科學(xué)技術(shù)學(xué)報(bào), 2012, 29(2): 79-82. ZHANG Yongsheng. Design and Implementation of Songshan Test Field for High Resolution Remote Sensing and Mapping[J]. Journal of Geomatics Science and Technology, 2012, 29(2): 79-82.

    [24] 袁修孝. POS輔助光束法區(qū)域網(wǎng)平差[J]. 測(cè)繪學(xué)報(bào), 2008, 37(3): 342-348. YUAN Xiuxiao. POS-supported Bundle Block Adjustment[J]. Acta Geodaetica et Cartographica Sinica, 2008, 37(3): 342-348.

    [25] 汪韜陽(yáng), 張過(guò), 李德仁, 等. 資源三號(hào)測(cè)繪衛(wèi)星影像平面和立體區(qū)域網(wǎng)平差比較[J]. 測(cè)繪學(xué)報(bào), 2014, 43(4): 389-395. DOI: 10.13485/j.cnki.11-2089.2014.0058. WANG Taoyang, ZHANG Guo, LI Deren, et al. Comparison between Plane and Stereo Block Adjustment for ZY-3 Satellite Images[J]. Acta Geodaetica et Cartographica Sinica, 2014, 43(4): 389-395. DOI: 10.13485/j.cnki.11-2089.2014.0058.

    (責(zé)任編輯:宋啟凡)

    Automatic Tie Points Extraction with Uniform Distribution and High Precision

    YU Ying1,2,ZHANG Yongsheng1,XUE Wu1,2,LI Lei1,2

    1. Institute of Surveying and Mapping,Information Engineering University,Zhengzhou 450001,China; 2. State Key Laboratory of Geo-information Engineering,Xi’an 710054,China

    To solve the problem of matching errors, redundant points with bad distribution,and low points position precision in photogrammetry aerial triangulation,an automatic tie points extraction with uniform distribution and high precision is presented. Firstly, Block SIFT technology is conducted on every image, then an unordered feature tracking method based on union-find set is adopted to detect the multi-view correspondences. Secondly, by using the proposed algorithm of points selection in object block space, the relatively balanced points are obtained. Finally, the precision of the image coordinates are improved by least square matching.In the experiment part,Songshan images and desert images are used to test the proposed method. Through the examination and analysis of three indicators, the visual inspection, back projection errors in image space,and the precision of check points, the results show that the proposed method can effectively overcome the difficulties in extracting and matching tie points caused by weak texture and repeated texture, enhance the uniformity of tie points distribution, and improve the position precision of tie points.

    tie points extraction;SIFT;block;union-find set; least squares matching Foundation support: The National Natural Science Foundation of China(No. 41501482); State Key Laboratory of Geo-information Engineering(Nos.SKLGIE 2015-M-3-6;SKLGIE 2014-M-3-1)

    YU Ying(1985—), male, PhD,majors in UAV photogrammetry.

    于英,張永生,薛武,等.影像連接點(diǎn)均衡化高精度自動(dòng)提取[J].測(cè)繪學(xué)報(bào),2017,46(1):90-97.

    10.11947/j.AGCS.2017.20160320. YU Ying,ZHANG Yongsheng,XUE Wu,et al.Automatic Tie Points Extraction with Uniform Distribution and High Precision [J]. Acta Geodaetica et Cartographica Sinica,2017,46(1):90-97. DOI:10.11947/j.AGCS.2017.20160320.

    P231

    A

    1001-1595(2017)01-0090-08

    國(guó)家自然科學(xué)基金(41501482);地理信息工程國(guó)家重點(diǎn)實(shí)驗(yàn)室開(kāi)放研究基金(SKLGIE 2015-M-3-6;SKLGIE 2014-M-3-1)

    2016-06-24

    于英(1985—),男,博士,研究方向?yàn)闊o(wú)人機(jī)攝影測(cè)量。

    E-mail: yuying5559104@163.com

    修回日期: 2016-09-25

    猜你喜歡
    嵩山連接點(diǎn)格網(wǎng)
    基于A3航攝儀的小基高比影像連接點(diǎn)精提取技術(shù)研究
    實(shí)時(shí)電離層格網(wǎng)數(shù)據(jù)精度評(píng)估
    我愛(ài)我家
    尹朝陽(yáng):嵩山高
    鄭州嵩山地磁臺(tái)站建站可行性分析
    基于彈性厚粘膠層的結(jié)構(gòu)性連接點(diǎn)響應(yīng)建模和預(yù)測(cè)
    基于空間信息格網(wǎng)與BP神經(jīng)網(wǎng)絡(luò)的災(zāi)損快速評(píng)估系統(tǒng)
    基于相關(guān)性篩選原理的公共連接點(diǎn)諧波畸變量的分層量化
    顏學(xué)海:把握投資創(chuàng)新與模式創(chuàng)新的連接點(diǎn)
    平均Helmert空間重力異常格網(wǎng)構(gòu)制方法
    精品人妻熟女av久视频| 亚洲自偷自拍三级| 夜夜看夜夜爽夜夜摸| 网址你懂的国产日韩在线| 国产免费男女视频| 亚洲真实伦在线观看| www.999成人在线观看| 欧美zozozo另类| 夜夜夜夜夜久久久久| 亚洲在线观看片| 在线a可以看的网站| 婷婷色综合大香蕉| 岛国在线免费视频观看| 少妇人妻精品综合一区二区 | 我要看日韩黄色一级片| 久久中文看片网| 天堂动漫精品| 一区二区三区四区激情视频 | 亚洲一区二区三区不卡视频| 国产探花极品一区二区| 少妇熟女aⅴ在线视频| 一进一出抽搐gif免费好疼| 国产精品免费一区二区三区在线| 久久亚洲真实| 直男gayav资源| 91在线观看av| 老女人水多毛片| 老女人水多毛片| 欧美另类亚洲清纯唯美| 国产在线精品亚洲第一网站| 国产亚洲精品av在线| 在线观看免费视频日本深夜| 身体一侧抽搐| 在线观看免费视频日本深夜| 亚洲中文字幕一区二区三区有码在线看| 日韩免费av在线播放| 亚洲精品日韩av片在线观看| 国内揄拍国产精品人妻在线| 在线免费观看的www视频| 丰满乱子伦码专区| 亚洲av第一区精品v没综合| 日韩欧美精品免费久久 | 欧美日韩黄片免| 色在线成人网| 在线观看一区二区三区| 哪里可以看免费的av片| 在线观看美女被高潮喷水网站 | xxxwww97欧美| av欧美777| 亚洲精品久久国产高清桃花| 欧美性猛交╳xxx乱大交人| 色播亚洲综合网| 亚洲欧美激情综合另类| 亚洲男人的天堂狠狠| 亚洲av中文字字幕乱码综合| 国产亚洲精品久久久久久毛片| 日韩欧美精品v在线| 久久精品夜夜夜夜夜久久蜜豆| 我的女老师完整版在线观看| 亚洲成人精品中文字幕电影| 婷婷六月久久综合丁香| 波多野结衣高清作品| 狠狠狠狠99中文字幕| 精品欧美国产一区二区三| 很黄的视频免费| 老司机福利观看| 啦啦啦韩国在线观看视频| 成人国产综合亚洲| h日本视频在线播放| 日本黄色视频三级网站网址| 亚洲成人中文字幕在线播放| 丰满乱子伦码专区| 午夜老司机福利剧场| 美女高潮的动态| 老司机福利观看| 高潮久久久久久久久久久不卡| 婷婷亚洲欧美| 日韩人妻高清精品专区| 国产一区二区在线观看日韩| 99在线人妻在线中文字幕| 欧美日韩乱码在线| 别揉我奶头~嗯~啊~动态视频| 老司机午夜十八禁免费视频| 久久人妻av系列| 国产中年淑女户外野战色| 最近在线观看免费完整版| 欧美中文日本在线观看视频| 91狼人影院| 国产一区二区三区视频了| 精品久久久久久久久亚洲 | 亚洲自偷自拍三级| 99国产精品一区二区蜜桃av| 亚洲性夜色夜夜综合| 男女之事视频高清在线观看| 亚洲aⅴ乱码一区二区在线播放| 精品一区二区三区视频在线| 国产单亲对白刺激| 亚洲天堂国产精品一区在线| 十八禁国产超污无遮挡网站| 中文字幕av在线有码专区| 在线观看舔阴道视频| 99国产精品一区二区三区| 成人永久免费在线观看视频| 精品久久久久久久人妻蜜臀av| 国产亚洲精品综合一区在线观看| 人妻制服诱惑在线中文字幕| 婷婷精品国产亚洲av| 色哟哟哟哟哟哟| 18禁黄网站禁片免费观看直播| 中文字幕熟女人妻在线| 毛片女人毛片| 久9热在线精品视频| 极品教师在线视频| 午夜福利成人在线免费观看| 精品一区二区三区av网在线观看| 国产伦精品一区二区三区四那| 亚洲一区二区三区不卡视频| av天堂中文字幕网| 国产成+人综合+亚洲专区| 久久香蕉精品热| 人妻夜夜爽99麻豆av| 国产三级在线视频| 日韩欧美一区二区三区在线观看| 国产精品av视频在线免费观看| 十八禁网站免费在线| 久久午夜福利片| 夜夜夜夜夜久久久久| 午夜精品一区二区三区免费看| 久久久久久久久中文| 丰满人妻一区二区三区视频av| 少妇人妻一区二区三区视频| 五月玫瑰六月丁香| 欧美成狂野欧美在线观看| 一卡2卡三卡四卡精品乱码亚洲| 中文字幕高清在线视频| 午夜福利高清视频| 久久久久久久久大av| 欧美性感艳星| 18美女黄网站色大片免费观看| 日韩 亚洲 欧美在线| 欧美丝袜亚洲另类 | 亚洲欧美日韩卡通动漫| 亚洲成av人片免费观看| 日本在线视频免费播放| 午夜日韩欧美国产| 99视频精品全部免费 在线| 久久精品91蜜桃| av中文乱码字幕在线| 国产免费av片在线观看野外av| 一进一出好大好爽视频| 天堂√8在线中文| 色播亚洲综合网| 最新在线观看一区二区三区| 成人美女网站在线观看视频| 国产精品一区二区三区四区免费观看 | 十八禁网站免费在线| 制服丝袜大香蕉在线| 久9热在线精品视频| 色综合欧美亚洲国产小说| 久久久久精品国产欧美久久久| 国产aⅴ精品一区二区三区波| 搞女人的毛片| 婷婷亚洲欧美| 国产精品久久久久久亚洲av鲁大| 丰满的人妻完整版| 亚洲av电影在线进入| 亚洲18禁久久av| 69av精品久久久久久| 一级黄片播放器| 国产综合懂色| 国产精品电影一区二区三区| 亚洲中文日韩欧美视频| 成人永久免费在线观看视频| 精品一区二区三区视频在线观看免费| 九九久久精品国产亚洲av麻豆| 狠狠狠狠99中文字幕| 国产美女午夜福利| 国产高清三级在线| 国产精品98久久久久久宅男小说| 人人妻,人人澡人人爽秒播| 丰满的人妻完整版| 99久久无色码亚洲精品果冻| 午夜福利成人在线免费观看| 99久久99久久久精品蜜桃| 自拍偷自拍亚洲精品老妇| 一个人免费在线观看的高清视频| 两个人视频免费观看高清| 亚洲精品久久国产高清桃花| 欧美成人免费av一区二区三区| 桃色一区二区三区在线观看| 中文在线观看免费www的网站| 欧美不卡视频在线免费观看| av在线观看视频网站免费| 天堂√8在线中文| 亚洲精品影视一区二区三区av| 精品午夜福利视频在线观看一区| 国产欧美日韩精品一区二区| 一区二区三区激情视频| 黄色女人牲交| 日韩欧美精品免费久久 | 99国产极品粉嫩在线观看| 黄片小视频在线播放| 亚洲aⅴ乱码一区二区在线播放| 日本撒尿小便嘘嘘汇集6| 一进一出抽搐动态| 桃色一区二区三区在线观看| 丁香六月欧美| 亚洲av成人不卡在线观看播放网| 久久久精品欧美日韩精品| 18禁裸乳无遮挡免费网站照片| 精品日产1卡2卡| 麻豆成人av在线观看| 在线观看一区二区三区| 国产精品自产拍在线观看55亚洲| 午夜免费激情av| 国产久久久一区二区三区| 免费无遮挡裸体视频| 99国产极品粉嫩在线观看| 精品久久久久久久久av| 成人av在线播放网站| 午夜久久久久精精品| 久久精品91蜜桃| 国产精品日韩av在线免费观看| 一级作爱视频免费观看| 亚洲av电影不卡..在线观看| 欧美+日韩+精品| av中文乱码字幕在线| 欧美成人性av电影在线观看| 无人区码免费观看不卡| 成人欧美大片| 亚洲 欧美 日韩 在线 免费| 久久中文看片网| 国产精品爽爽va在线观看网站| 一区二区三区免费毛片| 亚洲人成伊人成综合网2020| 日本三级黄在线观看| 久久久久免费精品人妻一区二区| 日韩人妻高清精品专区| 九九热线精品视视频播放| 亚洲人与动物交配视频| 国产亚洲精品综合一区在线观看| ponron亚洲| 成年版毛片免费区| 久久久久亚洲av毛片大全| 久久精品综合一区二区三区| 国内精品久久久久久久电影| 91狼人影院| 欧美日本亚洲视频在线播放| 国产精品免费一区二区三区在线| 夜夜爽天天搞| 99热这里只有精品一区| 黄色配什么色好看| 免费av毛片视频| 国产亚洲av嫩草精品影院| 真实男女啪啪啪动态图| 精品一区二区三区视频在线观看免费| 国产三级黄色录像| 在线免费观看不下载黄p国产 | 亚洲第一电影网av| 免费av观看视频| 99国产极品粉嫩在线观看| 亚洲精品色激情综合| 俺也久久电影网| 美女被艹到高潮喷水动态| 亚洲专区中文字幕在线| 亚洲av免费在线观看| 一级av片app| 日韩免费av在线播放| 午夜福利在线观看吧| 看片在线看免费视频| 欧美午夜高清在线| 免费黄网站久久成人精品 | 国产淫片久久久久久久久 | 可以在线观看毛片的网站| 亚洲最大成人中文| 91av网一区二区| a级毛片a级免费在线| 国产亚洲精品久久久com| 欧美潮喷喷水| 97人妻精品一区二区三区麻豆| 99久久无色码亚洲精品果冻| 精品久久久久久久久久免费视频| 不卡一级毛片| 久久精品综合一区二区三区| 亚洲欧美精品综合久久99| 人妻制服诱惑在线中文字幕| 日韩中字成人| 在线观看午夜福利视频| 成人美女网站在线观看视频| 波多野结衣高清无吗| 亚洲aⅴ乱码一区二区在线播放| 在线播放国产精品三级| 欧美日韩综合久久久久久 | 天堂网av新在线| 永久网站在线| 黄色女人牲交| 麻豆国产av国片精品| 91狼人影院| avwww免费| 国产亚洲av嫩草精品影院| 久久久久免费精品人妻一区二区| 亚洲专区国产一区二区| 亚洲精品亚洲一区二区| 国产黄a三级三级三级人| 亚洲人成电影免费在线| 夜夜躁狠狠躁天天躁| av在线蜜桃| 少妇裸体淫交视频免费看高清| 一卡2卡三卡四卡精品乱码亚洲| h日本视频在线播放| 88av欧美| 禁无遮挡网站| 小蜜桃在线观看免费完整版高清| 一进一出抽搐gif免费好疼| 国产精品女同一区二区软件 | 一级av片app| 一级黄色大片毛片| 99在线人妻在线中文字幕| 美女高潮的动态| 亚洲最大成人中文| 他把我摸到了高潮在线观看| 99久久精品国产亚洲精品| 欧美日本视频| 日韩欧美精品v在线| 最近最新免费中文字幕在线| 日韩欧美在线二视频| 亚洲精品一卡2卡三卡4卡5卡| 男女床上黄色一级片免费看| 国产精品久久久久久人妻精品电影| 欧美国产日韩亚洲一区| 日本黄大片高清| 日本精品一区二区三区蜜桃| 成年免费大片在线观看| 国产精品乱码一区二三区的特点| 久久久久久久久大av| 午夜老司机福利剧场| 国产精品电影一区二区三区| 国产三级中文精品| av视频在线观看入口| 免费看日本二区| 国产极品精品免费视频能看的| 欧美性猛交╳xxx乱大交人| 国产单亲对白刺激| 国产毛片a区久久久久| 久久久成人免费电影| 午夜福利在线观看吧| 丁香六月欧美| avwww免费| 成人av在线播放网站| 韩国av一区二区三区四区| 久久精品久久久久久噜噜老黄 | 久久精品国产清高在天天线| 亚洲人与动物交配视频| 成人高潮视频无遮挡免费网站| 丰满人妻一区二区三区视频av| bbb黄色大片| 91在线观看av| 日本五十路高清| 97热精品久久久久久| 国产又黄又爽又无遮挡在线| 中文字幕av成人在线电影| 十八禁人妻一区二区| 在线播放无遮挡| 久久亚洲精品不卡| 久久午夜福利片| 中文字幕av在线有码专区| 婷婷六月久久综合丁香| 国产欧美日韩一区二区精品| 国产精品99久久久久久久久| 久久久成人免费电影| 欧美3d第一页| 国产视频一区二区在线看| 天堂动漫精品| 亚洲激情在线av| 99久久无色码亚洲精品果冻| 九色国产91popny在线| 日本五十路高清| 欧美成人性av电影在线观看| 高潮久久久久久久久久久不卡| 18禁黄网站禁片免费观看直播| 国产真实乱freesex| 国产白丝娇喘喷水9色精品| 女生性感内裤真人,穿戴方法视频| 久久伊人香网站| 人人妻人人澡欧美一区二区| 亚洲精品久久国产高清桃花| 中文亚洲av片在线观看爽| www.www免费av| 成人特级黄色片久久久久久久| 性色avwww在线观看| 变态另类成人亚洲欧美熟女| 俺也久久电影网| 国产极品精品免费视频能看的| 久久久色成人| 久久欧美精品欧美久久欧美| 久久久国产成人精品二区| 一级a爱片免费观看的视频| 男人狂女人下面高潮的视频| 热99在线观看视频| 精品人妻一区二区三区麻豆 | 国产精品98久久久久久宅男小说| 禁无遮挡网站| 大型黄色视频在线免费观看| 欧美3d第一页| 亚洲美女视频黄频| 亚洲av成人精品一区久久| 免费高清视频大片| 国产亚洲精品综合一区在线观看| 69人妻影院| 又黄又爽又免费观看的视频| 亚洲黑人精品在线| 精品国产亚洲在线| 国产成人av教育| 欧美日本亚洲视频在线播放| 精品久久久久久成人av| 热99在线观看视频| 国产 一区 欧美 日韩| 亚洲av美国av| 日韩大尺度精品在线看网址| 亚洲狠狠婷婷综合久久图片| 国产精品99久久久久久久久| 精品久久久久久久末码| 国产精品一区二区性色av| 18禁黄网站禁片午夜丰满| 最好的美女福利视频网| 婷婷丁香在线五月| 色吧在线观看| 赤兔流量卡办理| 俄罗斯特黄特色一大片| 精品福利观看| 精品欧美国产一区二区三| 又粗又爽又猛毛片免费看| 美女高潮的动态| 少妇丰满av| 国产av一区在线观看免费| 精品午夜福利在线看| 免费人成在线观看视频色| 中文字幕熟女人妻在线| 老熟妇乱子伦视频在线观看| 亚洲av免费高清在线观看| 欧美一区二区精品小视频在线| 日本撒尿小便嘘嘘汇集6| 欧美在线黄色| 中文在线观看免费www的网站| 长腿黑丝高跟| 欧美日本视频| 欧美黑人巨大hd| 九九在线视频观看精品| 国产欧美日韩一区二区精品| 日本与韩国留学比较| 欧美高清性xxxxhd video| 久久久久久久久久黄片| 9191精品国产免费久久| 欧美黑人巨大hd| 亚洲中文字幕一区二区三区有码在线看| 亚洲人与动物交配视频| 中文字幕人成人乱码亚洲影| 一本精品99久久精品77| 琪琪午夜伦伦电影理论片6080| 色吧在线观看| 亚洲在线观看片| 亚洲最大成人av| 欧美绝顶高潮抽搐喷水| 一本久久中文字幕| 国产精品久久久久久亚洲av鲁大| 中文字幕免费在线视频6| 香蕉av资源在线| 怎么达到女性高潮| 国产精品精品国产色婷婷| 少妇熟女aⅴ在线视频| 久久久久九九精品影院| 神马国产精品三级电影在线观看| 蜜桃久久精品国产亚洲av| 男女床上黄色一级片免费看| 9191精品国产免费久久| 色精品久久人妻99蜜桃| 1000部很黄的大片| 蜜桃亚洲精品一区二区三区| 久久久久久久久久黄片| 国产亚洲精品av在线| 欧美成人a在线观看| 国产免费一级a男人的天堂| 一级黄片播放器| 一区福利在线观看| 可以在线观看毛片的网站| 国产伦人伦偷精品视频| 久久精品91蜜桃| 欧美色欧美亚洲另类二区| 欧美bdsm另类| 亚洲三级黄色毛片| 免费看美女性在线毛片视频| 免费无遮挡裸体视频| 国产淫片久久久久久久久 | 狂野欧美白嫩少妇大欣赏| 精品久久久久久,| 天堂影院成人在线观看| or卡值多少钱| 又紧又爽又黄一区二区| 国产中年淑女户外野战色| 亚洲片人在线观看| 国产激情偷乱视频一区二区| 两个人视频免费观看高清| 午夜福利在线观看免费完整高清在 | 国语自产精品视频在线第100页| 最近在线观看免费完整版| 日韩欧美精品v在线| 国产大屁股一区二区在线视频| 成年女人永久免费观看视频| 99久久九九国产精品国产免费| 好男人在线观看高清免费视频| 国产av在哪里看| 尤物成人国产欧美一区二区三区| 一个人免费在线观看的高清视频| 三级男女做爰猛烈吃奶摸视频| 99精品久久久久人妻精品| www日本黄色视频网| 欧美一级a爱片免费观看看| 乱人视频在线观看| 九九在线视频观看精品| 夜夜夜夜夜久久久久| 免费电影在线观看免费观看| 免费av观看视频| 欧美成人一区二区免费高清观看| 国产精品影院久久| 亚洲天堂国产精品一区在线| 黄色视频,在线免费观看| 国产老妇女一区| 在线看三级毛片| 亚洲av.av天堂| 中文资源天堂在线| 免费观看的影片在线观看| 亚洲精品在线观看二区| 国产大屁股一区二区在线视频| 听说在线观看完整版免费高清| 欧美区成人在线视频| 久99久视频精品免费| 日本与韩国留学比较| 欧洲精品卡2卡3卡4卡5卡区| АⅤ资源中文在线天堂| 国产熟女xx| 国产精品久久视频播放| 久久热精品热| 成人亚洲精品av一区二区| 欧美黑人欧美精品刺激| 国产精品人妻久久久久久| 免费人成视频x8x8入口观看| 国产精品一区二区性色av| 日本黄色片子视频| 丰满人妻一区二区三区视频av| 看黄色毛片网站| 日韩av在线大香蕉| 99久久久亚洲精品蜜臀av| 久久久国产成人精品二区| 亚洲av.av天堂| 看黄色毛片网站| 91久久精品国产一区二区成人| 不卡一级毛片| 国产成人欧美在线观看| 黄片小视频在线播放| 91在线观看av| 成人无遮挡网站| 97碰自拍视频| av黄色大香蕉| or卡值多少钱| 亚洲成人免费电影在线观看| 欧美xxxx性猛交bbbb| 男女下面进入的视频免费午夜| 日本一本二区三区精品| 国产精品女同一区二区软件 | 自拍偷自拍亚洲精品老妇| 99久久成人亚洲精品观看| 欧美一区二区国产精品久久精品| 激情在线观看视频在线高清| 99精品久久久久人妻精品| 欧美在线黄色| 精品国内亚洲2022精品成人| 免费看美女性在线毛片视频| 亚洲中文字幕日韩| 老司机午夜十八禁免费视频| www.色视频.com| 亚洲国产日韩欧美精品在线观看| 亚洲精品色激情综合| 内射极品少妇av片p| 精品熟女少妇八av免费久了| 日本 av在线| 亚洲中文日韩欧美视频| 精品久久久久久久末码| 波多野结衣高清无吗| 欧美国产日韩亚洲一区| 亚洲av日韩精品久久久久久密| 精品福利观看| 欧美xxxx性猛交bbbb| 亚洲综合色惰| 欧美日本视频| 久久久久九九精品影院| 欧美日本亚洲视频在线播放| 亚洲在线观看片| 亚洲aⅴ乱码一区二区在线播放| 久久欧美精品欧美久久欧美| 亚洲在线自拍视频| 欧美黑人巨大hd| 亚洲成人精品中文字幕电影| 成人欧美大片| 夜夜爽天天搞| 最好的美女福利视频网| 99精品在免费线老司机午夜| 一边摸一边抽搐一进一小说| 丁香欧美五月| 看黄色毛片网站| 男人和女人高潮做爰伦理| 一a级毛片在线观看| 91九色精品人成在线观看| 国产真实乱freesex| 国产精品一及| 国产精品一区二区三区四区免费观看 |