• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于誤差分量模型的兩階段深度校正算法

    2025-02-28 00:00:00李平喻洪流
    計算機(jī)應(yīng)用研究 2025年2期

    摘 要:為了提高消費(fèi)級RGB-D相機(jī)的深度精度,提出了一種基于誤差分量模型的兩階段深度校正算法。該算法根據(jù)誤差特性建立誤差分量模型,引入從短距離到長距離迭代計算思想,設(shè)計了兩階段深度校正算法。探究了像素離散化對校正效果的影響,將算法應(yīng)用于洗浴機(jī)器人中,并與其他深度校正算法進(jìn)行對比。結(jié)果表明,該算法可減小深度誤差,且像素離散化采樣越密集,效果越好。在實際應(yīng)用中,該算法仍能有效減小深度誤差,與其他校正算法相比,在遠(yuǎn)距離處具有優(yōu)勢。該算法能有效提升消費(fèi)級RGB-D相機(jī)的深度精度,且數(shù)據(jù)收集場景簡單,適用于可以產(chǎn)生RGB圖像、深度圖像和點(diǎn)云的傳感器。

    關(guān)鍵詞:消費(fèi)級RGB-D相機(jī);深度校正;局部誤差;全局誤差;像素離散化;深度質(zhì)量評價

    中圖分類號:TP391 文獻(xiàn)標(biāo)志碼:A 文章編號:1001-3695(2025)02-028-0523-07

    doi:10.19734/j.issn.1001-3695.2024.06.0189

    Two-stage depth correction algorithm based on error component modeling

    Li Ping1,2,Yu Hongliu1

    (1.Institute of Rehabilitation Engineering amp; Technology,University of Shanghai for Science amp; Technology,Shanghai 200093,China;2.Dept.of Biomedical Engineering,Changzhi Medical College,Changzhi Shanxi 046000,China)

    Abstract:To improve the depth accuracy of consumer-grade RGB-D cameras,this paper proposed a two-stage depth correction algorithm based on an error component model.The algorithm established an error component model by analyzing error characteristics,employed an iterative calculation approach that progressed from short to long distances,and designed a two-stage depth correction algorithm.This paper explored the effect of pixel discretization on correction accuracy,applied the algorithm to a bathing robot,and compared its performance with that of another depth correction algorithm.The results indicate that this method effectively reduces depth errors,with better performance observed as pixel discretization becomes denser.In practical applications,the algorithm consistently minimizes depth errors and demonstrates superior performance at longer distances compared to alternative correction methods.The algorithm not only enhances the depth accuracy of consumer-grade RGB-D cameras but also features a simple data collection setup,making it suitable for sensors that generate RGB images,depth images,and point clouds.

    Key words:consumer-grade RGB-D cameras;depth correction;local errors;global errors;pixel discretization;depth quality evaluation

    0 引言

    消費(fèi)級RGB-D相機(jī)得到的深度數(shù)據(jù)具有噪聲大、精度較低和存在異常點(diǎn)等缺點(diǎn)[1],RGB-D設(shè)備出廠時的校準(zhǔn)參數(shù)質(zhì)量用于游戲和虛擬現(xiàn)實等應(yīng)用場景是足夠的,但對于機(jī)器人應(yīng)用的高精度定位要求是不足夠的。研究用于洗浴機(jī)器人中的消費(fèi)級RGB-D相機(jī)D455的深度校正算法,對實現(xiàn)洗浴機(jī)器人的高精度目標(biāo)定位具有重要意義。

    Yamazoe等人[2]提出了針對Kinect的深度測量誤差模型,基于參數(shù)估計方法進(jìn)行了誤差校正,并考慮了投影儀的失真問題。Jung等人[3]設(shè)計了2.5D帶孔標(biāo)定板,進(jìn)行距離偏差校正,但適合校準(zhǔn)基于飛行時間法的RGB-D相機(jī)。Herrera等人[4]提出了一種深度傳感器深度失真模型,提取了深度圖像中棋盤格標(biāo)定平面的四個角,實現(xiàn)了比制造商提供的更好的校準(zhǔn)精度,但存在視差到深度轉(zhuǎn)換中的漂移現(xiàn)象。Darwish等人[5]采用組合畸變模型對紅外相機(jī)和投影儀產(chǎn)生的畸變和系統(tǒng)誤差進(jìn)行補(bǔ)償,但是只適用于結(jié)構(gòu)光型的RGB-D相機(jī)。Zhang等人[6]基于攝影測量領(lǐng)域的空間切除率和共線方程建立了Kinect v2相機(jī)的標(biāo)定模型,基于深度圖像中像素的畸變對深度測量值進(jìn)行了校正,但適合大于2 m的遠(yuǎn)距離深度校正。Chen等人[7]采用稀疏異方差高斯過程來估計深度誤差相對于測量距離的概率分布,利用運(yùn)動捕捉系統(tǒng)對深度進(jìn)行校正,但對設(shè)備要求較高。

    目前深度校正工作都是針對Kinect或Kinect v2,而這些產(chǎn)品已經(jīng)停產(chǎn),機(jī)器人領(lǐng)域目前所使用的消費(fèi)級相機(jī)主要以Intel? RealSenseTM為主。為了實現(xiàn)面向機(jī)器人應(yīng)用的高定位精度要求,有必要研究Intel? RealSenseTM消費(fèi)級RGB-D相機(jī)的深度校正算法,以提高其深度值精度。首先,基于深度質(zhì)量評價指標(biāo),分析RGB-D相機(jī)深度質(zhì)量,并建立包含全局誤差和局部誤差的誤差分量模型;其次,基于誤差隨距離增加而變大的特性,受迭代計算思想啟發(fā),使用當(dāng)前距離處的校正參數(shù)作為初始值來估計更遠(yuǎn)距離處的誤差校正函數(shù),分別估計局部校正函數(shù)和全局校正函數(shù),其中局部校正函數(shù)校正不同像素處的深度誤差,而全局校正函數(shù)校正平均深度值,即可分別校正誤差分量模型中的兩個誤差,同時為了減小計算量進(jìn)行了像素離散化處理;再次,進(jìn)行深度校正實驗,包括收集數(shù)據(jù)、估計函數(shù)、測試校正效果和分析像素離散化對校正效果的影響,并將其應(yīng)用于洗浴機(jī)器人中;最后,與其他深度校正方法進(jìn)行對比。結(jié)果顯示,本文基于誤差分量模型的兩階段深度校正算法是有效的,在實際應(yīng)用場景中也能有效減小深度誤差,與其他深度校正算法相比,本文算法在遠(yuǎn)距離處有更好的校正效果。

    1 誤差分量模型

    1.1 深度質(zhì)量評價指標(biāo)

    深度質(zhì)量評價指標(biāo)是進(jìn)行深度質(zhì)量分析、研究深度校正算法和評價校正結(jié)果的基礎(chǔ)。用Z-accuracy評價深度數(shù)據(jù)的精度,用填充率評估圖像深度覆蓋的百分比,用均方根誤差(root mean square error,RMSE)評價空間噪聲。Z-accuracy表征測量深度值與實際距離GT的接近程度,用每個像素或者ROI上面的平均深度值和GT間的差異來度量。填充率由有效像素的數(shù)目占總像素數(shù)目的百分比表征。RMSE表征深度值的內(nèi)在變化,RMSE計算每個有效像素與最佳擬合平面的均方根誤差[8]。在三個指標(biāo)中,填充率可以通過在Intel? RealSenseTM Viewer中手動設(shè)置,主要以指標(biāo)Z-accuracy和RMSE作為深度校正研究中的深度質(zhì)量評價指標(biāo)。

    1.2 誤差分量模型

    選用測距誤差為1~2 mm的高精度激光測距儀進(jìn)行GT的獲取。將Intel? RealSenseTM消費(fèi)級RGB-D相機(jī)D455平行于平面墻壁,并不斷增加距離,采集不同距離處的點(diǎn)云以分析深度質(zhì)量。使用兩個高精度激光測距儀測量真實距離,并基于距離相等保證D455和所拍攝墻壁的嚴(yán)格平行。采集的點(diǎn)云示例如圖1所示。

    計算同一個GT處采集到點(diǎn)云的Z-accuracy,如式(1)所示,其中i表示點(diǎn)云中點(diǎn)的索引,n0為點(diǎn)云中點(diǎn)的數(shù)目,ji為每個點(diǎn)處的距離值,GT表示距離真值,表征深度數(shù)據(jù)平均值的準(zhǔn)確程度,將Z-accuracy建模為全局平均誤差,簡稱全局誤差。通過比較點(diǎn)云中點(diǎn)與擬合點(diǎn)云得到的平面之間的差異,計算平面與點(diǎn)之間距離的RMSE,如式(2)所示,d0i為點(diǎn)云中第i個點(diǎn)距離擬合平面的距離,與像素位于點(diǎn)云中的位置有關(guān)[9],表征每個像素處深度值的錯誤程度,將RMSE建模為局部誤差。此為根據(jù)誤差特性建立的包括全局誤差和局部誤差的誤差分量模型。

    Z-accuracy=∑n0i=1|ji-GT|n0(1)

    RMSE=∑n0j=1d0i2n0(2)

    以GT值為橫軸、全局平均誤差和RMSE為縱軸,得到誤差圖,如圖2和3所示。全局平均誤差和RMSE均隨著距離增加而逐步增大,和GT值呈非線性關(guān)系,且同一距離處全局平均誤差大于RMSE。

    2 基于誤差分量模型的兩階段深度校正算法

    假設(shè)深度圖像大小為Wd×Hd,[u,v]像素處采集的深度值為zcj,真實深度值為ztrue。建模zcj和相應(yīng)ztrue如式(3)所示,其中函數(shù)f(u,v)需要考慮深度值的全局和局部誤差校正。

    ztrue=f(u,v)(zcj)(3)

    D455不僅可以拍攝到場景的RGB圖像、深度圖像,還能同時輸出點(diǎn)云信息,點(diǎn)云和深度圖像可以相互轉(zhuǎn)換。由圖2和3可知,局部誤差的存在導(dǎo)致每個像素處的深度測量值偏離GT值,全局誤差的存在會導(dǎo)致平面的深度測量平均值偏離GT值。當(dāng)拍攝平整墻面時,局部誤差體現(xiàn)在每個三維點(diǎn)偏離正確平面的程度,而全局誤差體現(xiàn)在擬合平面與實際平面的偏離。當(dāng)校正上述兩個誤差時,需將每個三維點(diǎn)糾正至正確的平面上,并修正擬合平面和實際平面的偏離。引入棋盤格,角點(diǎn)檢測算法發(fā)展成熟,有助于識別棋盤格及其所在平面。由于誤差隨著距離的增加而變大,引入迭代思想,從短距離開始,使用當(dāng)前距離處的校正參數(shù)作為初始值來估計更遠(yuǎn)距離處的誤差校正函數(shù)?;谡`差分量模型的深度校正算法,分兩個階段完成:a)局部校正函數(shù)fl用于校正不同像素處的深度誤差,每個像素處都應(yīng)該計算一個fl,使平整墻面中的三維點(diǎn)糾正至一個平面上;b)全局校正函數(shù)fg用于校正平均深度值,上述平面被修正至正確的位置處。棋盤格在理論下應(yīng)形成一個平面[10],匹配RGB相機(jī)視野中的棋盤平面和第一步中校正過的點(diǎn)云平面,用來估計全局誤差。但RGB圖和深度圖像所在的參考系不同,兩個參考系間存在剛性變換關(guān)系,需要獲知RGB圖像與點(diǎn)云之間的變換矩陣CDM才能進(jìn)行函數(shù)擬合,同時計算外參的過程依賴于準(zhǔn)確的內(nèi)參[11]。為了解決互為依賴的問題,采取同時優(yōu)化fgCDM的方案。

    基于誤差分量模型的兩階段深度校正算法如圖4所示。從RGB圖像中提取棋盤格角點(diǎn),從深度圖像中生成點(diǎn)云。使用棋盤格角點(diǎn)、相應(yīng)點(diǎn)云和出廠的粗略變換矩陣CDM0估計fl。估計出fl后,將fl作用于點(diǎn)云以校正局部誤差,并將校正過后的點(diǎn)云、棋盤格角點(diǎn)、墻面點(diǎn)云子集聯(lián)合用于計算fgCDM。

    2.1 局部校正函數(shù)估計

    局部校正函數(shù)估計流程如圖5所示。在平整墻面上粘貼棋盤格,基于墻面到相機(jī)的距離升序排列點(diǎn)云,迭代處理每一個點(diǎn)云。使用fl的當(dāng)前估計值作用于初始點(diǎn)云進(jìn)行局部誤差校正。從校正后的點(diǎn)云中提取墻點(diǎn),得到一個點(diǎn)云的子集并擬合一個平面plane,以加快運(yùn)算效率[12],平面plane用來更新fl?;谝暰嗤队疤崛〕鲇糜跀M合fl的數(shù)據(jù),每處理一次校正,點(diǎn)云便產(chǎn)生一組用于擬合fl的數(shù)據(jù)。迭代處理所有的點(diǎn)云,實現(xiàn)fl的迭代更新。迭代結(jié)束后,便得到最終的fl。同時進(jìn)行深度圖像像素離散化以減少需計算的fl數(shù)量。

    2.1.1 提取墻面點(diǎn)子集

    提取RGB圖像中棋盤格的角點(diǎn),以確定正確的平面[13],并基于CDM0定位局部誤差校正后點(diǎn)云中的正確平面?;赗ANSAC方法提取校正點(diǎn)云中正確平面的子集。RANSAC是一種隨機(jī)估計參數(shù)的方法[14~16],用于提取平面的流程如圖6所示。

    2.1.2 更新fl

    設(shè)平面plane方程如式(4)所示,其中n=[A1,B1,C1]T為平面法向量,dN表示視點(diǎn)到平面plane的距離。點(diǎn)云中任一三維點(diǎn)沿視距投影到平面plane上,如圖7所示,O表示視點(diǎn),A表示點(diǎn)云中任一三維點(diǎn),連接A、O并與平面plane交于B點(diǎn),過A點(diǎn)作平面plane的法線,與平面交于C點(diǎn)。過O點(diǎn)作平行于線段BC的直線并與AC交于點(diǎn)D??梢?,CD長度為dN。從圖7可知式(5)成立,其中X=[x,y,z]T,XN=[xplane,yplane,zplane]T?;喌玫绞剑?),由此可知zplane的值。由原始的z和zPlane組成一組數(shù)據(jù)進(jìn)行曲線擬合得到fl,此fl在下一次迭代中被用來校正初始點(diǎn)云,下一輪迭代將按照同樣的方法重新產(chǎn)生一組數(shù)據(jù)對(z,zplane)再次實現(xiàn)對fl的估計,從而實現(xiàn)fl的迭代更新。fl的作用是將圖7中錯誤的A點(diǎn)糾正到正確的平面上。

    nTX-dN=0(4)

    XXN=nTXdN(5)

    XN=dNXnTX(6)

    2.1.3 深度圖像像素離散化

    假設(shè)深度圖像大小為640×480,理論上為每個像素計算一個fl,產(chǎn)生很多時間消耗,而且部分像素處的噪聲導(dǎo)致對fl估計的誤差增大,魯棒性降低。引入系數(shù)Ωh和Ωw,表征HD和WD方向離散采樣后得到的像素大小的個數(shù),如圖8所示,只給采樣的像素估計fl。深度圖像HD×WD中未被采樣到的像素點(diǎn)處的fl由采樣到像素處的fl計算。假設(shè)深度圖像中的一個像素是[ud,vd],它的fl函數(shù)由緊鄰其四周的已經(jīng)被采樣到的四個像素處的fl進(jìn)行線性組合而得到,如式(7)所示,其中S(ud,vd)是所有被采樣到的像素的集合,rW和rH的定義如式(8)所示,且滿足式(9)的條件。

    fl(ud,vd)=∑(sd,td)∈S(ud,vd)rW(ud,sd)rH(vd,td)fl(sd,td)(7)

    rW(ud,sd)=1-|ud-sd|WDw

    rH(vd,td)=1-|vd-td|HDh(8)

    ∑(sd,td)∈S(ud,vd)rW(ud,sd)rH(vd,td)=1(9)

    由以上分析可知,WD×HD大小的深度圖像,在像素離散化處理之前需要計算(WD×HD)個fl,處理之后需要計算的fl個數(shù)GS如式(10)所示。由圖8可知,Ωh的最小值和最大值分別是1和HD,Ωw的最小值和最大值分別是1和WD,極端情況下才能取到最小和最大值??梢?,經(jīng)過對像素的離散化采樣后,需要計算的函數(shù)量變少,可以有效提升算法的時間利用率。

    GS=Ωh×Ωw(10)

    校正函數(shù)的選擇參考了文獻(xiàn)[17],如式(11)所示。對每個采樣到的像素,需要準(zhǔn)確計算出三個參數(shù)ci(i=0,1,2),故離散化后需要估計的參數(shù)個數(shù)為GS×3。為了正確估計出系數(shù)ci,抽象為非線性最小二乘問題[18],如式(12)所示,其中z和zplane是離散化采樣后得到的像素中的相應(yīng)數(shù)據(jù)對。

    fl(u,v)=c0z2+c1z+c2(11)

    argminc0,c1,c2∑(z,zplane)‖c0z2+c1z+c2-zplane2(12)

    經(jīng)過fl處理后,將點(diǎn)云中所有錯誤的點(diǎn)糾正到了擬合平面上。顯然,經(jīng)過fl處理后,擬合平面與點(diǎn)云中點(diǎn)之間距離的RMSE減小。由誤差分量模型的建立過程可知,這意味著起到了減小局部誤差的作用,即達(dá)到了校正局部誤差的目的。

    2.2 全局校正函數(shù)估計

    全局校正函數(shù)估計流程如圖9所示。同一場景下RGB圖像中、對應(yīng)點(diǎn)云中的平面在經(jīng)過一定的旋轉(zhuǎn)和平移后可以重合,且旋轉(zhuǎn)矩陣和平移向量也是RGB圖像坐標(biāo)系和深度圖像坐標(biāo)系間的剛性變換關(guān)系[19]?;诖?,利用RGB圖像和相應(yīng)點(diǎn)云中的平面方程來估計此變換關(guān)系,并將此變換作用于RGB圖像坐標(biāo)系中的平面方程,從而得到深度圖像坐標(biāo)系下的平面方程P,以此實現(xiàn)對fg的更新。和估計fl一樣,基于視距投影從平面P和真實校正點(diǎn)云中提取用于估計fg的數(shù)據(jù)對,將校正點(diǎn)云中點(diǎn)的錯誤深度值修正為正確的深度值。為了減少計算量,同樣進(jìn)行了像素離散化采樣。

    2.2.1 計算CDM0

    計算fg時使用了CDM0。提取RGB圖像中棋盤格平面P1,提取深度圖像坐標(biāo)系下校正點(diǎn)云中的平面P2,從兩個平面的信息標(biāo)定出深度圖像坐標(biāo)系和RGB圖像坐標(biāo)系的初始變換矩陣CDM0。

    如圖10所示,給定n2個棋盤格上的3D空間參考點(diǎn)及相應(yīng)在相機(jī)圖像上對應(yīng)的投射點(diǎn),求解棋盤格坐標(biāo)系與相機(jī)的空間關(guān)系,一般可以利用棋盤格并通過OpenCV提供的solvePnP函數(shù)來求解,是典型的PnP問題[20~22]。將棋盤格坐標(biāo)系中的三維空間點(diǎn)變換到RGB相機(jī)坐標(biāo)系下,通過平面擬合得到P1的方程[23~25]。三個非共線點(diǎn)就能決定一個平面,所以計算P1方程時只使用棋盤格上三個非共線角點(diǎn)??紤]到點(diǎn)云是三維空間中的點(diǎn),使用奇異值分解(singular value decomposition,SVD)擬合三維空間平面來求解P2方程[26]。

    設(shè)點(diǎn)云中有n0個三維點(diǎn),P2方程如式(13)所示。設(shè)p0是三維點(diǎn)集合的重心,其坐標(biāo)為全部點(diǎn)的三維坐標(biāo)平均值,則p0位于平面P2上,有式(14)成立。p0到點(diǎn)集中其他點(diǎn)pi形成的向量位于平面P2內(nèi),與法向量垂直,如式(15)所示。并不是點(diǎn)集中所有的點(diǎn)都嚴(yán)格位于平面P2上,所以以點(diǎn)到P2的距離之和最小建立目標(biāo)函數(shù)[27,28],如式(16)所示,其中F為式(15)中的系數(shù)矩陣,取L1范數(shù)。對F進(jìn)行奇異值分解,將分解結(jié)果帶入目標(biāo)函數(shù),式(16)變?yōu)槭剑?7)。Σ的對角元素為奇異值,若最后一個對角元素為最小奇異值,當(dāng)且僅當(dāng)式(18)成立時目標(biāo)函數(shù)最小。此時F的最小奇異值對應(yīng)的奇異向量就是方程的最優(yōu)解,如式(19)所示。d的計算方法如式(20)所示。根據(jù)法向量n、原點(diǎn)到平面的距離d便獲得平面P2的方程。

    確定變換矩陣CDM0采用兩階段算法。假設(shè)共有n3對平面,P1,i和相應(yīng)的P2,i(i=1,2,…,n3)的法向量和原點(diǎn)到平面的距離分別為nc、nd、dc、dd。在第一個階段,將平移和旋轉(zhuǎn)解耦。兩者之間的平移變換如式(21)所示。在兩個坐標(biāo)系下,通過最小化原點(diǎn)到對應(yīng)平面的法線之間的差異確定旋轉(zhuǎn)變換,如式(22)所示,其中V1和U1滿足式(23)。在第二個階段,通過最小化點(diǎn)云中的點(diǎn)到P1,i的距離,將第一階段求解出來的值作為初值進(jìn)行迭代優(yōu)化求解。

    T1=(nTcnc-1nTc(dc-dd)(21)

    R1=V1UT1(22)

    ndnTc=U1Σ1VT1(23)

    假設(shè)Pd,i為第i個點(diǎn)云中相關(guān)點(diǎn)組成的矩陣,如式(24)所示,m為第i個點(diǎn)云中點(diǎn)的數(shù)量。將旋轉(zhuǎn)和平移關(guān)系的求解看作式(25)所示的最小化問題,取L2范數(shù)。假設(shè)優(yōu)化后的解是R2和T2,此時由R2和T2組成CDM0。

    Pd,i=x0d,ix1d,i…xmd,i

    y0d,iy1d,i…ymd,i

    z0d,iz1d,i…zmd,i(24)

    argminR,T=∑n2i=1∑mj=1‖nTc,i(RPjd,i+T)-dci‖(25)

    使用CDM0作用于P1,i將其轉(zhuǎn)換到深度圖像坐標(biāo)系下,結(jié)合初始平面P2,i計算曲線擬合的數(shù)據(jù)對,生成數(shù)據(jù)對的原理與估計fl一樣。

    2.2.2 聯(lián)合優(yōu)化fgCDM

    CDM0作為初值,經(jīng)過非線性優(yōu)化后輸出最終的全局校正函數(shù)fg和變換矩陣CDM。為了解決彼此之間的依賴關(guān)系,將fgCDM放在同一框架內(nèi)進(jìn)行優(yōu)化,還同時優(yōu)化了棋盤格位姿。設(shè)有n4對數(shù)據(jù),一對數(shù)據(jù)包括一張含有棋盤格的RGB圖像、同一場景的校正點(diǎn)云。在求解棋盤格位姿時,將世界坐標(biāo)系原點(diǎn)建立在棋盤格的左上角第一個角點(diǎn)上,沿棋盤格的邊長方向分別建立x軸和y軸,以右手定則確定z軸,得到棋盤格上角點(diǎn)集合BP,B表示在棋盤格坐標(biāo)系下,進(jìn)而得到RGB圖像坐標(biāo)系下對應(yīng)投影點(diǎn)的集合(u,v)P。結(jié)合相機(jī)內(nèi)參可以得到棋盤格位姿CBM,則有式(26)成立,其中cP表示RGB相機(jī)坐標(biāo)系下棋盤格上角點(diǎn)集合。結(jié)合RGB圖像和深度圖像坐標(biāo)系之間的轉(zhuǎn)換矩陣CDM,有式(27)成立,其中DP表示深度圖像坐標(biāo)系下棋盤格上角點(diǎn)集合。

    cP=CBMBP(26)

    DP=DCMcP(27)

    通過最小化兩個誤差實現(xiàn)對fgCDM的聯(lián)合優(yōu)化,如式(28)所示,Ep表示由RGB圖中棋盤格定義的平面和校正點(diǎn)云中擬合的平面之間的誤差,Er表示RGB圖像坐標(biāo)系下棋盤格上角點(diǎn)的重投影誤差[29~31]。Ep用當(dāng)前fg修正過的點(diǎn)云和它在由DP定義的平面上的視線投影之間的距離來度量,如式(29)所示,P-c表示使用fl進(jìn)行局部誤差校正后的點(diǎn)云,fg(§)表示用當(dāng)前fg的值校正點(diǎn)云§,pplane(§)表示將§正交投影到棋盤格平面plane上,Πk表示第k個數(shù)據(jù)對中的所有棋盤格角點(diǎn)(u,v)P。Er指三維空間點(diǎn)在圖像平面上的投影即圖像上真實像素點(diǎn)坐標(biāo)和基于當(dāng)前估計位姿計算值投影得到的虛擬像素點(diǎn)之間的誤差,如式(30)所示,IP表征圖像平面上的真實投影像素點(diǎn),IB表征所有基于二維像素坐標(biāo)的棋盤格角點(diǎn),proj是與相機(jī)的物理特性相關(guān)的投影函數(shù)。

    minfg,DCM∑n4k=1Ep(k)+Er(k)(28)

    Ep(k)=∑(u,v)∈Πk‖pplane(fg(P-c(u,v)))-fg(P-c(u,v))‖2(29)

    Er(k)=∑(q,r)∈IB‖proj(CBkMBPk(q,r))-IPk(q,r)‖2(30)

    2.2.3 深度圖像像素離散化

    參照fl離散化過程,在估計fg時也進(jìn)行了像素離散化。與fl不同,由于所需函數(shù)數(shù)量大量減少,只取深度圖像四個角點(diǎn)處的像素。為了防止過約束的出現(xiàn),實際只使用其中三個像素,第四個像素處的函數(shù)由這四個像素的共面約束來推導(dǎo)[32]。如圖11所示,紅色圓點(diǎn)表示選擇的像素點(diǎn),橙色圓點(diǎn)表示由共面約束推導(dǎo)的像素點(diǎn),黃色圓點(diǎn)表示除這四個特殊像素點(diǎn)外其余任一像素點(diǎn)(參見電子版)。橙色圓點(diǎn)像素處的fg由式(31)估計。黃色圓點(diǎn)像素處的fg是角點(diǎn)像素fg的線性組合。考慮到圖2中誤差是非線性的且和圖3中曲線走向具有一定的相似性,參考fl函數(shù)的選擇,也選擇fg為二次多項式函數(shù)。

    fg(0,0)(d)+fg(WD,HD)(d)2=fg(WD,0)(d)+fg(0,HD)(d)2(31)

    3 深度校正實驗及結(jié)果

    3.1 數(shù)據(jù)收集

    使用D455在不同的距離和方向上收集實驗場景的數(shù)據(jù),場景包括一堵粘貼有棋盤格的平整墻面?;贒455的驅(qū)動包和相應(yīng)的ROS包,通過launch文件啟動相機(jī),并通過設(shè)置true/1選擇所需要的話題進(jìn)行發(fā)布,采集視野中粘貼有棋盤格的平整墻壁,數(shù)據(jù)包括RGB圖像、深度圖像和點(diǎn)云。為了測試算法性能,還收集了用于測試深度校正性能的數(shù)據(jù)。收集數(shù)據(jù)的裝置如圖12所示,包括D455和兩個高精度激光測距儀[33],激光測距儀用來測量D455距離墻面的距離并保證墻面與D455的平行。在同一個距離處,將棋盤格粘貼于墻面中的不同位置處,采集相應(yīng)數(shù)據(jù)對,并且保證收集到的數(shù)據(jù)中只包括墻面和棋盤格[34],而不包括地板、天花板或其他任何物體。采集時,保證D455采集到的各個數(shù)據(jù)對是同時采集同一個場景的,而且棋盤格和相機(jī)之間不能發(fā)生相對運(yùn)動。收集的RGB圖像和深度圖像尺寸均為640×480。距離取值范圍根據(jù)使用D455的機(jī)器人工作空間及目標(biāo)與D455間的距離范圍來確定,D455和平整墻面的距離信息如表1所示,數(shù)據(jù)來源于兩個激光測距儀的測量值。

    3.2 校正實驗結(jié)果

    采用C++編寫深度校正程序代碼,其中使用PCL處理點(diǎn)云[35]。建立工作空間,在工作空間src文件夾下添加程序代碼,并編寫launch文件。程序編譯通過后,運(yùn)行l(wèi)aunch文件,輸出校正算法所需要的fl和fg中的各系數(shù)。若HD和WD分別為480、640,Ωh和Ωw分別取60和80,此時每個像素塊大小為8×8,原來需要估計的fl數(shù)量為640×480,現(xiàn)在需要估計的fl數(shù)量為80×60,算法輸出fl中80×60×3個系數(shù),而估計fg共需輸出系數(shù)3×3個。第四個角點(diǎn)像素處的fg根據(jù)平面約束進(jìn)行計算,算法會輸出第四個像素處fg的系數(shù),最終輸出4×3個系數(shù)。

    對640×480的深度圖像進(jìn)行不同離散化采樣,參數(shù)取值如表2所示,Ωw和Ωh表征WD和HD方向離散采樣后得到的像素塊的個數(shù),對應(yīng)離散化像素塊大小依次為64×48、32×32、16×16、8×8、4×4、2×2、1×1。為了評估校正性能,對每一種離散化采樣配置,利用式(1)(2)對fl校正前后、fg校正前后數(shù)據(jù)的全局平均誤差和RMSE進(jìn)行了計算,結(jié)果如圖13~16所示。

    如圖13和14所示,對于所有的離散化采樣配置,經(jīng)fl校正后全局平均誤差均減小,再經(jīng)fg校正后進(jìn)一步減小,且取不同的像素離散化采樣參數(shù),將有不同的校正效果。Ωw和Ωh越大,像素采樣越密集,全局平均誤差越小,校正效果越好,但伴隨著估計參數(shù)的增多及計算效率的降低。如圖15和16所示,對于所有的離散化采樣配置,經(jīng)fl校正后RMSE均減小,再經(jīng)fg校正后進(jìn)一步減小,且取不同的像素離散化采樣參數(shù),將有不同的校正效果。Ωw和Ωh越大,像素采樣越密集,RMSE越小,校正效果越好,但伴隨著估計參數(shù)的增多及計算效率降低。當(dāng)Ωw和Ωh分別取80和60時,即像素塊大小為8×8時,與1×1像素塊具有相似的校正效果,但是估計參數(shù)少,能有效提升計算效率??梢?,在兩個階段的校正過程中,8×8的像素塊是較佳的配置。

    基于誤差分量模型的深度校正是有效的,能有效減小深度誤差,提高深度值的精度。但深度誤差值并沒有降為0,可能存在偶然或無法預(yù)測的因素導(dǎo)致存在不能被完全消除的隨機(jī)誤差。為了平衡校正效果和計算效率,可取Ωw和Ωh為80和60,即像素塊為8×8的離散化設(shè)置,它既能有效減少估計的函數(shù)參數(shù),又可以達(dá)到較好的深度校正效果。

    3.3 在洗浴機(jī)器人中的應(yīng)用實驗

    在洗浴機(jī)器人應(yīng)用實驗中,D455安裝在基座處,通過YOLOv5s識別相機(jī)視野中人體模型的背部區(qū)域,如圖17所示,取紅色背部區(qū)域中心點(diǎn)為目標(biāo)點(diǎn),獲取此點(diǎn)深度值,并使機(jī)器人定位至目標(biāo)點(diǎn),如圖18所示。深度校正算法使用Ωw和Ωh分別為80和60的參數(shù)配置,從深度實際位置和深度理想位置的差異度量校正算法的性能。實際位置取機(jī)器人定位后的示教器讀數(shù),而理想位置取末端六維力傳感器為零時的示教器讀數(shù),誤差取兩者之差的絕對值。深度校正前后誤差結(jié)果如表3所示,深度校正前后誤差均值分別為18.329 mm和1.111 mm。實驗結(jié)果表明在實際應(yīng)用中,深度校正算法仍能有效減小深度誤差。

    4 與其他深度校正方法對比

    本文方法使用的數(shù)據(jù)包括RGB圖像、深度圖像和點(diǎn)云,場景包括粘貼了棋盤格的墻面。為了更好地評估本文算法的性能,與文獻(xiàn)[4]中的深度校正方法進(jìn)行比較。與本文相似,它開發(fā)了基于棋盤格的校正程序。深度校正算法仍使用Ωw和Ωh分別為80和60的參數(shù)配置,并選擇全局平均誤差和RMSE作為性能評估指標(biāo)。結(jié)果如圖19和20所示。

    由圖19和20可知,兩種方法在近距離處具有相似的校正效果,而本文算法在遠(yuǎn)距離處的效果更好,可能是因為迭代計算的方式使得遠(yuǎn)距離處的校正過程擁有了較好的初值。

    5 結(jié)束語

    基于深度質(zhì)量評價指標(biāo),建立誤差分量模型,將Z-accuracy建模為全局誤差,表征輸出平均深度值的錯誤程度,將RMSE建模為局部誤差,表征每個像素處深度值的錯誤程度?;谡`差分量模型建立了兩階段深度校正方法,通過局部校正函數(shù)fl和全局校正函數(shù)fg對局部誤差和全局誤差進(jìn)行校正。經(jīng)過兩個階段的校正函數(shù)處理,誤差分量模型中的全局和局部誤差均減小,像素離散化采樣參數(shù)對校正效果有直接影響,Ωw和Ωh越大,采樣越密集,校正效果越好,計算效率越低。應(yīng)用于洗浴機(jī)器人中時,算法仍能較好地校正深度誤差。與其他校正算法相比,本文算法在遠(yuǎn)距離處具有較好的性能。校正場景簡單,只包括張貼一張棋盤格的平整墻面。算法設(shè)計思想并未考慮相機(jī)型號,適用于可以產(chǎn)生RGB圖像、深度圖像和點(diǎn)云的傳感器。不足之處是,fl和fg均采用了二次多項式函數(shù),校正不同型號RGB-D相機(jī)時,算法代碼可能需要調(diào)整。

    參考文獻(xiàn):

    [1]Wu Jian,Wang Lili.Panoramic ray tracing for interactive mixed reality rendering based on 360° RGBD video[J].IEEE Computer Gra-phics and Applications,2024,44(1):62-75.

    [2]Yamazoe H,Habe H,Mitsugami I,et al.Depth error correction for projector-camera based consumer depth cameras[J].Computational Visual Media,2018,4(2):103-111.

    [3]Jung J,Lee J Y,Jeong Y,et al.Time-of-flight sensor calibration for a color and depth camera pair[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2015,37(7):1501-1513.

    [4]Herrera D C,Kannala J,Heikkila J.Joint depth and color camera calibration with distortion correction[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2012,34(10):2058-2064.

    [5]Darwish W,Tang Shenjun,Li Wenbin,et al.A new calibration method for commercial RGB-D sensors[J].Sensors,2017,17(6):article ID 1204.

    [6]Zhang Chenyang,Huang Teng,Zhao Qiang.A new model of RGB-D camera calibration based on 3D control field[J].Sensors,2019,19(23):article ID 5082.

    [7]Chen Guangda,Cui Guowei,Jin Zhongxiao,et al.Accurate intrinsic and extrinsic calibration of RGB-D cameras with GP-based depth correction[J].IEEE Sensors Journal,2019,19(7):2685-2694.

    [8]Gupta H,Lilienthal A J,Andreasson H,et al.NDT-6D for color registration in agri-robotic applications[J].Journal of Field Robotics,2023,40(6):1603-1619.

    [9]Sun Zhiliang,Zhang Rongguo,Hu Jing,et al.Probability re-weighted 3D point cloud registration for missing correspondences[J].Multimedia Tools and Applications,2022,81(8):11107-11126.

    [10]Fryskowska A.An improvement in the identification of the centres of checkerboard targets in point clouds using terrestrial laser scanning[J].Sensors,2019,19(4):article ID 938.

    [11]Zhang Xiaowen,Ren Yongfeng,Zhen Guoyong,et al.Camera calibration method for solid spheres based on triangular primitives[J].Precision Engineering,2020,65:91-102.

    [12]Zhu Xianzhang,Liu Xinyi,Zhang Yongjun,et al.Robust 3-D plane segmentation from airborne point clouds based on quasi-a-contrario theory[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2021,14:7133-7147.

    [13]Sang Qiang,Huang Tao,Wang Hongyi.An improved checkerboard detection algorithm based on adaptive filters[J].Pattern Recognition Letters,2023,172:22-28.

    [14]Chung K L,Chang W T.Centralized RANSAC-based point cloud re-gistration with fast convergence and high accuracy[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2024,17:5431-5442.

    [15]Wu Qinghua,Liu Jiacheng,Gao Can,et al.Improved RANSAC point cloud spherical target detection and parameter estimation method based on principal curvature constraint[J].Sensors,2022,22(15):Article ID 5850.

    [16]Xu Guangxuan,Pang Yajun,Bai Zhenxu,et al.A fast point clouds re-gistration algorithm for laser scanners[J].Applied Sciences-Basel,2021,11(8):article ID 3426.

    [17]Canessa A,Chessa M,Gibaldi A,et al.Calibrated depth and color cameras for accurate 3D interaction in a stereoscopic augmented reality environment[J].Journal of Visual Communication and Image Representation,2014,25(1):227-237.

    [18]Feng Zhiao,Han Xianfeng.Guided normal filter for 3D point clouds[J].Multimedia Tools and Applications,2023,82(9):13797-13810.

    [19]Yang Liang,Dryanovski I,Valenti R G,et al.RGB-D camera calibration and trajectory estimation for indoor mapping[J].Autonomous Robots,2020,44(8):1485-1503.

    [20]Adli S E,Shoaran M,Noorani S M S.GSPnP:simple and geometric solution for PnP problem[J].Visual Computer,2020,36(8):1549-1557.

    [21]Boixader A,Labella C,Catalan M,et al.A high-accuracy,scalable and affordable indoor positioning system using visible light positioning for automated guided vehicles[J].Electronics,2024,13(1):article ID 82.

    [22]陳津平,吳曉亮.參考點(diǎn)共面條件下的穩(wěn)健相機(jī)位姿估計方法[J].激光與光電子學(xué)進(jìn)展,2024,61(4):147-155.(Chen Jinping,Wu Xiaoliang.Robust camera pose estimation method under coplanar reference points condition[J].Laser and Optoelectronics Progress,2024,61(4):147-155.)

    [23]Xu Yanan,So Y H,Woo S.Plane fitting in 3D reconstruction to preserve smooth homogeneous surfaces[J].Sensors,2022,22(23):article ID 9391.

    [24]李普山,李偉波,馮智莉,等.基于GPU并行的點(diǎn)云數(shù)據(jù)簡化的改進(jìn)算法[J].計算機(jī)應(yīng)用研究,2020,37(9):2730-2733.(Li Pu-shan,Li Weibo,F(xiàn)eng Zhili,et al.Improved algorithm for point cloud data simplification based on GPU parallel[J].Application Research of Computers,2020,37(9):2730-2733.)

    [25]楊少舟,龍東平,陳繼堯,等.基于M估計算法的三維點(diǎn)云平面擬合方法研究[J].電子測量技術(shù),2024,47(5):70-76.(Yang Shaozhou,Long Dongping,Chen Jiyao,et al.Research on three-dimensional point cloud plane fitting method based on M-estimation algorithm[J].Electronic Measurement Technology,2024,47(5):70-76.)

    [26]Daghigh H,Tannant D D,Jaberipour M.A computationally efficient approach to automatically extract rock mass discontinuities from 3D point cloud data[J].International Journal of Rock Mechanics and Mining Sciences,2023,172:article ID 105603.

    [27]童子良,余學(xué)祥,汪濤,等.一種新的魯棒三維點(diǎn)云平面擬合方法[J].合肥工業(yè)大學(xué)學(xué)報:自然科學(xué)版,2020,43(12):1684-1688.(Tong Ziliang,Yu Xuexiang,Wang Tao,et al.A new robust 3D point cloud plane fitting method[J].Journal of Hefei University of Technology:Natural Science,2020,43(12):1684-1688.)

    [28]Zhang Wenyuan,Li Zhixin,Shan Jie.Optimal model fitting for buil-ding reconstruction from point clouds[J].IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing,2021,14:9636-9650.

    [29]賴欣,楊肖,張啟燦.基于自適應(yīng)EKF的攝像機(jī)標(biāo)定優(yōu)化方法[J].光學(xué)學(xué)報,2023,43(23):199-208.(Lai Xin,Yang Xiao,Zhang Qican.Adaptive EKF-based camera calibration optimization method[J].Acta Optica Sinica,2023,43(23):199-208.)

    [30]張子淼,張昊,許凱,等.基于光偏振信息的攝像機(jī)標(biāo)定方法研究[J].傳感技術(shù)學(xué)報,2023,36(3):389-396.(Zhang Zimiao,Zhang Hao,Xu Kai,et al.Research on the camera calibration method based on light polarization information[J].Chinese Journal of Sensors and Actuators,2023,36(3):389-396.)

    [31]華楊,黃福珍.基于改良天鷹優(yōu)化器的單目相機(jī)標(biāo)定方法[J].電子測量技術(shù),2023,46(16):126-137.(Hua Yang,Huang Fuzhen.Monocular camera calibration method based on modified aquila optimizer[J].Electronic Measurement Technology,2023,46(16):126-137.)

    [32]王耀東,徐金楊,朱力強(qiáng),等.隧道輪廓激光雷達(dá)點(diǎn)云線特征共面約束標(biāo)定方法[J].光學(xué)精密工程,2024,32(6):774-784.(Wang Yaodong,Xu Jinyang,Zhu Liqiang,et al.Line feature coplanar constraint calibration method for lidar point cloud of tunnel contour[J].Optics and Precision Engineering,2024,32(6):774-784.)

    [33]Xu Wenbo,Zheng Xinhui,Tian Qiyan,et al.Study of underwater large-target localization based on binocular camera and laser rangefinder[J].Journal of Marine Science and Engineering,2024,12(5):article ID 734.

    [34]Liu Jie,Zhou Dianzhuo,Wang Yifan,et al.A distance measurement approach for large fruit picking with single camera[J].Horticulturae,2023,9(5):article ID 537.

    [35]Li Lin,Chen Xi,Zhang Tie.Pose estimation of metal workpieces based on RPM-Net for robot grasping from point cloud[J].Industrial Robot,2022,49(6):1178-1189.

    午夜福利18| a级毛片免费高清观看在线播放| 亚洲av.av天堂| 亚洲av.av天堂| 草草在线视频免费看| 在线免费观看的www视频| 国产精品无大码| 久久欧美精品欧美久久欧美| 国产一区二区三区av在线 | 国产在线男女| 久久久久久伊人网av| 1024手机看黄色片| 色哟哟哟哟哟哟| 中文字幕精品亚洲无线码一区| 日韩制服骚丝袜av| 久久久久国产网址| 国产麻豆成人av免费视频| 欧美日韩精品成人综合77777| 中文字幕免费在线视频6| 听说在线观看完整版免费高清| 一夜夜www| 天堂√8在线中文| 欧美性猛交╳xxx乱大交人| 露出奶头的视频| 日韩欧美免费精品| 18禁在线播放成人免费| 国产精品日韩av在线免费观看| a级毛片a级免费在线| 黄色视频,在线免费观看| 亚洲av.av天堂| 国内揄拍国产精品人妻在线| ponron亚洲| 国产白丝娇喘喷水9色精品| 国产淫片久久久久久久久| 日本 av在线| 波多野结衣巨乳人妻| 国产一区二区三区在线臀色熟女| 精品乱码久久久久久99久播| 神马国产精品三级电影在线观看| 久久久久久九九精品二区国产| 成人毛片a级毛片在线播放| 亚洲国产高清在线一区二区三| 男女下面进入的视频免费午夜| 午夜亚洲福利在线播放| 午夜精品国产一区二区电影 | 中文资源天堂在线| 搡老岳熟女国产| 久久综合国产亚洲精品| 成年女人毛片免费观看观看9| 久久久久免费精品人妻一区二区| 亚洲av中文av极速乱| 国产成人福利小说| 欧美色欧美亚洲另类二区| 国产在线男女| 国产 一区精品| 黄色视频,在线免费观看| 99热6这里只有精品| 赤兔流量卡办理| 国产乱人视频| 日韩成人av中文字幕在线观看 | 久久精品国产亚洲av香蕉五月| 一个人观看的视频www高清免费观看| 老司机福利观看| 久久久久国产网址| 我的女老师完整版在线观看| 国产欧美日韩一区二区精品| 18+在线观看网站| 国产三级中文精品| av在线播放精品| 午夜精品国产一区二区电影 | 日本黄色视频三级网站网址| 99在线人妻在线中文字幕| 国内精品宾馆在线| 精品久久久久久久人妻蜜臀av| 大型黄色视频在线免费观看| or卡值多少钱| 午夜精品国产一区二区电影 | 永久网站在线| 成人特级av手机在线观看| 乱系列少妇在线播放| 日韩一区二区视频免费看| 大型黄色视频在线免费观看| 日日干狠狠操夜夜爽| 久久草成人影院| 国内精品一区二区在线观看| 色噜噜av男人的天堂激情| 欧美成人a在线观看| 久久精品国产亚洲av天美| 三级男女做爰猛烈吃奶摸视频| 日韩欧美一区二区三区在线观看| 亚洲欧美日韩高清专用| 亚洲四区av| 亚洲精品久久国产高清桃花| 午夜激情福利司机影院| 夜夜夜夜夜久久久久| 久久精品国产亚洲av天美| 直男gayav资源| 国产视频内射| 精品日产1卡2卡| 男女那种视频在线观看| 亚洲丝袜综合中文字幕| 看十八女毛片水多多多| ponron亚洲| 日本 av在线| 丰满乱子伦码专区| 一个人观看的视频www高清免费观看| 麻豆国产av国片精品| 成年av动漫网址| 小蜜桃在线观看免费完整版高清| 变态另类成人亚洲欧美熟女| 久久人人精品亚洲av| 色综合站精品国产| 99久国产av精品| 色综合色国产| 亚洲国产欧洲综合997久久,| 熟女人妻精品中文字幕| 久久鲁丝午夜福利片| 九九久久精品国产亚洲av麻豆| 亚洲精品久久国产高清桃花| 午夜日韩欧美国产| 国产高清激情床上av| 一边摸一边抽搐一进一小说| 99精品在免费线老司机午夜| 久久精品国产自在天天线| 中国美女看黄片| 天堂网av新在线| 国内少妇人妻偷人精品xxx网站| 中文字幕熟女人妻在线| 别揉我奶头 嗯啊视频| 亚洲人成网站在线播放欧美日韩| 久久久久久大精品| 蜜桃久久精品国产亚洲av| 小说图片视频综合网站| 国产一区二区三区在线臀色熟女| 久久久久久久久久久丰满| 中文亚洲av片在线观看爽| 五月玫瑰六月丁香| 久久精品国产99精品国产亚洲性色| 日本熟妇午夜| 99久久精品热视频| 久久精品夜色国产| 两性午夜刺激爽爽歪歪视频在线观看| 久久久久久久久久黄片| 国产欧美日韩一区二区精品| 日韩国内少妇激情av| 婷婷六月久久综合丁香| 热99re8久久精品国产| 免费av观看视频| 少妇人妻一区二区三区视频| 国产欧美日韩一区二区精品| 黄色一级大片看看| 亚洲熟妇熟女久久| 亚洲欧美精品综合久久99| 小说图片视频综合网站| 亚洲无线在线观看| 亚洲图色成人| 亚洲精品日韩在线中文字幕 | 女人被狂操c到高潮| 亚洲经典国产精华液单| 久久精品综合一区二区三区| 日本黄色片子视频| 日本黄色视频三级网站网址| 嫩草影院新地址| 色尼玛亚洲综合影院| 国产一级毛片七仙女欲春2| 综合色av麻豆| 精品人妻一区二区三区麻豆 | 国产成人影院久久av| 国产探花在线观看一区二区| 少妇被粗大猛烈的视频| 精品人妻熟女av久视频| 亚洲av二区三区四区| 天堂动漫精品| 欧美另类亚洲清纯唯美| 久久久午夜欧美精品| 亚洲av熟女| 久久久久精品国产欧美久久久| 免费在线观看影片大全网站| 免费人成视频x8x8入口观看| 国产在线男女| 我的女老师完整版在线观看| 久久草成人影院| 亚洲国产高清在线一区二区三| 九九热线精品视视频播放| 亚洲欧美精品综合久久99| 国产午夜福利久久久久久| av在线天堂中文字幕| 国内久久婷婷六月综合欲色啪| 久久久久久九九精品二区国产| 岛国在线免费视频观看| 日日摸夜夜添夜夜添小说| 久久国产乱子免费精品| 国产成人aa在线观看| 国产精品一区二区三区四区免费观看 | 在现免费观看毛片| 亚洲,欧美,日韩| 99热网站在线观看| 国产单亲对白刺激| 日韩欧美 国产精品| 校园人妻丝袜中文字幕| 国产又黄又爽又无遮挡在线| 国产真实伦视频高清在线观看| 久久天躁狠狠躁夜夜2o2o| 可以在线观看毛片的网站| 看非洲黑人一级黄片| 1024手机看黄色片| 国产高清不卡午夜福利| 少妇裸体淫交视频免费看高清| 直男gayav资源| 欧美+亚洲+日韩+国产| 日韩av在线大香蕉| 免费av观看视频| 精品一区二区免费观看| 久久久国产成人精品二区| 九九在线视频观看精品| 99九九线精品视频在线观看视频| 久久久精品大字幕| 日韩欧美精品v在线| 免费观看的影片在线观看| 尾随美女入室| 国产一区亚洲一区在线观看| 99热这里只有精品一区| 欧美+亚洲+日韩+国产| 亚洲五月天丁香| 麻豆一二三区av精品| 99久久精品热视频| 亚洲欧美精品综合久久99| 麻豆久久精品国产亚洲av| 岛国在线免费视频观看| 日日摸夜夜添夜夜添av毛片| 我的女老师完整版在线观看| 欧美另类亚洲清纯唯美| 村上凉子中文字幕在线| 乱系列少妇在线播放| 婷婷精品国产亚洲av| 国产一区二区亚洲精品在线观看| 国产成人福利小说| 欧美成人精品欧美一级黄| 人妻夜夜爽99麻豆av| 欧美在线一区亚洲| 国产精品不卡视频一区二区| 长腿黑丝高跟| 亚洲天堂国产精品一区在线| 日本 av在线| 韩国av在线不卡| 国产亚洲精品久久久久久毛片| 免费看美女性在线毛片视频| 麻豆一二三区av精品| 亚洲综合色惰| 久久精品夜色国产| 1000部很黄的大片| 国产黄色小视频在线观看| 国产成人a区在线观看| 成人三级黄色视频| 久久久久性生活片| 两个人的视频大全免费| 男女视频在线观看网站免费| 国产成人freesex在线 | 一级黄色大片毛片| 亚洲七黄色美女视频| 99精品在免费线老司机午夜| 国产精品人妻久久久影院| 老司机福利观看| 欧美+亚洲+日韩+国产| 18禁裸乳无遮挡免费网站照片| av在线亚洲专区| 国产一区亚洲一区在线观看| 99热这里只有精品一区| 国产一级毛片七仙女欲春2| 黄片wwwwww| 国产毛片a区久久久久| 国产精品福利在线免费观看| 成人漫画全彩无遮挡| 麻豆乱淫一区二区| 在线国产一区二区在线| 亚洲中文字幕日韩| 久久精品国产清高在天天线| 99久久无色码亚洲精品果冻| 别揉我奶头 嗯啊视频| 熟女电影av网| 亚洲内射少妇av| 亚洲国产精品成人久久小说 | 久久精品国产鲁丝片午夜精品| av天堂中文字幕网| 色吧在线观看| 亚洲最大成人手机在线| av专区在线播放| 自拍偷自拍亚洲精品老妇| 亚洲aⅴ乱码一区二区在线播放| 免费观看精品视频网站| 五月玫瑰六月丁香| 国产高清三级在线| 久久中文看片网| 中出人妻视频一区二区| 自拍偷自拍亚洲精品老妇| 国产真实乱freesex| av天堂中文字幕网| 亚洲婷婷狠狠爱综合网| 人人妻人人澡人人爽人人夜夜 | 淫妇啪啪啪对白视频| 久久精品国产自在天天线| 日本撒尿小便嘘嘘汇集6| 三级国产精品欧美在线观看| 男插女下体视频免费在线播放| 人妻制服诱惑在线中文字幕| 校园人妻丝袜中文字幕| 欧美激情国产日韩精品一区| 欧美一区二区国产精品久久精品| 国产av麻豆久久久久久久| 色吧在线观看| 乱码一卡2卡4卡精品| 在线观看一区二区三区| 亚洲一区高清亚洲精品| 波多野结衣高清无吗| 亚洲av免费高清在线观看| 在线a可以看的网站| 日本a在线网址| 亚洲国产日韩欧美精品在线观看| 我要看日韩黄色一级片| 亚洲国产日韩欧美精品在线观看| 久久久精品欧美日韩精品| 免费观看精品视频网站| АⅤ资源中文在线天堂| 啦啦啦观看免费观看视频高清| 高清日韩中文字幕在线| 国产乱人偷精品视频| av国产免费在线观看| 少妇熟女欧美另类| 人人妻,人人澡人人爽秒播| 麻豆国产av国片精品| 久久精品91蜜桃| 在线观看午夜福利视频| 欧美最新免费一区二区三区| 18禁在线无遮挡免费观看视频 | 性色avwww在线观看| 黄色一级大片看看| 免费搜索国产男女视频| 精品福利观看| 久久午夜福利片| 又黄又爽又免费观看的视频| 亚洲七黄色美女视频| 亚洲,欧美,日韩| 国产精品精品国产色婷婷| 波多野结衣巨乳人妻| 色哟哟·www| 大又大粗又爽又黄少妇毛片口| 日韩欧美三级三区| 午夜精品一区二区三区免费看| 99久久中文字幕三级久久日本| 欧洲精品卡2卡3卡4卡5卡区| 草草在线视频免费看| 欧美成人精品欧美一级黄| 深夜a级毛片| 性欧美人与动物交配| 久久人人精品亚洲av| 久久精品国产亚洲网站| 色在线成人网| 如何舔出高潮| 精品国产三级普通话版| 校园春色视频在线观看| 国产伦精品一区二区三区视频9| 女的被弄到高潮叫床怎么办| 欧美bdsm另类| 国产精品永久免费网站| 国产精品免费一区二区三区在线| 天堂网av新在线| 深夜精品福利| 联通29元200g的流量卡| 成人特级av手机在线观看| 赤兔流量卡办理| 97在线视频观看| 精品久久久久久久人妻蜜臀av| 国产精品日韩av在线免费观看| 日日摸夜夜添夜夜添小说| 色哟哟·www| 国产av麻豆久久久久久久| 床上黄色一级片| 日日摸夜夜添夜夜添小说| 国产一区二区激情短视频| 亚洲三级黄色毛片| 成人特级av手机在线观看| 少妇的逼水好多| 91久久精品国产一区二区三区| 中文字幕av在线有码专区| 日韩强制内射视频| 国产成人一区二区在线| 嫩草影院新地址| 少妇熟女aⅴ在线视频| 日本爱情动作片www.在线观看 | 99久国产av精品国产电影| 亚洲欧美精品自产自拍| 日本欧美国产在线视频| 国产乱人视频| 国产69精品久久久久777片| 欧美日韩在线观看h| 成人二区视频| 在线观看一区二区三区| 老师上课跳d突然被开到最大视频| 国产精品一及| 久久久精品大字幕| 九九热线精品视视频播放| 91在线观看av| 天美传媒精品一区二区| 99久久九九国产精品国产免费| 天天躁日日操中文字幕| 欧美三级亚洲精品| 在线免费十八禁| 国产爱豆传媒在线观看| 日本撒尿小便嘘嘘汇集6| 色在线成人网| 欧美高清性xxxxhd video| 国产高清激情床上av| 日本五十路高清| aaaaa片日本免费| 亚洲自拍偷在线| 精品午夜福利视频在线观看一区| 日韩欧美一区二区三区在线观看| 亚洲av成人精品一区久久| АⅤ资源中文在线天堂| 国产精品不卡视频一区二区| 成人午夜高清在线视频| 插逼视频在线观看| 国产精品一区www在线观看| 国产精品久久久久久亚洲av鲁大| 欧美3d第一页| 婷婷色综合大香蕉| 久久精品国产亚洲av天美| 国产精品,欧美在线| 日本一本二区三区精品| 色综合站精品国产| 国产精品乱码一区二三区的特点| 久久午夜福利片| 亚洲第一区二区三区不卡| 成人性生交大片免费视频hd| 2021天堂中文幕一二区在线观| 麻豆av噜噜一区二区三区| eeuss影院久久| 国产精品永久免费网站| www.色视频.com| 观看免费一级毛片| 丰满乱子伦码专区| 两性午夜刺激爽爽歪歪视频在线观看| 中国美女看黄片| 国内精品美女久久久久久| 51国产日韩欧美| 亚洲自拍偷在线| 蜜桃久久精品国产亚洲av| 国产精品国产三级国产av玫瑰| 国产精品电影一区二区三区| 欧美性猛交╳xxx乱大交人| 免费电影在线观看免费观看| 99热这里只有精品一区| 国产成年人精品一区二区| 波多野结衣巨乳人妻| 国产黄色小视频在线观看| 人人妻人人澡人人爽人人夜夜 | 色综合色国产| 给我免费播放毛片高清在线观看| 大型黄色视频在线免费观看| 国产v大片淫在线免费观看| www.色视频.com| 日韩大尺度精品在线看网址| 国产精品女同一区二区软件| 亚洲色图av天堂| 给我免费播放毛片高清在线观看| 午夜福利在线在线| 九九爱精品视频在线观看| 国产一区亚洲一区在线观看| 亚洲国产日韩欧美精品在线观看| 男女视频在线观看网站免费| 人妻夜夜爽99麻豆av| 欧美色欧美亚洲另类二区| 男人舔女人下体高潮全视频| 又黄又爽又刺激的免费视频.| 久久久久久久午夜电影| 黄色一级大片看看| 久久午夜亚洲精品久久| 欧美日本亚洲视频在线播放| 内地一区二区视频在线| 哪里可以看免费的av片| 久久精品国产亚洲av涩爱 | 又爽又黄a免费视频| 精品久久久久久久久av| 欧美高清成人免费视频www| 午夜亚洲福利在线播放| 日本黄色视频三级网站网址| 久久久久性生活片| 国产蜜桃级精品一区二区三区| 日韩大尺度精品在线看网址| 综合色丁香网| 亚洲电影在线观看av| 欧美xxxx性猛交bbbb| 一级a爱片免费观看的视频| 最近最新中文字幕大全电影3| 亚洲无线在线观看| 国语自产精品视频在线第100页| 久久九九热精品免费| av在线观看视频网站免费| 成年av动漫网址| 十八禁网站免费在线| 欧美+日韩+精品| 97热精品久久久久久| 成人毛片a级毛片在线播放| 亚洲精品456在线播放app| 久久久久久久久大av| 看片在线看免费视频| 日本a在线网址| 欧美三级亚洲精品| 最新在线观看一区二区三区| 亚洲综合色惰| 亚洲欧美成人精品一区二区| 国产精品久久久久久av不卡| 国产乱人视频| 九九爱精品视频在线观看| 亚洲内射少妇av| 久久久久国产网址| 最近在线观看免费完整版| 2021天堂中文幕一二区在线观| 国产av一区在线观看免费| 成人特级av手机在线观看| 亚洲色图av天堂| 精品人妻熟女av久视频| 成人国产麻豆网| 99热精品在线国产| а√天堂www在线а√下载| 寂寞人妻少妇视频99o| 女人被狂操c到高潮| 97超视频在线观看视频| 中文资源天堂在线| 插阴视频在线观看视频| 日产精品乱码卡一卡2卡三| 久久精品国产鲁丝片午夜精品| 久久久精品94久久精品| 欧美最新免费一区二区三区| 精品无人区乱码1区二区| 久久婷婷人人爽人人干人人爱| 波多野结衣巨乳人妻| 性插视频无遮挡在线免费观看| 日韩欧美 国产精品| 午夜精品国产一区二区电影 | 一个人免费在线观看电影| 亚洲电影在线观看av| 女人被狂操c到高潮| 黑人高潮一二区| 国产成人一区二区在线| 亚洲四区av| 美女免费视频网站| 黄色欧美视频在线观看| 亚洲欧美日韩卡通动漫| 国产高清视频在线播放一区| 高清毛片免费看| 露出奶头的视频| 国产精品亚洲一级av第二区| 97超级碰碰碰精品色视频在线观看| 国产私拍福利视频在线观看| 成人永久免费在线观看视频| 久久午夜亚洲精品久久| 少妇被粗大猛烈的视频| 日韩一区二区视频免费看| av卡一久久| 神马国产精品三级电影在线观看| 亚洲天堂国产精品一区在线| 在线观看美女被高潮喷水网站| 寂寞人妻少妇视频99o| 晚上一个人看的免费电影| 亚洲精品粉嫩美女一区| 波野结衣二区三区在线| 99热这里只有是精品在线观看| 久久久久久久久久黄片| 日韩,欧美,国产一区二区三区 | 插阴视频在线观看视频| 欧美日韩在线观看h| 人妻丰满熟妇av一区二区三区| 精品免费久久久久久久清纯| 国产精品一区二区性色av| 一卡2卡三卡四卡精品乱码亚洲| 国产精品日韩av在线免费观看| 一级黄色大片毛片| 欧美丝袜亚洲另类| 色综合亚洲欧美另类图片| 尾随美女入室| 日韩亚洲欧美综合| 搡女人真爽免费视频火全软件 | 长腿黑丝高跟| 看十八女毛片水多多多| 日本撒尿小便嘘嘘汇集6| 五月玫瑰六月丁香| 免费无遮挡裸体视频| 狂野欧美白嫩少妇大欣赏| 高清日韩中文字幕在线| 国产探花极品一区二区| 精品人妻熟女av久视频| 日日撸夜夜添| 天天一区二区日本电影三级| 最近2019中文字幕mv第一页| 国产私拍福利视频在线观看| 日韩国内少妇激情av| 国产黄色视频一区二区在线观看 | 国产极品精品免费视频能看的| 人妻少妇偷人精品九色| 热99在线观看视频| 色5月婷婷丁香| 久久久久九九精品影院| 天天躁夜夜躁狠狠久久av| 91精品国产九色| АⅤ资源中文在线天堂| 免费av不卡在线播放| 又爽又黄无遮挡网站| 成年女人永久免费观看视频| 日本成人三级电影网站| 亚洲一区高清亚洲精品| 色哟哟·www| 成人特级黄色片久久久久久久| 国产v大片淫在线免费观看| 九九热线精品视视频播放|