• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于自監(jiān)督學(xué)習(xí)的番茄植株圖像深度估計(jì)方法

    2019-03-05 04:05:02周云成許童羽鄧寒冰
    關(guān)鍵詞:深度特征

    周云成,許童羽,鄧寒冰,苗 騰,吳 瓊

    基于自監(jiān)督學(xué)習(xí)的番茄植株圖像深度估計(jì)方法

    周云成,許童羽,鄧寒冰,苗 騰,吳 瓊

    (沈陽(yáng)農(nóng)業(yè)大學(xué)信息與電氣工程學(xué)院,沈陽(yáng) 110866)

    深度估計(jì)是智能農(nóng)機(jī)視覺(jué)系統(tǒng)實(shí)現(xiàn)三維場(chǎng)景重建和目標(biāo)定位的關(guān)鍵。該文提出一種基于自監(jiān)督學(xué)習(xí)的番茄植株圖像深度估計(jì)網(wǎng)絡(luò)模型,該模型直接應(yīng)用雙目圖像作為輸入來(lái)估計(jì)每個(gè)像素的深度。設(shè)計(jì)了3種面向通道分組卷積模塊,并利用其構(gòu)建卷積自編碼器作為深度估計(jì)網(wǎng)絡(luò)的主體結(jié)構(gòu)。針對(duì)手工特征衡量2幅圖像相似度不足的問(wèn)題,引入卷積特征近似性損失作為損失函數(shù)的組成部分。結(jié)果表明:基于分組卷積模塊的卷積自編碼器能夠有效提高深度估計(jì)網(wǎng)絡(luò)的視差圖精度;卷積特征近似性損失函數(shù)對(duì)提高番茄植株圖像深度估計(jì)的精度具有顯著作用,精度隨著參與損失函數(shù)計(jì)算的卷積模塊層數(shù)的增加而升高,但超過(guò)4層后,其對(duì)精度的進(jìn)一步提升作用不再明顯;當(dāng)雙目圖像采樣距離在9.0 m以內(nèi)時(shí),該文方法所估計(jì)的棋盤(pán)格角點(diǎn)距離均方根誤差和平均絕對(duì)誤差分別小于2.5和1.8 cm,在3.0 m以內(nèi)時(shí),則分別小于0.7和0.5 cm,模型計(jì)算速度為28.0幀/s,與已有研究相比,2種誤差分別降低了33.1%和35.6%,計(jì)算速度提高了52.2%。該研究可為智能農(nóng)機(jī)視覺(jué)系統(tǒng)設(shè)計(jì)提供參考。

    圖像處理;卷積神經(jīng)網(wǎng)絡(luò);算法;自監(jiān)督學(xué)習(xí);深度估計(jì);視差;深度學(xué)習(xí);番茄

    0 引 言

    視覺(jué)系統(tǒng)是智能農(nóng)機(jī)進(jìn)行環(huán)境感知的重要部件[1]。在日光溫室或田間環(huán)境下,采用自主工作模式的智能農(nóng)機(jī)需要規(guī)劃行進(jìn)路線[2],規(guī)避障礙物[3],同時(shí)在果實(shí)采摘[4]、對(duì)靶施藥[5]等自動(dòng)化生產(chǎn)過(guò)程中則需要識(shí)別并定位作業(yè)目標(biāo),這些都要求視覺(jué)系統(tǒng)具有目標(biāo)定位、三維場(chǎng)景重建等功能,而深度信息的獲取是實(shí)現(xiàn)這些功能的關(guān)鍵。

    基于圖像特征的立體視覺(jué)匹配法和以激光雷達(dá)(light detection and ranging,LiDAR)、Kinect為代表的深度傳感器等常被用于植株的深度信息獲取。立體視覺(jué)匹配算法用各像素點(diǎn)局部區(qū)域特征,在能量函數(shù)的約束下進(jìn)行雙目圖像特征點(diǎn)匹配,實(shí)現(xiàn)深度信息恢復(fù)。翟志強(qiáng)等[6]以灰度圖像的Rank變換結(jié)果作為立體匹配基元來(lái)實(shí)現(xiàn)農(nóng)田場(chǎng)景的三維重建,其算法的平均誤匹配率為15.45%。朱镕杰等[7]對(duì)棉株雙目圖像進(jìn)行背景分割,通過(guò)尺度不變特征轉(zhuǎn)換算子提取棉花特征點(diǎn),并通過(guò)最優(yōu)節(jié)點(diǎn)優(yōu)先算法進(jìn)行匹配,獲取棉花點(diǎn)云三維坐標(biāo)。由于田間植株圖像顏色、紋理均一,傳統(tǒng)算子提取的特征可區(qū)分性差,特征點(diǎn)誤匹配現(xiàn)象嚴(yán)重。H?mmerle等[8]使用LiDAR獲取作物表面深度信息進(jìn)行作物表面建模。程曼等[9]用LiDAR掃描花生冠層,獲取三維點(diǎn)云數(shù)據(jù),通過(guò)多項(xiàng)式曲線擬合算法獲取冠層高度特性。LiDAR可快速獲取高精度深度信息,但設(shè)備價(jià)格昂貴[3],且無(wú)法直接獲取RGB(紅綠藍(lán))圖像進(jìn)行目標(biāo)識(shí)別。肖珂等[2]利用Kinect提供的RGB圖像識(shí)別葉墻區(qū)域,并與設(shè)備的深度圖進(jìn)行匹配,測(cè)算葉墻區(qū)域平均距離,用于規(guī)劃行進(jìn)路線。Kinect可同時(shí)獲取RGB圖像和像素對(duì)齊的深度圖,但該傳感器基于光飛行技術(shù),易受日光干擾、噪聲大、視野小,難以在田間復(fù)雜工況下穩(wěn)定工作。數(shù)碼相機(jī)技術(shù)成熟、穩(wěn)定性高、價(jià)格低廉,如果能夠在基于圖像的深度估計(jì)方法上取得進(jìn)展,其將是理想的智能農(nóng)機(jī)視覺(jué)感知部件。近幾年,卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)在目標(biāo)識(shí)別[10]、語(yǔ)義分割[11]等多個(gè)計(jì)算機(jī)視覺(jué)領(lǐng)域取得了突破,在深度估計(jì)方面也逐漸得到應(yīng)用[12]。Mayer等[13]通過(guò)監(jiān)督學(xué)習(xí)的CNN模型實(shí)現(xiàn)圖像每個(gè)像素的深度預(yù)測(cè)。但監(jiān)督學(xué)習(xí)方法存在的主要問(wèn)題是對(duì)圖像樣本進(jìn)行逐像素的深度標(biāo)注十分困難[14],雖然Kinect等深度傳感器能夠同時(shí)獲得RGB圖像和深度,但深度數(shù)據(jù)中存在噪聲干擾,影響模型訓(xùn)練效果[15]。Godard等[16]提出一種基于左右目一致性約束的自監(jiān)督深度估計(jì)模型,在KITTI(Karlsruhe institute of technology and Toyota technological institute at Chicago,卡爾斯魯厄理工學(xué)院和芝加哥豐田技術(shù)研究院)數(shù)據(jù)集[17]上取得了良好的效果,該方法是目前精度最高的自監(jiān)督深度估計(jì)方法[18]。與KITTI等數(shù)據(jù)集相比,田間植株圖像變異性小,CNN用于該類(lèi)圖像深度估計(jì)的方法及適用性有待進(jìn)一步探討。

    鑒于此,本文針對(duì)智能農(nóng)機(jī)視覺(jué)系統(tǒng)對(duì)深度信息獲取的實(shí)際需求及問(wèn)題,以番茄植株圖像深度估計(jì)為例,借鑒已有研究成果,提出一種基于自監(jiān)督學(xué)習(xí)的番茄植株圖像深度估計(jì)網(wǎng)絡(luò)模型,該模型直接應(yīng)用雙目圖像作為輸入來(lái)估計(jì)每個(gè)像素的深度。利用卷積自編碼器為模型設(shè)計(jì)網(wǎng)絡(luò)主體結(jié)構(gòu)。針對(duì)現(xiàn)有損失函數(shù)存在的不足,提出引入卷積特征近似性損失作為網(wǎng)絡(luò)損失函數(shù)的一部分。以重構(gòu)圖像相似度和棋盤(pán)格角點(diǎn)估計(jì)距離誤差等為判據(jù),驗(yàn)證本文方法在番茄植株圖像深度估計(jì)上的有效性,以期為智能農(nóng)機(jī)視覺(jué)系統(tǒng)設(shè)計(jì)提供參考。

    1 番茄植株雙目圖像數(shù)據(jù)集構(gòu)建

    1.1 圖像采集設(shè)備及雙目相機(jī)標(biāo)定

    1.2 試驗(yàn)條件及數(shù)據(jù)集構(gòu)建

    番茄植株雙目圖像數(shù)據(jù)于2018年5月采集自沈陽(yáng)農(nóng)業(yè)大學(xué)試驗(yàn)基地某遼沈IV型節(jié)能日光溫室(長(zhǎng)60 m,寬10 m),番茄品種為“瑞特粉娜”,基質(zhì)栽培、吊蔓生長(zhǎng),株距0.3 m,行距1.0 m,此時(shí)番茄處于結(jié)果期,株高約2.7 m。分別在晴朗、多云、陰天天氣的上午9:00-12:00進(jìn)行圖像采集。首先在番茄行間采集兩側(cè)植株圖像,受行距約束,相機(jī)離株行的水平距離在0.5~1.0 m之間。同時(shí)在行間沿株行方向?qū)ο鄼C(jī)目視前方場(chǎng)景進(jìn)行采樣。共采集番茄植株雙目圖像12 000對(duì)。基于相機(jī)內(nèi)、外參數(shù),采用Bouguet法[20],通過(guò)OpenCV編程對(duì)采集的番茄植株圖像進(jìn)行極線校正,使雙目圖像的光軸平行、同一空間點(diǎn)在雙目圖像上的像素點(diǎn)行對(duì)齊。校正后的雙目圖像構(gòu)成番茄植株雙目圖像數(shù)據(jù)集,其中隨機(jī)選擇80%的圖像作為下文深度估計(jì)網(wǎng)絡(luò)的訓(xùn)練集樣本,其余20%作為測(cè)試集樣本,每個(gè)深度估計(jì)網(wǎng)絡(luò)重復(fù)試驗(yàn)5次。采用相同的圖像采集與校正方法構(gòu)建含棋盤(pán)格標(biāo)定板的植株雙目圖像數(shù)據(jù)集,圖像采集時(shí)在場(chǎng)景中放置單元格大小已知的棋盤(pán)格標(biāo)定板,分別在相機(jī)鏡頭距離標(biāo)定板支架0.5~3.0、3.0~6.0、6.0~9.0 m范圍內(nèi)對(duì)場(chǎng)景成像,并保證標(biāo)定板均完整出現(xiàn)在雙目圖像中,共采集含標(biāo)定板的雙目圖像1 500對(duì),其中不同天氣條件和采樣距離下采集的圖像數(shù)量均等。

    2 自監(jiān)督植株圖像深度估計(jì)方法

    2.1 雙目圖像視差估計(jì)網(wǎng)絡(luò)模型

    注:Il、Ir分別表示左、右目圖像;Dl、Dr分別表示左、右目視差圖;分別表示左、右目重構(gòu)圖像;S表示圖像采樣器。下同。

    2.2 網(wǎng)絡(luò)主體結(jié)構(gòu)設(shè)計(jì)

    本文采用卷積自編碼器(convolutional auto-encoder,CAE)作為DNN的結(jié)構(gòu)。CAE常被用于語(yǔ)義分割[11]、深度恢復(fù)[12-15]等任務(wù),在這些研究中,CAE由常規(guī)卷積層、池化層等堆疊而成,網(wǎng)絡(luò)參數(shù)多、計(jì)算量大。近期研究[21-22]多采用模塊化設(shè)計(jì)的卷積塊來(lái)構(gòu)建CNN網(wǎng)絡(luò)。周云成等[23]設(shè)計(jì)了一種稱為面向通道分組卷積(channel wise group convolutional,CWGC)模塊的結(jié)構(gòu),基于該結(jié)構(gòu)的CNN網(wǎng)絡(luò)在番茄器官分類(lèi)和識(shí)別任務(wù)上都取得了較高的精度,與常規(guī)卷積相比,在寬度和深度相同的前提下,該結(jié)構(gòu)可有效降低網(wǎng)絡(luò)參數(shù)的數(shù)量。本文針對(duì)深度恢復(fù)任務(wù),在現(xiàn)有CWGC模塊基礎(chǔ)上引入上采樣和下采樣功能(圖2)。

    圖2a中的CWGC模塊主要由4組相同的卷積組(convolution group)構(gòu)成,各卷積組分別對(duì)輸入進(jìn)行特征提取,生成特征圖,然后在通道方向上合并特征圖,經(jīng)批標(biāo)準(zhǔn)化(batch normalization,BN)層和ELU(exponential linear unit,指數(shù)線性單元)[24]處理后作為CWGC模塊的輸出。卷積組的卷積層只和組內(nèi)的前后層連接,并使用1×1卷積(conv1×1)作為瓶頸層,以降低參數(shù)數(shù)量、加深網(wǎng)絡(luò)深度、提高語(yǔ)義特征提取能力。為CWGC模塊設(shè)計(jì)了3種類(lèi)型的卷積組,圖2b為空間尺度不變卷積組,該卷積組在卷積操作時(shí)通過(guò)邊緣填充保持輸出與輸入的空間尺度(寬×高)相同;圖2c為下采樣卷積組,其中conv3×1和conv1×3在卷積過(guò)程中使用非等距滑動(dòng)步長(zhǎng),使輸出特征圖的寬、高分別降為輸入的一半;圖2d為上采樣卷積組,在conv1×1后設(shè)置一個(gè)步長(zhǎng)為2的轉(zhuǎn)置卷積層(deconv3×3),使輸出特征圖的空間尺度與輸入相比擴(kuò)大1倍。分別使用3種類(lèi)型的卷積組,可使CWGC的輸入、輸出在空間尺度不變、縮小和放大之間轉(zhuǎn)換。

    注:conv1×1,等表示卷積核大小為1×1、通道數(shù)為的卷積層;s2,1等表示水平和垂直滑動(dòng)步長(zhǎng)分別為2和1;deconv表示轉(zhuǎn)置卷積。下同。

    Note: conv1×1,and so on denote convolution with kernel size of 1×1 and channel number of; s2,1 indicates that the horizontal and vertical strides are 2 and 1 respectively; deconv means transpose convolution. Same as below.

    圖2 卷積模塊

    Fig.2 Convolutional block

    注:CWGC-8D等表示CWGC模塊采用h=8的下采樣卷積組;CWGC-128U等表示CWGC模塊采用h=128的上采樣卷積組;Skip 1等表示跨越連接。下同。 Note: CWGC-8D, etc. denotes that CWGC block usesdown-sampling convolution group with h=8; CWGC-128U, etc. denotes that CWGC block adopts up-sampling convolution group with h=128; Skip 1, etc. denotes skip connection. Same as below.

    2.3 深度估計(jì)網(wǎng)絡(luò)損失函數(shù)定義

    損失函數(shù)的定義是實(shí)現(xiàn)自監(jiān)督圖像深度估計(jì)網(wǎng)絡(luò)優(yōu)化訓(xùn)練的關(guān)鍵,本文的損失函數(shù)定義如下

    2.3.1 圖像重構(gòu)損失

    2.3.2 圖像卷積特征近似性損失

    1形式的圖像重構(gòu)損失,誤差梯度僅由對(duì)應(yīng)像素的光度差決定。SSIM指數(shù)由光度、對(duì)比度和結(jié)構(gòu)相似程度構(gòu)成。植株器官并非理想的朗伯體,其蠟質(zhì)化層會(huì)在一定程度上產(chǎn)生鏡面效應(yīng)。且由于左、右目相機(jī)的位置、姿態(tài)及自身物理特性的差異,同一空間點(diǎn)在雙目相機(jī)成像的光度值可能不同。即使DNN預(yù)測(cè)的視差圖是準(zhǔn)確的,從一目圖像采樣重建的另一目圖像與原圖像也會(huì)有差異。因此僅采用式(3)的人工特征來(lái)衡量?jī)煞鶊D像的近似性是不足的。Zeiler等[25]研究表明,經(jīng)過(guò)訓(xùn)練的分類(lèi)CNN網(wǎng)絡(luò)的低層卷積學(xué)習(xí)到的是顏色、邊緣、紋理等低級(jí)圖像特征。相比人工特征,CNN的卷積特征是通過(guò)大量樣本訓(xùn)練得到的,由于卷積核數(shù)量多,所提取的特征更為復(fù)雜多樣,且具有語(yǔ)義性,受環(huán)境差異影響小。因此,本文進(jìn)一步采用經(jīng)良好訓(xùn)練的分類(lèi)CNN網(wǎng)絡(luò)的低層卷積輸出特征的近似性來(lái)度量圖像的近似性。

    為計(jì)算圖像的卷積特征張量,同樣采用CWGC模塊構(gòu)建一個(gè)分類(lèi)CNN網(wǎng)絡(luò),命名為CWGCNet,結(jié)構(gòu)如圖 4,該網(wǎng)絡(luò)由常規(guī)卷積層、CWGC模塊、最大池化(max-pool)、丟棄(dropout)層、全局平均池化(global average pooling)和Softmax函數(shù)構(gòu)成,整個(gè)網(wǎng)絡(luò)具有35層卷積操作。

    2.3.3 視差平滑損失

    注:CWGC-16等表示CWGC模塊采用h=16的空間尺度不變卷積組;max-pool2×2表示池化窗口為2×2的最大池化層。

    2.3.4 左右目視差一致性損失

    2.4 可微分圖像采樣器

    以最小化損失函數(shù)L為目標(biāo),通過(guò)梯度下降來(lái)調(diào)整深度估計(jì)網(wǎng)絡(luò)的權(quán)重參數(shù),實(shí)現(xiàn)模型的優(yōu)化。這要求構(gòu)成神經(jīng)網(wǎng)絡(luò)的每個(gè)模塊必須是可微分的,其中包括圖像采樣器。由于經(jīng)極線校正后同一空間點(diǎn)在雙目圖像上對(duì)應(yīng)像素行對(duì)齊,因此線性插值采樣可滿足圖像和視差圖的采樣重建,過(guò)程如圖5。

    圖5 可微分圖像采樣過(guò)程示意

    2.5 視差估計(jì)精度判據(jù)

    DNN估計(jì)的視差圖越精確,由圖像采樣器基于視差圖采樣重建的圖像與目標(biāo)圖像的相似度越高。因此本文首先采用與主觀評(píng)價(jià)法具有高度一致性的3種圖像相似度評(píng)價(jià)指標(biāo)FSIM(feature similarity index,特征相似性指數(shù))[27]、IW-SSIM(information content weighted SSIM,信息內(nèi)容加權(quán)結(jié)構(gòu)相似性指數(shù))[28]和GSIM(gradient similarity index,梯度相似性指數(shù))[29]作為視差圖精度的間接評(píng)判指標(biāo),3種指標(biāo)值均越大說(shuō)明圖像相似度越高,視差圖越精確。

    3 深度估計(jì)網(wǎng)絡(luò)模型訓(xùn)練與測(cè)試

    3.1 深度估計(jì)網(wǎng)絡(luò)總體結(jié)構(gòu)及實(shí)現(xiàn)

    3.2 CWGCNet的訓(xùn)練

    采用ImageNet1000[31]的訓(xùn)練集訓(xùn)練CWGCNet分類(lèi)網(wǎng)絡(luò),訓(xùn)練方法同文獻(xiàn)[32],采用小批量梯度下降法進(jìn)行訓(xùn)練,通過(guò)圖像隨機(jī)裁剪法進(jìn)行樣本增廣。在ImageNet1000的測(cè)試集上進(jìn)行分類(lèi)測(cè)試,并與AlexNet[33]和VGG-16[32]2種典型分類(lèi)CNN網(wǎng)絡(luò)進(jìn)行top-1、top-5錯(cuò)誤率(指網(wǎng)絡(luò)輸出的1個(gè)或5個(gè)最高概率類(lèi)型不包括實(shí)際類(lèi)型的樣本數(shù)占測(cè)試樣本總數(shù)的比例)及權(quán)重參數(shù)數(shù)量(由網(wǎng)絡(luò)中所有卷積核和全連接層的權(quán)重參數(shù)的數(shù)量累加得到,與具體網(wǎng)絡(luò)結(jié)構(gòu)有關(guān),下同)比較,結(jié)果如表1。

    表1 CWGCNet與2種典型CNN網(wǎng)絡(luò)分類(lèi)性能比較

    由表1可知,CWGCNet在ImageNet1000上的top-1錯(cuò)誤率比AlexNet和VGG-16分別降低30.4%和3.3%,且權(quán)重參數(shù)數(shù)量只有后兩者的4.5%和6.5%,說(shuō)明其具有更強(qiáng)的圖像特征提取能力,卷積核參數(shù)更加高效,參數(shù)冗余更少。將1幅番茄植株圖像輸入CWGCNet,并對(duì)其前2層卷積模塊輸出的部分特征圖進(jìn)行可視化(圖6)。

    從圖6可以看出,CWGCNet的前2層卷積模塊輸出了表觀各異的特征圖,說(shuō)明其學(xué)習(xí)出了能夠提取圖像多種類(lèi)型特征的卷積核,其中第1層特征圖主要體現(xiàn)了圖像的顏色特征,第2層特征圖主要突出了圖像的邊緣和紋理特征。因此,在式(3)中包含的2幅圖像的光度、對(duì)比度、結(jié)構(gòu)和光度差的比較基礎(chǔ)上,采用卷積特征圖構(gòu)建的式(4)能夠進(jìn)一步為深度估計(jì)網(wǎng)絡(luò)的訓(xùn)練引入多樣化的圖像特征比較。

    圖6 輸入圖像及對(duì)應(yīng)的部分卷積特征圖

    3.3 深度估計(jì)網(wǎng)絡(luò)的訓(xùn)練

    網(wǎng)絡(luò)的訓(xùn)練方法同文獻(xiàn)[16],用Adam(adaptive moment,自適應(yīng)矩)優(yōu)化器對(duì)深度估計(jì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,其中Adam的1階矩指數(shù)衰減率1=0.9、2階矩指數(shù)衰減率2=0.999,每一小批樣本量為8,初始學(xué)習(xí)率為10-3,經(jīng)過(guò)10代迭代訓(xùn)練后調(diào)整為10-4,此后每經(jīng)過(guò)20代迭代,學(xué)習(xí)率下降10倍。經(jīng)過(guò)60代迭代訓(xùn)練,網(wǎng)絡(luò)損失收斂到穩(wěn)定值。

    3.4 深度估計(jì)網(wǎng)絡(luò)的測(cè)試與分析

    表2 卷積模塊層數(shù)對(duì)視差估計(jì)精度的影響

    注:數(shù)據(jù)為平均值±標(biāo)準(zhǔn)誤。同列不同小寫(xiě)字母表示各處理在5%水平上差異顯著。下同。

    Note: Data is mean±SE. Values followed by a different letter within a column for treatments are significantly different at 0.05level. Same as below.

    表3 深度估計(jì)方法性能比較

    注:組合A表示模型由本文網(wǎng)絡(luò)結(jié)構(gòu)和文獻(xiàn)[16]的損失函數(shù)構(gòu)成;組合B表示模型由文獻(xiàn)[16]的網(wǎng)絡(luò)結(jié)構(gòu)和本文損失函數(shù)構(gòu)成。

    Note: Combination A indicates that the model consists of our network structure and the loss function in [16]; Combination B indicates that the model is composed of the network structure of [16] and the loss function of this paper.

    由表3可知,與Godard等人的方法相比,本文方法在FSIM等3種圖像相似度指標(biāo)上都顯著高于前者,棋盤(pán)格角點(diǎn)估計(jì)距離誤差也顯著低于前者,RMSE降低了33.1%,MAE降低了35.6%,2顯著提高,說(shuō)明本文方法估計(jì)的視差圖具有更高的精度。以CWGC-CAE為主體結(jié)構(gòu)的深度估計(jì)網(wǎng)絡(luò)的計(jì)算速度達(dá)28.0幀/s,與Godard等人的網(wǎng)絡(luò)相比提高了52.2%。對(duì)比Godard等人的方法和組合A表明,CWGC-CAE無(wú)論在圖像相似度指標(biāo),還是在棋盤(pán)格角點(diǎn)估計(jì)距離的精度上,其性能都顯著高于前者的網(wǎng)絡(luò)結(jié)構(gòu),且權(quán)重參數(shù)數(shù)量只有前者的16.9%,表明CWGC-CAE在番茄植株圖像深度估計(jì)上更具有優(yōu)勢(shì)。對(duì)比Godard等人的方法和組合B表明,組合B在FSIM、IW-SSIM指標(biāo)上有顯著提高,棋盤(pán)格角點(diǎn)估計(jì)距離RMSE和MAE分別降低32.1%和33.3%,說(shuō)明本文引入的圖像卷積特征近似性損失函數(shù)對(duì)提高植株圖像深度估計(jì)的精度是有顯著作用的。

    同樣用最終深度估計(jì)模型,來(lái)估計(jì)番茄植株雙目圖像測(cè)試集中的部分圖像的視差圖,效果如圖7。同時(shí)用該模型在含棋盤(pán)格標(biāo)定板的植株雙目圖像數(shù)據(jù)集上測(cè)試光照條件和采樣距離對(duì)棋盤(pán)格角點(diǎn)距離估計(jì)精度的影響,結(jié)果如表4。

    由表4可知,光照對(duì)棋盤(pán)格角點(diǎn)估計(jì)距離誤差無(wú)明顯影響,說(shuō)明本文的植株圖像深度估計(jì)模型對(duì)光照變化具有一定的魯棒性。棋盤(pán)格標(biāo)定板的采樣距離對(duì)角點(diǎn)間相互距離的估計(jì)精度具有顯著影響,誤差隨著采樣距離的增加而增大,當(dāng)采樣距離為0.5~3.0 m時(shí),RMSE為6.49 mm,MAE為4.36 mm,分別小于0.7和0.5 cm;當(dāng)距離為6.0~9.0 m時(shí),RMSE為24.63 mm,MAE為17.90 mm,分別小于2.5和1.8 cm。

    圖7 深度估計(jì)效果

    表4 光照條件與采樣距離對(duì)棋盤(pán)格角點(diǎn)估計(jì)距離精度的影響

    注:同行不同小寫(xiě)字母表示各處理在5%水平上差異顯著。

    Note: Values followed by a different letter within a row for treatments are significantly different at 0.05 level.

    4 結(jié) 論

    本文提出一種基于自監(jiān)督學(xué)習(xí)的番茄植株圖像深度估計(jì)網(wǎng)絡(luò)模型,構(gòu)建了卷積自編碼器作為模型的主體結(jié)構(gòu),提出引入圖像卷積特征近似性損失作為損失函數(shù)的一部分,以圖像相似度、棋盤(pán)格角點(diǎn)估計(jì)距離誤差等為判據(jù),用番茄植株雙目圖像對(duì)模型進(jìn)行訓(xùn)練和測(cè)試,結(jié)果表明:1)基于面向通道分組卷積模塊設(shè)計(jì)的分類(lèi)網(wǎng)絡(luò)的淺層卷積能夠提取番茄植株的低層圖像特征,與未采用圖像卷積特征近似性損失函數(shù)的模型相比,采用該函數(shù)的模型的棋盤(pán)格角點(diǎn)估計(jì)距離均方根誤差RMSE和平均絕對(duì)誤差MAE分別降低了32.1%和33.3%,該函數(shù)對(duì)提高番茄植株圖像深度估計(jì)的精度具有顯著作用,且精度隨著參與近似性損失計(jì)算的卷積模塊層數(shù)的增加而升高,但超過(guò)4層后,進(jìn)一步增加層數(shù)對(duì)精度的提升作用不再明顯。2)圖像采樣距離影響深度估計(jì)的精度,當(dāng)采樣距離在9.0 m以內(nèi)時(shí),所估計(jì)的棋盤(pán)格角點(diǎn)距離RMSE和MAE分別小于2.5 和1.8 cm,當(dāng)采樣距離在3.0 m以內(nèi)時(shí),則分別小于0.7 和0.5 cm,模型計(jì)算速度為28.0幀/s。3)與已有研究結(jié)果相比,本文模型的RMSE和MAE分別降低33.1%和35.6%,計(jì)算速度提高52.2%,深度估計(jì)精度和計(jì)算速度均顯著提高。

    [1]項(xiàng)榮,應(yīng)義斌,蔣煥煜. 田間環(huán)境下果蔬采摘快速識(shí)別與定位方法研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2013,44(11):208-223. Xiang Rong, Ying Yibin, Jiang Huanyu. Development of real-time recognition and localization methods for fruits and vegetables in field[J]. Transactions of the Chinese Society for Agricultural Machinery, 2013, 44(11): 208-223. (in Chinese with English abstract)

    [2]肖珂,高冠東,馬躍進(jìn). 基于Kinect視頻技術(shù)的葡萄園農(nóng)藥噴施路徑規(guī)劃算法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(24):192-199. Xiao Ke, Gao Guandong, Ma Yuejin. Pesticide spraying route planning algorithm for grapery based on Kinect video technique[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(24): 192-199. (in Chinese with English abstract)

    [3]何勇,蔣浩,方慧,等. 車(chē)輛智能障礙物檢測(cè)方法及其農(nóng)業(yè)應(yīng)用研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(9):21-32. He Yong, Jiang Hao, Fang Hui, et al. Research progress of intelligent obstacle detection methods of vehicles and their application on agriculture[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(9): 21-32. (in Chinese with English abstract)

    [4]莫宇達(dá),鄒湘軍,葉敏,等. 基于Sylvester方程變形的荔枝采摘機(jī)器人手眼標(biāo)定方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2017,33(4):47-54. Mo Yuda, Zou Xiangjun, Ye Min, et al. Hand-eye calibration method based on Sylvester equation deformation for lychee harvesting robot[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(4): 47-54. (in Chinese with English abstract)

    [5]翟長(zhǎng)遠(yuǎn),趙春江,Ning Wang,等. 果園風(fēng)送噴霧精準(zhǔn)控制方法研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(10):1-15. Zhai Changyuan, Zhao Chunjiang, Ning Wang, et al. Research progress on precision control methods of air-assisted spraying in orchards[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(10): 1-15. (in Chinese with English abstract)

    [6]翟志強(qiáng),杜岳峰,朱忠祥,等. 基于Rank變換的農(nóng)田場(chǎng)景三維重建方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(20):157-164. Zhai Zhiqiang, Du Yuefeng, Zhu Zhongxiang, et al. Three-dimensional reconstruction method of farmland scene based on Rank transformation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(20): 157-164. (in Chinese with English abstract)

    [7]朱镕杰,朱穎匯,王玲,等. 基于尺度不變特征轉(zhuǎn)換算法的棉花雙目視覺(jué)定位技術(shù)[J]. 農(nóng)業(yè)工程學(xué)報(bào),2016,32(6):182-188. Zhu Rongjie, Zhu Yinghui, Wang Ling, et al. Cotton positioning technique based on binocular vision with implementation of scale-invariant feature transform algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2016, 32(6): 182-188. (in Chinese with English abstract)

    [8]H?mmerle M, H?fle B. Effects of reduced terrestrial LiDAR point density on high-resolution grain crop surface models in precision agriculture[J]. Sensors, 2014, 14(12): 24212-24230.

    [9]程曼,蔡振江,Ning Wang,等. 基于地面激光雷達(dá)的田間花生冠層高度測(cè)量系統(tǒng)研制[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019,35(1):180-187. Cheng Man, Cai Zhenjiang, Ning Wang, et al. System design for peanut canopy height information acquisition based on LiDAR[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(1): 180-187. (in Chinese with English abstract)

    [10]Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

    [11]Chen L C, Zhu Y, Papandreou G, et al. Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//European Conference on Computer Vision. Springer, Cham, 2018: 833-851.

    [12]Liu F, Shen C, Lin G, et al. Learning depth from single monocular images using deep convolutional neural fields[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2016, 38(10): 2024-2039.

    [13]Mayer N, Ilg E, H?usser P, et al. A large dataset to train convolutional networks for disparity, optical flow, and scene flow estimation[C]//Computer Vision and Pattern Recognition. IEEE, 2016: 4040-4048.

    [14]Garg R, Vijay K B G, Carneiro G, et al. Unsupervised CNN for single view depth estimation: geometry to the rescue[C]// European Conference on Computer Vision. Springer, Cham, 2016: 740-756.

    [15]Kundu J N, Uppala P K, Pahuja A, et al. AdaDepth: Unsupervised content congruent adaptation for depth estimation[EB/OL]. [2018-06-07] https: //arxiv. org/pdf/1803. 01599. pdf.

    [16]Godard C, Aodha O M, Brostow G J. Unsupervised monocular depth estimation with left-right consistency[C]// Computer Vision and Pattern Recognition. IEEE, 2017: 6602-6611.

    [17]Geiger A, Lenz P, Stiller C, et al. Vision meets robotics: The KITTI dataset[J]. International Journal of Robotics Research, 2013, 32(11): 1231-1237.

    [18]Poggi M, Tosi F, Mattoccia S. Learning monocular depth estimation with unsupervised trinocular assumptions[C]// International Conference on 3D Vision (3DV). IEEE, 2018: 324-333.

    [19]Zhang Z. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(11): 1330-1334.

    [20]Bouguet J Y, Perona P. Closed-form camera calibration in dual-space geometry[C]//European Conference on Computer Vision, 1998.

    [21]Zhang T, Qi G J, Xiao B, et al. Interleaved group convolutions for deep neural networks[C]//International Conference on Computer Vision (ICCV), 2017.

    [22]Szegedy C, Ioffe S, Vanhoucke V, et al. Inception-v4, Inception-ResNet and the impact of residual connections on learning[C]//Proceedings of Thirty-First AAAI Conference on Artificial Intelligence (AAAI-17), 2017.

    [23]周云成,許童羽,鄧寒冰,等. 基于面向通道分組卷積網(wǎng)絡(luò)的番茄主要器官實(shí)時(shí)識(shí)別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2018,34(10):153-162. Zhou Yuncheng, Xu Tongyu, Deng Hanbing, et al. Real-time recognition of main organs in tomato based on channel wise group convolutional network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(10): 153-162. (in Chinese with English abstract)

    [24]Shah A, Kadam E, Shah H, et al. Deep residual networks with exponential linear unit[C]//International Symposium on Computer Vision and the Internet. ACM, 2016: 59-65.

    [25]Zeiler M D, Fergus R. Visualizing and understanding convolutional networks[C]//Computer Vision and Pattern Recognition. IEEE, 2014.

    [26]Heise P, Klose S, Jensen B, et al. PM-Huber: PatchMatch with huber regularization for stereo matching[C]//IEEE International Conference on Computer Vision. IEEE, 2014: 2360-2367.

    [27]Zhang L, Zhang L, Mou X, et al. FSIM: A feature similarity index for image quality assessment[J]. IEEE Transactions on Image Processing, 2011, 20(8): 2378-2386.

    [28]Wang Z, Li Q. Information content weighting for perceptual image quality assessment[J]. IEEE Transactions on Image Processing, 2011, 20(5): 1185-1198.

    [29]Liu A, Lin W, Narwaria M. Image quality assessment based on gradient similarity[J]. IEEE Transactions on Image Processing, 2012, 21(4): 1500-1512.

    [30]Agarwal A, Akchurin E, Basoglu C, et al. The Microsoft cognitive toolkit[EB/OL]. [2018-06-01] https: //docs. microsoft. com/en-us/cognitive-toolkit/.

    [31]Deng J, Dong W, Socher R, et al. ImageNet: A large-scale hierarchical image database[C]//Computer Vision and Pattern Recognition, 2009. CVPR 2009. IEEE Conference on. IEEE, 2009: 248-255.

    [32]Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[C]//In ICLR, 2015.

    [33]Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]// International Conference on Neural Information Processing Systems. Curran Associates Inc. 2012: 1097-1105.

    [34]Yang Y, Zhong Z, Shen T, et al. Convolutional neural networks with alternately updated clique[C]//Computer Vision and Pattern Recognition. IEEE, 2018.

    Method for estimating the image depth of tomato plant based on self-supervised learning

    Zhou Yuncheng, Xu Tongyu, Deng Hanbing, Miao Teng, Wu Qiong

    (,,110866,)

    Depth estimation is critical to 3D reconstruction and object location in intelligent agricultural machinery vision system, and a common method in it is stereo matching. Traditional stereo matching method used low-quality image extracted manually. Because the color and texture in the image of field plant is nonuniform, the artificial features in the image are poorly distinguishable and mismatching could occur as a result. This would compromise the accuracy of the depth of the map. While the supervised learning-based convolution neural network (CNN) is able to estimate the depth of each pixel in plant image directly, it is expensive to annotate the depth data. In this paper, we present a depth estimation model based on the self-supervised learning to phenotype tomato canopy. The tasks of the depth estimation method were to reconstruct the image. The dense disparity maps were estimated indirectly using the rectified stereo pair of images as the network input, from which a bilinear interpolation was used to sample the input images to reconstruct the warping images. We developed three channel wise group convolutional (CWGC) modules, including the dimension invariable convolution module, the down-sampling convolution module and the up-sampling convolution module, and used them to construct the convolutional auto-encoder - a key infrastructure in the depth estimation method. Considering the shortage of manual features for comparing image similarity, we used the loss in image convolutional feature similarity as one objective of the network training. A CWGC-based CNN classification network (CWGCNet) was developed to extract the low-level features automatically. In addition to the loss in image convolutional feature similarity, we also considered the whole training loss, which include the image appearance matching loss, disparity smoothness loss and left-right disparity consistency loss. A stereo pair of images of tomato was sampled using a binocular camera in a greenhouse. After epipolar rectification, the pair of images was constructed for training and testing of the depth estimation model. Using the Microsoft Cognitive Toolkit (CNTK), the CWGCNet and the depth estimation network of the tomato images were calculated using Python. Both training and testing experiments were conducted in a computer with a Tesla K40c GPU (graphics processing unit). The results showed that the shallow convolutional layer of the CWGCNet successfully extracted the low-level multiformity image features to calculate the loss in image convolutional feature similarity. The convolutional auto-encoder developed in this paper was able to significantly improve the disparity map estimated by the depth estimation model. The loss function in image convolutional feature similarity had a remarkable effect on accuracy of the image depth. The accuracy of the disparity map estimated by the model increased with the number of convolution modules for calculating the loss in convolutional feature similarity. When sampled within 9.0 m, the root means square error (RMSE) and the mean absolute error (MAE) of the corner distance estimated by the model were less than 2.5 cm and 1.8 cm, respectively, while when sampled within 3.0m, the associated errors were less than 0.7cm and 0.5cm, respectively. The coefficient of determination (2) of the proposed model was 0.8081, and the test speed was 28 fps (frames per second). Compared with the existing models, the proposed model reduced the RMSE and MAE by 33.1% and 35.6% respectively, while increased calculation speed by 52.2%.

    image processing; convolution neural network; algorithms; self-supervised learning; depth estimation; disparity; deep learning; tomato

    周云成,許童羽,鄧寒冰,苗 騰,吳 瓊. 基于自監(jiān)督學(xué)習(xí)的番茄植株圖像深度估計(jì)方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019,35(24):173-182. doi:10.11975/j.issn.1002-6819.2019.24.021 http://www.tcsae.org

    Zhou Yuncheng, Xu Tongyu, Deng Hanbing, Miao Teng, Wu Qiong. Method for estimating the image depth of tomato plant based on self-supervised learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(24): 173-182. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2019.24.021 http://www.tcsae.org

    2018-11-01

    2019-12-01

    遼寧省自然科學(xué)基金(20180551102);國(guó)家自然科學(xué)基金(31601218)

    周云成,副教授,博士,主要從事機(jī)器學(xué)習(xí)在農(nóng)業(yè)信息處理中的應(yīng)用研究。Email:zhouyc2002@163.com

    10.11975/j.issn.1002-6819.2019.24.021

    TP183

    A

    1002-6819(2019)-24-0173-10

    猜你喜歡
    深度特征
    抓住特征巧觀察
    深度理解一元一次方程
    新型冠狀病毒及其流行病學(xué)特征認(rèn)識(shí)
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    深度觀察
    深度觀察
    深度觀察
    深度觀察
    抓住特征巧觀察
    久久久久久久久久成人| 亚洲国产欧美在线一区| 黄色怎么调成土黄色| 在线 av 中文字幕| 男女午夜视频在线观看 | 久久 成人 亚洲| 51国产日韩欧美| 亚洲第一av免费看| 99视频精品全部免费 在线| 中文欧美无线码| 国产精品无大码| 九色成人免费人妻av| 亚洲精品国产av成人精品| 男人舔女人的私密视频| 五月开心婷婷网| 亚洲美女黄色视频免费看| 欧美另类一区| 下体分泌物呈黄色| 国产av一区二区精品久久| 亚洲av日韩在线播放| 草草在线视频免费看| 啦啦啦中文免费视频观看日本| 秋霞在线观看毛片| 亚洲,欧美精品.| 欧美精品一区二区大全| 大片电影免费在线观看免费| a 毛片基地| 国产免费又黄又爽又色| 精品福利永久在线观看| 男女国产视频网站| 久久久久国产精品人妻一区二区| 精品一品国产午夜福利视频| 亚洲精品乱码久久久久久按摩| 欧美精品国产亚洲| 久久精品夜色国产| 中国美白少妇内射xxxbb| a级毛片在线看网站| 久久久国产一区二区| 高清欧美精品videossex| 亚洲精品一区蜜桃| 国产熟女欧美一区二区| 精品午夜福利在线看| 一区二区三区乱码不卡18| 高清毛片免费看| 成年人免费黄色播放视频| 街头女战士在线观看网站| 美女xxoo啪啪120秒动态图| 少妇熟女欧美另类| 精品少妇黑人巨大在线播放| 99热国产这里只有精品6| 天堂8中文在线网| 亚洲精品第二区| 18+在线观看网站| 91午夜精品亚洲一区二区三区| 亚洲内射少妇av| 五月天丁香电影| 日本91视频免费播放| 国产男女超爽视频在线观看| 国产欧美日韩综合在线一区二区| 亚洲 欧美一区二区三区| 激情视频va一区二区三区| 赤兔流量卡办理| 亚洲精品aⅴ在线观看| 国产男人的电影天堂91| 97精品久久久久久久久久精品| 精品一区二区三卡| 久久国产精品大桥未久av| 26uuu在线亚洲综合色| 9色porny在线观看| 女的被弄到高潮叫床怎么办| 久久久久国产网址| 99热网站在线观看| 亚洲国产精品成人久久小说| 蜜桃在线观看..| 亚洲一区二区三区欧美精品| 黄色怎么调成土黄色| 欧美3d第一页| 国产精品一区二区在线观看99| 免费在线观看黄色视频的| 久久青草综合色| 999精品在线视频| 精品一区二区三卡| 超色免费av| 久久热在线av| 男人舔女人的私密视频| 亚洲一码二码三码区别大吗| 久久人人爽人人爽人人片va| 青春草国产在线视频| 亚洲,欧美精品.| 91国产中文字幕| 青春草亚洲视频在线观看| 青春草国产在线视频| 久久久久久久久久成人| 精品国产一区二区久久| av不卡在线播放| 国产精品久久久av美女十八| 交换朋友夫妻互换小说| 久久午夜综合久久蜜桃| 999精品在线视频| 国产成人精品福利久久| 女人精品久久久久毛片| 热99国产精品久久久久久7| 日韩视频在线欧美| av在线观看视频网站免费| 黄色怎么调成土黄色| 九九爱精品视频在线观看| 波野结衣二区三区在线| 一级片'在线观看视频| 国产精品久久久久久精品电影小说| 欧美变态另类bdsm刘玥| 中文欧美无线码| 黄色毛片三级朝国网站| 国产色婷婷99| 日韩一本色道免费dvd| 91久久精品国产一区二区三区| 日韩一区二区三区影片| 人妻一区二区av| 一区在线观看完整版| 日日摸夜夜添夜夜爱| 99久久人妻综合| 一级毛片黄色毛片免费观看视频| 男女高潮啪啪啪动态图| 欧美成人午夜免费资源| 在线看a的网站| 多毛熟女@视频| 国产乱来视频区| 亚洲久久久国产精品| 中文字幕人妻熟女乱码| 大香蕉97超碰在线| 亚洲人成77777在线视频| 一本色道久久久久久精品综合| 老司机影院成人| 在线观看免费视频网站a站| 男女边摸边吃奶| 人人澡人人妻人| 久久精品国产亚洲av天美| 国产熟女欧美一区二区| 精品久久国产蜜桃| 中文字幕制服av| 久久久久久久久久人人人人人人| 夫妻午夜视频| 黑人巨大精品欧美一区二区蜜桃 | 男人爽女人下面视频在线观看| 国产av一区二区精品久久| 亚洲色图 男人天堂 中文字幕 | 熟女av电影| av免费观看日本| videossex国产| 成年女人在线观看亚洲视频| 亚洲熟女精品中文字幕| 一二三四中文在线观看免费高清| av黄色大香蕉| 男女下面插进去视频免费观看 | 男人舔女人的私密视频| 美女大奶头黄色视频| 中国国产av一级| 欧美日韩亚洲高清精品| 午夜福利在线观看免费完整高清在| 久久ye,这里只有精品| 亚洲精品中文字幕在线视频| 香蕉丝袜av| 一级a做视频免费观看| 韩国高清视频一区二区三区| 90打野战视频偷拍视频| 欧美另类一区| 精品亚洲成a人片在线观看| 亚洲av欧美aⅴ国产| 亚洲情色 制服丝袜| 自线自在国产av| 男女下面插进去视频免费观看 | 人人妻人人澡人人爽人人夜夜| 亚洲国产av新网站| 亚洲欧美日韩另类电影网站| 在线天堂最新版资源| 精品国产一区二区久久| 一级黄片播放器| 久久久久精品人妻al黑| 亚洲av.av天堂| 国产精品99久久99久久久不卡 | 热99久久久久精品小说推荐| 99热网站在线观看| 国产无遮挡羞羞视频在线观看| 亚洲中文av在线| 色吧在线观看| 婷婷色av中文字幕| 久久99一区二区三区| 两个人看的免费小视频| 国产精品麻豆人妻色哟哟久久| 欧美亚洲 丝袜 人妻 在线| 91精品国产国语对白视频| 日本欧美视频一区| 香蕉国产在线看| 99九九在线精品视频| 亚洲精品久久成人aⅴ小说| 亚洲精品,欧美精品| 亚洲精品国产色婷婷电影| 久久精品国产亚洲av天美| 久久免费观看电影| 日日爽夜夜爽网站| 日韩精品免费视频一区二区三区 | 国产黄色视频一区二区在线观看| 亚洲经典国产精华液单| 亚洲国产精品一区三区| 国产又爽黄色视频| 日韩精品有码人妻一区| 麻豆乱淫一区二区| 久久久久久久久久人人人人人人| 日本av手机在线免费观看| 亚洲欧美色中文字幕在线| 18在线观看网站| 国产精品久久久久久av不卡| 久久亚洲国产成人精品v| 精品一区二区免费观看| 侵犯人妻中文字幕一二三四区| 国产成人精品福利久久| 亚洲国产精品一区三区| 成年动漫av网址| 日韩中字成人| 亚洲五月色婷婷综合| 成人亚洲精品一区在线观看| 中国国产av一级| 日本91视频免费播放| 中文欧美无线码| 色婷婷久久久亚洲欧美| 国产高清不卡午夜福利| 精品少妇久久久久久888优播| 一个人免费看片子| 欧美bdsm另类| 99九九在线精品视频| tube8黄色片| 日日爽夜夜爽网站| 青春草国产在线视频| 午夜福利视频在线观看免费| 亚洲精品美女久久av网站| 如日韩欧美国产精品一区二区三区| videossex国产| videos熟女内射| 久久久久精品人妻al黑| 亚洲天堂av无毛| 免费久久久久久久精品成人欧美视频 | 中文精品一卡2卡3卡4更新| 99热6这里只有精品| 国产一区有黄有色的免费视频| 大陆偷拍与自拍| www.熟女人妻精品国产 | 国产av精品麻豆| 久久久久视频综合| 一本久久精品| 亚洲丝袜综合中文字幕| 黄片无遮挡物在线观看| 男男h啪啪无遮挡| 丝袜在线中文字幕| 99国产精品免费福利视频| 视频在线观看一区二区三区| 精品少妇久久久久久888优播| tube8黄色片| 日本av免费视频播放| 男男h啪啪无遮挡| 日日啪夜夜爽| 在线看a的网站| 男女高潮啪啪啪动态图| 韩国精品一区二区三区 | 亚洲婷婷狠狠爱综合网| 极品少妇高潮喷水抽搐| 欧美精品人与动牲交sv欧美| 国产欧美日韩综合在线一区二区| 午夜老司机福利剧场| 日韩欧美一区视频在线观看| 制服丝袜香蕉在线| 国产精品一区二区在线不卡| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 国产福利在线免费观看视频| 视频中文字幕在线观看| 一个人免费看片子| 街头女战士在线观看网站| 大香蕉97超碰在线| 成年人免费黄色播放视频| 亚洲av福利一区| 国产精品蜜桃在线观看| 亚洲精品美女久久av网站| 26uuu在线亚洲综合色| 9191精品国产免费久久| 久久狼人影院| 街头女战士在线观看网站| 在线观看免费高清a一片| 久久久a久久爽久久v久久| 2022亚洲国产成人精品| 国产精品一区二区在线不卡| 国产在线一区二区三区精| 午夜日本视频在线| av在线播放精品| 日本91视频免费播放| 欧美亚洲 丝袜 人妻 在线| 9191精品国产免费久久| 久久av网站| 亚洲伊人久久精品综合| 99热6这里只有精品| 老司机影院毛片| 久久午夜综合久久蜜桃| av在线老鸭窝| 成人手机av| 午夜福利视频精品| 久久国产精品男人的天堂亚洲 | 晚上一个人看的免费电影| 免费观看在线日韩| 青春草亚洲视频在线观看| 国产色爽女视频免费观看| 成人手机av| 精品一区二区三区视频在线| 国产欧美亚洲国产| 国产精品欧美亚洲77777| 日日啪夜夜爽| 在线观看免费日韩欧美大片| 我要看黄色一级片免费的| 成年动漫av网址| 亚洲国产精品专区欧美| 黄色视频在线播放观看不卡| 看十八女毛片水多多多| 精品久久国产蜜桃| 国产在线一区二区三区精| 天天躁夜夜躁狠狠久久av| 国产免费视频播放在线视频| 欧美老熟妇乱子伦牲交| 色婷婷av一区二区三区视频| a级毛色黄片| 天天操日日干夜夜撸| 在线观看美女被高潮喷水网站| 熟妇人妻不卡中文字幕| 国产黄色免费在线视频| 久久韩国三级中文字幕| 久久久欧美国产精品| 99热网站在线观看| 热re99久久精品国产66热6| 免费观看在线日韩| 国产成人免费无遮挡视频| 久久久精品免费免费高清| 精品久久久久久电影网| 妹子高潮喷水视频| 成年美女黄网站色视频大全免费| 国产日韩一区二区三区精品不卡| 国产亚洲av片在线观看秒播厂| 国产精品国产三级专区第一集| 亚洲欧美日韩卡通动漫| 热99久久久久精品小说推荐| 亚洲av.av天堂| 成人二区视频| 国产福利在线免费观看视频| 亚洲婷婷狠狠爱综合网| 欧美激情国产日韩精品一区| 久久人人爽人人爽人人片va| 新久久久久国产一级毛片| 哪个播放器可以免费观看大片| 午夜老司机福利剧场| 久久亚洲国产成人精品v| 99久久中文字幕三级久久日本| 国产精品国产三级国产专区5o| 国产在线免费精品| 免费久久久久久久精品成人欧美视频 | 日韩欧美精品免费久久| 蜜桃在线观看..| 国产熟女午夜一区二区三区| 国产成人a∨麻豆精品| 精品一品国产午夜福利视频| 美女国产视频在线观看| 女人被躁到高潮嗷嗷叫费观| 母亲3免费完整高清在线观看 | av天堂久久9| 天天影视国产精品| 国产国语露脸激情在线看| 麻豆乱淫一区二区| 高清黄色对白视频在线免费看| 卡戴珊不雅视频在线播放| 久久久精品免费免费高清| 日本vs欧美在线观看视频| 国产69精品久久久久777片| 国产av码专区亚洲av| 国产av国产精品国产| 国产淫语在线视频| 亚洲美女视频黄频| 丰满饥渴人妻一区二区三| 久久久久国产网址| 最黄视频免费看| 水蜜桃什么品种好| 色5月婷婷丁香| 亚洲精品久久久久久婷婷小说| videossex国产| 亚洲精品一二三| 欧美bdsm另类| 九色亚洲精品在线播放| 亚洲av电影在线进入| 伦理电影免费视频| 日韩制服丝袜自拍偷拍| 视频在线观看一区二区三区| av电影中文网址| 午夜免费男女啪啪视频观看| 最新的欧美精品一区二区| 欧美日韩视频高清一区二区三区二| 亚洲精品中文字幕在线视频| 你懂的网址亚洲精品在线观看| 有码 亚洲区| 亚洲人与动物交配视频| 亚洲,欧美,日韩| 精品久久蜜臀av无| 天堂俺去俺来也www色官网| 亚洲国产日韩一区二区| 精品一区二区免费观看| 黄色视频在线播放观看不卡| 精品酒店卫生间| 在线观看三级黄色| 麻豆乱淫一区二区| 亚洲精品美女久久av网站| 国产精品国产三级国产av玫瑰| 美女国产高潮福利片在线看| 久久久久久久久久成人| 免费在线观看黄色视频的| 最近手机中文字幕大全| 精品视频人人做人人爽| av播播在线观看一区| 咕卡用的链子| 国产成人精品一,二区| 午夜福利网站1000一区二区三区| 免费高清在线观看视频在线观看| 看免费av毛片| videos熟女内射| 男女免费视频国产| 午夜久久久在线观看| 纯流量卡能插随身wifi吗| 最近最新中文字幕大全免费视频 | 99香蕉大伊视频| 久久国内精品自在自线图片| 日韩在线高清观看一区二区三区| 99热国产这里只有精品6| 久久久久精品性色| 精品酒店卫生间| 久久久国产一区二区| 香蕉精品网在线| 欧美日韩一区二区视频在线观看视频在线| 国产视频首页在线观看| 午夜精品国产一区二区电影| 国产成人精品久久久久久| 欧美国产精品一级二级三级| 欧美成人午夜免费资源| 欧美精品人与动牲交sv欧美| av国产精品久久久久影院| videos熟女内射| 亚洲av日韩在线播放| 美女福利国产在线| 午夜福利视频在线观看免费| 91aial.com中文字幕在线观看| 黄色毛片三级朝国网站| 日本欧美视频一区| 国产精品国产三级专区第一集| 黄色毛片三级朝国网站| 亚洲欧美成人精品一区二区| 菩萨蛮人人尽说江南好唐韦庄| www日本在线高清视频| 国产伦理片在线播放av一区| 日日撸夜夜添| 妹子高潮喷水视频| 国产成人精品无人区| 久久青草综合色| 亚洲人成网站在线观看播放| www.色视频.com| 韩国高清视频一区二区三区| 亚洲人成77777在线视频| 搡老乐熟女国产| 99久久人妻综合| 精品人妻偷拍中文字幕| 搡老乐熟女国产| 丝袜喷水一区| 日产精品乱码卡一卡2卡三| 亚洲高清免费不卡视频| 国产毛片在线视频| 日本vs欧美在线观看视频| 三级国产精品片| 91国产中文字幕| 欧美国产精品va在线观看不卡| 亚洲国产日韩一区二区| 18禁动态无遮挡网站| 亚洲欧美精品自产自拍| 国产综合精华液| 日本91视频免费播放| 香蕉国产在线看| 男人爽女人下面视频在线观看| 久久鲁丝午夜福利片| 免费不卡的大黄色大毛片视频在线观看| 三级国产精品片| 永久免费av网站大全| 国产成人a∨麻豆精品| 免费人成在线观看视频色| 精品午夜福利在线看| 高清毛片免费看| 亚洲精品视频女| 人妻人人澡人人爽人人| 国产毛片在线视频| 久久人人爽人人爽人人片va| 亚洲少妇的诱惑av| 寂寞人妻少妇视频99o| 亚洲欧洲精品一区二区精品久久久 | 免费观看无遮挡的男女| 在线亚洲精品国产二区图片欧美| 纵有疾风起免费观看全集完整版| 伦理电影免费视频| 国产亚洲av片在线观看秒播厂| 一区在线观看完整版| 天堂俺去俺来也www色官网| 国产精品一国产av| 韩国av在线不卡| 中文欧美无线码| 韩国高清视频一区二区三区| 亚洲天堂av无毛| 成人二区视频| 日韩精品有码人妻一区| 99久久人妻综合| 久久久久久伊人网av| 国产亚洲av片在线观看秒播厂| 五月玫瑰六月丁香| 女人被躁到高潮嗷嗷叫费观| 日本午夜av视频| 伊人久久国产一区二区| 亚洲国产精品专区欧美| 新久久久久国产一级毛片| 久久这里只有精品19| 成年av动漫网址| 美女主播在线视频| 女的被弄到高潮叫床怎么办| 国产欧美日韩综合在线一区二区| 欧美成人精品欧美一级黄| 日韩不卡一区二区三区视频在线| 高清毛片免费看| 七月丁香在线播放| 成人综合一区亚洲| 最新的欧美精品一区二区| 激情视频va一区二区三区| 国产黄色免费在线视频| 欧美3d第一页| 69精品国产乱码久久久| 一级黄片播放器| 制服诱惑二区| 女的被弄到高潮叫床怎么办| 日本wwww免费看| 十八禁高潮呻吟视频| xxx大片免费视频| 午夜福利乱码中文字幕| 色哟哟·www| 成年动漫av网址| 桃花免费在线播放| 精品亚洲成a人片在线观看| 国产一区二区在线观看av| av在线老鸭窝| 黑人猛操日本美女一级片| 午夜视频国产福利| 啦啦啦在线观看免费高清www| 精品亚洲乱码少妇综合久久| 成人国产麻豆网| 国产一级毛片在线| 男人操女人黄网站| 久久久久久久大尺度免费视频| 黄片无遮挡物在线观看| 欧美3d第一页| 两性夫妻黄色片 | 亚洲五月色婷婷综合| 亚洲精品自拍成人| 久久久精品区二区三区| 午夜日本视频在线| 麻豆乱淫一区二区| 国产 一区精品| 丁香六月天网| 18在线观看网站| 性色av一级| 少妇人妻 视频| 成人综合一区亚洲| 亚洲av电影在线观看一区二区三区| 在线精品无人区一区二区三| 校园人妻丝袜中文字幕| 女人久久www免费人成看片| 一区二区三区乱码不卡18| 在线天堂最新版资源| 国产片特级美女逼逼视频| 亚洲一码二码三码区别大吗| 欧美精品亚洲一区二区| 汤姆久久久久久久影院中文字幕| 激情视频va一区二区三区| 欧美精品一区二区免费开放| 欧美丝袜亚洲另类| 只有这里有精品99| 最近的中文字幕免费完整| 亚洲av日韩在线播放| 精品久久久精品久久久| 人人妻人人澡人人爽人人夜夜| 啦啦啦视频在线资源免费观看| 精品人妻在线不人妻| 国产片内射在线| 18禁国产床啪视频网站| 欧美国产精品一级二级三级| 考比视频在线观看| 久久影院123| 欧美变态另类bdsm刘玥| 亚洲精品乱久久久久久| 精品亚洲成国产av| 美女国产视频在线观看| 亚洲美女搞黄在线观看| 美女主播在线视频| 三上悠亚av全集在线观看| 91aial.com中文字幕在线观看| 亚洲精品中文字幕在线视频| 日产精品乱码卡一卡2卡三| 女性被躁到高潮视频| 亚洲国产精品一区二区三区在线| 熟女人妻精品中文字幕| 亚洲国产精品一区二区三区在线| 日韩免费高清中文字幕av| 欧美日韩综合久久久久久| 国产免费一区二区三区四区乱码| 看免费成人av毛片|