• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于輕量化改進(jìn)YOLOv5的蘋果樹產(chǎn)量測定方法

    2021-01-17 23:20:30李志軍楊圣慧史德帥劉星星鄭永軍
    智慧農(nóng)業(yè)(中英文) 2021年2期
    關(guān)鍵詞:BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)

    李志軍 楊圣慧 史德帥 劉星星 鄭永軍

    摘要:果樹測產(chǎn)是果園管理的重要環(huán)節(jié)之一,為提升蘋果果園原位測產(chǎn)的準(zhǔn)確性,本研究提出一種包含改進(jìn)型YOLOv5果實檢測算法與產(chǎn)量擬合網(wǎng)絡(luò)的產(chǎn)量測定方法。利用無人機(jī)及樹莓派攝像頭采集摘袋后不同著色時間的蘋果果園原位圖像,形成樣本數(shù)據(jù)集;通過更換深度可分離卷積和添加注意力機(jī)制模塊對YOLOv5算法進(jìn)行改進(jìn),解決網(wǎng)絡(luò)中存在的特征提取時無注意力偏好問題和參數(shù)冗余問題,從而提升檢測準(zhǔn)確度,降低網(wǎng)絡(luò)參數(shù)帶來的計算負(fù)擔(dān);將圖片作為輸入得到估測果實數(shù)量以及邊界框面總積。以上述檢測結(jié)果作為輸入、實際產(chǎn)量作為輸出,訓(xùn)練產(chǎn)量擬合網(wǎng)絡(luò),得到最終測產(chǎn)模型。測產(chǎn)試驗結(jié)果表明,改進(jìn)型YOLOv5果實檢測算法可以在提高輕量化程度的同時提升識別準(zhǔn)確率,與改進(jìn)前相比,檢測速度最大可提升15.37%,平均mAP最高達(dá)到96.79%;在不同數(shù)據(jù)集下的測試結(jié)果表明,光照條件、著色時間以及背景有無白布均對算法準(zhǔn)確率有一定影響;產(chǎn)量擬合網(wǎng)絡(luò)可以較好地預(yù)測出果樹產(chǎn)量,在訓(xùn)練集和測試集的決定系數(shù)R分別為0.7967和0.7982,均方根誤差RMSE分別為1.5317和1.4021 kg,不同產(chǎn)量樣本的預(yù)測精度基本穩(wěn)定;果樹測產(chǎn)模型在背景有白布和無白布的條件下,相對誤差范圍分別在7%以內(nèi)和13%以內(nèi)。本研究提出的基于輕量化改進(jìn)YOLOv5的果樹產(chǎn)量測定方法具有良好的精度和有效性,基本可以滿足自然環(huán)境下樹上蘋果的測產(chǎn)要求,為現(xiàn)代果園環(huán)境下的智能農(nóng)業(yè)裝備提供技術(shù)參考。

    關(guān)鍵詞:蘋果原位測產(chǎn);深度學(xué)習(xí);果實檢測;BP神經(jīng)網(wǎng)絡(luò);YOLOv5

    中圖分類號:S252+.9文獻(xiàn)標(biāo)志碼:A文章編號:202105-SA005

    引用格式:李志軍,楊圣慧,史德帥,劉星星,鄭永軍.基于輕量化改進(jìn)YOLOv5的蘋果樹產(chǎn)量測定方法[J].智慧農(nóng)業(yè)(中英文),2021,3(2): 100-114.

    LI Zhijun, YANG Shenghui, SHI Deshuai, LIU Xingxing, ZHENG Yongjun. Yield estimation method of apple tree based on improved lightweight YOLOv5[J]. Smart Agriculture, 2021, 3(2): 100-114. (in Chinese with English abstract)

    1引言

    果樹產(chǎn)量測定不但可以幫助果農(nóng)掌握果樹的生長情況、估算果園的整體產(chǎn)值,而且可以為合理安排收獲提供定量依據(jù)[1]。傳統(tǒng)的果樹測產(chǎn)方法主要依靠人工目測清點,不僅對測產(chǎn)人員的經(jīng)驗有較高要求,而且勞動強(qiáng)度大、精度較低[2]。

    為實現(xiàn)蘋果測產(chǎn)流程的自動化,學(xué)者開始利用機(jī)器視覺等技術(shù)進(jìn)行相關(guān)研究,主要集中在利用該技術(shù)從果樹圖像提取出果實個數(shù)等信息[3-5],而基于圖像信息估測果樹產(chǎn)量的研究仍需進(jìn)一步深入。程洪等[6]提出將果實區(qū)域比例、果實個數(shù)比、小面積果實比例、果實樹葉比等作為特征輸入,建立神經(jīng)網(wǎng)絡(luò)的方法擬合果樹產(chǎn)量。

    Crtomir等[7]從果樹撿果結(jié)束到果實收獲期內(nèi),采集“Golden Delicious”和“Braebum”兩種蘋果樹圖像數(shù)據(jù),以果實個數(shù)為輸入,產(chǎn)量為輸出構(gòu)建人工神經(jīng)網(wǎng)絡(luò)進(jìn)行模型的訓(xùn)練和測試。該方法需要進(jìn)行多組數(shù)據(jù)的采集,因此僅適用于接近或已經(jīng)位于成熟期的蘋果果樹測產(chǎn)。Roy等[8]提出了一種基于顏色識別蘋果的半監(jiān)督聚類方法,以及一種利用空間屬性從具有任意復(fù)雜幾何形狀的蘋果簇中估計數(shù)量的無監(jiān)督聚類方法,將其集成為一個完整的端到端計算機(jī)視覺系統(tǒng),使用單個攝像機(jī)捕獲的圖像作為輸入,輸出果園的預(yù)測產(chǎn)量,在不同數(shù)據(jù)集上的準(zhǔn)確度為91.98%~94.81%。

    基于深度學(xué)習(xí)的目標(biāo)檢測算法可以快速檢測出目標(biāo)數(shù)量,其主要分為兩類,一類是以YOLO(You Only Look Once)系列[9-12]和SSD(Single Shot MultiBox Detector)系列[13-15]為代表的一階段檢測算法,該類算法具有較快的檢測速度,但是精度相對偏低;另一類是以區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Region-CNN,R-CNN)系列[16-18]為代表的二階段檢測算法,其檢測精度較高,缺點是實時性差。YOLOv5憑借其較快的檢測速度以及良好的檢測精度得到了研究人員的青睞[19,20]。具體來看,YOLOv5在數(shù)據(jù)的輸入端增加了Mosaic數(shù)據(jù)增強(qiáng)、自適應(yīng)錨框計算、自適應(yīng)圖片縮放等操作;特征提取網(wǎng)絡(luò)為基于CSPNet[21]的CSPDarknet53,可以在一定范圍內(nèi)降低內(nèi)存損耗;處理輸出部分采用FPN[22]和PANet[23]結(jié)構(gòu),可以加快各層級之間的信息流通。

    本研究以自然環(huán)境下的蘋果為研究對象,通過對YOLOv5檢測算法進(jìn)行輕量化改進(jìn),考慮摘袋后不同著色時間、不同光照條件以及背景有無白布對結(jié)果的影響進(jìn)行數(shù)據(jù)分析;融合產(chǎn)量擬合網(wǎng)絡(luò),建立蘋果樹測產(chǎn)模型,將圖像數(shù)據(jù)作為輸入,估測蘋果樹產(chǎn)量,為果實收獲期合理安排采摘人員提供參考,為現(xiàn)代果園環(huán)境下的智能農(nóng)業(yè)裝備提供技術(shù)參考。

    2數(shù)據(jù)采集與處理

    2.1圖像數(shù)據(jù)采集

    原位圖像在山東省煙臺市棲霞市官道鎮(zhèn)姚莊村山東通達(dá)現(xiàn)代農(nóng)業(yè)集團(tuán)有限公司果園基地(北緯37°16′,東經(jīng)120°64′)采集,蘋果品種為“煙富3號”,摘袋后著色16~22d采摘果實。采集設(shè)備為自制的四旋翼無人機(jī)(圖1),搭載樹莓派4B作為圖像采集與存儲核心,其CPU為Cortex-A72@1.5GHz,GPU為Broadcom VideoCore VI,運行內(nèi)存8GB,存儲容量128G。攝像頭(Raspberry Pi Camera V2),像素為500萬,采集頻率為30Hz,影像最大光圈為F2.35,焦距為3.15 mm,視場角為65°。

    為降低其他果樹產(chǎn)生的干擾,采用長4m、高3m的白色幕布為背景,跟隨無人機(jī)移動(如圖1(c)所示)。圖像采集時無人機(jī)飛行高度為1.5 m,距離果樹1.2 m,在晴天時采集順光、側(cè)光、逆光三個角度的有白色背景與自然條件圖像,作為測產(chǎn)模型的訓(xùn)練及在自然環(huán)境下的應(yīng)用效果驗證。

    著色1d的蘋果顏色呈現(xiàn)青綠色,與果樹葉片顏色較為接近;8d時開始上色,顏色呈現(xiàn)淡紅色;著色15d即可完全上色。不同著色時間的數(shù)據(jù),便于對本研究提出的果實檢測算法進(jìn)行泛化能力測試。圖像采集日期為2020年10月3日至17日,每隔7 d采集一次圖像,采集時間為上午10點至下午4點,共采集到蘋果著色1d、著色8d、著色15 d的三組數(shù)據(jù),在果實著色16d時采集果樹產(chǎn)量數(shù)據(jù)(圖2)。

    2.2圖像數(shù)據(jù)預(yù)處理

    2.2.1數(shù)據(jù)清洗

    為降低重復(fù)圖片數(shù)量以及無果實圖片對模型訓(xùn)練的干擾,使用人工篩選的方法對采集圖像進(jìn)行數(shù)據(jù)清洗,即刪除因無人機(jī)懸停造成的重復(fù)圖片以及無人機(jī)姿態(tài)調(diào)整過程中不含蘋果的圖片。數(shù)據(jù)清洗后,著色1d、8d和15d部分?jǐn)?shù)據(jù)如圖3所示。利用不同著色時間采集的不同光照條件數(shù)據(jù),分析不同著色時間以及不同光照條件數(shù)據(jù)對檢測算法的影響。圖像數(shù)據(jù)包含果樹整體圖像以及局部圖像,檢測算法在工作過程中只迭代訓(xùn)練標(biāo)注過的果實區(qū)域。本研究無人機(jī)拍攝的整體圖像與局部圖像果實區(qū)域大小相近、分布相似,故將整體與局部圖像作為訓(xùn)練數(shù)據(jù)可以使算法在不損失檢測準(zhǔn)確率的同時提高其泛化能力。

    利用不同時間點采集的背景無白布數(shù)據(jù),與背景有白布數(shù)據(jù)進(jìn)行對比分析,驗證本研究提出檢測算法的實際應(yīng)用效果,背景無白布下不同時間點采集的部分蘋果圖片如圖4所示。

    2.2.2數(shù)據(jù)集劃分與標(biāo)注

    數(shù)據(jù)清洗后,著色1d、8d和15d數(shù)據(jù)各保留1000張。從背景有白布數(shù)據(jù)中隨機(jī)挑選300張圖片作為測試集1,并將測試集1分為順光、側(cè)光和逆光三個子集,每個子集包含100張圖片;從背景無白布數(shù)據(jù)中挑選300張作為測試集2,不分光照條件子集;剩下的圖片均作為訓(xùn)練集數(shù)據(jù)。

    采用人工劃分方法,在labelling軟件中對目標(biāo)果實進(jìn)行框選,包含目標(biāo)框的位置坐標(biāo)、類別等信息,標(biāo)注結(jié)果如圖5(第104頁)所示。

    標(biāo)注完成后,將樣本數(shù)據(jù)集制作成標(biāo)準(zhǔn)PASCAL. VOC2012格式的數(shù)據(jù)集,圖片及目標(biāo)框數(shù)量如表1所示。

    2.3產(chǎn)量數(shù)據(jù)采集

    產(chǎn)量數(shù)據(jù)于2020年10月18日9:00—17:00采集,此時蘋果著色16 d。采集時對單株果樹進(jìn)行編號,在每株果樹收獲前,使用無人機(jī)拍攝當(dāng)前果樹圖像;收獲后,將單株果實放置在同一個框中,使用電子秤對蘋果進(jìn)行稱重,去掉框的重量即可得到單株果樹產(chǎn)量。得到數(shù)據(jù)共93組,每組數(shù)據(jù)包含果樹圖像以及相應(yīng)產(chǎn)量,其中60組用于產(chǎn)量擬合網(wǎng)絡(luò)訓(xùn)練,13組用于產(chǎn)量擬合網(wǎng)絡(luò)測試,10組用于背景有白布的測產(chǎn)模型驗證,10組用于背景無白布的測產(chǎn)模型驗證。將不同產(chǎn)量數(shù)據(jù)集數(shù)據(jù)繪制成散點圖,如圖6所示。果實數(shù)量與果樹產(chǎn)量之間呈現(xiàn)一定的線性相關(guān)性,并且果實平均重量在250~280 g之間,表明該果園的果樹長勢較好,果樹個體之間無明顯差異。

    3蘋果樹測產(chǎn)模型

    3.1模型總體結(jié)構(gòu)

    本研究提出的果樹測產(chǎn)模型分為果實檢測算法和產(chǎn)量擬合網(wǎng)絡(luò)兩部分,如圖7所示。果實檢測算法利用改進(jìn)型Y0L0v5對輸入的果樹圖像進(jìn)行目標(biāo)檢測,輸出圖像中果實數(shù)量以及所有果實邊界框總面積;產(chǎn)量擬合網(wǎng)絡(luò)負(fù)責(zé)將上述算法的輸出作為當(dāng)前網(wǎng)絡(luò)的輸入,利用BP神經(jīng)網(wǎng)絡(luò)擬合果樹產(chǎn)量。檢測算法部分使用圖像訓(xùn)練集、擬合網(wǎng)絡(luò)部分使用產(chǎn)量訓(xùn)練集分開進(jìn)行訓(xùn)練,訓(xùn)練完成后,可實現(xiàn)在測產(chǎn)模型中輸入果樹圖像即可直接輸出相應(yīng)的果樹產(chǎn)量。

    3.2改進(jìn)型YOLOv5果實檢測算法

    3.2.1基于輕量化改進(jìn)的YOLOv5

    YOLOv5模型起源于YOLO,該算法在輸出層回歸目標(biāo)框的位置坐標(biāo)及其所屬類別具有良好的檢測速度。YOLO算法的核心思想是將輸入圖片劃分為7×7個網(wǎng)格,目標(biāo)中心所在的網(wǎng)格負(fù)責(zé)預(yù)測該目標(biāo)。每個網(wǎng)格負(fù)責(zé)預(yù)測2個目標(biāo)框,該目標(biāo)框回歸位置坐標(biāo)以及預(yù)測置信度值[24]。設(shè)定一個置信度閾值,濾除置信度較低的目標(biāo)框,并對保留的框進(jìn)行非極大值抑制(Non- Maximum Suppression, NMS)處理,得到最終的預(yù)測效果,如圖8所示。

    然而,傳統(tǒng)的YOLOv5網(wǎng)絡(luò)參數(shù)量較大,且在提取過程中存在無注意力偏好問題,即對不同重要程度的特征采用相同的加權(quán)方式。因此,本研究提出將YOLOv5特征提取網(wǎng)絡(luò)中的標(biāo)準(zhǔn)卷積更換為輕量化的深度可分離卷積,并且基于深度可分離卷積[25]和視覺注意力機(jī)制提出一個池化注意力模塊(Pooling Block Attention Module,PBAM),將該模塊添加到Y(jié)OLOv5網(wǎng)絡(luò)中解決無注意力偏好問題。PBAM利用先壓縮后擴(kuò)張的方式,將淺層特征采樣到的關(guān)鍵點進(jìn)行增強(qiáng)學(xué)習(xí),并且該模塊引入了類似殘差單元的結(jié)構(gòu),保證了網(wǎng)絡(luò)在較深的情況下不會出現(xiàn)梯度消失或是梯度爆炸的問題;該模塊輸出特征圖與輸入特征圖分辨率保持一致,在不更改網(wǎng)絡(luò)結(jié)構(gòu)的前提下,PBAM可以嵌入到任意網(wǎng)絡(luò)結(jié)構(gòu)中,具有結(jié)構(gòu)簡單、使用方便等優(yōu)勢,通過建立通道間的相互依賴關(guān)系,從而達(dá)到自適應(yīng)校準(zhǔn)通道間相應(yīng)特征的目的。圖9為改進(jìn)后的YOLOv5算法框圖,其中,紅框為本研究改進(jìn)部分。

    融合后的YOLOv5算法不僅可以利用深度可分離卷積減少注意力機(jī)制模塊帶來的計算壓力,而且可以將卷積計算得到的淺層特征圖抽取為重要信息更多的深層特征圖,進(jìn)一步提取關(guān)鍵信息,提升算法的整體檢測效果。

    3.2.2損失函數(shù)計算

    YOLOv5的損失函數(shù)由邊界框置信度損失(L)、類別損失(L)以及坐標(biāo)損失(L)三部分構(gòu)成,改進(jìn)后的YOLOv5算法僅深化了網(wǎng)絡(luò)深度,對以上函數(shù)并無影響,不需要構(gòu)建新的損失函數(shù)。其中置信度損失和類別損失采用交叉熵的方法進(jìn)行計算,如公式(1)~(3)所示。

    L-L+L+L(1)

    (2)

    其中,S為劃分的網(wǎng)格數(shù)量,個;B為每個網(wǎng)格預(yù)測邊界框數(shù)量,個;為判斷第i個網(wǎng)格的第j個邊界框是否有需要預(yù)測的目標(biāo);為判斷第i個網(wǎng)格的第j個邊界框是否有不需要預(yù)測的目標(biāo);λ和λ為網(wǎng)格有無目標(biāo)的權(quán)重系數(shù);C,為預(yù)測目標(biāo)和實際目標(biāo)的置信度值;c為邊界框預(yù)測的目標(biāo)類別;p(c)為第i個網(wǎng)格檢測到目標(biāo)時,其所屬c的預(yù)測概率,%;為第i個網(wǎng)格檢測到目標(biāo)時,其所屬c的實際概率,%。

    本研究采用L作為邊界框坐標(biāo)的損失函數(shù),如公式(4)~(6)所示。

    (4)

    (5)

    (6)

    其中,A為真實框的面積,像素;B為預(yù)測框的面積,像素;C為A和B的最小外接矩形面積,像素。

    3.3產(chǎn)量擬合網(wǎng)絡(luò)

    由于果實檢測數(shù)量以及邊界框面積與估測產(chǎn)量之間的函數(shù)映射關(guān)系并不明確,屬非線性函數(shù)關(guān)系特征,因此本研究采用BP神經(jīng)網(wǎng)絡(luò)作為果實產(chǎn)量擬合部分,提升模型整體對任意復(fù)雜模式的分類能力與多維函數(shù)映射能力。由于BP網(wǎng)絡(luò)的輸入包含了邊界框面積,因此圖像拍攝的距離與相機(jī)的參數(shù)就顯得尤為重要。本研究在圖像采集時,保持采集平臺與果樹的距離不變,并且固定相機(jī)的參數(shù),保證測產(chǎn)的準(zhǔn)確性。

    本研究采用3層全連接層、1層ReLU激活層和1層Sigmoid激活層完成網(wǎng)絡(luò)結(jié)構(gòu)的搭建,網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)如圖10所示。BP網(wǎng)絡(luò)的輸入神經(jīng)元數(shù)量為2個,分別對應(yīng)改進(jìn)型YOLOv5果實檢測算法輸出的果實數(shù)量(個)以及邊界框總面積(像素);輸出神經(jīng)元的數(shù)量為1個,對應(yīng)圖像中的果樹產(chǎn)量。在隱藏層中加入ReLU或Sigmoid激活函數(shù),可以在一定程度上增加神經(jīng)網(wǎng)絡(luò)的非線性因素,加快算法訓(xùn)練速度,并且可以解決反向傳播時梯度消失問題,有效降低過擬合發(fā)生的概率。

    隱藏層神經(jīng)元數(shù)量的確定沒有明確的理論方法,因此本研究先由經(jīng)驗公式確定初始值,如公式(7)所示;再根據(jù)網(wǎng)絡(luò)訓(xùn)練過程中的誤差表現(xiàn)選取最優(yōu)值。最終的隱藏層神經(jīng)元數(shù)量為15個或11個,如圖10所示。

    (7)

    其中,N為隱藏層節(jié)點數(shù)量,個;m為輸入神經(jīng)元數(shù)量,個;n為輸出神經(jīng)元數(shù)量,個;a為1~10之間的常數(shù)。

    利用BP網(wǎng)絡(luò)進(jìn)行數(shù)據(jù)擬合的主要步驟如下。

    (1)數(shù)據(jù)歸一化。為保證性能的穩(wěn)定性,分別對果實數(shù)量、邊界框面積以及果樹產(chǎn)量進(jìn)行輸入樣本的歸一化處理。通過除以歸一化系數(shù),將輸入特征和輸出產(chǎn)量歸一到0~1之間。

    (2)BP網(wǎng)絡(luò)訓(xùn)練??煞譃樗牟剑紫?,初始化網(wǎng)絡(luò)權(quán)重;其次,數(shù)據(jù)正向傳播;再次,誤差反向傳播;最后,網(wǎng)絡(luò)權(quán)重與神經(jīng)網(wǎng)絡(luò)元偏置調(diào)整。

    (3)數(shù)據(jù)反歸一化。為獲取果樹產(chǎn)量對應(yīng)的常量,需要對預(yù)測值進(jìn)行反歸一化。將預(yù)測數(shù)據(jù)乘以對應(yīng)的歸一化系數(shù),將該數(shù)據(jù)重新映射到原始區(qū)間,得到最終產(chǎn)量。

    3.4模型訓(xùn)練

    模型訓(xùn)練分為兩個階段,第一階段為果實檢測,通過訓(xùn)練目標(biāo)檢測算法,預(yù)測圖片中果實數(shù)量及邊界框總面積;第二階段為產(chǎn)量預(yù)測,基于BP神經(jīng)網(wǎng)絡(luò)擬合數(shù)據(jù)集的果實數(shù)量、邊界框面積和產(chǎn)量。

    采用PyTorch深度學(xué)習(xí)框架進(jìn)行模型的搭建,系統(tǒng)硬件配置為AMD Ryzen7 4800H CPU@2.9GHz處理器,6 GB NVIDIA GeForce GTX 1660Ti GPU,16 GB運行內(nèi)存,512 GB SSD硬盤容量,訓(xùn)練和測試所用的操作系統(tǒng)為Windows 10,64位系統(tǒng)。代碼編譯器為PyCharm2019.3.3社區(qū)版,并且配置了CUDA 10.2和cuDNN 7.6.5進(jìn)行GPU加速工作。

    4算法測試與試驗

    4.1果實檢測算法性能分析

    本研究選取平均準(zhǔn)確率(mAP)作為算法的整體評價指標(biāo)。查準(zhǔn)率(P)是指被預(yù)測為正例的樣本中實際為正樣本的比例,查全率(R)是指實際為正例的樣本中被預(yù)測為正樣本的比例,根據(jù)查準(zhǔn)率和查全率之間的關(guān)系可以繪制查準(zhǔn)率一查全率曲線(P-R曲線)。所有類別的準(zhǔn)確率(AP)是指曲線與坐標(biāo)軸圍成區(qū)域的面積,求出所有類別的4P并取均值,可得各類別的mAP,計算如公式(8)~(11)所示。

    (8)

    (9)

    (10)

    (11)

    其中,TP為正樣本預(yù)測正確的數(shù)量,個;FN為負(fù)樣本預(yù)測錯誤的數(shù)量,個;FP為正樣本預(yù)測錯誤的數(shù)量,個;TN為負(fù)樣本預(yù)測正確的數(shù)量,個;p(r)為不同查準(zhǔn)率r下對應(yīng)的查全率p;AP為第i類的檢測準(zhǔn)確率;N為類別數(shù)量,個。

    為驗證本研究提出的改進(jìn)型YOLOv5果實檢測算法的可行性,需要對特征提取網(wǎng)絡(luò)中單獨更換深度可分離卷積、單獨嵌入注意力機(jī)制模塊、融合深度可分離卷積和注意力機(jī)制模塊的YOLOv5算法與未改進(jìn)的YOLOv5算法進(jìn)行檢測速度、平均準(zhǔn)確率性能測試,性能測試完成后進(jìn)行背景有白布以及背景無白布數(shù)據(jù)測試。

    (1)檢測速度算法測試。本研究對算法檢測多張圖片的速度進(jìn)行記錄,并取其均值,對比試驗結(jié)果如表2所示,包括以改進(jìn)前算法檢測速度為基礎(chǔ)不同改進(jìn)版本算法的相對提升率。其中YOLOv5s、YOLOv5m、YOLOv51和YOLOv5x分別是YOLOv5的4個不同深度和寬度的網(wǎng)絡(luò)結(jié)構(gòu),其參數(shù)量依次遞增。

    單獨更換深度可分離卷積,使算法的檢測速度明顯提升,提升幅度為11.26%~17.28%。單獨嵌入注意力機(jī)制模塊會對計算速度有一定影響,但是影響較小,與改進(jìn)前YOLOv5算法檢測速度基本持平。融合深度可分離卷積和注意力機(jī)制模塊后,與單獨更換深度可分離卷積相比,算法會增加部分計算負(fù)擔(dān),降低部分檢測速度;檢測速度最快為31.44ms,與改進(jìn)前相比提升最大15.37%。上述結(jié)果表明,單獨更換深度可分離卷積帶來計算速度的提升較大;融合注意力機(jī)制模塊后,與改進(jìn)前的算法相比仍具有較快的檢測速度優(yōu)勢。

    (2)平均準(zhǔn)確率算法測試。本研究對算法檢測多張圖片的mAP進(jìn)行記錄,對比試驗結(jié)果如表3所示,包括以改進(jìn)前算法平均準(zhǔn)確率為基礎(chǔ)不同改進(jìn)版本算法的絕對提升率。

    改進(jìn)前的YOLOv5算法在不同結(jié)構(gòu)下的mAP分別是89.83%、90.75%、92.07%和93.44%,除了改進(jìn)后單獨更換深度可分離卷積YOLOv5s的檢測準(zhǔn)確率低于90%,其余結(jié)構(gòu)均在90%以上,該結(jié)果表明YOLOv5擁有較好的模型結(jié)構(gòu)以及檢測效果,對自然環(huán)境下的蘋果檢測具有較好的適用性。單獨更換深度可分離卷積會使算法損失少量準(zhǔn)確率,與改進(jìn)前相比,損失率基本控制在1%以內(nèi)。不同結(jié)構(gòu)下算法最高準(zhǔn)確率與最低準(zhǔn)確率最大相差4.35%,出現(xiàn)在單獨嵌入注意力機(jī)制模塊的YOLOv5算法檢測中,在該種改進(jìn)方式下,檢測準(zhǔn)確率與改進(jìn)前相比最大可提升3.56%,平均提升3.17%。通過在算法結(jié)構(gòu)中嵌人注意力機(jī)制模塊,有助于將卷積計算得到的淺層特征圖抽取為重要信息更多的深層特征圖,學(xué)習(xí)通道間的相關(guān)性,把特征圖中重要的特征增強(qiáng),次要的特征減弱,對關(guān)鍵信息進(jìn)行更進(jìn)一步的提取,有效提升算法的整體檢測效果。融合后的YOLOv51和YOLOv5x檢測準(zhǔn)確率均超過95%,其中YOLOv5x的檢測準(zhǔn)確率達(dá)到96.27%,為測試結(jié)果最高。以上結(jié)果均表明改進(jìn)后的Y0L0v5算法具有較高的檢測準(zhǔn)確率。

    (3)背景有白布算法測試。在自然光照條件下,太陽光作為主要的光源,不同的拍攝角度會在一定程度上影響目標(biāo)檢測的mAP。本研究選取了不同時間點下不同光照角度的蘋果圖像作為樣本數(shù)據(jù)集,對改進(jìn)后的YOLOv5模型進(jìn)行迭代訓(xùn)練,目標(biāo)檢測效果如圖11。

    順光拍攝的照片明亮清晰,不會出現(xiàn)明顯的光影變化;側(cè)光拍攝的照片層次分明,物體有較為明顯的輪廓;逆光拍攝的照片陰暗模糊,容易出現(xiàn)曝光不足。本研究針對上述不同數(shù)據(jù)集,并且與YOLOv5、YOLOv3、SSD等模型進(jìn)行對比實驗,各模型檢測結(jié)果如表4所示。

    改進(jìn)的YOLOv5在各種不同的光源和時間點的數(shù)據(jù)中,全部得到了最好的檢測結(jié)果。最高mAP出現(xiàn)在著色15d側(cè)光數(shù)據(jù)集,達(dá)到96.79%,在不同數(shù)據(jù)集中表現(xiàn)均優(yōu)于YOLOv5、YOLOv3、SSD,在不同測試集中平均mAP為93.30%,說明改進(jìn)YOLOv5算法具有較好的檢測性能;所有算法在側(cè)光條件下檢測效果最好,在逆光條件下檢測效果最差的原因是:逆光下樹葉與果實的顏色較暗,果實邊緣不夠清晰,容易造成混淆,增加目標(biāo)檢測難度;算法效果隨著色時間提高,原因在于著色1d果實顏色與樹葉顏色較為接近,呈現(xiàn)出綠色,容易誤識別,而第15d果實顏色較為鮮艷,可以明顯與周圍葉片區(qū)分開,檢測準(zhǔn)確率較高。

    (4)背景無白布算法測試。為驗證改進(jìn)型YOLOv5果實檢測算法在自然環(huán)境下的應(yīng)用效果,對無白色背景的著色1d、8d和15d蘋果圖像進(jìn)行測試,結(jié)果如圖12。

    結(jié)果可知,算法均可完成檢測任務(wù),對近處的果實識別率較高。由于近處的蘋果區(qū)域面積較大,呈現(xiàn)特征較多,算法對其預(yù)測的置信度較高;遠(yuǎn)處的蘋果在圖像上占據(jù)的像素點數(shù)量較少,呈現(xiàn)的特征較少,識別置信度受到影響。

    表5為無白布背景下的算法mAP對比結(jié)果,與背景有白布的算法檢測準(zhǔn)確率相比,在不同著色時間的數(shù)據(jù)集下均有一定的準(zhǔn)確度損失。但是對于果樹測產(chǎn)而言,需要測定的是距離攝像頭較近的果樹產(chǎn)量,利用算法過濾背景中的果樹果實,減少背景果實對其產(chǎn)量的影響,因此在該背景下并不是檢測準(zhǔn)確率越高越好。本研究的果實檢測算法恰能滿足識別近處蘋果、濾除遠(yuǎn)處蘋果的要求,可適用于背景無白布的果實檢測。

    4.2產(chǎn)量擬合網(wǎng)絡(luò)性能分析

    采用表6中的相關(guān)參數(shù)評估產(chǎn)量擬合網(wǎng)絡(luò)的性能。相關(guān)系數(shù)R和決定系數(shù)R用于衡量預(yù)測產(chǎn)量和實際產(chǎn)量之間的相關(guān)程度,數(shù)值越大表明二者的相關(guān)性越好;均方根誤差RMSE用來衡量預(yù)測產(chǎn)量和實際產(chǎn)量之間的誤差,其值越小表明精確度越高;平均絕對誤差MAE和平均絕對百分比誤差MAPE能夠反映預(yù)測產(chǎn)量偏離實際產(chǎn)量的程度,數(shù)值越小,表明二者差別越小,擬合效果越好。在訓(xùn)練集和測試集上預(yù)測產(chǎn)量和實際產(chǎn)量的R分別為0.8979和0.8864,R分別為0.7967和0.7982,表明果實數(shù)量、邊界框面積和產(chǎn)量之間線性相關(guān)程度較高,曲線擬合較好。

    對于訓(xùn)練集樣本,RMSE為1.5317 kg,MAE為1.1259 kg,MAPE為6.3372%;對于測試集樣本,RMSE為1.4021 kg,MAE為1.0253 kg,MAPE為6.2524%。

    基于樣本訓(xùn)練集建立的產(chǎn)量擬合網(wǎng)絡(luò),在測試集上的對比結(jié)果如圖13所示??梢?,該模型可以較好地預(yù)測出果樹產(chǎn)量,對于不同產(chǎn)量樣本的預(yù)測精度基本穩(wěn)定,具有較好的魯棒性。通過測試結(jié)果可知該模型可適用于自然環(huán)境下果樹收獲前的產(chǎn)量測定。

    4.3測產(chǎn)模型測試

    (1)背景有白布的測產(chǎn)模型性能測試。用本研究提出的蘋果樹測產(chǎn)模型,以產(chǎn)量驗證集中背景有白布的果樹圖像作為輸入,輸出該株果樹的預(yù)測產(chǎn)量。由表7所示的相對誤差可見,測產(chǎn)模型相對誤差的絕對值取值范圍為3.05%~6.13%。在對10組數(shù)據(jù)的預(yù)測過程中,僅有第7組的誤差稍大,總體相對誤差范圍基本在7%以內(nèi)。表明提出的果樹測產(chǎn)模型對于輸入背景有白布的果樹圖像,有著較好的產(chǎn)量預(yù)測效果;可以通過果實檢測算法和產(chǎn)量擬合網(wǎng)絡(luò)的協(xié)調(diào)工作,學(xué)習(xí)到圖像數(shù)據(jù)以及產(chǎn)量數(shù)據(jù)的重要特征,輸出相應(yīng)的預(yù)測產(chǎn)量。

    (2)無白布背景的測產(chǎn)模型性能測試。為驗證本研究提出的測產(chǎn)模型在自然環(huán)境下的應(yīng)用效果,選用產(chǎn)量驗證集中圖像背景無白布的數(shù)據(jù)集作為模型輸入,輸出該株果樹的預(yù)測產(chǎn)量,經(jīng)過計算后得到表8所示的相對誤差。

    與背景有白布的測試結(jié)果相比,背景無白布的測產(chǎn)模型相對誤差偏大,絕對值的取值范圍為8.28%~12.71%。出現(xiàn)這一現(xiàn)象的主要原因在于背景中有其他果樹果實的干擾,產(chǎn)量擬合網(wǎng)絡(luò)在預(yù)測產(chǎn)量時會將檢測到的果實均判定為當(dāng)前果樹果實,導(dǎo)致結(jié)果出現(xiàn)一定的偏差。但是,背景果樹中僅有部分特征較多的蘋果會被識別,大部分蘋果由于距離較遠(yuǎn),在圖像中占據(jù)的像素點較少,檢測算法不能識別,因此造成的影響不大,相對誤差總體范圍在13%以內(nèi)。上述結(jié)果表明,本研究提出的測產(chǎn)模型具有良好的精度和有效性,并且在不同背景下的測產(chǎn)魯棒性較好,可適用于自然環(huán)境下的蘋果樹產(chǎn)量測定。

    5結(jié)論

    本研究提出了一種蘋果樹測產(chǎn)模型,融合產(chǎn)量擬合網(wǎng)絡(luò)和改進(jìn)型YOLOv5果實檢測算法,結(jié)合數(shù)據(jù)集預(yù)處理,對模型進(jìn)行了訓(xùn)練和應(yīng)用,結(jié)論如下。

    (1)通過更換深度可分離卷積和添加注意力機(jī)制模塊改進(jìn)的YOLOv5蘋果檢測網(wǎng)絡(luò),解決網(wǎng)絡(luò)中存在的特征提取時無注意力偏好問題和參數(shù)冗余問題。以圖像數(shù)據(jù)集為輸入,得到估測果實數(shù)量以及邊界框面總積。測試結(jié)果表明,該算法可以在提高輕量化程度的同時提升準(zhǔn)確率,與改進(jìn)前相比,檢測速度最大可提升15.37%,平均mAP最高達(dá)到96.79%,在不同數(shù)據(jù)集下的測試結(jié)果表明光照條件、著色時間以及背景有無白布均對算法準(zhǔn)確率有一定影響。

    (2)以估測果實數(shù)量與邊界框面積為輸入、實際產(chǎn)量為輸出,訓(xùn)練產(chǎn)量擬合網(wǎng)絡(luò),測試結(jié)果表明,產(chǎn)量擬合網(wǎng)絡(luò)訓(xùn)練集和測試集的R分別為0.7967和0.7982,RMSE分別為1.5317和1.4021 kg,測產(chǎn)誤差較小。

    (3)將果實檢測算法和產(chǎn)量擬合網(wǎng)絡(luò)融合得到最終的測產(chǎn)模型。試驗結(jié)果表明,果樹測產(chǎn)模型在背景有白布和無白布的條件下,相對誤差范圍分別在7%以內(nèi)和13%以內(nèi),證明本研究建立的蘋果園原位測產(chǎn)模型具有較好的精度和魯棒性。如增加更多的樣本作為數(shù)據(jù)輸入,可進(jìn)一步提高目標(biāo)的識別度和測產(chǎn)的準(zhǔn)確性。

    參考文獻(xiàn):

    [1]黑龍江省佳木斯農(nóng)業(yè)學(xué)校,江蘇省蘇州農(nóng)業(yè)學(xué)校.果樹栽培學(xué)總論[M].北京:中國農(nóng)業(yè)出版社,2009.

    Jiamusi Agricultural. School of Heilongjiang province, Suzhou Agricultural. School of Jiangsu province. General. introduction to fruit cultivation[M]. Beijing: China Agriculture Press, 2009.

    [2]王少敏,張毅,高華軍,等.蘋果套袋栽培技術(shù)[M].濟(jì)南:山東科學(xué)技術(shù)出版社,2006.

    WANG S, ZHANG Y, GAO H, et al. Apple bagging cultivation technology[M]. Jinan: Shandong Science and Technology Press, 2006.

    [3] PAPAGEORGIOU E I, AGGELOPOULOU K D, GEMTOS T A, et al. Yield prediction in apples using fuzzy cognitive map learning approach[J]. Computers and Electronics in Agriculture, 2013, 91: 19-29.

    [4] AGGELOPOULOU A D, BOCHTIS D, FOUNTAS S,et al. Yield prediction in apple orchards based on image processing[J]. Precision Agriculture, 2011, 12(3):448-456.

    [5] ZHOU R, DAMEROW L, SUN Y, et al. Using colour features of cv.'Gala' apple fruits in an orchard in image processing to predict yield[J]. Precision Agriculture, 2012, 13(5):568-580.

    [6]程洪,DAMEROW L, BLANKE M,等.基于樹冠圖像特征的蘋果園神經(jīng)網(wǎng)絡(luò)估產(chǎn)模型[J].農(nóng)業(yè)機(jī)械學(xué)報,2015, 46(1): 14-19.

    CHENG H, DAMEROW L, BLANKE M, et al. Ann model for apple yield estimation based on feature of tree image[J]. Transactions of the CSAM, 2015, 46(1): 14-19.

    [7] CRTOMIR R, CVELBAR U, TOJNKO S, et al. Application of neural. networks and image visualization for early predicted of apple yield[J]. Erwerbs-Obstbau, 2012, 54(2): 69-76.

    [8] ROY P, KISLAY A, PLONSKI P, et al. Vision-based preharvest yield mapping for apple orchards[J]. Computers and Electronics in Agriculture, 2019, 164: ID 104897.

    [9] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time objectdetection[C]//The IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, New York, USA: IEEE, 2016: 779-788.

    [10] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger[C]// The IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, New York, USA: IEEE, 2017: 7263-7271.

    [11] REDMON J, FARHADI A. YOLO v3: An incremental. improvement[EB/OL]. 2018. arXiv: 1804.02767vl.

    [12] BOCHKOVSKIY A, WANG C, LIAO H. YOLOv4: Optimal. speed and accuracy of object detection[EB/OL]. 2020. arXiv: 2004.10934.

    [13] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multibox detector[C]// European Conference on Computer Vision. Cham, Switzerland: Springer,2016: 21-37.

    [14] ZHANG S, WEN L, BIAN X, et al. Single-shot refinement neural. network for object detection[C]// The IEEE Conference on Computer Vision and Pattern Reco-gnition. Piscataway, New York, USA: IEEE, 2018: 4203-4212.

    [15] WANG D, ZHANG B, CAO Y, et al. SFSSD: Shallow feature fusion single shot multibox detector[C]// International. Conference in Communications, Signal. Processing, and Systems. Cham, Switzerland: Springer, 2019: 2590-2598.

    [16] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]// The IEEE Conference on Computer Vision and Pattern Recognition. Piscataway,New York, USA: IEEE, 2014: 580-587.

    [17] GIRSHICK R. Fast R-CNN[C]// Proceedings of the IEEE International. Conference on Computer Vision. Piscataway, New York, USA: IEEE, 2015: 1440-1448.

    [18] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal. networks[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(6): 1137-1149.

    [19]周偉鴻,朱思霖.基于深度學(xué)習(xí)技術(shù)的智慧考場方案的應(yīng)用探究[J].信息技術(shù)與信息化,2020(12): 224-227.

    ZHOU W, ZHU S. Research on the application of smart examination room solutions based on deep learning technology[J]. Information Technology and Informatization, 2020(12): 224-227.

    [20]王洋.改進(jìn)YOLOv5的口罩和安全帽佩戴人工智能檢測識別算法[J].建筑與預(yù)算,2020(11): 67-69.

    WANG F. Artificial. intelligence detection and recognition algorithm for masks and helmets based on improved YOLOv5[J]. Construction and Budget, 2020 (11): 67-69.

    [21] WANG C Y, LIAO H Y M, YEH I H, et al. CSPNet: A new backbone that can enhance learning capability of CNN[C]// The IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops. Seattle, WA, USA: CVPRW, 2020: 390-391.

    [22] LIN T Y, DOLLAR P, GIRSHICK R, et al. Feature pyramid networks for object detect-ion[C]// The IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, New York, USA: IEEE, 2017: 2117- 2125.

    [23] LIU S, QI L, QIN H, et al. Path aggregation network for instance segmentation[C]// The IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, New York, USA: IEEE, 2018: 8759-8768.

    [24]李德鑫,閆志剛,孫久運.基于無人機(jī)視覺的河道漂浮垃圾分類檢測技術(shù)研究[J/OL].金屬礦山:1-11.[2021-06-20]. http://kns.cnki.net/kcms/detail/34.1055.TD.20210608.1117.005.html.

    LI D, YAN Z, SUN J. Study on classification and detection technology of river floating garbage based on UAV vision[J/OL]. Metal. Mine: 1-11. [2021-06-20].http://kns.cnki.net/kcms/detail/34.1055.TD.20210608.1117.005.html.

    [25] SIFRE L, MALLAT S. Rigid-motion scattering for texture classification[J]. Computer Science, 2014, 3559: 501-515.

    Yield Estimation Method of Apple Tree Based on Improved Lightweight YOLOv5

    LI Zhijun1,2, YANG Shenghui1,2, SHI Deshuai1,2, LIU Xingxing1,2, ZHENG Yongjun1,2*

    (1. College of Engineering. China Agricultural. University, Beijing 100083, China; 2. Yantai Institute of China Agricultural. University. Yantai 264670, China)

    Abstract: Yield estimation of fruit tree is one of the important works in orchard management. In order to improve the accuracy of in-situ yield estimation of apple trees in orchard, a method for the yield estimation of single apple tree, which includes an improved YOLOv5 fruit detection network and a yield fitting network was proposed. The in-situ images of the apples without bags at different periods were acquired by using an unmanned aerial. vehicle and Raspberry Pi camera, formed an image sample data set. For dealing with no attention preference and the parameter redundancy in feature extraction, the YOLOv5 network was improved by two approaches: 1) replacing the depth separable convolution, and 2) adding the attention mechanism module, so that the computation cost was decreased. Based on the improvement, the quantity of fruit was estimated and the total. area of the bounding box of apples were respectively obtained as output. Then, these results were used as the input of the yield fitting network and actual. yields were applied as the output to train the yield fitting network. The final. model of fruit tree production estimation was obtained by combining the improved YOLOv5 network and the yield fitting network. Yield estimation experimental. results showed that the improved YOLOv5 fruit detection algorithm could improve the recognition accuracy and the degree of lightweight. Compared with the previous algorithm, the detection speed of the algorithm proposed in this research was increased by up to 15.37%, while the mean of average accuracy (mAP) was raised up to 96.79%. The test results based on different data sets showed that the lighting conditions, coloring time and with white cloth in background had a certain impact on the accuracy of the algorithm. In addition, the yield fitting network performed better on predicting the yield of apple trees. The coefficients of determination in the training set and test set were respectively 0.7967 and 0.7982. The prediction accuracy of different yield samples was generally stable. Meanwhile, in terms of the with/without of white cloth in background, the range of relative error of the fruit tree yield measurement model was respectively within 7% and 13%. The yield estimation method of apple tree based on improved lightweight YOLOv5 had good accuracy and effectiveness, which could achieve yield estimation of apples in the natural. environment, and would provide a technical. reference for intelligent agricultural. equipment in modem orchard environment.

    Key words: apple in-situ yield estimation; deep learning; fruit detection; BP neural. network; YOLOv5

    (登陸www.smartag.net.cn免費獲取電子版全文)

    作者簡介:李志軍(1996—),男,碩士研究生,研究方向為智能農(nóng)業(yè)裝備。E-mail:335022969@qq.com。

    *通訊作者:鄭永軍(1973—)男,博士,教授,研究方向為智能農(nóng)業(yè)裝備。電話:13810868016。E-mail:zyj@cau.edu.cn。

    猜你喜歡
    BP神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)
    有體驗的學(xué)習(xí)才是有意義的學(xué)習(xí)
    就bp神經(jīng)網(wǎng)絡(luò)銀行選址模型的相關(guān)研究
    電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    基于DEA—GA—BP的建設(shè)工程評標(biāo)方法研究
    價值工程(2016年30期)2016-11-24 13:17:31
    基于BP神經(jīng)網(wǎng)絡(luò)的旅行社發(fā)展方向研究
    商情(2016年39期)2016-11-21 09:30:36
    復(fù)雜背景下的手勢識別方法
    深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
    BP神經(jīng)網(wǎng)絡(luò)在軟件質(zhì)量評價中的應(yīng)用研究 
    亚洲欧美日韩高清在线视频| 亚洲av二区三区四区| 两性午夜刺激爽爽歪歪视频在线观看| 亚洲国产精品成人综合色| 99国产精品一区二区蜜桃av| 1024手机看黄色片| 久久久久精品国产欧美久久久| 欧美激情国产日韩精品一区| 深夜a级毛片| 天堂动漫精品| 1024手机看黄色片| 成人欧美大片| 欧美日韩综合久久久久久| av国产免费在线观看| 91久久精品国产一区二区三区| 男人和女人高潮做爰伦理| 欧美国产日韩亚洲一区| 亚洲国产精品合色在线| 国产一区二区在线观看日韩| 欧美在线一区亚洲| 日本三级黄在线观看| 特级一级黄色大片| 亚洲欧美日韩无卡精品| 嫩草影院新地址| 麻豆乱淫一区二区| 日日摸夜夜添夜夜添小说| 欧美日韩一区二区视频在线观看视频在线 | 午夜爱爱视频在线播放| 国内久久婷婷六月综合欲色啪| 国产午夜精品论理片| 一区二区三区高清视频在线| 国产精品日韩av在线免费观看| 99久久精品国产国产毛片| 欧美国产日韩亚洲一区| 看十八女毛片水多多多| 婷婷六月久久综合丁香| 日韩欧美精品免费久久| 又黄又爽又刺激的免费视频.| 亚洲av二区三区四区| 五月伊人婷婷丁香| 卡戴珊不雅视频在线播放| 一级av片app| 中国美白少妇内射xxxbb| 嫩草影视91久久| 少妇的逼好多水| 国产亚洲精品久久久com| 在线播放国产精品三级| 国产视频一区二区在线看| 少妇被粗大猛烈的视频| 亚洲aⅴ乱码一区二区在线播放| 又爽又黄无遮挡网站| 久久久久久久久中文| 日韩欧美 国产精品| 免费不卡的大黄色大毛片视频在线观看 | 精品一区二区三区av网在线观看| 1000部很黄的大片| 欧美一区二区国产精品久久精品| a级毛色黄片| 波多野结衣巨乳人妻| 久久久久久九九精品二区国产| 免费不卡的大黄色大毛片视频在线观看 | 国产精品国产三级国产av玫瑰| 特大巨黑吊av在线直播| 级片在线观看| 亚洲,欧美,日韩| 国产女主播在线喷水免费视频网站 | 伊人久久精品亚洲午夜| 国产高清视频在线播放一区| 国产精品福利在线免费观看| 免费看a级黄色片| 男人舔奶头视频| 男人舔女人下体高潮全视频| 国产精品一区二区三区四区久久| 欧美性感艳星| 成人无遮挡网站| 国产黄色视频一区二区在线观看 | 男女边吃奶边做爰视频| 日本爱情动作片www.在线观看 | 我的老师免费观看完整版| 亚洲激情五月婷婷啪啪| 欧美一区二区亚洲| 成人亚洲精品av一区二区| 久久久久国产网址| 国产成人91sexporn| 毛片一级片免费看久久久久| 老女人水多毛片| 国产精品亚洲一级av第二区| 国产av不卡久久| 国产真实乱freesex| 成人一区二区视频在线观看| 亚洲精品在线观看二区| 岛国在线免费视频观看| 免费黄网站久久成人精品| 色综合色国产| 久久亚洲精品不卡| 给我免费播放毛片高清在线观看| 精品一区二区三区av网在线观看| 97碰自拍视频| 最近中文字幕高清免费大全6| 亚洲精品456在线播放app| 日本熟妇午夜| 久久精品夜夜夜夜夜久久蜜豆| 一个人观看的视频www高清免费观看| 国产91av在线免费观看| 日本黄色视频三级网站网址| 欧美精品国产亚洲| 国产人妻一区二区三区在| a级一级毛片免费在线观看| 91午夜精品亚洲一区二区三区| 一级毛片电影观看 | or卡值多少钱| 成年免费大片在线观看| 亚洲经典国产精华液单| 亚洲18禁久久av| 麻豆成人午夜福利视频| 国产 一区精品| 一区二区三区四区激情视频 | 亚洲色图av天堂| 热99在线观看视频| 好男人在线观看高清免费视频| 欧美一级a爱片免费观看看| 两个人的视频大全免费| 亚洲av一区综合| 男人狂女人下面高潮的视频| 人人妻人人澡人人爽人人夜夜 | 亚洲人成网站在线播| 白带黄色成豆腐渣| 午夜精品国产一区二区电影 | 日韩一本色道免费dvd| 色哟哟·www| 一级黄片播放器| 亚洲性久久影院| eeuss影院久久| 国产精品久久视频播放| 亚洲av成人精品一区久久| 精品一区二区三区人妻视频| 中文字幕熟女人妻在线| 国产久久久一区二区三区| 亚洲人成网站在线播放欧美日韩| 综合色av麻豆| 女的被弄到高潮叫床怎么办| 欧美日韩综合久久久久久| 日本精品一区二区三区蜜桃| 国产美女午夜福利| 日韩国内少妇激情av| 国内揄拍国产精品人妻在线| 禁无遮挡网站| 免费av观看视频| 亚洲国产精品sss在线观看| 亚洲国产精品成人综合色| 一本精品99久久精品77| 国产精品久久久久久亚洲av鲁大| 亚洲五月天丁香| 久久人妻av系列| 日韩欧美 国产精品| 舔av片在线| 国产精品久久久久久久久免| 国产午夜福利久久久久久| 少妇的逼好多水| 日本撒尿小便嘘嘘汇集6| 久久久久国产精品人妻aⅴ院| 久久婷婷人人爽人人干人人爱| 日本一二三区视频观看| 中文资源天堂在线| 色综合亚洲欧美另类图片| 在现免费观看毛片| 不卡视频在线观看欧美| 亚洲18禁久久av| 国产中年淑女户外野战色| 国产免费男女视频| www.色视频.com| 麻豆国产av国片精品| 日韩成人伦理影院| 亚洲欧美成人综合另类久久久 | 午夜福利在线观看吧| 国产精品一区二区免费欧美| 深夜a级毛片| 成人无遮挡网站| 国产av麻豆久久久久久久| 国产午夜精品久久久久久一区二区三区 | 最新在线观看一区二区三区| 免费看光身美女| av免费在线看不卡| 一进一出抽搐动态| 亚洲经典国产精华液单| 噜噜噜噜噜久久久久久91| 午夜福利成人在线免费观看| 老熟妇仑乱视频hdxx| 久久综合国产亚洲精品| 淫妇啪啪啪对白视频| 神马国产精品三级电影在线观看| 国产高清有码在线观看视频| 欧美最黄视频在线播放免费| 精品国产三级普通话版| 非洲黑人性xxxx精品又粗又长| 亚洲欧美日韩东京热| av免费在线看不卡| 免费看av在线观看网站| 一个人看的www免费观看视频| 自拍偷自拍亚洲精品老妇| 日本 av在线| 成年女人看的毛片在线观看| 国产精品国产三级国产av玫瑰| 99riav亚洲国产免费| 一卡2卡三卡四卡精品乱码亚洲| 中文字幕av在线有码专区| 男女啪啪激烈高潮av片| 一级毛片久久久久久久久女| 国产v大片淫在线免费观看| 国产老妇女一区| 精品午夜福利在线看| 国产人妻一区二区三区在| 亚洲人成网站在线观看播放| 亚洲成人久久性| 麻豆国产97在线/欧美| 在线免费观看不下载黄p国产| av在线亚洲专区| 亚洲精品在线观看二区| 观看美女的网站| 成年av动漫网址| 人人妻人人澡人人爽人人夜夜 | 国产av在哪里看| 男女边吃奶边做爰视频| 国产人妻一区二区三区在| a级一级毛片免费在线观看| 亚洲乱码一区二区免费版| 九色成人免费人妻av| 性插视频无遮挡在线免费观看| 又爽又黄无遮挡网站| 波多野结衣巨乳人妻| 一a级毛片在线观看| 在现免费观看毛片| 亚洲精品一卡2卡三卡4卡5卡| 色哟哟·www| 蜜桃久久精品国产亚洲av| 两个人的视频大全免费| 岛国在线免费视频观看| 亚洲成av人片在线播放无| 久久精品国产亚洲av香蕉五月| 亚洲成人久久爱视频| 免费无遮挡裸体视频| 丰满乱子伦码专区| 老女人水多毛片| 色在线成人网| 国产精品嫩草影院av在线观看| 日韩国内少妇激情av| 十八禁网站免费在线| 特大巨黑吊av在线直播| 国产精品人妻久久久久久| 3wmmmm亚洲av在线观看| 韩国av在线不卡| 熟女电影av网| 搡老妇女老女人老熟妇| 欧美日本视频| 久久精品影院6| 亚洲国产精品久久男人天堂| 国产真实伦视频高清在线观看| 给我免费播放毛片高清在线观看| 欧美最新免费一区二区三区| 两个人视频免费观看高清| 精品久久久久久久人妻蜜臀av| 一进一出好大好爽视频| 内地一区二区视频在线| 精华霜和精华液先用哪个| 午夜爱爱视频在线播放| 人妻夜夜爽99麻豆av| 免费人成视频x8x8入口观看| 日本熟妇午夜| 一个人免费在线观看电影| 成人欧美大片| 久久中文看片网| 国产精品久久久久久久久免| 亚洲美女黄片视频| 久久精品国产亚洲网站| 日韩一本色道免费dvd| 亚洲欧美清纯卡通| 国产高清不卡午夜福利| 天天躁日日操中文字幕| 色综合色国产| 久久6这里有精品| 在线国产一区二区在线| a级毛片免费高清观看在线播放| 久久久a久久爽久久v久久| 少妇被粗大猛烈的视频| 亚洲欧美精品综合久久99| 男女啪啪激烈高潮av片| 可以在线观看的亚洲视频| 在线a可以看的网站| 精品免费久久久久久久清纯| 国产午夜精品论理片| 男女边吃奶边做爰视频| 人妻丰满熟妇av一区二区三区| 国产伦精品一区二区三区视频9| 美女高潮的动态| 日韩人妻高清精品专区| 精品一区二区三区视频在线| 国产视频一区二区在线看| 欧美激情在线99| 久久亚洲国产成人精品v| 国产av不卡久久| 国产在视频线在精品| 久久精品久久久久久噜噜老黄 | 好男人在线观看高清免费视频| 变态另类成人亚洲欧美熟女| av卡一久久| 一个人看视频在线观看www免费| 综合色av麻豆| 国产av麻豆久久久久久久| 亚洲精品色激情综合| 国产乱人偷精品视频| 亚洲精品日韩av片在线观看| 国产单亲对白刺激| 亚洲美女黄片视频| 免费看av在线观看网站| 国产真实伦视频高清在线观看| 少妇熟女欧美另类| 亚洲精品日韩在线中文字幕 | 看片在线看免费视频| 国产高清视频在线观看网站| 欧美一级a爱片免费观看看| 免费av毛片视频| 亚洲欧美精品综合久久99| 久久人人精品亚洲av| 精品无人区乱码1区二区| 老熟妇乱子伦视频在线观看| av免费在线看不卡| 国产三级中文精品| 精品久久久久久久久亚洲| 久久午夜福利片| 日韩强制内射视频| 亚洲美女搞黄在线观看 | aaaaa片日本免费| 少妇熟女aⅴ在线视频| 人人妻人人澡人人爽人人夜夜 | 五月伊人婷婷丁香| 亚洲国产精品成人久久小说 | 久久久午夜欧美精品| 久久久精品欧美日韩精品| 日韩大尺度精品在线看网址| 日韩精品有码人妻一区| 日本在线视频免费播放| 久久精品久久久久久噜噜老黄 | 日韩欧美免费精品| 国产精品美女特级片免费视频播放器| 成人特级黄色片久久久久久久| 亚洲高清免费不卡视频| 国产精品99久久久久久久久| 亚洲七黄色美女视频| 成人美女网站在线观看视频| 亚洲熟妇中文字幕五十中出| 成人二区视频| 97人妻精品一区二区三区麻豆| 嫩草影院入口| 老熟妇乱子伦视频在线观看| 精品乱码久久久久久99久播| 蜜桃亚洲精品一区二区三区| 嫩草影视91久久| 久久久久国内视频| 精品熟女少妇av免费看| 一边摸一边抽搐一进一小说| 国产精品亚洲美女久久久| 日韩强制内射视频| 啦啦啦观看免费观看视频高清| 亚洲熟妇中文字幕五十中出| 国产av一区在线观看免费| 日韩精品有码人妻一区| 麻豆av噜噜一区二区三区| 欧美日本亚洲视频在线播放| 六月丁香七月| 插逼视频在线观看| 最后的刺客免费高清国语| 午夜免费男女啪啪视频观看 | 国产在视频线在精品| 男女做爰动态图高潮gif福利片| 国产中年淑女户外野战色| 欧美又色又爽又黄视频| 亚洲欧美日韩高清专用| 免费在线观看影片大全网站| 亚洲七黄色美女视频| 欧美绝顶高潮抽搐喷水| 欧美激情在线99| 在线国产一区二区在线| 在线观看美女被高潮喷水网站| 国产免费男女视频| 亚洲av第一区精品v没综合| 一本精品99久久精品77| 国产欧美日韩精品亚洲av| 联通29元200g的流量卡| a级毛片a级免费在线| 中文字幕久久专区| 日韩制服骚丝袜av| 丝袜喷水一区| 十八禁网站免费在线| 一级毛片aaaaaa免费看小| 日韩中字成人| 又爽又黄a免费视频| 丰满人妻一区二区三区视频av| 人妻久久中文字幕网| 在线观看一区二区三区| 桃色一区二区三区在线观看| 国产av在哪里看| 性欧美人与动物交配| 悠悠久久av| 国产麻豆成人av免费视频| 91久久精品电影网| av女优亚洲男人天堂| ponron亚洲| 俺也久久电影网| 寂寞人妻少妇视频99o| 丝袜美腿在线中文| 在线观看免费视频日本深夜| 午夜福利视频1000在线观看| 精品不卡国产一区二区三区| 老司机影院成人| 亚洲国产高清在线一区二区三| 日本欧美国产在线视频| 久久鲁丝午夜福利片| 欧美激情在线99| 亚洲专区国产一区二区| 欧美zozozo另类| 精品不卡国产一区二区三区| 性插视频无遮挡在线免费观看| 在线观看免费视频日本深夜| 久久久精品欧美日韩精品| 欧美潮喷喷水| 日韩欧美免费精品| 欧美日本视频| 99久久无色码亚洲精品果冻| 精品少妇黑人巨大在线播放 | 悠悠久久av| 国产精品日韩av在线免费观看| 国产精品久久久久久av不卡| av在线天堂中文字幕| 成人二区视频| 国产在线精品亚洲第一网站| 国产精品乱码一区二三区的特点| 热99在线观看视频| a级毛色黄片| 人人妻人人澡人人爽人人夜夜 | 国产亚洲精品久久久com| 久久久久国产精品人妻aⅴ院| 啦啦啦啦在线视频资源| 婷婷精品国产亚洲av在线| 美女高潮的动态| 久久精品人妻少妇| 欧美丝袜亚洲另类| 国产高潮美女av| 一级黄片播放器| 12—13女人毛片做爰片一| 亚洲人与动物交配视频| 久久热精品热| 特大巨黑吊av在线直播| 午夜福利高清视频| 国产精品一二三区在线看| 国产真实伦视频高清在线观看| 久久久久性生活片| avwww免费| 亚洲欧美精品综合久久99| 精品一区二区免费观看| 性欧美人与动物交配| 最新中文字幕久久久久| av在线老鸭窝| 亚洲熟妇中文字幕五十中出| 91狼人影院| 我要看日韩黄色一级片| 18+在线观看网站| 国产一区二区三区在线臀色熟女| 18+在线观看网站| 欧美zozozo另类| 久久精品91蜜桃| 高清毛片免费观看视频网站| 色哟哟哟哟哟哟| 精品无人区乱码1区二区| 久久久午夜欧美精品| 成人亚洲精品av一区二区| 亚洲精品成人久久久久久| 欧美高清性xxxxhd video| 在线观看av片永久免费下载| 成熟少妇高潮喷水视频| 99热只有精品国产| 成熟少妇高潮喷水视频| 3wmmmm亚洲av在线观看| 午夜精品国产一区二区电影 | 欧美高清成人免费视频www| 此物有八面人人有两片| 欧美性猛交黑人性爽| 国产乱人偷精品视频| 久久久午夜欧美精品| 国产精品一区www在线观看| 久久久久国产网址| 久久中文看片网| 国产中年淑女户外野战色| 熟女电影av网| 久久久精品94久久精品| av黄色大香蕉| 一a级毛片在线观看| 美女 人体艺术 gogo| 国产女主播在线喷水免费视频网站 | 日韩 亚洲 欧美在线| 欧美又色又爽又黄视频| 夜夜夜夜夜久久久久| 国产精品久久久久久精品电影| 一级毛片aaaaaa免费看小| 久久久久久久久久黄片| 国产成人一区二区在线| 国产精品日韩av在线免费观看| 黄色配什么色好看| 好男人在线观看高清免费视频| 国产免费一级a男人的天堂| 麻豆av噜噜一区二区三区| 男人舔奶头视频| 亚洲久久久久久中文字幕| 午夜福利在线在线| 成人亚洲精品av一区二区| 日韩三级伦理在线观看| 99热精品在线国产| 欧美激情在线99| 国产黄片美女视频| 一级毛片我不卡| 成人欧美大片| 长腿黑丝高跟| 亚洲一级一片aⅴ在线观看| 在现免费观看毛片| 日本黄色视频三级网站网址| 天美传媒精品一区二区| 欧美日本视频| 我的女老师完整版在线观看| 黄片wwwwww| 狂野欧美白嫩少妇大欣赏| 99视频精品全部免费 在线| 我要看日韩黄色一级片| 熟妇人妻久久中文字幕3abv| 综合色丁香网| 少妇的逼水好多| 淫秽高清视频在线观看| 天堂网av新在线| 天堂动漫精品| 久久久久精品国产欧美久久久| 日本 av在线| 99热这里只有是精品在线观看| 欧美不卡视频在线免费观看| 久久久久久国产a免费观看| 亚洲国产精品久久男人天堂| 免费av毛片视频| 国产色爽女视频免费观看| 99九九线精品视频在线观看视频| 欧美高清成人免费视频www| 久久久久国内视频| 国产午夜精品久久久久久一区二区三区 | 欧美性感艳星| 赤兔流量卡办理| 欧美xxxx黑人xx丫x性爽| 亚洲av中文av极速乱| 亚洲一区高清亚洲精品| 深夜精品福利| 少妇熟女aⅴ在线视频| 久久天躁狠狠躁夜夜2o2o| 日产精品乱码卡一卡2卡三| 免费看日本二区| 天堂√8在线中文| 少妇熟女aⅴ在线视频| 最后的刺客免费高清国语| 午夜影院日韩av| 国产69精品久久久久777片| 亚洲自偷自拍三级| 久久久久国产精品人妻aⅴ院| 欧美成人一区二区免费高清观看| 婷婷精品国产亚洲av在线| 午夜久久久久精精品| 亚洲熟妇熟女久久| 婷婷精品国产亚洲av| 非洲黑人性xxxx精品又粗又长| 婷婷色综合大香蕉| 亚洲av中文字字幕乱码综合| 少妇裸体淫交视频免费看高清| 三级国产精品欧美在线观看| 国产精品久久电影中文字幕| 国产精品国产三级国产av玫瑰| 一个人看视频在线观看www免费| 久久午夜亚洲精品久久| 亚洲真实伦在线观看| 男女那种视频在线观看| 在线免费观看的www视频| 久久鲁丝午夜福利片| 狂野欧美白嫩少妇大欣赏| 成人三级黄色视频| 青春草视频在线免费观看| av免费在线看不卡| 美女被艹到高潮喷水动态| 欧美成人一区二区免费高清观看| 日韩精品青青久久久久久| 午夜福利成人在线免费观看| 日韩强制内射视频| 97超碰精品成人国产| 国产亚洲av嫩草精品影院| 在线观看一区二区三区| 国产高清三级在线| 欧美在线一区亚洲| av中文乱码字幕在线| 成年av动漫网址| 亚洲性夜色夜夜综合| 日本黄大片高清| 久久99热6这里只有精品| 国产国拍精品亚洲av在线观看| av福利片在线观看| av女优亚洲男人天堂| 丰满的人妻完整版| 国产亚洲精品av在线| 两个人视频免费观看高清| 波多野结衣高清无吗| 国产视频内射| 变态另类丝袜制服| 在线观看免费视频日本深夜| 亚洲成人久久爱视频| 99热只有精品国产|