• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進(jìn)YOLOX的棉花姿態(tài)品級(jí)識(shí)別及其定位研究

    2024-01-01 00:00:00謝嘉陳學(xué)飛李永國(guó)金昌兵梁錦濤孫帥浩
    棉花學(xué)報(bào) 2024年4期
    關(guān)鍵詞:損失函數(shù)注意力機(jī)制目標(biāo)檢測(cè)

    摘要:【目的】旨在解決高質(zhì)量采棉要求下,采棉機(jī)對(duì)不同姿態(tài)和品級(jí)的棉花進(jìn)行精確識(shí)別與定位的問(wèn)題,提出了1種基于改進(jìn)YOLOX的棉花檢測(cè)方法YOLOX-Cotton?!痉椒ā縔OLOX-Cotton使用YOLOX模型作為主體框架,包含識(shí)別模塊和定位模塊,并引入了CA(coordinate attention)模塊和SIoU損失函數(shù),以多種姿態(tài)、品級(jí)的棉花圖片作為數(shù)據(jù)集,對(duì)其進(jìn)行訓(xùn)練并測(cè)試。【結(jié)果】YOLOX-Cotton模型的識(shí)別模塊能夠識(shí)別不同姿態(tài)和品級(jí)的棉花,且模型精確率、召回率和平均精度均值達(dá)到92.9%、86.8%和92.4%,與原YOLOX模型相比分別提升了5.2、5.5和6.1百分點(diǎn)。該模型的定位模塊能夠準(zhǔn)確獲得棉花的位置,測(cè)量結(jié)果均在田間試驗(yàn)驗(yàn)證結(jié)果的閾值范圍內(nèi),所有樣本的標(biāo)準(zhǔn)偏差均小于0.01?!窘Y(jié)論】YOLOX-Cotton能夠有效解決采棉機(jī)在高質(zhì)量采棉要求下對(duì)棉花的識(shí)別與定位問(wèn)題,將為實(shí)現(xiàn)高質(zhì)量采棉提供了有力的技術(shù)支撐。

    關(guān)鍵詞:棉花;目標(biāo)檢測(cè);三維定位;注意力機(jī)制;損失函數(shù)

    Abstract: [Objective] This paper aims to solve the problem of accurate recognition and localization of cotton with different postures and grades by cotton picker under the requirement of high-quality cotton picking. A cotton detection method YOLOX-Cotton based on the improved YOLOX is proposed. [Methods] YOLOX-Cotton uses YOLOX as the main framework, including a recognition module and a localization module, and incorporates coordinate attention (CA) module and SIoU loss function, and takes various posture and grade cotton pictures as data sets to train and test. [Results] The detection module of YOLOX-Cotton was capable of detecting cotton with different postures and grades, and the model precision, recall and average precision reached 92.9%, 86.8% and 92.4%, which were improved by 5.2, 5.5 and 6.1 percentage points, compared with the original YOLOX, respectively. The localization module of this model was capable of accurately obtaining the location of the cotton, the measurements were kept within the threshold range of the validated results of the field trial, and the standard deviation of all samples was less than 0.01. [Conclusion] The experiment proves that the YOLOX-Cotton can effectively solve the problem of cotton detection and localization by cotton picker under the requirement of high-quality cotton picking, and provides strong technical support for the realization of high-quality cotton picking.

    Keywords: cotton; target detection; three dimensional localization; attention mechanism; loss function

    棉花是我國(guó)重要的經(jīng)濟(jì)作物。隨著我國(guó)勞動(dòng)力資源的日益短缺、植棉成本的上升和國(guó)際棉花貿(mào)易爭(zhēng)端等因素的影響,我國(guó)棉花產(chǎn)業(yè)逐漸呈現(xiàn)縮減態(tài)勢(shì),穩(wěn)定和促進(jìn)棉花產(chǎn)業(yè)的發(fā)展,對(duì)我國(guó)有著重要的社會(huì)意義[1-3]。本文旨在對(duì)不同姿態(tài)和品級(jí)的棉花進(jìn)行識(shí)別與定位,為其應(yīng)用于采棉機(jī)研究提供基礎(chǔ)。

    隨著機(jī)器視覺(jué)在農(nóng)業(yè)領(lǐng)域的廣泛應(yīng)用,越來(lái)越多的國(guó)內(nèi)外研究者將計(jì)算機(jī)視覺(jué)技術(shù)應(yīng)用于棉花生產(chǎn)中[4]。在棉花識(shí)別和檢測(cè)這一領(lǐng)域中,已經(jīng)涌現(xiàn)出許多創(chuàng)新性的研究成果,王勇等[5]通過(guò)分析籽棉與背景的色差建立視覺(jué)模型,實(shí)現(xiàn)了對(duì)棉鈴的識(shí)別,但該研究未考慮3個(gè)顏色分量間的相關(guān)性;王玲[6]提出使用顏色聚類和競(jìng)爭(zhēng)學(xué)習(xí)的方法,將籽棉與復(fù)雜的背景進(jìn)行二分類,但這種分類沒(méi)有考慮多個(gè)棉花互相遮擋問(wèn)題;劉坤等[7]提出利用Hough變換技術(shù)來(lái)識(shí)別棉鈴,根據(jù)棉鈴輪廓的數(shù)學(xué)模型進(jìn)行隨機(jī)Hough變換,解決棉鈴遮擋時(shí)的識(shí)別問(wèn)題,但不能識(shí)別不同姿態(tài)和品級(jí)的棉花;李海濤等[8]利用卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)構(gòu)建的CNN-CSC模型能夠有效區(qū)分不同花型的棉花,但該模型在提取圖像特征時(shí)易受到背景信息的干擾,這既影響了從圖像中提取的特征質(zhì)量,也降低了整體的檢測(cè)性能[9],且該模型不能識(shí)別不同姿態(tài)的棉花。

    棉花識(shí)別技術(shù)能夠?yàn)椴擅迿C(jī)的高質(zhì)量采棉提供有力支持[10-11],該技術(shù)不僅要能夠準(zhǔn)確識(shí)別棉花,還需要具備檢測(cè)出棉花姿態(tài)和品級(jí)等屬性的能力,采棉機(jī)便能根據(jù)這些屬性進(jìn)而生成最佳的采摘策略,實(shí)現(xiàn)高質(zhì)量的機(jī)械采棉。通過(guò)識(shí)別物體的多種特征,可以豐富對(duì)物體的描述,從而為后續(xù)分析和策略的制定奠定基礎(chǔ)。許楠等[12]使用YOLOv3模型識(shí)別不同品種的棗果,識(shí)別準(zhǔn)確率達(dá)97.04%,可以滿足棗產(chǎn)業(yè)中分選加工和品質(zhì)分級(jí)等環(huán)節(jié)的需求。吳烽云等[13]使用YOLO-Banana模型,同時(shí)識(shí)別香蕉果串、果軸和花蕾這3種不同特征的目標(biāo)來(lái)獲取斷蕾點(diǎn),為斷蕾機(jī)器人的開(kāi)發(fā)提供有力的技術(shù)支撐。王金鵬等[14]基于YOLOv7模型提出1種識(shí)別多姿態(tài)火龍果的檢測(cè)方法,根據(jù)火龍果的三維坐標(biāo)對(duì)不同姿態(tài)的火龍果生成不同的采摘點(diǎn),引導(dǎo)機(jī)械臂精準(zhǔn)采摘。

    目標(biāo)檢測(cè)領(lǐng)域中較為常用的算法有單次多邊框檢測(cè)(single shot multibox detector, SSD)[15-18]、基于區(qū)域的快速卷積神經(jīng)網(wǎng)絡(luò)(fast region-based CNN, Fast R-CNN)[19-21]、YOLO(you only look once)系列[22-25]以及將Transformer技術(shù)應(yīng)用到計(jì)算機(jī)視覺(jué)領(lǐng)域的網(wǎng)絡(luò),如Swin Transformer[26]等。YOLO系列的算法具有模型體積小,運(yùn)行速度快,對(duì)數(shù)據(jù)集要求小等優(yōu)點(diǎn)[27],其中YOLOX算法的代碼結(jié)構(gòu)更加模塊化,易于理解和更改,并且支持邊緣端硬件加速,能夠簡(jiǎn)化后續(xù)研究中的模型部署。因此,本文選擇YOLOX算法作為主框架,在其基礎(chǔ)上擴(kuò)展其他功能。

    為實(shí)現(xiàn)對(duì)不同姿態(tài)和品級(jí)的棉花進(jìn)行精確識(shí)別和定位,本文在上述相關(guān)研究的基礎(chǔ)上,提出了適用于搭載在采棉機(jī)上的YOLOX-Cotton模型,采棉機(jī)可通過(guò)該模型獲得的結(jié)果生成最佳的采摘策略,并設(shè)計(jì)了模型訓(xùn)練試驗(yàn)和實(shí)地測(cè)試試驗(yàn),對(duì)模型生成的識(shí)別數(shù)據(jù)和實(shí)際定位數(shù)據(jù)進(jìn)行精度驗(yàn)證。

    1 材料與方法

    1.1 田間試驗(yàn)地點(diǎn)

    田間試驗(yàn)于2023年8月在上海市崇明島江南三民文化村棉花試驗(yàn)基地開(kāi)展,試驗(yàn)當(dāng)天光線充足。使用Windows 10操作系統(tǒng)的電腦進(jìn)行模型測(cè)試(CPU為AMD R7-5800H,GPU為NVIDIA GTX 3060顯卡,CUDA版本為11.0)。

    1.2 試驗(yàn)材料

    試驗(yàn)材料以棉花田中不同姿態(tài)和不同品級(jí)的棉花為主,分別為正面普通棉花(普通白棉、棉瓣肥大、雜質(zhì)少、成熟度高),正面低品級(jí)棉花(僵瓣棉、污染棉等雜質(zhì)較多、成熟度差的棉花),側(cè)面棉花(棉花朝向側(cè)面)和其他花卉的白色花朵。

    1.3 試驗(yàn)設(shè)計(jì)與數(shù)據(jù)集獲取

    1.3.1 棉花檢測(cè)模型數(shù)據(jù)集獲取。以相機(jī)拍攝的上海市浦東新區(qū)棉場(chǎng)鎮(zhèn)棉田的446張棉花圖片,以及通過(guò)網(wǎng)絡(luò)下載得到的116張棉花圖片組成原始數(shù)據(jù)集。為提高圖片數(shù)量、增強(qiáng)模型的泛化能力,該研究使用對(duì)比度增強(qiáng)、圖像反轉(zhuǎn)縮放和亮度增強(qiáng)對(duì)原始數(shù)據(jù)集進(jìn)行隨機(jī)擴(kuò)充得到1 092張圖片,并在其中加入了100張其他花卉的白色花朵圖片作為干擾項(xiàng),組成包含1 754張圖片的數(shù)據(jù)集(表1)。

    數(shù)據(jù)集中的所有圖片都以jpg格式保存,為減小后續(xù)的計(jì)算負(fù)擔(dān)以及適應(yīng)雙目相機(jī)的分辨率,所有圖片都改為640×640像素。數(shù)據(jù)集在類別上分成正面普通棉花(626張)、正面低品級(jí)棉花(553張)、側(cè)面棉花(475張)以及其他白色花朵(100張)。通過(guò)標(biāo)注軟件Labelimg(https://pypi.org/project/labelImg)對(duì)數(shù)據(jù)集中的所有圖片進(jìn)行手工標(biāo)注,并將標(biāo)注好的圖片按照約9︰1的比例劃分為訓(xùn)練集和測(cè)試集,其中訓(xùn)練集共有1 580張圖片,測(cè)試集共有174張圖片(表2)。

    1.3.2 棉花檢測(cè)模型試驗(yàn)與評(píng)價(jià)指標(biāo)。選用YOLOX-Cotton模型作為試驗(yàn)組,以SSD、Fast R-CNN、YOLOX、YOLOv5和YOLOv8這5個(gè)模型作為對(duì)照組,模型訓(xùn)練使用Pytoch框架,設(shè)置批量大小為8,初始學(xué)習(xí)率為0.001,迭代300輪。圖像的分辨率統(tǒng)一設(shè)置為640×640像素,使用隨機(jī)梯度下降(stochastic gradient descent,SGD)作為優(yōu)化器,在訓(xùn)練過(guò)程中對(duì)每個(gè)批次進(jìn)行前向傳播和后向傳播,計(jì)算損失并更新模型參數(shù)。通過(guò)自助采樣法生成驗(yàn)證集來(lái)評(píng)估模型性能,并根據(jù)評(píng)估結(jié)果對(duì)模型進(jìn)行調(diào)優(yōu)。訓(xùn)練結(jié)束,使用測(cè)試集對(duì)模型進(jìn)行測(cè)試,以精確率(precision, P)、召回率(recall, R)和平均精度均值(mean average precision, mAP)作為主要評(píng)價(jià)指標(biāo)[28]。其中,精確率是指模型識(shí)別出的正樣本中,被正確識(shí)別的正樣本個(gè)數(shù)所占的比例,能夠反映模型在預(yù)測(cè)正類時(shí)的準(zhǔn)確性;召回率是指所有正樣本樣例中被正確識(shí)別的正樣本個(gè)數(shù)所占的比例,能夠反映模型捕捉所有正類樣本的能力;平均精度均值是指每個(gè)類別的平均精度的均值,能夠更全面地反映模型的綜合性能。另外以模型權(quán)重文件大?。╳eight file size)、參數(shù)量(parameter)、浮點(diǎn)運(yùn)算次數(shù)(floating point operation, FLOP)和推理時(shí)間(inference time)作為次要評(píng)價(jià)指標(biāo)。模型的權(quán)重文件大小是指模型在訓(xùn)練過(guò)程中學(xué)習(xí)到的參數(shù)值的規(guī)模,參數(shù)量是指模型中所有可訓(xùn)練參數(shù)的總數(shù),浮點(diǎn)運(yùn)算次數(shù)是指模型在前向傳播過(guò)程中所執(zhí)行的浮點(diǎn)運(yùn)算總數(shù),這3種指標(biāo)能夠從不同角度評(píng)估模型的復(fù)雜度[29]。推理時(shí)間是指模型對(duì)單張圖片進(jìn)行預(yù)測(cè)所需的時(shí)間,能夠反映模型的檢測(cè)效率。本研究旨在驗(yàn)證:改進(jìn)的YOLOX-Cotton模型是否優(yōu)于其他主流的目標(biāo)檢測(cè)方法;引入的CA模塊和SIoU損失函數(shù)能否提升模型的綜合性能,以及在不同背景和遮擋情況下能否精準(zhǔn)識(shí)別不同姿態(tài)和品級(jí)的棉花。此外,YOLOX-Cotton模型在次要評(píng)價(jià)指標(biāo)上的表現(xiàn)不能明顯低于其他模型。

    1.3.3 田間試驗(yàn)設(shè)計(jì)與評(píng)價(jià)指標(biāo)。田間試驗(yàn)使用智能采棉機(jī)的同步帶滑臺(tái)模組搭載MSK雙目相機(jī)(型號(hào)為MSK-SM,500 W像素,速度30幀·s-1)和激光測(cè)距儀,選取不同姿態(tài)和不同品級(jí)的棉花進(jìn)行試驗(yàn)(圖1)。首先,通過(guò)目標(biāo)檢測(cè)模型獲取各棉花與雙目相機(jī)的相對(duì)距離 Z■■(n代表第n朵籽棉,m代表第m輪試驗(yàn)),并計(jì)算多次測(cè)試數(shù)據(jù)的樣本標(biāo)準(zhǔn)偏差(standard deviation, S);然后,在不同棉株上方通過(guò)移動(dòng)支架上的激光測(cè)距儀測(cè)定每個(gè)棉花的最高點(diǎn)和最低點(diǎn)與雙目相機(jī)的距離,形成區(qū)間Dn??紤]到棉花的形狀,尤其是棉花花瓣到花心在深度距離上的變化較大,因此在試驗(yàn)中觀測(cè)Z■■是否在區(qū)間Dn內(nèi),并分析多次測(cè)試數(shù)據(jù)的樣本標(biāo)準(zhǔn)偏差是否控制在0.01以內(nèi)。評(píng)價(jià)和驗(yàn)證本文模型是否可以識(shí)別所有棉花,并獲取準(zhǔn)確的棉花深度信息。

    1.4 研究方法

    1.4.1 技術(shù)路線。在棉株上方使用同步帶滑臺(tái)模組所裝載的MSK雙目相機(jī)獲取棉花圖像數(shù)據(jù),然后將圖像數(shù)據(jù)傳入識(shí)別模塊,從而得到棉花的品級(jí)、姿態(tài)、預(yù)測(cè)框坐標(biāo)數(shù)據(jù)。預(yù)測(cè)框坐標(biāo)數(shù)據(jù)傳入定位模塊,獲得棉花定位點(diǎn)的空間位置。圖2為本研究的技術(shù)路線,包含識(shí)別模塊和定位模塊。

    本文使用YOLOX算法作為主框架,保留其識(shí)別模塊,并加入定位模塊。識(shí)別模塊使用Focus網(wǎng)絡(luò)結(jié)構(gòu)取代普通卷積來(lái)提高計(jì)算速度,并通過(guò)引入注意力機(jī)制和新的損失函數(shù)來(lái)提高模型的性能。改進(jìn)的識(shí)別模塊的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,可分為3個(gè)組成部分:主干網(wǎng)絡(luò)(backbone)、頸部層(neck)和YOLO 檢測(cè)頭(head)。主干網(wǎng)絡(luò)部分采用CSPDarknet作為識(shí)別模塊的主要特征提取網(wǎng)絡(luò),能夠從輸入圖像中提取特征并生成特征層。主干網(wǎng)絡(luò)的輸出結(jié)果傳遞給頸部層,頸部層使用FPN作為識(shí)別模塊的增強(qiáng)特征提取網(wǎng)絡(luò),能夠從主干部分獲取的有效特征層中進(jìn)一步提取邊緣紋理、語(yǔ)義信息等特征。檢測(cè)頭則充當(dāng)識(shí)別模塊的分類器和回歸器,用于判斷特征點(diǎn)與物體之間的對(duì)應(yīng)關(guān)系。

    1.4.2 CA注意力模塊。為使模型能夠在重疊遮擋、背景信息干擾等田間復(fù)雜環(huán)境下進(jìn)行準(zhǔn)確識(shí)別,本研究在YOLOX算法識(shí)別模塊Backbon部分的Dark3模塊、Dark4模塊和Dark5模塊之后加入了注意力機(jī)制(coordinate attention,CA)模塊,這種注意力機(jī)制通過(guò)建立通道之間的關(guān)系,提高了模型對(duì)位置信息的敏感度。相較于其他注意力模塊,CA模塊加入了對(duì)位置信息的處理,加強(qiáng)了待測(cè)目標(biāo)的特征信息并弱化背景信息[30],將模型的關(guān)注點(diǎn)聚焦在圖片中更重要的位置,從而增強(qiáng)模型的特征信息表達(dá)能力,其具體結(jié)構(gòu)如圖4。

    CA模塊使用(H,1)和(1,W)的池化核分別沿著橫向、縱向?qū)λ型ǖ肋M(jìn)行編碼操作得到2個(gè)方向的一維向量,此操作能夠使注意力模塊能夠捕捉1個(gè)空間方向的長(zhǎng)期依賴關(guān)系以及另1個(gè)空間方向的位置信息,更好的獲得全局感受視野,提高網(wǎng)絡(luò)定位目標(biāo)的準(zhǔn)確度。之后通過(guò)拼接操作、卷積操作和非線性激活函數(shù)將這兩個(gè)向量轉(zhuǎn)化為注意力權(quán)值,與特征圖中的特征向量進(jìn)行融合后得到CA模塊的輸出特征圖。

    1.4.3 SIOU損失函數(shù)。為了能夠讓模型的預(yù)測(cè)框更接近于真實(shí)框,更貼近物體的輪廓,本研究采用SIoU[31]作為模型的損失函數(shù),在原模型IoU損失函數(shù)的基礎(chǔ)上,增加了角度損失、距離損失以及形狀損失,并重新定義了懲罰度量(圖5)。

    1.4.4 定位模塊。定位模塊以通過(guò)識(shí)別模塊傳入的棉花檢測(cè)框中心點(diǎn)數(shù)據(jù)作為棉花的定位點(diǎn),如圖6。

    之后使用K近鄰算法[32]將多次定位后得到的多個(gè)棉花預(yù)測(cè)框中心點(diǎn)坐標(biāo)進(jìn)行歸類,使用中值濾波算法[33]得到每個(gè)棉花預(yù)測(cè)框更為穩(wěn)定的中心點(diǎn)坐標(biāo)。

    雙目相機(jī)測(cè)距算法使用灰度處理、直方圖均衡化、圖像畸變消除、立體校正、極線矯正和立體匹配等外部工具對(duì)相機(jī)左右攝像頭獲取的圖像進(jìn)行處理并生成視差圖,之后使用三角形相似原理從視差圖中計(jì)算出深度Z,如圖7:

    根據(jù)公式(1)和(2)計(jì)算定位點(diǎn)到雙目相機(jī)的深度距離Z:

    2 結(jié)果與分析

    2.1 模型訓(xùn)練結(jié)果

    圖8為對(duì)YOLOX與YOLOX-Cotton進(jìn)行訓(xùn)練后的損失函數(shù),可以看出訓(xùn)練經(jīng)過(guò)300步數(shù)后趨于穩(wěn)定,模型收斂,并且與YOLOX相比,YOLOX-Cotton的損失值更低,訓(xùn)練效果得到一定的提升。

    表3為模型消融試驗(yàn)的結(jié)果,共4組試驗(yàn)。試驗(yàn)1為使用YOLOX進(jìn)行測(cè)試;試驗(yàn)2在YOLOX中加入CA模塊,與試驗(yàn)1相比,模型的精確率和平均精度均值提升明顯,而召回率提升較小。試驗(yàn)3在YOLOX中使用SIoU損失函數(shù),與試驗(yàn)1相比,模型精確率和召回率有明顯提升,而平均精度均值提升較小。試驗(yàn)4在YOLOX中同時(shí)添加CA模塊和SIoU模塊,與試驗(yàn)1相比,模型的精確率、召回率、平均精度均值均有明顯提升,分別提高了5.2、5.5、6.1百分點(diǎn)。在這4組試驗(yàn)中,模型在權(quán)重文件大小、參數(shù)量、浮點(diǎn)運(yùn)算次數(shù)和推理時(shí)間上的差異較小。

    由YOLOX-Cotton與SSD、Fast R-CNN、YOLOX、YOLOv8的模型訓(xùn)練結(jié)果(表4)可知,YOLOX-Cotton的精確率、召回率、平均精度均值以及在每個(gè)類別上的平均精度均大于其他模型,其中平均精度均值比SSD、Fast R-CNN、YOLOX、YOLOv8分別高22.4、52.2、6.1、7.0百分點(diǎn)。同時(shí)YOLOX-Cotton模型的權(quán)重遠(yuǎn)低于SSD、Fast R-CNN,與YOLO系列中的其他模型相近。

    為驗(yàn)證YOLOX-Cotton模型的可靠性,該試驗(yàn)利用不同干擾條件的棉花對(duì)模型進(jìn)行測(cè)試。圖9A展示了YOLOX-Cotton在不同的背景干擾下識(shí)別出的正面普通棉花、正面低品級(jí)棉花和側(cè)面棉花;圖9B表明YOLOX-Cotton模型能夠識(shí)別出被小范圍遮擋的棉花,但對(duì)于大范圍遮擋的棉花的識(shí)別能力依然有限,比如該模型沒(méi)有識(shí)別出圖9B的左下角棉花,原因在于該棉花展示出的特征信息較少,YOLOX-Cotton模型對(duì)其生成的預(yù)測(cè)值低于檢測(cè)閾值,故無(wú)法生成預(yù)測(cè)框。

    2.2 田間試驗(yàn)結(jié)果

    圖10為YOLOX-Cotton模型在田間試驗(yàn)中進(jìn)行棉花識(shí)別的結(jié)果,結(jié)果證明該模型能夠在不同背景下準(zhǔn)確識(shí)別出正面普通棉花、正面低品級(jí)棉花和側(cè)面棉花。表5為YOLOX-Cotton模型的棉花深度定位的田間驗(yàn)證結(jié)果,在8輪定位試驗(yàn)中,7朵棉花均能夠被準(zhǔn)確無(wú)誤的定位識(shí)別,每輪測(cè)距的結(jié)果均在設(shè)置的閾值范圍內(nèi),且7朵棉花樣本所測(cè)數(shù)據(jù)的標(biāo)準(zhǔn)偏差均小于0.01 m。

    3" " 討論

    在模型的消融試驗(yàn)中(表3),加入CA模塊的YOLOX模型(試驗(yàn)2)在精確率和平均精度均值上都有明顯提升,但召回率提升有限,說(shuō)明CA模塊有助于模型捕捉目標(biāo)的特征信息,減少誤檢和漏檢的情況,從而提升平均精度均值。由于CA模塊并不直接影響召回率,因此對(duì)這一指標(biāo)的提升有限。在YOLOX中加入SIoU損失函數(shù)(試驗(yàn)3),模型的召回率上有明顯改善,證實(shí)SIoU損失函數(shù)能夠有效促進(jìn)模型精確地捕捉目標(biāo)物體的邊界。而SIoU損失函數(shù)對(duì)模型的平均精度均值提升有限,原因在于提高召回率意味著模型能夠更好地捕捉到真正的正樣本,也容易導(dǎo)致模型將更多無(wú)關(guān)的負(fù)樣本預(yù)測(cè)為正樣本,從而增加誤報(bào)的情況,因此SIoU對(duì)模型的平均精度均值的提升并不明顯。在YOLOX中同時(shí)添加CA模塊和SIoU模塊的模型(試驗(yàn)4)在精確率、召回率和平均精度均值都有明顯提升,證明同時(shí)引入CA模塊和SIoU損失函數(shù)能更好地提高模型的整體性能。與試驗(yàn)1相比,試驗(yàn)2、試驗(yàn)3和試驗(yàn)4的模型在權(quán)重文件大小、參數(shù)量、浮點(diǎn)運(yùn)算次數(shù)和推理時(shí)間的差異較小,均在可接受的范圍內(nèi)。綜合4個(gè)試驗(yàn)的結(jié)果來(lái)看,在YOLOX中引入CA模塊和SIoU損失函數(shù),能夠提升模型的綜合性能。

    從模型的訓(xùn)練結(jié)果中可以看出,YOLOX-Cotton的精確率、召回率和平均精度均值分別為92.9%、86.8%和92.4%,對(duì)4個(gè)棉花類別的識(shí)別平均精度分別為94.6%、91.8%、93.2%和90.2%,均大于其他主流的目標(biāo)檢測(cè)模型,權(quán)重文件大小遠(yuǎn)低于SSD和Fast R-CNN,略高于YOLOx模型。整體來(lái)看,YOLOX-Cotton具備更好的綜合性能。

    在不同棉花類型及遮擋情況的識(shí)別測(cè)試結(jié)果中,YOLOX-Cotton能夠識(shí)別不同姿態(tài)和品級(jí)的棉花,以及被小范圍遮擋的棉花并對(duì)其做出準(zhǔn)確的分類,證明該模型具有較強(qiáng)的識(shí)別能力和抗干擾能力。但YOLOX-Cotton模型無(wú)法識(shí)別出被大范圍遮擋的棉花,原因在于棉花被大范圍遮擋后,模型無(wú)法獲得足夠的特征信息,導(dǎo)致其識(shí)別的精確率下降。相較于傳統(tǒng)圖像處理的棉花識(shí)別模型[4-6],YOLOX-Cotton無(wú)需人為設(shè)計(jì)特征提取器,能在復(fù)雜環(huán)境下對(duì)棉花進(jìn)行識(shí)別。相較于基于深度學(xué)習(xí)的棉花識(shí)別模型[7],YOLOX-Cotton不僅識(shí)別性能更為精準(zhǔn),還能識(shí)別和定位不同姿態(tài)和等級(jí)的棉花,為采棉機(jī)的采摘策略形成提供了更多重要的數(shù)據(jù)支持。

    在深度定位的驗(yàn)證實(shí)驗(yàn)中,YOLOX-Cotton所測(cè)棉花定位點(diǎn)的深度數(shù)據(jù)的數(shù)量與測(cè)試棉花的數(shù)量一致,代表識(shí)別模塊準(zhǔn)確地識(shí)別出了所有棉花。7朵棉花樣本的深度數(shù)據(jù)均在相應(yīng)的深度數(shù)據(jù)區(qū)間內(nèi),代表利用YOLOX-Cotton模型所測(cè)得的棉花定位點(diǎn)落在棉花上,所測(cè)得深度數(shù)據(jù)能夠代表棉花與雙目相機(jī)間的距離。所得樣本標(biāo)準(zhǔn)偏差均低于0.01 m,表明利用YOLOX-Cotton模型測(cè)量得到的數(shù)據(jù)離散程度較小,即每輪檢測(cè)中的定位點(diǎn)變化較小,該模型檢測(cè)棉花位置的能力具有較高的穩(wěn)定性。

    考慮到試驗(yàn)結(jié)果會(huì)受到不同光照條件和背景干擾的影響,因而對(duì)訓(xùn)練所用的數(shù)據(jù)集進(jìn)行增強(qiáng),以提高模型的泛化能力。訓(xùn)練所用數(shù)據(jù)集包含不同地區(qū)的棉花圖片,沒(méi)有包含測(cè)試集和田間試驗(yàn)的棉花圖片,但是YOLOX-Cotton在測(cè)試集和田間試驗(yàn)驗(yàn)證中仍然獲得了準(zhǔn)確的結(jié)果,證明其具有較強(qiáng)的泛化能力。

    4" " 結(jié)論

    為解決高質(zhì)量采棉要求下,采棉機(jī)對(duì)不同姿態(tài)和品級(jí)的棉花的識(shí)別與定位問(wèn)題,本文以YOLOX為主體框架,引入CA模塊和SIoU損失函數(shù)開(kāi)發(fā)出YOLOX-Cotton檢測(cè)方法,包含識(shí)別模塊和定位模塊。YOLOX-Cotton模型能夠識(shí)別不同姿態(tài)和品級(jí)的棉花并對(duì)其進(jìn)行精準(zhǔn)定位,其精確率、召回率和平均精度均值達(dá)到92.9%,86.8%和92.4%,并且有較強(qiáng)的泛化性和魯棒性,能夠豐富采棉機(jī)的采棉策略,為高質(zhì)量采棉提供有力的技術(shù)支持。

    參考文獻(xiàn):

    [1] 陳常兵. 我國(guó)內(nèi)地棉區(qū)棉花生產(chǎn)現(xiàn)狀與發(fā)展對(duì)策[J/OL]. 中國(guó)農(nóng)技推廣, 2022, 38(10): 10-13[2023-10-11]. https://doi.org/10.3969/j.issn.1002-381X.2022.10.003.

    Chen Changbing. Current situation of cotton production and development countermeasures in China's interior cotton region[J/OL]. China Agricultural Extension, 2022, 38(10): 10-13[2023-10-11]. https://doi.org/10.3969/j.issn.1002-381X.2022.10.003.

    [2] 陶云平. 棉花經(jīng)濟(jì)效益的影響因素及競(jìng)爭(zhēng)力提升——評(píng)《我國(guó)棉花國(guó)際競(jìng)爭(zhēng)力研究》[J]. 棉花學(xué)報(bào), 2022, 34(4): 361.

    Tao Yunping. Influencing factors of cotton economic efficiency and competitiveness enhancement-review of research on the International Competitiveness of China's Cotton[J]. Cotton Science, 2022, 34(4): 361.

    [3] 張賀軒, 徐愛(ài)武. 新疆棉花生產(chǎn)地位分析[J/OL]. 中國(guó)棉花加工, 2020(4): 4-7[2022-04-21]. https://doi.org/10.3969/j.issn.1003-0662.2020.04.002.

    Zhang Hexuan, Xu Aiwu. Analysis of cotton production status in Xinjiang[J/OL]. China Cotton Processing, 2020(4): 4-7[2022-04-21]. https://doi.org/10.3969/j.issn.1003-0662.2020.04.002.

    [4] Pabuayon I, Sun Y, Guo W, et al. High-throughput phenotyping in cotton: a review[J/OL]. Journal of Cotton Research, 2019, 2: 18[2023-10-11]. https://doi.org/10.1186/s42397-019-0035-0.

    [5] 王勇, 沈明霞, 姬長(zhǎng)英. 采摘期成熟棉花不同部位顏色識(shí)別分析[J/OL]. 農(nóng)業(yè)工程學(xué)報(bào), 2007(4): 183-185[2023-10-11]. https://doi.org/10.3321/j.issn:1002-6819.2007.04.036.

    Wang Yong, Shen Mingxia, Ji Changying. Color identification of different parts of mature cotton during picking[J/OL]. Journal of Agricultural Engineering, 2007(4): 183-185[2023-10-11]. https://doi.org/10.3321/j.issn:1002-6819.2007.04.036.

    [6] 王玲. 基于圖像特征選擇的田間籽棉成熟度與品級(jí)判別技術(shù)研究[D]. 南京: 南京農(nóng)業(yè)大學(xué), 2009.

    Wang Ling. Research on field seed cotton maturity and grade discrimination technology based on image feature selection[D]. Nanjing: Nanjing Agricultural University, 2009.

    [7] 劉坤, 費(fèi)樹(shù)岷, 汪木蘭, 等. 基于改進(jìn)隨機(jī)Hough變換的棉桃識(shí)別技術(shù)[J/OL]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2010, 41(8): 160-165[2023-10-11]. https://doi.org/10.3969/j.issn.1000-1298.2010.08.033.

    Liu Kun, Fei Shumin, Wang Mulan, et al. Cotton peach recognition technology based on improved stochastic Hough transform[J/OL]. Journal of Agricultural Machinery, 2010, 41(8): 160-165[2023-10-11]. https://doi.org/10.3969/j.issn.1000-1298.2010.08.033.

    [8] 李海濤, 羅維平. 基于深度學(xué)習(xí)的棉花品種識(shí)別[J/OL]. 武漢紡織大學(xué)學(xué)報(bào), 2022, 35(4): 22-26[2023-10-11]. https://doi.org/10.3969/j.issn.2095-414X.2022.04.006.

    Li Haitao, Luo Weiping. Cotton variety recognition based on deep learning[J/OL]. Journal of Wuhan Textile University, 2022, 35(4): 22-26[2023-10-11]. https://doi.org/10.3969/j.issn.2095-414X.2022.04.006.

    [9] 高廣尚. 深度學(xué)習(xí)推薦模型中的注意力機(jī)制研究綜述[J/OL].計(jì)算機(jī)工程與應(yīng)用, 2022, 58(9): 9-18[2023-10-11]. https://doi.org/10.3778/j.issn.1002-8331.2112-0382.

    Gao Guangshang. A review of research on attention mechanisms in deep learning recommendation models[J/OL]. Computer Engineering and Applications, 2022, 58(9): 9-18[2023-10-11]. https://doi.org/10.3778/j.issn.1002-8331.2112-0382.

    [10] 張豪, 郭輝, 韓長(zhǎng)杰, 等. 圖像處理技術(shù)在采棉機(jī)器人中的應(yīng)用[J]. 農(nóng)業(yè)工程, 2014, 4(5): 35-38[2023-10-11]. https://doi.org/10.3969/j.issn.2095-1795.2014.05.013.

    Zhang Hao, Guo Hui, Han Changjie, et al. Application of image processing technology in cotton picking robot[J/OL]. Agricultural Engineering, 2014, 4(5): 35-38[2023-10-11]. https://doi.org/10.3969/j.issn.2095-1795.2014.05.013.

    [11] 朱莉, 陳茗溪, 徐勝勇, 等. 基于多層約束立體視覺(jué)的采棉機(jī)器人視覺(jué)系統(tǒng)研究[J/OL]. 農(nóng)機(jī)化研究, 2016, 38(7): 229-233[2023-10-11]. https://doi.org/10.3969/j.issn.1003-188X.2016.07.047.

    Zhu Li, Chen Mingxi, Xu Shengyong, et al. Research on vision system of cotton picking robot based on multi-layer constrained stereo vision[J/OL]. Agricultural Mechanization Research, 2016, 38(7): 229-233[2023-10-11].https://doi.org/10.3969/j.issn.1003-188X.2016.07.047.

    [12] 許楠, 苑迎春, 雷浩, 等. 基于多器官特征融合的棗品種識(shí)別方法[J/OL]. 農(nóng)業(yè)機(jī)械學(xué)報(bào), 2024, 55(4): 213-220, 240[2024-02-24]. http://kns.cnki.net/kcms/detail/11.1964.s.20240219.1349.004.html.

    Xu Nan, Yuan Yingchun, Lei Hao, et al. Recognition of jujube varieties based on multi-organ feature fusion[J/OL]. Journal of Agricultural Machinery, 2024, 55(4): 213-220, 240[2024-02-24]. http://kns.cnki.net/kcms/detail/11.1964.s.20240219.1349.004.html.

    [13] 吳烽云, 葉雅欣, 陳思宇, 等. 復(fù)雜環(huán)境下香蕉多目標(biāo)特征快速識(shí)別研究[J/OL]. 華南農(nóng)業(yè)大學(xué)學(xué)報(bào), 2022, 43(2): 96-104[2022-01-06]. https://doi.org/10.7671/j.issn.1001-411X.202108009.

    Wu Fengyun, Ye Yaxin, Chen Siyu, et al. Research on fast recognition of banana multi-target features by visual robot in complex environment[J/OL]. Journal of South China Agricultural University, 2022, 43(2): 96-104[2022-01-06]. https://doi.org/10.7671/j.issn.1001-411X.202108009.

    [14] 王金鵬, 周佳良, 張躍躍, 等. 基于優(yōu)選YOLOv7模型的采摘機(jī)器人多姿態(tài)火龍果檢測(cè)系統(tǒng)[J/OL]. 農(nóng)業(yè)工程學(xué)報(bào), 2023, 39(8): 276-283[2023-10-11]. https://doi.org/10.11975/j.issn.1002-6819.202208031.

    Wang Jinpeng, Zhou Jialiang, Zhang Yueyue, et al. Multi-attitude dragon fruit detection system for picking robot based on preferred YOLOv7 model[J/OL]. Journal of Agricultural Engineering, 2023, 39(8): 276-283[2023-10-11]. https://doi.org/10.11975/j.issn.1002-6819.202208031.

    [15] Liu W, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//Computer Vision-ECCV 2016. Lecture notes in computer science. Berlin, Germany: Springer International Publishing, 2016: 21-37.

    [16] Wang X, Hua X, Xiao F, et al. Multi-object detection in traffic scenes based on improved SSD[J/OL]. Electronics, 2018, 7(11): 302[2023-10-11]. https://doi.org/10.3390/electronics7110302.

    [17] Womg A, Shafiee M J, Li F, et al. Tiny SSD: a tiny single-shot detection deep convolutional neural network for real-time embedded object detection[C]//IEEE: 2018 15th conference on computer and robot vision (CRV). New York, USA: IEEE, 2018: 95-101.

    [18] Zhai S, Shang D, Wang S, et al. DF-SSD: an improved SSD object detection algorithm based on DenseNet and feature fusion [J/OL]. IEEE Access, 2020, 8: 24344-24357[2023-10-11]. https://doi.org/10.1109/ACCESS.2020.2971026.

    [19] Girshick R. Fast r-cnn[C]//2015 IEEE international conference on computer vision (ICCV). Conference paper. New York, USA: IEEE, 2015: 1440-1448.

    [20] Li J N, Liang X D, Shen S M, et al. Scale-aware fast R-CNN for pedestrian detection[J/OL]. IEEE Transactions on Multimedia. 2018, 20(4): 985-996[2023-10-11]. https://doi.org/10.1109/TMM.2017.2759508.

    [21] Ren S, He K, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[J/OL]. Advances in neural information processing systems, 2017, 39(6): 1137-1149[2023-10-11]. https://doi.org/10.1109/TPAMI.2016.2577031.

    [22] Bochkovskiy A, Wang C Y, Liao H. Yolov4: optimal speed and accuracy of object detection[J/OL]. arXiv, 2020[2023-10-11]. https://doi.org/10.48550/arXiv.2004.10934.

    [23] Redmon J, Divvala S, Girshick R, et al. You only look once: Unified, real-time object detection[C]//IEEE: Proceedings of the IEEE conference on computer vision and pattern recognition. New York, USA: IEEE, 2016: 779-788.

    [24] Redmon J, Farhadi A. YOLO9000: better, faster, stronger[C]//IEEE: Proceedings of the IEEE conference on computer vision and pattern recognition. New York, USA: IEEE, 2017: 6517-6525.

    [25] Redmon J, Farhadi A. Yolov3: An incremental improvement[J/OL]. arXiv, 2018[2023-10-11]. https://doi.org/10.48550/arXiv.1804.02767.

    [26] Liu Z, Lin Y, Cao Y, et al. Swin transformer: Hierarchical vision transformer using shifted windows[C]//IEEE/CVF: Proceedings of the IEEE/CVF international conference on computer vision (ICCV). New York, USA: IEEE, 2021: 9992-10002.

    [27] Fang W, Wang L, Ren P M. Tinier-YOLO: a real-time object detection method for constrained environments[J/OL]. IEEE Access, 2019, 8: 1935-1944[2023-10-11]. https://doi.org/10.1109/ACCESS.2019.2961959.

    [28] 趙永強(qiáng), 饒?jiān)?董世鵬, 等. 深度學(xué)習(xí)目標(biāo)檢測(cè)方法綜述[J/OL]. 中國(guó)圖象圖形學(xué)報(bào), 2020, 25(4): 629-654. https://doi.org/10.11834/jig.190307.

    Zhao Yongqiang, Rao Yuan, Dong Shipeng, et al. A review of deep learning target detection methods[J/OL]. Jounal of Image and Graphics, 2020, 25(4): 629-654. https://doi.org/10.11834/jig.190-307.

    [29] 邢潔潔, 謝定進(jìn), 楊然兵, 等. 基于YOLOv5s的農(nóng)田垃圾輕量化檢測(cè)方法[J/OL]. 農(nóng)業(yè)工程學(xué)報(bào), 2022, 38(19): 153-161. https://doi.org/10.11975/j.issn.1002-6819.2022.19.017.

    Xing Jiejie, Xie Dingjin, Yang Ranbing, et al. Lightweight detection method for farmland waste based on YOLOv5s[J/OL]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(19): 153-161.https://doi.org/10.11975/j.issn.1002-6819.2022.19.017.

    [30] Hou Q, Zhou D, Feng J. Coordinate attention for efficient mobile network design[C]//IEEE/CVF: Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (CVPR). New York, USA: IEEE, 2021: 13708-13717.

    [31] Gevorgyan Z. SIoU loss: more powerful learning for bounding box regression[J/OL]. arXiv, 2022[2023-10-11]. https://doi.org/10.48550/arXiv.2205.12740.

    [32] Guo G, Wang H, Bell D, et al. KNN model-based approach in classification[C/OL]//Meersman R, Tari Z, Schmidt D C. On The Move to Meaningful Internet Systems 2003: CoopIS, DOA, and ODBASE. Berlin: Springer, 2003: 986-996[2023-10-11]. https://doi.org/10.1007/978-3-540-39964-3_62.

    [33] Gupta G. Algorithm for image processing using improved median filter and comparison of mean, median and improved median filter[J/OL]. International Journal of Soft Computing and Engineering, 2011, 1(5): 304-311. https://doi.org/10.1007/b94348.

    (責(zé)任編輯:莊蕾 責(zé)任校對(duì):王國(guó)鑫)

    猜你喜歡
    損失函數(shù)注意力機(jī)制目標(biāo)檢測(cè)
    基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
    考慮應(yīng)急時(shí)間和未滿足需求量的應(yīng)急物資多階段分配模型
    基于深度學(xué)習(xí)的人臉屬性聯(lián)合估計(jì)
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于注意力機(jī)制的雙向LSTM模型在中文商品評(píng)論情感分類中的研究
    軟件工程(2017年11期)2018-01-05 08:06:09
    InsunKBQA:一個(gè)基于知識(shí)庫(kù)的問(wèn)答系統(tǒng)
    基于福利損失函數(shù)的人民幣匯率制度選擇
    基于福利損失函數(shù)的人民幣匯率制度選擇
    視頻中目標(biāo)檢測(cè)算法研究
    軟件(2016年4期)2017-01-20 09:38:03
    行為識(shí)別中的人體運(yùn)動(dòng)目標(biāo)檢測(cè)方法
    免费观看a级毛片全部| 汤姆久久久久久久影院中文字幕| 亚洲av.av天堂| 日本av手机在线免费观看| 国产片特级美女逼逼视频| 涩涩av久久男人的天堂| 色网站视频免费| 如日韩欧美国产精品一区二区三区| 国产成人精品婷婷| 国产成人aa在线观看| 一个人免费看片子| 制服丝袜香蕉在线| 国产男女内射视频| 亚洲欧美中文字幕日韩二区| 欧美在线黄色| 久久国产精品大桥未久av| 最黄视频免费看| 人人妻人人添人人爽欧美一区卜| 女人被躁到高潮嗷嗷叫费观| 欧美黄色片欧美黄色片| 国产精品偷伦视频观看了| av一本久久久久| 久久久久精品性色| 午夜福利乱码中文字幕| 日韩一本色道免费dvd| 成年女人毛片免费观看观看9 | 波多野结衣一区麻豆| 中国国产av一级| 最近2019中文字幕mv第一页| 1024香蕉在线观看| 日韩一本色道免费dvd| 午夜久久久在线观看| 在线 av 中文字幕| 男人添女人高潮全过程视频| 人成视频在线观看免费观看| 激情五月婷婷亚洲| 老汉色∧v一级毛片| 国产成人一区二区在线| 欧美日韩一级在线毛片| 咕卡用的链子| 亚洲国产精品国产精品| 大话2 男鬼变身卡| 黑人猛操日本美女一级片| 亚洲国产色片| a级片在线免费高清观看视频| 久久99一区二区三区| 日韩中字成人| av电影中文网址| 涩涩av久久男人的天堂| 边亲边吃奶的免费视频| 中国国产av一级| 国产精品一二三区在线看| 久久av网站| 在线观看免费日韩欧美大片| 黄色毛片三级朝国网站| 日韩制服丝袜自拍偷拍| 亚洲第一区二区三区不卡| 日韩大片免费观看网站| 欧美精品亚洲一区二区| 午夜福利乱码中文字幕| 制服诱惑二区| 校园人妻丝袜中文字幕| 中文字幕制服av| 人妻一区二区av| 亚洲美女黄色视频免费看| 大片电影免费在线观看免费| 成人影院久久| 啦啦啦啦在线视频资源| 国产乱人偷精品视频| 黄色一级大片看看| 久久精品久久久久久噜噜老黄| 啦啦啦视频在线资源免费观看| 纯流量卡能插随身wifi吗| 国产在线视频一区二区| 中国三级夫妇交换| 一级a爱视频在线免费观看| 欧美变态另类bdsm刘玥| 国产熟女午夜一区二区三区| 精品少妇内射三级| 天天影视国产精品| 这个男人来自地球电影免费观看 | 最近的中文字幕免费完整| av视频免费观看在线观看| 午夜日本视频在线| 亚洲,一卡二卡三卡| 熟妇人妻不卡中文字幕| 成年美女黄网站色视频大全免费| www.熟女人妻精品国产| 婷婷成人精品国产| 国产精品av久久久久免费| 最近最新中文字幕免费大全7| 欧美人与性动交α欧美软件| 国产xxxxx性猛交| 满18在线观看网站| 9色porny在线观看| www.自偷自拍.com| 人成视频在线观看免费观看| 日韩成人av中文字幕在线观看| 欧美 日韩 精品 国产| 美女高潮到喷水免费观看| 搡女人真爽免费视频火全软件| 国产免费一区二区三区四区乱码| 青春草视频在线免费观看| 日韩人妻精品一区2区三区| 中文字幕最新亚洲高清| 999精品在线视频| 欧美激情极品国产一区二区三区| 久久久久国产一级毛片高清牌| a 毛片基地| kizo精华| 亚洲国产av影院在线观看| 美国免费a级毛片| 极品少妇高潮喷水抽搐| 老鸭窝网址在线观看| av一本久久久久| 另类精品久久| av有码第一页| 日韩大片免费观看网站| 亚洲五月色婷婷综合| 午夜福利,免费看| 最黄视频免费看| 亚洲欧美一区二区三区久久| 考比视频在线观看| 国产国语露脸激情在线看| 精品国产国语对白av| 国产精品久久久av美女十八| 欧美精品一区二区免费开放| 日韩免费高清中文字幕av| 精品国产一区二区三区四区第35| 欧美亚洲 丝袜 人妻 在线| 看免费av毛片| 亚洲第一av免费看| 这个男人来自地球电影免费观看 | 久久久久久久大尺度免费视频| 国产免费现黄频在线看| 欧美中文综合在线视频| 久久久久久久大尺度免费视频| 久久久久久久久久人人人人人人| 国产激情久久老熟女| 国产日韩欧美视频二区| 欧美最新免费一区二区三区| 夫妻午夜视频| 久久人人97超碰香蕉20202| 丝袜美腿诱惑在线| 激情五月婷婷亚洲| 国产乱人偷精品视频| 永久免费av网站大全| 久久午夜综合久久蜜桃| av在线app专区| 国产女主播在线喷水免费视频网站| 亚洲av电影在线观看一区二区三区| 黄色 视频免费看| 老司机影院毛片| 国产成人精品婷婷| 亚洲精品国产av蜜桃| 久久人妻熟女aⅴ| 国产亚洲最大av| 香蕉精品网在线| 人体艺术视频欧美日本| 亚洲欧洲日产国产| 伊人久久大香线蕉亚洲五| 欧美日韩一区二区视频在线观看视频在线| 国产视频首页在线观看| 伊人久久国产一区二区| 成人手机av| 嫩草影院入口| 亚洲视频免费观看视频| 久久久久久伊人网av| 人妻少妇偷人精品九色| 欧美人与善性xxx| 日韩制服骚丝袜av| 丰满饥渴人妻一区二区三| 精品酒店卫生间| 午夜激情久久久久久久| 国产爽快片一区二区三区| 欧美xxⅹ黑人| 少妇猛男粗大的猛烈进出视频| 在线观看一区二区三区激情| 五月伊人婷婷丁香| 亚洲欧美精品综合一区二区三区 | 国产高清国产精品国产三级| av在线app专区| 91午夜精品亚洲一区二区三区| 国产成人av激情在线播放| 日本91视频免费播放| 一级,二级,三级黄色视频| 久久 成人 亚洲| 国产又爽黄色视频| 最新中文字幕久久久久| 两性夫妻黄色片| 日韩欧美精品免费久久| 精品少妇黑人巨大在线播放| 久久久国产一区二区| 国产无遮挡羞羞视频在线观看| 国产av码专区亚洲av| 国产片内射在线| 久久久久久人妻| 伊人亚洲综合成人网| 亚洲,一卡二卡三卡| 日韩视频在线欧美| 亚洲欧洲国产日韩| 妹子高潮喷水视频| av网站免费在线观看视频| 啦啦啦视频在线资源免费观看| 男人添女人高潮全过程视频| 国产成人91sexporn| 久久久久国产精品人妻一区二区| 五月开心婷婷网| 熟女少妇亚洲综合色aaa.| 老汉色∧v一级毛片| 亚洲第一区二区三区不卡| 久久久久国产一级毛片高清牌| 久久久久久免费高清国产稀缺| 一级毛片黄色毛片免费观看视频| 一区二区三区四区激情视频| 亚洲三级黄色毛片| 精品国产一区二区久久| 久久久精品区二区三区| 国产女主播在线喷水免费视频网站| 午夜免费鲁丝| 亚洲人成网站在线观看播放| 18禁裸乳无遮挡动漫免费视频| 韩国高清视频一区二区三区| 国产女主播在线喷水免费视频网站| 啦啦啦在线免费观看视频4| 国产成人精品一,二区| 两性夫妻黄色片| 国产精品熟女久久久久浪| 国产探花极品一区二区| 一级毛片电影观看| 高清在线视频一区二区三区| 国产熟女午夜一区二区三区| 国产片特级美女逼逼视频| 黄色一级大片看看| 久久综合国产亚洲精品| 人妻 亚洲 视频| 亚洲欧美成人综合另类久久久| 亚洲欧美精品综合一区二区三区 | xxxhd国产人妻xxx| 宅男免费午夜| 亚洲精品国产一区二区精华液| 18禁观看日本| 中文欧美无线码| 欧美 亚洲 国产 日韩一| 中文字幕人妻丝袜一区二区 | a级毛片黄视频| www.av在线官网国产| 男女边吃奶边做爰视频| 国产乱人偷精品视频| 久久99蜜桃精品久久| 亚洲四区av| 国产一区二区激情短视频 | 国产在线免费精品| 美女xxoo啪啪120秒动态图| 天天躁狠狠躁夜夜躁狠狠躁| 少妇被粗大猛烈的视频| 婷婷成人精品国产| 欧美日韩成人在线一区二区| 曰老女人黄片| 免费观看在线日韩| 天天躁日日躁夜夜躁夜夜| 国产精品二区激情视频| 国产激情久久老熟女| 十八禁高潮呻吟视频| 91aial.com中文字幕在线观看| 美女国产高潮福利片在线看| 制服丝袜香蕉在线| 国产在视频线精品| 免费高清在线观看日韩| 国产1区2区3区精品| 热99久久久久精品小说推荐| 国产激情久久老熟女| 精品亚洲成a人片在线观看| 国产一区二区三区av在线| 国产 精品1| 国产av码专区亚洲av| 啦啦啦在线免费观看视频4| 亚洲精华国产精华液的使用体验| 亚洲国产欧美在线一区| 久久久国产欧美日韩av| 桃花免费在线播放| 久久久久久人妻| 国产精品成人在线| 亚洲精品成人av观看孕妇| 久久人妻熟女aⅴ| 国产成人a∨麻豆精品| 尾随美女入室| 亚洲国产精品一区三区| 成年女人在线观看亚洲视频| 亚洲国产欧美在线一区| 在线观看一区二区三区激情| 免费不卡的大黄色大毛片视频在线观看| 中文字幕制服av| 亚洲精品,欧美精品| 丝袜脚勾引网站| 国产熟女欧美一区二区| 精品国产国语对白av| 国产一区二区三区综合在线观看| 黄片播放在线免费| 欧美老熟妇乱子伦牲交| 激情五月婷婷亚洲| 亚洲三级黄色毛片| 2018国产大陆天天弄谢| 巨乳人妻的诱惑在线观看| 亚洲综合色惰| 精品亚洲成a人片在线观看| 国产欧美日韩综合在线一区二区| 在线亚洲精品国产二区图片欧美| 久久99蜜桃精品久久| 一二三四在线观看免费中文在| 日本-黄色视频高清免费观看| 99久久综合免费| www.av在线官网国产| 综合色丁香网| 亚洲,欧美精品.| 大码成人一级视频| 国产又爽黄色视频| av网站在线播放免费| 久久久国产欧美日韩av| 亚洲成国产人片在线观看| 99久久人妻综合| 日本午夜av视频| 日韩中文字幕欧美一区二区 | 亚洲第一区二区三区不卡| 精品卡一卡二卡四卡免费| 日本黄色日本黄色录像| 国产av国产精品国产| 高清视频免费观看一区二区| 黄片播放在线免费| 十八禁网站网址无遮挡| 黄色怎么调成土黄色| 亚洲,欧美精品.| 成人影院久久| 午夜福利,免费看| 中文字幕最新亚洲高清| 久久久精品免费免费高清| 自拍欧美九色日韩亚洲蝌蚪91| 日本91视频免费播放| av片东京热男人的天堂| 丁香六月天网| 亚洲国产欧美在线一区| 国产淫语在线视频| 国产精品欧美亚洲77777| 精品视频人人做人人爽| 黑人猛操日本美女一级片| 精品一品国产午夜福利视频| 国产精品 欧美亚洲| 久久狼人影院| 国产精品欧美亚洲77777| 午夜福利乱码中文字幕| av一本久久久久| 少妇的逼水好多| 免费久久久久久久精品成人欧美视频| 日韩一区二区视频免费看| 高清av免费在线| 精品视频人人做人人爽| www.熟女人妻精品国产| 免费在线观看完整版高清| 成人18禁高潮啪啪吃奶动态图| 亚洲精华国产精华液的使用体验| 黑人欧美特级aaaaaa片| 99re6热这里在线精品视频| 两个人看的免费小视频| 日本黄色日本黄色录像| 美女xxoo啪啪120秒动态图| a级片在线免费高清观看视频| 国产亚洲最大av| 18+在线观看网站| 国产成人精品婷婷| 少妇的逼水好多| 国产亚洲最大av| 亚洲精品一二三| 国产日韩一区二区三区精品不卡| 国产精品二区激情视频| 91精品国产国语对白视频| 看免费成人av毛片| 一二三四中文在线观看免费高清| 久久女婷五月综合色啪小说| 精品久久久精品久久久| 亚洲第一区二区三区不卡| 日本欧美国产在线视频| 日韩人妻精品一区2区三区| 狂野欧美激情性bbbbbb| 免费人妻精品一区二区三区视频| 香蕉精品网在线| 久久精品国产自在天天线| 18禁观看日本| 国产97色在线日韩免费| 国产又爽黄色视频| 男女高潮啪啪啪动态图| 黄片小视频在线播放| 国产综合精华液| 亚洲精品美女久久久久99蜜臀 | 大码成人一级视频| 午夜福利一区二区在线看| 国产激情久久老熟女| 欧美变态另类bdsm刘玥| 国产成人av激情在线播放| 日韩,欧美,国产一区二区三区| 久久青草综合色| 黄色配什么色好看| 久久午夜福利片| 午夜福利在线免费观看网站| 丰满少妇做爰视频| 最近最新中文字幕大全免费视频 | 超碰成人久久| 一级,二级,三级黄色视频| 亚洲av免费高清在线观看| 成人免费观看视频高清| 人人妻人人添人人爽欧美一区卜| 啦啦啦啦在线视频资源| 亚洲欧美色中文字幕在线| 精品国产乱码久久久久久小说| 黄网站色视频无遮挡免费观看| 日韩av在线免费看完整版不卡| 午夜福利影视在线免费观看| 夫妻性生交免费视频一级片| 两个人看的免费小视频| 国产色婷婷99| 日本wwww免费看| 亚洲国产色片| 一边摸一边做爽爽视频免费| 精品福利永久在线观看| 高清欧美精品videossex| 久久女婷五月综合色啪小说| 国产av国产精品国产| av在线老鸭窝| 日本色播在线视频| 97人妻天天添夜夜摸| 99国产综合亚洲精品| 精品少妇内射三级| 大话2 男鬼变身卡| 亚洲三区欧美一区| 欧美bdsm另类| 亚洲国产毛片av蜜桃av| www.精华液| 免费在线观看完整版高清| 亚洲,一卡二卡三卡| 精品国产一区二区三区久久久樱花| av不卡在线播放| 一级,二级,三级黄色视频| 国产无遮挡羞羞视频在线观看| 日韩精品有码人妻一区| 国产日韩欧美在线精品| 成人18禁高潮啪啪吃奶动态图| 亚洲国产日韩一区二区| 午夜老司机福利剧场| 人成视频在线观看免费观看| 精品国产超薄肉色丝袜足j| 国产欧美日韩综合在线一区二区| 欧美精品高潮呻吟av久久| 免费久久久久久久精品成人欧美视频| 深夜精品福利| 午夜老司机福利剧场| 精品福利永久在线观看| 欧美亚洲日本最大视频资源| av片东京热男人的天堂| 国产av一区二区精品久久| 黄片播放在线免费| 国产av精品麻豆| 男人爽女人下面视频在线观看| 国产精品一国产av| 建设人人有责人人尽责人人享有的| 国产 一区精品| 中文字幕制服av| 18禁裸乳无遮挡动漫免费视频| 人妻 亚洲 视频| 亚洲精品久久午夜乱码| 夫妻性生交免费视频一级片| 黄色视频在线播放观看不卡| 一区在线观看完整版| 国产野战对白在线观看| 国产亚洲最大av| 欧美激情极品国产一区二区三区| 最近手机中文字幕大全| 亚洲一区二区三区欧美精品| 久久久久久人妻| 中文精品一卡2卡3卡4更新| 热99久久久久精品小说推荐| 在线观看免费高清a一片| 日本-黄色视频高清免费观看| 在线免费观看不下载黄p国产| 一区在线观看完整版| 午夜福利视频在线观看免费| av天堂久久9| 久久精品人人爽人人爽视色| 欧美日韩av久久| 成人黄色视频免费在线看| 国产野战对白在线观看| 制服人妻中文乱码| 国产男女超爽视频在线观看| 亚洲欧美一区二区三区国产| 99热国产这里只有精品6| 亚洲第一av免费看| 天美传媒精品一区二区| av.在线天堂| 少妇 在线观看| 日韩精品有码人妻一区| 日韩一区二区视频免费看| 亚洲色图综合在线观看| 亚洲av日韩在线播放| 精品国产超薄肉色丝袜足j| 日本vs欧美在线观看视频| 久久精品aⅴ一区二区三区四区 | 天天躁夜夜躁狠狠躁躁| 国产激情久久老熟女| 日本黄色日本黄色录像| 在现免费观看毛片| 亚洲熟女精品中文字幕| 久久国产精品男人的天堂亚洲| 黄片播放在线免费| 你懂的网址亚洲精品在线观看| 少妇熟女欧美另类| 日日撸夜夜添| 欧美激情 高清一区二区三区| 9191精品国产免费久久| 久久久亚洲精品成人影院| 国产精品久久久久久久久免| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲久久久国产精品| 最近手机中文字幕大全| 街头女战士在线观看网站| 日本91视频免费播放| 丰满迷人的少妇在线观看| 叶爱在线成人免费视频播放| 建设人人有责人人尽责人人享有的| 国产成人91sexporn| 午夜免费男女啪啪视频观看| 欧美日韩国产mv在线观看视频| 亚洲精品日韩在线中文字幕| 亚洲少妇的诱惑av| 在线观看国产h片| 看免费成人av毛片| 欧美日韩av久久| 最新中文字幕久久久久| 少妇被粗大的猛进出69影院| 精品国产国语对白av| 婷婷色麻豆天堂久久| 亚洲少妇的诱惑av| 美女xxoo啪啪120秒动态图| 中文字幕另类日韩欧美亚洲嫩草| 国产无遮挡羞羞视频在线观看| 爱豆传媒免费全集在线观看| 欧美+日韩+精品| 在现免费观看毛片| av福利片在线| 久热这里只有精品99| 91精品国产国语对白视频| 久久免费观看电影| 亚洲图色成人| 亚洲国产精品一区三区| 天堂中文最新版在线下载| 黄色 视频免费看| 一边亲一边摸免费视频| 精品酒店卫生间| 亚洲欧美精品综合一区二区三区 | 久热久热在线精品观看| 大片电影免费在线观看免费| 女人久久www免费人成看片| 欧美精品亚洲一区二区| 极品人妻少妇av视频| 亚洲第一青青草原| av不卡在线播放| 中文字幕人妻熟女乱码| 久久这里有精品视频免费| 色播在线永久视频| 在线观看免费日韩欧美大片| 国产又爽黄色视频| 卡戴珊不雅视频在线播放| 日韩av不卡免费在线播放| 女人高潮潮喷娇喘18禁视频| 亚洲情色 制服丝袜| 大话2 男鬼变身卡| 国产爽快片一区二区三区| 在现免费观看毛片| 久久久久精品久久久久真实原创| 热99久久久久精品小说推荐| 国产在视频线精品| 日韩中字成人| 午夜免费男女啪啪视频观看| 亚洲精品国产av成人精品| 日本午夜av视频| 久久久精品免费免费高清| 日韩欧美精品免费久久| 亚洲熟女精品中文字幕| 久久这里有精品视频免费| 丰满少妇做爰视频| 日本色播在线视频| 考比视频在线观看| av电影中文网址| 亚洲人成电影观看| 久久国产精品男人的天堂亚洲| 在线观看免费高清a一片| 免费人妻精品一区二区三区视频| 久久国产精品男人的天堂亚洲| 久久国产亚洲av麻豆专区| 1024视频免费在线观看| tube8黄色片| 国产成人免费无遮挡视频| 亚洲人成电影观看| 亚洲三级黄色毛片| 国产免费一区二区三区四区乱码| 香蕉国产在线看| 久热这里只有精品99| 国产在视频线精品| 精品国产乱码久久久久久小说| 1024香蕉在线观看| 女性被躁到高潮视频| 日韩一卡2卡3卡4卡2021年| 十八禁网站网址无遮挡| 亚洲欧美一区二区三区国产| 国产精品亚洲av一区麻豆 | 亚洲国产av影院在线观看| 欧美+日韩+精品| 日韩 亚洲 欧美在线|