• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進YOLOv5的復雜跨域場景下的豬個體識別與計數(shù)

    2023-01-16 09:52:34寧遠霖李振波
    農業(yè)工程學報 2022年17期
    關鍵詞:跨域豬只計數(shù)

    寧遠霖,楊 穎,李振波,2,3,吳 瀟,張 倩

    基于改進YOLOv5的復雜跨域場景下的豬個體識別與計數(shù)

    寧遠霖1,楊 穎1※,李振波1,2,3,吳 瀟1,張 倩1

    (1. 中國農業(yè)大學信息與電氣工程學院,北京 100083;2. 農業(yè)農村部農業(yè)信息獲取技術重點實驗室,北京 100083;3. 農業(yè)農村部國家數(shù)字漁業(yè)中心,北京 100083)

    為解決復雜跨域場景下豬個體的目標檢測與計數(shù)準確率低下的問題,該研究提出了面向復雜跨域場景的基于改進YOLOv5(You Only Look Once version 5)的豬個體檢測與計數(shù)模型。在骨干網(wǎng)絡中分別集成了CBAM(Convolutional Block Attention Module)即融合通道和空間注意力的模塊和Transformer自注意力模塊,并將CIoU(Complete Intersection over Union)Loss替換為EIoU(Efficient Intersection over Union)Loss,以及引入了SAM (Sharpness-Aware Minimization)優(yōu)化器并引入了多尺度訓練、偽標簽半監(jiān)督學習和測試集增強的訓練策略。試驗結果表明,這些改進使模型能夠更好地關注圖像中的重要區(qū)域,突破傳統(tǒng)卷積只能提取卷積核內相鄰信息的能力,增強了模型的特征提取能力,并提升了模型的定位準確性以及模型對不同目標大小和不同豬舍環(huán)境的適應性,因此提升了模型在跨域場景下的表現(xiàn)。經(jīng)過改進后的模型的mAP@0.5值從87.67%提升到98.76%,mAP@0.5:0.95值從58.35%提升到68.70%,均方誤差從13.26降低到1.44。該研究的改進方法可以大幅度改善現(xiàn)有模型在復雜跨域場景下的目標檢測效果,提高了目標檢測和計數(shù)的準確率,從而為大規(guī)模生豬養(yǎng)殖業(yè)生產效率的提高和生產成本的降低提供技術支持。

    模型;計算機視覺;目標檢測;計數(shù);注意力機制;半監(jiān)督學習

    0 引 言

    目前中國的豬存欄量和出欄量均居世界第一[1],但中國國內的生豬生產水平仍難以滿足需求,部分豬肉仍需靠進口來彌補空缺[2]。因此,在養(yǎng)殖業(yè)正逐漸從傳統(tǒng)的散戶養(yǎng)殖的階段過渡到集約化養(yǎng)殖、大規(guī)模自動化養(yǎng)殖階段的時代背景下,如何提高大規(guī)模養(yǎng)殖場景下產業(yè)的生產效率,降低養(yǎng)殖成本,成為中國豬肉自給自足進程中不可缺少的一環(huán)。

    豬只計數(shù)也稱豬只盤點,是大規(guī)模養(yǎng)殖中工作量較大,容易出錯的工作。由于豬只的淘汰、出售和死亡,導致在養(yǎng)殖過程中豬舍中的豬只數(shù)量可能不斷地發(fā)生變化[3],因此在養(yǎng)殖管理過程中需要對豬只數(shù)量進行統(tǒng)計[4]。傳統(tǒng)的豬只計數(shù)主要采用人工清點的方式進行,在大規(guī)模復雜場景下,這不僅計數(shù)不準,并且消耗人力物力,效率較低。并且由于人與動物接觸過多,也可能會有染病的風險[5]?;谀繕藱z測的計數(shù)通過計算機視覺技術對目標進行自動檢測和定位,在獲取位置的同時對數(shù)量也進行統(tǒng)計,極大地節(jié)省了人力物力的投入。目前,國內外學者在動物的自動計數(shù)領域已經(jīng)開展了一些研究,如Ahn等[6]基于YOLOv4-Tiny(You Only Look Once-Tiny)算法進行改進,能夠在嵌入式版上實現(xiàn)實時的豬只檢測和計數(shù);黎袁富等[7]利用YOLOX研究了對魚苗的檢測和計數(shù)方法,在水箱中魚苗數(shù)量較大時仍然能夠獲得不錯的效果。

    動物行為分析同樣是大規(guī)模養(yǎng)殖中工作量較大,且容易受主觀經(jīng)驗影響的工作。動物的健康狀況往往能夠通過其行為體現(xiàn)[8],傳統(tǒng)的行為分析方法通常靠人工觀察,容易受到個人經(jīng)驗和自然環(huán)境等因素的影響,近年來,基于目標檢測的動物行為分析方法得到了廣泛的研究,如Liu等[9]使用基于SSD(Single Shot MultiBox Detector)的目標檢測算法來識別和定位生豬的咬尾行為,并在群養(yǎng)場景下可達到89.23%的準確率;Zhang等[10]構建了基于SSD和MobileNet的SBDA-DL模型,用于識別母豬的飲水、排尿和哺乳行為;薛月菊等[11]基于Faster RCNN(Faster Region-CNN)實現(xiàn)對哺乳母豬的站立、坐立、俯臥、腹臥和側臥5類姿態(tài)的識別;董力中等[12]基于YOLOv5(You Only Look Once version 5)實現(xiàn)對豬只站、走、臥三種行為的識別。

    綜上,豬只的自動計數(shù)和檢測研究已經(jīng)取得了一些成果,但還存在以下3點問題:1)數(shù)據(jù)集單一,即訓練集和測試集往往來自同一拍攝場景,甚至來自于同一段視頻片段,訓練集和測試集的圖像幀高度相似。然而,由于多種外部因素例如拍攝視角和背景噪聲的影響,不同數(shù)據(jù)集具有不同的性質,這就導致跨域問題,即在一個域上訓練的模型可能在另外一個域上性能較差[13]。2)檢測目標通常較大,清晰度高,即場景中的檢測目標通常在整幅圖像中占比較大,且在光線良好的環(huán)境中拍攝,但真實養(yǎng)殖場景中往往光線復雜,豬只個體較小且圖像模糊,這就導致方法對于小目標檢測效果較差,無法適應真實豬舍場景中目標小且密集、光線較暗的復雜情況。3)研究方法無法對比,現(xiàn)有研究通常是基于私有數(shù)據(jù)集進行的測試,從而導致現(xiàn)有方法所提到的性能和指標難以復現(xiàn)。

    針對以上問題,為了貼合真實的多場景下檢測和計數(shù)任務的需求,本文重點研究復雜跨域場景下的目標檢測和計數(shù),研究擬選用來自于真實養(yǎng)殖環(huán)境中來自不同場景和拍攝視角的公開數(shù)據(jù)集,其中待檢測目標大小差異明顯,數(shù)據(jù)集明顯跨域。為此,本文擬從網(wǎng)絡層面改進以增強網(wǎng)絡對模型的特征提取能力、選擇合適的損失函數(shù)以增強模型的定位準確率、選擇合適的優(yōu)化器以使模型擁有更好的泛化能力、選擇合適的訓練策略以增強模型對不同大小目標和不同場景的適應性,從而提高模型在復雜跨域場景下的目標檢測和計數(shù)準確率,輔助智能化養(yǎng)殖,提高生產效率,降低生產成本。

    1 試驗數(shù)據(jù)與分析

    1.1 數(shù)據(jù)來源與預處理

    本文數(shù)據(jù)來源選自于2021年6-10月在訊飛開放平臺舉辦的“豬只盤點挑戰(zhàn)賽”[14],此次比賽提供700張圖像用于訓練,其中500張為box標注,200張為mask標注。對于測試集,初賽和復賽各提供了220張圖像。由于初賽數(shù)據(jù)集基本不存在跨域問題,故本文的訓練集設置為訓練集+初賽測試集,測試集設置為復賽測試集。

    為了充分利用比賽數(shù)據(jù),首先需要將200張mask標注信息轉換為box標注信息,具體方法是分別計算所有mask標注關鍵點在軸方向和軸方向坐標的最小值和最大值,然后生成box標注。

    1.2 數(shù)據(jù)分析

    訓練集的700張圖像的分辨率為1 920×1 080像素和1 536×2 048像素兩種,拍攝于兩個場景中的不同時間段,目標較大,光線良好;初賽測試集的220張圖像的分辨率為1 920×1 080,拍攝場景雖與訓練集不同,但環(huán)境相似且目標大小相似,基本不存在跨域的問題;復賽測試集的220張圖像的分辨率為1 280×960,分辨率較小,拍攝場景與訓練集和初賽測試集的拍攝場景均不同,目標較小,大量目標存在大面積重疊,肉眼對部分豬個體有較大的識別難度。

    如表1所示,本文分別計算了目標的高度比、寬度比以及高寬比,其分別代表了目標的高寬像素值與整幅圖像高寬像素值的比值以及目標自身高寬像素值的比值。

    從表1可以看出,復賽測試集的寬度比和高度比相對訓練集和初賽測試集較小,這表明復賽測試集中的目標相對較小,僅有訓練集和初賽測試集目標大小的三分之一左右;同時復賽測試集的高寬比相對訓練集和初賽測試集較大,這表明復賽測試集的目標更加細長。

    表1 不同數(shù)據(jù)集中標注框的高寬特點

    綜上,訓練集、初賽測試集與復賽測試集之間存在嚴重的跨域的問題,不僅體現(xiàn)在背景環(huán)境中,也體現(xiàn)在目標大小和目標自身的高寬比中。

    2 基于改進YOLOv5的豬個體檢測與計數(shù)研究

    2.1 數(shù)據(jù)增強

    神經(jīng)網(wǎng)絡通常需要大量數(shù)據(jù)進行訓練,而在真實場景中往往由于采集成本等問題無法獲得充足的訓練樣本,并且由于本文數(shù)據(jù)集中存在跨域問題,因此利用數(shù)據(jù)增強方法使得模型具有更好的泛化性顯得尤為重要,本文采用以下幾種數(shù)據(jù)增強方法實現(xiàn)數(shù)據(jù)集的增強。

    Mosaic增強[15]指利用四張圖像拼接到一張圖像中,從而達到豐富背景和變相增加批量大?。˙atch Size)的作用;Mixup增強[16]指將不同圖像堆疊到一張圖像中,也能達到豐富背景和變相增強Batch Size的作用,但與Mosaic通過拼接合并圖像不同,Mixup增強會通過改變不同圖像的透明度的方式,將不同圖像堆疊到一張圖像中,而不是簡單地拼接不同圖像。除了Mosaic增強、Mixup增強外,本文采用的數(shù)據(jù)增強方法還包括HSV(Hue, Saturation, Value)顏色變換、圖像隨機旋轉、圖像隨機平移、圖像隨機縮放、圖像隨機剪切變換、圖像上下翻轉、圖像左右翻轉、均值濾波圖像模糊、中值濾波圖像模糊、轉灰度圖以及自適應直方圖均衡化。本文采用上述數(shù)據(jù)增強方法增強后的部分效果示意圖如圖1所示。

    2.2 YOLOv5網(wǎng)絡改進

    2.2.1 YOLOv5網(wǎng)絡介紹

    YOLOv5[17]是目前較為先進的實時單階段目標檢測網(wǎng)絡,目前具有YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x、YOLOv5n6、YOLOv5s6、YOLOv5m6、YOLOv5l6、YOLOv5x6共十個子網(wǎng)絡,其中n網(wǎng)絡最小、x網(wǎng)絡最大,以6為結尾的模型擁有4個檢測Head,其他模型擁有3個檢測Head。本文對未改進的十個子網(wǎng)絡進行了測試,其中YOLOv5l6網(wǎng)絡的mAP@0.5值相對較高,因此本文選擇以YOLOv5l6作為基礎網(wǎng)絡進行改進。本文在骨干網(wǎng)絡(Backbone)上分別集成了CBAM即融合通道與空間注意力的模塊以及Transformer自注意力模塊,改進前后的YOLOv5l6網(wǎng)絡對比如圖2所示。

    a. 原圖a. Original imageb. Mosaic增強b. Mosaic augmentc. Mixup增強c. Mixup augmentd. 隨機剪切變換d. Random shear transformatione. 直方圖均衡化e. Histogram equalization

    注:Conv代表卷積;BN代表批歸一化;SiLU代表Sigmoid加權線性單元;Concat代表拼接;MaxPool代表最大池化;Transformer代表自注意力模塊;CBAM代表通道和空間注意力模塊;SPPF代表快速空間金字塔池化模塊。

    2.2.2 集成CBAM注意力模塊

    由于豬舍光線和環(huán)境較為復雜,使得網(wǎng)絡難以關注到關鍵的信息,給模型帶來了性能影響。為解決上述問題,使網(wǎng)絡更好地關注于豬個體,本文提出了一種集成CBAM(Convolutional Block Attention Module)[18]即融合通道注意力與空間注意力的YOLOv5網(wǎng)絡。

    考慮到特征提取主要在骨干網(wǎng)絡中進行,因此本文選擇將CBAM模塊添加到原有的骨干網(wǎng)絡中的C3_m_n模塊后,形成新的C3_m_n_C模塊,如圖2所示。

    2.2.3 集成Transformer自注意力模塊

    近年來,Vision Transformer(ViT)[19]和Obeject Detection with Transformers(DETR)[20]等基于Transformer的工作得到了極大關注。Transformer架構被認為可以更好地獲取來自全局感受野的信息,而不像CNN一樣局限于卷積核內的相鄰信息,因此在圖像分類、目標檢測、圖像分割等領域顯著改進了基線。在豬舍場景下,由于光線噪聲問題,部分豬個體的輪廓邊界不明顯,完全基于CNN的骨干網(wǎng)絡難以確定輪廓邊界。受到BoTNet[21]工作的啟發(fā),本文選擇通過替換C3_n_m模塊中的BottleNeck為Transformer Encoder的方式將Transformer集成到骨干網(wǎng)絡中,從而能夠借助Transformer架構的優(yōu)勢,提取全局感受野的信息,突破卷積核只能捕獲相鄰特征的限制,減小背景噪聲對模型性能的影響。需要強調的是,本文使用的Transformer Encoder架構與Vision Transformer中的略有不同,由于LN層會影響計數(shù)精度,本文去掉了Layernorm(LN)層。

    考慮到骨干網(wǎng)絡較上層的特征圖擁有更大的分辨率,若將其替換為Transformer架構則需要非常大的計算資源消耗。因此,本文選擇將Transformer架構集成到骨干網(wǎng)絡的最后一個C3_n_m模塊中,命名為C3TR_n。此處的特征圖經(jīng)過了64倍的下采樣,對計算資源的消耗相對較小,如圖2所示。

    2.3 損失函數(shù)選擇

    YOLOv5中使用的定位損失函數(shù)為CIoU(Complete over Union)Loss[22-23],其在DIoU(Distance IoU)Loss[23]的基礎上發(fā)展而來。雖然CIoU Loss從形式上考慮了重疊損失、中心點距離損失和box框的寬高損失,但其寬高損失設計不合理,例如當標注框與預測框的寬高成比例時,寬高損失為0,即退化為DIoU Loss。為解決上述問題,有學者提出了名為EIoU(Efficient IoU)Loss[24]的方法。EIoU Loss同時兼顧了重疊損失、中心點距離損失以及寬高損失,其中重疊損失、中心點距離損失延續(xù)了CIoU Loss中使用的方法,但寬高損失相比CIoU Loss直接最小化了預測框和標注框的寬高差,因此收斂速度更快,效果更好。因此,本文選擇將YOLOv5中使用的CIoU Loss替換為EIoU Loss。

    2.4 優(yōu)化器選擇

    目前大多數(shù)神經(jīng)網(wǎng)絡都是過參數(shù)化的,雖然理論上可以選用合適的訓練算法,使得訓練出來的網(wǎng)絡具有良好的泛化能力[25]。但事實上,網(wǎng)絡通常會選擇“記住”訓練集,即使訓練集的標簽受到了污染,甚至完全錯誤,網(wǎng)絡也能使訓練誤差降低為0[26]。

    目前大多數(shù)訓練損失都是非凸的,即模型存在多個局部和全局極小值,在不同的極小值處,模型的泛化能力也會不同[25]。現(xiàn)有常用的SGD(Stochastic Gradient Descent)、Adam(Adaptive Moment Estimation)[27]、AdamW(Adam with Decoupled Weight Decay)[28]等優(yōu)化器雖然可以讓網(wǎng)絡找到全局最小值,但這些最小值的附近可能是非常陡峭的,即輕微的參數(shù)變化就會大幅影響損失,會降低模型的泛化能力。SAM(Sharpness-Aware Minimization)[25]優(yōu)化器通過同時最小化損失值以及損失值附近的銳度,使網(wǎng)絡的參數(shù)能夠優(yōu)化到損失相對平坦,即附近的參數(shù)也有更低的損失的地方,提高模型在跨域場景下的表現(xiàn)。

    2.5 訓練策略改進

    在模型的訓練過程中,本文使用了多尺度訓練、偽標簽半監(jiān)督學習和測試集增強的策略,提高了模型對不同大小目標的適應性以及在跨域場景下的表現(xiàn)。具體的訓練策略如下:1)使用數(shù)據(jù)增強后的訓練集訓練模型,在此期間,使用多尺度訓練策略隨機調整模型輸入圖像的分辨率。2)使用測試集增強與偽標簽結合的方法給測試集打標簽。3)將訓練集和測試集組合成新的訓練集。4)再次重復(1)~(3)兩次。

    1)多尺度訓練

    由于復賽測試集中的目標相對訓練集較小,這在一定程度上會影響模型的效果。為了解決上述問題,本文在訓練時使用多尺度訓練的策略,提升模型對不同尺度目標的適應性。具體做法是使模型輸入圖像的分辨率在[0.8,]中隨機選取,其中為模型原始輸入分辨率。

    2)偽標簽與測試集增強

    偽標簽[29]是一種半監(jiān)督學習方法,旨在借助無標簽的數(shù)據(jù)來提升有監(jiān)督過程中的模型性能。由于豬舍場景復雜,目標大小不一,使得從已知場景中獲取的訓練集上訓練出的模型難以在未知場景下也擁有較好的性能。通過使用偽標簽方法,可以讓模型學習到測試集的數(shù)據(jù)分布,提升模型在測試集中的表現(xiàn)。

    在生成測試集標簽時,本文使用了測試集增強的方法。具體做法是將輸入圖像的原圖、左右翻轉圖、上下翻轉圖依次送入模型,得到預測結果,然后將這三份預測結果合并,再進行非極大值抑制(Non Maximum Suppression,NMS),得到最終的模型預測結果。雖然使用測試集增強的方法往往能夠獲得更高的模型準確率,但其會大大增加推理時間。因此本文僅在生成測試集偽標簽時使用該策略獲得更加準確的測試集偽標簽,在進行模型性能評估時并不使用測試集增強。

    在循環(huán)迭代訓練過程中,本文對新的訓練集中來自測試集的部分也同樣應用數(shù)據(jù)增強??紤]到模型在偽標簽訓練階段的主要學習對象是測試集的數(shù)據(jù)分布,而數(shù)據(jù)增強的做法通常是打亂數(shù)據(jù)分布,因此區(qū)別與訓練集,本文對測試集使用Mosaic數(shù)據(jù)增強的概率從100%調整到50%,以降低對數(shù)據(jù)分布影響較大的Mosaic數(shù)據(jù)增強的發(fā)生概率。其他超參數(shù)與默認超參數(shù)保持不變。

    2.6 模型訓練設置

    本文試驗不設置驗證集。通常,模型使用訓練集進行訓練,并使用驗證集觀察訓練結果,調整超參數(shù),最后在測試集上進行測試。然而,由于本文試驗所用數(shù)據(jù)集存在跨域問題,即使劃分驗證集,并手動根據(jù)驗證集的結果調整超參數(shù),也無法保證模型能夠在測試集有很好的表現(xiàn),另外,也無法保證與其他模型對比的公平性。因此,本文除偽標簽訓練外,全部使用模型自帶的默認超參數(shù)進行訓練。

    本文所有試驗所用的圖像分辨率默認均調整為1 920×1920,Batch Size為8。所有試驗均使用在COCO數(shù)據(jù)集上訓練的預訓練模型進行遷移學習,所有關于檢測速度的試驗均包括預處理時間、推理時間和后處理時間且均在單張顯卡上進行。

    2.7 評價指標

    在目標檢測方面,全類平均精度(mean Average Precision, mAP)常用于評價目標檢測算法的識別效果,其由準確率(Precision)和召回率(Recall)共同決定,因此,本文選擇mAP@0.5和mAP@0.5:0.95作為評價指標。其中mAP@0.5代表當檢測框與標注框的IoU閾值大于0.5時視為預測正確的mAP;mAP@0.5:0.95指標較為苛刻,其代表選擇不同IoU閾值(0.5, 0.55, … , 0.9, 0.95)的mAP的平均值。在計數(shù)方面,本文選擇均方誤差(Mean Square Errors, MSE)作為評價指標。

    3 結果與分析

    本文所使用的試驗環(huán)境如下,操作系統(tǒng)為Ubuntu18.04,CPU為Intel(R) Xeon(R) Gold 6240 CPU @ 2.60GHz,GPU為NVIDIA Tesla V100 × 4,CUDA 版本為10.2,Python版本為3.8.13,內存為128GB,深度學習框架為PyTorch1.11.0。

    3.1 消融試驗

    為明確不同改進點對模型整體性能的影響,驗證各改進點的有效性,本文設計了消融試驗,分別從網(wǎng)絡、損失函數(shù)、優(yōu)化器、訓練策略多方面測試了改進方法的有效性,如表2所示。從表中可以看出,各個改進點對模型的檢測性能和計數(shù)性能均有提升。在原骨干網(wǎng)絡上集成CBAM模塊和Transformer模塊,模型的mAP@0.5分別提升了2.48個百分點和3.46個百分點,均方誤差分別降低了2.62和6.58;將模型損失函數(shù)改為EIoU,模型的mAP@0.5提升了0.93個百分點,均方誤差降低了2.73。改進后模型的mAP@0.5值從87.67%提升到98.76%,mAP@0.5:0.95值從58.35%提升到68.70%,均方誤差從13.26降低到1.44,這表明改進后的YOLOv5模型的檢測性能和計數(shù)性能均有較大的提升,且在模型參數(shù)量略有增加的前提下依然能接近原模型的計算速度。綜上,本文改進后的模型的在整體性能超越原有模型。

    表2 消融試驗

    注:mAP@0.5 代表當檢測框與標注框的 IoU 閾值大于0.5 時視為預測正確的mAP;mAP@0.5:0.95代表選擇不同 IoU 閾值(0.5, 0.55, … , 0.9, 0.95)的 mAP的平均值;mAP表示全類平均精度。

    Note: mAP@0.5 means that the prediction is correct when the IoU threshold of the detection box and the annotation box is greater than 0.5; mAP@0.5:0.95 means the average value of mAPs with different IoU thresholds (0.5, 0.55, … , 0.9, 0.95); mAP meansmean average precision.

    3.1.1 優(yōu)化器選擇對模型性能的影響

    不同優(yōu)化器的試驗結果如表3所示,選擇 SAM優(yōu)化器后,相較于YOLOv5中使用的SGD優(yōu)化器,模型的mAP@0.5提升了6.03個百分點,mAP@0.5:0.95提升了5.8個百分點,均方誤差降低了8.71,對模型的檢測性能和計數(shù)性能均有所提升。同時,對比Adam優(yōu)化器與AdamW優(yōu)化器,SAM優(yōu)化器在跨域場景中仍有較大優(yōu)勢。本文通過將SGD優(yōu)化器替換為SAM優(yōu)化器,使得模型的參數(shù)優(yōu)化過程具有了銳度感知的能力,提高了模型的泛化能力。

    表3 不同優(yōu)化器的試驗結果

    3.1.2 Transformer選擇對模型性能的影響

    本文對在骨干網(wǎng)絡中是否集成Transformer模塊以及是否集成帶有Layernorm(LN)層的Transformer模塊進行了對比試驗,具體試驗結果如表4所示。

    如表4所示,集成帶有LN層的Transformer模塊后,模型的mAP@0.5提升了3.56個百分點,mAP@0.5:0.95提升了3.43個百分點,均方誤差降低了5.433;集成不帶有LN層的Transformer模塊后,模型的mAP@0.5提升了3.46個百分點,mAP@0.5:0.95提升了2.14個百分點,均方誤差降低了6.58。兩種方案對模型的檢測性能和計數(shù)性能均有所提升,并且降低了模型的參數(shù)量和浮點計算量,但略微影響了檢測速度。兩者相比,帶有LN層的Transformer的檢測精度(mAP@0.5和mAP@0.5:0.95)略高,但計數(shù)精度(MSE)較差。綜合考慮,本文選擇不帶有LN層的Transformer模塊。本文通過集成Transformer模塊,使模型具有提取全局信息的能力,降低了復雜背景噪聲和豬個體輪廓邊界不清楚對模型性能的影響。

    表4 不同骨干網(wǎng)絡的試驗結果

    3.2 與其他模型的對比試驗

    本文選擇了經(jīng)典的Faster RCNN[30]模型、針對密集對象的VarifocalNet[31]模型以及屬于anchor-free的YOLOX(L)[32]模型與本文改進模型進行對比,對比模型均選自mmdetection框架[33]的代碼實現(xiàn)。本文與其他模型的對比試驗詳見表5。

    表5 與其他模型的試驗結果對比

    如表5所示,對比模型均不能很好地應對跨域問題,無論選擇哪種評價指標,本文改進后模型的檢測性能和計數(shù)性能均有較大優(yōu)勢,并且仍然能夠保持相對較快的速度。

    3.3 模型可視化分析與比較

    相較于改進前的模型和其他模型,本文改進后的模型展現(xiàn)出了較強的特征提取能力和泛化能力,即使在跨域場景中也依然能夠準確識別大部分的待測目標,其中部分識別結果的展示對比如圖3所示。其中,場景一和場景二標簽中的目標個數(shù)均為36,F(xiàn)aster RCNN、VarifocalNet、YOLOX(L)、YOLOv5l6、改進后的YOLOv5l6在場景一/場景二檢測到的目標個數(shù)分別為19/27、31/37、32/39、35/35、36/36,與真實值標簽中目標個數(shù)的偏差分別為17/9、5/1、4/3、1/1、0/0。可以看出,本文提出的改進模型無論是與其他模型相比,還是與改進前的模型相比,檢測出的豬只數(shù)量與實際數(shù)量偏差最小,其他模型都有不同程度的漏檢和誤檢。改進后的模型將嚴重遮擋的豬個體和漏檢的小目標豬個體都檢測出來,證明了本文方法改進的有效性。

    圖3 識別結果對比圖

    4 結 論

    真實養(yǎng)殖場景下環(huán)境復雜、條件多變,且豬只遮擋嚴重、個體尺度不一,給豬只自動檢測和計數(shù)帶來了巨大的困難和挑戰(zhàn)。針對這種跨域場景下的復雜目標檢測和計數(shù)問題,本文提出了基于改進YOLOv5的豬個體檢測與計數(shù)模型,結論如下:

    1)在原骨干網(wǎng)絡上集成卷積塊注意力模塊(Convolutional Block Attention Module,CBAM)和Transformer模塊,可分別提高模型對圖像中重要區(qū)域特別是小目標的關注度和全局信息的提取能力,改進之后的模型與原模型相比,mAP@0.5(當檢測框與標注框的IoU閾值大于0.5時視為預測正確的mAP)分別提升了2.48個百分點和3.46個百分點,均方誤差分別降低了2.62和6.58。

    2)將模型損失函數(shù)改進為EIoU(Efficient Intersection over Union)Loss,有效解決了CIoU(Complete Intersection over Union)Loss中寬高損失設計不合理的問題,使得模型mAP@0.5提升了0.93個百分點,均方誤差降低了2.73。

    3)通過采用SAM(Sharpness-Aware Minimization)優(yōu)化器,提高了模型的泛化能力,模型的mAP@0.5提升了6.03個百分點,均方誤差降低了8.71。

    4)通過多尺度訓練和偽標簽與測試集增強相結合的策略的引入,可增強模型對不同尺度目標的適應性,進一步提高了模型在跨域數(shù)據(jù)集上的泛化能力。試驗結果證明了本文改進后的模型展現(xiàn)了較強的特征提取能力和泛化能力,即使在跨域場景中依然能夠準確識別大部分的待測目標。

    本文的方法也存在不足,在跨域場景中仍有少部分特別密集和嚴重遮擋的場景,但由于非極大值抑制過程的缺陷,使得預測框之間相互抑制造成漏檢,這部分工作將是本文未來的研究重點。

    [1] 俞燃. 基于深度學習的哺乳期豬只目標檢測與姿態(tài)識別[D]. 哈爾濱:東北農業(yè)大學,2021.

    Yu Ran. Object Detection and Pose Recognition of Suckling Pigs Based on Deep Learning[D]. Harbin: Northeast Agricultural University, 2021. (in Chinese with English abstract)

    [2] 熊本海,楊亮,鄭姍姍,等. 哺乳母豬精準飼喂下料控制系統(tǒng)的設計與試驗[J]. 農業(yè)工程學報,2017,33(20):177-182.

    Xiong Benhai, Yang Liang, Zheng Shanshan, et al. Design and test of precise blanking control system for lactating sows[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2017, 33(20): 177-182. (in Chinese with English abstract)

    [3] 李靜. 基于深度學習的群豬盤點算法研究[D]. 武漢:華中農業(yè)大學,2021.

    Li Jing. Research on Pig Herd Counting Based on Deep Learning[D]. Wuhan: Huazhong Agricultural University, 2021. (in Chinese with English abstract)

    [4] 高云,李靜,余梅,等. 基于多尺度感知的高密度豬只計數(shù)網(wǎng)絡研究[J]. 農業(yè)機械學報,2021,52(9):172-178.

    Gao Yun, Li Jing, Yu Mei, et al. High-density Pig Counting Net Based on Multi-scale Aware[J]. Transactions of the Chinese Society for Agricultural Engineering, 2021, 52(9): 172-178. (in Chinese with English abstract)

    [5] Guo H, Ma X, Ma Q, et al. LSSA_CAU: An interactive 3d point clouds analysis software for body measurement of livestock with similar forms of cows or pigs[J]. Computers and Electronics in Agriculture, 2017, 138: 60-68.

    [6] Ahn H, Son S, Kim H, et al. EnsemblePigDet: Ensemble deep learning for accurate pig detection[J]. Applied Sciences, 2021, 11(12): 5577.

    [7] 黎袁富,杜家豪,莫家浩,等. 基于YOLOX的魚苗檢測與計數(shù)[J]. 電子元器件與信息技術,2022,6(5):192-4.

    [8] 李菊霞,李艷文,牛帆,等. 基于YOLOv4的豬只飲食行為檢測方法[J]. 農業(yè)機械學報,2021,(3):251-256.

    Li Juxia, Li Yanwen, Niu Fan, et al. Pig diet behavior detection method based on YOLOv4[J]. Transactions of the Chinese Society for Agricultural Machinery, 2021, (3): 251-256. (in Chinese with English abstract)

    [9] Liu D, Oczak M, Maschat K, et al. A computer vision-based method for spatial-temporal action recognition of tail-biting behaviour in group-housed pigs[J]. Biosystems Engineering, 2020, 195: 27-41.

    [10] Zhang Y, Cai J, Xiao D, et al. Real-time sow behavior detection based on deep learning[J]. Computers and Electronics in Agriculture, 2019, 163: 104884.

    [11] 薛月菊,朱勛沐,鄭嬋,等. 基于改進Faster R-CNN識別深度視頻圖像哺乳母豬姿態(tài)[J]. 農業(yè)工程學報,2018,34(9):189-196.

    Xue Yueju, Zhu Xunmu, Zheng Chan, et al. Lactating sow postures recognition from depth image of videos based on improved Faster R-CNN[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2018, 34(9): 189-196. (in Chinese with English abstract)

    [12] 董力中,孟祥寶,潘明,等. 基于姿態(tài)與時序特征的豬只行為識別方法[J]. 農業(yè)工程學報,2022,38(5):148-157.

    Dong Lizhong, Meng Xiangbao, Pan Ming, et al. Recognizing pig behavior on posture and temporal features using computer vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(5): 148-157. (in Chinese with English abstract)

    [13] 劉亞婧. 圖像識別的跨域技術研究[D]. 合肥:中國科學技術大學,2022.

    Liu Yajing. Cross-Domain Technology Development for Image Recognition[D]. Hefei: University of Science and Technology of China, 2022. (in Chinese with English abstract)

    [14] 科大訊飛. 豬只盤點挑戰(zhàn)賽[EB/OL]. 2021-10-24[2022-07-01]. http://challenge.xfyun.cn/topic/info?type= pig-check.

    [15] Bochkovskiy A, Wang C Y, Liao H. YOLOv4: Optimal speed and accuracy of object detection[EB/OL]. 2020-04-23 [2022-07-01]. https://arxiv.org/abs/2004.10934.

    [16] Zhang H, Cisse M, Dauphin Y N, et al. mixup: Beyond empirical risk minimization[EB/OL]. 2018-04-27 [2022-07-01]. https://arxiv.org/abs/1710.09412.

    [17] Jocher G. Ultralytics/yolov5: v6.1 - tensorrt, tensorflow edge tpu and openvino export and inference[EB/OL]. 2022-02-22[2022-07-01]. https://github.com/ultralytics/yolov5.

    [18] Woo S, Park J, Lee J-Y, et al. Cbam: Convolutional block attention module[C]//Proceedings of the European conference on computer vision (ECCV). Munich, Germany: Springer, 2018: 3-19.

    [19] Dosovitskiy A, Beyer L, Kolesnikov A, et al. An image is worth 16x16 words: Transformers for image recognition at scale[EB/OL]. 2021-06-03[2022-07-01]. https://arxiv.org/ abs/2010.11929.

    [20] Carion N, Massa F, Synnaeve G, et al. End-to-end object detection with transformers[C]//Proceedings of the European conference on computer vision (ECCV). Online: Springer, 2020: 213-29.

    [21] Srinivas A, Lin T-Y, Parmar N, et al. Bottleneck transformers for visual recognition[C]//Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. Online: IEEE, 2021: 16519- 16529.

    [22] Zheng Z, Wang P, Ren D, et al. Enhancing geometric factors in model learning and inference for object detection and instance segmentation[EB/OL]. 2021-07-05[2022-07-01]. https://arxiv.org/abs/2005.03572.

    [23] Zheng Z, Wang P, Liu W, et al. Distance-IoU loss: Faster and better learning for bounding box regression[C]//Proceedings of the AAAI conference on artificial intelligence. New York, USA: AAAI Press, 2020: 12993-3000.

    [24] Zhang Y-F, Ren W, Zhang Z, et al. Focal and efficient IOU loss for accurate bounding box regression[EB/OL]. 2021-01-20[2022-07-01]. https://arxiv.org/abs/2101.08158.

    [25] Foret P, Kleiner A, Mobahi H, et al. Sharpness-aware minimization for efficiently improving generalization[EB/OL]. 2021-04-29[2022-07-01]. https://arxiv.org/abs/2010.01412.

    [26] Zhang C, Bengio S, Hardt M, et al. Understanding deep learning requires rethinking generalization[EB/OL]. 2017-02-26[2022-07-01]. https://arxiv.org/abs/1611.03530.

    [27] Kingma D P, Ba J. Adam: A method for stochastic optimization[EB/OL]. 2017-01-30[2022-07-01]. https://arxiv.org/ abs/1412.6980.

    [28] Loshchilov I, Hutter F. Decoupled weight decay regularization[EB/OL]. 2019-01-04[2022-07-01]. https://arxiv.org/ abs/1711.05101.

    [29] Lee D-H. Pseudo-label: The simple and efficient semi- supervised learning method for deep neural networks[C]// Workshop on challenges in representation learning, ICML. Atlanta, USA: IMLS, 2013: 896.

    [30] Ren S, He K, Girshick R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

    [31] Zhang H, Wang Y, Dayoub F, et al. Varifocalnet: An iou-aware dense object detector[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Online: IEEE, 2021: 8514-23.

    [32] Ge Z, Liu S, Wang F, et al. Yolox: Exceeding yolo series in 2021[EB/OL]. 2021-08-06[2022-07-01]. https://arxiv.org/abs/ 2107.08430.

    [33] Chen K, Wang J, Pang J, et al. MMDetection: Open mmlab detection toolbox and benchmark[EB/OL]. 2019-06-17 [2022-07-01]. https://arxiv.org/abs/1906.07155.

    Detecting and counting pig number using improved YOLOv5 in complex scenes

    Ning Yuanlin1, Yang Ying1※, Li Zhenbo1,2,3, Wu Xiao1, Zhang Qian1

    (1.,,100083,; 2.,100083,; 3.,100083,)

    The number of pigs in the shed often varies continuously in large-scale breeding scenes, due to the elimination, sale, and death. It is necessary to count the number of pigs during breeding. At the same time, the health status of the pigs is closely related to their behavior. The abnormal behavior can be predicted in time from the normal behavior of pigs for better economic benefits. Object detection can be expected to detect and count at the same time. The detection can be the basis of behavioral analysis. However, the current detection and counting performance can be confined to the blur cross-domain at the different shooting angles and distances in the complex environment of various pig houses.In this study, a novel model was proposed for pig individual detection and counting using an improved YOLOv5(You Only Look Once Version 5) in the complex cross-domain scenes. The study integrated CBAM (Convolutional Block Attention Module), a module that combined both channel and spatial attention modules, in the backbone network, and integrated the Transformer, a self-attention module, in the backbone network, and replaced CIoU(Complete IoU) Loss by EIoU(Efficient IoU) Loss, and introduced the SAM (Sharpness-Aware Minimization) optimizer and training strategies for multi-scale training, pseudo-label semi-supervised learning, and test set augment. The experimental results showed that these improvements enabled the model to better focus on the important areas in the image, broke the barrier that traditional convolution can only extract adjacent information within the convolution kernel, enhanced the feature extraction ability, and improved the localization accuracy of the model and the adaptability of the model to different object sizes and different pig house environments, thus improving the performance of the model in cross-domain scenes. In order to verify the effectiveness of the above improved methods, this paper used datasets from real scenes. There was cross-domain between these datasets, not only in the background environment, but also in the object size and the aspect ratio of the object itself. Sufficient ablation experiments showed that the improved methods used in this paper were effective. Whether integrating CBAM, integrating Transformer, using EIoU Loss, using SAM optimizer, using multi-scale training, or using a combination of pseudo-label semi-supervised learning and test set augment, the mAP (mean Average Precision) @0.5 values, the mAP@0.5:0.95 values and the MSE (Mean Square Errors) of the model where improved to varying degrees. After integrating all improvement methods, the mAP@0.5 value of the improved model was increased from 87.67% to 98.76%, the mAP@0.5:0.95 value was increased from 58.35% to 68.70%, and the MSE was reduced from 13.26 to 1.44. Compared with the classic Faster RCNN model, the VarifocalNet model for dense object detection and the YOLOX model belong to anchor-free, the detection performance and counting performance of the improved model in this paper had greater advantages regardless of which evaluation metric was chosen, and was still able to maintain a relatively fast speed. The results showed that the improved model in this paper exhibited strong feature extraction and generalization ability, and could still accurately identify most of the objects to be tested even in cross-domain scenes. The above research results demonstrated that the improved method in this paper could significantly improve the object detection effect of the existing model in complex cross-domain scenes and increase the accuracy of object detection and counting, so as to provide technical support for improving the production efficiency of large-scale pig breeding and reducing production costs.

    models; computer vision; object detection; counting; attention mechanism; semi-supervised learning

    10.11975/j.issn.1002-6819.2022.17.018

    S126

    A

    1002-6819(2022)-17-0168-08

    寧遠霖,楊穎,李振波,等. 基于改進YOLOv5的復雜跨域場景下的豬個體識別與計數(shù)[J]. 農業(yè)工程學報,2022,38(17):168-175.doi:10.11975/j.issn.1002-6819.2022.17.018 http://www.tcsae.org

    Ning Yuanlin, Yang Ying, Li Zhenbo, et al. Detecting and counting pig number using improved YOLOv5 in complex scenes[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(17): 168-175. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2022.17.018 http://www.tcsae.org

    2022-08-08

    2022-08-28

    科技創(chuàng)新2030-“新一代人工智能”重大項目課題-典型畜禽疫病診斷與主動防控智慧云平臺(2021ZD0113805)

    寧遠霖,研究方向為計算機視覺。Email:c2605759123@163.com

    楊穎,博士,副教授,研究方向為計算機視覺、模式識別和語音識別等。Email:hbxtyy@126.com

    猜你喜歡
    跨域豬只計數(shù)
    跨域異構體系對抗聯(lián)合仿真試驗平臺
    降低日糧粗蛋白并添加單體氨基酸對斷奶—育肥豬生長性能和營養(yǎng)排泄的影響(中)
    基于多標簽協(xié)同學習的跨域行人重識別
    為群眾辦實事,嶗山區(qū)打出“跨域通辦”組合拳
    讀報參考(2022年1期)2022-04-25 00:01:16
    古人計數(shù)
    G-SRv6 Policy在跨域端到端組網(wǎng)中的應用
    科學家(2021年24期)2021-04-25 13:25:34
    豬胃潰瘍的病因與防治措施
    遞歸計數(shù)的六種方式
    古代的計數(shù)方法
    秋冬季防應激不可忽略飲水消毒
    伊人亚洲综合成人网| 校园人妻丝袜中文字幕| 丁香六月天网| 91aial.com中文字幕在线观看| 亚洲精品日本国产第一区| av有码第一页| 制服人妻中文乱码| 国产又爽黄色视频| 亚洲美女视频黄频| 老汉色∧v一级毛片| 亚洲一码二码三码区别大吗| 国精品久久久久久国模美| 少妇被粗大的猛进出69影院| av片东京热男人的天堂| 国产成人欧美| 边亲边吃奶的免费视频| 99久久综合免费| 看免费成人av毛片| 久久热在线av| 国产午夜精品一二区理论片| 日韩三级伦理在线观看| av线在线观看网站| 欧美日韩精品成人综合77777| 麻豆乱淫一区二区| 成人毛片a级毛片在线播放| 亚洲欧美清纯卡通| 五月开心婷婷网| 亚洲 欧美一区二区三区| 午夜福利,免费看| 在线观看国产h片| 国产午夜精品一二区理论片| 多毛熟女@视频| 在线观看免费视频网站a站| 可以免费在线观看a视频的电影网站 | a级片在线免费高清观看视频| 一边亲一边摸免费视频| tube8黄色片| 最近最新中文字幕免费大全7| 久久精品国产亚洲av天美| 免费观看a级毛片全部| 韩国高清视频一区二区三区| 9191精品国产免费久久| 天天躁日日躁夜夜躁夜夜| 一区二区av电影网| 精品国产乱码久久久久久男人| 国产一区有黄有色的免费视频| 一本大道久久a久久精品| 天天影视国产精品| 久久久久国产一级毛片高清牌| 巨乳人妻的诱惑在线观看| 久久久久视频综合| 亚洲三级黄色毛片| 男女高潮啪啪啪动态图| 免费看不卡的av| 成人18禁高潮啪啪吃奶动态图| 国产毛片在线视频| 在线观看一区二区三区激情| 国产 精品1| 国产综合精华液| 视频区图区小说| 亚洲一码二码三码区别大吗| 90打野战视频偷拍视频| 最近手机中文字幕大全| 美女大奶头黄色视频| 国产精品国产三级国产专区5o| 大香蕉久久成人网| 久久久久久人人人人人| 七月丁香在线播放| 国产精品久久久av美女十八| 亚洲精品国产一区二区精华液| 午夜福利一区二区在线看| 成人18禁高潮啪啪吃奶动态图| 亚洲国产日韩一区二区| 咕卡用的链子| 久久99一区二区三区| 国产成人aa在线观看| 91aial.com中文字幕在线观看| 男人舔女人的私密视频| 免费不卡的大黄色大毛片视频在线观看| 18+在线观看网站| 国产在线视频一区二区| 亚洲中文av在线| 春色校园在线视频观看| 日韩av在线免费看完整版不卡| 久久精品久久久久久久性| 一区在线观看完整版| 精品亚洲乱码少妇综合久久| 十分钟在线观看高清视频www| 久久久国产欧美日韩av| 欧美另类一区| 看免费成人av毛片| 午夜福利影视在线免费观看| 电影成人av| 狠狠精品人妻久久久久久综合| 性少妇av在线| 久久精品aⅴ一区二区三区四区 | 成人漫画全彩无遮挡| 国产白丝娇喘喷水9色精品| 又黄又粗又硬又大视频| 亚洲精品视频女| 国产精品蜜桃在线观看| 最近最新中文字幕免费大全7| 成年动漫av网址| 亚洲 欧美一区二区三区| 日本免费在线观看一区| 欧美精品亚洲一区二区| 五月伊人婷婷丁香| 在线观看人妻少妇| 欧美日韩亚洲国产一区二区在线观看 | 欧美97在线视频| 精品少妇久久久久久888优播| 国产av码专区亚洲av| 亚洲精品成人av观看孕妇| 久久久久精品久久久久真实原创| 国产日韩欧美在线精品| 久久久久久久久免费视频了| 校园人妻丝袜中文字幕| 国产探花极品一区二区| 亚洲精品国产av成人精品| 1024视频免费在线观看| 飞空精品影院首页| 亚洲综合色网址| 捣出白浆h1v1| 国产老妇伦熟女老妇高清| av免费观看日本| 成年动漫av网址| 热re99久久国产66热| 国产成人精品无人区| 飞空精品影院首页| 免费久久久久久久精品成人欧美视频| 久久久久国产网址| 国产 精品1| 精品一区二区免费观看| 亚洲视频免费观看视频| 亚洲综合精品二区| 国产 一区精品| 精品国产一区二区三区四区第35| 日本爱情动作片www.在线观看| 亚洲精品aⅴ在线观看| 中文字幕制服av| 中文字幕亚洲精品专区| 在线观看www视频免费| 丝袜脚勾引网站| 国产免费一区二区三区四区乱码| 天堂8中文在线网| 黑人猛操日本美女一级片| 日本-黄色视频高清免费观看| 男人舔女人的私密视频| 久久久久久久精品精品| 亚洲av中文av极速乱| 精品国产一区二区三区四区第35| 一级毛片我不卡| 久久久久精品久久久久真实原创| 欧美人与善性xxx| 秋霞在线观看毛片| 一级片'在线观看视频| 一级片免费观看大全| 亚洲精品aⅴ在线观看| 免费观看av网站的网址| 国产精品.久久久| 一本一本久久a久久精品综合妖精 国产伦在线观看视频一区 | 久久av网站| 久久久久国产精品人妻一区二区| 日日撸夜夜添| 老司机影院毛片| 亚洲伊人色综图| 99九九在线精品视频| 成人国产麻豆网| 亚洲中文av在线| 熟妇人妻不卡中文字幕| 日本爱情动作片www.在线观看| 街头女战士在线观看网站| 亚洲视频免费观看视频| 一级黄片播放器| 成人影院久久| 国产黄色免费在线视频| 亚洲精华国产精华液的使用体验| 亚洲欧美一区二区三区国产| 色哟哟·www| 成人毛片a级毛片在线播放| 男女无遮挡免费网站观看| 免费日韩欧美在线观看| 69精品国产乱码久久久| 国产亚洲精品第一综合不卡| 午夜日韩欧美国产| 成人免费观看视频高清| 不卡av一区二区三区| 少妇人妻 视频| 亚洲中文av在线| 欧美成人午夜免费资源| 王馨瑶露胸无遮挡在线观看| 久久久精品国产亚洲av高清涩受| 性高湖久久久久久久久免费观看| 精品99又大又爽又粗少妇毛片| 综合色丁香网| 亚洲国产最新在线播放| freevideosex欧美| 97在线人人人人妻| av一本久久久久| 丝袜人妻中文字幕| av在线老鸭窝| 天美传媒精品一区二区| 精品国产一区二区三区四区第35| 欧美国产精品va在线观看不卡| 国产 一区精品| 秋霞伦理黄片| 精品国产国语对白av| 亚洲激情五月婷婷啪啪| 91成人精品电影| 亚洲精品中文字幕在线视频| 精品亚洲成国产av| 尾随美女入室| 亚洲av中文av极速乱| 国产一区二区在线观看av| 高清视频免费观看一区二区| 亚洲av免费高清在线观看| 精品国产一区二区久久| 国产在线视频一区二区| 韩国av在线不卡| 日韩三级伦理在线观看| 国产精品.久久久| 久久久精品区二区三区| 97在线视频观看| 香蕉国产在线看| 国产又爽黄色视频| 精品卡一卡二卡四卡免费| 亚洲美女黄色视频免费看| 成年动漫av网址| 中文字幕精品免费在线观看视频| 中文欧美无线码| 少妇被粗大的猛进出69影院| 一区二区三区激情视频| 久久久精品94久久精品| 亚洲第一区二区三区不卡| 欧美成人午夜免费资源| 久久青草综合色| 免费高清在线观看视频在线观看| 亚洲国产看品久久| 99热全是精品| www.熟女人妻精品国产| 寂寞人妻少妇视频99o| 黑人巨大精品欧美一区二区蜜桃| 成人18禁高潮啪啪吃奶动态图| 纵有疾风起免费观看全集完整版| 91成人精品电影| 91精品伊人久久大香线蕉| 亚洲熟女精品中文字幕| 亚洲视频免费观看视频| 国产成人aa在线观看| 2018国产大陆天天弄谢| 一级毛片黄色毛片免费观看视频| 日韩视频在线欧美| 99久国产av精品国产电影| 国产97色在线日韩免费| 欧美日韩一级在线毛片| 成年女人毛片免费观看观看9 | 18+在线观看网站| 熟妇人妻不卡中文字幕| 99久久综合免费| 色吧在线观看| 精品人妻熟女毛片av久久网站| 天堂俺去俺来也www色官网| 制服人妻中文乱码| 免费人妻精品一区二区三区视频| av视频免费观看在线观看| 一级黄片播放器| 午夜91福利影院| 不卡av一区二区三区| 国产精品久久久久成人av| 我要看黄色一级片免费的| 下体分泌物呈黄色| 不卡av一区二区三区| 另类精品久久| 亚洲国产成人一精品久久久| 亚洲av免费高清在线观看| √禁漫天堂资源中文www| 男女边摸边吃奶| 在线精品无人区一区二区三| 国产精品久久久久久精品古装| 亚洲精品久久午夜乱码| 视频区图区小说| 精品国产一区二区三区久久久樱花| 国产野战对白在线观看| 国产精品久久久久久精品电影小说| 亚洲av成人精品一二三区| 亚洲中文av在线| 91成人精品电影| 婷婷成人精品国产| 午夜福利视频精品| 免费不卡的大黄色大毛片视频在线观看| 一级毛片黄色毛片免费观看视频| 亚洲第一av免费看| 久久精品夜色国产| 日韩成人av中文字幕在线观看| 欧美日韩视频精品一区| 老汉色av国产亚洲站长工具| 国产在线一区二区三区精| 欧美 亚洲 国产 日韩一| 啦啦啦在线观看免费高清www| 1024视频免费在线观看| 中文字幕另类日韩欧美亚洲嫩草| 午夜影院在线不卡| 99热全是精品| 高清不卡的av网站| 亚洲av男天堂| 亚洲av国产av综合av卡| 免费观看在线日韩| 午夜福利一区二区在线看| 黄色 视频免费看| 色播在线永久视频| 国产亚洲午夜精品一区二区久久| 精品一区二区三区四区五区乱码 | 水蜜桃什么品种好| 久久影院123| 国产成人免费观看mmmm| 日本午夜av视频| 欧美日韩一区二区视频在线观看视频在线| h视频一区二区三区| 老汉色∧v一级毛片| av电影中文网址| 国产精品一区二区在线不卡| 最新中文字幕久久久久| 国产成人精品无人区| 熟女av电影| av在线app专区| 亚洲五月色婷婷综合| videossex国产| 自拍欧美九色日韩亚洲蝌蚪91| 亚洲一区二区三区欧美精品| 看十八女毛片水多多多| 日本欧美视频一区| 亚洲av综合色区一区| 午夜老司机福利剧场| 日本vs欧美在线观看视频| 久久免费观看电影| videosex国产| 午夜免费观看性视频| 18禁动态无遮挡网站| 老司机亚洲免费影院| 9色porny在线观看| 久久久久视频综合| av免费观看日本| 国产女主播在线喷水免费视频网站| 十八禁网站网址无遮挡| 精品国产一区二区三区四区第35| 国产成人欧美| 成年人午夜在线观看视频| 啦啦啦中文免费视频观看日本| 亚洲精品乱久久久久久| 日本av免费视频播放| 成年美女黄网站色视频大全免费| 国产精品二区激情视频| 久久国产精品男人的天堂亚洲| 久久久久久免费高清国产稀缺| 欧美日韩国产mv在线观看视频| 中国三级夫妇交换| 男女啪啪激烈高潮av片| 欧美在线黄色| 又黄又粗又硬又大视频| av国产精品久久久久影院| 夫妻午夜视频| 自拍欧美九色日韩亚洲蝌蚪91| 日韩中字成人| av在线观看视频网站免费| 免费观看av网站的网址| 亚洲欧美一区二区三区黑人 | 精品国产乱码久久久久久小说| 人人妻人人澡人人看| 精品久久久久久电影网| 十分钟在线观看高清视频www| 久久久久久久久免费视频了| 性色av一级| 新久久久久国产一级毛片| 久久久欧美国产精品| 在线天堂中文资源库| 国产有黄有色有爽视频| 交换朋友夫妻互换小说| 男女下面插进去视频免费观看| 性高湖久久久久久久久免费观看| 免费在线观看完整版高清| 精品人妻在线不人妻| 人人妻人人爽人人添夜夜欢视频| 精品一品国产午夜福利视频| 97在线人人人人妻| 亚洲国产成人一精品久久久| 三级国产精品片| 国产精品免费视频内射| 亚洲国产色片| 性色avwww在线观看| 国产成人a∨麻豆精品| 午夜91福利影院| av不卡在线播放| 黄网站色视频无遮挡免费观看| 自线自在国产av| www.av在线官网国产| 国产成人精品无人区| 免费观看a级毛片全部| 91在线精品国自产拍蜜月| 亚洲av电影在线观看一区二区三区| 男女边吃奶边做爰视频| 国产精品女同一区二区软件| 一级毛片电影观看| 亚洲精品国产色婷婷电影| www.熟女人妻精品国产| 久久精品久久精品一区二区三区| 日本av手机在线免费观看| 美女xxoo啪啪120秒动态图| www.熟女人妻精品国产| 激情五月婷婷亚洲| av天堂久久9| 久久ye,这里只有精品| 亚洲精品国产色婷婷电影| 男女边吃奶边做爰视频| 午夜久久久在线观看| 亚洲一级一片aⅴ在线观看| 精品久久久久久电影网| 亚洲国产av新网站| 国产欧美日韩综合在线一区二区| 成人黄色视频免费在线看| 男人操女人黄网站| 哪个播放器可以免费观看大片| 国产黄频视频在线观看| 国产精品秋霞免费鲁丝片| 一区二区av电影网| 一区二区av电影网| 十分钟在线观看高清视频www| 99热网站在线观看| av片东京热男人的天堂| 可以免费在线观看a视频的电影网站 | 999久久久国产精品视频| 在线亚洲精品国产二区图片欧美| 久久久久久久大尺度免费视频| 久久久久久久国产电影| av线在线观看网站| 日本91视频免费播放| 一个人免费看片子| 少妇精品久久久久久久| 精品人妻熟女毛片av久久网站| 国产欧美亚洲国产| 精品国产一区二区三区久久久樱花| 日韩人妻精品一区2区三区| 汤姆久久久久久久影院中文字幕| 免费高清在线观看视频在线观看| 两性夫妻黄色片| 欧美精品一区二区免费开放| 国产精品人妻久久久影院| 国产精品免费大片| 欧美少妇被猛烈插入视频| 国产人伦9x9x在线观看 | 激情视频va一区二区三区| 中文乱码字字幕精品一区二区三区| 秋霞在线观看毛片| 亚洲国产欧美日韩在线播放| 久久久久久人人人人人| 国产午夜精品一二区理论片| 中文字幕人妻丝袜一区二区 | 热re99久久国产66热| 国产日韩欧美视频二区| 色吧在线观看| 18在线观看网站| 亚洲天堂av无毛| 亚洲欧洲国产日韩| 日本wwww免费看| 桃花免费在线播放| 又粗又硬又长又爽又黄的视频| www.精华液| 色视频在线一区二区三区| 国产免费一区二区三区四区乱码| 免费日韩欧美在线观看| 一级黄片播放器| 久久久久久久国产电影| tube8黄色片| 国产精品不卡视频一区二区| 在线天堂中文资源库| 中文字幕另类日韩欧美亚洲嫩草| 男女下面插进去视频免费观看| 大香蕉久久成人网| 日韩一卡2卡3卡4卡2021年| av在线播放精品| 2021少妇久久久久久久久久久| 久久人人爽人人片av| 女人高潮潮喷娇喘18禁视频| 国产一区二区激情短视频 | 亚洲一级一片aⅴ在线观看| 多毛熟女@视频| 男人爽女人下面视频在线观看| 在线观看www视频免费| 国产亚洲精品第一综合不卡| 少妇被粗大的猛进出69影院| 国产成人精品久久二区二区91 | 男女下面插进去视频免费观看| 国产精品偷伦视频观看了| av免费在线看不卡| 黄片播放在线免费| 成年av动漫网址| 最新的欧美精品一区二区| www.精华液| 少妇 在线观看| 国产精品国产av在线观看| 老鸭窝网址在线观看| 日日爽夜夜爽网站| 九九爱精品视频在线观看| 久久久欧美国产精品| 大陆偷拍与自拍| 最黄视频免费看| 黑人猛操日本美女一级片| 国产无遮挡羞羞视频在线观看| 波野结衣二区三区在线| 精品少妇久久久久久888优播| 欧美亚洲日本最大视频资源| 9191精品国产免费久久| 在线观看人妻少妇| 视频在线观看一区二区三区| 国产av国产精品国产| 国产成人一区二区在线| 高清av免费在线| 久久精品熟女亚洲av麻豆精品| 少妇被粗大猛烈的视频| 妹子高潮喷水视频| 欧美精品一区二区大全| 午夜福利影视在线免费观看| 精品酒店卫生间| 国产免费视频播放在线视频| 尾随美女入室| 搡老乐熟女国产| 欧美97在线视频| 精品午夜福利在线看| 久久精品国产亚洲av天美| 天堂中文最新版在线下载| 一级毛片电影观看| 伊人久久大香线蕉亚洲五| 丝袜人妻中文字幕| 一本大道久久a久久精品| 午夜福利在线免费观看网站| 丰满迷人的少妇在线观看| av视频免费观看在线观看| 国产一区二区在线观看av| 女人高潮潮喷娇喘18禁视频| 亚洲成国产人片在线观看| 涩涩av久久男人的天堂| 性少妇av在线| 精品亚洲乱码少妇综合久久| 亚洲欧美成人综合另类久久久| 天堂俺去俺来也www色官网| 欧美日韩一级在线毛片| 欧美成人精品欧美一级黄| 男的添女的下面高潮视频| 9热在线视频观看99| 亚洲人成77777在线视频| 啦啦啦在线免费观看视频4| 久热这里只有精品99| 日本猛色少妇xxxxx猛交久久| 欧美av亚洲av综合av国产av | 99久久精品国产国产毛片| 在线看a的网站| 91在线精品国自产拍蜜月| 久久精品国产亚洲av天美| 日韩制服骚丝袜av| 美女视频免费永久观看网站| av.在线天堂| 精品国产国语对白av| 久久久国产欧美日韩av| 日韩伦理黄色片| 国产深夜福利视频在线观看| 国产精品无大码| 不卡av一区二区三区| 国产av码专区亚洲av| 一级毛片电影观看| 在线观看人妻少妇| 日韩制服骚丝袜av| 欧美97在线视频| 中文字幕最新亚洲高清| 老汉色av国产亚洲站长工具| 一级毛片我不卡| 最近中文字幕2019免费版| 老司机亚洲免费影院| 男女啪啪激烈高潮av片| 亚洲欧美一区二区三区国产| 国产精品偷伦视频观看了| 晚上一个人看的免费电影| 免费播放大片免费观看视频在线观看| 在线亚洲精品国产二区图片欧美| 少妇人妻 视频| 国产野战对白在线观看| 有码 亚洲区| 国产一区二区三区综合在线观看| 亚洲精品av麻豆狂野| 亚洲人成电影观看| 午夜福利影视在线免费观看| 国产成人精品福利久久| 欧美 亚洲 国产 日韩一| 成年人免费黄色播放视频| 国产1区2区3区精品| 亚洲成色77777| av国产久精品久网站免费入址| 男女免费视频国产| 亚洲成人一二三区av| 哪个播放器可以免费观看大片| 亚洲美女搞黄在线观看| 国产一区亚洲一区在线观看| 考比视频在线观看| 欧美精品av麻豆av| www.av在线官网国产| 又黄又粗又硬又大视频| 欧美精品人与动牲交sv欧美| 韩国高清视频一区二区三区| 青草久久国产| 性色av一级| 亚洲成国产人片在线观看| 男女无遮挡免费网站观看| av一本久久久久| 午夜福利,免费看| 美女福利国产在线| 国产一区二区激情短视频 | 极品人妻少妇av视频|