• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于TPH-YOLO的無人機(jī)圖像麥穗計(jì)數(shù)方法

    2023-03-31 03:29:42鮑文霞謝文杰胡根生楊先軍蘇彪彪
    農(nóng)業(yè)工程學(xué)報 2023年1期
    關(guān)鍵詞:檢測模型研究

    鮑文霞,謝文杰,胡根生,楊先軍,蘇彪彪

    基于TPH-YOLO的無人機(jī)圖像麥穗計(jì)數(shù)方法

    鮑文霞1,謝文杰1,胡根生1,楊先軍2※,蘇彪彪1

    (1. 安徽大學(xué)農(nóng)業(yè)生態(tài)大數(shù)據(jù)分析與應(yīng)用技術(shù)國家地方聯(lián)合工程研究中心,合肥 230601;2. 中國科學(xué)院合肥物質(zhì)科學(xué)研究院,合肥,230031)

    在無人機(jī)上安裝光學(xué)傳感器捕捉農(nóng)作物圖像是一種經(jīng)濟(jì)高效的方法,它有助于產(chǎn)量預(yù)測、田間管理等。該研究以無人機(jī)小麥作物圖像為研究對象,針對圖像中麥穗分布稠密、重疊現(xiàn)象嚴(yán)重、背景信息復(fù)雜等特點(diǎn),設(shè)計(jì)了一種基于TPH-YOLO(YOLO with transformer prediction heads)的麥穗檢測模型,提高無人機(jī)圖像麥穗計(jì)數(shù)的精度。首先,為了減小光照不均勻?qū)o人機(jī)圖像質(zhì)量造成的影響,該研究采用Retinex算法進(jìn)行圖像增強(qiáng)處理。其次,在YOLOv5的骨干網(wǎng)絡(luò)中添加坐標(biāo)注意力機(jī)制(coordinate attention,CA),使模型細(xì)化特征,更加關(guān)注麥穗信息,抑制麥稈、麥葉等一些背景因素的干擾。再次,將YOLOv5中原始的預(yù)測頭轉(zhuǎn)換為Transformer預(yù)測頭(transformer prediction heads,TPH),該預(yù)測頭具有多頭注意力機(jī)制的預(yù)測潛力,可以在高密度場景下準(zhǔn)確定位到麥穗。最后,為了提高模型的泛化能力和檢測精度,采用了遷移學(xué)習(xí)的訓(xùn)練策略,先使用田間采集的小麥圖像數(shù)據(jù)集對模型進(jìn)行預(yù)訓(xùn)練,接著再使用無人機(jī)采集的小麥圖像數(shù)據(jù)集對模型進(jìn)行參數(shù)更新和優(yōu)化訓(xùn)練,并在無人機(jī)采集的小麥圖像數(shù)據(jù)集上進(jìn)行了試驗(yàn)。結(jié)果表明,該研究方法精確率、召回率及平均精確率分別為87.2%、84.1%和88.8%,相較于基礎(chǔ)的YOLOv5平均精確率提高4.1個百分點(diǎn),性能優(yōu)于SSD、Faster-RCNN、CenterNet、YOLOv5等目標(biāo)檢測模型。此外,該研究利用公開數(shù)據(jù)集Global Wheat Head Detection(GWHD)在不同目標(biāo)檢測模型上進(jìn)行對比試驗(yàn),該數(shù)據(jù)集的小麥樣本是多樣的和典型的,與SSD、Faster-RCNN、CenterNet和YOLOv5等模型相比,平均精確率分別提升11.1、5.4、6.9和3.3個百分點(diǎn),進(jìn)一步驗(yàn)證了該研究所提方法的可靠性和有效性,研究結(jié)果可以為小麥的產(chǎn)量預(yù)測提供支撐。

    無人機(jī);圖像處理;麥穗計(jì)數(shù);YOLOv5;注意力機(jī)制;transformer編碼器;遷移學(xué)習(xí)

    0 引 言

    小麥?zhǔn)侵匾霓r(nóng)作物品種之一,是世界糧食安全的基礎(chǔ)[1],全球年產(chǎn)量約為7.3億t。然而小麥在生產(chǎn)過程中經(jīng)常出現(xiàn)各種生物和非生物逆境,小麥產(chǎn)量會受到很大影響。近年來,利用無人機(jī)遙感技術(shù)對小麥生長進(jìn)行監(jiān)測已成為穩(wěn)定產(chǎn)量的重要途經(jīng)。無人機(jī)以其靈活、小巧、成本低等優(yōu)勢逐漸受到研究者們的關(guān)注和青睞。結(jié)合無人機(jī)圖像對麥穗進(jìn)行檢測和計(jì)數(shù),可以大大降低人工成本,實(shí)現(xiàn)自動化估產(chǎn)。傳統(tǒng)小麥計(jì)數(shù)主要包括人工計(jì)數(shù)方法和傳統(tǒng)機(jī)器學(xué)習(xí)方法。其中人工計(jì)數(shù)方法不但十分繁瑣、耗費(fèi)不少的人力和物力成本,而且很容易出現(xiàn)錯誤[2]。傳統(tǒng)機(jī)器學(xué)習(xí)則是一種簡單而有效的實(shí)現(xiàn)麥穗自動計(jì)數(shù)的方法。ZHOU等[3]利用半自主多傳感器田間表型平臺獲取小麥圖像,先使用最大熵分割方法進(jìn)行粗分割,然后應(yīng)用形態(tài)學(xué)重建理論對圖像進(jìn)行精細(xì)分割,最后實(shí)現(xiàn)麥穗計(jì)數(shù)。FERNANDEZ-GALLEGO等[4]通過使用濾波和尋找最大值的方法,有效地提高了田間麥穗的識別精度。劉哲等[5]提出了一種改進(jìn)的K-means聚類方法,該方法以顏色特征聚類為基礎(chǔ),把聚類區(qū)域內(nèi)的子區(qū)域數(shù)作為麥穗數(shù)估計(jì)值,從而大大提高了麥穗計(jì)數(shù)的準(zhǔn)確率。在大田環(huán)境下,上述傳統(tǒng)方法對紋理、顏色等依賴性較強(qiáng),受土壤、光照、小麥麥葉等影響較大,對麥穗的計(jì)數(shù)效果并不理想。

    近年來,深度學(xué)習(xí)已成為人工智能領(lǐng)域的研究熱點(diǎn),同時該技術(shù)也被研究者們應(yīng)用到麥穗檢測和計(jì)數(shù)領(lǐng)域中。鮑文霞等[6]針對灌漿期田間小麥圖像麥穗密集的特點(diǎn),引入一種擁擠場景識別網(wǎng)絡(luò)(congested scene recognition network,CSRNet)來構(gòu)建麥穗密度圖估計(jì)模型,實(shí)現(xiàn)田間小麥麥穗數(shù)估計(jì)。孫俊等[7]以CSRnet為基礎(chǔ)網(wǎng)絡(luò)構(gòu)建WECnet網(wǎng)絡(luò),有效地提高灌漿期小麥的計(jì)數(shù)精度,同時對麥穗進(jìn)行準(zhǔn)確密度評估。李云霞等[8]設(shè)計(jì)了一種冬小麥田間長勢參數(shù)估算系統(tǒng),該系統(tǒng)基于殘差網(wǎng)絡(luò)ResNet18構(gòu)建長勢參數(shù)估算模型,實(shí)現(xiàn)麥穗長勢參數(shù)估算;基于Faster R-CNN并結(jié)合非極大值抑制構(gòu)建麥穗計(jì)數(shù)模型,實(shí)現(xiàn)開花期麥穗準(zhǔn)確計(jì)數(shù)。目前,目標(biāo)檢測算法在麥穗檢測的任務(wù)上取得了顯著的進(jìn)步。小麥麥穗檢測任務(wù)的成功,使得田間麥穗計(jì)數(shù)方法也獲得了較高的準(zhǔn)確性[9-10]。MADEC等[11]利用R-CNN對麥穗進(jìn)行檢測,根據(jù)檢測到的麥穗個數(shù)實(shí)現(xiàn)麥穗計(jì)數(shù)。楊蜀秦等[12]為準(zhǔn)確獲取單位面積麥穗數(shù),提出了基于改進(jìn)YOLOX的單位面積麥穗檢測方法,利用采樣框直接實(shí)現(xiàn)單位面積麥穗計(jì)數(shù)。YANG等[13]結(jié)合卷積神經(jīng)網(wǎng)絡(luò)和注意力機(jī)制技術(shù),創(chuàng)建了一種用于麥穗檢測的CBAM-YOLOv4 計(jì)數(shù)方法。陳佳瑋等[14]構(gòu)建了一種MobileNetV2-YOLOV4 深度學(xué)習(xí)模型,對單位面積中的麥穗進(jìn)行識別,通過安卓軟件YQ-M離線識別手機(jī)拍攝的麥穗數(shù)量,實(shí)現(xiàn)田間產(chǎn)量預(yù)測和結(jié)果輸出等功能。

    以上方法雖然在田間麥穗的檢測和計(jì)數(shù)領(lǐng)域取得了一定的效果,但是無人機(jī)圖像具有麥穗分布稠密、重疊現(xiàn)象嚴(yán)重、尺寸小、背景信息復(fù)雜等特點(diǎn),容易導(dǎo)致錯檢和漏檢,從而使麥穗檢測精度降低,無法進(jìn)行準(zhǔn)確計(jì)數(shù)?;诖?,該研究以無人機(jī)小麥圖像為研究對象,提出了一種基于TPH-YOLO的麥穗計(jì)數(shù)方法。該研究在YOLOv5的骨干網(wǎng)絡(luò)中添加坐標(biāo)注意力機(jī)制(coordination attention, CA),使模型能夠細(xì)化特征,更加關(guān)注麥穗,抑制麥稈、麥葉等一些復(fù)雜背景的干擾。同時,該研究采用具有多頭自注意力機(jī)制的Transformer編碼器模塊替換Neck中的CSP(cross stage partial)模塊,將原始的預(yù)測頭轉(zhuǎn)換成Transformer預(yù)測頭(transformer prediction heads,TPH)[15-16],獲取全局信息和豐富的上下文信息,實(shí)現(xiàn)高密度場景下的麥穗計(jì)數(shù)。在模型訓(xùn)練過程中,該研究采用遷移學(xué)習(xí)的策略,先使用田間采集的小麥圖像數(shù)據(jù)集對模型進(jìn)行預(yù)訓(xùn)練,然后再使用無人機(jī)采集的小麥圖像數(shù)據(jù)集對模型參數(shù)進(jìn)行調(diào)整和優(yōu)化,提高了模型的泛化能力和檢測精度。最后,將其與SSD、Faster-RCNN、CenterNet和YOLOv5等模型進(jìn)行對比試驗(yàn),驗(yàn)證該研究所提方法的有效性。

    1 材料和方法

    1.1 數(shù)據(jù)采集

    本試驗(yàn)的研究區(qū)域是安徽省合肥市巢湖市壩鎮(zhèn)(北緯31°16′23.9″,東經(jīng)117°36′18.3″),該基地主要承擔(dān)小麥、水稻等多種農(nóng)作物的表型信息采集工作。數(shù)據(jù)采集時間為2021年5月3日09:00-16:00,多云天氣,減少了強(qiáng)光照對數(shù)據(jù)采集的干擾。溫度范圍18~25 ℃,濕度范圍在30%~50%之間。本試驗(yàn)使用的圖像采集設(shè)備為大疆Mavic Air 2無人機(jī),它裝有一個4 800萬像素的可見光攝像機(jī),攝像機(jī)類型是DJI FC3170,光圈值為f/2.8,曝光時間為1/50 s,ISO速度為ISO-100,最大續(xù)航時間為34 min,最遠(yuǎn)傳輸距離為10 km,最大飛行速度為19 m/s,所拍攝圖像的分辨率大小是8 000像素′6 000像素,攝像機(jī)與地面垂直90°,拍攝時無人機(jī)的飛行高度是3 m,獲取3幅無人機(jī)小麥圖像。無人機(jī)獲取的小麥圖像如圖1a所示。

    此外,該研究使用數(shù)碼相機(jī)對田間小麥數(shù)據(jù)進(jìn)行采集。為了計(jì)算單位面積的麥穗數(shù),該研究制作一個40 cm′50 cm大小的紙盒,使用佳能EOS80D數(shù)碼相機(jī)進(jìn)行拍攝,采用自然曝光模式以多種傾斜角度對麥穗進(jìn)行拍攝,每幅圖像的像素均為5 184像素′3 456像素。從采集的圖像中選取342幅圖像,構(gòu)建田間采集的麥穗圖像數(shù)據(jù)集。數(shù)據(jù)集圖像示例如圖1b所示。

    圖1 無人機(jī)和田間采集的麥穗圖像示例

    1.2 數(shù)據(jù)處理

    1.2.1 數(shù)據(jù)裁剪

    為了便于模型處理,將得到的無人機(jī)圖像按照800像素′600像素的大小進(jìn)行裁剪,這樣原始圖像就被分割成了300幅小麥子圖像,并且以7∶2∶1的比例劃分為訓(xùn)練集、驗(yàn)證集和測試集。

    1.2.2 數(shù)據(jù)增強(qiáng)

    大田環(huán)境下獲取的小麥圖像由于光照強(qiáng)度的變化,在視覺上會與物體本身的顏色呈現(xiàn)出差異,從而影響模型對麥穗檢測和計(jì)數(shù)的準(zhǔn)確性。為了減少光照不均勻?qū)D像質(zhì)量造成的影響,該研究采用Retinex算法進(jìn)行圖像增強(qiáng)處理。Retinex算法認(rèn)為物體對光線的反射能力會決定物體的顏色[17],人類視覺獲得的圖像可以看作是由入射圖像和反射圖像組成:

    式中(,)表示人眼捕獲的視覺圖像,(,)表示物體的反射圖像,(,)表示入射圖像,(,)是圖像中像素點(diǎn)的坐標(biāo)。從(,)中得到(,),(,)可以表示為

    對式(2)進(jìn)行對數(shù)變換可得:

    假設(shè)可以得出(,)的值,則可根據(jù)式(3)計(jì)算出(,)。因?yàn)槿肷涔饩€的強(qiáng)度在被照表面變化相對較慢,所以(,)可以用圖像中的低頻分量來表示。通過計(jì)算原始圖像中像素點(diǎn)與周圍區(qū)域的加權(quán)平均(,)來估計(jì)照度的變化并將其去除,最后只保留物體的反射屬性,則入射圖像(,)可表示為

    式中(,)為中心環(huán)繞函數(shù)。則

    因此,將lnR(x,y)變換為實(shí)數(shù)域,可以從人眼視覺圖像S(x,y)中得到反射圖像R(x,y),達(dá)到圖像增強(qiáng)的目的。增強(qiáng)后的圖像示例如圖2所示。

    1.3 麥穗檢測方法

    1.3.1 TPH-YOLO模型

    大田環(huán)境下無人機(jī)圖像麥穗分布稠密、重疊現(xiàn)象嚴(yán)重,會出現(xiàn)許多錯檢和漏檢的現(xiàn)象;同時,麥穗尺度小、背景復(fù)雜也增加了檢測的難度,這些問題導(dǎo)致在無人機(jī)圖像中無法對麥穗進(jìn)行準(zhǔn)確地檢測和計(jì)數(shù),因此,需要選擇一種有效的檢測模型對麥穗進(jìn)行檢測。YOLO(You Only Look Once)是一種只需一個卷積神經(jīng)網(wǎng)絡(luò)就可直接得到不同目標(biāo)的類別概率和位置坐標(biāo)的目標(biāo)檢測模型,可以更好地區(qū)分目標(biāo)區(qū)域和背景區(qū)域,YOLO系列一般包括YOLO[18]、YOLO9000[19]、YOLOv3[20]、YOLOv4[21]和YOLOv5。YOLOv5是當(dāng)前YOLO系列最新的目標(biāo)檢測模型,大致可分為 4個模塊:輸入端、骨干部分(backbone)、頸部(neck)以及預(yù)測頭(prediction head)。該模型具有檢測精確、速度快等優(yōu)點(diǎn),在開源數(shù)據(jù)集上具有良好效果,但是在大田環(huán)境下對無人機(jī)圖像中麥穗的檢測和計(jì)數(shù)任務(wù)上仍需要改進(jìn)。

    為此,該研究引入了一種簡單靈活的坐標(biāo)注意力機(jī)制[22](CA),將其加在骨干網(wǎng)絡(luò)CSPDarkNet-53中的CSP(cross stage partial)模塊和卷積模塊之間,模型結(jié)構(gòu)如圖3所示,使模型能夠細(xì)化特征,提高特征提取的能力,從而能更加關(guān)注小麥麥穗,抑制麥稈、麥葉等背景因素的干擾。當(dāng)圖像輸入到TPH-YOLO骨干網(wǎng)絡(luò)部分中時會進(jìn)行切片操作,即特殊的下采樣,把高分辨率的特征圖拆分為多個低分辨率的特征圖,然后將得到的特征輸入到不同深度的CSP模塊中進(jìn)行特征提取,CSP模塊將輸入特征經(jīng)過兩個部分,然后通過跨階段層次結(jié)構(gòu)將其合并,其目的是實(shí)現(xiàn)更多的梯度組合信息從而獲取更加豐富的麥穗特征。同時,該研究采用了具有多頭自注意力機(jī)制的Transformer編碼器模塊。Transformer的出現(xiàn)為視覺特征研究提供了一種新的思路[15]。與卷積神經(jīng)網(wǎng)絡(luò)相比,基于Transformer的視覺模型在眾多領(lǐng)域[16]取得了很好的效果。該研究使用Transformer編碼器模塊替換Neck中的一些CSP模塊,將原始預(yù)測頭轉(zhuǎn)換成Transformer預(yù)測頭(transformer prediction heads,TPH),實(shí)現(xiàn)具有多頭注意力機(jī)制的預(yù)測潛力,捕獲全局信息和充足的背景信息,進(jìn)而在高密度場景中準(zhǔn)確地定位到麥穗。

    注:Focus為切片操作,Conv為卷積操作,CA為坐標(biāo)注意力機(jī)制,Slice為切片后的特征圖, SPP為空間金字塔池化結(jié)構(gòu),Maxpool為最大池化操作, Concat為特征融合函數(shù),Upsample為上采樣操作,Trans為Transformer編碼器結(jié)構(gòu),TPH為Transformer預(yù)測頭結(jié)構(gòu)。

    1.3.2 訓(xùn)練策略

    在該研究模型訓(xùn)練過程中采用了遷移學(xué)習(xí)的訓(xùn)練策略。遷移學(xué)習(xí)[23-24]廣泛應(yīng)用在眾多領(lǐng)域,它可以增強(qiáng)訓(xùn)練,通過調(diào)參,逐步優(yōu)化模型。該研究先使用田間采集的小麥圖像數(shù)據(jù)集對模型進(jìn)行預(yù)訓(xùn)練,得到了預(yù)訓(xùn)練模型,接著使用無人機(jī)采集的小麥圖像數(shù)據(jù)集對模型進(jìn)行參數(shù)更新和優(yōu)化訓(xùn)練,如圖4所示。訓(xùn)練過程如下:

    1)從田間采集的小麥圖像數(shù)據(jù)集上訓(xùn)練TPH-YOLO的骨干網(wǎng)絡(luò)Backbone即CSPDarkNet-53網(wǎng)絡(luò),得到預(yù)訓(xùn)練模型;

    2)將預(yù)訓(xùn)練模型加載到TPH-YOLO中,凍結(jié)骨干網(wǎng)絡(luò)Backbone預(yù)訓(xùn)練模型參數(shù),再從無人機(jī)采集的小麥圖像數(shù)據(jù)集上訓(xùn)練TPH-YOLO,只對后端的Neck和Head進(jìn)行重新訓(xùn)練和更新參數(shù)。

    田間采集的小麥圖像和無人機(jī)采集的小麥圖像顏色、輪廓、紋理等基礎(chǔ)結(jié)構(gòu)相近,這些基礎(chǔ)結(jié)構(gòu)在卷積神經(jīng)網(wǎng)絡(luò)中屬于底層信息,靠近輸入端的骨干網(wǎng)絡(luò)部分保留了大量的底層信息,所以骨干部分提取的特征是可以通用的。該研究通過田間采集的小麥圖像數(shù)據(jù)集對模型進(jìn)行預(yù)訓(xùn)練得到預(yù)訓(xùn)練模型,由于田間采集的圖像分辨率更高,模型參數(shù)效果更好。此時,將預(yù)訓(xùn)練得到的權(quán)重加載到TPH-YOLO中,凍結(jié)Backbone預(yù)訓(xùn)練模型參數(shù),可以減少網(wǎng)絡(luò)層數(shù),此時訓(xùn)練數(shù)據(jù)需要的更少,從而防止數(shù)據(jù)不足引起的過擬合。此外,模型不用從頭開始進(jìn)行訓(xùn)練,加快了訓(xùn)練效率,泛化能力更好,魯棒性更高。

    注:CSP為跨階段層次結(jié)構(gòu),Neck為頸部結(jié)構(gòu),Head為預(yù)測頭。

    1.3.3 試驗(yàn)參數(shù)及評價指標(biāo)

    該研究試驗(yàn)是基于Ubuntu16.04 LTS 64位操作系統(tǒng)來實(shí)現(xiàn)的,顯卡為NVIDIA GTX2080Ti,內(nèi)存為32 G,使用Python編程語言和PyTorch深度學(xué)習(xí)框架訓(xùn)練目標(biāo)檢測模型。試驗(yàn)的初始學(xué)習(xí)率設(shè)置為0.01,采用隨機(jī)梯度下降(stochastic gradient descent,SGD)的方法優(yōu)化訓(xùn)練過程中的損失,迭代次數(shù)為300,批處理尺寸設(shè)置為8,權(quán)重衰減為0.000 5。該研究使用精確率(precision,)、召回率(recall,)以及平均精確率(average precision,AP)作為評價指標(biāo)[25]來綜合評價深度學(xué)習(xí)算法的性能。

    2 結(jié)果與分析

    2.1 數(shù)據(jù)增強(qiáng)對檢測結(jié)果的影響

    考慮到大田環(huán)境下采集的小麥圖像會由于光照不均勻?qū)D像質(zhì)量造成影響,為提高檢測精度,該研究采用Retinex算法進(jìn)行圖像增強(qiáng)處理。試驗(yàn)分別使用經(jīng)過增強(qiáng)處理的圖像與未經(jīng)過增強(qiáng)處理的圖像對TPH-YOLO網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,得到兩個不同的訓(xùn)練模型,用以驗(yàn)證圖像增強(qiáng)對檢測結(jié)果的影響,試驗(yàn)結(jié)果如表1所示。在未經(jīng)過增強(qiáng)處理的數(shù)據(jù)集上模型的平均精確率為87.1%,而在經(jīng)過增強(qiáng)處理的數(shù)據(jù)集上模型的平均精確率為88.8%,證實(shí)了數(shù)據(jù)增強(qiáng)的必要性和有效性。

    表1 數(shù)據(jù)增強(qiáng)對檢測結(jié)果的影響

    2.2 消融試驗(yàn)

    為了驗(yàn)證該研究方法的有效性,對TPH-YOLO網(wǎng)絡(luò)模型進(jìn)行消融試驗(yàn)。該研究以YOLOv5為基礎(chǔ)網(wǎng)絡(luò),分別在骨干部分加入CA、原始預(yù)測頭轉(zhuǎn)換為TPH預(yù)測頭、采用遷移學(xué)習(xí)訓(xùn)練策略等進(jìn)行試驗(yàn),消融試驗(yàn)結(jié)果如表2所示。在不使用CA、TPH預(yù)測頭和遷移學(xué)習(xí)的情況下,模型的平均精確率為84.7%。加入CA后,模型的平均精確率達(dá)到86.4%,說明加入CA注意力機(jī)制后,模型能夠更準(zhǔn)確地提取到小麥圖像中的麥穗信息。將原始預(yù)測頭轉(zhuǎn)換為TPH預(yù)測頭后,實(shí)現(xiàn)了多頭注意力機(jī)制的預(yù)測潛力,從而可以獲取全局信息和豐富的上下文信息,進(jìn)而在高密度場景中準(zhǔn)確地定位到麥穗,提升網(wǎng)絡(luò)的檢測結(jié)果。在訓(xùn)練過程中,采用遷移學(xué)習(xí)策略,不僅提高了模型的泛化能力,而且模型的平均精確率達(dá)到88.8%。使用CA、TPH預(yù)測頭和遷移學(xué)習(xí),模型能更好地提取到小麥圖像中的麥穗信息以及在高密度場景中準(zhǔn)確地定位到麥穗位置,比基準(zhǔn)模型高了4.1個百分點(diǎn)。

    表2 消融試驗(yàn)結(jié)果

    2.3 不同檢測模型對比試驗(yàn)

    為了進(jìn)一步驗(yàn)證該研究方法對無人機(jī)圖像中麥穗檢測的有效性,將該研究提出的模型與一些主流目標(biāo)檢測模型進(jìn)行對比試驗(yàn),對比的檢測網(wǎng)絡(luò)有:SSD[26]、Faster-RCNN[27]及CenterNet[28],試驗(yàn)結(jié)果如表3所示。從表3可以看出,所提模型的檢測結(jié)果優(yōu)于SSD、Faster-RCNN、CenterNet等檢測模型。

    表3 本研究模型與主流模型對比結(jié)果

    圖5以測試集中3幅小麥圖像為示例展示YOLOv5模型及本研究模型的檢測結(jié)果,圖6為圖5在麥穗重疊問題上的局部放大示例圖。通過圖5和圖6可以看出,本研究模型可以更加注意到麥穗信息,能夠在高密度場景準(zhǔn)確定位到麥穗位置,并且有效地緩減了麥穗重疊現(xiàn)象,從而降低了麥穗的漏檢和誤檢率。

    注:方框表示預(yù)測框,箭頭表示麥穗漏檢或者誤檢的位置。

    2.4 麥穗計(jì)數(shù)相關(guān)性研究

    通過所得的檢測圖,即可得出每幅圖的麥穗數(shù)量。將該研究研究所獲得的麥穗數(shù)估計(jì)值與真實(shí)值加以比較,并通過線性回歸法對結(jié)果進(jìn)行了相關(guān)研究。麥穗估計(jì)值和真實(shí)值的擬合結(jié)果,如圖7所示。從擬合結(jié)果來看,決定系數(shù)2值在0.95左右,說明該研究所提模型對小麥麥穗數(shù)的估計(jì)數(shù)和真實(shí)值之間存在著明顯的線性關(guān)聯(lián)。

    圖6 不同模型在重疊問題上的檢測結(jié)果示例

    圖7 麥穗數(shù)量計(jì)數(shù)值與真實(shí)值的擬合結(jié)果

    該研究在測試集的每一幅圖像上都進(jìn)行了10次人工統(tǒng)計(jì),取平均值作為麥穗數(shù)量的真實(shí)值,并使用CSRNet[29]可視化分布麥穗圖像中的麥穗位置。該研究統(tǒng)計(jì)出測試集的30幅小麥圖像麥穗真實(shí)值為1 415,TPH-YOLO模型生成的麥穗數(shù)為1 384,錯誤個數(shù)為31,錯誤率為0.022,表明所提模型對圖像中的麥穗計(jì)數(shù)誤差較小。圖8給出了部分圖像麥穗計(jì)數(shù)結(jié)果,從圖8中可以看出,TPH-YOLO模型生成的麥穗數(shù)與麥穗真實(shí)數(shù)量比較接近,驗(yàn)證了該研究所提方法的可靠性。

    注:GT表示麥穗數(shù)的真實(shí)值;圖8c中數(shù)值為TPH-YOLO模型計(jì)數(shù)值。

    2.5 TPH-YOLO模型有效性分析

    為了驗(yàn)證該研究所提模型的有效性,在公開數(shù)據(jù)集(Global Wheat Head Detection, GWHD)[30]上進(jìn)行了驗(yàn)證分析。GWHD數(shù)據(jù)集包含3 376張RGB圖像,共有145 665個小麥麥穗,圖像像素大小為1 024像素′1 024像素。這些小麥圖像來自世界的不同地區(qū),獲得的圖像有很大的差異,包括不同的品種、不同的種植條件以及不同的圖像采集方法。按照7∶2∶1的比例構(gòu)建訓(xùn)練集、驗(yàn)證集和測試集,利用不同目標(biāo)檢測模型進(jìn)行試驗(yàn),其中SSD、Faster-RCNN、CenterNet、YOLOv5平均精確率分別為80.5%、86.2%、84.7%、88.3%,而本研究模型平均精確率為91.6%,優(yōu)于其他檢測模型,因此該研究所提模型有較好的泛化能力。

    該研究研究過程中無人機(jī)飛行高度為3 m,如果希望單幅圖像獲取的田間面積更大則需要增加無人機(jī)的飛行高度,這時獲取到的圖像中的麥穗分辨率會下降,因此,在利用該研究算法計(jì)數(shù)之前需要對圖像進(jìn)行超分辨率重建,這也是該研究后續(xù)的研究工作。

    3 結(jié) 論

    該研究針對無人機(jī)圖像具有麥穗分布稠密、重疊現(xiàn)象嚴(yán)重、背景信息復(fù)雜等特點(diǎn),提出了一種基于TPH-YOLO的目標(biāo)檢測模型,能夠在無人機(jī)圖像中準(zhǔn)確檢測出麥穗和計(jì)算出麥穗數(shù)量。通過在YOLOv5骨干網(wǎng)絡(luò)中加入CA模塊,使模型能夠細(xì)化特征,更加關(guān)注小麥麥穗,抑制麥稈、麥葉等一些背景因素的干擾。同時,將原始預(yù)測頭轉(zhuǎn)換為(Transformer預(yù)測頭),從而可以在高密度場景準(zhǔn)確定位到小麥麥穗。最后,在訓(xùn)練過程中,采用遷移學(xué)習(xí)策略來提高模型的泛化能力和加快模型收斂速度。試驗(yàn)結(jié)果表明,TPH-YOLO在無人機(jī)小麥圖像測試集上AP值可達(dá)88.8%,相較于基礎(chǔ)YOLOv5提高了4.1個百分點(diǎn),從而說明該研究的研究結(jié)果可以為小麥在檢測和計(jì)數(shù)的任務(wù)上提供有價值的幫助。此外,該研究利用公開數(shù)據(jù)集GWHD在不同目標(biāo)檢測模型上進(jìn)行對比試驗(yàn),進(jìn)一步驗(yàn)證了該研究所提方法的可靠性和有效性。

    [1] Liu H, Wang Z, Yu R, et al. Optimal nitrogen input for higher efficiency and lower environmental impacts of winter wheat production in China[J]. Agriculture Ecosystems & Environment, 2016, 224: 1-11.

    [2] Xiong H, Cao Z, Lu H, et al. TasselNetv2: In-field counting of wheat spikes with context-augmented local regression networks[J]. Plant Methods, 2019, 15(1): 1-14.

    [3] ZHOU C, LIANG D, YANG X, et al. Recognition of wheat spike from field based phenotype platform using multi-sensor fusion and improved maximum entropy segmentation algorithms[J]. Remote Sensing, 2018, 10(2): 246-270.

    [4] Fernandez-Gallego J A, Kefauver S C, Gutiérrez N, et al. Wheat ear counting in-field conditions: High throughput and low-cost approach using RGB images[J]. Plant Methods, 2018, 14(1): 22.

    [5] 劉哲,黃文準(zhǔn),王利平. 基于改進(jìn) K-means 聚類算法的大田麥穗自動計(jì)數(shù)[J]. 農(nóng)業(yè)工程學(xué)報,2019,35(3):174-181.

    Liu Zhe, Huang Wenzhun, Wang Liping. Field wheat ear counting automatically based on improved K-means clustering algorithm[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(3): 174-181. (in Chinese with English abstract)

    [6] 鮑文霞,張鑫,胡根生,等. 基于深度卷積神經(jīng)網(wǎng)絡(luò)的田間麥穗密度估計(jì)及計(jì)數(shù)[J]. 農(nóng)業(yè)工程學(xué)報,2020,36(21):186-194.

    Bao Wenxia, Zhang Xin, Hu Gensheng, et al. Estimation and counting of wheat ears density in field based on deep convolutional neural network[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(21): 186-194. (in Chinese with English abstract)

    [7] 孫俊,楊鍇鋒,羅元秋,等. 基于無人機(jī)圖像的多尺度感知麥穗計(jì)數(shù)方法[J]. 農(nóng)業(yè)工程學(xué)報,2021,37(23):136-144.

    Sun Jun, Yang Kaifeng, Luo Yuanqiu, et al. Method for the multiscale perceptual counting of wheat ears based on UAV images[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(23): 136-144. (in Chinese with English abstract)

    [8] 李云霞,馬浚誠,劉紅杰,等. 基于 RGB 圖像與深度學(xué)習(xí)的冬小麥田間長勢參數(shù)估算系統(tǒng)[J]. 農(nóng)業(yè)工程學(xué)報,2021,37(24):189-198.

    Li Yunxia, Ma Juncheng, Liu Hongjie, et al. Field growth parameter estimation system of winter wheat using RGB digital images and deep learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(24): 189-198. (in Chinese with English abstract)

    [9] Khoroshevsky F, Khoroshevsky S, Bar-Hillel A. Parts-per-object count in agricultural images: Solving phenotyping problems via a single deep neural network[J]. Remote Sensing, 2021, 13(13): 2496.

    [10] Wang D, Zhang D, Yang G, et al. SSRNet: In-field counting wheat ears using multi-stage convolutional neural network[J]. IEEE Transactions on Geoscience and Remote Sensing, 2021, 60: 1-11.

    [11] Madec S, Jin X, Lu H, et al. Ear density estimation from high resolution RGB imagery using deep learning technique[J]. Agricultural and Forest Meteorology, 2019, 264: 225-234.

    [12] 楊蜀秦,王帥,王鵬飛,等. 改進(jìn)YOLOX檢測單位面積麥穗[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(15):143-149.

    Yang Shuqin, Wang Shuai, Wang Pengfei, et al. Detecting wheat ears per unit area using an improved YOLOX[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(15): 143-149. (in Chinese with English abstract)

    [13] Yang B, Gao Z, Gao Y, et al. Rapid detection and counting of wheat ears in the field using YOLOv4 with attention module[J]. Agronomy, 2021, 11(6): 1202.

    [14] 陳佳瑋,李慶,譚巧行,等. 結(jié)合輕量級麥穗檢測模型和離線 Android 軟件開發(fā)的田間小麥測產(chǎn)[J]. 農(nóng)業(yè)工程學(xué)報,2021,37(19):156-164.

    Chen Jiawei, Li Qing, Tan Qiaoxing, et al. Combining lightweight wheat spikes detecting model and offline Android software development for in-field wheat yield prediction[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(19): 156-164. (in Chinese with English abstract)

    [15] VASWANI A, SHAZEER N, PARMAR N, et al. Attention is all you need[C]//Advances in Neural Information Processing Systems (NIPS), Long Beach: NIPS, 2017: 5998-6008.

    [16] Wang W H, Xie E Z, Li X, et al. Pyramid vision transformer: A versatile backbone for dense prediction without convolutions[C]//In Proceedings of the 2021 IEEE/CVF International Conference on Computer Vision (ICCV). Montreal, Canada: IEEE, 2021: 548-559.

    [17] Sun J, Yang Y, He X, et al. Northern maize leaf blight detection under complex field environment based on deep learning[J]. IEEE Access, 2020, 8: 33679-33688.

    [18] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas: IEEI, 2016: 779-788.

    [19] REDMON J, FARHADI A. YOLO9000: Better, faster, stronger[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, Honolulu: IEEE, 2017: 6517-6525.

    [20] REDMON J, FARHADI A YOLOv3: An incremental improvement[EB/OL]. (2018-04-08) [2022-08-12] https://arxiv.org/abs/1804.02767.

    [21] ALEXEY B, WANG C, LIAO H. YOLOv4: Optimal speed and accuracy of object detection[EB/OL]. (2020-04-23) [2022-08-12] https://arxiv.org/abs/2004.10934.

    [22] HOU Q, ZHOU D, FENG J. Coordinate attention for efficient mobile network design[EB/OL]. (2021-03-04) [2022-08-12] https://arxiv.org/abs/2103.02907.

    [23] Weiss K, KhoshgoftaaR T M, Wang D D. A survey of transfer learning[J]. Journal of Big Data, 2016, 3(1): 9.

    [24] GAO Y, MOSALAM K M. Deep transfer learning for image‐based structural damage recognition[J]. Computer-Aided Civil and Infrastructure Engineering, 2018, 33(9): 748-768

    [25] 孫豐剛,王云露,蘭鵬,等. 基于改進(jìn) YOLOv5s 和遷移學(xué)習(xí)的蘋果果實(shí)病害識別方法[J]. 農(nóng)業(yè)工程學(xué)報,2022,38(11):171-179.

    SUN Fenggang, WANG Yunlu, LAN Peng, et al. Identification of apple fruit diseases using improved YOLOv5s and transfer learning[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2022, 38(11): 171-179. (in Chinese with English abstract)

    [26] LIU W, ANGUELOV D, ERHAN D, et al. SSD: Single shot multiBox detector[C]// European Conference on Computer Vision. Amsterdam, the Netherlands: Springer, 2016: 21-37.

    [27] REN S, HE K, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137-1149.

    [28] Zhou X, Wang D, Krhenbühl P. Objects as points [EB/OL]. arXiv preprint arXiv: 1904.07850v2, 2019. (2022-03-10). https://arxiv.org/abs/1904.07850.

    [29] LI Y, ZHANG X, CHEN D. CSRNet: Dilated convolutional neural networks for understanding the highly congested scenes[C]//Proceedings of 2018 Computer Vision and Pattern Recognition. Las Vegas: IEEE, 2018: 1091-1100.

    [30] DAVID E, SEROUART M, SMITH D, et al. Global wheat head detection 2021: An improved dataset for benchmarking wheat head detection methods[J]. Plant Phenomics, 2021, 2021: 277 - 285

    Wheat ear counting method in UAV images based on TPH-YOLO

    BAO Wenxia1, XIE Wenjie1, HU Gensheng1, YANG Xianjun2※, SU Biaobiao1

    (1.,230601,;2.,,230031,)

    Optical sensors have been widely installed on unmanned aerial vehicle (UAV) to capture images of all kinds of crops in recent years. The economic and effective way can greatly contribute to yield prediction and field management in modern agriculture. However, the great challenge of wheat ear counting still remains in the dense distribution of wheat ears, the serious overlap phenomenon, and the complex background information in the images. In this study, a detection model of the wheat ear was designed to improve the accuracy of the wheat ear counting in the UAV images using the transformer prediction heads “you only look once” (TPH-YOLO). The UAV wheat ear images were also taken as the research object. Firstly, the Retinex algorithm was used to deal with the enhancement of the wheat ear images that collected by the UAV, in order to reduce the influence of the uneven illumination on the image quality. Secondly, the coordinate attention mechanism (CA) was added to the backbone network of YOLOv5. In this way, the improved model was utilized to refine the features after treatment. As a result, the TPH-YOLO network was focused mainly on the wheat ear information, at the same time to avoid the interference of some background factors, such as the wheat stalk, and the wheat leaf. Once more, the original prediction head in the YOLOv5 was converted into the transformer prediction head (TPH) in this case. Correspondingly, the improved prediction head was obtained for the prediction potential of multiple head attention mechanism, in order to accurately fix the position of the wheat ears in a high-density scene. In the end, the training strategy was adopted to improve the generalization ability and the detection accuracy of the TPH-YOLO network using transfer learning. The image dataset of the wheat ear that was collected in the field was used to pre-train the model, and then the wheat ear image dataset collected by the UAV was used to update and optimize the model parameters. A series of experiments were conducted on the wheat ear images collected by the UAV. The performance of the target detection model was evaluated by the three indicators: Precision, recall, and average precision (AP). The experimental results show that the precision, recall, and average precision (AP) of the improved model were 87.2%, 84.1%, and 88.8%, respectively. The average precision of the improved model was 4.1% higher than the original YOLOv5 one. The performance was also better than the SSD, Fast RCNN, CenterNet, and Yolov5 target detection models. In addition, Global Wheat Head Detection (GWHD) dataset was selected to carry out the comparative experiments on the different target detection models, due to the diverse and typical wheat samples from the GWHD dataset. Compared with the target detection models such as SSD, Faster-RCNN, CenterNet and YOLOv5, the average precision increased by 11.1, 5.4, 6.9 and 3.3 percentage points respectively. The comparative analysis of the detection further verified the reliability and effectiveness of the improved model. Consequently, the finding can also provide strong support for the wheat yield prediction.

    UAV; image processing; wheat ear counting; YOLOv5; attention mechanisms; transformer encoder; transfer learning

    10.11975/j.issn.1002-6819.202210020

    TP391.41

    A

    1002-6819(2023)-01-0155-07

    鮑文霞,謝文杰,胡根生,等. 基于TPH-YOLO的無人機(jī)圖像麥穗計(jì)數(shù)方法[J]. 農(nóng)業(yè)工程學(xué)報,2023,39(1):155-161.doi:10.11975/j.issn.1002-6819.202210020 http://www.tcsae.org

    BAO Wenxia, XIE Wenjie, HU Gensheng, et al. Wheat ear counting method in UAV images based on TPH-YOLO[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2023, 39(1): 155-161. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.202210020 http://www.tcsae.org

    2022-10-02

    2022-12-28

    安徽省自然科學(xué)基金項(xiàng)目(2208085MC60);國家自然科學(xué)基金項(xiàng)目(62273001)

    鮑文霞,博士,教授,研究方向?yàn)檗r(nóng)業(yè)與生態(tài)視覺分析與模式識別。Email:bwxia@ahu.edu.cn

    楊先軍,博士,研究員,研究方向?yàn)橹悄苄盘柼幚?。Email:xjyang@iim.ac.cn

    猜你喜歡
    檢測模型研究
    一半模型
    FMS與YBT相關(guān)性的實(shí)證研究
    “不等式”檢測題
    “一元一次不等式”檢測題
    “一元一次不等式組”檢測題
    遼代千人邑研究述論
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    視錯覺在平面設(shè)計(jì)中的應(yīng)用與研究
    科技傳播(2019年22期)2020-01-14 03:06:54
    EMA伺服控制系統(tǒng)研究
    三上悠亚av全集在线观看| 亚洲一码二码三码区别大吗| 久久精品亚洲av国产电影网| 久久综合国产亚洲精品| 水蜜桃什么品种好| 国产亚洲av片在线观看秒播厂| 免费在线观看完整版高清| 大型av网站在线播放| 亚洲免费av在线视频| 国产av国产精品国产| 黄网站色视频无遮挡免费观看| 久久国产精品男人的天堂亚洲| 成在线人永久免费视频| 国产成人欧美在线观看 | 国产又色又爽无遮挡免| 亚洲精品久久久久久婷婷小说| 一级片'在线观看视频| 又黄又粗又硬又大视频| 亚洲自偷自拍图片 自拍| 欧美日韩国产mv在线观看视频| 丰满少妇做爰视频| 精品第一国产精品| 久久久久久亚洲精品国产蜜桃av| 国产成人av激情在线播放| 国产黄色视频一区二区在线观看| 久久久久久人人人人人| 视频区欧美日本亚洲| 久久久久久久久久久久大奶| 亚洲一卡2卡3卡4卡5卡精品中文| av国产精品久久久久影院| 国语对白做爰xxxⅹ性视频网站| 亚洲欧美一区二区三区国产| 国产日韩欧美在线精品| 亚洲欧美色中文字幕在线| 少妇被粗大的猛进出69影院| 久久人妻福利社区极品人妻图片 | 一区二区三区四区激情视频| 中文乱码字字幕精品一区二区三区| 嫩草影视91久久| 亚洲精品久久成人aⅴ小说| 国产精品二区激情视频| 国产极品粉嫩免费观看在线| 国产日韩一区二区三区精品不卡| 精品少妇一区二区三区视频日本电影| 91成人精品电影| 18禁国产床啪视频网站| 亚洲天堂av无毛| 自拍欧美九色日韩亚洲蝌蚪91| 久久久精品94久久精品| a级毛片黄视频| 久久久久久人人人人人| 男人添女人高潮全过程视频| 一级片免费观看大全| 亚洲欧洲国产日韩| 一本久久精品| 国产欧美日韩一区二区三区在线| 一区二区日韩欧美中文字幕| 亚洲激情五月婷婷啪啪| 777米奇影视久久| 欧美人与性动交α欧美软件| 国产成人欧美| 青春草视频在线免费观看| 亚洲七黄色美女视频| 香蕉国产在线看| 亚洲欧美成人综合另类久久久| 国精品久久久久久国模美| 免费日韩欧美在线观看| 不卡av一区二区三区| 无遮挡黄片免费观看| 免费在线观看完整版高清| 亚洲精品美女久久av网站| 亚洲精品自拍成人| av又黄又爽大尺度在线免费看| 亚洲自偷自拍图片 自拍| 美女视频免费永久观看网站| 国产精品二区激情视频| 日韩av不卡免费在线播放| 熟女少妇亚洲综合色aaa.| 一边摸一边抽搐一进一出视频| 欧美 日韩 精品 国产| 19禁男女啪啪无遮挡网站| 后天国语完整版免费观看| 高清av免费在线| 欧美日韩精品网址| 久久久国产欧美日韩av| 国产精品 国内视频| 少妇人妻 视频| 中文精品一卡2卡3卡4更新| 热99国产精品久久久久久7| 欧美亚洲日本最大视频资源| 久久精品熟女亚洲av麻豆精品| 电影成人av| 国产精品秋霞免费鲁丝片| 亚洲精品国产一区二区精华液| 欧美日韩av久久| 日韩制服丝袜自拍偷拍| 国产一区二区三区综合在线观看| 国产成人一区二区三区免费视频网站 | 极品少妇高潮喷水抽搐| 国产精品九九99| 亚洲欧洲国产日韩| av国产精品久久久久影院| 在现免费观看毛片| 1024香蕉在线观看| 久久久亚洲精品成人影院| 免费观看a级毛片全部| 熟女少妇亚洲综合色aaa.| 99久久99久久久精品蜜桃| 2021少妇久久久久久久久久久| 国产免费又黄又爽又色| 最近中文字幕2019免费版| 中国美女看黄片| 国产精品一区二区在线不卡| 水蜜桃什么品种好| videos熟女内射| 精品免费久久久久久久清纯 | 午夜免费鲁丝| 亚洲欧美日韩另类电影网站| 熟女av电影| 亚洲国产欧美一区二区综合| 一级片'在线观看视频| 精品少妇一区二区三区视频日本电影| 久热这里只有精品99| 19禁男女啪啪无遮挡网站| 色婷婷av一区二区三区视频| 人人妻人人添人人爽欧美一区卜| 亚洲专区国产一区二区| 高清视频免费观看一区二区| 一区二区三区精品91| 亚洲欧美成人综合另类久久久| 9色porny在线观看| 亚洲中文字幕日韩| 夫妻性生交免费视频一级片| 制服诱惑二区| 久久99热这里只频精品6学生| 国产爽快片一区二区三区| 97在线人人人人妻| 久久天躁狠狠躁夜夜2o2o | 日本黄色日本黄色录像| 色婷婷av一区二区三区视频| 国产精品一区二区精品视频观看| 久久久欧美国产精品| 九草在线视频观看| 51午夜福利影视在线观看| 女性生殖器流出的白浆| 无限看片的www在线观看| 日日摸夜夜添夜夜爱| 欧美日韩国产mv在线观看视频| 午夜福利视频精品| 午夜福利视频精品| 精品久久久精品久久久| 不卡av一区二区三区| 亚洲av片天天在线观看| 欧美日韩黄片免| 欧美 日韩 精品 国产| 亚洲国产精品国产精品| 国产一区有黄有色的免费视频| 成年动漫av网址| 人人妻人人澡人人爽人人夜夜| 人体艺术视频欧美日本| 免费观看av网站的网址| 亚洲天堂av无毛| 中文字幕最新亚洲高清| 在线观看免费高清a一片| 亚洲欧美激情在线| 欧美黑人精品巨大| 国产一区二区在线观看av| 日日摸夜夜添夜夜爱| 国产又爽黄色视频| 日本a在线网址| 国产片内射在线| 国产片特级美女逼逼视频| 亚洲成人免费av在线播放| 纵有疾风起免费观看全集完整版| www.精华液| 欧美乱码精品一区二区三区| 一区福利在线观看| 欧美精品人与动牲交sv欧美| 91麻豆av在线| 手机成人av网站| 在线观看一区二区三区激情| 只有这里有精品99| 亚洲 欧美一区二区三区| 成人国产一区最新在线观看 | 国产成人一区二区三区免费视频网站 | 黄色怎么调成土黄色| 一级黄色大片毛片| 亚洲欧美色中文字幕在线| 只有这里有精品99| 久久午夜综合久久蜜桃| 少妇精品久久久久久久| 亚洲av日韩在线播放| 日本wwww免费看| 国产精品久久久久久精品电影小说| 国产成人系列免费观看| 国产成人精品无人区| 国产精品一区二区免费欧美 | svipshipincom国产片| 亚洲五月色婷婷综合| 一区福利在线观看| av片东京热男人的天堂| 丝袜在线中文字幕| 成在线人永久免费视频| 午夜免费鲁丝| 国产深夜福利视频在线观看| 永久免费av网站大全| www.精华液| 少妇猛男粗大的猛烈进出视频| 欧美在线黄色| 亚洲国产欧美一区二区综合| 女人爽到高潮嗷嗷叫在线视频| 老熟女久久久| 老司机影院毛片| 两性夫妻黄色片| 亚洲欧美日韩高清在线视频 | 久久精品久久久久久噜噜老黄| 国产精品亚洲av一区麻豆| 亚洲精品成人av观看孕妇| 午夜福利一区二区在线看| 人体艺术视频欧美日本| 一边亲一边摸免费视频| 亚洲精品第二区| 成人亚洲欧美一区二区av| 日本wwww免费看| 在线 av 中文字幕| 国产91精品成人一区二区三区 | 亚洲人成网站在线观看播放| 精品国产乱码久久久久久小说| 人人澡人人妻人| 久久久久久免费高清国产稀缺| 精品免费久久久久久久清纯 | 久久久久久人人人人人| 国产精品.久久久| 女警被强在线播放| 国产在视频线精品| 老熟女久久久| 国产精品 国内视频| 国产免费一区二区三区四区乱码| 亚洲欧美色中文字幕在线| 久久99一区二区三区| 国产成人av激情在线播放| 国产在线一区二区三区精| 老汉色av国产亚洲站长工具| 日本猛色少妇xxxxx猛交久久| 水蜜桃什么品种好| 赤兔流量卡办理| 国产精品秋霞免费鲁丝片| 美国免费a级毛片| 欧美黄色片欧美黄色片| 国产国语露脸激情在线看| 国产精品一区二区免费欧美 | 亚洲色图综合在线观看| 亚洲熟女毛片儿| 中文字幕精品免费在线观看视频| 国产一区二区激情短视频 | 91麻豆av在线| www.自偷自拍.com| 十八禁网站网址无遮挡| 极品人妻少妇av视频| 黑人欧美特级aaaaaa片| 国产精品熟女久久久久浪| 黄网站色视频无遮挡免费观看| 欧美变态另类bdsm刘玥| 99国产精品免费福利视频| 老司机影院毛片| 国产精品一国产av| 中文精品一卡2卡3卡4更新| 女性被躁到高潮视频| 黄色 视频免费看| 久久国产精品男人的天堂亚洲| 国产欧美亚洲国产| 电影成人av| 亚洲国产精品一区三区| 欧美 亚洲 国产 日韩一| 18禁观看日本| kizo精华| 99国产综合亚洲精品| 国产一区二区三区av在线| 熟女少妇亚洲综合色aaa.| 黄色视频在线播放观看不卡| 国产成人精品在线电影| 成人影院久久| 在线观看人妻少妇| 国产精品国产三级专区第一集| av在线播放精品| 1024香蕉在线观看| 日韩大片免费观看网站| 欧美成人精品欧美一级黄| 99精国产麻豆久久婷婷| 欧美精品av麻豆av| 亚洲国产毛片av蜜桃av| 嫁个100分男人电影在线观看 | 久久鲁丝午夜福利片| 欧美中文综合在线视频| 欧美日韩黄片免| 国产精品 国内视频| 亚洲精品久久午夜乱码| 97在线人人人人妻| 久久精品久久久久久噜噜老黄| www日本在线高清视频| 看十八女毛片水多多多| 又粗又硬又长又爽又黄的视频| 欧美+亚洲+日韩+国产| 黄频高清免费视频| www.精华液| 国产在线观看jvid| 在线观看免费日韩欧美大片| 又紧又爽又黄一区二区| 国产精品一区二区在线观看99| 青青草视频在线视频观看| av线在线观看网站| 欧美日韩一级在线毛片| 97精品久久久久久久久久精品| 国产av一区二区精品久久| 制服诱惑二区| www日本在线高清视频| 99国产综合亚洲精品| svipshipincom国产片| 日本欧美视频一区| 后天国语完整版免费观看| 国产精品国产三级国产专区5o| 九草在线视频观看| 久久久久久亚洲精品国产蜜桃av| 丝袜喷水一区| 男人操女人黄网站| 欧美 日韩 精品 国产| 中文字幕人妻丝袜制服| 男女国产视频网站| 久久人人97超碰香蕉20202| 大话2 男鬼变身卡| av国产久精品久网站免费入址| 欧美黑人精品巨大| 亚洲国产中文字幕在线视频| 自线自在国产av| 国产精品一区二区在线观看99| 熟女少妇亚洲综合色aaa.| 亚洲国产欧美日韩在线播放| 国产黄频视频在线观看| 一本大道久久a久久精品| 亚洲成色77777| av网站在线播放免费| 老汉色∧v一级毛片| 欧美日韩成人在线一区二区| 一区二区三区乱码不卡18| 五月开心婷婷网| av又黄又爽大尺度在线免费看| 日本五十路高清| 麻豆av在线久日| 久久国产亚洲av麻豆专区| 在线精品无人区一区二区三| 2018国产大陆天天弄谢| 在线观看一区二区三区激情| 国产一区二区三区av在线| 少妇 在线观看| 成人亚洲精品一区在线观看| 激情五月婷婷亚洲| 80岁老熟妇乱子伦牲交| 成年女人毛片免费观看观看9 | 国产精品欧美亚洲77777| 日韩 亚洲 欧美在线| 欧美精品人与动牲交sv欧美| av国产久精品久网站免费入址| 亚洲av电影在线进入| 欧美中文综合在线视频| 国产精品久久久人人做人人爽| 欧美日韩福利视频一区二区| 亚洲精品国产区一区二| 一级片免费观看大全| 欧美久久黑人一区二区| 国产亚洲精品第一综合不卡| 免费看十八禁软件| 久久久久久免费高清国产稀缺| 国产伦人伦偷精品视频| 下体分泌物呈黄色| videosex国产| av国产久精品久网站免费入址| 人人妻人人澡人人爽人人夜夜| 亚洲中文日韩欧美视频| 国产精品.久久久| 国产成人a∨麻豆精品| 亚洲视频免费观看视频| 国产一区二区 视频在线| 宅男免费午夜| 自拍欧美九色日韩亚洲蝌蚪91| 国产成人系列免费观看| 日韩制服骚丝袜av| 韩国精品一区二区三区| 波多野结衣一区麻豆| 欧美日韩亚洲高清精品| 免费看十八禁软件| 国产亚洲一区二区精品| 交换朋友夫妻互换小说| 又紧又爽又黄一区二区| 99国产精品一区二区蜜桃av | 亚洲精品一区蜜桃| 又大又爽又粗| 精品国产超薄肉色丝袜足j| 中文字幕另类日韩欧美亚洲嫩草| 欧美 亚洲 国产 日韩一| 国产一区二区三区综合在线观看| 啦啦啦视频在线资源免费观看| 国产淫语在线视频| 国产亚洲午夜精品一区二区久久| 午夜福利视频在线观看免费| 成年女人毛片免费观看观看9 | 亚洲精品自拍成人| 韩国高清视频一区二区三区| 大话2 男鬼变身卡| 欧美国产精品va在线观看不卡| 捣出白浆h1v1| 中文精品一卡2卡3卡4更新| videos熟女内射| 一区二区三区精品91| 999精品在线视频| 中文字幕人妻丝袜制服| 国产精品99久久99久久久不卡| 国产成人精品在线电影| 一本久久精品| 久久久国产精品麻豆| 亚洲国产欧美网| 亚洲第一青青草原| 天堂8中文在线网| 国产淫语在线视频| av天堂久久9| 在线观看免费视频网站a站| 欧美国产精品一级二级三级| 新久久久久国产一级毛片| 国产精品久久久久久人妻精品电影 | 国产片特级美女逼逼视频| 精品福利永久在线观看| 又黄又粗又硬又大视频| 高清黄色对白视频在线免费看| 丰满少妇做爰视频| 狠狠婷婷综合久久久久久88av| 日日爽夜夜爽网站| 成人亚洲精品一区在线观看| 久久国产精品大桥未久av| 国产高清videossex| 考比视频在线观看| 午夜久久久在线观看| 999久久久国产精品视频| e午夜精品久久久久久久| 亚洲欧美激情在线| 又大又黄又爽视频免费| 亚洲中文字幕日韩| 国产成人av教育| 一二三四在线观看免费中文在| 成年人黄色毛片网站| 下体分泌物呈黄色| 国产黄频视频在线观看| 久久国产精品影院| 日本av免费视频播放| 久热爱精品视频在线9| 国产精品偷伦视频观看了| 欧美日韩av久久| 国产精品成人在线| 99热全是精品| 免费在线观看黄色视频的| 一级黄片播放器| 国产精品一国产av| 婷婷成人精品国产| 日韩一卡2卡3卡4卡2021年| 婷婷色av中文字幕| bbb黄色大片| 国产精品久久久久久精品古装| 日本午夜av视频| 黄网站色视频无遮挡免费观看| 夫妻性生交免费视频一级片| 下体分泌物呈黄色| 中文字幕人妻丝袜制服| 一边摸一边做爽爽视频免费| 叶爱在线成人免费视频播放| 欧美日韩精品网址| 亚洲一码二码三码区别大吗| 亚洲专区国产一区二区| 亚洲一卡2卡3卡4卡5卡精品中文| 悠悠久久av| 少妇人妻久久综合中文| 欧美成人精品欧美一级黄| 成人国产av品久久久| 亚洲欧美日韩另类电影网站| 亚洲天堂av无毛| 男女午夜视频在线观看| 国产亚洲欧美精品永久| 午夜影院在线不卡| 国产高清videossex| avwww免费| 精品久久蜜臀av无| 亚洲成人国产一区在线观看 | 欧美97在线视频| 国产高清videossex| 精品国产一区二区三区四区第35| 中国国产av一级| 久久久欧美国产精品| 少妇猛男粗大的猛烈进出视频| 亚洲精品美女久久av网站| 又黄又粗又硬又大视频| 狠狠婷婷综合久久久久久88av| 国产亚洲av高清不卡| 日韩一本色道免费dvd| 婷婷成人精品国产| 国产精品一国产av| 国产成人系列免费观看| 在线av久久热| 无遮挡黄片免费观看| 满18在线观看网站| 2021少妇久久久久久久久久久| 人妻 亚洲 视频| 国产精品免费大片| 久久国产精品男人的天堂亚洲| 亚洲情色 制服丝袜| 性高湖久久久久久久久免费观看| 黄色毛片三级朝国网站| 性色av乱码一区二区三区2| netflix在线观看网站| 一级,二级,三级黄色视频| 水蜜桃什么品种好| 少妇人妻 视频| 欧美成人精品欧美一级黄| 精品久久蜜臀av无| 自线自在国产av| 亚洲欧洲日产国产| 国产精品麻豆人妻色哟哟久久| 99久久精品国产亚洲精品| 极品少妇高潮喷水抽搐| 两人在一起打扑克的视频| 80岁老熟妇乱子伦牲交| 久久久久精品国产欧美久久久 | 亚洲人成电影免费在线| 悠悠久久av| 亚洲综合色网址| 999久久久国产精品视频| 免费久久久久久久精品成人欧美视频| 国产日韩欧美视频二区| 成年人免费黄色播放视频| 我的亚洲天堂| 国产亚洲精品久久久久5区| www.熟女人妻精品国产| 久久久国产精品麻豆| 国产精品免费视频内射| 男女下面插进去视频免费观看| 悠悠久久av| 亚洲精品国产一区二区精华液| 国产在线免费精品| 高潮久久久久久久久久久不卡| 欧美xxⅹ黑人| 蜜桃国产av成人99| av又黄又爽大尺度在线免费看| 日韩视频在线欧美| av国产精品久久久久影院| 99国产精品一区二区蜜桃av | 最近最新中文字幕大全免费视频 | 一级毛片黄色毛片免费观看视频| 国产99久久九九免费精品| 亚洲av美国av| 无限看片的www在线观看| 国产成人精品久久久久久| 欧美成人精品欧美一级黄| 亚洲av国产av综合av卡| 国产亚洲av片在线观看秒播厂| 欧美日韩福利视频一区二区| 伊人久久大香线蕉亚洲五| 国产高清videossex| 欧美老熟妇乱子伦牲交| 美国免费a级毛片| 亚洲欧美精品自产自拍| 三上悠亚av全集在线观看| 国产麻豆69| 国产亚洲av片在线观看秒播厂| 青青草视频在线视频观看| 欧美人与善性xxx| 欧美性长视频在线观看| 亚洲九九香蕉| 国产亚洲av高清不卡| 成人国语在线视频| 人人妻人人爽人人添夜夜欢视频| www日本在线高清视频| 中文字幕人妻丝袜制服| 女人被躁到高潮嗷嗷叫费观| www.精华液| 国产成人一区二区在线| 中文字幕精品免费在线观看视频| 亚洲一码二码三码区别大吗| 成人国产一区最新在线观看 | 一级黄色大片毛片| 黑丝袜美女国产一区| 亚洲中文字幕日韩| 中文字幕色久视频| 国产精品久久久人人做人人爽| av电影中文网址| 欧美日韩亚洲综合一区二区三区_| 老汉色∧v一级毛片| 亚洲欧美一区二区三区国产| 纵有疾风起免费观看全集完整版| 国产亚洲av高清不卡| 91成人精品电影| 亚洲美女黄色视频免费看| 91字幕亚洲| av网站在线播放免费| 欧美日本中文国产一区发布| 亚洲精品乱久久久久久| 久久av网站| 丁香六月欧美| 黄色视频不卡| 91精品伊人久久大香线蕉| 久久精品人人爽人人爽视色| 夜夜骑夜夜射夜夜干| 天天添夜夜摸| 亚洲一区中文字幕在线| 亚洲av日韩精品久久久久久密 | avwww免费| 两人在一起打扑克的视频| 日韩欧美一区视频在线观看| 777米奇影视久久| 热99久久久久精品小说推荐|