• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于語義分割的作物壟間導(dǎo)航路徑識(shí)別

    2021-12-29 08:09:32饒秀勤朱逸航張延寧楊海濤張小敏林洋洋耿金鳳應(yīng)義斌
    關(guān)鍵詞:語義模型

    饒秀勤,朱逸航,張延寧,楊海濤,張小敏,林洋洋,耿金鳳,應(yīng)義斌

    基于語義分割的作物壟間導(dǎo)航路徑識(shí)別

    饒秀勤1,2,朱逸航1,2,張延寧1,2,楊海濤3,張小敏1,2,林洋洋1,2,耿金鳳1,4,5,應(yīng)義斌1,2

    (1. 浙江大學(xué)生物系統(tǒng)工程與食品科學(xué)學(xué)院,杭州 310058;2. 農(nóng)業(yè)農(nóng)村部農(nóng)產(chǎn)品產(chǎn)地處理裝備重點(diǎn)實(shí)驗(yàn)室,杭州 310058;3. 浙江大學(xué)數(shù)學(xué)科學(xué)學(xué)院,杭州 310058;4. 棗莊學(xué)院機(jī)電工程學(xué)院,棗莊 277101;5. 新多集團(tuán)有限公司,永康 321300)

    針對目前農(nóng)作物壟間導(dǎo)航路徑識(shí)別目前存在準(zhǔn)確性、實(shí)時(shí)性差、通用性弱及深度學(xué)習(xí)模型解釋困難等問題,該研究在Unet模型的基礎(chǔ)上進(jìn)行剪枝與優(yōu)化,提出了保留Unet模型特征跳躍連接優(yōu)勢的Fast-Unet模型,并以模型所識(shí)別的導(dǎo)航路徑為基礎(chǔ),通過最小二乘法回歸生成壟間導(dǎo)航線與偏航角。該研究首先在棉花壟間導(dǎo)航路徑數(shù)據(jù)集上進(jìn)行模型訓(xùn)練,隨后將訓(xùn)練的模型遷移至玉米、甘蔗等小樣本數(shù)據(jù)集進(jìn)行導(dǎo)航路徑識(shí)別,通過使用梯度加權(quán)類激活映射法對模型識(shí)別過程與遷移學(xué)習(xí)過程進(jìn)行解釋,對各模型識(shí)別結(jié)果進(jìn)行可視化對比。Fast-Unet模型對棉花、玉米、甘蔗導(dǎo)航路徑提取精度指標(biāo)平均交并比分別為0.791、0.881和0.940。模型推理速度為Unet的6.48倍,在單核CPU上處理RGB圖像的推理速度為64.67幀/s,滿足農(nóng)作物導(dǎo)航路徑識(shí)別的實(shí)時(shí)性需求。研究結(jié)果可為田間智能農(nóng)業(yè)裝備的導(dǎo)航設(shè)備研制提供技術(shù)與理論基礎(chǔ)。

    圖像處理;導(dǎo)航;路徑識(shí)別;語義分割;遷移學(xué)習(xí);深度學(xué)習(xí)

    0 引 言

    智能農(nóng)業(yè)裝備在田間作業(yè)時(shí)的導(dǎo)航路徑控制是農(nóng)業(yè)向智能化方向發(fā)展過程中至關(guān)重要的一環(huán)[1]。目前智能農(nóng)機(jī)田間路徑導(dǎo)航以衛(wèi)星定位系統(tǒng)導(dǎo)航和機(jī)器視覺導(dǎo)航為主[2]?;谛l(wèi)星定位系統(tǒng)的導(dǎo)航技術(shù)精度有限[3],多適用于大田路徑規(guī)劃場景。機(jī)器視覺技術(shù)可以識(shí)別田壟間導(dǎo)航路徑,解決田間種植行間距窄、田間先遣路徑難以保持穩(wěn)定等情況,解決農(nóng)機(jī)易產(chǎn)生壓苗的問題[4-6],為智能農(nóng)業(yè)裝備提供實(shí)時(shí)導(dǎo)航信息[7]。但目前基于機(jī)器視覺的導(dǎo)航方案依舊面臨田間光照環(huán)境多變和田間路況復(fù)雜的挑戰(zhàn)[8-12]。通常情況下,傳統(tǒng)機(jī)器視覺方法只能在特定作物、特定環(huán)境下有效,泛化能力較弱。此外,農(nóng)機(jī)在行進(jìn)中需要實(shí)時(shí)進(jìn)行路徑調(diào)整,對圖像數(shù)據(jù)進(jìn)行實(shí)時(shí)處理也是機(jī)器視覺導(dǎo)航的另一大挑戰(zhàn)[13-15]。

    近年來,深度學(xué)習(xí)在機(jī)器視覺領(lǐng)域發(fā)展迅速[16],其中的卷積神經(jīng)網(wǎng)絡(luò)算法更是被廣泛應(yīng)用于各類農(nóng)業(yè)視覺任務(wù)場景[17-19],并取得較好的效果。而在結(jié)構(gòu)化道路識(shí)別方面,卷積神經(jīng)網(wǎng)絡(luò)已被廣泛應(yīng)用于結(jié)構(gòu)化道路下的汽車自動(dòng)駕駛[20]。同時(shí),使用基于深度學(xué)習(xí)的機(jī)器視覺技術(shù)可以避免因人為選擇圖像特征而產(chǎn)生的局限性[10],提高機(jī)器視覺算法的精確性與魯棒性。

    已有學(xué)者在基于深度學(xué)習(xí)算法的非結(jié)構(gòu)化道路識(shí)別與導(dǎo)航領(lǐng)域開展研究,如Lin等[21]實(shí)現(xiàn)了一種基于深度學(xué)習(xí)的像素級(jí)道路檢測和機(jī)器人導(dǎo)航控制方案。宋廣虎等[22]使用全卷積網(wǎng)絡(luò)(Fully Convolutional Networks,F(xiàn)CN)[23]在葡萄種植園中檢測行間道路并實(shí)現(xiàn)精確導(dǎo)航。李云伍等[24]使用FCN實(shí)現(xiàn)了丘陵山區(qū)田間道路場景的語義分割,平均交并比(MIoU)達(dá)到0.732。Lin等[13]在FCN的基礎(chǔ)上提出并利用Enet對茶葉種植場景的茶行輪廓進(jìn)行語義分割,MIoU達(dá)到0.734,為騎式采茶機(jī)提供實(shí)時(shí)導(dǎo)航。Badrinarayanan等提出的基于FCN的SegNet[25]進(jìn)一步提高了自動(dòng)駕駛的圖像語義分割識(shí)別精度。

    但目前基于語義分割的田壟間道路識(shí)別方法依舊存在以下幾個(gè)問題:一是在深度學(xué)習(xí)語義分割算法帶來的高精度的同時(shí),需要考慮與計(jì)算資源的高算力需求之間的平衡問題;二是現(xiàn)有研究大多關(guān)注于單一作物壟間場景的導(dǎo)航路徑識(shí)別,缺乏一種相對通用的方法;三是基于深度學(xué)習(xí)語義分割算法在作物壟間導(dǎo)航路徑識(shí)別過程中不能得到較好的解釋。

    針對上述問題,本研究基于卷積神經(jīng)網(wǎng)絡(luò)建立基于Unet[26]的實(shí)時(shí)棉花壟間圖像語義分割模型,并對模型進(jìn)行剪枝與優(yōu)化,提出Fast-Unet模型,在棉花壟間導(dǎo)航路徑識(shí)別的基礎(chǔ)上進(jìn)行小樣本遷移學(xué)習(xí),檢驗(yàn)所建模型對玉米及甘蔗的壟間導(dǎo)航路徑識(shí)別性能,并提取導(dǎo)航線,檢驗(yàn)導(dǎo)航偏航角,以解決單一作物壟間導(dǎo)航路徑識(shí)別泛化性差的問題。此外,本研究通過梯度加權(quán)類激活映射法[27](Gradient-weighted Class Activation Mapping,Grad-CAM)解釋本文算法的末端分類規(guī)則及遷移學(xué)習(xí)優(yōu)勢的合理性,為模型產(chǎn)生的偏差與效果提供解釋,以解決深度學(xué)習(xí)語義分割算法可解釋性較弱的問題。

    1 材料與方法

    1.1 數(shù)據(jù)集構(gòu)建

    本研究從復(fù)雜場景出發(fā),以作物生長高度與姿態(tài)為依據(jù)選取3種作物代表常見的大田壟間導(dǎo)航場景。中等高度常見作物以棉花為代表;相對高大的直立作物以玉米為代表,相對低矮的作物以幼苗期的甘蔗為代表。如圖1所示,本研究所選取的作物均在導(dǎo)航路徑上方存在交錯(cuò)葉片,增加了導(dǎo)航路徑的識(shí)別場景復(fù)雜度。

    本文使用Vision Datum公司的Mars2000-50gc相機(jī),分別于2020年7月在安徽省安慶市望江縣棉花試驗(yàn)田中采集盛蕾期棉花圖像數(shù)據(jù),棉花品種為中棉所63號(hào);2021年5月在山東省棗莊市薛城區(qū)采集穗期玉米圖像數(shù)據(jù),玉米品種為農(nóng)大108;2020年10月在廣西省北海市合浦縣采集青皮甘蔗幼苗期圖像數(shù)據(jù)。在采集時(shí)相機(jī)安裝于移動(dòng)平臺(tái)上,在移動(dòng)平臺(tái)移動(dòng)時(shí)對當(dāng)前的作物壟間圖像進(jìn)行連續(xù)采集。試驗(yàn)先選取800幅分辨率為1 900×1 180的棉花壟間導(dǎo)航路徑圖片并進(jìn)行標(biāo)注,生成棉花數(shù)據(jù)集;采集相同像素的玉米壟間圖片100幅,甘蔗壟間圖像100幅,分別生成玉米數(shù)據(jù)集與甘蔗數(shù)據(jù)集。圖像示例如圖1所示。

    棉花壟間導(dǎo)航路徑數(shù)據(jù)集按4∶1劃分為訓(xùn)練集和驗(yàn)證集,訓(xùn)練集共640幅圖像,驗(yàn)證集共160幅圖像。

    用于遷移學(xué)習(xí)的玉米壟間導(dǎo)航路徑與甘蔗導(dǎo)航路徑數(shù)據(jù)集按1∶1劃分為訓(xùn)練集和驗(yàn)證集,訓(xùn)練集50幅圖像,驗(yàn)證集50幅圖像。

    1.2 數(shù)據(jù)增強(qiáng)

    為了擴(kuò)增數(shù)據(jù)集,本文在模型訓(xùn)練過程中采用原始輸入圖像隨機(jī)旋轉(zhuǎn)90°、水平或者垂直翻轉(zhuǎn)、調(diào)整圖像色相飽和度明度(Hue,Saturation,Value,HSV)等方法進(jìn)行隨機(jī)數(shù)據(jù)增強(qiáng),以提高模型的魯棒性和準(zhǔn)確性。在每次迭代訓(xùn)練讀取圖片數(shù)據(jù)時(shí),原始圖像按順序執(zhí)行上述步驟。每個(gè)步驟會(huì)有50%的概率觸發(fā)變化。HSV隨機(jī)變換限制在一定范圍內(nèi),色調(diào)(H)的變換范圍小于20°,飽和度(S)的變換范圍小于30%,明度(V)的變換范圍小于20%。

    隨機(jī)旋轉(zhuǎn)和翻轉(zhuǎn)圖像為數(shù)據(jù)集中各類作物壟間導(dǎo)航路徑的方向確認(rèn)提供保障,圖像HSV隨機(jī)調(diào)整為模型適應(yīng)不均勻的自然光照環(huán)境提供了保障。

    1.3 評價(jià)指標(biāo)

    在語義分割任務(wù)中,一般從模型推理速度,模型參數(shù)數(shù)量和精度3個(gè)方面進(jìn)行考量。推理速度代表模型的實(shí)時(shí)性水平,模型參數(shù)量代表模型對計(jì)算機(jī)的內(nèi)存占用水平,精度估算選取平均交并比(Mean Intersection-over- Union,MIoU)。

    推理速度本文采用每秒處理幀數(shù)(Frames Per Second,F(xiàn)PS)表示,為排除計(jì)算機(jī)硬盤讀寫速度對算法性能的干擾,本文在計(jì)算推理速度時(shí)排除所有數(shù)據(jù)集讀取時(shí)間與圖像加載時(shí)間,僅計(jì)算圖像從輸入模型到輸出的時(shí)間。

    模型參數(shù)數(shù)量使用算法在運(yùn)行時(shí)實(shí)際占用計(jì)算機(jī)內(nèi)存資源數(shù)值。

    MIoU是在語義分割任務(wù)中的一種標(biāo)準(zhǔn)度量,真實(shí)值與預(yù)測值2個(gè)集合的交集和并集之比,計(jì)算公式如下:

    2 基于語義分割的農(nóng)作物壟間路徑識(shí)別模型

    基于深度學(xué)習(xí)的語義分割算法對圖像進(jìn)行像素級(jí)的分類。輸入圖片進(jìn)行深度神經(jīng)網(wǎng)絡(luò)處理時(shí)被卷積層和池化層編碼[28]。編碼器的輸出經(jīng)過解碼器進(jìn)行解碼,生成輸出圖像。解碼器由雙線性差值或反卷積進(jìn)行上采樣生成,增加高階特征的分辨率,確保輸出圖像大小與輸入圖像相同,并對每個(gè)像素的類別進(jìn)行預(yù)測。

    FCN、SegNet和Unet作為編碼-解碼框架下的經(jīng)典模型,具有準(zhǔn)確度高的特點(diǎn),但其運(yùn)算量大,運(yùn)行相對緩慢。針對該問題,本文在Unet的基礎(chǔ)上進(jìn)行剪枝與優(yōu)化,提出Fast-Unet模型。

    2.1 語義分割模型

    傳統(tǒng)的FCN在圖像語義分割中各尺度特征間的聯(lián)系有限,Unet解決了該問題,但Unet網(wǎng)絡(luò)運(yùn)行效率不高,因此本文在Unet基礎(chǔ)上提出了Fast-Unet模型。Unet網(wǎng)絡(luò)通過跳躍連接將網(wǎng)絡(luò)下采樣時(shí)的高分辨率信息與上采樣時(shí)的低分辨率信息使用特征疊加的方式整合,以豐富采樣信息,提高分割精度。

    為滿足智能農(nóng)機(jī)導(dǎo)航路徑識(shí)別的實(shí)時(shí)性需求,本文對Unet結(jié)構(gòu)進(jìn)行優(yōu)化。考慮到作物壟間導(dǎo)航路徑的分類任務(wù)與城市場景分類任務(wù)相比較為簡單,縮減75%卷積核數(shù)量與前向傳遞推導(dǎo)過程中的特征圖數(shù)量,F(xiàn)ast-Unet模型參數(shù)的減少為路徑識(shí)別的實(shí)時(shí)性提供了保障。

    為了進(jìn)一步加快運(yùn)行速度,本文將Unet及FCN中常用的反卷積上采樣操作替換為雙線性插值法,在保持精度水平基本不變的前提下,降低模型運(yùn)算量。Fast-Unet的網(wǎng)絡(luò)架構(gòu)如圖3所示。

    2.2 遷移學(xué)習(xí)

    遷移學(xué)習(xí)是深度學(xué)習(xí)模型運(yùn)用已有知識(shí)對新知識(shí)進(jìn)行學(xué)習(xí)的過程,其核心是尋找已有知識(shí)和新知識(shí)之間的相似性[29]。在遷移學(xué)習(xí)中,已有知識(shí)稱為源域,本文源域是棉花壟間導(dǎo)航路徑識(shí)別數(shù)據(jù)集的特征空間,目標(biāo)域是玉米與甘蔗壟間導(dǎo)航路徑數(shù)據(jù)集的特征空間。源域與目標(biāo)域不同但是有一定的關(guān)聯(lián)。

    本文基于模型遷移,假設(shè)源域與目標(biāo)域可以共享一些模型參數(shù),將源域的特征空間上學(xué)習(xí)到的模型應(yīng)用于目標(biāo)域的特征空間上,再根據(jù)目標(biāo)域?qū)W習(xí)新的模型。

    2.3 模型可解釋性

    為了更好地理解本文所提出的Fast-Unet模型,并對其語義分割的視覺任務(wù)進(jìn)行可視化解釋,采用Grad-CAM方法,在沒有注意力機(jī)制的基礎(chǔ)上對圖像位置進(jìn)行判別,并且不需要修改網(wǎng)絡(luò)結(jié)構(gòu)與重新訓(xùn)練。

    Grad-CAM使用流入最后一個(gè)卷積層的梯度信息為每個(gè)神經(jīng)元分配權(quán)重,并基于特定的關(guān)注進(jìn)行決策。本文只解釋輸出層的決策內(nèi)容。

    2.4 導(dǎo)航路徑與導(dǎo)航線提取

    對作物壟間導(dǎo)航路徑識(shí)別后,進(jìn)一步基于已有路徑提取壟間道路導(dǎo)航線。由于玉米與甘蔗的壟間導(dǎo)航路徑基本為直線,因此可以求取其偏航角。

    首先,深度學(xué)習(xí)語義分割模型對壟間導(dǎo)航路徑進(jìn)行分割,生成由壟間導(dǎo)航路徑與背景所構(gòu)成的二值化圖像,如圖4b所示。選取二值化圖像中的最大連通區(qū)域作為壟間導(dǎo)航路徑,并使用Canny算子提取最大聯(lián)通區(qū)域的邊界,如圖4c所示。隨后,將邊界上的點(diǎn)求中值,生成路徑中心線散點(diǎn)圖,如圖4d所示。最后,將中心線散點(diǎn)圖以圖像長寬為坐標(biāo)軸進(jìn)行一元一次方程的最小二乘回歸,求出導(dǎo)航線方程,如圖4e所示。偏航角為回歸函數(shù)斜率系數(shù)倒數(shù)的反正切函數(shù)值,計(jì)算公式如下:

    本文將由標(biāo)記數(shù)據(jù)回歸生成的導(dǎo)航線作為真值,與預(yù)測數(shù)據(jù)回歸生成的預(yù)測值進(jìn)行對比,計(jì)算偏航角的平均差距與偏航線位置的平均差異。

    平均偏航角的計(jì)算公式為:

    3 結(jié)果與分析

    3.1 試驗(yàn)平臺(tái)

    試驗(yàn)中模型訓(xùn)練的計(jì)算機(jī)處理器為Intel(R)Xeon(R)Gold 6147M,基準(zhǔn)頻率為2.50 GHz,圖形處理器(GPU)為NVIDIA TITAN RTX,內(nèi)存為256 GB,操作系統(tǒng)為Ubuntu 18.04.1。

    為模擬實(shí)際場景,測試模型的計(jì)算機(jī)處理器為Intel(R)Core(R)i5-4258UM,基準(zhǔn)頻率為2.40 GHz的CPU的單一核心,無獨(dú)立GPU,內(nèi)存為8 GB,操作系統(tǒng)為macOS。

    3.2 超參數(shù)設(shè)置與模型訓(xùn)練

    本文作物壟間導(dǎo)航路徑識(shí)別訓(xùn)練時(shí)所采用的超參數(shù)為:迭代次數(shù)(Epochs)為100次,最小批處理大?。∕iniBatch Size)為32張圖片。采用學(xué)習(xí)率衰減訓(xùn)練策略中的學(xué)習(xí)率調(diào)整策略,學(xué)習(xí)率分布如表1所示。

    表1 學(xué)習(xí)率調(diào)整策略

    田壟間導(dǎo)航路徑識(shí)別任務(wù)明確,與常規(guī)語義分割物體識(shí)別任務(wù)差異較大,同時(shí)棉花導(dǎo)航路徑數(shù)據(jù)充足,因此棉花數(shù)據(jù)集在訓(xùn)練時(shí)并沒有使用遷移學(xué)習(xí)。對玉米及甘蔗數(shù)據(jù)集進(jìn)行遷移學(xué)習(xí)訓(xùn)練時(shí),將在棉花數(shù)據(jù)集上通過直接訓(xùn)練得到的最佳模型參數(shù)作為新模型的初始訓(xùn)練參數(shù),其余訓(xùn)練參數(shù)和學(xué)習(xí)率策略與原始訓(xùn)練保持一致。

    使用BCEDiceLoss作為訓(xùn)練的損失函數(shù)。該損失函數(shù)由Dice Loss和二分類交叉熵?fù)p失(Binary Cross Entropy Loss,BCELoss)按權(quán)重加權(quán)計(jì)算,具體公式如下:

    DiceLoss從全局出發(fā)判斷預(yù)測圖的分類效果,而BCELoss從細(xì)節(jié)出發(fā)判斷每個(gè)像素點(diǎn)分類效果。本文對作物壟間導(dǎo)航路徑的識(shí)別需要注重全局判斷的準(zhǔn)確性,并兼顧細(xì)節(jié),所以在BCEDiceLoss的計(jì)算中賦予DiceLoss更高的權(quán)重,本文設(shè)=0.5。

    訓(xùn)練過程中FCN模型、SegNet模型、Unet模型以及本文Fast-Unet模型的損失函數(shù)曲線,如圖5所示。

    由圖5可以看出,訓(xùn)練集的損失函數(shù)隨著迭代次數(shù)的增加而下降。觀察模型在驗(yàn)證集上的損失計(jì)算可以發(fā)現(xiàn),在迭代次數(shù)達(dá)到30次左右時(shí),3個(gè)模型的驗(yàn)證集損失函數(shù)值已基本保持不變,繼續(xù)下調(diào)學(xué)習(xí)率也不能對模型產(chǎn)生明顯的改善。本文Fast-Unet模型的表現(xiàn)介于Unet和FCN模型之間。

    分別對FCN、SegNet、Unet及Fast-Unet模型的最后一層卷積層進(jìn)行可視化,以棉花田壟間導(dǎo)航路徑識(shí)別為例得到如圖6所示的結(jié)果。

    觀察模型的CAM圖發(fā)現(xiàn)3種模型,對于作物壟間道路的關(guān)注區(qū)域有所不同。從圖6d中觀察到FCN的關(guān)注區(qū)域集中于局部,各個(gè)尺度特征間的聯(lián)系有限,對全圖像尺度特征識(shí)別存在明顯缺陷。從圖6c和圖6e中觀察到SegNet和Unet的關(guān)注區(qū)域已將作物壟間導(dǎo)航路徑進(jìn)行覆蓋,更多聚焦在導(dǎo)航路徑周邊的作物上。可以判斷SegNet和Unet在識(shí)別時(shí)受較多深層尺度信息的干擾。網(wǎng)絡(luò)結(jié)構(gòu)在多次下采樣后讀取的信息更關(guān)注于圖像的大尺寸特征,而SegNet與Unet的網(wǎng)絡(luò)結(jié)構(gòu)在下采樣后保留了數(shù)倍于Fast-Unet的特征圖。本研究所用的數(shù)據(jù)集較小,輸入圖像尺寸小,當(dāng)模型存在大量深層特征圖時(shí)更容易發(fā)生偏向于大尺寸特征的過擬合。從圖6f中可以觀察到,本文Fast-Unet模型更關(guān)注于作物壟間導(dǎo)航路徑內(nèi)的特征,該優(yōu)勢來源于對Unet的結(jié)構(gòu)優(yōu)化,去除了大量的特征圖,僅保留了最重要的特征提取器,因此對特征的讀取也更接近圖6b的人工標(biāo)簽及圖6a的路徑彎曲特征。

    為了驗(yàn)證模型在多種作物壟間導(dǎo)航路徑的識(shí)別與分割,以場景最為復(fù)雜的棉花壟間導(dǎo)航路徑數(shù)據(jù)集作為源域,向場景相對簡單的玉米與甘蔗導(dǎo)航路徑數(shù)據(jù)集的目標(biāo)域上遷移。遷移學(xué)習(xí)時(shí)訓(xùn)練的Fast-Unet的損失數(shù)如圖 7所示。

    由圖7中可以觀察到,不論是玉米導(dǎo)航路徑還是甘蔗導(dǎo)航路徑,遷移學(xué)習(xí)過程的初始損失值都遠(yuǎn)低于非遷移學(xué)習(xí)過程的初始損失值,并且遷移學(xué)習(xí)中訓(xùn)練集與驗(yàn)證集的損失值差距小于非遷移數(shù)據(jù)集。此外,在使用遷移學(xué)習(xí)的過程中,模型損失函數(shù)在第30次迭代前基本收斂。

    在非遷移學(xué)習(xí)情況下,驗(yàn)證集的損失函數(shù)值在第70次迭代后才開始快速下降,而第70次迭代時(shí)模型的訓(xùn)練學(xué)習(xí)率調(diào)整降至最低的0.000 1。低學(xué)習(xí)率訓(xùn)練的主要目的是對模型進(jìn)行微調(diào),進(jìn)一步改進(jìn)其性能。而在非遷移學(xué)習(xí)的環(huán)境中,最低學(xué)習(xí)率的步驟卻起到了降低損失函數(shù)值的主導(dǎo)作用。本文遷移學(xué)習(xí)所用的目標(biāo)域數(shù)據(jù)集較小,該現(xiàn)象很可能是源于模型對數(shù)據(jù)中非關(guān)鍵特征產(chǎn)生過擬合現(xiàn)象。本文對各模型識(shí)別過程使用Grad-CAM,對識(shí)別特征進(jìn)行可視化,進(jìn)而繼續(xù)解釋模型的關(guān)注重點(diǎn)。

    從可視化結(jié)果(圖8)可以發(fā)現(xiàn),遷移學(xué)習(xí)模型與直接訓(xùn)練模型的最終關(guān)注點(diǎn)存在較大的差異。首先從圖8f和圖8h觀察到,基于遷移學(xué)習(xí)的方法擁有較大的激活區(qū)域,且激活的區(qū)域基本與識(shí)別的主干道路匹配,從甘蔗導(dǎo)航路徑Grad-CAM(圖8h)中可以觀察到,周邊的壟間導(dǎo)航路徑也同樣被關(guān)注,代表本文模型的輸出結(jié)果是先識(shí)別出所有的導(dǎo)航路徑后再進(jìn)行選擇需要輸出的部分。而從圖8e和圖8g中可以觀察到,直接由小樣本訓(xùn)練產(chǎn)生的模型則關(guān)注圖像的中下部位,玉米壟間路徑識(shí)別的強(qiáng)度較高,模型有過擬合可能,甘蔗導(dǎo)航路徑識(shí)別的總體信號(hào)則偏弱,模型對關(guān)鍵信息提取不足。

    對預(yù)測結(jié)果的二值化圖進(jìn)行觀察發(fā)現(xiàn),圖8f相較于圖8e與圖8b的標(biāo)簽更接近,圖8h相較于圖8g與標(biāo)注的道路數(shù)據(jù)真值更為相似。更適合作為導(dǎo)航路徑。

    3.3 模型性能驗(yàn)證

    以棉花棉花壟間導(dǎo)航路徑數(shù)據(jù)集以96×96(像素)的RGB圖片作為輸入,試驗(yàn)結(jié)果如表2所示。可以看出,Unet網(wǎng)絡(luò)在精度、推理速度、模型參數(shù)量3個(gè)方面相較于FCN具有一定的優(yōu)勢。Unet網(wǎng)絡(luò)的平均交并比、推理速度分別為0.805、9.98幀/s,相對于FCN模型分別提高4.14%和34.50%;Unet網(wǎng)絡(luò)的模型參數(shù)量為7.85×106,相較于FCN網(wǎng)絡(luò)減少了60.95%。

    本文Fast-Unet模型在精度上高于FCN但是略低于Unet,而模型參數(shù)量僅為Unet網(wǎng)絡(luò)的6.24%。在單個(gè)CPU核上的推理速度是Unet網(wǎng)絡(luò)的6.48倍。

    表2 模型性能對比

    基于棉花壟間導(dǎo)航路徑數(shù)據(jù)集訓(xùn)練的Fast-Unet模型遷移學(xué)習(xí)后在玉米和甘蔗數(shù)據(jù)集的模型精度表現(xiàn)如下表 3所示。

    表3 Fast-Unet遷移學(xué)習(xí)MIoU結(jié)果比較

    甘蔗與玉米導(dǎo)航路徑數(shù)據(jù)集在使用遷移學(xué)習(xí)方法訓(xùn)練所得模型的MIoU都優(yōu)于非遷移學(xué)習(xí)訓(xùn)練模型。在SegNet、FCN、Unet網(wǎng)絡(luò)中,甘蔗導(dǎo)航路徑遷移學(xué)習(xí)的MIoU相較非遷移學(xué)習(xí)分別提升214.97%、435.63%、275.38%;玉米導(dǎo)航路徑遷移學(xué)習(xí)的MIoU相較非遷移學(xué)習(xí)分別提升56.64%、21.05%、10.16%。在遷移學(xué)習(xí)后,本文Fast-Unet模型和Unet模型的MIoU仍處于類似水平。在識(shí)別難度相對較低的甘蔗導(dǎo)航路徑場景中,F(xiàn)ast-Unet在遷移學(xué)習(xí)與非遷移學(xué)習(xí)中都取得了更高M(jìn)IoU,相較于Unet分別提升了0.43%、38.77%。

    3.4 導(dǎo)航線提取結(jié)果

    棉花田壟間的導(dǎo)航因?yàn)榇嬖谛鼍皟?nèi)道路曲折的問題,不適宜使用最小二乘回歸方法生成導(dǎo)航的回歸線并計(jì)算偏航角,針對此類情況,直接選取生成路徑的中線。甘蔗與玉米的導(dǎo)航線提取結(jié)果具體如表4所示。

    表4 各種模型對不同作物條件下的偏航角統(tǒng)計(jì)

    從表4可以看出,Unet與Fast-Unet的導(dǎo)航性能基本沒有差異,導(dǎo)航線的精度表現(xiàn)與導(dǎo)航路徑的MIoU的結(jié)果類似。Unet與Fast-Unet模型在甘蔗和玉米田的偏航角平均僅相差0.066、0.003。

    此外,本文的甘蔗導(dǎo)航路徑識(shí)別因?yàn)樽陨硖卣髅黠@,所以相較于玉米導(dǎo)航路徑識(shí)別精度更高。而大部分作物壟間導(dǎo)航路徑的識(shí)別難度在甘蔗導(dǎo)航路徑識(shí)別與玉米導(dǎo)航路徑識(shí)別之間,因此可以推斷本文提出的Fast-Unet模型在遷移學(xué)習(xí)的條件下能夠準(zhǔn)確識(shí)別其他類別作物的導(dǎo)航路徑并計(jì)算偏航角。

    4 結(jié) 論

    本研究針對智能農(nóng)業(yè)裝備在田壟間作業(yè)的導(dǎo)航問題,在語義分割算法Unet的基礎(chǔ)上通過剪枝與優(yōu)化模型結(jié)構(gòu)提出了Fast-Unet模型。并通過遷移學(xué)習(xí)實(shí)現(xiàn)在棉花、甘蔗以及玉米3種作物在田間自然光照及作物遮擋道路條件下的壟間導(dǎo)航路徑的有效識(shí)別。主要結(jié)論如下:

    1)本研究在Unet的基礎(chǔ)上提出了Fast-Unet模型,模型對棉花、玉米、甘蔗導(dǎo)航路徑識(shí)別精度MIoU分別為0.791、0.881和0.940,在保證精度的前提下,F(xiàn)ast-Unet模型的參數(shù)數(shù)量為Unet的6.24%,推理速度為Unet的6.48倍,單核CPU的處理速度為64.47 幀/s,滿足嵌入式環(huán)境下的實(shí)時(shí)性需求。

    2)使用遷移學(xué)習(xí)將在大樣本棉花數(shù)據(jù)集上訓(xùn)練完成的模型遷移至甘蔗和玉米的小樣本數(shù)據(jù)集。驗(yàn)證通過小樣本遷移學(xué)習(xí)進(jìn)行拓展作物適用范圍的可行性,提出了壟間導(dǎo)航路徑識(shí)別的通用方法。

    3)采用Grad-CAM方法對研究過程中的模型差異及是否使用遷移學(xué)習(xí)進(jìn)行可視化解釋,討論了不同模型架構(gòu)在進(jìn)行導(dǎo)航路徑識(shí)別時(shí)的差異來源。從激活區(qū)域的位置與強(qiáng)度出發(fā)進(jìn)一步解釋了模型的關(guān)注點(diǎn),驗(yàn)證了Fast-Unet設(shè)計(jì)思路的合理性。通過Grad-CAM解決了深度學(xué)習(xí)語義分割算法在作物壟間導(dǎo)航路徑識(shí)別過程中難以得到較好解釋的問題。

    4)通過Canny邊緣檢測從模型識(shí)別的導(dǎo)航路徑中提取出導(dǎo)航路徑中線,作為農(nóng)機(jī)導(dǎo)航線。對于甘蔗及玉米等導(dǎo)航路徑以直線為主的場景,將農(nóng)機(jī)導(dǎo)航線通過最小二乘法回歸即可計(jì)算出農(nóng)機(jī)在田間移動(dòng)時(shí)所需的偏航角。

    [1] 張漫,季宇寒,李世超,等. 農(nóng)業(yè)機(jī)械導(dǎo)航技術(shù)研究進(jìn)展[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(4):1-18.

    Zhang Man, Ji Yuhan, Li Shichao, et al. Research progress of agricultural machinery navigation technology[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(4): 1-18. (in Chinese with English abstract)

    [2] 胡靜濤,高雷,白曉平,等. 農(nóng)業(yè)機(jī)械自動(dòng)導(dǎo)航技術(shù)研究進(jìn)展[J]. 農(nóng)業(yè)工程學(xué)報(bào),2015,31(10):1-10.

    Hu Jingtao, Gao Lei, Bai Xiaoping, et al. Review of research on automatic guidance of agricultural vehicles[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2015, 31(10): 1-10. (in Chinese with English abstract)

    [3] Gao X, Li J, Fan L. Review of wheeled mobile robots' navigation problems and application prospects in agriculture[J]. IEEE Access, 2018, 6: 49248-68.

    [4] 張雄楚. 棉花鋪膜播種作業(yè)拖拉機(jī)視覺導(dǎo)航路徑檢測與控制算法研究[D]. 石河子;石河子大學(xué),2019.

    Zhang Xiongchu. Study on the Visual Navigation Path Detection and Control Algorithm of the Tractor in Cotton Film-Spreading Operation[D]. Shihezi: Shihezi University, 2019. (in Chinese with English abstract)

    [5] 孟慶寬,張漫,仇瑞承,等. 基于改進(jìn)遺傳算法的農(nóng)機(jī)具視覺導(dǎo)航線檢測[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2014,45(10):39-46.

    Meng Qingkuan, Zhang Man, Qiu Ruicheng, et al. Navigation line detection for farm machinery based on Improved genetic algorithm[J]. Transactions of the Chinese Society for Agricultural Machinery, 2014, 45(10): 39-46. (in Chinese with English abstract)

    [6] 宮金良,王祥祥,張彥斐,等. 基于邊緣檢測和區(qū)域定位的玉米根莖導(dǎo)航線提取方法[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(10):26-33.

    Gong Jinliang, Wang Xiangxiang, Zhang Yanfei, et al. Extraction method of corn rhizome navigation lines based on edge detection and area localization[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(10): 26-33. (in Chinese with English abstract)

    [7] 張雄楚,陳兵旗,李景彬,等. 紅棗收獲機(jī)視覺導(dǎo)航路徑檢測[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(13):133-40.

    Zhang Xiongchu, Chen Bingqi, Li Jingbin, et al. Path detection of visual navigation for jujube harvesters[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(13): 133-40. (in Chinese with English abstract)

    [8] 劉路,潘艷娟,陳志健,等. 高遮擋環(huán)境下玉米植保機(jī)器人作物行間導(dǎo)航研究[J]. 農(nóng)業(yè)機(jī)械學(xué)報(bào),2020,51(10):18-24.

    Liu Lu, Pan Yanjuan, Chen Zhijian, et al. Inter-rows navigation method for corn crop protection vehicles under high occlusion environment[J]. Transactions of the Chinese Society for Agricultural Machinery, 2020, 51(10): 18-24. (in Chinese with English abstract)

    [9] 宋懷波,何東健,辛湘俊. 基于機(jī)器視覺的非結(jié)構(gòu)化道路檢測與障礙物識(shí)別方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2011,27(6):225-230.

    Song Huaibo, He Dongjian, Xin Xiangjun. Unstructured road detection and obstacle recognition algorithm based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2011, 27(6): 225-230. (in Chinese with English abstract)

    [10] 趙立明,葉川,張毅,等. 非結(jié)構(gòu)化環(huán)境下機(jī)器人視覺導(dǎo)航的路徑識(shí)別方法[J]. 光學(xué)學(xué)報(bào),2018,38(8):267-276.

    Zhao Liming, Ye Chuan, Zhang Yi, et al. Path recognition method of robot vision navigation in unstructured environments[J]. Acta Optica Sinica, 2018, 38(8): 267-276. (in Chinese with English abstract)

    [11] 呂艷鵬,潘玉田. 基于BP神經(jīng)網(wǎng)絡(luò)的非結(jié)構(gòu)化道路識(shí)別[J]. 機(jī)械工程與自動(dòng)化,2014(3):178-180.

    Lv Yanpeng, Pan Yutian. Unstructured road detection based on BP neural network[J]. Mechanical Engineering & Automation, 2014(3): 178-180. (in Chinese with English abstract)

    [12] 韓樹豐,何勇,方慧. 農(nóng)機(jī)自動(dòng)導(dǎo)航及無人駕駛車輛的發(fā)展綜述[J]. 浙江大學(xué)學(xué)報(bào):農(nóng)業(yè)與生命科學(xué)版,2018,44(4):381-391,515.

    Han Shufeng, He Yong, Fang Hui. Recent development in automatic guidance and autonomous vehicle for agriculture: A review[J]. Journal of Zhejiang University: Agriculture & Life Sciences, 2018, 44(4): 381-391, 515. (in English with Chinese abstract)

    [13] Lin Y, Chen S. Development of navigation system for tea field machine using semantic segmentation[J]. IFAC PapersOnLine, 2019, 52(30): 108-113.

    [14] 李云伍,徐俊杰,王銘楓,等. 丘陵山區(qū)田間道路自主行駛轉(zhuǎn)運(yùn)車及其視覺導(dǎo)航系統(tǒng)研制[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019,35(1):52-61.

    Li Yunwu, Yu Junjie, Wang Mingfeng, et al. Development of autonomous driving transfer trolley on field roads and its visual navigation system for hilly areas[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(1): 52-61. (in Chinese with English abstract)

    [15] 楊洋,張博立,查家翼,等. 玉米行間導(dǎo)航線實(shí)時(shí)提取[J]. 農(nóng)業(yè)工程學(xué)報(bào),2020,36(12):162-171.

    Yang Yang, Zhang Boli, Zha Jiayi, et al. Real-time extraction of navigation line between corn rows[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2020, 36(12): 162-171. (in Chinese with English abstract)

    [16] Lecun Y, Bengio Y, Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436.

    [17] Saleem M, Potgieter J, Arif K. Automation in agriculture by machine and deep learning techniques: a review of recent developments[J]. Precision Agriculture, 2021, 22(6), 2253-2091.

    [18] Kamilaris A, Prenafeta-boldú F. A review of the use of convolutional neural networks in agriculture[J]. The Journal of Agricultural Science, 2018, 156(3): 312-322.

    [19] 鐘昌源,胡澤林,李淼,等. 基于分組注意力模塊的實(shí)時(shí)農(nóng)作物病害葉片語義分割模型[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(4):208-215.

    Zhong Changyuan, Hu Zelin, Li Miao, et al. Real-time semantic segmentation model for crop disease leaves using group attention module[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(4): 208-215. (in Chinese with English abstract)

    [20] 張新鈺,高洪波,趙建輝,等. 基于深度學(xué)習(xí)的自動(dòng)駕駛技術(shù)綜述[J]. 清華大學(xué)學(xué)報(bào):自然科學(xué)版,2018,58(4):438-444.

    Zhang Xinyu, Gao Hongbo, Zhao Jianhui, et al. Overview of deep learning intelligent driving methods[J]. Journal of Tsinghua University: Science and Technology, 2018, 58(4): 438-444. (in Chinese with English abstract)

    [21] Lin J, Wang W, HuangS, et al. Learning based semantic segmentation for robot navigation in outdoor environment[C]// Proceedings of the Joint World Congress of International Fuzzy Systems Association & International Conference on Soft Computing & Intelligent Systems, F, 2017.

    [22] 宋廣虎,馮全,海洋,等. 采用深度學(xué)習(xí)法優(yōu)化的葡萄園行間路徑檢測[J]. 林業(yè)機(jī)械與木工設(shè)備,2019,47(7):24-28.

    Song Guanghu, Feng Quan, Hai Yang, et al. Vineyard inter-row path detection based on deep learning[J]. Forestry Machinery & Woodworking Equipment, 2019, 47 (7): 24-28. (in Chinese with English abstract)

    [23] Long J, Shelhamer E, Darrell T. Fully convolutional networks for semantic segmentation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 39(4): 640-651.

    [24] 李云伍,徐俊杰,劉得雄,等. 基于改進(jìn)空洞卷積神經(jīng)網(wǎng)絡(luò)的丘陵山區(qū)田間道路場景識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2019,35(7):150-159.

    Li Yunwu, Xu Junjie, Liu Dexiong, et al. Field road scene recognition in hilly regions based on improved dilated convolutional networks[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2019, 35(7): 150-159. (in Chinese with English abstract)

    [25] Badrinarayanan V, Kendall A, Cipolla R. SegNet: A deep convolutional encoder-decoder architecture for image segmentation[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2017, 39(12): 2481-2495.

    [26] Ronneberger O, Fischer P, Brox T. U-net: convolutional networks for biomedical image segmentation[J]. Springer International Publishing, 2015, 9351: 234-241.

    [27] Selvarajur R, Cogswell M, Das A, et al. Grad-CAM: Visual explanations from deep networks via gradient-based localization[J]. International Journal of Computer Vision, 2020, 128(2): 336-359.

    [28] 胡濤,李衛(wèi)華,秦先祥. 圖像語義分割方法綜述[J]. 測控技術(shù),2019,38(7):8-12.

    Hu Tao, Li Weihua, Qin Xianxiang. A review on image semantic segmentation[J]. Measurement & Control Technology, 2019, 38(7): 8-12. (in Chinese with English abstract)

    [29] Bosilj P, Aptoula E, Duckett T, et al. Transfer learning between crop types for semantic segmentation of crops versus weeds in precision agriculture[J]. Journal of Field Robotics, 2020, 37(1): 7-19.

    Navigation path recognition between crop ridges based on semantic segmentation

    Rao Xiuqin1,2, Zhu Yihang1,2, Zhang Yanning1,2, Yang Haitao3, Zhang Xiaomin1,2, Lin Yangyang1,2, Geng Jinfeng1,4,5, Ying Yibin1,2

    (1.,,310058,; 2.,,310058,; 3.,,310058,; 4.,,277101,; 5..,.,321300,)

    A navigation path has been widely considered as one of the most important sub-tasks of intelligent agricultural equipment in field operations. However, there are still some challenges remaining on the recognition of current navigation paths between crop ridges, including the accuracy, real-time performance, generalization, and difficulty in the interpretation of deep learning models. In this research, a new Fast-Unet model was proposed to accurately and rapidly recognize the navigation path between crop ridges using semantic segmentation. The jump connection of the Unet model was also retained to generate the navigation line and yaw angle using the least square regression. Specifically, a cotton dataset of inter-ridge navigation path consisted of 800 images, 640 of which was set as the training set, 160 of that as the validation set. Subsequently, two datasets of 100 images each were constructed for the navigation paths of sugarcane and cotton ridges, which were divided into 50 images in the training set, and 50 images in the verification set. The training strategy was selected as the data augmentation and learning rate adjustment. The training order was ranked as the corn first, and then the sugarcane dataset. The Mean Intersection over Union (MIoU) was utilized as the accuracy indicator of the Fast-Unet model, which was 0.791 for cotton, 0.881 for maize, and 0.940 for sugarcane. Furthermore, the least-squares regression was selected to calculate the navigation path of maize and sugarcane with good linearity between the ridges. Additionally, the navigation line was selected to further calculate the yaw angle. The mean difference between the predicted yaw angle of maize and sugarcane navigation path and the labeled were 0.999° and 0.376° under the Fast-Unet model, respectively. In terms of real-time performance, the inference speed of the Fast-Unet model was 6.48 times higher than that of Unet. The inference speed was 64.67 frames per second to process the RGB image data on a single-core CPU, while the number of parameters of the Fast-Unet model was 6.24% of that of Unet model. Correspondingly, the computing devices were deployed with weak computing power, thereby performing real-time calculations. A gradient weighted class activation mapping(Grad-CAM) was also used to visually represent the final feature extraction of model recognition and transfer learning. More importantly, the special features were highlighted on the navigation path between crop ridges in the optimized Fast-Unet structure, concurrently to remove a large number of redundant feature maps, while retaining only the most crucial feature extractors. The transfer learning also presented a larger activation area than the direct training, where the activated area matched the main road to be identified. In summary, the improved model can be fully realized the real-time recognition of maize navigation path. The finding can also provide technical and theoretical support to the development of navigation equipment for intelligent agricultural machinery in the field.

    image processing; navigation; path recognition; semantic segmentation; transfer learning; deep learning

    饒秀勤,朱逸航,張延寧,等. 基于語義分割的作物壟間導(dǎo)航路徑識(shí)別[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,37(20):179-186.doi:10.11975/j.issn.1002-6819.2021.20.020 http://www.tcsae.org

    Rao Xiuqin, Zhu Yihang, Zhang Yanning, et al. Navigation path recognition between crop ridges based on semantic segmentation[J]. Transactions of the Chinese Society of Agricultural Engineering (Transactions of the CSAE), 2021, 37(20): 179-186. (in Chinese with English abstract) doi:10.11975/j.issn.1002-6819.2021.20.020 http://www.tcsae.org

    2021-06-10

    2021-08-05

    國家重點(diǎn)研發(fā)計(jì)劃(2017YFD0700901)

    饒秀勤,博士,教授,博士生導(dǎo)師,研究方向?yàn)橹悄苻r(nóng)業(yè)裝備。Email:xqrao@zju.edu.cn

    10.11975/j.issn.1002-6819.2021.20.020

    S24

    A

    1002-6819(2021)-20-0179-08

    猜你喜歡
    語義模型
    一半模型
    重要模型『一線三等角』
    重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
    語言與語義
    3D打印中的模型分割與打包
    “上”與“下”語義的不對稱性及其認(rèn)知闡釋
    FLUKA幾何模型到CAD幾何模型轉(zhuǎn)換方法初步研究
    認(rèn)知范疇模糊與語義模糊
    “深+N季”組配的認(rèn)知語義分析
    語義分析與漢俄副名組合
    国产精品国产三级国产av玫瑰| 丝袜喷水一区| 高清欧美精品videossex| 毛片一级片免费看久久久久| 丝袜美腿在线中文| 亚洲高清免费不卡视频| 亚洲最大成人av| av一本久久久久| 97超视频在线观看视频| 日韩伦理黄色片| 亚洲国产精品sss在线观看| 国产精品一及| 国产精品精品国产色婷婷| 国产精品爽爽va在线观看网站| 亚洲aⅴ乱码一区二区在线播放| 一级毛片久久久久久久久女| 午夜激情久久久久久久| 91久久精品国产一区二区三区| 男女视频在线观看网站免费| 狂野欧美白嫩少妇大欣赏| 天堂影院成人在线观看| 久久久久久久久中文| av福利片在线观看| 亚洲真实伦在线观看| 91精品国产九色| 建设人人有责人人尽责人人享有的 | 亚洲怡红院男人天堂| 一级a做视频免费观看| 91久久精品国产一区二区成人| 亚洲成人久久爱视频| 国产精品熟女久久久久浪| 秋霞在线观看毛片| 亚洲久久久久久中文字幕| 精品一区二区三卡| 熟妇人妻久久中文字幕3abv| 国产熟女欧美一区二区| 亚洲精品久久久久久婷婷小说| 日韩av在线免费看完整版不卡| 亚洲av成人精品一二三区| 激情五月婷婷亚洲| 毛片一级片免费看久久久久| 久久国内精品自在自线图片| 欧美丝袜亚洲另类| 如何舔出高潮| 国产久久久一区二区三区| 久久久久久久亚洲中文字幕| 精品久久久久久久人妻蜜臀av| 精品国内亚洲2022精品成人| 精品久久久久久久人妻蜜臀av| 国产在视频线在精品| 成年av动漫网址| 国产亚洲一区二区精品| 成人av在线播放网站| 麻豆乱淫一区二区| 成人性生交大片免费视频hd| 男人狂女人下面高潮的视频| 亚洲三级黄色毛片| 波野结衣二区三区在线| 日本-黄色视频高清免费观看| 国产av在哪里看| av在线观看视频网站免费| 日韩不卡一区二区三区视频在线| 日韩三级伦理在线观看| 深爱激情五月婷婷| 六月丁香七月| 国模一区二区三区四区视频| 午夜激情欧美在线| 高清在线视频一区二区三区| 亚洲精华国产精华液的使用体验| 日本免费在线观看一区| 亚洲熟女精品中文字幕| 国产黄a三级三级三级人| 国产精品爽爽va在线观看网站| 久久久久久国产a免费观看| 免费电影在线观看免费观看| 日本色播在线视频| 精品人妻视频免费看| 亚洲成人中文字幕在线播放| 黄片wwwwww| 日日撸夜夜添| 亚洲一级一片aⅴ在线观看| 久久久久久国产a免费观看| 久久精品久久精品一区二区三区| 国产黄色小视频在线观看| 丰满少妇做爰视频| 国产淫片久久久久久久久| 日韩一区二区三区影片| 丝瓜视频免费看黄片| 国产成人a区在线观看| 麻豆成人av视频| 亚洲第一区二区三区不卡| 九九久久精品国产亚洲av麻豆| 美女内射精品一级片tv| 黄色欧美视频在线观看| 成人毛片60女人毛片免费| 九色成人免费人妻av| 熟女人妻精品中文字幕| 亚洲欧美成人精品一区二区| 国产真实伦视频高清在线观看| 日日干狠狠操夜夜爽| 国产视频内射| 网址你懂的国产日韩在线| 国产精品久久久久久精品电影| 日本一二三区视频观看| 国产亚洲精品av在线| 哪个播放器可以免费观看大片| 国产av国产精品国产| 久久久久久久大尺度免费视频| 女人久久www免费人成看片| 日韩不卡一区二区三区视频在线| 亚洲国产色片| 国产探花极品一区二区| 国产成人免费观看mmmm| 久久久久网色| 久久久久国产网址| 国产欧美另类精品又又久久亚洲欧美| 国产亚洲一区二区精品| 国产av码专区亚洲av| 一级片'在线观看视频| av女优亚洲男人天堂| 久久久欧美国产精品| 黄片无遮挡物在线观看| 能在线免费看毛片的网站| 男女那种视频在线观看| 黄片无遮挡物在线观看| 亚洲综合精品二区| 可以在线观看毛片的网站| 神马国产精品三级电影在线观看| 丝袜美腿在线中文| 国产激情偷乱视频一区二区| av国产免费在线观看| 久久午夜福利片| 一级爰片在线观看| 亚洲自拍偷在线| 国精品久久久久久国模美| 久久精品国产鲁丝片午夜精品| 亚洲第一区二区三区不卡| 一级毛片电影观看| 如何舔出高潮| 亚洲精品aⅴ在线观看| 欧美性猛交╳xxx乱大交人| 国产v大片淫在线免费观看| 国产精品久久久久久久电影| 超碰av人人做人人爽久久| 如何舔出高潮| av网站免费在线观看视频 | 男人狂女人下面高潮的视频| 国产免费福利视频在线观看| 日本爱情动作片www.在线观看| 精品人妻一区二区三区麻豆| 永久免费av网站大全| 噜噜噜噜噜久久久久久91| 欧美 日韩 精品 国产| 九九在线视频观看精品| 免费看美女性在线毛片视频| 最近最新中文字幕大全电影3| 午夜福利网站1000一区二区三区| 亚洲欧美日韩卡通动漫| 国产成人a区在线观看| 国产极品天堂在线| 春色校园在线视频观看| 波多野结衣巨乳人妻| 国产真实伦视频高清在线观看| 最后的刺客免费高清国语| 国产欧美日韩精品一区二区| 亚洲欧洲国产日韩| 亚洲精品成人av观看孕妇| 免费看光身美女| 美女国产视频在线观看| 亚洲av免费高清在线观看| 国产成人午夜福利电影在线观看| 高清日韩中文字幕在线| 在线免费观看不下载黄p国产| 亚洲在久久综合| 七月丁香在线播放| 免费看日本二区| 国产av码专区亚洲av| 国产亚洲最大av| 丝瓜视频免费看黄片| 久久久久久九九精品二区国产| 欧美一区二区亚洲| 成人综合一区亚洲| 男人舔女人下体高潮全视频| av女优亚洲男人天堂| 少妇熟女aⅴ在线视频| 免费不卡的大黄色大毛片视频在线观看 | 日韩,欧美,国产一区二区三区| 一级毛片 在线播放| 久久人人爽人人片av| 黄色日韩在线| 色综合站精品国产| 国产综合懂色| 26uuu在线亚洲综合色| 国产淫片久久久久久久久| 伊人久久精品亚洲午夜| 久久久国产一区二区| 亚洲精品中文字幕在线视频 | 两个人视频免费观看高清| 亚洲av成人精品一区久久| 国产亚洲5aaaaa淫片| av国产久精品久网站免费入址| 天堂av国产一区二区熟女人妻| av免费观看日本| 午夜福利视频1000在线观看| 精品酒店卫生间| 精品久久久久久久久av| 观看免费一级毛片| 精品国产三级普通话版| 亚洲一区高清亚洲精品| 欧美精品一区二区大全| 欧美成人一区二区免费高清观看| 亚洲人成网站在线观看播放| 亚洲怡红院男人天堂| 少妇人妻精品综合一区二区| 国产白丝娇喘喷水9色精品| 一级a做视频免费观看| 蜜桃久久精品国产亚洲av| 日韩欧美 国产精品| 嫩草影院新地址| 国产精品麻豆人妻色哟哟久久 | 乱码一卡2卡4卡精品| 日产精品乱码卡一卡2卡三| 97热精品久久久久久| 日韩在线高清观看一区二区三区| 又粗又硬又长又爽又黄的视频| 又爽又黄无遮挡网站| 精品一区二区三区人妻视频| 久久午夜福利片| 国产亚洲精品av在线| 亚洲精品乱久久久久久| 高清毛片免费看| 婷婷色麻豆天堂久久| videossex国产| 国产伦理片在线播放av一区| 国产黄a三级三级三级人| 欧美成人午夜免费资源| 91aial.com中文字幕在线观看| 亚洲高清免费不卡视频| 国产成人a区在线观看| 日本熟妇午夜| 一级av片app| 啦啦啦韩国在线观看视频| 国产黄色免费在线视频| 18禁在线无遮挡免费观看视频| 免费观看精品视频网站| 国产三级在线视频| 六月丁香七月| 精品一区二区三卡| 国产精品综合久久久久久久免费| 国产亚洲91精品色在线| 久久精品久久久久久久性| 久久久久久久久久久免费av| 国产精品国产三级国产av玫瑰| 久久久久网色| 看黄色毛片网站| 亚洲欧美一区二区三区黑人 | 一级毛片黄色毛片免费观看视频| 亚洲欧美精品专区久久| 18禁在线播放成人免费| 国产精品一二三区在线看| kizo精华| 国产黄频视频在线观看| 校园人妻丝袜中文字幕| 成人二区视频| 十八禁网站网址无遮挡 | 午夜激情久久久久久久| 久久久久九九精品影院| 欧美一级a爱片免费观看看| 1000部很黄的大片| 久久久久久伊人网av| 最近手机中文字幕大全| 亚洲在线观看片| 国产高潮美女av| 男女国产视频网站| 婷婷色av中文字幕| 国产熟女欧美一区二区| 国产成人a∨麻豆精品| 色综合色国产| 丝瓜视频免费看黄片| 美女脱内裤让男人舔精品视频| 男女边摸边吃奶| 久久久久久国产a免费观看| 97精品久久久久久久久久精品| 日韩在线高清观看一区二区三区| 哪个播放器可以免费观看大片| 国产一区二区三区av在线| 午夜福利高清视频| 久久久久久久久久黄片| 国产在视频线精品| 免费黄频网站在线观看国产| 一级毛片黄色毛片免费观看视频| 日韩大片免费观看网站| 午夜福利在线观看吧| 天堂网av新在线| 亚洲第一区二区三区不卡| 精品久久久久久久久av| 中文乱码字字幕精品一区二区三区 | 久久久久久久大尺度免费视频| 白带黄色成豆腐渣| 日韩不卡一区二区三区视频在线| 亚洲国产精品成人综合色| 伊人久久国产一区二区| 两个人的视频大全免费| 最近手机中文字幕大全| 一级毛片黄色毛片免费观看视频| 一区二区三区乱码不卡18| 大香蕉久久网| 69av精品久久久久久| 国产伦理片在线播放av一区| 18禁在线播放成人免费| 亚洲无线观看免费| 国产精品精品国产色婷婷| 国产激情偷乱视频一区二区| 久久久久久久午夜电影| 小蜜桃在线观看免费完整版高清| 丰满乱子伦码专区| 欧美变态另类bdsm刘玥| 亚洲熟妇中文字幕五十中出| 精品一区二区三卡| 日本猛色少妇xxxxx猛交久久| 中文字幕人妻熟人妻熟丝袜美| 最新中文字幕久久久久| 熟妇人妻不卡中文字幕| 欧美bdsm另类| 欧美成人午夜免费资源| 亚洲国产av新网站| 亚洲不卡免费看| 亚洲精品成人久久久久久| 欧美3d第一页| av播播在线观看一区| 久久精品国产亚洲网站| 久久99蜜桃精品久久| 午夜激情欧美在线| 国产av在哪里看| 非洲黑人性xxxx精品又粗又长| 成人毛片a级毛片在线播放| 男插女下体视频免费在线播放| 网址你懂的国产日韩在线| 国精品久久久久久国模美| 免费看光身美女| 一级毛片久久久久久久久女| 久久精品国产亚洲av涩爱| 噜噜噜噜噜久久久久久91| 小蜜桃在线观看免费完整版高清| 国产高清国产精品国产三级 | 精品久久久久久成人av| 最新中文字幕久久久久| 直男gayav资源| 日韩伦理黄色片| 国产一级毛片在线| 哪个播放器可以免费观看大片| 亚洲一区高清亚洲精品| 日本午夜av视频| 国产69精品久久久久777片| 人人妻人人澡欧美一区二区| 婷婷色av中文字幕| 看非洲黑人一级黄片| 欧美 日韩 精品 国产| 97人妻精品一区二区三区麻豆| 成人二区视频| 男人舔女人下体高潮全视频| 亚洲av在线观看美女高潮| 亚洲欧洲国产日韩| 日韩欧美国产在线观看| 亚洲精品色激情综合| 免费黄频网站在线观看国产| 国产成人精品婷婷| 精品久久久久久久人妻蜜臀av| 久久久久久国产a免费观看| 天堂av国产一区二区熟女人妻| 国产亚洲午夜精品一区二区久久 | 国产永久视频网站| 99热6这里只有精品| 日韩精品青青久久久久久| 非洲黑人性xxxx精品又粗又长| 亚洲av国产av综合av卡| 建设人人有责人人尽责人人享有的 | 国产一级毛片在线| 亚洲欧洲国产日韩| 免费黄频网站在线观看国产| 久久久国产一区二区| 成年女人在线观看亚洲视频 | 国产精品一区www在线观看| 欧美精品一区二区大全| 一级黄片播放器| 久久99精品国语久久久| 特大巨黑吊av在线直播| 精品一区二区免费观看| 久久久久久久亚洲中文字幕| 亚洲欧洲日产国产| 久久久久免费精品人妻一区二区| 日本爱情动作片www.在线观看| 人妻制服诱惑在线中文字幕| 美女内射精品一级片tv| 成年女人看的毛片在线观看| 熟女人妻精品中文字幕| 国产黄色免费在线视频| 99久国产av精品| 男人舔女人下体高潮全视频| 中文字幕人妻熟人妻熟丝袜美| 日韩欧美三级三区| 可以在线观看毛片的网站| 97在线视频观看| 中文字幕av在线有码专区| 久久久精品欧美日韩精品| 色5月婷婷丁香| 日韩成人av中文字幕在线观看| 不卡视频在线观看欧美| 久久午夜福利片| 日本免费在线观看一区| 水蜜桃什么品种好| 日韩欧美精品v在线| 蜜桃亚洲精品一区二区三区| 精品久久久久久电影网| 又黄又爽又刺激的免费视频.| 亚洲av福利一区| 美女被艹到高潮喷水动态| 97在线视频观看| 中文资源天堂在线| 国产高清有码在线观看视频| 最近中文字幕2019免费版| 婷婷色综合www| 亚洲欧美一区二区三区黑人 | 日本色播在线视频| 伊人久久国产一区二区| 亚洲内射少妇av| kizo精华| 久久精品久久精品一区二区三区| 在线a可以看的网站| 久久久色成人| 蜜臀久久99精品久久宅男| 久热久热在线精品观看| 亚洲av.av天堂| 免费观看精品视频网站| 偷拍熟女少妇极品色| 国产毛片a区久久久久| 大片免费播放器 马上看| 九九在线视频观看精品| 日韩 亚洲 欧美在线| av播播在线观看一区| 熟妇人妻不卡中文字幕| av又黄又爽大尺度在线免费看| 天堂av国产一区二区熟女人妻| av在线天堂中文字幕| 国产成人精品福利久久| 18禁裸乳无遮挡免费网站照片| 永久免费av网站大全| 日韩一区二区三区影片| 热99在线观看视频| 黄色欧美视频在线观看| 99九九线精品视频在线观看视频| 国产黄片美女视频| 好男人在线观看高清免费视频| 午夜福利高清视频| 99久国产av精品| 亚洲综合色惰| 99久久精品国产国产毛片| 午夜福利在线观看免费完整高清在| 国产精品久久久久久精品电影小说 | 成人欧美大片| 国产黄色小视频在线观看| 草草在线视频免费看| 日日啪夜夜爽| 国国产精品蜜臀av免费| 免费看光身美女| 日韩欧美精品免费久久| 日韩av不卡免费在线播放| 久久99热6这里只有精品| 免费播放大片免费观看视频在线观看| 免费少妇av软件| 国产高清国产精品国产三级 | 国产亚洲精品av在线| 日日摸夜夜添夜夜爱| 天堂中文最新版在线下载 | 亚洲国产成人一精品久久久| 黑人高潮一二区| 国产在线男女| 亚洲国产精品成人综合色| 欧美xxⅹ黑人| 国产亚洲一区二区精品| 美女国产视频在线观看| 欧美变态另类bdsm刘玥| 少妇猛男粗大的猛烈进出视频 | 床上黄色一级片| 伦精品一区二区三区| 欧美xxxx黑人xx丫x性爽| 男的添女的下面高潮视频| 麻豆av噜噜一区二区三区| 国产不卡一卡二| 国产一区有黄有色的免费视频 | 夜夜爽夜夜爽视频| 天美传媒精品一区二区| 日本-黄色视频高清免费观看| 99热6这里只有精品| 久久精品久久久久久噜噜老黄| 国产成人a区在线观看| 中国国产av一级| 国产精品1区2区在线观看.| 久久久色成人| 97人妻精品一区二区三区麻豆| 国产 一区 欧美 日韩| 夫妻午夜视频| 白带黄色成豆腐渣| 人妻少妇偷人精品九色| 婷婷色综合大香蕉| 天堂网av新在线| 少妇裸体淫交视频免费看高清| 插逼视频在线观看| 韩国av在线不卡| 少妇丰满av| 成人综合一区亚洲| av在线播放精品| 欧美xxⅹ黑人| 免费看日本二区| 国产一区亚洲一区在线观看| 特级一级黄色大片| 午夜福利视频1000在线观看| 亚洲成人精品中文字幕电影| 日本一本二区三区精品| 视频中文字幕在线观看| 日本免费在线观看一区| 欧美3d第一页| 国产精品人妻久久久影院| 特级一级黄色大片| 日本欧美国产在线视频| 中文欧美无线码| 精品人妻一区二区三区麻豆| 我要看日韩黄色一级片| 熟女电影av网| 成人鲁丝片一二三区免费| 久久久久久久久久黄片| 国产探花极品一区二区| 成年人午夜在线观看视频 | 国产乱来视频区| 亚洲av男天堂| av在线亚洲专区| 春色校园在线视频观看| 亚洲欧美日韩无卡精品| 国产成人精品一,二区| 国产黄色小视频在线观看| 成年女人看的毛片在线观看| 成人二区视频| 一级片'在线观看视频| 欧美激情久久久久久爽电影| 麻豆成人午夜福利视频| 国内揄拍国产精品人妻在线| 国产午夜精品一二区理论片| 日韩av在线大香蕉| 亚洲精品视频女| 久久精品国产鲁丝片午夜精品| 噜噜噜噜噜久久久久久91| 插逼视频在线观看| 亚洲精品中文字幕在线视频 | 亚洲精品乱码久久久v下载方式| 男女边吃奶边做爰视频| 夫妻性生交免费视频一级片| 久久精品国产亚洲网站| 亚洲一级一片aⅴ在线观看| 久久久久久久久久成人| 国内精品宾馆在线| 黄片wwwwww| 午夜视频国产福利| 一级毛片我不卡| 国产黄频视频在线观看| 欧美一级a爱片免费观看看| 国产av国产精品国产| 精品人妻偷拍中文字幕| 高清在线视频一区二区三区| 久久综合国产亚洲精品| 1000部很黄的大片| 九九爱精品视频在线观看| 久久精品综合一区二区三区| 国产老妇女一区| 免费看av在线观看网站| 九色成人免费人妻av| 国产精品一区二区在线观看99 | 久久久久久九九精品二区国产| 日本三级黄在线观看| 青春草亚洲视频在线观看| h日本视频在线播放| a级毛色黄片| 国产精品一区二区三区四区久久| www.av在线官网国产| 免费黄色在线免费观看| 色吧在线观看| 久久精品国产亚洲av涩爱| 久99久视频精品免费| 久久久成人免费电影| 亚洲无线观看免费| 精品一区二区三区视频在线| 国产伦精品一区二区三区视频9| 免费av观看视频| 婷婷色综合www| 精品久久久久久久久亚洲| 久久久精品免费免费高清| 成人无遮挡网站| 国产午夜精品久久久久久一区二区三区| 免费观看精品视频网站| 好男人视频免费观看在线| 欧美日韩在线观看h| av专区在线播放| 性色avwww在线观看| 亚洲精品成人久久久久久| 中文字幕av在线有码专区| 久久国内精品自在自线图片| 男人舔女人下体高潮全视频| 久久亚洲国产成人精品v| 在线 av 中文字幕| 亚洲欧洲国产日韩| 人妻一区二区av| 亚洲va在线va天堂va国产| 国产爱豆传媒在线观看| 国产一级毛片在线| 在线免费观看的www视频| 日本黄色片子视频|