• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于稀疏實(shí)例與位置感知卷積的植物葉片實(shí)時分割方法

    2024-05-29 23:30:44任守綱朱勇杰顧興健武鵬飛徐煥良
    關(guān)鍵詞:計(jì)算機(jī)視覺

    任守綱 朱勇杰 顧興健 武鵬飛 徐煥良

    摘要: ?植物葉片分割在高通量植物表型數(shù)據(jù)獲取任務(wù)中起著關(guān)鍵作用。目前,多數(shù)植物葉片分割方法專注于提高模型分割精度,卻忽視模型復(fù)雜度和推理速度。針對該問題,本研究提出一種基于稀疏實(shí)例激活與有效位置感知卷積的實(shí)例分割模型(ePaCC-SparseInst),實(shí)現(xiàn)植物葉片實(shí)時、精確分割。在ePaCC-SparseInst 中引入1組稀疏實(shí)例激活圖作為葉片對象表示方式,并使用二部圖匹配算法實(shí)現(xiàn)預(yù)測對象與實(shí)例激活圖的一一映射,從而避免了繁瑣的非極大值抑制(Non-maximum suppression,NMS)運(yùn)算,提高了模型的推理速度。此外,在實(shí)例分支中引入有效位置感知卷積(ePaCC)模塊,在增大模型全局感受野的同時提高了模型的推理速度。在Komatsuna數(shù)據(jù)集上,ePaCC-SparseInst平均分割精度(AP)達(dá)到85.33%,每秒傳輸幀數(shù)達(dá)到43.52。在相同訓(xùn)練條件下,ePaCC-SparseInst的性能優(yōu)于SparseInst、Mask R-CNN、CondInst等實(shí)例分割算法。此外在CVPPP A5數(shù)據(jù)集上,ePaCC-SparseInst較上述算法同樣取得了更好的分割精度和推理速度。本研究提出的方法采用純卷積的架構(gòu)實(shí)現(xiàn)了葉片的實(shí)時分割,可以為在移動端或邊緣設(shè)備上獲取植物表型數(shù)據(jù)提供技術(shù)支持。

    關(guān)鍵詞: ?實(shí)例分割; 計(jì)算機(jī)視覺; 植物表型; 葉片分割

    中圖分類號: ?TP391.41 ???文獻(xiàn)標(biāo)識碼: A ???文章編號: ?1000-4440(2024)03-0478-12

    Real-time segmentation of plant leaves based on sparse instances and position aware convolution

    REN Shou-gang1,2, ZHU Yong-jie1, GU Xing-jian1, WU Peng-fei3, XU Huan-liang1

    (1.College of Artificial Intelligence, Nanjing Agricultural University, Nanjing 210095, China; 2.National Engineering and Technology Center for Information Agriculture, Nanjing 210095, China; ?3.Xinjiang Xingnong Network Information Center/Xinjiang Uygur Autonomous Region Agricultural Meteorological Observatory, Urumqi 830002, China)

    Abstract: ?The segmentation of plant leaves plays a crucial role in high-throughput plant phenotyping data acquisition tasks. Currently, most methods for plant leaf segmentation focus on improving the accuracy of the segmentation model but overlook the models complexity and inference speed. In response to this issue, this study proposed an instance segmentation model (ePaCC-SparseInst) based on sparse instance activation and efficient position-aware convolution to achieve real-time and accurate segmentation of plant leaves. In ePaCC-SparseInst, a set of sparse instance activation maps was introduced as the representation of leaf objects. A bipartite graph matching algorithm was employed to establish a one-to-one mapping between predicted objects and instance activation maps, thereby avoiding the cumbersome non-maximum suppression (NMS) operation and improving the models inference speed. Additionally, an effective position-aware circulate convolution (ePaCC) module was introduced into the instance branch, which increased the models global receptive field and enhanced its inference speed. On the Komatsuna dataset, ePaCC-SparseInst achieved an average segmentation precision (AP) of 85.33% and an inference speed of 43.52 frames per second (FPS). Under the same training conditions, its performance surpassed instance segmentation algorithms such as SparseInst, Mask R-CNN, and CondInst. Furthermore, on the CVPPP A5 dataset, ePaCC-SparseInst achieved better segmentation accuracy and inference speed than the aforementioned algorithms. The proposed method used a pure convolutional architecture to achieve real-time leaf segmentation, which could provide technical support for obtaining plant phenotypic data on mobile or edge devices.

    Key words: ?instance segmentation; computer vision; plant phenotypes; leaf segmentation

    植物葉片在揭示植物生長發(fā)育狀況的過程中起到關(guān)鍵作用。例如葉面積和葉片的形狀(葉長、葉寬、葉傾角等)與植物的光合作用、呼吸作用、蒸騰作用以及碳和養(yǎng)分同化等多種生理活動密切相關(guān)[1]。因此借助非破壞性方法獲取葉片特征數(shù)據(jù),與植物基因數(shù)據(jù)相結(jié)合,能為改善植株的遺傳性狀提供參考,從而提高作物產(chǎn)量[2]。在高通量植物表型任務(wù)中,分割出植物葉片是獲得生物量特征的重要前提之一[3]。因此葉片分割是植物表型任務(wù)中的關(guān)鍵步驟,精準(zhǔn)且快速地從復(fù)雜的背景中分割出葉片區(qū)域,有助于植物葉片表型參數(shù)的快速提取,同時也對植物生長狀況的同步觀察以及病蟲害的實(shí)時監(jiān)督等方面有著重要的意義[4]。葉片分割任務(wù)主要分為單目標(biāo)葉片分割和多目標(biāo)葉片分割2類[5-7]。

    在單目標(biāo)葉片分割方面,通常優(yōu)先采用傳統(tǒng)的圖像分割方法或者基于深度學(xué)習(xí)的語義分割方法。蔣煥煜等[8]將基于形態(tài)學(xué)的分水嶺算法用于葉片邊緣分割,借此提取穴孔中的番茄幼苗的葉片面積和葉片周長。孫國祥等[9]提出了基于邊緣鏈碼信息的番茄苗重疊葉面分割算法,對72孔和128孔的分割準(zhǔn)確度達(dá)到了100%和96%,分割單張圖片的平均耗時分別達(dá)到0.835 s和0.990 s。王紀(jì)章等[10]借助Kinect相機(jī)對彩色葉片圖像進(jìn)行預(yù)處理、閾值分割、形態(tài)學(xué)運(yùn)算以及連通分量統(tǒng)計(jì)等操作,實(shí)現(xiàn)了幼苗的無損檢測,該算法估算出的葉面積與實(shí)際葉面積的平均誤差僅為2.15%。針對綠色葉片圖像分割困難的問題,伍艷蓮等[11]提出一種改進(jìn)的均值漂移算法,實(shí)現(xiàn)了對綠色作物的精確分割,性能上優(yōu)于常規(guī)的均值漂移算法且圖像的錯分率小于6.5%。面對不同的背景、陰影等成像環(huán)境,單一模型往往難以很好地解決植物葉片分割問題,胡靜等[12]提出一種基于魯棒隨機(jī)游走的交互式植物葉片分割方法,通過人機(jī)交互獲取前景的像素信息,獲得了光滑、魯棒的植物葉片分割結(jié)果圖。Kan等[13]提出的基于U-net的葉片分割模型,采用了ResNet-50作為主干網(wǎng)絡(luò)用于編碼圖片,并在解碼器中引入特征融合模塊,更好地融合了來自底層的位置信息以及來自高層的語義信息。從上述的方法可以看出,傳統(tǒng)的圖像分割算法和基于深度學(xué)習(xí)的語義分割算法,雖然大多有著不錯的分割效果,但是無法分割出植物中的每一張葉片。而實(shí)例分割算法則能將圖片中的每一個實(shí)例對象都分割出來,即使這些實(shí)例對象屬于同一個類別。

    在多目標(biāo)葉片分割方面,目前已有較多基于實(shí)例分割的研究。Yin等[14]提出一種基于倒角匹配的多葉片對齊算法,該算法能找到輸入圖像中多個葉片的最佳對齊方式,且能應(yīng)用于葉片的實(shí)例分割當(dāng)中。Ren等[15]率先將循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network, RNN)應(yīng)用在葉片實(shí)例分割任務(wù)中,該算法能一次一個地查詢?nèi)~片實(shí)例并對其進(jìn)行實(shí)例分割,即使在遮擋場景下性能也不會出現(xiàn)衰退。隨著He等[16]提出Mask R-CNN,基于卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)的實(shí)例分割網(wǎng)絡(luò)占據(jù)了絕大部分的實(shí)例分割任務(wù),與上述2種算法相比,以Mask R-CNN為代表的實(shí)例分割算法有著更高的分割精度。喬虹等[17]采用Mask R-CNN對大田環(huán)境下的葡萄葉片進(jìn)行了檢測與分割,結(jié)果顯示不同的葡萄葉片分割精度都大于等于0.88。該葡萄葉片檢測與分割算法展示了Mask R-CNN對不同天氣狀況以及各種復(fù)雜背景下的葉片分割任務(wù)都有著較好的魯棒性和較高的分割精度。但是該算法在葉片邊緣的分割精度依舊不夠理想,這是由Mask R-CNN經(jīng)過感興趣區(qū)域(ROI)裁剪導(dǎo)致特征圖分辨率降低等原因?qū)е碌?。針對以上問題,袁山等[18]采用結(jié)合了注意力機(jī)制的Cascade mask R-CNN,解決葉片遮擋以及葉片邊緣特征不明顯等問題。以Mask R-CNN為代表的兩階段實(shí)例分割算法,雖然在精度上有著很大的優(yōu)勢,但是其在推理速度方面仍存在著較大的缺陷。例如在袁山等的工作中可以看到,Mask R-CNN推理1張圖片需要耗時0.383 s,Cascade mask R-CNN需要耗時0.387 s,以及其改進(jìn)模型需要耗時0.562 s。而Guo等[4]提出了一種端到端無錨的單階段實(shí)例分割算法,以提高葉片的分割精度。該算法省去了大多數(shù)實(shí)例分割算法所依賴的錨框,節(jié)約了大量實(shí)例篩選的時間,但其在解碼器中加入的多尺度注意力模塊以及掩碼細(xì)化模塊又降低了推理的速度。由上述方法可以看出,模型分割精度與推理速度之間存在一定的對立性和矛盾性。若將上述模型應(yīng)用在移動端或邊緣設(shè)備上時,會對模型的部署和使用造成較大的困難[19]。SparseInst模型[20]作為現(xiàn)有實(shí)時實(shí)例分割的基準(zhǔn)模型,有著較快的推理速度和較高的分割精度,同時很好地控制模型的大小,但在實(shí)例識別時,由于其感受野的局限性,會導(dǎo)致面積較小的葉片分割錯誤。

    Hu等[21]在Faster R-CNN[22]目標(biāo)檢測算法的檢測分支中引入一個帶有自注意力機(jī)制的對象關(guān)系模塊,該模塊通過目標(biāo)對象的外觀特征和形狀之間的潛在聯(lián)系同時處理這一組對象,對這一組對象之間的關(guān)系進(jìn)行建模,提高了算法的檢測精度。在實(shí)例分割的研究中,Guo等[23]在SOLOv2[24]的核分支(Kernel branch)中引入了Vision Transformer(ViT),試圖捕獲長距離的上下文依賴,獲得全局特征信息,以更好地區(qū)分具有相同語義類別的重疊實(shí)例。受這2個工作的啟發(fā),本研究擬在SparseInst實(shí)例分支中引入一個帶有全局感受野的有效位置感知卷積(ePaCC)模塊替換原有的普通卷積層,通過該模塊獲取長距離的上下文語義信息,輸出全局性、語義信息性更強(qiáng)的實(shí)例激活圖,在保持精度不降低的情況下,提高葉片實(shí)例分割的速度。此外,在ePaCC模塊中引入eSE注意力模塊,緩解模型通道信息丟失問題的同時進(jìn)一步提升模型的推理速度。最后使用基于匈牙利算法的二部圖匹配算法實(shí)現(xiàn)預(yù)測對象與真實(shí)標(biāo)簽(GT)的一一映射,避免繁瑣的參數(shù)設(shè)計(jì)和后處理操作,以期實(shí)現(xiàn)植物葉片實(shí)時實(shí)例分割。

    1 材料與方法

    1.1 試驗(yàn)數(shù)據(jù)集

    Komatsuna植物葉片數(shù)據(jù)集[7]總共有900張小松菜各個生長階段的圖片。本研究隨機(jī)選取720張圖片作為訓(xùn)練集,剩余的180張圖片作為測試集。其中每一張圖片的分辨率為480×480。圖1展示了部分Komatsuna數(shù)據(jù)集的原始圖像以及對應(yīng)的標(biāo)注信息。

    CVPPP[6]中的A5數(shù)據(jù)集由不同尺寸的煙草花和擬南芥圖像組成,共計(jì)810張圖像。其中,擬南芥原始圖像分辨率為:500×530、530×565和441×441,煙草花原始圖像的分辨率為:2 448×2 048。本研究將810張圖像劃分為訓(xùn)練集(648張)和測試集(162張)。

    1.2 數(shù)據(jù)增強(qiáng)

    數(shù)據(jù)增強(qiáng)是解決深度學(xué)習(xí)樣本較少問題的常用方法之一[25]。本研究使用Detectron2自帶的隨機(jī)縮放圖像的最小邊長進(jìn)行數(shù)據(jù)增強(qiáng)。輸入圖像的最小邊長會隨機(jī)調(diào)整為352、384、416、448、480,使得輸入模型訓(xùn)練的葉片圖像為720張,而實(shí)際訓(xùn)練的圖片數(shù)量為3 600張,這基本滿足了實(shí)例分割訓(xùn)練模型對圖片數(shù)量的要求。

    1.3 ePaCC-SparseInst模型概述

    ePaCC-SparseInst模型主要由3個部分組成(圖2),分別為用于特征提取的主干網(wǎng)絡(luò)、實(shí)例上下文編碼器以及基于實(shí)例激活圖的分割解碼器。主干網(wǎng)絡(luò)用于從輸入圖像中提取多尺度特征。實(shí)例上下文編碼器將主干網(wǎng)絡(luò)中生成的多尺度特征融合,以生成上下文信息更加豐富的單尺度特征圖。最后將生成的特征圖送入基于實(shí)例激活圖的分割解碼器中,生成葉片實(shí)例的激活圖,以突出葉片實(shí)例,用于后續(xù)網(wǎng)絡(luò)的識別和分割。

    1.4 實(shí)例上下文編碼器和基于實(shí)例激活圖的分割解碼器

    ePaCC-SparseInst的實(shí)例上下文編碼器不同于以往的實(shí)例分割算法所使用的特征金字塔網(wǎng)絡(luò)(Feature pyramid network,F(xiàn)PN)[26],而是對其進(jìn)行重構(gòu)。實(shí)例上下文編碼器在主干網(wǎng)絡(luò)輸出的特征層C5之后采用金字塔池化模塊(Pyramid pooling module,PPM)[27]放大模型的感受野,旨在輸出語義信息更為豐富的特征圖。最后輸出的單級特征圖融合了P3、P4和P5 3層特征圖,其分辨率為原始圖像的八分之一。

    基于實(shí)例激活圖的分割解碼器由實(shí)例分支和掩碼分支構(gòu)成。如圖2所示,實(shí)例分支生成實(shí)例激活圖和3個N×D(N:實(shí)例激活圖的個數(shù);D:向量的長度)的向量用于后續(xù)實(shí)例識別和分割。實(shí)例激活圖位于實(shí)例分支中,旨在全局范圍內(nèi)突出每個實(shí)例對象的信息區(qū)域。突出區(qū)域的實(shí)例特征語義信息豐富,在實(shí)例識別中,有很強(qiáng)的實(shí)例感知能力。而掩碼分支則用于解碼特征圖并生成葉片對象的分割結(jié)果。

    1.5 實(shí)例分支

    與現(xiàn)有的實(shí)例分割模型不同,ePaCC-SparseInst既不依賴邊界框[22]也不依賴稠密的錨框[28]定位實(shí)例對象,而是通過一組稀疏的實(shí)例激活圖(Instance activate maps,IAM)來定位潛在的實(shí)例對象。實(shí)例激活圖作為一種新的實(shí)例對象表示方式,可以動態(tài)地顯示每個實(shí)例對象的區(qū)域信息。實(shí)例激活圖是由ePaCC模塊和Sigmoid激活函數(shù)在實(shí)例分支中激活后生成。給定ePaCC生成的特征圖X∈RD×(H×W)(D:向量的長度;H:向量的高度;W:向量的寬度),經(jīng)過實(shí)例激活函數(shù)后輸出的實(shí)例激活圖為A=fiam(X)∈RN×(H×W)。A為N個實(shí)例激活圖的稀疏集,fiam(·)為非線性的Sigmoid激活函數(shù)。實(shí)例激活圖根據(jù)區(qū)域位置信息聚合特征,以獲得每個實(shí)例的語義信息,用于識別和分割實(shí)例對象。然后通過1個全連接層生成3個N×D的向量,這3個向量分別是:掩碼分支生成實(shí)例掩碼的動態(tài)卷積核、實(shí)例特征的類別及其類別置信分。

    1.6 ePaCC模塊

    本研究在實(shí)例分支中引入一個帶有全局感受野的ePaCC模塊替代普通卷積層,試圖捕獲長距離的上下文依賴,獲得全局特征信息以更好地區(qū)分具有相同語義類別的重疊葉片。ePaCC改進(jìn)自一種全新的輕量級卷積模塊位置感知卷積(PaCC)[29],其憑借全卷積的結(jié)構(gòu)完美融合了Vision Transformer的優(yōu)點(diǎn)。該模塊具有全局感受野的同時,也具備普通卷積的位置敏感性。ePaCC與普通的輕量級卷積神經(jīng)網(wǎng)絡(luò)和ViT相比,擁有更好的性能、更少的參數(shù)和更快的推理速度。其結(jié)構(gòu)如圖3所示。

    ePaCC模塊提取特征的主要結(jié)構(gòu)為PaCC算子,該算子主要有2種類型,分別是垂直方向的PaCC算子(PaCC-V)以及水平方向的PaCC算子(PaCC-H)。如圖4所示,PaCC-H的感受野能覆蓋一整行,而PaCC-V的感受野則能覆蓋一整列。結(jié)合PaCC-H和PaCC-V則能實(shí)現(xiàn)提取全局特征的功能。以PaCC-V為例,PaCC算子的實(shí)現(xiàn)見公式(1)~公式(5):

    peV=F(p ~ eV)=[peV0,peV1,…,peVh-1]T (1)

    peVe=EV(peV,w) (2)

    kV=F(k ~ )=[kV0,kV1,…,kVh-1] (3)

    xp=x+peVe (4)

    yi,j=∑ ?t∈(0,h-1) kVtxp[(i+t)modh,j] (5)

    其中peV是指垂直方向?qū)嵗恢镁幋a,通過F(雙線性插值函數(shù))由一個垂直方向基本位置編碼p ~ eV生成。p ~ eV由垂直方向的實(shí)例位置編碼延展得到;peVe是垂直方向位置編碼的展開形式;kV是每一個PaCC的實(shí)例卷積核,由基本的實(shí)例卷積核k ~ 通過雙線性插值函數(shù)得到。x是輸入特征圖;xp是包含了位置信息的輸入特征圖;yi,j表示PaCC模塊在位置(i,j)處輸出的特征。EV:垂直方向延展;w:實(shí)例位置編碼雙線性插值后張量的寬度;mod:模運(yùn)算;h:高度。

    Metaformer結(jié)構(gòu)是Vision Transformer取得成功的關(guān)鍵之一[30],它通常由2個重要的組件構(gòu)成:令牌混合器和通道混合器。前者用于在不同空間位置的令牌之間交換信息,后者用于在不同通道之間交換信息。ePaCC模塊則使用一組串并聯(lián)的PaCC算子替換Metaformer中的自注意力模塊,構(gòu)成一個新的空間模塊。為了使純卷積架構(gòu)的PaCC模塊也具有數(shù)據(jù)驅(qū)動性,引入eSE注意力模塊作為ePaCC模塊的通道混合器,使網(wǎng)絡(luò)模型可以關(guān)注輸入特征圖中更加重要的特征信息,同時抑制不必要的干擾信息,從而輸出語義信息更豐富的特征圖。

    1.7 eSE注意力模塊

    SE注意力模塊是卷積神經(jīng)網(wǎng)絡(luò)中最常用的注意力模塊[31]。如圖5所示,SE注意力模塊中2個壓縮通道維數(shù)的全連接層會導(dǎo)致通道信息丟失的問題。因此本研究采用eSE通道注意力模塊[32]替代PaCC模塊中的SE通道注意力模塊。該模塊只使用一個通道數(shù)為C的全連接層,保證了通道信息不會因?yàn)橥ǖ缐嚎s而丟失,進(jìn)一步增強(qiáng)了實(shí)例激活圖的質(zhì)量,并提升了模型的推理速度。假設(shè)給定特征圖Xi∈RC×H×W,經(jīng)過eSE注意力模塊后輸出的特征圖可以用公式表示為:

    AeSE(Xi)=σ{WC[Fgap(Xi)]} (6)

    X0=XiAeSE(Xi) (7)

    其中Fgap(·)為全局平均池化;WC是全連接層;σ是一個Sigmoid激活函數(shù)。

    1.8 掩碼分支

    本研究的掩碼分支沿用了SparseInst的掩碼分支,首先通過卷積層生成掩碼特征圖M∈RD×H×W,結(jié)合來自實(shí)例分支的動態(tài)卷積核{(lán)wi}N生成每一個實(shí)例對象的分割掩碼mi=wi×M。最后通過雙線性插值恢復(fù)到原始比例的特征圖。

    實(shí)例激活圖會隨輸入特征的改變而改變,因此很難手工制定規(guī)則來分配標(biāo)簽進(jìn)行模型訓(xùn)練。針對該問題,本研究將標(biāo)簽分配問題轉(zhuǎn)化為二部圖匹配問題,并使用匈牙利算法[33]實(shí)現(xiàn)預(yù)測對象與實(shí)例激活圖的一一映射。二部圖匹配有助于實(shí)例激活圖突出顯示單個實(shí)例對象并抑制冗余預(yù)測,因此避免了計(jì)算繁瑣的非極大值抑制(NMS),節(jié)約了大量模型推理時間。

    2 結(jié)果與分析

    2.1 模型訓(xùn)練

    試驗(yàn)環(huán)境為Nvidia GTX 1080Ti GPU、顯存11 G和Linux Ubuntu 18.04操作系統(tǒng)。本研究中的所有網(wǎng)絡(luò)模型都基于開源框架detectron2和Pytorch進(jìn)行部署,同時配備了Python3.7、Cuda10.2并行計(jì)算架構(gòu)以及Cudnn7.6 GPU加速庫。

    參數(shù)設(shè)置:每次迭代訓(xùn)練的圖片為4張,ePaCC-SparseInst、SparseInst、SOLOV2、CondInst均迭代25 000次,而Mask R-CNN僅迭代10 000次,這是因?yàn)閑PaCC-SparseInst的二部圖匹配算法需要更多訓(xùn)練輪次來收斂網(wǎng)絡(luò)模型,而Mask R-CNN則會因?yàn)榈喆芜^多而產(chǎn)生過擬合的現(xiàn)象,導(dǎo)致分割精度劇烈降低。ePaCC-SparseInst的初始學(xué)習(xí)率為0.000 050 0,因?yàn)槎繄D匹配算法對學(xué)習(xí)率十分敏感,初始學(xué)習(xí)率太大會導(dǎo)致模型在訓(xùn)練開始時就梯度爆炸。當(dāng)網(wǎng)絡(luò)迭代到16 000次和20 000次時,學(xué)習(xí)率會分別衰減為0.000 005 0和0.000 000 5;SOLOv2和CondInst的初始學(xué)習(xí)率為0.000 200 0,學(xué)習(xí)率衰減規(guī)則同ePaCC-SparseInst一致;Mask R-CNN的初始學(xué)習(xí)率為0.005 000 0,當(dāng)網(wǎng)絡(luò)迭代到8 000次和9 000次時,學(xué)習(xí)率會衰減為0.000 500 0和0.000 050 0。此外SparseInst和ePaCC-SparseInst中的超參數(shù)N設(shè)為100,超參數(shù)D設(shè)為256。為了保證試驗(yàn)結(jié)果的可信性,本研究中所有展示的評價(jià)指標(biāo)都是3次訓(xùn)練結(jié)果的平均值。

    2.2 評價(jià)指標(biāo)

    本研究使用實(shí)例分割算法中最常用的評價(jià)指標(biāo)平均分割精度(AP)來衡量網(wǎng)絡(luò)模型的分割精度,包括AP50、AP75、APs、APm以及AP1。其中AP50和AP75表示真實(shí)標(biāo)簽和預(yù)測結(jié)果的交并比為50%以及75%時的平均分割精度;APs表示像素小于322實(shí)例對象的平均分割精度,在本研究中用來衡量網(wǎng)絡(luò)對小葉片的檢測效果;AP1表示像素大于962實(shí)例對象的平均分割精度,在本研究中用來評估網(wǎng)絡(luò)對大葉片的檢測效果;而APm表示像素則介于322和962之間實(shí)例對象的平均分割精度。AP的計(jì)算公式如下所示:

    P= TP TP+FP ×100% (8)

    R= FP TP+FN ×100% (9)

    AP=∫ 10P(R) (10)

    式中,TP表示正樣本被預(yù)測正確的像素總和;FP表示正樣本被預(yù)測錯誤的像素總和;FN表示負(fù)樣本被預(yù)測錯誤的像素總和;P表示準(zhǔn)確率;R表示召回率;AP表示平均分割精度。

    為了衡量模型的推理速度,本研究使用模型在1080Ti服務(wù)器上每秒傳輸幀數(shù)(Frames per second,F(xiàn)PS)作為模型推理速度的評價(jià)指標(biāo)。

    2.3 模型主干網(wǎng)絡(luò)的選擇與分析

    主干網(wǎng)絡(luò)(Backbone)是模型提取特征的關(guān)鍵部件之一,能提取輸入圖片的信息,生成不同尺度的特征圖,供后續(xù)網(wǎng)絡(luò)的檢測與分割。選擇正確的主干網(wǎng)絡(luò)以及合適的網(wǎng)絡(luò)深度可以讓模型的性能得到進(jìn)一步提升。本研究選用ResNet系列中4種不同深度的模型作為ePaCC-SparseInst的主干網(wǎng)絡(luò)并進(jìn)行了一系列的試驗(yàn)分析,試驗(yàn)結(jié)果如表1所示。結(jié)果表明,ResNet-50作為ePaCC-SparseInst的主干網(wǎng)絡(luò)時,分割效果明顯優(yōu)于其他幾種模型,同時模型FPS達(dá)到43.52,滿足實(shí)時性的需求。ResNet-18和ResNet-34雖有較快的推理速度,但是分割精度都低于ResNet-50。而ResNet-101則因?yàn)榫W(wǎng)絡(luò)模型的進(jìn)一步加深,出現(xiàn)了一定程度的性能衰退。因此,綜合考慮模型的精度和推理速度,本研究選用ResNet-50作為ePaCC-SparseInst的主干網(wǎng)絡(luò)。

    2.4 模型消融試驗(yàn)

    消融試驗(yàn)可以探究網(wǎng)絡(luò)中的各個子結(jié)構(gòu)對模型性能產(chǎn)生的影響。表2展示了實(shí)例上下文編碼器中各個組件對網(wǎng)絡(luò)模型性能的影響。為了增大感受野和獲取更多的實(shí)例上下文信息,增加金字塔池化模塊使模型的AP較基準(zhǔn)模型SparseInst提高了0.75個百分點(diǎn)。融合特征金字塔P3到P5的多尺度特征,增強(qiáng)了輸出單尺度特征的表達(dá)能力并將ePaCC-SparseInst的平均分割精度進(jìn)一步提高至85.33%。此外為了驗(yàn)證ePaCC-SparseInst中新增模塊的效果,本研究設(shè)置了消融試驗(yàn),將ePaCC-SparseInst中改進(jìn)或者添加的模塊逐個刪除后進(jìn)行訓(xùn)練。試驗(yàn)結(jié)果如表3 所示。

    從表3可以看出,使用PaCC模塊替換普通卷積層解碼特征之后,模型的AP提高了0.29個百分點(diǎn),F(xiàn)PS提高了1.19,APs從60.33%提升至61.63%,這是因?yàn)橐氲腜aCC模塊有著普通卷積層所不具備的全局感受野,能在全局的范圍內(nèi),找到普通卷積網(wǎng)絡(luò)不能感知的小葉片。將PaCC中的SE注意力模塊替換成eSE注意力模塊之后,模型的性能又獲得了進(jìn)一步的提升,雖然平均分割精度僅提高了0.17個百分點(diǎn),但模型的推理速度提升了1.33。這是因?yàn)閑SE注意力模塊中的單層全連接層緩解了PaCC模塊通道丟失問題,同時進(jìn)一步提高了模型的推理速度。通過上述消融試驗(yàn)可以發(fā)現(xiàn),本研究對SparseInst的改進(jìn)都取得了積極的作用,特別是引入了eSE注意力模塊的ePaCC模塊對模型的精度和速度都有較大提升。

    2.5 ePaCC的層數(shù)對模型性能的影響及分析

    為了設(shè)計(jì)出更好的實(shí)例分支解碼器,本研究進(jìn)行了如表4所示的對比試驗(yàn)。該試驗(yàn)評估了不同層數(shù)的ePaCC模塊對模型性能的影響。

    由表4可以看出,當(dāng)ePaCC的層數(shù)從1層增加到2層時,模型的分割精度得到略微的提升,但是模型的FPS降低了2.97 。而ePaCC的層數(shù)增加到3層時,模型的分割精度反而出現(xiàn)一定程度的降低,其中最為明顯的是APs,較1層ePaCC降低0.82個百分點(diǎn),這表明模型對小葉片的分割精度出現(xiàn)了大幅降低。因此為了平衡分割精度和模型的推理速度,本研究選用層數(shù)為1的ePaCC作為實(shí)例分支中的解碼器。同時也證明了ePaCC有著較好的擬合能力,僅需1層就能很好地?cái)M合數(shù)據(jù)。

    2.6 ePaCC-SparseInst與不同模型的對比試驗(yàn)

    使用Komatsuna數(shù)據(jù)集對比Mask R-CNN以及目前較為先進(jìn)的實(shí)時實(shí)例分割方法。最后在相同的測試集下進(jìn)行推理測試,最終的試驗(yàn)結(jié)果如表5所示。

    由表5可知,ePaCC-SparseInst實(shí)例分割算法在Komatsuna數(shù)據(jù)集上的FPS達(dá)到43.52,也就是單幀圖片的分割時間僅需22.97 ms,同時平均分割精度達(dá)到了85.33%。而經(jīng)典的實(shí)例分割算法Mask R-CNN單幀圖片的分割時間需要40.93 ms,平均分割精度僅為75.15%。如果直接將Mask R-CNN應(yīng)用于農(nóng)業(yè)場景中,將無法滿足實(shí)時分割植物葉片的需求。對比當(dāng)前較為流行的實(shí)時實(shí)例分割算法CondInst和SOLOv2,ePaCC-SparseInst在推理模型推理速度以及葉片分割精度上都有一定程度的優(yōu)勢。因此可以得出結(jié)論,ePaCC-SparseInst在推理速度和分割精度上都有著不錯的效果,為模型在移動端或算力較低的邊緣設(shè)備上部署提供了一種可行的方案。

    此外,本研究還對上述幾種實(shí)例分割方法進(jìn)行了可視化分析,如圖6所示。其中Mask R-CNN的分割結(jié)果是最差的,這主要由Mask R-CNN的2個缺陷導(dǎo)致的:首先,Mask R-CNN是兩階段的實(shí)例分割算法,這導(dǎo)致掩碼的分割結(jié)果極度依賴檢測結(jié)果的準(zhǔn)確性。而檢測框出現(xiàn)偏差時,就會對分割結(jié)果產(chǎn)生影響。從圖6也可以看出這一現(xiàn)象,檢測框的不準(zhǔn)確導(dǎo)致部分葉片的葉尖部分沒有被分割出來。為了提高檢測的精度,有些方法在Faster R-CNN的基礎(chǔ)上進(jìn)行了一定的改進(jìn),如Cascade R-CNN[34]等。但這些方法大多會增加額外的開銷,導(dǎo)致模型的復(fù)雜度以及推理時間大大增加。其次,Mask R-CNN在ROI Align之后,特征圖的分辨率僅為28×28,導(dǎo)致部分語義信息丟失。而以CondInst為代表的實(shí)例分割算法都拋棄了ROI Align,在原始特征層上動態(tài)地生成分割掩碼,盡可能地保留更多的語義信息。但CondInst實(shí)例分割算法從本質(zhì)上來說還是兩階段實(shí)例分割算法,只是將檢測算法從Faster R-CNN替換成了檢測精度更高的FCOS[28],因此也會因?yàn)闄z測結(jié)果不佳影響最終掩碼的分割精度。SOLOv2將分割問題很好地轉(zhuǎn)化為位置分類問題,做到了不需要目標(biāo)檢測來引導(dǎo)實(shí)例分割。但是其在小面積葉片的分割與檢測上,很容易出現(xiàn)漏檢的情況。由表5中SOLOv2 APs指標(biāo)以及圖6也可以看出這個缺陷。而ePaCC-SparseInst在模型分割精度上較SparseInst有著略微的提高。從SparseInst的第二張可視化圖中可以看出,葉子細(xì)小的葉柄沒有被完整的分割出來,而改進(jìn)的SparseInst則將細(xì)小的葉柄分割出來了。同時也可以看出ePaCC-SparseInst分割出的葉片較SparseInst一般有著更高的置信分。這說明ePaCC模塊使ePaCC-SparseInst的實(shí)例分支輸出的實(shí)例激活圖更具全局性,使得模型的分割精度得到了進(jìn)一步的提升。

    另外,在CVPPP A5數(shù)據(jù)集上,ePaCC-SparseInst的FPS也達(dá)到了41.63 ,比SparseInst快4.5。引入帶有全局感受野的ePaCC模塊后,全局感受野對葉面積較大的葉片感知能力得到了提升,ePaCC-SparseInst的AP1比SparseInst平均分割精度高2.74個百分點(diǎn)。補(bǔ)充的CVPPP A5數(shù)據(jù)集也說明了本研究提出的ePaCC-SparseInst在實(shí)時分割葉片上效果較其他算法有較大的優(yōu)勢。

    2.7 模型復(fù)雜度分析

    為了對比本研究的模型與現(xiàn)有的實(shí)例分割模型的復(fù)雜度以及模型參數(shù)量的大小,選用ResNet-50為主干網(wǎng)絡(luò),輸入模型的圖像尺寸為480×480像素的小松菜植物圖像,對比各個模型的每秒浮點(diǎn)計(jì)算數(shù)(Floating point operations per second,F(xiàn)LOPs)和模型參數(shù)量。

    由表6可知,與Mask R-CNN、SOLOv2等實(shí)例分割算法相比,ePaCC-SparseInst的模型每秒浮點(diǎn)計(jì)算數(shù)以及參數(shù)量都得到了大幅的降低;同時, ePaCC-SparseInst較SparseInst增加的模型參數(shù)量可以忽略不計(jì),但模型每秒浮點(diǎn)計(jì)算數(shù)減少了16.06 G。因此,全卷積結(jié)構(gòu)的ePaCC-SparseInst大幅削減了模型每秒浮點(diǎn)計(jì)算數(shù)和參數(shù)量,同時提高了模型的分割精度,為在算力較低的設(shè)備上實(shí)現(xiàn)實(shí)時實(shí)例分割提供了一種可行的參考方案。

    3 討 論

    本研究以Komatsuna數(shù)據(jù)集中的小松菜各個生長階段的圖片為主要研究對象,以SparseInst實(shí)例分割網(wǎng)絡(luò)為基礎(chǔ),兼顧模型精度和推理速度,對SparseInst實(shí)例分割網(wǎng)絡(luò)進(jìn)行了改進(jìn),構(gòu)建了ePaCC-SparseInst實(shí)時實(shí)例分割網(wǎng)絡(luò),并進(jìn)行了一定的試驗(yàn)分析和評估。最終得到了如下結(jié)論:

    1) 引入了稀疏的實(shí)例激活圖作為對象的表示方式,并使用匈牙利算法實(shí)現(xiàn)標(biāo)簽和預(yù)測結(jié)果一一映射,大大地提高了模型的推理速度。同時在解碼器中使用帶有全局感受野的ePaCC模塊。該模塊把PaCC模塊中的SE注意力模塊替換成能更好得保留通道信息的eSE注意力模塊,進(jìn)一步降低了模型在單張圖片上的推理時間。

    2) 基于Komatsuna數(shù)據(jù)集中原先和數(shù)據(jù)增強(qiáng)后的共3 600張圖片,對ePaCC-SparseInst實(shí)例分割網(wǎng)絡(luò)進(jìn)行試驗(yàn)。結(jié)果表明:ePaCC-SparseInst實(shí)例分割網(wǎng)絡(luò)的平均精度為85.33%,推理速度每秒傳輸幀數(shù)為43.52。

    3)通過消融試驗(yàn)證明了ePaCC-SparseInst各個改進(jìn)模塊的有效性。并將其與Mask R-CNN、CondInst和SOLOv2等實(shí)例分割算法進(jìn)行對比試驗(yàn),結(jié)果表明改進(jìn)后的SparseInst實(shí)例分割算法無論在分割精度上還是模型推理速度上,都優(yōu)于其他實(shí)例分割算法。

    本研究為基于圖像實(shí)例分割的植物表型研究提供了一種兼顧精度和速度的改進(jìn)思路,對植物葉片的表型研究和實(shí)際應(yīng)用領(lǐng)域都具有重要的應(yīng)用價(jià)值和前景。

    參考文獻(xiàn):

    [1] ?ZHOU Y, SRINIVASAN S, MIRNEZAMI S V, et al. Semiautomated feature extraction from RGB images for sorghum panicle architecture GWAS[J]. Plant Physiology,2019,179(1):24-37.

    [2] PIERUSCHKA R, SCHURR U. Plant phenotyping:past,present,and future[J]. Plant Phenomics,2019,2019(3):1-6.

    [3] SCHARR H, MINERVINI M, FRENCH A P, et al. Leaf segmentation in plant phenotyping:a collation study[J]. Machine Vision and Applications,2016,27(4):585-606.

    [4] GUO R, QU L, NIU D, et al. LeafMask:towards greater accuracy on leaf segmentation[C]. Montreal,BC,Canada:IEEE,2021.

    [5] ?GRAND-BROCHIER M, VACAVANT A, CERUTTI G, et al. Tree leaves extraction in natural images:comparative study of preprocessing tools and segmentation methods[J]. IEEE Transactions on Image Processing,2015,24(5):1549-1560.

    [6] SCHARR H, PRIDMORE T, TSAFTARIS S A. Computer vision problems in plant phenotyping[C]. Venice,Italy:IEEE,2017.

    [7] UCHIYAMA H, SAKURAI S, MISHIMA M, et al. An easy-to-setup 3D phenotyping platform for KOMATSUNA dataset[C]. Venice,Italy:IEEE,2017.

    [8] 蔣煥煜,施經(jīng)揮,任 燁,等. 機(jī)器視覺在幼苗自動移缽作業(yè)中的應(yīng)用[J]. 農(nóng)業(yè)工程學(xué)報(bào),2009,25(5):127-131.

    [9] 孫國祥,汪小旵,何國敏. 基于邊緣鏈碼信息的番茄苗重疊葉面分割算法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2010,26(12):206-211.

    [10] 王紀(jì)章,顧容榕,孫 力,等. 基于Kinect相機(jī)的穴盤苗生長過程無損監(jiān)測方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2021,52(2):227-235.

    [11] 伍艷蓮,趙 力,姜海燕. 基于改進(jìn)均值漂移算法的綠色作物圖像分割方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2014,30(24):161-167.

    [12] 胡 靜,陳志泊,張榮國, 等. 基于魯棒隨機(jī)游走的交互式植物葉片分割[J]. 模式識別與人工智能,2018,31(10):933-940.

    [13] ?KAN J, GU Z, MA C, et al. Leaf segmentation algorithm based on improved U-shaped network under complex background[C]. Chongqing,China:IEEE,2021.

    [14] YIN X, LIU X, CHEN J, et al. Multi-leaf alignment from fluorescence plant images[C]. Steamboat Springs,CO,USA:IEEE,2014.

    [15] REN M, ZEMEL R S. End-to-end instance segmentation with recurrent attention[C]. Honolulu,HI,USA:IEEE,2017.

    [16] HE K, GKIOXARI G, DOLLR P, et al. Mask R-CNN[C]. Venice,Italy:IEEE,2017.

    [17] 喬 虹,馮 全,趙 兵,等. 基于Mask R-CNN的葡萄葉片實(shí)例分割[J]. 林業(yè)機(jī)械與木工設(shè)備,2019,47(10):15-22.

    [18] 袁 山,湯 浩,郭 亞. 基于改進(jìn)Mask R-CNN模型的植物葉片分割方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(1):212-220.

    [19] 邢潔潔,謝定進(jìn),楊然兵,等.基于YOLOv5s的農(nóng)田垃圾輕量化檢測方法[J]. 農(nóng)業(yè)工程學(xué)報(bào),2022,38(19):153-161.

    [20] CHENG T, WANG X, CHEN S, et al. Sparse instance activation for real-time instance segmentation[C]. New Orleans,LA,USA:IEEE,2022.

    [21] HU H, GU J, ZHANG Z, et al. Relation networks for object detection[C]. Salt Lake City,UT,USA:IEEE,2018.

    [22] REN S, HE K, GIRSHICK R, et al. Faster R-CNN:towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2017,39(6):1137-1149.

    [23] GUO R, NIU D, QU L, et al. SOTR:segmenting objects with transformers[C]. Montreal,QC,Canada:IEEE,2021.

    [24] WANG X, ZHANG R, KONG T, et al. SOLOv2: dynamic and fast instance segmentation[C]. Red Hook,NY,USA:Curran Associates Inc.,2020.

    [25] BUSLAEV A, IGLOVIKOV V I, KHVEDCHENYA E, et al. Albumentations:fast and flexible image augmentations:2[J]. Information,2020,11(2):125.

    [26] LIN T-Y, DOLLR P, GIRSHICK R, et al. Feature pyramid networks for object detection[C]. Honolulu,HI,USA:IEEE,2017.

    [27] ZHAO H, SHI J, QI X, et al. Pyramid scene parsing network[C]. Honolulu,HI,USA:IEEE,2017.

    [28] TIAN Z, SHEN C, CHEN H, et al. FCOS:fully convolutional one-stage object detection[C]. Seoul,South Korea:IEEE,2019.

    [29] ZHANG H, HU W, WANG X. ParC-Net:position aware circular convolution with merits from ConvNets and transformer[C]. Tel Aviv,Israel:Springer Nature Switzerland,2022.

    [30] YU W, LUO M, ZHOU P, et al. Metaformer is actually what you need for vision[C]. New Orleans,LA,USA:IEEE,2022.

    [31] HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(8):2011-2023.

    [32] LEE Y, PARK J. CenterMask:real-time anchor-free instance segmentation[C]. Seattle,WA,USA:IEEE,2020.

    [33] STEWART R, ANDRILUKA M, NG A Y. End-to-end people detection in crowded scenes[C]. Las Vegas,NV,USA:IEEE,2016.

    [34] CAI Z, VASCONCELOS N. Cascade R-CNN: delving into high quality object detection[C]. Salt Lake City,UT,USA:IEEE,2018.

    (責(zé)任編輯:陳海霞)

    猜你喜歡
    計(jì)算機(jī)視覺
    基于光流技術(shù)的障礙物檢測方法
    軟件(2016年4期)2017-01-20 09:48:18
    無人駕駛小車定點(diǎn)追蹤系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
    軟件工程(2016年11期)2017-01-17 19:50:08
    基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識別算法
    雙目攝像頭在識別物體大小方面的應(yīng)用
    機(jī)器視覺技術(shù)發(fā)展及其工業(yè)應(yīng)用
    危險(xiǎn)氣體罐車液位計(jì)算機(jī)視覺監(jiān)控識別報(bào)警系統(tǒng)設(shè)計(jì)
    計(jì)算機(jī)視覺在交通領(lǐng)域的應(yīng)用
    基于計(jì)算機(jī)視覺的細(xì)小顆粒團(tuán)重量測量的研究
    對于計(jì)算機(jī)視覺商業(yè)化方向的研究
    基于Matlab的人臉檢測實(shí)驗(yàn)設(shè)計(jì)
    日韩视频在线欧美| 人妻系列 视频| 国产精品久久久久久精品电影小说 | 亚洲精品日韩在线中文字幕 | 不卡一级毛片| 波野结衣二区三区在线| 婷婷色av中文字幕| 两个人视频免费观看高清| 黄片无遮挡物在线观看| 久久精品91蜜桃| 精品久久久久久久人妻蜜臀av| 99久久精品国产国产毛片| 国产精品精品国产色婷婷| 国产私拍福利视频在线观看| 亚洲精品日韩av片在线观看| 国产成人91sexporn| 亚洲18禁久久av| 搡老妇女老女人老熟妇| 成人国产麻豆网| 久久精品人妻少妇| 欧美激情久久久久久爽电影| 亚洲无线观看免费| 女同久久另类99精品国产91| 国产精品综合久久久久久久免费| 97人妻精品一区二区三区麻豆| 日韩欧美精品v在线| 日日啪夜夜撸| 国内少妇人妻偷人精品xxx网站| av福利片在线观看| 日日摸夜夜添夜夜添av毛片| 天天一区二区日本电影三级| 小蜜桃在线观看免费完整版高清| 白带黄色成豆腐渣| 自拍偷自拍亚洲精品老妇| 美女国产视频在线观看| 国产一区二区激情短视频| 欧美成人一区二区免费高清观看| 亚洲va在线va天堂va国产| 51国产日韩欧美| 国产单亲对白刺激| 18禁裸乳无遮挡免费网站照片| 国产精品嫩草影院av在线观看| 亚洲av电影不卡..在线观看| 特大巨黑吊av在线直播| 国产成人精品婷婷| 久久草成人影院| 嫩草影院精品99| 深夜精品福利| 国产高清视频在线观看网站| 亚洲av免费在线观看| 美女黄网站色视频| 色哟哟·www| 黄色视频,在线免费观看| 亚洲婷婷狠狠爱综合网| 久久精品夜色国产| 毛片女人毛片| 国产综合懂色| 免费看光身美女| 又粗又爽又猛毛片免费看| 1000部很黄的大片| 高清午夜精品一区二区三区 | 丰满人妻一区二区三区视频av| 亚洲av成人av| 免费观看人在逋| 午夜老司机福利剧场| 国产人妻一区二区三区在| 人妻久久中文字幕网| 久久精品国产亚洲av天美| 久久婷婷人人爽人人干人人爱| 菩萨蛮人人尽说江南好唐韦庄 | 亚洲在线观看片| 国产伦理片在线播放av一区 | 国语自产精品视频在线第100页| 日日啪夜夜撸| 国产成人91sexporn| 青青草视频在线视频观看| 午夜老司机福利剧场| 嘟嘟电影网在线观看| 99久久精品一区二区三区| www.av在线官网国产| 一级黄色大片毛片| 日本免费一区二区三区高清不卡| 亚洲乱码一区二区免费版| 男女做爰动态图高潮gif福利片| 国产精品一区二区三区四区久久| 国产亚洲91精品色在线| 最近中文字幕高清免费大全6| 久久久久网色| 成年av动漫网址| 国产精品人妻久久久久久| 国产精品乱码一区二三区的特点| 国产亚洲5aaaaa淫片| 国产亚洲91精品色在线| 狂野欧美白嫩少妇大欣赏| 成人午夜精彩视频在线观看| 91av网一区二区| 美女黄网站色视频| 麻豆国产av国片精品| 国产在线男女| 91av网一区二区| 免费搜索国产男女视频| 如何舔出高潮| 精品国内亚洲2022精品成人| 国产精品国产高清国产av| 成人亚洲欧美一区二区av| 波多野结衣高清无吗| 免费av毛片视频| 国产精品精品国产色婷婷| 日韩亚洲欧美综合| 久久久久久久久久久丰满| 日本成人三级电影网站| 久久久久久久久久黄片| 亚洲精品久久国产高清桃花| 国产视频内射| 人妻久久中文字幕网| 少妇的逼水好多| 精品不卡国产一区二区三区| 亚洲成人精品中文字幕电影| 天美传媒精品一区二区| 国产亚洲av片在线观看秒播厂 | 亚洲不卡免费看| 三级经典国产精品| 色噜噜av男人的天堂激情| 国产精品久久久久久精品电影| 99热全是精品| 岛国在线免费视频观看| 天美传媒精品一区二区| av免费在线看不卡| 99久久中文字幕三级久久日本| 男女边吃奶边做爰视频| 18禁裸乳无遮挡免费网站照片| 嘟嘟电影网在线观看| 在线播放无遮挡| 国产极品精品免费视频能看的| 26uuu在线亚洲综合色| 97在线视频观看| 麻豆成人午夜福利视频| 欧美成人精品欧美一级黄| 免费观看精品视频网站| 成年版毛片免费区| 日韩欧美 国产精品| avwww免费| 亚洲av第一区精品v没综合| 久久久久网色| 女的被弄到高潮叫床怎么办| 全区人妻精品视频| 91狼人影院| 国产精品不卡视频一区二区| 给我免费播放毛片高清在线观看| 一级黄片播放器| 亚洲国产精品久久男人天堂| 三级男女做爰猛烈吃奶摸视频| 成人一区二区视频在线观看| av视频在线观看入口| 欧美成人一区二区免费高清观看| 久久草成人影院| 成年av动漫网址| 国产高清激情床上av| 亚洲精品粉嫩美女一区| 久久久久九九精品影院| 九九爱精品视频在线观看| 国产午夜福利久久久久久| 久久精品综合一区二区三区| 精品久久久久久成人av| 波多野结衣高清无吗| 日日摸夜夜添夜夜爱| 老师上课跳d突然被开到最大视频| 国产精品一区二区性色av| 深爱激情五月婷婷| 91久久精品国产一区二区成人| 色尼玛亚洲综合影院| 国产极品精品免费视频能看的| a级毛片a级免费在线| 啦啦啦啦在线视频资源| 成人特级黄色片久久久久久久| 有码 亚洲区| 极品教师在线视频| 成人毛片a级毛片在线播放| 亚洲最大成人av| 国产精品久久久久久精品电影小说 | 国产极品天堂在线| 日韩三级伦理在线观看| 高清毛片免费观看视频网站| 日本撒尿小便嘘嘘汇集6| 国产色爽女视频免费观看| 亚洲av中文av极速乱| 亚洲美女视频黄频| 精品无人区乱码1区二区| 国产白丝娇喘喷水9色精品| 天堂√8在线中文| 91精品国产九色| 国产老妇女一区| 国产精品三级大全| 久久欧美精品欧美久久欧美| 亚洲国产高清在线一区二区三| 亚洲18禁久久av| 性欧美人与动物交配| 变态另类成人亚洲欧美熟女| 欧美性感艳星| 国产日韩欧美在线精品| 国产一区二区在线观看日韩| 麻豆一二三区av精品| 国产精品人妻久久久久久| 一本久久精品| 成年女人永久免费观看视频| 搡女人真爽免费视频火全软件| 一边摸一边抽搐一进一小说| 亚洲第一电影网av| 99久久九九国产精品国产免费| 此物有八面人人有两片| 一级毛片电影观看 | 国产精品日韩av在线免费观看| 日本av手机在线免费观看| 久久久国产成人免费| 国产日韩欧美在线精品| 国产一级毛片七仙女欲春2| 丰满的人妻完整版| 18禁裸乳无遮挡免费网站照片| 人妻系列 视频| 在线观看66精品国产| 国产一区二区三区在线臀色熟女| 最近最新中文字幕大全电影3| 亚洲欧美精品专区久久| 亚洲欧美中文字幕日韩二区| 网址你懂的国产日韩在线| 床上黄色一级片| 成熟少妇高潮喷水视频| 男女啪啪激烈高潮av片| 听说在线观看完整版免费高清| 久久久a久久爽久久v久久| av在线观看视频网站免费| 最后的刺客免费高清国语| 97超碰精品成人国产| www.色视频.com| 久久人人爽人人片av| 欧美最新免费一区二区三区| 一区二区三区四区激情视频 | 欧美精品国产亚洲| 久久久国产成人精品二区| 国产免费一级a男人的天堂| 亚洲七黄色美女视频| 日韩一区二区视频免费看| 一区福利在线观看| 夜夜夜夜夜久久久久| 日本黄色视频三级网站网址| 91久久精品国产一区二区成人| 午夜免费男女啪啪视频观看| 色吧在线观看| 久久精品国产99精品国产亚洲性色| 国产精品1区2区在线观看.| 欧美性猛交黑人性爽| 国产在视频线在精品| 人人妻人人澡欧美一区二区| av女优亚洲男人天堂| 久久久久国产网址| 综合色丁香网| 欧美日本视频| 国产一区二区亚洲精品在线观看| 精品人妻一区二区三区麻豆| 中文字幕av成人在线电影| 青青草视频在线视频观看| 亚洲av中文av极速乱| 国产伦精品一区二区三区四那| 91精品一卡2卡3卡4卡| 国产极品天堂在线| 变态另类丝袜制服| 美女cb高潮喷水在线观看| 国产精品麻豆人妻色哟哟久久 | avwww免费| 国产精品久久视频播放| 禁无遮挡网站| 成人亚洲精品av一区二区| 真实男女啪啪啪动态图| 人妻夜夜爽99麻豆av| 在线免费观看的www视频| 久久久色成人| 联通29元200g的流量卡| 悠悠久久av| 久久人人爽人人爽人人片va| 精品人妻熟女av久视频| 尾随美女入室| 国产 一区精品| 一本久久精品| 亚洲在线自拍视频| 精品熟女少妇av免费看| 99热只有精品国产| 少妇猛男粗大的猛烈进出视频 | 日韩欧美国产在线观看| 国产精品一区二区性色av| 久久久久久大精品| 久久久国产成人精品二区| 久久久久久久久久久免费av| 丰满的人妻完整版| 欧美zozozo另类| 色视频www国产| 小蜜桃在线观看免费完整版高清| 亚洲电影在线观看av| 长腿黑丝高跟| 国产亚洲av嫩草精品影院| 国产 一区 欧美 日韩| 看黄色毛片网站| 日本与韩国留学比较| 欧美性感艳星| 国产中年淑女户外野战色| 美女被艹到高潮喷水动态| 日韩av不卡免费在线播放| 亚洲最大成人av| 国产单亲对白刺激| 国产成人freesex在线| 热99在线观看视频| 99久久精品国产国产毛片| 亚洲av中文字字幕乱码综合| 在线观看一区二区三区| 一进一出抽搐动态| 在线天堂最新版资源| 最近视频中文字幕2019在线8| 啦啦啦啦在线视频资源| 自拍偷自拍亚洲精品老妇| 我要看日韩黄色一级片| a级一级毛片免费在线观看| 国产一区亚洲一区在线观看| 国产大屁股一区二区在线视频| 久久亚洲精品不卡| 别揉我奶头 嗯啊视频| 97人妻精品一区二区三区麻豆| 午夜精品在线福利| 国产av麻豆久久久久久久| 国产亚洲5aaaaa淫片| 亚洲七黄色美女视频| 亚洲国产精品久久男人天堂| 国产精品1区2区在线观看.| 菩萨蛮人人尽说江南好唐韦庄 | 亚洲欧美精品自产自拍| 国产一区二区在线av高清观看| 久久久久九九精品影院| 久久精品国产亚洲av天美| 一进一出抽搐gif免费好疼| 激情 狠狠 欧美| 亚洲精品乱码久久久v下载方式| 亚洲一区二区三区色噜噜| 日韩成人av中文字幕在线观看| 国产在视频线在精品| 精品人妻视频免费看| 桃色一区二区三区在线观看| 午夜福利高清视频| 男插女下体视频免费在线播放| 看十八女毛片水多多多| 日日摸夜夜添夜夜爱| 少妇熟女aⅴ在线视频| 一级二级三级毛片免费看| 18+在线观看网站| 麻豆国产97在线/欧美| 99精品在免费线老司机午夜| 长腿黑丝高跟| 看片在线看免费视频| 精品久久国产蜜桃| 日韩一区二区视频免费看| 哪里可以看免费的av片| 可以在线观看毛片的网站| 日日撸夜夜添| 亚洲在线自拍视频| 亚洲av免费在线观看| 国产高清三级在线| av又黄又爽大尺度在线免费看 | 波多野结衣巨乳人妻| 天堂√8在线中文| 免费观看精品视频网站| 成年女人永久免费观看视频| 亚洲成av人片在线播放无| 国产一区二区三区在线臀色熟女| 伦精品一区二区三区| 中文字幕熟女人妻在线| 成人欧美大片| 国产精品日韩av在线免费观看| 国产伦精品一区二区三区四那| 国产精品三级大全| 欧美日本视频| 亚洲七黄色美女视频| 国内精品一区二区在线观看| 日日摸夜夜添夜夜爱| 成年版毛片免费区| 国产成人影院久久av| 成人特级黄色片久久久久久久| 男插女下体视频免费在线播放| av.在线天堂| 一本久久中文字幕| 1000部很黄的大片| 一级黄片播放器| 最好的美女福利视频网| 欧美成人免费av一区二区三区| 亚洲真实伦在线观看| 午夜爱爱视频在线播放| 悠悠久久av| 久99久视频精品免费| 又粗又爽又猛毛片免费看| 秋霞在线观看毛片| 国内少妇人妻偷人精品xxx网站| av女优亚洲男人天堂| 中文字幕av成人在线电影| 精品无人区乱码1区二区| av在线观看视频网站免费| 欧美丝袜亚洲另类| 哪个播放器可以免费观看大片| 老司机福利观看| 久久亚洲精品不卡| 男女那种视频在线观看| 一边亲一边摸免费视频| 看黄色毛片网站| 中国国产av一级| 亚洲在久久综合| 亚洲欧美日韩卡通动漫| 欧美区成人在线视频| 久久九九热精品免费| 99久久久亚洲精品蜜臀av| 亚洲精品国产av成人精品| 国产午夜精品一二区理论片| 一个人免费在线观看电影| 搞女人的毛片| 在线观看美女被高潮喷水网站| av在线亚洲专区| 亚州av有码| 久久草成人影院| 99久国产av精品国产电影| 91精品国产九色| 成人毛片60女人毛片免费| 九色成人免费人妻av| 久久精品夜色国产| 国产午夜精品论理片| 在线观看一区二区三区| 男人舔奶头视频| 高清在线视频一区二区三区 | 国产人妻一区二区三区在| 男女那种视频在线观看| 18禁黄网站禁片免费观看直播| 国产精品一区www在线观看| 国产熟女欧美一区二区| 国产精品女同一区二区软件| 日韩成人伦理影院| 日韩三级伦理在线观看| 天堂影院成人在线观看| 亚洲欧美成人综合另类久久久 | 精品人妻一区二区三区麻豆| 色综合亚洲欧美另类图片| av女优亚洲男人天堂| 亚洲成人久久爱视频| 国产精品99久久久久久久久| 欧美性猛交黑人性爽| 亚洲av中文字字幕乱码综合| 久久久久久国产a免费观看| 国产成人精品一,二区 | 在线观看午夜福利视频| 亚洲色图av天堂| 综合色丁香网| 麻豆一二三区av精品| 97超视频在线观看视频| 国产久久久一区二区三区| 久久国产乱子免费精品| 欧美xxxx性猛交bbbb| 在线天堂最新版资源| 国产成人a∨麻豆精品| 国产高清不卡午夜福利| 欧美色视频一区免费| 亚洲激情五月婷婷啪啪| 免费看日本二区| 丰满的人妻完整版| 国产伦精品一区二区三区四那| 欧美区成人在线视频| 91久久精品国产一区二区成人| 全区人妻精品视频| 最近2019中文字幕mv第一页| 欧美xxxx性猛交bbbb| 日产精品乱码卡一卡2卡三| 一卡2卡三卡四卡精品乱码亚洲| 精品一区二区免费观看| 午夜精品一区二区三区免费看| a级毛片a级免费在线| 亚洲性久久影院| 美女内射精品一级片tv| 国内精品美女久久久久久| 欧美色欧美亚洲另类二区| 欧美日韩精品成人综合77777| 国产又黄又爽又无遮挡在线| 亚洲精品国产成人久久av| 国内精品一区二区在线观看| 毛片女人毛片| av在线观看视频网站免费| 内地一区二区视频在线| 黑人高潮一二区| 97超碰精品成人国产| 一个人观看的视频www高清免费观看| 亚洲电影在线观看av| 少妇熟女欧美另类| 看非洲黑人一级黄片| 精品久久久久久久久久免费视频| 久久久精品94久久精品| 国产精品.久久久| 日本一二三区视频观看| 99国产极品粉嫩在线观看| 欧洲精品卡2卡3卡4卡5卡区| 国产高清视频在线观看网站| 亚洲欧美日韩高清在线视频| 哪里可以看免费的av片| 免费一级毛片在线播放高清视频| 少妇的逼好多水| 成人欧美大片| 久久久久久国产a免费观看| a级一级毛片免费在线观看| 国产一区亚洲一区在线观看| 国产在视频线在精品| 免费不卡的大黄色大毛片视频在线观看 | 久久人人爽人人爽人人片va| 中文字幕人妻熟人妻熟丝袜美| 搡女人真爽免费视频火全软件| 91精品国产九色| 欧美日本亚洲视频在线播放| 国产片特级美女逼逼视频| 夫妻性生交免费视频一级片| 免费人成视频x8x8入口观看| 色综合色国产| 女人十人毛片免费观看3o分钟| 久久久欧美国产精品| 国产精品三级大全| 国产伦精品一区二区三区四那| 色综合站精品国产| 伊人久久精品亚洲午夜| 国产亚洲精品久久久com| 村上凉子中文字幕在线| 久久久a久久爽久久v久久| 我要看日韩黄色一级片| 亚洲人成网站在线播放欧美日韩| 麻豆精品久久久久久蜜桃| 国产精品av视频在线免费观看| 天堂网av新在线| 听说在线观看完整版免费高清| 小说图片视频综合网站| 亚洲成a人片在线一区二区| 国产私拍福利视频在线观看| av在线亚洲专区| 男插女下体视频免费在线播放| 久久99蜜桃精品久久| 国产高清三级在线| 嫩草影院新地址| 免费观看在线日韩| 蜜桃亚洲精品一区二区三区| 爱豆传媒免费全集在线观看| 欧美激情国产日韩精品一区| 亚洲欧美日韩高清专用| 男人舔女人下体高潮全视频| 亚洲丝袜综合中文字幕| 欧美成人a在线观看| 国产三级中文精品| 亚洲天堂国产精品一区在线| 亚洲av一区综合| 亚洲国产高清在线一区二区三| 成人二区视频| АⅤ资源中文在线天堂| 久久久久久久久久久免费av| 国产美女午夜福利| 18禁黄网站禁片免费观看直播| 欧美最黄视频在线播放免费| 亚洲av熟女| 大型黄色视频在线免费观看| 内地一区二区视频在线| 噜噜噜噜噜久久久久久91| 在线a可以看的网站| 久久99热6这里只有精品| 亚洲av.av天堂| 亚洲欧美成人精品一区二区| 久久国内精品自在自线图片| 亚洲国产精品sss在线观看| 大又大粗又爽又黄少妇毛片口| 69av精品久久久久久| 一进一出抽搐gif免费好疼| 亚洲精品乱码久久久v下载方式| 激情 狠狠 欧美| 精品熟女少妇av免费看| 精品日产1卡2卡| 丰满乱子伦码专区| 变态另类成人亚洲欧美熟女| 成人鲁丝片一二三区免费| 欧美精品国产亚洲| 看十八女毛片水多多多| 麻豆精品久久久久久蜜桃| 精品午夜福利在线看| 色综合色国产| 日韩一区二区三区影片| 亚洲国产欧洲综合997久久,| 成年版毛片免费区| 亚洲成a人片在线一区二区| 中文精品一卡2卡3卡4更新| 看十八女毛片水多多多| 99热这里只有是精品在线观看| 亚洲av.av天堂| 免费看光身美女| 热99re8久久精品国产| 99热网站在线观看| 午夜视频国产福利| 欧美在线一区亚洲| 久久99精品国语久久久| 成人综合一区亚洲| 亚洲av第一区精品v没综合| 日韩av不卡免费在线播放| 国内久久婷婷六月综合欲色啪| 在线观看美女被高潮喷水网站| 男的添女的下面高潮视频| 一卡2卡三卡四卡精品乱码亚洲| 噜噜噜噜噜久久久久久91| 亚洲一区二区三区色噜噜| 别揉我奶头 嗯啊视频| 少妇裸体淫交视频免费看高清| 两个人的视频大全免费| 亚洲不卡免费看| 最近视频中文字幕2019在线8| av在线蜜桃| 久久精品国产亚洲av天美|