• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于RCF的精細邊緣檢測模型

    2019-10-31 09:21:33景年昭楊維
    計算機應(yīng)用 2019年9期
    關(guān)鍵詞:邊緣檢測注意力機制深度學(xué)習(xí)

    景年昭 楊維

    摘 要:針對目前基于深度學(xué)習(xí)的邊緣檢測技術(shù)生成的邊緣粗糙及模糊等問題,提出一種基于更豐富特征的邊緣檢測(RCF)模型(Richer Convolutional Features for Edge Detection)的端到端的精細邊緣檢測模型。該模型以RCF模型為基礎(chǔ),在主干網(wǎng)絡(luò)中引入“注意力”機制,采用SE(Squeeze-and-Excitation)模塊提取圖像邊緣特征,并且去掉主干網(wǎng)絡(luò)部分下采樣,避免細節(jié)信息過度丟失,使用擴張卷積技術(shù)增大模型感受野,并利用殘差結(jié)構(gòu)將不同尺度的邊緣圖進行融合。對伯克利分割數(shù)據(jù)集(BSDS500)進行增強,使用一種多步驟的訓(xùn)練方式在BSDS500和PASCAL VOC Context數(shù)據(jù)集上進行訓(xùn)練,并用BSDS500進行測試實驗。實驗結(jié)果表明,該模型將全局最佳(ODS)和單圖最佳(OIS)指標(biāo)分別提高到了0.817和0.838,在不影響實時性的前提下可以輸出更精細的邊緣,同時還具有較好的魯棒性。

    關(guān)鍵詞:邊緣檢測;更豐富的卷積特征檢測;深度學(xué)習(xí);擴張卷積;注意力機制

    中圖分類號:TP391.41

    文獻標(biāo)志碼:A

    Fine edge detection model based on RCF

    JING Nianzhao*, YANG Wei

    School of Electronic and Information Engineering, Beijing Jiaotong University, Beijing 100044, China

    Abstract:

    Aiming at the roughness and blur of edges generated by edge detection technology based on deep learning, an end-to-end fine edge detection model based on RCF (Richer Convolutional Features for edge detection) was proposed. In this model based on RCF model, attention mechanism was introduced in the backbone network, Squeeze-and-Excitation (SE) module was used to extract image edge features. In order to avoid excessive loss of detail information, two subsampling in the backbone network were removed. In order to increase the receptive field of the model, dilation convolution was used in the backbone. A residual module was used to fuse the edge images in different scales. The model was trained on the Berkeley Segmentation Data Set (BSDS500)and PASCAL VOC Context dataset by a multi-step training approach and was tested on the BSDS500. The experimental results show that the model improves the ODS (Optimal Dataset Scale) and OIS (Optimal Image Scale) to 0.817 and 0.838 respectively, and it not only generates finer edges without affecting real-time performance but also has better robustness.

    Key words:

    edge detection; Richer Convolutional Features for edge detection (RCF); deep learning; dilation convolution; attention mechanism

    0 引言

    圖像的邊緣是圖像的重要特征之一,準確的邊緣檢測是圖像分割、目標(biāo)區(qū)域識別、區(qū)域形狀提取等圖像分析工作的基礎(chǔ)[1-2],是機器視覺系統(tǒng)中必不可少的重要環(huán)節(jié)[3-5]。

    早期的邊緣檢測算法建立在圖像梯度運算的基礎(chǔ)上,利用圖像的一階或二階梯度信息提取圖像的邊緣,代表方法有Sobel算子[6]、Canny算子[7]等。這一類基于梯度的方法實時性好,但魯棒性不強,容易受噪聲、光照等因素的影響。隨著統(tǒng)計學(xué)和信息理論的引入以及機器學(xué)習(xí)領(lǐng)域的發(fā)展,許多基于手工特征的方法被提出。Konishi等[8]基于數(shù)據(jù)驅(qū)動技術(shù),將邊緣檢測表述為統(tǒng)計推斷,利用圖像特征的聯(lián)合概率分布實現(xiàn)邊緣的提取;Martin等[9]把圖像的亮度、光照、紋理等局部特征輸入到邏輯回歸分類器中進行邊緣的判定。這一類方法基于手工提取的圖像特征,利用濾波器技術(shù)或分類器技術(shù)進行邊緣的檢測,性能比傳統(tǒng)方法有了很大的提升,但是其成本高,步驟繁瑣,實時性不好。后來,隨著神經(jīng)網(wǎng)絡(luò)的復(fù)興以及計算機算力的提升,基于深度學(xué)習(xí)的算法成為了該領(lǐng)域的主流方法。Ganin等[10]提出將卷積神經(jīng)網(wǎng)絡(luò)與最近鄰算法結(jié)合起來進行邊緣檢測,該方法先利用卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)自動提取圖像特征,然后再利用最近鄰算法實現(xiàn)邊緣的聚類;Shen等[11]將邊緣檢測看作一個多分類問題,根據(jù)邊緣的不同形態(tài)將邊緣分成多個子類,利用CNN進行邊緣子類的檢測,之后再利用隨機森林技術(shù)將子類聚合形成最終輪廓圖;Bertasius等[12]提出使用更多的高級特征可以提升模型的性能,將參與分類任務(wù)的預(yù)訓(xùn)練模型遷移到邊緣檢測模型中,并將網(wǎng)絡(luò)分為兩個支路,利用多尺度技術(shù)分別進行邊緣的分類學(xué)習(xí)和回歸學(xué)習(xí),使模型的魯棒性得到很大提升;Xie等[13]提出了第一個端到端的邊緣檢測模型HED(Holistically-nested Edge Detection),該模型基于全卷積神經(jīng)網(wǎng)絡(luò)[14]框架并嘗試利用深監(jiān)督技術(shù)[15]和多尺度學(xué)習(xí)技術(shù)解決邊緣的模糊問題;Liu等[16]在HED模型的基礎(chǔ)上提出基于更豐富特征的邊緣檢測(Richer Convolutional Features for edge detection, RCF)模型,通過融合更豐富的特征使輸出的邊緣更精細。

    由于其強大的特征自動提取能力,基于深度學(xué)習(xí)的邊緣檢測技術(shù)比之前的算法在性能上有很大提升,對光照、陰影等影響因素的魯棒性也隨之增強。但是,像RCF或HED這類端到端的邊緣檢測模型以VGG16(Visual Geometry Group)[17]等傳統(tǒng)分類網(wǎng)絡(luò)為基礎(chǔ),不能提取圖片的全局特征,因此表達能力受到一定的影響。另外,這一類模型采用過多的下采樣并且沒有充分融合多尺度特征,導(dǎo)致圖像中的許多細節(jié)信息丟失,使輸出的邊緣線條粗糙且模糊。針對這些問題,本文提出一種基于RCF的精細邊緣檢測模型。該模型在RCF的基礎(chǔ)上,引入SE(Squeeze-and-Excitation)結(jié)構(gòu)[18],提取全局特征,去掉主干網(wǎng)絡(luò)的后兩個下采樣,避免細節(jié)信息多度丟失,并使用擴張卷積技術(shù)[19]增加主干網(wǎng)絡(luò)的感受野,提高主干網(wǎng)絡(luò)的表達能力,然后使用一個殘差結(jié)構(gòu)[20]充分融合深監(jiān)督模塊輸出的多尺度特征,生成最終的邊緣圖。此外,該模型使用一種多階段的訓(xùn)練方式在增強的伯克利分割數(shù)據(jù)集(Berkeley Segmentation Data Set, BSDS500)[21]和PASCAL VOC Context數(shù)據(jù)集[22]上進行訓(xùn)練,并在測試時使用圖像金字塔技術(shù),使模型性能進一步提升。

    1 細邊緣檢測模型

    1.1 RCF網(wǎng)絡(luò)

    RCF[16]以HED[13]為基礎(chǔ),實現(xiàn)了端到端邊緣檢測,是目前性能最好的邊緣檢測算法之一。如圖1所示,RCF的結(jié)構(gòu)分為三大部分:主干網(wǎng)絡(luò)、深監(jiān)督模塊(Deeply-Supervised nets, DS)和特征融合模塊(fuse)。RCF使用VGG16[17]的全部卷積層作為自己的主干網(wǎng)絡(luò),分為5個stage。通過這種全卷積結(jié)構(gòu)[14],主干網(wǎng)絡(luò)實現(xiàn)了邊緣特征的自動提取。RCF的深監(jiān)督模塊對每一個stage進行監(jiān)督學(xué)習(xí),并使每個stage輸出一張邊緣圖,使該模型可以更好更快地收斂。RCF的融合模塊則利用一個1×1的卷積層將深監(jiān)督模塊輸出的5張邊緣圖融合并輸出最終的邊緣圖。RCF輸出的邊緣圖融合了主干網(wǎng)絡(luò)每一層的特征,其效果要好于只使用部分特征的HED網(wǎng)絡(luò)。

    1.2 本模型

    本模型的設(shè)計思想來源于RCF網(wǎng)絡(luò),并對RCF各個模塊進行了針對性的改進。如圖2所示,本模型可大致分為主干網(wǎng)絡(luò)、深監(jiān)督模塊、特征融合模塊三部分。

    1.2.1 基于SE結(jié)構(gòu)的主干網(wǎng)絡(luò)

    如圖2中的虛線左邊部分所示,本模型的主干網(wǎng)絡(luò)以RCF的主干網(wǎng)絡(luò)為基礎(chǔ),也分為5個stage,負責(zé)邊緣特征的自動提取。然而RCF的主干網(wǎng)絡(luò)采用的是VGG16的傳統(tǒng)卷積結(jié)構(gòu)(convolution, conv),由多個卷積層簡單的堆疊而成。這種傳統(tǒng)的卷積結(jié)構(gòu)只能對局部感受野中的空間維度和特征維度的信息進行處理,不能提取圖片的全局特征,表達能力會受到限制。因此,本模型引入可提取全局特征的SE結(jié)構(gòu)并將主干網(wǎng)絡(luò)分為前后兩部分:前一部分(前兩個stage)與RCF一樣,采用傳統(tǒng)的卷積和下采樣組合的結(jié)構(gòu),充分提取邊緣的低級特征;后一部分(后面三個stage)則采用類似“注意力機制”的SE(Squeeze-and-Excitation)結(jié)構(gòu)[18],提取更多的語義特征和全局特征。如圖3所示,每個SE結(jié)構(gòu)先通過全局平均池化操作Fsq把卷積層IN的每個二維的feature map壓縮成一個實數(shù)ai,這個實數(shù)ai具有全局感受野,然后利用可學(xué)習(xí)的參數(shù)W為每一個實數(shù)ai生成權(quán)重,通過可學(xué)習(xí)的方式顯式地建模feature map間的相關(guān)性,最后用學(xué)習(xí)后的全局特征B與原始feature map進行元素相乘,使OUT中每一個feature map的特征包含全局的信息 [18]。使用這種SE結(jié)構(gòu)后,本模型可以提取全局特征來衡量feature map的重要程度,通過學(xué)習(xí)的方式提升有用的特征并抑制對當(dāng)前任務(wù)用處不大的特征,從而提升主干網(wǎng)絡(luò)的表達能力。另外,RCF主干網(wǎng)絡(luò)有4次下采樣,模型輸出的圖片精度只有原始圖片的1/16,導(dǎo)致圖片的許多細節(jié)信息丟失,使輸出的邊緣模糊不清。因此,本模型去掉主干網(wǎng)絡(luò)后2個下采樣,使用3×3的池化(pool)并將步長設(shè)為1。這樣,本模型只有2次下采樣,輸出圖片的精度是原始圖片的1/4,保留了更多的細節(jié)信息,使輸出的邊緣更精細。與此同時,為了解決去掉下采樣后感受野變小的問題,本模型在后兩個stage中使用擴張卷積技術(shù)(dilation, dil)[19],將擴張參數(shù)分別設(shè)為2和4,在不增加參數(shù)的情況下增大模型的感受野。

    1.2.2 深監(jiān)督模塊

    圖2中的主干網(wǎng)絡(luò)在提取特征的過程中,由于自身參數(shù)過多,訓(xùn)練時網(wǎng)絡(luò)收斂速度慢,收斂效果也不太理想。因此,為了使主干網(wǎng)絡(luò)能夠更高效地提取特征,改善模型訓(xùn)練效果,本模型使用與RCF相同的深監(jiān)督技術(shù)。如圖2中的虛線右側(cè)部分所示,將主干網(wǎng)絡(luò)中的每一層特征通過1×1的卷積層進行特征壓縮,并以stage為單位相加,然后再使用1×1的卷積進一步壓縮特征,最后通過利用雙線性插值技術(shù)初始化的反卷積(deconvolution, deconv)實現(xiàn)上采樣,使每一個stage都輸出一張邊緣圖;并且本模型對每一個stage輸出的邊緣圖都進行監(jiān)督學(xué)習(xí),實現(xiàn)深監(jiān)督學(xué)習(xí)。

    1.2.3 基于殘差結(jié)構(gòu)的特征融合

    圖2中的特征融合模塊負責(zé)對深監(jiān)督模塊輸出的5個邊緣圖進行融合處理。每個stage生成的邊緣圖都使用了不同層次的特征,第1個stage生成的邊緣圖使用了大量的低級特征和很少的語義特征,而第5個stage生成的邊緣圖則使用了大量的語義特征和很少的細節(jié)特征。因此將每個stage輸出的邊緣圖融合起來,可以更充分地使用模型特征,使輸出的邊緣更精確。然而RCF只采用一層1×1的卷積簡單地按比例融合,對多尺度的信息處理得不充分,輸出的邊緣比較粗。另外,通過實驗發(fā)現(xiàn)后兩個stage輸出的邊緣圖與標(biāo)簽圖(ground truth)已經(jīng)很相近,這就意味著后兩個stage輸出的邊緣圖與標(biāo)簽圖之間的殘差已經(jīng)很小,因此,本模型的融合模塊使用一種殘差結(jié)構(gòu)[20],通過對每個stage輸出的邊緣圖與標(biāo)簽圖之間的殘差進行處理,使多尺度特征更高效地融合。如圖4所示,融合模塊的輸入是深監(jiān)督模塊輸出的5張邊緣圖,將輸入分成兩個分支,其中一個分支通過3個卷積層對殘差進行充分處理,然后與輸入相加,實現(xiàn)多尺度信息的融合,再經(jīng)過一個1×1的卷積進行特征壓縮后便輸出最終的邊緣圖。融合后的邊緣圖既保留大量的細節(jié)信息,在語義上也是完整的。此外,通過實驗發(fā)現(xiàn),在特征融合模塊中使用非線性結(jié)構(gòu),比如ReLU(Rectified Linear Units)[21]等,會損失一些細節(jié)信息,導(dǎo)致輸出的邊緣圖包含噪聲,因此,該模塊沒有添加任何非線性結(jié)構(gòu)。

    1.3 精細邊緣檢測模型訓(xùn)練

    1.3.1 數(shù)據(jù)集增強

    本模型使用增強版的BSDS500[22]數(shù)據(jù)集和PASCAL VOC Context[23]數(shù)據(jù)集進行訓(xùn)練。傳統(tǒng)的邊緣檢測數(shù)據(jù)集BSDS500由訓(xùn)練集、驗證集和測試集三部分組成。其中,訓(xùn)練集包含200張圖片,驗證集包含100張圖片,測試集包含200張圖片。為了防止模型出現(xiàn)過擬合現(xiàn)象,對BSDS500數(shù)據(jù)集進行了增強處理。通過使用OpenCV工具包,對訓(xùn)練集和驗證集的300張圖片進行旋轉(zhuǎn)、擴大、剪裁等操作,將數(shù)據(jù)集增強到28800張。另外,由于本模型對輸入圖片的大小信息不敏感,為了減少模型訓(xùn)練時的內(nèi)存消耗,并實現(xiàn)批量訓(xùn)練,將所有的訓(xùn)練圖片剪裁為209×273的統(tǒng)一大小。

    1.3.2 像素級分類的損失函數(shù)

    針對邊緣檢測這種像素級的分類問題,通常將圖片的每個像素點的分類看作是一個二分類問題(邊緣點與非邊緣點),因此,本模型使用交叉熵作為每個像素點分類的代價函數(shù)。另外, BSDS500數(shù)據(jù)集中的每一個標(biāo)簽圖(ground truth)都是由多個標(biāo)記者標(biāo)注而成,由于每個標(biāo)記者對于邊緣的認知不統(tǒng)一,因此該數(shù)據(jù)集中的邊緣含有一些噪聲。為了提高模型魯棒性,本模型使用文獻[16]中閾值法,即對標(biāo)簽圖中的像素值進行歸一化處理,將標(biāo)簽圖變?yōu)檫吘壍母怕蕡D,并將概率值大于閾值η的像素點作為邊緣點,將概率值為0的像素點作為非邊緣點,而其他像素點作為有爭議點,排除在外。與文獻[16]相同,本模型每個像素點的損失函數(shù)表示為:

    l(Xi ;W)= α·lb(1-P(Xi;W)); yi =0

    0,??????? 0 < yi≤η

    β·lb(P(Xi;W),yi>η(1)

    α=λ·Y+Y++Y-

    β=Y-Y++Y-(2)

    其中:|Y+|和|Y-|分別代表正負樣本的數(shù)量,α、 β和超參數(shù)λ用來平衡正負樣本數(shù)量差,Xi代表神經(jīng)網(wǎng)絡(luò)的激活值,yi代表標(biāo)簽圖中像素點i是邊緣點的概率值,W代表神經(jīng)網(wǎng)絡(luò)中可學(xué)習(xí)的參數(shù)。這種損失函數(shù)可以促使模型作出最有把握的判斷,將有爭議的像素點排除在外,提高模型的魯棒性。另外,通過實驗發(fā)現(xiàn):如果將超參數(shù)η設(shè)為0.5或更大的值,有些標(biāo)簽圖出現(xiàn)邊緣不連續(xù)的現(xiàn)象;而將超參數(shù)η減小時,有些標(biāo)簽圖的邊緣開始受到噪聲的影響。因此,超參數(shù)η大小的設(shè)定要根據(jù)該模型具體的使用場景而定。

    1.3.3 多階段訓(xùn)練方式

    RCF使用單階段的訓(xùn)練方式,將深監(jiān)督模塊每個stage的損失與融合模塊的損失之和作為整個模型的損失函數(shù)。然而,這兩部分損失的重要程度是不一樣的,深監(jiān)督模塊輸出邊緣圖并計算損失只是為了輔助主干網(wǎng)絡(luò)更好地優(yōu)化,起輔助作用;而融合模塊輸出的邊緣圖為模型最終的輸出,這部分損失起決

    定作用。RCF的這種簡單相加的損失函數(shù)并沒有體現(xiàn)出融合模塊損失的重要性,因此,本模型使用一種多階段的訓(xùn)練方式,先使用RCF的訓(xùn)練方式使網(wǎng)絡(luò)達到一個較優(yōu)的狀態(tài),然后去掉深監(jiān)督模塊的損失,只使用融合模塊的損失繼續(xù)進行訓(xùn)練,使模型達到最優(yōu)的狀態(tài)。通過這種多階段訓(xùn)練方式,顯式地提升融合模塊輸出的邊緣圖的重要性。具體過程如下:

    1)先采用RCF的訓(xùn)練方式,損失函數(shù)為:

    L(W)=∑Ii=1(∑Kk=1l(X(k)i;W)+l(Xfusei;W))(3)

    其中:X(k)i代表第k個stage輸出圖片中的第i個像素點的激勵值,而Xfusei代表融合模塊輸出的圖片中的第i個像素點的激勵值,|I|代表每張圖片像素點的總數(shù),K代表主干網(wǎng)絡(luò)stage的數(shù)量,在這里K =5。利用該損失函數(shù)通過隨機梯度下降算法訓(xùn)練本模型10個epoch,batch size設(shè)為16,基準學(xué)習(xí)率設(shè)為1E-6,每一層的學(xué)習(xí)率略有差異,momentum設(shè)為0.9,weight decay設(shè)為0.0002。另外,與HED和RCF網(wǎng)絡(luò)不同,本模型在訓(xùn)練過程中沒有使用任何預(yù)訓(xùn)練模型,只對參數(shù)進行Gaussian分布的初始化。

    2)在第一步的基礎(chǔ)上,只使用融合模塊的損失繼續(xù)對模型進行優(yōu)化,此時本模型的損失函數(shù)為:

    L(W)=∑Ii=1l(Xfusei;W)(4)

    其中:l(Xfusei;W)代表融合模塊輸出的圖片中的第i個像素點的損失函數(shù),|I|代表每張圖片像素點的總數(shù)。用該損失函數(shù)繼續(xù)訓(xùn)練模型直至收斂,顯式地提升融合模塊輸出的邊緣圖的重要性,基準學(xué)習(xí)率設(shè)為1E-7,其他的參數(shù)設(shè)置與第1)步相同。

    1.4 與RCF比較

    本模型與RCF的區(qū)別主要體現(xiàn)在3個方面:首先,RCF的主干網(wǎng)絡(luò)采用傳統(tǒng)的VGG16的全部卷積層,而本模型將主干網(wǎng)絡(luò)分為兩部分:前半部分采用下采樣結(jié)構(gòu)充分提取邊緣特征;后半部分考慮到圖片的精度問題不進行下采樣,采用空洞卷積技術(shù)增大感受野并且采用SE結(jié)構(gòu)提取圖片全局特征。然后,在特征融合部分,RCF只使用一層1×1卷積進行特征融合,而本模型使用一種多層的殘差結(jié)構(gòu),實現(xiàn)多尺度特征的充分融合。最后,RCF使用的是單階段的訓(xùn)練方式,而本模型使用了一種多階段的訓(xùn)練方式。通過上述幾點的改進,本模型性能比RCF網(wǎng)絡(luò)有了一定程度的提升。

    2 實驗

    本文中的實驗以Pytorch 0.4.0作為開發(fā)框架,系統(tǒng)為Linux,硬件設(shè)備包括一塊NVIDIA TITAN Xp GPU,顯卡內(nèi)存為12GB和一塊Intel i7-6800k CPU,內(nèi)存為64GB。

    2.1 圖像金字塔技術(shù)

    圖像金字塔技術(shù)是計算機視覺領(lǐng)域中的一種重要技術(shù),文獻[16]和[24]均使用該技術(shù)并取得了很好的效果。在測試階段,本模型也使用圖像金字塔技術(shù),將測試集圖片分別剪裁為0.8×、1.0×、1.2×三種規(guī)模,分別輸入到模型,然后將同一圖片三種不同規(guī)模的結(jié)果加權(quán)求平均,得出最終的邊緣圖,增強模型的魯棒性。

    2.2 實驗分析

    邊緣檢測模型的檢測指標(biāo)主要包括:全局最佳(Optimal

    Dataset Scale, ODS)和單圖最佳(Optimal Image Scale, OIS)等。其中:ODS指測試集中所有圖片使用固定同一閾值時的檢測結(jié)果;OIS指對每一幅圖像使用針對當(dāng)前圖片最佳閾值時的檢測結(jié)果[25]。本文模型輸出的邊緣圖通過非最大抑制[26]處理后,用Edge Box[27]工具包進行指標(biāo)測量,各項指標(biāo)與其他相關(guān)算法的對比如表1所示。

    通過對比可以看出,本文模型通過對RCF和HED的改進,性能比RCF和HED有了一定的提高。本文模型的ODS分別比RCF和HED提高0.6%和2.9%,而OIS分別比RCF和HED提高0.8%和3.4%。另外,本文模型輸出的邊緣圖與原始圖片的對比如圖5所示。

    通過對比可知,本文模型可以精確地將圖片中物體的邊緣提取出來,并且在未使用圖像金字塔技術(shù)和未進行非最大抑制處理的情況下,本文模型生成的邊緣線條也非常清晰,達到了目前靠前的水平。

    為了進一步查看本文模型各模塊的改進效果,進行了相關(guān)實驗,實驗結(jié)果如表2所示。針對主干網(wǎng)絡(luò),將使用SE結(jié)構(gòu)和空洞卷積的模型與RCF進行對比實驗,實驗結(jié)果表明使用SE結(jié)構(gòu)和空洞卷積的模型分別使ODS和OIS指標(biāo)提升了0.33%和0.42%,這也證明了本模型的主干網(wǎng)絡(luò)能夠提取更多的全局信息并且會保留更多的邊緣細節(jié)信息。另外,本模型主干網(wǎng)絡(luò)每個stage輸出的邊緣圖與HED和RCF的對比如圖6所示。從左到右,前兩列為HED與本模型各個stage輸出邊緣圖的對比,后兩列為RCF與本模型各個stage輸出邊緣圖的對比。從上到下,每一列的5張圖分別為主干網(wǎng)絡(luò)1~5 stage輸出的邊緣圖。通過對比可以看出,HED和RCF各個stage輸出的邊緣圖線條粗糙且模糊,對細節(jié)的處理欠佳;而本文模型生成的邊緣圖保留了更多細節(jié)信息,線條更清晰。

    針對融合模塊,在使用殘差結(jié)構(gòu)后,模型的ODS和OIS指標(biāo)分別提升了0.21%和0.28%,這說明該融合模塊可以更充分地融合多尺度的特征。另外,當(dāng)去掉殘差結(jié)構(gòu)中的shortcut支路而只保留層疊結(jié)構(gòu)時,發(fā)現(xiàn)模型收斂情況變差,邊緣圖出現(xiàn)很多噪聲并且變得不清晰。這也證明了殘差結(jié)構(gòu)可以使網(wǎng)絡(luò)參數(shù)更好地優(yōu)化,避免梯度消失和梯度爆炸等問題。此外,當(dāng)對融合模塊增添ReLU等非線性元素時,邊緣圖會變得模糊,這說明該模塊的非線性結(jié)構(gòu)會損壞很多有用的邊緣信息,造成網(wǎng)絡(luò)性能下降。

    最后,對本模型的多階段訓(xùn)練方式進行實驗,發(fā)現(xiàn)使用多階段的訓(xùn)練方式后,深監(jiān)督模塊每個stage輸出的邊緣圖會受到一定的影響,變得不清晰,但融合模塊輸出的邊緣圖卻更精確,ODS和OIS分別提升了0.09%和0.12%,這也符合預(yù)期。

    3 結(jié)語

    本文提出了一個新的邊緣檢測模型。該模型基于RCF和HED的思想,在主干網(wǎng)絡(luò)上加入SE模塊,提升主干網(wǎng)絡(luò)的表達能力,舍棄部分下采樣,避免圖片精度過度降低;采用空洞卷積技術(shù)提升網(wǎng)絡(luò)的感受野,采用一種殘差結(jié)構(gòu)使多尺度特征充分融合;最后采用多階段訓(xùn)練的方式使模型性能進一步提升。實驗表明,本模型可以生成高質(zhì)量的邊緣圖。

    參考文獻

    [1]REN X F, BO L F. Discriminatively trained sparse code gradients for contour detection[C]// NIPS 2012: Proceedings of the 25th International Conference on Neural Information Processing Systems. North Miami Beach, FL, USA: Curran Associates, 2012, 1: 584-592.

    [2]張廣燕, 王俊平, 邢潤森,等.PSLIP新模型及在邊緣檢測和圖像增強中的應(yīng)用[J].電子學(xué)報,2015,43(2):377-382.(ZHANG G Y, WANG J P, XING R S, et al. A new PSLIP model and its application in edge detection and image enhancement[J]. Acta Electronica Sinica, 2015, 43(2): 377-382.)

    [3]KOHLI P, LADICKY L, TORR P H S. Robust higher order potentials for enforcing label consistency [J]. International Journal of Computer Vision, 2009, 82(3): 302-324.

    [4]石美紅,李青,趙雪青,等.一種基于保角相位的圖像邊緣檢測新方法[J].電子與信息學(xué)報,2015,37(11):2594-2600.(SHI M H, LI Q, ZHAO X Q, et al. A new approach for image edge detection based on conformal phase [J]. Journal of Electronics and Information Technology, 2015, 37(11): 2594-2600.)

    [5]PANTOFARU C, SCHMID C, HERBERT M. Object recognition by integrating multiple image segmentations [C]//ECCV 2008: Proceedings of the 10th European Conference on Computer Vision, LNCS 5304. Berlin: Springer, 2008: 481-494.

    [6]FELDMAN J A, FELDMAN G M, FALK G, et al. The Stanford hand-eye project [C]// IJCAI ‘69: Proceedings of the 1st International Joint Conference on Artificial Intelligence. San Francisco, CA: Morgan Kaufmann, 1969: 521-526.

    [7]CANNY J. A computational approach to edge detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1986, 8(6): 679-698.

    [8]KONISHI S, YUILLE A L, COUGHLAN J M, et al. Statistical edge detection: learning and evaluating edge cues [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(1): 57-74.

    [9]MARTIN D R, FOWLKES C C, MALIK J. Learning to detect natural image boundaries using local brightness, color, and texture cues[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2004, 26(5): 530-549.

    [10]GANIN Y, LEMPITSKY V. N4-Fields: neural network nearest neighbor fields for image transforms [C]// Proceedings of the 2014 Asian Conference on Computer Vision, LNCS 9004. Berlin: Springer, 2014: 536-551.

    [11]SHEN W, WANG X G, WANG Y, et al. DeepContour: a deep convolutional feature learned by positive-sharing loss for contour detection[C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 3982-3991.

    [12]BERTASIUS G, SHI J, TORRESANI L. DeepEdge: a multi-scale bifurcated deep network for top-down contour detection [C]// Proceedings of the 2015 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2015: 4380-4389.

    [13]XIE S, TU Z. Holistically-nested edge detection [J]. International Journal of Computer Vision, 2017, 125(1/2/3): 3-18.

    [14]SHELHAMER E, LONG J, DARRELL T. Fully convolutional networks for semantic segmentation [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(4): 640-651.

    [15]LEE C-Y, XIE S, GALLAGHER P, et al. Deeply-supervised nets [EB/OL]. [2019-01-02]. https://arxiv.org/pdf/1409.5185.pdf.

    [16]LIU Y, CHENG M, HU X, et al. Richer convolutional features for edge detection [C]// Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2017: 5872-5881.

    [17]SIMONYAN K, ZISSERMAN A. Very deep convolutional networks for large-scale image recognition [EB/OL]. [2018-08-12]. https://arxiv.org/pdf/1409.1556.pdf.

    [18]HU J, SHEN L, ALBANIE S, et al. Squeeze-and-excitation networks [EB/OL]. [2018-08-12]. https://arxiv.org/pdf/1709.01507.pdf.

    [19]YU F, KOLTUN V. Multi-scale context aggregation by dilated convolutions [EB/OL]. [2018-08-12]. https://arxiv.org/pdf/1511.07122.pdf.

    [20]HE K M, ZHANG X Y, REN S Q, et al. Deep residual learning for image recognition [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ:IEEE, 2016: 770-778.

    [21]NAIR V, HINTON G E. Rectified linear units improve restricted Boltzmann machines [C]// ICML ‘10: Proceedings of the 27th International Conference on Machine Learning. Madison, WI: Omnipress, 2010: 807-814.

    [22]MARTIN D R, FOWLKES C C, TAL D, et al. A database of human segmented natural images and its application to evaluating segmentation algorithms and measuring ecological statistics [C]// ICCV 2001: Proceedings of the 8th IEEE International Conference on Computer Vision. Washington DC: IEEE Computer Society, 2001, 2: 416-423.

    [23]MOTTAGHI R, CHEN X, LIU X, et al. The role of context for object detection and semantic segmentation in the wild [C]// Proceedings of the 2014 IEEE Conference on Computer Vision and Pattern Recognition. Washington DC: IEEE Computer Society, 2014: 891-898.

    [24]FARABET C, COUPRIE C, NAJMAN L, et al. Learning hierarchical features for scene labeling [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2013, 35(8): 1915-1929.

    [25]劉勝男,寧紀鋒. 基于超像素的點互信息邊界檢測算法[J]. 計算機應(yīng)用, 2016, 36(8): 2296-2300. (LIU S N, NING J F. Super-pixel based pointwise mutual information boundary detection algorithm[J]. Journal of Computer Applications, 2016, 36(8): 2296-2300.)

    [26]DOLLR P, ZITNICK C L. Fast edge detection using structured forests [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(8): 1558-1570.

    [27]ZITNICK C L, DOLLR P. Edge boxes: locating object proposals from edges [C]// Proceedings of the 2014 European Conference on Computer Vision, LNCS 8693. Berlin:Springer, 2014:391-405.

    This work is partially supported by the National Key Research and Development Program of China (2016YFC0801800).

    JING Nianzhao, born in 1994, M.S. candidate. His research interests include computer vision, information processing.

    YANG Wei, born in 1964, Ph.D., professor. His research interests include wireless communication, information processing.

    猜你喜歡
    邊緣檢測注意力機制深度學(xué)習(xí)
    基于深度學(xué)習(xí)的問題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于注意力機制的雙向LSTM模型在中文商品評論情感分類中的研究
    軟件工程(2017年11期)2018-01-05 08:06:09
    InsunKBQA:一個基于知識庫的問答系統(tǒng)
    唐卡圖像邊緣提取
    MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
    大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
    移相干涉術(shù)及其相位解包新思路
    基于數(shù)據(jù)挖掘技術(shù)的圖片字符檢測與識別
    水下大壩裂縫圖像分割方法研究 
    99国产综合亚洲精品| 最近中文字幕2019免费版| 久久精品aⅴ一区二区三区四区| 国产日韩欧美在线精品| 美女中出高潮动态图| 欧美午夜高清在线| 欧美老熟妇乱子伦牲交| 99精品欧美一区二区三区四区| 十八禁网站免费在线| 欧美激情极品国产一区二区三区| 中文欧美无线码| 丰满人妻熟妇乱又伦精品不卡| 欧美精品啪啪一区二区三区 | 蜜桃在线观看..| 永久免费av网站大全| 在线av久久热| 男男h啪啪无遮挡| 蜜桃国产av成人99| 亚洲av美国av| 视频在线观看一区二区三区| 中国国产av一级| 国产精品99久久99久久久不卡| 国产精品麻豆人妻色哟哟久久| 国产精品一区二区在线观看99| 在线观看免费午夜福利视频| 久久 成人 亚洲| 老司机靠b影院| 人人妻人人爽人人添夜夜欢视频| 一区二区三区精品91| 久久久久精品国产欧美久久久 | 精品久久久久久久毛片微露脸 | 超碰97精品在线观看| 18禁国产床啪视频网站| 男人操女人黄网站| 91精品伊人久久大香线蕉| 飞空精品影院首页| 亚洲av电影在线进入| 国产国语露脸激情在线看| 中文字幕av电影在线播放| 美女视频免费永久观看网站| 国产精品九九99| 波多野结衣一区麻豆| 精品一区二区三区av网在线观看 | 嫩草影视91久久| 成年人免费黄色播放视频| 一区二区三区精品91| 欧美久久黑人一区二区| 国产精品久久久久久精品古装| 18禁国产床啪视频网站| 美女主播在线视频| 在线观看舔阴道视频| 男人舔女人的私密视频| 丝袜美腿诱惑在线| 国产亚洲欧美精品永久| 精品福利观看| 啦啦啦免费观看视频1| 两个人免费观看高清视频| 性色av乱码一区二区三区2| 久久久久久久久久久久大奶| 狂野欧美激情性xxxx| 亚洲欧美清纯卡通| 国产在线观看jvid| 女人久久www免费人成看片| 性色av乱码一区二区三区2| 男女边摸边吃奶| 国产黄频视频在线观看| 午夜老司机福利片| 777米奇影视久久| 精品第一国产精品| 亚洲av成人一区二区三| 手机成人av网站| 日本91视频免费播放| 男女无遮挡免费网站观看| 国产精品二区激情视频| 在线看a的网站| 一区二区三区精品91| 久久精品久久久久久噜噜老黄| 黑人猛操日本美女一级片| 我的亚洲天堂| 天天躁日日躁夜夜躁夜夜| 精品少妇一区二区三区视频日本电影| 少妇粗大呻吟视频| 午夜福利乱码中文字幕| 国产一区二区三区在线臀色熟女 | 99国产极品粉嫩在线观看| 手机成人av网站| 国产精品一二三区在线看| 天天躁狠狠躁夜夜躁狠狠躁| 人人妻人人爽人人添夜夜欢视频| 女人久久www免费人成看片| 亚洲精品中文字幕一二三四区 | 啪啪无遮挡十八禁网站| 麻豆国产av国片精品| 人妻久久中文字幕网| 天堂8中文在线网| 欧美日韩国产mv在线观看视频| 国产精品久久久久久精品电影小说| 国产欧美日韩一区二区三区在线| 精品国产一区二区三区四区第35| 午夜福利,免费看| 欧美日韩亚洲综合一区二区三区_| av超薄肉色丝袜交足视频| 最黄视频免费看| 日日爽夜夜爽网站| 波多野结衣av一区二区av| 高清黄色对白视频在线免费看| 午夜成年电影在线免费观看| 黄网站色视频无遮挡免费观看| 亚洲av美国av| 色婷婷av一区二区三区视频| 丝袜脚勾引网站| 另类亚洲欧美激情| 又大又爽又粗| 亚洲精品av麻豆狂野| 亚洲av成人不卡在线观看播放网 | 欧美激情久久久久久爽电影 | 亚洲av国产av综合av卡| 亚洲成人手机| av在线老鸭窝| 中文欧美无线码| 少妇猛男粗大的猛烈进出视频| 午夜免费成人在线视频| 亚洲精华国产精华精| 亚洲国产精品一区三区| 国产日韩欧美亚洲二区| 免费高清在线观看视频在线观看| 亚洲av片天天在线观看| 国产av一区二区精品久久| 国产黄频视频在线观看| 国产成人免费无遮挡视频| 99久久人妻综合| 最近最新中文字幕大全免费视频| av天堂久久9| 欧美日韩黄片免| 国产精品一区二区在线观看99| 中文字幕色久视频| 韩国高清视频一区二区三区| 国产精品九九99| 一本—道久久a久久精品蜜桃钙片| 岛国在线观看网站| 成年人免费黄色播放视频| 操美女的视频在线观看| 久久人人爽人人片av| 亚洲精品美女久久av网站| 国产成人av教育| 国产精品熟女久久久久浪| 国产又色又爽无遮挡免| 国产一区二区在线观看av| 女性被躁到高潮视频| 宅男免费午夜| 操美女的视频在线观看| 韩国高清视频一区二区三区| 性色av乱码一区二区三区2| 欧美另类一区| 丝袜在线中文字幕| 69av精品久久久久久 | 欧美成人午夜精品| 久久国产精品大桥未久av| 国产亚洲欧美精品永久| 伊人久久大香线蕉亚洲五| 美女脱内裤让男人舔精品视频| www.精华液| 老司机靠b影院| 美女脱内裤让男人舔精品视频| √禁漫天堂资源中文www| 欧美亚洲日本最大视频资源| 大型av网站在线播放| 精品第一国产精品| 免费少妇av软件| 久久性视频一级片| 美国免费a级毛片| 久久久欧美国产精品| 日韩有码中文字幕| 亚洲精品第二区| 亚洲国产日韩一区二区| 国产男女内射视频| 国产一级毛片在线| 男女床上黄色一级片免费看| 免费观看人在逋| 亚洲人成电影免费在线| 欧美激情久久久久久爽电影 | 国产av又大| 国产免费视频播放在线视频| 亚洲精品久久成人aⅴ小说| 男人操女人黄网站| 日韩 亚洲 欧美在线| 亚洲精品美女久久av网站| 中文字幕色久视频| 伊人久久大香线蕉亚洲五| 99国产精品一区二区蜜桃av | 欧美中文综合在线视频| 侵犯人妻中文字幕一二三四区| 日韩精品免费视频一区二区三区| 亚洲视频免费观看视频| 一个人免费在线观看的高清视频 | 啦啦啦在线免费观看视频4| av不卡在线播放| 午夜免费成人在线视频| 视频区欧美日本亚洲| 少妇人妻久久综合中文| 国产1区2区3区精品| 国产精品免费视频内射| 一个人免费看片子| 人人妻人人澡人人爽人人夜夜| 久久99一区二区三区| 搡老乐熟女国产| 国产高清视频在线播放一区 | 久久ye,这里只有精品| 9热在线视频观看99| 欧美97在线视频| 嫁个100分男人电影在线观看| 一区二区三区四区激情视频| 国产精品久久久久久精品古装| 黄片小视频在线播放| 午夜福利在线观看吧| 中国国产av一级| 嫩草影视91久久| 99国产精品一区二区蜜桃av | 成人黄色视频免费在线看| 咕卡用的链子| 日本五十路高清| 免费观看人在逋| 亚洲精品国产色婷婷电影| 久久精品国产综合久久久| 国产野战对白在线观看| 51午夜福利影视在线观看| 伦理电影免费视频| 少妇粗大呻吟视频| 丝袜美腿诱惑在线| 成人影院久久| 自线自在国产av| 亚洲av电影在线进入| 亚洲精品粉嫩美女一区| 一本一本久久a久久精品综合妖精| 久久天躁狠狠躁夜夜2o2o| 一区二区三区四区激情视频| 狂野欧美激情性bbbbbb| 欧美激情极品国产一区二区三区| 久久久国产成人免费| 国产在视频线精品| 巨乳人妻的诱惑在线观看| 亚洲国产精品一区二区三区在线| 中文精品一卡2卡3卡4更新| 国产精品熟女久久久久浪| 另类亚洲欧美激情| 天天添夜夜摸| 国产成人免费观看mmmm| 欧美人与性动交α欧美软件| 亚洲国产成人一精品久久久| 成年美女黄网站色视频大全免费| 日韩一卡2卡3卡4卡2021年| 男人爽女人下面视频在线观看| 国产一卡二卡三卡精品| 精品福利永久在线观看| 日韩大码丰满熟妇| 亚洲中文日韩欧美视频| 99国产极品粉嫩在线观看| 蜜桃在线观看..| 18禁黄网站禁片午夜丰满| 国产成人a∨麻豆精品| 嫩草影视91久久| 国产精品久久久久久人妻精品电影 | 婷婷成人精品国产| 十八禁网站免费在线| 亚洲人成电影免费在线| netflix在线观看网站| 一个人免费看片子| 99国产精品一区二区蜜桃av | 性色av乱码一区二区三区2| 91大片在线观看| 国产一级毛片在线| 国产有黄有色有爽视频| 色综合欧美亚洲国产小说| 97人妻天天添夜夜摸| 午夜福利乱码中文字幕| 香蕉国产在线看| 亚洲成人手机| 午夜福利视频在线观看免费| 亚洲人成77777在线视频| 国产熟女午夜一区二区三区| 亚洲欧洲精品一区二区精品久久久| 亚洲一区中文字幕在线| 午夜福利视频在线观看免费| 亚洲欧美一区二区三区黑人| 国产激情久久老熟女| 一级黄色大片毛片| 亚洲国产精品999| 亚洲一卡2卡3卡4卡5卡精品中文| av在线播放精品| av线在线观看网站| 狠狠婷婷综合久久久久久88av| 精品欧美一区二区三区在线| 老熟妇乱子伦视频在线观看 | 51午夜福利影视在线观看| 法律面前人人平等表现在哪些方面 | 热99国产精品久久久久久7| 蜜桃在线观看..| 波多野结衣一区麻豆| 男人爽女人下面视频在线观看| 大陆偷拍与自拍| 久久青草综合色| 欧美激情 高清一区二区三区| 欧美另类亚洲清纯唯美| 欧美97在线视频| av片东京热男人的天堂| 99久久人妻综合| 别揉我奶头~嗯~啊~动态视频 | 国产熟女午夜一区二区三区| 九色亚洲精品在线播放| 免费观看人在逋| 丝袜美足系列| 黄色片一级片一级黄色片| 欧美性长视频在线观看| 免费观看av网站的网址| 一本大道久久a久久精品| av有码第一页| 国产成人免费无遮挡视频| 在线精品无人区一区二区三| 青青草视频在线视频观看| 热99久久久久精品小说推荐| 久久久久国产一级毛片高清牌| 99国产极品粉嫩在线观看| 免费在线观看黄色视频的| 动漫黄色视频在线观看| 国产色视频综合| av免费在线观看网站| 国产伦人伦偷精品视频| 亚洲自偷自拍图片 自拍| 日韩视频一区二区在线观看| 精品国产国语对白av| www.av在线官网国产| 91老司机精品| 中文字幕人妻丝袜一区二区| 看免费av毛片| 国产三级黄色录像| 亚洲中文日韩欧美视频| 国产精品九九99| 久久久久久久精品精品| 亚洲精品美女久久av网站| 青青草视频在线视频观看| 欧美激情 高清一区二区三区| 久久久精品94久久精品| 亚洲视频免费观看视频| 欧美久久黑人一区二区| 一二三四社区在线视频社区8| 久久午夜综合久久蜜桃| 一本一本久久a久久精品综合妖精| 正在播放国产对白刺激| 欧美变态另类bdsm刘玥| 欧美精品av麻豆av| 久久av网站| 国产精品一区二区在线不卡| a级片在线免费高清观看视频| 欧美另类一区| 亚洲成人国产一区在线观看| 精品一区二区三区av网在线观看 | 色94色欧美一区二区| 中文字幕最新亚洲高清| 美女高潮喷水抽搐中文字幕| 日本av手机在线免费观看| 亚洲久久久国产精品| 9色porny在线观看| 国产一卡二卡三卡精品| 精品一区二区三区av网在线观看 | 一个人免费在线观看的高清视频 | 日本精品一区二区三区蜜桃| 亚洲国产精品一区三区| 国产在线视频一区二区| 国产1区2区3区精品| 国产精品九九99| 亚洲精品av麻豆狂野| www.av在线官网国产| 中文字幕av电影在线播放| 黄色视频不卡| 亚洲av片天天在线观看| 中文字幕人妻丝袜制服| 亚洲一区中文字幕在线| 亚洲一区二区三区欧美精品| 韩国高清视频一区二区三区| 久久香蕉激情| 亚洲精品一区蜜桃| 成年女人毛片免费观看观看9 | 女性被躁到高潮视频| 高清黄色对白视频在线免费看| 老司机影院成人| 满18在线观看网站| 老司机亚洲免费影院| 男女下面插进去视频免费观看| 成年人午夜在线观看视频| 最近最新中文字幕大全免费视频| 国产精品1区2区在线观看. | 国产91精品成人一区二区三区 | 久久久久久免费高清国产稀缺| 国产精品成人在线| 每晚都被弄得嗷嗷叫到高潮| 三级毛片av免费| 国产精品影院久久| 久久久久视频综合| 久久精品熟女亚洲av麻豆精品| 国产亚洲午夜精品一区二区久久| 国产主播在线观看一区二区| 久久午夜综合久久蜜桃| 啦啦啦 在线观看视频| 久久国产亚洲av麻豆专区| 亚洲中文av在线| 9191精品国产免费久久| 在线看a的网站| a 毛片基地| a级毛片在线看网站| 欧美日韩精品网址| 久久性视频一级片| 亚洲 国产 在线| 99久久精品国产亚洲精品| 亚洲成人免费av在线播放| 在线av久久热| 精品人妻在线不人妻| 久久久精品94久久精品| 一二三四社区在线视频社区8| 亚洲精品av麻豆狂野| 午夜福利在线免费观看网站| 欧美精品啪啪一区二区三区 | av不卡在线播放| 天天操日日干夜夜撸| 又紧又爽又黄一区二区| 欧美成狂野欧美在线观看| 国产欧美日韩一区二区三区在线| 国产成人免费观看mmmm| h视频一区二区三区| 国产精品一区二区在线不卡| 亚洲精品国产精品久久久不卡| 亚洲国产欧美网| 免费观看av网站的网址| 少妇 在线观看| 欧美精品一区二区免费开放| 日韩 欧美 亚洲 中文字幕| 十分钟在线观看高清视频www| 国产一区有黄有色的免费视频| 国产男人的电影天堂91| 亚洲第一青青草原| 99国产精品99久久久久| 国产伦人伦偷精品视频| 久热爱精品视频在线9| 欧美亚洲 丝袜 人妻 在线| 啦啦啦啦在线视频资源| 日本wwww免费看| 在线观看人妻少妇| 午夜久久久在线观看| 国产91精品成人一区二区三区 | 久久久久久久大尺度免费视频| 欧美日韩一级在线毛片| 男女午夜视频在线观看| 亚洲国产中文字幕在线视频| 中文字幕人妻丝袜一区二区| 在线观看舔阴道视频| 69av精品久久久久久 | 午夜福利,免费看| 国产av国产精品国产| 99国产综合亚洲精品| 一边摸一边抽搐一进一出视频| 亚洲人成电影观看| 午夜精品国产一区二区电影| 女警被强在线播放| 久久久久久人人人人人| 91国产中文字幕| 国产精品1区2区在线观看. | 大片免费播放器 马上看| 欧美日本中文国产一区发布| 国产高清videossex| 涩涩av久久男人的天堂| 青草久久国产| 欧美性长视频在线观看| 亚洲性夜色夜夜综合| 精品国内亚洲2022精品成人 | 午夜激情久久久久久久| 欧美+亚洲+日韩+国产| 欧美日韩一级在线毛片| 黄色 视频免费看| 成人手机av| 成人手机av| 精品福利观看| 亚洲av日韩在线播放| 99国产精品一区二区三区| 少妇裸体淫交视频免费看高清 | 国产精品久久久久久精品电影小说| 桃红色精品国产亚洲av| 老熟女久久久| 美女扒开内裤让男人捅视频| 亚洲精品美女久久久久99蜜臀| 咕卡用的链子| 久久久久国内视频| 久久精品国产a三级三级三级| 2018国产大陆天天弄谢| 99re6热这里在线精品视频| 午夜91福利影院| 亚洲精华国产精华精| 午夜视频精品福利| 人妻久久中文字幕网| 亚洲成av片中文字幕在线观看| 欧美乱码精品一区二区三区| 午夜福利在线观看吧| 男人舔女人的私密视频| 熟女少妇亚洲综合色aaa.| 99精品欧美一区二区三区四区| 在线观看舔阴道视频| 1024视频免费在线观看| 欧美+亚洲+日韩+国产| 国产精品免费大片| 久久久水蜜桃国产精品网| 免费日韩欧美在线观看| 日本av免费视频播放| 免费黄频网站在线观看国产| 丰满迷人的少妇在线观看| 免费高清在线观看日韩| 黑人巨大精品欧美一区二区mp4| bbb黄色大片| 精品一品国产午夜福利视频| 国精品久久久久久国模美| 满18在线观看网站| 女人被躁到高潮嗷嗷叫费观| 高清av免费在线| 十八禁网站免费在线| 不卡av一区二区三区| 日本av免费视频播放| 国产成人系列免费观看| 久久久久久久精品精品| 国产成人精品久久二区二区91| 老司机靠b影院| 欧美一级毛片孕妇| 日韩,欧美,国产一区二区三区| 欧美 亚洲 国产 日韩一| 欧美成狂野欧美在线观看| 天天躁狠狠躁夜夜躁狠狠躁| 我的亚洲天堂| 久久99一区二区三区| 少妇粗大呻吟视频| 免费久久久久久久精品成人欧美视频| 国产在线免费精品| 国产精品1区2区在线观看. | 欧美日韩亚洲综合一区二区三区_| 欧美成人午夜精品| 欧美黄色淫秽网站| 男女床上黄色一级片免费看| 免费日韩欧美在线观看| 中文字幕人妻熟女乱码| 久久亚洲精品不卡| 亚洲国产欧美网| 18在线观看网站| 国产亚洲精品第一综合不卡| 久久久久久久久免费视频了| 狠狠狠狠99中文字幕| 老汉色∧v一级毛片| av网站在线播放免费| 久久久水蜜桃国产精品网| 国产精品久久久久久精品电影小说| 在线观看免费午夜福利视频| 国产av一区二区精品久久| 王馨瑶露胸无遮挡在线观看| 欧美亚洲 丝袜 人妻 在线| 国产亚洲av片在线观看秒播厂| 人人澡人人妻人| 狠狠狠狠99中文字幕| 纯流量卡能插随身wifi吗| 国产亚洲午夜精品一区二区久久| 国产一区二区三区在线臀色熟女 | www.999成人在线观看| 欧美精品啪啪一区二区三区 | 啦啦啦啦在线视频资源| 中文精品一卡2卡3卡4更新| 国产三级黄色录像| 亚洲欧美日韩另类电影网站| 国产精品亚洲av一区麻豆| 国产精品二区激情视频| 亚洲午夜精品一区,二区,三区| 三级毛片av免费| 久久中文看片网| 热99国产精品久久久久久7| 日韩有码中文字幕| 他把我摸到了高潮在线观看 | 在线观看一区二区三区激情| xxxhd国产人妻xxx| 国产精品 国内视频| 新久久久久国产一级毛片| 午夜免费鲁丝| 母亲3免费完整高清在线观看| 99国产极品粉嫩在线观看| 黑人欧美特级aaaaaa片| 纵有疾风起免费观看全集完整版| 三上悠亚av全集在线观看| 精品一区在线观看国产| 免费女性裸体啪啪无遮挡网站| 午夜视频精品福利| 久久ye,这里只有精品| 性色av乱码一区二区三区2| 久久久久久久国产电影| 国产精品一区二区在线不卡| 亚洲精品中文字幕一二三四区 | 黄色视频,在线免费观看| 婷婷色av中文字幕| 多毛熟女@视频| 91av网站免费观看| 999久久久国产精品视频| 欧美大码av| 国产成人精品无人区| 人人妻,人人澡人人爽秒播| 青青草视频在线视频观看| 国产精品久久久久久人妻精品电影 | 啦啦啦免费观看视频1| 中文字幕高清在线视频| 亚洲人成电影观看| 精品国产一区二区三区四区第35| 精品卡一卡二卡四卡免费| 后天国语完整版免费观看| 亚洲精品久久成人aⅴ小说| 一本久久精品| 久久精品久久久久久噜噜老黄|