• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于改進(jìn)YOLOv3的電力設(shè)備紅外目標(biāo)檢測(cè)模型

    2021-04-13 01:42:48鄭含博李金恒崔耀輝
    電工技術(shù)學(xué)報(bào) 2021年7期
    關(guān)鍵詞:電力設(shè)備紅外特征

    鄭含博 李金恒 劉 洋 崔耀輝 平 原

    基于改進(jìn)YOLOv3的電力設(shè)備紅外目標(biāo)檢測(cè)模型

    鄭含博 李金恒 劉 洋 崔耀輝 平 原

    (廣西大學(xué)電氣工程學(xué)院 南寧 530004)

    紅外圖像檢測(cè)技術(shù)因具有非接觸、快速等優(yōu)點(diǎn),被廣泛應(yīng)用于電力設(shè)備的監(jiān)測(cè)與診斷中,而對(duì)設(shè)備快速精確地檢測(cè)定位是實(shí)現(xiàn)自動(dòng)檢測(cè)與診斷的前提。與普通目標(biāo)的可見(jiàn)光圖像相比,電力設(shè)備的紅外圖像可能存在背景復(fù)雜、對(duì)比度低、目標(biāo)特征相近、長(zhǎng)寬比偏大等特征,采用原始的YOLOv3模型難以精確定位到目標(biāo)。針對(duì)此問(wèn)題,該文對(duì)YOLOv3模型進(jìn)行改進(jìn):在其骨干網(wǎng)絡(luò)中引入跨階段局部模塊;將路徑聚合網(wǎng)絡(luò)融合到原模型的特征金字塔結(jié)構(gòu)中;加入馬賽克(Mosaic)數(shù)據(jù)增強(qiáng)技術(shù)和Complete-IoU(CIoU)損失函數(shù)。將改進(jìn)后的模型在四類具有相似波紋外觀結(jié)構(gòu)的電力設(shè)備紅外圖像數(shù)據(jù)集上進(jìn)行訓(xùn)練測(cè)試,每類的檢測(cè)精度均能達(dá)到92%以上。最后,將該文方法的測(cè)試結(jié)果與其他三個(gè)主流目標(biāo)檢測(cè)模型進(jìn)行對(duì)比評(píng)估。結(jié)果表明:不同閾值下,該文提出的改進(jìn)模型獲得的平均精度均值優(yōu)于Faster R-CNN、SSD和YOLOv3模型。改進(jìn)后的YOLOv3模型盡管在檢測(cè)速度上相比原YOLOv3模型有所犧牲,但仍明顯高于其他兩種模型。對(duì)比結(jié)果進(jìn)一步驗(yàn)證了所提模型的有效性。

    電力設(shè)備檢測(cè) YOLOv3 卷積神經(jīng)網(wǎng)絡(luò) 紅外圖像

    0 引言

    電力設(shè)備的安全穩(wěn)定運(yùn)行是確保電網(wǎng)可靠供電的關(guān)鍵。通過(guò)及時(shí)檢測(cè)電力設(shè)備的運(yùn)行狀態(tài),能夠預(yù)防由設(shè)備缺陷或故障引起的電網(wǎng)事故發(fā)生。紅外熱成像技術(shù)提供了一種非接觸的檢測(cè)方式來(lái)獲取電力設(shè)備的熱狀態(tài)信息,使電力設(shè)備的狀態(tài)檢測(cè)能在不斷電的情況下進(jìn)行,被廣泛應(yīng)用于電力設(shè)備的帶電檢測(cè)中。不同場(chǎng)景下電力設(shè)備的紅外圖像如圖1所示,紅外圖像能夠顯示設(shè)備的溫度分布和范圍,并通過(guò)不同等級(jí)的色調(diào)來(lái)表示設(shè)備不同部位的溫度[1]。但目前對(duì)電力設(shè)備紅外圖像數(shù)據(jù)的分析與診斷仍需依賴經(jīng)驗(yàn)豐富的電力工程師[2],這就消耗了大量的人力和時(shí)間成本,極大地降低了電力設(shè)備狀態(tài)檢測(cè)與評(píng)估的效率。因此,研究更快、更準(zhǔn)確的電力設(shè)備狀態(tài)自動(dòng)檢測(cè)方法已成為近年的熱點(diǎn)課題[1-3],而對(duì)設(shè)備快速精確地定位是實(shí)現(xiàn)自動(dòng)檢測(cè)與診斷的前提和關(guān)鍵[4]。

    圖1 不同場(chǎng)景下電力設(shè)備的紅外圖像

    針對(duì)電力設(shè)備圖像目標(biāo)定位研究,一些傳統(tǒng)的目標(biāo)檢測(cè)方法[5-8]通常分三個(gè)階段:①利用選擇性搜索方法在給定的圖像上選擇候選區(qū)域;②利用構(gòu)造的特征描述符提取圖像特征;③使用分類器對(duì)特征進(jìn)行分類。文獻(xiàn)[6]先使用基于分水嶺變換的數(shù)字圖像處理算法分割出避雷器區(qū)域,再用模糊神經(jīng)網(wǎng)絡(luò)對(duì)分割數(shù)據(jù)進(jìn)行訓(xùn)練分類。分水嶺算法對(duì)圖像中噪聲和不均勻光照具有較強(qiáng)的魯棒性,但該方法需要待檢測(cè)設(shè)備位于圖像中間才能被正確檢測(cè),因此在應(yīng)用中具有一定的局限性。文獻(xiàn)[7]利用半局部算子提取絕緣子圖像的紋理特征,再將新定義的凸能量函數(shù)加入主動(dòng)輪廓模型,進(jìn)一步提取出絕緣子輪廓,但該方法計(jì)算量大且模型不能自動(dòng)初始化。這類傳統(tǒng)方法的特征提取過(guò)程往往需要人工干預(yù)來(lái)獲取與目標(biāo)特征相關(guān)的原始圖像信息[9],且通常需要對(duì)網(wǎng)絡(luò)進(jìn)行單獨(dú)訓(xùn)練以進(jìn)行多類目標(biāo)的定位,因此不能滿足電網(wǎng)快速發(fā)展的需求[10]。

    近年來(lái),基于深度學(xué)習(xí)的目標(biāo)檢測(cè)研究已成為電力設(shè)備視覺(jué)檢測(cè)的研究熱點(diǎn)。其中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是深度學(xué)習(xí)中最重要的模型之一[11]。自從AlexNet網(wǎng)絡(luò)[12]在ImageNet圖像庫(kù)上實(shí)現(xiàn)了巨大突破后,CNN獲得了廣泛的關(guān)注[13]。文獻(xiàn)[14]提出了一種新穎的帶級(jí)聯(lián)結(jié)構(gòu)的深度CNN,解決了絕緣子定位和缺陷檢測(cè)的兩級(jí)問(wèn)題。該級(jí)聯(lián)結(jié)構(gòu)的上級(jí)網(wǎng)絡(luò)結(jié)合了VGG網(wǎng)絡(luò)(visual geometry group network)[15]和區(qū)域建議網(wǎng)絡(luò)來(lái)確定絕緣子的區(qū)域,能夠快速定位絕緣子的位置。文獻(xiàn)[16]將多尺度特征圖與相對(duì)位置特征引入Faster R-CNN[17]模型中,用于檢測(cè)變壓器的六類組件,獲得了較高的識(shí)別精度。文獻(xiàn)[18]優(yōu)先考慮目標(biāo)各部分之間的方向一致性,提出了一種基于任意方向定位的深度卷積神經(jīng)網(wǎng)絡(luò),用來(lái)檢測(cè)紅外圖像下四類變電設(shè)備的小部件。文獻(xiàn)[19]在LeNet_5[20]模型中引入隨機(jī)配置網(wǎng)絡(luò)分類器,并添加反饋機(jī)制,提高了絕緣子檢測(cè)的精度。文獻(xiàn)[21]首次提出了YOLOv3的檢測(cè)模型,其單階段的檢測(cè)算法在檢測(cè)速度和精度上均表現(xiàn)出了很大優(yōu)勢(shì)[22],在不同研究領(lǐng)域得到了推廣和應(yīng)用[23-26]。

    與普通目標(biāo)的可見(jiàn)光圖像相比,變電站電力設(shè)備的紅外圖像存在以下特征:①圖像背景復(fù)雜,目標(biāo)受干擾、遮擋情況較多;②紅外熱圖像可能存在溫度過(guò)于集中的部分,導(dǎo)致圖像對(duì)比度低;③設(shè)備外觀輪廓特征相近,且多為大尺度目標(biāo),長(zhǎng)寬比偏大。然而,研究發(fā)現(xiàn)原始YOLOv3模型存在幾個(gè)缺陷:對(duì)中等或大尺寸的目標(biāo)物體檢測(cè)效果較差,容易出現(xiàn)誤檢、漏檢或重復(fù)檢測(cè)[21]的問(wèn)題;對(duì)重疊目標(biāo)難以區(qū)分、對(duì)目標(biāo)位置定位不夠精確等問(wèn)題[27]。針對(duì)以上問(wèn)題,本研究對(duì)YOLOv3的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了兩處改進(jìn):在YOLOv3骨干網(wǎng)絡(luò)DarkNet53的每個(gè)殘差塊中加上跨階段局部模塊(Cross Stage Partial,CSP)[28],CSP模塊能有效提升卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力,減少計(jì)算量,在輕量化的同時(shí)進(jìn)一步提高模型的分類精度;在原模型的特征金字塔網(wǎng)絡(luò)(Feature Pyramid Networks,F(xiàn)PN)[29]后加入自底向上的特征融合模塊路徑聚合網(wǎng)絡(luò)(Path Aggregation Network,PAN)[30],PAN是對(duì)FPN的補(bǔ)充,它能較好地保存淺層特征信息,自底向上傳遞強(qiáng)定位特征。FPN與PAN的組合模塊能從不同的主干層對(duì)不同的檢測(cè)層進(jìn)行參數(shù)聚合,進(jìn)一步提高檢測(cè)模型的特征提取能力。網(wǎng)絡(luò)深度的加深以及結(jié)構(gòu)的復(fù)雜化使改進(jìn)后的模型在檢測(cè)速度上相較原模型有所降低。除網(wǎng)絡(luò)結(jié)構(gòu)上的改進(jìn)外,本文還在模型的輸入端增加了馬賽克(Mosaic)技術(shù),以增強(qiáng)模型的訓(xùn)練效果;CIoU損失函數(shù)被用作新模型的定位損失,能讓模型在邊框回歸時(shí)取得更好的收斂速度和精度。最后,通過(guò)實(shí)驗(yàn)及對(duì)比評(píng)估進(jìn)一步論證了提出模型的有效性與優(yōu)勢(shì)。

    1 改進(jìn)YOLOv3的紅外目標(biāo)檢測(cè)模型

    本文提出的改進(jìn)方案從原始YOLOv3模型的輸入端、骨干網(wǎng)絡(luò)、頸部和檢測(cè)頭四個(gè)方面進(jìn)行優(yōu)化:輸入端引入Mosaic數(shù)據(jù)增強(qiáng)處理;在骨干網(wǎng)絡(luò)DarkNet53中引入CSP模塊,并將Leaky_ReLU(LReLU)激活函數(shù)[31]替換為Mish激活函數(shù)[32],新骨干網(wǎng)絡(luò)為CSPDarkNet53;在頸部的空間金字塔池化(Spatial Pyramid Pooling,SPP)[33]模塊與FPN后融入PAN結(jié)構(gòu);檢測(cè)頭部分為YOLO_Head模塊,這部分主要通過(guò)邊框回歸和非極大值抑制確定目標(biāo)邊界框的最終位置,原始回歸損失函數(shù)方均誤差(Mean Square Error,MSE)被替換為CIoU損失[34]。改進(jìn)后的模型架構(gòu)如圖2所示。

    圖2 改進(jìn)YOLOv3模型的網(wǎng)絡(luò)架構(gòu)

    1.1 Mosaic數(shù)據(jù)增強(qiáng)

    新模型在輸入端加入了Mosaic數(shù)據(jù)增強(qiáng)處理,它是CutMix[35]數(shù)據(jù)增強(qiáng)方式的改進(jìn)版。CutMix每次處理兩張圖像,首先將一張圖像的部分區(qū)域剪切掉并不填充零像素,然后隨機(jī)填充數(shù)據(jù)集中其他圖像的區(qū)域像素值。Mosaic數(shù)據(jù)增強(qiáng)則是每次讀取四張圖像,通過(guò)隨機(jī)縮放、裁剪及排布、色域變化中的一種或多種方法把四張圖拼成一張,如圖3所示。然后將拼接好的圖像和調(diào)整后的標(biāo)簽傳入神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)。

    圖3 Mosaic數(shù)據(jù)增強(qiáng)

    輸入端的Mosaic處理,豐富了被檢測(cè)目標(biāo)的背景,增加了數(shù)據(jù)集的多樣性。特別是隨機(jī)縮放進(jìn)一步增加了不同尺度的目標(biāo),增強(qiáng)了網(wǎng)絡(luò)的魯棒性。此外,模型一次可以計(jì)算四張圖片數(shù)據(jù),因而具有更低的訓(xùn)練門(mén)檻,在GPU資源有限的條件下也能獲得較好的結(jié)果。

    1.2 CSPDarkNet53模塊

    1.2.1 CSPNet

    CSPDarkNet53是在YOLOv3主干網(wǎng)絡(luò)DarkNet53的基礎(chǔ)上,借鑒2019年CSPNet的經(jīng)驗(yàn)[28],產(chǎn)生的優(yōu)化骨干網(wǎng)絡(luò)。從圖2可以看出,CSPDarkNet53主要由5個(gè)CSP模塊組成。其中,CSP模塊是將DarkNet53的殘差模塊按照CSPNet結(jié)構(gòu)改進(jìn)所產(chǎn)生的,它由5個(gè)卷積模塊和個(gè)Res_unit的疊加模塊組成。

    文獻(xiàn)[28]指出,神經(jīng)網(wǎng)絡(luò)推理計(jì)算量過(guò)大的問(wèn)題是由于網(wǎng)絡(luò)優(yōu)化中的梯度信息重復(fù)導(dǎo)致的。而CSPNet就是從網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的角度來(lái)解決神經(jīng)網(wǎng)絡(luò)在推理過(guò)程中需要較大計(jì)算量的問(wèn)題,它將基礎(chǔ)層的特征映射劃分為兩個(gè)部分,然后通過(guò)跨階段層次結(jié)構(gòu)將它們合并。其實(shí)質(zhì)是將梯度的變化集成到特征圖中,通過(guò)分割梯度流,使梯度流通過(guò)不同的網(wǎng)絡(luò)路徑傳播。因此,帶有CSPNet結(jié)構(gòu)的CSPDarkNet53網(wǎng)絡(luò)有三大優(yōu)點(diǎn):①增強(qiáng)CNN的學(xué)習(xí)能力,能夠在網(wǎng)絡(luò)輕量化的同時(shí)保持準(zhǔn)確性;②提升每個(gè)計(jì)算單元的利用率,降低計(jì)算瓶頸;③降低網(wǎng)絡(luò)的內(nèi)存占用。

    1.2.2 Mish激活函數(shù)

    CSPDarkNet53將原骨干網(wǎng)絡(luò)的LReLU激活函數(shù)替換為Mish函數(shù),如式(1)所示。與LReLU函數(shù)相比,Mish函數(shù)有助于保持更小的負(fù)值,從而穩(wěn)定網(wǎng)絡(luò)的梯度流;其平滑特性能有效地允許信息深入地滲透到神經(jīng)網(wǎng)絡(luò)中,從而獲得更好的準(zhǔn)確性和泛化性能。因此,隨著網(wǎng)絡(luò)層數(shù)的增加,使用Mish函數(shù)的網(wǎng)絡(luò)表現(xiàn)出了比使用LReLU函數(shù)的網(wǎng)絡(luò)更高的測(cè)試精度,這對(duì)于復(fù)雜網(wǎng)絡(luò)的優(yōu)化更加有效[36]。

    1.3 SPP與FPN+PAN模塊

    本文模型的頸部由SPP與FPN+PAN組合模塊構(gòu)成。SPP用于提升模型的感受野,通過(guò)池化特征圖中不同分辨率的特征挖掘出更重要的目標(biāo)信息。FPN與PAN是兩種特征融合技巧,它們?cè)诒疚哪P椭械慕M合結(jié)構(gòu)如圖4所示。

    圖4 FPN+PAN特征融合組合

    一般地,低層特征圖的語(yǔ)義信息較少,但是目標(biāo)位置信息豐富;高層特征圖的語(yǔ)義信息比較豐富,而目標(biāo)位置則比較粗略。原模型的FPN模塊是通過(guò)自頂向下的上采樣方式傳遞目標(biāo)的強(qiáng)語(yǔ)義特征,但是對(duì)目標(biāo)的定位信息傳遞較少。針對(duì)原模型的定位問(wèn)題,新模型在FPN模塊的后面添加一個(gè)自底向上的金字塔結(jié)構(gòu)的PAN模塊,該模塊通過(guò)改進(jìn)PANet結(jié)構(gòu)得到。它將低層的強(qiáng)定位特征通過(guò)自底向上的下采樣方式傳遞上去,是對(duì)FPN模塊的補(bǔ)充優(yōu)化。FPN與PAN的組合模塊能從不同的主干層對(duì)不同的檢測(cè)層進(jìn)行參數(shù)聚合,進(jìn)一步提高了模型的特征提取能力。

    1.4 YOLO_Head模塊

    本文模型的輸入是尺寸為608×608的電力設(shè)備紅外圖像,通過(guò)對(duì)特征圖進(jìn)行32、16和8倍下采樣,得到分辨率為19×19、38×38和76×76三種不同尺度的特征圖,它們分別被用于定位大尺度、中尺度和小尺度的設(shè)備目標(biāo),如圖5所示。YOLO_Head模塊在三個(gè)特征圖的每個(gè)網(wǎng)格單元上預(yù)測(cè)三個(gè)邊界框,每個(gè)預(yù)測(cè)框均帶有類別、置信度和位置信息,其中包括四個(gè)類別變量v(=1, 2, 3, 4),一個(gè)置信度變量c和四個(gè)位置變量(v,v,v,v),以上變量組成了模型的預(yù)測(cè)結(jié)果。

    圖5 三種不同尺度的特征圖

    利用softmax函數(shù)將輸出的類別變量按多類概率分布進(jìn)行變換,每類電力設(shè)備對(duì)應(yīng)的概率計(jì)算式為

    這里將交叉熵?fù)p失函數(shù)作為分類損失的目標(biāo)函數(shù),定義為

    式中,為目標(biāo)的標(biāo)簽類別是否為預(yù)測(cè)類別,其值為0或1。

    置信度反映了預(yù)測(cè)框內(nèi)存在目標(biāo)的概率,用sigmoid函數(shù)進(jìn)行轉(zhuǎn)換,有

    同樣將交叉熵?fù)p失函數(shù)作為置信度損失的目標(biāo)函數(shù),定義為

    式中,為預(yù)測(cè)框中是否存在目標(biāo),其值為0或1。

    定位損失被用來(lái)確定最終的邊界框位置,本文的定位損失定義為

    其中

    式中,CIoU為邊界框回歸預(yù)測(cè)的計(jì)算方式,預(yù)測(cè)過(guò)程如圖6所示;為預(yù)測(cè)框中心點(diǎn)與標(biāo)簽框中心點(diǎn)之間的歐式距離;為預(yù)測(cè)框與標(biāo)簽框的最小包圍框的對(duì)角線距離;box為預(yù)測(cè)框;box為標(biāo)簽框;IoU為兩個(gè)框的交集區(qū)域面積與并集區(qū)域面積的比值;為約束量,能夠控制預(yù)測(cè)框的長(zhǎng)寬盡快地與標(biāo)簽框的長(zhǎng)寬接近,其中,為用于衡量預(yù)測(cè)框和標(biāo)簽框兩者長(zhǎng)寬比一致性的參數(shù),為平衡長(zhǎng)寬比例的權(quán)衡參數(shù)。CIoU考慮了重疊面積、中心點(diǎn)距離、長(zhǎng)寬比三種因素,能讓模型在邊框回歸時(shí)取得更好的收斂速度和精度。

    圖6 邊界框回歸預(yù)測(cè)

    2 實(shí)驗(yàn)與結(jié)果分析

    實(shí)驗(yàn)選取了包含避雷器、互感器、絕緣子、斷路器四類具有相似外觀結(jié)構(gòu)的電力設(shè)備紅外數(shù)據(jù)集。本節(jié)將本文模型與Faster R-CNN、SSD[37]和YOLOv3三種主流模型在選取的數(shù)據(jù)集上進(jìn)行訓(xùn)練測(cè)試,并進(jìn)行對(duì)比評(píng)估。

    2.1 實(shí)驗(yàn)說(shuō)明

    本文研究的電力設(shè)備紅外原始數(shù)據(jù)集來(lái)自于某電網(wǎng)公司對(duì)其轄下變電站設(shè)備帶電檢測(cè)獲取的數(shù)據(jù)。由于深度學(xué)習(xí)需要大量數(shù)據(jù)樣本對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練[38],因此本研究對(duì)原數(shù)據(jù)集進(jìn)行了圖像增強(qiáng)和擴(kuò)充預(yù)處理,處理后的數(shù)據(jù)集共包含4 323張?jiān)O(shè)備圖像,利用LabelImg圖像標(biāo)注工具共標(biāo)記出635個(gè)避雷器、2 470個(gè)互感器、6 084個(gè)絕緣子和1 291個(gè)斷路器設(shè)備。為了較好地評(píng)估網(wǎng)絡(luò)性能、驗(yàn)證模型訓(xùn)練測(cè)試的泛化性能,本文將數(shù)據(jù)集隨機(jī)分為比例基本相同的訓(xùn)練和測(cè)試數(shù)據(jù),即訓(xùn)練與測(cè)試集分別包括2 162和2 161張圖像。

    對(duì)實(shí)驗(yàn)數(shù)據(jù)的訓(xùn)練與測(cè)試均在同一個(gè)Ubuntu 16.04操作系統(tǒng)的深度學(xué)習(xí)服務(wù)器上進(jìn)行,該服務(wù)器帶有Intel Xeon W-2145 CPU,兩個(gè)GeForce RTX 2080Ti 11-GB GPU和64-GB DDR4 RAM。數(shù)據(jù)集的訓(xùn)練和測(cè)試均利用DarkNet框架實(shí)現(xiàn),單張圖片的檢測(cè)效果通過(guò)OpenCV工具庫(kù)可視化。

    2.2 訓(xùn)練過(guò)程和分析

    訓(xùn)練開(kāi)始階段利用遷移學(xué)習(xí)來(lái)初始化模型的權(quán)重。遷移學(xué)習(xí)是將一個(gè)領(lǐng)域內(nèi)學(xué)習(xí)到的知識(shí)應(yīng)用到另一個(gè)相似領(lǐng)域的技術(shù)[39],它可以提取原始問(wèn)題數(shù)據(jù)集和目標(biāo)數(shù)據(jù)集之間的潛在特征或共同結(jié)構(gòu)[40],從而加速模型的訓(xùn)練并提高模型的性能。訓(xùn)練過(guò)程采用批歸一化的方式優(yōu)化,一個(gè)批次訓(xùn)練64個(gè)樣本,每次將1個(gè)樣本送入模型進(jìn)行前向計(jì)算。設(shè)置模型的初始學(xué)習(xí)率為1.3×10-3,動(dòng)量為0.949,權(quán)重衰減為0.000 5,共訓(xùn)練30 000個(gè)批次。

    圖7為訓(xùn)練過(guò)程中平均損失值(Avg_loss)與平均精度均值(mAP)隨迭代次數(shù)(iterations)增加而變化的曲線。其中,mAP曲線是模型每訓(xùn)練4個(gè)epoch(本文即神經(jīng)網(wǎng)絡(luò)迭代136次)計(jì)算一次mAP值,共215個(gè)mAP值組合得到的。從圖7可以看出,訓(xùn)練開(kāi)始后損失值隨著訓(xùn)練迭代次數(shù)的增加而逐漸減小,收斂速度較快,且誤差波動(dòng)范圍逐漸縮小。當(dāng)?shù)螖?shù)達(dá)到5 000時(shí),訓(xùn)練損失下降明顯變慢,迭代20 000次后損失值在1左右波動(dòng),并且不再趨于降低,這表明模型達(dá)到了較為理想的訓(xùn)練效果。mAP曲線在訓(xùn)練迭代5 000次時(shí)已經(jīng)達(dá)到較高值,但波動(dòng)較大,迭代20 000次之后波動(dòng)范圍變小,并在迭代23 440次時(shí)mAP達(dá)到最大值0.960 37。因此選取第23 440次迭代的訓(xùn)練權(quán)重作為檢測(cè)測(cè)試集的最終權(quán)重。

    圖7 訓(xùn)練期間的平均損失曲線和mAP曲線

    2.3 性能比較與結(jié)果分析

    為了驗(yàn)證本文模型的有效性,本部分將Faster R-CNN、SSD、YOLOv3和本文提出的模型在四類電力設(shè)備紅外數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn)評(píng)估,并討論實(shí)驗(yàn)結(jié)果。評(píng)估指標(biāo)包括計(jì)算每個(gè)類別的平均精度值(AP)、不同檢測(cè)閾值(IoU)下的mAP和檢測(cè)速度(FPS)。其中,AP是評(píng)價(jià)單一類別檢測(cè)效果的重要指標(biāo),可以通過(guò)計(jì)算準(zhǔn)確率與召回率(見(jiàn)式(10))曲線所包圍的面積得到,見(jiàn)式(11)。mAP是模型檢測(cè)四類電力設(shè)備的平均精度均值,它可以通過(guò)計(jì)算所有類別AP的平均值得到,定義為

    式中,tp即真正例,表示模型正確識(shí)別出目標(biāo)類別的數(shù)量;fp即假正例,表示模型將其他類別誤判為目標(biāo)類別的數(shù)量;fn即假反例,表示模型將目標(biāo)類別誤判為其他類別的數(shù)量。

    表1給出了四種模型在不同閾值下(IoU=0.5和0.75)測(cè)試相同數(shù)據(jù)集得到的AP、mAP和FPS三個(gè)指標(biāo)的比較結(jié)果。其中,本文模型在閾值為0.5和0.75時(shí)的mAP值分別為96.04%和89.58%,且檢測(cè)速度高達(dá)56f/s。將本文模型與其他三種模型的測(cè)試結(jié)果進(jìn)行對(duì)比,分析如下:在單類別的平均精度方面,本文模型檢測(cè)避雷器、斷路器、絕緣子的精度值均高于其他三種方法;在平均精度均值方面,不同閾值下本文模型均比其他模型精度高;在檢測(cè)速度方面,由于改進(jìn)的YOLOv3網(wǎng)絡(luò)深度加深,速度略慢于原始YOLOv3模型,但是明顯快于Faster R-CNN和SSD??傮w而言,本文提出的模型在檢測(cè)精度和速度上均達(dá)到了令人滿意的結(jié)果。

    表1 不同檢測(cè)模型的測(cè)試結(jié)果

    Tab.1 Testing results of the different detection models

    圖8展示了本文模型在隨機(jī)挑選的測(cè)試集圖像上的檢測(cè)結(jié)果,它包括帶標(biāo)簽框的原始圖像和檢測(cè)結(jié)果圖。其中避雷器(arrester)、斷路器(breaker)、互感器(transformer)、絕緣子(insulator)的預(yù)測(cè)結(jié)果分別如圖8對(duì)應(yīng)框中所示,邊界框上方的值為模型預(yù)測(cè)該類別的置信度??梢钥闯?,模型不僅能在特定場(chǎng)景下精確地檢測(cè)到目標(biāo),而且在目標(biāo)重疊、背景遮擋、復(fù)雜背景環(huán)境等情況下(如圖8c、圖8e、圖8f),模型仍能以很高的準(zhǔn)確率預(yù)測(cè)設(shè)備類別,并精確地定位到設(shè)備所在位置。以上結(jié)果表明,在不同場(chǎng)景下,本文所提出的模型在檢測(cè)準(zhǔn)確度、速度和定位精度方面均表現(xiàn)出較大的優(yōu)勢(shì),尤其適用于變電站電力設(shè)備的紅外目標(biāo)檢測(cè)。

    圖8 本文方法在部分圖像上的檢測(cè)結(jié)果

    3 結(jié)論

    本文提出一種改進(jìn)YOLOv3的電力設(shè)備紅外圖像檢測(cè)新模型,主要從原模型的輸入端、骨干網(wǎng)絡(luò)、頸部及檢測(cè)頭四部分進(jìn)行改進(jìn)。改進(jìn)后的模型針對(duì)避雷器、互感器、絕緣子、斷路器四類具有相似外觀結(jié)構(gòu)的電力設(shè)備紅外數(shù)據(jù)集進(jìn)行對(duì)比實(shí)驗(yàn)。結(jié)果表明:

    1)本文模型檢測(cè)四類變電設(shè)備的精度均可達(dá)92%以上,獲得了較好的紅外目標(biāo)檢測(cè)效果。

    2)在IoU閾值為0.5和0.75時(shí),其平均精度均值分別高達(dá)96.04%和89.58%,均高于Faster R-CNN、SSD和YOLOv3模型。

    3)在同一臺(tái)實(shí)驗(yàn)平臺(tái)上進(jìn)行訓(xùn)練測(cè)試,提出模型的檢測(cè)速度高達(dá)56f/s,略低于原始YOLOv3模型,但明顯高于Faster R-CNN和SSD。本文模型不僅能準(zhǔn)確識(shí)別電力設(shè)備類別,而且能快速精確地定位到設(shè)備所在位置,為后續(xù)電力設(shè)備的帶電狀態(tài)評(píng)估與診斷奠定了基礎(chǔ)。

    [1]Ullah I, Khan R U, Yang Fan, et al. Deep learning image-based defect detection in high voltage electrical equipment[J]. Energies, 2020, 13(2): 392.

    [2]馮振新, 周東國(guó), 江翼, 等. 基于改進(jìn) MSER 算法的電力設(shè)備紅外故障區(qū)域提取方法[J]. 電力系統(tǒng)保護(hù)與控制, 2019, 47(5): 123-128. Feng Zhenxin, Zhou Dongguo, Jiang Yi, et al. Fault region extraction using improved MSER algorithm with application to the electrical system[J]. Power System Protection and Control, 2019, 47(5): 123-128.

    [3]Jadin M S, Taib S. Recent progress in diagnosing the reliability of electrical equipment by using infrared thermography[J]. Infrared Physics & Technology, 2012, 55(4): 236-245.

    [4]Jadin M S, Taib S, Ghazali K H. Finding region of interest in the infrared image of electrical installation[J]. Infrared Physics & Technology, 2015, 71: 329-338.

    [5]Zhao Zhenbing, Xu Guozhi, Qi Yincheng. Representation of binary feature pooling for detection of insulator strings in infrared images[J]. IEEE Transactions on Dielectrics and Electrical Insulation, 2016, 23(5): 2858-2866.

    [6]Almeida C A L, Braga A P, Nascimento S, et al. Intelligent thermographic diagnostic applied to surge arresters: a new approach[J]. IEEE Transactions on Power Delivery, 2009, 24(2): 751-757.

    [7]Wu Qinggang, An Jubai. An active contour model based on texture distribution for extracting inhomogeneous insulators from aerial images[J]. IEEE Transactions on Geoscience and Remote Sensing, 2013, 52(6): 3613-3626.

    [8]朱邵成, 高清維, 盧一相, 等. 基于頻率調(diào)諧的絕緣子識(shí)別與定位[J]. 電工技術(shù)學(xué)報(bào), 2018, 33(23): 5573-5580. Zhu Shaocheng, Gao Qingwei, Lu Yixiang, et al. Identification and location of insulator string based on frequency-tuned[J]. Transactions of China Electrotechnical Society, 2018, 33(23): 5573-5580.

    [9]Wang Zhujun, Yang Lijian, Gao Songwei. Pipeline magnetic flux leakage image detection algorithm based on multiscale SSD network[J]. IEEE Transactions on Industrial Informatics, 2020, 16(1): 501-509.

    [10]Zhong Junping, Liu Zhigang, Han Zhiwei, et al. A CNN-based defect inspection method for catenary split pins in high-speed railway[J]. IEEE Transactions on Instrumentation and Measurement, 2019, 68(8): 2849-2860.

    [11]孫曙光, 李勤, 杜太行, 等. 基于一維卷積神經(jīng)網(wǎng)絡(luò)的低壓萬(wàn)能式斷路器附件故障診斷[J]. 電工技術(shù)學(xué)報(bào), 2020, 35(12): 2562-2573. Sun Shuguang, Li Qin, Du Taihang, et al. Fault diagnosis of accessories for the low voltage conventional circuit breaker based on one-dimensional convolutional neural network[J]. Transactions of China Electrotechnical Society, 2020, 35(12): 2562-2573.

    [12]Krizhevsky A, Sutskever I, Hinton G. ImageNet classification with deep convolutional neuralnetworks[C]//NIPS'12 Proceedings of the 25th International Conference on Neural Information Processing Systems, LakeTahoe, USA, 2012: 1097-1105.

    [13]李超然, 肖飛, 樊亞翔, 等. 基于卷積神經(jīng)網(wǎng)絡(luò)的鋰離子電池SOH估算[J]. 電工技術(shù)學(xué)報(bào), 2020, 35(19): 4106-4119. Li Chaoran, Xiao Fei, Fan Yaxiang, et al. An approach to lithium-ion battery SOH estimation based on convolutional neural network[J]. Transactions of China Electrotechnical Society, 2020, 35(19): 4106-4119.

    [14]Tao Xian, Zhang Dapeng, Wang Zihao, et al. Detection of power line insulator defects using aerial images analyzed with convolutional neural networks[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2020, 50(4): 1486-1498.

    [15]Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J/OL]. [2015-04-10]. https://arxiv.org/abs/1409.1556.

    [16]Liu Ziquan, Wang Huifang. Automatic detection of transformer components in inspection images based on improved faster R-CNN[J]. Energies, 2018, 11(12): 3496.

    [17]Ren Shaoqing, He Kaiming, Girshick R, et al. Faster R-CNN: towards real-time object detection with region proposal networks[C]//Advances in Neural Information Processing Systems, Montreal, Canada, 2015: 91-99.

    [18]Gong Xiaojin, Yao Qi, Wang Mengling, et al. A deep learning approach for oriented electrical equipment detection in thermal images[J]. IEEE Access, 2018, 6: 41590-41597.

    [19]張倩, 王建平, 李帷韜. 基于反饋機(jī)制的卷積神經(jīng)網(wǎng)絡(luò)絕緣子狀態(tài)檢測(cè)方法[J]. 電工技術(shù)學(xué)報(bào), 2019, 34(16): 3311-3321. Zhang Qian, Wang Jianping, Li Weitao. Insulator state detection of convolutional neural networks based on feedback mechanism[J]. Transactions of China Electrotechnical Society, 2019, 34(16): 3311-3321.

    [20]LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11): 2278-2324.

    [21]Redmon J, Farhadi A. YOLOv3: An incremental improvement[J/OL]. [2018-04-8]. https://arxiv.org/ abs/1804.02767.

    [22]Liu Yunpeng, Ji Xinxin, Pei Shaotong, et al. Research on automatic location and recognition of insulators in substation based on YOLOv3[J]. High Voltage, 2020, 5(1): 62-68.

    [23]Choi J, Chun D, Kim H, et al. Gaussian YOLOV3: an accurate and fast object detector using localization uncertainty for autonomous driving[C]//IEEE International Conference on Computer Vision, Seoul, South Korea, 2019: 502-511.

    [24]Bochkovskiy A, Wang C Y, Liao H Y M. YOLOv4: optimal speed and accuracy of object detection[J/OL]. arXiv preprint arXiv:2004.10934.

    [25]Zhao Liquan, Li Shuaiyang. Object detection algorithm based on improved YOLOv3[J]. Electronics, 2020, 9(3): 537.

    [26]Tian Yunong, Yang Guodong, Wang Zhe, et al. Apple detection during different growth stages in orchards using the improved YOLO-V3 model[J]. Computers and Electronics in Agriculture, 2019, 157: 417-426.

    [27]徐誠(chéng)極, 王曉峰, 楊亞?wèn)|. Attention-YOLO: 引入注意力機(jī)制的YOLO檢測(cè)算法[J]. 計(jì)算機(jī)工程與應(yīng)用, 2019, 55(6): 13-23. Xu Chengji, Wang Xiaofeng, Yang Yadong. Attention-YOLO: YOLO detection algorithm that introduces attention mechanism[J]. Computer Engineering and Applications, 2019, 55(6): 13-23.

    [28]Wang C Y, Mark Liao H Y, Wu Y H, et al. CSPNet: a new backbone that can enhance learning capability of CNN[C]//IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops, Seattle, USA, 2020: 390-391.

    [29]Lin T Y, Dollár P, Girshick R, et al. Feature pyramid networks for object detection[C]//IEEE Conference on Computer Vision and Pattern Recognition, Honolulu, USA, 2017: 2117-2125.

    [30]Liu Shu, Qi Lu, Qin Haifang, et al. Path aggregation network for instance segmentation[C]//IEEE Conference on Computer Vision and Pattern Recognition, Salt Lake City, USA, 2018: 8759-8768.

    [31]Maas A L, Hannun A Y, Ng A Y. Rectifier nonlinearities improve neural network acoustic models[C]//Proc. ICML, Atlanta, USA, 2013, 30(1): 3.

    [32]Misra D. Mish: a self regularized non-monotonic neural activation function[J/OL]. https://arxiv.org/abs/ 1908.08681, 2019.

    [33]He Kaimng, Zhang Xiangyu, Ren Shaoqing, et al. Spatial pyramid pooling in deep convolutional networks for visual recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(9): 1904-1916.

    [34]Zheng Zhaohui, Wang Ping, Liu Wei, et al. Distance-IoU loss: faster and better learning for bounding box regression[C]//AAAI Conference on Artificial Intelligence, New York, USA, 2020: 12993-13000.

    [35]Yun Sangdoo, Han Dongyoon, ChunSanghyuk, et al. Cutmix: regularization strategy to train strong classifiers with localizable features[C]//IEEE/CVF International Conference on Computer Vision, Seoul, South Korea, 2019: 6023-6032.

    [36]Zhu Qinfeng, Zheng Huifeng, Wang Yuebing, et al. Study on the evaluation method of sound phase cloud maps based on an improved YOLOv4 algorithm[J]. Sensors, 2020, 20(15): 4314.

    [37]Liu Wei, Anguelov D, Erhan D, et al. SSD: Single shot multibox detector[C]//European Conference on Computer Vision, Amsterdam, Netherlands, 2016: 21-37.

    [38]李垣江, 張周磊, 李夢(mèng)含, 等. 采用深度學(xué)習(xí)的永磁同步電機(jī)匝間短路故障診斷方法[J]. 電機(jī)與控制學(xué)報(bào), 2020, 24(9): 173-180. Li Yuanjiang, Zhang Zhoulei, Li Menghan, et al. Fault diagnosis of inter-turn short circuit of permanent magnet synchronous motor based on deep learning[J]. Electric Machines and Control, 2020, 24(9): 173-180.

    [39]陳劍, 杜文娟, 王海風(fēng). 采用深度遷移學(xué)習(xí)定位含直驅(qū)風(fēng)機(jī)次同步振蕩源機(jī)組的方法[J]. 電工技術(shù)學(xué)報(bào), 2021, 36(1): 179-190. Chen Jian, Du Wenyjuan, Wang Haifeng. A method of locating the power system subsynchronous oscillation source unit with grid-connected PMSG using deep transfer learning[J]. Transactions of China Electrote-chnical Society, 2021, 36(1): 179-190.

    [40]Wen Long, Gao Liang, Li Xinyu. A new deep transfer learning based on sparse auto-encoder for fault diagnosis[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2019, 49(1): 136-144.

    Infrared Object Detection Model for Power Equipment Based on Improved YOLOv3

    Zheng Hanbo Li Jinheng Liu Yang Cui Yaohui Ping Yuan

    (School of Electrical Engineering Guangxi University Nanning 530004 China)

    Infrared image detection technology is widely used in monitoring and diagnosing electrical equipment considering its non-contact and fast advantages. It is generally believed that fast and accurate localization of the equipment is the prerequisite for automatic detection and diagnosis. Compared with visible light images of ordinary objects, the infrared images of power equipment have characteristics of complex background, low contrast, similar object features, and large aspect ratio. Besides, the original YOLOv3 model is difficult to accurately locate the objects of power equipment. In view of the above problems, an improved YOLOv3 model was proposed in this paper: cross stage partial module was introduced into the backbone network; the path aggregation network was integrated into the feature pyramid structure of the original model; in addition, this study also added Mosaic data enhancement technology and CIoU loss function. The improved model was trained and tested on four types of infrared image data sets of power equipment with similar corrugated appearance structures, which showed that the detection accuracy of each type can reach more than 92%. Finally, the results were compared and evaluated with the other three mainstream object detection models. The results show that the mean average precisions of the improved model proposed in this paper were better than Faster R-CNN, SSD and YOLOv3. Although the detection speed of the improved YOLOv3 model is sacrificed compared to the original YOLOv3 model, it is significantly higher than the other two models, further verifying the effectiveness of the proposed model in this paper.

    Power equipment detection, YOLOv3, convolutional neural network, infrared image

    TM85

    10.19595/j.cnki.1000-6753.tces.201324

    國(guó)家自然科學(xué)基金(51907034)和廣西科技基地和人才專項(xiàng)科技項(xiàng)目(2020AC19010)資助。

    2020-09-28

    2020-12-14

    鄭含博 男,1984年生,副教授,研究方向?yàn)殡姎庠O(shè)備智能檢測(cè)與診斷、電工絕緣新材料、智能配電網(wǎng)及新能源應(yīng)用。E-mail:hanbozheng@163.com(通信作者)

    李金恒 男,1996年生,碩士研究生,研究方向?yàn)殡姎庠O(shè)備的智能檢測(cè)。E-mail:lijinheng2018@163.com

    (編輯 郭麗軍)

    猜你喜歡
    電力設(shè)備紅外特征
    網(wǎng)紅外賣
    閃亮的中國(guó)紅外『芯』
    金橋(2021年4期)2021-05-21 08:19:20
    加強(qiáng)電力設(shè)備運(yùn)維云平臺(tái)安全性管理
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
    電子制作(2019年7期)2019-04-25 13:17:14
    抓住特征巧觀察
    基于快速遞推模糊2-劃分熵圖割的紅外圖像分割
    電力設(shè)備運(yùn)維管理及安全運(yùn)行探析
    基于壓縮感知的電力設(shè)備視頻圖像去噪方法研究
    cao死你这个sao货| 不卡av一区二区三区| 国产亚洲一区二区精品| 他把我摸到了高潮在线观看 | 久久99一区二区三区| 成人黄色视频免费在线看| 欧美精品av麻豆av| 亚洲熟女毛片儿| 人妻 亚洲 视频| 香蕉丝袜av| 菩萨蛮人人尽说江南好唐韦庄| 我的亚洲天堂| 动漫黄色视频在线观看| 久久精品熟女亚洲av麻豆精品| 岛国毛片在线播放| 国产精品秋霞免费鲁丝片| 免费在线观看日本一区| 超碰97精品在线观看| 国产又色又爽无遮挡免| 久久精品亚洲av国产电影网| www.熟女人妻精品国产| 欧美日韩精品网址| 亚洲视频免费观看视频| 国产成人影院久久av| 午夜成年电影在线免费观看| 777久久人妻少妇嫩草av网站| 国产日韩欧美在线精品| 欧美在线一区亚洲| 久久久久精品国产欧美久久久 | 精品国产一区二区三区久久久樱花| 欧美日韩一级在线毛片| 午夜福利视频精品| 丁香六月天网| 免费观看av网站的网址| 在线av久久热| 丝袜脚勾引网站| 精品国产一区二区三区四区第35| 色精品久久人妻99蜜桃| 精品一区二区三区av网在线观看 | 欧美 日韩 精品 国产| 十八禁网站免费在线| 欧美日韩成人在线一区二区| 一级毛片女人18水好多| 国产在线一区二区三区精| 亚洲中文av在线| 男人操女人黄网站| 色播在线永久视频| 天天影视国产精品| 一级,二级,三级黄色视频| 国产男女内射视频| 一边摸一边抽搐一进一出视频| 国产xxxxx性猛交| 51午夜福利影视在线观看| e午夜精品久久久久久久| 亚洲情色 制服丝袜| 久久久国产一区二区| 精品福利永久在线观看| 久久精品成人免费网站| 人人妻人人澡人人看| 成年女人毛片免费观看观看9 | 国产在线免费精品| 欧美日本中文国产一区发布| 男人爽女人下面视频在线观看| 亚洲欧美日韩另类电影网站| 在线观看人妻少妇| 最近最新中文字幕大全免费视频| 午夜成年电影在线免费观看| 侵犯人妻中文字幕一二三四区| 少妇被粗大的猛进出69影院| 大香蕉久久成人网| 国产免费视频播放在线视频| 日韩制服丝袜自拍偷拍| 国产福利在线免费观看视频| 搡老乐熟女国产| 欧美成人午夜精品| 啦啦啦 在线观看视频| 女警被强在线播放| 一本综合久久免费| 少妇被粗大的猛进出69影院| 在线观看免费午夜福利视频| 午夜福利影视在线免费观看| 成年动漫av网址| 国产精品 国内视频| 国产精品 欧美亚洲| 亚洲精品成人av观看孕妇| 久久天堂一区二区三区四区| 日本一区二区免费在线视频| 色婷婷久久久亚洲欧美| 欧美黄色片欧美黄色片| 欧美日韩一级在线毛片| 亚洲欧美清纯卡通| 欧美97在线视频| 电影成人av| 精品一区在线观看国产| 亚洲专区中文字幕在线| 最近中文字幕2019免费版| 国产97色在线日韩免费| 亚洲专区国产一区二区| 亚洲国产日韩一区二区| 午夜老司机福利片| 久久精品国产综合久久久| 免费黄频网站在线观看国产| 国产精品 国内视频| 亚洲国产精品一区三区| 国产欧美日韩一区二区三区在线| 日韩欧美免费精品| av一本久久久久| 亚洲五月色婷婷综合| 亚洲,欧美精品.| 国产av又大| 亚洲精品av麻豆狂野| 嫩草影视91久久| 俄罗斯特黄特色一大片| 国产精品 欧美亚洲| 精品国产超薄肉色丝袜足j| 亚洲精品国产精品久久久不卡| 午夜老司机福利片| 黄色视频在线播放观看不卡| 午夜福利,免费看| 最黄视频免费看| 91九色精品人成在线观看| 一个人免费看片子| 国产精品一区二区在线观看99| 国产免费福利视频在线观看| 国产福利在线免费观看视频| 一级,二级,三级黄色视频| av网站在线播放免费| 搡老熟女国产l中国老女人| 91字幕亚洲| 国产一卡二卡三卡精品| 亚洲欧美激情在线| 午夜影院在线不卡| 成年人免费黄色播放视频| 亚洲一码二码三码区别大吗| 日本一区二区免费在线视频| 精品第一国产精品| 老司机影院成人| 日韩制服丝袜自拍偷拍| 国产91精品成人一区二区三区 | 日韩,欧美,国产一区二区三区| 满18在线观看网站| 欧美人与性动交α欧美精品济南到| 免费久久久久久久精品成人欧美视频| 午夜福利视频精品| 天堂俺去俺来也www色官网| 少妇精品久久久久久久| 国产一区二区三区综合在线观看| 国产福利在线免费观看视频| 国产成人欧美在线观看 | 国产男女超爽视频在线观看| 777久久人妻少妇嫩草av网站| 亚洲全国av大片| 高清视频免费观看一区二区| 国产av精品麻豆| 久久久久视频综合| 大片免费播放器 马上看| 蜜桃国产av成人99| 在线观看免费视频网站a站| 日韩熟女老妇一区二区性免费视频| 十八禁人妻一区二区| 婷婷丁香在线五月| 亚洲精品久久午夜乱码| 欧美日韩精品网址| 日本91视频免费播放| 在线天堂中文资源库| 久久久久国内视频| 精品久久蜜臀av无| 亚洲中文日韩欧美视频| 性色av一级| 1024香蕉在线观看| 欧美亚洲 丝袜 人妻 在线| 免费av中文字幕在线| 精品福利观看| 亚洲精品一二三| 国产黄频视频在线观看| av国产精品久久久久影院| 国产亚洲一区二区精品| 热99久久久久精品小说推荐| 老鸭窝网址在线观看| 美女扒开内裤让男人捅视频| 亚洲自偷自拍图片 自拍| 午夜精品国产一区二区电影| 高清视频免费观看一区二区| 别揉我奶头~嗯~啊~动态视频 | 午夜免费成人在线视频| 久久中文看片网| 久久香蕉激情| 国产成人精品久久二区二区免费| 国产精品久久久av美女十八| 亚洲黑人精品在线| 亚洲精品乱久久久久久| 一级毛片女人18水好多| 天天躁夜夜躁狠狠躁躁| 19禁男女啪啪无遮挡网站| 桃红色精品国产亚洲av| 黄色怎么调成土黄色| 狂野欧美激情性bbbbbb| 亚洲男人天堂网一区| 亚洲人成电影免费在线| 淫妇啪啪啪对白视频 | 久久久久精品人妻al黑| 操出白浆在线播放| 亚洲专区字幕在线| 91成人精品电影| 成在线人永久免费视频| 女人精品久久久久毛片| 亚洲欧美精品综合一区二区三区| 国产日韩欧美在线精品| 91精品三级在线观看| 精品福利永久在线观看| 亚洲精品国产色婷婷电影| 五月天丁香电影| 久久精品熟女亚洲av麻豆精品| 青草久久国产| 亚洲 欧美一区二区三区| 免费黄频网站在线观看国产| 老鸭窝网址在线观看| 国产男人的电影天堂91| 老司机在亚洲福利影院| 亚洲精品一二三| 国产成人影院久久av| 正在播放国产对白刺激| 亚洲五月色婷婷综合| 80岁老熟妇乱子伦牲交| 麻豆av在线久日| 熟女少妇亚洲综合色aaa.| 热99国产精品久久久久久7| www.自偷自拍.com| 国产免费现黄频在线看| 日本一区二区免费在线视频| 精品高清国产在线一区| 中文字幕制服av| 亚洲av日韩精品久久久久久密| 久久久精品国产亚洲av高清涩受| 王馨瑶露胸无遮挡在线观看| 成人国产一区最新在线观看| 国产亚洲欧美在线一区二区| 大片电影免费在线观看免费| 人人妻,人人澡人人爽秒播| 免费看十八禁软件| 成年人午夜在线观看视频| 成人免费观看视频高清| 精品一区二区三区av网在线观看 | 精品乱码久久久久久99久播| 欧美日韩亚洲国产一区二区在线观看 | 脱女人内裤的视频| 亚洲成人国产一区在线观看| 免费av中文字幕在线| 精品人妻一区二区三区麻豆| 黄色片一级片一级黄色片| 亚洲专区国产一区二区| 精品国产乱码久久久久久男人| 国产成人av激情在线播放| 搡老岳熟女国产| 99久久国产精品久久久| 国产成人欧美| 亚洲美女黄色视频免费看| 一边摸一边抽搐一进一出视频| 一个人免费在线观看的高清视频 | 一区二区日韩欧美中文字幕| 精品久久久久久电影网| 老司机靠b影院| 伊人亚洲综合成人网| 亚洲国产欧美网| 99re6热这里在线精品视频| 欧美日韩亚洲国产一区二区在线观看 | av又黄又爽大尺度在线免费看| 999久久久国产精品视频| 十八禁人妻一区二区| 色婷婷久久久亚洲欧美| 大香蕉久久网| 国产99久久九九免费精品| 另类亚洲欧美激情| svipshipincom国产片| 精品亚洲成国产av| 日韩制服骚丝袜av| 亚洲专区中文字幕在线| 欧美日韩福利视频一区二区| 每晚都被弄得嗷嗷叫到高潮| 汤姆久久久久久久影院中文字幕| 国产精品1区2区在线观看. | kizo精华| 丰满人妻熟妇乱又伦精品不卡| 国产日韩欧美亚洲二区| 别揉我奶头~嗯~啊~动态视频 | 菩萨蛮人人尽说江南好唐韦庄| 欧美日韩黄片免| 母亲3免费完整高清在线观看| av电影中文网址| 美女高潮到喷水免费观看| 欧美久久黑人一区二区| 精品乱码久久久久久99久播| 欧美国产精品一级二级三级| 搡老岳熟女国产| 国产一区二区在线观看av| 妹子高潮喷水视频| 久久精品亚洲av国产电影网| 国产视频一区二区在线看| 狠狠狠狠99中文字幕| 精品少妇内射三级| 国产一区二区三区综合在线观看| 日本av手机在线免费观看| 在线永久观看黄色视频| 夫妻午夜视频| 一区二区日韩欧美中文字幕| 国产精品欧美亚洲77777| 国产精品麻豆人妻色哟哟久久| bbb黄色大片| 久久久久久免费高清国产稀缺| 麻豆av在线久日| 久久久久网色| 精品免费久久久久久久清纯 | 日日爽夜夜爽网站| 国产在线免费精品| 国产免费视频播放在线视频| 亚洲av日韩精品久久久久久密| xxxhd国产人妻xxx| 日韩三级视频一区二区三区| av国产精品久久久久影院| 黄片小视频在线播放| 丰满人妻熟妇乱又伦精品不卡| 欧美97在线视频| 久久久久视频综合| 巨乳人妻的诱惑在线观看| av片东京热男人的天堂| videos熟女内射| 女警被强在线播放| 日韩欧美国产一区二区入口| 日韩制服骚丝袜av| 国产亚洲精品第一综合不卡| 爱豆传媒免费全集在线观看| 国产精品麻豆人妻色哟哟久久| 夜夜夜夜夜久久久久| 嫩草影视91久久| 久久精品久久久久久噜噜老黄| 老司机靠b影院| 久久九九热精品免费| 午夜两性在线视频| 免费人妻精品一区二区三区视频| 久久久久久免费高清国产稀缺| 亚洲人成电影观看| 超碰97精品在线观看| 黄片大片在线免费观看| 欧美日韩黄片免| 成人手机av| 激情视频va一区二区三区| 久久久久国内视频| 在线观看www视频免费| 午夜福利在线观看吧| 一边摸一边抽搐一进一出视频| 亚洲av日韩在线播放| 超碰成人久久| 久久中文字幕一级| 在线十欧美十亚洲十日本专区| 免费女性裸体啪啪无遮挡网站| 国产亚洲精品一区二区www | 精品国产一区二区三区久久久樱花| 丝袜美足系列| 亚洲九九香蕉| 老司机亚洲免费影院| 欧美xxⅹ黑人| 在线十欧美十亚洲十日本专区| 日本a在线网址| 无限看片的www在线观看| 老司机影院毛片| 午夜日韩欧美国产| 欧美日韩亚洲综合一区二区三区_| 亚洲欧美一区二区三区久久| 成年美女黄网站色视频大全免费| 曰老女人黄片| 日韩大码丰满熟妇| 动漫黄色视频在线观看| 99香蕉大伊视频| 久久久久久人人人人人| 国产熟女午夜一区二区三区| 三上悠亚av全集在线观看| 久久久国产成人免费| 飞空精品影院首页| 一进一出抽搐动态| 男女午夜视频在线观看| 狂野欧美激情性xxxx| 国产成人系列免费观看| 免费久久久久久久精品成人欧美视频| 另类亚洲欧美激情| 高潮久久久久久久久久久不卡| 99国产精品免费福利视频| 我的亚洲天堂| 成人亚洲精品一区在线观看| 一区二区三区乱码不卡18| 最近中文字幕2019免费版| 又黄又粗又硬又大视频| 亚洲欧美精品自产自拍| 欧美日韩精品网址| 91国产中文字幕| 黄色 视频免费看| 国产熟女午夜一区二区三区| av线在线观看网站| 成年女人毛片免费观看观看9 | 一级黄色大片毛片| 又大又爽又粗| 少妇粗大呻吟视频| 两人在一起打扑克的视频| av在线老鸭窝| 多毛熟女@视频| 91麻豆精品激情在线观看国产 | 肉色欧美久久久久久久蜜桃| 欧美日韩国产mv在线观看视频| 老汉色av国产亚洲站长工具| 99久久国产精品久久久| 精品一区二区三区四区五区乱码| 美女国产高潮福利片在线看| 女性生殖器流出的白浆| 精品一区在线观看国产| 午夜影院在线不卡| svipshipincom国产片| a级片在线免费高清观看视频| 青青草视频在线视频观看| 欧美激情极品国产一区二区三区| 人妻人人澡人人爽人人| 母亲3免费完整高清在线观看| 高清黄色对白视频在线免费看| 超碰成人久久| 国产黄色免费在线视频| 国产欧美日韩一区二区三区在线| 十分钟在线观看高清视频www| 美女午夜性视频免费| svipshipincom国产片| 免费在线观看完整版高清| 高潮久久久久久久久久久不卡| 女性生殖器流出的白浆| 不卡av一区二区三区| 中亚洲国语对白在线视频| 黄网站色视频无遮挡免费观看| 如日韩欧美国产精品一区二区三区| 999久久久精品免费观看国产| 亚洲天堂av无毛| 丝瓜视频免费看黄片| 日韩大片免费观看网站| 80岁老熟妇乱子伦牲交| 亚洲 欧美一区二区三区| 大陆偷拍与自拍| a级毛片黄视频| 欧美日韩成人在线一区二区| 伊人久久大香线蕉亚洲五| 国产成人免费观看mmmm| 午夜福利一区二区在线看| 丰满迷人的少妇在线观看| 蜜桃在线观看..| av国产精品久久久久影院| 成在线人永久免费视频| av免费在线观看网站| 国产精品成人在线| 精品人妻1区二区| 高清av免费在线| 久久av网站| 热re99久久国产66热| 亚洲欧美精品自产自拍| 丰满饥渴人妻一区二区三| 两性夫妻黄色片| 亚洲专区中文字幕在线| 老司机午夜十八禁免费视频| 午夜福利乱码中文字幕| av国产精品久久久久影院| 丝袜美腿诱惑在线| 777久久人妻少妇嫩草av网站| 国产精品成人在线| 亚洲少妇的诱惑av| 男女高潮啪啪啪动态图| 欧美日本中文国产一区发布| 国产精品久久久久成人av| 69av精品久久久久久 | 纯流量卡能插随身wifi吗| 欧美黄色淫秽网站| 欧美午夜高清在线| 99国产精品99久久久久| 欧美在线一区亚洲| 欧美日韩亚洲高清精品| 国产男人的电影天堂91| 国产精品二区激情视频| 天天躁日日躁夜夜躁夜夜| 国产精品 国内视频| 成人av一区二区三区在线看 | 亚洲第一青青草原| 午夜91福利影院| 久久久久久久久久久久大奶| 丝袜在线中文字幕| 大码成人一级视频| 免费在线观看完整版高清| 王馨瑶露胸无遮挡在线观看| 中亚洲国语对白在线视频| 久久久久久人人人人人| 大片电影免费在线观看免费| 精品人妻熟女毛片av久久网站| 国产成人精品久久二区二区免费| 一级片免费观看大全| 欧美亚洲日本最大视频资源| 精品久久蜜臀av无| 99re6热这里在线精品视频| 人妻人人澡人人爽人人| 十八禁人妻一区二区| 99久久人妻综合| 欧美中文综合在线视频| 国产亚洲欧美在线一区二区| 9热在线视频观看99| 美女主播在线视频| 日韩电影二区| 丁香六月欧美| 大型av网站在线播放| 亚洲精品在线美女| 狂野欧美激情性xxxx| 亚洲av美国av| 亚洲欧美清纯卡通| 亚洲美女黄色视频免费看| 日本91视频免费播放| 国产日韩一区二区三区精品不卡| 亚洲av电影在线进入| 老司机影院成人| 亚洲天堂av无毛| 精品亚洲成国产av| 777米奇影视久久| 精品视频人人做人人爽| 亚洲免费av在线视频| 国产1区2区3区精品| 岛国毛片在线播放| 黄色怎么调成土黄色| 日韩熟女老妇一区二区性免费视频| 午夜福利视频精品| 亚洲av日韩精品久久久久久密| 一级毛片精品| 日韩视频一区二区在线观看| 中文字幕高清在线视频| 91精品三级在线观看| 男女高潮啪啪啪动态图| 亚洲成av片中文字幕在线观看| 国产成+人综合+亚洲专区| 成人手机av| 国产成人系列免费观看| 一级毛片女人18水好多| 纵有疾风起免费观看全集完整版| 久久久久久久大尺度免费视频| 大片电影免费在线观看免费| 国产亚洲欧美在线一区二区| 一级a爱视频在线免费观看| 一进一出抽搐动态| 少妇被粗大的猛进出69影院| 99久久综合免费| 午夜福利在线观看吧| av天堂在线播放| 欧美大码av| 免费观看人在逋| 欧美亚洲日本最大视频资源| 午夜激情久久久久久久| 国产欧美亚洲国产| 黄色视频在线播放观看不卡| 亚洲国产av影院在线观看| 蜜桃在线观看..| 国产成+人综合+亚洲专区| 国产av又大| 日韩电影二区| 大片免费播放器 马上看| 亚洲精品久久久久久婷婷小说| 91成人精品电影| 黄色a级毛片大全视频| 国产成人精品久久二区二区91| 天天躁夜夜躁狠狠躁躁| 久久ye,这里只有精品| 最近中文字幕2019免费版| 国产无遮挡羞羞视频在线观看| 亚洲精品乱久久久久久| 19禁男女啪啪无遮挡网站| 国产精品免费视频内射| 最新在线观看一区二区三区| 国产欧美日韩精品亚洲av| 五月天丁香电影| 99热国产这里只有精品6| 久久久精品免费免费高清| 搡老熟女国产l中国老女人| 国产一区二区三区av在线| 国产精品香港三级国产av潘金莲| 国产成人精品久久二区二区免费| 嫁个100分男人电影在线观看| 午夜影院在线不卡| 真人做人爱边吃奶动态| 免费高清在线观看视频在线观看| 搡老岳熟女国产| 午夜福利视频精品| 免费人妻精品一区二区三区视频| 国产又爽黄色视频| 亚洲中文日韩欧美视频| 91国产中文字幕| 青春草视频在线免费观看| 亚洲国产欧美网| 欧美精品一区二区免费开放| 日韩视频在线欧美| 精品卡一卡二卡四卡免费| 如日韩欧美国产精品一区二区三区| 久久精品熟女亚洲av麻豆精品| 亚洲欧美一区二区三区久久| 成人黄色视频免费在线看| 久久久精品免费免费高清| 国产成+人综合+亚洲专区| 亚洲人成电影观看| 丝瓜视频免费看黄片| 国产男女内射视频| 午夜福利在线免费观看网站| 妹子高潮喷水视频| 精品欧美一区二区三区在线| 91麻豆精品激情在线观看国产 | 高清视频免费观看一区二区| 手机成人av网站| 久久久久久亚洲精品国产蜜桃av| 国产欧美亚洲国产| 麻豆乱淫一区二区| 2018国产大陆天天弄谢| 亚洲人成77777在线视频|