• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    輔助駕駛的車輛與行人檢測模型YOLO-DNF

    2022-12-22 11:47:04張修懿陳長興成寬洪
    計算機工程與應(yīng)用 2022年24期
    關(guān)鍵詞:計算成本卷積精度

    張修懿,陳長興,杜 娟,李 佳,成寬洪

    1.空軍工程大學(xué) 基礎(chǔ)部,西安 710051

    2.西安理工大學(xué) 計算機科學(xué)與工程學(xué)院,西安 710048

    目標檢測的任務(wù)是找出圖像中所有感興趣的目標并確定它們的位置與類別,其作為無人駕駛技術(shù)環(huán)境感知模塊的關(guān)鍵部分,可在車輛行駛過程中準確并快速地檢測周圍車輛與行人,用于輔助車輛規(guī)劃路徑、保障交通安全。該技術(shù)目前已成為計算機視覺領(lǐng)域的研究熱點,并在工業(yè)生產(chǎn)[1]、醫(yī)學(xué)影像[2]以及安防監(jiān)控[3]等領(lǐng)域得到了廣泛的應(yīng)用。

    在目標檢測技術(shù)研究的早期常需要手工限定待檢目標的低級視覺特征如方向梯度直方圖[4](histogram of gradient,HoG)或加速穩(wěn)健特征[5](speeded up robust features,SURF)等,在圖像中通過滑動窗口分區(qū)域計算上述特征后使用支持向量機[6](support vector machine,SVM),或可變形部件模型[7](deformable part-based mod‐el,DPM)等技術(shù)進行分類。這些傳統(tǒng)算法的檢測精度很大程度上取決于手工限定的特征是否貼切待檢目標及是否受到背景變化的干擾,因此以上算法適合于目標形似、背景固定的目標檢測場景。但車輛行駛中道路環(huán)境復(fù)雜,車輛與行人多樣,因此這類算法不適合用于車輛行駛環(huán)境。

    卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)通過大量數(shù)據(jù)集訓(xùn)練后,其仿生的多層神經(jīng)元可以從原始圖像像素中學(xué)習(xí)待檢目標的深層特征,這些深層特征在復(fù)雜環(huán)境中有更強的區(qū)分表達能力。利用這一優(yōu)勢,CNN在目標檢測領(lǐng)域取得了顯著的進展。

    目前基于CNN的算法主要分為兩大類,兩階段檢測與一階段檢測。R-CNN[8],作為兩階段檢測的開創(chuàng)之作,在第一階段使用選擇性搜索算法提出一系列可能包含目標的感興趣區(qū)域(region of interest,RoI),在第二階段中利用CNN提取區(qū)域內(nèi)的深層特征并據(jù)此進行分類和定位。針對每一個區(qū)域提案分別提取特征并檢測使R-CNN[8]具有較高的檢測精度,但復(fù)雜的提議算法和冗余的區(qū)域提案使得檢測器效率較低。Fast-RCNN[9]將卷積層位置提前,在每個位置上計算出一組特征向量,通過圖像與特征的位置映射關(guān)系使第二階段為每一個感興趣區(qū)域提取特征轉(zhuǎn)為計算其對應(yīng)位置上的特征向量,降低了第二階段的計算量和計算時間。Faster-RCNN[10]提出區(qū)域提案網(wǎng)絡(luò)(region proposal network,RPN)以替代選擇性搜索算法,使一部分卷積層直接生成區(qū)域提案和區(qū)域內(nèi)檢測特征,簡化了第一階段的計算流程。Fast-RCNN與Faster-RCNN[9]在R-CNN[8]的基礎(chǔ)上分別縮短了第一、第二階段的計算時間,但針對大量冗余的區(qū)域提案進行計算不可避免地拉低了檢測效率,為此不適用于車輛駕駛這種對實時性要求較高的檢測場景。

    作為一階段檢測算法的代表作,YOLOv3[11]算法首先在圖像上平均劃分出分辨率不同的網(wǎng)格并在其頂點放置大小、形狀不同的錨框,由于這些錨框與CNN提取的特征存在位置映射關(guān)系,所以對特征進行預(yù)測和回歸就可以得到錨框中的目標類別以及位置。YOLOv3[11]算法以固定數(shù)量的錨框代替二階段算法中無定量且大量冗余的區(qū)域提案,大幅提升了檢測效率,滿足了車輛駕駛場景下檢測的實時性需求。但由于只在固定位置提取一定數(shù)量的特征會造成圖像中信息的遺漏,其檢測精度略低。

    為了提高檢測精度,研究人員基于YOLOv3[11]進一步改進、搭建目標檢測模型,例如YOLOv4模型[12]中使用更優(yōu)秀的CSPDarknet網(wǎng)絡(luò)來提升特征提取能力,Scaled-YOLOv4模型[13]通過縮放技術(shù)搭建更深的Scaled-CSP網(wǎng)絡(luò)也取得了檢測精度的提升。雖然YOLOv4[12]與Scaled-YOLOv4[13]模型都取得了精度的提升,但CNN的復(fù)雜化隨之帶來檢測速度變慢和檢測泛化性退化等新問題。更深和更復(fù)雜的網(wǎng)絡(luò)一方面需要的計算量與參數(shù)量更大,造成計算時間增加,檢測速度變慢,因此需要使用更經(jīng)濟的計算結(jié)構(gòu)。而在另一方面,網(wǎng)絡(luò)無根據(jù)的加深會引起泛化性的退化[14-15],使檢測難以適用于復(fù)雜多變的道路場景,為此需要對數(shù)據(jù)集進行拓展。

    本文針對以上問題,進行了模型結(jié)構(gòu)和數(shù)據(jù)拓展方面的研究,具體如下:

    (1)針對復(fù)雜網(wǎng)絡(luò)計算量較大造成檢測速度慢的問題提出了Arrow-Block結(jié)構(gòu),與CSP-Block共同組建模型主干網(wǎng)絡(luò),并通過分析結(jié)構(gòu)學(xué)習(xí)能力和計算成本調(diào)整合適的網(wǎng)絡(luò)深度。

    (2)針對模型泛化性不足難以擬合復(fù)雜的道路環(huán)境的問題使用HSV擾動和亮度增強的數(shù)據(jù)拓展方法提升模型泛化性能。

    1 相關(guān)工作

    1.1 YOLOv3檢測算法

    車輛行駛過程中速度快,對目標檢測的實時性要求較高。由于一階段檢測算法YOLO系列根據(jù)卷積運算的位置不變特性只使用一次網(wǎng)絡(luò)計算就能完成對整張圖像進行檢測,相較二階段檢測算法具有速度快、計算量小的優(yōu)點,鑒于此本文基于YOLOv3[11]檢測算法進行研究。YOLOv3[11]是該系列的代表作,其結(jié)構(gòu)被分為主干網(wǎng)絡(luò)(BackBone)、特征融合層(Neck)和檢測頭(Head)三個部分。分別起到提取特征、融合特征和將特征轉(zhuǎn)為輸出信息的作用,算法結(jié)構(gòu)如圖1所示。

    圖1 YOLOv3算法結(jié)構(gòu)圖Fig.1 Schematic diagram of YOLOv3 algorithm structure

    YOLOv3[11]的主干網(wǎng)絡(luò)使用了Darknet-53網(wǎng)絡(luò)。Darknet-53網(wǎng)絡(luò)利用五組Res-Block從網(wǎng)絡(luò)中遞進提取五組深度不同的特征P1~P5。Res-Block是Darknet-53[11]網(wǎng)絡(luò)中提取圖像特征的關(guān)鍵,每一組都由不同的數(shù)量的Res-Layer重復(fù)堆疊而成,依次為1-2-8-8-4。

    YOLOv3[11]的特征融合層使用了特征金字塔(feature pyramid network,F(xiàn)PN)結(jié)構(gòu),F(xiàn)PN融合了Darknet-53網(wǎng)絡(luò)提取出的后3組特征進行,其中特征P5經(jīng)過卷積組降維、上采樣后與特征P4拼接Concat融合成新的特征,重復(fù)向上便能夠?qū)⑻卣鱌4、P5融入特征P3。

    YOLOv3[11]的檢測頭部分通過三個卷積層將網(wǎng)絡(luò)提取到的特征通過卷積輸出為前后景分類、目標類別分類和位置回歸數(shù)據(jù)。

    鑒于YOLOv3[11]性能優(yōu)良和結(jié)構(gòu)清晰,本文以其為基礎(chǔ)框架進行優(yōu)化。提出低計算成本、高特征提取能力的ACNet作為模型的主干網(wǎng)絡(luò),具體細節(jié)及設(shè)計思路于2.1節(jié)展開。

    1.2 數(shù)據(jù)集與數(shù)據(jù)增強

    CNN的學(xué)習(xí)建立在數(shù)據(jù)之上,數(shù)據(jù)分布影響著網(wǎng)絡(luò)的學(xué)習(xí)方向和最終的學(xué)習(xí)成果,因此需要根據(jù)應(yīng)用場景選擇合適的數(shù)據(jù)集。訓(xùn)練和測試車輛與行人檢測模型常采用KITTI[16]和SODA10M數(shù)據(jù)集[17],其圖像均在車輛上以固定的視角進行采集,因此相較于其他公開數(shù)據(jù)集更加貼切實際的駕駛場景。KITTI數(shù)據(jù)集[16]類別涵蓋汽車、貨車、行人,圖像拍攝于白天的德國卡爾斯魯厄市市區(qū),數(shù)據(jù)多樣性較低,對于車輛駕駛的實際檢測需求而言研究價值不強。SODA10M數(shù)據(jù)集[17]類別涵蓋行人、自行車、汽車、卡車、公交車、三輪車,訓(xùn)練集圖像僅拍攝于白天的上海市市區(qū),而測試集覆蓋了夜間的其他城市,道路環(huán)境包括鄉(xiāng)村和高速公路。具體分布如表1所示。

    表1 測試集圖像分布Table 1 Testset image distribution

    雖然模型使用SODA10M數(shù)據(jù)集[17]訓(xùn)練會難以擬合測試集多樣的圖像分布,但也正因為訓(xùn)練集的數(shù)據(jù)多樣性小于測試集而更貼切實際工程中有限的數(shù)據(jù)集無法包含無限的實際駕駛場景。鑒于此本文選用SODA10M數(shù)據(jù)集[17]進行模型訓(xùn)練與測試。

    車輛行駛的道路復(fù)雜多樣,雖然車輛和行人在不同道路上的樣本視覺差距較小,但在夜晚和白天不同光照下差距較大。僅使用訓(xùn)練集進行訓(xùn)練網(wǎng)絡(luò)會在夜晚檢測精度較低,難以滿足夜間車輛駕駛的檢測需要。數(shù)據(jù)增強是訓(xùn)練CNN的常用策略,可以幫助擴展數(shù)據(jù)的多樣性,增強網(wǎng)絡(luò)的泛化性并避免網(wǎng)絡(luò)學(xué)習(xí)至局部損失最小值[18]。HSV域擾動[19]通過在訓(xùn)練中以50%的概率隨機改變圖像的色相、飽和度、對比度以及亮度拓展訓(xùn)練集圖像的色彩分布,使得對圖像顏色、亮度變化具有一定的泛化性,擾動效果如圖2所示。

    圖2 HSV擾動效果對比圖Fig.2 Comparison of HSV disturbance effect

    通過HSV域隨機擾動,每張圖像的色彩和亮度都產(chǎn)生多種變化。雖然數(shù)據(jù)集的色彩與光照分布得到了擴充,但擾動后的圖像仍與夜晚差距較大,為此本文分析了白天與夜晚圖像亮度的差距,通過在訓(xùn)練中降低圖像亮度來彌補與實際檢測的差距,具體細節(jié)于2.1節(jié)展開。

    2 模型結(jié)構(gòu)與數(shù)據(jù)增強

    2.1 YOLO-DNF模型結(jié)構(gòu)

    YOLO-DNF模型遵循YOLOv3[11]的基礎(chǔ)框架,整體網(wǎng)絡(luò)仍分為主干網(wǎng)絡(luò)、特征融合層和檢測頭三部分,其中主干網(wǎng)絡(luò)使用低計算成本、強特征提取能力的ACNet,特征融合層和檢測頭保持原結(jié)構(gòu),整體結(jié)構(gòu)如圖3所示。

    圖3 YOLO-DNF算法結(jié)構(gòu)圖Fig.3 Schematic diagram of YOLO-DNF algorithm structure

    在神經(jīng)網(wǎng)絡(luò)中,神經(jīng)元的連接方式與數(shù)量對于其特征學(xué)習(xí)和提取能力至關(guān)重要,而神經(jīng)元的連接方式與數(shù)量反映到目標檢測模型中正是主干網(wǎng)絡(luò)中卷積模塊結(jié)構(gòu)以及網(wǎng)絡(luò)深度。本文通過分析主流目標檢測模型中主干網(wǎng)絡(luò)的結(jié)構(gòu)以及深度提出的具有低成本高特征提取能力的ACNet,其具體結(jié)構(gòu)如表2。

    表2 ACNet網(wǎng)絡(luò)結(jié)構(gòu)Table 2 ACNet network structure

    2.1.1 卷積結(jié)構(gòu)

    適用于目標檢測的卷積結(jié)構(gòu)需要考慮特征提取能力與計算成本的問題,本文通過分析該領(lǐng)域中常用的卷積模塊Res-Block以及CSP-Block選擇ACNet中的卷積結(jié)構(gòu)。

    卷積模塊Res-Block因獨特的Shortcut傳導(dǎo)方式和卷積維度變化而具有相較普通卷積層更強的特征提取能力。整體模塊由數(shù)個基礎(chǔ)單元Res-Layer堆疊連接而成,隨著堆疊單元Res-Layer數(shù)量的增加,Res-Block中特征維度變化愈加頻繁,這需要占據(jù)更大的內(nèi)存訪問成本并花費更多的計算時間。

    卷積模塊CSP-Block由Arrow-Block以及四個卷積核尺寸為1×1的卷積層組成。在模塊起始處通過兩個降維卷積將特征劃分成兩路,兩路特征的維度皆被降至原始特征的一半。其中一路特征在經(jīng)過Arrow-Block及卷積計算后與另一路特征作通道拼接,拼接得到的特征經(jīng)歸一化及非線性激活后作最后一次卷積計算完成融合,卷積融合后的特征作為CSP-Block整體模塊的計算結(jié)果輸出。CSP-Block通過特征劃分避免了不斷學(xué)習(xí)重復(fù)的信息,并通過特征融合使得淺層的神經(jīng)元在反向傳播中直接獲得深層的反饋從而接受更大梯度,因此相較Res-Block具有更強的提取能力,且特征維度變換頻率固定。

    Arrow-Block作為卷積模塊CSP-Block的一部分,并未在主流的目標檢測模型中單獨使用過,其結(jié)構(gòu)與Res-Block相似,同樣使用Shortcut連接并由數(shù)個基礎(chǔ)單元Arrow-Layer堆疊連接而成,區(qū)別僅在于其計算過程中特征維度保持不變,避免數(shù)據(jù)讀取時維度頻繁變換,因此可以降低內(nèi)存訪問成本。

    Res-Block、Arrow-Block中基礎(chǔ)單元以及CSP-Block的具體結(jié)構(gòu)如圖4所示。

    圖4 不同模塊卷積結(jié)構(gòu)示意圖Fig.4 Schematic diagram of convolutional structure in different modules

    搭建目標檢測模型的主干網(wǎng)絡(luò)時常通過在卷積模塊中使用一定數(shù)量的堆疊單元來控制網(wǎng)絡(luò)深度,此時卷積模塊的特征提取能力與計算成本同時受到模塊結(jié)構(gòu)與堆疊單元數(shù)量的影響。作為計算密集型算法,卷積神經(jīng)網(wǎng)絡(luò)的計算成本包括數(shù)據(jù)運算與內(nèi)存訪問兩方面,其中卷積層的數(shù)據(jù)運算成本可用浮點數(shù)運算次數(shù)(floatingpoint operations,F(xiàn)LOPs)表示,內(nèi)存訪問成本可用內(nèi)存訪問次數(shù)(memory access cost,MAC)表示,忽略卷積層中的歸一化與非線性激活,卷積層的FLOPs與MAC的計算如式(1)與式(2)所示:

    式(1)與式(2)中h和w代表特征圖的高和寬,C代表特征圖的維度,K代表卷積核大小,角標in和out表明該參數(shù)屬于輸入或輸出特征圖,鑒于網(wǎng)絡(luò)中卷積層的輸入特征通道數(shù)Cin皆大于等于32且為2的高次冪,因此可忽略式(1)中的常數(shù)因子1。

    卷積模塊Res-Block結(jié)構(gòu)單一,其計算成本為單個基礎(chǔ)單元Res-Layer的計算成本乘以其堆疊單元數(shù)量N,結(jié)合卷積模塊中卷積層的參數(shù)可依據(jù)式(1)與(2)得到卷積模塊Res-Block的計算成本式(3)與式(4):

    與之不同的是卷積模塊CSP-Block中除了使用了模塊Arrow-Block,還額外使用4個卷積層以劃分與融合特征,因此卷積模塊CSP-Block的計算成本可分為堆疊單元unit部分以及劃分與融合extra部分。結(jié)合卷積模塊中卷積層的參數(shù)可依據(jù)式(1)與式(2)得到卷積模塊CSP-Block的計算成本式(5)與式(6):

    依據(jù)式(3)~(6)可以得出在堆疊同樣數(shù)量基本單元的情況下卷積模塊CSP-Block與Res-Block針對不同維度、分辨率的特征圖進行卷積計算所消耗的計算成本。為了數(shù)據(jù)對比清晰易察,本文選取維度與分辨率的中位數(shù)組合(256,108)計算卷積模塊CSP-Block與Res-Block的計算成本對比結(jié)果得到圖5。

    圖5 卷積模塊計算成本對比圖Fig.5 Comparison of calculation cost for convolutional block

    如圖5所示,卷積模塊CSP-Block的計算成本低于Res-Block,且當堆疊單元增多時差距更為明顯。這是因為卷積模塊CSP-Block在起始處將特征維度降低一半且在堆疊單元部分計算時特征維度保持不變,因此堆疊同樣數(shù)量基本單元時卷積模塊CSP-Block中unit部分的計算成本小于Res-Block。隨著堆疊單元的增加,extra部分的計算成本在整個卷積模塊中占比越來越小,使得整體計算成本的差距增大。又因為劃分與融合機制,卷積模塊CSP-Block相較Res-Block具有更強的特征提取能力,因此CSP-Block模塊能夠以較低的計算成本在堆疊單元較多的區(qū)域發(fā)揮較強的特征提取能力。

    但當堆疊單元較少時,extra部分的計算成本在整體模塊中占比較大,依據(jù)式(5)與式(6)可得到隨著堆疊單元增加extra部分所耗計算成本在卷積模塊CSP-Block中占比變化趨勢圖6,其中特征維度與分辨率仍選擇中位數(shù)組合(256,108)。

    圖6 CSP-Block模塊中extra部分計算成本占比與單元數(shù)關(guān)系Fig.6 Relationship between ratio of extra component in total calculation cost of CSP-Block and amount of units

    如圖6所示,當堆疊單元數(shù)為1~3時extra部分數(shù)據(jù)運算成本FLOPs占據(jù)整體卷積模塊CSP-Block的47.33%~23.05%,內(nèi)存訪問成本MAC更是達到整體卷積模塊的74.94%~49.93%。這意味著當堆疊單元較少時特征與融合機制會消耗卷積模塊中絕大部分的計算成本。但此時各層神經(jīng)元相距較近,學(xué)習(xí)的內(nèi)容類似,且梯度傳遞衰減效應(yīng)較弱,劃分和融合機制對于CSPBlock模塊的特征提取能力增益較小。即當堆疊單元較少時,CSP-Block模塊相較Arrow-Block模塊在消耗更多的計算成本的條件下特征提取能力的提升極為有限。因此在堆疊單元較少的區(qū)域Arrow-Block模塊能夠以犧牲較少特征提取能力為代價大幅減少計算成本。

    基于上述考慮,本文提出的ACNet將于堆疊單元數(shù)較少處使用Arrow-Block模塊,于較多處使用CSP-Block模塊,Arrow-Block搭配CSP-Block的組合使得網(wǎng)絡(luò)保持了較強的特征提取能力和較低的計算成本,此外由于Arrow-Block也是CSP-Block模塊的一部分,因此ACNet網(wǎng)絡(luò)的硬件實現(xiàn)方式也較為簡單。

    2.1.2 網(wǎng)絡(luò)深度

    確定ACNet網(wǎng)絡(luò)的深度,即確定Arrow-Block模塊與CSP-Block模塊中堆疊單元的數(shù)量。當卷積結(jié)構(gòu)相同但深度不同時,主干網(wǎng)絡(luò)的特征提取能力以及計算成本都會改變。例如同樣使用CSP-Block模塊的CSP‐Darknet網(wǎng)絡(luò)[12]與Scaled-CSP網(wǎng)絡(luò)[13],其各自的堆疊單元數(shù)量如表3所示。

    表3 CSP-Darknet與Scaled-CSP網(wǎng)絡(luò)深度對比Table 3 Comparison between CSP-Darknet and Scaled-CSP in network depths

    通過對比兩種網(wǎng)絡(luò)堆疊單元數(shù)量可發(fā)現(xiàn):(1)兩種網(wǎng)絡(luò)的堆疊單元在P1、P2層都較少,而在P3~P5層較多。(2)兩種網(wǎng)絡(luò)的堆疊單元在P1、P2層差距較小,而在P3~P5層較大。(3)網(wǎng)絡(luò)更深的Scaled-CSP[13]精度高于CSP-Darknet[12],但檢測速度低于CSP-Darknet[12]。因此ACNet網(wǎng)絡(luò)將在P1、P2層以1~3的堆疊單元數(shù)量使用Arrow-Block模塊,而在P3~P5層使用CSP-Block模塊,其中P3~P5層CSP-Block模塊內(nèi)堆疊單元數(shù)量通過分析其在不同層的計算成本來決定。

    CSP-Block模塊中堆疊單元的計算成本已由式(5)與式(6)中FLOPsunit給出。由于P3~P5層的特征維度從256至1 024以二次冪遞增,且特征圖分辨率由108至27以二次冪遞減可知單個Arrow-Layer單元的數(shù)據(jù)運算成本FLOPs不受所處位置的影響。而內(nèi)存訪問成本MAC同時受到分辨率與維度變化的影響,選取式(6)中unit部分計算可得到P3~P5層單個Arrow-Layer單元內(nèi)存訪問成本MAC的相對百分比變化圖,如圖7所示。

    圖7 P3~P5處Arrow-Layer單元MAC相對百分比Fig.7 MAC of Arrow-Layer in P3 to P5

    如圖7所示單個Arrow-Layer單元的內(nèi)存訪問成本MAC隨著特征的深入而降低,這表明ACNet可通過降低P3、P4處堆疊單元數(shù)量,增加P5處堆疊單元數(shù)量的方法以較低的計算成本實現(xiàn)較高的計算精度,因此ACNet選擇以1-3-8-12-8的單元堆疊數(shù)組合搭建網(wǎng)絡(luò)。重新計算Darknet-53[11]、CSPDarknet[12]、Scaled-CSP[13]與ACNet網(wǎng)絡(luò)整體與逐層的數(shù)據(jù)運算成本FLOPs和內(nèi)存訪問成本MAC,計算成本結(jié)果如圖8所示。

    圖8 卷積網(wǎng)絡(luò)整體及逐層計算成本對比圖Fig.8 Comparison of different convolutional network overall and layer-by-layer calculation cost

    通過對比四種網(wǎng)絡(luò)的計算成本可以發(fā)現(xiàn):(1)與Darknet-53[11]及CSPDarknet[12]網(wǎng)絡(luò)相比,ACNet在加深網(wǎng)絡(luò)的同時通過搭配Arrow-Block與CSP-Block模塊因而并未消耗過多的計算成本,其中數(shù)據(jù)運算成本小于較淺層網(wǎng)絡(luò)Darknet-53[11],而內(nèi)存訪問成本更是低于CSP‐Darknet[12]網(wǎng)絡(luò)。(2)與Scaled-CSP[13]網(wǎng)絡(luò)相比,ACNet網(wǎng)絡(luò)通過將堆疊單元較少處的卷積模塊替換為Arrow-Block從而實現(xiàn)了內(nèi)存訪問成本MAC的大幅縮減。(3)與Darknet-53[11]、CSPDarknet[12]及Scaled-CSP[13]相比,ACNet網(wǎng)絡(luò)層與層之間數(shù)據(jù)運算成本FLOPs及內(nèi)存訪問成本MAC相差較小,并未出現(xiàn)明顯的計算瓶頸(圖8中以紅色邊框及黑色斜杠填充突出標記),避免了因特定層較大計算量阻礙其他層計算而延緩檢測速度。(5)ACNet網(wǎng)絡(luò)在P1、P2層數(shù)據(jù)運算成本FLOPs略高,這是由于Arrow-Block單獨使用時特征維度未經(jīng)卷積層降低,但由于P1、P2層特征維度處于64、128的較低階段,因此使用完整的維度進行計算并不會造成網(wǎng)絡(luò)整體計算成本過高。

    通過卷積結(jié)構(gòu)和網(wǎng)絡(luò)深度上的設(shè)計,ACNet具有低計算成本、高特征提取能力的優(yōu)勢。為了驗證這一優(yōu)勢可以帶來實質(zhì)的性能提升,將ACNet網(wǎng)絡(luò)Darknet-53[11]、CSPDarknet[12]、Scaled-CSP[13]以及額外設(shè)計的三組網(wǎng)絡(luò)進行對比,對比細節(jié)可見實驗(1)與實驗(2)。

    2.2 HSV域數(shù)據(jù)增強

    道路圖像在夜晚與白天最明顯的差別在于光照,對比分析訓(xùn)練集與測試集圖像在HSV域中的亮度可知,測試集中所有白天圖像的亮度均值為112.86,與訓(xùn)練集相等;而黑夜圖像亮度均值為63.66。做出測試集中圖像亮度均值歸一化直方圖進行對比,直方圖如圖9所示。

    圖9 測試集圖像亮度均值歸一化直方圖Fig.9 Normalized histogram of mean of image brightness in test set

    均值直方圖如圖9所示,夜晚與白天圖像亮度均值在93.75處區(qū)分最大,即只有8.05%的白天圖像亮度均值小于93.75以及10.38%的夜間圖像亮度均值大于該值。若在訓(xùn)練時將所有圖像的亮度調(diào)整至93.75則可以模擬一個“黃昏”的光照場景,使得訓(xùn)練集圖像光照分布趨近白天與夜晚之間,進而增強模型對于夜間目標的泛化性。具體而言亮度處理在進行推理前首先通過亮度均值判斷所處光照條件,并將其均值調(diào)整至93.75使圖像處于“黃昏”光照場景中。由于在RGB色域中調(diào)整亮度需要先計算圖像亮度再調(diào)整R、G、B取值,而在HSV域中可直接調(diào)整對應(yīng)亮度,因此為了減少計算過程中精度損耗及亮度計算引起的額外耗時,YOLO-DNF將亮度處理并入HSV域與HSV擾動一同進行,統(tǒng)稱為HSV域數(shù)據(jù)增強。

    除減少白天與夜間圖像的亮度差距以外,HSV域數(shù)據(jù)增強還可以削弱車燈、路燈光照過強引起的過曝光效應(yīng)(Overexposure)。從圖9的亮度均值歸一化直方圖中可見,有部分夜間圖像的亮度均值處在105~127.5的區(qū)間內(nèi),這是由夜間行車時車輛燈光以及道路照明過強所致。拍攝于白天的圖像中下車燈不明顯,較少或者不會有過曝光現(xiàn)象發(fā)生,因此在僅含白天圖像的訓(xùn)練集中訓(xùn)練后神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)到的特征多傾向于刻畫完整的車輛或行人;而拍攝于夜間的圖像中車燈的亮度與周圍區(qū)域差別極大,車體形狀被車燈及車燈引起的光暈效應(yīng)破壞,這將導(dǎo)致神經(jīng)網(wǎng)絡(luò)難以擬合夜間的車輛,使得網(wǎng)絡(luò)泛化性較差。本文提出的HSV域亮度增強策略將圖像的亮度均值統(tǒng)一至93.75處,使得亮度較強的夜間圖像亮度降低,從而減輕車燈、路燈過曝光對檢測的干擾。HSV域數(shù)據(jù)增強具體效果如圖10對比所示。

    圖10 HSV域數(shù)據(jù)增強效果對比圖Fig.10 Comparison of HSV domain data enhancement effects

    3 實驗

    本實驗訓(xùn)練和驗證均在SODA10M數(shù)據(jù)集[17]中展開且并未使用其他數(shù)據(jù)集進行預(yù)訓(xùn)練。實驗設(shè)置:每個模型訓(xùn)練207輪次,每批次訓(xùn)練4張圖像,圖像分辨率為864×864(為了充分發(fā)揮兩階段檢測模型的精度優(yōu)勢,F(xiàn)aster-RCNN[9]模型遵循SODA10M論文中設(shè)置的1 920×1 080分辨率進行訓(xùn)練與測試),批次學(xué)習(xí)率為0.000 125,在前10 053步中學(xué)習(xí)率線性增長,于第166、186輪學(xué)習(xí)率衰減一倍。訓(xùn)練中使用SGD優(yōu)化器,動量和權(quán)重衰減為0.9和0.000 5。

    實驗硬件環(huán)境:CPU使用5核Intel?Xeon?Silver 4210R@2.40 GHz,GPU使用NVIDIA GeForce RTX 3090(顯存24 GB),內(nèi)存大小24 GB,計算機系統(tǒng)為Ubuntu 18.04。實驗軟件環(huán)境:編程語言采用Python,深度學(xué)習(xí)框架采用PaddlePaddle,軟件計算平臺使用CUDA 11.2及CUDNN 8.0.5。

    為了驗證本文提出的YOLO-DNF模型性能優(yōu)良以及各項改動合理有效,共設(shè)置了以下4組實驗以作對比:

    (1)僅使用CSP-Block、Arrow-Block卷積模塊搭建兩款主干網(wǎng)絡(luò)All_Arrow以及All_CSP,使用與ACNet相反的卷積模塊順序搭建CA(CSP-Arrow)Net網(wǎng)絡(luò)。All_Arrow、All_CSP以及CANet三種網(wǎng)絡(luò)均與ACNet網(wǎng)絡(luò)保持同樣的堆疊單元數(shù)量以驗證本文提出的ACNet網(wǎng)絡(luò)可在一定程度上平衡計算成本以及特征提取能力。

    (2)固定使用FPN作為目標檢測模型的特征融合層以驗證本文所提出的ACNet主干網(wǎng)絡(luò)相較Darknet[11]、CSPDarknet[12]及Scaled-CSP[13]網(wǎng)絡(luò)具有較低計算成本以及較強的特征提取能力。

    (3)將YOLO-DNF模型與經(jīng)典通用目標檢測模型Faster-RCNN[9]、YOLOV3[11]、YOLOV4[12]、Scaled-YO‐LOv4[13]以及新型車輛與行人專用檢測模型Lite-YO‐LOv3[20]、ResNext50-SSD[21]進行對比以驗證本文所提出的YOLO-DNF模型具有一定的性能優(yōu)勢。

    (4)在實驗(3)中固定每個模型使用的數(shù)據(jù)增強策略、損失函數(shù)、學(xué)習(xí)率變化等訓(xùn)練策略相同,每個模型以是否使用HSV域增強為區(qū)別分別訓(xùn)練、測試兩次以驗證本文所提出的HSV域數(shù)據(jù)增強策略對于模型夜間檢測能力以及泛化性的提升。

    實驗對比的指標包括模型檢測精度mAP以及檢測速度FPS。除了在SODA10M[17]的測試集中測試整體精度,額外將SODA10M[17]的測試集劃分成白天與夜間兩個子集并分別測試以驗證模型對于光照變化的泛化性。

    3.1 主干網(wǎng)絡(luò)實驗

    3.1.1 消融實驗

    為了驗證本文依據(jù)堆疊單元數(shù)量選擇并搭配Arrow-Block與CSP-Block兩種卷積模塊所組建的ACNet網(wǎng)絡(luò)可在一定程度平衡網(wǎng)絡(luò)的計算成本以及特征提取能力,保持P1~P5各層與ACNet相同的堆疊單元數(shù)量分別搭建三款主干網(wǎng)絡(luò)All_Arrow、All_CSP以及CANet以作比較。其中All_Arrow與All_CSP網(wǎng)絡(luò)僅包含卷積模塊Arrow-Block或CSP-Block,CANet與ACNet保持相反的卷積模塊搭配,即在P1~P2層使用CSP-Block并在P3~P5層使用Arrow-Block。四種網(wǎng)絡(luò)的對比實驗結(jié)果如圖11與表4所示。

    圖11 主干網(wǎng)絡(luò)結(jié)構(gòu)消融實驗檢測精度與速度對比圖Fig.11 Comparison of detection accuracy and speed in backbone structure ablation experiment

    表4 主干網(wǎng)絡(luò)結(jié)構(gòu)消融實驗檢測精度與速度對比Table 4 Comparison of detection accuracy and speed in backbone structure ablation experiment

    根據(jù)對比結(jié)果可發(fā)現(xiàn)本文所提出的ACNet網(wǎng)絡(luò)相較All_Arrow、All_CSP以及CANet三種網(wǎng)絡(luò)在檢測精度與速度方面取得了最好的成績。通過網(wǎng)絡(luò)All_Arrow、All_CSP與ACNet的對比可發(fā)現(xiàn)使用單一卷積模塊搭建而成的網(wǎng)絡(luò)無法同時滿足低計算成本與強特征提取能力的要求,而通過搭配Arrow-Block與CSP-Block所組建的ACNet網(wǎng)絡(luò)可以使兩種卷積模塊取長補短。值得注意的是All_CSP網(wǎng)絡(luò)的總體檢測精度與ACNet保持一致,檢測速度有所降低,其中白天精度略高而夜間精度略低,表明當CSP-Block處于淺層區(qū)P1、P2時其劃分與融合的傳導(dǎo)機制在特征提取能力方面收益極低,且會拉升網(wǎng)絡(luò)計算成本,減緩檢測速度。CANet與ACNet網(wǎng)絡(luò)的對比則表明Arrow-Block適合用在堆疊單元較少的淺層區(qū)P1、P2且CSP-Block適合用在堆疊單元較多的深層區(qū)P3~P5。需要再次說明的是在網(wǎng)絡(luò)All_Arrow以及CANet中深層區(qū)P3~P5使用的Arrow-Block模塊并未對輸入特征進行降維,此時256至1 024的高維度卷積計算會消耗大量的計算成本,造成檢測速度的大幅下降。

    3.1.2 對比實驗

    為了驗證本文所提出ACNet網(wǎng)絡(luò)具有低成本、高特征提取能力的優(yōu)勢,固定卷積模型中除主干網(wǎng)絡(luò)以外的其他 部 分,分 別 使 用Darknet[11]、CSPDarknet[12]、Scaled-CSP[13]及ACNet作為模型主干網(wǎng)絡(luò)進行訓(xùn)練和測試。實驗結(jié)果如圖12與表5所示。

    圖12 使用不同主干網(wǎng)絡(luò)的模型檢測精度與速度對比圖Fig.12 Comparison of model detection accuracy and speed using different backbone

    表5 使用不同主干網(wǎng)絡(luò)的模型檢測精度與速度對比Table 5 Comparison of model detection accuracy and speed using different backbone

    根據(jù)對比結(jié)果可發(fā)現(xiàn)本文提出的ACNet在精度與速度兩方面均取得了最好成績,表明了通過分析卷積結(jié)構(gòu)的特征提取能力與計算成本設(shè)計出的ACNet主干網(wǎng)絡(luò)具有較強的學(xué)習(xí)能力以及較低的計算成本。各主干網(wǎng)絡(luò)的檢測效果視覺對比如圖13所示。

    圖13 使用不同主干網(wǎng)絡(luò)的檢測效果圖Fig.13 Results of detection using various backbone networks

    3.2 檢測模型對比實驗

    為了驗證本文所出提的YOLO-DNF模型在目標檢測技術(shù)研究快速發(fā)展的當下新穎且有效,將YOLO-DNF模型與四種流行的通用目標檢測模型Faster-RCNN[10]、YOLOv3[11]、YOLOv4[12]、Scaled-YOLOv4[13]以及兩種新型車輛與行人專用檢測模型Lite-YOLOv3[20]、ResNext50-SSD[21]進行對比比較。

    為了驗證本文所提出的HSV域數(shù)據(jù)增強策略可以改善模型夜間檢測能力,提升模型對于亮度變化的泛化性,所有模型在訓(xùn)練時保持數(shù)據(jù)增強策略、損失函數(shù)、學(xué)習(xí)率變化等訓(xùn)練策略一致,并以是否使用HSV域增強策略為區(qū)別分別訓(xùn)練、測試兩次。比較結(jié)果如圖14與表6所示。

    圖14 不同模型檢測精度與速度對比圖Fig.14 Comparison of detection accuracy and speed of different models

    表6 不同模型檢測精度與速度對比表Table 6 Comparison of detection accuracy and speed of different models

    通過模型之間對比可以得出本文所提出的YOLODNF模型具有較為均衡的表現(xiàn)。在速度方面,YOLODNF模型達到了Faster R-CNN[10]的3.37倍,同時也領(lǐng)先YOLOv3[11]、YOLOv4[12]以 及Scaled-YOLOv4[13]的2~4 frame/s。在精度方面,雖然YOLO-DNF模型總精度落后于Faster R-CNN[10],但是差距集中表現(xiàn)在白天部分的2.2%,而夜間檢測精度達到了最高的27.7%。與一階 段 模 型YOLOv3[11]、YOLOv4[12]以 及Scaled-YO‐LOv4[13]相比,YOLO-DNF在白天與黑夜均取得了精度領(lǐng)先。在與新型車輛與行人專用檢測模型Lite-YO‐LOv3[20]、ResNext50-SSD[21]的對比中可以發(fā)現(xiàn)YOLODNF模型仍處于速度與精度雙優(yōu)的均衡位置。Lite-YOLOv3[20]模型由于使用了輕量化的網(wǎng)絡(luò)而取得了速度的大幅提升,但輕量化的網(wǎng)絡(luò)特征提取能力不足,使得其精度較低。ResNext50-SSD[21]模型雖然使用了結(jié)構(gòu)更為復(fù)雜的網(wǎng)絡(luò),但其檢測框架SSD相較YOLOv3略有劣勢,因此ResNext50-SSD[21]模型在檢測精度與速度方面均略遜本文所提出的YOLO-DNF模型。

    對比同一模型是否使用HSV域數(shù)據(jù)增強策略則可發(fā)現(xiàn)本文所提出的HSV域數(shù)據(jù)增強在損失速度可以忽略不計的情況下提升了模型的夜間檢測精度,增強了模型對于光照條件變化的泛化性。

    由于車輛與行人形狀、面積差異大,模型在檢測時難度不同,為了反應(yīng)模型在差異較大的目標類別之間檢測能力的差距,將視覺特征類似的行人、騎自行車者歸于行人(Pedestrian)類,并將汽車、卡車、公交車、三輪車歸于車輛(Vehicle)類,針對兩類目標分別測試精度。進行比較的模型包括經(jīng)典通用目標檢測模型Faster-RCNN[9]、YOLOV3[11]、YOLOV4[12]、Scaled-YOLOv4[13]以及新型車輛與行人專用檢測模型Lite-YOLOv3[20]、ResNext50-SSD[21],模型訓(xùn)練、測試時都采用了HSV域增強策略。實驗結(jié)果如表7所示。

    表7 不同模型檢測行人類與車輛類目標精度對比表Table 7 Comparison of detection accuracy of different models for pedestrians and vehicles

    根據(jù)表7可知各類模型在檢測行人類目標時精度略低,而檢測車輛類目標時精度略高。這是由兩方面原因?qū)е碌?,一方面是由于行人類目標普遍面積較小,在檢測時容易遺漏;另一方面是樣本不均衡,在訓(xùn)練集中行人類目標僅占27.85%,網(wǎng)絡(luò)對于該類目標學(xué)習(xí)不充分。

    依據(jù)表7可以發(fā)現(xiàn)兩階段檢測模型Faster-RCNN[9]模型在行人類與車輛類目標之間檢測精度差距較小,而ResNext50-SSD[21]模型精度差距較大,這是由于兩階段檢測模型提出大量RoI會重復(fù)檢查小目標,而SSD算法在同一位置上僅推理一次。以一階段目標檢測YOLO算法為基礎(chǔ)的YOLOV3[11]、YOLOV4[12]、Scaled-YOLOv4[13]、YOLO-DNF及Lite-YOLOv3[20]模型在行人類與車輛類目標之間檢測精度也有差距,但Lite-YOLOv3[20]、YOLOV3[11]模型的差距要大于YOLO-DNF模型,這反應(yīng)了YOLO-DNF模型具有較強的特征提取能力。而模型YOLOV4[12]、Scaled-YOLOv4[13]在行人類與車輛類目標之間檢測精度的差距小于YOLO-DNF,這是由于其特征融合層的改進增強了多尺度檢測的能力,為YOLODNF模型后續(xù)的改進指明了方向。

    YOLO-DNF模型與其他檢測模型的檢測效果對比圖如圖15所示。

    圖15 不同模型的檢測效果圖Fig.15 Detection effects of different models

    如圖15所示,在白天光照條件下,兩階段檢測模型Faster-RCNN[9]檢測出了原圖中的所有目標,本文提出的YOLO-DNF模型僅遺漏一個“自行車”小目標,YO‐LOV3[11]、YOLOV4[12]、Scaled-YOLOv4[13]以 及 新 型 車 輛與行人專用檢測模型Lite-YOLOv3[20]、ResNext50-SSD[21],均存在不同程度的目標遺漏。在夜間光照條件下,通過對比同模型的兩次檢測結(jié)果可發(fā)現(xiàn):在訓(xùn)練中使用本文提出的HSV域數(shù)據(jù)增強策略后模型的檢測效果有所提升,其中該策略對于Faster-RCNN[9]模型的提升較為明顯,使該模型檢測出的目標增加了4個。使用了HSV域數(shù)據(jù)增強策略后的YOLO-DNF模型檢測效果最好,檢測出了原圖中的所有目標,其余檢測模型仍存在不同程度的目標遺漏。模型的檢測效果與圖14及表6所示的模型檢測精度對比數(shù)據(jù)相一致。

    4 結(jié)束語

    為了服務(wù)車輛實際駕駛場景的目標檢測需求,本文通過對當下主流目標檢測技術(shù)的研究,提出了新型目標檢測模型YOLO-DNF,搭建了具有低計算成本、高特征提取能力優(yōu)勢的主干網(wǎng)絡(luò)ACNet網(wǎng)絡(luò),并在卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和檢測中使用HSV域數(shù)據(jù)增強策略提升模型的夜間檢測能力,大大增強了網(wǎng)絡(luò)的泛化性。最后,YOLO-DNF模型在SODA10M數(shù)據(jù)集中以24.36 frame/s圖像的檢測幀率達到32.8%的檢測精度,其中夜間檢測精度達到了27.7%,檢測精度與速度得到明顯提升,應(yīng)用場景也進一步擴大。

    后續(xù)研究將進一步依據(jù)YOLO-DNF模型繼續(xù)優(yōu)化,引入半監(jiān)督訓(xùn)練來提升模型的泛化性,設(shè)計一種基于車載設(shè)備的高性能輔助駕駛技術(shù)。

    猜你喜歡
    計算成本卷積精度
    王瑛的詩(三首)
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    春與人間相遇
    中外文摘(2021年13期)2021-08-06 09:30:04
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于DSPIC33F微處理器的采集精度的提高
    電子制作(2018年11期)2018-08-04 03:25:38
    基于傅里葉域卷積表示的目標跟蹤算法
    GPS/GLONASS/BDS組合PPP精度分析
    圖解各個行業(yè)的成本真相
    記者觀察(2015年3期)2015-04-29 00:44:03
    改進的Goldschmidt雙精度浮點除法器
    一種基于卷積神經(jīng)網(wǎng)絡(luò)的性別識別方法
    午夜免费观看性视频| 欧美高清成人免费视频www| 成人特级av手机在线观看| 亚洲成人av在线免费| 欧美激情在线99| 久久精品久久久久久噜噜老黄| 成人美女网站在线观看视频| 国产片特级美女逼逼视频| 男女边吃奶边做爰视频| 亚洲成人精品中文字幕电影| 91狼人影院| 直男gayav资源| 毛片女人毛片| 成人漫画全彩无遮挡| 五月伊人婷婷丁香| 亚洲电影在线观看av| 蜜桃久久精品国产亚洲av| 亚洲婷婷狠狠爱综合网| 亚洲av成人精品一二三区| 少妇丰满av| 男人舔女人下体高潮全视频| 日韩伦理黄色片| 在线观看一区二区三区| 日韩av不卡免费在线播放| 精品国产一区二区三区久久久樱花 | 亚洲精品第二区| 九色成人免费人妻av| 亚洲av成人精品一二三区| 精华霜和精华液先用哪个| 亚洲国产精品sss在线观看| 国产av在哪里看| 久久久久久久久久人人人人人人| 看十八女毛片水多多多| 久久久久久久久久久免费av| 天天一区二区日本电影三级| 不卡视频在线观看欧美| 久久精品国产亚洲av涩爱| kizo精华| 免费看不卡的av| 久久这里有精品视频免费| 一级毛片aaaaaa免费看小| 亚洲在线自拍视频| av黄色大香蕉| 在线观看人妻少妇| 91久久精品国产一区二区成人| 综合色av麻豆| 久久久午夜欧美精品| 青春草视频在线免费观看| 韩国高清视频一区二区三区| 能在线免费看毛片的网站| 黄片wwwwww| freevideosex欧美| 99久久九九国产精品国产免费| 日本一本二区三区精品| 高清在线视频一区二区三区| 亚洲久久久久久中文字幕| 国产在线一区二区三区精| 国产亚洲av片在线观看秒播厂 | 赤兔流量卡办理| 国产又色又爽无遮挡免| 91精品一卡2卡3卡4卡| 蜜桃久久精品国产亚洲av| 精品欧美国产一区二区三| 精品一区二区免费观看| 亚洲成色77777| 日日啪夜夜爽| 51国产日韩欧美| 久久97久久精品| 国产成人精品婷婷| 天天躁夜夜躁狠狠久久av| 欧美激情国产日韩精品一区| 中文在线观看免费www的网站| 五月天丁香电影| av一本久久久久| 我的女老师完整版在线观看| 亚洲av男天堂| 国产精品一区二区三区四区久久| 九色成人免费人妻av| 综合色av麻豆| 一夜夜www| 国产成人a∨麻豆精品| 国产精品女同一区二区软件| 哪个播放器可以免费观看大片| 亚洲成人av在线免费| 在线天堂最新版资源| 免费观看av网站的网址| ponron亚洲| 伦理电影大哥的女人| 秋霞伦理黄片| 丝瓜视频免费看黄片| 国产老妇伦熟女老妇高清| 性色avwww在线观看| 最后的刺客免费高清国语| 久久久久网色| 青春草国产在线视频| 国产单亲对白刺激| 如何舔出高潮| 又爽又黄a免费视频| 国产成人精品一,二区| 日日啪夜夜爽| av女优亚洲男人天堂| 久久久久久国产a免费观看| 男人舔奶头视频| av播播在线观看一区| 国产精品99久久久久久久久| 成人亚洲精品av一区二区| 51国产日韩欧美| 少妇人妻精品综合一区二区| 久久久久精品性色| 成人鲁丝片一二三区免费| 国产久久久一区二区三区| 成人综合一区亚洲| 国产免费又黄又爽又色| 日韩,欧美,国产一区二区三区| 少妇高潮的动态图| 永久网站在线| 青春草亚洲视频在线观看| 视频中文字幕在线观看| 日韩av在线大香蕉| 午夜老司机福利剧场| 国产片特级美女逼逼视频| 国产成人aa在线观看| 一级黄片播放器| 女的被弄到高潮叫床怎么办| 青春草国产在线视频| 免费在线观看成人毛片| 午夜免费激情av| 超碰av人人做人人爽久久| 国产一区二区亚洲精品在线观看| 国产男人的电影天堂91| 最近最新中文字幕免费大全7| 精品国产三级普通话版| 欧美日韩精品成人综合77777| 精品人妻视频免费看| 日韩av在线免费看完整版不卡| 大陆偷拍与自拍| 亚洲精华国产精华液的使用体验| 国产成人午夜福利电影在线观看| 欧美97在线视频| 亚洲成人一二三区av| 晚上一个人看的免费电影| 内地一区二区视频在线| 精品一区二区三卡| 亚洲在久久综合| 日本-黄色视频高清免费观看| 久久99蜜桃精品久久| www.色视频.com| 嫩草影院精品99| 婷婷色综合www| 99热全是精品| 色视频www国产| 色视频www国产| 亚洲精品中文字幕在线视频 | 亚洲精品亚洲一区二区| 久久久久精品久久久久真实原创| 午夜激情久久久久久久| 一区二区三区四区激情视频| 成人av在线播放网站| 99热这里只有精品一区| 啦啦啦韩国在线观看视频| 国产精品.久久久| 2021天堂中文幕一二区在线观| 免费不卡的大黄色大毛片视频在线观看 | 色播亚洲综合网| 久久久久性生活片| 最近最新中文字幕大全电影3| 欧美+日韩+精品| 免费黄频网站在线观看国产| 久久精品熟女亚洲av麻豆精品 | 欧美日韩综合久久久久久| 国产又色又爽无遮挡免| 久久鲁丝午夜福利片| 波多野结衣巨乳人妻| 亚洲在线自拍视频| 成人欧美大片| 白带黄色成豆腐渣| 欧美人与善性xxx| 一区二区三区高清视频在线| 99久久精品热视频| 午夜亚洲福利在线播放| 五月天丁香电影| 99久久人妻综合| 欧美高清成人免费视频www| 夜夜看夜夜爽夜夜摸| 在线观看一区二区三区| 一级二级三级毛片免费看| 成人av在线播放网站| 国产乱人偷精品视频| a级一级毛片免费在线观看| 国产伦理片在线播放av一区| av网站免费在线观看视频 | 午夜日本视频在线| 大陆偷拍与自拍| 欧美xxⅹ黑人| 免费av不卡在线播放| 欧美一区二区亚洲| 免费不卡的大黄色大毛片视频在线观看 | 在线免费观看不下载黄p国产| 黄片wwwwww| 亚洲精品视频女| 成人毛片60女人毛片免费| 精品熟女少妇av免费看| 国内少妇人妻偷人精品xxx网站| 国产精品一区二区三区四区免费观看| 赤兔流量卡办理| 91狼人影院| 国产高清不卡午夜福利| 十八禁网站网址无遮挡 | 午夜精品在线福利| 嫩草影院精品99| 亚洲最大成人av| 淫秽高清视频在线观看| 亚洲av福利一区| 99热网站在线观看| 高清日韩中文字幕在线| 美女国产视频在线观看| 精品久久久久久久久av| 一级a做视频免费观看| 777米奇影视久久| 亚洲av电影在线观看一区二区三区 | 欧美性感艳星| 日本爱情动作片www.在线观看| 91av网一区二区| 亚州av有码| 成人毛片a级毛片在线播放| 波多野结衣巨乳人妻| 久久亚洲国产成人精品v| 国产69精品久久久久777片| 欧美zozozo另类| 国国产精品蜜臀av免费| 色哟哟·www| 日韩av免费高清视频| 亚洲综合精品二区| 国产久久久一区二区三区| 欧美一区二区亚洲| 欧美日本视频| 联通29元200g的流量卡| 狂野欧美白嫩少妇大欣赏| 午夜激情欧美在线| 欧美日韩亚洲高清精品| 丝瓜视频免费看黄片| 成人欧美大片| 成年版毛片免费区| 夜夜看夜夜爽夜夜摸| 亚洲真实伦在线观看| 国产极品天堂在线| 2022亚洲国产成人精品| 精品人妻视频免费看| 久久久久久久久久黄片| 3wmmmm亚洲av在线观看| 欧美日韩视频高清一区二区三区二| 国模一区二区三区四区视频| 亚洲欧美中文字幕日韩二区| 国产在视频线在精品| 可以在线观看毛片的网站| 中文资源天堂在线| 国产黄片美女视频| 日韩精品有码人妻一区| 久久久久久久久大av| 高清av免费在线| 久久久精品94久久精品| 精品一区二区三区视频在线| 女人被狂操c到高潮| 亚洲精品国产av蜜桃| videos熟女内射| 亚洲在线自拍视频| 熟妇人妻久久中文字幕3abv| 黄色一级大片看看| 亚洲av日韩在线播放| 色综合色国产| 国产不卡一卡二| 床上黄色一级片| 亚洲国产欧美在线一区| 精品久久久久久久末码| 在线免费观看不下载黄p国产| 女的被弄到高潮叫床怎么办| 夜夜爽夜夜爽视频| 欧美日韩一区二区视频在线观看视频在线 | 午夜激情福利司机影院| 亚洲欧洲日产国产| 亚洲成人精品中文字幕电影| 欧美最新免费一区二区三区| 全区人妻精品视频| av国产免费在线观看| 欧美性猛交╳xxx乱大交人| 亚洲国产最新在线播放| 中文乱码字字幕精品一区二区三区 | 国产精品国产三级专区第一集| 日韩精品青青久久久久久| 日产精品乱码卡一卡2卡三| 国产极品天堂在线| 乱人视频在线观看| 久久国内精品自在自线图片| 欧美成人午夜免费资源| 国产色爽女视频免费观看| 国产伦理片在线播放av一区| 亚洲精品久久久久久婷婷小说| 亚洲精品日韩av片在线观看| 国产精品女同一区二区软件| 在现免费观看毛片| 欧美3d第一页| 搞女人的毛片| 精品国产露脸久久av麻豆 | 国产免费一级a男人的天堂| 日本与韩国留学比较| 久久精品久久久久久噜噜老黄| 黑人高潮一二区| 日日撸夜夜添| 美女xxoo啪啪120秒动态图| 一级片'在线观看视频| 性插视频无遮挡在线免费观看| 久久久精品欧美日韩精品| 亚洲综合色惰| 听说在线观看完整版免费高清| 色综合站精品国产| 亚洲内射少妇av| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 色吧在线观看| av免费在线看不卡| 搡老乐熟女国产| 欧美成人a在线观看| 韩国av在线不卡| 99热这里只有是精品50| 亚洲av日韩在线播放| 婷婷六月久久综合丁香| 偷拍熟女少妇极品色| 亚洲av免费高清在线观看| 中文字幕免费在线视频6| 国产大屁股一区二区在线视频| 美女被艹到高潮喷水动态| 亚洲色图av天堂| 免费高清在线观看视频在线观看| 精品人妻视频免费看| 观看美女的网站| 最近的中文字幕免费完整| 成人鲁丝片一二三区免费| 成人亚洲精品av一区二区| 国产在线一区二区三区精| 日本熟妇午夜| 亚洲精品亚洲一区二区| 亚洲av免费在线观看| 亚洲欧美清纯卡通| 高清在线视频一区二区三区| 少妇高潮的动态图| av国产免费在线观看| 亚洲自偷自拍三级| 国产视频首页在线观看| 性色avwww在线观看| 97热精品久久久久久| 97热精品久久久久久| 久久久久精品性色| 韩国高清视频一区二区三区| 欧美成人午夜免费资源| 成人综合一区亚洲| 亚洲性久久影院| 三级国产精品欧美在线观看| 成人国产麻豆网| 欧美性感艳星| 日本欧美国产在线视频| 国产精品久久久久久久久免| 人人妻人人看人人澡| 黄色欧美视频在线观看| 精品久久久久久久人妻蜜臀av| 日本熟妇午夜| 三级国产精品欧美在线观看| 久久精品夜夜夜夜夜久久蜜豆| 一级二级三级毛片免费看| 国产高清国产精品国产三级 | 在线免费观看不下载黄p国产| 亚洲图色成人| 日日摸夜夜添夜夜添av毛片| 天堂中文最新版在线下载 | 少妇丰满av| 成人特级av手机在线观看| 99久国产av精品国产电影| 一夜夜www| 亚洲国产精品成人综合色| 深爱激情五月婷婷| 色吧在线观看| 国产成人91sexporn| 亚洲av福利一区| 一级毛片电影观看| 欧美一区二区亚洲| 毛片女人毛片| 51国产日韩欧美| 三级国产精品片| 熟妇人妻不卡中文字幕| 久久久欧美国产精品| 九九在线视频观看精品| 精华霜和精华液先用哪个| 日本猛色少妇xxxxx猛交久久| 久久97久久精品| 成人性生交大片免费视频hd| 久久久久久久亚洲中文字幕| 精品少妇黑人巨大在线播放| 日韩av在线免费看完整版不卡| 日日撸夜夜添| 超碰av人人做人人爽久久| 麻豆av噜噜一区二区三区| 免费少妇av软件| 伊人久久精品亚洲午夜| 亚洲av日韩在线播放| 国产伦一二天堂av在线观看| 国产成人freesex在线| av天堂中文字幕网| 午夜福利在线观看免费完整高清在| 亚洲欧美精品专区久久| 日韩欧美三级三区| 亚洲av一区综合| 欧美性感艳星| 午夜精品在线福利| 亚洲人成网站在线播| 久久这里有精品视频免费| 天天一区二区日本电影三级| 成人午夜精彩视频在线观看| 国产又色又爽无遮挡免| 免费大片黄手机在线观看| 精品不卡国产一区二区三区| 亚洲av国产av综合av卡| 午夜激情久久久久久久| 偷拍熟女少妇极品色| 成人av在线播放网站| 尤物成人国产欧美一区二区三区| 波野结衣二区三区在线| 草草在线视频免费看| 一个人观看的视频www高清免费观看| 欧美日韩亚洲高清精品| 精品久久久久久久人妻蜜臀av| 亚洲av二区三区四区| 国产 一区精品| 亚洲av免费高清在线观看| 日韩,欧美,国产一区二区三区| 国产午夜福利久久久久久| 少妇被粗大猛烈的视频| 一级毛片久久久久久久久女| 亚洲av福利一区| 禁无遮挡网站| 国产黄色视频一区二区在线观看| 午夜久久久久精精品| 国产精品一区二区在线观看99 | 伦理电影大哥的女人| 夫妻午夜视频| 男人爽女人下面视频在线观看| 精品亚洲乱码少妇综合久久| 99re6热这里在线精品视频| 亚洲欧美日韩无卡精品| 精品一区在线观看国产| 国产在视频线精品| 别揉我奶头 嗯啊视频| 网址你懂的国产日韩在线| 精华霜和精华液先用哪个| 一边亲一边摸免费视频| 亚洲精品色激情综合| or卡值多少钱| 国产亚洲av嫩草精品影院| 国产伦精品一区二区三区四那| 国产成人一区二区在线| 精品国产一区二区三区久久久樱花 | 日本色播在线视频| 国产亚洲午夜精品一区二区久久 | 中文字幕av成人在线电影| 亚洲内射少妇av| 在线免费十八禁| 日韩电影二区| 国产又色又爽无遮挡免| freevideosex欧美| 淫秽高清视频在线观看| 三级国产精品片| 亚洲性久久影院| 少妇人妻一区二区三区视频| 亚洲av电影在线观看一区二区三区 | 国产精品一区www在线观看| 一区二区三区免费毛片| 插阴视频在线观看视频| 亚洲精品第二区| 国产高清三级在线| 夫妻性生交免费视频一级片| 亚洲精品日韩av片在线观看| 色哟哟·www| 国产亚洲av嫩草精品影院| 日韩欧美国产在线观看| 尾随美女入室| 亚洲欧美精品专区久久| 黄片wwwwww| 亚洲精品日韩av片在线观看| 2018国产大陆天天弄谢| videossex国产| 丝瓜视频免费看黄片| 人人妻人人看人人澡| 人人妻人人澡人人爽人人夜夜 | 欧美高清成人免费视频www| 人妻夜夜爽99麻豆av| 一级a做视频免费观看| 日韩 亚洲 欧美在线| 亚洲av不卡在线观看| 久久久久免费精品人妻一区二区| 蜜臀久久99精品久久宅男| 美女xxoo啪啪120秒动态图| 三级毛片av免费| 国产精品不卡视频一区二区| 久久99蜜桃精品久久| 国产精品女同一区二区软件| 国产单亲对白刺激| av天堂中文字幕网| 亚洲一级一片aⅴ在线观看| 日本欧美国产在线视频| a级毛色黄片| 成人午夜精彩视频在线观看| 熟妇人妻久久中文字幕3abv| h日本视频在线播放| 国产 一区精品| 色吧在线观看| 男插女下体视频免费在线播放| 国产乱人偷精品视频| 国产高潮美女av| 国产精品一及| 午夜老司机福利剧场| 国产高清三级在线| 亚洲成色77777| 欧美bdsm另类| 舔av片在线| 欧美日韩亚洲高清精品| 美女被艹到高潮喷水动态| 国内精品美女久久久久久| 久久精品综合一区二区三区| 韩国高清视频一区二区三区| 亚洲欧美日韩东京热| 亚洲精品日韩av片在线观看| 狂野欧美激情性xxxx在线观看| 九九爱精品视频在线观看| 寂寞人妻少妇视频99o| 爱豆传媒免费全集在线观看| 精品国内亚洲2022精品成人| 国产女主播在线喷水免费视频网站 | 一区二区三区免费毛片| 真实男女啪啪啪动态图| 午夜福利高清视频| 亚洲av男天堂| 午夜福利视频1000在线观看| 一级爰片在线观看| 免费观看在线日韩| 亚洲av男天堂| 99久国产av精品国产电影| 亚洲在线观看片| 国产高潮美女av| 久久久精品欧美日韩精品| 日本黄色片子视频| 人妻制服诱惑在线中文字幕| 日本午夜av视频| 午夜老司机福利剧场| 欧美丝袜亚洲另类| 亚洲精品中文字幕在线视频 | 噜噜噜噜噜久久久久久91| 久久精品夜色国产| 免费大片黄手机在线观看| 日本色播在线视频| 建设人人有责人人尽责人人享有的 | 色综合色国产| 久久午夜福利片| 精品国产一区二区三区久久久樱花 | 久久久色成人| 一区二区三区高清视频在线| 亚洲欧美一区二区三区国产| 日本-黄色视频高清免费观看| 一级毛片我不卡| 国产白丝娇喘喷水9色精品| 日韩成人av中文字幕在线观看| 亚洲精品一二三| 日本猛色少妇xxxxx猛交久久| 十八禁国产超污无遮挡网站| 黄色配什么色好看| 亚洲自偷自拍三级| 97精品久久久久久久久久精品| 国产成人freesex在线| 一级毛片 在线播放| 简卡轻食公司| 亚洲在久久综合| 中文精品一卡2卡3卡4更新| 三级国产精品片| 国产又色又爽无遮挡免| 中文字幕av成人在线电影| 国产黄色小视频在线观看| 老师上课跳d突然被开到最大视频| 男女边摸边吃奶| 久久97久久精品| 丝袜喷水一区| 亚洲av中文av极速乱| 在线观看免费高清a一片| 精品国内亚洲2022精品成人| 在线观看av片永久免费下载| 激情 狠狠 欧美| 国产在视频线在精品| 国产伦在线观看视频一区| 一级毛片 在线播放| 国产亚洲av嫩草精品影院| 午夜视频国产福利| 亚洲精品,欧美精品| 国产免费视频播放在线视频 | 我要看日韩黄色一级片| 美女高潮的动态| 国产精品.久久久| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 国内精品美女久久久久久| 欧美一区二区亚洲| 老师上课跳d突然被开到最大视频| 看十八女毛片水多多多| 亚洲av成人精品一二三区| 乱系列少妇在线播放| 国产精品一区二区三区四区免费观看| 精品午夜福利在线看| 久久6这里有精品| 国产69精品久久久久777片| 日韩国内少妇激情av| 久久99精品国语久久久| 一区二区三区免费毛片|