• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    噪聲指導(dǎo)下過濾光照風(fēng)格實(shí)現(xiàn)低光照?qǐng)鼍暗恼Z(yǔ)義分割

    2024-02-18 18:46:31羅俊宣士斌劉家林
    關(guān)鍵詞:語(yǔ)義分割注意力機(jī)制

    羅俊 宣士斌 劉家林

    摘 要:低光照?qǐng)D像分割一直是圖像分割的難點(diǎn),低光照引起的低對(duì)比度和高模糊性使得這類圖像分割比一般圖像分割困難很多。為了提高低光照環(huán)境下語(yǔ)義分割的準(zhǔn)確度,根據(jù)低光照?qǐng)D像自身特征,提出一種噪聲指導(dǎo)下過濾光照風(fēng)格的低光照?qǐng)鼍罢Z(yǔ)義分割模型(SFIS)。該模型綜合利用信噪比作為先驗(yàn)知識(shí),通過指導(dǎo)長(zhǎng)距離分支中的自注意力操作、長(zhǎng)/短距離分支的特征融合,對(duì)圖像中不同噪聲的區(qū)域采用不同距離的交互,并設(shè)計(jì)了一個(gè)光照過濾器,該模塊從圖像的整體風(fēng)格中進(jìn)一步提取光照風(fēng)格信息。通過交替訓(xùn)練光照過濾器與語(yǔ)義分割模型,逐步減小不同光照條件之間的光照風(fēng)格差距,從而使分割網(wǎng)絡(luò)學(xué)習(xí)到光照不變特征。提出的模型在數(shù)據(jù)集LLRGBD上優(yōu)于之前的工作,取得了較好的結(jié)果。在真實(shí)數(shù)據(jù)集LLRGBD-real上的mIoU達(dá)到66.8%,說明所提出的長(zhǎng)短距離分支模塊和光照過濾器模塊能夠有效提升模型在低光照環(huán)境下的語(yǔ)義分割能力。

    關(guān)鍵詞:語(yǔ)義分割;低光照;注意力機(jī)制;域自適應(yīng)

    中圖分類號(hào):TP391?? 文獻(xiàn)標(biāo)志碼:A?? 文章編號(hào):1001-3695(2024)01-050-0314-07

    doi:10.19734/j.issn.1001-3695.2023.06.0285

    Filtering illumination style under guidance of noise to achieve semantic segmentation of low-light scenes

    Abstract:Low-light image segmentation is always the difficulty of image segmentation.The low contrast and high fuzziness caused by low light make this kind of image segmentation much more difficult than general image segmentation.In order to improve the accuracy of semantic segmentation in low light environment,this paper proposed a semantic segmentation model of low light scene with filtering light style under noise guidance (SFIS) according to the characteristics of low-light image.The model comprehensively used signal-to-noise ratio as prior knowledge,and adopted different distance interaction for different noise regions in the image by guiding the self-attention operation in the long distance branch and the feature fusion of long/short distance branches.This paper also further designed an illumination filter,which was a module that further extracted the illumination style information from the overall style of the image.By alternately training the illumination filter and the semantic segmentation model,the lighting style gap between different lighting conditions was gradually reduced,so that the segmentation network could learn illumination invariant features.The proposed model outperforms the previous work on the dataset LLRGBD and achieves the best results.The mIoU on the real dataset LLRGBD-real reaches 66.8%,it shows that the proposed long and short distance branch module and the illumination filter module can effectively improve the semantic segmentation ability of the model in low light environment.

    Key words:semantic segmentation;low light;attention mechanism;domain adaptation

    0 引言

    語(yǔ)義分割作為計(jì)算機(jī)視覺中的一項(xiàng)重要分支,其目的是根據(jù)目標(biāo)鄰域特征,針對(duì)每個(gè)像素進(jìn)行分類,最終得到一個(gè)具有像素級(jí)的語(yǔ)義標(biāo)注圖像。大多數(shù)網(wǎng)絡(luò)模型主要是在良好的環(huán)境下提高精度,并沒有考慮到不利的環(huán)境條件,比如過度曝光和曝光不足、噪聲等導(dǎo)致的圖像退化?,F(xiàn)有的語(yǔ)義分割模型主要是在光照良好的白天圖像上進(jìn)行訓(xùn)練,由于網(wǎng)絡(luò)模型受訓(xùn)練集分布的限制,往往對(duì)光照的變化不具有魯棒性。低光照?qǐng)D像會(huì)產(chǎn)生較多噪聲,而且對(duì)低光照?qǐng)D像的標(biāo)注也較為困難,現(xiàn)有模型的性能主要受限于低曝光和缺乏真實(shí)標(biāo)簽。本文專注于低光照環(huán)境下的語(yǔ)義分割。

    LISU模型[1] 先利用分解網(wǎng)絡(luò)將低光照?qǐng)D像分解為光照分量和反射分量,然后利用聯(lián)合學(xué)習(xí)網(wǎng)絡(luò)同時(shí)學(xué)習(xí)恢復(fù)反射信息和分割反射圖,最終實(shí)現(xiàn)低光照室內(nèi)場(chǎng)景下的語(yǔ)義分割。付延年[2]提出了可見光與紅外融合圖像的語(yǔ)義分割方案,從而改善了夜間場(chǎng)景的分割精度。另一方面,針對(duì)低光照?qǐng)D像的恢復(fù)問題,大多數(shù)方法主要是利用神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)操縱顏色、色調(diào)和對(duì)比度等來增強(qiáng)低光照?qǐng)D像,而最近的一些工作進(jìn)一步考慮了低光照?qǐng)D像中的噪聲。Liu等人[3]提出了RUAS模型,以Retinex理論為基礎(chǔ),建立了反映低光照?qǐng)D像內(nèi)在曝光不足結(jié)構(gòu)的模型。Xu等人[4] 提出了一種基于頻率的低光照?qǐng)D像分解與增強(qiáng)模型。Xu等人[5]提出了利用噪聲自適應(yīng)地考慮低光照?qǐng)D像中的不同區(qū)域,以實(shí)現(xiàn)空間變化增強(qiáng)。但簡(jiǎn)單地將現(xiàn)有分割模型的前端加一個(gè)低光照增強(qiáng)網(wǎng)絡(luò),并不總能提高低光照?qǐng)D像分割網(wǎng)絡(luò)的模型精度,而且還會(huì)帶來更多的計(jì)算和內(nèi)存消耗。

    為了提高分割模型對(duì)光照變化的魯棒性,也有許多域適應(yīng)方法被提出,以使白天訓(xùn)練的模型適應(yīng)夜間,而無須夜間域中的真實(shí)標(biāo)簽。在模型MGCDA[6]與DANNet[7]中應(yīng)用圖像遷移網(wǎng)絡(luò)來風(fēng)格化白天或夜間的圖像并生成合成數(shù)據(jù)集,然而,風(fēng)格遷移網(wǎng)絡(luò)并不能充分利用分割任務(wù)的語(yǔ)義嵌入,也增加了推理時(shí)間。Dai等人[8]提出利用黃昏圖像作為中間目標(biāo)域,將白天場(chǎng)景上訓(xùn)練的語(yǔ)義模型漸進(jìn)地適應(yīng)夜間場(chǎng)景。這些方法不僅需要額外的訓(xùn)練數(shù)據(jù),而且訓(xùn)練過程復(fù)雜[9]。Wang等人[10]提出了域自適應(yīng)方法FADA,通過學(xué)習(xí)域不變特征來實(shí)現(xiàn)特征級(jí)自適應(yīng),將鑒別器與分割模型一起訓(xùn)練,以便鑒別器最大化源域和目標(biāo)域之間的差異,而分割模型學(xué)習(xí)最小化差異。Isobe等人[11]提出了一個(gè)協(xié)作學(xué)習(xí)框架來實(shí)現(xiàn)無監(jiān)督的多目標(biāo)域適應(yīng),將所有其他域都轉(zhuǎn)換為當(dāng)前目標(biāo)域的風(fēng)格以進(jìn)行進(jìn)一步訓(xùn)練。張桂梅等人[12]提出SG-GAN方法對(duì)虛擬數(shù)據(jù)集GTA5進(jìn)行預(yù)處理來代替原有數(shù)據(jù)集。Lee等人[13]提出了FIFO模型,將圖像的霧條件視為其霧風(fēng)格,學(xué)習(xí)霧不變特征的霧天場(chǎng)景分割模型。大多數(shù)現(xiàn)有的低光照語(yǔ)義分割模型往往忽略了高噪聲區(qū)域?qū)δP托阅茉斐傻牟焕绊?。另一個(gè)存在的問題是,只有在理想情況下,風(fēng)格才獨(dú)立于其內(nèi)容,如果直接更改圖像的整體風(fēng)格,會(huì)使圖像的內(nèi)容信息產(chǎn)生部分損失。

    針對(duì)上述問題,本文提出了一種新的域自適應(yīng)方法。因?yàn)榈凸庹請(qǐng)D像的不同區(qū)域中的特征差距較大,低信噪比區(qū)域的局部信息往往已經(jīng)嚴(yán)重丟失,而高信噪比區(qū)域中仍然可以具有合理的特征信息,所以需要自適應(yīng)地考慮低光照?qǐng)D像中的不同區(qū)域。為了實(shí)現(xiàn)這種長(zhǎng)、短距離的自適應(yīng),本文在特征提取器中設(shè)計(jì)了兩個(gè)分支操作,長(zhǎng)、短距離分支分別基于Transformer結(jié)構(gòu)[14]和卷積殘差塊[15],將信噪比圖作為一種先驗(yàn)知識(shí),從而指導(dǎo)這兩個(gè)分支的特征融合。另一方面,為了減小圖像內(nèi)容信息上的損失,本文設(shè)計(jì)了一種可學(xué)習(xí)的光照過濾器,根據(jù)特征圖所計(jì)算的Gram矩陣作為輸入,嘗試從圖像的整體風(fēng)格中進(jìn)一步提取與光照風(fēng)格相關(guān)的信息,學(xué)習(xí)將不同光照條件的信息區(qū)分開。語(yǔ)義分割模型在訓(xùn)練過程中縮小不同光照風(fēng)格信息的差距,最終得到語(yǔ)義分割網(wǎng)絡(luò)的光照不變特征。本文的貢獻(xiàn)可以總結(jié)如下:a)在分割網(wǎng)絡(luò)的淺層特征中設(shè)計(jì)了長(zhǎng)、短距離分支來自適應(yīng)地考慮低光照?qǐng)D像中的不同區(qū)域,并利用信噪比圖進(jìn)一步修改了自注意力操作;b)設(shè)計(jì)了一個(gè)光照過濾器,用于低光照?qǐng)D像的語(yǔ)義分割;c)提出了一種新的域自適應(yīng)框架,在LLRGBD數(shù)據(jù)集上的實(shí)驗(yàn)表明,該框架優(yōu)于現(xiàn)有方法,取得了最好的分割效果。

    1 相關(guān)概念

    1.1 低光照?qǐng)D像的語(yǔ)義分割

    針對(duì)真實(shí)低光照室內(nèi)場(chǎng)景的語(yǔ)義分割問題,Zhang等人[1]提出了一種級(jí)聯(lián)框架LISU,用于弱光室內(nèi)場(chǎng)景理解。根據(jù)Retinex理論研究了顏色恒常性,并進(jìn)一步發(fā)展為解決圖像的固有分解問題。如圖1所示[1],框架由兩部分組成:a)無監(jiān)督分解網(wǎng)絡(luò)LISU-decomp,將RGB圖像分解為相應(yīng)的光照?qǐng)D和粗反射圖;b)編碼器-解碼器網(wǎng)絡(luò)LISU-joint,以多任務(wù)方式學(xué)習(xí)反射圖的恢復(fù)和語(yǔ)義分割。將來自兩個(gè)任務(wù)的特征圖融合在一起,以進(jìn)行更緊密的聯(lián)合學(xué)習(xí)。

    采用級(jí)聯(lián)結(jié)構(gòu)的LISU網(wǎng)絡(luò)模型,其語(yǔ)義分割結(jié)果嚴(yán)重依賴于分解網(wǎng)絡(luò)的效果,而且同時(shí)學(xué)習(xí)恢復(fù)反射信息和分割反射圖加重了特征提取器的負(fù)擔(dān)。LISU也沒有考慮到低光照環(huán)境下噪聲的影響。圖2[1]顯示了LISU的錯(cuò)誤實(shí)例,其中第一行是反光材料造成的白點(diǎn),第二行顯示了邊界上的故障分割。(a)為輸入的低照度圖像;(b)為L(zhǎng)ISU-decomp輸出的反射圖;(c)和(d)分別為L(zhǎng)ISU-joint輸出的恢復(fù)反射圖和分割圖;(e)是分割標(biāo)簽。紅色矩形表示感興趣的區(qū)域(參見電子版)。如圖2所示,即使是LISU恢復(fù)后的反射圖依然還有不小的噪聲,而且由于光照不均勻,部分反射材料在局部圖像中會(huì)引起過度曝光,此時(shí)圖像部分的局部信息丟失嚴(yán)重。由于局部信息的失真,在可見度較低區(qū)域的邊緣上甚至還可能出現(xiàn)分割故障。

    1.2 風(fēng)格遷移

    風(fēng)格遷移被用于研究圖像內(nèi)容以外的風(fēng)格。文獻(xiàn)[16]的研究表明,特征圖所映射的Gram矩陣可以作為圖像風(fēng)格的表示,并能夠通過近似對(duì)應(yīng)的Gram矩陣將圖像的風(fēng)格遷移到另外一張圖像上。Luan等人[17]提出的攝影風(fēng)格轉(zhuǎn)換的深度學(xué)習(xí)方法也進(jìn)一步證明了Gram矩陣的有效性。李鑫等人[18]提出了一個(gè)內(nèi)容語(yǔ)義和風(fēng)格特征匹配一致的風(fēng)格遷移網(wǎng)絡(luò)。特征圖的Gram矩陣記為G∈RApC×C,用來表示特征圖C個(gè)通道之間的相關(guān)性。對(duì)于G中的每個(gè)元素Gi,j=aTiaj,表示第i個(gè)特征圖通道與第j個(gè)特征圖通道之間的相關(guān)性,其中ai與aj分別表示第i與第j個(gè)特征圖通道的向量表示。分別計(jì)算基準(zhǔn)圖像和目標(biāo)風(fēng)格圖像的特征圖的Gram矩陣,以兩個(gè)圖像的Gram矩陣的差異最小化為優(yōu)化目標(biāo),不斷調(diào)整基準(zhǔn)圖像,使風(fēng)格不斷接近目標(biāo)風(fēng)格圖像。

    1.3 域自適應(yīng)

    域自適應(yīng)方法是遷移學(xué)習(xí)的一種,通常用來解決不同領(lǐng)域數(shù)據(jù)分布不一致的問題。本文工作也與域自適應(yīng)相關(guān),因?yàn)閮烧叨紝⒛P瓦m應(yīng)于未標(biāo)記的目標(biāo)域。語(yǔ)義分割的域自適應(yīng)方法可以根據(jù)執(zhí)行自適應(yīng)的級(jí)別進(jìn)行分類,分為輸入級(jí)別[19]、特征級(jí)別[10]和輸出級(jí)別[20]。本文模型SFIS特別與學(xué)習(xí)域不變特征的特征級(jí)自適應(yīng)有關(guān)。該類別中的大多數(shù)現(xiàn)有方法的主要目標(biāo)是希望特征提取器針對(duì)源域和目標(biāo)域數(shù)據(jù)集所提取的特征盡可能相近,鑒別器用于判斷提取的特征屬于哪個(gè)域,將鑒別器與分割模型一起訓(xùn)練,以便鑒別器最大化源域和目標(biāo)域之間的差異,而分割模型學(xué)習(xí)最小化差異。SFIS與這些方法有類似的想法,但正如展示的那樣,在SFIS中是通過縮小光照風(fēng)格信息之間的差距來使特征提取器學(xué)習(xí)到光照不變特征。

    2 噪聲指導(dǎo)下過濾光照風(fēng)格的低光照分割模型

    本文模型基于域自適應(yīng)方法,對(duì)圖像中不同的噪聲區(qū)域采用不同距離的信息交互,并通過光照過濾器從圖像的整體風(fēng)格中提取光照風(fēng)格并學(xué)習(xí)區(qū)分它們。語(yǔ)義分割網(wǎng)絡(luò)和光照過濾器模塊會(huì)交替訓(xùn)練,最終使編碼器學(xué)習(xí)到光照不變特征。

    2.1 模型總體架構(gòu)

    現(xiàn)有的LISU模型并沒有考慮到低光照環(huán)境下噪聲的影響,由于光照不均勻,部分反射材料在局部圖像中會(huì)引起過度曝光,此時(shí)圖像部分的局部信息丟失嚴(yán)重。針對(duì)這類問題,本文引入了長(zhǎng)短距離分支模塊的方法,對(duì)圖像中不同的噪聲區(qū)域采用不同距離的信息交互,在高噪聲區(qū)域采用長(zhǎng)距離的自注意力操作,在低噪聲區(qū)域采用短距離的卷積操作,從而避免高噪聲區(qū)域帶來的不利影響。

    另一方面,由于LISU網(wǎng)絡(luò)模型采用的是級(jí)聯(lián)結(jié)構(gòu),其語(yǔ)義分割結(jié)果嚴(yán)重依賴于分解網(wǎng)絡(luò)的效果,而且同時(shí)學(xué)習(xí)恢復(fù)反射信息和分割反射圖加重了特征提取器的負(fù)擔(dān)。本文基于域自適應(yīng)方法,使語(yǔ)義分割網(wǎng)絡(luò)最小化不同域間的風(fēng)格差異。以往基于風(fēng)格遷移的網(wǎng)絡(luò)模型往往是直接對(duì)圖像整體風(fēng)格進(jìn)行遷移,但圖像的整體風(fēng)格也會(huì)受到光照以外因素的影響,所以這種方式會(huì)導(dǎo)致部分的內(nèi)容信息被更改。針對(duì)這個(gè)問題,本文采用將光照視為風(fēng)格的方法,設(shè)計(jì)了一個(gè)光照過濾器來過濾大部分內(nèi)容信息,從圖像的整體風(fēng)格中提取光照風(fēng)格,從而減小風(fēng)格遷移中圖像內(nèi)容信息上的損失。

    SFIS模型主要包括語(yǔ)義分割網(wǎng)絡(luò)中的長(zhǎng)短距離分支模塊和光照過濾器模塊,其中,長(zhǎng)、短距離分支分別基于Transformer結(jié)構(gòu)和卷積殘差塊。如圖3所示,上下兩部分語(yǔ)義分割網(wǎng)絡(luò)的權(quán)重參數(shù)共享,網(wǎng)絡(luò)在訓(xùn)練階段的輸入數(shù)據(jù)為一對(duì)圖像,低光照?qǐng)D像Ia與正常光照?qǐng)D像Ib。對(duì)于其中給定的一幅輸入圖像I∈RApH×W×3,本文首先計(jì)算圖像I對(duì)應(yīng)的信噪比圖S∈RApH×W,將S作為掩碼來遮蔽高噪聲的區(qū)域塊,從而指導(dǎo)長(zhǎng)距離分支中自注意力的計(jì)算,還會(huì)作為權(quán)重來指導(dǎo)長(zhǎng)、短距離分支的特征融合。將圖像Ia與Ib分別輸入上下兩部分分割網(wǎng)絡(luò)后,得到的第一層特征圖會(huì)分別進(jìn)入長(zhǎng)距離分支和短距離分支。對(duì)于融合后的特征和其下一層特征(圖3中的橙色虛線框,參見電子版),將計(jì)算這兩層特征圖的Gram矩陣表示圖像的整體風(fēng)格,并將其上三角部分的向量表示ua,l、ub,l作為光照過濾器Fl中第l層的輸入,來提取光照風(fēng)格信息fa,l、fb,l。光照過濾器學(xué)習(xí)將不同的光照風(fēng)格信息區(qū)分開,而語(yǔ)義分割網(wǎng)絡(luò)不斷縮小不同光照風(fēng)格信息的差距,分別對(duì)應(yīng)圖3中的LFl與Llfsm。光照過濾器模塊和語(yǔ)義分割網(wǎng)絡(luò)會(huì)交替進(jìn)行訓(xùn)練,最終使其編碼器學(xué)習(xí)到光照不變特征,在測(cè)試階段只依靠語(yǔ)義分割網(wǎng)絡(luò)。

    2.2 長(zhǎng)短距離分支

    在低光照?qǐng)D像的不同區(qū)域中,噪聲和可見度等特征差距較大,對(duì)于極暗區(qū)域,由于相鄰的局部區(qū)域可見度較弱且多為噪聲,局部信息不足以分割像素,而長(zhǎng)距離中光照較好的區(qū)域中仍然可以有合理的特征信息。例如在圖2的中下方極暗區(qū)域很難辨別出物體,但旁邊的床頭墻壁等特征信息有利于識(shí)別出該物體的類別。在圖2中的過度曝光區(qū)域也是同理。所以需要自適應(yīng)地考慮低光照?qǐng)D像中的不同區(qū)域,而Transformer結(jié)構(gòu)通過全局自注意力機(jī)制能很好地捕獲長(zhǎng)距離的依賴關(guān)系,這在許多的高層級(jí)任務(wù)[21,22]和低層級(jí)任務(wù)[23,24]中都得到了證明。低光照?qǐng)D像中低信噪比的區(qū)域往往信息丟失嚴(yán)重,本文在信噪比低的區(qū)域中,利用長(zhǎng)距離分支考慮長(zhǎng)距離范圍內(nèi)的非局部圖像信息進(jìn)行交互;在信噪比較高區(qū)域中,利用短距離分支考慮短距離范圍內(nèi)的局部圖像信息就足夠了。信噪比也會(huì)作為權(quán)重,高噪聲區(qū)域的權(quán)重將會(huì)降低,從而避免高噪聲區(qū)域帶來的不利影響。

    如圖4所示,首先需要根據(jù)式(1)計(jì)算輸入圖像I∈RApH×W×3的信噪比圖S∈RApH×W,將其按照特征圖F∈RAph×w×C的大小進(jìn)行重新調(diào)整后得到S′∈RAph×w,進(jìn)一步分解成塊(與特征圖F相同的分解方式)。然后根據(jù)式(2)利用閾值將得到的值視為掩碼,遮蔽掉極低信噪比的塊,從而根據(jù)式(4)利用信噪比圖S′指導(dǎo)長(zhǎng)距離分支中自注意力的計(jì)算,進(jìn)一步根據(jù)式(6)指導(dǎo)長(zhǎng)短距離分支的特征融合。在長(zhǎng)距離分支中,需要將特征提取器得到的第一層特征圖F分解成塊。假設(shè)每一個(gè)塊的大小為p×p,那么特征圖F可以分解為m塊,m=(h/p)×(w/p),即Fi∈RApp×p×C,i∈{1,…,m}。這些塊將會(huì)被進(jìn)一步拉平為一維向量,并被輸入到Transformer進(jìn)行自注意力的計(jì)算,由于自注意力計(jì)算中輸出的塊序列維度大小與輸入序列的維度大小相同,所以將輸出的序列重新拼接為特征圖Fl∈RAph×w×C。對(duì)于短距離分支,采用的就是基本的殘差塊,其輸出特征與輸入特征的大小也會(huì)保持相同,即Fs∈RAph×w×C。特征圖Fl,F(xiàn)s則根據(jù)式(6)融合為特征圖Fm。

    2.2.1 信噪比圖

    如圖4所示,網(wǎng)絡(luò)模型需要先估計(jì)輸入圖像的信噪比圖S。與以往傳統(tǒng)的去噪方法[25,26]類似,本文將噪聲視為空間域上相鄰像素之間的不連續(xù)過渡。噪聲分量可以建模為噪聲圖像與對(duì)應(yīng)無噪聲圖像之間的距離。信噪比圖像的具體計(jì)算方法如下:對(duì)于給定的一幅輸入圖像I∈RApH×W×3,首先計(jì)算圖像I的對(duì)應(yīng)灰度圖,即Ig∈RApH×W,然后根據(jù)式(1)計(jì)算信噪比圖S∈RApH×W。

    其中:denoise代表傳統(tǒng)的去噪方法,本文采用均值濾波;abs代表絕對(duì)值;N是估計(jì)的噪聲圖。

    2.2.2 信噪比圖指導(dǎo)自注意力

    在原始的Transformer結(jié)構(gòu)中,自注意力的計(jì)算是在所有塊中進(jìn)行的,所以不管圖像區(qū)域的噪聲水平如何,都會(huì)與之計(jì)算相應(yīng)的注意力。但在低光照?qǐng)D像的不同區(qū)域中,特征差距較大,極低信噪比的區(qū)域往往已經(jīng)被噪聲嚴(yán)重污染,所以極低信噪比區(qū)域的信息是不準(zhǔn)確的。本文用信噪比圖來指導(dǎo)自注意力的計(jì)算。

    圖5顯示了信噪比圖指導(dǎo)自注意力的計(jì)算過程。給定一張輸入圖像I∈RApH×W×3,計(jì)算得到的對(duì)應(yīng)信噪比圖為S∈RApH×W。首先需要將信噪比圖S重新調(diào)整大小S′∈RAph×w,從而使信噪比圖能夠與特征圖F相匹配。然后同樣地,按照分解特征圖F的方式,將S′分解為m塊,再計(jì)算每個(gè)塊中信噪比的平均值,即Si∈RAp1,i∈{1,…,m},將這些值拼接為一個(gè)向量Sv∈RApm。向量Sv在Transformer的自注意力計(jì)算中主要起到掩碼的作用,從而避免極低信噪比區(qū)域中噪聲的影響。Si中第i個(gè)元素的掩碼值為

    其中:s是設(shè)置的閾值。然后將Sv復(fù)制m份,堆疊成一個(gè)矩陣S′v∈RApm×m。在自注意力計(jì)算最后的softmax部分,利用掩碼將信噪比極低的塊過濾掉。假設(shè)多頭自注意力中的頭數(shù)為B,那么Transformer中第i層中的第b個(gè)頭自注意力的計(jì)算Attentionb可以表示為

    將特征圖F拆分得到的Fi∈RApp×p×C,i∈{1,…,m}打平成一維向量,LN為歸一化層,通過式(5)即可得到q,k,v∈RApm×(p×p×C)。

    q=k=v=LN([F1,…,F(xiàn)m])(5)

    2.2.3 信噪比圖指導(dǎo)特征融合

    對(duì)于長(zhǎng)距離分支得到的特征圖Fl∈RAph×w×C和短距離分支得到的特征圖Fs∈RAph×w×C,本文將信噪比圖作為一種先驗(yàn)知識(shí),指導(dǎo)這兩個(gè)分支的特征融合。對(duì)于重新調(diào)整大小的信噪比圖S′∈RApH×W,進(jìn)一步將其值歸一化到[0,1],并將歸一化后的S′作為權(quán)重來融合Fl和Fs。長(zhǎng)距離分支與短距離分支特征圖的融合可以通過式(6)計(jì)算。

    Fm=Fs×S′+Fl×(1-S′)(6)

    2.3 光照過濾器

    Gram矩陣可以作為圖像的風(fēng)格表示已經(jīng)在許多工作中得到了證實(shí)[16,17]。但只有在理想情況下,風(fēng)格才獨(dú)立于其內(nèi)容,而圖像的整體風(fēng)格也會(huì)受到光照以外的因素甚至圖像內(nèi)容的影響,如果直接更改圖像的整體風(fēng)格,會(huì)使圖像的內(nèi)容信息產(chǎn)生一定程度的損失。低光照?qǐng)D像與正常光照?qǐng)D像的主要差別來自于光照,本文將光照視為風(fēng)格,從整體風(fēng)格中進(jìn)一步提取光照風(fēng)格信息,只對(duì)光照風(fēng)格進(jìn)行遷移修改,從而減小圖像內(nèi)容信息上的損失。值得注意的是,光照過濾器模塊不是直接將特征圖作為輸入,而是將特征圖的整體風(fēng)格表示作為輸入,通過過濾掉圖像的大部分內(nèi)容信息,更專注于圖像的風(fēng)格。這樣,風(fēng)格表示可以看做是編碼本文先驗(yàn)知識(shí)的硬連線層[27]。

    將特征圖的Gram矩陣記為G∈RApC×C,用來表示特征圖C個(gè)通道之間的相關(guān)性。對(duì)于G中的每個(gè)元素Gi,j=aTiaj,表示第i與第j個(gè)特征圖通道之間的相關(guān)性,其中ai與aj分別表示第i與第j個(gè)特征圖通道的向量表示。由于Gram矩陣是對(duì)稱的,所以只需要將Gram矩陣的上三角部分的向量表示作為光照過濾器模塊的輸入。

    如圖6所示,光照過濾器中的兩層模塊由包含Leaky ReLU激活函數(shù)[28]的多層感知器實(shí)現(xiàn)。分割網(wǎng)絡(luò)編碼器對(duì)于低光照?qǐng)D像Ia與正常光照?qǐng)DIb所提取的特征圖(圖3中的橙色虛線框),將對(duì)應(yīng)層所計(jì)算的Gram矩陣的上三角部分的向量表示ua,l、ub,l作為該模塊的輸入,嘗試從整體風(fēng)格中進(jìn)一步提取與光照相關(guān)的風(fēng)格信息fa,l、fb,l。光照過濾器模塊根據(jù)式(8)中的LFl損失學(xué)習(xí)將不同光照條件的風(fēng)格信息區(qū)分開,而語(yǔ)義分割模型在訓(xùn)練過程中根據(jù)式(10)中的 Llfsm(fa,l,fb,l)損失縮小不同光照風(fēng)格信息的差距,最終使語(yǔ)義分割網(wǎng)絡(luò)的編碼器學(xué)習(xí)到光照不變特征。

    用Ia、Ib來表示小批量數(shù)據(jù)中的一對(duì)輸入圖像,F(xiàn)l表示光照過濾器中第l層模塊,ua,l、ub,l分別表示對(duì)應(yīng)Gram矩陣上三角部分的向量表示,Gram矩陣是由輸入圖像的對(duì)應(yīng)層特征圖所計(jì)算得到的。那么對(duì)應(yīng)圖像的光照風(fēng)格信息可以由式(7)得到。

    fa,l=Fl(ua,l),fb,l=Fl(ub,l)(7)

    光照過濾器的作用是通過得到的光照風(fēng)格信息fa,l與fb,l,讓分割網(wǎng)絡(luò)了解到輸入圖像Ia、Ib在光照條件方面的不同。為此,光照過濾器會(huì)學(xué)習(xí)光照風(fēng)格信息的映射空間,使不同光照條件的光照風(fēng)格信息彼此遠(yuǎn)離。對(duì)于給定小批量數(shù)據(jù)中每個(gè)圖像對(duì)的集合P,光照過濾器中每個(gè)層Fl的損失函數(shù)設(shè)計(jì)如下:

    其中:m是超參數(shù),代表邊界;d(·)代表余弦距離。

    2.4 分割網(wǎng)絡(luò)損失函數(shù)

    語(yǔ)義分割網(wǎng)絡(luò)使用一對(duì)圖像進(jìn)行訓(xùn)練,包括一張低光照?qǐng)D像和一張正常光照?qǐng)D像,分別用于語(yǔ)義分割、光照不變性的學(xué)習(xí)和不同光照但同一場(chǎng)景下的一致性分割預(yù)測(cè)。

    2.4.1 分割損失

    對(duì)于語(yǔ)義分割的學(xué)習(xí),本文采用像素級(jí)的交叉熵?fù)p失函數(shù)應(yīng)用于單個(gè)圖像。具體來說,分割損失由式(9)計(jì)算。

    其中:pci表示預(yù)測(cè)的像素i屬于類別c的概率;M是定義的類別集;n是像素的總個(gè)數(shù)。

    2.4.2 光照風(fēng)格匹配損失

    對(duì)于給定小批量數(shù)據(jù)中的一個(gè)圖像對(duì),分割網(wǎng)絡(luò)學(xué)習(xí)使光照風(fēng)格信息之間的距離盡可能接近,從而使特征提取器學(xué)習(xí)到光照不變特征,所以光照風(fēng)格損失與光照過濾器所得到的光照風(fēng)格信息相匹配。分別用fa,l與fb,l來表示光照過濾器每個(gè)層Fl所得到的光照風(fēng)格信息,那么光照風(fēng)格損失可以通過以下?lián)p失進(jìn)行計(jì)算:

    其中:dl和nl分別代表光照風(fēng)格信息的維數(shù)和特征提取器中第l層特征的空間大小。

    2.4.3 一致性損失

    同一場(chǎng)景下的低光照?qǐng)D像和正常光照?qǐng)D像之間有高度重疊的語(yǔ)義信息,所以對(duì)應(yīng)語(yǔ)義分割的預(yù)測(cè)結(jié)果應(yīng)當(dāng)是盡量相同的,所以本文利用損失函數(shù)鼓勵(lì)網(wǎng)絡(luò)模型預(yù)測(cè)相同的分割圖。用Pai∈RApc和Pbi∈RApc分別表示針對(duì)圖像的每個(gè)像素i,分割網(wǎng)絡(luò)所預(yù)測(cè)的類別概率向量,其中c為類別數(shù)。一致性損失強(qiáng)調(diào)所有像素Pai和Pbi的一致性,可以通過下面的損失函數(shù)來計(jì)算:

    其中:KLdiv(·,·)代表KL散度。一致性損失與式(10)光照風(fēng)格匹配損失具有相同的目標(biāo),但是在網(wǎng)絡(luò)模型的預(yù)測(cè)層,通過更強(qiáng)制的手段學(xué)習(xí)光照不變特征,鼓勵(lì)模型預(yù)測(cè)相同的分割圖,更積極地對(duì)齊兩種域。而且一致性損失與式(9)中的分割損失是彼此互補(bǔ)的,因?yàn)槭剑?1)中的概率分布進(jìn)一步提供了分割損失所使用的類標(biāo)簽之外的信息。

    最終,分割網(wǎng)絡(luò)的整體損失如下:

    L=Lce+λfsmLlfsm+λconLcon(12)

    其中:λfsm和λcon是用來平衡的超參數(shù)。

    3 實(shí)驗(yàn)與結(jié)果

    3.1 數(shù)據(jù)集

    LLRGBD[1]是一個(gè)低光照室內(nèi)場(chǎng)景數(shù)據(jù)集,由一個(gè)大規(guī)模合成數(shù)據(jù)集LLRGBD-synthetic和一個(gè)稱為L(zhǎng)LRGBD-real的小規(guī)模真實(shí)數(shù)據(jù)集組成,針對(duì)每一個(gè)圖像對(duì),還提供了相應(yīng)的深度圖。數(shù)據(jù)集LLRGBD包含室內(nèi)場(chǎng)景的一對(duì)低光照和正常光圖像,其中共有32個(gè)室內(nèi)場(chǎng)景,真實(shí)標(biāo)簽共包括13個(gè)類別。合成的LLRGBD-synthetic數(shù)據(jù)集中總共包含了29 K×2張圖像,圖像分辨率為640×480,并按90%~10%的比例隨機(jī)分為訓(xùn)練集和測(cè)試集。真實(shí)數(shù)據(jù)集LLRGBD-real中共包含515對(duì)640×480分辨率的低/正常光照?qǐng)D像,其中使用415對(duì)圖像作為訓(xùn)練集,100對(duì)圖像作為測(cè)試集。

    3.2 實(shí)驗(yàn)細(xì)節(jié)

    本文利用PyTorch[29]實(shí)現(xiàn)了網(wǎng)絡(luò)模型的整體框架,并在具有Quadro RTX 8000 GPU的Linux系統(tǒng)上進(jìn)行了訓(xùn)練和測(cè)試。在模型的訓(xùn)練階段,將所有圖像的大小調(diào)整為320×240,并且沒有采用任何的數(shù)據(jù)增強(qiáng)。對(duì)于LLRGBD-synthetic數(shù)據(jù)集,模型訓(xùn)練50個(gè)epoch,在LLRGBD-real數(shù)據(jù)集上訓(xùn)練300個(gè)epoch。

    為了避免光照過濾器冷啟動(dòng),前100輪只訓(xùn)練光照過濾器,然后對(duì)于每個(gè)小批量的數(shù)據(jù)交替訓(xùn)練語(yǔ)義分割網(wǎng)絡(luò)和光照過濾器。整體網(wǎng)絡(luò)結(jié)構(gòu)采用ResNet-101[15]為骨干網(wǎng)的RefineNet-lw[30]作為本文的分割網(wǎng)絡(luò),將兩層特征圖的Gram矩陣作為光照過濾器的輸入,分割網(wǎng)絡(luò)由SGD訓(xùn)練,動(dòng)量為0.9,編碼器的初始學(xué)習(xí)率為6E-4,解碼器為6E-3,兩個(gè)學(xué)習(xí)率都通過0.5次多項(xiàng)式衰減降低。兩個(gè)光照過濾模塊使用Adamax[31]進(jìn)行訓(xùn)練,初始學(xué)習(xí)率分別為5E-4和1E-3,將光照風(fēng)格信息的維度設(shè)置為64。超參數(shù)λfsm、λcon和m分別設(shè)置為5E-7、1E-4和0.1。

    3.3 定量分析

    表1、2分別在LLRGBD-synthetic和LLRGBD-real數(shù)據(jù)集上比較了本文模型和現(xiàn)有方法的定量結(jié)果。本文在LLRGBD-synthetic數(shù)據(jù)集上與SegNet[32]、U-Net[33]、LISU[1],還有域適應(yīng)方法FIFO[13]和SePiCo[34]的分割精度進(jìn)行了比較,進(jìn)一步在LLRGBD-real數(shù)據(jù)集上還與DLv3p[35]和其變體DLv3p-joint的分割精度進(jìn)行了比較。其變體DLv3p-joint采用LISU的改進(jìn)策略,通過聯(lián)合學(xué)習(xí)進(jìn)一步恢復(fù)反射圖,詳細(xì)信息可以參考文獻(xiàn)[1]。本文的主干網(wǎng)絡(luò)為基于ResNet-101的RefineNet-lw。FIFO模型的主干網(wǎng)絡(luò)采用的也是RefineNet-lw,對(duì)于SePiCo,本文采用的是 ResNet-101實(shí)現(xiàn)的DeepLab-V2作為主干網(wǎng)絡(luò)SePiCo(DistCL)的對(duì)比模型。為了比較的公平性,對(duì)于FIFO模型,并沒有進(jìn)一步采用合成的低光照?qǐng)D像作為補(bǔ)充域。

    如表1、2所示,本文方法在兩個(gè)數(shù)據(jù)集上的性能都優(yōu)于現(xiàn)有的模型。評(píng)估指標(biāo)主要包括總體精度 (OA)、平均精度(mAcc)、平均交并比(mIoU)。LISU模型是當(dāng)前LLRGBD數(shù)據(jù)集上性能最好的模型,由于SFIS采用的是域自適應(yīng)方法,本文進(jìn)一步比較了最新的兩種域自適應(yīng)模型FIFO和SePiCo。實(shí)驗(yàn)結(jié)果表明,在低光照環(huán)境下的圖像上,SFIS優(yōu)于之前的方法。相較于較好的域自適應(yīng)方法FIFO,本文模型SFIS在LLRGBD-synthetic數(shù)據(jù)集上的mIoU提升了2.9%,在LLRGBD-real數(shù)據(jù)集上的mIoU提升了2.6%。這些提升很可能是由于SFIS進(jìn)一步利用了低光照?qǐng)D像中的噪聲信息。

    本文還進(jìn)一步與在合成數(shù)據(jù)集LLRGBD-synthetic上預(yù)訓(xùn)練的LISU模型進(jìn)行了比較,最終在LLRGBD-real數(shù)據(jù)上的定量結(jié)果如表3所示。本文預(yù)訓(xùn)練的SFIS模型在真實(shí)數(shù)據(jù)集LLRGBD-real上的結(jié)果遠(yuǎn)優(yōu)于LISU (pre-trained)模型,OA、mAcc和mIoU分別提升了10.1%、11.5%、14.6%。本文的預(yù)訓(xùn)練模型相較于原模型的mIoU提升了2.6%。

    表4進(jìn)一步列出了一些網(wǎng)絡(luò)的詳細(xì)定量比較,包括每個(gè)類別的IoU以及整體的mIoU,其中最好的結(jié)果用粗體顯示。SFIS在墻壁、椅子、書籍等物體上的分割精度要明顯優(yōu)于其他模型。

    3.4 定性結(jié)果

    本節(jié)可視化了部分對(duì)比模型的語(yǔ)義分割結(jié)果,包括當(dāng)前LLRGBD數(shù)據(jù)集上表現(xiàn)最好的模型LISU,以及域自適應(yīng)方法中較好的模型FIFO。圖7中顯示了定性比較的結(jié)果,可視化了它們與本文方法的預(yù)測(cè)圖。雖然在網(wǎng)絡(luò)模型的推理階段并不需要正常光照?qǐng)D像,但為了更好地可視化比較,圖中依然顯示它們。對(duì)于低光照?qǐng)D像中物體的語(yǔ)義分割效果,LISU模型的輸出結(jié)果還是相對(duì)較差的,F(xiàn)IFO模型的輸出結(jié)果相比前者來說更平滑一些,但在物體邊緣部分的擬合效果還不夠完善。SFIS的語(yǔ)義分割預(yù)測(cè)圖在物體邊緣部分,比如椅子、家具、杯子等較小物體的邊緣,其擬合效果要明顯優(yōu)于前兩個(gè)模型。

    3.5 消融實(shí)驗(yàn)

    通過從模型中刪除不同的組件,考慮了幾種消融設(shè)置?!皁urs w/o L”表示去掉了長(zhǎng)距離分支,分割網(wǎng)絡(luò)中只保留卷積操作;“ours w/o S”表示去掉了短距離分支,保留長(zhǎng)距離分支和信噪比圖指導(dǎo)的自注意力操作;“ours w/o A”表示去掉了信噪比圖指導(dǎo)的自注意力操作;“ours w/o IF”表示去掉了光照過濾器,只用分割網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測(cè)試。表5總結(jié)了相應(yīng)消融結(jié)果,與所有的消融設(shè)置相比,完整框架設(shè)置在三個(gè)指標(biāo)上都取得了最高分?jǐn)?shù)。實(shí)驗(yàn)結(jié)果顯示了信噪比圖指導(dǎo)的自注意力操作、長(zhǎng)短距離分支和光照過濾器的有效性。

    4 結(jié)束語(yǔ)

    本文針對(duì)室內(nèi)低光照環(huán)境下的語(yǔ)義分割進(jìn)行了研究,提出了一種新的解決方案。在低光照?qǐng)D像中,不同區(qū)域擁有不同的噪聲,為了避免高噪聲區(qū)域的影響,本文采用了兩個(gè)不同距離的分支操作。利用信噪比圖指導(dǎo)長(zhǎng)/短距離分支的特征融合,進(jìn)一步指導(dǎo)長(zhǎng)距離分支中自注意力計(jì)算,只讓高信噪比的區(qū)域參與自注意力計(jì)算。另一方面,提出了光照過濾模塊,從圖像的整體風(fēng)格中進(jìn)一步提取光照風(fēng)格信息,通過減小不同光照風(fēng)格信息之間的差距和分割損失來訓(xùn)練分割網(wǎng)絡(luò),從而使分割網(wǎng)絡(luò)學(xué)習(xí)光照不變特征。實(shí)驗(yàn)表明,本文方法在低光照環(huán)境下取得了較好的分割效果。接下來,本文會(huì)在更多更具有代表性的數(shù)據(jù)集上進(jìn)行測(cè)試,并調(diào)整網(wǎng)絡(luò)模型,探索高噪聲區(qū)域自注意力的計(jì)算方式。

    參考文獻(xiàn):

    [1]Zhang Ning,Nex F,Kerle N,et al.LISU:low-light indoor scene understanding with joint learning of reflectance restoration[J].ISPRS Journal of Photogrammetry and Remote Sensing,2022,183:470-481.

    [2]付延年.面向自動(dòng)駕駛的可見光和紅外圖像語(yǔ)義分割算法研究[D].杭州:浙江大學(xué),2021.(Fu Yannian.Research on visible and infrared images semantic segmentation for autonomous vehicles[D].Hangzhou:Zhejiang University,2021.)

    [3]Liu Risheng,Ma Long,Zhang Jiaao,et al.Retinex-inspired unrolling with cooperative prior architecture search for low-light image enhancement [C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:10556-10565.

    [4]Xu Ke,Yang Xin,Yin Baocai,et al.Learning to restore low-light images via decomposition-and-enhancement[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2020:2278-2287.

    [5]Xu Xiaogang,Wang Ruixing,F(xiàn)u C W,et al.SNR-aware low-light image enhancement [C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:17693-17703.

    [6]Sakaridis C,Dai Dengxin,Van Gool L.Map-guided curriculum domain adaptation and uncertainty-aware evaluation for semantic nighttime image segmentation[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2020,44(6):3139-3153.

    [7]Wu Xinyi,Wu Zhenyao,Guo Hao,et al.DANNet:a one-stage domain adaptation network for unsupervised nighttime semantic segmentation [C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:15764-15773.

    [8]Dai Dengxin,Gool L V.Dark model adaptation:semantic image segmentation from daytime to nighttime[C]//Proc of the 21st International Conference on Intelligent Transportation Systems.Piscataway,NJ:IEEE Press,2018:3819-3824.

    [9]Gao Huan,Guo Jichang,Wang Guoli,et al.Cross-domain correlation distillation for unsupervised domain adaptation in night time semantic segmentation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:9903-9913.

    [10]Wang Haoran,Shen Tong,Zhang Wei,et al.Classes matter:a fine-grained adversarial approach to cross-domain semantic segmentation[M]//Vedaldi A,Bischof H,Brox T,et al.Computer Vision.Cham:Springer,2020:642-659.

    [11]Isobe T,Jia Xu,Chen Shuaijun,et al.Multi-target domain adaptation with collaborative consistency learning[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:8183-8192.

    [12]張桂梅,潘國(guó)峰,劉建新.域自適應(yīng)城市場(chǎng)景語(yǔ)義分割 [J].中國(guó)圖像圖形學(xué)報(bào),2020,25(5):913-925.(Zhang Guimei,Pan Guofeng,Liu Jianxin.Domain adaptation for semantic segmentation based on adaption learning rate[J].Journal of Image and Gra-phics,2020,25(5):913-925.)

    [13]Lee S,Son T,Kwak S.FIFO:learning fog-invariant features for foggy scene segmentation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:18889-18899.

    [14]Vaswani A,Shazeer N,Parmar N,et al.Attention is all you need[C]//Proc of the 31st International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2017:6000-6010.

    [15]He Kaiming,Zhang Xiangyu,Ren Shaoqing,et al.Deep residual lear-ning for image recognition[C]//Proc of IEEE Conference on Compu-ter Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:770-778.

    [16]Gatys L A,Ecker A S,Bethge M.Image style transfer using convolutional neural networks[C]//Proc of IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2016:2414-2423.

    [17]Luan Fujun,Paris S,Shechtman E,et al.Deep photo style transfer[C]//Proc of IEEE Conference on Computer Vision and Pattern Re-cognition.Piscataway,NJ:IEEE Press,2017:4990-4998.

    [18]李鑫,普?qǐng)@媛,趙征鵬,等.內(nèi)容語(yǔ)義和風(fēng)格特征匹配一致的藝術(shù)風(fēng)格遷移[J].圖學(xué)學(xué)報(bào),2023,44(4):699-709.(Li Xin,Pu Yuanyuan,Zhao Zhengpeng,et al.Content semantics and style features match consistent artistic style transfer[J].Journal of Graphics,2023,44(4):699-709.)

    [19]Pizzati F,Charette R,Zaccaria M,et al.Domain bridge for unpaired image-to-image translation and unsupervised domain adaptation[C]//Proc of IEEE/CVF Winter Conference on Applications of Computer Vision.Piscataway,NJ:IEEE Press,2020:2990-2998.

    [20]Luo Yawei,Zheng Liang,Guan Tao,et al.Taking a closer look at domain shift:category-level adversaries for semantics consistent domain adaptation[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2019:2507-2516.

    [21]Han Kai,Wang Yunhe,Chen Hanting,et al.A survey on vision transformer[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2022,45(1):87-110.

    [22]Khan S,Naseer M,Hayat M,et al.Transformers in vision:a survey[J].ACM Computing Surveys,2022,54(10):1-41.

    [23]Chen Hanting,Wang Yunhe,Guo Tianyu,et al.Pre-trained image processing transformer[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2021:12299-12310.

    [24]Wang Zhendong,Cun Xiaodong,Bao Jianmin,et al.Uformer:a general U-shaped transformer for image restoration[C]//Proc of IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2022:17662-17672.

    [25]Buades A,Coll B,Morel J M.A non-local algorithm for image denoi-sing[C]//Proc of IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE Press,2005:60-65.

    [26]Dabov K,F(xiàn)oi A,Katkovnik V,et al.Image denoising with block-matching and 3D filtering[M]//Nasrabadi N M,Rizvi S A,Dougherty E R.Image processing:algorithms and systems,neural networks,and machine learning.[S.l.]:SPIE,2006:606414.

    [27]Ji Shuiwang,Xu Wei,Yang Ming,et al.3D convolutional neural networks for human action recognition[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2012,35(1):221-231.

    [28]Maas A L,Hannun A Y,Ng A Y.Rectifier nonlinearities improve neural network acoustic models[C/OL]//Proc of the 30th International Conference on Machine Learning.(2013).https://ai.stanford.edu/%7Eamaas/papers/relu_hybrid_icml2013_final.pdf.

    [29]Paszke A,Gross S,Massa F,et al.PyTorch:an imperative style,high-performance deep learning library[C]//Proc of the 33rd International Conference on Neural Information Processing Systems.Red Hook,NY:Curran Associates Inc.,2019:article No.721.

    [30]Nekrasov V,Shen Chunhua,Reid I.Light-weight RefineNet for real-time semantic segmentation [EB/OL].(2018-10-08).https://arxiv.org/abs/1810.03272.

    [31]Kingma D P,Ba J.Adam:a method for stochastic optimization[EB/OL].(2017-01-30).https://arxiv.org/abs/1412.6980.

    [32]Badrinarayanan V,Kendall A,Cipolla R.SegNet:a deep convolutional encoder-decoder architecture for image segmentation[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2017,39(12):2481-2495.

    [33]Ronneberger O,F(xiàn)ischer P,Brox T.U-Net:convolutional networks for biomedical image segmentation[M]//Navab N,Hornegger J,Wells W,et al.Medical Image Computing and Computer-Assisted Intervention.Cham:Springer,2015:234-241.

    [34]Xie Binhui,Li Shuang,Li Mingjia,et al.SePiCo:semantic-guided pixel contrast for domain adaptive semantic segmentation[J].IEEE Trans on Pattern Analysis and Machine Intelligence,2023,45(7):9004-9021.

    [35]Chen L C,Zhu Yukun,Papandreou G,et al.Encoder-decoder with atrous separable convolution for semantic image segmentation[C]//Proc of European Conference on Computer Vision.Berlin:Springer,2018:833-851.

    猜你喜歡
    語(yǔ)義分割注意力機(jī)制
    結(jié)合語(yǔ)義邊界信息的道路環(huán)境語(yǔ)義分割方法
    面向短文本的網(wǎng)絡(luò)輿情話題
    基于自注意力與動(dòng)態(tài)路由的文本建模方法
    一種改進(jìn)迭代條件模型的遙感影像語(yǔ)義分割方法
    基于積神經(jīng)網(wǎng)絡(luò)的圖像著色方法研究
    基于深度學(xué)習(xí)的問題回答技術(shù)研究
    基于全卷積網(wǎng)絡(luò)FCN的圖像處理
    基于語(yǔ)義分割的車道線檢測(cè)算法研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    基于語(yǔ)義分割的增強(qiáng)現(xiàn)實(shí)圖像配準(zhǔn)技術(shù)
    久久精品影院6| 99久久综合精品五月天人人| 两个人看的免费小视频| 免费无遮挡裸体视频| 一进一出抽搐gif免费好疼| 久久久久久久久大av| 超碰av人人做人人爽久久 | 搡老熟女国产l中国老女人| 亚洲成人免费电影在线观看| 他把我摸到了高潮在线观看| 俺也久久电影网| 国产精品久久久久久久久免 | 欧美乱码精品一区二区三区| 神马国产精品三级电影在线观看| 国产精品精品国产色婷婷| 在线观看免费午夜福利视频| 欧美国产日韩亚洲一区| 国产在线精品亚洲第一网站| 日韩欧美免费精品| 日本 av在线| 国产乱人视频| 九九久久精品国产亚洲av麻豆| 欧美日韩中文字幕国产精品一区二区三区| 岛国在线免费视频观看| 亚洲最大成人手机在线| 无人区码免费观看不卡| 亚洲第一欧美日韩一区二区三区| 欧美另类亚洲清纯唯美| 国产成人a区在线观看| 两人在一起打扑克的视频| 成人无遮挡网站| 国产av不卡久久| 亚洲av成人不卡在线观看播放网| ponron亚洲| 人人妻,人人澡人人爽秒播| 国产高清激情床上av| 国产成年人精品一区二区| 久久精品国产清高在天天线| 床上黄色一级片| 国内毛片毛片毛片毛片毛片| 国产精品久久久久久人妻精品电影| 日韩欧美精品免费久久 | 国产一区二区三区在线臀色熟女| 欧美一区二区亚洲| 国产v大片淫在线免费观看| 中文资源天堂在线| 日韩 欧美 亚洲 中文字幕| 亚洲七黄色美女视频| 欧美黄色淫秽网站| 欧美激情久久久久久爽电影| 亚洲激情在线av| 男女视频在线观看网站免费| 久久国产精品人妻蜜桃| 成人特级黄色片久久久久久久| 男女午夜视频在线观看| 国产一级毛片七仙女欲春2| 毛片女人毛片| 日韩欧美免费精品| 18美女黄网站色大片免费观看| 国产精华一区二区三区| 最近在线观看免费完整版| 美女高潮的动态| 午夜福利成人在线免费观看| 国内久久婷婷六月综合欲色啪| 亚洲国产精品久久男人天堂| 色av中文字幕| 国产成人欧美在线观看| 中文在线观看免费www的网站| 国产亚洲精品av在线| 精品国产亚洲在线| 亚洲无线在线观看| 日本黄色片子视频| 老司机在亚洲福利影院| 免费高清视频大片| 麻豆国产av国片精品| 窝窝影院91人妻| 悠悠久久av| 国产一区二区激情短视频| 国产欧美日韩一区二区精品| 午夜福利成人在线免费观看| 成熟少妇高潮喷水视频| 精品国产三级普通话版| 每晚都被弄得嗷嗷叫到高潮| 日本黄色视频三级网站网址| 国产极品精品免费视频能看的| 又紧又爽又黄一区二区| 国产三级中文精品| 色噜噜av男人的天堂激情| 精品乱码久久久久久99久播| 丰满乱子伦码专区| 午夜老司机福利剧场| 欧美极品一区二区三区四区| 亚洲人成网站在线播放欧美日韩| 国产不卡一卡二| 欧美性猛交╳xxx乱大交人| 两人在一起打扑克的视频| 欧美日本视频| 亚洲精品日韩av片在线观看 | 一边摸一边抽搐一进一小说| 黄色丝袜av网址大全| 三级男女做爰猛烈吃奶摸视频| 草草在线视频免费看| 欧美xxxx黑人xx丫x性爽| 久久伊人香网站| 亚洲av二区三区四区| www.色视频.com| www.www免费av| 国产真人三级小视频在线观看| 99精品欧美一区二区三区四区| 男人的好看免费观看在线视频| 中文在线观看免费www的网站| 夜夜看夜夜爽夜夜摸| 国产精品,欧美在线| 成年人黄色毛片网站| 高潮久久久久久久久久久不卡| 老汉色∧v一级毛片| 麻豆国产97在线/欧美| 午夜激情福利司机影院| 国产亚洲精品av在线| 亚洲欧美日韩无卡精品| 久久精品91无色码中文字幕| 久久国产精品人妻蜜桃| 成人国产一区最新在线观看| 亚洲av第一区精品v没综合| 久久草成人影院| 欧美激情久久久久久爽电影| 久久久久久久久久黄片| 国产淫片久久久久久久久 | 国产精品一区二区免费欧美| 大型黄色视频在线免费观看| 69av精品久久久久久| 天堂影院成人在线观看| 人妻夜夜爽99麻豆av| 麻豆国产97在线/欧美| 非洲黑人性xxxx精品又粗又长| 国产午夜精品论理片| av国产免费在线观看| 国产伦人伦偷精品视频| 精品99又大又爽又粗少妇毛片 | 怎么达到女性高潮| 村上凉子中文字幕在线| 中国美女看黄片| 人妻丰满熟妇av一区二区三区| 在线观看av片永久免费下载| 91在线精品国自产拍蜜月 | 久久久久久久午夜电影| 亚洲av电影不卡..在线观看| 91久久精品电影网| 亚洲七黄色美女视频| 国产aⅴ精品一区二区三区波| 一进一出抽搐gif免费好疼| 免费大片18禁| 国产在线精品亚洲第一网站| 18禁黄网站禁片免费观看直播| 最后的刺客免费高清国语| 免费在线观看日本一区| 午夜福利18| 久久天躁狠狠躁夜夜2o2o| 免费观看精品视频网站| 国产一区二区在线观看日韩 | 国产乱人伦免费视频| 日韩欧美三级三区| 女人被狂操c到高潮| 精品不卡国产一区二区三区| 精品久久久久久久毛片微露脸| 国产精品久久久久久久久免 | 久久人人精品亚洲av| 91在线精品国自产拍蜜月 | 久久久久久久午夜电影| 最近在线观看免费完整版| 国产伦人伦偷精品视频| 免费av毛片视频| 女生性感内裤真人,穿戴方法视频| 午夜福利在线观看吧| 69av精品久久久久久| 黄片大片在线免费观看| 国产97色在线日韩免费| 欧美丝袜亚洲另类 | 国产真人三级小视频在线观看| 国产精品爽爽va在线观看网站| 亚洲国产精品成人综合色| 国产欧美日韩一区二区精品| 成人性生交大片免费视频hd| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 国产黄色小视频在线观看| 男人的好看免费观看在线视频| 听说在线观看完整版免费高清| 亚洲五月婷婷丁香| 国产久久久一区二区三区| 又黄又粗又硬又大视频| 一二三四社区在线视频社区8| 欧美成狂野欧美在线观看| 中文在线观看免费www的网站| 91在线观看av| 不卡一级毛片| 久久久成人免费电影| 90打野战视频偷拍视频| 久久久久国内视频| www国产在线视频色| 激情在线观看视频在线高清| 国产精品自产拍在线观看55亚洲| 天堂网av新在线| 亚洲欧美日韩无卡精品| 黄色片一级片一级黄色片| 亚洲国产精品合色在线| 少妇的逼好多水| 久久草成人影院| 亚洲一区二区三区色噜噜| 在线观看美女被高潮喷水网站 | 窝窝影院91人妻| 久久精品国产自在天天线| 久久九九热精品免费| 国产精品亚洲美女久久久| 欧美午夜高清在线| 美女 人体艺术 gogo| 婷婷精品国产亚洲av| 久久精品综合一区二区三区| 中文字幕人妻熟人妻熟丝袜美 | 亚洲avbb在线观看| 老熟妇仑乱视频hdxx| 亚洲国产精品成人综合色| 国产av麻豆久久久久久久| 色噜噜av男人的天堂激情| 亚洲国产色片| 特级一级黄色大片| 五月玫瑰六月丁香| 国产高清videossex| 久久久久亚洲av毛片大全| 99riav亚洲国产免费| 一本综合久久免费| 五月玫瑰六月丁香| 精品久久久久久成人av| 亚洲欧美日韩无卡精品| 国产成人欧美在线观看| 婷婷精品国产亚洲av| 午夜福利免费观看在线| 国内精品久久久久精免费| 欧美av亚洲av综合av国产av| 亚洲五月婷婷丁香| 少妇高潮的动态图| 日本免费a在线| 九色国产91popny在线| 精品人妻1区二区| 一区二区三区免费毛片| 国产精品一区二区三区四区免费观看 | 热99在线观看视频| 国产黄色小视频在线观看| 91字幕亚洲| 天堂av国产一区二区熟女人妻| 欧美日本亚洲视频在线播放| 国产精品爽爽va在线观看网站| 99精品久久久久人妻精品| 国产在线精品亚洲第一网站| 久久欧美精品欧美久久欧美| www.999成人在线观看| 99久久无色码亚洲精品果冻| 中出人妻视频一区二区| 久久久久久久久中文| 国产精品亚洲一级av第二区| www日本黄色视频网| 国产精品一及| 观看美女的网站| 国产色爽女视频免费观看| 成人国产一区最新在线观看| 18禁黄网站禁片免费观看直播| 香蕉av资源在线| 国产高清有码在线观看视频| av视频在线观看入口| 午夜久久久久精精品| 精品人妻偷拍中文字幕| 狠狠狠狠99中文字幕| 欧美另类亚洲清纯唯美| 欧美区成人在线视频| 丰满乱子伦码专区| 又爽又黄无遮挡网站| 又紧又爽又黄一区二区| 久久香蕉国产精品| www国产在线视频色| 成人特级黄色片久久久久久久| 久久久久久大精品| 色尼玛亚洲综合影院| 在线天堂最新版资源| 国产av不卡久久| 中出人妻视频一区二区| 亚洲国产高清在线一区二区三| 久久精品综合一区二区三区| 久久久国产成人精品二区| 久久精品国产亚洲av涩爱 | 观看免费一级毛片| 12—13女人毛片做爰片一| 嫩草影院精品99| 精品久久久久久成人av| 色老头精品视频在线观看| 国产蜜桃级精品一区二区三区| 亚洲最大成人手机在线| 亚洲午夜理论影院| 久久精品国产亚洲av香蕉五月| www.www免费av| 精品人妻一区二区三区麻豆 | 日韩大尺度精品在线看网址| 国产免费一级a男人的天堂| 欧美日韩中文字幕国产精品一区二区三区| 免费在线观看成人毛片| 18+在线观看网站| 亚洲精品日韩av片在线观看 | tocl精华| 国产 一区 欧美 日韩| 国产一级毛片七仙女欲春2| 岛国视频午夜一区免费看| 一本一本综合久久| 精品国内亚洲2022精品成人| 成人av一区二区三区在线看| 国产精品自产拍在线观看55亚洲| 在线看三级毛片| 久久精品亚洲精品国产色婷小说| avwww免费| 极品教师在线免费播放| 麻豆国产av国片精品| 色尼玛亚洲综合影院| 国产免费男女视频| 亚洲成人久久性| 亚洲av电影在线进入| 99热这里只有是精品50| 日韩欧美国产一区二区入口| 国产高清有码在线观看视频| xxx96com| 一a级毛片在线观看| 精品久久久久久久毛片微露脸| 美女cb高潮喷水在线观看| 熟女少妇亚洲综合色aaa.| 91九色精品人成在线观看| 国产高潮美女av| 久久精品国产清高在天天线| 最近最新中文字幕大全免费视频| 国内精品久久久久久久电影| 夜夜躁狠狠躁天天躁| 亚洲色图av天堂| 国产真实伦视频高清在线观看 | 日日摸夜夜添夜夜添小说| 午夜两性在线视频| 男女做爰动态图高潮gif福利片| 我要搜黄色片| 久久久久性生活片| 国产精品野战在线观看| 国产一区二区三区视频了| 久久精品国产自在天天线| 在线观看美女被高潮喷水网站 | 岛国视频午夜一区免费看| 嫩草影院入口| 99久久综合精品五月天人人| 国产精品亚洲美女久久久| 久久久久亚洲av毛片大全| 国产亚洲欧美在线一区二区| 亚洲最大成人手机在线| 老师上课跳d突然被开到最大视频 久久午夜综合久久蜜桃 | 久久久久免费精品人妻一区二区| 久久久久久九九精品二区国产| 久久精品国产清高在天天线| 老鸭窝网址在线观看| 欧美黄色淫秽网站| 成人精品一区二区免费| 国产一区二区三区视频了| 日韩欧美三级三区| 最后的刺客免费高清国语| 国产精品永久免费网站| 国内精品一区二区在线观看| 欧美区成人在线视频| 每晚都被弄得嗷嗷叫到高潮| 一个人免费在线观看的高清视频| 国产69精品久久久久777片| 99久久久亚洲精品蜜臀av| 欧美成人一区二区免费高清观看| 国产亚洲精品av在线| 久久精品国产亚洲av香蕉五月| www.www免费av| a级一级毛片免费在线观看| 3wmmmm亚洲av在线观看| 有码 亚洲区| 久久伊人香网站| 日本黄色视频三级网站网址| 欧美性猛交黑人性爽| 色av中文字幕| 国产毛片a区久久久久| 日韩欧美精品v在线| 亚洲精华国产精华精| 内地一区二区视频在线| 少妇高潮的动态图| 丁香欧美五月| 一夜夜www| www国产在线视频色| 国产免费男女视频| 亚洲欧美日韩无卡精品| 国内毛片毛片毛片毛片毛片| 欧美色欧美亚洲另类二区| 国产亚洲精品综合一区在线观看| 午夜免费成人在线视频| 国产一区二区三区在线臀色熟女| 狂野欧美白嫩少妇大欣赏| 亚洲中文日韩欧美视频| 好男人电影高清在线观看| 成年女人永久免费观看视频| 操出白浆在线播放| 欧美高清成人免费视频www| 欧美又色又爽又黄视频| 久久精品综合一区二区三区| 国产成人aa在线观看| 看片在线看免费视频| 又粗又爽又猛毛片免费看| 一个人免费在线观看的高清视频| 桃色一区二区三区在线观看| 国产精品亚洲美女久久久| 亚洲国产精品999在线| 观看美女的网站| 精品日产1卡2卡| 婷婷精品国产亚洲av| 97超视频在线观看视频| 免费观看的影片在线观看| 高潮久久久久久久久久久不卡| 亚洲一区二区三区色噜噜| 亚洲内射少妇av| 亚洲人与动物交配视频| 国产亚洲精品一区二区www| 美女大奶头视频| 夜夜爽天天搞| 精品人妻一区二区三区麻豆 | 夜夜看夜夜爽夜夜摸| 天美传媒精品一区二区| 亚洲久久久久久中文字幕| 熟女电影av网| 国产精品三级大全| 国产69精品久久久久777片| 天天一区二区日本电影三级| 一区福利在线观看| a在线观看视频网站| 天堂网av新在线| 神马国产精品三级电影在线观看| 超碰av人人做人人爽久久 | 搡老熟女国产l中国老女人| 国产成人系列免费观看| 免费人成视频x8x8入口观看| 国内久久婷婷六月综合欲色啪| 精品人妻一区二区三区麻豆 | 夜夜夜夜夜久久久久| 99国产精品一区二区三区| 国产一区在线观看成人免费| 中亚洲国语对白在线视频| 黑人欧美特级aaaaaa片| 成人av一区二区三区在线看| 69人妻影院| 99精品在免费线老司机午夜| 国产男靠女视频免费网站| 免费搜索国产男女视频| 九色国产91popny在线| 日本五十路高清| 久久精品91无色码中文字幕| 99久久精品一区二区三区| 精品国产三级普通话版| 亚洲国产色片| 久久久久国产精品人妻aⅴ院| 国产私拍福利视频在线观看| 国产精品嫩草影院av在线观看 | 97碰自拍视频| 欧美成人一区二区免费高清观看| 美女被艹到高潮喷水动态| 亚洲国产精品999在线| 午夜福利视频1000在线观看| 欧美+日韩+精品| 久久久久久久久久黄片| 色尼玛亚洲综合影院| 亚洲精品成人久久久久久| 欧美日韩福利视频一区二区| 久久国产精品影院| 亚洲av熟女| 中文字幕久久专区| 久久久久久久久久黄片| 日本三级黄在线观看| 日韩 欧美 亚洲 中文字幕| aaaaa片日本免费| 国产爱豆传媒在线观看| 亚洲五月婷婷丁香| 黄色日韩在线| 超碰av人人做人人爽久久 | 亚洲片人在线观看| svipshipincom国产片| 美女免费视频网站| www国产在线视频色| 一区福利在线观看| 蜜桃久久精品国产亚洲av| 一区福利在线观看| 校园春色视频在线观看| avwww免费| 91麻豆av在线| 97人妻精品一区二区三区麻豆| 久久精品国产99精品国产亚洲性色| 日本五十路高清| 老司机午夜福利在线观看视频| 久久精品国产自在天天线| 99热这里只有精品一区| 黄色女人牲交| 中文在线观看免费www的网站| 国产精品免费一区二区三区在线| 日本一本二区三区精品| 床上黄色一级片| 亚洲av中文字字幕乱码综合| 丰满乱子伦码专区| 国产午夜精品论理片| 国产精品自产拍在线观看55亚洲| 欧美日韩国产亚洲二区| 一夜夜www| 婷婷亚洲欧美| 欧美黑人巨大hd| 国产精品1区2区在线观看.| 男女视频在线观看网站免费| 老熟妇乱子伦视频在线观看| 69av精品久久久久久| 国产亚洲精品av在线| 亚洲精品国产精品久久久不卡| 小蜜桃在线观看免费完整版高清| 亚洲国产欧美人成| 午夜日韩欧美国产| 亚洲av日韩精品久久久久久密| 成人精品一区二区免费| 午夜福利免费观看在线| 国产激情欧美一区二区| 国产成年人精品一区二区| 99久久成人亚洲精品观看| 高清在线国产一区| 日韩欧美精品v在线| 欧美中文日本在线观看视频| 国产一区二区在线观看日韩 | xxxwww97欧美| av中文乱码字幕在线| 国产成人av教育| 欧美最新免费一区二区三区 | 午夜两性在线视频| 免费观看人在逋| 人妻丰满熟妇av一区二区三区| 18禁黄网站禁片免费观看直播| 真人一进一出gif抽搐免费| 岛国在线观看网站| 麻豆国产97在线/欧美| 亚洲精品乱码久久久v下载方式 | 91久久精品国产一区二区成人 | 在线观看66精品国产| 18禁在线播放成人免费| 精品久久久久久久久久免费视频| 亚洲精品日韩av片在线观看 | 最新美女视频免费是黄的| 国产真实伦视频高清在线观看 | av福利片在线观看| 欧美一区二区亚洲| 午夜免费男女啪啪视频观看 | 99热只有精品国产| 蜜桃久久精品国产亚洲av| 午夜影院日韩av| 在线观看日韩欧美| 九九在线视频观看精品| 69av精品久久久久久| 搡老熟女国产l中国老女人| 中文字幕人妻丝袜一区二区| 欧美中文综合在线视频| 97人妻精品一区二区三区麻豆| 欧美日韩福利视频一区二区| 不卡一级毛片| 欧美成人一区二区免费高清观看| 日本熟妇午夜| 极品教师在线免费播放| 亚洲中文日韩欧美视频| 亚洲精品色激情综合| 亚洲久久久久久中文字幕| 中文字幕人成人乱码亚洲影| 欧美3d第一页| 国产精品久久久久久亚洲av鲁大| 99在线视频只有这里精品首页| 欧美三级亚洲精品| 亚洲五月天丁香| 亚洲最大成人中文| 乱人视频在线观看| 欧美高清成人免费视频www| 久久香蕉国产精品| 中文字幕久久专区| 国产成年人精品一区二区| 真实男女啪啪啪动态图| 国产免费av片在线观看野外av| 色av中文字幕| 美女大奶头视频| 国产精品亚洲av一区麻豆| 久久人人精品亚洲av| 熟女少妇亚洲综合色aaa.| 国产av在哪里看| 日韩欧美在线二视频| av欧美777| 亚洲人成网站高清观看| 乱人视频在线观看| 婷婷亚洲欧美| 日本一二三区视频观看| 国产高潮美女av| 日韩有码中文字幕| 免费看a级黄色片| 欧美中文综合在线视频| 19禁男女啪啪无遮挡网站| 香蕉久久夜色| 亚洲欧美一区二区三区黑人| 欧美日韩瑟瑟在线播放| 久久亚洲真实| 在线观看免费视频日本深夜| 亚洲成av人片免费观看| 精品一区二区三区人妻视频| 麻豆国产av国片精品| 亚洲精品亚洲一区二区| 亚洲人与动物交配视频| 人人妻人人澡欧美一区二区| 欧美极品一区二区三区四区| 亚洲美女视频黄频| 色尼玛亚洲综合影院|