• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    高分遙感影像云雪共存區(qū)輕量云高精度檢測(cè)方法

    2023-02-18 01:12:22張廣斌高賢君冉樹(shù)浩楊元維李麗珊
    測(cè)繪學(xué)報(bào) 2023年1期
    關(guān)鍵詞:特征檢測(cè)方法

    張廣斌,高賢君,2,冉樹(shù)浩,楊元維,3,4,李麗珊,張 妍

    1. 長(zhǎng)江大學(xué)地球科學(xué)學(xué)院,湖北 武漢 430100; 2. 自然資源部環(huán)鄱陽(yáng)湖區(qū)域礦山環(huán)境監(jiān)測(cè)與治理重點(diǎn)實(shí)驗(yàn)室,江西 南昌 330013; 3. 湖南科技大學(xué)測(cè)繪遙感信息工程湖南省重點(diǎn)實(shí)驗(yàn)室, 湖南 湘潭 411201; 4. 城市空間信息工程北京市重點(diǎn)實(shí)驗(yàn)室, 北京 100045

    遙感衛(wèi)星通過(guò)長(zhǎng)時(shí)間對(duì)地觀測(cè)記錄表征地表信息,對(duì)農(nóng)業(yè)、氣象、人文及環(huán)境等研究具有重要意義[1]。然而,年均約66%的地表會(huì)被云層覆蓋[2],云會(huì)模糊甚至遮擋地面目標(biāo),嚴(yán)重限制光學(xué)衛(wèi)星影像的利用[3]。因此,在多數(shù)遙感影像的處理中,精確的云檢測(cè)工作是不可或缺的。然而,在高海拔、高緯度地區(qū)或是冬季的云檢測(cè)任務(wù)中,下墊面中具有相似反射特征和局部紋理的雪將會(huì)成為主要噪聲源干擾云檢測(cè)結(jié)果[4]。這使得在云雪共存區(qū)域開(kāi)展高效且精確的云檢測(cè)工作具有重要的研究?jī)r(jià)值。

    多年來(lái),研究者已經(jīng)提出了多種云檢測(cè)的方法,可大致分為基于規(guī)則的方法以及基于統(tǒng)計(jì)的方法。首先,基于規(guī)則的算法常利用紅外波段與其他光譜波段的派生值捕獲云與其他地物的電磁波反射或輻射特性差異,進(jìn)而結(jié)合恒定的或者自適應(yīng)的閾值進(jìn)行云與背景像素的區(qū)分,如ACCA[5]、Fmask[6]及改進(jìn)的LCCD算法[7]。但是此類(lèi)方法僅考慮了低層次的光譜與空間特征,并且,它們都過(guò)于依賴(lài)紅外波段,缺乏面向不同傳感器的泛化能力[8]。這使得基于規(guī)則的云檢測(cè)方法泛化能力較弱,應(yīng)用限制性較強(qiáng)。其次,基于統(tǒng)計(jì)的方法對(duì)云的光譜、紋理、輪廓等更高層次的特征進(jìn)行提取利用,進(jìn)而實(shí)現(xiàn)自動(dòng)云檢測(cè),如支持向量機(jī)[9]、隨機(jī)森林[10]與神經(jīng)網(wǎng)絡(luò)[11]。由于這些分類(lèi)器的性能與可訓(xùn)練參數(shù)有限,在復(fù)雜的任務(wù)中其精度受到限制[12]。

    近年來(lái),基于統(tǒng)計(jì)的深度學(xué)習(xí)方法獲得了巨大的發(fā)展,其準(zhǔn)確性、泛化能力及推理速度均得到進(jìn)一步提升[13]。目前,基于深度學(xué)習(xí)的云檢測(cè)工作獲得了豐碩成果,主要從注重快速響應(yīng)能力或提高精度兩方面開(kāi)展。在追求快速推理方面,輕量級(jí)的RS-Net[13]與Cloud-U-Net[8]基于U-Net[14]架構(gòu)進(jìn)行了特征圖的深度減半處理,在確保云檢測(cè)精確性的同時(shí),減少了大量神經(jīng)網(wǎng)絡(luò)參數(shù)量與內(nèi)存占用量,從而實(shí)現(xiàn)了對(duì)遙感影像云掩膜的快速輸出。RS-Net在Landsat-8全波段產(chǎn)品上的平均處理時(shí)間提升到了18 s左右。同時(shí),Cloud-U-Net的預(yù)測(cè)時(shí)間減少為Fmask方法的1/60。在提高模型性能方面主要是通過(guò)改變網(wǎng)絡(luò)主干結(jié)構(gòu)或載入先進(jìn)組件的方式,以提高云檢測(cè)精度。例如,MSCFF[15]將網(wǎng)絡(luò)解碼部分上的多級(jí)特征圖進(jìn)行融合輸出,該機(jī)制促進(jìn)了多層級(jí)語(yǔ)義信息的聚合,從而在多種數(shù)據(jù)集上均顯示出了良好的精度。CDnetV2[16]向網(wǎng)絡(luò)內(nèi)部添加了自適應(yīng)特征融合模塊與高級(jí)語(yǔ)義信息引導(dǎo)模塊,分別為網(wǎng)絡(luò)賦予了有效的特征鑒別提取能力以及面向高級(jí)語(yǔ)義信息的空間位置信息補(bǔ)充能力,使得該網(wǎng)絡(luò)在云雪共存縮略圖中獲得了極佳的云檢測(cè)精度。

    盡管上述方法顯著提高了云檢測(cè)的效率和精度,但仍存在著一些亟須解決的問(wèn)題。首先,現(xiàn)存方法多是基于中低分辨率的遙感數(shù)據(jù)集設(shè)計(jì)并驗(yàn)證的。然而,近幾年高分辨率衛(wèi)星影像獲得廣泛的發(fā)展,針對(duì)高分辨率遙感影像的云檢測(cè)需求激增,基于中低分辨率的云檢測(cè)數(shù)據(jù)集無(wú)法滿足高分辨率遙感影像的高精度云檢測(cè)需求。其次,目前的云檢測(cè)方法均未詳細(xì)探討在高分辨率云雪共存場(chǎng)景中開(kāi)展云檢測(cè)任務(wù)的適用性。再者,常用的云檢測(cè)模型難以平衡效率與精度提升兩方面,如RS-Net和Cloud-U-Net過(guò)于強(qiáng)調(diào)執(zhí)行效率,在準(zhǔn)確性方面仍有欠缺[16]。優(yōu)先考慮精度的網(wǎng)絡(luò),卻具有大量的參數(shù)量與運(yùn)算量,導(dǎo)致計(jì)算成本急劇增加、運(yùn)行速度降低。因此,本文創(chuàng)建了一套基于WorldView2影像的高分辨率云雪共存區(qū)云檢測(cè)數(shù)據(jù)集,同時(shí),提出了一種基于雙重自適應(yīng)特征融合及可控深層梯度指導(dǎo)流的參數(shù)可重構(gòu)多尺度特征融合網(wǎng)絡(luò),用于高分辨率以及云雪共存的場(chǎng)景中的云檢測(cè),該網(wǎng)絡(luò)既能保證精度最優(yōu)又注重可輕量化部署。

    1 方 法

    1.1 高精度輕量級(jí)云檢測(cè)網(wǎng)絡(luò)RDC-Net

    本文提出一種云檢測(cè)網(wǎng)絡(luò)RDC-Net(圖1),其整體構(gòu)成如下:首先,具有并行通道的可重構(gòu)多尺度特征融合模塊(Re-MFF)貫穿網(wǎng)絡(luò)的編解碼部分,驅(qū)動(dòng)整個(gè)網(wǎng)絡(luò)的運(yùn)行。該模塊在訓(xùn)練階段能夠捕獲與聚合網(wǎng)絡(luò)中不同層級(jí)的多尺度云特征,并且在測(cè)試應(yīng)用階段能夠進(jìn)行無(wú)損重構(gòu)與輕量化部署。其次,雙重自適應(yīng)特征融合結(jié)構(gòu)(DAFF)部署于等效特征圖的跳層連接之后,可對(duì)輸入特征進(jìn)行自適應(yīng)地強(qiáng)調(diào)或者抑制信息,從而動(dòng)態(tài)地改善特征的可用性,促進(jìn)有效信息在網(wǎng)絡(luò)中的傳播流動(dòng)。最后,可控深層梯度指導(dǎo)流(CDGGF)分布在解碼部分,有利于融合解碼部分中相鄰層級(jí)的可用特征,并對(duì)網(wǎng)絡(luò)內(nèi)部的梯度流進(jìn)行無(wú)偏指導(dǎo)。

    圖1 RDC-Net網(wǎng)絡(luò)模型結(jié)構(gòu)Fig.1 The architecture of RDC-Net

    1.2 可重構(gòu)多尺度特征融合模塊

    多分支拓?fù)浣Y(jié)構(gòu)能夠有效地提升網(wǎng)絡(luò)的表征能力[17-19],應(yīng)用于云檢測(cè)任務(wù)中,有利于多尺度特征的聚合,以提升網(wǎng)絡(luò)對(duì)云與雪等易混淆地物的判別度[20],進(jìn)而提高云檢測(cè)精度。但是,復(fù)雜的多分支拓?fù)浣Y(jié)構(gòu)為網(wǎng)絡(luò)帶來(lái)了大量的參數(shù)量、計(jì)算量與訪存量,延遲了網(wǎng)絡(luò)的推理速度。因此,基于結(jié)構(gòu)重參數(shù)化技術(shù)[21],本文設(shè)計(jì)了全新的可重構(gòu)多尺度特征融合模塊(reconstructible multiscale feature fusion module,Re-MFF),將網(wǎng)絡(luò)的訓(xùn)練與推理過(guò)程解耦,以保證網(wǎng)絡(luò)不僅在訓(xùn)練階段具有良好特征捕獲能力,而且在部署階段具有極佳的推理速度,以更好地達(dá)到精度與速度的平衡。

    Re-MFF模塊在訓(xùn)練階段的具體結(jié)構(gòu)如圖2(a)所示。該模塊由3個(gè)多通道單元及相應(yīng)的線性激活層(ReLU)構(gòu)成。多通道單元中具有不同體系的映射通道將淺層特征表征于更深層,以使網(wǎng)絡(luò)獲得更為豐富的特征空間。此外,值得注意的是,為進(jìn)一步加大網(wǎng)絡(luò)中卷積核的感受野,RDC-Net中的兩個(gè)Re-MFF(圖1中框體處)做了細(xì)微調(diào)整。具體而言,這兩處Re-MFF中所有的3×3卷積通道(可見(jiàn)圖2(a)中的三角標(biāo)注處)分別被更換為具有d1和d2膨脹率的3×3空洞卷積通道。

    在對(duì)Re-MFF進(jìn)行無(wú)損重構(gòu)的過(guò)程中,多通道單元中的各個(gè)通道分支將會(huì)首先聚合為一個(gè)卷積層,其過(guò)程如算法1中FuseBranch函數(shù)所示。該函數(shù)中,k和d分別代指重構(gòu)前卷積核的卷積尺寸與膨脹率,ω和b分別為該卷積核的權(quán)重向量與偏移向量,μ、σ、γ、β和eps分別為卷積層后標(biāo)準(zhǔn)歸一化層中的累計(jì)平均值、標(biāo)準(zhǔn)偏差、學(xué)習(xí)權(quán)重、學(xué)習(xí)偏差及穩(wěn)定動(dòng)量,C1與C2分別為輸入與輸出特征圖的通道數(shù)。計(jì)算所得的W與B分別為通道分支重構(gòu)為單個(gè)卷積后的權(quán)重向量與偏移向量。各個(gè)通道分支轉(zhuǎn)換為單個(gè)卷積之后,進(jìn)一步將多通道單元構(gòu)置為單一卷積核。具體的操作流程如算法1中FuseUnit函數(shù)所示,其中Ψ與Φ分別代表著重構(gòu)后的卷積核權(quán)重向量與偏置向量。將所得到的Ψ與Φ分別加載于圖2(b)中對(duì)應(yīng)的卷積中便完成了對(duì)多尺度特征融合模塊的無(wú)損重構(gòu)。

    圖2 Re-MFF的重構(gòu)過(guò)程Fig.2 Reconstruction process in Re-MFF model

    根據(jù)以上描述以及算法1中的FuseUnit函數(shù)可知,Re-MFF中具有膨脹率d的多通道單元在無(wú)損重構(gòu)后將會(huì)獲得具有同樣大小膨脹率d的單個(gè)卷積核。因此,RDC-Net中不同位置的Re-MFF雖有一些細(xì)節(jié)差異,但這并不影響重構(gòu)過(guò)程。

    Algorithm 1:The implementation of reconstruction for Re-MFF

    Input:M-Unit Multi-channel unit in Re-MFF

    Output:S-Unit Single channel unit reconstructed by multi-channel

    function FuseUnit(M-Unit)

    Ψ,Φ,k,d=0,0,0,0

    for Branch in M-Unit do

    Ψ+=FuseBranch(Branch)[0]

    Φ+=FuseBranch(Branch)[1]

    end for

    k,d=GetKD(M-Unit)

    S-Unit=torch.nn.Conv2d(C1,C2,k,d))

    S-Unit.weight,S-Unit.bias=Ψ,Φ

    return S-Unit

    end function

    function FuseBranch(Branch)

    if Branch hasattr convbn then

    k,d=Branch.conv.kernelsize,Branch.conv.dilation

    ω,b=Branch.conv.weight,Branch.conv.bias

    μ,ν,eps=Branch.bn.mean,Branch.bn.var,Branch.bn.eps

    γ,β=Branch.bn.weight,Branch.bn.bias

    W,B=t*ω,beta+b-mean*gamma/std

    ifk==1 then

    W=PadTensor(W)

    end if

    returnW,B

    else if Branch hasattr identity then

    W,B=zeros(C2,C1,3,3),0

    foriinC2do

    W[i,i%C1,1,1]=1

    end for

    returnW,B

    end if

    end function

    function PadWeight(Weight)

    Weight=torch.nn.functional.pad(Weight,[1,1,1,1])

    return Weight

    end function

    function GetKD(M-Unit)

    k,d=0,0

    for Branch in M-Unit do

    ifk

    k=Branch.conv.kernelsize

    end if

    ifd

    d=Branch.conv.dilation

    end if

    end for

    returnk,d

    end function

    1.3 雙重自適應(yīng)特征融合模塊

    在卷積神經(jīng)網(wǎng)絡(luò)中,通常使用特征元素求和或是串聯(lián)的方式來(lái)融合多層次/多尺度的特征[14,17,19,22],以提升網(wǎng)絡(luò)的特征表征能力。但是該操作所得的特征圖中所蘊(yùn)含的特征信息量大且冗余度較高,后續(xù)的映射變換操作中難以對(duì)有效信息進(jìn)行高效利用。受混合域空間注意力[23-24]的啟發(fā),本文提出了輕量級(jí)的雙重自適應(yīng)特征融合模塊(dual adaptive feature fusion module,DAFF)并運(yùn)用于RDC-Net的跳層連接結(jié)構(gòu)中。當(dāng)網(wǎng)絡(luò)的底層空間信息與抽象的高級(jí)語(yǔ)義信息進(jìn)行融合后,DAFF能夠基于特征圖的空間域與通道域進(jìn)行重要特征的篩選,以促進(jìn)網(wǎng)絡(luò)對(duì)重要特征的關(guān)注,并抑制貢獻(xiàn)較小的冗余特征。

    網(wǎng)絡(luò)中淺層的等效特征圖在與深層特征圖建立跳層連接關(guān)系后,DAFF則會(huì)對(duì)其鄰域空間上特征間的相互依賴(lài)性進(jìn)行顯式的建模,來(lái)自適應(yīng)地重新校準(zhǔn)特征質(zhì)量。如圖3所示,這一處理過(guò)程包括如下兩個(gè)步驟:

    圖3 雙重自適應(yīng)特征融合結(jié)構(gòu)Fig.3 The architecture of dual adaptive feature fusion model

    首先,給定的輸入特征圖F∈RH×W×C將會(huì)首先沿著通道軸進(jìn)行特征表示的重建,具體過(guò)程可表示為

    Fc=σ(Conv(kc,dc)⊙AvgPool(F))?F

    (1)

    式中,Conv(k,d)指代核為k、膨脹率為d的卷積核;⊙代表著卷積核與特征圖的濾波響應(yīng);?為哈達(dá)瑪積;σ是Sigmoid函數(shù)。

    其次,所得的通道特征重建圖Fc∈RH×W×C將會(huì)再次沿著空間軸進(jìn)行特征表示的重建,見(jiàn)式(2),最終獲得空間特征重建圖Fs∈RH×W×C

    Fs=σ(Conv(ks,ds)⊙cat(AvgPool(Fc),MaxPool(Fc)))?Fc

    (2)

    1.4 可控深層梯度指導(dǎo)流模塊

    標(biāo)準(zhǔn)的卷積神經(jīng)網(wǎng)絡(luò)僅在輸出層提供監(jiān)督反饋,其中間層在訓(xùn)練過(guò)程中很難直接、透明地面向目標(biāo)特征進(jìn)行學(xué)習(xí),并且隨著網(wǎng)絡(luò)深度的增加,梯度消失或爆炸的可能性會(huì)大大增加。因此,RDC-Net在解碼層添加了可控深層梯度指導(dǎo)流(CDGGF)作為網(wǎng)絡(luò)訓(xùn)練的附加約束,使隱藏層參數(shù)的更新更具梯度動(dòng)量,從而加快收斂速度并提升網(wǎng)絡(luò)特征表征能力。

    圖4 深層梯度指導(dǎo)流模塊結(jié)構(gòu)Fig.4 The structure of deep gradient guided flow module

    (3)

    (4)

    式中,Zm是第m層濾波器核函數(shù)與前層特征圖的濾波響應(yīng);σ指代Sigmoid激活函數(shù);h、w分別代表輸入影像的高和寬;L為損失函數(shù)計(jì)算所得損失值。

    在CDGGF的反卷積處理過(guò)程中,大尺度的上采樣與維度壓縮會(huì)導(dǎo)致精細(xì)信息的損失。由于CDGGF能夠直接連接到目標(biāo)特征,并被用作特征學(xué)習(xí)質(zhì)量的反饋,這會(huì)為前層參數(shù)的更新帶來(lái)誤差,并最終影響網(wǎng)絡(luò)的學(xué)習(xí)能力。因此,CDGGF采取了一系列策略來(lái)抑制這種情況所產(chǎn)生的負(fù)面影響。

    一方面,如式(5)所定義,不同的權(quán)重系數(shù)ωl被加權(quán)到與不同層級(jí)特征圖耦合的CDGGF中,可以權(quán)衡不同分支路徑中梯度流的重要性,以便抑制具有誤差性的反向傳播

    (5)

    另一方面,改進(jìn)的鉸鏈損失(hinge loss)被應(yīng)用于CDGGF,即如果所有分支中交叉熵函數(shù)所得損失之和小于閾值α,則梯度下降算法將忽略這些值,如式(6)所示

    (6)

    這一機(jī)制可以防止在訓(xùn)練后期網(wǎng)絡(luò)梯度趨于穩(wěn)定時(shí),低分辨率的特征圖過(guò)于直接從目標(biāo)特征中學(xué)習(xí)而增加了學(xué)習(xí)錯(cuò)誤信號(hào)的可能性,將不確定性引入網(wǎng)絡(luò)。

    2 數(shù) 據(jù)

    2.1 高分辨率云雪共存區(qū)云檢測(cè)數(shù)據(jù)集

    目前遙感影像中云檢測(cè)的研究工作已經(jīng)取得顯著進(jìn)展,且一系列的云檢測(cè)數(shù)據(jù)集被創(chuàng)建并公開(kāi)[11,15,25-26]?,F(xiàn)存的云檢測(cè)數(shù)據(jù)集多為中低分辨率,并無(wú)開(kāi)源的專(zhuān)門(mén)面向于云雪共存區(qū)域的云檢測(cè)數(shù)據(jù)集。

    因此筆者創(chuàng)建了一套具有高分辨率的開(kāi)源云檢測(cè)數(shù)據(jù)集,數(shù)據(jù)集中包含了37幅視場(chǎng)內(nèi)可以同時(shí)觀測(cè)到云區(qū)與雪區(qū)的影像。同時(shí)為保證場(chǎng)景的多樣性,數(shù)據(jù)集中的影像采集于2014—2018年的不同時(shí)段,且分布于歐洲、亞洲及北美洲的不同位置區(qū),以使得場(chǎng)景中包括不同季節(jié)的高原、山區(qū)、城市及水域等下墊面信息。

    對(duì)該數(shù)據(jù)集進(jìn)行手動(dòng)標(biāo)識(shí)云區(qū)的操作是在Adobe Photoshop及ENVI中使用相應(yīng)的繪制功能來(lái)進(jìn)行的。此構(gòu)建過(guò)程存在著兩方面的問(wèn)題,一方面,高分辨率遙感影像中云的形態(tài)多樣性與邊界模糊性被放大,淺薄云與冰雪等高亮下墊面具有相似的光譜反射率和局部紋理特征,因此在影像中難以定性地對(duì)每個(gè)像素進(jìn)行精準(zhǔn)的云標(biāo)識(shí)。另一方面,分析師的主觀判定差異會(huì)導(dǎo)致制作標(biāo)簽的平均誤差達(dá)到7%[27]。因此,為了保證樣本數(shù)據(jù)的精準(zhǔn)性與一致性,在整個(gè)處理過(guò)程中只采用一種云像素解釋判定標(biāo)準(zhǔn),即只要云像素在視覺(jué)上能夠分辨,或者說(shuō)判定該像素與云的相似度為50%及以上,其就會(huì)被標(biāo)識(shí)為云,如圖5(a)所示。這一標(biāo)準(zhǔn)同樣適用于在雪上空的云像素,如圖5(b)所示。此外,人工標(biāo)記云標(biāo)簽的過(guò)程僅由兩位經(jīng)過(guò)統(tǒng)一指導(dǎo)培訓(xùn)的分析師執(zhí)行,其中一位分析師進(jìn)行云像素的標(biāo)記,另一位分析師則負(fù)責(zé)對(duì)標(biāo)記工作進(jìn)行檢查,從而確保標(biāo)注工作質(zhì)量達(dá)到最佳。

    圖5 CloudS數(shù)據(jù)集中原始影像與云標(biāo)簽的對(duì)比Fig.5 The comparison of original images and cloud label in the CloudS dataset

    總的來(lái)說(shuō),在整個(gè)數(shù)據(jù)集的制作過(guò)程中,由于能夠嚴(yán)格按照云判定標(biāo)準(zhǔn)執(zhí)行,并且進(jìn)行合理的工作分配,因而能夠進(jìn)一步確保該數(shù)據(jù)集的云標(biāo)注質(zhì)量。

    2.2 數(shù)據(jù)集的進(jìn)一步劃分

    為了評(píng)估不同的方法在亞米級(jí)和米級(jí)高分辨率遙感影像上的穩(wěn)健性,該數(shù)據(jù)集被進(jìn)一步劃分。37幅場(chǎng)景中有13幅0.5 m的分辨率影像,并將其命名為亞米級(jí)分辨率云檢測(cè)數(shù)據(jù)集(CloudS_Y13)。通過(guò)對(duì)其余24個(gè)場(chǎng)景的原始影像進(jìn)行下采樣操作,使其分辨率保持在5 m左右,從而構(gòu)建了一個(gè)米級(jí)分辨率云檢測(cè)數(shù)據(jù)集(CloudS_M24)。圖6給出了CloudS_M24和CloudS_Y13的標(biāo)注示例。此外,有關(guān)兩個(gè)數(shù)據(jù)集的詳細(xì)對(duì)比信息見(jiàn)表1。由于原始影像中云雪共存區(qū)域的可見(jiàn)面積不定,因此每幅影像的尺寸也是不定的。值得注意的是,該數(shù)據(jù)集已在https:∥github.com/zhanggb1997/RDC-CloudS上公開(kāi),以幫助其他研究人員進(jìn)行相關(guān)研究。

    表1 數(shù)據(jù)集詳細(xì)信息對(duì)比Tab.1 Comparison of dataset details

    圖6 CloudS_M24與CloudS_Y13中的部分標(biāo)注示例Fig.6 Some annotation samples from CloudS_M24 and CloudS_Y13

    3 試 驗(yàn)

    3.1 試驗(yàn)設(shè)計(jì)

    本文試驗(yàn)分別基于CloudS_M24與CloudS_Y13數(shù)據(jù)集開(kāi)展,以評(píng)估云檢測(cè)方法在米級(jí)和亞米級(jí)分辨率遙感影像上的穩(wěn)健性。在對(duì)CloudS_M24與CloudS_Y13中原始數(shù)據(jù)進(jìn)行處理時(shí),CloudS_M24數(shù)據(jù)集中的6幅影像被分配到測(cè)試子集中,其余的18幅影像被歸納為訓(xùn)練與驗(yàn)證子集。在CloudS_Y13數(shù)據(jù)集中,其中的3幅影像被歸納到了測(cè)試子集中,其余的10幅影作為訓(xùn)練與驗(yàn)證子集。在原始數(shù)據(jù)的分配完成后,兩個(gè)數(shù)據(jù)集中所有的場(chǎng)景均會(huì)被512像素大小的裁剪步幅切割為5122像素尺寸的無(wú)重疊圖像塊。然后,訓(xùn)練與驗(yàn)證子集中所獲得的裁剪圖像塊將會(huì)按照一定的比例劃分到訓(xùn)練子集與驗(yàn)證子集中去。由于兩個(gè)數(shù)據(jù)集圖像塊數(shù)量差距明顯,劃分過(guò)程中未規(guī)定各數(shù)據(jù)子集的固定占比,其中較小的CloudS_M24數(shù)據(jù)集為了避免模型預(yù)測(cè)結(jié)果的偶然性,其驗(yàn)證子集與測(cè)試子集的數(shù)量占比要更高一些。最后,所有的圖像塊被劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集3個(gè)數(shù)據(jù)子集,用于卷積神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)調(diào)優(yōu)、無(wú)偏評(píng)估以及最終評(píng)價(jià)。值得注意的是,在數(shù)據(jù)集的劃分過(guò)程中,每個(gè)子集合都嚴(yán)格保證數(shù)據(jù)的獨(dú)立性與隨機(jī)性。表2給出了詳細(xì)的數(shù)據(jù)集劃分信息。

    表2 不同數(shù)據(jù)集的訓(xùn)練細(xì)節(jié)Tab.2 The training details in different datasets

    本文所有試驗(yàn)均運(yùn)行于64位Windows10操作系統(tǒng)的計(jì)算機(jī)上,該設(shè)備配有AMDRyzen5 5600X 6-Core Processor處理器,具有24 GB顯存的NVIDIA GeForce RTX 3090 GPU?;谝陨吓渲?,進(jìn)一步搭建了Python3.8+Pytorch1.8.0+CUDA11.1深度學(xué)習(xí)環(huán)境。訓(xùn)練過(guò)程中采用Adam優(yōu)化算法進(jìn)行梯度下降,選擇交叉熵函數(shù)作為損失函數(shù),學(xué)習(xí)率設(shè)置為0.000 1,迭代次數(shù)分別設(shè)置為100和50,每次迭代的批量數(shù)為8。

    本文中選用了廣泛運(yùn)用于圖像語(yǔ)義分割領(lǐng)域的U-Net[14],以及適用于云檢測(cè)任務(wù)的RS-Net[13]、CloudSegNet[12]和CDnetV2[16],總共4種具有代表性的方法與本文方法,基于上述數(shù)據(jù)集進(jìn)行對(duì)比試驗(yàn)。將試驗(yàn)結(jié)果與真值進(jìn)行像素級(jí)的差異性與一致性評(píng)估,選用交并比(IoU)、綜合分?jǐn)?shù)(F1score)、精確率(OA)、查準(zhǔn)率(Precision)和查全率(Recall)作為評(píng)價(jià)指標(biāo)。同時(shí),綜合運(yùn)用浮點(diǎn)運(yùn)算數(shù)及參數(shù)量對(duì)網(wǎng)絡(luò)的復(fù)雜度進(jìn)行定量評(píng)估。

    3.2 試驗(yàn)結(jié)果與分析

    圖7顯示了不同方法基于CloudS_M24數(shù)據(jù)集的云檢測(cè)結(jié)果。其中U-Net,CloudSegNet和CDnetV2極易將裸露的淺色地表識(shí)別為薄云。同時(shí),位于厚云邊緣的一些不連續(xù)的稀薄云被這兩種方法所遺漏。此外,這3種方法在高亮的積雪區(qū)域產(chǎn)生了大量的云漏檢與誤檢現(xiàn)象。RS-Net盡量顧及場(chǎng)景中的薄云,且對(duì)雪域上空的云具有一定的穩(wěn)健提取能力,但是其在云邊界細(xì)節(jié)處理中比較粗糙,與標(biāo)簽中的真實(shí)云掩膜仍存在較大出入。RDC-Net能較好地保留薄云細(xì)節(jié)信息,檢測(cè)到雪上空的云,同時(shí)能夠防止裸露地面及淺色地物的影響。

    圖7 多種深度學(xué)習(xí)方法基于CloudS_M24數(shù)據(jù)集的云檢測(cè)結(jié)果可視化對(duì)比Fig.7 On the CloudS_M24 dataset, the visual comparison of cloud detection results for several deep learning methods

    表3展示了基于CloudS_M24數(shù)據(jù)集的各種云檢測(cè)方法的定量評(píng)估值:RDC-Net獲得了最高的IoU、F1score、OA和Precision值,在IoU與F1score兩個(gè)關(guān)鍵性指標(biāo)上分別得分82.71%和90.54%,相對(duì)于次優(yōu)的RS-Net分別高1.22%與0.74%。其他方法精度評(píng)估值較低,不適用于精確云檢測(cè)。

    表3 CloudS_M24中不同方法的云檢測(cè)結(jié)果定量比較Tab.3 The quantitative comparisons of cloud detection results using various methods on the CloudS_M24 dataset (%)

    圖8為基于CloudS_Y13數(shù)據(jù)集的試驗(yàn)結(jié)果:參與試驗(yàn)的所有方法的檢測(cè)結(jié)果在云邊緣上沒(méi)有很大的誤差,然而,在云層內(nèi)部與明亮地表區(qū)域可以發(fā)現(xiàn)更為明顯的問(wèn)題。U-Net、RS-Net與CloudSegNet在云內(nèi)部極易出現(xiàn)漏檢。此外,所有的對(duì)比方法均容易將陰影覆蓋的雪地、淺色的裸露土地以及高亮的建筑物頂部誤判為云。相比之下,RDC-Net能夠避免易混淆地物的干擾,得到幾乎無(wú)噪聲點(diǎn)的檢測(cè)結(jié)果。

    圖8 多種深度學(xué)習(xí)方法基于CloudS_Y13數(shù)據(jù)集的云檢測(cè)結(jié)果可視化對(duì)比Fig.8 On the CloudS_Y13 dataset, the visual comparison of cloud detection results for several deep learning methods

    基于CloudS_Y13的定量評(píng)價(jià)結(jié)果見(jiàn)表4,具有最佳可視化結(jié)果的RDC-Net精度評(píng)估值具有明顯優(yōu)勢(shì)。該方法的IoU和F1score分別為86.94%和93.02%,這要比次優(yōu)的CDnetV2相關(guān)指標(biāo)分別要高出3.74%及2.2%。U-Net在多項(xiàng)評(píng)估指標(biāo)上均為最低值,其IoU與F1score值分別僅為81.12%和89.57%。其他幾種參與試驗(yàn)的對(duì)比方法的定量評(píng)估值則相對(duì)于U-Net要好一些,但要遠(yuǎn)低于RDC-Net。

    表4 CloudS_Y13數(shù)據(jù)集中不同方法的云檢測(cè)結(jié)果定量比較Tab.4 The quantitative comparisons of cloud detection results using various methods on the CloudS_Y13 dataset (%)

    RDC-Net在參與試驗(yàn)的兩個(gè)子數(shù)據(jù)集中均能夠獲得極佳檢測(cè)結(jié)果的主要原因是:首先,RDC-Net中的Re-MFF不斷收集和融合來(lái)自不同特征域的多尺度特征,以加強(qiáng)不同尺度的特征間的相關(guān)性。這有利于對(duì)非局部性的空間和光譜特征差異進(jìn)行學(xué)習(xí),以此達(dá)到對(duì)具有相似性特征的云雪對(duì)象以及背景地物的高精度辨別。其次,DAFF將更有效的低級(jí)空間和光譜特征傳播到網(wǎng)絡(luò)的深處,以補(bǔ)償最大池化和卷積過(guò)程中的特征丟失問(wèn)題。再者,CDGGF聚合來(lái)自解碼器中不同層級(jí)的特征映射,并且使得網(wǎng)絡(luò)內(nèi)部特征直面目標(biāo)特征進(jìn)行擬合,以獲得最優(yōu)收斂。該結(jié)構(gòu)有助于捕獲保留更為精細(xì)的云特征,并且減少低級(jí)錯(cuò)誤分類(lèi)。

    此外,CloudS_M24數(shù)據(jù)集的分辨率較低且樣本量少,其中云與其他相似地物的空間和光譜特征區(qū)分度較低,這使得參與試驗(yàn)的對(duì)比方法難以從有限的訓(xùn)練樣本中學(xué)習(xí)具有良好區(qū)分性的特征。而輕量級(jí)的RDC-Net具有有限數(shù)量的參數(shù),有助于針對(duì)小樣本數(shù)據(jù)集進(jìn)行無(wú)偏學(xué)習(xí)以防止過(guò)擬合問(wèn)題的產(chǎn)生。在CloudS_Y13中,隨著空間分辨率的增加,小尺寸圖像塊可表達(dá)傳輸?shù)男畔⒘繙p少。對(duì)于網(wǎng)絡(luò)來(lái)說(shuō),從具有有限信息的圖像塊中捕獲區(qū)分特征更加困難。而RDC-Net中具有膨脹率的Re-MFF與DAFF使網(wǎng)絡(luò)的感受野大大擴(kuò)展,有助于網(wǎng)絡(luò)在高分辨率圖像中接收有關(guān)大尺度對(duì)象的更完整信息。

    3.3 網(wǎng)絡(luò)復(fù)雜性分析

    除了精度的硬性要求外,遙感影像的處理時(shí)長(zhǎng)同樣為云檢測(cè)應(yīng)用中的重要指標(biāo),且這一指標(biāo)在應(yīng)急響應(yīng)中更為突出[27-28]。以往的云檢測(cè)工作中,多數(shù)方法都強(qiáng)調(diào)了在原始場(chǎng)景中瞬時(shí)推理并快速獲取云掩膜的重要性[8,13]。因此在相同試驗(yàn)環(huán)境下,以CloudS_M24與CloudS_Y13中的測(cè)試集作為數(shù)據(jù)基準(zhǔn),進(jìn)一步對(duì)所有參與試驗(yàn)的方法的效率進(jìn)行評(píng)估。評(píng)估過(guò)程中將模型的前向推理時(shí)長(zhǎng)、浮點(diǎn)運(yùn)算次數(shù)以及參數(shù)量作為評(píng)價(jià)標(biāo)準(zhǔn)進(jìn)行比較,詳細(xì)的評(píng)估結(jié)果見(jiàn)表5。

    表5 不同方法的推理時(shí)長(zhǎng)、浮點(diǎn)運(yùn)算數(shù)量和參數(shù)量Tab.5 The value of reasoning time, floating point operations and the number of parameters for various methods

    由表5可知,RDC-Net具有最少的參數(shù)量以及極低的浮點(diǎn)計(jì)算量,其參數(shù)量與浮點(diǎn)計(jì)算量分別為585萬(wàn)與66.63GFlops,這是由于RDC-Net限制了整個(gè)網(wǎng)絡(luò)以及網(wǎng)絡(luò)中特征圖的深度。由于Re-MFF結(jié)構(gòu)中的并行卷積通道大量增加了網(wǎng)絡(luò)的訪存量與計(jì)算量,這使得其前向推理時(shí)間在參與試驗(yàn)的幾種方法中最長(zhǎng)。重構(gòu)部署后的RDC-Net將網(wǎng)絡(luò)的參數(shù)量與浮點(diǎn)計(jì)算量分別縮減至534萬(wàn)與59.75GFlops,這要遠(yuǎn)低于CDnetV2、U-Net與CloudSegNet。與此同時(shí),在CloudS_M24與CloudS_Y13測(cè)試集中的前向推理時(shí)長(zhǎng)也分別減少到0.89、22.68 s,遠(yuǎn)低于U-Net與CloudSegNet。

    參與試驗(yàn)的其他幾種方法中,CDnetV2為了提取密集的高層語(yǔ)義信息,具有大量的殘差單元和特征融合模塊,從而導(dǎo)致CDnetV2的參數(shù)數(shù)量是RDC-Ne的十余倍。U-Net與CloudSegNet具有許多深且高分辨率的特征圖,導(dǎo)致其在參數(shù)量與浮點(diǎn)計(jì)算量上均較高。與重構(gòu)后的RDC-Net相比,U-Net與CloudSegNet的浮點(diǎn)計(jì)算量幾乎是RDC-Net的4倍,參數(shù)數(shù)量分別是RDC-Net網(wǎng)絡(luò)的6倍與8倍。

    多數(shù)方法的浮點(diǎn)運(yùn)算數(shù)量和參數(shù)量遠(yuǎn)遠(yuǎn)超過(guò)RDC-Net網(wǎng)絡(luò),因此,RDC-Net網(wǎng)絡(luò)在輕量化部署應(yīng)用方面具有顯著的優(yōu)勢(shì)。

    3.4 參數(shù)敏感性分析

    RDC-Net面向于不同數(shù)據(jù)集時(shí),網(wǎng)絡(luò)中的關(guān)鍵參數(shù)需要展開(kāi)進(jìn)一步的討論分析,如具有空洞卷積的Re-MFF的膨脹率、DAFF的卷積核尺寸與膨脹率、CDGGF的鉸鏈損失閾值以及CDGGF中不同分支路徑的權(quán)重系數(shù)。

    圖9所列結(jié)果顯示,具有空洞卷積的Re-MFF為網(wǎng)絡(luò)帶來(lái)了精度提升。而在不同分辨率的數(shù)據(jù)集中,空洞卷積的膨脹率需要進(jìn)一步微調(diào),以實(shí)現(xiàn)精度最優(yōu)。在CloudS_Y13為基準(zhǔn)的試驗(yàn)中,具有較大膨脹率的網(wǎng)絡(luò)在檢測(cè)精度上獲得了進(jìn)一步的提升。但在CloudS_M24數(shù)據(jù)集中這一數(shù)值應(yīng)相應(yīng)縮小,才能保證更為精確的檢測(cè)結(jié)果。圖10同樣顯示出,DAFF沿著空間軸方向上進(jìn)行特征重建的卷積核尺寸與膨脹率也應(yīng)做出適當(dāng)?shù)恼{(diào)整,即在CloudS_Y13數(shù)據(jù)集中適當(dāng)調(diào)大這些參數(shù)。原因是地表對(duì)象在影像中所表現(xiàn)出的空間尺度會(huì)隨著影像空間分辨率的改變而不同,在CloudS_Y13中云對(duì)象會(huì)大比例填充甚至占滿整個(gè)圖像塊,而在CloudS_M24中這種情況很少見(jiàn)。具有較大膨脹比率的網(wǎng)絡(luò)能夠進(jìn)一步擴(kuò)大感受野,這對(duì)面相于大目標(biāo)的分割任務(wù)極為有利。因此,結(jié)合試驗(yàn)結(jié)果,RDC-Net中兩個(gè)空洞卷積Re-MFF的膨脹率(d1,d2)分別設(shè)定為(1,2)與(2,4),以面向于CloudS_M24與CloudS_Y13數(shù)據(jù)集進(jìn)行云檢測(cè)。同時(shí)選擇(7,1)與(7,2)分別作為CloudS_M24與CloudS_Y13數(shù)據(jù)集中DAFF在空間軸方向上的卷積核尺寸ks與膨脹率ds。

    圖9 具有不同膨脹率的Re-MFF測(cè)試精度對(duì)比Fig.9 Test accuracy of Re-MFF with different dilated rates

    圖10 在空間軸方向上具有不同尺寸卷積核與膨脹率的DAFF測(cè)試精度對(duì)比Fig.10 Test accuracy of DAFF in the direction of spatial axis with different kernel sizes and dilated rates

    本文對(duì)CDGGF中的鉸鏈損失閾值同樣進(jìn)行了一系列微調(diào)和比較(圖11):顯示當(dāng)考慮鉸鏈損失時(shí),該方法的精度得到了提高。但是,當(dāng)α高度傾斜時(shí),網(wǎng)絡(luò)的性能會(huì)受到影響。根據(jù)試驗(yàn)結(jié)果,基于CloudS_M24與CloudS_Y13的鉸鏈損失閾值分別被確定為0.024和0.009。

    圖11 具有不同鉸鏈損失閾值α的CDGGF測(cè)試精度對(duì)比Fig.11 Test accuracy of CDGGF with different hinge losses

    此外,RDC-Net中CDGGF的不同分支路徑分別賦予了不同的權(quán)重系數(shù)ωl,并進(jìn)行了單獨(dú)的訓(xùn)練與測(cè)試,其相應(yīng)的評(píng)估結(jié)果如圖12所示。當(dāng)各分支路徑的權(quán)重系數(shù)ωl近于相等時(shí),網(wǎng)絡(luò)精度較低。而當(dāng)主輸出路徑權(quán)重系數(shù)較高,其他輸出路徑的權(quán)重系數(shù)逐漸降低時(shí),網(wǎng)絡(luò)的精度則呈逐步上升的趨勢(shì),并且在ω0、ω3、ω2、ω1分別為0.50、0.25、0.15、0.10時(shí),達(dá)到最佳檢測(cè)精度。因此,分別將0.50、0.25、0.15、0.10設(shè)定為CDGGF中主輸出路徑以及其他各層級(jí)分支路徑中的損失函數(shù)權(quán)重系數(shù)。

    圖12 具有不同權(quán)重系數(shù)ωl的CDGGF測(cè)試精度對(duì)比Fig.12 Test accuracy of CDGGF with different weights

    3.5 消融試驗(yàn)分析

    多種創(chuàng)新性技術(shù)組件構(gòu)成了兼具效率與精度的RDC-Net。在本節(jié)中將把這些組件單獨(dú)或組合安裝于網(wǎng)絡(luò)主干架構(gòu)上,以構(gòu)成具有不同組件的網(wǎng)絡(luò)(表6)。針對(duì)這些網(wǎng)絡(luò)開(kāi)展了一系列的訓(xùn)練與測(cè)試,以評(píng)估網(wǎng)絡(luò)精度與效率收益的有效性與合理性。試驗(yàn)過(guò)程中為了保證變量的唯一性,只對(duì)網(wǎng)絡(luò)進(jìn)行組件的更換或者添加,其余的訓(xùn)練配置保持不變。參與消融試驗(yàn)的網(wǎng)絡(luò)具體結(jié)構(gòu)如下:

    網(wǎng)絡(luò)(a)采用了基于RDC-Net的網(wǎng)絡(luò)架構(gòu),刪除了全部的DAFF與CDGGF模塊,并使用兩個(gè)串聯(lián)的3×3卷積來(lái)代替Re-MFF模塊以驅(qū)動(dòng)整個(gè)網(wǎng)絡(luò)。處理后所得的網(wǎng)絡(luò)(a)作為基準(zhǔn)將與其他具有創(chuàng)新性組件的網(wǎng)絡(luò)進(jìn)行對(duì)比。

    網(wǎng)絡(luò)(b)、(c)、(d)在網(wǎng)絡(luò)(a)的基礎(chǔ)上分別安裝了Re-MFF、DAFF與CDGGF模塊,將這些網(wǎng)絡(luò)分別與基準(zhǔn)網(wǎng)絡(luò)(a)進(jìn)行對(duì)比,以驗(yàn)證各組件的性能。

    網(wǎng)絡(luò)(e)、(f)、(g)在RDC-Net的基礎(chǔ)上分別刪除了Re-MFF、DAFF與CDGGF模塊,用于論證結(jié)合多種不同組件的網(wǎng)絡(luò)在性能提升方面的有效性。

    網(wǎng)絡(luò)(h)為具有Re-MFF、DAFF與CDGGF 3個(gè)組件的網(wǎng)絡(luò),具有全部創(chuàng)新性組件的標(biāo)準(zhǔn)RDC-Net的云檢測(cè)性能。

    網(wǎng)絡(luò)(a)—(h)的精度與復(fù)雜度評(píng)估結(jié)果見(jiàn)表6??梢钥闯觯S著各種創(chuàng)新性組件基于主干結(jié)構(gòu)的逐步添加,網(wǎng)絡(luò)的精度效益及前向推理計(jì)算復(fù)雜度均不斷提升。

    表6 具有不同組件的網(wǎng)絡(luò)的定量化精度與復(fù)雜度評(píng)估Tab.6 Quantitative accuracy and complexity evaluation of various networks with different components

    網(wǎng)絡(luò)(a)、(b)的定量評(píng)估結(jié)果對(duì)比顯示Re-MFF在精度提高的同時(shí),其參數(shù)量及浮點(diǎn)運(yùn)算數(shù)量增長(zhǎng)明顯。值得注意的是,具有Re-MFF的網(wǎng)絡(luò)(b)在無(wú)損重構(gòu)后能夠?qū)⑵鋸?fù)雜度降低,與網(wǎng)絡(luò)(a)復(fù)雜度一致。這說(shuō)明載有Re-MFF組件的網(wǎng)絡(luò)在無(wú)損重構(gòu)后,可以簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu)并提升網(wǎng)絡(luò)執(zhí)行效率,以適應(yīng)輕量級(jí)部署或追求快速響應(yīng)的云檢測(cè)任務(wù)。

    通過(guò)網(wǎng)絡(luò)(a)與網(wǎng)絡(luò)(c)、(d)的比較可以看出,DAFF與CDGGF分別集成于網(wǎng)絡(luò)中,均能顯著提升網(wǎng)絡(luò)對(duì)云像素的判定準(zhǔn)確性,并且這兩種創(chuàng)新性組件并沒(méi)有顯著增加網(wǎng)絡(luò)的參數(shù)量與浮點(diǎn)運(yùn)算數(shù)量,因而能夠避免對(duì)網(wǎng)絡(luò)的計(jì)算時(shí)間和空間復(fù)雜度產(chǎn)生顯著影響。

    網(wǎng)絡(luò)(e)、(f)、(g)及(h)的測(cè)試結(jié)果表明,各種創(chuàng)新性組件的組合均能有效提升網(wǎng)絡(luò)的穩(wěn)健性。尤其是具載有全部組件的網(wǎng)絡(luò)(h)(即完整的RDC-Net)獲得了最佳的檢測(cè)精度,并且受益于這3個(gè)組件,其參數(shù)量與浮點(diǎn)運(yùn)算數(shù)量均保持在了較低的水平,這進(jìn)一步驗(yàn)證了本文所提出的3種創(chuàng)新性技術(shù)組件的有效性與合理性。

    總的來(lái)說(shuō),集成有Re-MFF、DAFF與CDGGF組件的RDC-Net能夠較好地適用于高精度且輕量級(jí)的云檢測(cè)任務(wù)。

    3.6 數(shù)據(jù)集對(duì)比分析

    基于3.2節(jié)所得的試驗(yàn)結(jié)果可以發(fā)現(xiàn),相同的方法在CloudS_M24和CloudS_Y13數(shù)據(jù)集中存在著極為明顯的檢測(cè)精度差異,且所有的方法均能夠在CloudS_Y13數(shù)據(jù)集中獲得更高的精度(圖13)。例如,CloudSegNet在CloudS_M24中的IoU值為73.26%,而這一值在CloudS_Y13中則為82.55%,差值達(dá)到11.31%。出現(xiàn)這一現(xiàn)象的主要原因在于以下兩點(diǎn):

    圖13 多種方法在不同數(shù)據(jù)集上的精度對(duì)比Fig.13 Accuracy comparison of various methods on different data sets

    (1) CloudS_Y13數(shù)據(jù)集中場(chǎng)景的分辨率要高于CloudS_M24中場(chǎng)景的分辨率,因此在數(shù)據(jù)處理后具有相同大小的圖像塊中CloudS_Y13能夠?yàn)榫W(wǎng)絡(luò)的學(xué)習(xí)調(diào)優(yōu)提供更為充足且明確的地物特征信息,而CloudS_M24卻因分辨率的降低難以為網(wǎng)絡(luò)提供豐富的地面細(xì)節(jié)信息。

    (2) 雖然CloudS_Y13中的場(chǎng)景數(shù)量要少于CloudS_M24,但是CloudS_Y13的場(chǎng)景并未采取下采樣處理操作,這使得其原始影像的尺寸要遠(yuǎn)大于CloudS_M24,進(jìn)而導(dǎo)致在數(shù)據(jù)處理后CloudS_Y13數(shù)據(jù)集中的圖像塊數(shù)量要遠(yuǎn)多于CloudS_M24(見(jiàn)表2)。因此,在CloudS_Y13中充足的數(shù)據(jù)量能夠保證網(wǎng)絡(luò)進(jìn)一步學(xué)習(xí)數(shù)據(jù)域中的不變性,從而使網(wǎng)絡(luò)更具穩(wěn)健性。而CloudS_M24數(shù)據(jù)集中的樣本數(shù)量有限,容易導(dǎo)致網(wǎng)絡(luò)在訓(xùn)練過(guò)程中出現(xiàn)過(guò)擬合情況。

    總而言之,相對(duì)于CloudS_M24來(lái)說(shuō),CloudS_Y13分辨率更高且數(shù)據(jù)量更大,可為網(wǎng)絡(luò)的特征學(xué)習(xí)提供大量數(shù)據(jù)與豐富的細(xì)節(jié)信息,因而相同的方法能夠在CloudS_Y13數(shù)據(jù)集中獲得更高的精度。

    4 結(jié) 論

    針對(duì)云檢測(cè)工作極易在高分辨率云雪共存復(fù)雜場(chǎng)景中出現(xiàn)漏檢與誤檢的情況以及缺少相應(yīng)訓(xùn)練樣本數(shù)據(jù)的問(wèn)題,本文創(chuàng)建了CloudS數(shù)據(jù)集并提出了一種卷積神經(jīng)網(wǎng)絡(luò)RDC-Net。通過(guò)大量試驗(yàn)驗(yàn)證得知,相較于其他方法,集成有Re-MFF、DAFF和CDGGF模塊的RDC-Net極大地提升了對(duì)薄云以及雪上云的檢測(cè)成功率,降低了對(duì)高亮地物的誤判率。這使得該網(wǎng)絡(luò)在CloudS兩個(gè)子數(shù)據(jù)集上均獲得了最高的IoU值,分別為82.71%與86.94%。此外,重構(gòu)后的RDC-Net參數(shù)數(shù)量?jī)H為534萬(wàn),前向推理的浮點(diǎn)運(yùn)算數(shù)僅為59.75GFlops,這使得該網(wǎng)絡(luò)的內(nèi)存占用與計(jì)算成本進(jìn)一步減少,從而適合于廣泛的部署運(yùn)用。接下來(lái),將通過(guò)探索知識(shí)蒸餾與半/自監(jiān)督訓(xùn)練策略來(lái)進(jìn)一步改進(jìn)方法,以達(dá)到更為輕量化的部署并減少對(duì)樣本標(biāo)注工作的依賴(lài)性。本文創(chuàng)新點(diǎn)如下:

    (1) 創(chuàng)建并公開(kāi)了基于WorldView2影像的高分辨率云雪共存區(qū)云檢測(cè)數(shù)據(jù)集,其中包含了37幅視場(chǎng)內(nèi)可以同時(shí)觀測(cè)到云區(qū)與雪區(qū)的影像與對(duì)應(yīng)的云掩膜數(shù)據(jù)。關(guān)于數(shù)據(jù)集詳細(xì)內(nèi)容可見(jiàn)https:∥github.com/zhanggb1997/RDC-CloudS。

    (2) 設(shè)計(jì)了可重構(gòu)多尺度特征融合模塊(Re-MFF),在訓(xùn)練階段能夠捕獲與聚合網(wǎng)絡(luò)中的多尺度云特征,有利于對(duì)非局部性的空間和光譜特征差異進(jìn)行學(xué)習(xí),以此達(dá)到對(duì)具有相似性特征的云雪對(duì)象以及背景地物的高精度辨別。此外,在測(cè)試應(yīng)用階段能夠進(jìn)行無(wú)損重構(gòu),從而促進(jìn)網(wǎng)絡(luò)的輕量化部署。

    (3) 構(gòu)建并引入了雙重自適應(yīng)特征融合結(jié)構(gòu)(DAFF),通過(guò)對(duì)蘊(yùn)含豐富細(xì)節(jié)信息的淺層特征進(jìn)行處理,增強(qiáng)了有效特征表達(dá),抑制了無(wú)效特征學(xué)習(xí)。從而將低級(jí)空間和光譜特征傳播到網(wǎng)絡(luò)的深處,來(lái)補(bǔ)償最大池化和卷積過(guò)程中的特征丟失問(wèn)題。

    (4) 在網(wǎng)絡(luò)的解碼階段添加了可控深層梯度指導(dǎo)流 (CDGGF)作為網(wǎng)絡(luò)訓(xùn)練的附加約束,使隱藏層參數(shù)的更新更具無(wú)偏差的梯度動(dòng)量,加快收斂速度并提升網(wǎng)絡(luò)特征表征能力。同時(shí),由于CDGGF能夠聚合來(lái)自解碼器中不同層級(jí)的特征映射,該結(jié)構(gòu)有助于捕獲保留更為精細(xì)的多層級(jí)云特征,減少低級(jí)錯(cuò)誤分類(lèi)。

    猜你喜歡
    特征檢測(cè)方法
    “不等式”檢測(cè)題
    “一元一次不等式”檢測(cè)題
    “一元一次不等式組”檢測(cè)題
    如何表達(dá)“特征”
    不忠誠(chéng)的四個(gè)特征
    抓住特征巧觀察
    可能是方法不對(duì)
    小波變換在PCB缺陷檢測(cè)中的應(yīng)用
    用對(duì)方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    水蜜桃什么品种好| 国产国语露脸激情在线看| 日韩三级视频一区二区三区| 纯流量卡能插随身wifi吗| 王馨瑶露胸无遮挡在线观看| 在线av久久热| 91国产中文字幕| 国产精品久久久av美女十八| 一级a爱视频在线免费观看| 日日爽夜夜爽网站| 最新在线观看一区二区三区| 黄色视频,在线免费观看| 日本欧美视频一区| 丰满饥渴人妻一区二区三| 精品久久久精品久久久| 怎么达到女性高潮| 久久影院123| 久9热在线精品视频| 中文字幕另类日韩欧美亚洲嫩草| 日韩欧美一区视频在线观看| 欧美日韩黄片免| 亚洲国产欧美网| 成人18禁在线播放| 操出白浆在线播放| 男女之事视频高清在线观看| 久久久欧美国产精品| 蜜桃国产av成人99| netflix在线观看网站| 大码成人一级视频| 嫁个100分男人电影在线观看| 啦啦啦 在线观看视频| 搡老岳熟女国产| 久久久久久免费高清国产稀缺| 国产成人精品久久二区二区免费| 亚洲成国产人片在线观看| 亚洲av国产av综合av卡| 男女之事视频高清在线观看| 一进一出好大好爽视频| 老熟女久久久| 麻豆成人av在线观看| 看免费av毛片| 久久久国产一区二区| 一区在线观看完整版| 亚洲av日韩在线播放| 在线播放国产精品三级| 日韩有码中文字幕| 99国产精品一区二区蜜桃av | 国产男靠女视频免费网站| 麻豆乱淫一区二区| 一级毛片精品| √禁漫天堂资源中文www| 国产一区二区在线观看av| 久久天躁狠狠躁夜夜2o2o| 成在线人永久免费视频| 精品乱码久久久久久99久播| 男女午夜视频在线观看| 国产一区二区三区视频了| 亚洲欧美精品综合一区二区三区| 国产成人精品久久二区二区免费| 亚洲天堂国产精品一区在线| 最新在线观看一区二区三区| 久久午夜亚洲精品久久| 国产精品久久视频播放| 综合色av麻豆| 深夜精品福利| 中文字幕人成人乱码亚洲影| 国内少妇人妻偷人精品xxx网站 | 亚洲国产欧洲综合997久久,| 亚洲自拍偷在线| 每晚都被弄得嗷嗷叫到高潮| 一二三四在线观看免费中文在| 中文字幕久久专区| 国内久久婷婷六月综合欲色啪| 欧美色欧美亚洲另类二区| 后天国语完整版免费观看| 免费人成视频x8x8入口观看| 久久久国产精品麻豆| 在线免费观看的www视频| 日韩成人在线观看一区二区三区| 国产视频一区二区在线看| 国产伦一二天堂av在线观看| 中文在线观看免费www的网站| 色视频www国产| 久99久视频精品免费| 老司机午夜十八禁免费视频| 欧美日韩亚洲国产一区二区在线观看| 国产成人啪精品午夜网站| 91av网站免费观看| 91av网站免费观看| 国产日本99.免费观看| 国产精品久久电影中文字幕| 中文字幕av在线有码专区| 三级国产精品欧美在线观看 | 两性夫妻黄色片| 午夜福利视频1000在线观看| 黄色丝袜av网址大全| 国产精品一区二区三区四区免费观看 | 亚洲欧美一区二区三区黑人| 后天国语完整版免费观看| 精品99又大又爽又粗少妇毛片 | 又紧又爽又黄一区二区| 亚洲成人久久性| 国产成人系列免费观看| 男女午夜视频在线观看| 国产伦精品一区二区三区四那| 脱女人内裤的视频| 日韩欧美在线二视频| 午夜福利成人在线免费观看| 欧美一级毛片孕妇| 久久这里只有精品19| 国产欧美日韩一区二区精品| 黄片大片在线免费观看| 麻豆av在线久日| 夜夜爽天天搞| 亚洲精品中文字幕一二三四区| 国产精品精品国产色婷婷| 国产三级黄色录像| 十八禁网站免费在线| 亚洲,欧美精品.| 久久精品aⅴ一区二区三区四区| 97碰自拍视频| 12—13女人毛片做爰片一| 亚洲成人免费电影在线观看| 婷婷精品国产亚洲av| 国产精品一区二区精品视频观看| 欧美日韩国产亚洲二区| 成人精品一区二区免费| 脱女人内裤的视频| 制服人妻中文乱码| 首页视频小说图片口味搜索| 1024手机看黄色片| 中国美女看黄片| 久久天躁狠狠躁夜夜2o2o| 亚洲五月天丁香| 国产成人福利小说| 99热只有精品国产| 亚洲18禁久久av| 天堂动漫精品| 中文字幕人妻丝袜一区二区| 88av欧美| 国产一区二区在线av高清观看| АⅤ资源中文在线天堂| 亚洲精品国产精品久久久不卡| 亚洲av电影在线进入| 91在线精品国自产拍蜜月 | 人人妻,人人澡人人爽秒播| 日本黄大片高清| 一区二区三区高清视频在线| 国产乱人视频| 午夜福利在线在线| 日韩成人在线观看一区二区三区| 日本与韩国留学比较| 天天躁狠狠躁夜夜躁狠狠躁| 午夜福利在线在线| 男女午夜视频在线观看| 2021天堂中文幕一二区在线观| av中文乱码字幕在线| 村上凉子中文字幕在线| 国产av在哪里看| 亚洲成人精品中文字幕电影| 丁香欧美五月| 国产主播在线观看一区二区| 日韩 欧美 亚洲 中文字幕| 五月伊人婷婷丁香| 久久国产乱子伦精品免费另类| 国产真人三级小视频在线观看| 国产不卡一卡二| av欧美777| 国产高清激情床上av| 精品国产三级普通话版| 黄色女人牲交| 免费电影在线观看免费观看| 免费av毛片视频| 男女床上黄色一级片免费看| 99在线人妻在线中文字幕| 国产亚洲欧美在线一区二区| 俄罗斯特黄特色一大片| 一个人免费在线观看电影 | 美女被艹到高潮喷水动态| 小蜜桃在线观看免费完整版高清| 色综合婷婷激情| 日本熟妇午夜| 国产精品98久久久久久宅男小说| 亚洲人成网站在线播放欧美日韩| 国产高潮美女av| 此物有八面人人有两片| 99re在线观看精品视频| 99久久精品热视频| 深夜精品福利| 国产精品自产拍在线观看55亚洲| 男女之事视频高清在线观看| 天天躁日日操中文字幕| 亚洲成av人片免费观看| 欧美日韩福利视频一区二区| 在线看三级毛片| 亚洲欧美精品综合久久99| svipshipincom国产片| 国产单亲对白刺激| 法律面前人人平等表现在哪些方面| 色综合婷婷激情| 亚洲人成网站在线播放欧美日韩| 999精品在线视频| 国产一级毛片七仙女欲春2| 麻豆久久精品国产亚洲av| 亚洲av成人不卡在线观看播放网| 久久人人精品亚洲av| 午夜福利欧美成人| 丰满的人妻完整版| 一二三四社区在线视频社区8| 国产一区二区激情短视频| 免费大片18禁| 色精品久久人妻99蜜桃| 十八禁人妻一区二区| 亚洲人与动物交配视频| 精品久久蜜臀av无| 亚洲第一电影网av| 日本一本二区三区精品| 成人欧美大片| 搞女人的毛片| 国产精品久久久久久久电影 | 国产亚洲精品av在线| 免费在线观看视频国产中文字幕亚洲| 国产视频一区二区在线看| 伊人久久大香线蕉亚洲五| 国产精品久久久av美女十八| 日韩欧美三级三区| 亚洲性夜色夜夜综合| 免费人成视频x8x8入口观看| 麻豆国产av国片精品| www国产在线视频色| www.熟女人妻精品国产| netflix在线观看网站| 老司机在亚洲福利影院| 国产高潮美女av| 免费一级毛片在线播放高清视频| 一级毛片高清免费大全| www日本在线高清视频| 免费av不卡在线播放| 老熟妇仑乱视频hdxx| 搡老岳熟女国产| 久久中文看片网| 噜噜噜噜噜久久久久久91| 中亚洲国语对白在线视频| bbb黄色大片| 午夜成年电影在线免费观看| 亚洲成av人片在线播放无| 黄色日韩在线| 国内少妇人妻偷人精品xxx网站 | 成人性生交大片免费视频hd| 欧美中文日本在线观看视频| 久久热在线av| 成人高潮视频无遮挡免费网站| 亚洲国产高清在线一区二区三| 老熟妇仑乱视频hdxx| 欧美在线黄色| 亚洲精品美女久久av网站| 亚洲av熟女| 成人av在线播放网站| 精品久久久久久成人av| 美女被艹到高潮喷水动态| 日韩精品中文字幕看吧| 亚洲精品在线美女| 久久久久亚洲av毛片大全| 国产精品久久久人人做人人爽| 亚洲无线在线观看| 日本 欧美在线| 夜夜夜夜夜久久久久| 99热这里只有是精品50| 久久精品亚洲精品国产色婷小说| 成年女人看的毛片在线观看| 日韩成人在线观看一区二区三区| 亚洲,欧美精品.| 亚洲av第一区精品v没综合| 久99久视频精品免费| 精品久久久久久成人av| 9191精品国产免费久久| 亚洲熟女毛片儿| 美女午夜性视频免费| 亚洲精品国产精品久久久不卡| 又大又爽又粗| 久久草成人影院| 一级毛片精品| 小说图片视频综合网站| 成人三级黄色视频| 19禁男女啪啪无遮挡网站| 免费搜索国产男女视频| x7x7x7水蜜桃| 蜜桃久久精品国产亚洲av| 亚洲av片天天在线观看| 亚洲国产高清在线一区二区三| www日本黄色视频网| 日本a在线网址| 欧美日韩福利视频一区二区| 啦啦啦观看免费观看视频高清| 亚洲色图av天堂| av中文乱码字幕在线| 久久精品影院6| 性色avwww在线观看| 老司机午夜福利在线观看视频| 精品国产乱子伦一区二区三区| 成人国产综合亚洲| 日本五十路高清| 亚洲18禁久久av| 色精品久久人妻99蜜桃| 国产v大片淫在线免费观看| 亚洲av中文字字幕乱码综合| 老司机深夜福利视频在线观看| 日韩人妻高清精品专区| 丰满人妻一区二区三区视频av | 99视频精品全部免费 在线 | 成人鲁丝片一二三区免费| 怎么达到女性高潮| 国产精品99久久99久久久不卡| 国产野战对白在线观看| 国产精品九九99| 国产精华一区二区三区| www.精华液| 久久久久国产精品人妻aⅴ院| 久久久久亚洲av毛片大全| 久久精品影院6| a在线观看视频网站| 亚洲av电影不卡..在线观看| 亚洲无线观看免费| 欧美不卡视频在线免费观看| 欧美又色又爽又黄视频| 国产一区二区在线av高清观看| 日本一二三区视频观看| 日本在线视频免费播放| 一本综合久久免费| 91字幕亚洲| 19禁男女啪啪无遮挡网站| 日本一二三区视频观看| 午夜久久久久精精品| av福利片在线观看| 午夜福利欧美成人| 我要搜黄色片| 欧美黄色淫秽网站| 91在线观看av| 亚洲真实伦在线观看| or卡值多少钱| 日本黄色片子视频| 国产伦在线观看视频一区| 美女午夜性视频免费| 99国产精品一区二区蜜桃av| 亚洲av电影不卡..在线观看| 亚洲自偷自拍图片 自拍| 精品久久久久久,| 成人特级av手机在线观看| 1024手机看黄色片| 啦啦啦观看免费观看视频高清| 国产99白浆流出| 一卡2卡三卡四卡精品乱码亚洲| 免费一级毛片在线播放高清视频| 久久久久久九九精品二区国产| 亚洲精品粉嫩美女一区| 别揉我奶头~嗯~啊~动态视频| 天堂av国产一区二区熟女人妻| 男人舔女人下体高潮全视频| 亚洲欧美日韩高清专用| 在线观看舔阴道视频| 亚洲片人在线观看| 久久久色成人| 国产成人av激情在线播放| 999久久久精品免费观看国产| 97超视频在线观看视频| 黄片大片在线免费观看| 精品一区二区三区av网在线观看| 欧美三级亚洲精品| 长腿黑丝高跟| 欧美乱妇无乱码| 一级毛片女人18水好多| 99久久久亚洲精品蜜臀av| www.999成人在线观看| 午夜福利视频1000在线观看| 欧美大码av| 亚洲成人免费电影在线观看| 村上凉子中文字幕在线| 欧美性猛交╳xxx乱大交人| 美女 人体艺术 gogo| 亚洲av成人一区二区三| 欧美+亚洲+日韩+国产| 舔av片在线| 免费在线观看亚洲国产| 麻豆一二三区av精品| 久久精品91蜜桃| 欧美黑人欧美精品刺激| 女警被强在线播放| 亚洲国产欧美网| 一级a爱片免费观看的视频| 欧美激情在线99| 天堂影院成人在线观看| 亚洲精品在线美女| 久久久水蜜桃国产精品网| 亚洲人成电影免费在线| 国产亚洲精品综合一区在线观看| 亚洲精品在线观看二区| 日韩欧美免费精品| 亚洲欧美激情综合另类| 免费一级毛片在线播放高清视频| 国产爱豆传媒在线观看| 露出奶头的视频| 亚洲一区高清亚洲精品| 欧美乱码精品一区二区三区| 丁香欧美五月| 免费搜索国产男女视频| 久久热在线av| 亚洲专区中文字幕在线| 露出奶头的视频| 国产v大片淫在线免费观看| 国产精品98久久久久久宅男小说| 国产精品久久久久久精品电影| 久久久久久久精品吃奶| 午夜成年电影在线免费观看| 日本黄色视频三级网站网址| 亚洲精品美女久久久久99蜜臀| 最近在线观看免费完整版| 国产1区2区3区精品| 人人妻,人人澡人人爽秒播| 成在线人永久免费视频| 老司机福利观看| 免费av不卡在线播放| 亚洲精品美女久久久久99蜜臀| 女警被强在线播放| 不卡av一区二区三区| 他把我摸到了高潮在线观看| 亚洲国产欧美一区二区综合| 国产 一区 欧美 日韩| 老熟妇仑乱视频hdxx| 在线观看美女被高潮喷水网站 | 看黄色毛片网站| 国产一区二区在线观看日韩 | 亚洲精品色激情综合| 婷婷丁香在线五月| 精品福利观看| 免费高清视频大片| 国产视频内射| 手机成人av网站| 天堂动漫精品| 国产69精品久久久久777片 | 黄频高清免费视频| 色尼玛亚洲综合影院| 天天躁狠狠躁夜夜躁狠狠躁| 久久午夜亚洲精品久久| 精品福利观看| 国产黄色小视频在线观看| 午夜精品一区二区三区免费看| 精品电影一区二区在线| 99国产综合亚洲精品| 天堂影院成人在线观看| 日韩免费av在线播放| 免费大片18禁| 黄色丝袜av网址大全| 嫩草影视91久久| 亚洲aⅴ乱码一区二区在线播放| 亚洲在线自拍视频| 欧美一级毛片孕妇| 三级毛片av免费| 精品福利观看| АⅤ资源中文在线天堂| 亚洲国产色片| 国产乱人伦免费视频| 淫秽高清视频在线观看| 久久人妻av系列| 天天躁狠狠躁夜夜躁狠狠躁| 嫁个100分男人电影在线观看| 搡老熟女国产l中国老女人| 国产精品一及| 午夜福利成人在线免费观看| 国产高潮美女av| 国产精品女同一区二区软件 | 免费看日本二区| 国内少妇人妻偷人精品xxx网站 | 亚洲无线观看免费| 久久天堂一区二区三区四区| 午夜激情福利司机影院| 手机成人av网站| 舔av片在线| 亚洲在线自拍视频| 国产精品久久久av美女十八| 美女cb高潮喷水在线观看 | www.999成人在线观看| 久久久久国产一级毛片高清牌| 国内少妇人妻偷人精品xxx网站 | 欧美乱色亚洲激情| 香蕉av资源在线| 国产69精品久久久久777片 | 久久久久九九精品影院| 国产亚洲精品一区二区www| 亚洲av美国av| 国产激情久久老熟女| 99国产极品粉嫩在线观看| 久久性视频一级片| 亚洲色图av天堂| 亚洲无线在线观看| 国产 一区 欧美 日韩| 99re在线观看精品视频| 亚洲人与动物交配视频| 亚洲成人免费电影在线观看| 国产黄色小视频在线观看| 天堂av国产一区二区熟女人妻| 国产精品一及| 亚洲第一欧美日韩一区二区三区| 最好的美女福利视频网| 97超级碰碰碰精品色视频在线观看| 国产高清视频在线播放一区| 天天躁日日操中文字幕| 在线观看舔阴道视频| 日本精品一区二区三区蜜桃| 午夜福利成人在线免费观看| 日韩免费av在线播放| 毛片女人毛片| 成人国产综合亚洲| 欧美性猛交╳xxx乱大交人| 久久久久久久久中文| 女生性感内裤真人,穿戴方法视频| 国产人伦9x9x在线观看| 日韩 欧美 亚洲 中文字幕| 两人在一起打扑克的视频| 不卡一级毛片| 午夜福利在线观看吧| 在线十欧美十亚洲十日本专区| 俄罗斯特黄特色一大片| 99精品在免费线老司机午夜| 18禁国产床啪视频网站| 亚洲男人的天堂狠狠| 97人妻精品一区二区三区麻豆| 精品欧美国产一区二区三| 国产精品一区二区三区四区免费观看 | 亚洲av熟女| 欧美日本视频| 女生性感内裤真人,穿戴方法视频| 国产精品一区二区免费欧美| 男女做爰动态图高潮gif福利片| 欧美日韩福利视频一区二区| 亚洲精品一卡2卡三卡4卡5卡| 两个人视频免费观看高清| 国产亚洲精品av在线| 亚洲中文av在线| 午夜精品一区二区三区免费看| 九九久久精品国产亚洲av麻豆 | 一区二区三区国产精品乱码| 丰满人妻一区二区三区视频av | 午夜亚洲福利在线播放| 天堂av国产一区二区熟女人妻| 一二三四社区在线视频社区8| 久久国产精品人妻蜜桃| 亚洲片人在线观看| www国产在线视频色| 精品人妻1区二区| 欧美日韩一级在线毛片| 国产99白浆流出| 俺也久久电影网| 国产一级毛片七仙女欲春2| 丝袜人妻中文字幕| 欧美日韩精品网址| 狠狠狠狠99中文字幕| 国产伦精品一区二区三区四那| 国产精品一区二区三区四区久久| 国产久久久一区二区三区| 国产不卡一卡二| 99久久精品国产亚洲精品| 国产三级中文精品| 精品无人区乱码1区二区| 18禁观看日本| 熟女人妻精品中文字幕| 悠悠久久av| 久99久视频精品免费| 一区二区三区高清视频在线| 十八禁人妻一区二区| 一二三四在线观看免费中文在| 国产成人精品久久二区二区91| 99国产精品一区二区三区| 免费看美女性在线毛片视频| 亚洲国产高清在线一区二区三| 精品国产乱码久久久久久男人| 国产亚洲精品一区二区www| 欧美一区二区国产精品久久精品| 国产激情欧美一区二区| 亚洲av日韩精品久久久久久密| 国产亚洲精品综合一区在线观看| 亚洲狠狠婷婷综合久久图片| 脱女人内裤的视频| 19禁男女啪啪无遮挡网站| 国产1区2区3区精品| 一个人免费在线观看的高清视频| 真人做人爱边吃奶动态| 国产一区二区激情短视频| 欧美最黄视频在线播放免费| 亚洲熟妇熟女久久| 丁香六月欧美| 淫秽高清视频在线观看| 欧美乱码精品一区二区三区| 国产精品av久久久久免费| 国产亚洲精品av在线| 嫩草影院精品99| 亚洲成av人片在线播放无| 久久久国产精品麻豆| www.熟女人妻精品国产| 一进一出好大好爽视频| 99热这里只有是精品50| 哪里可以看免费的av片| 国产成人精品久久二区二区免费| 偷拍熟女少妇极品色| 国产精品99久久久久久久久| av视频在线观看入口| h日本视频在线播放| 男人的好看免费观看在线视频| 动漫黄色视频在线观看| 99在线视频只有这里精品首页| 99久久久亚洲精品蜜臀av| 熟女人妻精品中文字幕| 又粗又爽又猛毛片免费看| 97碰自拍视频| 美女 人体艺术 gogo| 午夜福利18|