• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于CSLS-CycleGAN的側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增法

    2024-11-22 00:00:00湯寓麟王黎明余德熒李厚樸劉敏張衛(wèi)東
    關(guān)鍵詞:聲納樣本函數(shù)

    摘 要:

    針對(duì)側(cè)掃聲納水下目標(biāo)圖像稀缺,獲取難度大、成本高,導(dǎo)致基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型性能差的問題,結(jié)合光學(xué)域類目標(biāo)數(shù)據(jù)集豐富的現(xiàn)狀,提出一種基于通道和空間注意力(channel and spatial attention, CSA)模塊、最小二乘生成對(duì)抗生成網(wǎng)絡(luò)(least squares generative adversarial networks, LSGAN)及循環(huán)對(duì)抗生成網(wǎng)絡(luò)(cycle generative adversarial networks, CycleGAN)的側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增方法。首先,受CycleGAN的啟發(fā),設(shè)計(jì)基于循環(huán)一致性的單循環(huán)網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率。然后,在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互。最后,設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高訓(xùn)練穩(wěn)定性。在船舶光學(xué)域數(shù)據(jù)集與側(cè)掃聲納沉船數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),所提方法實(shí)現(xiàn)了光學(xué)-側(cè)掃聲納樣本間信息的高效、穩(wěn)健轉(zhuǎn)換以及大量側(cè)掃聲納目標(biāo)樣本的擴(kuò)增。同時(shí),基于本文生成樣本訓(xùn)練后的檢測(cè)模型進(jìn)行了水下目標(biāo)檢測(cè),結(jié)果表明,使用本文樣本擴(kuò)增數(shù)據(jù)訓(xùn)練后的模型在少樣本沉船目標(biāo)檢測(cè)的平均準(zhǔn)確率達(dá)到了84.71%,證明了所提方法實(shí)現(xiàn)了零樣本和小樣本水下強(qiáng)代表性目標(biāo)樣本的高質(zhì)量擴(kuò)增,并為高性能水下目標(biāo)檢測(cè)模型構(gòu)建提供了一種新的途徑。

    關(guān)鍵詞:

    樣本擴(kuò)增; 側(cè)掃聲納; 循環(huán)生成對(duì)抗網(wǎng)絡(luò); 通道和空間注意力模塊; 最小二乘生成對(duì)抗網(wǎng)絡(luò)

    中圖分類號(hào):

    P 227

    文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.05.06

    CSLS-CycleGAN based side-scan sonar sample augmentation

    method for underwater target image

    TANG Yulin1, WANG Liming1,*, YU Deying1, LI Houpu1, LIU Min2, ZHANG Weidong3

    (1. College of Electrical Engineering, Naval University of Engineering, Wuhan 430033, China;

    2. Unit 91001 of the PLA, Beijing 100841, China; 3. Unit 31016 of the PLA, Beijing 100088, China)

    Abstract:

    In view of the scarcity, difficulty and high cost of side-scan sonar underwater target images, and the poor performance of deep-learning based target detection model, combined with the abundant target data set in optical domain, a sample augmentation method for underwater target side-scan sonar images based on channel and spatial attention(CSA) module and least squares generative adversarial networks(LSGAN) and cycle generative adversarial networks(CycleGAN) is propesed. Firstly, inspired by CycleGAN, a single cycle network structure based on cycle consistency is designed to ensure the training efficiency of the model. Then, the CSA module is integrated into the generator to reduce information dispersion while enhancing cross-latitude interaction. Finally, a loss function based on LSGAN is designed to improve the quality of the generated image while improving the training stability. Experiments are carried out on ship optical domain data set and side-scan sonar shipwreck data set. The results show that the proposed method achieves efficient and robust conversion of information between optical and side-scan sonar samples and augmentation of a large number of side-scan sonar target samples. At the same time, the underwater target detection is carried out based on the detection model generated after sample training in this paper. The results show that the average precision value of the model after training with sample augmentation data in this paper reachs 84.71% in detecting shipwreck targets with few samples, which proves that the method in this paper achieves high-quality amplification of highly representative underwater target samples with zero samples and small samples. It also provides a new way to construct high-performance underwater target detection model.

    Keywords:

    sample augmentation; side-scan sonar; cycle generative adversarial networks (CycleGAN); channel and spatial attention (CSA) module; least squares generative adversarial networks (LSGAN)

    0 引 言

    水下目標(biāo)探測(cè)在航行安全、海洋調(diào)查、海上搜救、軍事任務(wù)等領(lǐng)域具有非常重要的作用[1]。目前,水下目標(biāo)探測(cè)的方法主要包括聲探、磁探、光探、電探等,其中聲波因其水中成像條件、傳播距離以及范圍的優(yōu)勢(shì)成為目前主流的水下目標(biāo)探測(cè)方式[2-4]。側(cè)掃聲納較其他聲學(xué)設(shè)備擁有更寬的掃幅和更高的成像分辨率,且體積小、價(jià)格低廉,在水下目標(biāo)探測(cè)中應(yīng)用廣泛[5-9]。

    目前,基于側(cè)掃聲納圖像的水下目標(biāo)檢測(cè)多基于人工目視判讀,存在效率低、耗時(shí)長(zhǎng)、主觀依賴性強(qiáng)等問題[10]。因此,針對(duì)側(cè)掃聲納圖像的水下目標(biāo)自動(dòng)探測(cè)方法研究十分必要[11]。

    部分學(xué)者采用機(jī)器學(xué)習(xí)方法,聯(lián)合人工特征和分類器實(shí)現(xiàn)水下目標(biāo)的自動(dòng)探測(cè),在一定條件下取得了較好的探測(cè)效果[12-13]。但受復(fù)雜海底環(huán)境和測(cè)量條件的影響,側(cè)掃聲納圖像通常存在低分辨率、特征貧瘠、噪聲復(fù)雜以及畸變嚴(yán)重等特點(diǎn),使傳統(tǒng)的機(jī)器學(xué)習(xí)方法探測(cè)精度受到限制[14-16]。近年來(lái),計(jì)算機(jī)視覺領(lǐng)域發(fā)展迅速,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法性能遠(yuǎn)超傳統(tǒng)機(jī)器學(xué)習(xí)方法,引起了水下探測(cè)領(lǐng)域的廣泛關(guān)注[17-24]。然而,基于深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network, DCNN)的目標(biāo)探測(cè)模型需要大量訓(xùn)練樣本,高代表性樣本是實(shí)現(xiàn)高性能探測(cè)的關(guān)鍵[25]。而側(cè)掃聲納圖像因數(shù)據(jù)采集成本高、耗時(shí)長(zhǎng)、目標(biāo)較少等問題導(dǎo)致數(shù)量嚴(yán)重匱乏,樣本代表性不足[26]。因此,急需開展小樣本水下目標(biāo)側(cè)掃聲納圖像的樣本擴(kuò)增。

    受光學(xué)影像中樣本擴(kuò)增技術(shù)的啟發(fā),側(cè)掃聲納水下目標(biāo)樣本擴(kuò)增方法主要通過(guò)遷移學(xué)習(xí)[27-30]方法獲得,但是在遷移轉(zhuǎn)換模型訓(xùn)練時(shí)無(wú)法全面顧及聲波發(fā)射單元、聲波傳播介質(zhì)、聲波反射目標(biāo)、聲波反射背景場(chǎng)、聲波接收單元、噪聲和數(shù)據(jù)后處理等七大類要素的影響[31-32],生成樣本代表性弱,對(duì)基于DCNN的目標(biāo)探測(cè)網(wǎng)絡(luò)泛化能力和精度提升有限。

    近年來(lái),隨著生成對(duì)抗網(wǎng)絡(luò)(generate adversarial networks, GAN)的迅速發(fā)展,其被廣泛地應(yīng)用于利用外源圖像進(jìn)行風(fēng)格遷移的任務(wù)中,其核心邏輯是通過(guò)生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)相互對(duì)抗、博弈最終生成判別網(wǎng)絡(luò)無(wú)法判別真?zhèn)蔚母哔|(zhì)量圖像,具有比傳統(tǒng)機(jī)器學(xué)習(xí)更強(qiáng)、更全面的特征學(xué)習(xí)和表達(dá)能力。Isola等[33]提出了Pix2Pix模型,首次實(shí)現(xiàn)了基于GAN的圖像遷移任務(wù),但該網(wǎng)絡(luò)要求的輸入必須是成對(duì)圖像,不適用于側(cè)掃聲納圖像的樣本擴(kuò)增。為解決成對(duì)數(shù)據(jù)的限制,Zhu等[34]設(shè)計(jì)了循環(huán)GAN(cycle GAN, CycleGAN),通過(guò)非成對(duì)數(shù)據(jù)的非監(jiān)督學(xué)習(xí)實(shí)現(xiàn)風(fēng)格遷移任務(wù)。受CycleGAN啟發(fā),李寶奇等[35]通過(guò)基于循環(huán)一致性的改進(jìn)CycleGAN實(shí)現(xiàn)水下小目標(biāo)光學(xué)圖像到合成孔徑聲納圖像的遷移生成。但是,由于側(cè)掃聲納水下目標(biāo)圖像的高噪聲、不同環(huán)境下差異大的特點(diǎn),在使用非配對(duì)光學(xué)-側(cè)掃聲納圖像訓(xùn)練時(shí),生成器難以提取圖像特征從而生成與目標(biāo)域相似的圖像來(lái)“欺騙”判別器,進(jìn)而造成模型振蕩或生成器和判別器之間的不平衡,從而導(dǎo)致模型過(guò)擬合或模式崩潰。另外,側(cè)掃聲納圖像特征貧瘠、輻射畸變大的特點(diǎn)導(dǎo)致模型在轉(zhuǎn)換過(guò)程中容易混淆背景與目標(biāo)特征,丟失目標(biāo)輪廓、紋理和噪聲,而這些恰恰是側(cè)掃聲納圖像的關(guān)鍵。

    綜上,本文提出了一種基于通道和空間注意力(channel and spatial attention, CSA)模塊、最小二乘GAN(least squares GAN, LSGAN)及CycleGAN(簡(jiǎn)稱為CSLS-CycleGAN)的水下目標(biāo)側(cè)掃聲納圖像樣本擴(kuò)增方法。首先,設(shè)計(jì)基于循環(huán)一致性的單循環(huán)網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率以及任務(wù)的專注度。其次,在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互,在學(xué)習(xí)全局特征的同時(shí)關(guān)注目標(biāo)的細(xì)粒度特征。然后,設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高訓(xùn)練穩(wěn)定性,避免模式崩潰的情況。最后,基于該轉(zhuǎn)換模型,將船舶目標(biāo)光學(xué)圖像轉(zhuǎn)換為側(cè)掃聲納圖像,實(shí)現(xiàn)樣本高質(zhì)量擴(kuò)增,以期解決側(cè)掃聲納水下目標(biāo)圖像稀缺,為小樣本水下強(qiáng)代表性目標(biāo)樣本擴(kuò)增以及高性能水下目標(biāo)檢測(cè)模型構(gòu)建提供了一種新的途徑。

    1 CSLS-CycleGAN

    足夠數(shù)量的強(qiáng)代表性樣本是訓(xùn)練高性能探測(cè)模型的前提,是最終形成高性能智能探測(cè)模型的關(guān)鍵組成。使用GAN實(shí)現(xiàn)水下目標(biāo)雙域轉(zhuǎn)換以及側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增是本文的重要組成,網(wǎng)絡(luò)的使用是實(shí)現(xiàn)高質(zhì)量樣本擴(kuò)增的關(guān)鍵。針對(duì)光學(xué)圖像與側(cè)掃聲納圖像風(fēng)格差異較大的問題,傳統(tǒng)的GAN存在生成數(shù)據(jù)質(zhì)量較差,甚至兩個(gè)域的圖像沒有任何匹配關(guān)系的問題。為了讓生成圖片與輸出圖像產(chǎn)生強(qiáng)關(guān)聯(lián),本文使用基于單循環(huán)一致性的GAN,在保證訓(xùn)練效率的同時(shí)重點(diǎn)關(guān)注光學(xué)域向聲學(xué)域的轉(zhuǎn)換任務(wù)。同時(shí),在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互。最后,設(shè)計(jì)了基于LSGAN的組合損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高模型訓(xùn)練的穩(wěn)定性。本文提出網(wǎng)絡(luò)的具體結(jié)構(gòu)圖如圖1所示。

    1.1 網(wǎng)絡(luò)結(jié)構(gòu)

    本文模型主體由兩個(gè)生成器Gos、Gso和一個(gè)判別器D組成,將從光學(xué)域中的圖像轉(zhuǎn)換成聲學(xué)域的圖像的生成器稱為Gos,從聲學(xué)域中的圖像轉(zhuǎn)換成光學(xué)域的圖像生成器稱為Gso,將判別圖像屬于聲學(xué)域或虛假的判別器稱為D。

    原始輸入光學(xué)圖像通過(guò)生成器Gos獲得側(cè)掃聲納圖像S后,將生成的側(cè)掃聲納圖像作為輸入通過(guò)生成器Gso獲得與光學(xué)圖像相同域的圖像重構(gòu)光學(xué)圖像,最終保持光學(xué)圖像與重構(gòu)光學(xué)圖像一致,讓圖像循環(huán)了一周回到起點(diǎn)并保持一致。生成器結(jié)構(gòu)如圖2所示。

    首先,使用3個(gè)卷積層對(duì)輸入圖像進(jìn)行特征提取,每個(gè)卷積層后使用實(shí)例歸一化(instance normalization, IN)操作以及ReLU激活函數(shù),IN操作僅對(duì)單張圖像的像素進(jìn)行均值和標(biāo)準(zhǔn)差的計(jì)算,避免了批量歸一化(batch normalization, BN)中一批圖像之間的相互影響,且擁有更高的效率。其次,使用注意力機(jī)制CSA模塊對(duì)圖像通道和空間特征進(jìn)行全局學(xué)習(xí),建立局部細(xì)節(jié)特征與全局特征的交互關(guān)系,并通過(guò)跳躍連接實(shí)現(xiàn)多尺度特征融合。然后,使用6個(gè)殘差網(wǎng)絡(luò)在進(jìn)一步提取圖像信息的同時(shí)對(duì)輸入數(shù)據(jù)特征進(jìn)行保留。接著,使用2個(gè)轉(zhuǎn)置卷積進(jìn)行上采樣操作。最后,再連接一個(gè)卷積層,獲取的圖像矩陣經(jīng)函數(shù)激活Tanh獲得最后的輸出圖像。

    為加強(qiáng)輸入數(shù)據(jù)與輸出數(shù)據(jù)之間的關(guān)系,采用殘差網(wǎng)絡(luò)代替深層的卷積網(wǎng)絡(luò)。通過(guò)特征提取層提取特征,再將特征數(shù)據(jù)傳遞給輸出層,避免生成器損失輸入層的一些基本信息,保留輸入數(shù)據(jù)的部分特征,更好地保護(hù)原始圖像信息的完整性,解決傳統(tǒng)神經(jīng)網(wǎng)絡(luò)隨網(wǎng)絡(luò)深度的增加而梯度消失明顯的問題,加快模型的訓(xùn)練速度,改善模型的訓(xùn)練效果。判別器結(jié)構(gòu)如圖3所示。

    判別器使用5個(gè)卷積層對(duì)輸入圖像進(jìn)行特征提取,每個(gè)卷積層后使用IN操作以及LeakyReLU激活函數(shù),其中最后一層卷積層直接返回線性操作結(jié)果。

    1.2 CSA模塊

    對(duì)側(cè)掃聲納圖像的目標(biāo)細(xì)節(jié)特征與背景特征充分學(xué)習(xí)是生成高質(zhì)量圖像的關(guān)鍵,為了更好地對(duì)輸入圖像的全局信息以及局部特征進(jìn)行學(xué)習(xí),增強(qiáng)通道與空間的相互作用,本文設(shè)計(jì)了一種跨越通道和空間緯度的CSA模塊,通過(guò)減少信息彌散的同時(shí)放大全局的跨緯度交互以提高網(wǎng)絡(luò)性能。CSA模塊由通道注意力和空間注意力組成,具體結(jié)構(gòu)如圖4所示。

    本文通道注意力和空間注意力模塊采用并行計(jì)算,將各自輸出的權(quán)重系數(shù)與初始輸入特征圖進(jìn)行元素相乘后,再進(jìn)行兩者特征信息的逐元素相加,在提高效率的同時(shí)放大跨緯度的感受域。

    Ioutput=(Mc(I)·I)+(Ms(I)·I)(1)

    式中:Mc(I)和Ms(I)分別為通道注意力和空間注意力模塊的特征輸出,對(duì)各模塊的具體描述如下。

    1.2.1 通道注意力

    通道注意力強(qiáng)調(diào)模型應(yīng)該關(guān)注什么特征,其每個(gè)通道都包含一個(gè)特定的特征響應(yīng)。首先,將輸入的特征I(H×W×C)分別經(jīng)過(guò)基于寬和高的全局最大池化和全局平均池化,得到兩個(gè)1×1×C的特征圖。其次,再將其分別送入一個(gè)兩層感知器(multilayer perceptron, MLP),第1層神經(jīng)元個(gè)數(shù)為C/r(r為減少率),激活函數(shù)為ReLU,第2層神經(jīng)元個(gè)數(shù)為C,這個(gè)兩層的神經(jīng)網(wǎng)絡(luò)是共享的。然后,將MLP輸出的特征進(jìn)行基于逐元素的加和操作后經(jīng)過(guò)Sigmoid激活函數(shù),生成最終的通道注意力特征,即Mc。最后,將Mc和特征I做逐元素乘法操作可得到縮放后的新特征:

    Mc(I)=σ(MLP(AvgPool(I))+MLP(MaxPool(I)))=

    σ(W1(W0(ICAvg))+W1(W0(ICMax)))(2)

    式中:σ為Sigmoid激活函數(shù);W0∈RCr×C,W1∈RC×Cr,兩者為MLP共享網(wǎng)絡(luò)的權(quán)重。

    1.2.2 空間注意力

    空間注意力強(qiáng)調(diào)模型關(guān)注的特征在哪里,即增強(qiáng)或抑制不同空間位置的特征。首先將輸入的特征I(H×W×C)做一個(gè)基于通道的全局最大池化和全局平均池化,得到兩個(gè)H×W×1的特征圖后進(jìn)行基于通道的拼接操作。其次,通過(guò)一個(gè)7×7卷積核的卷積操作將圖像降維為1個(gè)通道。然后,通過(guò)Sigmoid激活函數(shù)生成空間注意力特征,即Ms。最后,將Ms和特征I做逐元素點(diǎn)乘乘法,得到最終生成的特征。

    Ms(I)=σ(f7×7([AvgPool(I),MaxPool(I)]))=

    σ(f7×7([ISAvg,ISMax]))(3)

    式中:σ為Sigmoid激活函數(shù);f7×7為卷積核為7×7的卷積操作。

    圖像初始特征學(xué)習(xí)熱力圖如圖5所示,可以看出CSA模塊能動(dòng)態(tài)地抑制或強(qiáng)調(diào)特征的映射,有效避免了關(guān)鍵目標(biāo)特征變成背景特征的情況。

    1.3 損失函數(shù)

    合適的損失函數(shù)對(duì)GAN生成圖像的質(zhì)量提升起到了至關(guān)重要的作用。從提出的網(wǎng)絡(luò)架構(gòu)圖可以看出,其損失函數(shù)由LSGAN損失、Cyclic-consitency損失以及Identity損失3部分組成。LSGAN損失指導(dǎo)生成器生成更加逼真目標(biāo)域的圖像;Cyclic-consitency損失指導(dǎo)生成器生成的圖像與輸入圖像盡可能的接近;Identity損失限制生成器無(wú)視輸入數(shù)據(jù)。

    1.3.1 LSGAN損失

    傳統(tǒng)GAN使用交叉熵作為損失函數(shù),該函數(shù)不優(yōu)化被判別器判定為真實(shí)圖像的圖像,即使這些圖像與判別器的決策邊界仍然很遠(yuǎn),導(dǎo)致生成器生成的圖像質(zhì)量不高以及模型訓(xùn)練不穩(wěn)定。為此,本文采用了LSGAN中目標(biāo)函數(shù)作為模型的損失函數(shù),即采用最小二乘作為損失函數(shù)。

    minD VLSGAN(D)=12Es~Pdata(s)[(D(s)-b)2]+

    12Ez~Pz(z)[(D(G(z))-a)2](4)

    minG VLSGAN(G)=12Ez~Pz(z)[(D(G(z))-c)2](5)

    式中:Pdata(s)表示真實(shí)數(shù)據(jù)分布;s表示生成的數(shù)據(jù)與真實(shí)數(shù)據(jù)之間的誤差;G表示生成器;Pz(z)表示輸入噪聲的先驗(yàn)分布。

    在判別器D的目標(biāo)函數(shù)中,給真實(shí)數(shù)據(jù)和生成數(shù)據(jù)賦予編碼b與a,b=1表示為真實(shí)數(shù)據(jù),a=0表示為生成數(shù)據(jù),通過(guò)最小化判別器判別生成數(shù)據(jù)與0的誤差以及真實(shí)數(shù)據(jù)s與1的誤差,實(shí)現(xiàn)判別器的最優(yōu)化。在生成器Gos的目標(biāo)函數(shù)中,給生成數(shù)據(jù)賦予編碼c,通過(guò)最小化生成器生成數(shù)據(jù)z與1的誤差,指導(dǎo)生成器成功欺騙判別器從而獲得高分,此時(shí)c=1。因此,將式(4)和式(5)分別轉(zhuǎn)化為

    minD VLSGAN(D)=12Es~Pdata(s)[(D(s)-1)2]+

    12Ez~Pz(z)[(D(G(z)))2](6)

    minG VLSGAN(Gos)=12Ez~Pz(z)[(Dos(G(z))-1)2](7)

    1.3.2 Cyclic-consitency損失

    為實(shí)現(xiàn)循環(huán)一致性,即要求從光學(xué)域轉(zhuǎn)換為聲學(xué)域時(shí)滿足

    xGos(x)Gso(Gos(x))≈x(8)

    數(shù)學(xué)公式表達(dá)如下:

    Lcyc(Gos,Gso)=Ex~Pdata(x)[Gso(Gos(x))-x1](9)

    式中:1-范數(shù)為矩陣1-范數(shù),表示所有矩陣的列向量中元素絕對(duì)值之和最大的值。

    X1=maxj∑mi=1|ai,j|(10)

    1.3.3 Identity損失

    Identity損失用于限制生成器無(wú)視輸入數(shù)據(jù)而去自主修改圖像顏色的情況,表示若將聲學(xué)域圖像送入生成器Gos中,那么應(yīng)盡可能得到本身,具體損失函數(shù)如下:

    LIdentity(Gos)=Es~Pdata(s)[(Gos(s)-s)1](11)

    因此,網(wǎng)絡(luò)的總損失函數(shù)如下:

    Losscyc=minD VLSGAN(D)+minG VLSGAN(Gos)+

    λ1Lcyc(Gos,Gso)+λ2LIdentity(Gos)(12)

    式中:λ1和λ2為非負(fù)超參數(shù),用于調(diào)整損失對(duì)整體效果的不同影響。衡量每一個(gè)損失,以平衡每一個(gè)組成部分的重要性。

    2 實(shí) 驗(yàn)

    基于CSLS-CycleGAN的側(cè)掃聲納圖像樣本擴(kuò)增是本文方法的重要組成,為評(píng)估本文方法的可行性和有效性,本實(shí)驗(yàn)對(duì)提出的GAN性能進(jìn)行評(píng)估。通過(guò)外源光學(xué)船舶圖像和側(cè)掃聲納沉船圖像雙域轉(zhuǎn)換的性能對(duì)提出模型進(jìn)行評(píng)估,包括與主流GAN進(jìn)行比對(duì),并對(duì)生成的圖像的質(zhì)量進(jìn)行定性定量的分析;生成圖像對(duì)YOLOv5目標(biāo)檢測(cè)模型的檢測(cè)性能提升的作用;以及通過(guò)消融實(shí)驗(yàn)對(duì)GAN中使用策略的有效性進(jìn)行定性與定量的分析。

    2.1 數(shù)據(jù)集

    本文用于實(shí)驗(yàn)的數(shù)據(jù)集主要由側(cè)掃聲納沉船圖像以及衛(wèi)星光學(xué)船舶數(shù)據(jù)組成。側(cè)掃聲納沉船數(shù)據(jù)集由各海道測(cè)量部門和國(guó)內(nèi)外主流側(cè)掃聲納儀器設(shè)備,在多區(qū)域?qū)崪y(cè)獲得的600張側(cè)掃聲納沉船圖像組成,部分樣本如圖6(a)所示。衛(wèi)星光學(xué)船舶數(shù)據(jù)集由部分HRSC2016組成,本實(shí)驗(yàn)挑選其中代表性強(qiáng)的數(shù)據(jù)共5 000張,部分樣本如圖6(b)所示。

    2.2 評(píng)價(jià)指標(biāo)

    根據(jù)文獻(xiàn)[36]的研究,F(xiàn)ID(Frechet inception distance)、最大平均差異(maximum mean discrepancy, MMD)和1-最近鄰分類器(1-nearest-neighbor, 1-NN)相比其他指標(biāo)可以更好地評(píng)價(jià)生成樣本的清晰度、特征的多樣性和圖片的真實(shí)性。

    FID是計(jì)算真實(shí)圖像與生成圖像的特征向量之間距離的度量,用于度量?jī)山M圖像的相似度,F(xiàn)ID的計(jì)算方法為

    FID=μr-μg2+tr(Σr+Σg-2ΣrΣg)(13)

    式中:μr和μg分別為兩個(gè)分布的均值向量;Σr和Σg為其協(xié)方差矩陣;·為向量的范數(shù)。FID值越小,圖像增強(qiáng)效果越好。

    MMD基于最大均方差的統(tǒng)計(jì)檢驗(yàn)來(lái)度量?jī)蓚€(gè)特征分布之間的相似性,將真實(shí)集和生成集映射到具有固定核函數(shù)的核空間,然后計(jì)算兩個(gè)分布之間的平均差。MMD的計(jì)算公式為

    MMD2(X,Y)=E[K(Xi,Xj)-2K(Xi,Yj)+K(Yi,Yj)](14)

    式中:X代表真實(shí)圖像集;Xi和Xj是從X中提取的樣本;Y代表生成的圖像集;Yi和Yj是從Y中提取的采樣;E代表期望值;K是高斯核。較低的MMD值表示更有效的圖像增強(qiáng)。

    1-NN使用二值分類器將n個(gè)實(shí)數(shù)集(標(biāo)記為1)與n個(gè)生成集(標(biāo)記為0)混合,然后隨機(jī)分為訓(xùn)練集T1(編號(hào)為2n-1)和測(cè)試集T2(編號(hào)為1),用T1訓(xùn)練分類器,用T2獲得分類精度,以此來(lái)計(jì)算兩個(gè)圖像集之間的相似性。以上步驟循環(huán)2n次,每次選擇不同的T2,最后計(jì)算平均分類準(zhǔn)確率。精確度越接近0.5越好。

    同時(shí),考慮到本文的目的是對(duì)匱乏的側(cè)掃聲納水下目標(biāo)圖像進(jìn)行樣本擴(kuò)增,來(lái)提高基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型的性能,因此接下來(lái)本文使用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型進(jìn)行對(duì)比實(shí)驗(yàn)。目前,目標(biāo)檢測(cè)模型非常多,由于本文的目的在于驗(yàn)證擴(kuò)增樣本的有效性,因此本文最終采用高速、輕量、易于部署的YOLOv5模型進(jìn)行評(píng)價(jià)實(shí)驗(yàn)。將GAN模型生成的圖像作為訓(xùn)練集輸入YOLOv5網(wǎng)絡(luò),將真實(shí)圖像作為驗(yàn)證集,通過(guò)召回率、精度和平均精度來(lái)評(píng)估生成的圖像在檢測(cè)網(wǎng)絡(luò)中的有效性。

    2.3 實(shí)驗(yàn)設(shè)計(jì)

    模型訓(xùn)練均基于Pytorch框架用Python語(yǔ)言實(shí)現(xiàn),硬件環(huán)境為:Windows10操作系統(tǒng);CPU為Intel(R) Core(TM) i9-10900X@3.70 GHz; GPU為2塊NVIDIA GeForce RTX 3090,并行內(nèi)存48 GB。

    HRSC2016數(shù)據(jù)集由于原始圖像像素過(guò)大且大部分均為背景,在訓(xùn)練模型時(shí)反而是一種負(fù)擔(dān),因此所有光學(xué)圖像數(shù)據(jù)均在保留目標(biāo)的基礎(chǔ)上統(tǒng)一設(shè)置為250×250。將側(cè)掃聲納沉船圖像按5∶1劃分訓(xùn)練集和評(píng)估集,船舶光學(xué)圖像按9∶1劃分為訓(xùn)練集和轉(zhuǎn)換集。側(cè)掃聲納圖像的評(píng)估集和光學(xué)圖像的轉(zhuǎn)換集用以進(jìn)行生成圖像質(zhì)量的定量分析。為減少訓(xùn)練時(shí)的震蕩,讓模型訓(xùn)練更加的穩(wěn)定,本實(shí)驗(yàn)在訓(xùn)練時(shí)引入緩存歷史數(shù)據(jù)的方式。使用list存儲(chǔ)之前10張圖像,每次訓(xùn)練判別器時(shí)從list中隨機(jī)抽取一張進(jìn)行判別,讓判別器可以持有判別任意時(shí)間點(diǎn)生成器生成圖像的能力。模型訓(xùn)練的參數(shù)如表1所示。

    表1中,λ1和λ2是損失函數(shù)式(12)中的參數(shù),β是Adam優(yōu)化器的參數(shù)。

    2.4 實(shí)驗(yàn)與分析

    2.4.1 定量分析

    本節(jié)首先對(duì)模型的訓(xùn)練過(guò)程以及性能進(jìn)行分析和評(píng)估。本文提出的網(wǎng)絡(luò)最初受CycleGAN啟發(fā),將本文提出的模型與不同結(jié)構(gòu)的CycleGAN模型(即生成器采用ResNet-06、ResNet-09、UNet-128、UNet-256基礎(chǔ)網(wǎng)絡(luò))進(jìn)行比較,結(jié)果如圖7所示。

    從圖7可以看出,5種模型的損失值均隨著訓(xùn)練步數(shù)的增加而不斷減小并最終趨于穩(wěn)定,達(dá)到擬合狀態(tài)。其中,本文提出的網(wǎng)絡(luò)在Cyclic-consitency損失、LSGAN損失以及Identity損失中均最低,同時(shí)在整個(gè)訓(xùn)練過(guò)程中最為穩(wěn)定,不存在其他幾個(gè)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中出現(xiàn)較大的振幅變化的情況。

    因?yàn)楸疚哪P蛯儆跓o(wú)監(jiān)督學(xué)習(xí)的雙域圖像的風(fēng)格遷移,因此將上述模型與該領(lǐng)域主流的pix2pix、DualGAN[37]以及DiscoGAN[38]進(jìn)行生成圖像的對(duì)比,比較對(duì)象為將HRSC2016轉(zhuǎn)換集中的500張光學(xué)圖像轉(zhuǎn)換生成的側(cè)掃聲納沉船圖像與真實(shí)側(cè)掃聲納評(píng)估集中的100張圖像進(jìn)行定量分析,分別計(jì)算FID、MMD和K-NN,其中K設(shè)置為1。最終定量試驗(yàn)結(jié)果如表2所示。

    對(duì)比組別2~5可以看出,模型結(jié)構(gòu)并不是越復(fù)雜,參數(shù)越多效果越好,相反由于側(cè)掃聲納圖像低分辨率、特征貧瘠等特征,在圖像的生成上越復(fù)雜的模型結(jié)構(gòu)不一定帶來(lái)更好的生成效果。組別1證明pix2pix模型生成圖像的質(zhì)量最不理想,可能是由于該模型需要成對(duì)的數(shù)據(jù)集作為訓(xùn)練的輸入,本實(shí)驗(yàn)雖然擁有同一目標(biāo)的不同域圖像,但是除了在背景上的差異外,還存在目標(biāo)的尺寸、方位、紋理、分辨率等多維度的差異,不能理解為理想的成對(duì)圖像。而組別2~8由于采用無(wú)監(jiān)督學(xué)習(xí),不需要成對(duì)的雙域圖像即可完成高質(zhì)量的圖像生成,因此均取得優(yōu)于組別1的效果。從組別6和組別7可以看出,DualGAN和DiscoGAN網(wǎng)絡(luò)與CycleGAN網(wǎng)絡(luò)在沉船目標(biāo)光學(xué)與側(cè)掃聲納雙域圖像轉(zhuǎn)換任務(wù)上性能差距不大,均能很好地達(dá)到目的。組別8對(duì)比其他組別可以看出,使用本文模型結(jié)構(gòu)的FID和MMD值均最低,1-NN值與0.5最為接近,證明和上述模型相比,本文模型生成的圖像與真實(shí)側(cè)掃聲納沉船圖像擬合程度更高,擁有更好的清晰度、細(xì)節(jié)度和真實(shí)度以及更低的模式崩潰概率。

    2.4.2 定性分析

    圖8為5種模型對(duì)大尺寸、多數(shù)量和小尺寸3種具有典型代表的光學(xué)圖像的轉(zhuǎn)化圖。

    從圖8可以看出5種模型均基本實(shí)現(xiàn)了光學(xué)到聲學(xué)的跨域轉(zhuǎn)化,完成了樣本擴(kuò)增。其中,圖8(b)和圖8(c)均不能很好地生成沉船的紋理特征以及背景出現(xiàn)了黑洞的情況;圖8(d)雖然較好地生成了背景但是依然存在白條以及方框背景等情況;圖8(e)在多目標(biāo)和小尺寸目標(biāo)紋理特征的生成中較前面幾個(gè)模型有了提高,但是卻出現(xiàn)了邊界的黑框,可能是錯(cuò)把沉船目標(biāo)的陰影特征學(xué)習(xí)成了背景信息;再看本文方法,相較于前面4種模型,無(wú)論是在模型的紋理特征生成上還是背景特征生成上,均取得了不錯(cuò)的效果。

    2.4.3 目標(biāo)探測(cè)模型上的性能

    考慮到本文的目的是對(duì)匱乏的側(cè)掃聲納水下目標(biāo)圖像進(jìn)行樣本擴(kuò)增,以期提高基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型的性能,因此接下來(lái)本文使用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型進(jìn)行對(duì)比實(shí)驗(yàn)。目前目標(biāo)檢測(cè)模型非常多,由于本文的目的在于驗(yàn)證擴(kuò)增樣本的有效性,因此采用高速、輕量、易于部署的YOLOv5模型進(jìn)行實(shí)驗(yàn)。

    以沉船目標(biāo)為對(duì)象,設(shè)計(jì)了3組數(shù)據(jù)集分別對(duì)YOLOv5模型進(jìn)行訓(xùn)練,具體如表3所示。數(shù)據(jù)集分別是只包含真實(shí)側(cè)掃聲納數(shù)據(jù)、只包含本文模型生成的數(shù)據(jù),以及包含真實(shí)數(shù)據(jù)與生成數(shù)據(jù),并挑選100張真實(shí)的側(cè)掃聲納圖像對(duì)訓(xùn)練后的模型進(jìn)行性能評(píng)估。其中,生成的沉船數(shù)據(jù)均經(jīng)過(guò)數(shù)據(jù)篩選,剔除了擴(kuò)增失敗的圖像。

    使用100張真實(shí)的側(cè)掃聲納圖像對(duì)訓(xùn)練完成的模型進(jìn)行驗(yàn)證,采用在目標(biāo)檢測(cè)評(píng)估領(lǐng)域廣泛應(yīng)用的查全率、查準(zhǔn)率和平均精度來(lái)評(píng)價(jià)模型,結(jié)果如表4所示。從表4可以看出,使用本文方法生成圖像進(jìn)行訓(xùn)練的模型在查全率、查準(zhǔn)率和平均精度值均高于僅使用真實(shí)側(cè)掃聲納數(shù)據(jù)訓(xùn)練的模型,證明了生成數(shù)據(jù)在模型性能提升中的起到了關(guān)鍵作用。使用了真實(shí)數(shù)據(jù)和生成數(shù)據(jù)訓(xùn)練的YOLOv5-C和僅僅使用生成數(shù)據(jù)訓(xùn)練的YOLOv5-B在各項(xiàng)評(píng)價(jià)指標(biāo)差距不大,證明了模型性能的提升原因主要是由于使用了本文方法生成數(shù)據(jù),或者說(shuō)本文方法生成的圖像滿足了在真實(shí)度、多樣性上要求。

    使用訓(xùn)練好的3個(gè)模型對(duì)真實(shí)沉船側(cè)掃聲納圖像進(jìn)行目標(biāo)檢測(cè),部分效果對(duì)比圖如圖9所示。

    從圖9可以看出,使用A、B、C 3組數(shù)據(jù)集訓(xùn)練后的YOLOv5模型均可以實(shí)現(xiàn)真實(shí)海底沉船目標(biāo)的識(shí)別。但是對(duì)比圖9(b)、圖9(c)和圖9(d)可以發(fā)現(xiàn),僅僅使用數(shù)據(jù)集A進(jìn)行訓(xùn)練的模型在沉船目標(biāo)識(shí)別的置信度平均在65%,且在定位精度上有待加強(qiáng),沒有對(duì)沉船的陰影進(jìn)行很好的識(shí)別,在識(shí)別準(zhǔn)確率上,將3組圖像中礁石目標(biāo)錯(cuò)誤地識(shí)別為沉船目標(biāo)。而使用了本文擴(kuò)增數(shù)據(jù)集B和C進(jìn)行訓(xùn)練的模型在沉船目標(biāo)陰影識(shí)別上效果更好,且無(wú)論是在定位精度還是在置信度上均明顯高于僅僅使用真實(shí)數(shù)據(jù)集進(jìn)行訓(xùn)練的模型,平均置信度均達(dá)到了90%。

    以上實(shí)驗(yàn)證明了使用本文方法進(jìn)行樣本擴(kuò)增的圖像與真實(shí)側(cè)掃聲納圖像具有更貼近的真實(shí)度、細(xì)節(jié)度與完整度,且實(shí)現(xiàn)了提升基于深度學(xué)習(xí)的目標(biāo)探測(cè)模型探測(cè)性能的目的。

    2.4.4 消融實(shí)驗(yàn)與評(píng)估

    為了驗(yàn)證各個(gè)模塊在本文模型性能中的作用,采用控制變量法分別對(duì)CSA模塊和LSGAN損失函數(shù)進(jìn)行消融實(shí)驗(yàn),評(píng)價(jià)指標(biāo)依舊采用FID、MMD和1-NN。設(shè)計(jì)了6組對(duì)照實(shí)驗(yàn),實(shí)驗(yàn)配置、訓(xùn)練數(shù)據(jù)集以及評(píng)估數(shù)據(jù)和第2.3節(jié)一致,實(shí)驗(yàn)結(jié)果如表5所示。

    對(duì)比組別1~4可以看出,融入了注意力機(jī)制后模型生成圖像的質(zhì)量更高,其中融合了通道注意力和空間注意力機(jī)制的組別4較僅使用了通道和空間注意力模塊的組別2和3擁有更高的性能,證明了本文提出的CSA模塊對(duì)模型的有效性。對(duì)比組別5和組別1可以看出,本文提出的LSGAN損失函數(shù)的優(yōu)越性。對(duì)比組別6和組別4、組別5可以看出,融合了CSA模塊和LSGAN損失函數(shù)后模型的性能比僅使用單一策略的效果更佳,對(duì)模型的整體性能提升起到了至關(guān)重要的作用,體現(xiàn)了本文提出的方法的有效性。

    使用不同策略訓(xùn)練的6組模型對(duì)部分光學(xué)圖像的轉(zhuǎn)化效果如圖10所示。

    從圖10可以看出,組別1生成的數(shù)據(jù)真實(shí)度最低,對(duì)比組別2和組別1可以看出,增加了通道注意力模塊的模型在生成目標(biāo)時(shí)能夠挖掘更多的細(xì)節(jié)特征,但是在背景特征生成上有待加強(qiáng)。對(duì)比組別3和組別1可以看出,增加了空間注意力模塊的模型在生成圖像的背景時(shí)效果更優(yōu),但是仍然存在背景黑洞的情況,并且在目標(biāo)細(xì)節(jié)特征的生成上效果一般。對(duì)比組別4和組別1可以看出,采用了CSA模塊的模型在目標(biāo)細(xì)節(jié)特征以及背景特征生成上能力提升明顯。對(duì)比組別5和組別1可以看出,采用了LSGAN目標(biāo)函數(shù)的模型較好地實(shí)現(xiàn)了目標(biāo)圖像的生成,但是在背景的邊緣仍然存在明顯的方框,顯得不是特別的自然。對(duì)比組別6和組別1可以看出,融合CSA模塊和LSGAN目標(biāo)函數(shù)的模型無(wú)論是在沉船目標(biāo)的紋理、邊緣等細(xì)節(jié)特征,還是在背景特征上均表現(xiàn)良好,生成了清晰度高、細(xì)節(jié)特征完整、真實(shí)感強(qiáng)的目標(biāo)圖像,證明了本文方法的有效性。

    3 結(jié) 論

    針對(duì)側(cè)掃聲納水下目標(biāo)圖像稀缺、獲取難度大、成本高導(dǎo)致基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型性能差的問題,本文結(jié)合光學(xué)域類目標(biāo)數(shù)據(jù)集豐富的優(yōu)勢(shì),提出了一種基于CSLS-CycleGAN的水下目標(biāo)側(cè)掃聲納圖像樣本擴(kuò)增方法,設(shè)計(jì)了單循環(huán)一致性的網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率以及任務(wù)的專注度;在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互,在學(xué)習(xí)全局特征的同時(shí)關(guān)注目標(biāo)的細(xì)粒度特征;設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高訓(xùn)練穩(wěn)定性,避免模式崩潰的情況。通過(guò)光學(xué)域船舶圖像與側(cè)掃聲納圖像進(jìn)行實(shí)驗(yàn),實(shí)現(xiàn)了目標(biāo)光學(xué)圖像與側(cè)掃聲納圖像的雙域轉(zhuǎn)化,生成的側(cè)掃聲納水下目標(biāo)圖像清晰度高、細(xì)節(jié)特征完整、真實(shí)感強(qiáng),達(dá)到了少樣本的樣本高質(zhì)量擴(kuò)增的目的,很大程度上解決了基于深度學(xué)習(xí)的水下目標(biāo)檢測(cè)模型數(shù)據(jù)匱乏的問題,提升了模型的檢測(cè)精度,為水下強(qiáng)代表性目標(biāo)樣本擴(kuò)增以及高性能水下目標(biāo)檢測(cè)模型構(gòu)建提供了一種新的思路。

    參考文獻(xiàn)

    [1] HENRIKSE L. Real-time underwater object detection based on an electrically scanned high-resolution sonar[C]∥Proc.of the IEEE Symposium on Autonomous Underwater Vehicle Techno-logy, 2002.

    [2] ARSHAD M R. Recent advancement in sensor technology for underwater applications[J]. Indian Journal of Marine Sciences, 2009, 38(3): 267-273.

    [3] GREENE A, RAHMAN A F, KLINE R, et al. Side scan sonar: a cost-efficient alternative method for measuring seagrass cover in shallow environments[J]. Estuarine, Coastal and Shelf Science, 2018. DOI:10.1016/j.ecss, 2018.04.017.

    [4] HURTOS N, PALOMERAS N, CARRERA A, et al. Autonomous detection, following and mapping of an underwater chain using sonar[J]. Ocean Engineering, 2017, 130(1): 336-350.

    [5] BUSCOMBE D. Shallow water benthic imaging and substrate characterization using recreational-grade side scan-sonar[J]. Environmental Modelling amp; Software, 2017, 89: 1-18.

    [6] FLOWERS H J, HIGHTOWER J E. A novel approach to surveying sturgeon using side-scan sonar and occupancy modeling[J]. Marine amp; Coastal Fisheries, 2013, 5(1): 211-223.

    [7] JOHNSON S G, DEAETT M A. The application of automated recognition techniques to side-scan sonar imagery[J]. IEEE Journal of Oceanic Engineering: a Journal Devoted to the Application of Electrical and Electronics Engineering to the Oceanic Environment, 1994, 19(1): 138-144.

    [8] BURGUERA A, BONIN-FONT F. On-line multi-class segmentation of side-scan sonar imagery using an autonomous underwater vehicle[J]. Journal of Marine Science and Engineering, 2020, 8(8): 557.

    [9] CHEN E, GUO J. Real time map generation using sidescan sonar scanlines for unmanned underwater vehicles[J]. Ocean Engineering, 2014, 91: 252-262.

    [10] ZHU B Y, WANG X, CHU Z W, et al. Active learning for recognition of shipwreck target in side-scan sonar image[J]. Remote Sensing, 2019, 11(3): 243.

    [11] 陽(yáng)凡林, 獨(dú)知行,吳自銀, 等. 基于灰度直方圖和幾何特征的聲納圖像目標(biāo)識(shí)別[J]. 海洋通報(bào), 2006, 25(5): 64-69.

    YANG F L, DU Z X, WU Z Y, et al. Object recognizing on sonar image based on histogram and geometric feature[J]. Marine Science Bulletin, 2006, 25(5): 64-69.

    [12] LANGNER F, KNAUER C, JANS W, et al. Side scan sonar image resolution and automatic object detection, classification and identification[C]∥Proc.of the Oceans-Europe Conference, 2009.

    [13] ISAACS J C. Sonar automatic target recognition for underwater UXO remediation[C]∥Proc.of the Computer Vision amp; Pattern Recognition Workshops, 2015.

    [14] YUAN F, XIAO F Q, ZHANG K H, et al. Noise reduction for sonar images by statistical analysis and fields of experts[J]. Journal of Visual Communication and Image Representation, 2021, 74: 102995.

    [15] REED S, PETILLOT Y, BELL J.Automated approach to classification of mine-like objects in sidescan sonar using highlight and shadow information[J]. IEE Proceedings—Radar, Sonar and Navigation, 2004, 151(1): 48-56.

    [16] KUMAR N, MITRA U, NARAYANAN S S. Robust object classification in underwater sidescan sonar images by using reliability-aware fusion of shadow features[J]. IEEE Journal of Oceanic Engineering, 2015, 40(3): 592-606.

    [17] ZHU P P, ISAACS J, FU B, et al. Deep learning feature extraction for target recognition and classification in underwater sonar images[C]∥Proc.of the IEEE 56th Annual Conference on Decision and Control, 2017.

    [18] NEUPANE D, SEOK J. A review on deep learning-based approaches for automatic sonar target recognition[J]. Electronics, 2020, 9(11): 1972.

    [19] TOPPLE J M, FAWCETT J A. MiNet: efficient deep learning automatic target recognition for small autonomous vehicles[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(6): 1014-1018.

    [20] HUO G Y, YANG S X, LI Q, et al. A robust and fast method for sidescan sonar image segmentation using nonlocal despeckling and active contour model[J]. IEEE Trans.on Cybernetics, 2016, 47(4): 855-872.

    [21] FELDENS P, DARR A, FELDENS A, et al. Detection of boulders in side scan sonar mosaics by a neural network[J]. Geosciences, 2019, 9(4): 159.

    [22] TANG Y L, JIN S H, BIAN G, et al. Shipwreck target recognition in side-scan sonar images by improved YOLOv3 model based on transfer learning[J]. IEEE Access, 2020, 8: 173450-173460.

    [23] 湯寓麟, 李厚樸, 張衛(wèi)東, 等. 側(cè)掃聲納檢測(cè)沉船目標(biāo)的輕量化DETR-YOLO法[J]. 系統(tǒng)工程與電子技術(shù), 2022, 44(8): 2427-2436.

    TANG Y L, LI H P, ZHANG W D, et al. Lightweight DETR-YOLO method for detecting shipwreck target in side-scan sonar[J]. Systems Engineering and Electronics, 2022, 44(8): 2427-2436.

    [24] NGUYEN H T, LEE E H, LEE S, et al. Study on the classification performance of underwater sonar image classification based on convolutional neural networks for detecting a submerged human body[J]. Sensors, 2019, 20(1): 94.

    [25] LI A C, YE A X, CAO B D, et al. Zero shot objects classification method of side scan sonar image based on synthesis of pseudo samples-ScienceDirect[J]. Applied Acoustics, 2021, 173: 107691.

    [26] COIRAS E, MIGNOTTE P Y, PETILLOT Y, et al. Supervised target detection and classification by training on augmented reality data[J]. IET Radar, Sonar amp; Navigation, 2007, 1(1): 83-90.

    [27] KAPETANOVI N, MIKOVI N, TAHIROVI A. Saliency and anomaly: transition of concepts from natural images to side-scan sonar images[J]. IFAC-Papers OnLine, 2020, 53(2): 14558-14563.

    [28] LEE S J, PARK B, KIM A. Deep learning from shallow dives: sonar image generation and training for underwater object detection[EB/OL]. [2023-03-10]. arxiv.org/pdf/1810.07990.pdf.

    [29] HUO G Y, WU Z Y, LI J B. Underwater object classification in sidescan sonar images using deep transfer learning and semisynthetic training data[J]. IEEE Access, 2020, 8: 47407-47418.

    [30] HUANG C, ZHAO J H, YU Y C, et al. Comprehensive sample augmentation by fully considering side-scan imaging mechanism and environment for shipwreck detection under zero real samples[J]. IEEE Trans.on Geoscience and Remote Sensing, 2021, 60: 5906814.

    [31] CHAVEZ P S, ISBRECHT J A, GALANIS P, et al. Processing, mosaicking and management of the monterey bay digital sidescan-sonar images[J]. Marine Geology, 2002, 181(1/3): 305-315.

    [32] BLONDEL P. The handbook of sidescan sonar[M]. Berlin: Springer, 2010.

    [33] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image translation with conditional adversarial networks[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 5967-5976.

    [34] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]∥Proc.of the IEEE International Conference on Computer Vision, 2017: 2242-2251.

    [35] 李寶奇, 黃海寧, 劉紀(jì)元, 等. 基于改進(jìn)CycleGAN的光學(xué)圖像遷移生成水下小目標(biāo)合成孔徑聲納圖像算法研究[J]. 電子學(xué)報(bào), 2021, 49(9): 1746-1753.

    LI B Q, HUANG H N, LIU J Y, et al. Optical image-to-underwater small target synthetic aperture sonar image translation algorithm based on improved CycleGAN[J]. Acta Electronica Sinica, 2021, 49(9): 1746-1753.

    [36] ALFARRA M, JUAN C, ANNA F, et al. On the robustness of quality measures for GANs[C]∥Proc.of the 17th European Conference on Computer Vision, 2022: 18-33.

    [37] YI Z L, ZHANG H, TAN P L, et al. DualGAN: unsupervised dual learning for image-to-image translation[C]∥Proc.of the IEEE International Conference on Computer Vision, 2017: 2868-2876.

    [38] KIM T, CHA M. Learning to discover cross-domain relations with generative adversarial networks[C]∥Proc.of the 34th International Conference on Machine Learning, 2017: 1857-1865.

    作者簡(jiǎn)介

    湯寓麟(1996—),男,博士研究生,主要研究方向?yàn)橹悄芨兄c智能系統(tǒng)、水下目標(biāo)檢測(cè)和計(jì)算機(jī)視覺。

    王黎明(1978—),男,副教授,博士,主要研究方向?yàn)闊o(wú)人裝備智能感知與自主控制。

    余德熒(1998—),男,博士研究生,主要研究方向?yàn)楸倍?GNSS精密定位算法、海洋應(yīng)用。

    李厚樸(1985—),男,教授,博士,主要研究方向?yàn)榇蟮販y(cè)量數(shù)學(xué)分析。

    劉 敏(1980—),男,高級(jí)工程師,博士,主要研究方向?yàn)榇蟮販y(cè)量??罩亓y(cè)量與數(shù)據(jù)處理技術(shù)、海洋測(cè)繪及海洋地理信息應(yīng)用。

    張衛(wèi)東(1981—),男,工程師,主要研究方向?yàn)榈乩硇畔⑾到y(tǒng)。

    猜你喜歡
    聲納樣本函數(shù)
    二次函數(shù)
    第3講 “函數(shù)”復(fù)習(xí)精講
    用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
    二次函數(shù)
    Daniel Kish
    函數(shù)備考精講
    船載調(diào)頻連續(xù)波聲納測(cè)深技術(shù)研究
    基于聽覺特征的被動(dòng)聲納目標(biāo)識(shí)別
    推動(dòng)醫(yī)改的“直銷樣本”
    隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
    内射极品少妇av片p| 午夜av观看不卡| 国产成人91sexporn| 9色porny在线观看| 亚洲欧美日韩另类电影网站| 日韩精品免费视频一区二区三区 | 菩萨蛮人人尽说江南好唐韦庄| 国产午夜精品一二区理论片| 国产在视频线精品| 成年人午夜在线观看视频| 熟妇人妻不卡中文字幕| 国产男女超爽视频在线观看| 中国三级夫妇交换| 一级毛片我不卡| 久久久久久久大尺度免费视频| 蜜桃在线观看..| 精品人妻偷拍中文字幕| a级毛片免费高清观看在线播放| 亚洲精品日本国产第一区| 在线观看人妻少妇| 九草在线视频观看| 久久久久久久亚洲中文字幕| 美女国产视频在线观看| 观看av在线不卡| 26uuu在线亚洲综合色| 美女国产视频在线观看| √禁漫天堂资源中文www| 一级二级三级毛片免费看| 搡老乐熟女国产| 国产黄片视频在线免费观看| 在现免费观看毛片| 免费看av在线观看网站| 精品亚洲成a人片在线观看| 一个人免费看片子| 丝袜喷水一区| 久久国产精品男人的天堂亚洲 | 国产一区二区在线观看日韩| 亚洲精品,欧美精品| 久久精品久久久久久噜噜老黄| 精品久久久久久久久亚洲| 亚洲欧洲国产日韩| 少妇人妻 视频| 日韩大片免费观看网站| 自拍欧美九色日韩亚洲蝌蚪91 | 如何舔出高潮| 晚上一个人看的免费电影| av线在线观看网站| 精品亚洲成a人片在线观看| 亚洲三级黄色毛片| 伦精品一区二区三区| 精品国产露脸久久av麻豆| 伊人亚洲综合成人网| 99热国产这里只有精品6| 最近最新中文字幕免费大全7| 精品久久国产蜜桃| 校园人妻丝袜中文字幕| 日韩欧美精品免费久久| 亚洲人与动物交配视频| 另类精品久久| 色视频www国产| 午夜精品国产一区二区电影| 成年av动漫网址| 91成人精品电影| 少妇的逼水好多| 久久精品国产亚洲av涩爱| 亚洲在久久综合| 岛国毛片在线播放| 日韩欧美 国产精品| av免费观看日本| 少妇被粗大猛烈的视频| 日韩中文字幕视频在线看片| 久久青草综合色| 一级毛片我不卡| 国产老妇伦熟女老妇高清| 51国产日韩欧美| 18禁动态无遮挡网站| 久久久久久久久久久丰满| 一个人免费看片子| 久久亚洲国产成人精品v| 99国产精品免费福利视频| 少妇高潮的动态图| 久久av网站| 国产伦理片在线播放av一区| 十八禁网站网址无遮挡 | 少妇裸体淫交视频免费看高清| 亚洲综合精品二区| 色视频www国产| 亚洲不卡免费看| 国产色婷婷99| 国产成人精品福利久久| 最近中文字幕2019免费版| 男人舔奶头视频| 久久久久久久久大av| 日韩强制内射视频| 国产成人a∨麻豆精品| 国产片特级美女逼逼视频| 亚洲国产成人一精品久久久| 欧美精品高潮呻吟av久久| a级片在线免费高清观看视频| 国产一区二区三区综合在线观看 | 99久久精品国产国产毛片| 中文乱码字字幕精品一区二区三区| 免费看日本二区| 一级爰片在线观看| 中国美白少妇内射xxxbb| 国产成人精品无人区| 少妇被粗大猛烈的视频| 国产精品免费大片| 人人妻人人添人人爽欧美一区卜| 久久6这里有精品| 国产精品嫩草影院av在线观看| 麻豆成人午夜福利视频| 热re99久久精品国产66热6| 精品视频人人做人人爽| 色网站视频免费| 欧美亚洲 丝袜 人妻 在线| 久久精品国产自在天天线| 亚州av有码| 精品卡一卡二卡四卡免费| 久久久a久久爽久久v久久| 国产精品一区二区性色av| 97在线视频观看| 色视频www国产| 内射极品少妇av片p| 亚洲av中文av极速乱| 亚洲国产av新网站| 欧美日韩视频高清一区二区三区二| 99久久精品国产国产毛片| 国产精品蜜桃在线观看| 免费人成在线观看视频色| 人人妻人人澡人人爽人人夜夜| av在线观看视频网站免费| 亚洲国产av新网站| 日韩成人av中文字幕在线观看| 在现免费观看毛片| 久久久久久久大尺度免费视频| 夜夜爽夜夜爽视频| 国产又色又爽无遮挡免| 欧美日韩综合久久久久久| 国产免费福利视频在线观看| 国产午夜精品久久久久久一区二区三区| 美女国产视频在线观看| 天堂8中文在线网| 99热6这里只有精品| 午夜视频国产福利| 三级经典国产精品| 国产成人精品无人区| 国内揄拍国产精品人妻在线| 中国三级夫妇交换| 一级二级三级毛片免费看| 久久国内精品自在自线图片| 99热全是精品| 成人美女网站在线观看视频| 国产精品一区二区三区四区免费观看| 纵有疾风起免费观看全集完整版| 亚洲欧美成人综合另类久久久| 精品久久久久久久久av| 一区二区三区乱码不卡18| 亚洲精品国产av蜜桃| 久久久欧美国产精品| 欧美精品一区二区大全| 成人黄色视频免费在线看| √禁漫天堂资源中文www| 国产精品嫩草影院av在线观看| 高清在线视频一区二区三区| 日韩熟女老妇一区二区性免费视频| 免费人妻精品一区二区三区视频| 色哟哟·www| 五月天丁香电影| 高清毛片免费看| 伦精品一区二区三区| 午夜福利网站1000一区二区三区| 精品国产乱码久久久久久小说| 丰满迷人的少妇在线观看| 97精品久久久久久久久久精品| 久久国产精品男人的天堂亚洲 | 国产av国产精品国产| 久久精品夜色国产| 成人美女网站在线观看视频| av天堂中文字幕网| 老司机影院毛片| 国产亚洲91精品色在线| 亚洲国产欧美日韩在线播放 | 少妇 在线观看| 久久久久国产网址| 国产视频首页在线观看| 国产精品麻豆人妻色哟哟久久| 交换朋友夫妻互换小说| 日韩成人av中文字幕在线观看| 观看免费一级毛片| 欧美日韩精品成人综合77777| 2021少妇久久久久久久久久久| 亚洲精品一二三| 精品久久久久久电影网| 在线观看www视频免费| 久久久久久久久久人人人人人人| 欧美精品国产亚洲| 国产精品蜜桃在线观看| 在线观看美女被高潮喷水网站| 欧美成人午夜免费资源| 最新的欧美精品一区二区| 美女内射精品一级片tv| 亚洲在久久综合| 亚洲自偷自拍三级| 亚洲不卡免费看| 天天躁夜夜躁狠狠久久av| 久久国产亚洲av麻豆专区| 成人综合一区亚洲| 九九久久精品国产亚洲av麻豆| 欧美精品亚洲一区二区| 国产白丝娇喘喷水9色精品| 一级a做视频免费观看| 精品99又大又爽又粗少妇毛片| 国产成人精品无人区| 亚洲欧美日韩卡通动漫| 亚洲精华国产精华液的使用体验| 亚洲伊人久久精品综合| 欧美3d第一页| 亚洲精品自拍成人| 六月丁香七月| 国产探花极品一区二区| 精品久久久久久久久av| 高清在线视频一区二区三区| 最黄视频免费看| 国产精品久久久久久精品电影小说| 亚洲欧美日韩东京热| 亚洲国产欧美在线一区| 亚洲精品一区蜜桃| 日产精品乱码卡一卡2卡三| 性色avwww在线观看| 国产精品不卡视频一区二区| 国产国拍精品亚洲av在线观看| 中文字幕免费在线视频6| 交换朋友夫妻互换小说| 一本大道久久a久久精品| 国产探花极品一区二区| 我要看日韩黄色一级片| 久久久久久久亚洲中文字幕| 菩萨蛮人人尽说江南好唐韦庄| 亚洲精品成人av观看孕妇| 全区人妻精品视频| 男男h啪啪无遮挡| 少妇的逼水好多| 99久久中文字幕三级久久日本| 久久99热6这里只有精品| 成年美女黄网站色视频大全免费 | 蜜桃久久精品国产亚洲av| 午夜日本视频在线| 亚洲精品日本国产第一区| 少妇高潮的动态图| 日本av手机在线免费观看| 日韩精品免费视频一区二区三区 | 精品国产露脸久久av麻豆| 国产综合精华液| 日韩电影二区| 亚州av有码| 午夜精品国产一区二区电影| 如日韩欧美国产精品一区二区三区 | 2022亚洲国产成人精品| 精品人妻熟女av久视频| 永久网站在线| 日韩免费高清中文字幕av| 免费看光身美女| 免费av中文字幕在线| 久久久国产欧美日韩av| 国产一区二区在线观看av| 在线观看www视频免费| 交换朋友夫妻互换小说| 在现免费观看毛片| 欧美三级亚洲精品| 久久国产亚洲av麻豆专区| a级片在线免费高清观看视频| 亚洲国产欧美在线一区| 国产91av在线免费观看| 欧美日韩综合久久久久久| 美女国产视频在线观看| 我要看黄色一级片免费的| 国产淫语在线视频| 如日韩欧美国产精品一区二区三区 | 久久久国产精品麻豆| 国产成人免费观看mmmm| 亚洲精品日本国产第一区| 亚洲精品一二三| 少妇人妻一区二区三区视频| 精品少妇内射三级| 国产一区有黄有色的免费视频| 边亲边吃奶的免费视频| 亚洲情色 制服丝袜| 国产精品蜜桃在线观看| 国产精品一区二区在线观看99| 日韩制服骚丝袜av| 亚洲成人手机| 国产毛片在线视频| 亚洲精品国产成人久久av| 久久久国产欧美日韩av| 最黄视频免费看| 三级国产精品片| 男的添女的下面高潮视频| 最近手机中文字幕大全| 国产男女超爽视频在线观看| 六月丁香七月| 免费看光身美女| 亚洲精品色激情综合| 最近的中文字幕免费完整| 国产成人午夜福利电影在线观看| 日产精品乱码卡一卡2卡三| 人人澡人人妻人| 超碰97精品在线观看| 久热久热在线精品观看| 中国三级夫妇交换| 在线 av 中文字幕| 国产欧美日韩精品一区二区| 国产精品无大码| 一本大道久久a久久精品| 久久久久久久亚洲中文字幕| 欧美区成人在线视频| 永久免费av网站大全| 最近2019中文字幕mv第一页| 精品亚洲乱码少妇综合久久| 人妻系列 视频| 欧美成人精品欧美一级黄| 久久毛片免费看一区二区三区| 一级毛片 在线播放| 中国三级夫妇交换| 一级a做视频免费观看| av在线播放精品| 国产亚洲一区二区精品| 熟女av电影| freevideosex欧美| 成人特级av手机在线观看| 国产精品久久久久成人av| 97在线人人人人妻| 国产av码专区亚洲av| 91aial.com中文字幕在线观看| 26uuu在线亚洲综合色| 多毛熟女@视频| 嫩草影院入口| 在现免费观看毛片| 蜜桃久久精品国产亚洲av| 五月开心婷婷网| 99热国产这里只有精品6| 国模一区二区三区四区视频| 免费看日本二区| 欧美日本中文国产一区发布| 哪个播放器可以免费观看大片| 国产高清国产精品国产三级| 亚洲四区av| 国产成人精品一,二区| h日本视频在线播放| 国产黄片美女视频| 国产精品国产三级专区第一集| 99热国产这里只有精品6| 国产免费一区二区三区四区乱码| 亚洲不卡免费看| 亚洲欧美一区二区三区黑人 | 亚洲精品国产成人久久av| 午夜免费鲁丝| 春色校园在线视频观看| 久久久久精品性色| 丝瓜视频免费看黄片| 黄色欧美视频在线观看| 黑丝袜美女国产一区| 国产精品偷伦视频观看了| 久久精品国产自在天天线| 亚洲av.av天堂| 免费大片18禁| 亚洲精品国产成人久久av| 丰满乱子伦码专区| 亚洲,一卡二卡三卡| 国产精品伦人一区二区| a级一级毛片免费在线观看| 岛国毛片在线播放| freevideosex欧美| 久久久国产一区二区| 观看美女的网站| 精品少妇内射三级| 简卡轻食公司| 久久久久精品性色| 国模一区二区三区四区视频| 久久久久精品性色| 国产 精品1| 日韩成人伦理影院| 日韩伦理黄色片| 99久国产av精品国产电影| 国产精品不卡视频一区二区| 日韩不卡一区二区三区视频在线| 成人无遮挡网站| 一级毛片aaaaaa免费看小| 欧美亚洲 丝袜 人妻 在线| 免费观看性生交大片5| 免费黄频网站在线观看国产| 久久久亚洲精品成人影院| 国产高清有码在线观看视频| 国产一区有黄有色的免费视频| 欧美日韩一区二区视频在线观看视频在线| 九九久久精品国产亚洲av麻豆| 一本大道久久a久久精品| 亚洲人成网站在线观看播放| 亚洲精品日韩av片在线观看| 夜夜骑夜夜射夜夜干| 人人妻人人看人人澡| 国产精品秋霞免费鲁丝片| 一本一本综合久久| 欧美少妇被猛烈插入视频| 国产黄色视频一区二区在线观看| 久久久a久久爽久久v久久| 免费观看av网站的网址| 亚洲欧洲日产国产| 嘟嘟电影网在线观看| 99精国产麻豆久久婷婷| 一级片'在线观看视频| 久久精品国产亚洲网站| 黄色一级大片看看| av又黄又爽大尺度在线免费看| 亚洲精品第二区| 人人妻人人澡人人爽人人夜夜| 黑人高潮一二区| 在线观看www视频免费| 国产有黄有色有爽视频| av天堂久久9| 乱人伦中国视频| 亚洲精品乱码久久久久久按摩| 国产成人a∨麻豆精品| 日韩欧美一区视频在线观看 | 少妇 在线观看| 欧美+日韩+精品| 自拍欧美九色日韩亚洲蝌蚪91 | 亚洲综合色惰| 国产色婷婷99| 在线观看三级黄色| 人人妻人人看人人澡| 人人澡人人妻人| 免费大片黄手机在线观看| 美女内射精品一级片tv| 午夜福利在线观看免费完整高清在| 色婷婷久久久亚洲欧美| 一级,二级,三级黄色视频| 在线观看www视频免费| 国产一区二区在线观看日韩| 极品少妇高潮喷水抽搐| 大片电影免费在线观看免费| kizo精华| 免费观看无遮挡的男女| 夜夜看夜夜爽夜夜摸| 下体分泌物呈黄色| 自拍偷自拍亚洲精品老妇| 欧美日韩亚洲高清精品| 少妇人妻久久综合中文| 久久婷婷青草| 国产日韩一区二区三区精品不卡 | 全区人妻精品视频| 日韩 亚洲 欧美在线| 欧美亚洲 丝袜 人妻 在线| 如何舔出高潮| 桃花免费在线播放| 色哟哟·www| av在线老鸭窝| a级毛片免费高清观看在线播放| 中文资源天堂在线| 卡戴珊不雅视频在线播放| 99精国产麻豆久久婷婷| 黄色视频在线播放观看不卡| 亚洲熟女精品中文字幕| 97在线人人人人妻| 国产精品欧美亚洲77777| 久久久久久久久久成人| 欧美日韩国产mv在线观看视频| 成人毛片60女人毛片免费| 亚洲精品第二区| 日本午夜av视频| 十八禁高潮呻吟视频 | 一个人看视频在线观看www免费| 高清不卡的av网站| 久久人妻熟女aⅴ| 97精品久久久久久久久久精品| 亚洲美女黄色视频免费看| 内地一区二区视频在线| 国产亚洲欧美精品永久| 国产伦理片在线播放av一区| 嫩草影院入口| 国内少妇人妻偷人精品xxx网站| 人妻系列 视频| 人人妻人人澡人人看| 少妇精品久久久久久久| 91久久精品国产一区二区三区| 精品人妻熟女毛片av久久网站| 六月丁香七月| 22中文网久久字幕| 91精品国产九色| 成人国产av品久久久| 免费观看无遮挡的男女| 99热这里只有是精品50| 交换朋友夫妻互换小说| 六月丁香七月| 亚洲久久久国产精品| 有码 亚洲区| av黄色大香蕉| 国产午夜精品久久久久久一区二区三区| 国产成人aa在线观看| 永久免费av网站大全| 麻豆成人午夜福利视频| 国产成人精品久久久久久| 最近手机中文字幕大全| 夫妻性生交免费视频一级片| 卡戴珊不雅视频在线播放| 精品酒店卫生间| 久久97久久精品| 欧美日本中文国产一区发布| 精品少妇久久久久久888优播| 久久久久久久久久成人| 久久久久久久精品精品| 人人妻人人爽人人添夜夜欢视频 | 熟妇人妻不卡中文字幕| 3wmmmm亚洲av在线观看| tube8黄色片| 狂野欧美激情性xxxx在线观看| 女性生殖器流出的白浆| 国产精品99久久99久久久不卡 | 少妇猛男粗大的猛烈进出视频| 大话2 男鬼变身卡| 丝袜在线中文字幕| av又黄又爽大尺度在线免费看| 亚洲,欧美,日韩| 午夜福利影视在线免费观看| 久久99蜜桃精品久久| 久久久国产欧美日韩av| 国产综合精华液| 全区人妻精品视频| 热re99久久精品国产66热6| 中国三级夫妇交换| 欧美人与善性xxx| 久久国内精品自在自线图片| 自拍偷自拍亚洲精品老妇| videos熟女内射| 在线观看国产h片| 国产精品一区二区在线观看99| 水蜜桃什么品种好| 亚洲怡红院男人天堂| 秋霞伦理黄片| 我要看日韩黄色一级片| 人妻一区二区av| 亚洲国产精品一区三区| 久久久久网色| 交换朋友夫妻互换小说| a级毛色黄片| 2022亚洲国产成人精品| 少妇 在线观看| 亚洲美女黄色视频免费看| 亚洲精品中文字幕在线视频 | 日韩av免费高清视频| 久久狼人影院| a级毛片免费高清观看在线播放| 欧美高清成人免费视频www| 亚洲av电影在线观看一区二区三区| 久久久欧美国产精品| 国产日韩一区二区三区精品不卡 | 免费黄频网站在线观看国产| 亚洲自偷自拍三级| 日韩欧美一区视频在线观看 | 亚洲精品一二三| 久久ye,这里只有精品| 久久精品国产亚洲av涩爱| 亚洲色图综合在线观看| 波野结衣二区三区在线| 精品久久久噜噜| 久久久国产一区二区| 午夜视频国产福利| 18禁在线播放成人免费| 欧美人与善性xxx| 国产免费视频播放在线视频| 亚洲av二区三区四区| 久久国内精品自在自线图片| 日韩av在线免费看完整版不卡| 三级国产精品片| 69精品国产乱码久久久| 特大巨黑吊av在线直播| 亚洲av.av天堂| 国产精品99久久久久久久久| 麻豆成人午夜福利视频| 亚洲精品久久久久久婷婷小说| 欧美丝袜亚洲另类| 最新中文字幕久久久久| 精品亚洲成a人片在线观看| 啦啦啦在线观看免费高清www| 两个人免费观看高清视频 | 国产伦精品一区二区三区四那| 国产亚洲最大av| 人人妻人人爽人人添夜夜欢视频 | 一个人免费看片子| 国产精品免费大片| 亚洲无线观看免费| 免费观看性生交大片5| 成人免费观看视频高清| 午夜91福利影院| 高清午夜精品一区二区三区| 亚洲av免费高清在线观看| 久久免费观看电影| a级毛色黄片| 视频区图区小说| 成人美女网站在线观看视频| 亚洲欧洲精品一区二区精品久久久 | 丝袜喷水一区| 欧美国产精品一级二级三级 | 亚洲精品久久午夜乱码| 久久久久久久久久人人人人人人| av女优亚洲男人天堂| 自拍偷自拍亚洲精品老妇| 国产在线一区二区三区精| 亚洲av福利一区| 高清视频免费观看一区二区| 大片免费播放器 马上看| 婷婷色麻豆天堂久久| 久久久久久久亚洲中文字幕| 国产精品久久久久久av不卡| 亚洲美女黄色视频免费看|