• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于CSLS-CycleGAN的側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增法

    2024-11-22 00:00:00湯寓麟王黎明余德熒李厚樸劉敏張衛(wèi)東
    關(guān)鍵詞:聲納樣本函數(shù)

    摘 要:

    針對(duì)側(cè)掃聲納水下目標(biāo)圖像稀缺,獲取難度大、成本高,導(dǎo)致基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型性能差的問題,結(jié)合光學(xué)域類目標(biāo)數(shù)據(jù)集豐富的現(xiàn)狀,提出一種基于通道和空間注意力(channel and spatial attention, CSA)模塊、最小二乘生成對(duì)抗生成網(wǎng)絡(luò)(least squares generative adversarial networks, LSGAN)及循環(huán)對(duì)抗生成網(wǎng)絡(luò)(cycle generative adversarial networks, CycleGAN)的側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增方法。首先,受CycleGAN的啟發(fā),設(shè)計(jì)基于循環(huán)一致性的單循環(huán)網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率。然后,在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互。最后,設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高訓(xùn)練穩(wěn)定性。在船舶光學(xué)域數(shù)據(jù)集與側(cè)掃聲納沉船數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),所提方法實(shí)現(xiàn)了光學(xué)-側(cè)掃聲納樣本間信息的高效、穩(wěn)健轉(zhuǎn)換以及大量側(cè)掃聲納目標(biāo)樣本的擴(kuò)增。同時(shí),基于本文生成樣本訓(xùn)練后的檢測(cè)模型進(jìn)行了水下目標(biāo)檢測(cè),結(jié)果表明,使用本文樣本擴(kuò)增數(shù)據(jù)訓(xùn)練后的模型在少樣本沉船目標(biāo)檢測(cè)的平均準(zhǔn)確率達(dá)到了84.71%,證明了所提方法實(shí)現(xiàn)了零樣本和小樣本水下強(qiáng)代表性目標(biāo)樣本的高質(zhì)量擴(kuò)增,并為高性能水下目標(biāo)檢測(cè)模型構(gòu)建提供了一種新的途徑。

    關(guān)鍵詞:

    樣本擴(kuò)增; 側(cè)掃聲納; 循環(huán)生成對(duì)抗網(wǎng)絡(luò); 通道和空間注意力模塊; 最小二乘生成對(duì)抗網(wǎng)絡(luò)

    中圖分類號(hào):

    P 227

    文獻(xiàn)標(biāo)志碼: A""" DOI:10.12305/j.issn.1001-506X.2024.05.06

    CSLS-CycleGAN based side-scan sonar sample augmentation

    method for underwater target image

    TANG Yulin1, WANG Liming1,*, YU Deying1, LI Houpu1, LIU Min2, ZHANG Weidong3

    (1. College of Electrical Engineering, Naval University of Engineering, Wuhan 430033, China;

    2. Unit 91001 of the PLA, Beijing 100841, China; 3. Unit 31016 of the PLA, Beijing 100088, China)

    Abstract:

    In view of the scarcity, difficulty and high cost of side-scan sonar underwater target images, and the poor performance of deep-learning based target detection model, combined with the abundant target data set in optical domain, a sample augmentation method for underwater target side-scan sonar images based on channel and spatial attention(CSA) module and least squares generative adversarial networks(LSGAN) and cycle generative adversarial networks(CycleGAN) is propesed. Firstly, inspired by CycleGAN, a single cycle network structure based on cycle consistency is designed to ensure the training efficiency of the model. Then, the CSA module is integrated into the generator to reduce information dispersion while enhancing cross-latitude interaction. Finally, a loss function based on LSGAN is designed to improve the quality of the generated image while improving the training stability. Experiments are carried out on ship optical domain data set and side-scan sonar shipwreck data set. The results show that the proposed method achieves efficient and robust conversion of information between optical and side-scan sonar samples and augmentation of a large number of side-scan sonar target samples. At the same time, the underwater target detection is carried out based on the detection model generated after sample training in this paper. The results show that the average precision value of the model after training with sample augmentation data in this paper reachs 84.71% in detecting shipwreck targets with few samples, which proves that the method in this paper achieves high-quality amplification of highly representative underwater target samples with zero samples and small samples. It also provides a new way to construct high-performance underwater target detection model.

    Keywords:

    sample augmentation; side-scan sonar; cycle generative adversarial networks (CycleGAN); channel and spatial attention (CSA) module; least squares generative adversarial networks (LSGAN)

    0 引 言

    水下目標(biāo)探測(cè)在航行安全、海洋調(diào)查、海上搜救、軍事任務(wù)等領(lǐng)域具有非常重要的作用[1]。目前,水下目標(biāo)探測(cè)的方法主要包括聲探、磁探、光探、電探等,其中聲波因其水中成像條件、傳播距離以及范圍的優(yōu)勢(shì)成為目前主流的水下目標(biāo)探測(cè)方式[2-4]。側(cè)掃聲納較其他聲學(xué)設(shè)備擁有更寬的掃幅和更高的成像分辨率,且體積小、價(jià)格低廉,在水下目標(biāo)探測(cè)中應(yīng)用廣泛[5-9]。

    目前,基于側(cè)掃聲納圖像的水下目標(biāo)檢測(cè)多基于人工目視判讀,存在效率低、耗時(shí)長(zhǎng)、主觀依賴性強(qiáng)等問題[10]。因此,針對(duì)側(cè)掃聲納圖像的水下目標(biāo)自動(dòng)探測(cè)方法研究十分必要[11]。

    部分學(xué)者采用機(jī)器學(xué)習(xí)方法,聯(lián)合人工特征和分類器實(shí)現(xiàn)水下目標(biāo)的自動(dòng)探測(cè),在一定條件下取得了較好的探測(cè)效果[12-13]。但受復(fù)雜海底環(huán)境和測(cè)量條件的影響,側(cè)掃聲納圖像通常存在低分辨率、特征貧瘠、噪聲復(fù)雜以及畸變嚴(yán)重等特點(diǎn),使傳統(tǒng)的機(jī)器學(xué)習(xí)方法探測(cè)精度受到限制[14-16]。近年來(lái),計(jì)算機(jī)視覺領(lǐng)域發(fā)展迅速,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)方法性能遠(yuǎn)超傳統(tǒng)機(jī)器學(xué)習(xí)方法,引起了水下探測(cè)領(lǐng)域的廣泛關(guān)注[17-24]。然而,基于深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network, DCNN)的目標(biāo)探測(cè)模型需要大量訓(xùn)練樣本,高代表性樣本是實(shí)現(xiàn)高性能探測(cè)的關(guān)鍵[25]。而側(cè)掃聲納圖像因數(shù)據(jù)采集成本高、耗時(shí)長(zhǎng)、目標(biāo)較少等問題導(dǎo)致數(shù)量嚴(yán)重匱乏,樣本代表性不足[26]。因此,急需開展小樣本水下目標(biāo)側(cè)掃聲納圖像的樣本擴(kuò)增。

    受光學(xué)影像中樣本擴(kuò)增技術(shù)的啟發(fā),側(cè)掃聲納水下目標(biāo)樣本擴(kuò)增方法主要通過(guò)遷移學(xué)習(xí)[27-30]方法獲得,但是在遷移轉(zhuǎn)換模型訓(xùn)練時(shí)無(wú)法全面顧及聲波發(fā)射單元、聲波傳播介質(zhì)、聲波反射目標(biāo)、聲波反射背景場(chǎng)、聲波接收單元、噪聲和數(shù)據(jù)后處理等七大類要素的影響[31-32],生成樣本代表性弱,對(duì)基于DCNN的目標(biāo)探測(cè)網(wǎng)絡(luò)泛化能力和精度提升有限。

    近年來(lái),隨著生成對(duì)抗網(wǎng)絡(luò)(generate adversarial networks, GAN)的迅速發(fā)展,其被廣泛地應(yīng)用于利用外源圖像進(jìn)行風(fēng)格遷移的任務(wù)中,其核心邏輯是通過(guò)生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)相互對(duì)抗、博弈最終生成判別網(wǎng)絡(luò)無(wú)法判別真?zhèn)蔚母哔|(zhì)量圖像,具有比傳統(tǒng)機(jī)器學(xué)習(xí)更強(qiáng)、更全面的特征學(xué)習(xí)和表達(dá)能力。Isola等[33]提出了Pix2Pix模型,首次實(shí)現(xiàn)了基于GAN的圖像遷移任務(wù),但該網(wǎng)絡(luò)要求的輸入必須是成對(duì)圖像,不適用于側(cè)掃聲納圖像的樣本擴(kuò)增。為解決成對(duì)數(shù)據(jù)的限制,Zhu等[34]設(shè)計(jì)了循環(huán)GAN(cycle GAN, CycleGAN),通過(guò)非成對(duì)數(shù)據(jù)的非監(jiān)督學(xué)習(xí)實(shí)現(xiàn)風(fēng)格遷移任務(wù)。受CycleGAN啟發(fā),李寶奇等[35]通過(guò)基于循環(huán)一致性的改進(jìn)CycleGAN實(shí)現(xiàn)水下小目標(biāo)光學(xué)圖像到合成孔徑聲納圖像的遷移生成。但是,由于側(cè)掃聲納水下目標(biāo)圖像的高噪聲、不同環(huán)境下差異大的特點(diǎn),在使用非配對(duì)光學(xué)-側(cè)掃聲納圖像訓(xùn)練時(shí),生成器難以提取圖像特征從而生成與目標(biāo)域相似的圖像來(lái)“欺騙”判別器,進(jìn)而造成模型振蕩或生成器和判別器之間的不平衡,從而導(dǎo)致模型過(guò)擬合或模式崩潰。另外,側(cè)掃聲納圖像特征貧瘠、輻射畸變大的特點(diǎn)導(dǎo)致模型在轉(zhuǎn)換過(guò)程中容易混淆背景與目標(biāo)特征,丟失目標(biāo)輪廓、紋理和噪聲,而這些恰恰是側(cè)掃聲納圖像的關(guān)鍵。

    綜上,本文提出了一種基于通道和空間注意力(channel and spatial attention, CSA)模塊、最小二乘GAN(least squares GAN, LSGAN)及CycleGAN(簡(jiǎn)稱為CSLS-CycleGAN)的水下目標(biāo)側(cè)掃聲納圖像樣本擴(kuò)增方法。首先,設(shè)計(jì)基于循環(huán)一致性的單循環(huán)網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率以及任務(wù)的專注度。其次,在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互,在學(xué)習(xí)全局特征的同時(shí)關(guān)注目標(biāo)的細(xì)粒度特征。然后,設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高訓(xùn)練穩(wěn)定性,避免模式崩潰的情況。最后,基于該轉(zhuǎn)換模型,將船舶目標(biāo)光學(xué)圖像轉(zhuǎn)換為側(cè)掃聲納圖像,實(shí)現(xiàn)樣本高質(zhì)量擴(kuò)增,以期解決側(cè)掃聲納水下目標(biāo)圖像稀缺,為小樣本水下強(qiáng)代表性目標(biāo)樣本擴(kuò)增以及高性能水下目標(biāo)檢測(cè)模型構(gòu)建提供了一種新的途徑。

    1 CSLS-CycleGAN

    足夠數(shù)量的強(qiáng)代表性樣本是訓(xùn)練高性能探測(cè)模型的前提,是最終形成高性能智能探測(cè)模型的關(guān)鍵組成。使用GAN實(shí)現(xiàn)水下目標(biāo)雙域轉(zhuǎn)換以及側(cè)掃聲納水下目標(biāo)圖像樣本擴(kuò)增是本文的重要組成,網(wǎng)絡(luò)的使用是實(shí)現(xiàn)高質(zhì)量樣本擴(kuò)增的關(guān)鍵。針對(duì)光學(xué)圖像與側(cè)掃聲納圖像風(fēng)格差異較大的問題,傳統(tǒng)的GAN存在生成數(shù)據(jù)質(zhì)量較差,甚至兩個(gè)域的圖像沒有任何匹配關(guān)系的問題。為了讓生成圖片與輸出圖像產(chǎn)生強(qiáng)關(guān)聯(lián),本文使用基于單循環(huán)一致性的GAN,在保證訓(xùn)練效率的同時(shí)重點(diǎn)關(guān)注光學(xué)域向聲學(xué)域的轉(zhuǎn)換任務(wù)。同時(shí),在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互。最后,設(shè)計(jì)了基于LSGAN的組合損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高模型訓(xùn)練的穩(wěn)定性。本文提出網(wǎng)絡(luò)的具體結(jié)構(gòu)圖如圖1所示。

    1.1 網(wǎng)絡(luò)結(jié)構(gòu)

    本文模型主體由兩個(gè)生成器Gos、Gso和一個(gè)判別器D組成,將從光學(xué)域中的圖像轉(zhuǎn)換成聲學(xué)域的圖像的生成器稱為Gos,從聲學(xué)域中的圖像轉(zhuǎn)換成光學(xué)域的圖像生成器稱為Gso,將判別圖像屬于聲學(xué)域或虛假的判別器稱為D。

    原始輸入光學(xué)圖像通過(guò)生成器Gos獲得側(cè)掃聲納圖像S后,將生成的側(cè)掃聲納圖像作為輸入通過(guò)生成器Gso獲得與光學(xué)圖像相同域的圖像重構(gòu)光學(xué)圖像,最終保持光學(xué)圖像與重構(gòu)光學(xué)圖像一致,讓圖像循環(huán)了一周回到起點(diǎn)并保持一致。生成器結(jié)構(gòu)如圖2所示。

    首先,使用3個(gè)卷積層對(duì)輸入圖像進(jìn)行特征提取,每個(gè)卷積層后使用實(shí)例歸一化(instance normalization, IN)操作以及ReLU激活函數(shù),IN操作僅對(duì)單張圖像的像素進(jìn)行均值和標(biāo)準(zhǔn)差的計(jì)算,避免了批量歸一化(batch normalization, BN)中一批圖像之間的相互影響,且擁有更高的效率。其次,使用注意力機(jī)制CSA模塊對(duì)圖像通道和空間特征進(jìn)行全局學(xué)習(xí),建立局部細(xì)節(jié)特征與全局特征的交互關(guān)系,并通過(guò)跳躍連接實(shí)現(xiàn)多尺度特征融合。然后,使用6個(gè)殘差網(wǎng)絡(luò)在進(jìn)一步提取圖像信息的同時(shí)對(duì)輸入數(shù)據(jù)特征進(jìn)行保留。接著,使用2個(gè)轉(zhuǎn)置卷積進(jìn)行上采樣操作。最后,再連接一個(gè)卷積層,獲取的圖像矩陣經(jīng)函數(shù)激活Tanh獲得最后的輸出圖像。

    為加強(qiáng)輸入數(shù)據(jù)與輸出數(shù)據(jù)之間的關(guān)系,采用殘差網(wǎng)絡(luò)代替深層的卷積網(wǎng)絡(luò)。通過(guò)特征提取層提取特征,再將特征數(shù)據(jù)傳遞給輸出層,避免生成器損失輸入層的一些基本信息,保留輸入數(shù)據(jù)的部分特征,更好地保護(hù)原始圖像信息的完整性,解決傳統(tǒng)神經(jīng)網(wǎng)絡(luò)隨網(wǎng)絡(luò)深度的增加而梯度消失明顯的問題,加快模型的訓(xùn)練速度,改善模型的訓(xùn)練效果。判別器結(jié)構(gòu)如圖3所示。

    判別器使用5個(gè)卷積層對(duì)輸入圖像進(jìn)行特征提取,每個(gè)卷積層后使用IN操作以及LeakyReLU激活函數(shù),其中最后一層卷積層直接返回線性操作結(jié)果。

    1.2 CSA模塊

    對(duì)側(cè)掃聲納圖像的目標(biāo)細(xì)節(jié)特征與背景特征充分學(xué)習(xí)是生成高質(zhì)量圖像的關(guān)鍵,為了更好地對(duì)輸入圖像的全局信息以及局部特征進(jìn)行學(xué)習(xí),增強(qiáng)通道與空間的相互作用,本文設(shè)計(jì)了一種跨越通道和空間緯度的CSA模塊,通過(guò)減少信息彌散的同時(shí)放大全局的跨緯度交互以提高網(wǎng)絡(luò)性能。CSA模塊由通道注意力和空間注意力組成,具體結(jié)構(gòu)如圖4所示。

    本文通道注意力和空間注意力模塊采用并行計(jì)算,將各自輸出的權(quán)重系數(shù)與初始輸入特征圖進(jìn)行元素相乘后,再進(jìn)行兩者特征信息的逐元素相加,在提高效率的同時(shí)放大跨緯度的感受域。

    Ioutput=(Mc(I)·I)+(Ms(I)·I)(1)

    式中:Mc(I)和Ms(I)分別為通道注意力和空間注意力模塊的特征輸出,對(duì)各模塊的具體描述如下。

    1.2.1 通道注意力

    通道注意力強(qiáng)調(diào)模型應(yīng)該關(guān)注什么特征,其每個(gè)通道都包含一個(gè)特定的特征響應(yīng)。首先,將輸入的特征I(H×W×C)分別經(jīng)過(guò)基于寬和高的全局最大池化和全局平均池化,得到兩個(gè)1×1×C的特征圖。其次,再將其分別送入一個(gè)兩層感知器(multilayer perceptron, MLP),第1層神經(jīng)元個(gè)數(shù)為C/r(r為減少率),激活函數(shù)為ReLU,第2層神經(jīng)元個(gè)數(shù)為C,這個(gè)兩層的神經(jīng)網(wǎng)絡(luò)是共享的。然后,將MLP輸出的特征進(jìn)行基于逐元素的加和操作后經(jīng)過(guò)Sigmoid激活函數(shù),生成最終的通道注意力特征,即Mc。最后,將Mc和特征I做逐元素乘法操作可得到縮放后的新特征:

    Mc(I)=σ(MLP(AvgPool(I))+MLP(MaxPool(I)))=

    σ(W1(W0(ICAvg))+W1(W0(ICMax)))(2)

    式中:σ為Sigmoid激活函數(shù);W0∈RCr×C,W1∈RC×Cr,兩者為MLP共享網(wǎng)絡(luò)的權(quán)重。

    1.2.2 空間注意力

    空間注意力強(qiáng)調(diào)模型關(guān)注的特征在哪里,即增強(qiáng)或抑制不同空間位置的特征。首先將輸入的特征I(H×W×C)做一個(gè)基于通道的全局最大池化和全局平均池化,得到兩個(gè)H×W×1的特征圖后進(jìn)行基于通道的拼接操作。其次,通過(guò)一個(gè)7×7卷積核的卷積操作將圖像降維為1個(gè)通道。然后,通過(guò)Sigmoid激活函數(shù)生成空間注意力特征,即Ms。最后,將Ms和特征I做逐元素點(diǎn)乘乘法,得到最終生成的特征。

    Ms(I)=σ(f7×7([AvgPool(I),MaxPool(I)]))=

    σ(f7×7([ISAvg,ISMax]))(3)

    式中:σ為Sigmoid激活函數(shù);f7×7為卷積核為7×7的卷積操作。

    圖像初始特征學(xué)習(xí)熱力圖如圖5所示,可以看出CSA模塊能動(dòng)態(tài)地抑制或強(qiáng)調(diào)特征的映射,有效避免了關(guān)鍵目標(biāo)特征變成背景特征的情況。

    1.3 損失函數(shù)

    合適的損失函數(shù)對(duì)GAN生成圖像的質(zhì)量提升起到了至關(guān)重要的作用。從提出的網(wǎng)絡(luò)架構(gòu)圖可以看出,其損失函數(shù)由LSGAN損失、Cyclic-consitency損失以及Identity損失3部分組成。LSGAN損失指導(dǎo)生成器生成更加逼真目標(biāo)域的圖像;Cyclic-consitency損失指導(dǎo)生成器生成的圖像與輸入圖像盡可能的接近;Identity損失限制生成器無(wú)視輸入數(shù)據(jù)。

    1.3.1 LSGAN損失

    傳統(tǒng)GAN使用交叉熵作為損失函數(shù),該函數(shù)不優(yōu)化被判別器判定為真實(shí)圖像的圖像,即使這些圖像與判別器的決策邊界仍然很遠(yuǎn),導(dǎo)致生成器生成的圖像質(zhì)量不高以及模型訓(xùn)練不穩(wěn)定。為此,本文采用了LSGAN中目標(biāo)函數(shù)作為模型的損失函數(shù),即采用最小二乘作為損失函數(shù)。

    minD VLSGAN(D)=12Es~Pdata(s)[(D(s)-b)2]+

    12Ez~Pz(z)[(D(G(z))-a)2](4)

    minG VLSGAN(G)=12Ez~Pz(z)[(D(G(z))-c)2](5)

    式中:Pdata(s)表示真實(shí)數(shù)據(jù)分布;s表示生成的數(shù)據(jù)與真實(shí)數(shù)據(jù)之間的誤差;G表示生成器;Pz(z)表示輸入噪聲的先驗(yàn)分布。

    在判別器D的目標(biāo)函數(shù)中,給真實(shí)數(shù)據(jù)和生成數(shù)據(jù)賦予編碼b與a,b=1表示為真實(shí)數(shù)據(jù),a=0表示為生成數(shù)據(jù),通過(guò)最小化判別器判別生成數(shù)據(jù)與0的誤差以及真實(shí)數(shù)據(jù)s與1的誤差,實(shí)現(xiàn)判別器的最優(yōu)化。在生成器Gos的目標(biāo)函數(shù)中,給生成數(shù)據(jù)賦予編碼c,通過(guò)最小化生成器生成數(shù)據(jù)z與1的誤差,指導(dǎo)生成器成功欺騙判別器從而獲得高分,此時(shí)c=1。因此,將式(4)和式(5)分別轉(zhuǎn)化為

    minD VLSGAN(D)=12Es~Pdata(s)[(D(s)-1)2]+

    12Ez~Pz(z)[(D(G(z)))2](6)

    minG VLSGAN(Gos)=12Ez~Pz(z)[(Dos(G(z))-1)2](7)

    1.3.2 Cyclic-consitency損失

    為實(shí)現(xiàn)循環(huán)一致性,即要求從光學(xué)域轉(zhuǎn)換為聲學(xué)域時(shí)滿足

    xGos(x)Gso(Gos(x))≈x(8)

    數(shù)學(xué)公式表達(dá)如下:

    Lcyc(Gos,Gso)=Ex~Pdata(x)[Gso(Gos(x))-x1](9)

    式中:1-范數(shù)為矩陣1-范數(shù),表示所有矩陣的列向量中元素絕對(duì)值之和最大的值。

    X1=maxj∑mi=1|ai,j|(10)

    1.3.3 Identity損失

    Identity損失用于限制生成器無(wú)視輸入數(shù)據(jù)而去自主修改圖像顏色的情況,表示若將聲學(xué)域圖像送入生成器Gos中,那么應(yīng)盡可能得到本身,具體損失函數(shù)如下:

    LIdentity(Gos)=Es~Pdata(s)[(Gos(s)-s)1](11)

    因此,網(wǎng)絡(luò)的總損失函數(shù)如下:

    Losscyc=minD VLSGAN(D)+minG VLSGAN(Gos)+

    λ1Lcyc(Gos,Gso)+λ2LIdentity(Gos)(12)

    式中:λ1和λ2為非負(fù)超參數(shù),用于調(diào)整損失對(duì)整體效果的不同影響。衡量每一個(gè)損失,以平衡每一個(gè)組成部分的重要性。

    2 實(shí) 驗(yàn)

    基于CSLS-CycleGAN的側(cè)掃聲納圖像樣本擴(kuò)增是本文方法的重要組成,為評(píng)估本文方法的可行性和有效性,本實(shí)驗(yàn)對(duì)提出的GAN性能進(jìn)行評(píng)估。通過(guò)外源光學(xué)船舶圖像和側(cè)掃聲納沉船圖像雙域轉(zhuǎn)換的性能對(duì)提出模型進(jìn)行評(píng)估,包括與主流GAN進(jìn)行比對(duì),并對(duì)生成的圖像的質(zhì)量進(jìn)行定性定量的分析;生成圖像對(duì)YOLOv5目標(biāo)檢測(cè)模型的檢測(cè)性能提升的作用;以及通過(guò)消融實(shí)驗(yàn)對(duì)GAN中使用策略的有效性進(jìn)行定性與定量的分析。

    2.1 數(shù)據(jù)集

    本文用于實(shí)驗(yàn)的數(shù)據(jù)集主要由側(cè)掃聲納沉船圖像以及衛(wèi)星光學(xué)船舶數(shù)據(jù)組成。側(cè)掃聲納沉船數(shù)據(jù)集由各海道測(cè)量部門和國(guó)內(nèi)外主流側(cè)掃聲納儀器設(shè)備,在多區(qū)域?qū)崪y(cè)獲得的600張側(cè)掃聲納沉船圖像組成,部分樣本如圖6(a)所示。衛(wèi)星光學(xué)船舶數(shù)據(jù)集由部分HRSC2016組成,本實(shí)驗(yàn)挑選其中代表性強(qiáng)的數(shù)據(jù)共5 000張,部分樣本如圖6(b)所示。

    2.2 評(píng)價(jià)指標(biāo)

    根據(jù)文獻(xiàn)[36]的研究,F(xiàn)ID(Frechet inception distance)、最大平均差異(maximum mean discrepancy, MMD)和1-最近鄰分類器(1-nearest-neighbor, 1-NN)相比其他指標(biāo)可以更好地評(píng)價(jià)生成樣本的清晰度、特征的多樣性和圖片的真實(shí)性。

    FID是計(jì)算真實(shí)圖像與生成圖像的特征向量之間距離的度量,用于度量?jī)山M圖像的相似度,F(xiàn)ID的計(jì)算方法為

    FID=μr-μg2+tr(Σr+Σg-2ΣrΣg)(13)

    式中:μr和μg分別為兩個(gè)分布的均值向量;Σr和Σg為其協(xié)方差矩陣;·為向量的范數(shù)。FID值越小,圖像增強(qiáng)效果越好。

    MMD基于最大均方差的統(tǒng)計(jì)檢驗(yàn)來(lái)度量?jī)蓚€(gè)特征分布之間的相似性,將真實(shí)集和生成集映射到具有固定核函數(shù)的核空間,然后計(jì)算兩個(gè)分布之間的平均差。MMD的計(jì)算公式為

    MMD2(X,Y)=E[K(Xi,Xj)-2K(Xi,Yj)+K(Yi,Yj)](14)

    式中:X代表真實(shí)圖像集;Xi和Xj是從X中提取的樣本;Y代表生成的圖像集;Yi和Yj是從Y中提取的采樣;E代表期望值;K是高斯核。較低的MMD值表示更有效的圖像增強(qiáng)。

    1-NN使用二值分類器將n個(gè)實(shí)數(shù)集(標(biāo)記為1)與n個(gè)生成集(標(biāo)記為0)混合,然后隨機(jī)分為訓(xùn)練集T1(編號(hào)為2n-1)和測(cè)試集T2(編號(hào)為1),用T1訓(xùn)練分類器,用T2獲得分類精度,以此來(lái)計(jì)算兩個(gè)圖像集之間的相似性。以上步驟循環(huán)2n次,每次選擇不同的T2,最后計(jì)算平均分類準(zhǔn)確率。精確度越接近0.5越好。

    同時(shí),考慮到本文的目的是對(duì)匱乏的側(cè)掃聲納水下目標(biāo)圖像進(jìn)行樣本擴(kuò)增,來(lái)提高基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型的性能,因此接下來(lái)本文使用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型進(jìn)行對(duì)比實(shí)驗(yàn)。目前,目標(biāo)檢測(cè)模型非常多,由于本文的目的在于驗(yàn)證擴(kuò)增樣本的有效性,因此本文最終采用高速、輕量、易于部署的YOLOv5模型進(jìn)行評(píng)價(jià)實(shí)驗(yàn)。將GAN模型生成的圖像作為訓(xùn)練集輸入YOLOv5網(wǎng)絡(luò),將真實(shí)圖像作為驗(yàn)證集,通過(guò)召回率、精度和平均精度來(lái)評(píng)估生成的圖像在檢測(cè)網(wǎng)絡(luò)中的有效性。

    2.3 實(shí)驗(yàn)設(shè)計(jì)

    模型訓(xùn)練均基于Pytorch框架用Python語(yǔ)言實(shí)現(xiàn),硬件環(huán)境為:Windows10操作系統(tǒng);CPU為Intel(R) Core(TM) i9-10900X@3.70 GHz; GPU為2塊NVIDIA GeForce RTX 3090,并行內(nèi)存48 GB。

    HRSC2016數(shù)據(jù)集由于原始圖像像素過(guò)大且大部分均為背景,在訓(xùn)練模型時(shí)反而是一種負(fù)擔(dān),因此所有光學(xué)圖像數(shù)據(jù)均在保留目標(biāo)的基礎(chǔ)上統(tǒng)一設(shè)置為250×250。將側(cè)掃聲納沉船圖像按5∶1劃分訓(xùn)練集和評(píng)估集,船舶光學(xué)圖像按9∶1劃分為訓(xùn)練集和轉(zhuǎn)換集。側(cè)掃聲納圖像的評(píng)估集和光學(xué)圖像的轉(zhuǎn)換集用以進(jìn)行生成圖像質(zhì)量的定量分析。為減少訓(xùn)練時(shí)的震蕩,讓模型訓(xùn)練更加的穩(wěn)定,本實(shí)驗(yàn)在訓(xùn)練時(shí)引入緩存歷史數(shù)據(jù)的方式。使用list存儲(chǔ)之前10張圖像,每次訓(xùn)練判別器時(shí)從list中隨機(jī)抽取一張進(jìn)行判別,讓判別器可以持有判別任意時(shí)間點(diǎn)生成器生成圖像的能力。模型訓(xùn)練的參數(shù)如表1所示。

    表1中,λ1和λ2是損失函數(shù)式(12)中的參數(shù),β是Adam優(yōu)化器的參數(shù)。

    2.4 實(shí)驗(yàn)與分析

    2.4.1 定量分析

    本節(jié)首先對(duì)模型的訓(xùn)練過(guò)程以及性能進(jìn)行分析和評(píng)估。本文提出的網(wǎng)絡(luò)最初受CycleGAN啟發(fā),將本文提出的模型與不同結(jié)構(gòu)的CycleGAN模型(即生成器采用ResNet-06、ResNet-09、UNet-128、UNet-256基礎(chǔ)網(wǎng)絡(luò))進(jìn)行比較,結(jié)果如圖7所示。

    從圖7可以看出,5種模型的損失值均隨著訓(xùn)練步數(shù)的增加而不斷減小并最終趨于穩(wěn)定,達(dá)到擬合狀態(tài)。其中,本文提出的網(wǎng)絡(luò)在Cyclic-consitency損失、LSGAN損失以及Identity損失中均最低,同時(shí)在整個(gè)訓(xùn)練過(guò)程中最為穩(wěn)定,不存在其他幾個(gè)網(wǎng)絡(luò)在訓(xùn)練過(guò)程中出現(xiàn)較大的振幅變化的情況。

    因?yàn)楸疚哪P蛯儆跓o(wú)監(jiān)督學(xué)習(xí)的雙域圖像的風(fēng)格遷移,因此將上述模型與該領(lǐng)域主流的pix2pix、DualGAN[37]以及DiscoGAN[38]進(jìn)行生成圖像的對(duì)比,比較對(duì)象為將HRSC2016轉(zhuǎn)換集中的500張光學(xué)圖像轉(zhuǎn)換生成的側(cè)掃聲納沉船圖像與真實(shí)側(cè)掃聲納評(píng)估集中的100張圖像進(jìn)行定量分析,分別計(jì)算FID、MMD和K-NN,其中K設(shè)置為1。最終定量試驗(yàn)結(jié)果如表2所示。

    對(duì)比組別2~5可以看出,模型結(jié)構(gòu)并不是越復(fù)雜,參數(shù)越多效果越好,相反由于側(cè)掃聲納圖像低分辨率、特征貧瘠等特征,在圖像的生成上越復(fù)雜的模型結(jié)構(gòu)不一定帶來(lái)更好的生成效果。組別1證明pix2pix模型生成圖像的質(zhì)量最不理想,可能是由于該模型需要成對(duì)的數(shù)據(jù)集作為訓(xùn)練的輸入,本實(shí)驗(yàn)雖然擁有同一目標(biāo)的不同域圖像,但是除了在背景上的差異外,還存在目標(biāo)的尺寸、方位、紋理、分辨率等多維度的差異,不能理解為理想的成對(duì)圖像。而組別2~8由于采用無(wú)監(jiān)督學(xué)習(xí),不需要成對(duì)的雙域圖像即可完成高質(zhì)量的圖像生成,因此均取得優(yōu)于組別1的效果。從組別6和組別7可以看出,DualGAN和DiscoGAN網(wǎng)絡(luò)與CycleGAN網(wǎng)絡(luò)在沉船目標(biāo)光學(xué)與側(cè)掃聲納雙域圖像轉(zhuǎn)換任務(wù)上性能差距不大,均能很好地達(dá)到目的。組別8對(duì)比其他組別可以看出,使用本文模型結(jié)構(gòu)的FID和MMD值均最低,1-NN值與0.5最為接近,證明和上述模型相比,本文模型生成的圖像與真實(shí)側(cè)掃聲納沉船圖像擬合程度更高,擁有更好的清晰度、細(xì)節(jié)度和真實(shí)度以及更低的模式崩潰概率。

    2.4.2 定性分析

    圖8為5種模型對(duì)大尺寸、多數(shù)量和小尺寸3種具有典型代表的光學(xué)圖像的轉(zhuǎn)化圖。

    從圖8可以看出5種模型均基本實(shí)現(xiàn)了光學(xué)到聲學(xué)的跨域轉(zhuǎn)化,完成了樣本擴(kuò)增。其中,圖8(b)和圖8(c)均不能很好地生成沉船的紋理特征以及背景出現(xiàn)了黑洞的情況;圖8(d)雖然較好地生成了背景但是依然存在白條以及方框背景等情況;圖8(e)在多目標(biāo)和小尺寸目標(biāo)紋理特征的生成中較前面幾個(gè)模型有了提高,但是卻出現(xiàn)了邊界的黑框,可能是錯(cuò)把沉船目標(biāo)的陰影特征學(xué)習(xí)成了背景信息;再看本文方法,相較于前面4種模型,無(wú)論是在模型的紋理特征生成上還是背景特征生成上,均取得了不錯(cuò)的效果。

    2.4.3 目標(biāo)探測(cè)模型上的性能

    考慮到本文的目的是對(duì)匱乏的側(cè)掃聲納水下目標(biāo)圖像進(jìn)行樣本擴(kuò)增,以期提高基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型的性能,因此接下來(lái)本文使用基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型進(jìn)行對(duì)比實(shí)驗(yàn)。目前目標(biāo)檢測(cè)模型非常多,由于本文的目的在于驗(yàn)證擴(kuò)增樣本的有效性,因此采用高速、輕量、易于部署的YOLOv5模型進(jìn)行實(shí)驗(yàn)。

    以沉船目標(biāo)為對(duì)象,設(shè)計(jì)了3組數(shù)據(jù)集分別對(duì)YOLOv5模型進(jìn)行訓(xùn)練,具體如表3所示。數(shù)據(jù)集分別是只包含真實(shí)側(cè)掃聲納數(shù)據(jù)、只包含本文模型生成的數(shù)據(jù),以及包含真實(shí)數(shù)據(jù)與生成數(shù)據(jù),并挑選100張真實(shí)的側(cè)掃聲納圖像對(duì)訓(xùn)練后的模型進(jìn)行性能評(píng)估。其中,生成的沉船數(shù)據(jù)均經(jīng)過(guò)數(shù)據(jù)篩選,剔除了擴(kuò)增失敗的圖像。

    使用100張真實(shí)的側(cè)掃聲納圖像對(duì)訓(xùn)練完成的模型進(jìn)行驗(yàn)證,采用在目標(biāo)檢測(cè)評(píng)估領(lǐng)域廣泛應(yīng)用的查全率、查準(zhǔn)率和平均精度來(lái)評(píng)價(jià)模型,結(jié)果如表4所示。從表4可以看出,使用本文方法生成圖像進(jìn)行訓(xùn)練的模型在查全率、查準(zhǔn)率和平均精度值均高于僅使用真實(shí)側(cè)掃聲納數(shù)據(jù)訓(xùn)練的模型,證明了生成數(shù)據(jù)在模型性能提升中的起到了關(guān)鍵作用。使用了真實(shí)數(shù)據(jù)和生成數(shù)據(jù)訓(xùn)練的YOLOv5-C和僅僅使用生成數(shù)據(jù)訓(xùn)練的YOLOv5-B在各項(xiàng)評(píng)價(jià)指標(biāo)差距不大,證明了模型性能的提升原因主要是由于使用了本文方法生成數(shù)據(jù),或者說(shuō)本文方法生成的圖像滿足了在真實(shí)度、多樣性上要求。

    使用訓(xùn)練好的3個(gè)模型對(duì)真實(shí)沉船側(cè)掃聲納圖像進(jìn)行目標(biāo)檢測(cè),部分效果對(duì)比圖如圖9所示。

    從圖9可以看出,使用A、B、C 3組數(shù)據(jù)集訓(xùn)練后的YOLOv5模型均可以實(shí)現(xiàn)真實(shí)海底沉船目標(biāo)的識(shí)別。但是對(duì)比圖9(b)、圖9(c)和圖9(d)可以發(fā)現(xiàn),僅僅使用數(shù)據(jù)集A進(jìn)行訓(xùn)練的模型在沉船目標(biāo)識(shí)別的置信度平均在65%,且在定位精度上有待加強(qiáng),沒有對(duì)沉船的陰影進(jìn)行很好的識(shí)別,在識(shí)別準(zhǔn)確率上,將3組圖像中礁石目標(biāo)錯(cuò)誤地識(shí)別為沉船目標(biāo)。而使用了本文擴(kuò)增數(shù)據(jù)集B和C進(jìn)行訓(xùn)練的模型在沉船目標(biāo)陰影識(shí)別上效果更好,且無(wú)論是在定位精度還是在置信度上均明顯高于僅僅使用真實(shí)數(shù)據(jù)集進(jìn)行訓(xùn)練的模型,平均置信度均達(dá)到了90%。

    以上實(shí)驗(yàn)證明了使用本文方法進(jìn)行樣本擴(kuò)增的圖像與真實(shí)側(cè)掃聲納圖像具有更貼近的真實(shí)度、細(xì)節(jié)度與完整度,且實(shí)現(xiàn)了提升基于深度學(xué)習(xí)的目標(biāo)探測(cè)模型探測(cè)性能的目的。

    2.4.4 消融實(shí)驗(yàn)與評(píng)估

    為了驗(yàn)證各個(gè)模塊在本文模型性能中的作用,采用控制變量法分別對(duì)CSA模塊和LSGAN損失函數(shù)進(jìn)行消融實(shí)驗(yàn),評(píng)價(jià)指標(biāo)依舊采用FID、MMD和1-NN。設(shè)計(jì)了6組對(duì)照實(shí)驗(yàn),實(shí)驗(yàn)配置、訓(xùn)練數(shù)據(jù)集以及評(píng)估數(shù)據(jù)和第2.3節(jié)一致,實(shí)驗(yàn)結(jié)果如表5所示。

    對(duì)比組別1~4可以看出,融入了注意力機(jī)制后模型生成圖像的質(zhì)量更高,其中融合了通道注意力和空間注意力機(jī)制的組別4較僅使用了通道和空間注意力模塊的組別2和3擁有更高的性能,證明了本文提出的CSA模塊對(duì)模型的有效性。對(duì)比組別5和組別1可以看出,本文提出的LSGAN損失函數(shù)的優(yōu)越性。對(duì)比組別6和組別4、組別5可以看出,融合了CSA模塊和LSGAN損失函數(shù)后模型的性能比僅使用單一策略的效果更佳,對(duì)模型的整體性能提升起到了至關(guān)重要的作用,體現(xiàn)了本文提出的方法的有效性。

    使用不同策略訓(xùn)練的6組模型對(duì)部分光學(xué)圖像的轉(zhuǎn)化效果如圖10所示。

    從圖10可以看出,組別1生成的數(shù)據(jù)真實(shí)度最低,對(duì)比組別2和組別1可以看出,增加了通道注意力模塊的模型在生成目標(biāo)時(shí)能夠挖掘更多的細(xì)節(jié)特征,但是在背景特征生成上有待加強(qiáng)。對(duì)比組別3和組別1可以看出,增加了空間注意力模塊的模型在生成圖像的背景時(shí)效果更優(yōu),但是仍然存在背景黑洞的情況,并且在目標(biāo)細(xì)節(jié)特征的生成上效果一般。對(duì)比組別4和組別1可以看出,采用了CSA模塊的模型在目標(biāo)細(xì)節(jié)特征以及背景特征生成上能力提升明顯。對(duì)比組別5和組別1可以看出,采用了LSGAN目標(biāo)函數(shù)的模型較好地實(shí)現(xiàn)了目標(biāo)圖像的生成,但是在背景的邊緣仍然存在明顯的方框,顯得不是特別的自然。對(duì)比組別6和組別1可以看出,融合CSA模塊和LSGAN目標(biāo)函數(shù)的模型無(wú)論是在沉船目標(biāo)的紋理、邊緣等細(xì)節(jié)特征,還是在背景特征上均表現(xiàn)良好,生成了清晰度高、細(xì)節(jié)特征完整、真實(shí)感強(qiáng)的目標(biāo)圖像,證明了本文方法的有效性。

    3 結(jié) 論

    針對(duì)側(cè)掃聲納水下目標(biāo)圖像稀缺、獲取難度大、成本高導(dǎo)致基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型性能差的問題,本文結(jié)合光學(xué)域類目標(biāo)數(shù)據(jù)集豐富的優(yōu)勢(shì),提出了一種基于CSLS-CycleGAN的水下目標(biāo)側(cè)掃聲納圖像樣本擴(kuò)增方法,設(shè)計(jì)了單循環(huán)一致性的網(wǎng)絡(luò)結(jié)構(gòu),保證模型的訓(xùn)練效率以及任務(wù)的專注度;在生成器中融合CSA模塊,減少信息彌散的同時(shí)增強(qiáng)跨緯度交互,在學(xué)習(xí)全局特征的同時(shí)關(guān)注目標(biāo)的細(xì)粒度特征;設(shè)計(jì)了基于LSGAN的損失函數(shù),提高生成圖像質(zhì)量的同時(shí)提高訓(xùn)練穩(wěn)定性,避免模式崩潰的情況。通過(guò)光學(xué)域船舶圖像與側(cè)掃聲納圖像進(jìn)行實(shí)驗(yàn),實(shí)現(xiàn)了目標(biāo)光學(xué)圖像與側(cè)掃聲納圖像的雙域轉(zhuǎn)化,生成的側(cè)掃聲納水下目標(biāo)圖像清晰度高、細(xì)節(jié)特征完整、真實(shí)感強(qiáng),達(dá)到了少樣本的樣本高質(zhì)量擴(kuò)增的目的,很大程度上解決了基于深度學(xué)習(xí)的水下目標(biāo)檢測(cè)模型數(shù)據(jù)匱乏的問題,提升了模型的檢測(cè)精度,為水下強(qiáng)代表性目標(biāo)樣本擴(kuò)增以及高性能水下目標(biāo)檢測(cè)模型構(gòu)建提供了一種新的思路。

    參考文獻(xiàn)

    [1] HENRIKSE L. Real-time underwater object detection based on an electrically scanned high-resolution sonar[C]∥Proc.of the IEEE Symposium on Autonomous Underwater Vehicle Techno-logy, 2002.

    [2] ARSHAD M R. Recent advancement in sensor technology for underwater applications[J]. Indian Journal of Marine Sciences, 2009, 38(3): 267-273.

    [3] GREENE A, RAHMAN A F, KLINE R, et al. Side scan sonar: a cost-efficient alternative method for measuring seagrass cover in shallow environments[J]. Estuarine, Coastal and Shelf Science, 2018. DOI:10.1016/j.ecss, 2018.04.017.

    [4] HURTOS N, PALOMERAS N, CARRERA A, et al. Autonomous detection, following and mapping of an underwater chain using sonar[J]. Ocean Engineering, 2017, 130(1): 336-350.

    [5] BUSCOMBE D. Shallow water benthic imaging and substrate characterization using recreational-grade side scan-sonar[J]. Environmental Modelling amp; Software, 2017, 89: 1-18.

    [6] FLOWERS H J, HIGHTOWER J E. A novel approach to surveying sturgeon using side-scan sonar and occupancy modeling[J]. Marine amp; Coastal Fisheries, 2013, 5(1): 211-223.

    [7] JOHNSON S G, DEAETT M A. The application of automated recognition techniques to side-scan sonar imagery[J]. IEEE Journal of Oceanic Engineering: a Journal Devoted to the Application of Electrical and Electronics Engineering to the Oceanic Environment, 1994, 19(1): 138-144.

    [8] BURGUERA A, BONIN-FONT F. On-line multi-class segmentation of side-scan sonar imagery using an autonomous underwater vehicle[J]. Journal of Marine Science and Engineering, 2020, 8(8): 557.

    [9] CHEN E, GUO J. Real time map generation using sidescan sonar scanlines for unmanned underwater vehicles[J]. Ocean Engineering, 2014, 91: 252-262.

    [10] ZHU B Y, WANG X, CHU Z W, et al. Active learning for recognition of shipwreck target in side-scan sonar image[J]. Remote Sensing, 2019, 11(3): 243.

    [11] 陽(yáng)凡林, 獨(dú)知行,吳自銀, 等. 基于灰度直方圖和幾何特征的聲納圖像目標(biāo)識(shí)別[J]. 海洋通報(bào), 2006, 25(5): 64-69.

    YANG F L, DU Z X, WU Z Y, et al. Object recognizing on sonar image based on histogram and geometric feature[J]. Marine Science Bulletin, 2006, 25(5): 64-69.

    [12] LANGNER F, KNAUER C, JANS W, et al. Side scan sonar image resolution and automatic object detection, classification and identification[C]∥Proc.of the Oceans-Europe Conference, 2009.

    [13] ISAACS J C. Sonar automatic target recognition for underwater UXO remediation[C]∥Proc.of the Computer Vision amp; Pattern Recognition Workshops, 2015.

    [14] YUAN F, XIAO F Q, ZHANG K H, et al. Noise reduction for sonar images by statistical analysis and fields of experts[J]. Journal of Visual Communication and Image Representation, 2021, 74: 102995.

    [15] REED S, PETILLOT Y, BELL J.Automated approach to classification of mine-like objects in sidescan sonar using highlight and shadow information[J]. IEE Proceedings—Radar, Sonar and Navigation, 2004, 151(1): 48-56.

    [16] KUMAR N, MITRA U, NARAYANAN S S. Robust object classification in underwater sidescan sonar images by using reliability-aware fusion of shadow features[J]. IEEE Journal of Oceanic Engineering, 2015, 40(3): 592-606.

    [17] ZHU P P, ISAACS J, FU B, et al. Deep learning feature extraction for target recognition and classification in underwater sonar images[C]∥Proc.of the IEEE 56th Annual Conference on Decision and Control, 2017.

    [18] NEUPANE D, SEOK J. A review on deep learning-based approaches for automatic sonar target recognition[J]. Electronics, 2020, 9(11): 1972.

    [19] TOPPLE J M, FAWCETT J A. MiNet: efficient deep learning automatic target recognition for small autonomous vehicles[J]. IEEE Geoscience and Remote Sensing Letters, 2021, 18(6): 1014-1018.

    [20] HUO G Y, YANG S X, LI Q, et al. A robust and fast method for sidescan sonar image segmentation using nonlocal despeckling and active contour model[J]. IEEE Trans.on Cybernetics, 2016, 47(4): 855-872.

    [21] FELDENS P, DARR A, FELDENS A, et al. Detection of boulders in side scan sonar mosaics by a neural network[J]. Geosciences, 2019, 9(4): 159.

    [22] TANG Y L, JIN S H, BIAN G, et al. Shipwreck target recognition in side-scan sonar images by improved YOLOv3 model based on transfer learning[J]. IEEE Access, 2020, 8: 173450-173460.

    [23] 湯寓麟, 李厚樸, 張衛(wèi)東, 等. 側(cè)掃聲納檢測(cè)沉船目標(biāo)的輕量化DETR-YOLO法[J]. 系統(tǒng)工程與電子技術(shù), 2022, 44(8): 2427-2436.

    TANG Y L, LI H P, ZHANG W D, et al. Lightweight DETR-YOLO method for detecting shipwreck target in side-scan sonar[J]. Systems Engineering and Electronics, 2022, 44(8): 2427-2436.

    [24] NGUYEN H T, LEE E H, LEE S, et al. Study on the classification performance of underwater sonar image classification based on convolutional neural networks for detecting a submerged human body[J]. Sensors, 2019, 20(1): 94.

    [25] LI A C, YE A X, CAO B D, et al. Zero shot objects classification method of side scan sonar image based on synthesis of pseudo samples-ScienceDirect[J]. Applied Acoustics, 2021, 173: 107691.

    [26] COIRAS E, MIGNOTTE P Y, PETILLOT Y, et al. Supervised target detection and classification by training on augmented reality data[J]. IET Radar, Sonar amp; Navigation, 2007, 1(1): 83-90.

    [27] KAPETANOVI N, MIKOVI N, TAHIROVI A. Saliency and anomaly: transition of concepts from natural images to side-scan sonar images[J]. IFAC-Papers OnLine, 2020, 53(2): 14558-14563.

    [28] LEE S J, PARK B, KIM A. Deep learning from shallow dives: sonar image generation and training for underwater object detection[EB/OL]. [2023-03-10]. arxiv.org/pdf/1810.07990.pdf.

    [29] HUO G Y, WU Z Y, LI J B. Underwater object classification in sidescan sonar images using deep transfer learning and semisynthetic training data[J]. IEEE Access, 2020, 8: 47407-47418.

    [30] HUANG C, ZHAO J H, YU Y C, et al. Comprehensive sample augmentation by fully considering side-scan imaging mechanism and environment for shipwreck detection under zero real samples[J]. IEEE Trans.on Geoscience and Remote Sensing, 2021, 60: 5906814.

    [31] CHAVEZ P S, ISBRECHT J A, GALANIS P, et al. Processing, mosaicking and management of the monterey bay digital sidescan-sonar images[J]. Marine Geology, 2002, 181(1/3): 305-315.

    [32] BLONDEL P. The handbook of sidescan sonar[M]. Berlin: Springer, 2010.

    [33] ISOLA P, ZHU J Y, ZHOU T, et al. Image-to-image translation with conditional adversarial networks[C]∥Proc.of the IEEE Conference on Computer Vision and Pattern Recognition, 2017: 5967-5976.

    [34] ZHU J Y, PARK T, ISOLA P, et al. Unpaired image-to-image translation using cycle-consistent adversarial networks[C]∥Proc.of the IEEE International Conference on Computer Vision, 2017: 2242-2251.

    [35] 李寶奇, 黃海寧, 劉紀(jì)元, 等. 基于改進(jìn)CycleGAN的光學(xué)圖像遷移生成水下小目標(biāo)合成孔徑聲納圖像算法研究[J]. 電子學(xué)報(bào), 2021, 49(9): 1746-1753.

    LI B Q, HUANG H N, LIU J Y, et al. Optical image-to-underwater small target synthetic aperture sonar image translation algorithm based on improved CycleGAN[J]. Acta Electronica Sinica, 2021, 49(9): 1746-1753.

    [36] ALFARRA M, JUAN C, ANNA F, et al. On the robustness of quality measures for GANs[C]∥Proc.of the 17th European Conference on Computer Vision, 2022: 18-33.

    [37] YI Z L, ZHANG H, TAN P L, et al. DualGAN: unsupervised dual learning for image-to-image translation[C]∥Proc.of the IEEE International Conference on Computer Vision, 2017: 2868-2876.

    [38] KIM T, CHA M. Learning to discover cross-domain relations with generative adversarial networks[C]∥Proc.of the 34th International Conference on Machine Learning, 2017: 1857-1865.

    作者簡(jiǎn)介

    湯寓麟(1996—),男,博士研究生,主要研究方向?yàn)橹悄芨兄c智能系統(tǒng)、水下目標(biāo)檢測(cè)和計(jì)算機(jī)視覺。

    王黎明(1978—),男,副教授,博士,主要研究方向?yàn)闊o(wú)人裝備智能感知與自主控制。

    余德熒(1998—),男,博士研究生,主要研究方向?yàn)楸倍?GNSS精密定位算法、海洋應(yīng)用。

    李厚樸(1985—),男,教授,博士,主要研究方向?yàn)榇蟮販y(cè)量數(shù)學(xué)分析。

    劉 敏(1980—),男,高級(jí)工程師,博士,主要研究方向?yàn)榇蟮販y(cè)量??罩亓y(cè)量與數(shù)據(jù)處理技術(shù)、海洋測(cè)繪及海洋地理信息應(yīng)用。

    張衛(wèi)東(1981—),男,工程師,主要研究方向?yàn)榈乩硇畔⑾到y(tǒng)。

    猜你喜歡
    聲納樣本函數(shù)
    二次函數(shù)
    第3講 “函數(shù)”復(fù)習(xí)精講
    用樣本估計(jì)總體復(fù)習(xí)點(diǎn)撥
    二次函數(shù)
    Daniel Kish
    函數(shù)備考精講
    船載調(diào)頻連續(xù)波聲納測(cè)深技術(shù)研究
    基于聽覺特征的被動(dòng)聲納目標(biāo)識(shí)別
    推動(dòng)醫(yī)改的“直銷樣本”
    隨機(jī)微分方程的樣本Lyapunov二次型估計(jì)
    日日干狠狠操夜夜爽| 亚洲成人久久爱视频| 又爽又黄a免费视频| 欧美高清成人免费视频www| 少妇高潮的动态图| 一级a爱片免费观看的视频| 亚洲国产欧美人成| x7x7x7水蜜桃| 韩国av一区二区三区四区| 动漫黄色视频在线观看| 长腿黑丝高跟| 国产淫片久久久久久久久| 一本精品99久久精品77| 久久久久国产精品人妻aⅴ院| 亚洲精品亚洲一区二区| a级毛片a级免费在线| 午夜精品久久久久久毛片777| 国产 一区 欧美 日韩| 久久精品国产亚洲av涩爱 | 欧美+日韩+精品| 亚洲av中文av极速乱 | 国产精品99久久久久久久久| 日本五十路高清| 国产精品日韩av在线免费观看| 亚洲av免费高清在线观看| 亚洲天堂国产精品一区在线| 女同久久另类99精品国产91| 亚洲国产欧洲综合997久久,| 能在线免费观看的黄片| 日日摸夜夜添夜夜添小说| 免费在线观看影片大全网站| 麻豆国产97在线/欧美| 午夜精品在线福利| 午夜精品一区二区三区免费看| 国产精品久久久久久久电影| 亚洲内射少妇av| 国产精品嫩草影院av在线观看 | 亚洲自拍偷在线| 国产精品精品国产色婷婷| 精品无人区乱码1区二区| 波多野结衣巨乳人妻| 日本免费一区二区三区高清不卡| 国产国拍精品亚洲av在线观看| 俺也久久电影网| 又爽又黄a免费视频| 又紧又爽又黄一区二区| 婷婷六月久久综合丁香| 桃红色精品国产亚洲av| 成人欧美大片| 国产乱人视频| 欧美性感艳星| 亚洲人成网站在线播| 婷婷亚洲欧美| 日韩欧美三级三区| 简卡轻食公司| netflix在线观看网站| 日日啪夜夜撸| 两个人视频免费观看高清| 中出人妻视频一区二区| 亚洲精品一卡2卡三卡4卡5卡| www日本黄色视频网| 日本a在线网址| 欧美丝袜亚洲另类 | 一个人观看的视频www高清免费观看| 国产精品久久久久久久久免| 在线观看66精品国产| 丰满的人妻完整版| 免费观看的影片在线观看| 国产大屁股一区二区在线视频| 亚洲av二区三区四区| 久久久成人免费电影| 毛片一级片免费看久久久久 | 村上凉子中文字幕在线| 少妇猛男粗大的猛烈进出视频 | 成人二区视频| 国产精品98久久久久久宅男小说| 亚洲自偷自拍三级| 精品人妻熟女av久视频| 中文字幕av在线有码专区| 此物有八面人人有两片| 男女之事视频高清在线观看| 在线播放国产精品三级| 在线天堂最新版资源| 亚州av有码| 麻豆国产av国片精品| 窝窝影院91人妻| ponron亚洲| 最近视频中文字幕2019在线8| 麻豆精品久久久久久蜜桃| 亚洲性久久影院| 成人三级黄色视频| 69人妻影院| 校园春色视频在线观看| 国产极品精品免费视频能看的| 精品99又大又爽又粗少妇毛片 | av女优亚洲男人天堂| 国产激情偷乱视频一区二区| 成人三级黄色视频| 亚洲欧美清纯卡通| 人人妻人人看人人澡| 亚洲乱码一区二区免费版| 免费观看人在逋| 特大巨黑吊av在线直播| 国产亚洲精品久久久久久毛片| 亚洲av美国av| 成人av在线播放网站| 成人精品一区二区免费| 最新中文字幕久久久久| 久久久色成人| 亚洲,欧美,日韩| avwww免费| 日韩高清综合在线| 午夜视频国产福利| 久久亚洲精品不卡| 好男人在线观看高清免费视频| 免费一级毛片在线播放高清视频| 美女免费视频网站| 美女cb高潮喷水在线观看| 国产探花在线观看一区二区| 日本色播在线视频| 美女cb高潮喷水在线观看| 国产欧美日韩精品一区二区| 搡老岳熟女国产| 色播亚洲综合网| 又爽又黄a免费视频| 精品一区二区三区人妻视频| 久久久精品欧美日韩精品| 99久国产av精品| 九九在线视频观看精品| 露出奶头的视频| 成人二区视频| 亚洲一区二区三区色噜噜| 国产一区二区激情短视频| 美女 人体艺术 gogo| 不卡视频在线观看欧美| 我的女老师完整版在线观看| 51国产日韩欧美| 特级一级黄色大片| 日韩欧美一区二区三区在线观看| 国产麻豆成人av免费视频| 欧美激情国产日韩精品一区| 亚洲熟妇中文字幕五十中出| xxxwww97欧美| 国产熟女欧美一区二区| 国产精品自产拍在线观看55亚洲| 国产精品永久免费网站| 精品人妻偷拍中文字幕| 校园人妻丝袜中文字幕| 久久人妻av系列| 在线观看av片永久免费下载| 日本a在线网址| 级片在线观看| 亚洲成人精品中文字幕电影| 日本一二三区视频观看| 小蜜桃在线观看免费完整版高清| 国产蜜桃级精品一区二区三区| 精品一区二区三区视频在线| 伦精品一区二区三区| 成人国产麻豆网| 国产精华一区二区三区| 久久久久久久久久成人| 日日撸夜夜添| 在线看三级毛片| 老熟妇乱子伦视频在线观看| 免费高清视频大片| 久久精品国产99精品国产亚洲性色| 婷婷精品国产亚洲av| 国产男人的电影天堂91| 女的被弄到高潮叫床怎么办 | 少妇人妻精品综合一区二区 | 欧美国产日韩亚洲一区| 精品一区二区三区人妻视频| 亚洲国产精品成人综合色| 国产色爽女视频免费观看| 久久欧美精品欧美久久欧美| 毛片一级片免费看久久久久 | 国产精品,欧美在线| 亚洲人与动物交配视频| 精品不卡国产一区二区三区| 日本免费a在线| 又爽又黄a免费视频| 成人国产一区最新在线观看| 少妇猛男粗大的猛烈进出视频 | 九色国产91popny在线| 嫩草影视91久久| 欧美激情在线99| 99热这里只有是精品50| 一a级毛片在线观看| 禁无遮挡网站| 黄色配什么色好看| 淫秽高清视频在线观看| 黄色丝袜av网址大全| 中文字幕av成人在线电影| 色播亚洲综合网| 美女被艹到高潮喷水动态| 欧美日韩精品成人综合77777| 99久久精品国产国产毛片| netflix在线观看网站| 国产精品久久久久久精品电影| 久99久视频精品免费| 亚洲欧美日韩东京热| 美女高潮喷水抽搐中文字幕| 国产精品久久电影中文字幕| 最好的美女福利视频网| av女优亚洲男人天堂| 日韩精品中文字幕看吧| 亚洲国产欧洲综合997久久,| 亚洲成a人片在线一区二区| 在线a可以看的网站| 欧美一区二区国产精品久久精品| 欧美高清性xxxxhd video| 日韩欧美 国产精品| а√天堂www在线а√下载| 男女那种视频在线观看| 久久精品国产自在天天线| 日韩亚洲欧美综合| 婷婷精品国产亚洲av| 国产精品爽爽va在线观看网站| 精品久久久久久久久久久久久| 此物有八面人人有两片| 99在线视频只有这里精品首页| 成人高潮视频无遮挡免费网站| 国产欧美日韩精品亚洲av| 人妻久久中文字幕网| 99久久久亚洲精品蜜臀av| 日日干狠狠操夜夜爽| 可以在线观看毛片的网站| 久久亚洲精品不卡| x7x7x7水蜜桃| 一进一出抽搐gif免费好疼| 欧美成人性av电影在线观看| 尾随美女入室| 国产精品三级大全| 久久人妻av系列| 成人三级黄色视频| 日本撒尿小便嘘嘘汇集6| 国产精品亚洲一级av第二区| 99久久无色码亚洲精品果冻| 久久久久免费精品人妻一区二区| 琪琪午夜伦伦电影理论片6080| 亚洲男人的天堂狠狠| 国产乱人视频| 麻豆国产av国片精品| 国产黄片美女视频| 真人一进一出gif抽搐免费| 日本熟妇午夜| 乱人视频在线观看| 国产在线男女| 亚洲国产欧洲综合997久久,| 级片在线观看| 国产伦精品一区二区三区视频9| 非洲黑人性xxxx精品又粗又长| 一级黄色大片毛片| 一个人观看的视频www高清免费观看| 少妇的逼水好多| 久久久久久久久大av| 麻豆av噜噜一区二区三区| 亚洲中文字幕一区二区三区有码在线看| 精品免费久久久久久久清纯| 亚洲精华国产精华液的使用体验 | 男女下面进入的视频免费午夜| 在线免费观看不下载黄p国产 | 狂野欧美白嫩少妇大欣赏| 99视频精品全部免费 在线| 黄色视频,在线免费观看| 真实男女啪啪啪动态图| 国内揄拍国产精品人妻在线| 日本撒尿小便嘘嘘汇集6| 不卡一级毛片| 国产亚洲精品久久久com| 少妇高潮的动态图| 一区二区三区四区激情视频 | 人妻丰满熟妇av一区二区三区| eeuss影院久久| 精品无人区乱码1区二区| 国产极品精品免费视频能看的| 欧美在线一区亚洲| 亚洲国产精品合色在线| 日本免费a在线| 赤兔流量卡办理| 免费不卡的大黄色大毛片视频在线观看 | 亚洲av免费高清在线观看| 成年版毛片免费区| 日本a在线网址| 在线播放无遮挡| 床上黄色一级片| 日韩欧美国产在线观看| 精品一区二区免费观看| 别揉我奶头 嗯啊视频| 国产三级在线视频| 韩国av在线不卡| 色哟哟哟哟哟哟| 一边摸一边抽搐一进一小说| 精品福利观看| 69av精品久久久久久| 在线观看舔阴道视频| 国产男人的电影天堂91| 精品久久久噜噜| 99久久精品热视频| 国内久久婷婷六月综合欲色啪| 国产精品福利在线免费观看| 精品无人区乱码1区二区| 人妻夜夜爽99麻豆av| 午夜老司机福利剧场| 天天一区二区日本电影三级| 最近中文字幕高清免费大全6 | 亚洲内射少妇av| 级片在线观看| 我的女老师完整版在线观看| 国产又黄又爽又无遮挡在线| 99久久中文字幕三级久久日本| 午夜福利成人在线免费观看| eeuss影院久久| 欧美中文日本在线观看视频| 午夜影院日韩av| 美女 人体艺术 gogo| 成人av一区二区三区在线看| 国产人妻一区二区三区在| 在线天堂最新版资源| 性插视频无遮挡在线免费观看| 看免费成人av毛片| 日韩av在线大香蕉| 黄色一级大片看看| av视频在线观看入口| 亚洲无线观看免费| 18禁在线播放成人免费| 欧美人与善性xxx| 日韩强制内射视频| 搡老熟女国产l中国老女人| 久久精品影院6| 精品一区二区三区av网在线观看| 十八禁网站免费在线| av在线老鸭窝| 久久久久久伊人网av| 欧美国产日韩亚洲一区| 国产不卡一卡二| 如何舔出高潮| 一a级毛片在线观看| 亚洲欧美精品综合久久99| 国产真实伦视频高清在线观看 | 九九久久精品国产亚洲av麻豆| 如何舔出高潮| 久久精品夜夜夜夜夜久久蜜豆| 成熟少妇高潮喷水视频| 热99在线观看视频| 国内久久婷婷六月综合欲色啪| 在线观看一区二区三区| 亚洲图色成人| 色吧在线观看| 观看免费一级毛片| 亚洲熟妇中文字幕五十中出| 国产欧美日韩精品一区二区| 露出奶头的视频| 久久久久久久久中文| 欧美性猛交黑人性爽| 美女被艹到高潮喷水动态| 变态另类丝袜制服| 国产在线男女| 俄罗斯特黄特色一大片| 亚洲va日本ⅴa欧美va伊人久久| 日韩欧美免费精品| 天天一区二区日本电影三级| 久久亚洲真实| 中文亚洲av片在线观看爽| 性色avwww在线观看| 国产精品亚洲一级av第二区| 午夜福利视频1000在线观看| 12—13女人毛片做爰片一| 欧美色视频一区免费| 人妻夜夜爽99麻豆av| 日韩亚洲欧美综合| 亚洲 国产 在线| 精品无人区乱码1区二区| 人人妻,人人澡人人爽秒播| 三级毛片av免费| 欧美+亚洲+日韩+国产| 国产美女午夜福利| 亚洲精品一区av在线观看| 日本黄色片子视频| www日本黄色视频网| 欧美日韩亚洲国产一区二区在线观看| 国产蜜桃级精品一区二区三区| 国内久久婷婷六月综合欲色啪| 一进一出好大好爽视频| 午夜精品一区二区三区免费看| 久久人人爽人人爽人人片va| 亚洲av中文字字幕乱码综合| 欧美一区二区亚洲| 日韩,欧美,国产一区二区三区 | 91久久精品电影网| aaaaa片日本免费| 亚洲乱码一区二区免费版| 又爽又黄无遮挡网站| 欧美日韩精品成人综合77777| 欧美日韩亚洲国产一区二区在线观看| 丰满的人妻完整版| 免费在线观看日本一区| 噜噜噜噜噜久久久久久91| 搡老熟女国产l中国老女人| 午夜亚洲福利在线播放| 白带黄色成豆腐渣| www.www免费av| 国产极品精品免费视频能看的| 欧美色视频一区免费| 在线观看av片永久免费下载| 国产亚洲欧美98| 色在线成人网| 欧美日韩亚洲国产一区二区在线观看| 91麻豆精品激情在线观看国产| 久久久久久久亚洲中文字幕| 亚洲国产欧美人成| 熟妇人妻久久中文字幕3abv| 99国产精品一区二区蜜桃av| av天堂中文字幕网| 久久久国产成人免费| 国产爱豆传媒在线观看| 色视频www国产| 一级a爱片免费观看的视频| 99热这里只有精品一区| 美女黄网站色视频| 精品久久久久久久人妻蜜臀av| 亚洲性夜色夜夜综合| 国产成人一区二区在线| 日本 欧美在线| 在线天堂最新版资源| 麻豆国产av国片精品| 亚洲精品亚洲一区二区| 婷婷丁香在线五月| 免费电影在线观看免费观看| 联通29元200g的流量卡| 免费看美女性在线毛片视频| 精品久久久久久,| 校园春色视频在线观看| 亚洲精品色激情综合| 欧美潮喷喷水| 极品教师在线免费播放| 少妇高潮的动态图| 亚洲av免费高清在线观看| 亚洲 国产 在线| 性欧美人与动物交配| 久久亚洲精品不卡| 啦啦啦观看免费观看视频高清| 亚洲精品国产成人久久av| 亚洲,欧美,日韩| 一个人观看的视频www高清免费观看| 国产亚洲精品久久久久久毛片| 精品一区二区三区视频在线| 午夜免费成人在线视频| 九九爱精品视频在线观看| 日韩欧美三级三区| 亚洲午夜理论影院| 一区二区三区四区激情视频 | 伦理电影大哥的女人| 日韩高清综合在线| 欧美+亚洲+日韩+国产| 亚洲精品456在线播放app | 美女被艹到高潮喷水动态| 国产精品日韩av在线免费观看| 日日摸夜夜添夜夜添av毛片 | 午夜福利在线观看免费完整高清在 | 亚洲国产精品合色在线| 欧美zozozo另类| 国产精品亚洲一级av第二区| 狂野欧美白嫩少妇大欣赏| 人人妻人人澡欧美一区二区| 亚洲图色成人| 国产一区二区在线av高清观看| netflix在线观看网站| 丝袜美腿在线中文| 1000部很黄的大片| 成人二区视频| 亚洲一级一片aⅴ在线观看| 99精品在免费线老司机午夜| 精品免费久久久久久久清纯| av.在线天堂| 亚洲人与动物交配视频| 少妇丰满av| 国产高清三级在线| av在线天堂中文字幕| 老熟妇乱子伦视频在线观看| 久9热在线精品视频| 国产午夜精品久久久久久一区二区三区 | 午夜精品久久久久久毛片777| 免费看a级黄色片| 九九爱精品视频在线观看| 长腿黑丝高跟| 免费看光身美女| 美女cb高潮喷水在线观看| 日日啪夜夜撸| 国产av一区在线观看免费| 有码 亚洲区| 91狼人影院| 国产精品久久视频播放| 91久久精品电影网| 老司机福利观看| 亚洲国产欧洲综合997久久,| 国产免费男女视频| 日本欧美国产在线视频| 无遮挡黄片免费观看| 亚洲天堂国产精品一区在线| 最近视频中文字幕2019在线8| 国产黄片美女视频| 亚洲人与动物交配视频| 国产高清激情床上av| 欧美最黄视频在线播放免费| 嫩草影院新地址| 在线天堂最新版资源| 久久久久性生活片| 婷婷六月久久综合丁香| 看黄色毛片网站| 欧美成人a在线观看| 午夜福利高清视频| 美女高潮的动态| 国产精品,欧美在线| 日韩在线高清观看一区二区三区 | 国产精品亚洲美女久久久| 中国美女看黄片| 此物有八面人人有两片| 99久久成人亚洲精品观看| 亚洲无线在线观看| 国产黄片美女视频| 少妇人妻精品综合一区二区 | 国产精品久久久久久久电影| 桃色一区二区三区在线观看| 久久久久久久久大av| 国产亚洲精品综合一区在线观看| 毛片一级片免费看久久久久 | 日本欧美国产在线视频| 少妇人妻一区二区三区视频| 精品久久久噜噜| 精品免费久久久久久久清纯| 我的老师免费观看完整版| 国产精品伦人一区二区| 天堂√8在线中文| 欧美精品啪啪一区二区三区| 成人av在线播放网站| 最新中文字幕久久久久| 国产在线男女| 亚洲精品久久国产高清桃花| 最好的美女福利视频网| 亚洲人成网站高清观看| 日本a在线网址| 麻豆久久精品国产亚洲av| 成年女人毛片免费观看观看9| 欧美黑人欧美精品刺激| 亚洲最大成人中文| 最近在线观看免费完整版| 美女大奶头视频| 免费观看精品视频网站| 两个人视频免费观看高清| 成人毛片a级毛片在线播放| 亚洲avbb在线观看| 九九热线精品视视频播放| 日本成人三级电影网站| 国产69精品久久久久777片| 深夜精品福利| 黄色一级大片看看| 欧美xxxx性猛交bbbb| 久久精品国产亚洲av香蕉五月| 看片在线看免费视频| 欧美黑人巨大hd| 又粗又爽又猛毛片免费看| 精品久久久久久久久久久久久| 欧美性感艳星| 色哟哟哟哟哟哟| 精品久久久久久成人av| or卡值多少钱| 亚洲国产高清在线一区二区三| 成年女人毛片免费观看观看9| 国产av不卡久久| 伦理电影大哥的女人| 国产中年淑女户外野战色| 午夜福利欧美成人| 国产大屁股一区二区在线视频| 国产欧美日韩精品亚洲av| av在线亚洲专区| 国内毛片毛片毛片毛片毛片| 韩国av一区二区三区四区| 99国产精品一区二区蜜桃av| 变态另类成人亚洲欧美熟女| 国产精品嫩草影院av在线观看 | 欧美激情国产日韩精品一区| 999久久久精品免费观看国产| 韩国av在线不卡| 国产 一区精品| 欧美国产日韩亚洲一区| 搡女人真爽免费视频火全软件 | 亚洲久久久久久中文字幕| 88av欧美| netflix在线观看网站| а√天堂www在线а√下载| 日本成人三级电影网站| 在线免费十八禁| 日本与韩国留学比较| 久久精品国产亚洲av天美| 亚洲自偷自拍三级| 韩国av一区二区三区四区| videossex国产| 一区二区三区高清视频在线| 最新在线观看一区二区三区| 国产av在哪里看| 老司机福利观看| 美女高潮喷水抽搐中文字幕| 亚洲性久久影院| 午夜老司机福利剧场| 男人舔奶头视频| 国产v大片淫在线免费观看| 91av网一区二区| 真实男女啪啪啪动态图| 国产精品爽爽va在线观看网站| 精品99又大又爽又粗少妇毛片 | 久久久久久久久久久丰满 | 成人性生交大片免费视频hd| 日韩欧美国产一区二区入口| 在线播放国产精品三级|