郝駿宇,楊鴻波,侯 霞,張 洋
(北京信息科技大學(xué) 自動(dòng)化學(xué)院,北京 100089)
水下機(jī)器人在海洋石油鉆探、海底隧道、管道搭建和水產(chǎn)養(yǎng)殖等水下作業(yè)任務(wù)中,需要穩(wěn)定清晰的水下圖像予以輔助分析。由于紅、綠、藍(lán)3種光的衰減率不同,紅色光在水下衰減最為嚴(yán)重,圖像表現(xiàn)出嚴(yán)重的藍(lán)綠色偏。此外,水下懸浮的微粒會(huì)使光產(chǎn)生散射作用,這會(huì)導(dǎo)致水下圖像出現(xiàn)低對(duì)比度、模糊和有霧的現(xiàn)象[1-4]。
針對(duì)上述水下圖像的特點(diǎn),改善水下圖像質(zhì)量的方法一般分為兩大類。一類是水下圖像增強(qiáng)(Underwater Image Enhancement,UIE)算法。基于深度學(xué)習(xí)的UIE 算法側(cè)重于調(diào)整圖像對(duì)比度、清晰度和色彩以提高人體視覺(jué)感知質(zhì)量,而不依賴于水下成像模型。2017 年,Perez 等人提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)[5]的水下圖像增強(qiáng)方法,第一次將深度學(xué)習(xí)方法應(yīng)用于水下圖像增強(qiáng)領(lǐng)域。該方法采用簡(jiǎn)單的卷積層堆疊構(gòu)成整個(gè)增強(qiáng)網(wǎng)絡(luò),難以有效解決色偏問(wèn)題,且對(duì)比度較低[6]。2019 年,Nan Wang 等人提出的UWGAN 采用3 次下降的UNET 網(wǎng)絡(luò)來(lái)進(jìn)行水下圖像的增強(qiáng),但是無(wú)法去除局部霧化的情況,且增強(qiáng)后的圖像存在亮部曝光過(guò)度的問(wèn)題[7]。2021 年,Jiang 等人的兩步域水下圖像增強(qiáng)算法,首先用CycleGAN 生成擁有地面風(fēng)格但有一定霧化情況的中間域圖像,接著用去霧算法對(duì)其進(jìn)一步增強(qiáng)到目標(biāo)域。此算法經(jīng)過(guò)兩個(gè)階段的增強(qiáng),生成圖像具有模糊現(xiàn)象[8]。2021 年,李微對(duì)UWGAN 進(jìn)行了改進(jìn),首先用改進(jìn)JM 退化模型建立GAN 網(wǎng)絡(luò),接著在UNET 網(wǎng)絡(luò)中加入一個(gè)注意力機(jī)制,從而提高網(wǎng)絡(luò)的魯棒性[9]。2021年,Deep-WaveNet使用UIEB 的成對(duì)數(shù)據(jù)集,通過(guò)在其3 層波浪式結(jié)構(gòu)中加入CBAM 注意力模塊構(gòu)建了一個(gè)增強(qiáng)網(wǎng)絡(luò)。該方法采用卷積和注意力機(jī)制融合的方法進(jìn)行增強(qiáng),但單一的卷積核尺寸和上下采樣結(jié)構(gòu)使得網(wǎng)絡(luò)無(wú)法泛化到其他風(fēng)格的圖像[10]。2022 年,Qi 等人提出了以語(yǔ)義分割引導(dǎo)的卷積神經(jīng)網(wǎng)絡(luò)增強(qiáng)方法,通過(guò)嵌入不同的特征提取塊進(jìn)行圖像增強(qiáng)。該方法同樣因?yàn)槭褂脝我坏木矸e核尺寸和上采樣和下采樣結(jié)構(gòu),從而難以解決水下圖像局部霧化的情況[11]。另一類是水下圖像恢復(fù)(Underwater Image Restoration,UIR)算法。基于深度學(xué)習(xí)的UIR 算法[12-15]主要是根據(jù)水下圖像建立退化模型,將水下圖像根據(jù)建立的退化公式恢復(fù)到未退化狀態(tài)。這類算法只能估計(jì)一種水下風(fēng)格的參數(shù),無(wú)法對(duì)其他風(fēng)格的圖像進(jìn)行恢復(fù),通用性較差,水下機(jī)器人等設(shè)備在不同風(fēng)格的水下環(huán)境中無(wú)法直接使用。
綜上所述,目前基于深度學(xué)習(xí)的UIE 網(wǎng)絡(luò)一般采用單一的卷積尺寸和上下采樣方式,導(dǎo)致增強(qiáng)后的圖像存在色偏、霧化和細(xì)節(jié)丟失等質(zhì)量較低的問(wèn)題。針對(duì)這一問(wèn)題,本文借鑒大氣圖像降噪的SOTA 算法[16-18]中通過(guò)構(gòu)建特征提取塊進(jìn)行級(jí)聯(lián)的思想,構(gòu)建了基于3 個(gè)多尺度特征提取模塊,并據(jù)此提出了完整的UIE 網(wǎng)絡(luò)水下圖像增強(qiáng)框架,從而實(shí)現(xiàn)了水下圖像端到端的增強(qiáng)任務(wù)。為進(jìn)一步增加網(wǎng)絡(luò)的特征提取能力,在網(wǎng)絡(luò)高維特征空間中添加了CBAM 注意力機(jī)制[19]。實(shí)驗(yàn)結(jié)果表明,本文算法可以有效解決水下圖像的色偏、霧化和細(xì)節(jié)丟失的問(wèn)題,在對(duì)增強(qiáng)結(jié)果的主觀分析和客觀指標(biāo)評(píng)價(jià)中均優(yōu)于其他算法。
針對(duì)現(xiàn)有基于深度學(xué)習(xí)的算法特征提取較為單一的問(wèn)題,本文借鑒特征提取塊級(jí)聯(lián)的思想,在編解碼網(wǎng)絡(luò)的基礎(chǔ)上構(gòu)建出3 個(gè)功能模塊,并以級(jí)聯(lián)的方式構(gòu)建出整個(gè)增強(qiáng)網(wǎng)絡(luò)。
網(wǎng)絡(luò)整體框架如圖1所示,包括4種主要組件,分別是下采樣模塊(Downsampling Module,DM)、上采樣模塊(Upsampling Module,UM)、特征提取模塊(Feature Extraction Module,F(xiàn)EM)和CBAM模塊。網(wǎng)絡(luò)以尺寸為256×256 的水下RGB 圖像作為輸入,使用兩個(gè)DM 模塊、兩個(gè)UM 模塊、一個(gè)CBAM 注意力模塊和4 個(gè)FEM 模塊構(gòu)建整個(gè)編解碼網(wǎng)絡(luò)。此外,為降低圖像信息損失進(jìn)行了兩次跳躍鏈接,第一次將輸出特征F1 和輸出特征U1進(jìn)行通道合并后輸入FEM3 模塊,第二次將輸入圖像和輸出特征U2 進(jìn)行通道合并后輸入FEM4模塊進(jìn)行特征提取。在訓(xùn)練時(shí),輸出圖像與清晰的參考圖像計(jì)算損失。在訓(xùn)練完成后,可以端到端地對(duì)水下圖像進(jìn)行增強(qiáng)。
圖1 算法整體框架圖Fig.1 Overall framework of the algorithm
在視覺(jué)任務(wù)中,為提高特征感受野和降低網(wǎng)絡(luò)參數(shù)量,需要對(duì)圖像進(jìn)行下采樣。卷積下采樣在訓(xùn)練過(guò)程中的參數(shù)需要學(xué)習(xí),生成的縮略圖能提取更加符合網(wǎng)絡(luò)任務(wù)的特征,最大值池化下采樣注重圖像紋理特征的提取。均值池化下采樣偏向于保留圖像的全局特征,所以不同的下采樣方式對(duì)特征提取的側(cè)重點(diǎn)不同,如果能使用不同的下采樣方式對(duì)特征進(jìn)行下采樣,就可以得到更豐富的特征信息。
為解決圖像下采樣過(guò)程中特征提取不充分和信息損失較大的問(wèn)題,我們采用融合3 種不同方式的方法構(gòu)建了DM 模塊對(duì)圖像進(jìn)行下采樣。如圖2 所示,DM 模塊首先分別采取步長(zhǎng)為2×2的卷積、最大值池化和均值池化3 種方式對(duì)圖像進(jìn)行下采樣;其次對(duì)最大池化特征和均值池化特征進(jìn)行通道合并,并經(jīng)過(guò)一層批量歸一化層(Batch Normalization,BN);然后合并卷積下采樣和上一步的輸出特征;接著經(jīng)過(guò)一層3×3 的卷積層;最后經(jīng)過(guò)一層LeakRelu 激活層進(jìn)行非線性激活。
圖2 DM 模塊結(jié)構(gòu)圖Fig.2 DM module structure diagram
如圖3 所示,UM 模塊和DM 模塊原理相同。為獲取多層次的圖像特征,我們采用轉(zhuǎn)置卷積和線性插值兩種不同的上采樣方式對(duì)特征進(jìn)行上采樣。輸入特征首先分別經(jīng)過(guò)轉(zhuǎn)置卷積和線性插值對(duì)特征進(jìn)行上采樣,其次對(duì)線性插值后的特征進(jìn)行批量歸一化,接著對(duì)轉(zhuǎn)置卷積通道和線性插值通道進(jìn)行通道合并,最后經(jīng)過(guò)一層3×3 的卷積神經(jīng)網(wǎng)絡(luò),并經(jīng)過(guò)一層LeakRelu 輸出特征。
圖3 UM 模塊結(jié)構(gòu)圖Fig.3 UM module structure diagram
不同大小的卷積核可以提取不同細(xì)粒度的圖像特征,在圖像增強(qiáng)領(lǐng)域,往往會(huì)因?yàn)閳D像特征提取不充分而導(dǎo)致圖像細(xì)節(jié)丟失嚴(yán)重。如圖4 所示,F(xiàn)EM 模塊首先使用3×3、5×5 和7×7 的卷積層分別對(duì)輸入特征進(jìn)行特征提取,并經(jīng)過(guò)LeakRelu進(jìn)行非線性激活;其次對(duì)3 個(gè)尺度提取的特征進(jìn)行通道合并;接著經(jīng)過(guò)一層卷積核為3×3 的卷積把通道降維到和輸入特征一樣,經(jīng)過(guò)一層LeakRelu激活層;接著把輸入特征和上一步的多尺度提取完的特征進(jìn)行通道合并;最后再經(jīng)過(guò)一層3×3 的卷積層,并經(jīng)過(guò)BN 層和LeakRelu 層輸出特征。
圖4 FEM 模塊結(jié)構(gòu)圖Fig.4 FEM module structure diagram
為進(jìn)一步提高網(wǎng)絡(luò)特征提取能力,本文在圖像高維特征空間中引入CBAM 注意力機(jī)制。如圖5 所示,CBAM 注意力機(jī)制從通道(Channel)和空間(Spatial)兩個(gè)維度對(duì)輸入特征進(jìn)行注意力集中。通道注意力模塊通過(guò)對(duì)輸入特征的每個(gè)通道進(jìn)行特征篩選,輸出每個(gè)通道的注意力圖??臻g注意力模塊通過(guò)對(duì)輸入特征進(jìn)行空間特征融合得到空間注意力圖,然后將獲得的注意力圖與輸入特征相乘以進(jìn)行自適應(yīng)特征集中。
圖5 CBAM 注意力機(jī)制結(jié)構(gòu)圖Fig.5 Structural diagram of CBAM attention mechanism
目前,大部分基于深度學(xué)習(xí)的任務(wù)都是基于經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化(Empirical Risk Minization,ERM)進(jìn)行有監(jiān)督訓(xùn)練,損失函數(shù)對(duì)任務(wù)的最終結(jié)果至關(guān)重要。所以在基于深度學(xué)習(xí)的水下圖像增強(qiáng)研究中,損失函數(shù)對(duì)圖像增強(qiáng)結(jié)果的影響也非常重要。經(jīng)過(guò)大量實(shí)驗(yàn)分析,我們使用公式(1)~(3)中的LALL作為損失函數(shù)。
其中:L1為平均絕對(duì)誤差(Mean Absolute Error,MAE),簡(jiǎn)稱L1損失。E(x)為輸出圖像,T(x)為參考圖像,N為圖像三通道像素總數(shù)。LSSIM為結(jié)構(gòu)相似性(Structural Similarity Index,SSIM)損失,簡(jiǎn)稱SSIM 損失,SSIM(x,y)表示圖像亮度、對(duì)比度和結(jié)構(gòu)組成的結(jié)構(gòu)相似度數(shù)值。
本實(shí)驗(yàn)采用UIEB[20]公開(kāi)數(shù)據(jù)集,此數(shù)據(jù)集共有890 張?jiān)妓聢D像以及相對(duì)應(yīng)的清晰參考圖像。此數(shù)據(jù)集包含豐富的水下場(chǎng)景,涵蓋大部分水下退化風(fēng)格,有利于驗(yàn)證本文結(jié)果的有效性。在模型訓(xùn)練中,我們將batchsize 設(shè)置為8,一共100 個(gè)epoch,圖像輸入和輸出大小均為256×256,學(xué)習(xí)率設(shè)置為0.000 1,最優(yōu)化下降方法使用Adam算法。
本文使用UIEB 公開(kāi)數(shù)據(jù)集進(jìn)行對(duì)比實(shí)驗(yàn)。為充分展示圖像增強(qiáng)效果,我們對(duì)增強(qiáng)后的圖像從主觀分析、客觀指標(biāo)分析和應(yīng)用分析3 個(gè)角度進(jìn)行實(shí)驗(yàn)分析。
3.2.1 主觀分析
UIEB 數(shù)據(jù)集為混合風(fēng)格的水下圖像數(shù)據(jù)集,包含海洋生物、水下設(shè)備、水下建筑和海底風(fēng)貌等風(fēng)格迥異的水下圖像。為驗(yàn)證所提算法框架的直觀增強(qiáng)效果,我們將本文方法與UDCP[21]、Deep-WaveNet[10]、CycleGAN[22]、CLAHE[23]、IBLA[24]和ICM[25]算法進(jìn)行比較。
圖6(a)~圖6(e)為5 組不同場(chǎng)景的原始水下圖像及增強(qiáng)結(jié)果,圖6(f)為圖6(d)中方框的局部放大圖。通過(guò)主觀分析可以看出,UDCP 算法對(duì)水下圖像具有一定程度的去霧效果,但難以解決水下圖像的色偏問(wèn)題。在UDCP 算法的增強(qiáng)結(jié)果中,圖6(a)~圖6(d)的增強(qiáng)結(jié)果有明顯的紅色色偏現(xiàn)象,由圖6(f)可以看出偏暗的區(qū)域細(xì)節(jié)信息丟失嚴(yán)重,但存在嚴(yán)重的紅色色偏現(xiàn)象。Deep-WaveNet 算法對(duì)水下圖像的去霧和糾正色偏均有一定的效果,但整體效果低于本文算法。在其增強(qiáng)結(jié)果中,圖6(a)和圖6(c)的背景色存在增強(qiáng)過(guò)度的現(xiàn)象,圖6(b)、圖6(d)和圖6(e)的亮度較低,由局部放大圖6(f)可以看出細(xì)節(jié)損失較大,霧化程度較高。CycleGAN 算法的增強(qiáng)結(jié)果存在模糊失真的現(xiàn)象。在其增強(qiáng)結(jié)果中,圖6(a)有嚴(yán)重的偽影,圖6(b)~圖6(d)的霧化程度較高,由圖6(f)可以看出細(xì)節(jié)信息丟失嚴(yán)重。CLAHE 算法去霧能力較差,由其增強(qiáng)結(jié)果可以看出,圖6(a)、圖6(b)和圖6(e)存在明顯的霧化現(xiàn)象,由局部放大圖6(f)也可以看出存在一定程度的模糊現(xiàn)象。IBLA 算法存在嚴(yán)重的色偏和亮度失衡現(xiàn)象,由其增強(qiáng)結(jié)果可以看出,圖6(a)和圖6(b)增強(qiáng)程度較小,圖6(c)~圖6(f)整體偏暗且均存在色偏問(wèn)題,由圖6(f)可以看出偏暗的區(qū)域細(xì)節(jié)信息丟失嚴(yán)重。ICM 算法去霧能力較差,由其增強(qiáng)結(jié)果可以看出,圖6(a)~圖6(e)均存在大量的霧化現(xiàn)象,由圖6(f)觀察可知圖像存在細(xì)節(jié)丟失現(xiàn)象。本文算法具有良好的去霧和糾正色偏能力,由增強(qiáng)結(jié)果可以看出,圖6(a)~圖6(d)的去霧效果最佳,且顏色最為均衡,沒(méi)有色偏現(xiàn)象,圖6(e)的前景對(duì)比度最高,顏色較為自然,由圖6(f)可以看出,本文算法能最大程度地保留了圖像的細(xì)節(jié)信息。
圖6 (a)~(e)不同場(chǎng)景的實(shí)驗(yàn)效果對(duì)比圖;(f)圖6(d)中方框的局部放大圖。Fig.6 (a)~(e) Comparison of experimental results of different scenes;(f) Partical enlarged drawing of Fig.6(d).
綜上所述,現(xiàn)有的水下圖像增強(qiáng)算法在去霧、糾正色偏和細(xì)節(jié)信息保留方面存在一定程度的缺點(diǎn)。相比之下,本文提出的算法最大程度地修正了水下圖像的色偏和霧化現(xiàn)象,結(jié)果圖具有真實(shí)的顏色特點(diǎn),并且較好地保留了圖像細(xì)節(jié)信息,具有良好的視覺(jué)效果。
3.2.2 客觀指標(biāo)分析
本文采用峰值信噪比( Peak Signal To Noise Ratio,PSNR)[26]、結(jié)構(gòu)相似度(Structural Similarity Index Measure,SSIM)[26]、視覺(jué)信息保真度(Visual Information Fidelity,VIF)[27]和水下圖像質(zhì)量估計(jì)(Underwater Image Quality Measure,UIQM)[28]4 種客觀評(píng)價(jià)指標(biāo)對(duì)增強(qiáng)結(jié)果的質(zhì)量進(jìn)行量化分析。
PSNR 指標(biāo)為圖像最大可能功率和影響它的表示精度的破壞性噪聲功率的比值,PSNR 值越大說(shuō)明圖像噪聲越小,保留有更多有價(jià)值的圖像信息。SSIM 指標(biāo)可以量化圖像的亮度、對(duì)比度和結(jié)構(gòu)保留度等方面的圖像質(zhì)量,SSIM 值越大說(shuō)明增強(qiáng)后的圖像亮度、對(duì)比度和結(jié)構(gòu)保留度越好。VIF 指標(biāo)通過(guò)量化增強(qiáng)后的圖像和標(biāo)注圖像之間共享的香農(nóng)信息,從而定量表示圖像的質(zhì)量,VIF 值越高表示圖像質(zhì)量越高。UIQM 指標(biāo)是一種基于人類視覺(jué)成像系統(tǒng)的無(wú)參考水下圖像質(zhì)量評(píng)價(jià)指標(biāo),UIQM 值越高說(shuō)明圖像的色彩平衡度、清晰度和對(duì)比度越高。以上4 種評(píng)價(jià)指標(biāo)的值越大,表示圖像的整體質(zhì)量越高。
由表1可以看出,本文所提算法在PSNR、SSIM、VIF 和UIQM 指標(biāo)上均遠(yuǎn)高于其余算法。與其他客觀指標(biāo)最高的算法相比,本文算法的PSNR指標(biāo)提高了6.9%,說(shuō)明本文算法去霧(噪聲)能力好于其他算法。本文算法的SSIM 指標(biāo)提高了8.0%,說(shuō)明本文算法增強(qiáng)后的圖像在亮度、對(duì)比度和結(jié)構(gòu)保留度等方面優(yōu)于其他算法。本文算法的VIF 指標(biāo)提高了8.5%,說(shuō)明本文算法增強(qiáng)后的圖像整體質(zhì)量高于其他算法。本文算法的UIQM 指標(biāo)提高了7.7%,說(shuō)明本文算法增強(qiáng)后的圖像在色彩平衡度、清晰度和對(duì)比度優(yōu)于其他算法,可以最有效地糾正水下圖像的色偏現(xiàn)象。結(jié)合主觀評(píng)價(jià)結(jié)果,本文算法的增強(qiáng)效果最為顯著,在去霧、糾正色偏和細(xì)節(jié)保留等方面具有最佳增強(qiáng)效果。綜合主客觀分析可以得知,本文算法增強(qiáng)后的圖像質(zhì)量最高。
表1 不同算法的客觀評(píng)價(jià)對(duì)比Tab.1 Comparison of objective evaluation of different algorithms
3.2.3 應(yīng)用分析
在水下機(jī)器人等水下設(shè)備中,圖像增強(qiáng)算法一般為其他視覺(jué)任務(wù)的前置算法,可以為后續(xù)的圖像處理提供高質(zhì)量的圖像輸入。
為進(jìn)一步驗(yàn)證本文算法和其他算法對(duì)其他視覺(jué)任務(wù)性能的提升效果,我們使用SIFT 特征點(diǎn)檢測(cè)和Canny 邊緣檢測(cè)算法對(duì)增強(qiáng)效果進(jìn)行對(duì)比分析。SIFT 特征點(diǎn)檢測(cè)是視覺(jué)處理中獲取圖像特征的一種常用方法,圖像特征越多代表圖像內(nèi)容信息越豐富。Canny 邊緣檢測(cè)是為了尋找圖像像素變化最劇烈的區(qū)域,檢測(cè)結(jié)果可以直觀地反映圖像所包含的結(jié)構(gòu)信息,越多的邊緣信息代表越豐富的細(xì)節(jié)信息。
如圖7 所示,其中(a)組圖像為原始水下圖像及各種算法的增強(qiáng)結(jié)果,(b)組圖像為SIFT 特征點(diǎn)檢測(cè)結(jié)果圖,(c)組圖像為Canny 邊緣檢測(cè)示意圖。通過(guò)觀察圖7(b)發(fā)現(xiàn),本文算法增強(qiáng)后的圖像在SIFT 特征點(diǎn)檢測(cè)中可以檢測(cè)到更多的特征點(diǎn)。在圓圈內(nèi),本文算法可以檢測(cè)到3 個(gè)特征點(diǎn),UDCP 和CycleGAN 算法可以檢測(cè)到2 個(gè)特征點(diǎn),CLAHE 算法和IBLA 算法可以檢測(cè)出1 個(gè)特征點(diǎn),原圖和DeepWaveNet 算法檢測(cè)出的特征點(diǎn)數(shù)為0。通過(guò)觀察圖7(c)發(fā)現(xiàn),本文算法增強(qiáng)后的圖像在Canny 邊緣檢測(cè)中可以檢測(cè)到豐富的輪廓,在圓圈內(nèi),本文算法可以檢測(cè)到最多的輪廓信息,UDCP 算法、Deep-WaveNet 算法和CLAHE 算法可以檢測(cè)到少量輪廓,其他算法檢測(cè)不到輪廓。
圖7 SIFT 特征點(diǎn)檢測(cè)與Canny 邊緣檢測(cè)效果對(duì)比圖。(a)原始水下圖像及各種算法的增強(qiáng)結(jié)果;(b) SIFT 特征點(diǎn)檢測(cè)結(jié)果;(c) Canny 邊緣檢測(cè)示意圖。Fig.7 Comparison of SIFT feature point detection and Canny edge detection effect.(a) Original underwater images and enhancement results of various algorithms;(b) SIFT feature point detection results;(c) Schematic diagrams of Canny edge detection.
為進(jìn)一步對(duì)上述觀察結(jié)果進(jìn)行量化,我們對(duì)特征點(diǎn)數(shù)和邊緣檢測(cè)結(jié)果圖的輪廓數(shù)進(jìn)行統(tǒng)計(jì)。如表2 所示,本文算法檢測(cè)出的特征點(diǎn)數(shù)和邊緣檢測(cè)圖輪廓數(shù)遠(yuǎn)高于原始圖像和其他算法,其中特征點(diǎn)數(shù)和其他算法相比提高了8.44%,邊緣檢測(cè)圖輪廓數(shù)和其他算法相比提高了11.43%。
表2 不同算法的對(duì)比Tab.2 Comparison of objective evaluation of different algorithms
由此分析可知,本文提出的算法可以檢測(cè)出更多的特征點(diǎn)和圖像邊緣信息。與其他算法相比,本文算法增強(qiáng)后的圖像可以最大程度地提高其他視覺(jué)任務(wù)性能,即圖像質(zhì)量高于其他算法。
為驗(yàn)證本文所提框架中每個(gè)模塊的有效性,我們對(duì)DM 模塊、UM 模塊、FEM 模塊和CBAM 注意力機(jī)制分別進(jìn)行了消融實(shí)驗(yàn)。在DM 模塊只保留最大池化下采樣方式進(jìn)行對(duì)比,在UM 模塊只保留轉(zhuǎn)置卷積上采樣方法進(jìn)行對(duì)比,在FEM 特征提取模塊的并行卷積部分只保留3×3 的卷積通道。此外,我們也對(duì)CBAM 注意力機(jī)制模塊進(jìn)行了消融實(shí)驗(yàn)。
消融結(jié)果如表3 所示,在PSNR 指標(biāo)中,DM模塊提升了27%,UM 模塊提升了11.4%,F(xiàn)EM模塊提升了33.0%,CBAM 模塊提升了7.6%,表明所有模塊均有去霧效果,其中FEM 模塊的去霧效果最為顯著;在SSIM 指標(biāo)中,DM 模塊提升了13.8%,UM 模塊提升了10.6%,F(xiàn)EM 模塊提升了26.6%,CBAM 模塊提升了8.51%,表明所有模塊對(duì)圖像亮度、對(duì)比度和結(jié)構(gòu)保留度均有明顯的質(zhì)量提升效果,其中FEM 模塊提升效果最顯著;在VIF 指標(biāo)中,DM 模塊提升了20.2%,UM 模塊提升了18.0%,F(xiàn)EM 模塊提升了20.2%,CBAM 模塊提升了7.87%,表明所有模塊對(duì)圖像整體質(zhì)量的提升均有明顯作用,其中DM 模塊和FEM 模塊的提升作用最顯著;在UIQM 指標(biāo)中,DM 模塊提升了17.86%,UM 模塊提升了11.90%,F(xiàn)EM 模塊提升了22.6%,CBAM 模塊提升了1.19%,表明所有模塊對(duì)圖像的色彩平衡度、清晰度和對(duì)比度均有提升,可以有效糾正圖像的色偏問(wèn)題,其中FEM 模塊的提升作用最顯著。
表3 消融實(shí)驗(yàn)的指標(biāo)對(duì)比Tab.3 Comparison of objective evaluation of ablation experiments
綜上所述,對(duì)4 個(gè)評(píng)價(jià)指標(biāo)的對(duì)比結(jié)果表明本文算法中的4 個(gè)模塊都可以有效提升圖像質(zhì)量,對(duì)整體網(wǎng)絡(luò)的去霧和糾正色偏能力均有較大的貢獻(xiàn)。
針對(duì)現(xiàn)有算法處理后的圖像存在色偏、對(duì)比度低、細(xì)節(jié)丟失嚴(yán)重和局部霧化等難以解決的問(wèn)題,本文采用多尺度特征提取的方式構(gòu)建了基于多尺度特征融合思想的DM 模塊、UM 模塊和FEM 模塊,并在此基礎(chǔ)上提出了一個(gè)水下圖像增強(qiáng)框架。為進(jìn)一步提高神經(jīng)網(wǎng)絡(luò)的魯棒性和對(duì)圖像的特征提取能力,我們?cè)诰W(wǎng)絡(luò)高維特征空間中添加了CBAM 注意力機(jī)制。結(jié)果表明,本文算法有效校正了水下圖像的色偏和霧化問(wèn)題。主觀分析、客觀指標(biāo)分析和應(yīng)用分析結(jié)果均說(shuō)明本文算法優(yōu)于其他算法。