金海波,馬琳琳,田桂源
遼寧工程技術大學 軟件學院,遼寧 葫蘆島 125105
霧、霾等復雜天氣不僅會降低景觀的能見度,還會影響圖像捕獲設備捕獲的自然場景的圖像質量[1],如色彩缺失、飽和度低、紋理細節(jié)模糊。嚴重影響計算機視覺的任務,導致目標檢測、圖像分類的準確性降低[2],因此,圖像去霧在計算機視覺任務中起著至關重要的作用。
圖像去霧方法主要分為三種,基于圖像增強的方法、基于先驗的方法和基于深度學習的方法?;谠鰪姷娜レF方法如Retinex 方法[3]、直方圖均衡化[4]和小波變換[5]等,這類不依賴大氣散射模型[6],通過增加對比度、飽和度提高圖像質量,但是此類方法去霧效果不佳,容易出現(xiàn)過飽和現(xiàn)象。基于先驗的去霧方法,通過估計傳輸圖與大氣光,再使用大氣散射模型推導出清晰圖像。例如使用暗通道先驗(dark channel prior,DCP)[7]方法評估傳輸圖,該方法假設無霧圖像中至少一個顏色通道低強度值接近于零。Meng 等[8]提出正則化方法去霧(BCCR),雖然該方法對傳輸圖有了新的約束,提升去霧速度。黃文君等[9]提出了一種低秩與字典表達分解的濃霧霾場景圖像去霧方法,該方法通過低秩與字典表達分解得出低秩的“霧”圖,結合雙三次插值將局部的“霧”推廣到全局,最后減去“霧”圖恢復出無霧清晰圖像,該方法仍存在失真,細節(jié)不清晰。這些基于先驗的方法在盡管在一定同程度上取得了成功,但是依賴透射圖和大氣光的估計,且容易出現(xiàn)失真等問題。
近年來深度學習技術快速發(fā)展,越來越多的研究人員探索使用卷積神經(jīng)網(wǎng)絡(convolutional neural network,CNN)進行圖像去霧。早期的圖像去霧方法側重于利用估計傳輸圖和大氣光恢復有霧圖像,如Li等[10]提出一種AOD-Net,該方法重新制定大氣散射模型,將透射圖和大氣光放到一個新的變量中,再恢復圖像。雖然這些基于CNN 的算法可以更準確地估計傳輸圖,但這些方法仍然需要準確估計大氣光與透射圖才能完美地恢復無霧圖像,本質上仍然依賴于大氣散射模型。為了解決傳輸圖和大氣光估計不準確問題,一些卷積神經(jīng)網(wǎng)絡方法不依賴透射圖和大氣光的估計,直接將有霧圖像恢復為清晰圖像。如Zheng 等[11]提出一種4K 分辨率圖像去霧的多引導雙邊學習框架(4K resolution image dehazing network,RIDN),快速處理高分辨率的有霧圖像。劉廣洲等[12]提出了一種端到端的密集連接擴張卷積神經(jīng)網(wǎng)絡,該網(wǎng)絡使用密集連接的擴張卷積,增強網(wǎng)絡對大尺度特征信息的聚合能力。Wang 等[13]提出DRHNet 去霧網(wǎng)絡,先得到負殘差圖,再用模糊圖像減去負殘差圖得到無霧圖像。這些方法雖然與之前的圖像去霧方法相比去霧效果有所提升,不過其中一些方法由于過多使用卷積操作,過度關注細節(jié)信息,反而忽略了全局信息,因此去霧效果并不理想。
近年來,一些研究將Transformer 應用到計算機視覺的不同任務中,例如圖像增強[14]、圖像分割[15]、目標檢測[16]、人體姿態(tài)估計[17]和圖像分類[18],Transformer不僅在這些任務取得很好的效果,還在單圖像去霧領域有所應用,如Li 等[19]設計兩階段單圖像去霧網(wǎng)絡,通過引入分層Transformer 改進編碼器,將Transformer 和CNN 進行有效結合,實現(xiàn)全局與局部特征提取。Gao等[20]在去霧網(wǎng)絡中設計一個基于Transformer 的通道空間注意模塊,并利用多尺度并行殘差網(wǎng)絡作為主干,提取不同尺度的特征信息,實現(xiàn)特征融合。Li等[21]提出了一種結合卷積神經(jīng)網(wǎng)絡和Vision Transformer 的混合去霧絡,該算法首先利用預處理模塊提取霧霾圖像的淺層特征,使用包括卷積神經(jīng)網(wǎng)絡和Vision Transformer結合的對稱網(wǎng)絡結構來分別捕獲霧霾圖像的局部特征和全局特征。Wang等[22]提出Uformer,可以降低高分辨率特征圖的計算復雜度,對圖像細節(jié)的恢復能力增強。Jiao 等[23]提出了一種基于分數(shù)導數(shù)和數(shù)據(jù)驅動正則化項的新型去霧網(wǎng)絡,為達到更好的去霧效果,該網(wǎng)絡引入基于卷積神經(jīng)網(wǎng)絡和Transformer結合的雙流網(wǎng)絡構建數(shù)據(jù)驅動的正則化。上述這些方法雖然解決了圖像細節(jié)的缺失問題,但是對圖像中霧濃度較高的地方去霧效果仍然不徹底。
為了克服這些困難,本文提出了一種基于自適應Transformer 的單圖像去霧網(wǎng)絡,該網(wǎng)絡框架采用U-net的編碼-解碼結構。首先利用編碼器對有霧圖像的局部特征進行提取,接著使用自適應Transformer 提取全局特征和不同尺度顆粒霧度特征,最后利用解碼器對圖像特征進行重建。具體的:
(1)為了更好地處理不同霧度圖像,本文提出自適應Transformer,在提取有霧圖像全局信息的同時,自適應提取圖像中不同霧濃度特征。
(2)在利用編碼器提取有霧圖像局部特征時,為避免細節(jié)丟失和關注重要的特征信息,提出了一種基于通道-空間注意力(channel-spatial,C-S)的跳躍連接。
(3)為了指導網(wǎng)絡模型更好地學習有霧圖像的邊緣細節(jié)信息,本文改進了損失函數(shù),在均方差損失中引入感知損失與邊緣損失。
U-Net[24]是圖像處理領域常見的網(wǎng)絡之一,可獲取多尺度的圖像特征,受此啟發(fā),本文采用了U-Net 這一被廣泛使用的編碼-解碼結構作為了模型的基本框架。如圖1 所示,模型由編碼器、自適應Transformer 塊與解碼器三部分組成。模型接收有霧圖像,經(jīng)過以上三個模塊,最終輸出去霧圖像。
圖1 自適應Transformer單圖像去霧網(wǎng)絡Fig.1 Adaptive Transformer single image dehazing network
編碼器由三個卷積層組成。其中卷積層的作用為對輸入的有霧圖像進行局部特征提取,得到如邊緣、紋理等的細節(jié)信息。卷積核大小均為4×4,卷積步長為2,輸入通道數(shù)為3,輸出通道數(shù)為192。設置輸入的有霧圖像為I,則編碼階段的卷積操作如下所示,其中,F(xiàn)i代表編碼階段的第i塊卷積壓縮后的特征圖。
自適應Transformer模塊是將Transformer中的前饋網(wǎng)絡用霧度特征提取網(wǎng)絡代替而產(chǎn)生的,可以在提取全局特征的基礎上,自適應提取不同尺度顆粒霧度特征。
考慮多卷積操作可能會丟失圖像細節(jié)信息,本文在編碼器與解碼器之間加入跳躍連接,對得到的特征偏差進行修正,不過僅跳躍連接不能關注有霧圖像的重要特征,為更加關注有霧圖像重要特征,加快信息流動,本文在編碼器與解碼器之間使用了本文所設計的基于通道-空間注意力(channel-spatial,C-S)的跳躍連接。
解碼器與編碼器的結構對稱,由三個反卷積層組成。反卷積層的作用用來恢復圖像細節(jié),重建圖像進而得到去霧圖像,卷積核大小為4×4,卷積的步長為2,輸入通道數(shù)為192,輸出通道數(shù)為3。解碼模塊的每次卷積操作表示如下:
其中,S為自適應Transformer處理塊提取結果,Ji表示解碼器中卷積恢復的特征圖。CS表示通過C-S跳躍連接,最終,J=J6,J為網(wǎng)絡模型輸出的去霧圖像。
為獲取圖像的全局特征,本文引入Transformer[25],由于傳統(tǒng)的Transformer 只關注全局信息,忽略細節(jié)信息,因此本文為提升圖像去霧效果,在Transformer基礎上,使用霧度特征提取網(wǎng)絡代替前饋網(wǎng)絡,提出自適應Transformer 塊,該塊在提取全局特征的同時,對霧度特征進行提取,有效提升Transformer 提取不同尺度特征的能力,通過這種能力可以提取不同濃度的霧,如對薄霧、濃霧。如圖2 所示,本文提出的自適應Transformer由多頭注意力、霧度特征提取網(wǎng)絡、兩個層歸一化構成。多頭注意力得到全局特征,霧度特征提取網(wǎng)絡獲取不同尺度的特征,兩個層歸一化防止出現(xiàn)收斂困難。本文自適應Transformer數(shù)量設置為2。
圖2 自適應Transformer塊Fig.2 Adaptive Transformer block
本文提出霧度特征提取網(wǎng)絡,該網(wǎng)絡在獲取多尺度信息的同時還可以根據(jù)輸入的霧度特征自適應調整其權重系數(shù),以更好地聚焦圖像的有霧區(qū)域,達到更好的去霧效果。霧度特征提取網(wǎng)絡結構如圖3所示,為使去霧模塊可以獲取更多尺度的霧度特征首先將特征輸入至三個不同大小的卷積核,輸出三個不同的特征圖,分別記為F1、F2、F3。三個卷積核的大小分別為3×3、5×5和7×7,然后對F1、F2、F3的特征圖進行融合:
圖3 霧度特征提取網(wǎng)絡結構Fig.3 Haze feature extraction network structure
再使用全局平均池化將通道方面的全局空間信息轉化為通道統(tǒng)計g∈FC。g的第C個元素通過在空間維度H×W上縮小F進行計算,如公式(4)所示:
接著通過一個卷積層對特征進行壓縮,壓縮特征為α、β和γ∈Fd×1,實現(xiàn)精確和自適應選擇的指導,并且不會破壞圖像的空間結構:
最后,使用空間注意力來自適應地選擇不同分支的重要信息:
其中,a、b和c分別表示F1、F2和F3的空間注意力分數(shù)。在得到a、b和c后,分別與F1、F2和F3相乘,最終輸出F′,其公式如式(7)所示:
借助該網(wǎng)絡本文去霧網(wǎng)絡可以快速、自適應地選擇和融合不同尺度霧度特征。
為了解決卷積操作會帶來圖像的細節(jié)信息丟失的問題。在編碼解碼結構中,編碼器與解碼器之間往往采用跳躍連接的方式對信息丟失進行修復。普通的跳躍連接不能關注重要像素特征,為此本文設計了一種C-S注意力跳躍連接,如圖4所示。
本文考慮通道和空間點兩個維度的信息,采取分級的方式,依次在特征圖的通道和空間上使用注意力機制,使模型自適應地學習通道和空間兩個維度上的重要信息。通道注意力主要關注通道特征中更有意義的部分,在通道注意力輸出后,再引入空間注意力模塊,關注空間中更有意義的特征。
本文設計的損失函數(shù)由三個部分組成,分別是均方差損失、感知損失、邊緣損失。損失函數(shù)能指導網(wǎng)絡模型學習有霧圖像與無霧圖像之間的差異,其中感知損失可以增強去霧圖像的清晰度,邊緣損失可以更好地恢復圖像的一些細節(jié)信息??倱p失是通過結合這三個損失函數(shù)來定義的,由下式給出:
其中,λ1、λ2為每個損失函數(shù)分別對應的權重參數(shù)。
(1)均方差損失
均方差損失(mean square error,MSE)應用最廣泛。由于MSE連續(xù)可導,因此在學習率固定時,可較快地達到收斂。本文選取均方差損失作為損失函數(shù),其公式為:
式中,D表示圖像的像素點數(shù)量,Ii表示本文模型輸出的去霧圖像中第i個像素點,Ji表示真實無霧圖像中第i個像素點。
(2)感知損失
為增強去霧圖像的清晰度,本文選擇感知損失(perceptual loss,per)作為損失函數(shù),該損失函數(shù)使用預訓練的VGG 16 作為損失網(wǎng)絡實現(xiàn)感知損失。其公式為:
其中,Cj、Hj和Wj分別為?j()的維度,?j(I)和?j(J)分別表示經(jīng)過去霧圖像對應的特征圖和清晰圖像對應的特征圖。
(3)邊緣損失
為了恢復更詳細的有霧圖像,本文選取邊緣損失(edge loss)作為損失函數(shù),該損失函數(shù)首先使用laplace算子的卷積運算Conv 獲得清晰圖像和去霧圖像的邊緣圖像。再用Tanh 激活函數(shù)將邊緣圖像的值映射到[0,1],其公式為:
本文選用RESIDE 數(shù)據(jù)集[26]中的戶外數(shù)據(jù)集(outdoor training sets,OTS)作為訓練數(shù)據(jù)、綜合客觀測試集(synthetic objective testing set,SOTS)作為測試數(shù)據(jù)。OTS由8 477張室外清晰圖像,296 695張有霧圖像組成,SOTS由500張室內模糊圖像和500張室外模糊圖像組成。此外,為了驗證本文方法在真實世界中的去霧效果,選取了30 張不同場景下的具有挑戰(zhàn)性的室外真實有霧圖像進行測試。本文采用峰值信噪比PSNR(peak signal to noise ratio)與結構相似性指數(shù)SSIM[27](structural similarity index)作為評價指標對實驗結果進行評價。
網(wǎng)絡訓練了30 個epoch。學習率為0.000 1,訓練和測試的批處理大小均設置為2。本文學習的框架為Pytorch,運行環(huán)境Python3.8.3,實驗均在配備Intel?Xeon?E5-2678 v3@2.50 GHz,CPU 為GeForce GTX 1080Ti 的服務器上進行,Cude 為11.1。在訓練時,將所有圖像的大小調整為480×640。對比算法訓練方式與本文相同。
2.3.1 合成有霧圖像對比實驗
表1顯示了對比方法DCP、BCCR、AOD-Net、RIDN和提出的基于自適應Transformer的單圖像去霧方法在SOTS測試集上的PSNR和SSIM分數(shù)。通過表1可以得出,傳統(tǒng)方法DCP和BCCR的PSNR分數(shù)低于20 dB,且SSIM 分數(shù)沒達到0.9。AOD-Net 方法和傳統(tǒng)方法相比提升很多,不過和本文方法有一些差距。本文方法和RIDN 方法相比PSNR 提升了0.49 dB,SSIM 提升了0.005 8,本文所提出方法的客觀指標遠高于傳統(tǒng)方法,略高于深度學習方法。
圖5展示了在SOTS數(shù)據(jù)集中五組室外圖像的去霧結果。從圖5可以觀察到DCP、和BCCR去霧后圖像變得明顯偏暗、失真且天空區(qū)域呈現(xiàn)出深藍色,不適合天空去霧,如圖5(b)、(c)中前四幅圖像的天空。AOD-Net由于不能準確地估計透射圖,導致去霧不完全,如圖5(d)中第三幅圖湖面的霧沒有去干凈。RIDN 中人物附近的濃霧沒有去干凈如圖5(e)第四幅圖所示。盡管AOD-Net 的去霧結果與DCP 和BCCR 相比去霧效果大大提升,減少了失真,但去霧結果中仍然存在一些霧度。RIDN 在霧濃的地方不如本文方法,如圖5(e)第三幅圖遠處的樹木部分霧濃,細節(jié)處理不佳,出現(xiàn)失真。相比于其他傳統(tǒng)和深度學習去霧方法,本文算法去霧效果要更好一些。
圖5 不同方法在SOTS數(shù)據(jù)集上的去霧驗結果Fig.5 Dehazing test results of different methods on SOTS dataset
為了進一步體現(xiàn)本文去霧方法的優(yōu)越性,將對比實驗與本文方法的去霧圖像進行局部放大對比。從圖5中選取兩組有霧圖像與去霧圖像進行局部放大對比,放大對比圖如圖6 所示。從放大圖中可以看出傳統(tǒng)算法失真嚴重,AOD與RIDN方法去霧后顏色和無霧圖像相比偏淺,霧濃的區(qū)域去霧不徹底,本文方法去霧結果恢復徹底,細節(jié)清晰。
圖6 局部放大示意圖Fig.6 Partially enlarged schematic diagram
2.3.2 不同霧濃度對比實驗
為了驗證不同方法在不同霧濃霧的去霧效果,本小節(jié)在測試集選取了SOTS 室外測試集中大氣光值A在0.8~1.0、大氣散射系數(shù)β選擇0.08、0.12、0.16 與0.20 四個等級的有霧圖像,β的等級在主觀視覺上可以等效看作霧氣的濃度,β值越高,霧濃度就越高。表2 顯示了對比方法DCP、BCCR、AOD-Net、RIDN 和提出的基于自適應Transformer 的單圖像去霧方法在不同濃度的PSNR 和SSIM 分數(shù)。表2 為不同方法對不同濃度合成有霧圖像去霧客觀指標值,從表中可以得出,傳統(tǒng)方法對不同濃度處的PSNR 與SSIM 值都很低,AOD-Net 在低濃度時處理相對較好,不過濃度越高,PSNR 與SSIM值會下降,RIDN在濃度低時,PSNR與SSIM值都很高,隨著濃度增加,會隨之降低。本文方法雖然在低濃度時PSNR 與SSIM 的值略低于RIDN,但是隨著霧度的增加,PSNR與SSIM的值高于RIDN,總體上看,本文方法結果領先于其他對比方法。
表2 不同濃度合成有霧圖像去霧客觀指標值Table 2 Synthesis of fogged images with different concentrations of objective index values for defogging
圖7展示了在SOTS數(shù)據(jù)集中四組不同濃度霧的室外圖像的去霧結果。可以看出由上至下,有霧圖像霧濃度不斷加深,其中第一幅圖像β為0.08、第二幅圖像β為0.12、第三幅圖像β為0.16、第四幅圖像β為0.20。從圖片中可以看出,傳統(tǒng)方法顏色失真非常嚴重,天空去霧效果不佳,如圖7(b)與(c)的天空。AOD-Net 去霧效果仍然有大量的霧氣殘留,如圖7(d)第一幅圖中的草坪和第四幅圖中遠處的樹木。RIDN在霧濃的地方不如本文方法,如圖7(e)第四幅圖遠處的樹部分仍有少量霧氣殘留,細節(jié)處理不好??傊?,霧濃度低的情況下,大多數(shù)去霧方法可以較好地去霧,霧濃度提升時,本文方法相比于其他傳統(tǒng)和深度學習去霧方法去霧效果更好一些。
圖7 不同濃度的霧圖像對比實驗結果Fig.7 Comparison of experimental results of fog images with different concentrations
為了進一步體現(xiàn)本文提出去霧方法的優(yōu)越性,從上述不同霧濃度圖像中選取兩組有霧圖像與去霧圖像進行局部放大對比,這兩組分別為霧濃度最高與最低,放大對比圖如圖8。從放大圖中可以看出,在低濃度霧情況下,深度學習方法去霧效果相對較好,傳統(tǒng)方法略微失真,本文方法去霧圖像和無霧圖像非常接近。在高濃度霧情況下,DCP 與BCCR 方法同樣出現(xiàn)顏色失真,AOD-Net與RIDN方法在樹木部分去霧有霧氣殘留,本文方法去霧徹底,細節(jié)清晰,接近無霧圖像。
圖8 局部放大示意圖Fig.8 Partially enlarged schematic diagram
2.3.3 真實有霧圖像對比實驗
為了進一步驗證所提方法的有效性,本文進一步將所提出的方法在真實有霧的圖像上與其他去霧方法進行對比實驗,實驗結果如圖9 所示。從圖片中可以看出,DCP 顏色失真非常嚴重,整體顏色偏暗,天空去霧效果不佳,如圖9(b)第一幅圖和第三幅圖,第一幅圖天空呈深藍色,山的顏色灰暗,看不出細節(jié)。第三幅圖片的天空區(qū)域出現(xiàn)灰色。圖9(b)第二幅女孩的臉部去霧后變?yōu)榱思t色,不能處理好不同濃度的霧霾圖像。BCCR 和DCP 相似,失真嚴重,整體顏色暗。AOD-Net去霧效果比DCP 和BCCR 效果要好很多,不過也存在失真,如圖9(d)第一幅圖中的山偏暗,看不出細節(jié)。RIDN 去霧效果和本文方法的去霧效果接近,不過在圖9(e)第三幅圖樹木部分的霧沒有除凈??傊啾扔谄渌麄鹘y(tǒng)和深度學習去霧方法,本文方法去霧效果要更好一些。
圖9 不同方法在真實有霧圖像對比實驗結果Fig.9 Comparison of experimental results of different methods on real foggy images
與合成圖像相似,本小節(jié)選取兩組真實有霧圖像與去霧圖像進行局部放大對比,放大對比圖如圖10。從放大圖中可以看出傳統(tǒng)算法仍然失真嚴重,AOD-Net 與RIDN 方法在第二幅圖中去霧后細節(jié)恢復不完善,本文方法去霧結果恢復徹底,細節(jié)恢復清晰。
圖10 局部放大示意圖Fig.10 Partially enlarged schematic diagram
為驗證自適應Transformer、C-S 注意力跳躍連接、損失函數(shù)的性能以及自適應Transformer塊數(shù)量等的影響。以下為消融實驗。在實驗中需要保持其余結構參數(shù)保持不變,依然在OTS 室外訓練集訓練,SOTS 測試集測試。
(1)增減各個重要環(huán)節(jié)為變量進行消融對比實驗,對比模型1,模型中其他部分保留,刪除自適應Transformer。對比模型2,模型中其他部分保留,跳躍連接改用普通的跳躍連接。對比模型3,模型中其他部分保留,在損失函數(shù)部分改用均方差損失。對比模型4,使用本文模型。表3 給出了對比模型與本文網(wǎng)絡模型對合成有霧圖像上的消融實驗結果。
表3 各個環(huán)節(jié)性能合成有霧圖像上的消融實驗結果Table 3 Experimental results of ablation on synthetic hazy images for each link performance
由表3 可知,本文模型測得的去霧圖像PSNR 和SSIM 均優(yōu)于對比模型,表明在去霧網(wǎng)絡中添加自適應Transformer、C-S 跳躍連接和改進損失函數(shù)可以增強網(wǎng)絡模型的去霧效果。
(2)使用Transformer 塊與自適應Transformer 塊為變量進行消融對比實驗。分別使用Transformer塊與自適應Transformer 塊。表4 給出了不同Transformer 模型在合成有霧圖像上的消融實驗結果。
表4 不同Transformer模型在合成有霧圖像上的消融實驗Table 4 Ablation experiments of different Transformer models on synthetic fogged images
由表4可知,自適應Transformer測得的去霧圖像PSNR和SSIM優(yōu)于Transformer,表明自適應Transformer可以增強去霧效果。
(3)增減跳躍連接上C-S注意力為變量進行消融實驗。分別設置普通跳躍連接和C-S 注意力跳躍連接。表5 給出了不同跳躍連接在合成有霧圖像上的消融實驗結果。
表5 不同跳躍連接在有霧圖像上的消融實驗Table 5 Ablation experiments with different jump connections on fogged images
如表5所示,添加C-S跳躍連接后性能增加,進而表明本文的跳躍連接與普通跳躍連接相比,本文的跳躍連接對有霧圖像的關鍵信息能夠更完整地保留,因此在網(wǎng)絡中添加C-S跳躍連接可以提高模型的去霧能力。
(4)增減自適應Transformer 塊為變量進行消融對比實驗。設置自適應Transformer數(shù)量為1、2、3、4。表6給出了不同自適應Transformer塊數(shù)量在合成有霧圖像上的消融實驗結果。
表6 自適應Transformer塊數(shù)量的消融實驗Table 6 Ablation experiment with adaptive Transformer block number
如表6所示,增加自適應Transformer的數(shù)量可以提高模型的性能,對應的模型參數(shù)數(shù)量也隨之增多,當自適應Transformer增加到2時,SSIM達到最大值,雖然繼續(xù)增加自適應Transformer 的數(shù)量PSNR 的數(shù)值還會略微升高但與之對應的模型參數(shù)量迅速增加。因此,為了保持網(wǎng)絡模型具有較好的去霧能力同時具有較小的模型復雜度,本文自適應Transformer塊的數(shù)量設置為2。
本文提出了一種基于自適應Transformer 的單幅圖像去霧方法,該方法不依賴大氣散射模型,可直接生成較為清晰的去霧圖像。本文設計自適應Transformer、霧度特征提取器、C-S 跳躍連接有效處理不同濃度的霧,細節(jié)處理較好,解決失真問題。從實驗可得出去霧性能和幾種對比去霧算法相比有所提升。下一步工作發(fā)展出一個可以應用于視頻去霧的模型。