摘" 要: 由于水下特殊的成像環(huán)境,水下圖像往往具有嚴(yán)重的色偏霧化等現(xiàn)象。因此文中根據(jù)水下光學(xué)成像模型設(shè)計了一種新的增強(qiáng)算法,即基于細(xì)節(jié)增強(qiáng)和多顏色空間學(xué)習(xí)的無監(jiān)督水下圖像增強(qiáng)算法(UUIE?DEMCSL)。該算法設(shè)計了一種基于多顏色空間的增強(qiáng)網(wǎng)絡(luò),將輸入轉(zhuǎn)換為多個顏色空間(HSV、RGB、LAB)進(jìn)行特征提取,并將提取到的特征融合,使得網(wǎng)絡(luò)能學(xué)習(xí)到更多的圖像特征信息,從而對輸入圖像進(jìn)行更為精確的增強(qiáng)。最后,UUIE?DEMCSL根據(jù)水下光學(xué)成像模型和聯(lián)合監(jiān)督學(xué)習(xí)框架進(jìn)行設(shè)計,使其更適合水下圖像增強(qiáng)任務(wù)的應(yīng)用場景。在不同數(shù)據(jù)集上大量的實(shí)驗(yàn)結(jié)果表明,文中提出的UUIE?DEMCSL算法能生成視覺質(zhì)量良好的水下增強(qiáng)圖像,且各項(xiàng)指標(biāo)具有顯著的優(yōu)勢。
關(guān)鍵詞: 水下圖像增強(qiáng); 多顏色空間學(xué)習(xí); 無監(jiān)督學(xué)習(xí); 細(xì)節(jié)增強(qiáng); 特征提??; 特征融合
中圖分類號: TN911.73?34; TP391.41" " " " " " " " 文獻(xiàn)標(biāo)識碼: A" " " " " " " " " 文章編號: 1004?373X(2025)01?0023?06
Joint supervised underwater image enhancement algorithm"based on detail enhancement and multi?color space learning
HU Rui1, 2, CHENG Jialiang2, HU Fuyuan2
(1. Information Construction and Management Center, Suzhou University of Science and Technology, Suzhou 215009, China;
2. School of Electronic and Information Engineering, Suzhou University of Science and Technology, Suzhou 215009, China)
Abstract: Due to the special underwater imaging environment, serious color offset and atomization usually occurs to underwater images. In view of this, on the basis of the underwater optical imaging model, this paper designs a new enhancement algorithm, named unsupervised underwater image enhancement algorithm based on detail enhancement and multi?color space learning (UUIE?DEMCSL). In this algorithm, an enhancement network based on multi?color space is designed. This network converts the input into multiple color spaces (HSV, RGB and LAB) for feature extraction. The extracted features are fused, so that the network can learn more image feature information and enhance the input image more accurately. The UUIE?DEMCSL is designed according to the underwater optical imaging model and the joint supervised learning framework, which is more suitable for the application scenarios of underwater image enhancement tasks. A large number of experimental results on different data sets show that the proposed UUIE?DEMCSL algorithm can generate underwater enhanced images with good visual quality, and each index of the algorithm has significant advantages.
Keywords: underwater image enhancement; multi?color space learning; unsupervised learning; detail enhancement; feature extraction; feature fusion
0" 引" 言
水下圖像是指通過水下攝影或潛水器等設(shè)備拍攝的海洋、湖泊等水域的景象。這些圖像通常呈現(xiàn)出清澈透明的水質(zhì),以及形態(tài)各異的水生動植物、巖石和珊瑚礁等景觀[1?2]。水下圖像可以用于科學(xué)研究、環(huán)境監(jiān)測、旅游宣傳等領(lǐng)域,也可以作為藝術(shù)作品展示。然而,由于水下特殊的成像環(huán)境,水下圖像往往具有嚴(yán)重的色偏、霧化等現(xiàn)象。水下圖像增強(qiáng)可以有效地提高水下圖像的可見度和對比度,從而更好地展示水下世界的美麗景象。因此,水下圖像增強(qiáng)是一項(xiàng)重要的視覺任務(wù),對水下作業(yè)、水下探測等任務(wù)存在重要意義。
目前,水下圖像增強(qiáng)可以分為三種方法:基于先驗(yàn)的方法、基于物理模型的方法以及深度學(xué)習(xí)驅(qū)動的方法?;谙闰?yàn)的方法直接對輸入圖像的像素值進(jìn)行處理,或者利用不同顏色空間的直方圖以提高圖像的對比度;而基于物理模型的方法可以根據(jù)水下光學(xué)成像模型,分解出輸入水下圖像的多個分量,進(jìn)而求解出清晰的增強(qiáng)結(jié)果;深度學(xué)習(xí)驅(qū)動的方法通過端到端的學(xué)習(xí),實(shí)現(xiàn)從水下降質(zhì)圖像到水下清晰圖像的映射,對水下圖像進(jìn)行增強(qiáng)。然而,基于先驗(yàn)的方法和基于物理模型的方法往往有部分區(qū)域存在過曝光或者顏色不均衡的問題,基于深度學(xué)習(xí)的方法則不能很好地學(xué)習(xí)圖像的紋理等細(xì)節(jié)特征[3]。
因此,本文提出了基于細(xì)節(jié)增強(qiáng)和多顏色空間學(xué)習(xí)的無監(jiān)督水下圖像增強(qiáng)算法(Unsupervised Underwater Image Enhancement Algorithm based on Detail Enhancement and Multi?color Space Learning, UUIE?DEMCSL)。首先,本文提出的UUIE?DEMCSL根據(jù)水下光學(xué)成像模型設(shè)計,降質(zhì)的水下圖像經(jīng)過結(jié)構(gòu)與細(xì)節(jié)分離模塊提取出細(xì)節(jié)分量和[A]分量,[T]分量提取模塊提取出[T]分量,而清晰的水下圖像([J]分量)經(jīng)多顏色空間特征提取模塊和多顏色空間特征融合模塊獲得;其次,本文算法設(shè)計了一種基于多顏色空間的增強(qiáng)網(wǎng)絡(luò),將輸入轉(zhuǎn)換為多個顏色空間(HSV、RGB、LAB)進(jìn)行特征提取,并將提取到的特征融合,使得網(wǎng)絡(luò)能學(xué)習(xí)到更多的圖像特征信息,對輸入圖像進(jìn)行更為精確的增強(qiáng);最后,UUIE?DEMCSL根據(jù)水下光學(xué)成像模型和聯(lián)合監(jiān)督學(xué)習(xí)框架進(jìn)行設(shè)計,更適合水下圖像增強(qiáng)任務(wù)的應(yīng)用場景。在不同數(shù)據(jù)集上大量的實(shí)驗(yàn)結(jié)果表明,本文提出的UUIE?DEMCSL算法能生成視覺質(zhì)量良好的水下增強(qiáng)圖像,且各項(xiàng)指標(biāo)具有顯著的優(yōu)勢[4]。
1" 相關(guān)工作
基于先驗(yàn)和物理模型的水下圖像增強(qiáng)算法是傳統(tǒng)的水下圖像增強(qiáng)算法[5?6]?;谙闰?yàn)的方法傾向于直接調(diào)整輸入圖像的像素值。文獻(xiàn)[7]設(shè)計了一種新的白平衡和融合模型,結(jié)合紅色通道先驗(yàn)和基于灰度世界假設(shè)的白平衡算法。文獻(xiàn)[8]通過直方圖先驗(yàn)進(jìn)行顏色校正,并將其與對比度增強(qiáng)相結(jié)合,進(jìn)一步對細(xì)節(jié)信息增強(qiáng)?;谖锢砟P偷姆椒ㄍǔJ峭ㄟ^求解成像模型來實(shí)現(xiàn),文獻(xiàn)[9]利用水下光學(xué)成像模型恢復(fù)水下圖像,并提出了一種適用于水下場景的暗通道先驗(yàn)?zāi)P停撍惴梢杂行У馗纳扑聢D像的霧化現(xiàn)象。文獻(xiàn)[10]使用超拉普拉斯反射先驗(yàn)作為修正變分模型對水下圖像進(jìn)行增強(qiáng),使得增強(qiáng)后的圖像更加明亮,視覺效果更好。
近年來,基于學(xué)習(xí)的水下圖像增強(qiáng)算法已成為主流,主要分為兩種類型:基于卷積神經(jīng)網(wǎng)絡(luò)(Convolu?tional Neural Network, CNN)的水下圖像增強(qiáng)算法和基于生成對抗網(wǎng)絡(luò)(Generative Adversarial Network, GAN)的水下圖像增強(qiáng)算法?;趯W(xué)習(xí)的方法[11?13]可以端到端地學(xué)習(xí)從退化的圖像到清除圖像的映射,而不需要先驗(yàn)或物理模型。UWCNN[14]是第一個深度學(xué)習(xí)驅(qū)動的模型,但由于其基于合成數(shù)據(jù)集進(jìn)行訓(xùn)練,合成數(shù)據(jù)集與真實(shí)數(shù)據(jù)集差異很大,在測試真實(shí)水下圖像時其結(jié)果顯示出嚴(yán)重的顏色失真。文獻(xiàn)[15]通過深度神經(jīng)網(wǎng)絡(luò)融合了傳統(tǒng)算法的三種增強(qiáng)結(jié)果(即白平衡、伽馬校正和直方圖均衡),獲得了良好的視覺質(zhì)量。他們還提出了Ucolor,該網(wǎng)絡(luò)利用不同的顏色空間進(jìn)行協(xié)作增強(qiáng),同樣獲得了不錯的增強(qiáng)結(jié)果[16]。FUnIE?GAN基于條件生成對抗網(wǎng)絡(luò)(Conditional Generative Adversarial Network, CGAN),并通過損失函數(shù)考慮全局相似性和內(nèi)容一致性對水下圖像進(jìn)行增強(qiáng),增強(qiáng)后的結(jié)果更符合人類的視覺感知[17]。
2" 基礎(chǔ)理論
由于水下圖像具有嚴(yán)重的色偏和霧化現(xiàn)象,本文提出了基于細(xì)節(jié)增強(qiáng)和多顏色空間學(xué)習(xí)的無監(jiān)督水下圖像增強(qiáng)算法(UUIE?DEMCSL)。它通過水下深度網(wǎng)絡(luò)估計水下光學(xué)成像模型的各個分量來進(jìn)行水下圖像增強(qiáng),具體的網(wǎng)絡(luò)結(jié)構(gòu)如圖1所示。
2.1" [A]分量估計
本節(jié)將介紹水下光學(xué)成像模型以及[A]分量估計。首先,根據(jù)水下光學(xué)成像模型,降質(zhì)的水下圖像可以表示為:
[Iλ(x)=Jλ(x)Tλ(x)+Aλ(x)(1-Tλ(x))," "λ∈{R,G,B}]" (1)
式中:[Iλ(x)]是輸入的水下降質(zhì)圖像;[Tλ(x)]是透射圖;[Aλ(x)]代表背景光;[Jλ(x)]是求解可得到的水下清晰圖像。
通過對輸入進(jìn)行高斯模糊,可以獲得水下降質(zhì)圖像的大部分結(jié)構(gòu)信息,進(jìn)而可以從結(jié)構(gòu)信息中分解得到背景光。
[Aλ(x)=B(Iλ(x))," " λ∈{R,G,B}] (2)
式中[B(?)]代表高斯模糊操作。
2.2" [T]分量估計
為了得到水下光學(xué)成像模型中的[T]分量,本文設(shè)計了T?Net來生成透射圖[T],其具體結(jié)構(gòu)如下:
[Tλ(x)=EiTIλ(x)," " λ∈{R,G,B}] (3)
式中[EiT]代表估計[T]分量的網(wǎng)絡(luò)T?Net,[i]代表T?Net各層。以第一層為例,具體操作如下:
[E1T(x)=σ(C(Iλ(x)))] (4)
式中:[σ]是線性激活函數(shù)(ReLU);[C]是卷積核尺寸為3×3的卷積。
2.3" [J]分量估計
受到Li等人利用多色彩空間進(jìn)行水下圖像增強(qiáng)的啟發(fā),本文設(shè)計了基于多色彩空間的[J]分量估計網(wǎng)絡(luò)。如圖1所示,其具體結(jié)構(gòu)由多顏色空間提取模塊和多顏色空間特征融合模塊兩個部分構(gòu)成。
為了能夠?qū)W習(xí)到水下圖像在不同色彩空間的特征表示,本文設(shè)計了多顏色空間提取模塊,通過在不同色彩空間進(jìn)行特征信息提取來獲得更加完整的水下圖像色彩表示。
[fHSV(x)=FHSVIHSV(x)fLAB(x)=FLABILAB(x)fRGB(x)=FRGBIRGB(x)] (5)
式中:[fHSV(x)]、[fLAB(x)]和[fRGB(x)]是提取到的色彩特征;[IHSV(x)]、[ILAB(x)]和[IRGB(x)]分別是HSV、LAB和RGB色彩空間下的水下降質(zhì)圖像;[FHSV]、[FLAB]和[FRGB]代表三種色彩空間的特征提取網(wǎng)絡(luò)。本文選用ResNet作為特征提取網(wǎng)絡(luò)。
為了能夠充分利用三種色彩空間的優(yōu)勢,本文提出了多顏色空間融合模塊,該模塊可以自適應(yīng)地學(xué)習(xí)三種色彩空間各自的優(yōu)良特征,并將這些特征融合。
[F(x)=wRGB*fRGB(x)+wLAB*fLAB(x)+wHSV*fHSV(x)] (6)
式中:[wRGB]、[wLAB]和[wHSV]分別是RGB、LAB和HSV色彩空間的權(quán)重,[wRGB]+[wLAB]+[wHSV]=1。
2.4" 損失函數(shù)
現(xiàn)有的基于深度學(xué)習(xí)的水下圖像增強(qiáng)算法大致可以分為監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩種學(xué)習(xí)方式。其中:監(jiān)督學(xué)習(xí)的方式可以端到端地學(xué)習(xí)從低質(zhì)量圖像到清晰圖像的映射;而無監(jiān)督學(xué)習(xí)的方式根據(jù)已有的圖像先驗(yàn)和水下光學(xué)成像模型來恢復(fù)圖像。為了綜合兩種學(xué)習(xí)方式的優(yōu)點(diǎn),本文提出了一種聯(lián)合監(jiān)督的學(xué)習(xí)方式。
1) 監(jiān)督損失
本文選用[L1]和VGG損失作為監(jiān)督損失。[L1]損失可以減少像素值間的差異,而VGG損失可以拉近生成圖像和真值圖像在高維特征空間上的距離。
[Ls(x,y)=L1(x,y)+0.1×LVGG(x,y)] (7)
式中:[x]是經(jīng)網(wǎng)絡(luò)增強(qiáng)后的水下圖像;[y]是真值圖像。
2) 無監(jiān)督損失
本文選用色彩損失和重建損失作為無監(jiān)督損失,以進(jìn)一步減少重建圖像的細(xì)節(jié)損失。
[Lu(x,z)=L1x*T+A*(1-T), z] (8)
式中:[x]是經(jīng)網(wǎng)絡(luò)增強(qiáng)后的水下圖像;[z]為輸入退化圖像;[T]為透射圖;[A]為背景光。
3) 總損失
總損失為有監(jiān)督損失和無監(jiān)督損失的線性疊加:
[Lau=λ1Ls+λ2Lu] (9)
式中:[λ1]設(shè)置為0.75;[λ2]為0.25。
3" 實(shí)驗(yàn)結(jié)果
本文使用PyTorch庫構(gòu)建UUIE?DEMCSL算法。本文提出的算法使用AdamW作為優(yōu)化器,并通過180個批次來完成網(wǎng)絡(luò)的擬合。初始學(xué)習(xí)率設(shè)定為0.000 1,每30個批次下降50%。網(wǎng)絡(luò)學(xué)習(xí)的過程中,設(shè)置Batchsize為4。所有訓(xùn)練中的圖像都被裁剪為[256×256]的尺寸,并歸一化至[0,1]。
本文使用UIEB數(shù)據(jù)集和SQUID數(shù)據(jù)集進(jìn)行實(shí)驗(yàn)。UIEB數(shù)據(jù)集和SQUID數(shù)據(jù)集是兩個廣泛使用的水下圖像增強(qiáng)基準(zhǔn)數(shù)據(jù)集。首先,由于UIEB數(shù)據(jù)集的數(shù)量較少不滿足訓(xùn)練需求,本文對UIEB數(shù)據(jù)集做數(shù)據(jù)增廣。通過對數(shù)據(jù)集中的圖像做水平和垂直翻轉(zhuǎn)以及旋轉(zhuǎn)90°、180°和270°完成數(shù)據(jù)增廣。本文使用增廣后的12 680對圖像作為訓(xùn)練集,并選擇剩余圖像中的80對圖像作為測試集。對于SQUID數(shù)據(jù)集,本文也選擇其中的80對圖像作為交叉測試集。
對于全參考圖像質(zhì)量評價,本文使用PSNR和SSIM兩種指標(biāo)。其中,PSNR代表圖像信息量與噪聲量的比值,PSNR越高,圖像噪聲越少,與真值圖像更接近。而SSIM代表生成圖像與真值圖像的結(jié)構(gòu)相似度,其值越高,圖像越清晰,色彩與紋理更好。對于無參考圖像質(zhì)量評價,本文選用UIQM和UCIQE兩種常用的水下圖像質(zhì)量評價指標(biāo)進(jìn)行測評。UCIQE指標(biāo)通過CIELab色彩空間進(jìn)行測定,它可以評估水下圖像的色彩失真、霧化等降質(zhì)現(xiàn)象的程度;而UIQM指標(biāo)通過HSV顏色模型進(jìn)行評價,并考慮了顏色、銳度以及對比度三種屬性。UCIQE和UIQM值越高,代表水下圖像視覺質(zhì)量越好。
為了驗(yàn)證本文提出算法的有效性,選擇16種水下圖像增強(qiáng)算法作為對比。其中,包括6種傳統(tǒng)算法:GDCP、HLRP、NUDCP、ACDC、ERH和Fusion算法,以及10種基于深度學(xué)習(xí)的方法:UWCNN、URSCT、L2UWE、FUnIE?GAN、LCNet、CLUIE?Net、TOPAL、Water?Net、UICoE?Net和Ucolor算法。
3.1" 主觀評價與分析
本文提出的方法在UIEB?80和SQUID?80測試集的增強(qiáng)結(jié)果視覺質(zhì)量對比分別如圖2和圖3所示。
首先,傳統(tǒng)的水下圖像增強(qiáng)算法可以改善顏色退化,并且增強(qiáng)結(jié)果沒有明顯的綠色或藍(lán)色色偏。然而,這些處理后的圖像往往有嚴(yán)重的噪聲,而且色彩較為單一。與陸地上拍攝的無降質(zhì)圖像相比,色調(diào)偏黑白化。GDCP和NUDCP算法在亮度方面有了一些改進(jìn),但它們往往會產(chǎn)生不均勻的霧化現(xiàn)象和顏色失真;ACDC算法產(chǎn)生灰白色圖像,視覺效果較差;HLRP算法傾向于過度曝光圖像,而ERH和Fusion算法會產(chǎn)生更暗的結(jié)果。在基于學(xué)習(xí)的方法方面,大多數(shù)方法表現(xiàn)出更好的顏色和處理良好的細(xì)節(jié)。然而,他們的研究結(jié)果仍然有一些局限性。URSCT和L2UWE很難處理嚴(yán)重的彩色失真;FUnIE?GAN和LCNet增強(qiáng)后的圖像引入了紅色偽影,并且LCNet的大部分處理結(jié)果顯示出嚴(yán)重的紅色色偏;CLUIE?Net、TOPAL和UICoE?Net在某些結(jié)果中仍然表現(xiàn)出一些顏色退化。相比之下,本文提出的UUIE?DEMCSL算法在UIEB?80和SQUID?80測試集上取得了良好的結(jié)果,本文提出的算法可以有效地解決色彩失真、霧化等問題,并且增強(qiáng)后的圖像有極佳的視覺效果。
3.2" 客觀評價與分析
本節(jié)將定量地比較本文提出的方法和State?of?The?Art(SOTA)方法。表1使用4個指標(biāo):PSNR、SSIM、UCIQE以及UIQM來評估UIEB?80數(shù)據(jù)集中的增強(qiáng)結(jié)果。在表1中,本文提出的方法在PSNR、SSIM和UCIQE指標(biāo)方面具有優(yōu)勢。此外,表2顯示了在SQUID?80數(shù)據(jù)集上測試的一些優(yōu)秀算法,該測試更加全面和具體。在表2中,本文算法的度量指標(biāo)均大幅度超過了其他算法。以上結(jié)果表明,本文提出的UUIE?DEMCSL方法在PSNR、SSIM、UCIQE和UIQM指標(biāo)方面比最優(yōu)秀的算法仍然具有顯著的優(yōu)勢??偟膩碚f,本文提出的算法在測試的UIEB?80和SQUID?80數(shù)據(jù)集上都表現(xiàn)良好,增強(qiáng)后的水下圖像在主觀測試和客觀評價中都有較好的結(jié)果。
4" 結(jié)" 語
水下圖像增強(qiáng)是計算機(jī)視覺領(lǐng)域的一個重要研究方向,由于水下環(huán)境的復(fù)雜性,水下圖像往往存在嚴(yán)重的色偏、霧化等問題,這對圖像的識別和理解帶來了很大的困難。因此,設(shè)計一種有效的水下圖像增強(qiáng)算法具有重要的實(shí)際意義。本文提出UUIE?DEMCSL算法。首先,將輸入圖像轉(zhuǎn)換為多個顏色空間(如HSV、RGB、LAB);然后,在每個顏色空間中進(jìn)行特征提取,并將提取到的特征融合,使得網(wǎng)絡(luò)能學(xué)習(xí)到更多的圖像特征信息。這種方法可以有效地提高圖像的對比度,減少色偏和霧化現(xiàn)象,從而提高圖像的視覺質(zhì)量。此外,UUIE?DEMCSL算法還采用了聯(lián)合監(jiān)督學(xué)習(xí)框架,根據(jù)水下光學(xué)成像模型進(jìn)行設(shè)計,這使得該算法更適合水下圖像增強(qiáng)任務(wù)的應(yīng)用場景。
實(shí)驗(yàn)結(jié)果表明,UUIE?DEMCSL算法在各種數(shù)據(jù)集上都能生成視覺質(zhì)量良好的水下增強(qiáng)圖像,且各項(xiàng)指標(biāo)具有顯著的優(yōu)勢。這證明了該算法的有效性和優(yōu)越性。
注:本文通訊作者為胡銳。
參考文獻(xiàn)
[1] HUIZENGA C, ABBASZADEH S, ZAGREUS L, et al. Air quality and thermal comfort in office buildings: Results of a large indoor environmental quality survey [J]. Proceedings of healthy buildings 2006, 2006, 3: 393?397.
[2] ARIF M, KATAFYGIOTOU M, MAZROEI A, et al. Impact of indoor environmental quality on occupant well?being and comfort: A review of the literature [J]. International journal of sustainable built environment, 2016, 5(1): 1?11.
[3] FRONTCZAK M, WARGOCKI P. Literature survey on how different factors influence human comfort in indoor environments [J]. Building and environment, 2011, 46(4): 922?937.
[4] 百度百科.熱舒適度[EB/OL].[2022?07?11].https://baike.baidu.com/item/熱舒適度/15703491.
[5] GOTO T, TOFTUM J, DE DEAR R, et al. Thermal sensation and comfort with transient metabolic rates [J]. Indoor air, 2002, 1: 1038?1043.
[6] KARJALAINEN S. Gender differences in thermal comfort and use of thermostats in everyday thermal environments [J]. Building and environment, 2007, 42(4): 1594?1603.
[7] ANCUTI C O, ANCUTI C. Single image dehazing by multi?scale fusion [J]. IEEE transactions on image processing, 2013, 22(8): 3271?3282.
[8] ZHUANG P X, WU J M, PORIKLI F, et al. Underwater image enhancement with hyper?Laplacian reflectance priors [J]. IEEE transactions on circuits and systems for video technology, 2022, 33: 5442?5455.
[9] ZHANG S, LI D L, ZHAO R, et al. PDCFNet: Enhancing underwater images through pixel difference convolution and cross?level feature fusion [EB/OL]. [2024?09?28]. https://arxiv.org/pdf/2409.19269.
[10] MINHAS T, HASSAN F, IRSHAD R, et al. Underwater image enhancement using hyper?Laplacian reflectance priors and CNN?based classification [J]. Journal of imaging, 2023, 46(1): 14.
[11] PAN J Y, DUAN Z Y, DUAN J H, et al. LUIE: Learnable physical model?guided underwater image enhancement with bi?directional unsupervised domain adaptation [J]. Neurocomputing, 2024, 602: 128286.
[12] SU J W, XU B Y, YIN H J. A survey of deep learning approaches to image restoration [J]. Neurocomputing, 2022, 487: 46?65.
[13] NIU W J, ZHANG K H, LUO W H, et al. Deep robust image deblurring via blur distilling and information comparison in latent space [J]. Neurocomputing, 2021, 466: 69?79.
[14] LI C Y, ANWAR S, PORIKLI F. Underwater scene prior inspired deep underwater image and video enhancement [J]. Pattern recognition: The journal of the pattern recognition society, 2020, 98: 107038.
[15] LI C Y, GUO J C, PORIKLI F, et al. LightenNet: A convolutional neural network for weakly illuminated image enhancement [J]. Pattern recognition letters, 2018, 104: 15?22.
[16] JAZIZADEH F, MARIN F M, BECERIK?GERBER B. A thermal preference scale for personalized comfort profile identification via participatory sensing [J]. Building and environment, 2013, 68: 140?149.
[17] JAZIZADEH F, GHAHRAMANI A, BECERIK?GERBER B, et al. Human?building interaction framework for personalized thermal comfort?driven systems in office buildings [J]. Journal of computing in civil engineering, 2014, 28(1): 2?16.
[18] LIANG J, DU R X. Thermal comfort control based on neural network for HVAC application [C]// Proceedings of 2005 IEEE Conference on Control Applications. New York: IEEE, 2005: 819?824.
[19] FELDMEIER M C, PARADISO J A. Personalized HVAC control system [C]// Proceedings of Internet of Things (IoT). New York: IEEE, 2010: 1?8.
[20] YAO Y, LIAN Z W, LIU W W, et al. Experimental study on skin temperature and thermal comfort of the human body in a recumbent posture under uniform thermal environments [J]. Indoor and built environment, 2007, 16(6): 505?518.
[21] CHOI J H, LOFTNESS V. Investigation of human body skin temperatures as a bio?signal to indicate overall thermal sensations [J]. Building and environment, 2012, 58: 258?269.
基金項(xiàng)目:國家自然科學(xué)基金資助項(xiàng)目(61472267)
作者簡介:胡" 銳(1986—),男,安徽六安人,碩士研究生,高級工程師,碩士生導(dǎo)師,研究方向?yàn)槿斯ぶ悄堋?/p>
程家亮(2001—),男,江西撫州人,碩士研究生,研究方向?yàn)槿斯ぶ悄?、計算機(jī)網(wǎng)絡(luò)。
胡伏原(1978—),男,湖南岳陽人,博士研究生,教授,碩士生導(dǎo)師,研究方向?yàn)槿斯ぶ悄堋D像處理。