熊承義,李世宇,高志榮,金鑫
(1 中南民族大學(xué) 電子信息工程學(xué)院,武漢430074; 2中南民族大學(xué) 計(jì)算機(jī)科學(xué)學(xué)院,武漢 430074)
壓縮感知理論[1]證明了:如果信號(hào)在某個(gè)域具有稀疏性,則可以由遠(yuǎn)少于奈奎斯特采樣定理要求的測(cè)量值以很高的概率準(zhǔn)確地重構(gòu)該信號(hào).壓縮感知理論是一種新的信號(hào)采樣理論,是對(duì)傳統(tǒng)奈奎斯特信號(hào)采樣理論的補(bǔ)充.壓縮感知理論的提出為實(shí)現(xiàn)信號(hào)采樣與壓縮的同時(shí)完成提供了可能,也為稀疏信號(hào)的獲取、處理等帶來(lái)了新的選擇.目前,壓縮感知理論已得到廣泛應(yīng)用,如單像素成像、核磁共振成像、信號(hào)處理、通信與模式識(shí)別等領(lǐng)域[2-4].
壓縮感知重構(gòu)是壓縮感知理論的核心問(wèn)題之一,其目的在于根據(jù)壓縮采樣值準(zhǔn)確恢復(fù)被采樣的原始信號(hào).壓縮采樣過(guò)程的數(shù)學(xué)描述可表示為y=Φx,其中x∈N是原始信號(hào),y∈M為壓縮感知測(cè)量值,Φ∈M×N稱(chēng)為測(cè)量矩陣.由于測(cè)量值維數(shù)M一般遠(yuǎn)小于原始信號(hào)維數(shù)N(M/N定義為采樣率),因此,壓縮感知重構(gòu)是一個(gè)典型的病態(tài)逆問(wèn)題.已知信號(hào)測(cè)量值y,傳統(tǒng)壓縮感知重構(gòu)x的方法通常利用信號(hào)的稀疏性先驗(yàn),通過(guò)求解式(1)的規(guī)則化優(yōu)化模型實(shí)現(xiàn):
(1)
其中ψ為稀疏變換矩陣,‖·‖p表示求lp范數(shù)(p∈[0,1]).式(1)中第一項(xiàng)稱(chēng)為保真項(xiàng),第二項(xiàng)稱(chēng)為規(guī)則化項(xiàng);λ為規(guī)則化參數(shù),折衷重構(gòu)誤差與稀疏性.
由于圖像信號(hào)一般具有非平穩(wěn)的特性,因此利用圖像的局部鄰域相似,基于傳統(tǒng)固定基(如離散余弦變換[5]、小波變換[6]、梯度變換[7]等)的稀疏表示規(guī)則化求解通常難以得到滿意的重構(gòu)圖像質(zhì)量,尋找高效稀疏表示方法成為上述優(yōu)化求逆問(wèn)題的關(guān)鍵.近年來(lái),許多研究者鑒于圖像信號(hào)普遍具有的非局部相似性,提出了圖像結(jié)構(gòu)組稀疏表示、低秩表示方法及其規(guī)則化重構(gòu)模型[8-10],得到了更滿意的重構(gòu)性能.
雖然經(jīng)過(guò)十多年的發(fā)展,基于上述優(yōu)化模型的圖像壓縮感知重構(gòu)已經(jīng)取得了一些令人滿意的結(jié)果,但是這種優(yōu)化模型的求解過(guò)程往往包含大量的迭代運(yùn)算,因此表現(xiàn)出具有很高的計(jì)算復(fù)雜度,難以滿足許多實(shí)際應(yīng)用的需要.此外,模型中的規(guī)則化先驗(yàn)(即稀疏表示)以及優(yōu)化參數(shù)(如規(guī)則化參數(shù)λ等)的選取都是人工完成,具有很大的挑戰(zhàn)性.
近年來(lái),隨著深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域取得成功應(yīng)用,基于深度學(xué)習(xí)的圖像壓縮感知重構(gòu)方法研究引起了廣泛關(guān)注[11-13].深度學(xué)習(xí)的主要特點(diǎn)在于通過(guò)構(gòu)建一個(gè)多層網(wǎng)絡(luò),并通過(guò)大量的數(shù)據(jù)樣本訓(xùn)練網(wǎng)絡(luò)參數(shù),完成訓(xùn)練的網(wǎng)絡(luò)根據(jù)輸入可快速得到相應(yīng)任務(wù)的輸出.因此,與基于傳統(tǒng)優(yōu)化模型通過(guò)迭代實(shí)現(xiàn)的方法比較,基于深度學(xué)習(xí)的方法大大降低了圖像壓縮感知重構(gòu)的時(shí)間復(fù)雜度.然而,基于傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)猶如一個(gè)“黑盒子”,該類(lèi)方法不能有效利用圖像信號(hào)的已知先驗(yàn)信息,因此限制了其性能的進(jìn)一步提升.
鑒于基于深度神經(jīng)網(wǎng)絡(luò)的方法具有時(shí)間復(fù)雜度低的優(yōu)勢(shì),但是缺乏可解釋以及不能很好利用圖像先驗(yàn)信息的不足,目前,研究者們進(jìn)一步提出了基于深度展開(kāi)的方法[14-17].深度展開(kāi)的基本框架即是展開(kāi)傳統(tǒng)優(yōu)化模型的迭代實(shí)現(xiàn)過(guò)程,將每一次迭代運(yùn)算映射為對(duì)應(yīng)的網(wǎng)絡(luò)層,原有算法的有限次迭代運(yùn)算映射為相應(yīng)的多層網(wǎng)絡(luò),原有算法中需要人工設(shè)計(jì)的稀疏變換和優(yōu)化參數(shù)通過(guò)數(shù)據(jù)樣本訓(xùn)練確定[14].比如, MARK等人基于近似消息傳遞(AMP)算法提出了求解線行逆問(wèn)題的學(xué)習(xí)AMP(LAMP)網(wǎng)絡(luò)[15];YANG等人基于交替方向乘子法(ADMM)提出了磁共振圖像壓縮感知重構(gòu)的ADMM-net網(wǎng)絡(luò)[16];ZHANG等人基于傳統(tǒng)迭代收縮閾值算法(ISTA)提出了自然圖像壓縮感知重構(gòu)的ISTA-net網(wǎng)絡(luò)[17].通過(guò)分析可以發(fā)現(xiàn):雖然YANG等人提出的ADMM-net與ZHANG等人提出的ISTA-net所基于的優(yōu)化模型不同,但是他們卻都表現(xiàn)了整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)本質(zhì)上主要由重構(gòu)層和去噪層交替多級(jí)級(jí)聯(lián)而成;每一重構(gòu)層生成圖像的近似估計(jì),而去噪層實(shí)現(xiàn)對(duì)圖像近似估計(jì)中包含的噪聲成分濾除.
基于深度學(xué)習(xí)理論,在一定程度上增加網(wǎng)絡(luò)的深度,其系統(tǒng)的性能能夠得到改善.然而,深度網(wǎng)絡(luò)隨著網(wǎng)絡(luò)層數(shù)的增加,系統(tǒng)復(fù)雜度變得越來(lái)越高,網(wǎng)絡(luò)訓(xùn)練也將變得更加困難.為了實(shí)現(xiàn)基于深度網(wǎng)絡(luò)的圖像壓縮感知高質(zhì)量高速重構(gòu),提出了一種模型展開(kāi)優(yōu)化與深度殘差去噪.兩級(jí)級(jí)聯(lián)的深度網(wǎng)絡(luò)結(jié)構(gòu).兩級(jí)結(jié)構(gòu)獨(dú)立訓(xùn)練,降低了網(wǎng)絡(luò)訓(xùn)練的難度.第一級(jí)的基于模型展開(kāi)的深度網(wǎng)絡(luò)根據(jù)輸入的壓縮測(cè)量值得到初始的重構(gòu)圖像,第二級(jí)的深度殘差網(wǎng)絡(luò)對(duì)初始重構(gòu)圖像進(jìn)行去噪處理,最終有效提高重構(gòu)質(zhì)量.具體的將ADMM-Net與ResNet級(jí)聯(lián)實(shí)現(xiàn)對(duì)磁共振圖像(MRI)重構(gòu),與ADMM-Net算法相比,本文方法可提高平均峰值信噪比約0.5-0.8dB.將ISTA-Net+與ResNet級(jí)聯(lián)實(shí)現(xiàn)對(duì)自然圖像重構(gòu),在較低采樣率下與ISTA-Net+算法相比,本文方法可提高平均峰值信噪比約0.6dB.
當(dāng)前壓縮感知重構(gòu)方法總體可以分為兩類(lèi):一是傳統(tǒng)的基于優(yōu)化理論發(fā)展的基于模型的方法,另一是近年基于深度學(xué)習(xí)理論發(fā)展的基于網(wǎng)絡(luò)的方法.基于模型的方法利用圖像的先驗(yàn)信息迭代優(yōu)化求解,可得到較好的重構(gòu)性能,但是存在計(jì)算復(fù)雜的缺點(diǎn);基于網(wǎng)絡(luò)的方法通過(guò)樣本訓(xùn)練得到端對(duì)端的實(shí)現(xiàn),具有加速計(jì)算的優(yōu)點(diǎn).本節(jié)對(duì)此兩類(lèi)方法的典型工作分別作簡(jiǎn)要介紹.
壓縮感知重構(gòu)旨在由降維的測(cè)量值重建原信號(hào)根據(jù)壓縮感知理論:已知測(cè)量值y,信號(hào)x的壓縮感知重構(gòu)的數(shù)學(xué)模型可表示為式(1).式(1)表示的逆問(wèn)題求解,早期提出有凸規(guī)劃方法[18].由于凸規(guī)劃方法在處理高維圖像信號(hào)時(shí)計(jì)算復(fù)雜度極高,因此具有相對(duì)低計(jì)算成本的各種迭代算法在后來(lái)被相繼提出,如:匹配追蹤(MP)算法[19]、正交匹配追蹤(OMP)算法[20]、壓縮采樣正交匹配追蹤(CS-OMP)算法[21]、迭代硬閾值(IHT)算法[22]、迭代軟閾值(IST)算法[23]、近似消息傳遞(AMP)算法[24]、交替方向乘子法(ADMM)[25]等.
迭代(軟/硬)閾值算法通過(guò)交替進(jìn)行式(2a)和(2b)表示的殘差生成和收縮/閾值過(guò)程,多步重復(fù)得到收斂的重構(gòu)結(jié)果:
zt=y-Φxt,
(2a)
xt+1=ητ(ΦHzt+xt) ,
(2b)
其中ητ(·)為非線性收縮閾值函數(shù),τ為設(shè)置的閾值,xt和zt分別代表第t步迭代生成的原信號(hào)x的估計(jì)以及殘差y-Φxt.上標(biāo)H和t分別代表共軛轉(zhuǎn)置運(yùn)算和迭代次數(shù)當(dāng)ητ(y)=(|y|-τ)?sign(y)時(shí),算法稱(chēng)為迭代軟閾值(IST)方法.
近似消息傳遞(AMP)算法修改迭代閾值算法中的殘差項(xiàng)為Onsager校正項(xiàng),重寫(xiě)式(2a)為(2a')
zt=y-Φxt+zt-1η'τ(ΦHzt-1+xt-1)/δ,
(2a')
其中η'τ表示ητ的導(dǎo)數(shù),δ=M/N為測(cè)量比率.
交替方向乘子法(ADMM)通過(guò)引入輔助變量,將一個(gè)復(fù)雜的優(yōu)化目標(biāo)分解為多個(gè)簡(jiǎn)單的目標(biāo)交替優(yōu)化基于ADMM的壓縮感知重構(gòu)首先將式(1)重寫(xiě)為式(3)的優(yōu)化模型:
(3)
式(3)等價(jià)表示為式(4)
(4)
其中u是拉格朗日乘子,于是,壓縮感知重構(gòu)通過(guò)重復(fù)交替執(zhí)行式(5a)-(5c)的計(jì)算實(shí)現(xiàn):
(5a)
(5b)
ut+1=ut+Xt+1-Zt+1,
(5c)
其中,式(5a)可通過(guò)對(duì)v=Zt-ut進(jìn)行閾值收縮去噪求解(p=1對(duì)應(yīng)軟閾值收縮,p=0對(duì)應(yīng)硬閾值收縮);式(5b)表示的是求最小平方差的問(wèn)題,可求助共軛梯度下降法有效求解.
基于網(wǎng)絡(luò)的重構(gòu)方法的提出,受到深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)任務(wù)成功應(yīng)用的鼓舞.MOUSAVI等人最早提出了基于堆棧去噪自編碼器(SDA)的CS重構(gòu)網(wǎng)絡(luò)[11];LIAIDS等人提出了基于全連接神經(jīng)網(wǎng)絡(luò)的圖像和視頻的CS重構(gòu)網(wǎng)絡(luò)[12];KULKANI等人進(jìn)一步提出了基于卷積神經(jīng)網(wǎng)絡(luò)的CS重構(gòu)網(wǎng)絡(luò)ReconNet[13].基于網(wǎng)絡(luò)的重構(gòu)方法利用大量樣本訓(xùn)練出一個(gè)端對(duì)端的非迭代映射,其最大優(yōu)點(diǎn)是重構(gòu)時(shí)間得到極大減少,能更好地滿足實(shí)時(shí)應(yīng)用的需要.
MARK等人展開(kāi)近似消息傳遞算法,構(gòu)造了求解稀疏線性逆問(wèn)題的Learned AMP(LAMP)網(wǎng)絡(luò).LAMP網(wǎng)絡(luò)將基于軟閾值收縮的AMP迭代算法展開(kāi)構(gòu)成前向神經(jīng)網(wǎng)絡(luò),而其中的最小均方誤差(MSE)參數(shù)優(yōu)化采用變形的反向傳播(BP)算法學(xué)習(xí).YANG等人將公式(5)中的交替方向乘子法(ADMM)的求解過(guò)程展開(kāi)到網(wǎng)絡(luò)中,提出了磁共振圖像壓縮感知重構(gòu)的ADMM-Net網(wǎng)絡(luò)如圖1所示,ADMM-Net首先利用傅里葉逆變換獲得初始重構(gòu)圖像x(1),然后利用卷積層c(i)代替稀疏變換矩陣ψ對(duì)x(i-1)進(jìn)行稀疏變換,然后將當(dāng)前x,u,c輸入到非線性變換層z(i)中進(jìn)行閾值收縮,再將當(dāng)前x,z輸入到聯(lián)合更新層u(i)中對(duì)其進(jìn)行更新,最后利用已經(jīng)更新的z,u對(duì)重構(gòu)層x(i)進(jìn)行更新,如此多次交替求解.其中,每一個(gè)階段的交替更新相當(dāng)于模型優(yōu)化方法中的一次迭代,即以m個(gè)階段的網(wǎng)絡(luò)訓(xùn)練完成對(duì)圖像的m次迭代優(yōu)化,當(dāng)訓(xùn)練誤差收斂時(shí)保存當(dāng)前最優(yōu)權(quán)重,作為圖像快速重構(gòu)模型.ADMM-Net通過(guò)L-BFGS算法對(duì)參數(shù)進(jìn)行端對(duì)端的訓(xùn)練,并利用隨機(jī)梯度下降法對(duì)網(wǎng)絡(luò)進(jìn)行優(yōu)化.與ADMM-Net類(lèi)似,ZHANG等人將公式(2)中迭代軟閾值收縮算法(ISTA)展開(kāi)到卷積神經(jīng)網(wǎng)絡(luò)中,通過(guò)多層卷積層與非線性變換處理實(shí)現(xiàn)對(duì)圖像的軟閾值去噪,提出了自然圖像壓縮感知重構(gòu)的ISTA-net網(wǎng)絡(luò).
圖1 ADMM-Net結(jié)構(gòu)Fig.1 The architecture of ADMM-Net
基于深度學(xué)習(xí)理論,在一定程度上增加網(wǎng)絡(luò)的深度,其系統(tǒng)的性能能夠得到改善.然而,隨著網(wǎng)絡(luò)層數(shù)的增加,深度網(wǎng)絡(luò)的訓(xùn)練也將變得更加困難.本節(jié)提出的模型展開(kāi)與殘差學(xué)習(xí)級(jí)聯(lián)的網(wǎng)絡(luò),實(shí)現(xiàn)了在限制網(wǎng)絡(luò)深度的條件下得到了高質(zhì)量的重構(gòu)圖像.提出的網(wǎng)絡(luò)結(jié)構(gòu)框圖如圖2所示.第一級(jí)的模型展開(kāi)網(wǎng)絡(luò)用于獲得較好的初始重構(gòu)圖像,第二級(jí)的殘差學(xué)習(xí)網(wǎng)絡(luò)對(duì)初始重構(gòu)圖像進(jìn)行深度去噪處理,從而最終獲得高質(zhì)量的重構(gòu)圖像.整個(gè)網(wǎng)絡(luò)的訓(xùn)練分步進(jìn)行,訓(xùn)練過(guò)程相對(duì)簡(jiǎn)單且容易實(shí)現(xiàn).
圖2 提出的網(wǎng)絡(luò)結(jié)構(gòu)框圖Fig.2 The block diagram of the proposed network
模型展開(kāi)網(wǎng)絡(luò)是根據(jù)傳統(tǒng)優(yōu)化模型,將原有迭代運(yùn)算映射為相應(yīng)網(wǎng)絡(luò)層面向不同應(yīng)用,采用不同優(yōu)化算法可得到不同的展開(kāi)網(wǎng)絡(luò)結(jié)構(gòu).比如,針對(duì)核磁共振圖像壓縮感知,YANG等人[16]提出了基于交替方向乘子法(ADMM)的ADMM-net網(wǎng)絡(luò);針對(duì)自然圖像壓縮成像,ZHANG等人[17]提出了基于傳統(tǒng)迭代收縮閾值算法(ISTA)的ISTA-net網(wǎng)絡(luò).
殘差學(xué)習(xí)網(wǎng)絡(luò)是根據(jù)輸入的含噪聲圖像,利用深度殘差網(wǎng)絡(luò)提取圖像包含的噪聲.將輸入的含噪聲圖像減除深度殘差學(xué)習(xí)得到的噪聲信號(hào),從而重建出干凈的圖像信號(hào).比起直接學(xué)習(xí)出干凈圖像,深度殘差學(xué)習(xí)能夠較好地解決深度網(wǎng)絡(luò)的學(xué)習(xí)困難,提高網(wǎng)絡(luò)學(xué)習(xí)的穩(wěn)定性和收斂性[26].為了降低系統(tǒng)的復(fù)雜度,本文采用較少層的殘差網(wǎng)絡(luò),網(wǎng)絡(luò)深度遠(yuǎn)小于去噪網(wǎng)絡(luò)DnCNN[27]的深度,更有利于降低網(wǎng)絡(luò)訓(xùn)練的難度.考慮到壓縮感知重構(gòu)圖像中殘存的噪聲為混合噪聲,本文在激活函數(shù)的選擇上選用LReLU(Leaky Rectified Linear Units)代替ReLU(Rectified Linear Units),增強(qiáng)了網(wǎng)絡(luò)的非線性處理能力.設(shè)計(jì)的殘差學(xué)習(xí)網(wǎng)絡(luò)由一些卷積核尺寸為3×3的卷積層組成,如圖3所示.每一層由三種操作的特定組合組成:卷積(Conv,Convolution),非線性變換(LReLU),批量正則化(BN,Batch Normalization)具體來(lái)說(shuō),第一層為“Conv+LReLU”,中間層為“Conv+BN+LReLU”,最后一層為“Conv”.在每一次卷積操作后,都以零填充的方式保證特征圖的尺寸與原圖像尺寸一致.初始重構(gòu)圖像(含噪圖像)經(jīng)殘差網(wǎng)絡(luò)處理后,可以學(xué)習(xí)其所包含的噪聲圖像,即殘差圖.用初始重構(gòu)圖像減除殘差圖,從而得到去噪后的最終重構(gòu)圖像.
系統(tǒng)的性能和復(fù)雜度主要受殘差網(wǎng)絡(luò)中間層的多少影響.鑒于自然圖像種類(lèi)豐富,結(jié)構(gòu)相對(duì)復(fù)雜,導(dǎo)致其噪聲去除更加困難,因此,在處理磁共振圖像時(shí)設(shè)計(jì)殘差網(wǎng)絡(luò)的中間層數(shù)量比起處理自然圖像時(shí)可選擇更少.后面的實(shí)驗(yàn)表明,前者在選取中間層數(shù)量n=7,后者在選取n=11能得到較好的效果.實(shí)驗(yàn)也驗(yàn)證了,在LReLU的斜率取0.5左右時(shí)也更有利于得到好的重構(gòu)結(jié)果.
圖3 本文殘差學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)Fig.3 The architecture of proposedresidual learning network
對(duì)于核磁共振圖像壓縮感知重構(gòu),本文訓(xùn)練集是從腦腫瘤分子數(shù)據(jù)庫(kù)(The Repository of Molecular Brain Neoplasia Data,REMBRANDT)中隨機(jī)選取的110幅尺寸為256×256的腦部MRI,主要包含正面、側(cè)面和背面三種類(lèi)型的人腦MRI;對(duì)于自然圖像壓縮感知重構(gòu),本文所用的訓(xùn)練集是從ImageNet12數(shù)據(jù)集中隨機(jī)選取的400張尺寸為256×256的自然圖像,主要包含人物、動(dòng)物、植物、風(fēng)景和建筑等幾種類(lèi)型.首先將訓(xùn)練集數(shù)據(jù)輸入到模型展開(kāi)網(wǎng)絡(luò)中進(jìn)行訓(xùn)練,獲得初始重構(gòu)圖像;然后將原圖與初始重構(gòu)圖像進(jìn)行重疊分塊處理,分塊尺寸為32×32,步進(jìn)值為16;最后將所有圖像塊分為多個(gè)批次作為殘差學(xué)習(xí)網(wǎng)絡(luò)的輸入數(shù)據(jù)集,每個(gè)批次包含128幅隨機(jī)抽取的圖像塊.
由于本文網(wǎng)絡(luò)是包含模型展開(kāi)網(wǎng)絡(luò)和殘差學(xué)習(xí)網(wǎng)絡(luò)的一個(gè)深度網(wǎng)絡(luò),若對(duì)其進(jìn)行整體訓(xùn)練,將會(huì)增加網(wǎng)絡(luò)訓(xùn)練難度,無(wú)法快速獲得較好的訓(xùn)練結(jié)果.因此,本文采取兩級(jí)結(jié)構(gòu)獨(dú)立訓(xùn)練的方法,降低了網(wǎng)絡(luò)訓(xùn)練的難度.先對(duì)模型展開(kāi)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得初始重構(gòu)圖像;然后將初始重構(gòu)圖像作為輸入,對(duì)殘差學(xué)習(xí)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,獲得去噪后的圖像.這種分步訓(xùn)練的方法,每次只需對(duì)一個(gè)較淺的網(wǎng)絡(luò)進(jìn)行訓(xùn)練,極大的降低了系統(tǒng)復(fù)雜度.
本文將真實(shí)圖像x與下采樣數(shù)據(jù)y成對(duì)輸入,并選擇最小均方誤差(NMSE)作為網(wǎng)絡(luò)訓(xùn)練的損失函數(shù),通過(guò)反向傳播算法修正E(θ)中各層參數(shù)θ=(W,B),得到最佳映射模型其公式如下.
(6)
實(shí)驗(yàn)平臺(tái)為Matlab2017a,硬件條件為Intel(R)Xeon(R)CPU E5-2683,頻率為2.0GHz,內(nèi)存為128GB,NVIDIA TITAN X顯卡,顯存12GB,操作系統(tǒng)為Windows 10,深度學(xué)習(xí)框架為MatConvNet1.0-beta24.
對(duì)于核磁共振圖像壓縮感知重構(gòu),本文所用的測(cè)試集為55幅腦部MRI,在不同采樣率下與傅里葉變換(FT)、全變差(TV)算法[28]、基于BM3D去噪的D-AMP[29]、和ADMM-Net[16]等算法進(jìn)行對(duì)比.每個(gè)算法包含大量參數(shù)設(shè)置與自適應(yīng)調(diào)整過(guò)程.在測(cè)試過(guò)程中所使用的算法參數(shù)都是原作者在相應(yīng)論文中給出的最佳參數(shù)設(shè)置.從表1可知,采樣率從0.05到0.5,本文算法與ADMM-Net相比平均PSNR分別提高0.87dB,0.85dB,0.67dB,0.47dB,0.51dB,0.61dB,特別是當(dāng)采樣率低于0.2時(shí),本文算法的重構(gòu)效果提升更加明顯 .
表1 不同采樣率下磁共振圖像重構(gòu)的平均PSNR對(duì)比(dB)Tab.1 Mean PSNR comparison of MRI reconstruction under different sampling rates
為了比較不同重構(gòu)算法的主觀視覺(jué)效果,本文給出了0.05采樣率下腦部圖像的重構(gòu)圖像局部?jī)杀斗糯髮?duì)比圖,如圖4和圖5所示.根據(jù)結(jié)果可知,本文算法重構(gòu)圖像的結(jié)構(gòu)紋理更加清晰.
圖4 0.05采樣率下Brain1重構(gòu)Fig.4 Reconstructed Brain1 using 0.05 samples
圖5 0.05采樣率下Brain2重構(gòu)Fig.5 Reconstructed Brain2 using 0.05 samples
對(duì)于自然圖像壓縮感知重構(gòu),本文所用測(cè)試集為自然圖像壓縮感知中常用的測(cè)試圖像(其中l(wèi)eaves、monarch、lena的尺寸為256×256,peppers、fingerprint、milkdrop的尺寸為512×512).在不同采樣率下將本文算法與小波變換(DCT)[5]、多假設(shè)(MH)[30]、全變差(TV)算法[28]、和ISTA-Net+[17]等算法進(jìn)行對(duì)比.從表2中可知,采樣率從0.04到0.20本文算法與ISTA-Net+分別提升約0.62dB、0.36dB、0.25dB和0.21dB,且在較低采樣率下本文算法性能更加突出.
表2 不同采樣率下自然圖像重構(gòu)PSNR對(duì)比(dB)Tab.2 PSNR comparison of natural image reconstruction under different sampling rates
為了比較不同重構(gòu)算法的主觀視覺(jué)效果,本文給出了leaves和lena圖像在采樣率為0.1下的重構(gòu)圖像局部?jī)杀斗糯髮?duì)比圖,如圖6和圖7所示.根據(jù)結(jié)果可知,本文算法的重構(gòu)圖像的細(xì)節(jié)保留的更加完整.
為說(shuō)明本文算法重構(gòu)性能和運(yùn)算效率上都具有一定優(yōu)勢(shì),圖8給出了55幅磁共振圖像在0.05采樣率下不同算法的平均重構(gòu)性能和重構(gòu)時(shí)間對(duì)比.由圖8可以,基于稀疏變換的方法(DWT,F(xiàn)T)雖然可以快速獲得重構(gòu)圖像,但是,其重構(gòu)質(zhì)量較差;基于模型優(yōu)化的方法(MH、DAMP、和TV)的圖像重構(gòu)質(zhì)量較好,同時(shí)其運(yùn)算時(shí)間也較長(zhǎng);本文算法可以使用較短的運(yùn)行時(shí)間,獲得更好的重構(gòu)效果,即其綜合性能更好.
圖6 0.1采樣率下Leaves重構(gòu)Fig.6 Reconstructed Leaves using 0.1 samples
圖7 0.1采樣率下Lena重構(gòu)Fig.7 Reconstructed Lena using 0.1 samples
圖8 0.05采樣率下重構(gòu)性能對(duì)比Fig.8 Reconfiguration performance comparison using 0.05 samples
針對(duì)圖像壓縮感知重構(gòu)問(wèn)題,提出一種級(jí)聯(lián)模型展開(kāi)與殘差學(xué)習(xí)的圖像壓縮感知重構(gòu)算法.將模型優(yōu)化方法可解釋性強(qiáng)的優(yōu)點(diǎn)和殘差網(wǎng)絡(luò)自學(xué)習(xí)去噪的優(yōu)點(diǎn)相結(jié)合,實(shí)現(xiàn)對(duì)壓縮感知圖像的高質(zhì)量高速重構(gòu).并通過(guò)兩級(jí)網(wǎng)絡(luò)獨(dú)立訓(xùn)練的方法,有效避免網(wǎng)絡(luò)加深造成的訓(xùn)練困難問(wèn)題.大量實(shí)驗(yàn)結(jié)果表明,本文算法可以快速獲得更高質(zhì)量的重構(gòu)圖像,特別是在較低采樣率下,重構(gòu)性能更加突出.下一步工作將從圖像非局部相似性先驗(yàn)信息入手,設(shè)計(jì)一種可解釋性更強(qiáng)的CS重構(gòu)網(wǎng)絡(luò).