摘要:目的 針對牙科CBCT 掃描中患者不自主運動導(dǎo)致的重建圖像運動偽影問題,提出了一種基于深度模糊學(xué)習(xí)的牙科CBCT運動偽影校正算法(DMBL),以提升牙科CBCT的成像質(zhì)量。方法 首先使用模糊編碼模塊提取運動退化特征,從而對運動導(dǎo)致的退化過程進(jìn)行建模,然后將得到的運動退化特征輸入偽影校正模塊進(jìn)行運動偽影去除。其中,偽影校正模塊采用了圖像模糊去除和圖像模糊仿真的聯(lián)合學(xué)習(xí)框架,可有效處理空間變化且隨機的運動模式。為驗證所提方法的有效性,本文分別在仿真運動數(shù)據(jù)集和臨床數(shù)據(jù)集上進(jìn)行對比實驗。結(jié)果 仿真數(shù)據(jù)集實驗結(jié)果表明,本文方法峰值信噪比提升了2.88%,結(jié)構(gòu)相似性(SSIM)提升了0.89%,均方根誤差(RMSE)減少了10.58%;臨床數(shù)據(jù)集實驗結(jié)果表明,本文方法取得了最高的專家主觀圖像質(zhì)量評分4.417(5 分制),且與對比方法結(jié)果的評分具有顯著性差異(Plt;0.001)。結(jié)論 本文提出的DMBL算法,通過構(gòu)建深度模糊聯(lián)合學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu),能夠有效地去除牙科CBCT圖像中的運動偽影,實現(xiàn)高質(zhì)量的圖像恢復(fù)。
關(guān)鍵詞:運動偽影校正;牙科CBCT;模糊學(xué)習(xí)
牙科CBCT相較于傳統(tǒng)CT具有空間分辨率高、成像質(zhì)量好等優(yōu)點,可為口腔種植、正畸、修復(fù)等口腔治療提供可靠的三維可視化影像[1]。然而,牙科CBCT由于掃描速度較慢(5.4~40 s)[2],增加了掃描過程中患者發(fā)生不自主運動的概率。有研究表明,21%~41%的患者在掃描過程中存在不自主運動[3]。掃描過程中患者的不自主運動會導(dǎo)致投影數(shù)據(jù)不一致,在重建圖像中出現(xiàn)條紋偽影,組織輪廓重疊及結(jié)構(gòu)模糊等問題,引起圖像質(zhì)量退化,對臨床診斷和治療產(chǎn)生不利影響。特別當(dāng)患者不自主運動幅度較大時,往往需要多次掃描以獲取滿足診斷需求的影像,這不可避免地增加了患者遭受的X射線輻射劑量。盡管在實際中牙科CBCT掃描采用了牙托等硬件裝置對患者進(jìn)行固定,但該措施不能完全消除頭部運動[4],而一些輕微的運動(gt;3 mm)就會對圖像質(zhì)量產(chǎn)生明顯影響[5]。為獲取能夠滿足臨床診斷的高質(zhì)量圖像,國內(nèi)外學(xué)者先后提出了許多針對運動偽影的軟硬件校正算法,主要分為運動標(biāo)記方法、運動補償方法和深度學(xué)習(xí)方法3類。
第1類運動標(biāo)記方法通過添加外部光學(xué)運動跟蹤設(shè)備和基準(zhǔn)標(biāo)記來獲取患者的運動軌跡,用于投影數(shù)據(jù)的一致性校正,實現(xiàn)運動偽影去除[6-9]。例如,Kim等[8]使用光學(xué)運動跟蹤系統(tǒng)同時記錄床和被掃描模體的運動,并用于恢復(fù)投影一致性以進(jìn)行運動補償校正。然而,這類方法需要的硬件較為昂貴,增加了設(shè)備額外的成本,并且牙科CBCT掃描室內(nèi)部空間有限,難以將此類光學(xué)硬件集成到現(xiàn)有機器中。第2 類運動補償方法通過校正算法估計患者的運動軌跡信息,并利用該運動軌跡對投影進(jìn)行運動補償,以重建無偽影的圖像,主要包括基于自校準(zhǔn)方法[10-13]、基于一致性條件的方法[14, 15]及3D-2D配準(zhǔn)方法[16, 17]。例如,Sisniega等[10]提出一種基于圖像的運動補償方法,采用CMA-ES算法估計運動軌跡并進(jìn)行運動補償;Preuhs等[15]提出一種基于極線一致性的方法,從投影圖像估計對稱平面,并引入X軌跡利用對稱性來估計運動;Ouadah等[16]提出了一種基于3D-2D圖像配準(zhǔn)的運動偽影校正方法,通過使用CMA-ES優(yōu)化器最大化梯度來進(jìn)行投影-圖像配準(zhǔn),并將得到的剛性運動變換參數(shù)用于運動補償重建。然而這類方法需要對投影進(jìn)行多次重建直至收斂,計算復(fù)雜、運算量較大,較為耗時,且運動補償效果受運動估計精度的影響很大。第3類深度學(xué)習(xí)方法能夠直接學(xué)習(xí)圖像中的運動偽影表征,具有良好的運動偽影去除性能,同時不需要多次迭代重建,相比于傳統(tǒng)方法具有更高的計算效率,更適用于牙科CBCT的運動校正任務(wù)。例如,Hu等[18]提出基于WGAN的單幅圖像運動偽影抑制方法,能夠有效地去除牙科CBCT圖像中的運動偽影;Su等[19]提出一種消除CT頭部運動偽影的多尺度卷積神經(jīng)網(wǎng)絡(luò),從無運動圖像模擬運動偽影并用于網(wǎng)絡(luò)訓(xùn)練;Ko等[20]提出一種基于自注意力機制的深度卷積神經(jīng)網(wǎng)絡(luò)框架,用于補償CT運動偽影,該方法能夠成功地處理各種運動場景。然而,現(xiàn)有網(wǎng)絡(luò)方法只考慮到二維平面內(nèi)的運動,而沒有考慮三維平面的運動,在實際臨床掃描中,三維CBCT圖像中存在若干張連續(xù)的偽影切片,且這些切片在空間上存在連續(xù)的組織結(jié)構(gòu),現(xiàn)有網(wǎng)絡(luò)很難處理這種偽影。同時,由于配對數(shù)據(jù)之間存在像素偏移,導(dǎo)致網(wǎng)絡(luò)輸出圖像在高頻區(qū)域出現(xiàn)細(xì)節(jié)損失,降低圖像診斷質(zhì)量。
針對上述問題,本文提出一種基于深度模糊學(xué)習(xí)的運動偽影校正網(wǎng)絡(luò)(DMBL),由模糊編碼模塊和偽影校正模塊組成,其中模糊編碼模塊對偽影圖像中的運動信息進(jìn)行編碼以提取空間變化的多尺度運動特征,指導(dǎo)偽影編碼模塊完成圖像恢復(fù)任務(wù)。偽影校正模塊采用一種圖像模糊去除和圖像模糊仿真的聯(lián)合學(xué)習(xí)框架,以提高所提取運動特征的泛化性;對于配對數(shù)據(jù)之間存在像素偏移導(dǎo)致圖像分辨率損失的問題,本文引入上下文損失,以保持牙齒和骨小梁等高頻區(qū)域的細(xì)節(jié)。在仿真和臨床數(shù)據(jù)集上進(jìn)行了實驗,實驗結(jié)果表明本文方法具有良好的運動偽影校正性能。
1 資料和方法
1.1 牙科CBCT運動偽影仿真
在實際臨床實踐中,獲取真實配對數(shù)據(jù),包括有運動偽影和無運動偽影的圖像,常常存在困難。因此在網(wǎng)絡(luò)訓(xùn)練過程中,通常會采用仿真的方法來生成配對運動偽影數(shù)據(jù),以便用于網(wǎng)絡(luò)的訓(xùn)練。目前運動偽影仿真算法主要有兩種:(1)使用外部裝置(如機器臂)在掃描過程中移動體模來仿真運動[21],但是這類方法能夠仿真的運動形式有限。(2)數(shù)字仿真方法,在前投影過程中加入運動軌跡來獲取運動數(shù)據(jù)[22],但該方法采用的重建體數(shù)據(jù)已經(jīng)存在信息丟失,直接對其前投影得到的仿真投影數(shù)據(jù)和真實數(shù)據(jù)存在不一致。因此,本文提出一種新的數(shù)字仿真方法,首先利用CBCT幾何信息構(gòu)建投影幾何矩陣,然后采用隨機運動矩陣對投影幾何矩陣進(jìn)行調(diào)制,以此在重建過程中增加運動信息,再利用修改后的投影矩陣進(jìn)行重建得到仿真運動數(shù)據(jù)。這類方法得到的仿真圖像更接近于真實的運動圖像,且不存在數(shù)據(jù)截斷等問題。
本文采用的運動仿真流程如下(圖1),基于CBCT幾何構(gòu)建投影矩陣,圍繞旋轉(zhuǎn)中心建立世界坐標(biāo)系( x,y,z ),以及探測器平面坐標(biāo)系(u,v ),其中射源S 和探測器圍繞Z軸旋轉(zhuǎn)(圖2)。
對于CBCT,其重建所需的幾何信息可以按投影角度參數(shù)化為一個大小為3×4 的投影矩陣[23],即Pi ∈ R3 × 4,其中i = 1,...,N,N為掃描采集的投影個數(shù)。每個角度的投影矩陣Pi可分解為內(nèi)參矩陣K ∈ R3 × 3 和外參矩陣Ei ∈ R3 × 4,其中Ei包含旋轉(zhuǎn)矩陣Ri ∈ R3 × 3以及平移向量Ti ∈ R3 × 1,即:
Pi = KEi = K [ Ri|Ti ] (1)
對于單個角度,掃描物體中單個標(biāo)記點的投影變換可以表示為:
Yj = Pi ( Xj ) (2)
其中,Xj = ( xj,yj,zj,1) 為齊次坐標(biāo), Yj = (u,v,w ) 為對應(yīng)投影點坐標(biāo),Pi為第i個角度下的投影矩陣,公式2可轉(zhuǎn)寫為如下形式:
在CBCT坐標(biāo)系統(tǒng)中,頭部剛性運動包括6個自由度,定義為S = [ tx,m,ty,m,tz,m,θx,m,θy,m,θz,m ],其中( tx,m,ty,m,tz,m ) 為沿X,Y,Z 軸的平移分量,( θx,m,θy,m,θz,m )分別為繞三個旋轉(zhuǎn)軸的旋轉(zhuǎn)角度。設(shè)物體在投影角度i下的運動矩陣Mi ∈ R4 × 4,受運動影響的投影矩陣可以表示為以下形式:
其中,每個Mi由三維旋轉(zhuǎn)矩陣ri ( θx,m,θy,m,θz,m )和平移向量ti ( tx,m,ty,m,tz,m )組成。對于每個投影角度,通過將患者的運動合并到投影矩陣Pi,得到修改后的P*i 進(jìn)行重建,可以在重建圖像中產(chǎn)生運動偽影。同時本文將仿真得到的數(shù)據(jù)與真實數(shù)據(jù)進(jìn)行比較,以證明本文方法的可靠性。
1.2 基于模糊編碼的運動校正模型
本文提出的基于深度模糊學(xué)習(xí)的運動偽影校正(DMBL)網(wǎng)絡(luò)模型如圖3所示,網(wǎng)絡(luò)包含模糊編碼模塊E和偽影校正模塊G兩部分,模糊編碼模塊E的作用是學(xué)習(xí)運動偽影圖像中的退化特征,并將學(xué)習(xí)到的特征輸入到后續(xù)網(wǎng)絡(luò)用于指導(dǎo)運動校正任務(wù),偽影校正模塊G采用聯(lián)合學(xué)習(xí)框架,利用學(xué)習(xí)到的多尺度運動退化特征對輸入圖像進(jìn)行運動偽影校正。
偽影校正模塊中,圖像模糊仿真網(wǎng)絡(luò)以無運動偽影圖像作為輸入,根據(jù)提取到的退化特征生成運動偽影圖像,圖像模糊去除網(wǎng)絡(luò)以運動偽影圖像作為輸入,并利用學(xué)習(xí)到的退化特征在不同尺度下對輸入運動圖像的特征進(jìn)行調(diào)制,實現(xiàn)運動偽影校正。通過這種聯(lián)合圖像模糊去除和圖像模糊仿真的框架來學(xué)習(xí)運動偽影的顯式退化表示,能夠提升網(wǎng)絡(luò)學(xué)習(xí)退化表征的能力,使網(wǎng)絡(luò)可以很好地處理空間變化且復(fù)雜的模糊過程(圖3)。
1.2.1 模糊編碼模塊
當(dāng)前基于深度學(xué)習(xí)的運動偽影校正方法未對引起圖像模糊的運動過程進(jìn)行建模,因此難以處理空間變化的復(fù)雜運動模式,如三維CBCT圖像中存在的連續(xù)多層偽影切片。為此,本文考慮對運動導(dǎo)致的退化過程進(jìn)行建模,從而更好地處理空間變化的復(fù)雜運動信息。
具體地,對運動導(dǎo)致的退化圖像進(jìn)行建模,理想投影可以視為掃描物體經(jīng)過前投影再加上噪聲的結(jié)果,即:
y = Px + ε (7)
被掃描物體發(fā)生運動時,運動投影相當(dāng)于物體在前投影之前先經(jīng)過一個運動退化過程,即:
y = P ( x ? k ) + ε (8)
其中k表示運動退化過程,在運動偽影校正任務(wù)中,k包含掃描過程中物體的運動信息。對k 的建模有兩種方式:一是將k 建模為模糊核,這種方法的缺點是假設(shè)的模糊核往往是線性和均勻的,并不適用于現(xiàn)實中非均勻且空間變化的運動過程,因此可能會在圖像中引入額外的偽影。二是將k建模為顯示退化特征,這種方式能夠處理復(fù)雜的退化模式,更適用于CBCT運動偽影校正任務(wù)。為此,本文中的模糊編碼模塊采用卷積神經(jīng)網(wǎng)絡(luò)作為編碼器,從輸入CBCT運動圖像中提取運動相關(guān)的顯示退化特征,再利用該退化特征指導(dǎo)后續(xù)校正網(wǎng)絡(luò)進(jìn)行運動偽影去除。
1.2.2 偽影校正模塊
研究表明,聯(lián)合圖像去模糊和再模糊的學(xué)習(xí)框架在自然圖像去模糊任務(wù)中取得了較好性能[24],受此啟發(fā),本文將該聯(lián)合學(xué)習(xí)框架引入到偽影校正模塊,搭建圖像偽影仿真——偽影校正網(wǎng)絡(luò),通過這種聯(lián)合學(xué)習(xí)策略使模糊編碼器更好地學(xué)習(xí)運動導(dǎo)致的退化特征,提高模型性能。
偽影校正模塊包含兩部分:圖像模糊仿真網(wǎng)絡(luò)Greblur和圖像模糊去除網(wǎng)絡(luò)Gdeblur,網(wǎng)絡(luò)采用生成-對抗結(jié)構(gòu),生成器部分由Restormer網(wǎng)絡(luò)進(jìn)行擴展。同時,為了利用編碼器提取到的運動信息,采用空間自適應(yīng)調(diào)制模塊[25]將運動退化特征集成到兩個網(wǎng)絡(luò)中。圖像模糊仿真網(wǎng)絡(luò)Greblur以無偽影CBCT圖像作為輸入,借助模糊編碼器提取到的運動退化特征,從無偽影圖像中生成偽影圖像,以此來模擬運動退化過程。Greblur采用殘差學(xué)習(xí)的方式,僅學(xué)習(xí)無偽影圖像和偽影圖像之間的殘差,這樣的策略能使模糊編碼器專注于提取與內(nèi)容無關(guān)的運動相關(guān)特征,從而提高模糊編碼器的編碼性能。圖像模糊去除網(wǎng)絡(luò)Gdeblur以運動模糊圖像作為輸入,在不同尺度下利用提取到的運動退化特征對網(wǎng)絡(luò)低維特征進(jìn)行調(diào)制,調(diào)制后的特征能夠幫助網(wǎng)絡(luò)更好地處理各種復(fù)雜的運動模式,實現(xiàn)更好的校正性能。
1.2.3 網(wǎng)絡(luò)結(jié)構(gòu)
圖4A為偽影校正模塊采用的網(wǎng)絡(luò)結(jié)構(gòu)。網(wǎng)絡(luò)首先使用一個3×3的卷積層來提取輸入圖像的基礎(chǔ)特征,然后通過4層對稱的編碼-解碼結(jié)構(gòu)得到圖像的高維特征,每一層編碼/解碼器均包含多個Transformer模塊,隨著層數(shù)的增加模塊數(shù)量逐漸遞增,分辨率逐漸遞減。編碼器和解碼器之間通過跳躍連接來傳遞低維特征信息,并通過空間自適應(yīng)調(diào)制模塊將模糊編碼器學(xué)習(xí)到的運動退化特征集成到網(wǎng)絡(luò)中,在不同尺度下對跳躍連接中的特征進(jìn)行調(diào)制。接著,將輸出的高維特征fd輸入到Refinement模塊進(jìn)行細(xì)化,最后將細(xì)化后的特征經(jīng)過一個3×3的卷積層,并與輸入圖像相加得到校正后的圖像。
圖4B為空間自適應(yīng)調(diào)制模塊,其作用是將提取到的退化表示集成到網(wǎng)絡(luò)的跳躍連接中。如圖所示,首先將編碼器提取到的尺度為i的運動特征Mi通過卷積層得到縮放參數(shù)γi和偏置參數(shù)βi,然后根據(jù)調(diào)制參數(shù)對第i層的跳躍連接特征fi進(jìn)行調(diào)制得到Fi:
Fi = γi ? fi + βi (9)
接著,將Mi進(jìn)行上采樣和卷積得到尺度為i + 1時的退化特征Mi + 1,用于下個尺度的特征調(diào)制。退化特征的輸入能夠加強模糊編碼器與偽影校正網(wǎng)絡(luò)之間的聯(lián)系,使模糊編碼器能夠更好地學(xué)習(xí)運動相關(guān)的退化特征,提高特征的表示能力,從而使網(wǎng)絡(luò)能夠處理各種復(fù)雜的運動退化模式。
1.2.4 損失函數(shù)
假設(shè)x為輸入偽影圖像,x′為網(wǎng)絡(luò)生成的偽影圖像,y為無偽影標(biāo)簽圖像,y′為網(wǎng)絡(luò)校正后的無偽影圖像。對于圖像模糊仿真網(wǎng)絡(luò),采用感知損失和對抗損失來幫助網(wǎng)絡(luò)對運動模糊過程進(jìn)行建模,其中對抗損失采用hinge損失,圖像模糊仿真網(wǎng)絡(luò)的目標(biāo)函數(shù)表示如下:
LG = -Ey~pdataD( x′,y ) + λ1 Lperceptual ( x,x′ ) (10)
LD = -E( x,y )~pdata[ min (0,-1 + D( x,y ) ) ] -Ey~pdata [ min (0,-1 - D( x′,y ) ) ] (11)
其中D為條件模糊判別器,Lperceptual為感知損失,λ1是平衡判別器損失和感知損失的權(quán)重。
對于圖像模糊去除網(wǎng)絡(luò),為避免校正圖像中出現(xiàn)分辨率降低、細(xì)節(jié)損失等情況,在目標(biāo)函數(shù)中引入 L1范數(shù)損失和上下文損失[26],用以衡量偽影校正模塊輸出圖像與真實無偽影圖像之間的差異,同時保留更多的圖像細(xì)節(jié)。圖像模糊去除網(wǎng)絡(luò)的目標(biāo)函數(shù)表示如下:
Ldeblur = L1 ( y,y′ ) + Lcontext ( y,y′,l ) (12)
其中上下文損失
Lcontext ( y,y′,l ) = -log (CX ( φl ( y ),φl ( y′ ) ) ) (13)
其中CX 為上下文相似度,φ 為VGG19 預(yù)訓(xùn)練網(wǎng)絡(luò),φl ( y )、φl ( y′ )分別為第l層VGG19網(wǎng)絡(luò)從圖像y和y′中提取的特征。
1.3 實驗設(shè)計
1.3.1 實驗數(shù)據(jù)
由于配對的運動數(shù)據(jù)獲取較為困難,本研究使用商用牙科CBCT(Fussen Matrix5000)數(shù)據(jù)集進(jìn)行仿真和訓(xùn)練。數(shù)據(jù)集共包含18例無運動偽影真實病人數(shù)據(jù),每例數(shù)據(jù)包含500 張切片,每張切片大小為800×800,分辨率為0.2mm×0.2 mm×0.2 mm。使用本文提出的仿真方法對每例數(shù)據(jù)采用10組不同的運動參數(shù)進(jìn)行仿真,最終得到180套含不同程度運動偽影的配對數(shù)據(jù)集{ I kmove,I ktruth }( k = 1,...,180 ),將其中150 套作為訓(xùn)練集,30套作為測試集,分別用于模型訓(xùn)練和測試。此外,從牙科CBCT數(shù)據(jù)集中選取2套不同程度的運動數(shù)據(jù)作為真實數(shù)據(jù)進(jìn)行測試。
1.3.2 對比方法和評價指標(biāo)
本文通過仿真運動偽影數(shù)據(jù)和真實臨床運動偽影數(shù)據(jù)驗證本文算法性能,并選取4 種不同網(wǎng)絡(luò)作為本文的對比方法,分別為U-Net[27]、WGAN[28]、HINet[29]、Restormer[30]。對于仿真數(shù)據(jù)結(jié)果,本文采用三種評價指標(biāo)進(jìn)行定量分析,分別為峰值信噪比(PSNR),均方根誤差(RMSE)和結(jié)構(gòu)相似性(SSIM),各評價指標(biāo)的計算公式如下:
其中Y為無運動標(biāo)簽圖像(真值),X表示不同網(wǎng)絡(luò)輸出的校正圖像。MAX為真值圖像中的最大像素值。
其中μx,μy,σx,σy和σxy分別表示校正圖像X和真值圖像Y的均值、標(biāo)準(zhǔn)差和互協(xié)方差。
對于臨床數(shù)據(jù)結(jié)果,由于缺乏真值圖像作為參考,因此本文首先根據(jù)圖像的視覺效果進(jìn)行評價,再由6名臨床影像專家對臨床數(shù)據(jù)結(jié)果進(jìn)行評分(5分制)。根據(jù)6名專家的臨床影像經(jīng)驗,將評分分為5個等級。5分:圖像中無偽影,結(jié)構(gòu)恢復(fù)較好;4分:圖像良好無明顯條紋,只在牙齒區(qū)域附近有少量模糊;3分:圖像中存在少量條紋偽影,牙齒和骨組織存在模糊;2分:圖像中有顯著條紋,牙齒和周圍組織模糊不清;1分:圖像中有嚴(yán)重的運動偽影,牙齒結(jié)構(gòu)劇烈失真。評分結(jié)果以“均數(shù)±標(biāo)準(zhǔn)差”表示,并采用曼-惠特尼U檢驗以驗證本文方法與對比方法之間的去偽影性能是否有顯著差異,Plt;0.05表示差異具有統(tǒng)計學(xué)意義。
同時,為驗證聯(lián)合學(xué)習(xí)框架對加強網(wǎng)絡(luò)運動偽影去除性能的有效性,實驗設(shè)計了單一Restormer網(wǎng)絡(luò)模型與聯(lián)合學(xué)習(xí)框架模型進(jìn)行對比試驗。兩種模型均采用仿真運動偽影數(shù)據(jù)作為輸入。
2 結(jié)果
2.1 運動偽影仿真結(jié)果
圖5顯示了受運動影響的真實數(shù)據(jù)與本文提出的數(shù)字仿真方法模擬得到的數(shù)據(jù)之間的比較結(jié)果,其中(A)、(B)列為真實運動數(shù)據(jù),(C)、(D)列為仿真運動數(shù)據(jù)。對于仿真運動數(shù)據(jù),(C)列和(D)列分別表示同一人體部位發(fā)生輕微運動和劇烈運動的圖像對比結(jié)果。
2.2 仿真數(shù)據(jù)實驗結(jié)果
圖6 顯示了仿真運動數(shù)據(jù)的橫斷面校正結(jié)果,Reference 和Uncorrected 分別表示無運動圖像和受運動偽影干擾的失真圖像,其余為不同方法恢復(fù)后的校正圖像。圖像顯示窗寬均為3000,窗位均為400。圖中左下角的黃色方框內(nèi)為圖像的局部細(xì)節(jié)放大圖。從結(jié)果可以看出,本文所提出的方法在運動偽影抑制和組織結(jié)構(gòu)保持等方面的表現(xiàn)優(yōu)于其他對比方法,對牙齒和骨組織區(qū)域的細(xì)節(jié)恢復(fù)較好。圖7顯示了圖6校正網(wǎng)絡(luò)結(jié)果中紅色線條標(biāo)記位置的水平剖面線。與對比方法相比,本文方法恢復(fù)后的圖像剖面線更接近于參考圖像。圖8顯示了仿真運動數(shù)據(jù)的冠狀面和矢狀面校正結(jié)果,由圖可知,相較于對比方法,本文所提出的方法能夠很好地處理圖像中層與層之間的運動偽影,同時恢復(fù)骨組織的結(jié)構(gòu)信息。表1 為仿真運動數(shù)據(jù)不同方法校正結(jié)果的PSNR、SSIM和RMSE指標(biāo)。與對比方法相比,本文算法取得了最高的PSNR指標(biāo)(34.2981),最高的SSIM指標(biāo)(0.9560)以及最低的RMSE指標(biāo)(4.9629)。
2.3 臨床數(shù)據(jù)實驗結(jié)果
為進(jìn)一步驗證本文方法的有效性和魯棒性,本文選取2 例具有不同運動程度的牙科CBCT臨床數(shù)據(jù)進(jìn)行驗證,圖像顯示窗寬均為3000,窗位均為400。圖9顯示了不同校正方法對第1例臨床數(shù)據(jù)的處理結(jié)果。第1例臨床數(shù)據(jù)含有輕微運動,在圖像中表現(xiàn)為條紋偽影,牙齒結(jié)構(gòu)模糊以及骨組織出現(xiàn)雙邊緣。從結(jié)果中可以看到,本文方法對組織結(jié)構(gòu)保持得較好,并在一定程度上抑制了牙齒和骨組織周圍的運動偽影。第2 例臨床數(shù)據(jù)含有較為劇烈的運動,圖像中包含更嚴(yán)重的條紋偽影,同時牙齒和骨組織輪廓不清晰(圖10)。與對比方法相比,本文方法結(jié)果消除了圖像中的運動偽影,同時很好地恢復(fù)牙齒和骨組織輪廓。表2 顯示了不同校正方法對臨床數(shù)據(jù)恢復(fù)結(jié)果的圖像質(zhì)量主觀評分統(tǒng)計情況。其中本文提出的算法在臨床數(shù)據(jù)結(jié)果中獲得的評分最高(4.417±0.571),從U檢驗結(jié)果中可以看到,本文算法與其他4 種對比方法的圖像質(zhì)量評分具有顯著性差異(Plt;0.001)。
2.4 聯(lián)合學(xué)習(xí)框架有效性驗證結(jié)果
圖11 顯示了對聯(lián)合學(xué)習(xí)框架有效性驗證實驗中,單一Restormer模型和聯(lián)合學(xué)習(xí)框架模型的偽影校正結(jié)果。驗證結(jié)果表示,聯(lián)合學(xué)習(xí)框架模型結(jié)果能夠很好地去除牙齒周圍的結(jié)構(gòu)模糊,對牙齒組織結(jié)構(gòu)的恢復(fù)效果也較好。表3為圖11所示圖像的定量評價指標(biāo),結(jié)果顯示聯(lián)合學(xué)習(xí)框架模型在PSNR、SSIM和RMSE的指標(biāo)上均優(yōu)于單一Restormer模型。
3 討論
為解決牙科CBCT掃描中患者不自主運動導(dǎo)致的重建圖像運動偽影問題,本文提出了一種基于深度模糊學(xué)習(xí)的牙科CBCT運動偽影校正算法(DMBL),對運動導(dǎo)致的退化過程進(jìn)行建模。具體地,本文首先通過模糊編碼器提取運動相關(guān)的退化特征,然后將運動退化特征輸入到偽影校正模塊進(jìn)行偽影去除。其中,偽影校正模塊采用圖像模糊去除和圖像模糊仿真的聯(lián)合學(xué)習(xí)框架[24],以加強模糊編碼器提取運動特征的性能,使網(wǎng)絡(luò)能夠處理空間變化且復(fù)雜的運動模式,提升模型的偽影校正性能。
本文采用牙科CBCT仿真運動數(shù)據(jù)集和臨床運動數(shù)據(jù)集進(jìn)行評估。從仿真數(shù)據(jù)和臨床數(shù)據(jù)的校正結(jié)果可以觀察到,U-Net 結(jié)果中出現(xiàn)圖像過模糊,這是由于運動圖像與真值圖像之間存在像素不匹配,僅采用像素級損失會導(dǎo)致圖像損失高頻信息[32]。WGAN結(jié)果能夠去除牙齒周圍的條狀偽影,但是會在牙齒附近引入新的偽影,其原因可能是在網(wǎng)絡(luò)訓(xùn)練過程中,網(wǎng)絡(luò)將圖像中牙齒區(qū)域的偽影特征當(dāng)成牙齒特征進(jìn)行學(xué)習(xí)[18]。HINet[29]和Restormer[30]結(jié)果可以去除圖像中的大部分條紋偽影和牙齒組織周圍的邊緣模糊,但丟失了一些牙齒邊緣細(xì)節(jié)和骨組織結(jié)構(gòu),同時仍有部分牙齒存在結(jié)構(gòu)失真,如牙齒邊緣未閉合。與上述方法相比,本文提出的DMBL模型可以更有效地抑制圖像中存在的運動條紋偽影,以及牙齒和骨組織區(qū)域的邊緣模糊,同時能夠更好地保持高頻區(qū)域如牙齒和骨組織的結(jié)構(gòu)細(xì)節(jié)。同時,本文所提模型對于圖像中層與層之間的運動偽影也有較好的校正效果,能夠去除骨組織的層間混疊及條紋偽影,同時恢復(fù)結(jié)構(gòu)信息。這些結(jié)果說明本文采用的模糊學(xué)習(xí)策略,可以有效地提取圖像中的運動退化特征,使運動校正模型能夠更好地處理運動導(dǎo)致的偽影。在定量評估結(jié)果中,本文所提方法取得了最高的PSNR指標(biāo),最高的SSIM指標(biāo)和最低的RMSE指標(biāo),充分證實了本文所提方法可以更好地去除牙科CBCT 圖像中的運動偽影,同時保留更多的細(xì)節(jié)和組織結(jié)構(gòu)信息。
在聯(lián)合學(xué)習(xí)框架有效性驗證實驗中,通過圖像分析和定量分析結(jié)果可以看出引入聯(lián)合學(xué)習(xí)框架可以加強模糊編碼模塊提取運動特征的性能,從而有效地指導(dǎo)運動偽影去除任務(wù),提高運動校正網(wǎng)絡(luò)去除運動偽影的性能。實驗驗證了聯(lián)合學(xué)習(xí)框架的有效性。
在數(shù)據(jù)仿真方面,現(xiàn)有運動仿真方法通過在前投影過程中加入運動軌跡來獲取運動數(shù)據(jù)[19],但是這類方法得到的仿真投影數(shù)據(jù)和真實數(shù)據(jù)存在不一致,從而降低配對數(shù)據(jù)的質(zhì)量,影響網(wǎng)絡(luò)訓(xùn)練。為此,本文提出一種基于投影幾何矩陣的運動仿真方法,采用隨機運動矩陣對CBCT投影幾何矩陣進(jìn)行運動調(diào)制,并在重建過程中引入運動信息。本方法獲得的仿真運動數(shù)據(jù)與真實數(shù)據(jù)有著近似的圖像偽影表征,同時能夠避免前投影仿真方法中存在的數(shù)據(jù)不一致問題,提供優(yōu)質(zhì)的配對運動數(shù)據(jù)用于網(wǎng)絡(luò)訓(xùn)練。
在損失函數(shù)方面,由于CBCT存在三維運動,考慮到運動配對數(shù)據(jù)之間會存在像素的偏移,從而導(dǎo)致網(wǎng)絡(luò)處理結(jié)果中出現(xiàn)圖像分辨率損失,本研究引入上下文損失[26]對圖像高頻區(qū)域進(jìn)行約束,以保持牙齒和骨小梁等高頻區(qū)域的細(xì)節(jié)。
本文方法的優(yōu)勢在于:牙科CBCT掃描中的剛性運動發(fā)生在三維空間,其運動模式較為復(fù)雜,產(chǎn)生的偽影表征與組織區(qū)域和運動劇烈程度有關(guān),包含空間變化的運動信息,現(xiàn)有運動校正網(wǎng)絡(luò)很難處理這類復(fù)雜偽影[31],本文提出的DMBL模型采用模糊編碼器對運動退化過程進(jìn)行建模,以提取空間變化的運動特征,同時引入一種聯(lián)合學(xué)習(xí)框架增強模糊編碼器提取特征的能力,使得模型能夠處理各種復(fù)雜的運動偽影;引入上下文損失,以保持牙科CBCT圖像中牙齒和骨小梁等高頻區(qū)域的細(xì)節(jié)紋理;與現(xiàn)有仿真方法相比,本文采用基于投影幾何矩陣的運動仿真方法,能夠避免現(xiàn)有方法中存在的數(shù)據(jù)不一致問題,獲取優(yōu)質(zhì)的運動配對數(shù)據(jù)用于網(wǎng)絡(luò)訓(xùn)練。
本研究存在一定的不足和發(fā)展空間:本文實驗所用的患者數(shù)據(jù)有限,而現(xiàn)實中的患者運動存在更復(fù)雜的情形,例如患者牙齒部分存在金屬時,重建圖像中金屬偽影的存在會讓運動偽影的表征變得更加復(fù)雜,下一步工作將針對此類數(shù)據(jù)進(jìn)行擴充,將本文方法拓展到含有金屬的運動場景;雖然仿真所用的隨機運動矩陣能涵蓋一定運動模式,仿真得到的運動偽影也接近臨床真實數(shù)據(jù),但仍有部分運動模式?jīng)]有被覆蓋,未來的工作將結(jié)合實際掃描過程中患者的運動情形對運動矩陣加以約束,得到更優(yōu)質(zhì)的運動配對數(shù)據(jù)用于網(wǎng)絡(luò)訓(xùn)練。
綜上所述,本文算法采用圖像模糊去除和圖像模糊仿真的聯(lián)合學(xué)習(xí)框架,提高模糊編碼器的運動特征提取能力,使得網(wǎng)絡(luò)能夠處理復(fù)雜的運動模式,從而更有效地抑制運動偽影,同時保留更多的結(jié)構(gòu)信息。本文算法可以有效去除牙科CBCT圖像中的運動偽影,實現(xiàn)高質(zhì)量圖像恢復(fù),具有良好的臨床應(yīng)用潛力。
參考文獻(xiàn):
[1] Kaasalainen T, Ekholm M, Siiskonen T, et al. Dental cone beam CT:an updated review[J]. Phys Med, 2021, 88: 193-217.
[2] Nemtoi A, Czink C, Haba D, et al. Cone beam CT: a currentoverview of devices[J]. Dentomaxillofac Radiol, 2013, 42(8):20120443.
[3] Spin-Neto R, Wenzel A. Patient movement and motion artefacts incone beam computed tomography of the dentomaxillofacial region:a systematic literature review[J]. Oral Surg Oral Med Oral PatholOral Radiol, 2016, 121(4): 425-33.
[4] Hanzelka T, Dusek J, Ocasek F, et al. Movement of the patient andthe cone beam computed tomography scanner: objectives andpossible solutions[J]. Oral Surg Oral Med Oral Pathol Oral Radiol,2013, 116(6): 769-73.
[5] Spin-Neto R, Costa C, Salgado DM, et al. Patient movementcharacteristics and the impact on CBCT image quality andinterpretability[J]. Dentomaxillofac Radiol, 2018, 47(1): 20170216.
[6] Weisenberger AG, Gleason SS, Goddard J, et al. A restraint-freesmall animal SPECT imaging system with motion tracking[J].IEEE Trans Nucl Sci, 2005, 52(3): 638-44.
[7] Herzog H, Tellmann L, Fulton R, et al. Motion artifact reduction onparametric PET images of neuroreceptor binding[J]. J Nucl Med,2005, 46(6): 1059-65.
[8] Kim JH, Nuyts J, Kyme A, et al. A rigid motion correction methodfor helical computed tomography (CT)[J]. Phys Med Biol, 2015, 60(5): 2047-73.
[9] Kyme AZ, Se S, Meikle SR, et al. Markerless motion estimation formotion-compensated clinical brain imaging[J]. Phys Med Biol,2018, 63(10): 105018.
[10]Sisniega A, Stayman JW, Yorkston J, et al. Motion compensation inextremity cone-beam CT using a penalized image sharpness criterion[J]. Phys Med Biol, 2017, 62(9): 3712-34.
[11]Maur S, Stsepankou D, Hesser J. Auto-calibration by locallyconsistent contours for dental CBCT[J]. Phys Med Biol, 2018, 63(21): 215018.
[12]Huang H, Siewerdsen JH, Zbijewski W, et al. Reference-freelearning-based similarity metric for motion compensation in conebeamCT[J]. Phys Med Biol, 2022, 67(12): 10.1088/1361-6560/ac749a.
[13]Hahn J, Bruder H, Rohkohl C, et al. Motion compensation in theregion of the coronary arteries based on partial angle reconstructionsfrom short-scan CT data[J]. Med Phys, 2017, 44(11): 5795-813.
[14]Berger M, Xia Y, Aichinger W, et al. Motion compensation for conebeamCT using Fourier consistency conditions[J]. Phys Med Biol,2017, 62(17): 7181-215.
[15]Preuhs A, Maier A, Manhart M, et al. Symmetry prior for epipolarconsistency[J]. Int J Comput Assist Radiol Surg, 2019, 14(9):1541-51.
[16]Ouadah S, Jacobson M, Stayman JW, et al. Correction of patientmotion in cone-beam CT using 3D-2D registration[J]. Phys MedBiol, 2017, 62(23): 8813-31.
[17]Niebler S, Sch?mer E, Tjaden H, et al. Projection-basedimprovement of 3D reconstructions from motion-impaired dentalcone beam CT data[J]. Med Phys, 2019, 46(10): 4470-80.
[18]Hu ZL, Jiang CH, Zhang QY, et al. Wasserstein generativeadversarial networks for motion artifact removal in dental CTimaging[C]//Medical Imaging 2019: Physics of Medical Imaging.February 16-21, 2019. San Diego, USA. SPIE, 2019: 1094836.
[19]Su B, Wen YT, Liu YY, et al. A deep learning method for eliminatinghead motion artifacts in computed tomography[J]. Med Phys, 2022,49(1): 411-9.
[20]Ko Y, Moon S, Baek J, et al. Rigid and non-rigid motion artifactreduction in X-ray CT using attention module[J]. Med Image Anal,2021, 67: 101883.
[21]Spin-Neto R, Matzen LH, Schropp LW, et al. An ex vivo study ofautomated motion artefact correction and the impact on cone beamCT image quality and interpretability[J]. DentomaxillofacialRadiol, 2018: 20180013.
[22]Kim JH, Sun T, Alcheikh AR, et al. Correction for human headmotion in helical X-ray CT[J]. Phys Med Biol, 2016, 61(4):1416-38.
[23]Li XH, Da Z, Liu B. A generic geometric calibration method fortomographic imaging systems with flat-panel detectors: a detailedimplementation guide[J]. Med Phys, 2010, 37(7): 3844-54.
[24]Li DS, Zhang Y, Cheung KC, et al. Learning degradationrepresentations for image deblurring[C]//European Conference onComputer Vision. Cham: Springer, 2022: 736-753.
[25]Park T, Liu MY, Wang TC, et al. Semantic image synthesis withspatially-adaptive normalization[C]//2019 IEEE/CVF Conferenceon Computer Vision and Pattern Recognition (CVPR). Long Beach,CA, USA. IEEE, 2019: 2332-41.
[26]Mechrez R, Talmi I, Shama F, et al. Maintaining natural imagestatistics with the contextual loss[C]//Asian Conference onComputer Vision. Cham: Springer, 2019: 427-443.
[27]Ronneberger O, Fischer P, Brox T. U-net: convolutional networksfor biomedical image segmentation[M]//Lecture Notes inComputer Science. Cham: Springer International Publishing, 2015:234-41.
[28]Gulrajani I, Ahmed F, Arjovsky M, et al. Improved training ofWasserstein GANs[C]//Proceedings of the 31st InternationalConference on Neural Information Processing Systems. December 4?9, 2017, Long Beach, California, USA. ACM, 2017: 5769-79.
[29]Chen LY, Lu X, Zhang J, et al. HINet: half instance normalizationnetwork for image restoration[C]//2021 IEEE/CVF Conference onComputer Vision and Pattern Recognition Workshops (CVPRW).Nashville, TN, USA. IEEE, 2021: 182-92.
[30]Zamir SW, Arora A, Khan S, et al. Restormer: efficient transformerfor high-resolution image restoration[C]//2022 IEEE/CVFConference on Computer Vision and Pattern Recognition (CVPR).New Orleans, LA, USA. IEEE, 2022: 5718-29.
[31]Sun T, Jacobs R, Pauwels R, et al. A motion correction approach fororal and maxillofacial cone-beam CT imaging[J]. Phys Med Biol,2021, 66(12): 125008.
[32]Wang ZH, Chen J, Hoi SCH. Deep learning for image superresolution:a survey[J]. IEEE Trans Pattern Anal Mach Intell, 2021,43(10): 3365-87.
(編輯:經(jīng) 媛)
基金項目:國家自然科學(xué)基金(U21A6005,12226004);廣州市科技計劃項目(202206010148)