馬 燕, 鐘發(fā)生, 劉豐林
(1.重慶大學 光電技術及系統(tǒng)教育部重點實驗室, 重慶 400044;2.重慶大學 工業(yè)CT無損檢測教育部工程研究中心, 重慶 400044)
計算機斷層成像 (Computed Tomography,CT)技術通過計算穿過被掃描物體的X射線衰減值,獲取物體的斷層結(jié)構(gòu)信息[1]。在臨床領域,CT技術提供比數(shù)字X射線成像技術更高的組織密度分辨率,使醫(yī)生快速清楚地識別組織器官、準確診斷病變范圍,進一步推動了病理研究和臨床診斷的發(fā)展。在CT成像過程,若被掃描對象包含具有高衰減系數(shù)的金屬物質(zhì)時,會導致重建圖像中出現(xiàn)金屬偽影[2]。金屬偽影的表現(xiàn)形式為金屬物體的周圍存在黑色的暗帶缺失區(qū)域或黑白相間的放射狀條紋[3],如圖1所示。
圖1 金屬偽影CT圖像
在臨床診斷中,病人體內(nèi)的金屬固定修復體、金屬矯治器、關節(jié)假體、金屬釘?shù)群饘俪煞值奈矬w都會產(chǎn)生金屬偽影[4]。金屬偽影會阻礙組織類型的準確區(qū)分,影響后續(xù)診斷結(jié)果的準確性[5]。金屬偽影校正的研究對提高重建圖像清晰度和確保CT圖像應用的準確性具有重要意義,對現(xiàn)有校正算法的改進與優(yōu)化已成為學術研究和應用價值研究的重要課題之一。
近幾十年,學者們提出大量金屬偽影去除方法(Metal Artifact Reduction, MAR)。現(xiàn)階段軟件校正的方法分為五大類:基于物理效應的預處理、迭代重建、基于投影域的插值法、混合校正方法以及基于深度學習的校正方法[6-7]。一般可以通過設置CT掃描采集參數(shù)或改變獲取掃描數(shù)據(jù)的方式減少金屬偽影的生成,但在偽影情形復雜的情況下無法徹底將其消除,需要采用基于軟件校正的處理技術。基于物理效應的預處理技術旨在對形成金屬偽影的物理效應建立模型并擬和校正曲線,通過濾波、迭代等方法對數(shù)據(jù)進行校正以改進重建結(jié)果[8-9]。存在高原子序數(shù)金屬的情況下,該方法誤差較大。迭代重建法在迭代過程中引入適當?shù)恼齽t項以抑制金屬偽影[10-11]。迭代法具有較強的抗噪性能,但由于算法步驟復雜耗時,其實用性受到限制。目前最常用、發(fā)展最廣泛的MAR方法是投影插值法,其簡單快速易實現(xiàn),可以有效抑制大部分金屬偽影[12-13]。實際應用中,在金屬偽影校正時通常會結(jié)合不同校正機制的MAR方法達到理想的校正效果[14]。
隨著計算機數(shù)據(jù)處理能力的提高,深度學習已廣泛應用于圖像分類[15]、圖像檢測[16]、圖像去噪[17-18]等領域,在CT圖像金屬校正領域也展現(xiàn)出巨大潛力。2017年,Gjesteby[19]首次將深度學習的神經(jīng)網(wǎng)絡引入金屬偽影校正領域,將卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)與傳統(tǒng)的歸一化金屬偽影校正算法(Normalized MAR, NMAR)相結(jié)合,利用CNN網(wǎng)絡完成從NMAR校正圖像到無金屬偽影圖像的端到端映射,在視覺上取得較理想校正效果,結(jié)果表明深度學習是去除CT圖像金屬偽影的有力辦法。2018年,Zhang[20]提出使用簡單的CNN網(wǎng)絡訓練結(jié)合圖像域后處理的偽影校正方法。該方法生成的圖像質(zhì)量優(yōu)于傳統(tǒng)MAR方法校正后的圖像,偽影去除效果明顯。2020年,我們提出一種基于殘差編解碼網(wǎng)絡(Residual Encoder-Decoder Convolutional Neural Network,RED-CNN)的金屬偽影校正(RED-CNN Metal Artifact Reduction,RED-CNN-MAR)算法[21]。將RED-CNN網(wǎng)絡作為利用多種校正算法進行圖像修復的工具,其三通道輸入為原始圖像和兩幅不同的校正圖像,并使用組織處理技術消除水當量組織的數(shù)據(jù)不一致性。該算法可以去除CT圖像中微弱的金屬偽影,提高偽影校正效果。
為進一步消除CT圖像中平坦區(qū)域以及不同組織交界處殘留的金屬偽影,恢復原始真實的圖像細節(jié),本文提出了基于Pix2Pix網(wǎng)絡的金屬偽影校正(Pixel to Pixel Network Metal Artifact Reduction,Pix2Pix-MAR)算法。生成器模型選取RED-CNN網(wǎng)絡框架來完成圖像合成的工作,增強模型的擬合能力;在鑒別器的輔助下進一步約束目標圖像與生成圖像之間的相關性,并且鑒別器使用提取圖像塊進行加權求和計算平均值的方式進行判定,能夠關注局部圖像塊之間的關聯(lián)性,恢復出更細微的組織結(jié)構(gòu)信息。
文獻[21]提出采用RED-CNN網(wǎng)絡初步完成金屬偽影的修復工作,對網(wǎng)絡訓練所得圖像使用組織處理技術進一步消除殘留的微弱偽影,該方法中RED-CNN網(wǎng)絡結(jié)構(gòu)如圖2所示。該網(wǎng)絡主要包含兩個模塊:編碼網(wǎng)絡和解碼網(wǎng)絡。編碼網(wǎng)絡由實現(xiàn)特征提取的五層卷積層構(gòu)成,其單元組成是Conv+BN+ReLU;解碼網(wǎng)絡由實現(xiàn)特征重組的五層反卷積層組成,其單元組成是Convt+BN+ReLU。在編碼網(wǎng)絡與解碼網(wǎng)絡之間加入跳躍連接結(jié)構(gòu)形成殘差網(wǎng)絡以保護信息的完整性。卷積層提取不同層次的不同特征,反卷積層將提取的特征進行逆向求解重構(gòu)輸入。
圖2 RED-CNN網(wǎng)絡結(jié)構(gòu)圖
接著將RED-CNN網(wǎng)絡訓練后與圖像域后處理的方法相結(jié)合,對RED-CNN輸出圖像進行二次修復。采用組織處理技術為水當量組織像素分配一個統(tǒng)一的值以達到消除偽影像素的目的。
用于偽影校正時,RED-CNN網(wǎng)絡訓練后的圖像可消除大部分重度偽影,但是在平坦區(qū)域仍存在明暗相間的窄條帶狀偽影,為消除遺留的金屬偽影,仍需要采用組織處理技術對圖像進行二次修復。為更好地恢復圖像細節(jié)并直接完成金屬偽影CT圖像到無金屬偽影CT圖像端到端的映射,本文考慮使用轉(zhuǎn)換能力更強的生成式對抗網(wǎng)絡模型進行圖像訓練,完成修復工作,并且舍棄神經(jīng)網(wǎng)絡訓練之后的組織處理技術,使操作更為快捷、方便。
相對于生成式對抗網(wǎng)絡(Generative Adversarial Network, GAN)的生成器與鑒別器的輸入,條件生成式對抗網(wǎng)絡(Conditional Generative Adversarial Network, CGAN)[22]引入附加條件使模型可以在有監(jiān)督的模式下進行訓練,這個附加條件通常是理想條件下的目標圖像,最終形成由輸入圖像到標簽圖像端到端的映射關系。圖3所示為CGAN網(wǎng)絡的組成結(jié)構(gòu)圖。
圖3 CGAN網(wǎng)絡結(jié)構(gòu)圖
CGAN的目標函數(shù)可以表述成如下形式:
Ez~pz(z)[log(1-D(G(z∣y)))]
(1)
式中,E(*)為分布函數(shù)的期望值;Pdata(x)為真實樣本的數(shù)據(jù)分布;Pz(z)為輸入的噪聲變量標簽;y為附加條件,用于約束網(wǎng)絡的映射關系。在附加條件的約束下,生成器輸入的訓練圖像隨著特定的擬合方向合成新的圖像,使得生成結(jié)果的方式不是完全無監(jiān)督的。
金屬偽影的校正問題可以表述為金屬偽影CT圖像到無金屬偽影CT圖像的轉(zhuǎn)換問題。本文將CGAN網(wǎng)絡用于圖像域以修復有金屬偽影的CT圖像。與殘差網(wǎng)絡相比,CGAN網(wǎng)絡在圖像修復領域具有更好的表現(xiàn)能力,基于博弈對抗思想的模型能充分地利用提取到的圖像特征,在優(yōu)化迭代的過程中生成接近參考圖像的結(jié)果。
本文不使用CGAN網(wǎng)絡的生成器與鑒別器的組成結(jié)構(gòu),使用改進型CGAN網(wǎng)絡,即Pix2Pix網(wǎng)絡[23]完成偽影校正工作。其生成器模型采用RED-CNN網(wǎng)絡框架,鑒別器采用PatchGAN網(wǎng)絡。
圖4是本文Pix2Pix-MAR算法的網(wǎng)絡模型結(jié)構(gòu)圖。生成器網(wǎng)絡G的輸入是金屬偽影CT圖像xmetal,生成的圖像是網(wǎng)絡訓練后的校正圖像G(xmetal);鑒別器D的輸入是校正圖像G(xmetal)或原始無金屬偽影CT圖像xclean。鑒別器的訓練工作是在以原始無金屬偽影CT圖像xclean作為參考條件輸入的情況下進行的。
圖4 基于Pix2Pix-MAR網(wǎng)絡的模型結(jié)構(gòu)圖
在優(yōu)化生成器時,輸入有金屬偽影的CT圖像,經(jīng)過生成器網(wǎng)絡G訓練能夠生成迷惑判別器模型的校正圖像G(xmetal),使圖像G(xmetal)盡可能地“騙過”判別器模型,判別為“真”。在優(yōu)化判別器時,判別模型D在標簽圖像xclean存在的情況下,接受輸入圖像并判別該輸入是來自真實無金屬偽影CT圖像xclean還是由生成器偽造的生成圖像G(xmetal)。在有標簽圖像xclean的約束下,當輸入圖像來自生成器生成的校正圖像G(xmetal)時,判別器判定結(jié)果為“假”;當輸入圖像取自真實圖像xclean時,判別器判定結(jié)果為“真”。理想的優(yōu)化結(jié)果是判別器與生成器達到平衡,鑒別器無法準確分辨生成圖像和真實圖像。
2.1.1 生成器網(wǎng)絡
使用RED-CNN模型框架作為生成器網(wǎng)絡,殘差學習可以促進卷積層和相應反卷積層之間的信息傳遞。為加強生成器模型的合成效果,將無金屬偽影CT圖像作為條件約束加入到模型中,明確訓練圖像與參考圖像之間端到端的映射關系,生成的圖像結(jié)構(gòu)細節(jié)更完善、分辨率更高。
該網(wǎng)絡的生成器部分使用文獻[21]中的RED-CNN網(wǎng)絡框架,結(jié)構(gòu)深度為12層,包含6層卷積層與6層反卷積層,在卷積層與反卷積層之間引入殘差映射機制形成殘差網(wǎng)絡。編碼網(wǎng)絡利用卷積層提取不同層次的不同特征數(shù)據(jù),將特征組合映射到一個非線性空間。如圖5所示,編碼網(wǎng)絡每一個小單元組成為Conv+BN+LReLU。在卷積之后,激活函數(shù)LReLU之前執(zhí)行批量歸一化操作(Batch Normalization,BN)。BN層可以解決訓練過程中訓練數(shù)據(jù)與測試數(shù)據(jù)偏離同分布的問題,改善梯度彌散、加快訓練速度[24]。編碼網(wǎng)絡第一層的輸入為尺寸大小是512×512的圖像,每一層使用卷積核大小為4×4的濾波器進行特征提取,步幅和填充均設置為2,每層卷積運算之后輸出特征向量大小變?yōu)樵瓉淼囊话耄繉泳矸e核的數(shù)目增加為前一層的二倍,由第一層的32增加到最后一層的512,逐漸增多提取特征的種類。
解碼網(wǎng)絡利用反卷積層將提取的特征進行逆向求解重構(gòu)輸入。如圖5所示,解碼網(wǎng)絡每一個小單元組成為Convt+BN+ReLU。在反卷積之后,激活函數(shù)ReLU之前執(zhí)行BN層操作。第一層采用尺寸大小為3×3的反卷積核,步幅和填充設置為1;之后的層次均使用尺寸大小為4×4的反卷積核,步幅與填充設置為2。由于在編碼網(wǎng)絡與解碼網(wǎng)絡之間加入殘差連接結(jié)構(gòu)使得連接后特征向量維度加倍,所以卷積核的維度是從1024降為256,下一層是從512降為128,依次類推,最后一層得到大小為512×512×1的生成圖像。
圖5 Pix2Pix網(wǎng)絡的生成器網(wǎng)絡結(jié)構(gòu)圖
2.1.2 鑒別器網(wǎng)絡
鑒別器網(wǎng)絡的框架采用馬爾科夫鑒別器PatchGAN[25],該鑒別器對輸入圖像取塊區(qū)域進行預測,每個塊輸出一個預測概率值,最終的真?zhèn)闻卸ǜ怕手等∷袎K的平均值。采用基于局部圖像塊判別的PatchGAN判別器可以提高判別精度,加強圖像中精細結(jié)構(gòu)細節(jié)的恢復。對于某些特征差異大的局部圖像特征,如金屬偽影造成的暗帶區(qū)域與組織的交界處能更好地識別處理,去除不同組織交界處殘留的偽影,使最終生成的圖像更接近真實的參考圖像。
如圖6所示,鑒別器網(wǎng)絡每一層組成為Conv+BN+LReLU,每層卷積核尺寸大小為4×4,第一層數(shù)目為32,之后每層的卷積核個數(shù)依次為上一層的2倍,步幅和步長均設置為2。PatchGAN鑒別網(wǎng)絡在整張圖像中的若干個局部圖像塊基礎上進行評價,首先輸出一個N×N的矩陣,這個矩陣中的每一個元素代表每個局部圖像塊為真實圖像的概率,將矩陣中所有元素求和取均值得到判別網(wǎng)絡的最終輸出。PatchGAN網(wǎng)絡對局部圖像塊進行分析,元素之間較強的局部關聯(lián)性更能關注到圖像的局部細節(jié),由于提取的圖像塊的大小遠遠小于整張圖像的尺寸,多層次的卷積可以提取到不同位置不同層次的精細局部特征信息,在校正金屬偽影的同時可以保持圖像的細節(jié)和高分辨率。
圖6 鑒別器PatchGAN網(wǎng)絡結(jié)構(gòu)圖
利用Pix2Pix網(wǎng)絡對金屬偽影CT圖像進行訓練時的優(yōu)化目標包含兩個部分:Pix2Pix網(wǎng)絡的對抗損失函數(shù)Ladv與L1范數(shù)損失函數(shù)Ll1[22-23]。完整的損失函數(shù)如公式(2)所示:
L=Ladv+λLl1
(2)
式中,λ為用于控制L1范數(shù)損失函數(shù)的權重;λ設置為10。
2.2.1 對抗損失函數(shù)
Pix2Pix網(wǎng)絡的目標函數(shù)是基于帶有條件概率的極大極小值博弈理論,其對抗損失函數(shù)定義為:
Ladv=Exclean[logD(xclean,xclean)]+
Exmetal,xclean[log(1-D(xclean,G(xmetal))]
(3)
式中,xmetal為原始未校正圖像;xclean為標簽圖像即無金屬偽影圖像;G為生成器網(wǎng)絡;D為鑒別器網(wǎng)絡;G(xmetal)為生成器根據(jù)輸入圖像生成的校正圖像;D(xclean,xclean)為在有標簽圖像xclean的條件下,判斷輸入圖像xclean的真?zhèn)?;D(xclean,G(xmetal))為在有xclean的條件下,判斷輸入圖像G(xmetal)的真?zhèn)巍?/p>
判別器D的優(yōu)化目標是使鑒別器能正確判定的概率最小化,即式(3)整體的期望值越大越好;而生成器G的優(yōu)化目標是使鑒別器能正確判定的概率最小化,即式(3)整體的期望值越小越好。交替更新D和G的參數(shù),直到判別器無法區(qū)分生成圖像和真實圖像為止。
2.2.2 L1范數(shù)損失函數(shù)
進一步引入L1范數(shù)損失函數(shù)以提高生成圖像的質(zhì)量,增強配對數(shù)據(jù)之間的一致性。L1范數(shù)損失函數(shù)定義為目標圖像xclean與生成圖像G(xmetal)之間的差值的絕對值:
(4)
式中,n為訓練樣本的數(shù)量。L1范數(shù)損失函數(shù)可以約束生成器生成的校正圖像和目標圖像之間的相關性,通過最小化該損失函數(shù)使得生成圖像更接近于目標圖像,提高校正圖像質(zhì)量。
為確保Pix2Pix網(wǎng)絡訓練的有效性,需要采用與文獻[21]相同的數(shù)據(jù)集和采用真實臨床CT圖像來生成金屬偽影圖像。從“The 2016 Low-dose CT Grand Challenge”數(shù)據(jù)集中收集大量DICOM格式的臨床CT圖像[26],并收集金屬物體數(shù)據(jù)將其存儲二值圖像以代表真實情況下的典型金屬物體,利用其生成各種金屬植入物,如手術夾、鋼釘、人工關節(jié)、種植牙等。將一個或多個二元金屬物體放置到適當?shù)慕馄饰恢茫{(diào)整金屬植入物的位置、角度、大小與插入的金屬材料種類,生成像素大小為512×512的金屬偽影圖像。該數(shù)據(jù)庫中的代表性樣本如圖7所示,每一列代表一種金屬偽影案例情形。將數(shù)據(jù)庫中的圖像進行旋轉(zhuǎn)、翻轉(zhuǎn)、放大、裁剪生成9500幅大小為512×512的圖像。為保證訓練所得模型的有效性,將數(shù)據(jù)集分成兩部分,其中80%的數(shù)據(jù)用于訓練,20%的數(shù)據(jù)用于測試。
圖7 數(shù)據(jù)庫中的代表性樣本
本文算法在PyCharm平臺上使用Tensorflow框架完成訓練與測試,電腦硬件配置為Intel(R) Core(TM) i7-7800X CPU @ 3.50GHz,使用了兩個型號為NVDIA GeForce GTX 1080 Ti的顯卡配合CUDA9.0進行GPU加速,該顯卡處理內(nèi)存為11G。訓練輪次(epoch)設置為1000,批處理參數(shù)(batchsize)設置為64,采用β=0.5的目標函數(shù)優(yōu)化器Adam。初始學習率設為0.0001,模型訓練過程中,在完成500個Epoch的迭代訓練之后將學習率下降為0.000 01,經(jīng)過約126 h后完成訓練。
選取LI-NMAR算法[12]、CNN-MAR算法[20]和RED-CNN-MAR算法[21]作為本文實驗的對比算法。其中LI-NMAR方法是將線性插值校正后的圖像作為NMAR算法的初始圖像進行校正。選取訓練集外的三個案例進行測試,包括牙齒種植體、頭部金屬植入物和胸部金屬植入物。
通過對偽影校正后的重建圖像與未校正的金屬偽影圖像進行觀察對比,從偽影去除、邊緣恢復和細節(jié)保留三個方面進行評估。
對(案例一)牙齒種植體進行測試,其校正效果圖如圖8所示??梢钥闯觯煌惴ㄐU?,偽影均得到有效抑制。相較于前幾種方法,Pix2Pix-MAR方法的偽影消除效果較好。在圖9的感興趣區(qū)域1中,有效消除了明暗相間的條形偽影,且上顎區(qū)域的軟組織區(qū)域恢復出的組織細節(jié)更平滑干凈,圖像清晰度明顯提高。感興趣區(qū)域2中恢復出的牙齒邊緣輪廓更加清晰完整,但是由于圖像平滑度增高在一定程度上造成少量低對比度組織的細節(jié)丟失。
圖8 牙齒種植體的實驗結(jié)果對比圖(a)~(f)分別是參考圖像、原始圖像、LI-NMAR、CNN-MAR、RED-CNN-MAR、Pix2Pix-MAR圖像
圖9 圖8(a)~(f)對應的ROI1、ROI2局部放大圖
對(案例二)頭部金屬植入物進行測試。圖10中給出頭部金屬植入物經(jīng)過不同算法校正后的效果圖。經(jīng)過不同算法校正后偽影均得到有效抑制,在RED-CNN-MAR圖像中金屬周圍的軟組織區(qū)域結(jié)構(gòu)恢復較為完整。Pix2Pix-MAR圖像相較于前幾種算法,偽影消除較徹底,前幾種方法中在較為平緩的軟組織區(qū)域均出現(xiàn)由偽影造成的輕微黑白相間的組織失真現(xiàn)象,而Pix2Pix-MAR方法校正后的圖像軟組織區(qū)域更完整清晰,結(jié)果更接近真實的參考圖像。并且在箭頭3所指處,即骨骼與軟組織交界處偽影消除徹底,組織邊緣和結(jié)構(gòu)清晰,圖像質(zhì)量顯著提升。
圖10 頭部金屬植入物的實驗結(jié)果對比圖(a)~(f)分別是參考圖像、原始圖像、LI-NMAR、CNN-MAR、RED-CNN-MAR、Pix2Pix-MAR算法校正后的圖像
對(案例三)胸部金屬植入物進行測試。如圖11所示為各算法校正后的結(jié)果圖。與前幾種算法相比,Pix2Pix-MAR方法校正后,金屬偽影得到有效抑制。金屬與軟組織交界處的金屬偽影明顯消失,金屬的輪廓邊緣更清晰完整;在箭頭4所指處,恢復出了不同骨骼組織的輪廓邊緣,組織間隙明顯,生成的圖像更近于真實無金屬偽影圖像。
圖11 胸部金屬植入物的實驗結(jié)果對比圖(a)~(f)分別是參考圖像、原始圖像、LI-NMAR、CNN-MAR、RED-CNN-MAR、Pix2Pix-MAR圖像
在數(shù)值分析方面驗證該方法的可行性,采用客觀評價指標采用結(jié)構(gòu)相似性指數(shù)(Structural Similarity Index Measure, SSIM)、均方根誤差(Root Mean Square Error, RMSE)和峰值信噪比(Peak Signal To Noise Ratio, PSNR)對不同算法校正后的圖像進行評估。它們的定義如下:
(5)
(6)
(7)
各校正圖像的評價指標計算結(jié)果如表1所示。在案例一和案例二中,該算法相較于前兩種算法質(zhì)量評價指標顯著提升。與RED-CNN-MAR方法相比,Pix2Pix-MAR圖像的SSIM值分別提高0.0031和0.0087,PSNR值分別提升2.9192 dB和1.7961 dB;其次,RMSE值也分別減小0.0072和0.0029。在案例三中,該算法也取得了較高的SSIM值、PSNR值與較低的RMSE值。
表1 多種算法的定量評價結(jié)果
Pix2Pix-MAR算法校正后圖像質(zhì)量評價指標的提升驗證了該算法的有效性和優(yōu)異性,應用該算法對金屬偽影的校正效果較好,且恢復出的組織結(jié)構(gòu)細節(jié)更完整、準確。
與RED-CNN-MAR方法相比,加入條件標簽后的Pix2Pix網(wǎng)絡在監(jiān)督訓練的情況下合成圖像,結(jié)合判別器的判定結(jié)果可以使生成圖像更接近于目標圖像,兩者間的相互制衡進一步消除過渡區(qū)域組織結(jié)構(gòu)的數(shù)據(jù)誤差,提高圖像分辨力。此外,鑒別器采用PatchGAN網(wǎng)絡關注生成圖像與目標圖像之間局部圖像塊的相似性,與判定整張圖像相比,局部圖像塊提取到的細節(jié)特征更豐富,能分辨生成圖像與參考圖像之間更加細微的差別,所以Pix2Pix-MAR方法具有較強的細節(jié)恢復能力。
綜上所述,Pix2Pix-MAR方法生成圖像的評價指標均有所提高,可以消除不同組織過渡區(qū)域殘留的微弱金屬偽影,并完整地恢復金屬植入物所處的骨骼區(qū)域結(jié)構(gòu)或軟組織區(qū)域,生成的圖像較清晰、真實。但是,由于其較強的平滑修復性能,導致少量低對比度的特征在算法校正后失去原有的細節(jié)。
實際應用中,金屬偽影校正技術的發(fā)展對CT診斷和圖像分析起著至關重要的作用,深度學習為MAR算法的發(fā)展提供更多的可能性。針對現(xiàn)有MAR算法中圖像細節(jié)恢復不完整、平坦區(qū)域或組織交界處偽影消除不徹底等問題,本文提出一種基于條件生成式對抗網(wǎng)絡的金屬偽影校正算法。該方法利用Pix2Pix網(wǎng)絡直接完成金屬偽影CT圖像到無金屬偽影CT圖像的轉(zhuǎn)換工作。其中,生成器模型采用RED-CNN網(wǎng)絡框架,鑒別器模型采用基于判定局部圖像塊的PatchGAN網(wǎng)絡,并將無金屬偽影的CT圖像作為標簽圖像加入到模型中監(jiān)督映射關系。
本文提出的算法可消除不同組織交界處殘留的微弱金屬偽影,恢復出真實的組織細節(jié)與清晰的邊緣輪廓,具有較強的偽影去除能力與較好的圖像修復能力。實驗結(jié)果表明,本文算法校正后的圖像質(zhì)量優(yōu)于前幾種算法,證明了該方法的有效性及優(yōu)越性。但是由于圖像平滑過度,導致圖像中少量低對比度細節(jié)丟失。如何進一步提高圖像質(zhì)量、保留圖像中更多的組織細節(jié)信息需進一步研究。