蘆 玥,馬 瑜,王 慧,王 原
(寧夏大學 物理與電子電氣工程學院,寧夏 銀川 750021)
人體腦組織主要包括有基底核與大腦皮層兩部分,由一系列的神經(jīng)核團組成的基底核位于大腦的深部,大腦皮層由覆蓋于端腦平面的灰質(zhì)以及皮層深部的白質(zhì)組成。磁共振成像(Magnetic Resonance Imaging,MRI)可清晰地分辨腦部灰質(zhì)、白質(zhì)及其余各神經(jīng)功能核團,其對比度特性豐富,細節(jié)精確,成為了醫(yī)學臨床中對腦功能研究、腦組織疾病預測、病灶確定及手術前中期輔助干預的主要手段。海馬體主要負責人類的記憶、學習、情感控制以及空間方向定位。同時,許多神經(jīng)系統(tǒng)疾病,如阿爾茲海默病、顳葉癲癇、精神分裂癥以及抑郁癥等,都與海馬體形態(tài)體積的改變有關。通過對腦部磁共振像的海馬體分割,實現(xiàn)海馬體的精確分割并對海馬體進行形態(tài)研究與體積的測量,對許多神經(jīng)系統(tǒng)疾病的研究及進行分析診斷有著重要的意義。
人腦海馬體形狀、大小不規(guī)則,邊緣模糊,難與其相鄰組織進行區(qū)分,因此傳統(tǒng)圖像分割算法在海馬體分割問題上,有著結(jié)果不理想、精確度下降等問題,同時,雖然手動分割的精確度較高,但耗時費力,缺乏重復性[1]。
眾多學者在半自動與全自動分割海馬體的方法上做了大量的研究[2],Jack、Bentley等將閾值法與邊界跟蹤法結(jié)合應用,對海馬結(jié)構(gòu)進行了人機交互的半自動分割,驗證了其精度和可重復性,結(jié)果證明這種方法具有較高的精度和可重復性[3]。Ashton等應用主動輪廓模型(Active Contour Model)即Snakes模型[4],實現(xiàn)海馬區(qū)的分割,此算法對目標起始輪廓的精度、位移不敏感[5]。Kelemen等提出了一種彈性變形表面模型(Elastically Deformabel Surface Model),將彈性變形表面模型作為已分割圖像的模型,能實現(xiàn)對海馬體的自動三維圖像分割,用彈性變形表面模型進行海馬體分割,具有自動、快速、精確的特點,應用前景廣闊[6]。最近幾年,基于模型分割已經(jīng)成為熱點,比如,Cremers提出用高斯函數(shù)訓練數(shù)據(jù)然后用其作為模型[7],Zhang[8]應用密度和幾何信息來控制在水平集下的曲線演化,Dambreville提出的卷積核碎片分析對幾何動態(tài)邊界引進形狀優(yōu)先[9]。然而,這些先前的工作通常需要人工獲得訓練數(shù)據(jù),而且需要做多次參數(shù)評估,這些都加大了算法的運算代價,在分割精度上也有待提高。
自2012年起,卷積神經(jīng)網(wǎng)絡在圖像分類和圖像識別檢測方面被廣泛應用并取得了巨大的成就,而全卷積神經(jīng)網(wǎng)絡(Fully Convolutional Networks,FCN)[10]將神經(jīng)網(wǎng)絡的圖像級別分類擴展到像素級別的分類。FCN既可以接受任意大小的輸入圖像而不用要求訓練圖像和測試圖像具有相同尺寸,又實現(xiàn)網(wǎng)絡的高效性。
U-Net網(wǎng)絡[11]借鑒了FCN的設計思想和相關方法實現(xiàn)語義分割,更加適合用于醫(yī)學圖像的分割。本文對U-Net網(wǎng)絡的卷積層數(shù)及網(wǎng)絡架構(gòu)進行優(yōu)化改進,將其應用到多圖譜的標簽融合分割中,進一步提高海馬體分割的精度及效率。
圖1 人體大腦MRIFig.1 Human brain MRI
人腦MRI中背景和非腦組織占有較大比重,容易造成配準的誤差,人體大腦MRI如圖1所示。剔除腦殼是重要的預處理工作,本文利用Bauer[12]提出的Brain Surface Extractor(BSE)算法剔除腦殼,克服了傳統(tǒng)BET算法運算時間長的缺點,并可以有效剔除影響配準精確度的腦殼與背景部分。BSE算法利用高斯拉普拉斯邊緣檢測算子(Laplacian of Gaussian,LoG)基于二階導數(shù)的邊緣檢測方法,將高斯平滑濾波器和拉普拉斯銳化濾波器相結(jié)合,首先對圖像進行高斯平滑濾波,在平滑圖像的同時降低噪聲,然后計算拉普拉斯(Laplacian)二階導數(shù),通過零交叉(Zero crossings)獲得圖像或物體的邊緣,最后根據(jù)形態(tài)學知識在不改變腦部內(nèi)部結(jié)構(gòu)的同時將顱骨剔除。人腦MRI圖像如圖2所示,剔除顱骨后的人腦MRI圖像如圖3所示。
圖2 人腦MR圖像Fig.2 Human brain MR images
圖3 剔除顱骨后的人腦MR圖像Fig.3 Human brain MR images after skull-stripping
在腦部MRI中,海馬只是眾多腦部核團之一。實驗中發(fā)現(xiàn),在圖譜選擇過程中,相似的解剖結(jié)構(gòu)會對圖譜的選擇造成影響,從而干擾圖譜選擇結(jié)果。通過分析圖譜選擇算法及其誤差,發(fā)現(xiàn)影響分割效果的一個重要因素是感興趣區(qū)域的選取。對于原始的圖譜選擇算法,其計算空間往往是整個圖譜,圖譜選擇效果欠缺。海馬體是一個較復雜的結(jié)構(gòu),事實上,即使兩幅圖譜比較相似,但受到周圍體素或者其他相似組織的影響,海馬體的相似性也可能較小,從而影響海馬的提取。醫(yī)學圖像提取感興趣區(qū)域(Region of Interest,ROI)是指在專家手工標記的標簽圖像中找到海馬體所在區(qū)域,即感興趣的結(jié)構(gòu),以此結(jié)構(gòu)為中心,利用包圍盒算法獲得一個完全包含該結(jié)構(gòu)的最大連通區(qū)域,并根據(jù)此區(qū)域提取圖像塊,利用該圖像塊進行后續(xù)的配準、分割等操作。因此,針對上述問題,本文采用基于ROI的圖譜選擇算法,與傳統(tǒng)算法不同的是,不再利用整個圖譜圖像進行互信息相似性計算,而是在利用包圍盒算法提取ROI之后,計算圖譜的互信息、梯度相似性選擇圖譜。
本文在配準之前粗略地提取ROI,兩個圖庫分別為50×63×60和60×74×67的立方體箱。本文圖庫1以灰度圖a01、標記圖a01-seg為參考圖像,對圖譜進行以參考圖像為基準的重采樣操作。參考圖像的尺寸大小為189×233×179,體素間距是1×1×1,圖像中心為98×134×72。例如,當圖譜a01的尺寸大小、體素間距、圖像中心分別為189×233×179、1×1×1、97×135×70,則重采樣后a01具有和參考圖像一樣的
圖4 以左、右海馬體為中心提取ROIFig.4 Extracting ROI centered on the left and right hippocampus
大小、間距、圖像中心,能夠有效減少圖譜配準運行時間,改善配準的精度。圖4(a)是以左海馬體為中心初次提取ROI,圖4(b)是以右海馬體為中心初次提取ROI,大小為50×63×60的灰度圖譜及對應的標記圖像圖譜塊。
MAS中,Aljabar等人[13]在研究中發(fā)現(xiàn),MRI的分割精確度并不隨圖譜數(shù)量的增多而提高。典型的MAS算法的計算時間是與圖譜的數(shù)量線性相關的,因此從大量的圖譜中選擇合適的圖譜子集可以有效提高算法速度。其次,通過排除可能誤導分割的無用圖譜,可提高最終分割的準確性。
本文采用歸一化互信息(Normalized Mutual Information, NMI)與圖像梯度計算相結(jié)合對待分割MRI與其他MRI進行相似性計算,NMI源于信息熵的概念,用來度量兩個變量之間相互關聯(lián)的程度?;バ畔⒖梢悦枋霾煌到y(tǒng)之間的相關性,互信息值越大,表示系統(tǒng)之間的相關性越大,或一個系統(tǒng)包含另一個系統(tǒng)的信息越多。在人腦MRI分割中,由于各圖譜圖像都包含有相同的腦結(jié)構(gòu)解剖信息,所以當兩幅圖像的空間位置一致時,對應像素灰度的互信息值最大。運用NMI來度量3D ROI的相似度值,其公式如下:
KNMI(a,b)=(H(a)+H(b))/H(a,b),
(1)
(2)
(3)
其中:a、b分別表示兩幅MR圖像,ia、ib分別表示a與b的像素值,k為總的像素個數(shù)。
圖像梯度算法考慮到每個像素鄰域的灰度變化,利用一階或二階導數(shù)計算鄰域像素值的變化規(guī)律,當圖像中某一鄰域灰度值變化較大時,該鄰域一定有較大的梯度值,即該鄰域具有邊緣特征,否則鄰域灰度值變化小,圖像較平滑。
以NMI與梯度相結(jié)合來計算目標圖像與圖譜圖像的相似度,選擇與目標圖像最相似的圖譜作為最終的融合圖譜,Awate[14]等人2012年的研究表明,選擇圖譜的最佳數(shù)量為10個左右。由此本文將從兩個圖庫中分別選擇10幅相似度最高的圖譜圖像。
基于多圖譜分割算法的兩個關鍵步驟分別是圖像配準與圖像融合。精確的配準結(jié)果使得形變后的圖譜圖像對應的標記圖像與待分割圖像中的海馬體在形狀、體積、大小方面更相似。
由于3D醫(yī)學圖像數(shù)據(jù)規(guī)模大,圖像間的配準過程所需時間過長,傳統(tǒng)“粗精”混合的配準方法不能同時達到高精度、高效率的要求。所以本文利用重采樣的方法代替“粗”配準階段[15],重采樣過程包括輸入圖像、變換和校對,圖像的空間坐標通過變換進行映射以便生成一個新的圖像。重采樣使圖譜圖像和目標圖像有相同的空間采樣點和采樣點空間距離,同時減少了“粗”配準環(huán)節(jié)所需時間。進行重采樣后,調(diào)整了浮動圖像和參考圖像采樣點不一致的問題,并且圖像的尺寸大小得到矯正,為后續(xù)進行非剛性配準做好準備。圖5是一個簡單重采樣的原理圖,重采樣涉及從原始圖像中提取像素的位置、插值灰度級,并將其重定位到校正圖像中的近似矩陣坐標位置。如圖5所示,第一行是原圖像素空間采樣點、采樣空間大小示意圖,第二行是對圖像像素進行重采樣,改變原點坐標且采樣空間大小為原來的兩倍的圖示。
圖5 重采樣原理示意圖Fig.5 Schematic diagram of resampling
以重采樣結(jié)果取代剛性配準環(huán)節(jié),并以提取的ROI作為微分同胚Demons配準對象,大幅度縮短配準時間。微分同胚是可逆的光滑映射,微分同胚Demons算法[16],能夠保證圖像的拓撲結(jié)構(gòu)在配準前后保持不變,光滑且連續(xù),并防止引入形變折疊,對大小形變都適用,在缺少可用的空間變換信息時,是很好的配準框架。
微分同胚Demons算法,將Demons的變換空間利用公式c←s°exp(u)轉(zhuǎn)換到微分同胚變換空間(李群)中來優(yōu)化目標能量函數(shù)。微分同胚Demons算法的目標能量函數(shù)為:
(4)
其中,變形場u是一個稠密速度場:
(5)
圖6 待配準圖像映射到目標圖像的變形域Fig.6 Deformation domain of the registration image to the target image
微分同胚Demons算法的實現(xiàn)過程:
Step2:對u進行流體正則化,即u←Kfluidu;
Step3:利用牛頓方法計算李群得到的exp(u),計算c←s°exp(u);
Step4:對s進行擴散正則化,s←Kdiffs。
如圖6所示,為微分同胚Demons配準產(chǎn)生的一個形變場的示意圖。
圖像融合是指將待分割圖像的若干標記圖像數(shù)據(jù)進行有效信息的最大限度提取,綜合成一個高質(zhì)量的圖像。采用融合技術對若干形變后的標記圖像進行融合,能有效提取每個配準后的圖譜圖像中的有用信息,融合獲得最具代表性的結(jié)果,所得的清晰準確的綜合圖像作為待分割圖像最終分割的海馬體,可有效提高算法整體的精確度。
常用的融合算法有多數(shù)投票表決法(Majority Voting, MV)[17]按照少數(shù)服從多數(shù)的準則決定最終的融合標記值,它是一種最簡單最直接的融合方法。加權表決法(Weighted Voting Method, WV)[18]根據(jù)圖譜與目標圖像的相似性分配權重,分割精度優(yōu)于多數(shù)表決方法。Warfield等人提出的STAPLE( Simultaneous Truth and Performance Level Estimation)[19]算法將每一個圖譜看作一個弱分類器,利用EM算法計算每一個圖譜的權重系數(shù),加權平均后得到分割結(jié)果。另外基于非局部均值的塊加權方法( Patch-based Method,PBM)算法[20]等較為常見,本文采用改進的U-Net網(wǎng)絡圖譜融合算法實現(xiàn)海馬體分割。
U-Net網(wǎng)絡是基于FCN的設計思想和相關方法,在語義分割上更加簡單明確,適合用于醫(yī)學圖像的分割。在ISBI Cell Tracking Challenge 2015上,U-Net網(wǎng)絡取得了最優(yōu)分割效果。在該任務中,訓練集中只有30幅512×512果蠅第一齡幼蟲腹神經(jīng)(VNC)的電鏡圖像,針對該數(shù)據(jù)集的平均交并比(Intersection over Union, IOU)比第二名算法超出31%,在其他數(shù)據(jù)集上也要普遍比第二名高10%以上。
U-Net在結(jié)構(gòu)上左右對稱,形似英文字母“U”。一條為壓縮路徑,另一條為擴展路徑。U-Net為了能精準地定位,收縮路徑上提取出來的高像素特征會在上采樣(Upsampling)過程中與新的特征圖(Feature map)進行結(jié)合,以最大程度地保留前面下采樣(Downsampling)過程一些重要的特征信息。而為了能使網(wǎng)絡結(jié)構(gòu)能更高效地運行,結(jié)構(gòu)中沒有全連接層(Fully Connected layers),這樣可以很大程度上減少需要訓練的參數(shù),并得益于特殊的U形結(jié)構(gòu)可以很好地保留圖片中的所有信息。
U-Net網(wǎng)絡中,壓縮路徑的結(jié)構(gòu)和卷積結(jié)構(gòu)相同,每兩個3×3的卷積層后會跟一個2×2的最大池化層(步長為2),并且每個卷積層后面采用ReLU激活函數(shù)來對原始圖片進行下采樣操作,在每個下采樣的過程中,將特征通道數(shù)加倍。擴張路徑中的每一步都包括上采樣,每一步會有一個2×2的卷積層(激活函數(shù)也是ReLU)和一個兩個3×3的卷積層。與此同時,每一步的升采樣都會加入來自相對應收縮路徑的特征圖。在最后一層,本文采用將網(wǎng)絡輸出的的特征圖輸入到分類子網(wǎng)絡,用Softmax函數(shù)將特征圖譜映射到目標的類別數(shù)目上。最終,U-Net的整個網(wǎng)絡一共有23層卷積層。左側(cè)是傳統(tǒng)的CNN架構(gòu),每經(jīng)過卷積層和池化層,特征圖的尺寸就會縮小。在右側(cè)則加入了反卷積層進行上采樣,用于擴大特征圖的尺寸。左右兩側(cè)的特征通過Skip連接進行通道堆疊。圖7為改進后的U-Net網(wǎng)絡結(jié)構(gòu)示意圖。Softmax函數(shù)如式(6)所示:
(6)
其中j=1,…,K。
圖7 改進后的U-Net網(wǎng)絡結(jié)構(gòu)示意圖Fig.7 mproved U-Net network structure diagram
U-Net展現(xiàn)出了良好的特性,并且十分適合于生物醫(yī)學領域,由于醫(yī)學影像相對較少,因此本文進行了數(shù)據(jù)預處理的增強,使U-Net能夠發(fā)揮的更加出色,本文將MRI數(shù)據(jù)集在改進的U-Net上進行訓練,以半監(jiān)督學習方式對網(wǎng)絡進行監(jiān)督,使用訓練后的模型對MRI數(shù)據(jù)進行融合。根據(jù)海馬體的目標圖像,利用浮動圖像對標記圖像進行融合,融合結(jié)果即最終分割結(jié)果。U-Net網(wǎng)絡對輸入圖像及其相應的浮動圖像采用隨機梯度下降法進行訓練。參數(shù)更新如式(7)所示:
(7)
實驗主要流程包括:
圖8 實驗流程圖Fig.8 Flowchart of experiment
(1)對圖像進行預處理,將所有圖像進行顱骨剔除,再根據(jù)海馬體的位置提取ROI,減小圖像塊包含的信息,提高整個流程的效率。
(2)相似性計算,利用互信息及梯度選擇10幅最接近目標圖像的磁共振圖像作為浮動圖像。
(3)對待分割圖像與圖譜圖像的標記圖像分別進行重采樣及微分同胚Demons配準,使得所有圖像的灰度值和對比度處于同一水平。
(4)分別對每組的10個圖譜圖像的海馬體分割結(jié)果進行融合,獲得一個與金標準最為接近、最精確的海馬體分割結(jié)果。
(5)繪制各算法所得海馬體的Dice相似性測度[24]值盒狀圖,直觀展示各算法的融合精度。
本文釆用基于U-Net的多圖譜標簽融合算法,實現(xiàn)人腦MRI中海馬體的自動分割。本次實驗采用兩個人腦磁共振數(shù)據(jù)庫分別進行實驗,圖庫1來自于倫敦帝國理工學院醫(yī)學腦部研究數(shù)據(jù)庫(Brain-development. Brain atlases)[21],包含了20個圖譜圖像樣本,其對應的標簽圖像標記了67個腦部結(jié)構(gòu)。圖庫二來自于ADNI(The Alzheimer’s Disease Neuroimaging Initiative, ADNI)包含124個T1-MR樣本的子庫(The Alzheimer’s Disease Neuroimaging Initiative)[22]。兩組實驗結(jié)果進行比較實驗,采用重采樣及微分同胚對圖像進行配準后,分別使用MV算法、WV算法、STAPLE算法、PBM算法及改進算法對標記圖像進行融合。本文實驗所需的軟件工具包括Cmake跨平臺編譯器、Visual Studio 2010集成開發(fā)環(huán)境、ITK(Insight segmentation and Registration Toolkit)圖像分析工具庫[23]、ITK SNAP醫(yī)學圖像可視化軟件、anaconda、Pycharm、MATLAB等。
在實現(xiàn)海馬體的分割后,需釆用合適的評價方法對相關算法的性能及有效性進行評價。本文采用Dice相似性測度[24]對最終分割結(jié)果與金標準的重疊率進行比較,對實驗結(jié)果實現(xiàn)定量分析。
此外,5種比較算法都將分別進行10組實驗,并繪制各實驗結(jié)果的盒狀圖,直觀顯示不同算法分割結(jié)果數(shù)據(jù)間的差異,預處理圖譜選擇階段中選取10幅最優(yōu)質(zhì)磁共振圖像,同時選取合適的目標圖像,實驗中共300個配準結(jié)果,50個最終分割結(jié)果。
實驗結(jié)果如圖9所示,分別為圖庫1、圖庫2目標圖像左海馬體的金標準(專家手動分割結(jié)果)與本文方法分割結(jié)果比較圖:第一列之第三列圖形分別為軸狀位、矢狀位、冠狀位海馬體切片圖。(a)、(c)白色圖形為目標圖像的金標準,(b)、(d)紅白相間圖形為分割結(jié)果與金標準的結(jié)果重疊比較圖,其中紅色區(qū)域為兩者重合區(qū)域,白色區(qū)域為兩者非重合區(qū)域。由于圖庫圖像標準不同,為更清楚表示圖像特征本文分別取圖庫一左海馬體取x=17,y=42,z=23截面,圖庫二左海馬體取x=22,y=25,z=26截面,下同。將分割結(jié)果與MV、WV、STAPLE、PBM標簽融合方法進行了分析對比。
圖9為圖庫1、2中專家手動分割海馬體與分割結(jié)果的比較圖,白色區(qū)域為專家手動分割,紅色區(qū)域為實驗結(jié)果重疊部分,從圖9(b)、(d)可以看出實驗結(jié)果與金標準重合部分較多,圖庫1出現(xiàn)過分割現(xiàn)象,圖庫2分割結(jié)果良好。
(a) 圖庫1專家手工分割的左海馬體(a)Experts manual segmentation of hippocampus in database 1
(b) 圖庫1分割結(jié)果切片比較圖(b) Slice comparison graph of segmentation result in database 1
(c) 圖庫2專家手工分割的左海馬體(c)Experts manual segmentation of hippocampus in database 2
(d) 圖庫2分割結(jié)果切片比較圖(d)Slice comparison graph of segmentation result in database 2圖9 海馬體分割結(jié)果與金標準切片比較圖Fig.9 Comparison slices of hippocampus segmentation results with gold label
不同融合方法的融合結(jié)果在提取感興趣區(qū)域的圖像塊中的示意圖,如圖10所示。
圖10分別為圖庫1中專家手動分割切片、MV、WV、STAPLE、PBM及本文算法各分割結(jié)果在感興趣區(qū)域圖像塊中的展示結(jié)果。
圖11為圖庫2中專家手動分割切片結(jié)果、MV、WV、STAPLE、PBM及本文算法各分割結(jié)果在感興趣區(qū)域圖像塊中的展示結(jié)果。
(a) 專家手工分割的左海馬體(a)Segmented manually of left hippocampus by experts
(b) MV融合方法分割的左海馬體(b)Segmentation of left hippocampus by MV fusion method
(c) WV融合方法分割的左海馬體(c) Segmentation of left hippocampus by WV fusion method
(d) STAPLE融合方法分割的左海馬體(d) Segmentation of left hippocampus by STAPLE fusion method
(e)PBM融合方法分割的左海馬體(e) Segmentation of left hippocampus by PBM fusion method
(f) 本文算法分割的左海馬體(f) Segmentation of left hippocampus by our algorithm圖10 專家手工分割及各算法分割人腦左海馬體結(jié)構(gòu)的結(jié)果(圖庫1)Fig.10 Artificial segmentation of left hippocampal structure by experts and segmentation results by various algorithms (database 1)
(a) 專家手工分割的左海馬體(a)Segmented manually of left hippocampus by experts
(b) MV融合方法分割的左海馬體(b)Segmentation of left hippocampus by MV fusion method
(c) WV融合方法分割的左海馬體(c) Segmentation of left hippocampus by WV fusion method
(d) STAPLE融合方法分割的左海馬體(d) Segmentation of left hippocampus by STAPLE fusion method
(e)PBM融合方法分割的左海馬體(e)Segmentation of left hippocampus by PBM fusion method
(f) 本文算法分割的左海馬體(f) Segmentation of left hippocampus by our algorithm圖11 專家手工分割及各算法分割人腦左海馬體結(jié)構(gòu)的結(jié)果(圖庫2)Fig.11 Artificial segmentation of left hippocampal structure by experts and segmentation results by various algorithms (database 2)
(a) MV融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(a) Comparison slices of hippocampus segmentation results by MV with gold label
(b) WV融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(b) Comparison slices of hippocampus segmentation results by WV with gold label
(c) STAPLE融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(c) Comparison slices of hippocampus segmentation results by STAPLE with gold label
(d) PBM融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(d) Comparison slices of hippocampus segmentation results by PBM with gold label
(e) 本文算法與專家手工分割左海馬體結(jié)構(gòu)對比(e) Comparison slices of hippocampus segmentation results by our algorithm with gold label圖12 各融合算法與專家分割結(jié)果對比(白色表示專家手工分割,紅色表示各算法分割結(jié)果,圖庫1)Fig.12 Comparison slices of hippocampus segmentation results by various algorithms with gold label (White represents expert manual segmentation and red represents segmentation results of each algorithm. database 1)
(a) MV融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(a) Comparison slices of hippocampus segmentation results by MV with gold label
(b) WV融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(b) Comparison slices of hippocampus segmentation results by WV with gold label
(c) STAPLE融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(c) Comparison slices of hippocampus segmentation results by STAPLE with gold label
(d) PBM融合方法與專家手工分割左海馬體結(jié)構(gòu)對比(d) Comparison slices of hippocampus segmentation results by PBM with gold label
(e) 本文算法與專家手工分割左海馬體結(jié)構(gòu)對比(e) Comparison slices of hippocampus segmentation results by our algorithm with gold label圖13 各融合算法與專家分割結(jié)果對比(白色表示專家手工分割,紅色表示各算法分割結(jié)果,圖庫2)Fig.13 Comparison slices of hippocampus segmentation results by various algorithms with gold label (White represents expert manual segmentation and red represents segmentation results of each algorithm. database 2)
圖12為圖庫1中各融合算法與金標準的對比圖,可以看出MV算法分割結(jié)果不佳,分割出的海馬體結(jié)構(gòu)出現(xiàn)了不連續(xù)的現(xiàn)象,分割結(jié)果不完整,與金標準相差較大,WV算法海馬體結(jié)構(gòu)邊緣超出專家手工分割海馬體結(jié)構(gòu)的邊緣,出現(xiàn)過分割的現(xiàn)象。STAPLE算法在海馬體邊緣部分未重疊部分較多,邊緣分割較差,PBM算法在傳統(tǒng)方法切片比較中最優(yōu),但本文算法在細節(jié)處相較于傳統(tǒng)算法更優(yōu)。
圖13為圖庫2中各融合算法與專家手動分割海馬體切片比較圖,可以看出MV分割效果較差,與金標準比較重疊部分相對較少,WV分割結(jié)果出現(xiàn)過分割現(xiàn)象,STAPLE融合方法分割的海馬體,邊緣結(jié)構(gòu)較模糊,PBM融合方法分割結(jié)果與金標準比較接近,但本文算法相較于傳統(tǒng)算法效果更優(yōu)。
本文利用相似性測度值(Dice)評價分割結(jié)果與金標準的重疊程度,判斷融合算法的優(yōu)劣,Dice值取值在0~1之間,Dice值越接近1就表示融合結(jié)果與專家手動分割結(jié)果相似度越高,分割越準確,融合算法越好?;赨-Net網(wǎng)絡得到的分割結(jié)果與目標圖像的金標準進行相似性測度,并與MV、WV、STAPLE、PBM算法進行對比,結(jié)果如表1所示。
表1 不同融合方法的分割結(jié)果與金標準的Dice值(圖庫1)
Tab.1 Dice values comparing the segmentation results of different fusion methods with the gold label (database 1)
各方法Dice值左海馬右海馬MV0.829 40.820 8WV0.846 50.852 2STAPLE0.848 50.846 8PBM0.852 00.864 2本文算法0.887 00.876 1
表1和表2分別顯示了圖庫1、圖庫2中MV、WV、STAPLE、PBM和本文融合方法分割人腦MR圖像左、右海馬體結(jié)構(gòu)同金標準的相似性測度Dice值。由表可知,本文算法對兩個圖庫人腦MR圖像的分割結(jié)果與MV、WV、STAPLE、PBM融合方法相比,均有一定程度的提高。利用本文算法對圖庫1進行海馬體分割的實驗,分割精度相比于4種算法分別提高了約0.1,0.08,0.07,0.05,本文算法對圖庫2進行海馬體分割的實驗,分割精度相比于4種算法分別提高了約0.09,0.07,0.06,0.04。本文算法的分割結(jié)果與金標準相似度最高,分割結(jié)果最好。由于圖表僅為一組數(shù)據(jù)實驗結(jié)果,不能清楚直觀地表現(xiàn)出各算法的穩(wěn)定性,因此將所有實驗結(jié)果繪制盒狀圖,如圖14、15所示。
表2 不同融合方法的分割結(jié)果與金標準的Dice值(圖庫2)
Tab.2 Dice values comparing the segmentation results of different fusion methods with the gold label (database 2)
各方法Dice值左海馬右海馬MV0.829 80.823 2WV0.852 70.856 5STAPLE0.842 50.858 4PBM0.867 30.872 2本文算法0.891 50.904 9
盒狀圖分別顯示了各算法分割結(jié)果相似性測度值Dice值的最小值(min)、下四分位數(shù)、中位數(shù)、上四分位數(shù)、最大值(max)以及異常點,盒狀圖能反映多組數(shù)據(jù)的整體特性。圖14(a)為圖庫1中各算法左海馬體分割的10組數(shù)據(jù)盒裝圖,從圖中可以看出,MV算法效果較差,最小值0.78,最大值0.85,均值0.83,數(shù)據(jù)不集中,算法對不同目標圖像分割不穩(wěn)定。WV算法最大值0.86,最小值0.8,均值0.84,下四分位較MV相對低,上四分位較MV高,說明WV數(shù)據(jù)低精度較多,海馬體間Dice值相差較大。STAPLE算法Dice值出現(xiàn)異常點,上四分位較高說明分割精度較高。PBM算法整體較穩(wěn)定,最大值0.87,最小值0.83,均值0.85,分割精度均勻分布,算法較穩(wěn)定。本文算法整體精度提高,分割精度穩(wěn)定,最大值0.88,最小值0.84,算法整體性能都有提高。圖14 (b)為圖庫1右海馬體各融合算法盒狀圖,本文算法相較各傳統(tǒng)算法整體精度提高,穩(wěn)定性提高。圖15顯示了圖庫2中各融合算法左右海馬體Dice值的盒狀圖,由盒狀圖可以看出本文所提算法分割精度相比于其他算法都有一定程度的提高,且數(shù)據(jù)相對穩(wěn)定,具有良好的性能。
(a)左海馬體的盒狀圖(a) Box plot of left hippocampal
(b)右海馬體的盒狀圖(b)Box plot of right hippocampal
(a) 左海馬體的盒狀圖(a) Left hippocampal box plot
(b) 右海馬體的盒狀圖(b) Right hippocampal box plot
為提高多圖譜MR海馬體分割算法精度,本文提出一種基于U-Net網(wǎng)絡改進的多圖譜醫(yī)學圖像分割融合算法。在圖譜選擇階段,利用提取感興趣區(qū)域之后的圖譜塊進行圖譜篩選,將篩選出的圖譜用作浮動圖像進行后續(xù)的配準、分割。在配準階段,使用重采樣代替“粗配準”減少配準算法所需時間,并利用微分同胚Demon算法進行“精配”實現(xiàn)圖譜圖像與目標圖像的契合。在融合階段,U-Net網(wǎng)絡的加入確保了網(wǎng)絡的監(jiān)督學習,確保精度的同時提高分割算法效率。實驗結(jié)果表明,本文算法相比于MV、WV、STAPLE和PBM在分割精度上提高了5%~10%左右,與金標準更接近。