岳根霞
(山西醫(yī)科大學汾陽學院,山西 汾陽 032200)
通過單一成像設備對病變信息進行獲取往往無法為醫(yī)生提供充足的病理信息,此時需要用多種成像設備對病人的同一病變部位進行多次成像,并對通過多種成像設備得到的圖像進行融合以及比較分析,才能獲取更加全面的病變部位相關信息,從而幫助醫(yī)生對疾病進行更加準確的判斷并提出更具針對性的治療方案。而圖像采集技術在醫(yī)學界的應用與普及,使醫(yī)學治療領域與臨床診斷領域出現(xiàn)了多種醫(yī)學成像設備,為醫(yī)生對疾病的診斷提供了不同特性的多種醫(yī)學圖像,這些圖像通常來源于各種成像設備,因此具備多模態(tài)的特征,能夠為醫(yī)生對疾病的診斷提供決定性的關鍵信息,這些圖像被統(tǒng)一稱為多模態(tài)病變圖像[1]。
當前多模態(tài)病變圖像的獲取方式有基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點的多模態(tài)病變圖像[2]。其中基于剛體模型的多模態(tài)病變圖像主要是結合最近鄰點迭代法、斜面匹配法與頭帽法對病變圖像進行獲取,并利用初步獲取的病變圖像建立頭表面模型,利用搜索算法對頭表面模型的空間變換參數(shù)進行獲取,從而得到病變圖像的多模態(tài)特征;基于圖像灰度的多模態(tài)病變圖像主要是結合多項式函數(shù)、基函數(shù)等變換函數(shù)對圖像進行空間變換,并通過空間變換對其它圖像中的同一部位或器官進行擬合,從而實現(xiàn)病變圖像多模態(tài)特征的獲取;基于圖像特征點的多模態(tài)病變圖像主要是通過圖像的外部特征點與內部特征點對多幅圖像的重要拐角、曲面、曲線等對應特征進行匹配,并通過對應特征的匹配度對圖像的幾何變換方式進行決定,從而獲取病變圖像的多模態(tài)特征[3]。這幾種傳統(tǒng)多模態(tài)病變圖像的獲取方法都有一個共同的問題,即圖像挖掘誤差較大,因此提出一種基于遺傳算法的多模態(tài)病變圖像,通過實驗驗證了該多模態(tài)病變圖像的圖像挖掘誤差小于傳統(tǒng)多模態(tài)病變圖像的獲取方法。
首先獲取病變圖像Shannon 信息熵中條件熵與聯(lián)合熵的關系,接著根據病變圖像Shannon 信息熵關系對病變圖像的互信息進行歸一化處理[4]。根據Shannon 信息熵的定義,對病變圖像中隨機特征變量的熵進行定義,如式(1)所示,其中隨機特征變量中包含的事件集合為{x1,x2,…,xn}。
(1)
其中,H(X)代表隨機特征變量的熵;X代表隨機特征變量;p(xi)代表事件xi發(fā)生的概率[5]。假設病變圖像中兩個隨機特征變量分別為Y與Z,并且Y與Z的取值范圍分別是{y1,y2,…,yn}與{z1,z2,…,zn},則Y與Z的概率條件分布密度分別為{p(yi|zj)|i=1,2,…,n,j=1,2,…,n}與{p(zj|yi)|j=1,2,…,n,i=1,2,…,n},這兩個隨機特征變量的序偶隨機量可以用(Y,Z)來表示,取值范圍是{(yi|zj)|i=1,2,…,n,j=1,2,…,n},這兩個隨機特征變量序偶隨機量的概率聯(lián)合分布密度是{p(yi,zj)|i=1,2,…,n,j=1,2,…,n},則這兩個隨機特征變量的聯(lián)合熵可以用式(2)來表示
(2)
其中,H(Y,Z)指的是兩個隨機特征變量的聯(lián)合熵,代表的是序偶隨機量(Y,Z)的不確定性或隨機性。
接著對兩個隨機特征變量Y與Z的條件熵進行定義,如式(3)和式(4)
(3)
(4)
其中,H(Y|Z)與H(Z|Y)分別代表兩個隨機特征變量Y與Z的條件熵,通過條件熵可以在確定一個已知隨機特征變量時,對另一個隨機特征變量的不確定性進行度量。經過計算得到兩個隨機特征變量條件熵與聯(lián)合熵的關系
H(Y,Z)=H(Y)+H(Z|Y)=H(Z)+H(Y|Z)
(5)
當兩個隨機特征變量Y與Z處于獨立狀態(tài)時,則它們的條件熵與聯(lián)合熵的關系如下
H(Y,Z)=H(Y)+H(Y)
(6)
H(Z|Y)=H(Z)
(7)
H(Y|Z)=H(Y)
(8)
根據隨機特征變量中條件熵與聯(lián)合熵的關系對病變圖像的互信息進行歸一化處理,利用H(Y)與H(Z)表示兩個隨機特征變量Y與Z的熵,則其互信息的定義如下
(9)
利用熵的形式對互信息進行描述
I(Y,Z)=H(Y)+H(Z)-H(Y,Z)
(10)
進一步用條件熵與聯(lián)合熵對互信息進行描述
I(Y,Z)=I(Y,Z)-H(Y|Z)=H(Z)-H(Z|Y)
(11)
由于隨機特征變量具備以上性質,因此必須對其進行歸一化處理,處理方式如下
(12)
在完成病變圖像互信息的歸一化處理后,基于遺傳算法對病變圖像互信息的最優(yōu)解即病變圖像的最優(yōu)模態(tài)進行搜索[6]。首先確定病變圖像互信息的編碼方式:對圖像x軸方向的平移距離tx、y軸方向的平移距離ty、旋轉角α這3個參數(shù)進行實數(shù)編碼,對剩余參數(shù)采取二進制編碼方式,編碼中的各個數(shù)字都代表病變圖像的一個模態(tài)[7]。
接著對適應度函數(shù)進行確定,首先獲取每個病變圖像模態(tài)的適應值:對實際待優(yōu)化模態(tài)的目標函數(shù)進行轉換以獲取模態(tài)適應值。利用病變圖像互信息對適應度函數(shù)進行描述:在T這一變換下,最優(yōu)模態(tài)搜索函數(shù)為:
(13)
并通過模態(tài)適應值對遺傳算法的參數(shù)進行確定:包括算法最大執(zhí)行代數(shù)N、種群數(shù)目P,準確選擇算法參數(shù)可以提高最優(yōu)模態(tài)搜索效率,并減少程序運行時間,通常最大執(zhí)行代數(shù)N與算法收斂速度直接相關,而種群數(shù)目P在10到160之間取值[8]。利用實驗法對最大執(zhí)行代數(shù)N、種群數(shù)目P的取值進行確定:測試不同的取值組合,所獲得的參數(shù)列表如表1所示。
表1 不同取值組合下的參數(shù)列表
根據表2的實驗結果并考慮遺傳算法自身的穩(wěn)定性,P與N的取值分別為41,40。最后需要對遺傳算法的運行停止條件進行確定,即當遺傳算法到達最大執(zhí)行代數(shù)后停止搜索,則算法達到最大執(zhí)行代數(shù)后,病變圖像的最優(yōu)模態(tài)就是種群中的最優(yōu)個體[9]。完成遺傳算法的準備工作后,對算法進行執(zhí)行,其具體執(zhí)行步驟如圖1所示。
圖1 算法具體執(zhí)行步驟
完成最優(yōu)模態(tài)搜索后,建立最優(yōu)模態(tài)獲取模型以獲取多種成像設備病變圖像的最優(yōu)模態(tài),從而進行多模態(tài)病變圖像的合成,實現(xiàn)多模態(tài)病變圖像的獲取。最優(yōu)模態(tài)獲取模型主要以SegNet和DeconvNet 為基礎,通過病變圖像模態(tài)數(shù)據,以特定多路網絡分割復合訓練的方式,在最優(yōu)模態(tài)搜索訓練中引入反卷積網絡模型,通過最優(yōu)模態(tài)搜索訓練實現(xiàn)對多種成像設備所獲取病變圖像的最優(yōu)模態(tài)獲取。最優(yōu)模態(tài)獲取模型的結構如圖2所示。
圖2 最優(yōu)模態(tài)獲取模型結構
如圖2所示,最優(yōu)模態(tài)搜索訓練中包括兩個訓練部分:卷積訓練部分與反卷積訓練部分,其中卷積訓練部分是對模態(tài)進行編碼,反卷積訓練部分是對最優(yōu)模態(tài)進行解碼,編碼與解碼均通過反卷積網絡模型來進行。在最優(yōu)模態(tài)搜索訓練中,可以將卷積網絡視為一種特征提取器,其主要作用是在成像設備病變圖像中對模態(tài)的特征描述進行提取,而反卷積網絡可以視為一種形狀生成器,其主要作用是通過模態(tài)的特征描述對最優(yōu)模態(tài)進行提取,最后利用 softmax 網絡進行最優(yōu)模態(tài)提取結果的生成。卷積網絡中包含的卷積層數(shù)量共13個,通過池化層與激活層能夠連接這些卷積層,除此之外,卷積網絡還包括兩個全連接層,這兩個全連接層能夠對特定類映射起到加強作用,卷積網絡主要通過池化操作實現(xiàn)模態(tài)特征描述的提取。而反卷積網絡是一種卷積網絡的鏡像結構,通過反池化操作來實現(xiàn)最優(yōu)模態(tài)的提取。
獲取多種成像設備病變圖像的最優(yōu)模態(tài)后,對多模態(tài)病變圖像進行合成:對多種成像設備病變圖像中的多個最優(yōu)模態(tài)進行整合,引入深度神經網絡對模態(tài)整合結果進行訓練,從而獲得最優(yōu)模態(tài)整合結果,實現(xiàn)多模態(tài)病變圖像的合成。綜上所述,通過病變圖像互信息歸一化、最優(yōu)模態(tài)搜索建立最優(yōu)模態(tài)獲取模型從而實現(xiàn)了基于遺傳算法的多模態(tài)病變圖像合成。
為了檢測本文提出的基于遺傳算法的多模態(tài)病變圖像,基于Matlab Web平臺進行仿真。
以Matlab Web為實驗平臺編寫vc模型仿真程序對最優(yōu)模態(tài)獲取模型進行仿真,通過MIDMES 系統(tǒng),系統(tǒng)主界面由萊單、工具欄、狀態(tài)欄和多窗口容器組成。由系統(tǒng)的萊單欄進入系統(tǒng)的各個功能模塊:圖像瀏覽與格式轉換、聚類分析、關聯(lián)規(guī)則挖掘等。當進行圖像檢索時狀態(tài)欄顯示數(shù)據庫中圖像數(shù),以及檢索到的相似圖像數(shù)。完成最優(yōu)模態(tài)獲取模型的仿真后,通過最優(yōu)模態(tài)獲取模型獲取多模態(tài)病變圖像。
圖3 實驗數(shù)據來源界面
為了保證實驗的有效性,使用基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點的多模態(tài)病變圖像與本文提出的基于遺傳算法的多模態(tài)病變圖像進行對比,觀察仿真的結果,比較多模態(tài)病變圖像挖掘誤差的大小。其中多模態(tài)病變圖像挖掘誤差的定義如下
(14)
為了減少多模態(tài)病變圖像的圖像挖掘誤差,實驗中的病變圖像都進行了同樣程度的灰度調整。每種多模態(tài)病變圖像各自進行三次實驗。本次實驗以病變細胞為病變圖像部位。
通過細胞病變圖像獲取互信息可以得到其性質,如表2所示。
表2 病變圖像互信息性質
基于剛體模型的多模態(tài)病變圖像、基于圖像灰度的多模態(tài)病變圖像、基于圖像特征點的多模態(tài)病變圖像、基于遺傳算法的多模態(tài)病變圖像的獲取結果如圖4所示。
圖4 不同方法的多模態(tài)病變圖像對比圖
如圖4所示,基于遺傳算法的多模態(tài)病變圖像更清晰,效果更為理想。在此基礎上,對實驗具體數(shù)據進行對比,實驗獲取的具體數(shù)據如表3所示。
表3 實驗獲取具體數(shù)據
通過表3可知,基于剛體模型的多模態(tài)病變圖像的平均圖像挖掘誤差為0.41;基于圖像灰度的多模態(tài)病變圖像的平均圖像挖掘誤差為0.2;基于圖像特征點的多模態(tài)病變圖像的平均圖像挖掘誤差為0.19;基于遺傳算法的多模態(tài)病變圖像的平均圖像挖掘誤差為0.063,通過比較可知,基于遺傳算法的多模態(tài)病變圖像的圖像挖掘誤差最小,證明本文提出的多模態(tài)病變圖像更加精準,將其應用在醫(yī)學領域能夠提升醫(yī)生診斷疾病的效率。
基于遺傳算法的多模態(tài)病變圖像通過病變圖像互信息歸一化、最優(yōu)模態(tài)搜索建立最優(yōu)模態(tài)獲取模型,并通過該模型獲取多種成像設備病變圖像的最優(yōu)模態(tài),進行多模態(tài)病變圖像的合成,實現(xiàn)多模態(tài)病變圖像的獲取。該多模態(tài)病變圖像的圖像挖掘誤差較小,相較于傳統(tǒng)多模態(tài)病變圖像來說更加精準,對醫(yī)療界的意義重大,有助于醫(yī)生對病變部位的疾病診斷,是醫(yī)學影像技術的一種發(fā)展,能夠獲取全面、有效、互補的病變部位醫(yī)療信息,在提升治療效果與追蹤病理變化方面有著卓越的效果。