姚忠林,蔡錦達(dá),何方正,龍穎奇
(上海理工大學(xué)出版印刷與藝術(shù)設(shè)計(jì)學(xué)院,上海 200093)
眼底檢查在眼科疾病的診斷中占據(jù)重要地位,人體的許多疾病都可以在眼底上體現(xiàn)出來,如青光眼、白內(nèi)障、糖尿病、高血壓等[1]。眼底的視網(wǎng)膜血管作為肉眼可見的微血管,其變化可以反映一些器官的病變程度[2],如眼底動靜脈血管的寬度可以反映出高血壓的嚴(yán)重程度[3]。目前臨床常采用光學(xué)相干斷層掃描儀(OCT)、眼底熒光血管造影(FFA)、眼底相機(jī)等手段采集眼底圖像[4],其中眼底相機(jī)因無需散瞳以及注射造影劑等優(yōu)勢,成為臨床應(yīng)用較為廣泛的一種眼底檢查設(shè)備,為許多疾病的早期病理學(xué)研究以及診斷提供了良好的技術(shù)支持[5]。然而,眼底相機(jī)存在體積較大、便攜性差且費(fèi)用較高的缺點(diǎn),限制了其在眼底疾病臨床診斷中的大規(guī)模應(yīng)用。因此,小型化眼底照相設(shè)備應(yīng)運(yùn)而生,如泰立瑞間接檢眼鏡、日本KOWA 手持眼底相機(jī)等。但該類小型設(shè)備受限于硬件的運(yùn)算與處理能力,往往不具備輔助診斷的功能。
臨床上有大量眼底圖像需要進(jìn)行血管提取,但手工標(biāo)注耗費(fèi)大量人力,且多依賴于專家經(jīng)驗(yàn)。在計(jì)算機(jī)輔助診斷方面,眼底血管分割算法多在高性能計(jì)算機(jī)上實(shí)現(xiàn),可分為有監(jiān)督和無監(jiān)督的眼底血管分割方法兩類。在有監(jiān)督的眼底血管分割方法研究領(lǐng)域,Ronneberger 等[6]提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)的圖像分割方法U-Net,其在訓(xùn)練樣本數(shù)量有限的情況下表現(xiàn)出了良好的分割性能;Liang 等[7]提出自適應(yīng)尺度信息的U-Net 網(wǎng)絡(luò)對眼底血管圖像進(jìn)行分割,該方法在U-Net 中加入密集可變卷積和金字塔型空洞卷積操作以提高網(wǎng)絡(luò)的特征復(fù)用能力和整體感受野,解決了微血管分割不足的問題;Wu 等[8]提出一種將ResNet 與DensNet 加入到U-Net 網(wǎng)絡(luò)中對眼底血管進(jìn)行分割的方法,增加了加權(quán)注意機(jī)制,使得模型可以學(xué)習(xí)到更多鑒別血管與非血管像素的特征信息;Zhuang[9]提出一種U-Nets 鏈?zhǔn)浇Y(jié)構(gòu),通過組合U-Net 模型獲取更多信息路徑,并共享權(quán)重殘差塊以減少模型參數(shù)。
上述有監(jiān)督方法雖然分割精度較高,但在嵌入式平臺上,傳統(tǒng)的無監(jiān)督方法仍然占據(jù)主導(dǎo)地位。例如,Arguello等[10]采用圖像濾波與輪廓跟蹤相結(jié)合,Rai 等[11]采用基于全局閾值的分割方法,Xu 等[12]采用Gabor 濾波器和形態(tài)學(xué)操作在智能設(shè)備中進(jìn)行血管分割,但以上3 種方法均易受到圖像中噪聲和光照變化等因素的影響。目前應(yīng)用于嵌入式平臺的有監(jiān)督的眼底血管分割算法較少,主要原因是神經(jīng)網(wǎng)絡(luò)分割模型結(jié)構(gòu)復(fù)雜、參數(shù)量過大,如最經(jīng)典的UNet 模型參數(shù)可達(dá)7 765 422 個[6],對嵌入式平臺的運(yùn)行內(nèi)存、處理速度都有很高要求,輕則耗時較長,重則導(dǎo)致界面卡頓甚至崩潰。簡單地降低模型復(fù)雜性會使分割精度下降,例如Berseth[13]提出一種類似于U-Net 結(jié)構(gòu)的深度卷積神經(jīng)網(wǎng)絡(luò)模型,在每層內(nèi)核大小和特征圖數(shù)量上進(jìn)行了一些修改,減少了模型參數(shù)量和訓(xùn)練數(shù)據(jù),但并未取得分割精度的提升;Laibacher 等[14]基于Image-Net預(yù)訓(xùn)練的MobileNetV2 模型設(shè)計(jì)了分割眼底圖像中血管的M2U-Net 架構(gòu),分割效果略遜于世界先進(jìn)水平,但其認(rèn)為該模型仍有簡化空間。
本文受文獻(xiàn)[6,13-14]的啟發(fā),探討U-Net 眼底血管分割模型復(fù)雜度的下限,提出一種應(yīng)用于嵌入式平臺的眼底血管分割輕量化U-Net 模型,引入自適應(yīng)激活函數(shù)(Adaptive Activation Function,AAF)[15-16]和注意力(Attention Gate,AG)[17]模塊,以增加少量重要參數(shù)為代價(jià),補(bǔ)償輕量化U-Net 模型參數(shù)和深度不足導(dǎo)致的精度下降問題,最終實(shí)現(xiàn)了一種基于嵌入式平臺的眼底血管檢測系統(tǒng),用于輔助醫(yī)生診斷眼底疾病。
基于嵌入式平臺的眼底血管檢測系統(tǒng)應(yīng)滿足以下要求:①能夠預(yù)覽、調(diào)節(jié)攝像頭參數(shù),拍攝、存儲眼底圖像,并能隨時查看;②能夠?qū)ρ鄣讏D像中的血管進(jìn)行檢測;③能夠?qū)崿F(xiàn)無線數(shù)據(jù)通信和遠(yuǎn)程控制;④界面操作簡單;⑤系統(tǒng)穩(wěn)定性好、成本低廉。
為實(shí)現(xiàn)上述功能,本文設(shè)計(jì)的系統(tǒng)總體結(jié)構(gòu)如圖1 所示。采用美國偉倫牌檢眼鏡作為光學(xué)系統(tǒng),其特點(diǎn)為無需散瞳即可進(jìn)行眼底觀察,且可獲取比其他檢眼鏡大5 倍的眼底圖像。嵌入式系統(tǒng)采用樹莓派(Raspberry Pi)開發(fā)板,該開發(fā)板與索尼公司生產(chǎn)的IMX377 圖像傳感器(CMOS 相機(jī)模塊)進(jìn)行USB 連接,通過I/O 端口控制光源模塊,配合IMX377 圖像傳感器完成眼底的預(yù)覽、拍攝等功能,可插入SD 卡,用于存儲眼底圖像,亦可移植Linux 系統(tǒng),使得眼底血管分割和寬度測量算法均可在嵌入式系統(tǒng)上運(yùn)行。該開發(fā)板自帶無線網(wǎng)卡,可與上位機(jī)(計(jì)算機(jī))進(jìn)行SSH 和VNC 通信,實(shí)現(xiàn)上位機(jī)對下位機(jī)的遠(yuǎn)程控制功能,方便醫(yī)生進(jìn)行遠(yuǎn)程診斷。采用帶有Mirco HDMI 接口的電容型觸摸屏,與樹莓派主板的Mirco HDMI 相連接,用于顯示人機(jī)交互界面。此外,在嵌入式平臺的Linux 系統(tǒng)上設(shè)計(jì)軟件界面,醫(yī)生可通過該界面完成眼底圖像的采集與處理。軟件界面采用多線程任務(wù)處理方法,處理圖像時不會產(chǎn)生界面卡頓的現(xiàn)象。
Fig.1 Overall structure design of the system圖1 系統(tǒng)總體結(jié)構(gòu)設(shè)計(jì)
為使小型眼檢設(shè)備能夠協(xié)助醫(yī)生進(jìn)行眼底疾病的診斷,基于嵌入式平臺的眼底血管檢測系統(tǒng)應(yīng)具備以下功能,具體如圖2 所示。
(1)上位機(jī)功能。①當(dāng)眼底圖像數(shù)據(jù)擴(kuò)增時,可訓(xùn)練新的神經(jīng)網(wǎng)絡(luò)模型;②將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型傳輸給下位機(jī),用于眼底血管分割模型的更新;③接收下位機(jī)發(fā)送的眼底圖像,用于專家會診。
(2)下位機(jī)功能。①控制CMOS 相機(jī),實(shí)現(xiàn)眼底圖像的采集;②利用眼底血管分割算法對眼底圖像進(jìn)行血管分割;③通過TCP/IP 協(xié)議實(shí)現(xiàn)無線數(shù)據(jù)傳輸,將下位機(jī)采集的眼底圖像上傳至上位機(jī)用于遠(yuǎn)程診斷,并可下載上位機(jī)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型用于眼底血管分割算法的更新;④利用MySQL 數(shù)據(jù)庫實(shí)現(xiàn)患者信息的記錄與檢索。
上位機(jī)的功能在計(jì)算機(jī)上實(shí)現(xiàn),下位機(jī)的軟件功能在嵌入式系統(tǒng)上實(shí)現(xiàn)。通過TCP/IP 協(xié)議,多臺下位機(jī)均可根據(jù)上位機(jī)的IP 進(jìn)行遠(yuǎn)程通信,實(shí)現(xiàn)專家遠(yuǎn)程診斷。
Fig.2 System software function design圖2 系統(tǒng)軟件功能設(shè)計(jì)
本文提出的網(wǎng)絡(luò)結(jié)構(gòu)是受U-Net 模型[6]啟發(fā),將編碼路徑中不同層次的特征與解碼路徑中的特征映射相結(jié)合,以提取出更多層次的圖像特征,從而達(dá)到準(zhǔn)確分割的目的。該模型在原有U-Net 的基礎(chǔ)上進(jìn)行了改進(jìn),使其成為一個更小、參數(shù)更少的模型結(jié)構(gòu)。單純縮小U-Net 模型結(jié)構(gòu)會導(dǎo)致分割精度降低[13],故本文通過引入AAF 和AG 的方法補(bǔ)償模型參數(shù)、深度減少導(dǎo)致的損失,提出優(yōu)化的UNet 模型結(jié)構(gòu)——AAF+AGU-Net,具體如圖3 所示。
與原始的U-Net 相比,優(yōu)化的U-Net 有以下改變:
(1)左邊的編碼層和右邊的解碼層各移除了3 層;特征數(shù)量從[64,128,256,512,1024]減少至[16,32,64,128];優(yōu)化后的模型參數(shù)為277 002 個,比U-Net 模型減少近30倍。因此,優(yōu)化的U-Net 模型具有更高的訓(xùn)練速度和分割效率。
(2)引入AG 模塊代替U-Net 中的skip 連接。在標(biāo)準(zhǔn)U-Net 中,為避免在解碼層丟失大量精確空間細(xì)節(jié)信息,使用skip 將編碼層中提取的特征(Feature Map)直接連接到解碼層相對應(yīng)的層,然而提取的低層次特征有很多冗余信息。為解決這個問題,在模型中引入注意力機(jī)制,強(qiáng)調(diào)模型要學(xué)習(xí)的特征,抑制其學(xué)習(xí)無關(guān)內(nèi)容,以此提高分割精度。
(3)卷積層利用AAF 代替ReLU 函數(shù),由原來的Conv3×3+ReLu 替換為Conv3×3+AAF。測試結(jié)果表明,這種修改以增加網(wǎng)絡(luò)組合系數(shù)為代價(jià),通過組合不同種類的激活函數(shù)并在每個激活函數(shù)中引入系數(shù)構(gòu)成AAF,可有效改善網(wǎng)絡(luò)性能。這些引入的系數(shù)需要在網(wǎng)絡(luò)訓(xùn)練時自行學(xué)習(xí)。
標(biāo)準(zhǔn)U-Net 模型經(jīng)過修改后成為一個輕量級神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),與修改前相比縮小了30 倍,但減少參數(shù)量的代價(jià)是學(xué)習(xí)能力降低[13]。因此,本文在輕量級模型的基礎(chǔ)上加入AAF,并使用AG 代替原本的跳躍連接(Skip Connection),將U-Net 模型左邊編碼層與右邊解碼層的特征圖進(jìn)行拼接,神經(jīng)網(wǎng)絡(luò)中AAF 的系數(shù)和AG 中的參數(shù)均可通過正向和反向傳播適應(yīng)輸入數(shù)據(jù)。
在標(biāo)準(zhǔn)U-Net 模型中,為捕獲較大的感受野,特征圖被逐漸下采樣,從而根據(jù)不同深度的特征獲取上下文的語義信息。下采樣會導(dǎo)致底層特征損失,因此需要留下一條沒有進(jìn)行下采樣的分支保存細(xì)節(jié),即標(biāo)準(zhǔn)U-Net 結(jié)構(gòu)中的跳躍連接。然而跳躍連接會將很多低層次特征中的冗余信息拼接到解碼層路徑中[17],為提高模型分割準(zhǔn)確率,將分割任務(wù)分為目標(biāo)定位和目標(biāo)分割兩個步驟[18-19],并將注意力機(jī)制引入到優(yōu)化的U-Net 模型中,使其不需要訓(xùn)練多個模型和大量額外的模型參數(shù)就能實(shí)現(xiàn)目標(biāo)定位。與多階段神經(jīng)網(wǎng)絡(luò)的定位模型相比,AG 模塊可逐步抑制不相關(guān)背景區(qū)域的特征響應(yīng),同時加強(qiáng)相關(guān)特征的學(xué)習(xí),有效提高模型分割準(zhǔn)確率。
改進(jìn)的AG 模塊結(jié)構(gòu)如圖4 所示。該模塊分別輸入編碼層圖像特征L 和相同通道數(shù)的解碼層圖像特征R,為使輸入圖像特征的尺寸相同,解碼層特征需要進(jìn)行一次上采樣。為使輸出特征圖能與對應(yīng)解碼層的特征進(jìn)行拼接,需采用Conv1×1 的卷積塊將通道數(shù)由cL、cR降低至cint。為突出特征,將形狀為b×cint×wL×dL的圖像特征相加并輸入到AAF 中,得到非線性映射的特征圖像,然后再經(jīng)過Wζ將通道數(shù)由Cint變?yōu)?,由sigmoid 激活函數(shù)處理后得到(0,1)區(qū)間內(nèi)尺寸為b×1×wL×dL的注意力系數(shù)矩陣。編碼層的輸入特征L 經(jīng)降通道操作后與注意力系數(shù)矩陣相乘,輸出添加注意力信息的低層次特征圖像。
Fig.3 Optimized structure of U-Net model(AAF+AGU-Net)圖3 優(yōu)化的U-Net 模型結(jié)構(gòu)(AAF+AGU-Net)
Fig.4 Improved attention gate module structure圖4 改進(jìn)的AG 模塊結(jié)構(gòu)
對跳躍連接與加入AG 模塊的中間訓(xùn)練過程進(jìn)行可視化處理,并選取相同層次的特征圖進(jìn)行展示,結(jié)果如圖5 所示??梢钥闯?,跳躍連接的特征圖像素較為雜亂,對血管像素的突出并不明顯,以致于網(wǎng)絡(luò)無法很好地進(jìn)行深層次學(xué)習(xí),而采用AG 模塊的特征圖更集中于需要學(xué)習(xí)的血管像素區(qū)域。
Fig.5 Visual feature images圖5 可視化特征圖像
激活函數(shù)是神經(jīng)網(wǎng)絡(luò)的重要組成部分,將非線性激活函數(shù)引入人工神經(jīng)網(wǎng)絡(luò)的計(jì)算中是使其能夠不斷學(xué)習(xí)、逐漸擬合非線性數(shù)據(jù)的關(guān)鍵。目前深度前饋神經(jīng)網(wǎng)絡(luò)中應(yīng)用最廣泛的激活函數(shù)為線性單元校正(ReLU),也有許多替代方法得到了成功應(yīng)用,然而還沒有一種替代方法具有明顯優(yōu)勢。例如,Sigmoid 和Tanh 激活函數(shù)的梯度取值范圍分別為(0,1)和(-1,1),當(dāng)網(wǎng)絡(luò)層數(shù)較多時,人工神經(jīng)網(wǎng)絡(luò)可能會遇到梯度消失的問題;ReLU 和ELU 激活函數(shù)僅能避免正向區(qū)域梯度消失的問題,如果遇到特征全部小于零的情況,兩個函數(shù)的輸出則全部為零;Leaky ReLU(LRe-LU)[20]、Parametric ReLU(PReLU)[21]和Randomized Leaky ReLU(RReLU)[22]函數(shù)被用于修正ReLu 負(fù)區(qū)域?yàn)榱愕膯栴},但往往需要根據(jù)訓(xùn)練數(shù)據(jù)預(yù)先選定參數(shù)。
基于此,Sütfeld 等[15]提出自適應(yīng)混合單元(ABU),使用6 個基本函數(shù)(Identity、Tanh、ReLU、ELU、SELU 和Swish)的線性組合對可訓(xùn)練的參數(shù)進(jìn)行縮放,并通過實(shí)驗(yàn)證明了ABU 在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中的優(yōu)勢,但ABU 的優(yōu)勢在很大程度上依賴于激活函數(shù)在訓(xùn)練過程中的適應(yīng)能力。類似地,Manessi 等[23]提出了一種對每層多個常用激活函數(shù)進(jìn)行混合學(xué)習(xí)的方法,其中混合權(quán)值被限制為1,并在一系列任務(wù)和網(wǎng)絡(luò)配置中證實(shí)了該方法的可行性。受此啟發(fā),本文擴(kuò)展激活函數(shù)的組成范圍,選取近年來在分割項(xiàng)目中有突出表現(xiàn)的激活函數(shù),利用神經(jīng)網(wǎng)絡(luò)自適應(yīng)學(xué)習(xí)每個激活函數(shù)的權(quán)重系數(shù),以增強(qiáng)神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力。
將組合的激活函數(shù)封裝于模塊AFs 中,AFs 模塊的組成單元為:
則AAF 可表示為:
式中,M 為AAF 的權(quán)重系數(shù);AAF(x)為權(quán)重系數(shù)與對應(yīng)激活函數(shù)的組合,可將其看作一個小型感知器網(wǎng)絡(luò),經(jīng)過神經(jīng)網(wǎng)絡(luò)訓(xùn)練后可獲取每個對應(yīng)激活函數(shù)的權(quán)重系數(shù),是一個適用于當(dāng)前分割任務(wù)的AAF。
每個激活函數(shù)的可調(diào)整范圍為[-1,1],使其具有極強(qiáng)的自我學(xué)習(xí)特性。值得注意的是,相較于全局應(yīng)用一個AAF,本文將14 個自適應(yīng)激活函數(shù)分別應(yīng)用于每一層Conv3×3 卷積之后(見圖3 中的黑色箭頭),這樣的策略能在很大程度上提高網(wǎng)絡(luò)的自適應(yīng)性。因此,本文在AG 模塊中也加入AAF。
在兩個廣泛應(yīng)用于眼底血管分割性能測試的數(shù)據(jù)集DRIVE、CHASE DB1 上訓(xùn)練并測試本文建立的AAF+AGUNet 模型,通過比較Dice 分?jǐn)?shù)獲取最優(yōu)閾值,得到分割的二值圖像。研究該模型在不同平臺上的處理時間,并將其分割性能與已有研究結(jié)果進(jìn)行比較。
DRIVE 數(shù)據(jù)集由40 張視網(wǎng)膜彩色圖像組成,其中20張用于訓(xùn)練,20 張用于測試,每個圖像均為565×584 像素。CHASE_DB1 數(shù)據(jù)集采集自14 名在校兒童的左右眼,共有28 張視網(wǎng)膜彩色圖像,其中20 張用于訓(xùn)練,8 張用于測試,每個圖像均為996 × 960 像素。圖像數(shù)據(jù)增強(qiáng)技術(shù)可通過平移、翻轉(zhuǎn)、旋轉(zhuǎn)、仿射、顏色變換等人為地?cái)U(kuò)大訓(xùn)練數(shù)據(jù)集的大小,該技術(shù)可用于神經(jīng)網(wǎng)絡(luò)訓(xùn)練,以提高其性能或準(zhǔn)確性。為消除數(shù)據(jù)不平衡帶來的干擾,本文采用數(shù)據(jù)增強(qiáng)技術(shù)分別對兩個數(shù)據(jù)集的訓(xùn)練數(shù)據(jù)進(jìn)行擴(kuò)充。
訓(xùn)練模型使用的工作站配置為:CPU 為Intel(R)Xeon(R)W-2255(64GRAM+2T 固態(tài)),GPU 為NVIDIA Quadro RTX 4000(8G 顯存)。訓(xùn)練前首先對模型參數(shù)進(jìn)行初始化配置,選擇He 等[24]提出的方法對所有卷積層進(jìn)行初始化,以避免參數(shù)初始值過大或過小的問題,使訓(xùn)練精度更高。為使AAF 在模型訓(xùn)練之初不產(chǎn)生某一函數(shù)權(quán)重過大的影響,使其系數(shù)全部初始化為1/10。采用Adam 優(yōu)化器對模型參數(shù)進(jìn)行調(diào)整,采用余弦退火算法(Cosine Annealing)[25]自適應(yīng)調(diào)整學(xué)習(xí)率(Learning Rate),以提高其在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)時的實(shí)時性。為防止在訓(xùn)練過程中出現(xiàn)過擬合現(xiàn)象,在模型中加入Dropout 方法,隨機(jī)失活50%的神經(jīng)元。以DRIVE 數(shù)據(jù)集為例,每次輸入模型訓(xùn)練的圖片數(shù)量(Batch Size)設(shè)為2,訓(xùn)練集中所有數(shù)據(jù)訓(xùn)練1 次為1 個epoch,本文模型共訓(xùn)練了100 個epoch,此時Loss 值已達(dá)到穩(wěn)定狀態(tài),見圖6。
Fig.6 Training loss function descent curve圖6 訓(xùn)練損失函數(shù)下降曲線(Loss)
分別在DRIVE 和CHASE_DB1 數(shù)據(jù)集上訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型,并用于測試。模型訓(xùn)練完成后加載測試集中的圖像,輸入訓(xùn)練好的模型中,得到分割后的概率圖像。根據(jù)Dice 分?jǐn)?shù)(Dice Score)選取概率圖像的最優(yōu)二值化閾值,此處Dice 分?jǐn)?shù)用于表征模型分割的二值圖像與對應(yīng)標(biāo)簽圖像的相似性,其值越接近于1 表示圖像的相似性越高,分割越精準(zhǔn),計(jì)算公式為:
式中,TP 為真正例(Ture Positive),F(xiàn)N 為假反例(False Negative),F(xiàn)P 為假正例(False Positive)。
概率圖的最優(yōu)二值化閾值求解方法為:將閾值設(shè)定為[0,1]并切塊為256 份,選定閾值對概率圖像進(jìn)行二值化,并與對應(yīng)標(biāo)簽圖像進(jìn)行Dice 分?jǐn)?shù)計(jì)算,求得該閾值下分割圖像的平均Dice 分?jǐn)?shù),以Dice 分?jǐn)?shù)最高的閾值作為圖像二值化的閾值。圖7 為DRIVE 和CHASE_DB1 數(shù)據(jù)集分割圖像的平均Dice 分?jǐn)?shù)隨閾值變化的趨勢。
Fig.7 The trend of average Dice score with segmentation threshold圖7 平均Dice 分?jǐn)?shù)隨閾值變化情況
根據(jù)得到的最優(yōu)閾值(Best Threshold),對模型輸出的概率圖進(jìn)行二值化。圖8 分別列出了DRIVE 和CHASE_DB1 數(shù)據(jù)集中兩張眼底圖像及其分割后的二值圖像,可見本文模型對血管的主干部分實(shí)現(xiàn)了精確分割,對細(xì)小的血管區(qū)域也表現(xiàn)出較高的分割水平。
Fig.8 Binary picture segmentation based on optimal threshold圖8 根據(jù)最優(yōu)閾值分割的二值圖像
表1 列出了本文提出的AAF+AGU-Net 以及3 個對照模型U-Net[6]、ERFNet[26]、M2U-Net[14]的參數(shù)量、所占內(nèi)存大小、Dice 分?jǐn)?shù)和在Cortex-A72 平臺上的運(yùn)行時間??梢钥闯?,AAF+AGU-Net 是其中參數(shù)量最少、所占內(nèi)存最小的模型,在DRIVE 和CHASE_DB1 數(shù)據(jù)集上的運(yùn)行情況優(yōu)于其他3 種模型。
Table 1 Test results of each model on DRIVE and CHASE_DB1 dataset表1 各模型在DRIVE 和CHASE_DB1 數(shù)據(jù)集上的測試結(jié)果
表2 列出了本文模型與以往研究成果在DRIVE 和CHASE_DB1 數(shù)據(jù)集上的相關(guān)性能指標(biāo),包括硬件平臺、分割時間、Dice 分?jǐn)?shù)、準(zhǔn)確性(Acc)和AUC。其中,準(zhǔn)確性指正確預(yù)測的樣本數(shù)占總樣本數(shù)的比值;AUC 為受試者工作特征曲線(ROC)下面積,越接近于1 表示模型分割效果越好??梢钥闯?,在嵌入式設(shè)備Raspberry Pi 4 Model B 平臺上,本文模型在DRIVE 數(shù)據(jù)集中的Dice 分?jǐn)?shù)和準(zhǔn)確性指標(biāo)表現(xiàn)突出;在CHASE_DB1 數(shù)據(jù)集上,本文模型的Dice 分?jǐn)?shù)雖然相較M2U-Net 低了0.24%,但本文模型參數(shù)量降低了1倍,運(yùn)算速度得到了提升。
為進(jìn)一步評價(jià)本文模型的性能,計(jì)算其ROC 曲線和準(zhǔn)確率—召回率曲線(P-R 曲線)。如圖9 所示,ROC 曲線的橫軸表示模型預(yù)測的正樣本中實(shí)際負(fù)樣本數(shù)占所有負(fù)樣本的比例(FPR),縱軸表示模型預(yù)測的正樣本中實(shí)際正樣本數(shù)占所有正確預(yù)測樣本的比例(TPR)。P-R 曲線的橫軸與TPR 的概念相同(召回率,Recall),縱軸表示正樣本中實(shí)際正樣本數(shù)占預(yù)測的正樣本的比例(精確率,Precision)。其曲線下面積(AUC)分?jǐn)?shù)是表征模型分割性能的重要指標(biāo),AUC 分?jǐn)?shù)越接近1 表示模型分割的效果越好。當(dāng)正樣本個數(shù)嚴(yán)重小于負(fù)樣本,數(shù)據(jù)嚴(yán)重傾斜時,P-R 曲線比ROC曲線更能直觀反映出模型分割性能的優(yōu)勢。將本文模型的分割結(jié)果可視化,并與M2U-Net 模型進(jìn)行對比,如圖10 所示,本文模型對血管的細(xì)節(jié)區(qū)域分割更加準(zhǔn)確。
Fig.9 ROC curve and P-R curve of the model on DRIVE and CHASE_DB1 dataset圖9 模型在DRIVE 和CHASE_DB1 測試的ROC 曲線和P-R 曲線
Fig.10 Visual display of model segmentation effect圖10 模型分割效果可視化展示
上、下位機(jī)軟件采用PyQt 與MySQL 數(shù)據(jù)庫進(jìn)行聯(lián)合開發(fā)。為使上、下位機(jī)實(shí)現(xiàn)通信,需要設(shè)置其IP 地址,上位機(jī)可通過Internet 網(wǎng)絡(luò)進(jìn)行遠(yuǎn)程控制和無線通信。上位機(jī)操作界面如圖11(a)所示,主要實(shí)現(xiàn)專家遠(yuǎn)程診斷、神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練等功能。下位機(jī)的主界面如圖11(b)所示,主要負(fù)責(zé)實(shí)現(xiàn)系統(tǒng)的控制、圖像存儲、血管分割處理、患者信息登記、無線通信等功能。
Fig.11 Master and slave computer software interface圖11 上、下位機(jī)軟件界面
目前,小型眼檢設(shè)備受體積和硬件條件限制,往往缺乏輔助診斷功能,本文針對上述問題,設(shè)計(jì)了一種輕量化U-Net 模型,引入AAF 和AG 模塊,以增加極少量重要參數(shù)為代價(jià)補(bǔ)償U(kuò)-Net 模型權(quán)重和深度的缺失問題,實(shí)現(xiàn)了一種基于嵌入式平臺的眼底血管檢測系統(tǒng)。該系統(tǒng)在滿足小型化要求的前提下,實(shí)現(xiàn)了眼底圖像采集、眼底血管分割、無線通信等功能。與常用的圖像分割模型相比,該模型在DRIVE 和CHASE_DB1 數(shù)據(jù)集上的Dice 分?jǐn)?shù)、AUC、Acc 3 個性能評價(jià)指標(biāo)均達(dá)到較高水平。目前,本課題組已經(jīng)獲得上海眼病防治所提供的3 000 張眼底圖像,未來將在更多數(shù)據(jù)集上對該模型進(jìn)行訓(xùn)練,以提高其泛化性。