楊志新,趙麗珠,鄧 玥,楊麗華
(昆明醫(yī)科大學(xué)第二附屬醫(yī)院婦科,云南 昆明 650101)
卵巢癌在女性生殖系統(tǒng)惡性腫瘤中發(fā)病率居第3 位,病死率位列首位[1],GLOBOCAN 數(shù)據(jù)[2]顯示2020 年全球約有31 萬(wàn)卵巢癌新發(fā)病例。由于卵巢癌早期缺乏典型臨床特征,且無有效的篩查手段,超過70%的患者被診斷時(shí)已在Ⅲ期或Ⅳ期,預(yù)后較差,嚴(yán)重威脅婦女生命健康[3-4]。因此發(fā)現(xiàn)卵巢癌早期診斷的有效策略成為亟待解決的問題。
超聲圖像因其成本低廉、便捷迅速以及無創(chuàng)侵入等優(yōu)點(diǎn)廣泛運(yùn)用于臨床,2022 年國(guó)家衛(wèi)生健康委員會(huì)發(fā)布的《卵巢癌診療指南》[5]指出現(xiàn)階段超聲檢查是卵巢癌篩查的首選方法,可明確卵巢有無占位性病變,但高診斷準(zhǔn)確率對(duì)超聲醫(yī)師的檢查能力、臨床經(jīng)驗(yàn)及綜合分析能力要求較高。近年來,深度學(xué)習(xí)作為前沿技術(shù)逐漸運(yùn)用于醫(yī)學(xué)影像學(xué)領(lǐng)域,其中卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的應(yīng)用最為廣泛。CNN 技術(shù)可通過計(jì)算機(jī)輔助診斷系統(tǒng)自動(dòng)學(xué)習(xí)提取超聲圖像特征,檢測(cè)醫(yī)師難以發(fā)現(xiàn)的深層成像特征,更好地輔助醫(yī)生診斷疾病,提高診斷效率[5]。其與肝臟超聲、乳腺超聲、甲狀腺超聲圖像等結(jié)合,協(xié)助提高結(jié)節(jié)良惡性診斷水平[6-8]。本研究選取VGG16 與MobileNet-V2 2 個(gè)CNN 模型與卵巢腫瘤超聲圖像結(jié)合,以提高卵巢腫瘤超聲圖像鑒別診斷水平,提高卵巢癌早期診斷效率。
納入標(biāo)準(zhǔn)[9]:細(xì)胞學(xué)或組織病理證實(shí)的卵巢惡性腫瘤、卵巢良性腫瘤患者;可獲取疾病負(fù)荷狀態(tài)的超聲圖像。排除標(biāo)準(zhǔn)[9]:雖病理證實(shí)為符合條件的卵巢病變但在昆明醫(yī)科大學(xué)第二附屬醫(yī)院超聲檢查時(shí)已無疾病負(fù)荷;超聲圖像未存檔或超聲圖像模糊無法辨認(rèn)、包含無效信息過多。本次研究經(jīng)昆明醫(yī)科大學(xué)第二附屬醫(yī)院倫理委員會(huì)審查批準(zhǔn)(倫理批件號(hào)審-PJ-2020-100),共收集2015 年6 月至2022 年9 月卵巢腫瘤患者365 例(良性患者200 例,惡性患者165 例),共400 張卵巢腫瘤超聲圖像,均取得患者本人或家屬知情同意。具體病理類型,見表1?;颊咧形荒挲g為(48.34±13.47)歲。
表1 收集圖片病理結(jié)果統(tǒng)計(jì)表()Tab.1 Statistical tables of pathological results from collected image()
表1 收集圖片病理結(jié)果統(tǒng)計(jì)表()Tab.1 Statistical tables of pathological results from collected image()
超聲圖像集均來自Philips-Affiniti 50 彩色多普勒超聲診斷儀,探頭為 C9-4v 腔內(nèi)超聲探頭,探頭頻率22~42 Hz。采集圖像存儲(chǔ)為JPG 格式。圖像預(yù)處理流程,見圖1。挑選腫瘤清晰的圖像,由工作經(jīng)驗(yàn)5 a 以上的超聲科醫(yī)生選取腫瘤感興趣區(qū)域。另外,B 超圖像上病灶標(biāo)注等信息,利用Matlab 圖像處理的方式去除。將圖像統(tǒng)一調(diào)整為224×224 像素大小便于模型訓(xùn)練。隨后超聲圖片數(shù)據(jù)集以1∶3 比例分為訓(xùn)練集及驗(yàn)證集,選取100 例超聲圖片(惡性50 例,良性50 例)作為訓(xùn)練集用于模型的訓(xùn)練與建立,余300 例超聲圖片(惡性150 例,良性150 例)作為驗(yàn)證集用于模型驗(yàn)證。
圖1 B 超圖像預(yù)處理流程圖Fig.1 The preprocessing of ultrasound image
采用VGG16 和MobileNet-V2 構(gòu)建CNN 模型,對(duì)卵巢超聲圖像進(jìn)行分類。VGG 模型作為經(jīng)典的CNN 網(wǎng)絡(luò),可以從B 超圖像中提取腫瘤尺寸、位置、紋理等空間特征信息以實(shí)現(xiàn)分類任務(wù)。本研究選擇VGG16 模型進(jìn)行第1 輪搭建,它包含5 段卷積,每段卷積有1 到3 個(gè)卷積層,每段卷積后接1 個(gè)最大池化層來縮小特征值尺寸和增強(qiáng)特征,后接3 個(gè)全連接層,前2 層均有4 096 個(gè)通道,第3 層共1 000 個(gè)通道,對(duì)應(yīng)1 000 個(gè)標(biāo)簽類別,最后1 層為Softmax 層,見圖2。MobileNet-V2 模型不僅借鑒VGG 結(jié)構(gòu),堆疊卷積層以提高準(zhǔn)確度,另外引入線性瓶頸結(jié)構(gòu)和反向殘差結(jié)構(gòu),實(shí)現(xiàn)模型參數(shù)少、計(jì)算速度快的優(yōu)點(diǎn),且適用于輕量級(jí)設(shè)備的應(yīng)用部署。本研究應(yīng)用的MobileNet-V2 包含初始的32 個(gè)卷積核的全卷積層,后接17 個(gè)反向殘差瓶頸模塊,然后是2 個(gè)全卷積層,2 個(gè)全卷積層之間插入1 個(gè)平均池化層以實(shí)現(xiàn)分類任務(wù),見圖3。
圖2 VGG16 模型Fig.2 The structure of VGG16
圖3 MobileNet-V2 模型Fig.3 The structure of MobileNet-V2
本次實(shí)驗(yàn)使用個(gè)人計(jì)算機(jī)訓(xùn)練神經(jīng)網(wǎng)絡(luò)。使用python 3.7,CUDA 10.1 及包括Numpy、Pytorch、Torchversion 等在內(nèi)的多個(gè)Python 組件,分別對(duì)VGG16 網(wǎng)絡(luò)和MobileNet-V2 網(wǎng)絡(luò)進(jìn)行參數(shù)調(diào)整,學(xué)習(xí)率設(shè)置為0.001,Batchsize 為32,epoch 為200 次。損失值代表訓(xùn)練數(shù)據(jù)輸入VGG16 及MobileNet-V2 網(wǎng)絡(luò)后,預(yù)測(cè)值和真實(shí)值之間的誤差;準(zhǔn)確率反映模型預(yù)測(cè)值與真實(shí)值之間的一致性。損失值越小,準(zhǔn)確率越高則模型診斷效能更強(qiáng)。在每次訓(xùn)練結(jié)束時(shí),將每次訓(xùn)練后的訓(xùn)練集損失函數(shù)值與訓(xùn)練集準(zhǔn)確率進(jìn)行記錄保存,然后根據(jù)數(shù)據(jù)創(chuàng)建折線圖表來直觀地反應(yīng)結(jié)果。使用CUDA 加速,對(duì)數(shù)據(jù)集進(jìn)行訓(xùn)練與前向推理。經(jīng)過200 周期的訓(xùn)練后,模型保存為CSV 文件。最后用驗(yàn)證集來測(cè)試訓(xùn)練集得到的模型,以此作為評(píng)價(jià)診斷模型的性能指標(biāo)。
選擇本院高年資和低年資2 名超聲科醫(yī)生,其中高年資醫(yī)師的選擇標(biāo)準(zhǔn)為取得中級(jí)資格證,婦科超聲檢查超過10 000 例,低年資醫(yī)師標(biāo)準(zhǔn)為從事超聲工作小于3 a,婦科超聲檢查不到3 000例。2 名醫(yī)師分別獨(dú)立地對(duì)電腦屏幕所展示的驗(yàn)證集圖像進(jìn)行識(shí)別判斷,記錄結(jié)果。與模型診斷結(jié)果進(jìn)行比較。
采用SPSS 26.0 對(duì)數(shù)據(jù)進(jìn)行統(tǒng)計(jì)描述和統(tǒng)計(jì)學(xué)分析,計(jì)數(shù)資料統(tǒng)計(jì)描述采用例數(shù)或百分比表示。分別計(jì)算Kappa 系數(shù)、靈敏度、特異度、準(zhǔn)確度、陽(yáng)性預(yù)測(cè)值、陰性預(yù)測(cè)值,4 種診斷方法各參數(shù)比較采用χ2檢驗(yàn),P<0.05 表明差異有統(tǒng)計(jì)學(xué)意義。
隨著訓(xùn)練次數(shù)的增加,兩模型訓(xùn)練集的損失值不斷下降,但損失值下降趨勢(shì)逐漸減緩,VGG16 網(wǎng)絡(luò)模型的損失函數(shù)值始終高于MobileNet-V2 模型,見圖4A。使用VGG16 和MobileNet-V2 進(jìn)行訓(xùn)練后得到的準(zhǔn)確率結(jié)果,見圖4B??偟目磥?,隨著訓(xùn)練次數(shù)增加,2 模型訓(xùn)練集的準(zhǔn)確率均呈上升的趨勢(shì),但實(shí)驗(yàn)次數(shù)100 次之后,準(zhǔn)確率提升便不再明顯,最終VGG16、MobileNet-V2 模型的準(zhǔn)
圖4 VGG16 和MobileNet-V2 在訓(xùn)練過程中的損失函數(shù)值和準(zhǔn)確率Fig.4 The loss and accuracy of VGG16 and MobileNet-V2 during training process
統(tǒng)計(jì)4 種診斷方法結(jié)果,VGG16 模型有121例惡性腫瘤圖片分類正確,119 例良性腫瘤圖片分類正確;MobileNet-V2 模型有134 例惡性腫瘤圖片分類正確,140 例良性腫瘤圖片分類正確;高年資醫(yī)生有113 例惡性腫瘤圖片分類正確,121 例良性腫瘤圖片分類正確;低年資醫(yī)生有100 例惡性腫瘤圖片分類正確,99 例良性腫瘤圖片分類正確,計(jì)算統(tǒng)計(jì)各參數(shù),見表2。分別比較MobileNet-V2、VGG16 模型、超聲醫(yī)生與病理診斷的一致性、準(zhǔn)確率,靈敏度、特異度,結(jié)果發(fā)現(xiàn)VGG16、MobileNet-V2 模型診斷的準(zhǔn)確率,靈敏度、Kappa 值均高于超聲醫(yī)生(P<0.05),而高年資超聲醫(yī)生的診斷效能又優(yōu)于低年資超聲醫(yī)生(P<0.05),其中MobileNet-V2 模型各項(xiàng)指標(biāo)均優(yōu)于其他3 種診斷方法,整體性能最佳(P<0.05)。
表2 Mobilenet-V2、VGG16、與超聲醫(yī)生診斷能力比較Tab.2 Comparision of diagnosis performance among MobileNet-V2,VGG16 and ultrasound doctors in validation sets
惡性腫瘤的篩查與診斷一直以來都是腫瘤研究領(lǐng)域的熱點(diǎn),研究者們很早就將人工智能方法應(yīng)用到腫瘤影像學(xué)中,從早期計(jì)算機(jī)輔助診斷系統(tǒng),到現(xiàn)在普遍運(yùn)用的深度學(xué)習(xí)。人工智能正逐步表露其巨大的潛力不斷為惡性腫瘤的診斷篩查,甚至治療、預(yù)后研究提供新的思路。伴隨CNN 的迭代更新,擁有良好性能的CNN 模型不斷涌現(xiàn)。VGG 的結(jié)構(gòu)網(wǎng)絡(luò)十分簡(jiǎn)潔,其利用小卷積核的堆疊,在減少網(wǎng)絡(luò)參數(shù)的同時(shí),能完成同大卷積核一樣的感受野效果;另外每層卷積之后的非線性函數(shù),提升網(wǎng)絡(luò)對(duì)圖片特征值的學(xué)習(xí)及表達(dá)。與之前的網(wǎng)絡(luò)結(jié)構(gòu)相比,VGG 的錯(cuò)誤率大幅下降,拓展性很強(qiáng),并且在圖像分類和目標(biāo)檢測(cè)任務(wù)中都取得了很好的效果[10-11]。VGG 依據(jù)深度不同,劃分為6 種結(jié)構(gòu),其中VGG16 具有良好的圖片分類能力。Han 等[12]使用10 種機(jī)器學(xué)模型和 VGG算法對(duì)肺癌患者的PET/CT 圖像進(jìn)行學(xué)習(xí)分析,以構(gòu)建用于肺腺鱗癌鑒別診斷的最佳分類模型,最后VGG16 算法曲線下面積0.903,優(yōu)于結(jié)合放射組學(xué)的所有傳統(tǒng)機(jī)器學(xué)習(xí)方法。Alshammari等[13]應(yīng)用VGG16 對(duì)數(shù)據(jù)庫(kù)中腦轉(zhuǎn)移病人的核磁圖像進(jìn)行分類,使用函數(shù)計(jì)算輔助增強(qiáng)效能,最終對(duì)腦轉(zhuǎn)移圖像的分類準(zhǔn)確率達(dá)93.74%,除此之外,VGG16 還用來輔助腰椎狹窄的影像學(xué)診斷,與其他深度學(xué)習(xí)方法相比VGG16 分類成功率最高,為 87.70%[14]??梢?,VGG16 與影像學(xué)的結(jié)合應(yīng)用比較靈活,且結(jié)果良好。本研究首先選用VGG16 網(wǎng)絡(luò)模型來構(gòu)建訓(xùn)練超聲圖像診斷模型,最后VGG16 模型的準(zhǔn)確率為80.00%,靈敏度為80.67%,特異度為79.33%。鑒于VGG16 模型驗(yàn)證數(shù)據(jù)未達(dá)到筆者對(duì)CNN 鑒別附件包塊超聲圖像良惡性的預(yù)期,因此本研究選用MobileNet-V2 模型進(jìn)行新一輪搭建。MobileNet-V2 神經(jīng)網(wǎng)絡(luò)是輕量化卷積神經(jīng)網(wǎng)絡(luò)中表現(xiàn)較為優(yōu)秀的網(wǎng)絡(luò),它不僅保留了VGG 網(wǎng)絡(luò)堆疊小卷積層以提高準(zhǔn)確度的結(jié)構(gòu),還創(chuàng)新性地運(yùn)用線性函數(shù)及反向殘差模塊來減少運(yùn)算量,隨著巨型網(wǎng)絡(luò)一步步演變?yōu)檩p量化網(wǎng)絡(luò),模型準(zhǔn)確率也越來越高[15-16]。近年來MobileNet-V2 廣泛運(yùn)用于醫(yī)學(xué)影像輔助診斷,Palczynski 等[17]應(yīng)用MobileNet-V2 協(xié)助白血病診斷,其分類平均準(zhǔn)確率超過90%。Srinivasu 等[18]利用MobileNet-V2 模型對(duì)皮膚病進(jìn)行分類,該模型比其他經(jīng)典CNN 模型有更高的準(zhǔn)確性。臺(tái)北大學(xué)學(xué)者[19]選擇MobileNet-V2 分析患者腹部超聲圖像對(duì)膽囊炎進(jìn)行分類,最終曲線下面積分別達(dá)0.92 和0.94。本研究搭建MobileNet-V2 網(wǎng)絡(luò)模型驗(yàn)證集最后準(zhǔn)確率為91.33%,靈敏度為89.33%,特異度為93.33%。再選取本院1 名高年資超聲醫(yī)生、1 名低年資超聲醫(yī)生對(duì)驗(yàn)證集數(shù)據(jù)進(jìn)行獨(dú)立診斷,比較診斷結(jié)果顯示MobileNet-V2 診斷性能最優(yōu),VGG16、MobileNet-V2 模型診斷的準(zhǔn)確率,靈敏度、Kappa 值均高于高、低年資超聲醫(yī)生(P<0.05)。這與Martinez-Mas 等[20]基于機(jī)器學(xué)習(xí)技術(shù)建立的卵巢腫瘤超聲圖像診斷模型準(zhǔn)確率相當(dāng)。
本研究證明了利用卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)對(duì)卵巢癌腫瘤分類的可行性,有望應(yīng)用于臨床輔助卵巢癌的診斷、改善預(yù)后。但本研究模型訓(xùn)練的圖像數(shù)據(jù)偏少,在下一步的工作中,將逐漸擴(kuò)大樣本量,改善優(yōu)化算法模型,發(fā)展基于超聲影像的卵巢癌自動(dòng)檢測(cè)方法,以期為卵巢癌早期診斷困難尋求新的解決辦法。