• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于動(dòng)態(tài)卷積的胸部X光片疾病分類算法

    2022-07-04 09:16:00趙啟蒙
    關(guān)鍵詞:準(zhǔn)確度胸部損失

    李 鏘,趙啟蒙,關(guān) 欣

    基于動(dòng)態(tài)卷積的胸部X光片疾病分類算法

    李 鏘,趙啟蒙,關(guān) 欣

    (天津大學(xué)微電子學(xué)院,天津 300072)

    胸部疾病嚴(yán)重威脅人類健康,及時(shí)并精準(zhǔn)地檢測(cè)胸部疾病對(duì)患者的治療與康復(fù)具有重要意義.胸部疾病經(jīng)常通過胸部X光片進(jìn)行診斷,但由于胸部疾病的多樣性以及病理特征的復(fù)雜性,現(xiàn)有的胸部X光片疾病分類算法存在分類準(zhǔn)確度較低、模型復(fù)雜度較高等問題.針對(duì)以上問題,提出一種基于動(dòng)態(tài)卷積的胸部X光片疾病分類算法.將動(dòng)態(tài)卷積模塊加入密集連接網(wǎng)絡(luò),在不顯著增加網(wǎng)絡(luò)模型尺寸的前提下,增強(qiáng)網(wǎng)絡(luò)對(duì)多尺度信息的特征提取能力,在提升分類準(zhǔn)確度的同時(shí)保持高效推理;使用Meta-ACON改進(jìn)ReLU(rectified linear units)激活函數(shù),通過線性-非線性切換因子自適應(yīng)地選擇是否激活以及使用何種激活函數(shù),從而增強(qiáng)網(wǎng)絡(luò)的泛化能力;提出加權(quán)焦點(diǎn)損失函數(shù),在焦點(diǎn)損失函數(shù)的基礎(chǔ)上加入權(quán)重調(diào)整因子,使網(wǎng)絡(luò)依據(jù)分類的難易程度為每種疾病合理分配權(quán)重,增大較難分類疾病的損失占比以提高其分類準(zhǔn)確度,進(jìn)而優(yōu)化整體性能;對(duì)數(shù)據(jù)加載方式進(jìn)行優(yōu)化,增大批數(shù)據(jù)處理量以提升批歸一化效果;在測(cè)試階段使用測(cè)試時(shí)數(shù)據(jù)增強(qiáng)策略,綜合分析多個(gè)維度的分類結(jié)果,提高分類的準(zhǔn)確性與魯棒性.在chest X-ray14數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,在密集連接網(wǎng)絡(luò)中加入動(dòng)態(tài)卷積模塊、Meta-ACON激活函數(shù)、加權(quán)焦點(diǎn)損失函數(shù)并在實(shí)驗(yàn)時(shí)優(yōu)化數(shù)據(jù)加載方式、使用測(cè)試時(shí)數(shù)據(jù)增強(qiáng)策略的算法對(duì)14種胸部疾病分類的平均受試者工作特征曲線下面積(area under receiver operating characteristic curve,AUC)值達(dá)到0.8361,針對(duì)單個(gè)疾病標(biāo)簽的AUC值最高可達(dá)0.9534,高于目前6種先進(jìn)算法.實(shí)驗(yàn)結(jié)果表明,基于動(dòng)態(tài)卷積的胸部X光片疾病分類算法具有分類準(zhǔn)確度高、模型魯棒性強(qiáng)等優(yōu)勢(shì),可良好地適用于胸部X光片疾病分類任務(wù).

    胸部X光片;疾病分類;密集連接網(wǎng)絡(luò);動(dòng)態(tài)卷積;ACON激活函數(shù);加權(quán)焦點(diǎn)損失函數(shù)

    胸部疾病是威脅人類健康的關(guān)鍵因素之一,及時(shí)并精準(zhǔn)地檢測(cè)胸部疾病,對(duì)患者的治療與康復(fù)具有重要意義.胸部X光片(chest X-ray,CXR)是醫(yī)生用來診斷胸部疾病的重要手段,但依靠專業(yè)醫(yī)生對(duì)胸部X光片的逐一手動(dòng)標(biāo)注是一項(xiàng)耗時(shí)耗力的工作[1].隨著深度學(xué)習(xí)(deep learning)的興起與快速發(fā)展,計(jì)算機(jī)輔助診斷(computer aided diagnosis,CAD)逐漸成為臨床常用的診斷方法,如糖尿病、眼病診斷[2-3]、肺結(jié)節(jié)檢測(cè)[4-5]和癌轉(zhuǎn)移檢測(cè)定位等[6-7].利用CAD技術(shù)輔助診斷胸部疾病,即通過智能算法對(duì)胸部X光片中的病灶特征進(jìn)行提取、分割、分析,并給出診斷結(jié)果,可以大大減少醫(yī)生的工作量,降低人工診斷的誤差.

    Lakhani等[8]評(píng)估了AlexNet[9]和GoogLeNet[10]兩種卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)模型在CXR圖像上檢測(cè)肺結(jié)核的性能,單項(xiàng)疾病分類的平均受試者曲線下面積(area under receiver operating characteristic curve,AUC)值最高可達(dá)0.99,遠(yuǎn)超傳統(tǒng)的分類器分類方法.Li等[11]基于多實(shí)例弱監(jiān)督的深度學(xué)習(xí)模型,通過去除殘差網(wǎng)絡(luò)(residual network,ResNet)[12]的最終分類層和全局池化層,實(shí)現(xiàn)了CXR圖像病灶區(qū)域定位與疾病分類的同步.然而,深度學(xué)習(xí)算法往往需要海量數(shù)據(jù)集才能夠取得較好的訓(xùn)練效果,而胸部疾病的數(shù)據(jù)集樣本較少,為更好地將深度學(xué)習(xí)應(yīng)用于胸部疾病分類,2017年,美國國立衛(wèi)生研究院首次公開了chest X-ray14數(shù)據(jù)集[13],Wang等[13]基于此數(shù)據(jù)集,通過保留CNN的結(jié)構(gòu)與卷積層大部分權(quán)重參數(shù),移除全連接層,加入過渡層、全局池化層的方式,設(shè)計(jì)了一種適用于胸部疾病分類的深度卷積神經(jīng)網(wǎng)絡(luò)(deep convolutional neural network,DCNN)架構(gòu).Guendel等[14]在密集連接網(wǎng)絡(luò)(densely connected convolutional networks,DenseNet)[15]結(jié)構(gòu)基礎(chǔ)上增加兩個(gè)卷積層,使網(wǎng)絡(luò)模型在對(duì)數(shù)據(jù)集預(yù)處理時(shí)不需要進(jìn)行圖像壓縮等操作,可保留CXR圖像的原始分辨率,從而更加精確地獲取病灶區(qū)域特征,并結(jié)合病灶區(qū)域位置信息對(duì)胸部疾病進(jìn)行可視化分類.張智睿等[16]在DenseNet的結(jié)構(gòu)基礎(chǔ)上加入密集擠壓激勵(lì)模塊與非對(duì)稱卷積塊以增強(qiáng)特征通道的信息表達(dá)能力,并使用焦點(diǎn)損失函數(shù)平衡網(wǎng)絡(luò)對(duì)不同疾病識(shí)別能力的差異,實(shí)現(xiàn)了分類準(zhǔn)確度的提升.Teixeira等[17]使用ResNet與DenseNet分別對(duì)同一張CXR圖像進(jìn)行互補(bǔ)特征學(xué)習(xí),并將兩個(gè)網(wǎng)絡(luò)的全連接層相連進(jìn)行融合分類,以關(guān)注病灶區(qū)域最顯著的特征,從而實(shí)現(xiàn)分類準(zhǔn)確度的提升.Chen等[18]提出分別對(duì)CXR圖像的肺部區(qū)域與全局區(qū)域進(jìn)行互補(bǔ)特征學(xué)習(xí)與自適應(yīng)加權(quán)融合,并不斷調(diào)整融合流,獲得分類結(jié)果的方法,該方法降低了胸部X光片中無關(guān)區(qū)域的噪聲干擾,實(shí)現(xiàn)了分類準(zhǔn)確度的提升.Ho等[19]建立從CXR圖像到疾病類別標(biāo)簽的顯著性映射以提取病灶區(qū)域特征信息,并使用知識(shí)蒸餾(knowledge distillation,KD)[20]訓(xùn)練策略在ResNet、DenseNet的基準(zhǔn)模型上取得了較好的胸部疾病可視化分類效果.

    綜上所述,以卷積神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的深度學(xué)習(xí)方法可高效并廣泛地應(yīng)用于胸部X光片疾病分類,適合解決復(fù)雜的分類問題,并具有學(xué)習(xí)能力強(qiáng)、運(yùn)算速度快、可移植性好等優(yōu)勢(shì).然而,基于深度學(xué)習(xí)方法對(duì)胸部X光片分類在準(zhǔn)確度提升的任務(wù)上仍面臨如下挑戰(zhàn):①CXR圖像病灶區(qū)域的紋理、位置等特征表現(xiàn)多種多樣且較為復(fù)雜,部分網(wǎng)絡(luò)對(duì)于這種復(fù)雜信息的學(xué)習(xí)能力不足,從而影響分類準(zhǔn)確度的提升;②在數(shù)據(jù)集中,各類型疾病的樣本數(shù)目存在較為嚴(yán)重的類不均衡現(xiàn)象,網(wǎng)絡(luò)在訓(xùn)練過程中易出現(xiàn)過擬合等問題,影響網(wǎng)絡(luò)性能;③更高性能深度網(wǎng)絡(luò)模型的訓(xùn)練需要高昂的計(jì)算與存儲(chǔ)成本,這在一定程度上限制了網(wǎng)絡(luò)對(duì)CXR圖像進(jìn)行更高效的學(xué)習(xí)與更準(zhǔn)確的分類.針對(duì)以上問題,本文提出基于動(dòng)態(tài)卷積(dynamic convolution)[21-22]的胸部X光片疾病分類算法,命名為DC-DenseNet(densely connected network based on dynamic convolution),具體內(nèi)容如下.

    (1) 使用DenseNet作為基本構(gòu)建模塊,去除該網(wǎng)絡(luò)中的全部3×3卷積并加入動(dòng)態(tài)卷積構(gòu)成動(dòng)態(tài)卷積模塊(dynamic convolution block,DC-Block),從而獲得更好的特征提取能力,且不會(huì)顯著增加網(wǎng)絡(luò)模型尺寸,有效提升網(wǎng)絡(luò)性能.

    (2) 使用Meta-ACON激活函數(shù)[23]替換網(wǎng)絡(luò)中的ReLU激活函數(shù),Meta-ACON激活函數(shù)可以自適應(yīng)選擇是否激活,并依據(jù)不同情況選擇不同的激活函數(shù),可以增強(qiáng)網(wǎng)絡(luò)的泛化性能,從而提升網(wǎng)絡(luò)的分類準(zhǔn)確度.

    (3) 提出加權(quán)焦點(diǎn)損失函數(shù)的方法,根據(jù)每種疾病分類的難易程度為每種疾病賦予不同的損失權(quán)重,增加較難分類疾病的權(quán)重使網(wǎng)絡(luò)的計(jì)算資源向其傾斜,從而提高較難分類疾病的分類準(zhǔn)確度,進(jìn)而提升整體分類準(zhǔn)確度.

    (4) 對(duì)顯卡的數(shù)據(jù)加載方式進(jìn)行優(yōu)化,以提高顯卡的利用率,增大批處理數(shù)據(jù)容量,進(jìn)而提升網(wǎng)絡(luò)的訓(xùn)練效果;在測(cè)試階段使用測(cè)試時(shí)數(shù)據(jù)增強(qiáng)策略,擴(kuò)展測(cè)試數(shù)據(jù)集,并綜合分析多個(gè)維度的分類結(jié)果,提升分類準(zhǔn)確度.

    本文提出的DC-DenseNet算法在Chest X-ray14數(shù)據(jù)集上進(jìn)行有效性評(píng)估實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,該算法對(duì)胸部X光片疾病具有較高的分類準(zhǔn)確度.

    1 算法框架

    本文算法框架如圖1所示,其具體網(wǎng)絡(luò)結(jié)構(gòu)配置如表1所示.本文算法在DenseNet模型的基礎(chǔ)上進(jìn)行改進(jìn),構(gòu)建DC-DenseNet模型,其中包含4個(gè)動(dòng)態(tài)卷積模塊,每個(gè)動(dòng)態(tài)卷積模塊由過渡層進(jìn)行連接.首先,CXR圖像在經(jīng)過預(yù)處理、卷積與池化操作后被輸入到第1個(gè)動(dòng)態(tài)卷積模塊(DC-Block1).動(dòng)態(tài)卷積模塊包含ReLU激活函數(shù)、1×1卷積層和3×3動(dòng)態(tài)卷積層,1×1卷積操作的目的是對(duì)輸入特征圖進(jìn)行降維,并融合各個(gè)通道的特征,3×3動(dòng)態(tài)卷積是DC-Block的核心結(jié)構(gòu),其目的是充分提取特征圖的多尺度信息,DC-Block結(jié)合了密集連接與動(dòng)態(tài)卷積的優(yōu)勢(shì),既可以緩解梯度消失問題,又可以在不增大卷積核尺寸的前提下提升網(wǎng)絡(luò)模型的容量.然后,將所得到的特征圖輸入過渡層.過渡層中包含Meta-ACON激活函數(shù)、1×1卷積層和2×2平均池化層,1×1卷積層對(duì)上一個(gè)DC-Block的輸出進(jìn)行降維處理以避免信息冗余,2×2平均池化層是特征圖進(jìn)入下一個(gè)DC-Block的預(yù)處理.過渡層輸出的特征圖進(jìn)入DC-Block2,并進(jìn)行多輪循環(huán).特征圖在經(jīng)過最后一個(gè)動(dòng)態(tài)卷積模塊(DC-Block4)后進(jìn)入全連接分類層.最終,全連接分類層通過對(duì)特征圖進(jìn)行7×7全局平均池化操作,建立14維特征向量的全連接,從而輸出圖像分類識(shí)別結(jié)果,實(shí)現(xiàn)一個(gè)完整的訓(xùn)練過程.

    圖1 算法整體框架

    表1 DC-DenseNet的具體結(jié)構(gòu)配置

    本節(jié)將詳細(xì)介紹算法整體結(jié)構(gòu)與動(dòng)態(tài)卷積、Meta-ACON激活函數(shù)、加權(quán)焦點(diǎn)損失函數(shù)的實(shí)現(xiàn).

    1.1 密集連接網(wǎng)絡(luò)

    2017年,Huang等[15]在深度殘差網(wǎng)絡(luò)的基礎(chǔ)上提出了密集連接網(wǎng)絡(luò).ResNet通過殘差學(xué)習(xí)有效緩解了深度網(wǎng)絡(luò)的退化問題[24].與ResNet層級(jí)間直接加和的連接方式不同的是,DenseNet通過級(jí)聯(lián)組合前面所有層的特征值,以確保層級(jí)之間的最大信息流,有效緩解梯度消失問題,鼓勵(lì)特征復(fù)用,增強(qiáng)特征傳播,因而更適用于多標(biāo)簽分類問題.

    DenseNet主要由密集連接模塊與過渡層構(gòu)成.圖2展示了一種包含3個(gè)密集連接模塊的DenseNet結(jié)構(gòu)模型.在DenseNet結(jié)構(gòu)中,上一級(jí)密集連接模塊輸出的特征圖在經(jīng)過卷積與池化處理后,進(jìn)入下一級(jí)密集連接模塊.密集連接模塊中每個(gè)卷積層的輸入均包括先前所有層的輸出,并將每一層的輸出作為所有后續(xù)層的輸入,在一個(gè)層的密集連接模塊中便有(+1)/2個(gè)連接.

    胸部疾病分類問題的CXR圖像中包含有關(guān)14種疾病的特征信息,因此需要神經(jīng)網(wǎng)絡(luò)對(duì)圖像有很強(qiáng)的特征提取能力,而DenseNet通過卷積層之間的密集連接,鼓勵(lì)特征信息多次復(fù)用,適合應(yīng)用于多種疾病的分類任務(wù).因此,本文采用DenseNet作為基礎(chǔ)網(wǎng)絡(luò)進(jìn)行算法結(jié)構(gòu)設(shè)計(jì).

    1.2 動(dòng)態(tài)卷積模塊

    動(dòng)態(tài)卷積原理與條件參數(shù)化卷積(conditionally parameterized convolutions,CondConv)[22]的原理相同,均等同于多分支卷積層,即每個(gè)卷積層中設(shè)置有多個(gè)卷積核,根據(jù)卷積層的輸入決定各個(gè)卷積核的權(quán)重,再對(duì)這些卷積核加權(quán)求和得到一個(gè)適合該輸入的動(dòng)態(tài)卷積核,最后只需對(duì)輸入執(zhí)行一次卷積操作便可達(dá)到與多個(gè)卷積核相當(dāng)?shù)挠?xùn)練效果.這種方法可以提高卷積層對(duì)多尺度信息的特征提取能力,在有效提升模型容量的同時(shí)保持高效推理.

    圖2 DenseNet基本網(wǎng)絡(luò)結(jié)構(gòu)

    CNN在許多計(jì)算機(jī)任務(wù)中取得了最先進(jìn)的性能.因?yàn)椴煌叽绲木矸e核能夠提取到不同尺度的特征信息,所以多個(gè)尺寸卷積核的集合總是能獲得更好的特征提取效果.但多個(gè)卷積核的使用會(huì)造成模型尺寸的急劇增加,增加網(wǎng)絡(luò)部署難度.而動(dòng)態(tài)卷積可以在達(dá)到多卷積核集成效果的同時(shí),不會(huì)造成計(jì)算量的急劇增加,因此可以在不增加模型尺寸的前提下,有效提升模型的訓(xùn)練與推理速度.

    動(dòng)態(tài)卷積模塊的構(gòu)成如圖3所示.圖3(a)虛線框內(nèi)的部分表示含有個(gè)動(dòng)態(tài)卷積塊的DC-Block工作流程,的取值表示該模塊含有的動(dòng)態(tài)卷積塊數(shù)量,分別對(duì)應(yīng)表1中4個(gè)DC-Block包含的動(dòng)態(tài)卷積塊數(shù)量,DC-Block的輸出經(jīng)過批歸一化與ReLU激活進(jìn)入由圖中1×1卷積、Meta-ACON激活函數(shù)和 2×2平均池化組成的過渡層.圖3(b)表示動(dòng)態(tài)卷積的工作流程,本文使用含有3個(gè)卷積核的動(dòng)態(tài)卷積,即=3.圖3(c)表示動(dòng)態(tài)卷積注意力模塊的工作 流程.

    圖3 動(dòng)態(tài)卷積模塊

    動(dòng)態(tài)卷積輸出為

    每個(gè)普通卷積核的權(quán)重系數(shù)α通過注意力模塊得到,注意力模塊如圖3(c)所示,其包含3個(gè)步驟:全局平均池化(golbal average pooling,GAP)、全連接(fully connection,F(xiàn)C)和Sigmoid激活.

    該過程可按式(2)表示,即

    DenseNet-121模型的Dense Block由大量1×1卷積與3×3卷積構(gòu)成.一方面,在Dense Block的卷積層結(jié)構(gòu)中,主要通過3×3卷積提取輸入數(shù)據(jù)的特征信息,1×1卷積的作用則是通過對(duì)數(shù)據(jù)進(jìn)行降維,輔助數(shù)據(jù)訓(xùn)練與特征提取更加直觀有效地進(jìn)行;另一方面,將普通卷積替換為動(dòng)態(tài)卷積雖然能夠增強(qiáng)網(wǎng)絡(luò)的性能,但也會(huì)帶來網(wǎng)絡(luò)參數(shù)量的增加.由于3×3動(dòng)態(tài)卷積比同尺寸的3×3卷積具有更高的計(jì)算效率與更強(qiáng)的特征表示能力,因此,為盡可能地增強(qiáng)卷積層對(duì)多尺度特征信息的提取能力,同時(shí)保證網(wǎng)絡(luò)性能與負(fù)載的均衡,本文將DenseNet模型中所有的3×3卷積替換為3×3動(dòng)態(tài)卷積,構(gòu)成動(dòng)態(tài)卷積模塊.

    1.3 Meta-ACON激活函數(shù)

    Meta-ACON激活函數(shù)是對(duì)ReLU激活函數(shù)的光滑近似.作為ReLU激活函數(shù)的改進(jìn)形式,Meta-ACON激活函數(shù)通過在ReLU激活函數(shù)的基礎(chǔ)上設(shè)置切換因子,可以自適應(yīng)地選擇是否激活,以及使用何種激活函數(shù),這種自定義的激活操作有助于提升網(wǎng)絡(luò)的泛化能力和信息傳輸性能,取得了比ReLU激活函數(shù)更好的效果.如圖4所示,圖4(a)、(b)分別表示ReLU激活、Meta-ACON激活在不同輸入下的激活狀態(tài),其中不同深淺的藍(lán)色色塊表示Meta-ACON激活函數(shù)的不同激活狀態(tài),白色色塊表示未激活,色塊內(nèi)為經(jīng)過自適應(yīng)選擇后的Meta-ACON激活函數(shù).

    Meta-ACON激活函數(shù)的推導(dǎo)過程如下.

    ReLU激活函數(shù)本質(zhì)是一個(gè)max函數(shù),即

    ReLU激活函數(shù)是最常用的激活函數(shù),只需判斷ReLU函數(shù)的輸入是否大于0即可,具有非常快的計(jì)算速度,但當(dāng)?shù)娜≈德淙雲(yún)^(qū)間(-∞,0)時(shí),函數(shù)的梯度為0,導(dǎo)致相應(yīng)的參數(shù)一直無法更新,ReLU激活函數(shù)會(huì)因梯度消失而永久關(guān)閉[25].

    max函數(shù)的平滑近似稱為光滑最大值(smooth maximum)函數(shù),其公式為

    圖4 ReLU激活函數(shù)與Meta-ACON激活函數(shù)

    DenseNet模型中存在大量的ReLU激活函數(shù),主要目的是在線性的網(wǎng)絡(luò)模型中引入非線性元素,并增強(qiáng)網(wǎng)絡(luò)稀疏性以緩解網(wǎng)絡(luò)過擬合.一方面,DenseNet模型的過渡層需要處理不同Dense Block的輸出,輸入情況較為復(fù)雜,因此過渡層需要具有更強(qiáng)自適應(yīng)能力的激活函數(shù);另一方面,對(duì)比式(3)與式(6)可知,Meta-ACON激活函數(shù)的公式更加繁雜,需要更多的計(jì)算量與參數(shù)量.因此,為增強(qiáng)網(wǎng)絡(luò)結(jié)構(gòu)的泛化性能,同時(shí)盡量減少M(fèi)eta-ACON激活函數(shù)對(duì)網(wǎng)絡(luò)復(fù)雜度的影響,本文只將所有過渡層的ReLU激活函數(shù)替換為Meta-ACON激活函數(shù).

    1.4 加權(quán)焦點(diǎn)損失函數(shù)

    本文使用Chest X-ray14數(shù)據(jù)集,該數(shù)據(jù)集每張胸片的標(biāo)簽可以表示為一個(gè)14維向量,即

    多次實(shí)驗(yàn)結(jié)果表明,不同疾病的分類準(zhǔn)確度有很大差異,如肺結(jié)節(jié)分類準(zhǔn)確度較高,而肺實(shí)變分類準(zhǔn)確度較低.在神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中,為提高較難分類疾病的分類準(zhǔn)確度,從而實(shí)現(xiàn)整體分類性能的提升,最直接的方法就是提升較難分類疾病的權(quán)重,并降低較易分類疾病的權(quán)重.此外,較難分類疾病準(zhǔn)確度與平均準(zhǔn)確度相差越大,該疾病相應(yīng)的權(quán)重變化值就應(yīng)當(dāng)越大,則其相關(guān)損失函數(shù)的變化幅度就越大,從而使得網(wǎng)絡(luò)計(jì)算資源向較難分類的疾病傾斜.因此,為使網(wǎng)絡(luò)更有效地依據(jù)疾病分類的難易程度調(diào)節(jié)對(duì)應(yīng)的權(quán)重,本文在焦點(diǎn)損失函數(shù)的基礎(chǔ)上添加權(quán)重系數(shù),作為本文每種疾病對(duì)應(yīng)的損失函數(shù),并稱其為加權(quán)焦點(diǎn)損失(weighted focal loss,WFL)函數(shù),定 義為

    由式(10)可知,損失權(quán)重與疾病分類準(zhǔn)確度倒數(shù)呈線性相關(guān),因此可以增加較難分類疾病的損失占比,使網(wǎng)絡(luò)對(duì)其施加更多的關(guān)注,從而達(dá)到提高較難分類疾病準(zhǔn)確度,進(jìn)而提升整體分類準(zhǔn)確度的效果.

    2 實(shí)驗(yàn)結(jié)果及分析

    2.1 實(shí)驗(yàn)平臺(tái)與實(shí)驗(yàn)數(shù)據(jù)

    本文實(shí)驗(yàn)使用PyTorch深度學(xué)習(xí)框架,硬件平臺(tái)為Nvidia RTX2080Ti(11GB)GPU×4、Intel Core i7-9900X 3.5GHz CPU,操作系統(tǒng)為Ubuntu16.04.

    本文實(shí)驗(yàn)在Chest X-ray14數(shù)據(jù)集上測(cè)試DC-DenseNet的性能,并驗(yàn)證該算法的優(yōu)化方案與各個(gè)模塊的有效性.Chest X-ray14數(shù)據(jù)集由30805名不同患者的112120張胸部X光片組成,每幅圖像大小為1024×1024,具有8位灰度值,均使用一個(gè)或多個(gè)標(biāo)簽進(jìn)行標(biāo)記,其中14個(gè)病理學(xué)標(biāo)簽分別表示 14種疾病,標(biāo)記為未檢出(no finding)的CXR圖像不含疾病標(biāo)簽.為保證實(shí)驗(yàn)結(jié)果真實(shí)性,隨機(jī)將數(shù)據(jù)集以7∶1∶2的比例分割成訓(xùn)練集、驗(yàn)證集、測(cè)試集,分別應(yīng)用于網(wǎng)絡(luò)訓(xùn)練、訓(xùn)練完成后驗(yàn)證、測(cè)試訓(xùn)練效果3個(gè)步驟.實(shí)驗(yàn)預(yù)處理流程如下.

    (1)為適配網(wǎng)絡(luò)模型、減少網(wǎng)絡(luò)計(jì)算量并提高網(wǎng)絡(luò)學(xué)習(xí)效率,將原始圖像縮放至256×256,然后隨機(jī)裁剪為224×224的低分辨率圖像.

    (2)為增加數(shù)據(jù)的多樣性以增強(qiáng)模型的魯棒 性[27],并避免過擬合現(xiàn)象的發(fā)生[28],將圖像進(jìn)行3個(gè)維度的隨機(jī)數(shù)據(jù)增強(qiáng)處理:①依概率=0.5的水平翻轉(zhuǎn);②在區(qū)間[-5°,5°]之間隨機(jī)旋轉(zhuǎn);③對(duì)比度與飽和度分別隨機(jī)增強(qiáng)90%~110%,并使色相偏移幅度在區(qū)間[-0.1,0.1]內(nèi)隨機(jī)取值.

    (3)將數(shù)據(jù)進(jìn)行批歸一化處理,為接下來的訓(xùn)練做準(zhǔn)備.本實(shí)驗(yàn)在訓(xùn)練過程中將每批處理數(shù)據(jù)量(batch size)大小設(shè)置為150.

    2.2 數(shù)據(jù)加載方式及后處理優(yōu)化

    本文對(duì)多顯卡的數(shù)據(jù)加載方式進(jìn)行了優(yōu)化,并使用測(cè)試時(shí)數(shù)據(jù)增強(qiáng)策略對(duì)測(cè)試數(shù)據(jù)集進(jìn)行后處理 操作.

    在多GPU并行計(jì)算中,默認(rèn)為4張卡分配相同的批處理數(shù)據(jù)量.然而,由于主卡通常需要承擔(dān)數(shù)據(jù)信息的整合計(jì)算任務(wù),而副卡僅執(zhí)行數(shù)據(jù)處理操作,當(dāng)為4張卡設(shè)置相同的批處理數(shù)據(jù)量時(shí),相較于主卡而言,副卡仍有剩余空間可以承擔(dān)更多的數(shù)據(jù)處理工作,即副卡的批處理數(shù)據(jù)量可以設(shè)置為更高.因此,為充分利用副卡的顯存資源,從而充分發(fā)揮每張顯卡的算力,本文在實(shí)驗(yàn)過程中通過優(yōu)化數(shù)據(jù)加載方式,分別將每張顯卡的批處理數(shù)據(jù)量設(shè)置為30(主卡)、40(副卡1)、40(副卡2)、40(副卡3),相較于默認(rèn)情況下每張卡的batch size只能設(shè)置為30,總和為120,該優(yōu)化方式下的總batch size最高可設(shè)置為150,比默認(rèn)方式提升25%,從而減少單輪訓(xùn)練迭代次數(shù),減緩訓(xùn)練振蕩,提高批歸一化效果.

    此外,為了在測(cè)試時(shí)獲得更穩(wěn)健的預(yù)測(cè)效果,本文使用了測(cè)試時(shí)數(shù)據(jù)增強(qiáng)(test time augmentation,TTA)策略,將測(cè)試數(shù)據(jù)進(jìn)行多個(gè)維度的翻轉(zhuǎn)并分別預(yù)測(cè),然后對(duì)多個(gè)預(yù)測(cè)結(jié)果綜合分析得到最終輸 出[29],該策略可以有效提升分類準(zhǔn)確度并降低測(cè)試時(shí)的泛化誤差.實(shí)驗(yàn)中發(fā)現(xiàn),水平翻轉(zhuǎn)可以有效提高分類準(zhǔn)確度,而垂直翻轉(zhuǎn)后的預(yù)測(cè)結(jié)果并不理想.這是由于Chest X-ray14數(shù)據(jù)集中僅存在正、反面兩種有效樣本類型的胸部X光片,因此在測(cè)試過程中,水平翻轉(zhuǎn)可擴(kuò)大測(cè)試數(shù)據(jù)集中有效樣本的數(shù)量,使識(shí)別結(jié)果更加準(zhǔn)確.而本文在網(wǎng)絡(luò)的訓(xùn)練過程中,出于對(duì)人體空間結(jié)構(gòu)特征與實(shí)際應(yīng)用場(chǎng)景的考慮,并未對(duì)樣本進(jìn)行垂直翻轉(zhuǎn)的預(yù)處理,因此網(wǎng)絡(luò)未對(duì)垂直翻轉(zhuǎn)后的CXR圖像病灶區(qū)域特征進(jìn)行學(xué)習(xí),因此,在測(cè)試過程中若將樣本進(jìn)行垂直翻轉(zhuǎn)的增強(qiáng)處理,將導(dǎo)致網(wǎng)絡(luò)無法對(duì)處理后的CXR圖像病灶區(qū)域進(jìn)行正確識(shí)別并分類.

    2.3 評(píng)價(jià)標(biāo)準(zhǔn)

    本文使用受試者工作特征曲線(receiver operating characteristic,ROC)與該曲線下面積(area under ROC curve,AUC)的數(shù)值作為算法性能的評(píng)價(jià)指標(biāo),并以此為依據(jù)與其他算法進(jìn)行比較.

    ROC曲線用于分析二元分類模型的分類效果,二元分類模型輸出正類和負(fù)類.在ROC曲線中,橫軸為假正類率(false positive rate,F(xiàn)PR)特異度,定義為被錯(cuò)誤判斷為正類的負(fù)類在所有負(fù)類中所占的比例;縱軸為真正類率(true positive rate,TPR)敏感度,定義為被正確判斷的正類在所有原始正類中所占的比例,即

    2.4 實(shí)驗(yàn)結(jié)果

    根據(jù)本文算法在Chest X-ray14數(shù)據(jù)集上的分類結(jié)果繪制ROC曲線如圖5所示,其中,不同顏色的實(shí)線分別代表14種疾病,虛線表示該14種疾病的平均水平,可見曲線大部分位于左上角,表明該算法具有良好的分類性能.

    圖5 ROC曲線

    表2總結(jié)實(shí)驗(yàn)結(jié)果,并將本文算法對(duì)各項(xiàng)疾病分類的AUC值及其平均值與其他算法[13-14,16-19]進(jìn)行比較.結(jié)果顯示,本文提出的算法對(duì)于14種胸部疾病分類的AUC平均值達(dá)到了0.8361,優(yōu)于Wang 等[13]、Guendel等[14]、Zhang等[16]、Teixeira等[17]、Chen等[18]、Ho等[19]的研究.具體表現(xiàn)為:對(duì)肺不張、心臟擴(kuò)大、滲透、腫塊、肺結(jié)節(jié)、肺炎、氣胸7種疾病的分類效果均顯著優(yōu)于以上幾種算法;其中,本文提出的算法對(duì)氣胸疾病的分類準(zhǔn)確度最高,其AUC值達(dá)到0.9534,相較Chen等[18]的研究提升了約7.24%.實(shí)驗(yàn)表明,本文提出的基于動(dòng)態(tài)卷積的胸部X光片分類算法具有較高的準(zhǔn)確度.

    表2 各算法的比較

    2.5 加權(quán)焦點(diǎn)損失函數(shù)有效性研究

    為驗(yàn)證加權(quán)損失函數(shù)對(duì)算法性能提升的有效性,分別在本文提出的DC-DenseNet算法上應(yīng)用焦點(diǎn)損失函數(shù)與加權(quán)焦點(diǎn)損失函數(shù)進(jìn)行對(duì)比實(shí)驗(yàn).分別記錄兩次實(shí)驗(yàn)中的總損失值以及每種疾病的損失值,并以訓(xùn)練輪次為橫坐標(biāo),損失值為縱坐標(biāo),在同一坐標(biāo)系上繪制曲線.圖6(a)~(o)分別展示了兩次實(shí)驗(yàn)過程中14種疾病損失與總損失的變化情況.其中綠色曲線表示使用焦點(diǎn)損失(FL)函數(shù)的網(wǎng)絡(luò)模型,紅色曲線表示使用加權(quán)焦點(diǎn)損失(WFL)函數(shù)的網(wǎng)絡(luò)模型.

    根據(jù)圖6中損失值的變化狀況,結(jié)合表2分析可得以下結(jié)論.

    圖6 損失函數(shù)優(yōu)化前后對(duì)比

    (1) 在圖6(b)心臟擴(kuò)大、(d)滲透、(e)腫塊、(f)肺結(jié)節(jié)、(h)氣胸、(j)水腫、(n)疝氣7種疾病的損失值變化曲線中,應(yīng)用加權(quán)損失函數(shù)時(shí),網(wǎng)絡(luò)模型的損失值始終低于應(yīng)用焦點(diǎn)損失函數(shù)時(shí)的損失值,對(duì)應(yīng)表2中這7種疾病的AUC值均高于AUC平均值,表明應(yīng)用加權(quán)損失函數(shù)時(shí),算法將這7種疾病識(shí)別為較易分類疾病,故降低其權(quán)重,表現(xiàn)為其損失值小于應(yīng)用焦點(diǎn)損失函數(shù)時(shí)的損失值.

    (2) 在圖6(a)肺不張、(c)積液、(g)肺炎、(i)肺實(shí)變、(k)肺氣腫、(l)纖維、(m)胸膜增厚7種疾病的損失值變化曲線中,應(yīng)用加權(quán)損失函數(shù)時(shí),網(wǎng)絡(luò)模型的損失值始終高于應(yīng)用焦點(diǎn)損失函數(shù)時(shí)的損失值,對(duì)應(yīng)表2中這7種疾病的AUC值均低于AUC平均值,表明應(yīng)用加權(quán)損失函數(shù)時(shí),算法將這7種疾病識(shí)別為較難分類疾病,故降低其權(quán)重,表現(xiàn)為其損失值大于應(yīng)用焦點(diǎn)損失函數(shù)時(shí)的損失值.

    (3) 每種疾病的AUC值與AUC平均值相差越大,應(yīng)用焦點(diǎn)損失函數(shù)時(shí)的損失變化曲線與應(yīng)用加權(quán)焦點(diǎn)損失函數(shù)時(shí)的損失變化曲線相差幅度就越大,表明網(wǎng)絡(luò)模型在訓(xùn)練過程中可根據(jù)不同疾病的分類準(zhǔn)確度調(diào)整其損失值的權(quán)重.對(duì)于圖6中AUC值與AUC平均值差距較大的較難分類疾病,如圖6(i)肺實(shí)變、(k)肺氣腫的AUC值分別只有0.7031、0.7454,算法對(duì)其權(quán)重的增加幅度較大,其損失值有較為明顯的提升;對(duì)于AUC值與AUC平均值差距較小的較難分類疾病,如圖6(a)肺不張、圖6(c)積液的AUC值分別為0.8084、0.8072,算法對(duì)其權(quán)重的增加幅度較小,因此其損失值的提升幅度較?。?/p>

    (4) 圖6(o)展示了分別應(yīng)用兩種損失函數(shù)時(shí)網(wǎng)絡(luò)模型的總體損失變化.應(yīng)用加權(quán)損失函數(shù)時(shí)網(wǎng)絡(luò)模型的損失值始終高于應(yīng)用焦點(diǎn)損失函數(shù)時(shí)的損失值,說明加權(quán)焦點(diǎn)損失函數(shù)對(duì)算法學(xué)習(xí)能力的提升效果優(yōu)于焦點(diǎn)損失函數(shù).

    2.6 對(duì)比實(shí)驗(yàn)

    本文在保持基本算法結(jié)構(gòu)完整的前提下,分別移除各個(gè)創(chuàng)新模塊以驗(yàn)證其有效性,實(shí)驗(yàn)結(jié)果如表3所示.具體操作分別為:用普通3×3卷積替代網(wǎng)絡(luò)中所有的3×3動(dòng)態(tài)分卷積,用ReLU激活函數(shù)代替所有的Meta-ACON激活函數(shù),用焦點(diǎn)損失函數(shù)代替加權(quán)焦點(diǎn)損失函數(shù),移除TTA(測(cè)試時(shí)數(shù)據(jù)增強(qiáng))模塊.

    表3 對(duì)比實(shí)驗(yàn)

    實(shí)驗(yàn)結(jié)果顯示,4個(gè)創(chuàng)新模塊對(duì)算法的分類性能均有提升,且4個(gè)模塊組合應(yīng)用時(shí),對(duì)于算法分類準(zhǔn)確度的提升最為顯著.替換動(dòng)態(tài)卷積以移除動(dòng)態(tài)卷積模塊后,算法的AUC值下降了約0.015,表明動(dòng)態(tài)卷積的應(yīng)用可以增強(qiáng)網(wǎng)絡(luò)的特征提取能力,從而有效提升分類準(zhǔn)確度;替換激活函數(shù)以移除Meta-ACON激活函數(shù)后,AUC值下降約0.007,表明Meta-ACON激活函數(shù)有效地提高了激活函數(shù)的自適應(yīng)能力,從而增強(qiáng)網(wǎng)絡(luò)性能;替換損失函數(shù)以去除加權(quán)焦點(diǎn)損失函數(shù)后,AUC值下降了約0.011,表明加權(quán)損失函數(shù)可以有效地提升網(wǎng)絡(luò)學(xué)習(xí)效果;移除TTA模塊后,AUC值下降約0.004,幅度較小,但也可以說明TTA模塊的處理有助于網(wǎng)絡(luò)在測(cè)試階段對(duì)疾病進(jìn)行更加準(zhǔn)確的識(shí)別與分類.對(duì)比各項(xiàng)實(shí)驗(yàn)結(jié)果表明,本文提出的DC-DenseNet算法中的各個(gè)創(chuàng)新模塊確實(shí)有助于提升網(wǎng)絡(luò)對(duì)于胸部X光片疾病的分類準(zhǔn)確度.

    3 結(jié) 論

    針對(duì)現(xiàn)有的深度學(xué)習(xí)方法在胸部X光片分類領(lǐng)域存在的分類準(zhǔn)確度較低、網(wǎng)絡(luò)模型復(fù)雜度較高等問題,本文提出基于動(dòng)態(tài)卷積的胸部X光片疾病分類算法,創(chuàng)新之處體現(xiàn)在5個(gè)方面:

    (1)加入動(dòng)態(tài)卷積模塊,增強(qiáng)網(wǎng)絡(luò)對(duì)樣本的特征提取能力,有效地提高分類準(zhǔn)確度,且不顯著增加網(wǎng)絡(luò)模型的寬度與深度,實(shí)現(xiàn)網(wǎng)絡(luò)分類性能與計(jì)算速度的均衡;

    (2)使用魯棒高效的Meta-ACON激活函數(shù)替換過渡層中原始的ReLU函數(shù),改善激活函數(shù)在梯度消失時(shí)永久失活的特性,并使網(wǎng)絡(luò)能自適應(yīng)地選擇是否激活以及使用何種激活函數(shù),從而使網(wǎng)絡(luò)的泛化能力得到增強(qiáng);

    (3)提出加權(quán)焦點(diǎn)損失函數(shù),使網(wǎng)絡(luò)可以有針對(duì)性地增加較難分類疾病的損失權(quán)重,提高網(wǎng)絡(luò)對(duì)較難分類疾病的關(guān)注度,從而提升較難分類疾病的分類準(zhǔn)確度,最終使整體的分類準(zhǔn)確度得到提升;

    (4)優(yōu)化數(shù)據(jù)加載方式,增大批處理量,提高批歸一化效果,以使訓(xùn)練速度和訓(xùn)練效果得到提升;

    (5)使用測(cè)試時(shí)數(shù)據(jù)增強(qiáng)策略對(duì)測(cè)試集進(jìn)行處理,綜合分析多個(gè)維度的預(yù)測(cè)結(jié)果,提高模型對(duì)CXR圖像的疾病分類性能.

    實(shí)驗(yàn)結(jié)果表明,本文提出的DC-DenseNet算法對(duì)胸部X光片疾病分類具有較高的AUC平均值,表明該算法具有較高的分類準(zhǔn)確度,且各創(chuàng)新模塊的加入均可有效提升算法整體的分類準(zhǔn)確度.

    [1] 李 鏘,武昱忻,關(guān) 欣. 基于SRD感受野自調(diào)節(jié)的肺炎病灶檢測(cè)[J]. 天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版),2021,54(5):508-516.

    Li Qiang,Wu Yuxin,Guan Xin. The pneumonia focus detection based on SRD with receptive field self-regulation[J]. Journal of Tianjin University (Science and Technology),2021,54(5):508-516(in Chinese).

    [2] Gulshan V,Peng L,Coram M,et al. Development and validation of a deep learning algorithm for detection of diabetic retinopathy in retinal fundus photographs[J]. JAMA Cardiology,2016,316(22):2402-2410.

    [3] Zhao Z Y,Chopra K,Zeng Z,et al. Sea-Net:Squeeze-and-excitation attention net for diabetic retinopathy grading[C]//2020 IEEE International Conference on Image Processing(ICIP). Abu Dhabi,The United Arab Emirates,2020:2496-2500.

    [4] Wang Z,Xu H,Sun M. Deep learning-based nodule detection from pulmonary CT images[C]//IEEE 2017 10th International Symposium on Computational Intelligence and Design(ISCID). Hangzhou,China,2017:370-373.

    [5] Setio A A A,Traverso A,de Bel T,et al. Validation,comparison,and combination of algorithms for automatic detection of pulmonary nodules in computed tomography images:The luna16 challenge[J]. Medical Image Analysis,2017,42:1-13.

    [6] Chen C,Kavuri V C,Wang X,et al. Multi-frequency diffuse optical tomography for cancer detection[C]//2015 IEEE 12th International Symposium on Biomedical Imaging(ISBI). New York,USA,2015:67-70.

    [7] Li R Y,Huang J Z. Fast regions-of-interest detection in whole slide histopathology images[C]//International Workshop on Patch-Based Techniquesin Medical Imaging. Munich,Germany,2015:120-127.

    [8] Lakhani P,Sundaram B. Deep learning at chest radiography:Automated classification of pulmonary tuberculosis by using convolutional neural networks[J]. Radiology,2017,284(2):574-582.

    [9] Iandola F N,Han S,Moskewicz M W,et al. SqueezeNet:AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size[EB/OL]. https:// arXiv.org/ads/1602.07360,2016-02-24.

    [10] Szegedy C,Liu Wei,Jia Yangqing,et al. Going deeper with convolutions[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Boston,USA,2015:1-9.

    [11] Li Z,Wang C,Han M,et al. Thoracic disease identification and localization with limited supervision [C]//2018 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Salt Lake City,USA,2018:139-161.

    [12] He K M,Zang X,Ren S,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Las Vegas,USA,2016:770-778.

    [13] Wang X,Peng Y,Lu L,et al. Chest X-ray8:Hospital-scale chest X-ray database and benchmarks on weakly-supervised classification and localization of common thorax diseases[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Honolulu,USA,2017:2097-2106.

    [14] Guendel S,Grbic S,Georgescu B,et al. Learning to recognize abnormalities in chest X-rays with location-aware dense networks[C]//2018 Progress in Pattern Recognition,Image Analysis,Computer Vision,and Applications. Madrid,Spain,2018:757-765.

    [15] Huang G,Liu Z,Weinberger,et al. Densely connected convolutional networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition(CVPR). Honolulu,USA,2017:2261-2269.

    [16] 張智睿,李 鏘,關(guān) 欣. 密集擠壓激勵(lì)網(wǎng)絡(luò)的多標(biāo)簽胸部X光片疾病分類[J]. 中國圖象圖形學(xué)報(bào),2020,25(10):2238-2248.

    Zhang Zhirui,Li Qiang,Guan Xin. Multi-label chest X-ray disease classification based on dense squeeze excitation network[J]. Journal of Image and Graphics,2020,25(10):2238-2248(in Chinese).

    [17] Teixeira V,Braz L,Pedrini H,et al. DuaLAnet:Dual lesion attention network for thoracic disease classification in chest X-rays[C]//2020 International Conference on Systems,Signals and Image Processing(IWSSIP). Niteroi,Brazil,2020:69-74.

    [18] Chen B Z,Zhang Z,Lin J Y,et al. Two-stream collaborative network for multi-label chest X-ray image classification with lung segmentation[J]. Pattern Recognition Letters,2020,135:221-227.

    [19] Ho T K K,Gwak J. Utilizing knowledge distillation in deep learning for classification of chest X-Ray abnormalities[J]. IEEE Access,2020,8:1-14.

    [20] Hinton G,Vinyals O,Dean J. Distilling the knowledge in a neural network[J]. Computer Science,2015,14(7):38-39.

    [21] Chen Y P,Dai X Y,Liu M C,et al. Dynamic Convolution:Attention over convolution kernels[C]//2020 IEEE Conference on Computer Vision and Pattern Rec-ognition(CVPR). Seattle,USA,2020:11027-11036.

    [22] Yang B,Bender G,Le Q V,et al. CondConv:Conditionally parameterized convolutions for efficient inference[C]//33rd Conference on Neural Information Processing Systems (NeurIPS 2019). Vancouver,Canada,2019:1305-1316.

    [23] Ma N N,Zhang X Y,Liu M,et al. Activate or not: Learning customized activation[EB/OL]. https://arxiv. org/pdf/2009.04759.pdf,2021-04-16.

    [24] 李 鏘,姚麟倩,關(guān) 欣. 基于級(jí)聯(lián)卷積神經(jīng)網(wǎng)絡(luò)的服飾關(guān)鍵點(diǎn)定位算法[J]. 天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版),2020,53(3):229-236.

    Li Qiang,Yao Linqian,Guan Xin. Clothing key points detection algorithm based on cascade convolutional neural network[J]. Journal of Tianjin University(Science and Technology),2020,53(3):229-236(in Chinese).

    [25] Haldar M,Abdool M,Ramanathan P,et al. Applying deep learning to airbnbsearch[EB/OL]. https://arxiv.org/ pdf/1810.09591.pdf,2018-10-24.

    [26] Lin T Y,Goyal P,Girshick R,et al. Focal loss for dense object detection[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,2020,42(2):318-327.

    [27] 黃志清,賈 翔,郭一帆,等. 基于深度學(xué)習(xí)的端到端樂譜音符識(shí)別[J]. 天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版),2020,53(6):653-660.

    Huang Zhiqing,Jia Xiang,Guo Yifan,et al. End-to-end music note recognition based on deep learning[J]. Journal of Tianjin University(Science and Technol-ogy),2020,53(6):653-660(in Chinese).

    [28] 梁 煜,張金銘,張 為. 一種改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)的室內(nèi)深度估計(jì)方法[J]. 天津大學(xué)學(xué)報(bào)(自然科學(xué)與工程技術(shù)版),2020,53(8):840-846.

    Liang Yu,Zhang Jinming,Zhang Wei. An improved indoor depth estimation method using convolutional neural networks[J]. Journal of Tianjin University(Science and Technology),2020,53(8):840-846(in Chinese).

    [29] Miko?ajczyk A,Grochowski M. Data augmentation for improving deep learning in image classification problem[C]//2018 International Interdisciplinary PhD Workshop(IIPhDW). ?winou?cie,Poland,2018:117-122.

    Classification Algorithm for Chest X-Ray Diseases Based on Dynamic Convolution

    Li Qiang,Zhao Qimeng,Guan Xin

    (School of Microelectronics,Tianjin University,Tianjin 300072,China)

    Chest diseases are a severe threat to human health. The timely and accurate detection of chest diseases has great significance on patients’ treatment and rehabilitation. Chest X-rays are usually used to diagnose chest diseases. However,the existing classification algorithms for chest X-ray diseases are inaccurate due to the diverse chest diseases and their complex pathological characteristics,including low classification accuracy and high model complexity. In response to the above problems,a new classification algorithm for chest X-ray diseases was proposed based on dynamic convolution. The dynamic convolution blocks were added to the densely connected network. The feature extraction capability of the network for multiscale information was enhanced under the premise of not significantly increasing the size of the network model and reducing efficient inference while improving the classification accuracy. The ReLU(rectified linear units)activation function was improved using Meta-ACON,and the generalization ability of the network was enhanced by adaptively selecting the linear-nonlinear switching factor to activate and which activation function to use. The weighted focal loss function was proposed based on a weight adjustment factor added into the focus loss function so that the network reasonably allocated the weight for each disease according to the classification difficulty. To improve their classification accuracy,the overall performance was optimized by increasing the percentage loss of difficult-to-classify diseases. To improve the batch normalization,the data loading method was optimized and batch size increased. In the testing phase,a test-time data augmentation was used to analyze the multiple dimensions classification results and increase the accuracy and robustness of the classification. We found that the average value of the area under the receiver operating characteristic curve(AUC)of the proposed algorithm for the 14 chest diseases was 0.8361 after adding dynamic convolution blocks,Meta-ACON activation function,and weighted focus loss function into the densely connected network,optimizing the data loading method and using test-time data enhancement strategy. Furthermore,the AUC value of a single disease label was up to 0.9534,which is higher than that of the existing six state-of-the-art algorithms. Our results are higher than those of the six recent existing advanced algorithms. The experimental results show that the classification algorithms for chest X-ray diseases based on dynamic convolution have a higher classification accuracy and stronger model robustness. Hence,the algorithm could be well applied to the chest X-ray diseases classification task.

    chest X-ray;disease classification;dense connection network;dynamic convolution;ACON activation function;weighted focal loss function

    TP391.4

    A

    0493-2137(2022)09-0953-12

    10.11784/tdxbz202105005

    2021-05-03;

    2021-08-30.

    李 鏘(1974— ),男,博士,教授.

    李 鏘,liqiang@tju.edu.cn.

    國家自然科學(xué)基金資助項(xiàng)目(61471263);天津市自然科學(xué)基金資助項(xiàng)目(16JCZDJC31100);天津大學(xué)自主創(chuàng)新基金資助項(xiàng)目(2021XZC-0024).

    the National Natural Science Foundation of China(No.61471263),the Natural Science Foundation of Tianjin,China (No.16JCZDJC31100),the Seed Foundation of Tianjin University(No.2021XZC-0024).

    (責(zé)任編輯:王曉燕)

    猜你喜歡
    準(zhǔn)確度胸部損失
    少問一句,損失千金
    胖胖損失了多少元
    胸部腫瘤放療后椎體對(duì)99Tcm-MDP的攝取表現(xiàn)及分析
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    幕墻用掛件安裝準(zhǔn)確度控制技術(shù)
    建筑科技(2018年6期)2018-08-30 03:40:54
    動(dòng)態(tài)汽車衡準(zhǔn)確度等級(jí)的現(xiàn)實(shí)意義
    人體胸部
    一般自由碰撞的最大動(dòng)能損失
    胸部Castleman病1例報(bào)道
    高爐重量布料準(zhǔn)確度的提高
    天津冶金(2014年4期)2014-02-28 16:52:58
    久久久国产精品麻豆| 欧美另类一区| 国产免费视频播放在线视频| 男人爽女人下面视频在线观看| 12—13女人毛片做爰片一| 国产真人三级小视频在线观看| 十八禁网站网址无遮挡| 亚洲黑人精品在线| 国产一区二区在线观看av| 久久ye,这里只有精品| 天天躁日日躁夜夜躁夜夜| 韩国高清视频一区二区三区| 国产一区有黄有色的免费视频| 深夜精品福利| 国产成人精品无人区| 香蕉国产在线看| 午夜久久久在线观看| 亚洲欧美清纯卡通| 黑人巨大精品欧美一区二区蜜桃| 日本黄色日本黄色录像| 十八禁人妻一区二区| 成年女人毛片免费观看观看9 | 色94色欧美一区二区| 男女免费视频国产| 国产麻豆69| 啦啦啦中文免费视频观看日本| 亚洲成人免费电影在线观看| 欧美在线黄色| 免费观看人在逋| 性少妇av在线| 热re99久久国产66热| 午夜精品国产一区二区电影| 国产欧美日韩精品亚洲av| 欧美亚洲 丝袜 人妻 在线| 免费久久久久久久精品成人欧美视频| 欧美人与性动交α欧美软件| 97在线人人人人妻| 视频区欧美日本亚洲| 成人黄色视频免费在线看| 久久国产精品人妻蜜桃| 日韩 亚洲 欧美在线| 男人添女人高潮全过程视频| 免费女性裸体啪啪无遮挡网站| 亚洲伊人久久精品综合| 国产成人精品久久二区二区免费| 欧美日韩亚洲高清精品| 久久毛片免费看一区二区三区| 亚洲一码二码三码区别大吗| 久久香蕉激情| av网站在线播放免费| 亚洲精品国产精品久久久不卡| 制服诱惑二区| 日韩中文字幕视频在线看片| 制服人妻中文乱码| 亚洲色图综合在线观看| 在线亚洲精品国产二区图片欧美| 欧美97在线视频| 欧美在线黄色| 少妇被粗大的猛进出69影院| 久久女婷五月综合色啪小说| 中亚洲国语对白在线视频| av福利片在线| 亚洲欧洲日产国产| 亚洲成人手机| 国产亚洲av高清不卡| 美女脱内裤让男人舔精品视频| 国产成人一区二区三区免费视频网站| 人人澡人人妻人| 久久久精品区二区三区| 天天影视国产精品| 19禁男女啪啪无遮挡网站| 精品福利永久在线观看| 亚洲欧美成人综合另类久久久| 国产精品 欧美亚洲| 丝袜美足系列| 在线 av 中文字幕| 欧美日韩亚洲高清精品| 午夜免费成人在线视频| 99精品欧美一区二区三区四区| 日本a在线网址| 亚洲天堂av无毛| 国产激情久久老熟女| 久久久久久久精品精品| 亚洲精品国产区一区二| 亚洲欧美色中文字幕在线| 高清黄色对白视频在线免费看| av福利片在线| 制服人妻中文乱码| 蜜桃国产av成人99| 一区福利在线观看| 国产精品一区二区在线观看99| 汤姆久久久久久久影院中文字幕| 夫妻午夜视频| 中文字幕精品免费在线观看视频| 悠悠久久av| 两个人免费观看高清视频| 五月开心婷婷网| 亚洲欧美成人综合另类久久久| 久久综合国产亚洲精品| 一二三四在线观看免费中文在| 女人高潮潮喷娇喘18禁视频| 国产免费av片在线观看野外av| 免费高清在线观看视频在线观看| 成人三级做爰电影| 亚洲中文日韩欧美视频| 天天躁夜夜躁狠狠躁躁| 午夜福利,免费看| 久久精品国产亚洲av高清一级| 日本猛色少妇xxxxx猛交久久| 久久精品国产综合久久久| 国产日韩欧美亚洲二区| 亚洲国产日韩一区二区| 亚洲精品久久久久久婷婷小说| 亚洲国产精品一区三区| 欧美国产精品va在线观看不卡| 99久久人妻综合| 叶爱在线成人免费视频播放| 69精品国产乱码久久久| 正在播放国产对白刺激| 又黄又粗又硬又大视频| 日韩电影二区| 免费观看人在逋| 中文字幕人妻熟女乱码| 丝袜美足系列| 亚洲精品国产av蜜桃| 另类亚洲欧美激情| tocl精华| 国产高清videossex| 超碰成人久久| 黑人巨大精品欧美一区二区蜜桃| 国产在线视频一区二区| 丝袜人妻中文字幕| svipshipincom国产片| 精品卡一卡二卡四卡免费| 亚洲欧美色中文字幕在线| 国产精品一区二区在线观看99| 国产熟女午夜一区二区三区| 久久ye,这里只有精品| 男人爽女人下面视频在线观看| 亚洲精品一区蜜桃| 99re6热这里在线精品视频| 国产精品久久久久久人妻精品电影 | 十八禁网站网址无遮挡| 欧美精品人与动牲交sv欧美| 十分钟在线观看高清视频www| 脱女人内裤的视频| 精品少妇一区二区三区视频日本电影| tube8黄色片| 视频区欧美日本亚洲| 欧美日韩视频精品一区| √禁漫天堂资源中文www| 国产精品熟女久久久久浪| 精品人妻1区二区| 欧美日本中文国产一区发布| 亚洲精品久久久久久婷婷小说| 国产精品免费大片| 无限看片的www在线观看| 在线亚洲精品国产二区图片欧美| 99精品欧美一区二区三区四区| 麻豆av在线久日| 午夜久久久在线观看| 免费日韩欧美在线观看| 精品人妻一区二区三区麻豆| 亚洲中文av在线| 制服诱惑二区| 青春草亚洲视频在线观看| 国产高清视频在线播放一区 | 丰满人妻熟妇乱又伦精品不卡| 夜夜骑夜夜射夜夜干| 久久久久久久国产电影| 国产欧美日韩精品亚洲av| 一区二区三区精品91| 高清在线国产一区| 男人爽女人下面视频在线观看| av在线老鸭窝| 精品国产乱码久久久久久男人| 亚洲国产av影院在线观看| 免费在线观看日本一区| 午夜两性在线视频| 80岁老熟妇乱子伦牲交| 亚洲精华国产精华精| 多毛熟女@视频| 成年人午夜在线观看视频| 久久久国产欧美日韩av| 最近最新中文字幕大全免费视频| 中文精品一卡2卡3卡4更新| 女人爽到高潮嗷嗷叫在线视频| 国产精品影院久久| 久久精品aⅴ一区二区三区四区| 人成视频在线观看免费观看| 免费在线观看日本一区| 日韩中文字幕欧美一区二区| 在线永久观看黄色视频| 久久天躁狠狠躁夜夜2o2o| 极品人妻少妇av视频| 午夜福利视频精品| 美女中出高潮动态图| 亚洲人成77777在线视频| 亚洲欧美成人综合另类久久久| 男男h啪啪无遮挡| 蜜桃国产av成人99| 亚洲成人国产一区在线观看| 国产有黄有色有爽视频| 欧美在线一区亚洲| 国产成人欧美| 狂野欧美激情性bbbbbb| 下体分泌物呈黄色| 免费在线观看影片大全网站| videos熟女内射| 一个人免费看片子| 精品人妻在线不人妻| 欧美老熟妇乱子伦牲交| 天天操日日干夜夜撸| 99久久国产精品久久久| 欧美日韩亚洲综合一区二区三区_| 久久中文看片网| 午夜福利乱码中文字幕| 建设人人有责人人尽责人人享有的| 99九九在线精品视频| 97精品久久久久久久久久精品| 久久精品国产a三级三级三级| 国产精品99久久99久久久不卡| 麻豆乱淫一区二区| 国产精品香港三级国产av潘金莲| 黄色视频不卡| 99香蕉大伊视频| 国产成人欧美在线观看 | 国产精品久久久av美女十八| 欧美黄色片欧美黄色片| 黄色视频,在线免费观看| 51午夜福利影视在线观看| 国产日韩欧美视频二区| 丰满人妻熟妇乱又伦精品不卡| 淫妇啪啪啪对白视频 | 久久久国产成人免费| √禁漫天堂资源中文www| 黑人操中国人逼视频| 欧美国产精品va在线观看不卡| 韩国高清视频一区二区三区| 国产一区有黄有色的免费视频| 亚洲视频免费观看视频| 亚洲精品久久久久久婷婷小说| 少妇的丰满在线观看| 亚洲 欧美一区二区三区| 777久久人妻少妇嫩草av网站| 韩国精品一区二区三区| 国产精品二区激情视频| 亚洲欧美一区二区三区黑人| 69精品国产乱码久久久| 狂野欧美激情性xxxx| 自拍欧美九色日韩亚洲蝌蚪91| 国产免费视频播放在线视频| 亚洲精品第二区| 99久久人妻综合| 日本欧美视频一区| 国产精品二区激情视频| 国产亚洲欧美在线一区二区| 成年美女黄网站色视频大全免费| 1024视频免费在线观看| 精品一区二区三区四区五区乱码| 美女扒开内裤让男人捅视频| 熟女少妇亚洲综合色aaa.| 两个人看的免费小视频| 欧美中文综合在线视频| 中文字幕最新亚洲高清| 大片免费播放器 马上看| 99国产精品一区二区三区| 狂野欧美激情性bbbbbb| 啦啦啦啦在线视频资源| 一二三四在线观看免费中文在| 老熟妇仑乱视频hdxx| 美女视频免费永久观看网站| 嫩草影视91久久| 80岁老熟妇乱子伦牲交| 性高湖久久久久久久久免费观看| 亚洲人成77777在线视频| 欧美激情高清一区二区三区| 久久免费观看电影| 国产免费现黄频在线看| 黄频高清免费视频| 中文欧美无线码| 日韩大码丰满熟妇| 啪啪无遮挡十八禁网站| 后天国语完整版免费观看| 久久精品久久久久久噜噜老黄| 久久久久久亚洲精品国产蜜桃av| 国产激情久久老熟女| 亚洲精品av麻豆狂野| 久久99热这里只频精品6学生| 国产成人a∨麻豆精品| 99九九在线精品视频| av天堂在线播放| 欧美黄色片欧美黄色片| 天天添夜夜摸| 99久久综合免费| 国产在视频线精品| 丁香六月欧美| 丰满少妇做爰视频| www日本在线高清视频| 麻豆乱淫一区二区| 国产深夜福利视频在线观看| 久久精品国产亚洲av香蕉五月 | 日本五十路高清| 亚洲国产成人一精品久久久| 欧美黑人欧美精品刺激| 国产成人影院久久av| 女人精品久久久久毛片| 最新在线观看一区二区三区| 国产区一区二久久| 菩萨蛮人人尽说江南好唐韦庄| 午夜激情久久久久久久| 国产成人欧美在线观看 | 中文字幕人妻丝袜制服| 日本精品一区二区三区蜜桃| 午夜福利一区二区在线看| 亚洲中文av在线| 18在线观看网站| 91麻豆av在线| 国产激情久久老熟女| 亚洲 欧美一区二区三区| 国产老妇伦熟女老妇高清| 曰老女人黄片| 国产一级毛片在线| 国产亚洲精品第一综合不卡| 好男人电影高清在线观看| www.自偷自拍.com| 午夜视频精品福利| 91字幕亚洲| 男人舔女人的私密视频| 国产真人三级小视频在线观看| 国产在线一区二区三区精| 搡老岳熟女国产| 久久精品国产亚洲av香蕉五月 | 午夜激情av网站| 99久久综合免费| 老司机亚洲免费影院| www日本在线高清视频| 婷婷成人精品国产| 欧美黄色片欧美黄色片| 国产亚洲精品久久久久5区| 香蕉丝袜av| 国产精品久久久久久人妻精品电影 | 天天躁狠狠躁夜夜躁狠狠躁| 日韩欧美一区二区三区在线观看 | 中文精品一卡2卡3卡4更新| 女人精品久久久久毛片| 最新在线观看一区二区三区| 亚洲免费av在线视频| e午夜精品久久久久久久| 国产激情久久老熟女| 女人精品久久久久毛片| 制服人妻中文乱码| 99国产精品99久久久久| 丝袜脚勾引网站| 黄网站色视频无遮挡免费观看| 午夜免费成人在线视频| 欧美午夜高清在线| 肉色欧美久久久久久久蜜桃| 亚洲精品日韩在线中文字幕| av片东京热男人的天堂| 久久ye,这里只有精品| 一区二区三区乱码不卡18| 啦啦啦啦在线视频资源| 亚洲国产毛片av蜜桃av| 国产精品二区激情视频| 亚洲欧美一区二区三区黑人| 日本一区二区免费在线视频| 狂野欧美激情性xxxx| 亚洲av电影在线观看一区二区三区| 亚洲国产欧美网| 又紧又爽又黄一区二区| 亚洲av成人不卡在线观看播放网 | 中文字幕另类日韩欧美亚洲嫩草| 母亲3免费完整高清在线观看| 国产极品粉嫩免费观看在线| 久久久精品国产亚洲av高清涩受| 搡老乐熟女国产| 国产亚洲精品一区二区www | 亚洲专区字幕在线| 建设人人有责人人尽责人人享有的| 国产日韩欧美亚洲二区| 一本一本久久a久久精品综合妖精| 91av网站免费观看| 制服诱惑二区| 午夜成年电影在线免费观看| 美女高潮喷水抽搐中文字幕| 欧美日韩中文字幕国产精品一区二区三区 | 精品免费久久久久久久清纯 | 又大又爽又粗| 国产国语露脸激情在线看| 熟女少妇亚洲综合色aaa.| 国产成人a∨麻豆精品| 亚洲国产精品成人久久小说| 午夜免费成人在线视频| 亚洲成人国产一区在线观看| 男女之事视频高清在线观看| 久久精品亚洲av国产电影网| 夜夜夜夜夜久久久久| 亚洲成国产人片在线观看| 欧美大码av| 日日摸夜夜添夜夜添小说| 97人妻天天添夜夜摸| 自线自在国产av| 亚洲视频免费观看视频| 国产精品国产av在线观看| 成人免费观看视频高清| 久久精品亚洲av国产电影网| 国产精品亚洲av一区麻豆| 免费av中文字幕在线| 精品少妇内射三级| 欧美精品亚洲一区二区| 精品亚洲乱码少妇综合久久| 国产精品久久久av美女十八| 十八禁网站网址无遮挡| 51午夜福利影视在线观看| 久久九九热精品免费| 久久香蕉激情| 亚洲精品久久久久久婷婷小说| 热99re8久久精品国产| 高清av免费在线| 人人澡人人妻人| 我要看黄色一级片免费的| 97精品久久久久久久久久精品| 丝瓜视频免费看黄片| 亚洲欧美色中文字幕在线| 欧美激情极品国产一区二区三区| 十八禁网站免费在线| 欧美亚洲 丝袜 人妻 在线| 亚洲激情五月婷婷啪啪| 中文字幕人妻熟女乱码| 久久影院123| a级毛片黄视频| 精品少妇黑人巨大在线播放| 成年女人毛片免费观看观看9 | 精品一区二区三卡| 一区二区三区精品91| 搡老熟女国产l中国老女人| 久久精品熟女亚洲av麻豆精品| 在线看a的网站| 啦啦啦在线免费观看视频4| 日韩一区二区三区影片| 在线观看人妻少妇| av在线老鸭窝| 老鸭窝网址在线观看| 操美女的视频在线观看| 精品少妇内射三级| 狠狠精品人妻久久久久久综合| 18禁国产床啪视频网站| 男女免费视频国产| 精品久久久久久电影网| 国产免费一区二区三区四区乱码| 国产亚洲一区二区精品| 国产伦理片在线播放av一区| videosex国产| 国产成人一区二区三区免费视频网站| 人人妻人人添人人爽欧美一区卜| 国产精品免费视频内射| 午夜免费观看性视频| 狠狠狠狠99中文字幕| 狂野欧美激情性xxxx| 免费在线观看视频国产中文字幕亚洲 | 男女高潮啪啪啪动态图| 精品少妇一区二区三区视频日本电影| kizo精华| 麻豆av在线久日| 丰满迷人的少妇在线观看| 97人妻天天添夜夜摸| 国产欧美日韩一区二区三区在线| 国产淫语在线视频| 亚洲av欧美aⅴ国产| 欧美另类亚洲清纯唯美| 国产日韩一区二区三区精品不卡| 国产老妇伦熟女老妇高清| 免费在线观看影片大全网站| 国产av一区二区精品久久| 一级片免费观看大全| 法律面前人人平等表现在哪些方面 | 国产国语露脸激情在线看| 午夜福利视频精品| 欧美亚洲日本最大视频资源| 午夜福利,免费看| 国产精品久久久久久人妻精品电影 | 色精品久久人妻99蜜桃| 免费久久久久久久精品成人欧美视频| 久久久久网色| 天天影视国产精品| 免费观看人在逋| 国产精品秋霞免费鲁丝片| 大片免费播放器 马上看| 丰满饥渴人妻一区二区三| 巨乳人妻的诱惑在线观看| 美女脱内裤让男人舔精品视频| 精品久久久久久电影网| 国产亚洲精品一区二区www | 亚洲天堂av无毛| 十分钟在线观看高清视频www| 国产免费视频播放在线视频| 亚洲国产欧美日韩在线播放| 一区福利在线观看| 国产精品 国内视频| 久久久精品94久久精品| 久久 成人 亚洲| 欧美 日韩 精品 国产| 国产在线视频一区二区| 99热国产这里只有精品6| 亚洲情色 制服丝袜| 精品国产超薄肉色丝袜足j| 高清视频免费观看一区二区| 两性夫妻黄色片| 精品国内亚洲2022精品成人 | 国产亚洲精品第一综合不卡| 欧美日韩亚洲综合一区二区三区_| 操美女的视频在线观看| av电影中文网址| av在线老鸭窝| 视频区欧美日本亚洲| 国产成人av教育| 咕卡用的链子| 欧美日韩精品网址| 久久av网站| 男女国产视频网站| 天堂俺去俺来也www色官网| 老汉色av国产亚洲站长工具| 久久久国产成人免费| 日日夜夜操网爽| 国产欧美日韩一区二区三区在线| 在线精品无人区一区二区三| 日韩有码中文字幕| 天天躁日日躁夜夜躁夜夜| 乱人伦中国视频| 色94色欧美一区二区| 一区在线观看完整版| svipshipincom国产片| 最新在线观看一区二区三区| 国产老妇伦熟女老妇高清| 久热这里只有精品99| 亚洲精品中文字幕一二三四区 | 精品亚洲成a人片在线观看| 国产一区二区激情短视频 | 国产激情久久老熟女| 亚洲中文字幕日韩| 国产三级黄色录像| 女人精品久久久久毛片| 丝袜脚勾引网站| 日韩电影二区| 这个男人来自地球电影免费观看| xxxhd国产人妻xxx| 欧美成人午夜精品| 精品人妻熟女毛片av久久网站| 黄色片一级片一级黄色片| 亚洲精品久久久久久婷婷小说| 老司机影院毛片| 色综合欧美亚洲国产小说| 欧美精品亚洲一区二区| 欧美老熟妇乱子伦牲交| 最黄视频免费看| 亚洲欧美清纯卡通| 久久久欧美国产精品| 亚洲人成电影免费在线| 免费日韩欧美在线观看| 狠狠狠狠99中文字幕| 国产精品免费视频内射| 男女边摸边吃奶| 老司机在亚洲福利影院| 99国产精品一区二区蜜桃av | 人人妻人人爽人人添夜夜欢视频| 欧美少妇被猛烈插入视频| h视频一区二区三区| 极品人妻少妇av视频| 一级黄色大片毛片| av网站免费在线观看视频| 下体分泌物呈黄色| 亚洲国产欧美一区二区综合| 国产精品久久久久久精品电影小说| 天堂中文最新版在线下载| 高清欧美精品videossex| 亚洲精品国产精品久久久不卡| 啦啦啦中文免费视频观看日本| 日本黄色日本黄色录像| 国产1区2区3区精品| 国产成人精品在线电影| 亚洲国产欧美网| 午夜福利免费观看在线| 9191精品国产免费久久| 美女脱内裤让男人舔精品视频| 人妻人人澡人人爽人人| 国产亚洲精品久久久久5区| 99国产精品一区二区三区| 国产成人精品无人区| 欧美精品亚洲一区二区| 亚洲av国产av综合av卡| 亚洲欧美精品综合一区二区三区| av超薄肉色丝袜交足视频| 老司机在亚洲福利影院| 这个男人来自地球电影免费观看| 亚洲成人免费电影在线观看| 亚洲五月婷婷丁香| 欧美亚洲日本最大视频资源| 日韩有码中文字幕| 99久久人妻综合| 成人国语在线视频| 日韩 欧美 亚洲 中文字幕| 国产精品免费大片| 亚洲视频免费观看视频| xxxhd国产人妻xxx| 欧美日韩中文字幕国产精品一区二区三区 | 高清欧美精品videossex| 狠狠狠狠99中文字幕| a 毛片基地| 免费高清在线观看视频在线观看| 婷婷成人精品国产| 久久这里只有精品19| 久久久国产欧美日韩av| 免费在线观看视频国产中文字幕亚洲 | 波多野结衣一区麻豆|