• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    用于胎兒超聲切面識別的知識蒸餾方法

    2022-02-18 08:13:36張欣培周堯章毅
    智能系統(tǒng)學報 2022年1期
    關(guān)鍵詞:準確率神經(jīng)網(wǎng)絡分類

    張欣培,周堯,章毅

    (四川大學 計算機學院, 四川 成都 610065)

    產(chǎn)前超聲檢查是監(jiān)測胎兒在母體內(nèi)生長情況的重要步驟,在傳統(tǒng)產(chǎn)前超聲檢查的過程中,臨床醫(yī)生利用超聲設備獲得胎兒各個部位的二維超聲標準切面,并在此基礎上測量各種體征數(shù)據(jù),以評估胎兒在母體內(nèi)的發(fā)育情況,預測早產(chǎn)的風險。但產(chǎn)前超聲檢查用到的切面種類多、不同切面的主要結(jié)構(gòu)和復雜程度都不一樣,使用傳統(tǒng)方式手動獲取切面會面臨很多問題,如:1)標準切面的獲取難度大,對超聲醫(yī)生的臨床經(jīng)驗依賴度極高;2) 因不同超聲醫(yī)生專業(yè)水平的差異,獲取到的標準切面結(jié)果可能不同,切面圖像的規(guī)范性得不到保障;3) 臨床工作效率低,易使孕婦受檢時間過長,引起不良反應。近年來,隨著深度神經(jīng)網(wǎng)絡在醫(yī)學圖像分析領(lǐng)域的發(fā)展與應用,為解決傳統(tǒng)方法的弊端,研究人員逐漸將深度神經(jīng)網(wǎng)絡應用到胎兒超聲切面圖像的自動識別任務中,輔助醫(yī)生進行診斷。

    Maraci等[1]采用動態(tài)紋理分析和支持向量機(SVM)算法[2]對產(chǎn)婦孕中期的超聲檢查視頻的每幀圖像進行標準切面識別。SVM算法是一種利用高維映射來解決機器學習中線性不可分問題的算法,但在數(shù)據(jù)量過大時,其魯棒性和準確率無法得到保證,所以SVM算法的性能是有限的。隨著大數(shù)據(jù)和深度神經(jīng)網(wǎng)絡的發(fā)展,各種深度神經(jīng)網(wǎng)絡方法被應用在胎兒超聲切面圖像識別任務中。Baumgartner等[3]首次提出了基于圖像級別標簽的弱監(jiān)督方法,使用卷積神經(jīng)網(wǎng)絡對胎兒標準切面圖像進行實時自動檢測,其F1評價指標達到了0.791 8,且在回溯幀檢索中的準確率達到了90.09%。Maraci等[4]使用條件隨機場模型從超聲檢查視頻的每一幀圖像對胎兒心臟切面進行檢測。條件隨機場模型[5]是一種判別式模型,在觀測序列的基礎上對目標序列進行建模,可以通過超聲視頻的每一幀及其前后幀所提供的序列化信息來檢測胎兒心臟切面,但此方法在訓練時的收斂速度極慢。Ryou等[6]提出了一種基于隨機森林的矢狀面胎兒全域定位方法,利用卷積神經(jīng)網(wǎng)絡對胎兒頭部、身體和非胎兒切面進行識別。Cheng等[7]用基于卷積神經(jīng)網(wǎng)絡的遷移學習模型對胎兒腹部二維超聲切面進行識別,分別使用兩個卷積神經(jīng)網(wǎng)絡CaffeNet[8]、VGGNet[9]進行對比實驗,基于CaffeNet的遷移學習模型達到了平均77.3%的準確率,基于VGGNet的遷移學習模型達到了77.9%的準確率。

    近年來,越來越多的研究人員將深度神經(jīng)網(wǎng)絡應用于臨床輔診任務中。隨著計算機硬件設備的不斷發(fā)展,在圖形處理器(GPU)上訓練各種深度神經(jīng)網(wǎng)絡已不是一件難事。但龐大神經(jīng)網(wǎng)絡模型在訓練過程中的計算資源占用量是巨大的,不可避免地耗費大量時間開銷對輸入數(shù)據(jù)進行處理,極大限制了實際應用時的運行效率。同時,在目前的研究和應用中,多使用預訓練模型針對不同任務進行微調(diào),該方式極易造成參數(shù)冗余的問題,增加不必要的時間開銷,難以提高實時分析能力;且在實際部署時,深度神經(jīng)網(wǎng)絡模型占用大量內(nèi)存,對終端設備的計算資源需求高。

    針對以上問題,本文提出改進的兩階段知識蒸餾方法,在保留分類性能的同時提升模型的實時分析能力。首先,根據(jù)胎兒超聲切面圖像的特征,調(diào)研和使用幾種主流分類模型進行實驗,綜合考量其計算資源占用量和分類性能,選擇Resnet8和Resnet101分別作為學生網(wǎng)絡和教師網(wǎng)絡。再者,通過第1階段,使用預訓練好的教師網(wǎng)絡的隱藏層信息初始化學生網(wǎng)絡的中間層,將Resnet101模型的隱藏層輸出作為Resnet8模型中間層訓練的標簽信息,使學生網(wǎng)絡的中間層獲得初始化的先驗權(quán)重;最后,通過第2階段進行知識蒸餾,將教師網(wǎng)絡的負樣本標簽蘊含的軟標簽信息“蒸餾”,作為此階段訓練的監(jiān)督信息。通過以上方法得到的學生網(wǎng)絡模型,在分類性能的各項指標上超過教師網(wǎng)絡模型,且其計算資源占用量大幅降低,模型被有效壓縮,加快了實際應用時的分析速度。

    1 胎兒超聲切面分類與網(wǎng)絡壓縮

    1.1 胎兒超聲切面分類

    針對醫(yī)學超聲圖像分類任務的特點,分別選取 MobileNetV2、MobileNetV3small、Resnet8、VGG16、Resnet34和Resnet101模型。前3個模型屬于輕量級模型,適合從中選擇合適的學生網(wǎng)絡;后3個模型參數(shù)數(shù)量較多,適合作為教師網(wǎng)絡的選項,其參數(shù)量對比如表1所示。由表1可得,前3個模型與后3個模型相比,參數(shù)數(shù)量更少,具有更輕量級的特征?;诖?,設計對比實驗從前3個模型中選擇合適的學生網(wǎng)絡,從后3個模型中選擇合適的教師網(wǎng)絡。MobileNetV1是Andrew等[10]提出的一種神經(jīng)網(wǎng)絡結(jié)構(gòu),利用深度可分離卷積減少了參數(shù)數(shù)量,從而降低計算量,提高計算效率。這種神經(jīng)網(wǎng)絡模型適合部署到移動端或嵌入式系統(tǒng)中,但其不足之處在于該網(wǎng)絡是一種較簡單的單通道結(jié)構(gòu),在任務中的準確率等性能表現(xiàn)往往不能達到預期目標。隨著Res-Net和DenseNet等網(wǎng)絡的提出,研究人員驗證了卷積層輸出的復用對提升網(wǎng)絡性能的有效性,MobileNetV2[11]應運而生,引入具有線性瓶頸的逆殘差結(jié)構(gòu)模塊,一定程度改善了原有MobileN-etV1模型的不足。MobileNetV3[12]是該系列的最新版本,包含MobileNetV3Small和MobileNet-V3Large兩種模型,結(jié)合自動機器學習技術(shù)以及人工微調(diào)構(gòu)建了更輕量級的模型。本文所述的Resnet8模型是對Resnet18模型進行改造而形成的層數(shù)和參數(shù)數(shù)量更少的輕量級模型,由7層卷積層與1層全連接層構(gòu)成。由表1可知,在評價計算資源占用量指標的參數(shù)數(shù)量上,Resnet8模型比其他兩個輕量級模型具有一定優(yōu)勢。

    表1 不同分類模型參數(shù)量對比Table 1 Parameter comparison of different models

    1.2 知識蒸餾方法

    近年來,隨著大數(shù)據(jù)和深度神經(jīng)網(wǎng)絡的不斷發(fā)展,在強大的GPU上訓練各種復雜的神經(jīng)網(wǎng)絡模型已不是一件難事。但在實際部署時,因用戶端終端設備的運算能力有限,使得復雜模型的部署變得困難;在實際應用方面,深度神經(jīng)網(wǎng)絡需要巨大的時間開銷對輸入數(shù)據(jù)進行處理,極大限制了實時分析能力?;诖耍芯咳藛T逐漸將目光放在模型壓縮領(lǐng)域的各項研究上來。知識蒸餾作為模型壓縮的一大分支,也不斷取得各項進展。Bucilua等[13]首次提出模型壓縮的概念,這種方法能將有效信息從深度神經(jīng)網(wǎng)絡模型轉(zhuǎn)移到訓練淺層模型,而不會顯著降低原有模型的精度。Romero等[14]提出FitNet,不僅利用教師網(wǎng)絡最后一層神經(jīng)元的輸出信息,還利用了其中間層信息,成功訓練了較原有教師網(wǎng)絡更深但更窄的學生網(wǎng)絡。Hinton等[15]正式將這種學習模式定義為“知識蒸餾”,并提出了帶溫度系數(shù)T的Softmax函數(shù)。通過此函數(shù)將教師網(wǎng)絡的負樣本信息輸出的概率分布“蒸餾”出來,以對學生網(wǎng)絡的訓練提供額外的監(jiān)督信息。他們在MNIST數(shù)據(jù)集上進行初步試驗,證明了帶溫度系數(shù)T的Softmax函數(shù)對深度神經(jīng)網(wǎng)絡模型精度提高的有效性;并分別在語音數(shù)據(jù)集和大型數(shù)據(jù)集JFT上進行對比實驗,證明了知識蒸餾對模型精度提高和模型壓縮的有效性。受課程學習(curriculum learning)的啟發(fā),Jin等[16]發(fā)現(xiàn)由學生網(wǎng)絡和教師網(wǎng)絡間的結(jié)構(gòu)差異而造成蒸餾失敗的問題,并針對此提出了路由約束提示學習方法。2019年P(guān)huong等[17]從理論上論述了知識蒸餾中學生網(wǎng)絡具有快速收斂的泛化邊界的原因,解釋了知識蒸餾的工作原理。2020年Ji等[18]分別從風險界、數(shù)據(jù)效率和不完美的老師3個角度進一步對廣義神經(jīng)網(wǎng)絡上的知識蒸餾方法進行了理論解釋。目前的知識蒸餾方法已擴展到師生學習[14]、相互學習[19]、輔助教學[20]、終身學習[21]和自主學習[22]等模式。通過知識蒸餾訓練后的學生網(wǎng)絡,能保留甚至超過教師網(wǎng)絡的性能,網(wǎng)絡結(jié)構(gòu)比教師網(wǎng)絡更簡單,減少了冗余參數(shù),能有效提高實時分析性能,緩解終端部署和實際應用的困難。

    雖然現(xiàn)有知識蒸餾方法已經(jīng)取得了良好的效果,但也具有一定局限性。神經(jīng)網(wǎng)絡的隱藏層特征表達往往蘊含了豐富的有用信息,現(xiàn)有方法僅依托于神經(jīng)網(wǎng)絡最后一層神經(jīng)元輸出信息,提供的監(jiān)督信息是有限的。考慮到隱藏層特征表達和映射對深度神經(jīng)網(wǎng)絡模型的影響,在傳統(tǒng)知識蒸餾方法中融入隱藏層的特征表達,將在一定程度上為學生網(wǎng)絡提供更豐富的監(jiān)督信息。首先,在第1階段,通過對學生網(wǎng)絡預先進行訓練,使其學到教師網(wǎng)絡隱藏層豐富的特征表達,獲得優(yōu)于原始學生網(wǎng)絡中間層的權(quán)重信息;第2階段,對已學習到教師網(wǎng)絡隱藏層特征表達的學生網(wǎng)絡進行知識蒸餾。同時,考慮到在教師網(wǎng)絡訓練時會產(chǎn)生很多中間模型(anchor points[16]),應使用結(jié)構(gòu)相似的神經(jīng)網(wǎng)絡模型作為學生網(wǎng)絡,以便于學生網(wǎng)絡從其中間模型更好地進行特征學習,從而提升知識蒸餾的效率。基于此,本文使用師生學習模式,提出改進的兩階段知識蒸餾方法。

    1.2.1 知識蒸餾方法

    眾所周知,基于深度神經(jīng)網(wǎng)絡的分類任務都具有共同的特征:神經(jīng)網(wǎng)絡最后一層神經(jīng)元的輸出信息都會通過一個Softmax函數(shù),如式(1)所示,將輸出信息變成概率分布,才能與標簽信息求其極大似然值,此種經(jīng)過Softmax層直接輸出的信息被稱為硬標簽信息。

    式中:qi是教師網(wǎng)絡輸出每一類的概率分布;zi是最后一層的神經(jīng)元的輸出信息。

    但由于Softmax函數(shù)只輸出概率分布的獨熱編碼,會均一化所有負樣本標簽的信息,將負樣本標簽的概率都還原為0,弱化了負樣本標簽的概率信息對模型訓練的影響。對此,Hinton等[15]提出帶溫度系數(shù)T的Softmax函數(shù),如式(2)所示,此種經(jīng)過溫度系數(shù)T的輸出信息被稱為軟標簽信息。最后一層神經(jīng)元的輸出信息通過帶溫度系數(shù)T的Softmax函數(shù)后,能“蒸餾”出負樣本標簽的概率信息,為學生網(wǎng)絡的訓練提供更為豐富的“暗知識”,使學生網(wǎng)絡不只接受正樣本標簽的監(jiān)督訓練。

    式中:qi是教師網(wǎng)絡輸出每一類的軟標簽;zi是最后一層的神經(jīng)元的輸出信息;T為溫度系數(shù)。根據(jù)不同的溫度蒸餾出的知識占比不同,需進行對比實驗選出最適合的溫度系數(shù)T。實驗數(shù)據(jù)圖片在不同溫度系數(shù)T下的預測概率如圖1所示。

    圖1 不同溫度系數(shù)T下的概率分布Fig.1 Probability distribution with different parameter T

    知識蒸餾方法基于軟標簽信息,在給定教師網(wǎng)絡的條件下,使用教師網(wǎng)絡最后一層神經(jīng)元的輸出信息經(jīng)過帶溫度系數(shù)T的Softmax函數(shù),將其預測的所有類別的概率分布“蒸餾”,作為知識蒸餾的監(jiān)督信息,指導學生網(wǎng)絡進行訓練。此方法為學生網(wǎng)絡的訓練提供了來自教師網(wǎng)絡的先驗知識,本質(zhì)上是在學生網(wǎng)絡的訓練中加入一種新的正則化機制。具體流程圖如圖2所示。

    圖2 知識蒸餾網(wǎng)絡結(jié)構(gòu)Fig.2 Network structure of knowledge distillation

    最終損失函數(shù)表達式為

    式中:α為蒸餾強度;T為溫度系數(shù);φ為KL散度;為學生網(wǎng)絡經(jīng)過帶溫度系數(shù)T的Softmax層的權(quán)重矩陣;為教師網(wǎng)絡的權(quán)重矩陣; ψ 為交叉熵;Ws為學生網(wǎng)絡的硬標簽信息;Ylabel為輸入圖像的標簽信息。

    1.2.2 改進的兩階段知識蒸餾方法

    在第1階段,旨在提取教師網(wǎng)絡隱藏層的特征表達,將其作為此階段訓練的監(jiān)督信息,以此來指導學生網(wǎng)絡的中間層權(quán)重的初始化,使其學習到教師網(wǎng)絡的隱藏層特征表達。第1階段流程如圖3所示。

    圖3 第1階段網(wǎng)絡結(jié)構(gòu)Fig.3 Network structure of the first stage

    為獲得基于教師網(wǎng)絡隱藏層特征表達的學生網(wǎng)絡,Ws需凍結(jié)學生網(wǎng)絡的最后一層殘差連接層、池化層以及全連接層,僅訓練學生網(wǎng)絡的第一層至中間層h的權(quán)重矩陣。訓練集D={(x1,y1),(x2,y2),···,(xi,yi)}, 其 中 ,xi∈x? Rs×s×c即 通 道 數(shù) 為c的輸入大小為s×s的圖像數(shù)據(jù),yi∈(0,5)即輸入的圖像數(shù)據(jù)的標簽信息,在本文中代表屬于編號為0~5的6類標簽;即教師網(wǎng)絡隱藏層前g層的特征表達;即學生網(wǎng)絡中間前h層的特征表達。為解決教師網(wǎng)絡前g層輸出特征與學生網(wǎng)絡前h層輸出特征表達的維度不匹配問題,加入隨機初始化權(quán)重的卷積回歸層。最終通過最小化損失函數(shù)來優(yōu)化和卷積回歸層,其表達式為

    式中:μ為教師網(wǎng)絡隱藏層函數(shù);υ為學生網(wǎng)絡中間層函數(shù);r為卷積回歸函數(shù)。為保證教師網(wǎng)絡隱藏層輸出特征和學生網(wǎng)絡卷積回歸層輸出特征維度一致,μ函數(shù)和r函數(shù)應具有相同的非線性性質(zhì)。

    經(jīng)過第1階段訓練的學生網(wǎng)絡模型已經(jīng)具有基于教師網(wǎng)絡隱藏層特征表達的中間層權(quán)重信息,類比教師教授學生知識的環(huán)節(jié),相當于學生已經(jīng)在教師布置的預習任務中獲得了一定量的知識儲備,為接下來的教師教學打下基礎,即為第2階段的知識蒸餾訓練做鋪墊。在第2階段,使用知識蒸餾方法再次對學生網(wǎng)絡進行訓練,通過最小化損失函數(shù)去優(yōu)化學生網(wǎng)絡模型,不斷迭代,直至其損失函數(shù)值收斂。

    1.2.3 學生網(wǎng)絡和教師網(wǎng)絡結(jié)構(gòu)

    綜合各種分類模型在胎兒超聲切面數(shù)據(jù)集上的性能,考慮到分類性能與計算資源占用量之間的平衡,將Resnet8作為學生網(wǎng)絡模型,其層數(shù)淺、參數(shù)量少,具體參數(shù)如表2所示;將ResNet101作為教師網(wǎng)絡模型,其層數(shù)深、參數(shù)量大,具體參數(shù)如表3所示。二者都具有良好的分類性能,且二者具有相同的殘差結(jié)構(gòu),可以方便學生網(wǎng)絡學習教師網(wǎng)絡的特征表達。

    表2 學生模型網(wǎng)絡參數(shù)Table 2 Network parameters of student module

    表3 教師模型網(wǎng)絡參數(shù)Table 3 Network parameters of teacher module

    2 實驗設計

    2.1 實驗平臺

    本實驗在GPU深度神經(jīng)網(wǎng)絡集成計算平臺上進行,操作平臺為Ubuntu,使用的GPU為Nvidia GeForce RTX 3090Ti,顯存為 24 GB,使用的深度神經(jīng)網(wǎng)絡框架為PyTorch。

    2.2 實驗準備

    實驗采用的數(shù)據(jù)是胎兒超聲切面數(shù)據(jù)集,由BCNatal收集,涵蓋了來自兩個醫(yī)學中心共計12 400張?zhí)撼暻忻鎴D像,圖像格式為PNG,均做了匿名處理。此數(shù)據(jù)集包含了6類切面類型,各類型切面圖像概覽如圖4所示。胎兒超聲切面圖像作為產(chǎn)前檢查的重要依據(jù),均由專業(yè)的超聲科閱片醫(yī)師進行手動標注,每類切面的臨床意義其數(shù)據(jù)分布情況如表4所示,其中“其他類型”的存在可以提高模型對于不同類別在有干擾情況下的準確率。

    圖4 胎兒超聲切面概覽Fig.4 Examples of fetal ultrasound section images

    表4 數(shù)據(jù)集分布情況Table 4 Component distribution of datasets

    本實驗將此數(shù)據(jù)集劃分為訓練集和測試集,其比例約為4∶1,具體分布情況如表5所示。為滿足不同分類模型對輸入圖像大小的限制,預先將圖像進行了拉伸縮放的預處理方式,將其調(diào)整為像素尺寸。同時,為了提高彩超圖像在基于ImageNet預訓練模型上的泛化能力,對原始超聲圖像進行歸一化等預處理。

    表5 實驗數(shù)據(jù)集分布情況Table 5 Experimental component distribution of datasets

    2.3 實驗步驟

    2.3.1 胎兒超聲切面分類實驗

    針對本文所述的胎兒超聲切面分類任務的特點,使用不同深度神經(jīng)網(wǎng)絡分類模型進行實驗,并評估各種模型在胎兒超聲切面數(shù)據(jù)集上的準確率及其損失函數(shù)值。在MobileNetV2、MobileN-etV3Small、Resnet8、VGG16、Resnet34、Resnet101模型上進行分類實驗。此階段的學習率為1×10?6,并設置Warmup機制,首先使用較大的學習率進行訓練,然后逐漸逼近實驗設置的學習率;本實驗中的損失函數(shù)使用交叉熵函數(shù),優(yōu)化方法采用自適應梯度下降法(adam)算法,此方法較隨機梯度下降(SGD)算法能取得更優(yōu)的效果。

    2.3.2 改進的兩階段知識蒸餾實驗

    本方法對現(xiàn)有知識蒸餾方法進行改進,先進行第1階段訓練,將教師網(wǎng)絡隱藏層的輸出信息作為監(jiān)督信息,將其遷移到學生網(wǎng)絡的中間層,使學生網(wǎng)絡的中間層獲得教師網(wǎng)絡的隱藏層特征表達作為監(jiān)督信息訓練的初始權(quán)重。在第2階段,使用知識蒸餾方法對既得學生網(wǎng)絡模型進行二次訓練,整體訓練流程為

    1) 將實驗所用數(shù)據(jù)集進行預處理和數(shù)據(jù)集劃分,分別用于訓練和測試;

    2) 將訓練集輸入Resnet101模型,訓練教師網(wǎng)絡,使用測試集測試其分類性能,并保存性能最好的Resnet101模型作為教師網(wǎng)絡;

    3) 固定教師網(wǎng)絡模型參數(shù),將其隱藏層的輸出信息作為學生網(wǎng)絡中間層知識遷移的監(jiān)督信息;

    4) 凍結(jié)學生網(wǎng)絡的最后3層參數(shù),即全連接層、最后池化層、和最后一層殘差網(wǎng)絡層。為解決教師網(wǎng)絡中間層輸出特征和學生網(wǎng)絡中間層輸出特征維度不一致的問題,需在學生網(wǎng)絡中間層的最后添加一個卷積回歸層。

    5) 在第1階段,將訓練集輸入學生網(wǎng)絡,使用步驟3)獲得的教師網(wǎng)絡隱藏層特征表達作為監(jiān)督信息,訓練學生網(wǎng)絡中間層Wpre和Wr。使用Lhint作為損失函數(shù),通過反向傳播算法不斷迭代優(yōu)化式(4),最小化其損失函數(shù)值,直到收斂。保存此階段訓練的學生網(wǎng)絡模型。

    6) 用知識蒸餾方法對步驟5)獲得的學生網(wǎng)絡模型進行二次訓練。將學生網(wǎng)絡直接訓練的輸出作為硬標簽信息,結(jié)合教師網(wǎng)絡最后一層神經(jīng)元的輸出經(jīng)過帶溫度系數(shù)T的Softmax層后的軟標簽信息,將二者加權(quán)求和作為監(jiān)督信息,最小化LKD來優(yōu)化學生網(wǎng)絡的權(quán)重參數(shù)。通過反向傳播算法迭代式(3),最小化損失值,直到收斂。同時計算各種性能指標,保存性能最佳的學生網(wǎng)絡模型。

    7) 用訓練好的學生網(wǎng)絡模型進行預測,測試其各項性能指標。

    2.4 評價指標

    針對本任務,使用多個評價指標,即準確率(Acc)、宏精確率(MacroPre)、宏召回率(MacroRecall)、宏F1-score值(MacroF1)和前向傳播時的計算力(FLOPs)。Acc即預測正確的樣本類別占總樣本的比例,體現(xiàn)了模型的預測能力。精確率在二分類中即正確預測為該類別的占全部預測為該類別的比例,在多分類中,對每個標簽分別計算其精確率,再對其取算數(shù)平均(Macro),得到MacroPre;召回率在二分類中即正確預測為該類別的樣本數(shù)占全部實際為該樣本的比例,在多分類中,對每個標簽分別計算其召回率,再對其取算數(shù)平均,得到MacroRecall;F1值在二分類中,即對精確率和召回率的評估,在多分類中,對于每個標簽,分別計算其F1值,然后對其取算數(shù)平均,得到MacroF1。以上參數(shù)數(shù)值越大,分類模型的性能越好。FLOPs(fLoating point operations),即浮點運算數(shù),衡量模型復雜度,體現(xiàn)了模型的運算能力。

    分別計算每一類的 Prei、Recalli、F1的公式為

    對既得的每一類的Pre和Recall以及F1,再使用Macro算法。先分別求出每個類別對應的值,再對其求算數(shù)平均值:

    Acc可計算為

    式中:TPi、TNi、FPi、FNi分別代表第i類別的正陽性、正陰性、假陽性和假陰性。

    卷積核 FLOPs 的計算為

    式中:H、W和Cin分別是輸入特征圖的高度、寬度和通道數(shù);K是卷積核寬度 (假定卷積核長寬相等),Cout是輸出通道數(shù)。全連接層 FLOPs 的計算為

    式中:I是輸入維數(shù);O是輸出維數(shù)。

    在本文中,為了凸顯本方法的有效性,還關(guān)注各個模型的網(wǎng)絡深度、顯存占用量、GPU占用率、損失值、模型文件大小等性能指標。

    3 實驗結(jié)果與分析

    3.1 胎兒超聲切面分類實驗

    使用不同的分類模型,在相同的訓練集和驗證集上進行對比訓練,從其計算資源占用情況、準確率和損失值來衡量其分類性能。其中損失值為交叉熵函數(shù)的輸出,體現(xiàn)了分類模型的預測值和真實值之間的概率分布情況,本實驗中選用損失值低于0.1的指標作為分類器取得了好的效果的基準,具體情況如表6所示。

    表6 各神經(jīng)網(wǎng)絡模型性能對比Table 6 Experimental results with different neural network methods

    由表6可知,在準確率性能的表現(xiàn)上,Resnet101模型較VGG16模型提升了2.98%個百分點,較Resnet34模型提升了4.35%,較Resnet8模型提升了5.28%,取得了最優(yōu)的準確率性能表現(xiàn)。在計算資源占用量方面,Resnet101模型的網(wǎng)絡深度是Resnet8模型的近12倍,相比其他兩個較大的模型也增加了近3~5倍,訓練時的顯存占用量和GPU占用率和FLOPs也是最高的。綜上所述,充分表明Resnet101模型具有最好的分類性能的同時,其計算資源占用量也最龐大,適合作為教師網(wǎng)絡進行后續(xù)實驗,以驗證知識蒸餾方法能否在保留其分類性能的情況下將模型壓縮,并達到提升實時性分析能力的目的。

    在學生網(wǎng)絡的選擇方面,應考慮模型本身的參數(shù)數(shù)量和計算資源占用情況,盡量減少冗余參數(shù);同時,學生網(wǎng)絡本身的分類準確率也是重要指標之一,不能為了壓縮模型的大小,使得分類性能得不到保證。由表6可得,輕量級模型MobileNetV2、MobileNetV3Small和 Resnet8模型都具有較好的基本分類性能,但MobileNetSmall在準確率上的表現(xiàn)卻不如其他兩個模型。對比MobileNetV2和Resnet8的各項性能指標,雖然前者在準確率性能指標上超過后者1.05%,但其顯存占用量是后者的近8倍,在GPU占用率和FLOPs等性能上也處于劣勢。Resnet8模型有較好的分類性能,其在訓練時的計算資源占用量是更輕量級的,最終得到的模型文件大小較前兩者也是最小的?;诖耍疚木C合考慮準確率和計算資源占用量,同時假設與教師網(wǎng)絡模型具有相同殘差結(jié)構(gòu)的Resnet8模型,能更好地學習到以Resnet101網(wǎng)絡特征表達作為監(jiān)督信息的“知識”,選用Resnet8模型作為學生網(wǎng)絡,如表7所示。

    表7 學生網(wǎng)絡和教師網(wǎng)絡計算資源占用Table 7 Occupation of computational resource of student and teacher models

    綜上所述,Resnet101模型在胎兒超聲切面分類任務中具有最優(yōu)異的分類性能,較Resnet8模型具有5.28%的準確率指標提升。綜合各種分類模型在胎兒超聲切面數(shù)據(jù)集上的性能,考慮到分類性能與計算資源占用量之間的平衡,將Resnet8作為學生網(wǎng)絡,將ResNet101作為教師網(wǎng)絡,此二者都具有良好的分類性能,且具有相同的殘差結(jié)構(gòu),可以方便學生網(wǎng)絡學習教師網(wǎng)絡的隱藏層特征表達,提高泛化能力。學生網(wǎng)絡模型和教師網(wǎng)絡模型在訓練時的資源占用情況對比如表8。

    表8 不同溫度系數(shù)T的性能對比Table 8 Experimental results with different parameter T

    由表8可知,Resnet8模型較Resnet101模型的訓練參數(shù)量減少了近4 210萬,在訓練時的顯存占用和GPU使用率上也更具優(yōu)勢,模型文件大小也縮小近43倍,占用的計算資源不再冗余,F(xiàn)LOPs縮小了近198倍,提升了實際部署的可行性。

    3.2 溫度參數(shù)T對比實驗

    使用不同的溫度系數(shù)T進行對比實驗,選擇5、10、20、30、40作為實驗的溫度參數(shù)T,其分類可視化混淆矩陣如圖5所示。

    圖5 不同溫度系數(shù)T的知識蒸餾分類混淆矩陣Fig.5 Confusion matrix of knowledge distillation classification with different parameter T

    比較學生網(wǎng)絡在不同溫度系數(shù)T的訓練結(jié)果,選擇最合適的T作為整個實驗中的溫度系數(shù)T。由表9可得,當溫度系數(shù)T=5時,學生網(wǎng)絡在準確率、宏準確率、宏召回率、宏F1值等性能指標相比其他溫度系數(shù)T得到的模型是最具優(yōu)勢的。同時,在溫度系數(shù)T=5的情況下,通過現(xiàn)有知識蒸餾方法訓練的學生網(wǎng)絡模型與學生網(wǎng)絡單獨訓練時得到的模型的性能相比,各項性能都得到了提升,較原有學生網(wǎng)絡的準確率提升5.16%,并不斷逼近教師網(wǎng)絡模型的準確率,在宏精確率和宏F1值上都超過了教師網(wǎng)絡模型,漲幅分別為1.19%和0.07%,且其計算資源占用量遠小于原始教師網(wǎng)絡?;诖?,選擇T=5作為實驗中的溫度參數(shù)T。

    表9 不同優(yōu)化方法的性能對比Table 9 Performance comparison of different models

    3.3 改進的兩階段知識蒸餾方法實驗

    3.3.1 第1階段有效性實驗

    Resnet8模型與Resnet8+stage1模型相比,前者是Resnet8模型直接訓練得到的學生網(wǎng)絡模型;而后者是經(jīng)過改進的兩階段知識蒸餾方法第1階段的Resnet8模型,再直接訓練得到的學生網(wǎng)絡模型。由圖6可知,Resnet8+stage1模型在除“其他類型”切面圖像外的各個分類的成功樣本數(shù)較Resnet8模型增加3~20例不等。由表9可知,Resnet8+stage1模型較Resnet8模型在準確率上提升了1.53%,宏召回率提高3.92%,宏F1值提高2.2%,僅在宏精確率上降低0.07%。以上實驗結(jié)果充分表明了改進的兩階段知識蒸餾方法的第1階段訓練的必要性和有效性,具有相同殘差結(jié)構(gòu)的學生網(wǎng)絡在第1階段的訓練中,從教師網(wǎng)絡的隱藏層特征表達能學習到有用的權(quán)重信息。

    圖6 混淆矩陣對比Fig.6 Confusion matrix with different methods

    3.3.2 第2階段有效性實驗

    Resnet8+stage1模型與Resnet8+Hint模型相比,前者是經(jīng)過改進的兩階段知識蒸餾方法第1階段的Resnet8模型,再直接訓練得到的學生網(wǎng)絡模型;后者是經(jīng)過改進的兩階段知識蒸餾方法的學生網(wǎng)絡模型。由圖7可知,Resnet8+Hint模型較Resnet8+stage1模型,在每個類別正確的分類樣本數(shù)的最大增幅達到了27.2%(腹部類切面圖像);由表9可知,Resnet8+Hint模型較Resnet8+stage1模型的各項指標性能有了大幅提升,準確率提升4.84%,宏精確率提升5.63%,宏召回率提升6.3%,宏F1值提升8.21%,以上實驗結(jié)果充分表明改進的兩階段知識蒸餾方法的第2階段訓練的有效性。

    圖7 混淆矩陣對比Fig.7 Confusion matrix with different methods

    3.4 傳統(tǒng)和改進的知識蒸餾方法對比

    Resnet8+KD模型與Resnet8+Hint模型相比,前者是經(jīng)過傳統(tǒng)知識蒸餾方法訓練得到的學生網(wǎng)絡模型,后者是經(jīng)過改進的兩階段知識蒸餾方法訓練得到的學生網(wǎng)絡模型。由圖8可知,Resnet8+Hint模型的主要提升在于“胎兒股骨”和“胎兒胸腔”切面的分類結(jié)果上,而Resnet8+KD模型在這兩類上的分類性能是次與前者的。由表9可知,Resnet8+Hint模型的準確率較Resnet8+KD模型提升1.21%,宏精確率提升了0.4%,宏召回率提升了1.83%,宏F1值提升了1.18%,以上各項性能指標的提升都充分證明了改進的兩階段知識蒸餾方法的有效性。

    圖8 混淆矩陣對比Fig.8 Confusion matrix with different methods

    經(jīng)過改進的兩階段知識蒸餾方法的學生網(wǎng)絡模型在各項分類指標都取得了大幅提升,較原有學生網(wǎng)絡模型,準確率提升6.37%,其他各項性能也得到了明顯提升。較傳統(tǒng)知識蒸餾方法訓練的學生網(wǎng)絡模型,準確率提升1.21%,且在準確率指標上超過教師網(wǎng)絡模型1.09%。實驗表明,在改進的兩階段知識蒸餾方法的第1階段,與教師網(wǎng)絡具有相同殘差結(jié)構(gòu)的學生網(wǎng)絡能以教師網(wǎng)絡的隱藏層特征表達作為監(jiān)督信息,獲得良好的中間層初始權(quán)重,為第2階段知識蒸餾打下了良好基礎。同時,使用層數(shù)淺、參數(shù)量較少的學生網(wǎng)絡,可以有效避免模型因?qū)訑?shù)過深、參數(shù)量過大產(chǎn)生的過擬合問題,提升了模型的泛化能力,在保留分類性能的同時成功將模型參數(shù)量進行壓縮。綜上所述,充分表明了改進的兩階段知識蒸餾方法在提升學生網(wǎng)絡模型各項性能的有效性。

    4 結(jié)束語

    針對醫(yī)學圖像的特點,考慮到深度神經(jīng)網(wǎng)絡模型在實際應用時的實時性能,本文提出了一種用于胎兒超聲切面識別的改進的兩階段知識蒸餾方法。利用兩種結(jié)構(gòu)相似,但計算量相差較大的殘差網(wǎng)絡,即Resnet8作為學生網(wǎng)絡,Resnet101作為教師網(wǎng)絡,通過現(xiàn)有知識蒸餾方法和改進的兩階段知識蒸餾方法在胎兒超聲切面數(shù)據(jù)集上進行實驗,分別達到97.38%和98.59%的準確率,后者在各項分類的性能指標上都取得了突破,由此可以得出改進的兩階段知識蒸餾方法優(yōu)于現(xiàn)有知識蒸餾方法的結(jié)論。通過對比實驗,表明改進的兩階段知識蒸餾方法的第1階段,在具有相同殘差結(jié)構(gòu)的學生網(wǎng)絡和教師網(wǎng)絡之間進行隱藏層特征遷移的必要性和有效性。通過改進的兩階段知識蒸餾方法得到的學生網(wǎng)絡模型Resnet8+Hint在準確率和各項性能上遠超原有學生網(wǎng)絡模型,在分類性能方面超過了教師網(wǎng)絡模型,在計算資源占用量方面,大幅降低了對計算資源的需求,同時加快了實際應用時的分析速度,表明本文所述的改進的兩階段知識蒸餾方法的有效性。

    猜你喜歡
    準確率神經(jīng)網(wǎng)絡分類
    分類算一算
    乳腺超聲檢查診斷乳腺腫瘤的特異度及準確率分析
    健康之家(2021年19期)2021-05-23 11:17:39
    不同序列磁共振成像診斷脊柱損傷的臨床準確率比較探討
    2015—2017 年寧夏各天氣預報參考產(chǎn)品質(zhì)量檢驗分析
    神經(jīng)網(wǎng)絡抑制無線通信干擾探究
    電子制作(2019年19期)2019-11-23 08:42:00
    分類討論求坐標
    高速公路車牌識別標識站準確率驗證法
    數(shù)據(jù)分析中的分類討論
    教你一招:數(shù)的分類
    基于神經(jīng)網(wǎng)絡的拉矯機控制模型建立
    重型機械(2016年1期)2016-03-01 03:42:04
    国产精品蜜桃在线观看| 久久精品国产自在天天线| 亚洲自偷自拍三级| 国产成人免费无遮挡视频| 人妻系列 视频| 日本欧美视频一区| 永久网站在线| 日本vs欧美在线观看视频 | 免费观看无遮挡的男女| 久久99热6这里只有精品| 久久这里有精品视频免费| 亚洲国产高清在线一区二区三| 搡女人真爽免费视频火全软件| 综合色丁香网| 亚洲精品亚洲一区二区| 亚洲av.av天堂| 少妇猛男粗大的猛烈进出视频| 干丝袜人妻中文字幕| 国产成人午夜福利电影在线观看| 两个人的视频大全免费| 精品午夜福利在线看| videossex国产| 纯流量卡能插随身wifi吗| 久久精品国产亚洲av涩爱| 亚洲精品日韩在线中文字幕| 成人18禁高潮啪啪吃奶动态图 | 久久久国产一区二区| 中文字幕精品免费在线观看视频 | 免费不卡的大黄色大毛片视频在线观看| 少妇裸体淫交视频免费看高清| 日韩一区二区三区影片| 日韩成人伦理影院| 国产黄频视频在线观看| 国产精品精品国产色婷婷| 日韩 亚洲 欧美在线| 观看免费一级毛片| 寂寞人妻少妇视频99o| 日韩大片免费观看网站| 国产精品久久久久成人av| 尤物成人国产欧美一区二区三区| 色网站视频免费| 少妇人妻 视频| 一区二区三区四区激情视频| 国产在线一区二区三区精| 网址你懂的国产日韩在线| 久久精品久久久久久噜噜老黄| 欧美日韩视频高清一区二区三区二| 三级国产精品片| 欧美高清成人免费视频www| 国产乱人视频| a级毛片免费高清观看在线播放| 丝袜脚勾引网站| 日韩视频在线欧美| 三级国产精品欧美在线观看| 国产精品三级大全| 三级国产精品片| 欧美老熟妇乱子伦牲交| 91aial.com中文字幕在线观看| 亚洲国产精品一区三区| 极品教师在线视频| 亚洲欧美日韩东京热| 亚洲欧美日韩无卡精品| 久久 成人 亚洲| 中文字幕亚洲精品专区| 色网站视频免费| 一级毛片 在线播放| 97热精品久久久久久| videos熟女内射| 人体艺术视频欧美日本| 久久人人爽人人爽人人片va| 青春草国产在线视频| 色5月婷婷丁香| 日本与韩国留学比较| 欧美性感艳星| 女的被弄到高潮叫床怎么办| 人体艺术视频欧美日本| 日韩av免费高清视频| 国产人妻一区二区三区在| 国产淫语在线视频| 亚洲av中文av极速乱| 男女国产视频网站| 亚洲精品456在线播放app| 日韩国内少妇激情av| 观看av在线不卡| 久久6这里有精品| 国产91av在线免费观看| 精品熟女少妇av免费看| 久久久国产一区二区| 日韩 亚洲 欧美在线| 日韩在线高清观看一区二区三区| 街头女战士在线观看网站| 在线观看美女被高潮喷水网站| 免费看日本二区| 女性生殖器流出的白浆| 99热网站在线观看| 黄色视频在线播放观看不卡| 亚洲精华国产精华液的使用体验| 成人国产麻豆网| 亚洲高清免费不卡视频| 亚洲人成网站高清观看| 亚洲av中文av极速乱| 天堂8中文在线网| 女的被弄到高潮叫床怎么办| 成年美女黄网站色视频大全免费 | 久久精品久久久久久噜噜老黄| 好男人视频免费观看在线| 涩涩av久久男人的天堂| 成人毛片a级毛片在线播放| 国产精品欧美亚洲77777| 在线免费观看不下载黄p国产| kizo精华| 精品一区二区免费观看| 精品一区二区三区视频在线| 一个人看视频在线观看www免费| 免费播放大片免费观看视频在线观看| 亚洲综合精品二区| 午夜免费观看性视频| 国产黄色免费在线视频| 欧美zozozo另类| 久久精品国产鲁丝片午夜精品| 精品熟女少妇av免费看| 91久久精品国产一区二区三区| 成年免费大片在线观看| 波野结衣二区三区在线| 国产欧美另类精品又又久久亚洲欧美| 久久精品国产亚洲网站| 波野结衣二区三区在线| 国产男人的电影天堂91| 国产无遮挡羞羞视频在线观看| 色综合色国产| 久久人人爽人人爽人人片va| 热re99久久精品国产66热6| 国产精品.久久久| 97超视频在线观看视频| 成年免费大片在线观看| 99视频精品全部免费 在线| 国产精品人妻久久久影院| 人妻少妇偷人精品九色| 色5月婷婷丁香| 视频区图区小说| 18禁裸乳无遮挡免费网站照片| 男人添女人高潮全过程视频| 中文欧美无线码| 国产免费视频播放在线视频| 成人一区二区视频在线观看| 久久精品国产自在天天线| 性色avwww在线观看| 久久精品熟女亚洲av麻豆精品| 国产亚洲5aaaaa淫片| 国产在视频线精品| 亚洲av中文字字幕乱码综合| 少妇丰满av| 高清欧美精品videossex| 小蜜桃在线观看免费完整版高清| 亚洲欧美成人综合另类久久久| 春色校园在线视频观看| 欧美日本视频| 日日撸夜夜添| 51国产日韩欧美| 在线精品无人区一区二区三 | 国产成人精品一,二区| 亚洲一区二区三区欧美精品| av国产久精品久网站免费入址| 日本欧美视频一区| 国产 一区精品| 一区二区三区免费毛片| 在线播放无遮挡| 少妇人妻 视频| 男人爽女人下面视频在线观看| 伦精品一区二区三区| 亚洲怡红院男人天堂| 国语对白做爰xxxⅹ性视频网站| 国产精品伦人一区二区| 深爱激情五月婷婷| videossex国产| 男人狂女人下面高潮的视频| 一级爰片在线观看| 亚洲,欧美,日韩| 天天躁夜夜躁狠狠久久av| 国产欧美另类精品又又久久亚洲欧美| 高清不卡的av网站| 久久精品国产亚洲网站| 成人一区二区视频在线观看| 插逼视频在线观看| 黄片无遮挡物在线观看| 精品久久久久久久久av| videossex国产| 中文字幕免费在线视频6| 欧美日本视频| 国产精品国产三级专区第一集| 亚洲国产欧美在线一区| 最后的刺客免费高清国语| 午夜福利影视在线免费观看| 免费在线观看成人毛片| 欧美3d第一页| 久久久a久久爽久久v久久| 网址你懂的国产日韩在线| 街头女战士在线观看网站| 自拍欧美九色日韩亚洲蝌蚪91 | 男女国产视频网站| 亚洲精品日本国产第一区| 国产日韩欧美亚洲二区| 国产在线视频一区二区| 亚洲真实伦在线观看| 九色成人免费人妻av| 日韩免费高清中文字幕av| 内地一区二区视频在线| 欧美人与善性xxx| 男女啪啪激烈高潮av片| 激情五月婷婷亚洲| 亚洲欧美一区二区三区国产| 日韩电影二区| 欧美精品一区二区大全| 国产成人a∨麻豆精品| 久久这里有精品视频免费| 视频区图区小说| 51国产日韩欧美| 国产精品一区二区在线观看99| 日本猛色少妇xxxxx猛交久久| 18禁动态无遮挡网站| 男女免费视频国产| 亚洲高清免费不卡视频| 久久精品国产亚洲av涩爱| 国产精品人妻久久久影院| 国产精品伦人一区二区| 纵有疾风起免费观看全集完整版| 王馨瑶露胸无遮挡在线观看| 一个人看视频在线观看www免费| 菩萨蛮人人尽说江南好唐韦庄| 日本一二三区视频观看| 国产成人a区在线观看| 精品熟女少妇av免费看| 亚洲国产欧美在线一区| 亚洲国产色片| 久久精品熟女亚洲av麻豆精品| 国产免费一级a男人的天堂| 97超视频在线观看视频| 欧美xxxx黑人xx丫x性爽| 久久久久久人妻| 日本黄色日本黄色录像| 国产黄色免费在线视频| 国产视频首页在线观看| 精品一区二区三区视频在线| 黄色欧美视频在线观看| 一个人看的www免费观看视频| 视频区图区小说| 六月丁香七月| 亚洲图色成人| h日本视频在线播放| 又大又黄又爽视频免费| 在线观看免费高清a一片| 直男gayav资源| 免费av不卡在线播放| 亚洲欧洲国产日韩| 国语对白做爰xxxⅹ性视频网站| 观看免费一级毛片| .国产精品久久| 3wmmmm亚洲av在线观看| 欧美性感艳星| 男人狂女人下面高潮的视频| 久久精品国产亚洲av涩爱| 日本色播在线视频| 天堂8中文在线网| 国产精品久久久久久精品古装| 亚洲国产精品999| 亚洲欧美精品专区久久| 久久久久久久精品精品| 国产一级毛片在线| 内射极品少妇av片p| 街头女战士在线观看网站| 日本爱情动作片www.在线观看| 国产91av在线免费观看| 美女脱内裤让男人舔精品视频| xxx大片免费视频| 水蜜桃什么品种好| 国产成人精品一,二区| 老熟女久久久| 国产一区有黄有色的免费视频| 国产av码专区亚洲av| 少妇的逼好多水| 18禁裸乳无遮挡免费网站照片| 精品一品国产午夜福利视频| 少妇被粗大猛烈的视频| 国产真实伦视频高清在线观看| 日日撸夜夜添| 国产69精品久久久久777片| 波野结衣二区三区在线| 97在线视频观看| 国产精品蜜桃在线观看| 夜夜看夜夜爽夜夜摸| 日韩强制内射视频| 亚洲不卡免费看| 国产免费一级a男人的天堂| 深爱激情五月婷婷| 国产成人精品一,二区| 日本av免费视频播放| 最近手机中文字幕大全| 久久毛片免费看一区二区三区| 少妇被粗大猛烈的视频| 99久国产av精品国产电影| 国产伦理片在线播放av一区| 七月丁香在线播放| 免费看av在线观看网站| 欧美xxⅹ黑人| 久久人人爽av亚洲精品天堂 | 国产男女超爽视频在线观看| 啦啦啦在线观看免费高清www| 51国产日韩欧美| 国产成人精品福利久久| 十分钟在线观看高清视频www | 搡老乐熟女国产| 亚洲美女搞黄在线观看| 日韩人妻高清精品专区| 一二三四中文在线观看免费高清| 免费人成在线观看视频色| 欧美日韩精品成人综合77777| 日本一二三区视频观看| 国产在线免费精品| 亚洲精品国产成人久久av| 丝袜喷水一区| 日本av免费视频播放| 水蜜桃什么品种好| 国产av码专区亚洲av| 一级毛片久久久久久久久女| 欧美一级a爱片免费观看看| 精品国产三级普通话版| 国产中年淑女户外野战色| 国产精品久久久久久久电影| 亚洲,一卡二卡三卡| 99热这里只有是精品50| 深夜a级毛片| 亚洲欧美清纯卡通| 亚洲欧美成人精品一区二区| 亚洲国产精品专区欧美| 人妻系列 视频| 亚洲欧美精品自产自拍| 欧美日韩视频高清一区二区三区二| 亚洲av在线观看美女高潮| 成年美女黄网站色视频大全免费 | 免费人成在线观看视频色| 日韩人妻高清精品专区| 啦啦啦中文免费视频观看日本| 少妇精品久久久久久久| 日日啪夜夜撸| 天天躁日日操中文字幕| 久久精品熟女亚洲av麻豆精品| 男女啪啪激烈高潮av片| 亚洲欧洲日产国产| 天堂俺去俺来也www色官网| 免费大片黄手机在线观看| 久久精品久久久久久噜噜老黄| 王馨瑶露胸无遮挡在线观看| 免费黄频网站在线观看国产| 日韩av不卡免费在线播放| 久久青草综合色| 又黄又爽又刺激的免费视频.| 2022亚洲国产成人精品| 亚洲婷婷狠狠爱综合网| 国产欧美日韩精品一区二区| 国产一区二区三区av在线| 精品久久久久久久末码| 秋霞伦理黄片| 免费观看a级毛片全部| 美女cb高潮喷水在线观看| 又黄又爽又刺激的免费视频.| 2022亚洲国产成人精品| 王馨瑶露胸无遮挡在线观看| 91精品一卡2卡3卡4卡| 26uuu在线亚洲综合色| 亚洲四区av| 国产精品不卡视频一区二区| 免费人妻精品一区二区三区视频| 91在线精品国自产拍蜜月| 99热这里只有精品一区| 日韩av不卡免费在线播放| 超碰av人人做人人爽久久| 国产深夜福利视频在线观看| 欧美日韩综合久久久久久| 国产精品人妻久久久影院| 亚洲av综合色区一区| 肉色欧美久久久久久久蜜桃| 丰满迷人的少妇在线观看| 久久久久久久国产电影| 日韩欧美 国产精品| 欧美zozozo另类| 蜜桃久久精品国产亚洲av| 99精国产麻豆久久婷婷| 观看美女的网站| 欧美极品一区二区三区四区| 黄色配什么色好看| 草草在线视频免费看| 精品久久久精品久久久| 国产精品麻豆人妻色哟哟久久| 久久人妻熟女aⅴ| xxx大片免费视频| 人妻少妇偷人精品九色| 蜜桃在线观看..| 欧美日韩视频精品一区| 91久久精品国产一区二区成人| 亚洲av在线观看美女高潮| 日本免费在线观看一区| 一边亲一边摸免费视频| 精品人妻熟女av久视频| 91精品一卡2卡3卡4卡| 亚洲欧美日韩无卡精品| 女人十人毛片免费观看3o分钟| 国产在线一区二区三区精| 亚洲第一区二区三区不卡| 国产男人的电影天堂91| 久热久热在线精品观看| 人妻夜夜爽99麻豆av| 97热精品久久久久久| 蜜桃在线观看..| 深夜a级毛片| 欧美xxxx性猛交bbbb| 免费观看在线日韩| 午夜福利视频精品| 国产欧美日韩精品一区二区| 我要看日韩黄色一级片| 99热这里只有精品一区| 国产一区二区三区av在线| 国产人妻一区二区三区在| 久久人妻熟女aⅴ| 久久 成人 亚洲| 色5月婷婷丁香| 有码 亚洲区| 最近最新中文字幕大全电影3| 搡女人真爽免费视频火全软件| 麻豆精品久久久久久蜜桃| 91久久精品电影网| 六月丁香七月| 岛国毛片在线播放| 夫妻午夜视频| 中文字幕久久专区| 各种免费的搞黄视频| 国产乱人偷精品视频| 99热国产这里只有精品6| 超碰97精品在线观看| 婷婷色麻豆天堂久久| 久久久久网色| 亚洲电影在线观看av| 天天躁日日操中文字幕| 大香蕉久久网| 国产黄片视频在线免费观看| 日日摸夜夜添夜夜添av毛片| 欧美国产精品一级二级三级 | 日韩欧美一区视频在线观看 | 一级毛片久久久久久久久女| 人人妻人人看人人澡| 中文精品一卡2卡3卡4更新| 亚洲精品乱码久久久v下载方式| 少妇人妻一区二区三区视频| 色视频www国产| 亚洲精品亚洲一区二区| 青春草国产在线视频| 免费av不卡在线播放| 亚洲婷婷狠狠爱综合网| 不卡视频在线观看欧美| 久久ye,这里只有精品| 久久这里有精品视频免费| 国产亚洲欧美精品永久| 亚洲av成人精品一区久久| 亚洲美女视频黄频| 香蕉精品网在线| 国产黄色免费在线视频| 免费观看的影片在线观看| 亚洲最大成人中文| 一级二级三级毛片免费看| 一级毛片 在线播放| 九九久久精品国产亚洲av麻豆| 成人影院久久| h视频一区二区三区| 爱豆传媒免费全集在线观看| 午夜老司机福利剧场| 久久女婷五月综合色啪小说| 国产免费一区二区三区四区乱码| 人妻制服诱惑在线中文字幕| 久久 成人 亚洲| 久久鲁丝午夜福利片| 久久影院123| 亚洲精华国产精华液的使用体验| 国产黄片视频在线免费观看| 五月开心婷婷网| 日韩欧美精品免费久久| 制服丝袜香蕉在线| 久久久久性生活片| 婷婷色综合大香蕉| 亚洲不卡免费看| 日韩大片免费观看网站| 日本欧美视频一区| 久久ye,这里只有精品| 久久久久久久久久成人| av国产精品久久久久影院| av天堂中文字幕网| 一本一本综合久久| 亚洲精品日韩在线中文字幕| 美女视频免费永久观看网站| 国产成人免费观看mmmm| 国产在线男女| 亚洲欧美日韩卡通动漫| 亚洲国产高清在线一区二区三| 51国产日韩欧美| 欧美日韩视频精品一区| av黄色大香蕉| 亚洲国产欧美人成| 国产成人freesex在线| 免费观看性生交大片5| 国产av码专区亚洲av| 男人爽女人下面视频在线观看| 自拍偷自拍亚洲精品老妇| 中文字幕免费在线视频6| 99热网站在线观看| av视频免费观看在线观看| 免费观看性生交大片5| 欧美三级亚洲精品| 免费在线观看成人毛片| 亚洲欧美成人综合另类久久久| 在线观看一区二区三区激情| 美女xxoo啪啪120秒动态图| 看十八女毛片水多多多| 麻豆成人午夜福利视频| 国产一区二区三区av在线| 国产乱人偷精品视频| 男女边吃奶边做爰视频| 久久久久国产网址| 在线 av 中文字幕| 国产 一区精品| av在线app专区| 男女边吃奶边做爰视频| 国产精品.久久久| 一本一本综合久久| 一区在线观看完整版| 亚洲av成人精品一区久久| 亚洲av电影在线观看一区二区三区| 国产精品.久久久| 下体分泌物呈黄色| 美女主播在线视频| 免费少妇av软件| 一级毛片久久久久久久久女| 国产熟女欧美一区二区| 久久人人爽人人片av| 亚洲怡红院男人天堂| 黄色欧美视频在线观看| 免费观看性生交大片5| 亚洲av日韩在线播放| 亚洲av综合色区一区| 一本色道久久久久久精品综合| 91精品一卡2卡3卡4卡| 亚洲婷婷狠狠爱综合网| 天天躁夜夜躁狠狠久久av| 国产欧美日韩一区二区三区在线 | 国产av码专区亚洲av| 人妻系列 视频| 日韩中字成人| 亚洲不卡免费看| 十分钟在线观看高清视频www | 夫妻午夜视频| 亚洲欧美日韩东京热| 久久久久网色| 看非洲黑人一级黄片| 美女中出高潮动态图| av国产精品久久久久影院| 纵有疾风起免费观看全集完整版| 极品教师在线视频| 777米奇影视久久| 一个人看视频在线观看www免费| 能在线免费看毛片的网站| 婷婷色麻豆天堂久久| 国产大屁股一区二区在线视频| 激情 狠狠 欧美| 久久久久久久久久人人人人人人| 亚洲综合精品二区| 国产精品偷伦视频观看了| 又黄又爽又刺激的免费视频.| 一级二级三级毛片免费看| 夜夜看夜夜爽夜夜摸| 亚洲成人一二三区av| 久久人人爽人人爽人人片va| 岛国毛片在线播放| 国产美女午夜福利| 精品一区二区免费观看| 80岁老熟妇乱子伦牲交| 好男人视频免费观看在线| 午夜福利在线在线| 久久久a久久爽久久v久久| 人人妻人人添人人爽欧美一区卜 | 国产精品一区二区在线不卡| 色网站视频免费| 99热全是精品| 亚州av有码| 亚洲国产日韩一区二区| 国产淫片久久久久久久久| 婷婷色综合大香蕉| 赤兔流量卡办理| 欧美日韩国产mv在线观看视频 | 精品亚洲成a人片在线观看 | 日本-黄色视频高清免费观看| 国产精品一二三区在线看| 亚洲精品色激情综合| 人妻制服诱惑在线中文字幕| 欧美xxxx性猛交bbbb| 精品久久久久久电影网| 亚洲国产精品999| 在现免费观看毛片| 最黄视频免费看| 人妻 亚洲 视频| 欧美成人一区二区免费高清观看| 国产午夜精品久久久久久一区二区三区| 久久久久久久亚洲中文字幕| 亚洲色图综合在线观看| 久久久亚洲精品成人影院| 国产日韩欧美亚洲二区| 国产综合精华液| 纵有疾风起免费观看全集完整版| 直男gayav资源|