• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于復(fù)值損失函數(shù)的并行MRI的深度重建

    2022-02-03 03:00:44黃進(jìn)紅周根嬌喻澤峰胡文玉
    關(guān)鍵詞:幅值線圈損失

    黃進(jìn)紅,周根嬌,喻澤峰,胡文玉

    贛南師范大學(xué)數(shù)學(xué)與計算機(jī)科學(xué)學(xué)院//江西省數(shù)值模擬與仿真技術(shù)重點(diǎn)實(shí)驗室//贛州市計算成像重點(diǎn)實(shí)驗室,江西 贛州 341000

    MRI是斷層成像的一種,它利用磁共振現(xiàn)象從人體中獲得電磁信號,并重建出人體信息,它的主要缺點(diǎn)是數(shù)據(jù)采集速度相對較慢。為了解決該問題,研究人員先后嘗試了硬件加速、并行成像(pMRI)[1,2]、壓縮感知(CS)[3]等方法。卷積神經(jīng)網(wǎng)絡(luò)(CNN)已被證明可以為MRI 重建提供快速且穩(wěn)健的解決方案,很多深度學(xué)習(xí)模型都包含了CNN模塊[4-6]。除了利用CNN網(wǎng)絡(luò)進(jìn)行MRI重建,也有作者使用多層感知器網(wǎng)絡(luò)[7]、編碼-解碼網(wǎng)絡(luò)[8]、生成對抗網(wǎng)絡(luò)(GAN)[9]、遞歸神經(jīng)網(wǎng)絡(luò)[10]等。以上都是基于常規(guī)神經(jīng)網(wǎng)絡(luò)模塊構(gòu)造的MRI重建模型,這是一種數(shù)據(jù)驅(qū)動的端到端的深度學(xué)習(xí)重建方法。還有一類稱為是基于算法展開(指CS中的相關(guān)算法)的深度學(xué)習(xí)模型,它將傳統(tǒng)的求解CS模型過程中每一步迭代轉(zhuǎn)換為神經(jīng)網(wǎng)絡(luò)的一個層,根據(jù)使用的算法不同構(gòu)造不同的深度重建模型,如將ADMM 算法展開得到的ADMM-Net 模型[11],以及將ISTA 算法展開而得到的ISTA-Net模型[12]。

    上述大多數(shù)深度重建方法將復(fù)值MRI數(shù)據(jù)視為2-通道數(shù)據(jù)(單線圈)或2c-通道數(shù)據(jù)(多線圈,其中c表示線圈的數(shù)量),從而將數(shù)據(jù)的實(shí)部和虛部分開訓(xùn)練。這種表示方法沒有考慮實(shí)部和虛部之間的數(shù)據(jù)相關(guān)性,會造成一些相位信息的丟失,從而降低重建精度。針對復(fù)值數(shù)據(jù),Trabelsi等[13]于2017年提出了專門處理復(fù)數(shù)的深度網(wǎng)絡(luò)并應(yīng)用于計算機(jī)視覺領(lǐng)域,取得了較好的定量和定性結(jié)果。在MRI重建領(lǐng)域,借助于復(fù)梯度計算方法[14],一種新的適用于復(fù)數(shù)數(shù)據(jù)的激活函數(shù)[15],取得了較好的結(jié)果。其它MRI應(yīng)用中的初步研究結(jié)果[16-19]也表明了復(fù)值神經(jīng)網(wǎng)絡(luò)的優(yōu)勢。對于并行磁共振成像領(lǐng)域,利用復(fù)卷積運(yùn)算,提出了一種具有復(fù)值輸入輸出的殘差卷積神經(jīng)網(wǎng)絡(luò),用于并行MRI重建,并取得相比于實(shí)數(shù)卷積網(wǎng)絡(luò)更好的定量結(jié)果,但該方法僅在卷積運(yùn)算中將相應(yīng)的實(shí)值運(yùn)算推廣到了復(fù)數(shù)領(lǐng)域[20]。實(shí)際上,復(fù)數(shù)域上的激活函數(shù)也引起了部分研究人員的注意?;谏疃葘W(xué)習(xí)的MRI重建方法時,不僅利用了復(fù)卷積運(yùn)算,還比較了多個適用于復(fù)數(shù)數(shù)據(jù)的激活函數(shù)對重建精度的影響[21]。

    盡管基于復(fù)卷積運(yùn)算、復(fù)激活函數(shù)的深度重建模型避免了實(shí)部和虛部分開訓(xùn)練,提高了重建精度,但損失函數(shù)仍采用均方誤差(MSE)或平均絕對值誤差(MAE),本質(zhì)上還是對實(shí)部和虛部進(jìn)行了分離。因此,如何設(shè)計一種適用于復(fù)數(shù)的損失函數(shù)是一個值得進(jìn)一步討論的問題。一方面,對于并行磁共振成像的重建問題,由于涉及多線圈數(shù)據(jù),已有方法或者在訓(xùn)練前,或者在訓(xùn)練后,通過“平方和”方法將多線性圈數(shù)據(jù)合并成單線圈數(shù)據(jù)。前者在訓(xùn)練前已經(jīng)丟失相位信息,無法直接利用已采樣的多線圈K空間數(shù)據(jù),只適合于常規(guī)神經(jīng)網(wǎng)絡(luò)模塊構(gòu)造的深度重建網(wǎng)絡(luò),重建精度相對更低;而后者的網(wǎng)絡(luò)輸出結(jié)果是多線圈數(shù)據(jù),要得到最終的圖像還需進(jìn)行合并運(yùn)算,而且這種方法在訓(xùn)練時損失函數(shù)是基于多線圈數(shù)據(jù)計算的,這跟最終需要的合并數(shù)據(jù)之間的損失函數(shù)值并不完全一致。實(shí)際上,訓(xùn)練后再合并的方法會導(dǎo)致訓(xùn)練時顯示的峰值信噪比(PSNR)較高,而合并后PSNR值明顯降低,這是因為合并前是多線圈數(shù)據(jù),比合并后的單線圈數(shù)據(jù)在數(shù)量上多了c倍(c表示線圈數(shù)量),因此均方誤差值有所降低,導(dǎo)致PSNR值增大。另一方面,已有方法在訓(xùn)練時使用的損失函數(shù)一般是MSE或MAE,前者是誤差平方和的平均數(shù),而后者是誤差絕對值的平均數(shù)。從統(tǒng)計學(xué)角度,這需要以樣本間的相互獨(dú)立性為前提。對于并行磁共振數(shù)據(jù),由于不同線圈之間數(shù)據(jù)噪聲并不完全獨(dú)立,利用MSE或MAE作為損失函數(shù)會使估計出的系數(shù)產(chǎn)生一定的偏差,導(dǎo)致重建精度有所降低。

    基于以上分析,本文提出了基于一種基于復(fù)值損失函數(shù)的并行磁共振深度重建方法,它相當(dāng)于在傳統(tǒng)網(wǎng)絡(luò)的基礎(chǔ)上增加了一層數(shù)據(jù)合并層,將多線圈數(shù)據(jù)合并成單線圈數(shù)據(jù),并以合并后的單線圈數(shù)據(jù)計算損失函數(shù)值。該方法既可以充分利用已采樣的多線圈K空間數(shù)據(jù),又是基于最終需要的合并數(shù)據(jù)計算損失函數(shù),體現(xiàn)了“端到端”的網(wǎng)絡(luò)設(shè)計。實(shí)驗表明該方法在定性和定量方面都優(yōu)于已有的類似方法。

    1 方法

    1.1 已有復(fù)值神經(jīng)網(wǎng)絡(luò)的運(yùn)算模塊

    已有的復(fù)值神經(jīng)網(wǎng)絡(luò)主要包括兩個區(qū)別于實(shí)值神經(jīng)網(wǎng)絡(luò)的運(yùn)算模塊:復(fù)值卷積運(yùn)算和復(fù)值激活函數(shù)。

    由于并行磁共振圖像的自然數(shù)據(jù)格式是復(fù)數(shù),傳統(tǒng)方法將其實(shí)部和虛部分開作實(shí)卷積運(yùn)算(圖1A)。這種方式?jīng)]有考慮實(shí)部數(shù)據(jù)和虛部之間的耦合性,所以文獻(xiàn)[13]中提出利用復(fù)卷積運(yùn)算(圖1B)替代這種運(yùn)算,復(fù)卷積運(yùn)算在后面的很多文獻(xiàn)[16-17,21]中也被采納。用矩陣符號表示,設(shè)復(fù)數(shù)磁共振圖像用X表示,卷積核為W,它們的實(shí)部分別為Re{X}、Re{W},虛部分別為Im{X}、Im{W},由于卷積運(yùn)算具有分布律,故可得:

    圖1 對多通道復(fù)值圖像的實(shí)部和虛部分別作實(shí)卷積運(yùn)算及整體作復(fù)卷積運(yùn)算的區(qū)別Fig.1 Depiction of real-valued convolution and complex-valued convolution for multichannel complex-valued MR images.A:Convolution operation applied on real and imaginary parts independently.B:Complex convolution.

    對于卷積核的初始化問題,由于在深度MRI重建中一般較少使用批量歸一化(Batch normalization),在這種情況下,卷積核這個待訓(xùn)練參數(shù)的初始化對克服梯度消失和梯度爆炸問題顯得尤為重要[13]。為此我們采用文獻(xiàn)[13]中提出的方法,將復(fù)卷積核W的初始化分成兩步:首先假設(shè)W的實(shí)部和虛部是獨(dú)立同分布具有零均值的高斯分布,利用瑞利分布(Rayleigh distribution)對其幅值|W|作初始化;然后利用[-π,π]上的均勻分布初始化W的相位θ,從而得到:

    上述瑞利分布中標(biāo)準(zhǔn)差的設(shè)定與激活函數(shù)有關(guān)。若激活函數(shù)選擇ReLU函數(shù),一般選擇He 初始化規(guī)則[22],即σ=,其中nin表示MRI圖像的通道數(shù),即并行MRI中線圈的個數(shù)。

    對于激活函數(shù),在實(shí)值深度神經(jīng)網(wǎng)絡(luò)中最常用的是ReLU函數(shù),其定義為:

    在ReLU函數(shù)基礎(chǔ)上進(jìn)行推廣,使之適合于復(fù)值數(shù)據(jù),產(chǎn)生了4 種激活函數(shù):?ReLU[13]、zReLU[23]、mod ReLU[24]以及心形函數(shù)[15]。?ReLU是ReLU的最直接推廣,它直接對復(fù)數(shù)的實(shí)部和虛部作ReLU運(yùn)算,即:

    ?ReLU僅在復(fù)平面的第一象限和第三象限上滿足柯西-黎曼方程(即為解析函數(shù))。與之類似的是zReLU函數(shù),它在第一象限的值不變,其它象限的值為0,并且它在除了實(shí)軸正半部分和虛軸正半部分外的復(fù)平面上都解析,其定義為:

    其中θx表示輸入變量x的相位。

    modReLU中包含了一個可訓(xùn)練的參數(shù)b,其定義為:

    經(jīng)訓(xùn)練后,b值一般為負(fù)值。這個結(jié)果導(dǎo)致該函數(shù)的函數(shù)值除了在原點(diǎn)處為0外,在一個以圓點(diǎn)為圓心、以|b|的半徑的圓形區(qū)域內(nèi)也為0;而在該區(qū)域外保持相位不變,但幅值增加減少-b。modReLU在整個復(fù)平面上都不解析,為了得到一個解析的激活函數(shù),Virtue等[15]提出一個心形激活函數(shù),并用于MRI“指紋成像”中。該函數(shù)保持相位不變,但幅值按一定比例縮小,其定義為:

    1.2 復(fù)值損失函數(shù)的構(gòu)造

    對于實(shí)值圖像,常用的損失函數(shù)是MSE或MAE。當(dāng)我們把復(fù)值圖像的實(shí)部和虛部串聯(lián)在一起,從而把它看成是實(shí)值數(shù)據(jù)時,已有方法大多選擇MSE作為深度學(xué)習(xí)的損失函數(shù)。令訓(xùn)練樣本的參考圖像為X1,X2,…,XN,其中N表示訓(xùn)練樣本個數(shù),通過深度學(xué)習(xí)網(wǎng)絡(luò)得到的圖像為,它們是在已經(jīng)網(wǎng)絡(luò)系數(shù)Θ 的前提下,通過網(wǎng)絡(luò)前向算法得到。為了更新系數(shù)Θ,傳統(tǒng)方法在訓(xùn)練過程中最小化下面的MSE損失函數(shù):

    其中‖· ‖F(xiàn)表示矩陣的F范數(shù),即所有元素的平方和的算術(shù)平方根。式(8)即為基于MSE的實(shí)部和虛部分開計算的損失函數(shù)。

    從統(tǒng)計學(xué)角度看,選擇(8)式為損失函數(shù)的默認(rèn)前提是實(shí)部和虛部上的噪聲是相互獨(dú)立的,相同位置不同線圈上的噪聲也是獨(dú)立同分布的,前都一般認(rèn)為是成立的,但后者不太符合并行MRI圖像的實(shí)際情況。并行MRI圖像在同一像素點(diǎn)上不同線圈的原始信號所帶噪聲是相近的,不能認(rèn)為相互獨(dú)立。同時考慮到我們要重建的是一個幅值圖像及相位信息,因此,可以先將多線圈數(shù)據(jù)按照某種方法合并成單線圈數(shù)據(jù)(一般采用SOS法,即不同線圈幅值的平方和再開方,但這種方法會丟失相位信息),并將式(8)中求和的兩部分分別換成幅值和相位,即:

    其中|·|表示對矩陣逐元素求模得到的幅值矩陣,θX表示對矩陣逐元素求相位角得到的相位矩陣,參數(shù)λ用于平衡幅值方差和相位方差數(shù)量級之間的差距。另外,參數(shù)λ還可用于調(diào)節(jié)具體應(yīng)用中幅值和相位重要性之間的差別,比如在MRI重建中,若只需圖像的幅值信息,可設(shè)λ=0。在采用SOS法進(jìn)行合并時,由于此時已經(jīng)丟棄了相位信息,也需設(shè)置λ=0。式(9)即為本文提出的由幅值和相位均方誤差構(gòu)成的復(fù)值損失函數(shù)。

    1.3 基于復(fù)值損失函數(shù)的深度重建模型

    本文利用上述幾個基本的神經(jīng)網(wǎng)絡(luò)模塊,構(gòu)建一種級聯(lián)的卷積神經(jīng)網(wǎng)絡(luò)[6,20]。如圖2A所示,網(wǎng)絡(luò)主要由卷積模塊(CNN)(圖2B)、數(shù)據(jù)一致層(DC)(圖2C)以交替方式串聯(lián)而成,稱之為DCCNN網(wǎng)絡(luò)。首先,將欠采樣的K空間數(shù)據(jù)直接做補(bǔ)零重建,得到具有混疊偽影的圖像,并將其作為網(wǎng)絡(luò)的輸入;然后,將其循環(huán)往復(fù)多次通過卷積子塊和數(shù)據(jù)一致層,最終得到重建圖像。

    圖2 級聯(lián)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖Fig.2 Architecture of the deep cascading CNN.A:The overall design of the network.B:A CNN subnetwork.C:A DC layer of the network.

    如圖2A所示,網(wǎng)絡(luò)由nc個模塊以串聯(lián)的方式構(gòu)成,每個模塊由一個卷積子塊(含nd個卷積層)和一個數(shù)據(jù)一致層構(gòu)成。卷積子塊實(shí)際上是一個殘差網(wǎng)絡(luò),學(xué)習(xí)圖像的殘差特征,因此具有一定的去偽影和去噪的功能。卷積子塊的輸出記為xcnn,它等于該子塊的輸入與學(xué)習(xí)得到的殘差這兩項數(shù)據(jù)之和。隨后連同原始的欠采樣K空間數(shù)據(jù)一同輸入DC層,其輸出xrec等價于求解下面的最小二乘問題:

    此時我們將待重建圖像看成是一個向量x,它在欠采樣算子Fu的作用下得到部分K空間數(shù)據(jù)Fux,它要求盡量靠近原始欠采樣數(shù)據(jù)y0,這由(10)式第一項保證,因此這一項又稱為保真項;同時x還不能與上一步CNN子網(wǎng)絡(luò)得到的xcnn偏離太大,因此需要(10)式的第二項來保證,這一項稱為正則化項或先驗項(把網(wǎng)絡(luò)得到的結(jié)果看成先驗信息);保真項和正則化項的重要程度通過參數(shù)μ來平衡。參數(shù)μ一般根據(jù)經(jīng)驗取值,在深度學(xué)習(xí)的框架下,它也可以看作一個待學(xué)習(xí)的參數(shù),這也是本文的處理方式。

    問題(10)雖然是最小二乘問題,但由于像素點(diǎn)多,導(dǎo)致x的維數(shù)太大,直接求解不太現(xiàn)實(shí)。實(shí)際上,根據(jù)Fourier變換的性質(zhì),問題(10)有一個簡單的閉合形式解[6]。令x、xcnn的離散Fourier變換結(jié)果分別為y0、ycnn,最優(yōu)解xrec的離散Fourier變換結(jié)果為y,則有:

    其中S表示采樣點(diǎn)位置集合,k表示一個二維采點(diǎn)。求出y后,只需將其作Fourier逆變換即可得DC層的輸出xrec,由此便可得到DC層的運(yùn)算過程,如圖2C所示。

    1.4 實(shí)驗數(shù)據(jù)與采樣模式

    很多公共數(shù)據(jù)集提供的是實(shí)值MRI圖像,通過對實(shí)值圖像進(jìn)行Fourier變換得到仿真K空間數(shù)據(jù),這樣得到的數(shù)據(jù)集不太符合實(shí)際。因此,本文采用公共數(shù)據(jù)庫FastMRI[25]來進(jìn)行相關(guān)實(shí)驗,它提供了未經(jīng)處理的全采樣K空間復(fù)值數(shù)據(jù)。FastMRI包含兩種類型的MRI數(shù)據(jù):腦部磁共振圖像(Brain MRIs)和膝蓋磁共振圖像(Knee MRIs)。

    Brain MRIs使用包括3T Prisma和1.5T Avanto在內(nèi)的11種磁共振機(jī)型獲取了5個臨床位置的腦部MR圖像,并分成了訓(xùn)練、驗證、測試3個數(shù)據(jù)集。每組MR圖像數(shù)據(jù)是一個多切片、多線圈的四維數(shù)組,其中第1維大小表示切片數(shù)量(從10到16不等),第2維大小表示線圈個數(shù)(從4到20不等),后面兩維是圖像的空間尺寸,介于640×320及768×396之間。本文收集訓(xùn)練及測試數(shù)據(jù)時,選取線圈數(shù)量為16的數(shù)據(jù),對每組這樣的數(shù)據(jù)抽取中間4個切片,并將圖像統(tǒng)一裁剪為320×320,這樣每個訓(xùn)練數(shù)據(jù)的維度尺寸為:(16,320,320)。本文實(shí)驗中一共收集了3334幅這樣的16通道圖像構(gòu)成訓(xùn)練數(shù)據(jù)集,531幅構(gòu)成驗證數(shù)據(jù)集,120幅構(gòu)成測試數(shù)據(jù)集。Brain MRIs中的示例圖像如圖3A所示。

    Knee MRIs中的數(shù)據(jù)在3個臨床3T系統(tǒng)(Siemens Magnetom Skyra、Prisma和Biograph mMR)或1個臨床1.5T系統(tǒng)(Siemens Magnetom Aera)中采集,數(shù)據(jù)采集使用15通道膝關(guān)節(jié)線圈陣列和紐約大學(xué)醫(yī)學(xué)院臨床使用的傳統(tǒng)笛卡爾2D TSE協(xié)議。該數(shù)據(jù)集的數(shù)據(jù)來自兩個脈沖序列,分別產(chǎn)生帶脂肪抑制和不帶脂肪抑制的冠狀質(zhì)子密度加權(quán)圖像。數(shù)據(jù)采集使用以下序列參數(shù):回波序列長度4,矩陣大小320×320,平面內(nèi)分辨率0.5 mm×0.5 mm,切片厚度3 mm,切片之間沒有間隙。不同系統(tǒng)有不同的重復(fù)時間(TR)和回波時間(TE),重復(fù)時間2200~3000 ms,回波時間27~34 ms。本文實(shí)驗中使用的膝蓋磁共振圖像維數(shù)尺寸為(15,320,320),訓(xùn)練數(shù)據(jù)集、驗證數(shù)據(jù)集、測試數(shù)據(jù)集中分別包括2519、506、117個樣本。Knee MRIs中的示例圖像如圖3B所示。

    本文大部分分實(shí)驗采用現(xiàn)代商業(yè)MRI系統(tǒng)中的等距采樣模式,相位編碼方向為水平方向,欠采樣僅在相位編碼方向上進(jìn)行??臻g采樣點(diǎn)的位置用一個320×320的mask矩陣來表示,同一組數(shù)據(jù)不同切面采用相同的mask矩陣。利用mask矩陣從全采樣數(shù)據(jù)中回溯性地掩蓋k空間線來執(zhí)行欠采樣操作。利用等距采樣模式的所有實(shí)驗均采用4倍加速,即每隔3條相位編碼線進(jìn)行一次采樣,填充矩陣的一列;同時,中間設(shè)置24條自校準(zhǔn)線,以便應(yīng)用一些并行成像方法。實(shí)驗中所用的mask矩陣如圖3C所示。

    圖3 FastMRI中示例圖片及4倍欠采樣等間隔mask矩陣Fig.3 Representative images in FastMRI and equispaced mask with 4-fold acceleration.A:A brain image taken from the FastMRI dataset.B: A knee image taken from the FastMRI dataset.C: An equispaced mask with an acceleration factor of 4.

    1.5 評價標(biāo)準(zhǔn)及網(wǎng)絡(luò)超參數(shù)設(shè)定

    本文使用峰值信噪比(PSNR)和結(jié)構(gòu)相似指數(shù)(SSIM)[26]來度量網(wǎng)絡(luò)重建圖像與全采樣重建圖像(即參考圖像)之間的區(qū)別。PSNR 是圖像質(zhì)量評價中常用的度量方法之一,其定義為:,其中Xref表示參考圖像,X是待評估圖像,MSE是它們之間的均方誤差。SSIM根據(jù)人類視覺特征評估圖像保真度,計算結(jié)果位于0和1之間,數(shù)值越大,重建結(jié)果越好。需要說明的是,本文方法得到的圖像其背景部分誤差非常小,而其它方法誤差相對更大。但是背景區(qū)域沒有任何圖像信息,其誤差沒有參考價值。為公平起見,本文所有定量結(jié)果僅針對前景區(qū)域,即去除了背景區(qū)域后再計算PSNR值和SSIM值。

    在DCCNN 網(wǎng)絡(luò)中,我們將其規(guī)模設(shè)定為:nc=5,nd=5,即一共使用5個CNN子模塊串聯(lián)而成,每個CNN子模塊包含5個二維卷積層,后面緊跟著一個數(shù)據(jù)一致層。每個卷積層中卷積核數(shù)量均設(shè)為32(其參數(shù)數(shù)量相當(dāng)于64個卷積核的實(shí)值卷積層),卷積核為3×3,滑動窗步長為1,每個CNN子模塊中除最后一個卷積層外,都使用由式(4)-(7)定義的某個復(fù)值激活函數(shù),最后一層不設(shè)置激活函數(shù)。每個CNN子模塊后緊跟一個數(shù)據(jù)一致層,該層中有一個待學(xué)習(xí)的參數(shù)μ(見式(10)),其初始值設(shè)為200。另外,激活函數(shù)ModReLU中也有一個待學(xué)習(xí)參數(shù)b(見式(6)),其初始值設(shè)為0。

    網(wǎng)絡(luò)訓(xùn)練過程中使用的優(yōu)化器選擇為Adam,其參數(shù)為:β1=0.9,β2=0.99,初始學(xué)習(xí)率設(shè)為0.001,損失函數(shù)采用本文中式(9)的形式。由于本文實(shí)驗只涉及圖像重建,不涉及與相位相關(guān)的應(yīng)用,因此式(9)中的λ設(shè)為0,即僅以幅值的MSE作為損失函數(shù)。訓(xùn)練過程采用小批量訓(xùn)練策略,批量大小為6,最大訓(xùn)練次數(shù)設(shè)為200,但引入“提前結(jié)束”機(jī)制,當(dāng)網(wǎng)絡(luò)在驗證集上的表現(xiàn)在近15次內(nèi)都沒有提升時結(jié)束訓(xùn)練。整個訓(xùn)練過程和測試過程均在TensorFlow 2.4平臺下完成,設(shè)備操作系統(tǒng)版本為CentOS Linux release 7.4.1708(Core),配備12核Intel(R)Xeon(R)Gold 5118 CPU、128 G內(nèi)存及2塊16GB NVIDIAQuadro P5000 GPU。

    2 結(jié)果

    2.1 不同復(fù)值激活函數(shù)的實(shí)驗結(jié)果

    表1給出了4個不同激活函數(shù)分別在腦部數(shù)據(jù)和膝部數(shù)據(jù)下的性能表現(xiàn),表中給出了以不同激活函數(shù)訓(xùn)練網(wǎng)絡(luò)后,對測試數(shù)據(jù)集進(jìn)行重建得到的數(shù)值均值及方差。從表1中可以看出,modReLU在兩個測試集上的數(shù)值結(jié)果都是最優(yōu)的,其次是cardioid和CReLU,而zReLU表現(xiàn)最差,幾乎與直接補(bǔ)零重建的結(jié)果相同。除去zReLU的相關(guān)結(jié)果,最好的modReLU的結(jié)果比最差的CReLU其PSNR值一般高出2 dB左右,SSIM值略高0.01~0.05。由于modReLU的良好表現(xiàn),后續(xù)實(shí)驗中我們將不加說明地一直使用該激活函數(shù)。

    表1 不同復(fù)值激活函數(shù)的性能比較Table 1 Performance comparison of different complex-valued activation functions

    2.2 復(fù)值損失函數(shù)實(shí)驗結(jié)果

    為評價本文提出的復(fù)值損失函數(shù)對提高重建精度的作用,我們選擇3 種性能較好的類似方進(jìn)行比較:SPIRiT、使用平均絕對值誤差作為損失函數(shù)的DCCNN(記為L1-DCCNN)、使用均方誤差作為損失函數(shù)的DCCNN(記為L2-DCCNN),本文的方法記為Mag_DCCNN。圖4給出了4種方法對于120組腦部數(shù)據(jù)的定量重建結(jié)果,兩幅子圖的橫軸均為測試數(shù)據(jù)集中的樣本序號,縱軸分別為各樣本的PSNR 值和SSIM值。SPIRiT作為一種傳統(tǒng)的有效方法,其結(jié)果僅作參考,基于深度網(wǎng)絡(luò)學(xué)習(xí)的重建方法一般都優(yōu)于傳統(tǒng)方法,從圖中也可以明顯看出這點(diǎn)。L1-DCCNN已有相關(guān)研究[20],文獻(xiàn)中的結(jié)論已經(jīng)證明它是當(dāng)前最好的模型之一。從圖4中可以看出,本文提出的以幅值MSE作為損失函數(shù)的方法可以比使用一般損失函數(shù)的方法提高精度1 dB左右。

    圖4 在腦部測試數(shù)據(jù)集上的定量結(jié)果比較Fig.4 Quantitative comparison of the proposed method with other existing state-of-art methods for reconstruction of brain MRI test dedaset. A: PSNR curves for different reconstruction methods. B: SSIM curves for different reconstruction methods.

    圖5給出其中一組腦部測試數(shù)據(jù)在4倍欠采樣下的定性重建結(jié)果,從圖中可以看出,3種基于深度學(xué)習(xí)的方法得到的重建結(jié)果均優(yōu)于傳統(tǒng)SPIRiT 方法,Mag_DCCNN給出了精度最高的重建結(jié)果。從圖像上看,SPIRiT 方法得到的結(jié)果存在明顯的噪聲,而L1-DCCNN和L2-DCCNN的結(jié)果上還殘留了一些混疊偽影。從定量結(jié)果看,L1-DCCNN和L2-DCCNN的重建結(jié)果相似,其PSNR值分別為35.76 dB、35.62 dB,而利用Mag_DCCNN 方法得到的重建結(jié)果其PSNR 值為36.68 dB;L1-DCCNN 和L2-DCCNN 的重建結(jié)果的SSIM值均為0.93,而利用Mag_DCCNN方法得到的重建結(jié)果其SSIM值為0.94。

    圖5 一組腦部試數(shù)據(jù)經(jīng)4倍等間隔采樣后的重建結(jié)果比較,圖像下面顯示的是PSNR/SSIM值Fig.5 Comparison of reconstruction results using different methods for a brain test dataset with equispaced sampling and an undersampling factor of 4.PSNR and SSIM values are given below the images.

    圖6給出其中一組膝部測試數(shù)據(jù)的定性重建結(jié)果,和腦部數(shù)據(jù)實(shí)驗結(jié)果類似,本文提出的Mag_DCCNN方法可以從大量的離線數(shù)據(jù)集中學(xué)習(xí)有價值的先驗信息,然后對不同MR數(shù)據(jù)進(jìn)行高質(zhì)量的在線圖像重建,重建出更多、更清晰的細(xì)節(jié)。從圖片下面的定量結(jié)果可以看出,本文提出的Mag_DCCNN方法在PSNR上可以提升1 dB左右,而SSIM僅略微提升。

    圖6 一組膝部試數(shù)據(jù)經(jīng)4倍等間隔采樣后的重建結(jié)果比較,圖像下面顯示的是PSNR/SSIM值Fig.6 Comparison of reconstructions using different methods on a knee test dataset with equispaced sampling and an undersampling factor of 4.PSNR and SSIM values are given below the images.

    為了驗證本文所提方法在高欠采樣倍數(shù)下的有效性,我們在采樣倍數(shù)設(shè)為8的情況下進(jìn)行了腦部數(shù)據(jù)的相關(guān)實(shí)驗。由于在高欠采樣倍數(shù)下,補(bǔ)零重建中含有較嚴(yán)重的混疊偽影,包含SPIRiT在內(nèi)的傳統(tǒng)并行成像方法無法有效去除因欠采樣造成的混疊偽影。因此,此實(shí)驗中我們不再與SPIRiT方法相比,僅比較其它3種方法。為了同時驗證方法在不同采樣模式下的性能表現(xiàn),此實(shí)驗采用二維隨機(jī)欠采樣的模式(圖7第1排第2幅子圖)。從圖7的結(jié)果可以看出,3種方法均能有效去除混疊偽影。下方顯示的定量結(jié)果表明,即使去除沒有實(shí)際意義的背景部分,本文所提出的Mag_DCCNN得到的重建結(jié)果其PSNR 值仍然比L1-DCCNN 和L2-DCCNN的PSNR值略高0.6 dB左右,顯示出Mag_DCCNN方法略高的重建精度。

    圖7 一組腦部試數(shù)據(jù)經(jīng)8倍隨機(jī)欠采樣后的重建結(jié)果比較,圖像下面顯示的是PSNR/SSIM值Fig.7 Comparison of reconstructions using different methods on a brain test dataset with 2D random sampling and an undersampling factor of 8.PSNR and SSIM values are given below the images.

    2.3 主要參數(shù)的設(shè)置

    文中涉及的主要參數(shù)都是參考已有文獻(xiàn)進(jìn)行設(shè)置。在網(wǎng)絡(luò)的深度方面,我們根據(jù)文獻(xiàn)[6]的研究結(jié)果,雖然提高網(wǎng)絡(luò)的深度有助于精確重建,但考慮到nc>5、nd>5 時,訓(xùn)練過程中的內(nèi)存需求高,同時重建精度提高的幅度明顯減弱,因此我們將網(wǎng)絡(luò)深度確定為nc=5、nd=5,即整個網(wǎng)絡(luò)包括5個卷積模塊,每個卷積模塊包含5個卷積層,后面緊跟一個數(shù)據(jù)一致層。卷積層里的超參數(shù)完全按照常規(guī)設(shè)置,卷積核大小為3×3,滑動窗步長為1,卷積核數(shù)量的設(shè)置主要還是基于性能和訓(xùn)練難度方面的考慮,設(shè)置為32。由于是復(fù)卷積核,其實(shí)際參數(shù)的規(guī)模相當(dāng)于64個卷積核的實(shí)值卷積層。在數(shù)據(jù)一致層中,其計算框架來源于問題(10)的最小二乘求解算法,其中的參數(shù)μ雖然是一個可學(xué)習(xí)的參數(shù),但最后結(jié)果顯示,經(jīng)訓(xùn)練之后的μ值變化較小,個別層中幾乎相等。這個現(xiàn)象說明μ值初始設(shè)置有可能會像壓縮感知中的迭代算法一樣,在一定程度上影響重建精度。為此,我們針對腦部數(shù)據(jù)在不同μ初始值的情況下進(jìn)行了相關(guān)實(shí)驗,實(shí)驗結(jié)果如圖8所示。結(jié)果表明,當(dāng)μ初始值在一個較大范圍內(nèi)變化時(10~300),結(jié)果的變化并不明顯,只是μ初始值過小或過大時,會導(dǎo)致訓(xùn)練提前結(jié)束,使得重建結(jié)果稍微更差。

    圖8 數(shù)據(jù)一致層中參數(shù)μ 的初始設(shè)置對網(wǎng)絡(luò)性能的影響Fig.8 Network performance with different values ofμin data consistency layer using brain dataset.

    3 討論

    MRI圖像信號包含實(shí)部和虛部這兩部分的信號,它們分別帶有均值為0,方差相同且獨(dú)立的加性高斯白噪聲。但實(shí)際中使用的并不是其實(shí)部或虛部,而是其幅值函數(shù),因此MRI圖像噪聲呈Rician分布[27],在低信噪比位置近似服從瑞利分布,在高信噪比位置近似服從正態(tài)分布。已有的基于深度神經(jīng)網(wǎng)絡(luò)重建的方法往往對復(fù)值多線圈數(shù)據(jù)的實(shí)部和虛部在線圈維度上進(jìn)行拼接,視為多通道數(shù)據(jù),其通道數(shù)是線圈數(shù)的2倍,并以MSE作為損失函數(shù)。從統(tǒng)計學(xué)的角度,這相當(dāng)于使用了正態(tài)分布的極大似然估計,而這需要以樣本間的相互獨(dú)立假設(shè)為前提。但是,正如前面所述,同一像素點(diǎn)的實(shí)部和虛部上的噪聲一般認(rèn)為是相互獨(dú)立,但同一像素點(diǎn)不同線圈之間的噪聲一般不是相互獨(dú)立。因此,理論上,以MSE作為損失函數(shù)的傳統(tǒng)方法對單線圈數(shù)據(jù)是可適用的,但對多線圈數(shù)據(jù)并不適用。

    為了解決上述問題,本文針對多線圈數(shù)據(jù),提出了一個新的基于幅值和相位均方誤差和為損失函數(shù)的圖像重建方法。首先,我們按某種方法(如常用的SOS法)將多線圈數(shù)據(jù)合并成單線圈幅值數(shù)據(jù),以消除不同線圈噪聲間的相關(guān)性,并以此為訓(xùn)練時的標(biāo)簽;同時考慮到在一些應(yīng)用中相位信息的重要性,因此將損失函數(shù)定義為幅值與相位均方誤差的和,并用一個參數(shù)平衡它們之間的大小。當(dāng)我們只需要圖像時,可以將此參數(shù)設(shè)為0;當(dāng)我們只需相位時,可以將其設(shè)置為一個充分大的數(shù)。在具體實(shí)現(xiàn)時,需要在現(xiàn)有的深度學(xué)習(xí)平臺上重新定義損失函數(shù),當(dāng)然也可以在網(wǎng)絡(luò)的最后加上一個合并層。合并方法可以采用Walsh等[28]得出的特征向量法(保留相位信息),也可以使用SOS法(丟棄相位),同時將標(biāo)簽數(shù)據(jù)也按同樣的方法進(jìn)行合并,這樣可以方便地使用現(xiàn)有的深度學(xué)習(xí)平臺,如TensorFlow、Pytorch等。實(shí)驗結(jié)果表明,這種方法是有效的,當(dāng)把平衡參數(shù)設(shè)為0時,相比于使用常規(guī)損失函數(shù),本文提出的方法可以得到精度更高的重建圖像。對于涉及相位信息的應(yīng)用時,此時平衡參數(shù)不能設(shè)為0,這方面的研究我們將在后續(xù)開展。

    實(shí)卷積神經(jīng)網(wǎng)絡(luò)一般采用ReLU函數(shù)作為激活函數(shù),即便是采用復(fù)卷積的神經(jīng)網(wǎng)絡(luò),有些文獻(xiàn)[20]也使用了這類實(shí)值函數(shù)。為了適合復(fù)數(shù)運(yùn)算,有研究者提出在復(fù)卷積中使用一些復(fù)激活函數(shù),包括:等。關(guān)于不同復(fù)值激活函數(shù)的表現(xiàn),文獻(xiàn)[21]在使用平均絕對值誤差(文中稱L1損失函數(shù))作為訓(xùn)練時的損失函數(shù)的前提下,得出的結(jié)論是:?ReLU表現(xiàn)最好,modReLU表現(xiàn)最差,我們發(fā)現(xiàn)這個結(jié)論與本文的結(jié)果剛好相反。根據(jù)本文實(shí)驗結(jié)果,在卷積層使用mod ReLU作為激活函數(shù)得到的圖像不管在PSNR或SSIM方面都是最好的。出現(xiàn)這種現(xiàn)象的原因是多方面的,但一個重要的原因可能是本文和文獻(xiàn)[21]使用了不同的損失函數(shù),文獻(xiàn)[21]的損失函數(shù)是實(shí)部和虛部的MAE之和,而本文采用新提出的幅值MSE作為損失函數(shù)。modReLU實(shí)際上可以看作是作用在幅值上的ReLU函數(shù),因而它可能更適合于本文的情形。當(dāng)然,除了損失函數(shù),這種相反的結(jié)果還可能與網(wǎng)絡(luò)結(jié)構(gòu)、訓(xùn)練數(shù)據(jù)等因素相關(guān)。不管怎樣,兩種結(jié)果都反映出一個事實(shí),那就是激活函數(shù)對重建結(jié)果的影響是不可忽視的,關(guān)于具體如何影響重建精度還有待于深入研究。

    本文在實(shí)驗中利用的是真實(shí)的腦部和膝部MRI數(shù)據(jù),相比于已有文獻(xiàn)中多數(shù)采用的仿真數(shù)據(jù),真實(shí)數(shù)據(jù)的噪聲有明顯的不同。數(shù)據(jù)仿真的過程實(shí)際上就是對每個線圈上的數(shù)據(jù),加入獨(dú)立同分布的高斯噪聲。仿真數(shù)據(jù)的噪聲在實(shí)部和虛部之間、不同線圈之間都是相互獨(dú)立的,因此用MSE作為損失函數(shù)可以對相關(guān)參數(shù)得到很好的估計,從而重建出質(zhì)量較好的圖像。而真實(shí)數(shù)據(jù)的噪聲比這復(fù)雜得多,分布的類型、獨(dú)立性都跟仿真數(shù)據(jù)有較大區(qū)別。本文的方法用于真實(shí)數(shù)據(jù),得到的結(jié)果無論是定性方面還是定量方面,都要優(yōu)于之前的以MSE或MAE為損失函數(shù)方法,說明本文所得出的方法更適合于真實(shí)數(shù)據(jù)。

    需要指出的是,本文所采用的網(wǎng)絡(luò)結(jié)構(gòu)中含卷積層,需要事先給定訓(xùn)練數(shù)據(jù)的通道數(shù),訓(xùn)練數(shù)據(jù)集中的每個數(shù)據(jù)樣本都必須具有相同的通道數(shù)。因此,具有不同線圈數(shù)(即通道數(shù))的腦部數(shù)據(jù)和膝部數(shù)據(jù)無法放在一起訓(xùn)練,在其中一個數(shù)據(jù)集上訓(xùn)練好的網(wǎng)絡(luò)也無法應(yīng)用于其它數(shù)據(jù)集,這是本文方法的一個局限性。當(dāng)然,這同時涉及有關(guān)網(wǎng)絡(luò)擴(kuò)展性方面的研究,已超出本文的研究范圍。

    綜上所述,本文從統(tǒng)計學(xué)角度出發(fā),指出了已有方法的損失函數(shù)可能與多線圈MR數(shù)據(jù)噪聲類型不匹配的問題,并針對這個問題,提出了一種簡單、可行的處理方法,即先將多線圈數(shù)據(jù)按照某種方法合并成單線圈數(shù)據(jù),然后再以幅值及相位的均方誤差為損失函數(shù)進(jìn)行網(wǎng)絡(luò)訓(xùn)練。合并方法可以選擇常規(guī)的SOS方法,也可以使用保留相位信息的其他方法。在真實(shí)的腦部及膝部數(shù)據(jù)集上的實(shí)驗表明這種簡單的處理方式是有效的,不管從定性還是定量方面,使用本文提出的方法均優(yōu)于具有類似結(jié)構(gòu)的用MSE或MAE作為損失函數(shù)的相關(guān)方法。

    猜你喜歡
    幅值線圈損失
    基于LSTM的汽輪發(fā)電機(jī)線圈的早期異常檢測
    少問一句,損失千金
    可拆分式線圈在無損檢測中的應(yīng)用
    胖胖損失了多少元
    超小型薄壁線圈架注射模設(shè)計
    模具制造(2019年7期)2019-09-25 07:29:58
    玉米抽穗前倒伏怎么辦?怎么減少損失?
    基于S變換的交流電網(wǎng)幅值檢測系統(tǒng)計算機(jī)仿真研究
    電子制作(2017年7期)2017-06-05 09:36:13
    正序電壓幅值檢測及諧波抑制的改進(jìn)
    一般自由碰撞的最大動能損失
    低壓電力線信道脈沖噪聲的幅值與寬度特征
    免费看美女性在线毛片视频| 女性被躁到高潮视频| 中文字幕最新亚洲高清| 高清在线国产一区| √禁漫天堂资源中文www| 色尼玛亚洲综合影院| 在线播放国产精品三级| 亚洲精品av麻豆狂野| 在线十欧美十亚洲十日本专区| 亚洲精品在线美女| 欧美黑人精品巨大| 女生性感内裤真人,穿戴方法视频| 长腿黑丝高跟| 国产一区二区三区综合在线观看| 国产伦人伦偷精品视频| 精品日产1卡2卡| 一区二区三区国产精品乱码| 亚洲专区中文字幕在线| 久久久国产精品麻豆| 午夜精品久久久久久毛片777| 九色国产91popny在线| 777久久人妻少妇嫩草av网站| 男女午夜视频在线观看| 狠狠狠狠99中文字幕| 18禁黄网站禁片午夜丰满| 50天的宝宝边吃奶边哭怎么回事| 国产99白浆流出| 18禁国产床啪视频网站| 真人一进一出gif抽搐免费| 欧美丝袜亚洲另类 | 亚洲av成人av| 1024香蕉在线观看| 国产精品一区二区三区四区久久 | 此物有八面人人有两片| 亚洲国产毛片av蜜桃av| 国产欧美日韩一区二区三| 亚洲男人天堂网一区| 久久久久久久午夜电影| 天堂影院成人在线观看| 手机成人av网站| 亚洲自拍偷在线| 天天添夜夜摸| 久久草成人影院| 精品久久久精品久久久| 亚洲精品一区av在线观看| videosex国产| 国产精品亚洲av一区麻豆| 国产熟女xx| 免费看a级黄色片| 露出奶头的视频| 国产国语露脸激情在线看| 国产精品电影一区二区三区| 波多野结衣高清无吗| 久久久国产精品麻豆| 久久久精品国产亚洲av高清涩受| 香蕉久久夜色| 一区福利在线观看| 免费搜索国产男女视频| 伦理电影免费视频| 12—13女人毛片做爰片一| 天堂动漫精品| 久久久精品国产亚洲av高清涩受| 国产精品乱码一区二三区的特点 | 国产激情久久老熟女| 少妇熟女aⅴ在线视频| 天天躁狠狠躁夜夜躁狠狠躁| 久久人妻熟女aⅴ| 亚洲三区欧美一区| 亚洲视频免费观看视频| 欧美色视频一区免费| 亚洲欧美日韩高清在线视频| 国产成人欧美| 精品久久久久久久毛片微露脸| 午夜老司机福利片| 亚洲最大成人中文| 1024香蕉在线观看| 国产成人av教育| 精品高清国产在线一区| 美女大奶头视频| 国产成人精品无人区| 成人三级做爰电影| 一边摸一边做爽爽视频免费| 国产成年人精品一区二区| 一区在线观看完整版| 成人欧美大片| 神马国产精品三级电影在线观看 | 黑人巨大精品欧美一区二区mp4| 国产精品香港三级国产av潘金莲| 国产精品 国内视频| 国产精品永久免费网站| 悠悠久久av| 在线天堂中文资源库| 别揉我奶头~嗯~啊~动态视频| 可以在线观看毛片的网站| 无人区码免费观看不卡| 国产精品亚洲av一区麻豆| 欧美绝顶高潮抽搐喷水| 国产又色又爽无遮挡免费看| 午夜精品在线福利| 在线观看舔阴道视频| 亚洲国产毛片av蜜桃av| 丝袜人妻中文字幕| 丝袜美足系列| 午夜a级毛片| 1024视频免费在线观看| 久久国产精品人妻蜜桃| 黑人巨大精品欧美一区二区mp4| 国产精品免费一区二区三区在线| 国产极品粉嫩免费观看在线| 免费在线观看视频国产中文字幕亚洲| 色综合亚洲欧美另类图片| 午夜福利在线观看吧| 正在播放国产对白刺激| 韩国精品一区二区三区| 国产精品 国内视频| 久久国产精品人妻蜜桃| www.自偷自拍.com| 国产高清有码在线观看视频 | 久久精品国产亚洲av高清一级| 精品久久久久久成人av| 女同久久另类99精品国产91| 91精品三级在线观看| 99香蕉大伊视频| 99久久99久久久精品蜜桃| 亚洲国产精品sss在线观看| 免费人成视频x8x8入口观看| 啦啦啦观看免费观看视频高清 | 午夜福利成人在线免费观看| 日韩中文字幕欧美一区二区| 成人亚洲精品一区在线观看| 亚洲av电影不卡..在线观看| 亚洲电影在线观看av| 十八禁网站免费在线| 女警被强在线播放| 丝袜美足系列| 黄色 视频免费看| 亚洲成av人片免费观看| 国产熟女午夜一区二区三区| 制服诱惑二区| 操美女的视频在线观看| 久久久久久久久免费视频了| 欧美性长视频在线观看| 乱人伦中国视频| 99国产精品免费福利视频| av视频在线观看入口| 美女 人体艺术 gogo| 国产片内射在线| 国产精品国产高清国产av| 涩涩av久久男人的天堂| 国产一区二区三区综合在线观看| 一本久久中文字幕| 亚洲精品国产一区二区精华液| 国产免费男女视频| 国产精品久久久人人做人人爽| 波多野结衣一区麻豆| 看免费av毛片| 国产成+人综合+亚洲专区| 色综合亚洲欧美另类图片| 国产激情欧美一区二区| 又紧又爽又黄一区二区| 亚洲欧美日韩无卡精品| 久久久久久久午夜电影| 国产熟女午夜一区二区三区| 伦理电影免费视频| 亚洲色图av天堂| 亚洲欧美日韩无卡精品| 叶爱在线成人免费视频播放| 在线观看日韩欧美| 久久久久久久久免费视频了| 亚洲三区欧美一区| 免费av毛片视频| 人成视频在线观看免费观看| aaaaa片日本免费| 午夜激情av网站| 亚洲精品美女久久久久99蜜臀| 日韩一卡2卡3卡4卡2021年| 国产精品国产高清国产av| 岛国视频午夜一区免费看| 很黄的视频免费| 成人国产综合亚洲| or卡值多少钱| 国产精品一区二区在线不卡| 亚洲美女黄片视频| tocl精华| 老司机深夜福利视频在线观看| 欧美午夜高清在线| 老司机午夜福利在线观看视频| 日本黄色视频三级网站网址| 两个人视频免费观看高清| 九色国产91popny在线| 亚洲少妇的诱惑av| 国产欧美日韩一区二区精品| 老熟妇乱子伦视频在线观看| 久久久精品欧美日韩精品| 国产激情久久老熟女| 一进一出抽搐gif免费好疼| 欧美日韩乱码在线| 看片在线看免费视频| 啦啦啦免费观看视频1| 午夜精品在线福利| 亚洲专区国产一区二区| 天天添夜夜摸| 亚洲 欧美一区二区三区| 欧美在线黄色| 人人妻人人澡人人看| 色老头精品视频在线观看| 亚洲精品美女久久久久99蜜臀| 少妇的丰满在线观看| 999久久久精品免费观看国产| 丝袜美腿诱惑在线| 欧美久久黑人一区二区| 国产主播在线观看一区二区| 欧美黄色淫秽网站| 国产欧美日韩一区二区三区在线| 一区二区三区精品91| 咕卡用的链子| 国产午夜精品久久久久久| 亚洲av电影不卡..在线观看| 日韩免费av在线播放| 久久精品aⅴ一区二区三区四区| 一级作爱视频免费观看| 国产精品亚洲一级av第二区| 狠狠狠狠99中文字幕| 国产激情欧美一区二区| 男女下面进入的视频免费午夜 | 中文字幕另类日韩欧美亚洲嫩草| 日日爽夜夜爽网站| 国产精品,欧美在线| 女人精品久久久久毛片| 日本黄色视频三级网站网址| 啪啪无遮挡十八禁网站| 国产成人免费无遮挡视频| av欧美777| 精品国产一区二区久久| 999久久久精品免费观看国产| 精品免费久久久久久久清纯| 久久精品国产综合久久久| 国产91精品成人一区二区三区| 国产97色在线日韩免费| 欧美+亚洲+日韩+国产| 中国美女看黄片| 香蕉久久夜色| 长腿黑丝高跟| 两个人看的免费小视频| 亚洲片人在线观看| 性欧美人与动物交配| 亚洲精品中文字幕在线视频| 亚洲精品久久国产高清桃花| 成人国产综合亚洲| 一夜夜www| 国产1区2区3区精品| 久久婷婷人人爽人人干人人爱 | 男女做爰动态图高潮gif福利片 | 国产精品影院久久| 黄片大片在线免费观看| 午夜日韩欧美国产| 天天躁狠狠躁夜夜躁狠狠躁| 黄片小视频在线播放| 精品免费久久久久久久清纯| 9色porny在线观看| 国产精品 国内视频| 最近最新中文字幕大全电影3 | 人妻丰满熟妇av一区二区三区| 欧美亚洲日本最大视频资源| av有码第一页| av片东京热男人的天堂| 欧美乱色亚洲激情| 国产又爽黄色视频| 母亲3免费完整高清在线观看| 色尼玛亚洲综合影院| 色哟哟哟哟哟哟| 叶爱在线成人免费视频播放| 男男h啪啪无遮挡| 久久精品国产清高在天天线| 成人三级做爰电影| 国产亚洲精品第一综合不卡| 国内精品久久久久久久电影| 纯流量卡能插随身wifi吗| 一级,二级,三级黄色视频| 成人永久免费在线观看视频| 91精品三级在线观看| 色尼玛亚洲综合影院| 亚洲国产精品sss在线观看| 女警被强在线播放| 午夜福利高清视频| 国产av又大| 超碰成人久久| 午夜福利一区二区在线看| 在线观看免费视频网站a站| 免费看a级黄色片| 久久精品影院6| 黄片大片在线免费观看| 啦啦啦韩国在线观看视频| 999久久久精品免费观看国产| 免费高清视频大片| 国产麻豆69| 美女国产高潮福利片在线看| 国产精品久久久久久精品电影 | 久久亚洲真实| 午夜免费鲁丝| av中文乱码字幕在线| 免费搜索国产男女视频| 久久青草综合色| 亚洲精品一区av在线观看| 啪啪无遮挡十八禁网站| 日韩大尺度精品在线看网址 | 最新在线观看一区二区三区| 国语自产精品视频在线第100页| 香蕉丝袜av| 国产欧美日韩精品亚洲av| aaaaa片日本免费| 日本 欧美在线| 色av中文字幕| 亚洲色图av天堂| 久久天堂一区二区三区四区| 亚洲人成电影免费在线| 精品久久久精品久久久| 午夜福利一区二区在线看| 亚洲国产精品成人综合色| 久久伊人香网站| 国产精品98久久久久久宅男小说| 99国产精品免费福利视频| 久久这里只有精品19| 亚洲av成人一区二区三| 亚洲自拍偷在线| 最近最新免费中文字幕在线| 精品久久蜜臀av无| 757午夜福利合集在线观看| 国产高清激情床上av| 麻豆av在线久日| 久久 成人 亚洲| 97人妻精品一区二区三区麻豆 | 日韩 欧美 亚洲 中文字幕| 亚洲五月婷婷丁香| 精品国产国语对白av| 国产av一区二区精品久久| 99精品久久久久人妻精品| 欧美精品啪啪一区二区三区| 黄片小视频在线播放| x7x7x7水蜜桃| 欧美精品亚洲一区二区| 亚洲精品国产精品久久久不卡| 99久久综合精品五月天人人| 乱人伦中国视频| 国产极品粉嫩免费观看在线| 久久久久久人人人人人| 99在线视频只有这里精品首页| 亚洲精品在线美女| 69精品国产乱码久久久| 999久久久国产精品视频| 精品欧美国产一区二区三| 精品一区二区三区视频在线观看免费| 亚洲成av人片免费观看| 每晚都被弄得嗷嗷叫到高潮| 别揉我奶头~嗯~啊~动态视频| 久久婷婷成人综合色麻豆| 香蕉国产在线看| 中文亚洲av片在线观看爽| 中亚洲国语对白在线视频| 色综合站精品国产| 又黄又爽又免费观看的视频| 变态另类丝袜制服| 真人做人爱边吃奶动态| 久久久国产精品麻豆| 免费观看精品视频网站| 女性生殖器流出的白浆| 9191精品国产免费久久| 淫秽高清视频在线观看| 亚洲一区二区三区不卡视频| 精品免费久久久久久久清纯| 亚洲av五月六月丁香网| 满18在线观看网站| 国产精品99久久99久久久不卡| 久久亚洲真实| 欧美成人午夜精品| 黄片大片在线免费观看| 免费在线观看影片大全网站| 久99久视频精品免费| 18禁观看日本| 夜夜夜夜夜久久久久| 久久人人精品亚洲av| 免费不卡黄色视频| 亚洲成人精品中文字幕电影| 校园春色视频在线观看| 两个人免费观看高清视频| www.熟女人妻精品国产| 黄片小视频在线播放| 黄片播放在线免费| 久久久久久国产a免费观看| 丁香六月欧美| 亚洲精品国产精品久久久不卡| 久久影院123| 国产真人三级小视频在线观看| 国产麻豆成人av免费视频| 在线观看免费视频日本深夜| 国产av精品麻豆| 91老司机精品| 一a级毛片在线观看| 三级毛片av免费| 中文亚洲av片在线观看爽| 亚洲国产精品成人综合色| 免费在线观看日本一区| 亚洲国产精品999在线| 两性夫妻黄色片| 欧美不卡视频在线免费观看 | 精品国内亚洲2022精品成人| 久久精品aⅴ一区二区三区四区| 久久这里只有精品19| 在线观看免费视频日本深夜| 亚洲七黄色美女视频| 91老司机精品| 亚洲片人在线观看| 非洲黑人性xxxx精品又粗又长| 午夜两性在线视频| 18禁美女被吸乳视频| 精品国内亚洲2022精品成人| 亚洲片人在线观看| 女人精品久久久久毛片| 亚洲精品中文字幕在线视频| 色播亚洲综合网| netflix在线观看网站| 99精品欧美一区二区三区四区| 色av中文字幕| 国产男靠女视频免费网站| 欧美成狂野欧美在线观看| 一边摸一边抽搐一进一出视频| 欧美日韩中文字幕国产精品一区二区三区 | 国产精品自产拍在线观看55亚洲| 亚洲在线自拍视频| 国产精品香港三级国产av潘金莲| 香蕉丝袜av| 精品久久久久久久人妻蜜臀av | 日韩成人在线观看一区二区三区| 一级,二级,三级黄色视频| 国产精品亚洲美女久久久| 黄片小视频在线播放| 欧美色欧美亚洲另类二区 | 高清黄色对白视频在线免费看| 日韩大尺度精品在线看网址 | 欧美日韩亚洲国产一区二区在线观看| 老熟妇仑乱视频hdxx| 亚洲精品久久国产高清桃花| 咕卡用的链子| 国产一区二区在线av高清观看| 级片在线观看| 涩涩av久久男人的天堂| 男人的好看免费观看在线视频 | 日韩欧美一区二区三区在线观看| 国产亚洲欧美精品永久| 免费在线观看完整版高清| 脱女人内裤的视频| 国产av精品麻豆| 美女国产高潮福利片在线看| 国产色视频综合| 日韩免费av在线播放| 在线av久久热| 亚洲视频免费观看视频| 丁香六月欧美| 亚洲精品中文字幕一二三四区| 一二三四在线观看免费中文在| tocl精华| 国产三级在线视频| 欧洲精品卡2卡3卡4卡5卡区| 亚洲熟妇熟女久久| 精品高清国产在线一区| 久久久久久久精品吃奶| 亚洲欧美精品综合一区二区三区| 精品熟女少妇八av免费久了| 女人高潮潮喷娇喘18禁视频| 中文字幕色久视频| 亚洲,欧美精品.| 夜夜躁狠狠躁天天躁| 亚洲av电影在线进入| 一级毛片高清免费大全| 日韩欧美免费精品| 亚洲人成网站在线播放欧美日韩| 国产欧美日韩一区二区精品| 国产男靠女视频免费网站| 成人三级做爰电影| 1024香蕉在线观看| 精品卡一卡二卡四卡免费| 少妇裸体淫交视频免费看高清 | 多毛熟女@视频| 亚洲激情在线av| 久久国产亚洲av麻豆专区| 国产精品精品国产色婷婷| 日韩精品中文字幕看吧| 欧美色视频一区免费| 99国产极品粉嫩在线观看| 精品久久久久久成人av| 亚洲,欧美精品.| 色播在线永久视频| 两个人视频免费观看高清| 欧美成人午夜精品| 三级毛片av免费| 在线视频色国产色| 久久久久久久久免费视频了| 亚洲无线在线观看| 成年版毛片免费区| 国产欧美日韩一区二区精品| 亚洲美女黄片视频| 成人18禁高潮啪啪吃奶动态图| av有码第一页| 亚洲av五月六月丁香网| 久久性视频一级片| 亚洲少妇的诱惑av| www.熟女人妻精品国产| 亚洲中文av在线| 色婷婷久久久亚洲欧美| 亚洲成av人片免费观看| 男女午夜视频在线观看| 久久久久精品国产欧美久久久| 国产一区二区激情短视频| 亚洲一区中文字幕在线| 如日韩欧美国产精品一区二区三区| 久久久久亚洲av毛片大全| 日本在线视频免费播放| АⅤ资源中文在线天堂| 在线观看免费视频日本深夜| 最近最新中文字幕大全电影3 | 亚洲熟妇中文字幕五十中出| 色尼玛亚洲综合影院| av欧美777| 久久久精品国产亚洲av高清涩受| 国产午夜福利久久久久久| 午夜免费激情av| 国产午夜福利久久久久久| 在线观看午夜福利视频| 国产精品1区2区在线观看.| 麻豆av在线久日| 变态另类成人亚洲欧美熟女 | 女性被躁到高潮视频| 亚洲欧美一区二区三区黑人| 欧美国产精品va在线观看不卡| 黄色视频,在线免费观看| 在线国产一区二区在线| 91成年电影在线观看| 91精品国产国语对白视频| 老汉色av国产亚洲站长工具| 国产99久久九九免费精品| 日本免费a在线| 亚洲熟女毛片儿| 波多野结衣一区麻豆| 在线视频色国产色| 亚洲在线自拍视频| 欧美日韩乱码在线| 国产一区二区三区视频了| 性欧美人与动物交配| 天堂动漫精品| 久久精品亚洲熟妇少妇任你| 好男人在线观看高清免费视频 | 亚洲人成77777在线视频| 亚洲av五月六月丁香网| 国产成人一区二区三区免费视频网站| 巨乳人妻的诱惑在线观看| 啦啦啦观看免费观看视频高清 | 亚洲中文字幕日韩| 久久精品国产99精品国产亚洲性色 | 性色av乱码一区二区三区2| 亚洲中文字幕日韩| 国产精品亚洲av一区麻豆| 亚洲精品美女久久久久99蜜臀| 日韩国内少妇激情av| 99香蕉大伊视频| 男人舔女人下体高潮全视频| 看片在线看免费视频| 久久亚洲真实| 国产男靠女视频免费网站| 欧美大码av| 性色av乱码一区二区三区2| 国产一区二区三区视频了| 一卡2卡三卡四卡精品乱码亚洲| 中文字幕人妻丝袜一区二区| 色婷婷久久久亚洲欧美| av福利片在线| 婷婷六月久久综合丁香| 精品卡一卡二卡四卡免费| 久久久久国内视频| 欧美av亚洲av综合av国产av| 亚洲精品av麻豆狂野| 麻豆av在线久日| 无遮挡黄片免费观看| 99精品在免费线老司机午夜| 国产精品久久视频播放| 国产av在哪里看| 精品第一国产精品| 日本精品一区二区三区蜜桃| 大码成人一级视频| 91字幕亚洲| e午夜精品久久久久久久| 久久久久亚洲av毛片大全| 99久久精品国产亚洲精品| 日韩成人在线观看一区二区三区| 久久久国产成人精品二区| 日本欧美视频一区| 亚洲第一电影网av| 99精品欧美一区二区三区四区| 午夜免费鲁丝| 人人妻人人爽人人添夜夜欢视频| 日韩大尺度精品在线看网址 | 人人澡人人妻人| 色综合站精品国产| 国产成+人综合+亚洲专区| 最近最新中文字幕大全免费视频| 久久国产精品影院| 国产av又大| 久久人人97超碰香蕉20202| 日本撒尿小便嘘嘘汇集6| 亚洲自拍偷在线| 欧美丝袜亚洲另类 | 色播在线永久视频| 国产精品自产拍在线观看55亚洲| 欧美乱码精品一区二区三区| 两个人视频免费观看高清| 黄色成人免费大全|