• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于深層殘差網(wǎng)絡(luò)的脈沖星候選體分類方法研究?

    2021-03-29 12:33:00劉曉飛勞保強徐志駿張仲莉
    天文學(xué)報 2021年2期
    關(guān)鍵詞:脈沖星殘差卷積

    劉曉飛 勞保強 安 濤 徐志駿 張仲莉

    (1 中國科學(xué)院上海天文臺上海200030)(2 中國科學(xué)院大學(xué)北京100049)

    1 引言

    脈沖星是快速旋轉(zhuǎn)、高度磁化的中子星[1]. 脈沖星為天文學(xué)的研究做出了巨大的貢獻, 它既可以作為星際介質(zhì)物理性質(zhì)的探測器[2], 也可用于指示極端條件的天體物理現(xiàn)象[3], 其性質(zhì)還為暗物質(zhì)的存在提供了間接證據(jù), 是研究強引力場的天體實驗室[4], 尤其是對引力波輻射的檢測[5–6]. 脈沖星的研究是射電天文學(xué)領(lǐng)域中一個有意義的課題, 因此, 發(fā)現(xiàn)新脈沖星、識別脈沖星候選體(可能檢測到的新脈沖星)對揭示新的天文現(xiàn)象具有重要意義[7]. 然而, 已知脈沖星的數(shù)量很少[8], 需要尋找新的脈沖星. 自第1顆脈沖星發(fā)現(xiàn)以來, 脈沖星搜尋已經(jīng)持續(xù)了很長一段時間[9].

    在天文大數(shù)據(jù)時代, 具有大視場、快速巡天功能的平方公里陣列(Square Kilometre Array, SKA)射電望遠鏡[10]及500 m孔徑球面射電望遠鏡(Five-hundred-meter Aperture Spherical Telescope, FAST)[11]等高靈敏度大型望遠鏡的出現(xiàn), 使得脈沖星觀測產(chǎn)生了大量數(shù)據(jù), 預(yù)計會發(fā)現(xiàn)大量的脈沖星[12]. 在如此龐大的數(shù)據(jù)中, 不僅包含了數(shù)百萬個候選脈沖星[13], 還包含了大量的人為射電頻率干擾(Radio Frequency Interference, RFI)和各種非脈沖信號數(shù)據(jù), 使得脈沖星的識別變得尤為困難. 天文學(xué)家需要尋求更加合理的篩選方法, 從而準(zhǔn)確快速地完成海量候選體的識別.

    目前, 提出了許多脈沖星候選體的篩選方法. 主要有: 手動篩選法[14–15], 其主要通過志愿者目視來對感興趣的對象進行搜索或分類[9]; 圖形工具篩選法[16–17]; 以及半自動排名法[18]. 在天文大數(shù)據(jù)時代, 目視檢查大量的脈沖星候選體是不現(xiàn)實的, 因此, 有監(jiān)督的機器學(xué)習(xí)方法應(yīng)運而生[9]. 自2010年以來, 用于脈沖星候選體識別的機器學(xué)習(xí)方法迅速增多, 并且成為一種流行的方法. 文獻[6, 9, 18]中的這些工作運用淺層神經(jīng)網(wǎng)絡(luò)(不超過3層)來訓(xùn)練數(shù)據(jù)集實現(xiàn)了對候選體的分類, 并且隨著不斷地精心設(shè)計和提取有效特征, 分類性能得到了改善. 文獻[19]將人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)、支持向量機(Support Vector Machines, SVM)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)這3種不同的監(jiān)督算法組合使用, 引入圖片模式識別的方法, 從診斷圖中進行學(xué)習(xí), 而不再從手動設(shè)計的特征中學(xué)習(xí), 從而有效避免了依賴人工經(jīng)驗設(shè)計特征的缺點, 所設(shè)計的模型在PALFA (Pulsar Arecibo L-Band Feed Array)的觀測數(shù)據(jù)中發(fā)現(xiàn)了6顆新的脈沖星. 此外, 統(tǒng)計學(xué)習(xí)方法也適用于對脈沖星候選體進行分類[7,20], 利用統(tǒng)計學(xué)習(xí)的方法, 可以減小偏差. 有監(jiān)督的機器學(xué)習(xí), 特別是深度學(xué)習(xí)的最新方法[13,21–23]也被用于處理脈沖星分類問題. 文獻[13, 21]使用數(shù)據(jù)增強來解決不平衡問題, 并使用CNN的變體來訓(xùn)練模型, 利用提取的更深層的特征來進行分類, 使得精確度進一步提升. 文獻[22]使用CNN組成的模型來訓(xùn)練FAST觀測的脈沖星候選體數(shù)據(jù), 在326個真實脈沖星數(shù)據(jù)中, 只有4個未正確判別. 文獻[23]使用集成學(xué)習(xí)的方法對數(shù)據(jù)進行處理, 此方法是在文獻[19]所設(shè)計模型的基礎(chǔ)上進行改進的, 其利用15層殘差網(wǎng)絡(luò)(Residual Network, ResNet)代替CNN網(wǎng)絡(luò), 新模型可以識別出96%以上的真實脈沖星并且分類速率也進一步提升, 該模型在配置有2個GPU和24個CPU核心的計算平臺上每天可完成160萬個以上的候選樣本分類任務(wù)(平均54 ms完成1個樣本分類).

    有監(jiān)督的機器學(xué)習(xí)是一門數(shù)據(jù)驅(qū)動的方法. 傳統(tǒng)的機器學(xué)習(xí)方法[18]依據(jù)從數(shù)據(jù)中提取的特征或一些人為設(shè)計構(gòu)造的特征來進行模型的學(xué)習(xí)與訓(xùn)練, 基于已知知識獲得的特征可能會忽略數(shù)據(jù)的某些潛在特征. 相反, 使用深度學(xué)習(xí)方法從數(shù)據(jù)中直接學(xué)習(xí)可以獲得更好的性能. 本文應(yīng)用深度ResNet來構(gòu)建脈沖星候選體樣本分類系統(tǒng), 脈沖星候選體的診斷圖作為模型的輸入. 由于數(shù)據(jù)中的類別不均衡, 即負樣本數(shù)目遠遠大于正樣本數(shù)目, 會導(dǎo)致模型誤判, 本文通過對少數(shù)樣本進行過采樣來解決這一問題. 然后在HTRUS (The High Time Resolution Universe Survey)數(shù)據(jù)集[24]上訓(xùn)練與評估構(gòu)建的模型, 所訓(xùn)練的模型在精確度(Precision)和召回率(Recall)上均獲得較優(yōu)的結(jié)果.

    本文首先簡要介紹了用于訓(xùn)練模型的脈沖星候選體樣本數(shù)據(jù)集, 同時介紹了數(shù)據(jù)預(yù)處理過程. 其次介紹了深度殘差網(wǎng)絡(luò)和模型的結(jié)構(gòu)及損失函數(shù), 在第4節(jié)解釋了模型評估指標(biāo)并詳細介紹模型的訓(xùn)練細節(jié), 然后展示測試結(jié)果并進行對比分析. 最后, 進行了總結(jié)與展望.

    2 數(shù)據(jù)集和數(shù)據(jù)預(yù)處理

    下一代射電望遠鏡的脈沖星巡天觀測能夠產(chǎn)生大量的數(shù)據(jù), 由于診斷圖樣本量太大, 人工目視的方法將耗費大量的人力和時間, 并且隨著工作者目視檢查時間的延長, 由于疲勞極易判斷出錯. 使用自動的計算機處理算法即機器學(xué)習(xí)的方法來找到脈沖星候選體是一種必然趨勢. 另外, 在使用機器學(xué)習(xí)算法時, 首先需要將數(shù)據(jù)預(yù)處理成為適合模型訓(xùn)練學(xué)習(xí)的輸入.

    2.1 數(shù)據(jù)集

    本文采用文獻[24]公開的數(shù)據(jù)集HTRUS來訓(xùn)練和評估模型. 數(shù)據(jù)來自澳大利亞Parkes望遠鏡的多波束(13個波束)的觀測, 中心頻率是1352 MHz, 每個波束記錄帶寬為400 MHz, 實際使用了中間340 MHz帶寬上的數(shù)據(jù). 該數(shù)據(jù)集包含了1196個具有不同自旋周期、占空比和信噪比的脈沖星(正樣本), 還包含了89996個非脈沖星候選體(負樣本). 另外, 該數(shù)據(jù)集根據(jù)樣本的屬性和個數(shù)進行命名, 由此脈沖星樣本表示為從pulsar0000到pulsar1195, 非脈沖星樣本表示為從cand000001到cand089996. HTRUS的數(shù)據(jù)文件包含結(jié)構(gòu)化數(shù)據(jù)和非結(jié)構(gòu)化數(shù)據(jù), 其中有11個數(shù)值特征, 包括信號周期和最佳值(如最佳色散測度、最佳信噪比、最佳寬度等). 非結(jié)構(gòu)化數(shù)據(jù)有6個矩陣數(shù)據(jù), 均可視作圖片數(shù)據(jù). 其中, 時間-相位圖和頻率-相位圖將作為本文的訓(xùn)練集和測試集, 如圖1所示. 圖1是來自HTRUS數(shù)據(jù)集中脈沖星(pulsar0816)和RFI (cand036371)樣本的時間-相位圖和頻率-相位圖示例, 圖中左圖由pulsar0816數(shù)據(jù)產(chǎn)生, 右圖由cand036371產(chǎn)生.

    圖1 樣本圖像示例. 左: 脈沖星; 右: 射電頻率干擾信號.Fig.1 Examples of sample plot. Left: a pulsar example; Right: RFI signals.

    從圖1可以看出脈沖星候選體和非脈沖星候選體具有明顯不同的特征: (1)頻率-相位圖是3維(時間-頻率-相位)數(shù)據(jù)在時間維度上進行求和獲得的, 它反映了觀測期間信號的強度. 對于理想的脈沖星信號, 將在整個觀測周期內(nèi)觀察到該信號, 且存在一個或幾個垂直條紋; (2)時間-相位圖是3維(時間-頻率-相位)數(shù)據(jù)在頻率維度上進行求和獲得的, 可以反映不同頻率下的信號強度. 同樣對于理想脈沖星信號, 應(yīng)該存在一個或多個垂直條紋. 通過統(tǒng)計我們發(fā)現(xiàn)HTRUS中的大多數(shù)脈沖星樣本的時間-相位圖和頻率-相位圖均存在一個或者多個垂直條紋, 特征非常明顯. 非脈沖星的圖像則是雜亂無章, 無規(guī)律可言. 這些從樣本數(shù)據(jù)中獲得的時間-相位圖和頻率-相位圖將輸入到本文的算法進行訓(xùn)練與測試.

    2.2 數(shù)據(jù)預(yù)處理

    數(shù)據(jù)預(yù)處理可以看作是一種數(shù)據(jù)挖掘技術(shù), 可以將原始數(shù)據(jù)轉(zhuǎn)換為易于處理的格式, 從而可以進一步分析. 原始數(shù)據(jù)通常存在噪聲和樣本不平衡等問題, 數(shù)據(jù)預(yù)處理是解決此類問題并為特征工程或下一步模型訓(xùn)練做好充分準(zhǔn)備的可靠方法. 首先模型輸入PNG圖像大小不一, 所以需要統(tǒng)一大小; 另外, 在數(shù)據(jù)集中, 正負樣本之間的比率約為1 : 73, 樣本分布偏向負類別, 這意味著數(shù)據(jù)類別嚴重失衡[25]. 非平衡問題會降低模型的準(zhǔn)確性[25–26], 并且模型最后的輸出softmax函數(shù)是基于閾值的, 在數(shù)據(jù)不平衡的時候, 特定的閾值會導(dǎo)致模型輸出傾向于類別數(shù)據(jù)多的一類.

    下面介紹具體的處理步驟: 首先從數(shù)據(jù)集中獲得需要的診斷因子圖, 從HTRUS數(shù)據(jù)中獲得的每個樣本診斷圖的大小是不同的. 為了便于訓(xùn)練模型, 先對所有的樣本圖片進行圖片的縮放, 使其成為500×500像素同一大小的灰度圖. 其次, 將正負樣本獲得的圖片數(shù)據(jù)分別隨機分為兩部分: 訓(xùn)練集(80%), 測試集(20%). 然后, 處理數(shù)據(jù)非均衡問題, 處理數(shù)據(jù)不均衡問題常用的方法是對少數(shù)類別樣本進行過采樣, 或者對多數(shù)類別樣本進行欠采樣, 以此來調(diào)整數(shù)據(jù)比率達到樣本均衡. 在訓(xùn)練數(shù)據(jù)集中, 由于少數(shù)類別(脈沖星)的數(shù)量太少, 如果對多數(shù)類別(RFI)進行欠采樣就會導(dǎo)致訓(xùn)練樣本數(shù)據(jù)的犧牲, 造成數(shù)據(jù)量太少, 無法進行學(xué)習(xí), 所以采取對少數(shù)類進行過采樣增加樣本. 過采樣包括簡單的過采樣[27](oversampling)和基于隨機過采樣算法的合成少數(shù)類過采樣技術(shù)[28](Synthetic Minority Oversampling Technique, SMOTE). 由于模型輸入是診斷圖圖片數(shù)據(jù), 利用SMOTE方法進行處理時, 需要先對圖像數(shù)據(jù)進行重塑, 然后進行過采樣, 嘗試這種方法后, 發(fā)現(xiàn)對于HTRUS數(shù)據(jù)集, SMOTE非常緩慢, 且最后分類效果不好. 分析原因可能是因為重塑圖像后, 圖像會丟失掉像素之間的位置關(guān)聯(lián)信息, 而由于模型是基于卷積的殘差網(wǎng)絡(luò), 圖像反映的信息是使用卷積的主要原因.

    綜上, 選擇使用簡單的過采樣方法處理數(shù)據(jù). 對少數(shù)類過采樣是從少數(shù)樣本中隨機抽取樣本進行復(fù)制, 直到達到想要的數(shù)量. 由于本質(zhì)并沒有為模型引入更多的數(shù)據(jù), 可能會導(dǎo)致過分強調(diào)少數(shù)類, 放大少數(shù)類別中噪聲對模型的影響. 因此我們嘗試了不同的比率取值, 將脈沖星正樣本與非脈沖星負樣本的比率設(shè)置在1 : 1到1 : 5的范圍內(nèi), 以尋找最佳比率值. 最終發(fā)現(xiàn)當(dāng)設(shè)置為1: 2的時候為最佳比率,表1中交叉驗證集為過采樣之后的數(shù)據(jù)量. 此處需要強調(diào)的是, 對少數(shù)樣本(脈沖星正樣本)進行過采樣時處理的是80%的訓(xùn)練集, 測試集沒有做處理.

    數(shù)據(jù)集預(yù)處理完成后開始進行模型訓(xùn)練, 為了充分利用訓(xùn)練數(shù)據(jù)集, 采用了5折交叉驗證來完成訓(xùn)練模型的調(diào)參, 找出效果最優(yōu)的模型. 交叉驗證作用是嘗試利用不同的訓(xùn)練集/驗證集劃分來對模型做多組不同的訓(xùn)練/驗證, 來應(yīng)對單獨測試結(jié)果過于片面以及訓(xùn)練數(shù)據(jù)不足的問題. 本文訓(xùn)練過程中所采用的5折交叉驗證是指將數(shù)據(jù)集(交叉驗證集)隨機劃分5個大小相近的互斥子集, 每次不重復(fù)地取其中1個子集做為測試集, 其余4個子集合并作為訓(xùn)練集. 因此, 將會產(chǎn)生5組不同的訓(xùn)練集和測試集. 計算該模型在每組訓(xùn)練集上的均方誤差(Mean Square Error, MSE), 將5組訓(xùn)練模型的MSE取平均作為最終的模型. 然后使用該模型對測試集進行預(yù)測, 從而衡量該模型的性能和分類能力. 在訓(xùn)練過程中, 訓(xùn)練集共有73272個樣本用于超參數(shù)篩選, 測試集有17920個樣本. 其中, 測試集中含有17680個負樣本, 240個正樣本. 樣本數(shù)量的詳細情況如表1所示. 表1中分別展示了HTRUS數(shù)據(jù)集的總樣本數(shù)量, 占比80%、20%所切割出的訓(xùn)練集和測試集以及交叉驗證集, 其中交叉驗證集是對訓(xùn)練集中正樣本進行過采樣之后用來交叉驗證訓(xùn)練模型的樣本數(shù)量.

    表1 數(shù)據(jù)集的介紹Table 1 Introduction to data set

    3 機器學(xué)習(xí)模型

    3.1 深度殘差網(wǎng)絡(luò)

    自深層卷積神經(jīng)網(wǎng)絡(luò)從ImageNet分類挑戰(zhàn)[29]中取得巨大突破以來獲得了廣泛的研究, 它在許多其他計算機視覺任務(wù)(包括對象檢測、語義分割、邊緣檢測等)中也取得了令人驚訝的性能. 近年, 脈沖星候選體篩選使用的大多數(shù)深度學(xué)習(xí)網(wǎng)絡(luò)模型都是基于卷積神經(jīng)網(wǎng)絡(luò)或其某種變體: 文獻[19]使用5層卷積神經(jīng)網(wǎng)絡(luò)處理2維子圖進行脈沖星分類; 文獻[13]設(shè)計了一個11層的卷積神經(jīng)網(wǎng)絡(luò)結(jié)果以取代文獻[19]中簡單的5層體系結(jié)構(gòu), 并獲得了更好的性能; 文獻[21]使用生成對抗網(wǎng)絡(luò)(Generative Adversarial Networks,GAN)解決樣本類別不平衡問題, 然后使用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練新數(shù)據(jù)集; 文獻[22]描述了一個組合卷積神經(jīng)網(wǎng)絡(luò), 來識別從FAST數(shù)據(jù)中收集的候選對象. 但深度神經(jīng)網(wǎng)絡(luò)隨著層數(shù)的逐漸加深變得難以訓(xùn)練和優(yōu)化, 而卷積神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練和分類相對較慢[23].另外, 隨著網(wǎng)絡(luò)的深入, 盡管增加了層數(shù), 但訓(xùn)練誤差仍大于淺層的網(wǎng)絡(luò), 為了解決這一問題, 殘差網(wǎng)絡(luò)隨之產(chǎn)生. ResNet[30]贏得了ImageNet的挑戰(zhàn), 引起了很多關(guān)注, 因為深度殘差網(wǎng)絡(luò)能夠“使深度學(xué)習(xí)變得更加深入”. 殘差網(wǎng)絡(luò)可以被視為具有殘差學(xué)習(xí)框架的典型卷積神經(jīng)網(wǎng)絡(luò). 深度神經(jīng)網(wǎng)絡(luò)隨著網(wǎng)絡(luò)深度的增加, 往往會出現(xiàn)梯度彌散或梯度爆炸等問題, 運用正則化可以使得網(wǎng)絡(luò)繼續(xù)訓(xùn)練, 但是, 隨著網(wǎng)絡(luò)層數(shù)的增加, 模型在訓(xùn)練集上的準(zhǔn)確率會達到飽和甚至下降, 也就是出現(xiàn)了退化問題. 文獻[30]提出了一種殘差學(xué)習(xí)框架(圖2)來解決退化問題. 如圖2所示,X表示殘差塊的輸入(診斷圖圖像), 模型的期望輸出為H(X),F(X)是網(wǎng)絡(luò)學(xué)習(xí)到的映射函數(shù), 所使用的激活函數(shù)為Relu (Rectified linear unit). 如果深層網(wǎng)絡(luò)的后面網(wǎng)絡(luò)層是恒等映射, 即直接把輸入的X傳到輸出, 那么模型就會退化成為一個淺層網(wǎng)絡(luò), 其關(guān)系為H(X)=F(X)+X. 由殘差塊組成可知, 要學(xué)習(xí)的函數(shù)F(X)經(jīng)過殘差塊轉(zhuǎn)化為殘差函數(shù)F(X)=H(X)?X. 當(dāng)F(X)=0,就構(gòu)成了一個恒等映射H(X)=X, 擬合殘差相對更容易. 殘差網(wǎng)絡(luò)由一系列殘留塊組成, 每個殘差塊包含兩個分支: 恒等映射和殘差分支. 恒等映射從輸入到中間層以及從中間層到輸出層引入了捷徑連接(shortcut connections) (圖2中的Xidentity), 緩解了梯度消失問題, 同時降低了訓(xùn)練難度. 殘差網(wǎng)絡(luò)容易優(yōu)化, 并且隨著網(wǎng)絡(luò)深度的增加, 準(zhǔn)確率會提高.

    圖2 殘差學(xué)習(xí)結(jié)構(gòu): 殘差塊[30]Fig.2 Residual learning structure: residual block[30]

    3.2 模型架構(gòu)

    ResNet結(jié)構(gòu)是功能強大的識別系統(tǒng), 可以直接分析2維圖像. 根據(jù)網(wǎng)絡(luò)的這一特征, 直接將脈沖星數(shù)據(jù)集預(yù)處理后的2維子圖(圖1)作為輸入. 設(shè)計的網(wǎng)絡(luò)結(jié)構(gòu)由圖像大小、網(wǎng)絡(luò)深度、特征映射的數(shù)量、卷積核大小、池化層大小等超參數(shù)確定. 為了獲得最佳模型, 通過交叉驗證的方法來調(diào)整模型超參數(shù)的各種組合. 首先將候選體標(biāo)記數(shù)據(jù)隨機打亂進行分割, 其中80%的數(shù)據(jù)樣本組成訓(xùn)練集, 20%的樣本組成測試集, 然后通過網(wǎng)格搜索的方式對模型進行訓(xùn)練, 通過在測試集上計算其F1分數(shù)(F1-score)來表征性能. 最后, 根據(jù)分類精度確定了網(wǎng)絡(luò)結(jié)構(gòu)和超參數(shù). 用14層的深度殘差網(wǎng)絡(luò)進行實驗, 發(fā)現(xiàn)它能夠獲得很高的精度. 因此, 本文設(shè)計的ResNet模型包括14層.圖3展示的是本文使用的ResNet模型網(wǎng)絡(luò)結(jié)構(gòu), 同時顯示了整個訓(xùn)練過程. 圖3主要分為兩部分, 左側(cè)是模型的整體訓(xùn)練流程, 右側(cè)的ResBlock是殘差塊(Residual block).Image data是模型的輸入數(shù)據(jù), 為500×500像素大小的灰度圖片. COV表示卷積運算, 其中COV-7×7-64所代表的分別是卷積核大小為7×7, 最后的輸出通道數(shù)目為64;C1 : 112×112×64中C代表卷積層(Convolution, C), C1表示卷積層為第1層, 經(jīng)過此層的卷積之后, 輸出大小為112×112×64. BN表示批量標(biāo)準(zhǔn)化(Batch Normalization),ResNet引入BN是為了提高模型的訓(xùn)練速度, 加快收斂. Max pooling是最大值池化,Average pooling是平均池化, FC (Fully Connected layer)指的是全連接層, softmax是最后的輸出, 輸出顯示了2個類別的分類得分和類別名(1表示正樣本, 0表示負樣本),從而完成對樣本進行預(yù)測. 所設(shè)計ResNet模型的Resblock個數(shù)分別為[2, 2, 1, 1], 加上開始的1個卷積層和最后的1個全連接層共有14層. ResBlock部分, 輸入為所要分類處理的圖片, 大小為W ×H, 輸入圖片的通道數(shù)目為IN, 輸出圖片通道數(shù)目為OUT, 如果IN == OUT, 則經(jīng)過卷積塊處理之后的輸出結(jié)果為[W ×H ×OUT]; 反之, 輸出結(jié)果為{int[(W ?1)/2+1],int[(W ?1)/2+1],OUT}, 其中int為取整函數(shù).

    圖3 模型架構(gòu)[30]Fig.3 Model architecture[30]

    與文獻[23]相比, 網(wǎng)絡(luò)模型的整體結(jié)構(gòu)相似, 均是利用ResNet提取特征與分類. 本文的網(wǎng)絡(luò)模型是在傳統(tǒng)的18層ResNet網(wǎng)絡(luò)的基礎(chǔ)上, 以得到較優(yōu)的網(wǎng)絡(luò)性能為目標(biāo),經(jīng)過多次網(wǎng)絡(luò)結(jié)構(gòu)修改和參數(shù)調(diào)整確定的. 不同之處有以下兩點: 首先是網(wǎng)絡(luò)的層數(shù)不同. 本文的ResNet層數(shù)是14層, 文獻[23]的ResNet層數(shù)為15層. 所設(shè)計ResNet模型如圖3所示, 包含1個輸入的卷積層、1個全連接輸出層、中間是12個卷積層, 共14層. 12個卷積層由4組殘差塊組成, 每組殘差塊包含的殘差塊的個數(shù)分別為[2, 2, 1, 1], 每個殘差塊均包含2個卷積層. 文獻[23]的網(wǎng)絡(luò)模型包含1個輸入卷積層、2個輸出層、中間是12個卷積層, 共15層. 12個卷積層由3組殘差塊組成, 每組有2個殘差塊, 每個殘差塊均有2個卷積層; 其次, 卷積層的步長和輸出通道大小均不同. 本文采用的步長分別是[2, 1, 2, 2,2], 因此最后一層卷積輸出的圖像的寬和高為輸入圖像的1/16. 文獻[23]使用的卷積層的步長均是1, 因此最后一層卷積輸出的圖像大小和輸入圖像大小相同. 本文的卷積層的輸出通道大小分別是[64, 64, 128, 256, 512], 第1個是輸入卷積層的輸出通道大小, 其余的是4組殘差塊的輸出通道大小. 文獻[23]卷積層的輸出通道大小分別是[16, 16, 32, 64],第1個是輸入卷積層的輸出通道大小, 其余3個是3組殘差塊的輸出通道大小.

    除了模型本身已有的批量標(biāo)準(zhǔn)化處理, 在模型訓(xùn)練過程中為了防止過度擬合, 使用批量歸一化處理和L2正則化, 具體定義見3.3節(jié). 用深層訓(xùn)練神經(jīng)網(wǎng)絡(luò)具有挑戰(zhàn)性, 因為它們可能對初始隨機權(quán)重和學(xué)習(xí)算法的配置敏感. 批量歸一化處理[31]是一種用于訓(xùn)練非常深的神經(jīng)網(wǎng)絡(luò)的技術(shù), 該技術(shù)將每個小批次的輸入標(biāo)準(zhǔn)化, 使模型學(xué)習(xí)過程穩(wěn)定, 并顯著減少訓(xùn)練深度網(wǎng)絡(luò)所需的訓(xùn)練時間. 另外, 還使用Adam優(yōu)化器[32]在特定批次大小的數(shù)據(jù)中訓(xùn)練網(wǎng)絡(luò), 以加快訓(xùn)練過程.

    3.3 損失函數(shù)

    脈沖星候選體識別任務(wù)是二分類問題, 因此將交叉熵損失用作損失函數(shù)來優(yōu)化模型. 交叉熵損失L(ω)的定義如下:

    其中,ω表示權(quán)重向量,N表示樣本數(shù),yn和?yn分別表示實際值和預(yù)測輸出值.

    為了使模型更具有魯棒性, 添加了L2正則化作為權(quán)重衰減. 此時損失函數(shù)的計算公式重新定義為:

    其中λ是懲罰系數(shù).

    L2正則化可以減輕模型對樣本的敏感, 此外還使用批量歸一化處理技術(shù)和Adam優(yōu)化器來優(yōu)化模型.

    4 訓(xùn)練結(jié)果與分析

    4.1 評估指標(biāo)

    由于HTRUS數(shù)據(jù)集類別存在高度不平衡問題, 無法直接根據(jù)分類準(zhǔn)確度推斷模型性能. 因此, 需要建立新的評估指標(biāo)來評估分類器的有效性, 引入了二分類的混淆矩陣,如下表2所示:

    表2 混淆矩陣Table 2 Confusion matrix

    TP是模型將正樣本正確識別為正樣本的數(shù)量, 即脈沖星被正確識別的數(shù)量. 這意味著觀測樣本屬于正類, 并且被分類器正確地標(biāo)記為1;

    TN是模型將正樣本錯誤識別為負樣本的數(shù)量, 即脈沖星被誤判為非脈沖星的數(shù)量;

    FP是模型將負樣本錯誤識別為正樣本的數(shù)量, 即非脈沖星被誤判為脈沖星的數(shù)量;

    FN是模型將非脈沖星正確識別為負樣本的數(shù)量. 這意味著觀測樣本屬于負類, 并且被分類器正確地標(biāo)記為0.

    總之, TP和FN表示可以正確識別的對象, 而TN和FP表示錯誤識別的對象. 基于這些值來定義指標(biāo)以評估本文算法的性能, 以下是對本文所使用評估指標(biāo)的解釋.召回率(Recall): 又稱查全率, 表示正確識別脈沖星的比例.

    精確度(Precision): 精確度表示預(yù)測為正樣本的數(shù)據(jù)中脈沖星數(shù)量所占的比例.

    準(zhǔn)確率(Accuracy): 準(zhǔn)確率是一般分類場景中最常用的評分指標(biāo), 它需要確保樣本平衡. 在HTRUS失衡數(shù)據(jù)集中, 這個評估分數(shù)幾乎沒有什么意義.

    F1分數(shù)(F1-score): F1-score是精確度和召回率的調(diào)和平均值, 它提供了另一種準(zhǔn)確性度量. 它可以用作精確度和召回率之間的折衷, 可以確保訓(xùn)練的模型在不會忽略某些脈沖星信號的同時也有很高的分類準(zhǔn)確率, 值越接近1代表分類效果越好.

    4.2 模型訓(xùn)練

    在本小節(jié)中, 描述了14層殘差網(wǎng)絡(luò)(ResNet)的訓(xùn)練和測試過程, 所使用的數(shù)據(jù)集為HTRUS數(shù)據(jù)集. 本文采用的實驗平臺是中國SKA區(qū)域數(shù)據(jù)中心原型機[33], 該原型機已經(jīng)成功應(yīng)用于SKA連續(xù)譜成像數(shù)據(jù)處理[34]和SKA脈沖星數(shù)據(jù)處理[35]. 本文的訓(xùn)練和測試任務(wù)均是在該原型機的GPU集群上完成, 該集群共有3個GPU節(jié)點, 共配置了16個GPU卡. 本文的工作主要使用了1個GPU卡, 型號是Nvidia Tesla V100 SXM2, 這個GPU卡的理論浮點運算能力約為15.7 TFLOP (單精度).

    訓(xùn)練采用了交叉驗證方法和模型超參數(shù)的設(shè)置與篩選. 在數(shù)據(jù)預(yù)處理完成之后, 采用5折交叉驗證的方法對交叉驗證集(表1)進行模型訓(xùn)練, 詳細過程見2.2節(jié). 本文的網(wǎng)絡(luò)訓(xùn)練一共進行了35輪(epoch)的迭代, 如圖4所示, 畫出了損失函數(shù)隨著迭代次數(shù)增加的變化曲線. 訓(xùn)練的目的是盡可能減小損失并確保模型能夠收斂, 從而得到較優(yōu)的模型.觀察曲線可看出, 訓(xùn)練過程中損失函數(shù)數(shù)值隨著訓(xùn)練輪數(shù)的增加在不斷地降低, 最終到達一個較低的數(shù)值后保持平穩(wěn), 說明模型能夠收斂. 在進行實驗時也嘗試過用14層以上的ResNet進行模型訓(xùn)練, 由于層數(shù)太深, 出現(xiàn)了過擬合, 最終獲得的損失函數(shù)曲線隨著訓(xùn)練輪數(shù)的增加一直震蕩, 無法收斂.

    根據(jù)損失函數(shù)曲線來診斷模型, 一般而言, 完美擬合是模型調(diào)整的目標(biāo), 它在損失函數(shù)曲線上的特點是訓(xùn)練誤差(training loss)和測試誤差(validation loss)兩者都能夠收斂,并且兩者之間相差很小. 從圖4可以看出模型大概在10輪之后兩個損失函數(shù)曲線都開始收斂, 在35輪之后, 兩條曲線沒有肉眼可見的明顯差距, 證明最終構(gòu)建的模型可以很好地擬合數(shù)據(jù).

    圖4 損失函數(shù)曲線Fig.4 Loss function curve

    關(guān)于模型超參數(shù)的設(shè)置與篩選, 在所設(shè)計模型訓(xùn)練過程中為了防止過擬合采取了很多措施. 在損失函數(shù)求解過程中加入L2正則化, 在3.3節(jié)已經(jīng)給出介紹. 還使用批量歸一化對數(shù)據(jù)進行處理, 利用Adam優(yōu)化器優(yōu)化模型. 其中批處理的大小(batch size)為512,在每輪中, 每次從訓(xùn)練集中隨機篩選512個候選體樣本來訓(xùn)練模型和更新參數(shù). 重復(fù)此步驟, 直到使用完所有訓(xùn)練數(shù)據(jù)為止. 一共訓(xùn)練了35輪, 最終的損失函數(shù)值為0.38.Adam優(yōu)化器的超參數(shù)初始值的設(shè)置在表3中詳細給出, 其中batch size代表批處理大小,epoch表示訓(xùn)練輪數(shù). CONV WEIGHT DECAY為卷積層權(quán)重衰減率, 用于權(quán)重衰減(L2正則化), CONV WEIGHT STDDEV為卷積層權(quán)重標(biāo)準(zhǔn)差, 可以避免模型過擬合問題. BN DECAY為BN層衰減率, BN EPSILON為BN層初始化參數(shù), 會影響模型的訓(xùn)練速率和準(zhǔn)確率.

    表3 模型超參數(shù)數(shù)值Table 3 Hyperparameter values of model

    4.3 測試結(jié)果與分析

    模型訓(xùn)練完成后, 用測試集進行模型性能的測試. 本小節(jié)展示了最終的模型測試結(jié)果, 并與利用人工智能方法構(gòu)建的其他模型在HTURS數(shù)據(jù)集上的性能(表現(xiàn))進行比較,然后對誤判樣本進行了成圖分析.

    測試結(jié)果如表4所示, 展示的是在測試集上所得出的混淆矩陣. 表4中, 已知測試集中含有17680個負樣本, 240個正樣本, 測試結(jié)果中全部的脈沖星都被判別正確, RFI則有6個樣本被誤判為脈沖星. 通過進一步計算可以得出, 對于HTRUS數(shù)據(jù)集, 在測試數(shù)據(jù)上, ResNet模型可以實現(xiàn)100%的召回率和98%的精確度, F1-score能夠達到99%. 另外, 每個樣本檢測完成所消耗的時間約為7 ms, 運行速度相當(dāng)高.

    表4 測試結(jié)果的混淆矩陣Table 4 Confusion matrix of testing results

    表5是在HTRUS數(shù)據(jù)集上不同模型的測試結(jié)果, 其中SPINN[24](Straightforward Pulsar Identification using Neural Networks)是通過提取輸入數(shù)據(jù)6個數(shù)值特征作為網(wǎng)絡(luò)輸入, 訓(xùn)練神經(jīng)網(wǎng)絡(luò)ANN獲得模型; GH-VFDT[7](the Gaussian-Hellinger Very Fast Decision Tree)是利用從輸入數(shù)據(jù)提取的8個數(shù)值特征對樹網(wǎng)絡(luò)進行訓(xùn)練獲得模型; DCNN-S[13]是先用SMOTE方法對原始數(shù)據(jù)進行數(shù)據(jù)增強, 然后訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network, DCNN)得到最終模型; CGANL2-SVM-1[21]是時間-相位圖作為網(wǎng)絡(luò)輸入, 通過訓(xùn)練由深度卷積生成的對抗網(wǎng)絡(luò)(Deep Convolution Generative Adversarial Network, DCGAN), 分類層采用線性SVM(L2-SVM)來進行分類, 從而獲得最終模型. 根據(jù)結(jié)果可以看出本文的訓(xùn)練模型獲得的分類性能較好, Recall能夠達到100%, 相比于其他模型, 精確度也提高到98%, 即預(yù)測為正樣本的數(shù)據(jù)中脈沖星數(shù)量所占的比例是98%, 因為在測試結(jié)果中僅有6個樣本被判斷錯誤(表4). 雖然精確度不能達到100%, 但是由于分類任務(wù)的關(guān)鍵是識別所有的脈沖星樣本, Recall的結(jié)果更為重要, 已經(jīng)達到了100%, 意味著模型在HTRUS測試集上能夠識別全部的脈沖星樣本. 綜上, 實驗結(jié)果表明本文設(shè)計的網(wǎng)絡(luò)獲得的模型具有較優(yōu)秀的分類性能.

    表5 HTRUS數(shù)據(jù)集上不同分類器分類性能的比較Table 5 Comparison of classification performance for different classifiers on the HTRUS data set

    另外為了分析模型的不足之處, 我們對判斷錯誤的RFI樣本進行了分析. 分析發(fā)現(xiàn)導(dǎo)致RFI誤判的原因主要有2個: 第1個原因是訓(xùn)練數(shù)據(jù)中正樣本的問題, 在用于訓(xùn)練的數(shù)據(jù)樣本中, 存在一部分流量密度小, 且噪聲水平較高的脈沖星正樣本, 它們的數(shù)據(jù)并不存在圖1所展示的明顯條紋, 其時間-相位圖和頻率-相位圖中信號強度的分布是雜亂無章的. 而在進行模型設(shè)計時, 除了要保證高精確度外, 還要保持極高的脈沖星召回率,使其不錯過任何一個候選體樣本, 因為這個原因可能會導(dǎo)致訓(xùn)練出的模型存在偏置.第2個原因是預(yù)測數(shù)據(jù)中的負樣本(RFI)數(shù)據(jù)的問題, 這些數(shù)據(jù)產(chǎn)生的時間-相位圖和頻率-相位圖與脈沖星圖像很相似. 圖5給出了測試集中一個被誤判為脈沖星的RFI樣本(cand072775)示例. 在分析過程中, 為了防止人為觀察不夠準(zhǔn)確引入錯誤, 加入了色散度量(Dispersion Measure, DM)-信噪比(Signal to Noise Ratio, SNR)曲線對樣本的分析,即圖5下方子圖. 圖5上方的兩個子圖是模型用來訓(xùn)練的輸入子圖(時間-相位圖和頻率-相位圖). DM-SNR曲線記錄了SNR與DM的關(guān)系, 當(dāng)使用不同的色散值進行消色散時, 色散曲線顯示脈沖曲線的相應(yīng)SNR. 如果是脈沖信號, 則曲線將在非零位置出現(xiàn)一個峰值,而非脈沖信號的曲線則沒有明顯峰值或峰值在零處. 觀察此圖像的DM-SNR曲線沒有發(fā)現(xiàn)明顯的峰值, 這類信號大概率就是大氣層內(nèi)人造射電源的信號, 并非來自脈沖星的脈沖信號.

    圖5 RFI誤判樣本示例Fig.5 Examples of misjudged RFI

    5 總結(jié)和展望

    為了解決脈沖星候選體識別問題, 提出了一種基于ResNet的網(wǎng)絡(luò)結(jié)構(gòu). 通過直接使用脈沖星候選體的2維子圖作為輸入, 它避免了數(shù)據(jù)中人為設(shè)計提取特征的繁瑣, 并且還可防止人為因素對數(shù)據(jù)的干擾, 更符合深度學(xué)習(xí)數(shù)據(jù)驅(qū)動的性質(zhì). 在此項工作中, 為了解決類別不平衡問題, 使用了過采樣技術(shù)對少數(shù)類別樣本進行處理. 為了應(yīng)對樣本數(shù)量不足的問題采取交叉驗證的方法來訓(xùn)練數(shù)據(jù)集, 使得所構(gòu)建的模型能更充分地學(xué)習(xí), 更好地擬合數(shù)據(jù). 所設(shè)計的14層ResNet模型最終達到了100%的Recall, 能夠識別所有的脈沖星樣本, 具有出色的分類能力.

    ResNet是一種先進的網(wǎng)絡(luò), 在脈沖星搜索領(lǐng)域具有良好的應(yīng)用前景. 為了提高泛化性能和分類精度, 可以考慮其他的圖像處理方法, 不僅僅是應(yīng)用過采樣的方法對數(shù)據(jù)進行處理, 還可以對脈沖星正樣本加入噪聲, 這樣模型就能夠更精細地學(xué)習(xí)到樣本數(shù)據(jù)之間的區(qū)別, 非脈沖星樣本被誤判的可能性可能會被降低; 其次, 還可以考慮數(shù)據(jù)的其他診斷圖特征(總輪廓直方圖, DM-SNR曲線等). 未來的工作將考慮DM-SNR曲線作為模型的輸入,并嘗試使用其他模型擬合曲線以確定是否值得使用其他特征作為輸入. 最后,最重要的是需要收集新的觀測數(shù)據(jù)樣本, 尤其是脈沖星正樣本的數(shù)量, 樣本數(shù)據(jù)問題越少(比如樣本不均衡問題), 數(shù)據(jù)量越大, 模型就越能發(fā)現(xiàn)數(shù)據(jù)所存在的內(nèi)在規(guī)律, 其分類精度就會越高.

    猜你喜歡
    脈沖星殘差卷積
    “中國天眼”已發(fā)現(xiàn)740余顆新脈沖星
    軍事文摘(2023年12期)2023-06-12 07:51:00
    發(fā)現(xiàn)脈沖星的女天文學(xué)家——貝爾
    科學(xué)(2022年4期)2022-10-25 02:43:42
    基于雙向GRU與殘差擬合的車輛跟馳建模
    基于3D-Winograd的快速卷積算法設(shè)計及FPGA實現(xiàn)
    基于殘差學(xué)習(xí)的自適應(yīng)無人機目標(biāo)跟蹤算法
    基于遞歸殘差網(wǎng)絡(luò)的圖像超分辨率重建
    從濾波器理解卷積
    電子制作(2019年11期)2019-07-04 00:34:38
    基于傅里葉域卷積表示的目標(biāo)跟蹤算法
    基于虛擬觀測值的X射線單脈沖星星光組合導(dǎo)航
    平穩(wěn)自相關(guān)過程的殘差累積和控制圖
    河南科技(2015年8期)2015-03-11 16:23:52
    很黄的视频免费| 亚洲av成人精品一区久久| 国产亚洲精品综合一区在线观看| 12—13女人毛片做爰片一| www日本黄色视频网| 国产精品自产拍在线观看55亚洲| 三级毛片av免费| 亚洲av成人精品一区久久| 波野结衣二区三区在线| av欧美777| 制服丝袜大香蕉在线| 国产成人av教育| 欧美一级a爱片免费观看看| 国产乱人伦免费视频| 村上凉子中文字幕在线| 99国产综合亚洲精品| 一级黄片播放器| 国产精品电影一区二区三区| 99久久久亚洲精品蜜臀av| 国产私拍福利视频在线观看| 给我免费播放毛片高清在线观看| 亚洲三级黄色毛片| 国产午夜福利久久久久久| 搡女人真爽免费视频火全软件 | 国产精品亚洲美女久久久| 我的老师免费观看完整版| 国产精品一及| 国产亚洲精品久久久com| 国产在视频线在精品| 国产精品一区二区三区四区免费观看 | 久久午夜福利片| 欧美成人免费av一区二区三区| 国产午夜精品论理片| 此物有八面人人有两片| 一级毛片久久久久久久久女| 99久久精品国产亚洲精品| 赤兔流量卡办理| 一区二区三区高清视频在线| 精品午夜福利在线看| 国模一区二区三区四区视频| 亚洲人成网站高清观看| 全区人妻精品视频| 美女黄网站色视频| 精品欧美国产一区二区三| 午夜久久久久精精品| 亚洲av二区三区四区| av欧美777| а√天堂www在线а√下载| 首页视频小说图片口味搜索| 国产毛片a区久久久久| 美女大奶头视频| 制服丝袜大香蕉在线| 国产单亲对白刺激| 国产精品1区2区在线观看.| avwww免费| 国产高清有码在线观看视频| www.熟女人妻精品国产| 黄色日韩在线| 精品一区二区免费观看| 精品一区二区三区视频在线| 夜夜躁狠狠躁天天躁| 欧美日韩黄片免| 免费高清视频大片| 国产日本99.免费观看| 十八禁网站免费在线| 日本一二三区视频观看| 99热精品在线国产| 人人妻人人澡欧美一区二区| 日日干狠狠操夜夜爽| 中出人妻视频一区二区| .国产精品久久| 亚洲综合色惰| 成人av在线播放网站| 欧美最黄视频在线播放免费| 亚洲精品一区av在线观看| 听说在线观看完整版免费高清| 免费在线观看亚洲国产| 欧美精品啪啪一区二区三区| 国产精品一及| 久久九九热精品免费| 高潮久久久久久久久久久不卡| 12—13女人毛片做爰片一| 久久久久久国产a免费观看| 三级毛片av免费| 韩国av一区二区三区四区| 色在线成人网| 18禁裸乳无遮挡免费网站照片| 欧洲精品卡2卡3卡4卡5卡区| 欧美日韩黄片免| 亚洲内射少妇av| 一进一出抽搐动态| 久久久久国产精品人妻aⅴ院| 丁香欧美五月| 男人的好看免费观看在线视频| 男女那种视频在线观看| 日韩免费av在线播放| 综合色av麻豆| 精品久久久久久成人av| 每晚都被弄得嗷嗷叫到高潮| 深爱激情五月婷婷| 级片在线观看| 婷婷精品国产亚洲av在线| 免费看美女性在线毛片视频| 精品日产1卡2卡| 国语自产精品视频在线第100页| 丰满的人妻完整版| 18禁黄网站禁片午夜丰满| 91九色精品人成在线观看| 亚洲成人中文字幕在线播放| 久久九九热精品免费| 丁香六月欧美| 精华霜和精华液先用哪个| 女人十人毛片免费观看3o分钟| 亚洲男人的天堂狠狠| 欧美日韩综合久久久久久 | 18禁在线播放成人免费| www.熟女人妻精品国产| 又粗又爽又猛毛片免费看| 嫩草影院精品99| 国产单亲对白刺激| 小说图片视频综合网站| or卡值多少钱| 亚洲国产精品久久男人天堂| 亚洲中文字幕一区二区三区有码在线看| 国产国拍精品亚洲av在线观看| 国产麻豆成人av免费视频| 欧美激情国产日韩精品一区| 我的女老师完整版在线观看| 麻豆成人午夜福利视频| 精品久久久久久久久久免费视频| 中文字幕av在线有码专区| 又爽又黄无遮挡网站| 精品国内亚洲2022精品成人| 色哟哟哟哟哟哟| 久久人人爽人人爽人人片va | 国产精品久久电影中文字幕| 欧美绝顶高潮抽搐喷水| 波野结衣二区三区在线| 亚洲激情在线av| www.www免费av| 欧美国产日韩亚洲一区| 麻豆一二三区av精品| 亚洲av二区三区四区| 成人国产一区最新在线观看| 九色成人免费人妻av| 18禁裸乳无遮挡免费网站照片| 欧美色欧美亚洲另类二区| 久久国产精品人妻蜜桃| 日本熟妇午夜| 97碰自拍视频| 久久人人爽人人爽人人片va | 中文在线观看免费www的网站| 亚洲va日本ⅴa欧美va伊人久久| 91久久精品电影网| 五月玫瑰六月丁香| 精品久久久久久久末码| 国产单亲对白刺激| 韩国av一区二区三区四区| 久久久久久九九精品二区国产| 国产精品,欧美在线| 中亚洲国语对白在线视频| 蜜桃亚洲精品一区二区三区| 国产极品精品免费视频能看的| 国产亚洲欧美在线一区二区| 色尼玛亚洲综合影院| 身体一侧抽搐| 99久久无色码亚洲精品果冻| 看片在线看免费视频| 亚洲精品日韩av片在线观看| 别揉我奶头~嗯~啊~动态视频| 欧美日韩国产亚洲二区| 久久精品影院6| 久久草成人影院| 国产老妇女一区| 欧美一区二区国产精品久久精品| 国产在视频线在精品| 91字幕亚洲| 岛国在线免费视频观看| 久久久久久久久中文| av欧美777| 国产真实乱freesex| 两性午夜刺激爽爽歪歪视频在线观看| 少妇的逼好多水| 久久精品国产99精品国产亚洲性色| 又紧又爽又黄一区二区| 精品免费久久久久久久清纯| 天堂av国产一区二区熟女人妻| av在线蜜桃| 五月玫瑰六月丁香| 精品久久久久久成人av| 麻豆成人av在线观看| 他把我摸到了高潮在线观看| 国产麻豆成人av免费视频| 老熟妇乱子伦视频在线观看| 淫秽高清视频在线观看| 亚洲精品乱码久久久v下载方式| 12—13女人毛片做爰片一| 嫩草影院新地址| 国产 一区 欧美 日韩| 日本五十路高清| 久久久久国内视频| 老司机深夜福利视频在线观看| 美女黄网站色视频| 国产精品免费一区二区三区在线| x7x7x7水蜜桃| 国产精品98久久久久久宅男小说| 超碰av人人做人人爽久久| 久久人妻av系列| 精品人妻1区二区| 一边摸一边抽搐一进一小说| 熟妇人妻久久中文字幕3abv| 欧美性猛交黑人性爽| 国产精品永久免费网站| 欧美丝袜亚洲另类 | avwww免费| 精品人妻熟女av久视频| 亚洲国产高清在线一区二区三| 国产精品女同一区二区软件 | 国产一区二区三区视频了| 一个人免费在线观看电影| 天堂影院成人在线观看| 少妇被粗大猛烈的视频| 国内精品久久久久久久电影| 每晚都被弄得嗷嗷叫到高潮| 国产成人影院久久av| 一本综合久久免费| 久久久久久国产a免费观看| 久久精品国产亚洲av天美| 亚洲av成人不卡在线观看播放网| 国产亚洲精品久久久com| 日本熟妇午夜| 黄色视频,在线免费观看| av在线老鸭窝| 少妇丰满av| 狂野欧美白嫩少妇大欣赏| 网址你懂的国产日韩在线| 久久久久久大精品| 人妻丰满熟妇av一区二区三区| 美女免费视频网站| 熟女人妻精品中文字幕| 动漫黄色视频在线观看| 久久午夜福利片| 搡老熟女国产l中国老女人| 国产成年人精品一区二区| 极品教师在线视频| 99国产极品粉嫩在线观看| 久久久久国内视频| av在线老鸭窝| 白带黄色成豆腐渣| 真实男女啪啪啪动态图| 亚洲专区国产一区二区| 一进一出好大好爽视频| 国产精品日韩av在线免费观看| 亚洲片人在线观看| 性插视频无遮挡在线免费观看| 男女那种视频在线观看| 亚洲专区中文字幕在线| 成年女人永久免费观看视频| 国产亚洲欧美98| 国产午夜精品论理片| 久久这里只有精品中国| www.www免费av| 99热精品在线国产| 亚洲成人中文字幕在线播放| 免费观看的影片在线观看| 天堂网av新在线| 亚洲色图av天堂| 床上黄色一级片| 欧美丝袜亚洲另类 | av天堂中文字幕网| 99热只有精品国产| av女优亚洲男人天堂| 欧美+日韩+精品| 久久亚洲精品不卡| 嫁个100分男人电影在线观看| 精品久久久久久久久久免费视频| 男人舔奶头视频| 久久午夜福利片| 久久久久久久久中文| 久久国产乱子免费精品| 日韩高清综合在线| 日日摸夜夜添夜夜添小说| 一进一出抽搐gif免费好疼| 最近视频中文字幕2019在线8| x7x7x7水蜜桃| 中文资源天堂在线| 九九在线视频观看精品| 高清日韩中文字幕在线| 一区二区三区免费毛片| www.熟女人妻精品国产| 在线a可以看的网站| 免费电影在线观看免费观看| 69av精品久久久久久| 精品日产1卡2卡| 搞女人的毛片| 久久精品人妻少妇| 国产伦人伦偷精品视频| 中文字幕免费在线视频6| 757午夜福利合集在线观看| 免费av毛片视频| 欧美成狂野欧美在线观看| 亚洲在线自拍视频| av天堂在线播放| 一个人免费在线观看电影| 精品久久久久久成人av| 免费av不卡在线播放| 亚洲自偷自拍三级| 性插视频无遮挡在线免费观看| 蜜桃久久精品国产亚洲av| 三级男女做爰猛烈吃奶摸视频| 午夜福利欧美成人| 亚洲五月天丁香| 日韩欧美在线二视频| 亚洲色图av天堂| 亚洲乱码一区二区免费版| 免费观看人在逋| 亚洲欧美精品综合久久99| 757午夜福利合集在线观看| 国产高清激情床上av| 禁无遮挡网站| 日日摸夜夜添夜夜添av毛片 | 国产野战对白在线观看| 久久午夜福利片| 精品国内亚洲2022精品成人| 一级a爱片免费观看的视频| 欧美成人一区二区免费高清观看| 免费观看精品视频网站| 少妇人妻一区二区三区视频| 日本 欧美在线| 啦啦啦观看免费观看视频高清| 美女大奶头视频| 国产真实乱freesex| 日韩欧美在线乱码| 精品乱码久久久久久99久播| 一进一出抽搐动态| 欧美精品啪啪一区二区三区| 成年女人永久免费观看视频| 欧美极品一区二区三区四区| 国产成+人综合+亚洲专区| 五月伊人婷婷丁香| 99精品久久久久人妻精品| 18+在线观看网站| 宅男免费午夜| 一级av片app| 我的老师免费观看完整版| 欧美一区二区亚洲| 久久国产精品人妻蜜桃| 欧美另类亚洲清纯唯美| 女同久久另类99精品国产91| 舔av片在线| 99热这里只有是精品在线观看 | 国产精品女同一区二区软件 | 国产高清视频在线观看网站| 97热精品久久久久久| 日韩欧美在线二视频| 精品一区二区三区视频在线观看免费| 久久国产乱子免费精品| a在线观看视频网站| 日韩欧美在线乱码| 国产男靠女视频免费网站| 免费观看人在逋| 老司机午夜福利在线观看视频| 日本成人三级电影网站| 亚洲熟妇中文字幕五十中出| 欧美黄色淫秽网站| 日韩国内少妇激情av| 宅男免费午夜| 欧美成人a在线观看| 婷婷丁香在线五月| 女同久久另类99精品国产91| 国产精品,欧美在线| 精品无人区乱码1区二区| 成人亚洲精品av一区二区| 不卡一级毛片| 国产高清有码在线观看视频| 乱码一卡2卡4卡精品| 国内少妇人妻偷人精品xxx网站| 国产一区二区三区在线臀色熟女| 久久99热6这里只有精品| 久久国产精品影院| 噜噜噜噜噜久久久久久91| 欧美国产日韩亚洲一区| 欧美一区二区精品小视频在线| 欧美激情在线99| 亚洲欧美日韩高清在线视频| 久久国产乱子伦精品免费另类| 亚洲欧美清纯卡通| 一个人看视频在线观看www免费| 亚洲综合色惰| 国内精品久久久久久久电影| 精品不卡国产一区二区三区| 淫秽高清视频在线观看| 高清在线国产一区| 色哟哟哟哟哟哟| 欧美成人性av电影在线观看| 啦啦啦观看免费观看视频高清| 五月伊人婷婷丁香| 日韩 亚洲 欧美在线| 久久国产精品影院| 中文字幕熟女人妻在线| 观看免费一级毛片| 婷婷色综合大香蕉| 国产av一区在线观看免费| 宅男免费午夜| 美女被艹到高潮喷水动态| 久久久久久大精品| 欧美日本视频| 成人午夜高清在线视频| 波野结衣二区三区在线| 久久午夜亚洲精品久久| 国产精品一区二区性色av| 亚洲成人久久爱视频| 午夜福利在线在线| 精品午夜福利视频在线观看一区| www.色视频.com| 国产 一区 欧美 日韩| 波多野结衣高清作品| 精品国内亚洲2022精品成人| 亚洲性夜色夜夜综合| 伊人久久精品亚洲午夜| 成人无遮挡网站| 国产一区二区三区视频了| 亚洲成人久久爱视频| 亚洲真实伦在线观看| 国产69精品久久久久777片| 一级a爱片免费观看的视频| 欧美高清性xxxxhd video| 九九久久精品国产亚洲av麻豆| 精品人妻一区二区三区麻豆 | 国产极品精品免费视频能看的| 欧美日韩福利视频一区二区| 日本与韩国留学比较| 亚洲av电影不卡..在线观看| 欧美午夜高清在线| 国产精品电影一区二区三区| 日韩欧美免费精品| 波野结衣二区三区在线| 麻豆成人午夜福利视频| 日本与韩国留学比较| 欧美日韩亚洲国产一区二区在线观看| 亚洲,欧美精品.| 丁香六月欧美| 日韩欧美免费精品| 麻豆成人av在线观看| 真人一进一出gif抽搐免费| 好男人电影高清在线观看| 亚洲成a人片在线一区二区| 久久人人精品亚洲av| 亚洲男人的天堂狠狠| 99热只有精品国产| 免费av观看视频| 男女之事视频高清在线观看| 国产老妇女一区| 99精品久久久久人妻精品| 2021天堂中文幕一二区在线观| 99久国产av精品| 婷婷六月久久综合丁香| 免费人成在线观看视频色| 欧美性感艳星| 国产黄片美女视频| 别揉我奶头~嗯~啊~动态视频| 免费看a级黄色片| 亚洲男人的天堂狠狠| 亚洲自偷自拍三级| 麻豆一二三区av精品| 国产欧美日韩精品亚洲av| 小蜜桃在线观看免费完整版高清| 日韩欧美免费精品| 国产视频一区二区在线看| 成年人黄色毛片网站| 精品人妻偷拍中文字幕| 色综合欧美亚洲国产小说| 黄色女人牲交| 精品久久久久久久人妻蜜臀av| 精品免费久久久久久久清纯| 免费看光身美女| 欧美性感艳星| 在线播放无遮挡| a级毛片免费高清观看在线播放| 国产伦精品一区二区三区四那| 天堂动漫精品| 国产综合懂色| 久久精品夜夜夜夜夜久久蜜豆| 最好的美女福利视频网| 嫩草影院精品99| 91在线观看av| 琪琪午夜伦伦电影理论片6080| 久久久精品大字幕| 国产精品一及| 最近最新中文字幕大全电影3| 日韩中字成人| 色尼玛亚洲综合影院| 精品乱码久久久久久99久播| 久久久精品大字幕| 变态另类丝袜制服| 午夜免费男女啪啪视频观看 | 国产亚洲精品综合一区在线观看| 亚洲内射少妇av| 中文字幕免费在线视频6| 亚洲美女视频黄频| 别揉我奶头 嗯啊视频| 国内揄拍国产精品人妻在线| 国内久久婷婷六月综合欲色啪| 一区福利在线观看| 又爽又黄无遮挡网站| 国产精品久久久久久亚洲av鲁大| 在线免费观看不下载黄p国产 | 亚洲人成网站高清观看| 国产av不卡久久| 午夜视频国产福利| 亚洲狠狠婷婷综合久久图片| 欧美乱色亚洲激情| 欧美性猛交╳xxx乱大交人| 在线观看舔阴道视频| 淫秽高清视频在线观看| 少妇的逼水好多| 亚洲狠狠婷婷综合久久图片| 欧美高清成人免费视频www| АⅤ资源中文在线天堂| 99久久成人亚洲精品观看| 亚洲电影在线观看av| 久久久精品欧美日韩精品| 51国产日韩欧美| 全区人妻精品视频| 禁无遮挡网站| 精品不卡国产一区二区三区| 国模一区二区三区四区视频| 国产精品98久久久久久宅男小说| 桃红色精品国产亚洲av| 日本与韩国留学比较| 一本精品99久久精品77| 美女xxoo啪啪120秒动态图 | 热99re8久久精品国产| 国产主播在线观看一区二区| 人妻丰满熟妇av一区二区三区| 床上黄色一级片| 中文字幕av在线有码专区| 琪琪午夜伦伦电影理论片6080| 日本一本二区三区精品| 欧美bdsm另类| 国产精品久久久久久精品电影| 国产 一区 欧美 日韩| 一二三四社区在线视频社区8| 窝窝影院91人妻| 俄罗斯特黄特色一大片| 一本综合久久免费| 免费看美女性在线毛片视频| 国产精品99久久久久久久久| 亚洲最大成人av| 窝窝影院91人妻| 亚洲熟妇中文字幕五十中出| 窝窝影院91人妻| 久久久久久久午夜电影| 亚洲成av人片在线播放无| 亚洲av电影在线进入| 欧美+日韩+精品| 老鸭窝网址在线观看| 久久精品91蜜桃| 真人一进一出gif抽搐免费| 欧美+亚洲+日韩+国产| 夜夜夜夜夜久久久久| 丁香欧美五月| 内地一区二区视频在线| 国产黄片美女视频| 免费电影在线观看免费观看| 中文字幕久久专区| 国产成人福利小说| 小蜜桃在线观看免费完整版高清| 中文字幕熟女人妻在线| 一本综合久久免费| 亚洲黑人精品在线| 精品一区二区三区视频在线观看免费| 99在线视频只有这里精品首页| 嫩草影视91久久| 欧美日韩亚洲国产一区二区在线观看| 美女黄网站色视频| 麻豆一二三区av精品| 精品免费久久久久久久清纯| 熟女电影av网| 美女 人体艺术 gogo| 欧美日本亚洲视频在线播放| 成人亚洲精品av一区二区| 亚洲片人在线观看| 久久人妻av系列| 丰满乱子伦码专区| 老司机深夜福利视频在线观看| 免费搜索国产男女视频| 久久久久国产精品人妻aⅴ院| 一区二区三区四区激情视频 | 日韩人妻高清精品专区| 国产精品伦人一区二区| 婷婷六月久久综合丁香| 美女被艹到高潮喷水动态| 深爱激情五月婷婷| 成年版毛片免费区| 久久午夜福利片| 久久精品91蜜桃| 国产成人aa在线观看| 91av网一区二区| 丰满人妻熟妇乱又伦精品不卡| 亚洲av免费在线观看| 天堂av国产一区二区熟女人妻| or卡值多少钱| 国内精品一区二区在线观看| 午夜亚洲福利在线播放| 亚洲色图av天堂| 男插女下体视频免费在线播放| 国产精品一区二区性色av| 一级作爱视频免费观看| 欧美日本亚洲视频在线播放| 亚洲男人的天堂狠狠| 亚洲av免费在线观看| 日日摸夜夜添夜夜添av毛片 | 嫁个100分男人电影在线观看| 亚洲精品在线观看二区|