• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    多模態(tài)硬幣圖像單應性矩陣預測

    2022-07-03 04:21:00鄧壯林張紹兵
    圖學學報 2022年3期
    關鍵詞:模態(tài)方法

    鄧壯林,張紹兵,3,成 苗,3,何 蓮,3

    多模態(tài)硬幣圖像單應性矩陣預測

    鄧壯林1,2,張紹兵1,2,3,成 苗1,2,3,何 蓮1,2,3

    (1. 中國科學院成都計算機應用研究所,四川 成都 610041;2. 中國科學院大學計算機科學與技術學院,北京 100049;3. 深圳市中鈔科信金融科技有限公司,廣東 深圳 518206)

    對不同成像條件下拍攝的硬幣圖像進行配準是硬幣表面缺陷算法的前置任務。然而,基于互信息的傳統(tǒng)多模態(tài)配準方法速度慢、精度低,現有的通過基于深度學習的單應性矩陣預測方法實現的圖像配準只適用于單模態(tài)的任務。為此,提出一種基于深度學習的適用于多模態(tài)硬幣圖像的單應性矩陣預測方法,進而使用預測的單應性矩陣完成圖像配準。首先,使用單應性矩陣預測層預測輸入圖像對間的單應性矩陣,使用單應性矩陣對待配準圖像進行透視變換;然后,使用圖像轉換層將透視變換后的待配準圖像和目標圖像映射到同一域,圖像轉換層可在推理時去除從而減少推理時間;最后,計算同一域下的圖像間的損失,并進行訓練。實驗表明,該方法在測試集上的平均距離誤差為3.417像素,相較于基于互信息的傳統(tǒng)多模態(tài)配準方法5.575像素的平均距離誤差降低38.71%。且配準單對圖像耗時為17.74 ms,遠低于基于互信息的傳統(tǒng)多模態(tài)配準方法的6 368.49 ms。

    單應性矩陣;圖像配準;硬幣;圖像轉換;多模態(tài)

    單應性矩陣在圖像剛性配準中發(fā)揮了重要作用[1]。若有一對從不同角度拍攝的同一平面的圖像,使用單應性矩陣對其中一幅圖像進行透視變換,可以使其和另一幅圖像配準[2]。在拍攝的物體近似平面(不是平面但拍攝位置相對于物體深度足夠遠)或拍攝2幅圖像的鏡頭僅有旋轉運動時,使用單應性矩陣仍然能夠配準圖像。目前針對單模態(tài)圖像對間的單應性矩陣預測已經得到了廣泛地研究,傳統(tǒng)方法和基于深度學習的方法[1-4]均取得了良好的效果。

    對不同成像條件下拍攝的硬幣圖像進行配準是硬幣表面缺陷檢測算法[5]的前置任務。如圖1所示,在穹頂光源下拍攝的硬幣圖像紋理信息豐富,所以圖像中的細微劃痕也清晰可見,但是丟失了顏色信息;同軸光源下拍攝的硬幣圖像有豐富的顏色信息,但是圖像中的細微劃痕與污漬混合難以分辨。所以需要融合2種圖像的特征進行圖像增強。然而由于2種硬幣圖像的成像系統(tǒng)不同,硬幣的相對位置會發(fā)生偏移,需要首先預測跨模態(tài)圖像間的單應性矩陣,從而實現多模態(tài)硬幣圖像的配準。為滿足工業(yè)生產場景中的需求,該配準方法需要精度高、速度快。

    圖1 不同光源下的硬幣圖像((a)同軸光源下拍攝的硬幣圖像;(b)穹頂光源下拍攝的硬幣圖像)

    現有的基于深度學習的單應性矩陣預測方法只適用于單模態(tài)圖像的配準[1-4],不能解決多模態(tài)硬幣圖像配準。傳統(tǒng)的基于互信息的多模態(tài)配準方法可以用于多模態(tài)硬幣圖像配準,但是其配準精度不高,且速度過慢,無法滿足工業(yè)生產場景中的需求。

    為解決上述問題,本文提出了一種用于多模態(tài)硬幣圖像的單應性矩陣預測方法,使用預測的單應性矩陣可完成圖像配準。該方法基于深度學習,將網絡分為單應性矩陣預測層和圖像轉換層2部分。訓練也分為2個階段,首先訓練圖像轉換層,通過該層可將2個模態(tài)的圖像映射到同一域,該層僅用于訓練階段,其能簡化跨模態(tài)的損失函數的設計。然后訓練單應性矩陣預測層,這一階段的訓練通過使用之前的圖像轉換層,實現無監(jiān)督訓練。實驗結果證明本文提出的方法配準精度高、速度快。同時,本文提出的網絡與訓練方法可以應用到其他多模態(tài)剛性圖像配準任務中,如紅外光與自然光圖像配準,多模態(tài)遙感圖像配準等。

    1 研究現狀

    1.1 配準方法的分類

    按照圖像的形變方式,圖像配準可分為剛性配準和非剛性配準。非剛性配準適用于不規(guī)則形變的圖像間的配準[6],如醫(yī)學圖像配準。剛性圖像配準中通常圖像間沒有不規(guī)則的形變,如遙感圖像配準。由于硬幣圖像間沒有不規(guī)則的形變,所以屬于剛性配準。

    按照圖像對是否由相同的成像系統(tǒng)拍攝,圖像配準還可以分為單模態(tài)配準和多模態(tài)配準。單模態(tài)配準是由相同成像系統(tǒng)拍攝的圖像間的配準,如文獻[2]中配準視頻中的相鄰幀。多模態(tài)配準是不同成像系統(tǒng)拍攝的圖像間的配準,如紅外圖像與自然圖像的配準,醫(yī)學中CT圖像與磁共振圖像的配準等。配準穹頂光源和同軸光源下拍攝的硬幣圖像,也屬于多模態(tài)圖像配準。

    1.2 基于傳統(tǒng)方法的單模態(tài)剛性圖像配準

    基于傳統(tǒng)方法的單模態(tài)剛性圖像配準又可以分為基于區(qū)域的方法和基于特征的方法,基于特征的方法通常通過圖像特征計算圖像間的單應性矩陣[7]。首先,分別提取2幅圖像的關鍵點,需要用到局部不變特征,如SIFT (scale-invariant feature transform),SURF (speeded up robust features)[8],ORB (oriented fast and rotated brief)[9],AKAZE (accelerate-KAZE)[10]等。然后使用特征匹配得到2幅圖像的關鍵點,并使用RANSAC (random sample consistency)和MAGSAC (marginalizing sample consensus)[11]等算法進行離群剔除。最后,使用4對最佳匹配的關鍵點對通過直接線性變換(direct linear transform)[3]計算出單應性矩陣。

    這類方法能夠很好地解決單模態(tài)圖像間的單應性矩陣預測,但是無法解決多模態(tài)圖像間的單應性矩陣預測。本文方法參考了這類方法中使用單應性矩陣進行透視變換來完成剛性配準。

    1.3 基于深度學習的單模態(tài)剛性配準

    2016年,文獻[1]首次提出用于單應性矩陣預測的深度神經網絡。該網絡的輸入是原圖像和其進行隨機的透視變換后的圖像,輸出的是2幅輸入圖像之間的單應性矩陣,并將隨機的透視變換所用到的單應性矩陣做為ground truth,進行監(jiān)督學習。該網絡取得了與傳統(tǒng)方法相近的效果,證明了深度神經網絡用于單應性矩陣預測的可行性。

    文獻[3]在2018年提出的無監(jiān)督深度單應性矩陣預測方法,相較于文獻[1]的有監(jiān)督方法,能更準確地預測真實圖像對之間的單應性矩陣,這是由于監(jiān)督方法中生成的訓練圖像沒有深度差異。該方法使用預測的單應性矩陣和空間變換網絡(spatial transformer networks,STN)[12]層透視變換待配準圖像得到預測圖像,并計算預測圖像和目標圖像間逐像素的光度損失,從而實現無監(jiān)督訓練。

    文獻[2]在2020年提出內容感知的無監(jiān)督深度單應性矩陣預測方法,使用內容感知掩模,在低紋理、低光照等有挑戰(zhàn)性的預測場景中取得了相較于文獻[1,3]更好的效果。

    文獻[4]提出了動態(tài)場景的深度單應性矩陣預測方法,使用多尺度神經網絡同時進行動態(tài)內容檢測和單應性矩陣預測,在具有動態(tài)場景、模糊偽影和低紋理的測試集中取得了比文獻[1,3]更好的效果。

    盡管基于深度學習的單應性矩陣預測已經取得了良好的效果,但這類方法目前僅在單模態(tài)圖像間有效。本文方法參考了該方法中使用深度神經網絡預測圖像間的單應性矩陣。

    1.4 基于傳統(tǒng)方法的多模態(tài)剛性圖像配準

    互信息(mutual information)使用2幅圖像的熵和其聯合熵來定義2幅圖像之間的關系,即

    其中,(img)和(img)分別為2幅圖像各自的熵;(img,img)為2幅圖像的聯合熵。在基于互信息的多模態(tài)圖像配準時,若一對圖像處于某個相對位置時其之間的互信息最大,則認為這對圖像在該相對位置上為配準狀態(tài)。基于互信息及其改進的多模態(tài)圖像配準已經廣泛應用于醫(yī)學圖像配準[13-14]、遙感圖像配準[15]等方向。

    該傳統(tǒng)方法解決了多模態(tài)圖像的剛性配準問題,與本文所要解決的問題相同。在3.4節(jié)中實現了該傳統(tǒng)方法,發(fā)現其存在配準精度低、速度慢的問題。由于尚未具有代表性的基于深度學習的多模態(tài)剛性配準方法,將該傳統(tǒng)方法和本文基于深度學習的方法做對比。

    1.5 基于深度學習的多模態(tài)非剛性圖像配準

    基于深度學習的多模態(tài)圖像配準在醫(yī)學圖像、自動駕駛等領域已經有了深入地研究。文獻[16]通過生成數據克服收集ground truth的困難,實現了需要監(jiān)督訓練的跨模態(tài)圖像配準方法。但是其效果受真實數據和生成數據間的差異影響。

    為了改進前述方法,實現無監(jiān)督的跨模態(tài)圖像配準解決方案,文獻[17-19]使用跨模態(tài)的相似性度量做為損失函數進行訓練。這些跨模態(tài)的相似度度量使用互信息、歸一化互相關或由作者自己設計。然而,這些相似度量往往只適用于特定的模態(tài)間,并且設計很困難[20]。

    為了簡化跨模態(tài)相似度量的設計,文獻[20-22]利用了圖像轉換網絡[23-24],將多模態(tài)的圖像配準問題簡化為單模態(tài)的配準問題。具體方法為對多模態(tài)的圖像對在圖像轉換層進行轉換,將多模態(tài)的圖像映射到公共域。使用公共域下的圖像對預測變形場,并經過變形場扭曲后的待配準圖像和目標圖像計算逐像素的光度損失。

    相比于1.3節(jié)中的方法,這類基于深度學習的配準方法解決了多模態(tài)圖像間的配準問題,并且是非剛性配準。本文方法參考了圖像轉換網絡的思想,設計了更簡單、高速的圖像轉換層。與上述預測變形場進行非剛性配準的方法不同,本文方法預測單應性矩陣進行剛性配準,并且僅將圖像轉換層用于損失的計算,在推理階段省略圖像轉換層加速推理。

    2 算 法

    2.1 網絡結構

    2.1.1 網絡整體結構與設計思路

    如圖2所示,該網絡包含單應性矩陣預測層和圖像轉換層2個部分。網絡的輸入為待配準圖像和目標圖像,待配準圖像是同軸光源圖像,目標圖像是穹頂光源圖像。由于硬幣圖像配準是剛性配準,即使用單應性矩陣完成剛性配準,網絡的前半部分設計為單應性矩陣預測層。使用單應性矩陣預測層輸出的單應性矩陣對待配準圖像進行透視變換,得到與目標圖像配準的預測圖像。由于預測圖像為同軸光源圖像,目標圖像為穹頂光源圖像,需要將不同光源下拍攝的多模態(tài)圖像映射到同一域,以計算預測圖像和目標圖像間的逐像素光度損失,所以設計了圖像轉換層。其僅用于單應性預測層訓練階段的計算損失,推理階段可省略以加速推理。

    單應性矩陣預測層和圖像轉換層需要分別訓練。首先訓練圖像轉換層,完成后凍結圖像轉換層的參數,再進行單應性矩陣預測層的訓練,其訓練是無監(jiān)督的。

    圖2 網絡結構

    2.1.2 單應性矩陣預測層

    2.1.3 圖像轉換層

    圖像轉換層有2個相互獨立的轉換層,分別用于2種不同模態(tài)圖像的轉換。每個轉換層采用包含3個卷積層的全卷積網絡,其輸入大小為××1的原圖像,輸出大小為××1的特征映射。具體每一個卷積層的結構如圖2所示。圖像轉換層通過訓練獲得將不同模態(tài)圖像映射到同一域的能力,具體損失函數和訓練過程在2.2.1節(jié)中介紹。

    2.2 損失函數與訓練過程

    2.2.1 圖像轉換損失

    訓練整個網絡需要先訓練圖像轉換層,在圖像轉換層訓練時需用到已經配準的多模態(tài)圖像對。因為此時單應性矩陣預測層還沒有訓練生效,所以需要手工配準少量的圖像。損失函數為

    其中,和是已經配準的2幅不同模態(tài)的圖像,和分別為和經過各自的圖像轉換層的輸出。如果2個模態(tài)的圖像成功映射到一個公共域,由于是已經配準的,則其之間的L1距離應該很小。

    2.2.2 單應性矩陣預測損失

    3 實驗與分析

    3.1 數據集與評價指標

    實驗數據集采集自某造幣廠提供的109枚硬幣,分別使用同軸光源和穹頂光源對硬幣進行成像,圖像的分辨率為672×672。由于采集數據時,不同光源的成像系統(tǒng)的鏡頭相對于硬幣的位置是變化的,所以采集的原始圖像對未配準。采集到的圖像如圖4所示。數據集包含3部分:①3 600對圖像的單應性矩陣預測層訓練集;②361對圖像的圖像轉換層訓練集;③900對圖像的測試集。

    圖4 采集的原始圖像以及差異示意圖((a)同軸光源圖像;(b)穹頂光源圖像;(c)處理后的疊加圖像)

    單應性矩陣預測層訓練集的3 600對圖像由60個硬幣的同軸光源圖像和穹頂光源圖像組合得到。由于單應性矩陣預測層采用無監(jiān)督的訓練,這部分圖像不需要手工標注配準。

    圖像轉換層訓練集的361對圖像由19個硬幣的同軸光源圖像和穹頂光源圖像組合得到。圖像轉換層訓練集的不同光源圖像間需要手工標注配準,即手工記錄每一幅圖像上特定的4個點的坐標。任意選取一對硬幣圖像,根據2幅圖像上的4對對應點,使用直接線性變換(direct linear transform)計算出單應性矩陣,實現一對圖像的配準。

    測試集的900對圖像由30個硬幣的同軸光源圖像和穹頂光源圖像組合得到。測試集的不同光源圖像需要手工標注配準,用于算法效果量化。該量化方法與文獻[1-3]中的方法類似,手工記錄每一幅圖像上特定的4個點的坐標,如圖5所示。將一對測試集硬幣圖像輸入深度網絡后得到網絡預測的單應性矩陣,使用該矩陣對同軸光源圖像上記錄的4個坐標進行坐標映射,得到4個預測點的坐標。求4個預測點的坐標與穹頂光源圖像上4個標注點的坐標的平均距離誤差,該距離越小,則配準效果越好,當距離為0時,透視變換得到同軸光源圖像與穹頂光源圖像完全配準。距離誤差為

    其中,和為預測點的坐標;和為標注點的坐標。

    3.2 實驗細節(jié)

    3.2.1 實驗環(huán)境

    實驗使用NVIDIA GEFORCE RTX 2080顯卡,Ubuntu 16.0.4.1操作系統(tǒng),pytorch 1.5.1深度學習框架。實驗中訓練與測試均在NVIDIA GEFORCE RTX 2080顯卡上完成?;谏疃葘W習的方法和傳統(tǒng)的基于互信息的多模態(tài)配準方法均在同一臺計算機上進行,環(huán)境完全一致。

    3.2.2 數據增強與訓練超參數

    單應性矩陣預測層訓練階段,將輸入不同模態(tài)的2幅圖像分別隨機順時針或逆時針旋轉0°~2°,隨機向左或向右平移0~17個像素,隨機向上或向下平移0~17個像素。圖像轉換層訓練階段同樣將輸入的2種不同模態(tài)的圖像進行隨機的旋轉和平移,其旋轉角度和平移量完全相同,保證圖像對在變換后也處于配準的狀態(tài)。

    圖像轉換層訓練的初始學習率為0.001,batchsize為16,學習率每570步下降10%。單應性矩陣預測層訓練的初始學習率為0.001,batchsize為16,學習率每2 800步下降10%。

    3.3 圖像轉換層位置

    圖像轉換層除了放置在單應性矩陣預測層后方(圖2網絡結構),還可以放置于單應性矩陣預測層前方。圖像轉換層如果放置在單應性矩陣預測層前方,2種不同模態(tài)的圖像將會在輸入單應性矩陣預測層之前被映射到同一域,從而使得該任務轉換為單模態(tài)圖像間的單應性矩陣預測,和文獻[1-4]中的任務類似。該過程為

    下一節(jié)將介紹采用此種方案的實驗效果。在效果相似時優(yōu)先采用圖2中的網絡結構,因為在該網絡結構中,圖像轉換層僅在訓練過程中被需要,在推理過程中只需要得到單應性矩陣,可省略圖像轉換層,以縮短推理時間。

    3.4 傳統(tǒng)的基于互信息的多模態(tài)配準方法結果

    傳統(tǒng)的基于互信息的多模態(tài)配準方法為:對待配準圖像進行平移和旋轉,每一次平移或旋轉后,通過式(1)計算其與目標圖像間的互信息值。反復迭代,找到待配準圖像與目標圖像互信息最大的平移和旋轉值,作為結果。

    為了加速該算法,先進行粗配準,每次平移10像素,旋轉5°,粗配準后再在其結果上每次平移1像素,旋轉1°進行細配準,以細配準結果做為最終結果。因為本文提出的基于深度學習的多模態(tài)單應性矩陣預測方法使用了GPU加速運算,為了對比公平,該傳統(tǒng)方法同樣通過CuPy 9.5.0[25]使用GPU加速運算。

    盡管已經提升了該算法的速度,傳統(tǒng)的基于互信息的多模態(tài)配準方法仍耗時巨大,在本文的實驗環(huán)境中單對圖像配準平均耗時6 368.49 ms,在實際應用中無法滿足時間要求。而本文方法處理時間僅為17.74 ms。在配準效果方面,傳統(tǒng)的基于互信息的多模態(tài)配準方法的平均距離誤差為5.575像素高于本文方法的3.417像素,部分配準效果對比如圖6所示。

    3.5 實驗結果以及分析

    根據單應性矩陣預測層的輸入是灰度圖或彩色圖、單應性矩陣預測層采用resnet18或resnet34、圖像轉換層放置在單應性矩陣預測層前或后、損失函數采用L1或L2這4個條件,得到16種實驗方案,見表1。測試記錄每種實驗方案在測試集上的平均距離誤差和平均推理耗時,綜合考慮配準精度和時間,采用實驗方案3為最終方案,該方案單應性矩陣預測層的輸入是灰度圖,單應性矩陣預測層采用resnet18,圖像轉換層放置在單應性矩陣預測層后,損失函數采用L1。

    圖6 配準結果((a)配準前平均距離誤差18.955像素;(b)基于互信息的配準方法平均距離誤差5.575像素;(c)本文方法平均距離誤差3.417像素)

    表1 實驗結果

    采用L1作為損失函數的方案1,3,5,7,9,11,13,15分別與采用L2作為損失函數的方案2,4,6,8,10,12,14,16相對應。見表1,除損失函數外,對應的方案單應性矩陣預測層輸入、單應性矩陣預測層結構和圖像轉換層位置均相同。損失函數采用L1的8種實驗方案比其對應的損失函數采用L2的實驗方案平均距離誤差小0.180~0.358像素,且由于推理時不計算損失,所以損失函數的選擇對推理耗時不產生任何影響。實驗證明了此任務中L1損失函數在不影響推理耗時的情況下取得了更小的平均距離誤差,保留采用L1作為損失函數的8種方案。

    在保留的方案中,圖像轉換層放置在單應性矩陣預測層前的方案1,5,9,13與圖像轉換層放置在單應性矩陣預測層后的方案3,7,11,15相對應。表1中,除圖像轉換層放置不同,對應方案中的其他條件的選擇均相同。圖像轉換層放置在前的方案1和9比其相對應的放置在后的方案3和11平均距離誤差分別小0.010像素和0.020像素,圖像轉換層放置在前的方案5和13比其相對應的放置在后的方案7和15平均距離誤差分別大0.030像素和0.084像素。方案1,5,9和13的平均推理耗時分別比方案3,7,11和15多3.90 ms,2.44 ms,3.73 ms和2.55 ms,符合3.3節(jié)中的描述。從實驗結果可以看出,圖像轉換層放置在單應性矩陣預測層前、后對平均距離誤差的影響不大,所以保留平均推理耗時更少的圖像轉換層放置在單應性矩陣預測層后的方案3,7,11和15。

    在方案3,7,11和15中,單應性矩陣預測層結構采用resnet34的方案7和15比采用resnet18的方案3和11平均距離誤差分別小0.130 (3.80%)像素和0.027 (0.82%)像素,但是推理耗時多5.37 (30.27%) ms和5.19 (28.64%) ms。由于在實際應用中,目前的平均距離誤差均已滿足需求且差距極小,單應性矩陣預測層結構采用速度更快的resnet18,保留方案3和11。

    方案3單應性矩陣預測層的輸入是灰度圖,方案11輸入是彩色圖。表1中,方案3和方案11的其他條件均相同。方案3的平均距離誤差比方案11大0.110像素,平均推理耗時小0.38 ms。在單應性預測層主干網絡相同時,輸入圖為彩色的方案參數量更多,所以平均推理耗時增加。由于平均距離誤差均已滿足需求且差距極小,所以選擇速度更快的方案3。

    4 結束語

    為了預測多模態(tài)硬幣圖像間的單應性矩陣,本文設計了圖像轉換層改進現有的單模態(tài)單應性矩陣預測深度神經網絡,從而完成跨模態(tài)的單應性矩陣預測任務;通過進行對比實驗,確定單應性矩陣預測層的輸入是灰度圖、單應性矩陣預測層的主干網絡采用resnet18、圖像轉換層放置在單應性矩陣預測層后、損失函數為L1的方案為最終方案。本文方法配準精度高、推理速度快,在測試集上的平均距離誤差為3.417像素,相較于傳統(tǒng)的基于互信息的跨模態(tài)圖像配準方法的5.575像素減小38.71%,平均推理耗17.74 ms時,相較于傳統(tǒng)的基于互信息的跨模態(tài)圖像配準方法的6 368.49 ms顯著縮短。

    本文方法局限性包括:相機畸變、拍攝視角變化帶來的非平面物體成像內容變化等問題,其會破壞待配準圖像與目標圖像間的透視變換關系,導致所有基于單應性矩陣預測的配準方法包括本文方法誤差加大甚至無法配準,在具體應用中應當評估該方法是否適用。由于網絡訓練是分階段進行的,需要先完成圖像轉換層的訓練后,再進行單應性矩陣預測層的訓練,該過程較為繁瑣,后續(xù)可進一步優(yōu)化網絡結構和損失函數,實現端到端的訓練。

    [1] DETONE D, MALISIEWICZ T, RABINOVICH A. Deep image homography estimation[EB/OL]. (2016-06-13) [2020-12-17]. https://arxiv.org/pdf/1606.03798.pdf.

    [2] ZHANG J R, WANG C, LIU S C, et al. Content-aware unsupervised deep homography estimation[C]//Computer Vision – ECCV 2020. Cham: Springer International Publishing, 2020: 653-669.

    [3] NGUYEN T, CHEN S W, SHIVAKUMAR S S, et al. Unsupervised deep homography: a fast and robust homography estimation model[J]. IEEE Robotics and Automation Letters, 2018, 3(3): 2346-2353.

    [4] LE H, LIU F, ZHANG S, et al. Deep homography estimation for dynamic scenes[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2020: 7649-7658.

    [5] 王品學, 張紹兵, 成苗, 等. 基于可變形卷積和自適應空間特征融合的硬幣表面缺陷檢測算法[EB/OL]. (2021-04-14) [2021-09-08]. https://kns-cnki-net.webvpn.las.ac.cn/kcms/ detail/51.1307.tp.20210413.1607.002.html.

    WANG P X, ZHANG S B, CHEN M, et al. Coin surface defect detection algorithm based on deformable convolution and adaptive spatial feature fusion[EB/OL]. (2021-04-14) [2021-09-08]. https://kns-cnki-net.webvpn.las.ac.cn/kcms/detail/51.1307.tp.20210413.1607.002.html(in Chinese).

    [6] 劉爽. 基于多約束深度網絡的MRI非剛性配準研究[D]. 大連: 大連理工大學, 2021.

    LIU S. The research of MRI non-rigid registration based on multi-constrained deep network[D]. Dalian: Dalian University of Technology, 2021 (in Chinese).

    [7] MA J Y, JIANG X Y, FAN A X, et al. Image matching from handcrafted to deep features: a survey[J]. International Journal of Computer Vision, 2021, 129(1): 23-79.

    [8] BAY H, ESS A, TUYTELAARS T, et al. Speeded-up robust features (SURF)[J]. Computer Vision and Image Understanding, 2008, 110(3): 346-359.

    [9] RUBLEE E, RABAUD V, KONOLIGE K, et al. ORB: an efficient alternative to SIFT or SURF[C]//2011 International Conference on Computer Vision. New York: IEEE Press, 2011: 2564-2571.

    [10] ALCANTARILLA P, NUEVO J, BARTOLI A. Fast explicit diffusion for accelerated features in nonlinear scale spaces[J]. IEEE Trans. Patt. Anal. Mach. Intell, 2011, 34(7): 1281-1298.

    [11] BARATH D, MATAS J, NOSKOVA J. MAGSAC: marginalizing sample consensus[C]//2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2019: 10189-10197.

    [12] JADERBERG M, SIMONYAN K, ZISSERMAN A, et al. Spatial transformer networks[C]//The 28th International Conference on Neural Information Processing Systems. New York: ACM Press, 2015: 2017-2025.

    [13] 曹國剛, 朱信玉, 陳穎, 等. 基于改進頭腦風暴優(yōu)化算法的醫(yī)學圖像配準方法[J]. 數據采集與處理, 2020, 35(4): 730-738.

    CAO G G, ZHU X Y, CHEN Y, et al. Medical image registration based on improved brain storm optimization algorithm[J]. Journal of Data Acquisition and Processing, 2020, 35(4): 730-738 (in Chinese).

    [14] 岳根霞. 基于遺傳算法的多模態(tài)病變圖像關聯挖掘仿真[J]. 計算機仿真, 2021, 38(2): 225-229.

    YUE G X. Image association and mining simulation of multi-modality lesion based on genetic algorithm[J]. Computer Simulation, 2021, 38(2): 225-229 (in Chinese).

    [15] 李培, 姜剛, 馬千里, 等. 結合張量與互信息的混合模型多模態(tài)圖像配準方法[J]. 測繪學報, 2021, 50(7): 916-929.

    LI P, JIANG G, MA Q L, et al. A hybrid model combining tensor and mutual information for multi-modal image registration[J]. Acta Geodaetica et Cartographica Sinica, 2021, 50(7): 916-929 (in Chinese).

    [16] SCHNEIDER N, PIEWAK F, STILLER C, et al. RegNet: Multimodal sensor registration using deep neural networks[C]// 2017 IEEE Intelligent Vehicles Symposium. New York: IEEE Press, 2017: 1803-1810.

    [17] MAHAPATRA D, ANTONY B, SEDAI S M, et al. Deformable medical image registration using generative adversarial networks[C]//2018 IEEE 15th International Symposium on Biomedical Imaging. New York: IEEE Press, 2018: 1449-1453.

    [18] BALAKRISHNAN G, ZHAO A, SABUNCU M R, et al. An unsupervised learning model for deformable medical image registration[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2018: 9252-9260.

    [19] BALAKRISHNAN G, ZHAO A, SABUNCU M R, et al. VoxelMorph: a learning framework for deformable medical image registration[J]. IEEE Transactions on Medical Imaging, 2019, 38(8): 1788-1800.

    [20] ARAR M, GINGER Y, DANON D, et al. Unsupervised multi-modal image registration via geometry preserving image-to-image translation[C]//2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2020: 13407-13416.

    [21] QIN C, SHI B B, LIAO R, et al. Unsupervised deformable registration for multi-modal images via disentangled representations[C]//The 2019 International Conference on Information Processing in Medical Imaging. Cham: Springer International Publishing, 2019: 249-261.

    [22] HUANG X, LIU M Y, BELONGIE S, et al. Multimodal unsupervised image-to-image translation[M]//Computer Vision – ECCV 2018. Cham: Springer International Publishing, 2018: 179-196.

    [23] LEE H Y, TSENG H Y, HUANG J B, et al. Diverse image-to-image translation via disentangled representations[M]// Computer Vision – ECCV 2018. Cham: Springer International Publishing, 2018: 36-52.

    [24] ISOLA P, ZHU J Y, ZHOU T H, et al. Image-to-image translation with conditional adversarial networks[C]//2017 IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE Press, 2017: 5967-5976.

    [25] OKUTA R, UNNO Y, NISHINO D, et al. Cupy: a numpy-compatible library for nvidia gpu calculations[EB/OL]. [2021-07-19]. https://xs.dailyheadlines.cc/scholar?q=Cupy%3A +a+numpy-compatible+library+for+nvidia+gpu+calculations.

    Homography estimation for multimodal coin images

    DENG Zhuang-lin1,2, ZHANG Shao-bing1,2,3, CHENG Miao1,2,3, HE Lian1,2,3

    (1. Chengdu Institute of Computer Applications, Chinese Academy of Sciences, Chengdu Sichuan 610041, China; 2. School of Computer Science and Technology, University of Chinese Academy of Sciences, Beijing 100049, China; 3. Shenzhen CBPM-KEXIN Banking Technology Company Limited, Shenzhen Guangdong 518206, China)

    Registration of coin images under different illuminant is the predecessor of coin surface defect detection. However, the traditional multimodal registration method based on mutual information is slow and low accuracy, and the existing image registration methods realized by homography estimation based on deep learning only work in single-mode tasks. A homography estimation method based on deep learning for multimodal coin images is proposed in this paper, and image registration can be realized with the estimated homography. First, the homography estimation layer is used to estimate the homography between the pair of input images, and the homography is used for perspective transformation of the image to be registered; Then, the image translation layer is used to translate the pair of images to the same domain, and this layer can be removed in inference so as to reduce the inference time; Finally, train the network with the loss calculated using the pair of images in the same domain. Experiments show that the average distance error of the proposed method on the test set is 3.417 pixels, which is 38.71% lower than the traditional multimodal registration method based on mutual information. The inference time of the proposed method is 17.74 ms, which is much less than 6368.49 ms of the traditional multimodal registration method based on mutual information.

    homography; image registration; coin; image to image translation; multimodality

    TP 391

    10.11996/JG.j.2095-302X.2022030361

    A

    2095-302X(2022)03-0361-09

    2021-09-24;

    2022-02-11

    24 September,2021;

    11 February,2022

    鄧壯林(1996–),男,碩士研究生。主要研究方向為人工智能與機器視覺。E-mail:917687496@qq.com

    DENG Zhuang-lin (1996-), master student. His main research interests cover artificial intelligence and machine vision. E-mail:917687496@qq.com

    張紹兵(1979–),男,正研級高級工程師,碩士。主要研究方向為高速圖像處理、缺陷檢測、深度學習。E-mail:zhangshaobing@cbpm-kexin.com

    ZHANG Shao-bing (1979-), senior engineer, master. His main research interests cover high-speed image processing, defect detection and deep learning. E-mail:zhangshaobing@cbpm-kexin.com

    猜你喜歡
    模態(tài)方法
    學習方法
    可能是方法不對
    車輛CAE分析中自由模態(tài)和約束模態(tài)的應用與對比
    用對方法才能瘦
    Coco薇(2016年2期)2016-03-22 02:42:52
    國內多模態(tài)教學研究回顧與展望
    四大方法 教你不再“坐以待病”!
    Coco薇(2015年1期)2015-08-13 02:47:34
    賺錢方法
    捕魚
    高速顫振模型設計中顫振主要模態(tài)的判斷
    航空學報(2015年4期)2015-05-07 06:43:35
    基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
    高清av免费在线| 日日撸夜夜添| 亚洲精品色激情综合| av天堂久久9| 我要看黄色一级片免费的| 三上悠亚av全集在线观看| 国产精品不卡视频一区二区| 亚洲激情五月婷婷啪啪| 亚州av有码| 国产av国产精品国产| 曰老女人黄片| 日韩电影二区| 男女免费视频国产| 亚洲国产欧美在线一区| a级毛片黄视频| 十八禁高潮呻吟视频| 免费看光身美女| 久久99一区二区三区| 七月丁香在线播放| 丰满少妇做爰视频| 自线自在国产av| 亚洲在久久综合| 天天操日日干夜夜撸| 精品久久久久久电影网| 好男人视频免费观看在线| 国产精品久久久久久久久免| 亚洲丝袜综合中文字幕| 国产淫语在线视频| 亚洲在久久综合| 国产欧美亚洲国产| www.av在线官网国产| 黄色配什么色好看| 亚洲第一区二区三区不卡| 成年美女黄网站色视频大全免费 | 你懂的网址亚洲精品在线观看| 欧美日韩综合久久久久久| 中文字幕人妻丝袜制服| 国产极品天堂在线| 九九久久精品国产亚洲av麻豆| 少妇人妻久久综合中文| 中文字幕最新亚洲高清| av一本久久久久| 人妻人人澡人人爽人人| 夜夜爽夜夜爽视频| 纵有疾风起免费观看全集完整版| 国产精品欧美亚洲77777| 中文乱码字字幕精品一区二区三区| 亚洲国产毛片av蜜桃av| 寂寞人妻少妇视频99o| 中国三级夫妇交换| 亚洲国产精品成人久久小说| 日韩一区二区视频免费看| 午夜福利网站1000一区二区三区| 精品一区在线观看国产| 国产无遮挡羞羞视频在线观看| 日韩在线高清观看一区二区三区| 哪个播放器可以免费观看大片| 免费大片18禁| 在线亚洲精品国产二区图片欧美 | 国产片内射在线| 九色亚洲精品在线播放| 欧美老熟妇乱子伦牲交| 精品久久久久久久久亚洲| 国产精品女同一区二区软件| 在线亚洲精品国产二区图片欧美 | 一本一本综合久久| 国产又色又爽无遮挡免| 日本av免费视频播放| 在线观看国产h片| 久久精品成人免费网站| 丰满迷人的少妇在线观看| 国产精品亚洲一级av第二区| 黄片小视频在线播放| a在线观看视频网站| 欧美大码av| 成人特级黄色片久久久久久久 | 99国产综合亚洲精品| 日韩一卡2卡3卡4卡2021年| 精品国产国语对白av| 亚洲精品在线观看二区| 免费观看人在逋| 中文字幕色久视频| 欧美成人午夜精品| 五月开心婷婷网| 三级毛片av免费| 色播在线永久视频| 精品国产一区二区三区四区第35| 汤姆久久久久久久影院中文字幕| 亚洲欧美日韩高清在线视频 | 亚洲成国产人片在线观看| 国产成+人综合+亚洲专区| 亚洲成人免费av在线播放| 91av网站免费观看| 国产片内射在线| 日韩一区二区三区影片| 女人久久www免费人成看片| 女警被强在线播放| 久久精品亚洲熟妇少妇任你| 国产高清激情床上av| 一边摸一边抽搐一进一小说 | 黄网站色视频无遮挡免费观看| 国产不卡av网站在线观看| 在线观看免费日韩欧美大片| 亚洲av成人一区二区三| 在线观看一区二区三区激情| 日韩大码丰满熟妇| 日日摸夜夜添夜夜添小说| 丝瓜视频免费看黄片| 老司机影院毛片| 首页视频小说图片口味搜索| 国产精品亚洲一级av第二区| 女人久久www免费人成看片| 99久久精品国产亚洲精品| 香蕉久久夜色| 国产精品免费一区二区三区在线 | av片东京热男人的天堂| 成年版毛片免费区| 亚洲精品美女久久久久99蜜臀| 免费在线观看黄色视频的| netflix在线观看网站| 色在线成人网| 欧美在线一区亚洲| 啦啦啦中文免费视频观看日本| 国产深夜福利视频在线观看| 免费观看人在逋| 亚洲国产中文字幕在线视频| 黄色 视频免费看| 五月开心婷婷网| 国产精品亚洲av一区麻豆| 在线 av 中文字幕| 国产精品二区激情视频| 在线av久久热| 成人特级黄色片久久久久久久 | 久久ye,这里只有精品| 精品国产亚洲在线| 香蕉丝袜av| 欧美日韩亚洲国产一区二区在线观看 | 狂野欧美激情性xxxx| 国产在视频线精品| 18禁国产床啪视频网站| 日本撒尿小便嘘嘘汇集6| 久久精品亚洲熟妇少妇任你| 91麻豆精品激情在线观看国产 | 最近最新免费中文字幕在线| 高潮久久久久久久久久久不卡| 国产深夜福利视频在线观看| 欧美精品一区二区大全| 国产人伦9x9x在线观看| 久久精品国产a三级三级三级| 亚洲av日韩在线播放| 黄色丝袜av网址大全| 热re99久久精品国产66热6| av有码第一页| 黑人猛操日本美女一级片| 黑人巨大精品欧美一区二区mp4| 男女床上黄色一级片免费看| 欧美日韩一级在线毛片| 脱女人内裤的视频| tube8黄色片| 免费看十八禁软件| 天天躁日日躁夜夜躁夜夜| 国产又色又爽无遮挡免费看| 国产欧美日韩一区二区精品| 国产精品熟女久久久久浪| 日韩欧美一区二区三区在线观看 | 亚洲成国产人片在线观看| 在线观看66精品国产| 久久久久精品人妻al黑| 2018国产大陆天天弄谢| www.自偷自拍.com| 最新的欧美精品一区二区| 国产精品电影一区二区三区 | 在线看a的网站| 国产高清国产精品国产三级| 天天躁狠狠躁夜夜躁狠狠躁| 十八禁人妻一区二区| 日日爽夜夜爽网站| 久久亚洲精品不卡| 精品熟女少妇八av免费久了| 午夜激情av网站| 99re6热这里在线精品视频| 亚洲免费av在线视频| 一级a爱视频在线免费观看| 国产在线视频一区二区| 多毛熟女@视频| 久久久久久久国产电影| 汤姆久久久久久久影院中文字幕| 欧美 亚洲 国产 日韩一| 宅男免费午夜| 大码成人一级视频| 伊人久久大香线蕉亚洲五| 人成视频在线观看免费观看| 亚洲色图综合在线观看| 国产精品久久久人人做人人爽| 国产极品粉嫩免费观看在线| 色婷婷久久久亚洲欧美| 精品人妻熟女毛片av久久网站| 色婷婷av一区二区三区视频| 丰满饥渴人妻一区二区三| 国产精品.久久久| av网站在线播放免费| 国产无遮挡羞羞视频在线观看| 久久人妻福利社区极品人妻图片| 午夜免费鲁丝| 久久狼人影院| aaaaa片日本免费| 麻豆成人av在线观看| 午夜福利免费观看在线| av网站在线播放免费| 国产无遮挡羞羞视频在线观看| 国产有黄有色有爽视频| 色视频在线一区二区三区| 波多野结衣av一区二区av| 国产精品成人在线| 亚洲精品一卡2卡三卡4卡5卡| 人人妻人人爽人人添夜夜欢视频| 国产亚洲午夜精品一区二区久久| 国产淫语在线视频| 成人国产av品久久久| 亚洲性夜色夜夜综合| 国产精品免费大片| 老司机亚洲免费影院| 纯流量卡能插随身wifi吗| 国产成人精品久久二区二区免费| 国产精品熟女久久久久浪| 在线观看免费视频网站a站| 日韩大码丰满熟妇| 人人妻人人添人人爽欧美一区卜| 99国产极品粉嫩在线观看| 99国产精品一区二区蜜桃av | 老司机午夜十八禁免费视频| 美女国产高潮福利片在线看| 欧美老熟妇乱子伦牲交| 精品国产乱码久久久久久小说| 99九九在线精品视频| 在线观看免费视频网站a站| 成人手机av| 两个人看的免费小视频| 18禁观看日本| 黑丝袜美女国产一区| 操美女的视频在线观看| 亚洲精品久久午夜乱码| 一级黄色大片毛片| 99re在线观看精品视频| 大陆偷拍与自拍| 老司机午夜福利在线观看视频 | 啦啦啦免费观看视频1| 亚洲一码二码三码区别大吗| 日本wwww免费看| 欧美亚洲 丝袜 人妻 在线| 久久国产精品人妻蜜桃| 国产成人精品久久二区二区免费| 日韩成人在线观看一区二区三区| 久久人妻福利社区极品人妻图片| 久久久久国产一级毛片高清牌| 老司机在亚洲福利影院| 99re在线观看精品视频| av网站免费在线观看视频| 80岁老熟妇乱子伦牲交| 亚洲av电影在线进入| 久久久久久亚洲精品国产蜜桃av| 老司机在亚洲福利影院| www.999成人在线观看| 18禁裸乳无遮挡动漫免费视频| 国产精品久久久久久精品电影小说| 99国产精品免费福利视频| 国产97色在线日韩免费| 老熟妇乱子伦视频在线观看| 精品少妇黑人巨大在线播放| 成人国产av品久久久| 成人国产一区最新在线观看| 免费观看人在逋| av一本久久久久| 在线亚洲精品国产二区图片欧美| 亚洲精品美女久久久久99蜜臀| 中亚洲国语对白在线视频| 夫妻午夜视频| 亚洲成人免费电影在线观看| 欧美日本中文国产一区发布| 国产麻豆69| 高清欧美精品videossex| 久久狼人影院| 欧美日韩成人在线一区二区| 成人影院久久| 悠悠久久av| 黑丝袜美女国产一区| 欧美一级毛片孕妇| 亚洲精品成人av观看孕妇| 亚洲,欧美精品.| 别揉我奶头~嗯~啊~动态视频| 我要看黄色一级片免费的| 精品人妻在线不人妻| 久久香蕉激情| 成人永久免费在线观看视频 | 高清在线国产一区| 日韩欧美一区视频在线观看| 午夜久久久在线观看| 精品亚洲成国产av| 亚洲成a人片在线一区二区| 女人被躁到高潮嗷嗷叫费观| 午夜精品久久久久久毛片777| 日韩一区二区三区影片| 欧美日韩成人在线一区二区| 国产精品1区2区在线观看. | 午夜精品久久久久久毛片777| 在线观看免费视频日本深夜| 久久免费观看电影| 国产精品国产高清国产av | 老司机午夜福利在线观看视频 | av福利片在线| 亚洲精品在线美女| 久久午夜亚洲精品久久| 国产精品久久久久久精品古装| 免费看十八禁软件| 亚洲五月色婷婷综合| 天天操日日干夜夜撸| 高清欧美精品videossex| 精品久久久久久久毛片微露脸| 窝窝影院91人妻| 亚洲成av片中文字幕在线观看| 欧美精品av麻豆av| 久久久欧美国产精品| 久久久国产一区二区| 色在线成人网| 亚洲第一欧美日韩一区二区三区 | 精品熟女少妇八av免费久了| 中文字幕制服av| 亚洲熟女精品中文字幕| 国产一区二区三区视频了| 超色免费av| 久热爱精品视频在线9| 久久久久久久精品吃奶| 精品福利观看| 老鸭窝网址在线观看| 国产精品熟女久久久久浪| 肉色欧美久久久久久久蜜桃| 在线观看舔阴道视频| 国产精品.久久久| 日日夜夜操网爽| 日本精品一区二区三区蜜桃| 国产成人av激情在线播放| 欧美午夜高清在线| 两个人看的免费小视频| 国产欧美日韩精品亚洲av| 久久人妻av系列| 精品人妻在线不人妻| 免费久久久久久久精品成人欧美视频| 久久狼人影院| 免费av中文字幕在线| 国产又色又爽无遮挡免费看| 亚洲欧洲日产国产| 另类亚洲欧美激情| 最近最新中文字幕大全电影3 | 久久国产精品大桥未久av| 丝袜美足系列| 成在线人永久免费视频| 久久精品亚洲精品国产色婷小说| 免费观看人在逋| 夜夜骑夜夜射夜夜干| 大陆偷拍与自拍| 在线观看舔阴道视频| 日韩视频一区二区在线观看| 一本综合久久免费| 亚洲av第一区精品v没综合| 国产在视频线精品| 国产成人精品久久二区二区91| 又黄又粗又硬又大视频| 51午夜福利影视在线观看| 亚洲专区字幕在线| cao死你这个sao货| 久久国产精品影院| 国产黄频视频在线观看| 老司机靠b影院| 国产av又大| 12—13女人毛片做爰片一| 久久香蕉激情| 99久久人妻综合| 日本撒尿小便嘘嘘汇集6| 男女午夜视频在线观看| 久久精品国产99精品国产亚洲性色 | 久久久久精品人妻al黑| 国精品久久久久久国模美| 人人妻人人爽人人添夜夜欢视频| 一本—道久久a久久精品蜜桃钙片| 亚洲午夜精品一区,二区,三区| 老司机在亚洲福利影院| 日韩熟女老妇一区二区性免费视频| 免费不卡黄色视频| 变态另类成人亚洲欧美熟女 | 国产精品国产av在线观看| 亚洲天堂av无毛| www日本在线高清视频| 精品少妇黑人巨大在线播放| 亚洲欧洲日产国产| 波多野结衣av一区二区av| 国产欧美日韩综合在线一区二区| 亚洲精品成人av观看孕妇| 日韩熟女老妇一区二区性免费视频| 精品第一国产精品| 免费少妇av软件| 99久久国产精品久久久| 亚洲成人免费电影在线观看| 最近最新中文字幕大全免费视频| 男男h啪啪无遮挡| 高清视频免费观看一区二区| 美女扒开内裤让男人捅视频| 极品少妇高潮喷水抽搐| 男人操女人黄网站| av免费在线观看网站| 精品国产乱码久久久久久男人| 精品国产乱子伦一区二区三区| 日韩欧美一区视频在线观看| 国产97色在线日韩免费| 日韩免费av在线播放| 超色免费av| 欧美日韩av久久| 少妇裸体淫交视频免费看高清 | 少妇粗大呻吟视频| 男女免费视频国产| 99精品在免费线老司机午夜| 少妇被粗大的猛进出69影院| 中文字幕色久视频| 男人舔女人的私密视频| 中亚洲国语对白在线视频| 9191精品国产免费久久| 日本精品一区二区三区蜜桃| 久久久精品94久久精品| 一个人免费看片子| 精品一区二区三区四区五区乱码| 亚洲精品中文字幕在线视频| 久久久久国内视频| 色婷婷久久久亚洲欧美| 丝袜美腿诱惑在线| 精品高清国产在线一区| 久久久久精品人妻al黑| 最新美女视频免费是黄的| 国产主播在线观看一区二区| 狂野欧美激情性xxxx| 精品人妻1区二区| 女警被强在线播放| 国产成人欧美| 十八禁人妻一区二区| 午夜福利乱码中文字幕| 99热网站在线观看| 久久婷婷成人综合色麻豆| 汤姆久久久久久久影院中文字幕| 夜夜骑夜夜射夜夜干| videosex国产| 啦啦啦视频在线资源免费观看| 免费在线观看完整版高清| 自拍欧美九色日韩亚洲蝌蚪91| 国产野战对白在线观看| 精品国产一区二区久久| 亚洲国产成人一精品久久久| 在线观看免费日韩欧美大片| 一级黄色大片毛片| 亚洲国产欧美一区二区综合| 亚洲一区中文字幕在线| 狠狠狠狠99中文字幕| 两性午夜刺激爽爽歪歪视频在线观看 | 成在线人永久免费视频| www.熟女人妻精品国产| 久久国产精品男人的天堂亚洲| 无人区码免费观看不卡 | 亚洲熟女精品中文字幕| 国产日韩欧美视频二区| 最近最新免费中文字幕在线| 老熟妇乱子伦视频在线观看| 男女之事视频高清在线观看| 亚洲色图综合在线观看| 在线观看一区二区三区激情| 中文欧美无线码| 亚洲欧美日韩另类电影网站| 中国美女看黄片| 九色亚洲精品在线播放| a级毛片在线看网站| 成年人午夜在线观看视频| 91av网站免费观看| 精品久久久精品久久久| 国产精品av久久久久免费| 一区二区三区国产精品乱码| 宅男免费午夜| 久久影院123| 亚洲,欧美精品.| 最近最新中文字幕大全电影3 | 美女视频免费永久观看网站| 操美女的视频在线观看| 日韩欧美一区二区三区在线观看 | 欧美激情久久久久久爽电影 | 少妇精品久久久久久久| 国产高清国产精品国产三级| 90打野战视频偷拍视频| 亚洲色图av天堂| 久9热在线精品视频| 精品亚洲成国产av| av天堂久久9| 90打野战视频偷拍视频| av免费在线观看网站| 精品熟女少妇八av免费久了| 国产真人三级小视频在线观看| 久久人人爽av亚洲精品天堂| 黑丝袜美女国产一区| av免费在线观看网站| 欧美日韩福利视频一区二区| 日本欧美视频一区| 黄色a级毛片大全视频| 国产av精品麻豆| 又紧又爽又黄一区二区| 国产成人一区二区三区免费视频网站| 精品人妻在线不人妻| 窝窝影院91人妻| 国内毛片毛片毛片毛片毛片| 日本黄色视频三级网站网址 | 高清欧美精品videossex| 久久亚洲真实| 色综合欧美亚洲国产小说| 人妻一区二区av| av电影中文网址| 汤姆久久久久久久影院中文字幕| 99国产极品粉嫩在线观看| 一级毛片电影观看| 五月开心婷婷网| 精品福利观看| 三级毛片av免费| 久久精品aⅴ一区二区三区四区| 亚洲精品av麻豆狂野| 18禁美女被吸乳视频| 建设人人有责人人尽责人人享有的| 亚洲国产av新网站| 国产欧美日韩一区二区三| 丝袜美足系列| 又大又爽又粗| 亚洲精品在线观看二区| 欧美大码av| 丝袜美腿诱惑在线| 精品一区二区三区视频在线观看免费 | 少妇精品久久久久久久| 天堂8中文在线网| 一夜夜www| 丝袜在线中文字幕| 高清av免费在线| 亚洲中文av在线| av免费在线观看网站| 国产麻豆69| kizo精华| av电影中文网址| 中文欧美无线码| 亚洲第一av免费看| 国精品久久久久久国模美| 啪啪无遮挡十八禁网站| 男人舔女人的私密视频| av一本久久久久| 极品教师在线免费播放| 亚洲熟女毛片儿| 日本一区二区免费在线视频| 少妇被粗大的猛进出69影院| 丰满少妇做爰视频| 两性夫妻黄色片| 国产精品久久久av美女十八| 人人妻人人添人人爽欧美一区卜| 久久99一区二区三区| 久久久久久久国产电影| 久久久久精品国产欧美久久久| 日韩视频一区二区在线观看| 精品国产亚洲在线| 成人三级做爰电影| 国产亚洲欧美在线一区二区| 亚洲精品一卡2卡三卡4卡5卡| 亚洲伊人久久精品综合| 美女高潮喷水抽搐中文字幕| 女性被躁到高潮视频| 99香蕉大伊视频| 人妻 亚洲 视频| 亚洲欧美一区二区三区久久| 久久九九热精品免费| 午夜福利欧美成人| 窝窝影院91人妻| 中国美女看黄片| 免费黄频网站在线观看国产| 免费在线观看日本一区| 亚洲黑人精品在线| 日韩欧美国产一区二区入口| 欧美久久黑人一区二区| 国产成人精品无人区| 老熟女久久久| 中文字幕最新亚洲高清| 一夜夜www| 91字幕亚洲| 制服人妻中文乱码| 亚洲av日韩在线播放| 自线自在国产av| 成人18禁高潮啪啪吃奶动态图| 亚洲国产精品一区二区三区在线| 18禁观看日本| 国产日韩一区二区三区精品不卡| 性色av乱码一区二区三区2| 久久久久久久国产电影| av天堂久久9| 亚洲国产精品一区二区三区在线| 日韩制服丝袜自拍偷拍| 最新美女视频免费是黄的| 亚洲av日韩在线播放| 国产深夜福利视频在线观看| 人人澡人人妻人| 老鸭窝网址在线观看| 亚洲美女黄片视频| 啦啦啦在线免费观看视频4| 这个男人来自地球电影免费观看| 在线观看一区二区三区激情| 99国产精品99久久久久| 91国产中文字幕| 一区二区日韩欧美中文字幕| 精品久久久精品久久久| 中文字幕人妻熟女乱码| 18禁国产床啪视频网站|