• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    基于紋理特征的自適應插值

    2017-09-15 08:48:13張云峰姚勛祥包芳勛張彩明
    計算機研究與發(fā)展 2017年9期
    關(guān)鍵詞:維數(shù)分形插值

    張云峰 姚勛祥 包芳勛 張彩明

    1(山東財經(jīng)大學計算機科學與技術(shù)學院 濟南 250014)2(山東大學數(shù)學學院 濟南 250100)3 (山東大學計算機科學與技術(shù)學院 濟南 250100)

    基于紋理特征的自適應插值

    張云峰1姚勛祥1包芳勛2張彩明3

    1(山東財經(jīng)大學計算機科學與技術(shù)學院 濟南 250014)2(山東大學數(shù)學學院 濟南 250100)3(山東大學計算機科學與技術(shù)學院 濟南 250100)

    (yfzhang@sdufe.edu.cn)

    在傳統(tǒng)有理插值函數(shù)的基礎(chǔ)上構(gòu)造出一種新的混合插值模型.該混合插值模型是有理函數(shù)與分形插值函數(shù)的有機整體,可由形狀參數(shù)和尺度因子唯一確定.由于分形是刻畫圖像復雜度的有效工具,引入分形維數(shù)描述紋理的復雜程度.首先,提出一種基于局部分形維數(shù)的自適應閾值選取的方法,將整幅圖像劃分為紋理區(qū)域和非紋理區(qū)域.在紋理區(qū)域采用有理分形函數(shù)插值,在非紋理區(qū)域采用有理函數(shù)插值.尤其在有理分形插值模型中,提出一種基于分形維數(shù)的精確計算尺度因子的方法.最后,通過優(yōu)化形狀參數(shù)進一步提高插值圖像質(zhì)量.實驗結(jié)果表明:提出的基于圖像特征的混合插值模型與當前經(jīng)典算法相比,尤其是在處理紋理圖像方面,具有明顯優(yōu)勢.

    混合插值;局部分形維數(shù);自適應閾值;參數(shù)優(yōu)化;有理分形

    圖像插值,或稱圖像放大,是指由低分辨率圖像獲取高分辨率的圖像,在本質(zhì)上是通過已知像素估算出未知像素.圖像插值技術(shù)能夠在一定條件下保持豐富的紋理信息和銳利的邊緣.圖像插值技術(shù)在圖像處理領(lǐng)域起著重要的作用并且廣泛應用于各個領(lǐng)域,如航空航天、軍事、通信、遙感衛(wèi)星、電視及電影制作等.諸多插值算法被廣泛地用于現(xiàn)實中,如最近鄰、雙線性、雙三次以及樣條插值[1-2]等.雖然這些傳統(tǒng)的插值算法比較有效,但是往往會產(chǎn)生邊界模糊、走樣等.

    為了彌補傳統(tǒng)插值算法的不足,許多經(jīng)典的插值算法被提出.文獻[3]首先從低分辨率圖像估計局部協(xié)方差系數(shù),然后在高分辨率圖像中基于低分辨率和高分辨率協(xié)方差的幾何對偶性,利用估計出的協(xié)方差做自適應插值.這種基于協(xié)方差的插值方法具有較高的運算復雜度.在文獻[4]中,Hiroyuki等人提出泛化的核退化自適應插值算法,將非參數(shù)統(tǒng)計方法與核退化方法結(jié)合,提出泛化的方法用于圖像處理和重建.核退化的方法可以有效減少估計誤差,但這種方法往往也會產(chǎn)生邊界模糊和紋理錯亂現(xiàn)象.在文獻[5]中,Zhang等人提出基于線性均方差的圖像插值方法.對于每一個被插像素點,將其鄰域劃分為2個觀測子集,并從正交的2個方向估計缺失的像素.Zhang等人在文獻[6]中提出一種軟決策的插值技術(shù),這種方法不是一次估計一個像素而是一次估計一組像素.此方法使用二維分段自回歸模型,能夠?qū)W習和適應不同結(jié)構(gòu).這種算法能很好地保持插值圖像的空間相關(guān)性,且具有良好的主觀視覺質(zhì)量和圖像質(zhì)量客觀評價值.以上2種方法均是采用非連續(xù)函數(shù),這種方法常常產(chǎn)生斑點噪聲以及邊界錯亂.Dong等人[7]將非局部自回歸模型與稀疏表示相結(jié)合.傳統(tǒng)的稀疏表示未能包含丟失像素的結(jié)構(gòu)信息導致其效果不理想,非局部自回歸模型可以有效降低樣本矩陣與稀疏表示字典的相關(guān)性,從而使得稀疏表示更加有效.雖然這種方法取得了較好的視覺效果,但是其算法時間復雜度較高.

    近幾年,Jeong 等人[8]提出了一種基于局部方向自相似性的多幀圖像超分辨率算法.竇諾等人[9]提出一種基于圖像塊在訓練字典下稀疏表示的協(xié)同處理方法,用來解決含噪圖像超分辨的問題.在文獻[10]中,曹世翔等人提出一種映速有效的邊緣特征點提取方法,實現(xiàn)多分辨率圖像融合.Jha 等人[11]提出了一種新的圖像插值方法,該方法利用逆梯度和像素間的距離自適應獲取權(quán)值,以此估計未知像素.在文獻[12]中,Zhu等人提出一種基于非局部幾何自相似的插值算法,基于圖像塊梯度方向變化以及相似塊極小化獲取理想權(quán)重系數(shù).在文獻[13]中,Zhang等人提出結(jié)合結(jié)構(gòu)信息和稀疏表示的方法以提高基于稀疏表示方法的超分辨效果.然而以上方法在復雜紋理圖像的處理中效果并不理想,會產(chǎn)生紋理錯亂等現(xiàn)象.

    如今,與理想核函數(shù)接近的有理函數(shù)作為一種新的方法用于圖像插值中.總的來說,采用有理函數(shù)重構(gòu)出的圖像具有較好的視覺效果,無塊狀痕跡,模糊程度較低等.在文獻[14]中,Hu等人提出自適應切觸有理插值函數(shù)以保持邊界,這種函數(shù)是對理想核函數(shù)更精確的逼近.在文獻[15]中,Carrato 等人提出一種新的基于現(xiàn)實圖像合成的內(nèi)插算法.有理算子提供邊緣敏感數(shù)據(jù)插值,以此減少人工痕跡的出現(xiàn). 在文獻[16]中,Liu等人構(gòu)建出基于權(quán)重的自適應插值函數(shù),包含邊界信息的權(quán)重系數(shù)可由距離、梯度、采樣點的差商自適應計算得出.然而,有理函數(shù)在紋理細節(jié)保持等方面效果并不理想.由于分形是描述紋理的有效工具,基于分形分析的紋理描述子廣泛應用于紋理分割和分類[17-21].Xu等人[22]提出一種基于局部分形分析的單幅圖像超分辨增強算法.在文獻[23]中,將分形編碼看作是特征的相似性評價標準,通過搜索內(nèi)部圖像塊和使用的低分辨率單一圖像的圖像相似融合重建高分辨率圖像信息塊,實現(xiàn)基于分形編碼的圖像超分辨率增強.在文獻[24]中,Zhai提出一種新的基于分形的PLC OFDM信號重建方法.由此,提出一種既可以保持紋理細節(jié)又能保持銳利邊界的算法是必要的.

    為了解決上述問題,在先前有理函數(shù)[25-27]的研究基礎(chǔ)上,本文提出一種有理分形的混合插值模型.該模型將形狀參數(shù)包含于分形函數(shù)中,通過尺度因子和形狀參數(shù)可確定唯一的插值模型.給定不同的尺度因子的值,模型的表達形式隨之變化.根據(jù)圖像的特征信息,將圖像劃分為不同區(qū)域.區(qū)域劃分是依據(jù)分形特征的自適應閾值選取.對于不同的區(qū)域,我們采用不同的插值函數(shù).最后,通過對表達式中參數(shù)的優(yōu)化,進一步提高圖像的插值質(zhì)量.本文算法的流程圖如圖1所示:

    Fig. 1 Flowchart of mixing interpolation system圖1 混合插值系統(tǒng)算法流程圖

    1 有理分形插值函數(shù)構(gòu)造

    有理分形插值函數(shù)是本文混合插值算法的基礎(chǔ).在介紹經(jīng)典雙變量插值函數(shù)的基礎(chǔ)上,本節(jié)提出的一種新的雙變量有理分形插值函數(shù).

    (1)

    其中,0≤λ≤1,令φm(y):J→Jm為線性壓縮同胚,并且滿足:

    (2)

    其中,0≤μ<1,

    (3)

    令hi=xi+1-xi,lj=yj+1-yj,θ=(x-xi)hi,η=(y-yj)lj.對每一個數(shù)y=yj,j=1,2,…,M構(gòu)造x方向的插值函數(shù)如下:

    (4)

    其中,

    (5)

    其中,

    其中,

    由此構(gòu)造迭代函數(shù)系(IFS)

    {I×J×R;(φi(x),φj(y),Fi,j(x,y,z))}.

    (6)

    記HN=xN-x1,LM=yM-y1,對[x1,xN;y1,yM],θ=(x-x1)(xN-x1),η=(y-y1)(yM-y1),Bi,j(x,y)表達式如下:

    (7)

    其中,

    其中,

    (8)

    其中,

    且θ=(x-x1)(xN-x1),η=(y-y1)(yM-y1),Bi,j(x,y)滿足:Bi,j(x1,yM)=f1,1,Bi,j(xN,y1)=fN,1,Bi,j(x1,yM)=f1,M,Bi,j(xN,yM)=fN,M,Fi,j(x,y,z)=si,jz+Pi,j(φi(x),φj(y))-si,jBi,j(x,y),其中si,j為迭代函數(shù)系的尺度因子且|si,j|<1.

    因此,上述定義的迭代函數(shù)系統(tǒng)存在唯一的吸引子G,且為連續(xù)函數(shù)記為ψ(x,y).式(6)中定義的有理分形插值函數(shù)(fractal interpolation function, FIF)稱之為雙變量有理分形插值函數(shù)(bivariate rational fractal interpolation function, BRFIF),其表達式如下:

    ψ(φi(x),φj(y))=si,jψ(x,y)+

    P(φi(x),φj(y))-si,jBi,j(x,y).

    (9)

    2 插值算法

    在本節(jié)我們將討論如何利用上述構(gòu)造的模型由低分辨圖像獲取高分辨圖像:1)計算圖像的分形維數(shù),以此作為劃分紋理區(qū)域與非紋理區(qū)域的依據(jù);2)根據(jù)圖像局部特征,不同區(qū)域采用不同插值模型,在紋理區(qū)域采用有理分形插值函數(shù),在非紋理區(qū)域采用有理函數(shù)插值;3)根據(jù)局部分形維數(shù)與全局分形維數(shù)的關(guān)系準確計算尺度因子;4)通過參數(shù)優(yōu)化技術(shù)進一步提高圖像的插值質(zhì)量.

    2.1 基于分形維數(shù)的區(qū)域劃分

    對于同時包含紋理區(qū)域和非紋理區(qū)域的復雜圖像,區(qū)域劃分是插值算法的關(guān)鍵步驟,區(qū)域劃分的精確與否將直接影響圖像的插值質(zhì)量.在本文中,我們利用分形維數(shù)描述圖像的復雜性,并以此將圖像劃分為紋理區(qū)域和非紋理區(qū)域.閾值選取是區(qū)域劃分的關(guān)鍵,因此閾值選取的精確與否會直接影響區(qū)域的劃分.

    2.1.1 分形維數(shù)

    分形維數(shù)也被稱作全局分形維數(shù),是分形理論中的重要內(nèi)容.由于分形維數(shù)與人眼區(qū)分紋理粗糙度相一致,分形維數(shù)被視為描述紋理復雜性的有效工具.全局分形維數(shù)用來描述整幅圖像的復雜程度,而局部分形維數(shù)(local fractal dimension,LFD)用來描述圖像局部小塊的復雜性.“毯子覆蓋法”是一種被廣泛應用的計算分形維數(shù)的方法,其優(yōu)勢在于可以覆蓋分形維數(shù)的取值范圍.接下來將介紹如何利用毯子覆蓋法計算全局分形維數(shù)和局部分形維數(shù)[28].圖像灰度曲面可看作灰度函數(shù)H(i,j),毯子的上下表面分別記作Tε,Bε.初始時,T0(i,j)=B0(i,j)=H(i,j).當ε=1,2,…,N,毯子的上下表面可定義為

    (10)其中d(i,j;m,n)代表(i,j)與(m,n)兩點之間的距離,應用圖像處理中的膨脹和腐蝕技術(shù),選擇尺寸大小為ε的結(jié)構(gòu)元素,則不同尺度對應的表面積測度A(ε)為

    (11)

    其中,T為膨脹層面積,B為腐蝕層面積.此時圖像的表面積測度可記作:

    A(ε)=kε2-D,

    (12)其中A(ε)是尺度ε下的表面積.應用最小二乘法對雙lg-lg曲線擬合,可以計算出分形維數(shù)的數(shù)值如下:

    D=2-k.

    (13)

    2.1.2 局部自適應閾值

    Fig. 2 Regional division by different methods圖2 不同方法區(qū)域劃分對比

    紋理區(qū)域最主要的特征是其灰度值變化劇烈,一個簡單的區(qū)分紋理的方法就是閾值選取.區(qū)域劃分的關(guān)鍵在于精確選擇閾值,因為閾值選取的正確與否將直接影響插值函數(shù)的選取,從而影響插值質(zhì)量.如果閾值較小,會錯把非紋理區(qū)域視為紋理區(qū)域;相反,如果閾值較大,那么紋理區(qū)域?qū)诲e誤地認作是非紋理區(qū)域.

    自動閾值選取是一種廣泛應用的方法,它根據(jù)公式利用圖像特征信息自適應計算閾值大小.自動閾值[29]計算為

    (14)

    其中,a=[3,5],x代表每個像素點的灰度值,n為像素點數(shù).整幅圖像灰度值均值如下:

    (15)

    其中,a=5,x代表每個像素點的灰度值,median是指整幅圖像灰度中值.這種閾值選取的方法忽略了圖像自身的結(jié)構(gòu)信息,同時單純依靠全局灰度值閾值選取的方法是不精確的.因此,我們提出一種可以描述紋理復雜性的基于分形維數(shù)的閾值選取方法.經(jīng)過大量實驗,我們發(fā)現(xiàn)自然圖像局部分形維數(shù)的分布近似符合正態(tài)分布.正態(tài)分布,又稱高斯分布,是一個在數(shù)學、物理及工程等領(lǐng)域都非常重要的概率分布,在統(tǒng)計學的許多方面有著重大的影響力.若隨機變量x服從一個數(shù)學期望為μ、標準方差為σ2的高斯分布記為X~N(μ,σ2),則其概率密度函數(shù)為

    (16)

    高斯模型廣泛應用于圖像處理領(lǐng)域,利用高斯概率密度函數(shù)作為量化標準將整體分為部分通常是準確的.圖像紋理區(qū)域高斯模型的建立原理與過程:局部分形維數(shù)的直方圖反映圖像分形維數(shù)出現(xiàn)的次數(shù),同樣也可以認為是其密度分布.如果紋理區(qū)域和非紋理區(qū)域存在差別,其局部分形維數(shù)直方圖會呈現(xiàn)出“鈴形”曲線形狀.因此整幅圖像就可以分為2部分:

    (17)

    利用“毯子覆蓋法”計算每一個5×5子塊的分形維數(shù).按照式(16),μ為局部分形維數(shù)的均值,即為選取的劃分紋理區(qū)域與非紋理區(qū)域的閾值.在本文的插值算法中,通過計算每一子塊的分形維數(shù),如果其值大于μ,被認為是紋理區(qū)域,否則為非紋理區(qū)域.圖2為自動閾值方法和本文閾值選取方法的對比效果圖.圖3是包含紋理與非紋理區(qū)域的實驗圖像.局部分形維數(shù)的范圍為2.0~3.0.為了證明此方法的有效性,圖4是其對應的概率密度函數(shù),圖5為通過閾值二值化測試圖像的結(jié)果.

    Fig. 3 Images used for discriminating textures圖3 區(qū)分紋理區(qū)域?qū)嶒瀳D

    Fig. 4 Density function of LFD of images圖4 局部分形維數(shù)密度函數(shù)

    Fig. 5 Results of edge detection圖5 邊界檢測結(jié)果圖

    2.2 自適應插值算法

    本文的插值模型為混合插值模型,利用其表達式的多樣性分別對紋理區(qū)域和非紋理區(qū)域處理.根據(jù)子塊的區(qū)域特征,其形狀參數(shù)可以做調(diào)整以更符合圖像的結(jié)構(gòu)特征.通過以上步驟,整幅圖像被分成紋理區(qū)域與非紋理區(qū)域.在非紋理區(qū)域,插值函數(shù)為雙變量有理插值;在紋理區(qū)域,插值函數(shù)為有理分形插值.

    2.2.1 紋理區(qū)域插值

    對于紋理區(qū)域,其插值模型表達形式如下:

    ψ(φi(x),φj(y))=si,jψ(x,y)+

    P(φi(x),φj(y))-si,jBi,j(x,y),

    (18)

    其中α,β為待優(yōu)化的形狀參數(shù).本文2.4節(jié)將討論形狀參數(shù)的優(yōu)化,除此之外,公式中還包含尺度因子si,j的待確定參數(shù).

    2.2.2 非紋理區(qū)域插值

    對于非紋理區(qū)域,其插值函數(shù)的表達式為

    (19)

    其中,

    2.3 基于分形維數(shù)的尺度因子計算

    顯然,隨機選取尺度因子對圖像插值來說是不精確的.針對現(xiàn)實情況,通過已知信息準確計算尺度因子具有重要實踐意義.隨著尺度因子精確性的提高,本文的插值函數(shù)就更接近理想核函數(shù).一般來說,尺度因子通常作為自由參數(shù),或者給出其變化范圍[30-31].由于分形維數(shù)與尺度因子密切相關(guān),本文中通過分形維數(shù)精確計算尺度因子,其表達式如下:

    (20)

    其中,FD是全局分形維數(shù),N為平面的拓撲維數(shù),N=2.考慮到尺度因子si,j對插值函數(shù)的影響,我們控制其他形狀參數(shù)不變.如圖6所示,插值曲面形狀受尺度因子影響較大.尺度因子的變化越小(si,j→0),構(gòu)造的插值函數(shù)變化也越小.針對圖像,圖7給出PSNR隨著尺度因子變化情況,當尺度因子在[0,0.3]變化時,峰值信噪比(PSNR)取得最大值.因此,精確計算尺度因子可以有效提高插值質(zhì)量.實驗也剛好證明了我們方法的正確性.

    Fig. 6 Comparison of interpolation with different scaling factor圖6 不同尺度因子下插值曲面和圖像對比

    Fig. 7 PSNR changes with scaling factor圖7 PSNR隨尺度因子變化

    2.4 形狀參數(shù)優(yōu)化

    文獻中常用的一種簡單的刻畫插值的精確性方法是比較插值圖像與原圖之間的差異.主要是通過計算峰值信噪比(PSNR),其定義如下:

    (21)

    其中,MSE是原圖像與插值圖像之間的均方誤差, 為圖像中灰度的最大值,8位圖像的最大值為255.將含有α,β的式(19)帶入到式(21)中,記為U(α,β).通過極小化U(α,β) 可以獲得局部最優(yōu)的α,β值,表達式如下:

    Fig. 8 PSNR changes with shape parameters圖8 PSNR隨形狀參數(shù)變化情況

    (22)

    很顯然,采用此種方法獲取最優(yōu)化形狀參數(shù)具有較高的時間復雜度.下面給出數(shù)值化優(yōu)化參數(shù)的算法步驟.

    算法1. 參數(shù)優(yōu)化算法.

    輸入:參數(shù)取值范圍;

    輸出:PSNR取最大值時參數(shù)取值.

    ① 對于參數(shù)取值范圍{(α,β)|0≤α≤10,0≤β≤20}, 分別計算每一對(α,β)的PSNR值;

    ② 假定PSNR>T為目標值,選取此時(α,β)的取值范圍;

    ③ 固定α的值,選取此時PSNR最大時β的取值;

    ④ 固定β的值,選取此時PSNR最大時α的取值;

    ⑤ 獲取參數(shù)的最優(yōu)化值.

    對于給定的插值函數(shù),插值質(zhì)量可以通過調(diào)節(jié)參數(shù)進一步提高,本文是以PSNR作為目標函數(shù),從而獲得最優(yōu)的參數(shù)取值.

    如圖8(a)所示,PSNR隨著參數(shù)變化而發(fā)生變化.當α∈[4,5],β∈[14,16] 時,PSNR取得最大值.在圖8(c)中,當α取定值、β∈[13,15]時,PSNR達到峰值;當β取定值、α∈[3,5] 時,PSNR達到峰值.其交集即為α,β的最優(yōu)取值.

    3 實驗結(jié)果與分析

    如第2節(jié)所述,通過分形特征分析,區(qū)分出圖像的紋理區(qū)域和非紋理區(qū)域.紋理區(qū)域和非紋理區(qū)域可以選擇同一個插值模型的不同參數(shù)來處理.在紋理區(qū)域,需要對參數(shù)自適應優(yōu)化處理,進一步提高插值圖像質(zhì)量.

    我們選取了7幅圖像作為測試圖像,如圖9所示.測試圖像的尺寸均為512×512.比較算法均為近年經(jīng)常被引用的且多次比較過的算法:NEDI[3], DFDF[5],SAI[6],NARM[7].

    Fig. 9 Images used for quantitative comparison圖9 對比實驗圖像

    我們把高分辨率圖像下采樣獲得低分辨率圖像,采樣方法為直接下采樣.峰值信噪比(PSNR)是對圖像平均的質(zhì)量評價,而基于結(jié)構(gòu)相似性(SSIM)的質(zhì)量評價是一種視覺感知的評價,這2種方法廣泛應用于圖像質(zhì)量評價中.表1給出采用不同方法把低分辨率圖像重建為高分辨圖像的PSNR和SSIM值.從數(shù)據(jù)上可以看出,本文算法的平均PSNR和SSIM值是最高的.通過數(shù)值對比發(fā)現(xiàn),本文算法數(shù)值上優(yōu)于對比算法.

    此外,我們進一步探究區(qū)域劃分時不同閾值對插值效果的影響.如圖10所示,當閾值T分別取2.1,2.3,2.4時,圖10(a)(b)(c)為對應的區(qū)域劃分的效果圖.由圖10所示,不同的閾值對區(qū)域劃分有較大的影響.圖11為采用圖10對應閾值插值后的圖像,其對應的PSNR依次減小,可見區(qū)域劃分的精確性會對插值圖像產(chǎn)生一定影響.

    Table 1 The PSNR and SSIM Comparison of Different Algorithms

    PSNR和SSIM是僅從數(shù)值上對二者之間的誤差加以比較,同時也應當考慮到視覺效果.圖12~19為測試圖片視覺效果對比.在圖12~16中,本文算法的插值效果圖像明顯增強,圖像對比度有所提高.在圖13中,所有比較算法均發(fā)生了紋理走樣,而本文算法較其他算法走樣較小,在下巴處圍巾的處理效果明顯好于其他算法.在圖19中,NEDI和SAI在圍欄處出現(xiàn)了噪點和變形,NARM在圍欄處也有輕微噪點.本文算法與NARM視覺效果難分伯仲,但本文算法客觀質(zhì)量評價數(shù)值要好.圖20~21為局部圖像對比,放大之后的圍欄處對比更加明顯.針對紋理圖像,如圖21所示,本文算法無論是在客觀數(shù)據(jù)上還是視覺質(zhì)量上均取得一定優(yōu)勢.同時本方法也有一定的局限性,由于沒有引入紋理的方向信息,在紋理方向的保持上稍顯不足(如Barbara褲腿處).這也是我們下一步的工作計劃.綜上所述,標準測試圖像的實驗表明,本文算法與4種經(jīng)典算法相比優(yōu)勢明顯,尤其是包含紋理區(qū)域的高頻部分.

    Fig. 10 Edge detection by different threshold圖10 不同閾值下區(qū)域檢測效果圖

    Fig. 11 Interpolated images by different PSNR圖11 不同峰值信噪比下插值效果圖

    Fig. 12 Results of “Brick”圖12 Brick實驗結(jié)果

    Fig. 13 Results of “Barbara”圖13 Barbara實驗結(jié)果

    Fig. 14 Results of “Rail”圖14 Rail實驗結(jié)果

    Fig. 15 Results of “Dollar”圖15 Dollar實驗結(jié)果

    Fig. 16 Results of “Lena”圖16 Lena實驗結(jié)果

    Fig. 17 Results of “Truck”圖17 Truck實驗結(jié)果

    Fig. 18 Results of “Xxal”圖18 Xxal實驗結(jié)果

    Fig. 19 Results of “Cliff”圖19 Cliff實驗結(jié)果

    Fig. 20 Regional results of “Rail”圖20 Rail局部實驗結(jié)果

    Fig. 21 Regional results of “Xxal”圖21 Xxal局部實驗結(jié)果

    4 結(jié) 論

    本文基于圖像局部分形維數(shù)特征分析提出一種混合插值算法.在傳統(tǒng)有理函數(shù)插值的基礎(chǔ)上,我們提出一種新的有理分形函數(shù)插值模型.模型中包含尺度因子和形狀參數(shù)作為可調(diào)參數(shù),通過插值點的結(jié)構(gòu)信息調(diào)節(jié)參數(shù),使得模型靈活性更高、精確性更好.在本文的插值算法中,首先通過計算局部分形維數(shù),自適應地選取閾值對紋理區(qū)域和非紋理區(qū)域劃分.分區(qū)域采用不同的插值函數(shù)進行插值.在有理插值模型中包含尺度因子,本文提出一種通過尺度因子與維數(shù)的關(guān)系精確計算尺度因子的方法.為了進一步提高圖像的插值質(zhì)量,我們通過極大化PSNR值對參數(shù)優(yōu)化.實驗結(jié)果表明:本文算法與其他5種經(jīng)典插值算法相比優(yōu)勢明顯,尤其在遙感圖像和復雜紋理圖像方面.

    [1]Matsumoto S, Kamada M, Mijiddorj R O. Adaptive image interpolation by cardinal splines in piecewise constant tension[J]. Optimization Letters, 2012, 6(7): 1265-1280

    [2]Zhang Caiming, Zhang Xin, Li Xuemei, et al. Cubic spline surface fitting to image with edges as constraints[C]Proc of the 20th IEEE Int Conf on Image Processing (ICIP). Piscataway, NJ: IEEE, 2013: 1046-1050

    [3]Li Xin, Orchard M T. New edge-directed interpolation [J]. IEEE Trans on Image Processing, 2001, 10(10): 1521-1527

    [4]Hiroyuki T, Sina F, Peyman M. Kernel regression for image processing and reconstruction [J]. IEEE Trans on Image Processing, 2007, 16(2): 349-366

    [5]Zhang Lei, Wu Xiaolin. An edge-guided image interpolation algorithm via directional filtering and data fusion [J]. IEEE Trans on Image Processing, 2006, 15(8): 2226-2238

    [6]Zhang Xiangjun, Wu Xiaolin. Image interpolation by adaptive 2-D autoregressive modeling and soft-decision estimation [J]. IEEE Trans on Image Processing, 2008, 17(6): 887-896

    [7]Dong Weisheng, Zhang Lei, Lukac R, et al. Sparse representation based image interpolation with nonlocal autoregressive modeling [J]. IEEE Trans on Image Processing, 2013, 22(4): 1382-1394

    [8]Jeong S, Yoon I, Jeon J, et al. Multi-frame example-based super-resolution using locally directional self-similarity[C]Proc of IEEE Int Conf on Consumer Electronics (ICCE). Piscataway, NJ: IEEE , 2015: 353-358

    [9]Dou Nuo, Zhao Ruizhen, Cen Yigang, et al. Noisy image super-resolution reconstruction based on sparse representation [J]. Journal of Computer Research and Development, 2015, 52(4): 943-951 (in Chinese)(竇諾, 趙瑞珍, 岑翼剛, 等. 基于稀疏表示的含噪圖像超分辨重建方法[J].計算機研究與發(fā)展,2015, 52(4): 943-951)

    [10]Cao Shixiang, Jiang Jie, Zhang Guangjun, et al. Multi-scale image mosaic using features from edge [J]. Journal of Computer Research and Development, 2011, 48(9):1788-1793 (in Chinese)(曹世翔, 江 潔, 張廣軍, 等. 邊緣特征點的多分辨率圖像拼接[J].計算機研究與發(fā)展, 2011, 48(9): 1788-1793)

    [11]Jha A K, Kumar A, Schaefer G, et al. An adaptive distance-based edge preserving interpolation algorithm for natural images[C]Proc of the Int Conf on Informatics, Electronics and Vision (ICIEV). Piscataway, NJ: IEEE, 2015: 1-5

    [12]Zhu Shuyuan, Zeng Bing, Liu Guanghui, et al. Image interpolation based on non-local geometric similarities[C]Proc of 2015 IEEE Int Conf on Multimedia and Expo (ICME). Piscataway, NJ: IEEE, 2015: 1-6

    [13]Zhang Yongqin, Liu Jiayang, Yang Wenhan, et al. Image super-resolution based on structure-modulated sparse representation [J]. IEEE Trans on Image Processing, 2015, 24(9): 2797-2810

    [14]Hu Min, Tan Jieqing. Adaptive osculatory rational interpolation for image processing[J]. Journal of Computational and Applied Mathematics, 2006, 195(1): 46-53

    [15]Carrato S, Tenze L. A high quality 2X image interpolator [J]. IEEE Signal Processing Letters, 2000, 7(6): 132-134

    [16]Liu Yifang, Zhang Yunfeng, Guo Qiang, et al. Image interpolation based on weighted and blended rational function[G]LNCS 9009: Proc of Asian Conf on Computer Vision. Berlin: Springer, 2015: 78-88

    [17]Varma M, Garg R. Locally invariant fractal features for statistical texture classification[C]Proc of the 11th Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2007: 1-8

    [18]Xu Yong, Ji Hui, Fermuller C. A projective invariant for textures[C]Proc of IEEE Computer Society Conf on Computer Vision and Pattern Recognition. Los Alamitos, CA: IEEE Computer Society, 2006: 1932-1939

    [19]Xu Yong, Ji Hui, Fermuller C. Viewpoint invariant texture description using fractal analysis[J]. International Journal of Computer Vision, 2009, 83(1): 85-100

    [20]Xu Yong, Yang Xiong, Ling Haibin, et al. A new texture descriptor using multifractal analysis in multiorientation wavelet pyramid[C]Proc of 2010 IEEE Conf Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2010: 161-168

    [21]Xu Yong, Quan Yuhui, Ling Haibin, et al. Dynamic texture classification using dynamic fractal analysis[C]Proc of IEEE Int Conf on Computer Vision. Piscataway, NJ: IEEE, 2011: 1219-1226

    [22]Xu Hongteng, Zhai Guangtao, Yang Xiaokang. Single image super-resolution with detail enhancement based on local fractal analysis of gradient [J]. IEEE Trans on Circuits and Systems for Video Technology, 2013, 23(10): 1740-1754

    [23]He Sihua, Wu Zhen. Method of single image super-resolution enhancement based on fractal coding[C]Proc of the 3rd Int Conf Computer Science and Network Technology (ICCSNT). Piscataway, NJ: IEEE, 2013: 1034-1036

    [24]Zhai Mingyue. Signal recovery in power-line communications systems based on the fractals [J]. IEEE Trans on Power Delivery, 2011, 26(3): 1864-1872

    [25]Zhang Yunfeng, Bao Fangxun, Zhang Caiming. A weighted bivariate blending rational interpolation function and visualization control [J]. Journal of Computational Analysis and Applications, 2012, 14(7): 1303-1321

    [26]Zhang Yunfeng, Bao Fangxun, Zhang Caiming. Local shape control of a bivariate rational interpolating surface with mixing conditions[C]Proc of the 8th Int Symp on Voronoi Diagrams in Science and Engineering (ISVD). Piscataway, NJ: IEEE , 2011: 200-205

    [27]Duan Qi, Zhang Huanling, Zhang Yunfeng. Bounded property and point control of a bivariate rational interpolating surface [J]. Computers and Mathematics with Applications, 2006, 10(52): 975-984

    [28]Novianto S, Suzuki Y, Maeda J. Near optimum estimation of local fractal dimension for image segmentation [J]. Pattern RecognitionLetters, 2003, 24(123): 365-374

    [29]Zhou Jiyang, Xu Shengwei, Lin Nansen, et al. Spike detection based on fractal dimension[C]Proc of the IEEE Int Conf on Green Computing and Communications and IEEE Internet of Things and IEEE Cyber, Physical and Social Computing. Piscataway, NJ: IEEE, 2013: 1834-1838

    [30]Viswanathan P, Chand A K B, Navascués M A. A rational iterated function system for resolution of univariate constrained interpolation [J]. Revista de la Real Academia de Ciencias Exactas, Físicas y Naturales: Serie A Matemáticas, 2014, 109(2): 483-509

    [31]Viswanathan P, Chand A K B, Navascués M. Fractal perturbation preserving fundamental shapes: Bounds on the scale factors [J]. Journal of Mathematical Analysis and Applications, 2014, 419(2): 804-817Zhang Yunfeng, born in 1977. PhD, professor in Shandong University of Finance and Economics. His main research interests include computer aided geometric design, digital image processing, computa-tional geometry, function approximation.

    Yao Xunxiang, born in 1988. Master in Shandong University of Finance and Economics. His main research interests include imagevideo processing, fractal interpolation.

    Bao Fangxun, born in 1968. PhD, professor of Shandong University. His main research interests include function approximation, computation geometry, computer aided geometric design and compute.

    Zhang Caiming, born in 1955. PhD, professor and PhD supervisor in Shandong University. His main research interests include CAGD, CG, information visualiza-tion and medical image processing.

    《信息安全研究》期刊簡介

    習近平總書記指出“沒有網(wǎng)絡安全就沒有國家安全,沒有信息化就沒有現(xiàn)代化”.數(shù)字時代信息安全工具的大眾化是不可阻擋的歷史潮流.大眾化的信息安全已經(jīng)直接影響到我們每個人的利益,信息安全已成為國家、地方區(qū)域經(jīng)濟結(jié)構(gòu)優(yōu)化提升和轉(zhuǎn)型發(fā)展的新機遇.在信息安全上升為國家戰(zhàn)略、行業(yè)迎來嶄新發(fā)展機遇形勢下,《信息安全研究》期刊應時代而生.

    《信息安全研究》是由國家發(fā)改委主管、國家信息中心主辦的中文學術(shù)期刊,其宗旨是集中展示和報道國際、國內(nèi)網(wǎng)絡和信息安全研究領(lǐng)域研究成果及最新應用,傳播信息安全基礎(chǔ)理論和技術(shù)策略,服務國家信息安全形勢發(fā)展需要.所刊登的論文均經(jīng)過專家嚴格評審.

    《信息安全研究》于2015年10月創(chuàng)刊發(fā)行.刊期為月刊,每期96頁,由《信息安全研究》雜志社出版,國內(nèi)外公開發(fā)行.

    《信息安全研究》將以研究致以應用,搭建信息安全領(lǐng)域的學術(shù)交流平臺,愿意和同行業(yè)及社會各界建立聯(lián)系,友好合作,共贏美好未來.歡迎大家積極投稿、賜稿,洽談合作.

    投稿信箱:ris@cei.gov.cn

    編輯部聯(lián)系人:崔先生(185 0008 6481) 馬先生(158 1058 2450)

    Adaptive Interpolation Scheme Based on Texture Features

    Zhang Yunfeng1, Yao Xunxiang1, Bao Fangxun2, and Zhang Caiming3

    1(SchoolofComputerScience&Technology,ShandongUniversityofFinanceandEconomics,Jinan250014)2(SchoolofMathematics,ShandongUniversity,Jinan250100)3(SchoolofComputerScience&Technology,ShandongUniversity,Jinan250100)

    A new interpolation model is proposed based on the bivariate rational interpolation. This model contains rational fractal interpolation and bivariate rational interpolation, which is identified uniquely by the values of iterated function system parameters (scaling factor and shape parameters). Due to efficient capacity of fractal in description of complex phenomenon, the fractal dimension is employed to texture analysis. Based on the analysis of local fractal dimension (LFD), a new local adaptive threshold method is proposed. And then images can be divided into texture region and non-texture region. As for texture regions, rational fractal interpolation is used to get high resolution images. Similarly, rational interpolation is used in non-texture region. Considering the parameters in rational fractal interpolation model, we propose a new method for calculating the scaling factor. Further, in order to improve the quality of interpolated image, shape parameters optimization technique is applied. Experimental results show that the presented model achieves very competitive performance with the state-of-the-art interpolation algorithms.

    mixing interpolant; local fractal dimension; adaptive threshold; parameters optimizing; rational fractal

    2016-07-13;

    2016-12-09

    國家自然科學基金項目(61373080,61672018,61402261,61373088,61272431,61332015);山東省高等學校優(yōu)勢學科人才團隊培育計劃 This work was supported by the National Natural Science Foundation of China (61373080, 61672018, 61402261, 61373088, 61272431, 61332015) and Fostering Project of Dominant Discipline and Talent Team of Shandong Province Higher Education Institutions.

    包芳勛(fxbao@sdu.edu.cn)

    TP391

    猜你喜歡
    維數(shù)分形插值
    β-變換中一致丟番圖逼近問題的維數(shù)理論
    感受分形
    一類齊次Moran集的上盒維數(shù)
    分形之美
    基于Sinc插值與相關(guān)譜的縱橫波速度比掃描方法
    分形空間上廣義凸函數(shù)的新Simpson型不等式及應用
    關(guān)于齊次Moran集的packing維數(shù)結(jié)果
    涉及相變問題Julia集的Hausdorff維數(shù)
    一種改進FFT多譜線插值諧波分析方法
    基于四項最低旁瓣Nuttall窗的插值FFT諧波分析
    成熟少妇高潮喷水视频| 欧美中文日本在线观看视频| 窝窝影院91人妻| 精品福利观看| 99久久精品热视频| 中亚洲国语对白在线视频| 热99re8久久精品国产| 午夜久久久久精精品| 少妇高潮的动态图| 亚洲成人中文字幕在线播放| 欧美日韩乱码在线| 在线看三级毛片| 高潮久久久久久久久久久不卡| 又紧又爽又黄一区二区| 黄色女人牲交| 99riav亚洲国产免费| 国产精品久久电影中文字幕| 网址你懂的国产日韩在线| 97人妻精品一区二区三区麻豆| 露出奶头的视频| 别揉我奶头~嗯~啊~动态视频| 久久人妻av系列| 免费av不卡在线播放| 91av网一区二区| 欧美性感艳星| 狂野欧美激情性xxxx| 人人妻人人看人人澡| 两个人的视频大全免费| 亚洲国产欧美人成| e午夜精品久久久久久久| 麻豆一二三区av精品| 12—13女人毛片做爰片一| 在线免费观看的www视频| 欧美成人一区二区免费高清观看| 国产久久久一区二区三区| 少妇熟女aⅴ在线视频| 国产真实伦视频高清在线观看 | av欧美777| 搡老妇女老女人老熟妇| 亚洲第一欧美日韩一区二区三区| 亚洲国产精品合色在线| 搡女人真爽免费视频火全软件 | 久久久久久久久中文| 欧美一区二区精品小视频在线| 亚洲18禁久久av| 免费观看的影片在线观看| 精品久久久久久久久久久久久| 99久久九九国产精品国产免费| 成人三级黄色视频| 欧美日韩乱码在线| 色尼玛亚洲综合影院| 网址你懂的国产日韩在线| 日本 av在线| 久久6这里有精品| 亚洲第一欧美日韩一区二区三区| 99国产精品一区二区三区| 日韩欧美精品v在线| 九九热线精品视视频播放| 可以在线观看的亚洲视频| 日日夜夜操网爽| 悠悠久久av| 国产欧美日韩精品亚洲av| 国产淫片久久久久久久久 | 中文资源天堂在线| 国产成人系列免费观看| 国产精品 国内视频| 色尼玛亚洲综合影院| 又紧又爽又黄一区二区| 亚洲内射少妇av| 99精品久久久久人妻精品| 日韩大尺度精品在线看网址| 精品一区二区三区人妻视频| 午夜福利免费观看在线| 热99re8久久精品国产| 国产aⅴ精品一区二区三区波| 九九在线视频观看精品| 国产精品日韩av在线免费观看| 亚洲人成电影免费在线| 国产伦在线观看视频一区| 国产野战对白在线观看| 99国产精品一区二区蜜桃av| 欧美大码av| 免费av不卡在线播放| 精品不卡国产一区二区三区| 久久精品91无色码中文字幕| 老鸭窝网址在线观看| 精品一区二区三区视频在线 | 淫妇啪啪啪对白视频| 色老头精品视频在线观看| 2021天堂中文幕一二区在线观| 亚洲片人在线观看| 搡女人真爽免费视频火全软件 | 国产一级毛片七仙女欲春2| 亚洲精品亚洲一区二区| 十八禁网站免费在线| 久久久久久大精品| 性色av乱码一区二区三区2| 99久久精品国产亚洲精品| 成年人黄色毛片网站| 在线播放国产精品三级| 午夜日韩欧美国产| 一区二区三区激情视频| 黄色女人牲交| 欧美成人性av电影在线观看| 中亚洲国语对白在线视频| av片东京热男人的天堂| 一区二区三区国产精品乱码| 亚洲专区国产一区二区| 国产野战对白在线观看| 亚洲欧美日韩无卡精品| 国产精品香港三级国产av潘金莲| 在线免费观看的www视频| 少妇的逼好多水| av视频在线观看入口| 非洲黑人性xxxx精品又粗又长| 日本三级黄在线观看| 99久久精品一区二区三区| 婷婷亚洲欧美| 我的老师免费观看完整版| 亚洲国产精品999在线| 国产成年人精品一区二区| 免费大片18禁| 精品欧美国产一区二区三| 欧美极品一区二区三区四区| 两个人看的免费小视频| 国产免费一级a男人的天堂| 国产精品日韩av在线免费观看| 很黄的视频免费| 熟妇人妻久久中文字幕3abv| 精品国产美女av久久久久小说| 亚洲欧美日韩高清专用| 在线播放无遮挡| 少妇人妻一区二区三区视频| 男人和女人高潮做爰伦理| 亚洲中文日韩欧美视频| 精品国产三级普通话版| 久久九九热精品免费| 天堂av国产一区二区熟女人妻| 男女午夜视频在线观看| 美女cb高潮喷水在线观看| 麻豆一二三区av精品| 91av网一区二区| 欧美xxxx黑人xx丫x性爽| 久久久精品大字幕| 91av网一区二区| 久久久久国内视频| 欧美日韩国产亚洲二区| 国产精品免费一区二区三区在线| 一级作爱视频免费观看| 精品福利观看| 亚洲精品美女久久久久99蜜臀| 老司机午夜十八禁免费视频| 亚洲色图av天堂| 欧美黄色片欧美黄色片| 国产欧美日韩一区二区精品| 国产精品国产高清国产av| 国产私拍福利视频在线观看| bbb黄色大片| 又黄又粗又硬又大视频| 中文字幕人妻丝袜一区二区| 老司机午夜十八禁免费视频| 亚洲电影在线观看av| 国产亚洲欧美在线一区二区| 法律面前人人平等表现在哪些方面| 亚洲 欧美 日韩 在线 免费| 国内毛片毛片毛片毛片毛片| 天堂网av新在线| 国产野战对白在线观看| 久久天躁狠狠躁夜夜2o2o| 人妻丰满熟妇av一区二区三区| 99国产极品粉嫩在线观看| 久久久久久久精品吃奶| 国产伦精品一区二区三区四那| 色在线成人网| 欧美日韩一级在线毛片| 久久久久国产精品人妻aⅴ院| 五月玫瑰六月丁香| 人妻久久中文字幕网| 午夜两性在线视频| 亚洲欧美日韩卡通动漫| 免费av观看视频| 婷婷六月久久综合丁香| 欧美黄色淫秽网站| 人妻夜夜爽99麻豆av| 18禁在线播放成人免费| 欧美最黄视频在线播放免费| 亚洲美女视频黄频| 亚洲成a人片在线一区二区| 一个人看的www免费观看视频| 亚洲熟妇中文字幕五十中出| 亚洲久久久久久中文字幕| 成人av一区二区三区在线看| 日本 欧美在线| 天堂av国产一区二区熟女人妻| 国产不卡一卡二| 亚洲欧美日韩高清专用| 婷婷精品国产亚洲av| 床上黄色一级片| 欧美一级毛片孕妇| 老熟妇仑乱视频hdxx| 18禁美女被吸乳视频| 国产精品 欧美亚洲| 成人国产一区最新在线观看| 99riav亚洲国产免费| 欧美日本视频| 十八禁网站免费在线| 国产高清视频在线播放一区| 两个人视频免费观看高清| 怎么达到女性高潮| 国产一区在线观看成人免费| 国产日本99.免费观看| 久久香蕉精品热| 极品教师在线免费播放| 看免费av毛片| 高清日韩中文字幕在线| 校园春色视频在线观看| 免费看a级黄色片| 一本久久中文字幕| 老司机在亚洲福利影院| 一个人免费在线观看电影| 久久国产精品人妻蜜桃| 男人舔女人下体高潮全视频| 欧美丝袜亚洲另类 | 在线观看舔阴道视频| 丰满人妻一区二区三区视频av | 成人国产一区最新在线观看| 给我免费播放毛片高清在线观看| 激情在线观看视频在线高清| 听说在线观看完整版免费高清| 久久久久精品国产欧美久久久| 国产精品久久久久久亚洲av鲁大| 嫁个100分男人电影在线观看| 9191精品国产免费久久| 免费高清视频大片| 欧美大码av| 亚洲国产精品999在线| 最近在线观看免费完整版| 国产精品乱码一区二三区的特点| 久久久久久大精品| 啦啦啦观看免费观看视频高清| 人人妻人人澡欧美一区二区| 国产真实乱freesex| 日本熟妇午夜| 床上黄色一级片| 国产精品 欧美亚洲| 日本五十路高清| 午夜免费激情av| 欧美绝顶高潮抽搐喷水| or卡值多少钱| a级一级毛片免费在线观看| 久久99热这里只有精品18| 一级黄片播放器| 国产视频一区二区在线看| 天美传媒精品一区二区| 韩国av一区二区三区四区| 久久精品国产亚洲av香蕉五月| 熟女人妻精品中文字幕| 国产精品亚洲一级av第二区| 69人妻影院| 国产精品野战在线观看| 国产成年人精品一区二区| 欧美另类亚洲清纯唯美| 亚洲精品日韩av片在线观看 | 欧美三级亚洲精品| 亚洲五月天丁香| 亚洲国产日韩欧美精品在线观看 | 久久精品国产综合久久久| 国产精品免费一区二区三区在线| 欧美国产日韩亚洲一区| eeuss影院久久| bbb黄色大片| 成人特级黄色片久久久久久久| 天美传媒精品一区二区| 一本综合久久免费| 老汉色av国产亚洲站长工具| 黑人欧美特级aaaaaa片| 久久精品国产清高在天天线| 国产精品久久电影中文字幕| 日韩 欧美 亚洲 中文字幕| 国内精品久久久久久久电影| 老熟妇仑乱视频hdxx| 俺也久久电影网| 亚洲va日本ⅴa欧美va伊人久久| 久久香蕉国产精品| 国产精品电影一区二区三区| 88av欧美| 国产在线精品亚洲第一网站| 精品乱码久久久久久99久播| 中文在线观看免费www的网站| 美女大奶头视频| 国产美女午夜福利| 国内少妇人妻偷人精品xxx网站| 一边摸一边抽搐一进一小说| 欧美最新免费一区二区三区 | 国产亚洲精品久久久com| 欧美不卡视频在线免费观看| 女人十人毛片免费观看3o分钟| 亚洲国产日韩欧美精品在线观看 | www日本在线高清视频| 亚洲av日韩精品久久久久久密| 久久国产精品人妻蜜桃| 丰满人妻一区二区三区视频av | 亚洲国产精品999在线| 无人区码免费观看不卡| 国产高清视频在线播放一区| 麻豆成人午夜福利视频| 免费在线观看影片大全网站| 一本久久中文字幕| 成人特级黄色片久久久久久久| 欧美黑人巨大hd| 搞女人的毛片| 51午夜福利影视在线观看| 看黄色毛片网站| 久久精品影院6| xxx96com| 欧美黑人欧美精品刺激| 最近最新中文字幕大全电影3| 一区福利在线观看| 法律面前人人平等表现在哪些方面| 亚洲精品日韩av片在线观看 | 久久久久久九九精品二区国产| 性色avwww在线观看| 手机成人av网站| 亚洲欧美一区二区三区黑人| 熟妇人妻久久中文字幕3abv| 欧美性感艳星| 国产成+人综合+亚洲专区| 久久久久久久午夜电影| 99久久精品一区二区三区| 亚洲精品美女久久久久99蜜臀| 国产又黄又爽又无遮挡在线| 黄片小视频在线播放| 日本三级黄在线观看| 色噜噜av男人的天堂激情| 国产成人欧美在线观看| 丁香欧美五月| 一卡2卡三卡四卡精品乱码亚洲| 欧美日本亚洲视频在线播放| 两人在一起打扑克的视频| 91字幕亚洲| 久99久视频精品免费| 精品一区二区三区人妻视频| 国产真实乱freesex| 亚洲一区二区三区色噜噜| 国产成人影院久久av| 国产精品98久久久久久宅男小说| 夜夜爽天天搞| 国语自产精品视频在线第100页| 成人午夜高清在线视频| 亚洲av五月六月丁香网| 久久亚洲真实| 欧美最新免费一区二区三区 | 亚洲人成电影免费在线| 久久精品人妻少妇| 美女 人体艺术 gogo| ponron亚洲| 久9热在线精品视频| 成年女人看的毛片在线观看| 青草久久国产| 国产免费一级a男人的天堂| 成年人黄色毛片网站| 亚洲电影在线观看av| 男插女下体视频免费在线播放| 午夜两性在线视频| 国产精品嫩草影院av在线观看 | 免费看十八禁软件| 日本精品一区二区三区蜜桃| 亚洲人成伊人成综合网2020| 99视频精品全部免费 在线| 黄色视频,在线免费观看| 观看免费一级毛片| 国产一区二区在线观看日韩 | 天天躁日日操中文字幕| 国产高清三级在线| 神马国产精品三级电影在线观看| 免费看十八禁软件| 在线播放无遮挡| 欧美午夜高清在线| 亚洲av不卡在线观看| 老熟妇仑乱视频hdxx| 蜜桃久久精品国产亚洲av| 法律面前人人平等表现在哪些方面| 黄色丝袜av网址大全| 又粗又爽又猛毛片免费看| 亚洲五月天丁香| 午夜免费男女啪啪视频观看 | 免费av毛片视频| 日本撒尿小便嘘嘘汇集6| 亚洲国产高清在线一区二区三| 两个人视频免费观看高清| 日韩大尺度精品在线看网址| www.色视频.com| 精品人妻一区二区三区麻豆 | 色av中文字幕| 久久精品国产清高在天天线| 中文字幕久久专区| 噜噜噜噜噜久久久久久91| 免费观看精品视频网站| 中文字幕熟女人妻在线| 又黄又粗又硬又大视频| 岛国在线免费视频观看| 国产视频一区二区在线看| 国产精华一区二区三区| 国产乱人视频| 国产单亲对白刺激| 黄色女人牲交| 中文字幕久久专区| 天天添夜夜摸| 欧美日韩瑟瑟在线播放| 日韩欧美精品免费久久 | www.999成人在线观看| 免费观看精品视频网站| 亚洲性夜色夜夜综合| 欧美+日韩+精品| 女人十人毛片免费观看3o分钟| 一个人看的www免费观看视频| www.www免费av| 999久久久精品免费观看国产| 嫁个100分男人电影在线观看| 国语自产精品视频在线第100页| 国产伦人伦偷精品视频| 精品乱码久久久久久99久播| 国产精品美女特级片免费视频播放器| 香蕉久久夜色| 岛国视频午夜一区免费看| 一级作爱视频免费观看| 精品国产亚洲在线| 99国产精品一区二区蜜桃av| 一级毛片高清免费大全| 久久精品夜夜夜夜夜久久蜜豆| 久99久视频精品免费| 亚洲 欧美 日韩 在线 免费| 99久久无色码亚洲精品果冻| 国产熟女xx| 欧美一区二区国产精品久久精品| 亚洲av成人精品一区久久| 草草在线视频免费看| 成年女人毛片免费观看观看9| 一进一出抽搐gif免费好疼| 久久久久国内视频| 99久久九九国产精品国产免费| 国产探花极品一区二区| 精品久久久久久久毛片微露脸| 91在线观看av| 欧美激情在线99| 九九在线视频观看精品| 国产美女午夜福利| 91av网一区二区| 在线播放国产精品三级| 久久精品影院6| 9191精品国产免费久久| 男女视频在线观看网站免费| 午夜福利在线观看免费完整高清在 | 在线国产一区二区在线| 麻豆国产97在线/欧美| 欧美一级a爱片免费观看看| 久久久久久久久大av| 99久久成人亚洲精品观看| 久久亚洲精品不卡| 内地一区二区视频在线| 国产一区二区在线观看日韩 | 在线观看66精品国产| 91久久精品国产一区二区成人 | 国产成年人精品一区二区| 淫妇啪啪啪对白视频| 国产免费av片在线观看野外av| 国产单亲对白刺激| 搡老岳熟女国产| 老司机午夜福利在线观看视频| 亚洲成人精品中文字幕电影| 性欧美人与动物交配| 午夜福利18| 女人被狂操c到高潮| 亚洲国产精品sss在线观看| 免费看日本二区| 亚洲精品日韩av片在线观看 | 国产老妇女一区| 一本精品99久久精品77| av中文乱码字幕在线| 少妇人妻精品综合一区二区 | 午夜久久久久精精品| 少妇丰满av| 成熟少妇高潮喷水视频| 美女免费视频网站| 亚洲一区高清亚洲精品| 日韩欧美国产一区二区入口| 在线观看日韩欧美| 国产亚洲精品久久久久久毛片| 欧美成人a在线观看| 久久久久国产精品人妻aⅴ院| 18禁美女被吸乳视频| 又黄又粗又硬又大视频| 18禁在线播放成人免费| 少妇的逼水好多| 久久久久久国产a免费观看| 窝窝影院91人妻| 麻豆国产97在线/欧美| 午夜精品一区二区三区免费看| 美女高潮喷水抽搐中文字幕| 成人18禁在线播放| 最新中文字幕久久久久| 蜜桃亚洲精品一区二区三区| 亚洲乱码一区二区免费版| 亚洲成a人片在线一区二区| av中文乱码字幕在线| 国产亚洲欧美98| 日韩欧美精品v在线| 日本黄色片子视频| 亚洲乱码一区二区免费版| 在线播放国产精品三级| 淫秽高清视频在线观看| 网址你懂的国产日韩在线| 成人av在线播放网站| 亚洲国产精品sss在线观看| 国产高清三级在线| 少妇裸体淫交视频免费看高清| 熟女电影av网| 最新在线观看一区二区三区| 国产私拍福利视频在线观看| 久久精品国产综合久久久| 免费看十八禁软件| 日本五十路高清| 日韩欧美国产在线观看| 极品教师在线免费播放| 亚洲成人免费电影在线观看| 日本黄色片子视频| 88av欧美| 亚洲最大成人中文| 国产真实乱freesex| 久久精品国产自在天天线| 啦啦啦韩国在线观看视频| 精品免费久久久久久久清纯| 人妻夜夜爽99麻豆av| 婷婷丁香在线五月| 有码 亚洲区| 岛国在线观看网站| 99在线视频只有这里精品首页| 亚洲国产精品999在线| 久久久精品大字幕| 日日干狠狠操夜夜爽| 日韩欧美 国产精品| 亚洲人成网站在线播| 少妇的逼好多水| 日韩精品中文字幕看吧| 亚洲人成电影免费在线| 久久这里只有精品中国| 午夜日韩欧美国产| 欧美成人一区二区免费高清观看| av中文乱码字幕在线| 国产 一区 欧美 日韩| 日韩欧美免费精品| 久久精品91蜜桃| 成人鲁丝片一二三区免费| 亚洲av美国av| 特级一级黄色大片| 午夜精品在线福利| av国产免费在线观看| 日日夜夜操网爽| 欧美成人a在线观看| 欧美又色又爽又黄视频| 精品久久久久久久久久久久久| 听说在线观看完整版免费高清| 全区人妻精品视频| 中出人妻视频一区二区| 国产精品三级大全| 黄色日韩在线| 精品无人区乱码1区二区| 他把我摸到了高潮在线观看| 亚洲一区二区三区不卡视频| 青草久久国产| 午夜福利欧美成人| 人人妻人人看人人澡| 高清毛片免费观看视频网站| 丁香欧美五月| 99久久精品一区二区三区| 国模一区二区三区四区视频| 国产av在哪里看| 最近最新中文字幕大全电影3| 性色av乱码一区二区三区2| 色哟哟哟哟哟哟| 欧洲精品卡2卡3卡4卡5卡区| a级毛片a级免费在线| 在线观看免费视频日本深夜| 色视频www国产| АⅤ资源中文在线天堂| 99久久九九国产精品国产免费| 一级黄片播放器| 88av欧美| 国产乱人伦免费视频| aaaaa片日本免费| 亚洲18禁久久av| 精品福利观看| 国产亚洲欧美98| 哪里可以看免费的av片| 在线观看66精品国产| 国产成人欧美在线观看| 女生性感内裤真人,穿戴方法视频| 日本成人三级电影网站| 久久草成人影院| 国产一区二区在线av高清观看| 小说图片视频综合网站| 99久国产av精品| 淫秽高清视频在线观看| 国产一级毛片七仙女欲春2| 亚洲avbb在线观看| 嫩草影院精品99| av在线蜜桃| 黄色丝袜av网址大全| 51午夜福利影视在线观看| 91久久精品电影网| av黄色大香蕉| 两个人视频免费观看高清| 午夜福利在线在线| 怎么达到女性高潮| 一边摸一边抽搐一进一小说|