• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    自適應(yīng)融合局部和全局稀疏表示的圖像顯著性檢測(cè)

    2018-05-21 01:01:05石愛業(yè)
    計(jì)算機(jī)應(yīng)用 2018年3期
    關(guān)鍵詞:字典全局重構(gòu)

    王 鑫,周 韻,寧 晨,石愛業(yè)

    (1.河海大學(xué) 計(jì)算機(jī)與信息學(xué)院,南京 211100; 2.南京師范大學(xué) 物理科學(xué)與技術(shù)學(xué)院,南京 210000)

    0 引言

    隨著信息技術(shù)的不斷發(fā)展,人們擁有的數(shù)據(jù)資源越來越多。其中,圖像資源因其直觀性,出現(xiàn)了前所未有的增長(zhǎng)速度,然而隨之而來的信息冗余問題也成為了圖像處理的新增難題。神經(jīng)學(xué)和心理學(xué)研究專家指出,視覺顯著性是人類視覺中非常重要的一個(gè)機(jī)制,它通過過濾人眼所及之處的冗余信息,突出人們最感興趣(即顯著性)的目標(biāo),從而減小信息的冗余度。通過模仿該機(jī)制,計(jì)算機(jī)視覺專家提出了圖像顯著性檢測(cè)技術(shù),目前該技術(shù)在圖像自動(dòng)裁剪[1]、視頻壓縮[2]、圖像檢索[3]、圖像分割[4]、目標(biāo)識(shí)別[5]和圖像分類[6]等領(lǐng)域得到了廣泛的應(yīng)用。

    通過對(duì)生物視覺的研究發(fā)現(xiàn),人眼和大腦在處理場(chǎng)景信息時(shí),有兩種模式。第一種是,當(dāng)我們不帶任何目的去觀察周圍的環(huán)境,純粹只是瀏覽時(shí),環(huán)境中與其他背景差異過大的部分會(huì)牢牢抓住我們的眼球,吸引我們的注意力,而背景則會(huì)被選擇性忽略。另一種模式是,如果我們帶有目的性的去審視周圍的環(huán)境時(shí),那么我們更加傾向于找到與目標(biāo)相關(guān)的信息,而忽略其他不相關(guān)信息。這兩種視覺模型都是大腦處理信息的有效模式,前者沒有任務(wù)驅(qū)動(dòng),大腦自動(dòng)選取感興趣的區(qū)域,減少冗余信息;而后者則是帶有目的的尋找有用信息,去除不相干信息。根據(jù)大腦處理信息的這兩種模型,在計(jì)算機(jī)視覺領(lǐng)域,圖像顯著性檢測(cè)即可分為無任務(wù)驅(qū)動(dòng)的自下而上(Down-up)模型和有任務(wù)驅(qū)動(dòng)的自上而下(Top-bottom)模型。其中,前者?;趫D像的低級(jí)特征,沒有任務(wù)先驗(yàn)信息,無需學(xué)習(xí),所以處理相對(duì)較快;后者通?;谀硞€(gè)任務(wù),處理過程中帶有先驗(yàn)的信息、記憶和經(jīng)驗(yàn)等高級(jí)的圖像特征,需要對(duì)圖像庫學(xué)習(xí),所以計(jì)算量一般較大。為了能快速有效地檢測(cè)圖像顯著性區(qū)域,本文對(duì)自下而上的方法進(jìn)行重點(diǎn)討論。

    近年來,自下而上的方法得到了顯著的發(fā)展,很多經(jīng)典算法相繼被提出,如早先的IT(ITTI)算法[7]、GBVS(Graph-Based Visual Saliency)算法[8]、SR(Spectral Residual)算法[9]等,以及較新的SUN(Saliency Using Natural statistics)算法[10]、CA(Context-Aware)算法[11]等。2015 年, Cheng 等[12]提出了基于全局對(duì)比度的顯著性檢測(cè)算法,取得了良好的效果。2016年,Liu 等[13]提出了一種基于卷積神經(jīng)網(wǎng)絡(luò)的端到端深層次顯著性網(wǎng)絡(luò),用于檢測(cè)顯著性目標(biāo)。2017年,葉子童等[14]提出了基于引導(dǎo)Boosting算法的顯著性檢測(cè)方法,它提出采用自下而上的模型生成的樣本來引導(dǎo)特征學(xué)習(xí),強(qiáng)化顯著性檢測(cè)效果。這些算法又可以細(xì)分為基于局部思想的檢測(cè)算法和基于全局思想的檢測(cè)算法。其中,基于局部思想的檢測(cè)算法通常關(guān)注圖像的邊緣,而無法很好地檢測(cè)顯著目標(biāo)內(nèi)部信息;而基于全局思想的檢測(cè)算法能較為有效地檢測(cè)出顯著性目標(biāo)的內(nèi)部區(qū)域,但卻對(duì)背景抑制不是很理想[15-19]。

    為了解決該問題,本文考慮融合局部和全局兩類檢測(cè)思想的優(yōu)勢(shì),以得到更為良好的檢測(cè)結(jié)果。由于顯著性區(qū)域相對(duì)于其他大面積的非顯著性區(qū)域往往具有非常獨(dú)特的特性,因此,它的特征在整個(gè)場(chǎng)景中重復(fù)的頻率通常較低,這使得顯著性區(qū)域也具有稀疏的特征,故稀疏表示理論可以有效用于視覺顯著性檢測(cè)中。具體而言,針對(duì)一幅輸入圖像,通過對(duì)其進(jìn)行隨機(jī)采樣,可以得到若干個(gè)圖像塊,由于顯著性區(qū)域在整個(gè)場(chǎng)景中出現(xiàn)的頻率通常較低,隨機(jī)采樣得到的這些圖像塊將大多數(shù)為背景塊,而非顯著性塊;然后,利用這些圖像塊,構(gòu)建稀疏表示過完備字典,由此學(xué)習(xí)得到的字典將包含較多的背景特征;最后,基于該字典,對(duì)原始圖像進(jìn)行稀疏表示,則稀疏重構(gòu)誤差較大的圖像塊為顯著性塊的可能性就較大。基于上述思想,本文提出了一種有效的融合局部和全局稀疏表示的圖像顯著性檢測(cè)方法。首先,對(duì)原始圖像進(jìn)行分塊處理,利用圖像塊代替像素級(jí)操作,降低算法復(fù)雜度;其次,對(duì)分塊后的圖像進(jìn)行局部稀疏表示,即:針對(duì)每一個(gè)圖像塊,選取其周圍的若干圖像塊生成過完備字典,基于該字典對(duì)圖像塊進(jìn)行稀疏重構(gòu),得到原始圖像的初始局部顯著圖;接著,對(duì)分塊后的圖像進(jìn)行全局稀疏表示,與局部稀疏表示過程類似,不同的是針對(duì)每一個(gè)圖像塊所生成的字典來源于圖像四周邊界處的圖像塊,這樣可以得到初始全局顯著圖;最后,將初始局部和全局顯著圖進(jìn)行自適應(yīng)融合,生成最終顯著圖。該方法由于融合了局部和全局的思想,能夠識(shí)別并保存顯著性區(qū)域的邊緣信息,同時(shí)準(zhǔn)確提取出顯著性區(qū)域的內(nèi)部信息。實(shí)驗(yàn)結(jié)果表明,本文提出的算法大大優(yōu)化了檢測(cè)效果。

    1 稀疏表示

    本文提出的算法將采用模擬人類神經(jīng)細(xì)胞的標(biāo)準(zhǔn)稀疏編碼模型[20],此模型可以突出圖像中的顯著部分(該部分具有獨(dú)特性、稀少性和不可預(yù)測(cè)性)。Huang等[21]通過實(shí)驗(yàn)發(fā)現(xiàn),某個(gè)特征描述子用幾個(gè)基進(jìn)行編碼,如果其中的某個(gè)基比其他的基和特征描述子有更相近的特征,通常這個(gè)基比其他的基具有更強(qiáng)的響應(yīng)。通過這個(gè)發(fā)現(xiàn),指出稀疏編碼等價(jià)于一種顯著性編碼機(jī)制?;谠摼幋a機(jī)制計(jì)算得到的輸入信號(hào)重構(gòu)誤差越大,則該信號(hào)被認(rèn)為越顯著。

    設(shè)Y=[y1,y2,…,yN]∈Rn×N為輸入信號(hào),D為Y的稀疏表示重構(gòu)字典,則稀疏表示的目標(biāo)函數(shù)[22]如下:

    (1)

    在稀疏編碼過程中,每一步的迭代字典D是固定的,可通過式(2)計(jì)算輸入信號(hào)yi的稀疏編碼系數(shù)xi:

    s.t. ‖x‖0≤T

    (2)

    上式可通過貪婪追蹤算法中的OMP(Orthogonal Matching Pursuit)算法[23]求解,選取最匹配的原子分解信號(hào)和分解信號(hào)殘差,在每一步中都把所選擇的原子進(jìn)行Gram-Schmidt正交化處理,使得字典空間展開結(jié)果最優(yōu)。

    基于稀疏表示理論,計(jì)算yi所對(duì)應(yīng)的稀疏重構(gòu)誤差:

    (3)

    2 自適應(yīng)融合局部和全局稀疏表示方法

    為了克服傳統(tǒng)的局部或全局顯著性檢測(cè)算法的缺陷,本文提出了一種基于自適應(yīng)融合局部和全局稀疏表示的圖像顯著性檢測(cè)方法,其總體思路是分別進(jìn)行基于局部或全局稀疏表示的顯著性檢測(cè),然后將結(jié)果進(jìn)行融合生成圖像顯著圖,提出算法的整體框架如圖1所示。

    圖1 提出算法的框圖 Fig. 1 Block diagram of the proposed algorithm

    2.1 基于局部稀疏表示的顯著性檢測(cè)

    給定一幅原始圖像,為了得到其局部顯著性圖,首先對(duì)其進(jìn)行分塊,針對(duì)每一個(gè)圖像塊,選取其周圍的若干圖像塊生成過完備字典,基于該字典對(duì)圖像塊進(jìn)行稀疏重構(gòu),最終得到原始圖像的初始局部顯著圖。具體過程如下所示:

    1)輸入原始圖像I,設(shè)其尺寸為M×N。

    2)將原始圖像I分割成為若干個(gè)圖像塊bi。與大部分的局部或全局處理算法不一樣,本文沒有以像素作為最小處理單元,因?yàn)橄袼攸c(diǎn)數(shù)量龐大,處理起來費(fèi)時(shí)費(fèi)力耗資源,而采用圖像塊作為最小處理單元,雖然比像素級(jí)誤差略微大一點(diǎn),但是節(jié)省了很多時(shí)間,也能取得不錯(cuò)的效果。設(shè)分割成的圖像塊大小為m×n,則M×N大小的原始圖像可以被不重疊地分成(M×N)/(m×n)個(gè)圖像塊。這里需要說明的是,圖像塊的大小對(duì)后續(xù)算法的效果和復(fù)雜度有一定的影響:圖像塊越大,檢測(cè)效果下降,時(shí)間效率提高;反之,圖像塊越小,檢測(cè)效果越好,但時(shí)間效率較低。在程序?qū)崿F(xiàn)過程中,以 320×400大小原始圖像為例,選取的圖像塊大小為4×4,這將原始圖像恰好分成8 000個(gè)圖像塊,通過實(shí)驗(yàn)表明這些參數(shù)量可以在計(jì)算效率和誤差大小之間維持一個(gè)平衡。最后,將分割后的每個(gè)圖像塊按從左到右、從上到下的順序進(jìn)行標(biāo)記,同時(shí)將每個(gè)圖像塊進(jìn)行列向量化。

    3)圖像重組,得到矩陣B。這一步是為稀疏求解作準(zhǔn)備,由于稀疏表示的實(shí)現(xiàn)是基于矩陣運(yùn)算,所以對(duì)分割成圖像塊的圖像進(jìn)行重新整合。重組后的圖像標(biāo)記為B=[b1,b2,…,bK],其中,bi代表第i個(gè)列向量化后的圖像塊,K為圖像塊的總數(shù)。B可以直觀地表示為圖2所示。

    圖2 矩陣B的直觀表示 Fig. 2 Visual representation of matrix B

    4)構(gòu)造局部稀疏字典D。對(duì)于字典的生成,本文根據(jù)顯著性檢測(cè)的實(shí)際情況,直接從圖像內(nèi)選取合適的圖像塊來構(gòu)造字典,這樣能更加方便、有效地重構(gòu)原始信號(hào)。在局部稀疏表示中,對(duì)某一選定的圖像塊bi稀疏重構(gòu),選取的是該圖像塊周圍的圖像塊作為字典。由于在第3)步中圖像已經(jīng)表示成圖像塊的行向量,因此我們選擇的是重構(gòu)圖像塊前s列和后s列一共2s個(gè)圖像塊構(gòu)造字典,形成的字典可以表示為D=[d1,d2,…,d2S]。

    5)求解稀疏系數(shù)α。本文中稀疏系數(shù)求解算法綜合對(duì)比考慮了算法精度問題和實(shí)現(xiàn)復(fù)雜度問題,采用了上文提到的OMP算法求取最佳的表示系數(shù)α:

    arg min‖α‖0; s.t.B=Dα

    (4)

    其中,α是所有圖像塊的系數(shù)集合。

    6)生成初始局部顯著圖SL。在步驟5)的基礎(chǔ)上,利用求得的稀疏系數(shù)α重構(gòu)每個(gè)圖像塊bi,并計(jì)算其重構(gòu)誤差ei:

    (5)

    將該結(jié)果賦給所在的圖像塊,然后進(jìn)行高斯濾波即可得到初始局部顯著圖SL。圖3給出了基于局部稀疏表示的顯著性檢測(cè)示例,其中:圖3(a)為三幅原始圖像,圖3(b)為計(jì)算得到的初始局部顯著圖,圖3(c)為對(duì)應(yīng)的真值圖。由圖3可以看出,基于局部稀疏表示的顯著性檢測(cè)算法,能大致檢測(cè)出圖像的顯著區(qū)域,但是其更加關(guān)注顯著性物體的邊緣信息,對(duì)物體的內(nèi)部信息有所抑制。

    圖3 基于局部稀疏表示的顯著性檢測(cè) Fig. 3 Saliency detection via local sparse representation

    2.2 基于全局稀疏表示的顯著性檢測(cè)

    下面對(duì)原始圖像進(jìn)行全局稀疏表示顯著性檢測(cè)。與2.1節(jié)描述的基于局部稀疏表示的顯著性檢測(cè)過程類似,只是步驟4)中字典生成方式有所不同。

    在傳統(tǒng)的稀疏表示中,全局字典的生成一般是從圖像中隨機(jī)選取圖像塊,進(jìn)行字典學(xué)習(xí)。此時(shí),對(duì)于大部分的應(yīng)用領(lǐng)域而言,稀疏表示的重構(gòu)誤差越小,說明算法越好,但是在顯著性檢測(cè)中,并非如此。我們希望屬于背景的圖像塊能得到很好的重構(gòu)效果,理想誤差值為0;而屬于前景目標(biāo)的圖像塊,根據(jù)字典重構(gòu),并不能得到很好的重構(gòu)效果,歸一化的理想誤差值為1。這樣才能準(zhǔn)確地檢測(cè)出顯著區(qū)域。

    基于以上思想,本文沒有選用現(xiàn)有常見的全局字典構(gòu)造法,而是直接從屬于背景的圖像塊中選擇字典。對(duì)于大部分圖像而言,圖像四周靠邊緣的圖像塊一般都屬于非顯著性區(qū)域,所以本節(jié)選擇上下左右四個(gè)邊界的圖像塊構(gòu)造字典。由此即可得到基于全局稀疏表示的顯著性檢測(cè)結(jié)果。圖4給出了圖3(a)的全局稀疏表示顯著圖SG。從圖4可以看出,基于全局稀疏表示的顯著性檢測(cè)算法,檢測(cè)顯著部分的內(nèi)部信息體現(xiàn)得要比局部全面,但非顯著性部分沒有得到很好的抑制,噪聲較多。

    圖4 基于全局稀疏表示的顯著性檢測(cè)(初始全局顯著圖) Fig. 4 Saliency detection via global sparse representation (initial global saliency map)

    2.3 局部和全局顯著性自適應(yīng)融合

    綜合考慮上述基于局部或全局稀疏表示的顯著性檢測(cè)效果,各有利弊:局部稀疏檢測(cè)法側(cè)重于檢測(cè)物體輪廓,容易丟失顯著物體內(nèi)部信息;而全局稀疏檢測(cè)法可以很好地突出物體內(nèi)部信息,但是背景噪聲得不到很好地抑制。

    基于此,本節(jié)將求得的初始局部和全局顯著圖進(jìn)行相互融合,取長(zhǎng)補(bǔ)短,以獲得更好的檢測(cè)結(jié)果?,F(xiàn)有的圖像顯著圖融合方法包括取乘法融合[24]、最大值融合[25]、加權(quán)融合[26]等。不同融合算法的融合結(jié)果對(duì)比如圖5所示,其中,圖5(a)為原始圖像,圖5(b)是初始局部顯著圖,圖5(c)是初始全局顯著圖,圖5(d)是乘法融合結(jié)果,圖5(e)是取最大值融合結(jié)果,圖5(f)是加權(quán)融合結(jié)果(以1:1加權(quán)為例)。通過對(duì)比發(fā)現(xiàn),乘法融合只能顯示兩幅圖像共同顯著的部分,對(duì)于局部區(qū)域而言,被抑制的內(nèi)部信息在經(jīng)過乘法融合之后,依舊不顯著;最大值融合得到的顯著圖由于只來源于某個(gè)主要渠道,不能很好地突出顯著區(qū)域;加權(quán)融合相比前兩種方法,能取得較好的效果,此外加權(quán)融合實(shí)現(xiàn)也簡(jiǎn)單,效率高。

    圖5 不同融合策略對(duì)比結(jié)果 Fig. 5 Comparison of different fusion strategies

    對(duì)于加權(quán)融合,如何選取兩幅顯著圖的權(quán)重之比非常重要,一般有兩種方式:固定權(quán)重值[27]和自適應(yīng)權(quán)重值[28]。前者兩幅顯著圖的權(quán)重值固定,實(shí)現(xiàn)簡(jiǎn)單,運(yùn)行速度快,但是靈活性差,不能根據(jù)圖像的不同特點(diǎn)調(diào)整相應(yīng)的比例。因此,為了更加合理地融合兩幅初始顯著圖,得到更好的融合效果,這里提出了一種自適應(yīng)權(quán)重計(jì)算策略。

    給定初始局部顯著圖SL和全局顯著圖SG,并分別進(jìn)行歸一化,然后將它們自適應(yīng)融合,得到最終的顯著圖S:

    S(i,j)=ωL×SL(i,j)+ωG×SG(i,j)

    (6)

    定義SL相對(duì)于SG的相關(guān)性,相關(guān)系數(shù)用PL表示:

    (7)

    同理,定義SG相對(duì)于SL的相關(guān)系數(shù)PG:

    (8)

    在此基礎(chǔ)上,計(jì)算權(quán)重值ωL和ωG:

    (9)

    (10)

    將計(jì)算的得出的權(quán)重值ωL和ωG代入式(6)中,即可得到最終的融合圖像S。圖6給出了圖3(b)初始局部顯著圖和圖4初始全局顯著圖的自適應(yīng)加權(quán)融合結(jié)果,由該圖可以看出融合了局部和全局的顯著圖比單一算法顯著圖要好很多,克服了單一算法的缺點(diǎn),最終顯著圖既抑制了背景信息,又突出了顯著物體內(nèi)部,取得了不錯(cuò)的效果。

    圖6 基于自適應(yīng)加權(quán)融合的最終顯著圖生成 Fig. 6 Final saliency map generation by using adaptive weighted fusion

    3 實(shí)驗(yàn)和分析

    為了驗(yàn)證提出算法的有效性,在CPU主頻為2.3 GHz,內(nèi)存為4 GB,仿真軟件為Matlab R2013b的PC上對(duì)提出算法進(jìn)行了實(shí)驗(yàn)。實(shí)驗(yàn)圖像來源于MSRA、ECSSD, NUSEF 和INRIA數(shù)據(jù)庫[29-32],這些圖像庫包含了各種各樣的自然場(chǎng)景原始圖像和被人工標(biāo)記過的真值圖像,從這些庫中隨機(jī)挑選了400幅圖像進(jìn)行實(shí)驗(yàn)。

    3.1 定性分析

    為了評(píng)價(jià)本文提出的顯著性檢測(cè)方法,選擇了IT、GBVS、SR、SUN和CA這5種經(jīng)典的顯著性檢測(cè)算法及基于稀疏重建殘差(Sparse Representation Residual, SRR)的顯著性檢測(cè)算法[33]進(jìn)行對(duì)比,結(jié)果如圖7所示。圖7(a)均表示原始圖像。這里選取了一些具有代表性的原始圖像,包括:具有較大顯著性區(qū)域的原始圖像(如圖7(a)的前三幅圖)、具有較小顯著性區(qū)域的原始圖像(如圖7(a)的第4到第7幅圖)、具有多個(gè)顯著性區(qū)域的原始圖像(如圖7(a)的最后兩幅圖)。圖7 (b)~(h)分別為IT、GBVS、SR、SUN、CA、SRR和提出算法(記為Ours)得到的顯著圖,圖7 (i)為真值圖。對(duì)比不同算法的顯著圖,可以看出IT算法可以檢測(cè)出顯著性區(qū)域,但是邊緣信息模糊,且檢測(cè)目標(biāo)內(nèi)部信息不能很好地保留;GBVS算法略優(yōu)于IT算法,但顯著性目標(biāo)內(nèi)部仍無法有效檢測(cè);SR算法對(duì)邊緣信息過于敏感,忽視了顯著目標(biāo)內(nèi)部;SUN算法較好地檢測(cè)出顯著目標(biāo),但很多背景信息也被檢測(cè)到;CA算法也很關(guān)注背景信息,從而導(dǎo)致非顯著性區(qū)域不能得到很好的抑制;SRR算法更加關(guān)注顯著性物體的邊緣信息,內(nèi)部區(qū)域未能有效檢測(cè)出來。相比其他算法,本文算法有很大的優(yōu)勢(shì),由于融合了局部和全局的思想,對(duì)較大顯著性對(duì)象不僅能夠識(shí)別并保存其邊緣信息,同時(shí)能夠準(zhǔn)確提取出其內(nèi)部信息(如圖7(h)的前三幅圖);此外,本文提出算法對(duì)較小顯著性對(duì)象也達(dá)到了良好的檢測(cè)效果(如圖7(h)的第4到第7幅圖);最后,針對(duì)包含多個(gè)顯著性對(duì)象的原始圖像,提出算法也能夠?qū)⑾嚓P(guān)對(duì)象區(qū)域提取出來,使得這些對(duì)象在整體上得到了提升(如圖7(h)的最后兩幅圖)。

    3.2 定量分析

    為了進(jìn)一步驗(yàn)證提出算法的性能,本文采用查準(zhǔn)率(precision),查全率(recall)和F值(F-measure)這三個(gè)指標(biāo)來定量分析[34]。這三個(gè)指標(biāo)的具體計(jì)算公式如下:

    (11)

    (12)

    (13)

    其中:SB代表將檢測(cè)結(jié)果圖像進(jìn)行二值分割后的結(jié)果,G為該圖像的真值圖,Num(SB)和Num(G)分別代表SB和G中像素值為1的個(gè)數(shù),參數(shù)β2取0.3。

    本文將不同算法在整個(gè)實(shí)驗(yàn)數(shù)據(jù)集(共400幅圖像)上進(jìn)行了實(shí)驗(yàn),針對(duì)每個(gè)算法計(jì)算得到的400幅顯著圖結(jié)果,在[0,1]區(qū)間上,以0.05為步長(zhǎng),選取閾值對(duì)所有顯著圖進(jìn)行二值化分割,然后計(jì)算每個(gè)閾值下的查準(zhǔn)率和查全率,最終得到該算法的平均查準(zhǔn)率,查全率和F值,結(jié)果如表1所示。由表可見,提出算法的在查準(zhǔn)率、查全率及F值上均有較好的表現(xiàn),明顯優(yōu)于其他方法的相應(yīng)指標(biāo)。其中,查準(zhǔn)率反映了檢測(cè)出的并包含在真值圖中的顯著像素與檢測(cè)出的顯著像素之比,體現(xiàn)了檢測(cè)的有效像素在整個(gè)顯著像素中的百分比,查準(zhǔn)率越高說明檢測(cè)的正確性越高。查全率反映的是檢測(cè)出的包含在真值圖中的顯著像素與總的真值圖像素比,體現(xiàn)了被檢測(cè)出的有效顯著像素與實(shí)際有效像素之比,查全率越高說明檢測(cè)出的顯著性區(qū)域越完整。F值是對(duì)查準(zhǔn)率和查全率的綜合量化指標(biāo),總體而言更具可靠性。因此,本文提出的算法在顯著性檢測(cè)的正確性、完整性及綜合評(píng)價(jià)方面均優(yōu)于其他方法。

    圖7 不同算法顯著圖對(duì)比 Fig. 7 Saliency map comparison of different methods 表1 不同方法的查準(zhǔn)率、查全率和F值比較 Tab. 1 Precision, recall and F-measure comparisons of different methods

    算法查準(zhǔn)率查全率F值IT0.540.210.3963GBVS0.600.390.5337SR0.450.370.4286SUN0.610.390.5397CA0.670.580.6468SRR0.580.360.5083Ours0.770.740.7629

    此外,除了上述量化評(píng)價(jià)之外,為了分析提出算法的時(shí)間效率,在Matlab 2013(b)的平臺(tái)上進(jìn)行了實(shí)驗(yàn)。不同算法的運(yùn)行時(shí)間結(jié)果如表2所示,結(jié)果保留到小數(shù)點(diǎn)后三位,時(shí)間單位是“秒”。由于本文提出的算法基于稀疏表示理論進(jìn)行顯著性檢測(cè),所以在時(shí)間效率上,本文提出的算法不如前4種經(jīng)典算法。為了提高算法的效率,后續(xù)將采用具備并行計(jì)算能力的計(jì)算機(jī)以及更高效的軟件實(shí)現(xiàn)平臺(tái)(如C++)對(duì)算法進(jìn)行實(shí)現(xiàn)。

    總之,通過實(shí)驗(yàn)結(jié)果分析及量化指標(biāo)評(píng)價(jià),本文提出的方法相對(duì)現(xiàn)有算法在顯著性檢測(cè)效果及性能方面均有明顯提高。

    表2 不同方法的效率比較(Matlab)Tab. 2 Computation time comparison of different methods (Matlab)

    4 結(jié)語

    本文提出了一種基于自適應(yīng)融合局部和全局稀疏表示的圖像顯著性檢測(cè)方法,通過在常用基準(zhǔn)數(shù)據(jù)庫進(jìn)行評(píng)測(cè),與IT、GBVS、SR、SUN和CA 5種經(jīng)典方法進(jìn)行性能對(duì)比,結(jié)果表明,本文提出的方法能夠有效檢測(cè)顯著性目標(biāo)的邊緣和內(nèi)部區(qū)域,并在查準(zhǔn)率、查全率和F值 3個(gè)指標(biāo)上明顯優(yōu)于比較算法。由于本文算法基于稀疏表示理論,算法效率有待進(jìn)一步提高。

    參考文獻(xiàn)(References)

    [1] SANTELLA A, AGRAWALA M, DECARLO D, et al. Gaze-based interaction for semi-automatic photo cropping [C]// CHI ’06: Proceedings of the 2006 SIGCHI Conference on Human Factors in Computing Systems. New York: ACM, 2006: 771-780.

    [2] BRADLEY A P, STENTIFORD F. Visual attention for region of interest coding in JPEG 2000 [J]. Journal of Visual Communication & Image Representation, 2003, 14(3): 232-250.

    [3] CHEN T, CHENG M M, TAN P, et al. Sketch2Photo: Internet image montage [C]// Proceedings of the 2009 ACM SIGGRAPH Asia. New York: ACM, 2009: Article No. 124.

    [4] WANG L, XUE J, ZHENG N, et al. Automatic salient object extraction with contextual cue [C]// ICCV ’11: Proceedings of the 2011 International Conference on Computer Vision. Washington, DC: IEEE Computer Society, 2011: 105-112.

    [5] NAVALPAKKAM V, ITTI L. An integrated model of top-down and bottom-up attention for optimizing detection speed [C]// Proceedings of the 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2006: 2049-2056.

    [6] KANAN C, COTTRELL G. Robust classification of objects, faces, and flowers using natural image statistics [C]// Proceedings of the 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2010: 2472-2479.

    [7] ITTI L, KOCH C, NIEBUR E. A model of saliency-based visual attention for rapid scene analysis [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1998, 20(11): 1254-1259.

    [8] SCH?LKOPF B, PLATT J, HOFMANN T. Graph-based visual saliency [C]// Proceedings of the 2006 20th Annual Conference on Neural Information Processing Systems. Cambridge, MA: MIT Press, 2007:545-552.

    [9] HOU X, ZHANG L. Saliency detection: a spectral residual approach [C]// CVPR ’07: Proceedings of the 2007 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society. 2007: 1-8.

    [10] ZHANG L, TONG M H, MARKS T K, et al. SUN: a Bayesian framework for saliency using natural statistics [J]. Journal of Vision, 2008, 8(7): 1-20.

    [11] GOFERMAN S, ZELNIKMANOR L, TAL A. Context-aware saliency detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(10): 1915-1926.

    [12] CHENG M M, MITRA N J, HUANG X, et al. Global contrast based salient region detection [J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 569-582.

    [13] LIU N, HAN J. DHSNet: deep hierarchical saliency network for salient object detection [C]// Proceedings of the 2016 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2016: 678-686.

    [14] 葉子童,鄒煉,顏佳,等.基于引導(dǎo)Boosting算法的顯著性檢測(cè)[J].計(jì)算機(jī)應(yīng)用, 2017,37(9):2652-2658.(YE Z T, ZOU L, YAN J, et al. Salient detection based on guided Boosting method [J]. Journal of Computer Applications, 2017, 37(9): 2652-2658.)

    [15] HOU X, ZHANG L. Dynamic visual attention: searching for coding length increments [EB/OL]. [2017- 03- 03]. http://pdfs.semanticscholar.org/1432/d0c3a4b96bc3af9f83d65d77be2fb1046fb6.pdf.

    [16] BORJI A. Exploiting local and global patch rarities for saliency detection [C]// CVPR ’12: Proceedings of the 2012 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2012: 478-485.

    [17] 陳文兵,鞠虎,陳允杰.基于倒數(shù)函數(shù)-譜殘差的顯著對(duì)象探測(cè)和提取方法[J].計(jì)算機(jī)應(yīng)用,2017,37(7):2071-2077.(CHEN W B, JU H, CHEN Y J. Salient object detection and extraction method based on reciprocal function and spectral residual [J]. Journal of Computer Applications, 2017, 37(7): 2071-2077.)

    [18] LI Y, ZHOU Y, XU L, et al. Incremental sparse saliency detection [C]// ICIP ’09: Proceedings of the 16th IEEE International Conference on Image Processing. Piscataway, NJ: IEEE, 2009: 3057-3060.

    [19] HAN B, ZHU H, DING Y. Bottom-up saliency based on weighted sparse coding residual [C]// MM ’11: Proceedings of the 19th ACM International Conference on Multimedia. New York: ACM, 2011: 1117-1120.

    [20] OLSHAUSEN B, FIELD D J. Emergence of simple-cell receptive field properties by learning a sparse code for natural images [J]. Nature, 1996, 381(6583): 607-609.

    [21] HUANG Y, HUANG K, YU Y, et al. Salient coding for image classification [C]// CVPR ’11: Proceedings of the 2011 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2011:1753-1760.

    [22] DAMNJANOVIC I, DAVIES M E P, PLUMBLEY M D. SMALL box — an evaluation framework for sparse representations and dictionary learning algorithms [C]// LVA/ICA ’10: Proceedings of the 9th International Conference on Latent Variable Analysis and Signal Separation. Berlin: Springer, 2010: 418-425.

    [23] PATI Y C, REZAIIFAR R, KRISHNAPRASAD P S. Orthogonal matching pursuit: recursive function approximation with applications to wavelet decomposition [C]// Proceedings of the 1993 Conference Record of the 27th Asilomar Conference on Signals, Systems and Computers. Piscataway, NJ: IEEE, 1993, 1: 40-44.

    [24] KIM W, KIM C. Spatiotemporal saliency detection using textural contrast and its applications [J]. IEEE Transactions on Circuits & Systems for Video Technology, 2014, 24(4): 646-659.

    [25] LI Y, TAN Y, YU J G, et al. Kernel regression in mixed feature spaces for spatio-temporal saliency detection [J]. Computer Vision & Image Understanding, 2015, 135: 126-140.

    [26] SU Y, ZHAO Q, ZHAO L, et al. Abrupt motion tracking using a visual saliency embedded particle filter [J]. Pattern Recognition, 2014, 47(5): 1826-1834.

    [27] FANG Y, WANG Z, LIN W. Video saliency incorporating spatiotemporal cues and uncertainty weighting [C]// Proceedings of the 2013 IEEE International Conference on Multimedia and Expo. Washington, DC: IEEE Computer Society, 2013: 1-6.

    [28] WANG X, NING C, XU L. Saliency detection using mutual consistency-guided spatial cues combination [J]. Infrared Physics & Technology, 2015, 72:106-116.

    [29] LIU T, SUN J, ZHENG N N, et al. Learning to detect a salient object [C]// CVPR ’07: Proceedings of the 2007 IEEE Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE, 2007:1-8.

    [30] YAN Q, XU L, SHI J, et al. Hierarchical saliency detection [C]// CVPR ’13: Proceedings of the 2013 IEEE Conference on Computer Vision and Pattern Recognition. Washington, DC: IEEE Computer Society, 2013: 1155-1162.

    [31] RAMANATHAN S, KATTI H, SEBE N, et al. An eye fixation database for saliency detection in images [C]// Proceedings of the 2010 European Conference on Computer Vision, LNCS 6314. Berlin: Springer, 2010: 30-43.

    [32] JEGOU H, DOUZE M, SCHMID C. Hamming embedding and weak geometric consistency for large scale image search [C]// Proceedings of the 2008 European Conference on Computer Vision, LNCS 5302. Berlin: Springer, 2008: 304-317.

    [33] XIA C, QI F, SHI G, et al. Nonlocal center-surround reconstruction-based bottom-up saliency estimation [J]. Pattern Recognition, 2015, 48(4): 1337-1348.

    [34] WANG X, NING C, XU L. Spatiotemporal saliency model for small moving object detection in infrared videos [J]. Infrared Physics & Technology, 2015, 69: 111-117.

    This work is partially supported by the National Natural Science Foundation of China (61603124), the Six Talents Peak Project of Jiangsu Province (XYDXX-007), the 333 High-Level Talent Training Program of Jiangsu Province, the Fundamental Research Funds for the Central Universities (2015B19014).

    WANGXin, born in 1981, Ph. D., associate professor. Her research interests include image processing, pattern recognition, computer vision.

    ZHOUYun, born in 1992, M. S. candidate. Her research interests include image processing.

    NINGChen, born in 1978, M. S., lecturer. His research interests include compressed sensing.

    SHIAiye, born in 1969, Ph. D., associate professor. His research interests include image processing, visual computing.

    猜你喜歡
    字典全局重構(gòu)
    開心字典
    家教世界(2023年28期)2023-11-14 10:13:50
    開心字典
    家教世界(2023年25期)2023-10-09 02:11:56
    Cahn-Hilliard-Brinkman系統(tǒng)的全局吸引子
    量子Navier-Stokes方程弱解的全局存在性
    長(zhǎng)城敘事的重構(gòu)
    攝影世界(2022年1期)2022-01-21 10:50:14
    北方大陸 重構(gòu)未來
    落子山東,意在全局
    金橋(2018年4期)2018-09-26 02:24:54
    北京的重構(gòu)與再造
    商周刊(2017年6期)2017-08-22 03:42:36
    我是小字典
    論中止行為及其對(duì)中止犯的重構(gòu)
    777米奇影视久久| 一夜夜www| 国产成人欧美| 在线十欧美十亚洲十日本专区| 精品国产乱子伦一区二区三区| 免费av中文字幕在线| 高清av免费在线| 亚洲精品乱久久久久久| 香蕉国产在线看| 在线观看午夜福利视频| av网站免费在线观看视频| 日韩三级视频一区二区三区| 99re6热这里在线精品视频| 老司机福利观看| 青草久久国产| 91av网站免费观看| 亚洲av日韩精品久久久久久密| 99精品在免费线老司机午夜| 欧美日韩亚洲国产一区二区在线观看 | 又大又爽又粗| 99精品久久久久人妻精品| 麻豆国产av国片精品| 欧美激情高清一区二区三区| 亚洲黑人精品在线| 国产欧美日韩综合在线一区二区| 久久人妻av系列| 免费在线观看日本一区| 亚洲一区中文字幕在线| tube8黄色片| 精品一区二区三卡| 免费女性裸体啪啪无遮挡网站| 69精品国产乱码久久久| 人妻丰满熟妇av一区二区三区 | 久久狼人影院| 亚洲av第一区精品v没综合| 69精品国产乱码久久久| 人人澡人人妻人| 一边摸一边抽搐一进一出视频| 国产深夜福利视频在线观看| 欧美日本中文国产一区发布| 久久九九热精品免费| 欧美成人免费av一区二区三区 | 国产亚洲精品第一综合不卡| 亚洲精品粉嫩美女一区| 国产色视频综合| 成熟少妇高潮喷水视频| 久久精品国产综合久久久| 亚洲三区欧美一区| 80岁老熟妇乱子伦牲交| 国产成人精品无人区| 精品久久久久久电影网| 久久国产亚洲av麻豆专区| 中文亚洲av片在线观看爽 | 午夜老司机福利片| 最新美女视频免费是黄的| 国产精品乱码一区二三区的特点 | 久久青草综合色| 热re99久久精品国产66热6| 久久久精品免费免费高清| 国产有黄有色有爽视频| 狂野欧美激情性xxxx| 热re99久久国产66热| 精品一区二区三区视频在线观看免费 | 在线观看舔阴道视频| 悠悠久久av| 18禁国产床啪视频网站| 久久亚洲真实| 国产精品 欧美亚洲| av电影中文网址| 亚洲专区中文字幕在线| 亚洲精品美女久久av网站| 欧美日韩成人在线一区二区| 欧美久久黑人一区二区| 黑人巨大精品欧美一区二区mp4| 久久国产精品男人的天堂亚洲| 久久人妻熟女aⅴ| 可以免费在线观看a视频的电影网站| 欧美乱色亚洲激情| 搡老岳熟女国产| 午夜福利在线免费观看网站| 精品久久久久久电影网| 日韩免费高清中文字幕av| 国产深夜福利视频在线观看| 亚洲人成77777在线视频| 波多野结衣一区麻豆| 少妇的丰满在线观看| 中文字幕av电影在线播放| 久久精品亚洲精品国产色婷小说| 欧美性长视频在线观看| 午夜福利视频在线观看免费| 99国产综合亚洲精品| 欧美激情高清一区二区三区| 后天国语完整版免费观看| 亚洲成a人片在线一区二区| 亚洲精品乱久久久久久| 欧美日韩瑟瑟在线播放| 精品一区二区三卡| 久久天躁狠狠躁夜夜2o2o| 自拍欧美九色日韩亚洲蝌蚪91| 91九色精品人成在线观看| 亚洲 国产 在线| 亚洲片人在线观看| 18在线观看网站| √禁漫天堂资源中文www| 超碰成人久久| 亚洲国产看品久久| 免费看十八禁软件| 国产人伦9x9x在线观看| 久热爱精品视频在线9| 午夜福利欧美成人| 国产精品久久视频播放| 91麻豆av在线| 欧美日韩精品网址| 国产不卡av网站在线观看| 捣出白浆h1v1| 黄色视频不卡| 久久精品国产清高在天天线| 热99久久久久精品小说推荐| 日韩三级视频一区二区三区| 91成年电影在线观看| 大香蕉久久网| 香蕉丝袜av| 俄罗斯特黄特色一大片| a级毛片在线看网站| 中文字幕人妻熟女乱码| 99久久综合精品五月天人人| 亚洲情色 制服丝袜| 美女福利国产在线| av免费在线观看网站| 欧美日韩精品网址| 亚洲成av片中文字幕在线观看| 嫁个100分男人电影在线观看| 成人国语在线视频| 女性被躁到高潮视频| 国产又爽黄色视频| 亚洲av日韩在线播放| 免费人成视频x8x8入口观看| 欧美日韩精品网址| 黑人巨大精品欧美一区二区mp4| 老司机靠b影院| tube8黄色片| 精品人妻熟女毛片av久久网站| 精品国产一区二区三区久久久樱花| 欧美乱妇无乱码| e午夜精品久久久久久久| 一本精品99久久精品77| 欧美乱色亚洲激情| 国产黄片美女视频| 91久久精品电影网| 3wmmmm亚洲av在线观看| 久久亚洲精品不卡| 久久这里只有精品中国| 一区福利在线观看| 一a级毛片在线观看| 91av网一区二区| 久久精品国产清高在天天线| 中文字幕人妻丝袜一区二区| 国产成年人精品一区二区| 19禁男女啪啪无遮挡网站| 最近最新中文字幕大全免费视频| 久久性视频一级片| 黄色片一级片一级黄色片| 欧美中文综合在线视频| 高潮久久久久久久久久久不卡| 91九色精品人成在线观看| 一级黄色大片毛片| 男人舔奶头视频| 国产午夜精品久久久久久一区二区三区 | 最近视频中文字幕2019在线8| 国产av不卡久久| 国产精品精品国产色婷婷| 日韩av在线大香蕉| 亚洲最大成人手机在线| 夜夜夜夜夜久久久久| 日本在线视频免费播放| 国产激情欧美一区二区| 网址你懂的国产日韩在线| 97碰自拍视频| 欧美av亚洲av综合av国产av| 国产精品久久久久久精品电影| 久久香蕉国产精品| 日本一二三区视频观看| 色av中文字幕| 久久久久精品国产欧美久久久| 国产 一区 欧美 日韩| 老司机午夜十八禁免费视频| aaaaa片日本免费| 国内久久婷婷六月综合欲色啪| 无限看片的www在线观看| 五月伊人婷婷丁香| 在线观看午夜福利视频| 中文字幕久久专区| 神马国产精品三级电影在线观看| 在线观看美女被高潮喷水网站 | 黄色视频,在线免费观看| 亚洲第一欧美日韩一区二区三区| 变态另类成人亚洲欧美熟女| 国产精品日韩av在线免费观看| 给我免费播放毛片高清在线观看| 国产伦精品一区二区三区四那| 久久久久亚洲av毛片大全| 免费观看人在逋| 法律面前人人平等表现在哪些方面| 欧美日韩综合久久久久久 | 很黄的视频免费| 亚洲一区二区三区不卡视频| 国产成人系列免费观看| 亚洲国产精品成人综合色| 尤物成人国产欧美一区二区三区| 国产99白浆流出| 国产一区二区在线av高清观看| 免费在线观看亚洲国产| av福利片在线观看| 少妇的逼好多水| 可以在线观看的亚洲视频| 亚洲无线观看免费| 88av欧美| 好男人在线观看高清免费视频| 久久久久久久久中文| 久久人人精品亚洲av| 日本 欧美在线| 国产又黄又爽又无遮挡在线| 波多野结衣高清无吗| 精品免费久久久久久久清纯| 国产精品 欧美亚洲| 日本黄大片高清| 最新中文字幕久久久久| 十八禁网站免费在线| 偷拍熟女少妇极品色| www.www免费av| 午夜久久久久精精品| 91久久精品电影网| 精品免费久久久久久久清纯| 中文字幕久久专区| 国产男靠女视频免费网站| 51午夜福利影视在线观看| av黄色大香蕉| 国产高清视频在线播放一区| 日韩av在线大香蕉| 亚洲av中文字字幕乱码综合| 午夜a级毛片| 一本一本综合久久| netflix在线观看网站| av国产免费在线观看| 俺也久久电影网| 人人妻人人看人人澡| 国产v大片淫在线免费观看| 757午夜福利合集在线观看| 亚洲av美国av| 三级毛片av免费| 99久久九九国产精品国产免费| 亚洲av美国av| 亚洲人成伊人成综合网2020| 国产精品99久久久久久久久| 久久久久久久久大av| bbb黄色大片| 一个人看的www免费观看视频| 欧美黑人欧美精品刺激| 国产97色在线日韩免费| 精品一区二区三区人妻视频| 制服丝袜大香蕉在线| 国产又黄又爽又无遮挡在线| 婷婷精品国产亚洲av在线| 叶爱在线成人免费视频播放| 亚洲人成网站高清观看| 丁香欧美五月| 久久久色成人| 老熟妇乱子伦视频在线观看| 一二三四社区在线视频社区8| 97超级碰碰碰精品色视频在线观看| 免费av不卡在线播放| 国产精品三级大全| 精品久久久久久成人av| 亚洲 欧美 日韩 在线 免费| 国产精品女同一区二区软件 | 成人午夜高清在线视频| 亚洲人成网站高清观看| 亚洲美女黄片视频| 好男人在线观看高清免费视频| 亚洲av二区三区四区| 亚洲性夜色夜夜综合| 婷婷精品国产亚洲av在线| tocl精华| 午夜福利在线观看吧| 国产精品自产拍在线观看55亚洲| 午夜福利在线在线| 天天一区二区日本电影三级| 啦啦啦韩国在线观看视频| 18+在线观看网站| 久久久久久久久中文| 夜夜躁狠狠躁天天躁| 99热这里只有精品一区| 欧美国产日韩亚洲一区| 啦啦啦观看免费观看视频高清| 国内精品久久久久精免费| 午夜久久久久精精品| 色av中文字幕| 亚洲精品456在线播放app | 99热这里只有是精品50| 日本三级黄在线观看| 久久伊人香网站| 欧美国产日韩亚洲一区| 法律面前人人平等表现在哪些方面| 亚洲av电影不卡..在线观看| 特大巨黑吊av在线直播| 国产精品久久久久久久久免 | 亚洲一区二区三区色噜噜| 亚洲精品在线美女| 人人妻人人澡欧美一区二区| 日本与韩国留学比较| 亚洲美女黄片视频| 无遮挡黄片免费观看| 18禁黄网站禁片免费观看直播| 国产成人系列免费观看| 欧美在线黄色| 国产真实伦视频高清在线观看 | 国产黄色小视频在线观看| 久久香蕉国产精品| 成年人黄色毛片网站| av片东京热男人的天堂| 尤物成人国产欧美一区二区三区| 午夜免费男女啪啪视频观看 | 99久久99久久久精品蜜桃| 91字幕亚洲| 国产欧美日韩精品亚洲av| 国产精品一区二区三区四区久久| 日本精品一区二区三区蜜桃| 一级黄片播放器| 免费看美女性在线毛片视频| 99国产精品一区二区蜜桃av| 精品久久久久久久末码| 麻豆国产av国片精品| 亚洲精品456在线播放app | www日本在线高清视频| 熟女电影av网| 国产精品影院久久| 免费av毛片视频| 听说在线观看完整版免费高清| 最后的刺客免费高清国语| 亚洲一区高清亚洲精品| 国产成人av激情在线播放| 日韩大尺度精品在线看网址| 99久久九九国产精品国产免费| 午夜福利高清视频| 搡女人真爽免费视频火全软件 | 极品教师在线免费播放| 日本在线视频免费播放| 日韩欧美精品v在线| 热99re8久久精品国产| 女人被狂操c到高潮| 欧美另类亚洲清纯唯美| 看片在线看免费视频| 国产精品98久久久久久宅男小说| 午夜影院日韩av| 久久香蕉国产精品| 日韩高清综合在线| 国产单亲对白刺激| 亚洲国产欧美网| 欧美日韩黄片免| 国产精品久久久人人做人人爽| 欧美日韩乱码在线| 亚洲成人久久爱视频| 99热这里只有精品一区| 亚洲欧美日韩东京热| 国产精品久久电影中文字幕| 亚洲五月天丁香| 18禁黄网站禁片午夜丰满| 欧美黄色淫秽网站| 亚洲天堂国产精品一区在线| 国产高清三级在线| 久久精品亚洲精品国产色婷小说| 国产黄片美女视频| 我的老师免费观看完整版| 免费看a级黄色片| 亚洲美女视频黄频| 免费大片18禁| 三级毛片av免费| 脱女人内裤的视频| 热99在线观看视频| 99精品欧美一区二区三区四区| 好男人在线观看高清免费视频| 天堂影院成人在线观看| 国产精品99久久99久久久不卡| 国产免费av片在线观看野外av| 亚洲aⅴ乱码一区二区在线播放| 色综合欧美亚洲国产小说| 亚洲国产日韩欧美精品在线观看 | 国产高清视频在线观看网站| 99riav亚洲国产免费| 国产亚洲精品久久久com| 怎么达到女性高潮| 亚洲成人免费电影在线观看| 国产精品,欧美在线| 国产精品久久久久久人妻精品电影| 老司机午夜十八禁免费视频| 久久精品亚洲精品国产色婷小说| 免费看a级黄色片| 欧美性猛交黑人性爽| 亚洲欧美激情综合另类| 亚洲国产欧美网| 99国产极品粉嫩在线观看| 99在线人妻在线中文字幕| 男人和女人高潮做爰伦理| xxx96com| 国产精品久久久久久久电影 | 一级黄片播放器| 人人妻人人看人人澡| 97人妻精品一区二区三区麻豆| 俄罗斯特黄特色一大片| 性欧美人与动物交配| 香蕉久久夜色| 黄色女人牲交| 日韩欧美精品免费久久 | 亚洲黑人精品在线| 最新美女视频免费是黄的| 激情在线观看视频在线高清| 91av网一区二区| www.www免费av| 国产综合懂色| 此物有八面人人有两片| 深爱激情五月婷婷| 尤物成人国产欧美一区二区三区| 九九在线视频观看精品| 两人在一起打扑克的视频| 国产在视频线在精品| 日本黄大片高清| 亚洲精品粉嫩美女一区| 99久久精品国产亚洲精品| 久久精品国产综合久久久| 亚洲 国产 在线| 欧美一区二区国产精品久久精品| 久久久久性生活片| 亚洲av二区三区四区| 欧美bdsm另类| 国产精品久久视频播放| xxx96com| 一区二区三区高清视频在线| 丰满人妻一区二区三区视频av | 亚洲国产色片| 窝窝影院91人妻| 村上凉子中文字幕在线| 久久久精品大字幕| 一区二区三区高清视频在线| 久久久国产精品麻豆| 国产视频内射| 亚洲最大成人中文| 色噜噜av男人的天堂激情| 国产成人影院久久av| 淫妇啪啪啪对白视频| 日韩精品青青久久久久久| 国内毛片毛片毛片毛片毛片| www国产在线视频色| 国产视频一区二区在线看| 波多野结衣高清作品| 久9热在线精品视频| 欧美日本视频| 日韩欧美一区二区三区在线观看| 久99久视频精品免费| 国产熟女xx| 久久久久久九九精品二区国产| а√天堂www在线а√下载| 亚洲国产精品久久男人天堂| 国产成人av激情在线播放| 免费看光身美女| 啦啦啦免费观看视频1| 欧美黑人巨大hd| 久久人妻av系列| 国产午夜精品论理片| 婷婷精品国产亚洲av在线| or卡值多少钱| 制服人妻中文乱码| 亚洲va日本ⅴa欧美va伊人久久| 97碰自拍视频| 男女之事视频高清在线观看| 在线观看日韩欧美| 在线国产一区二区在线| 2021天堂中文幕一二区在线观| 亚洲欧美日韩卡通动漫| 国产激情欧美一区二区| 波多野结衣高清无吗| 少妇的逼好多水| 老司机午夜福利在线观看视频| 91在线观看av| 91麻豆精品激情在线观看国产| 一级作爱视频免费观看| 国产毛片a区久久久久| 亚洲av免费在线观看| 成年女人毛片免费观看观看9| 久久国产精品影院| 高清日韩中文字幕在线| av片东京热男人的天堂| 在线观看66精品国产| av在线天堂中文字幕| 欧美中文综合在线视频| 精品电影一区二区在线| 欧美日韩乱码在线| 级片在线观看| 亚洲真实伦在线观看| 午夜福利在线观看吧| 搡老熟女国产l中国老女人| 国产伦精品一区二区三区视频9 | 久久久久久大精品| 国产在视频线在精品| 中文字幕av成人在线电影| 成人无遮挡网站| 麻豆一二三区av精品| 国产欧美日韩一区二区三| bbb黄色大片| 国产精品一区二区三区四区免费观看 | 19禁男女啪啪无遮挡网站| 国产av一区在线观看免费| 精品国产亚洲在线| 免费看美女性在线毛片视频| 中文字幕久久专区| 丁香欧美五月| 真人一进一出gif抽搐免费| 757午夜福利合集在线观看| 久久久国产精品麻豆| 亚洲avbb在线观看| 亚洲欧美日韩东京热| 色综合站精品国产| 蜜桃久久精品国产亚洲av| 午夜免费成人在线视频| 最近最新免费中文字幕在线| 小蜜桃在线观看免费完整版高清| 亚洲成人中文字幕在线播放| 18禁裸乳无遮挡免费网站照片| 国内精品一区二区在线观看| 国产成年人精品一区二区| 国产中年淑女户外野战色| 色哟哟哟哟哟哟| 女人十人毛片免费观看3o分钟| 国产伦在线观看视频一区| 欧美日韩中文字幕国产精品一区二区三区| 亚洲av电影不卡..在线观看| 麻豆久久精品国产亚洲av| 免费大片18禁| 午夜免费男女啪啪视频观看 | 超碰av人人做人人爽久久 | 97超级碰碰碰精品色视频在线观看| 成人特级黄色片久久久久久久| 欧美一区二区国产精品久久精品| 免费看日本二区| 中文字幕av成人在线电影| 中国美女看黄片| 两性午夜刺激爽爽歪歪视频在线观看| 欧美黄色片欧美黄色片| www国产在线视频色| 夜夜看夜夜爽夜夜摸| 免费看美女性在线毛片视频| 国产激情欧美一区二区| 五月伊人婷婷丁香| 精品熟女少妇八av免费久了| 日本熟妇午夜| 99国产综合亚洲精品| 两个人看的免费小视频| 97碰自拍视频| 亚洲国产色片| 午夜两性在线视频| 亚洲精华国产精华精| 特级一级黄色大片| 国产精品自产拍在线观看55亚洲| 亚洲在线自拍视频| 一进一出好大好爽视频| 国产单亲对白刺激| 人人妻,人人澡人人爽秒播| 欧美乱妇无乱码| 欧美日韩综合久久久久久 | 最近最新中文字幕大全免费视频| 亚洲国产欧美网| 免费av毛片视频| 蜜桃亚洲精品一区二区三区| 欧美日本亚洲视频在线播放| 99在线视频只有这里精品首页| 99视频精品全部免费 在线| 香蕉丝袜av| 亚洲国产日韩欧美精品在线观看 | 亚洲国产色片| 国产黄片美女视频| 亚洲国产欧美人成| 精品国内亚洲2022精品成人| 国产精品久久久人人做人人爽| 法律面前人人平等表现在哪些方面| 亚洲专区中文字幕在线| 成人av在线播放网站| 日本成人三级电影网站| 夜夜爽天天搞| 内射极品少妇av片p| 欧美性感艳星| 麻豆一二三区av精品| 国产亚洲欧美在线一区二区| 久久人妻av系列| 在线免费观看的www视频| 高清在线国产一区| 久久中文看片网| 久久伊人香网站| 搡女人真爽免费视频火全软件 | 人人妻人人澡欧美一区二区| 麻豆国产av国片精品| 我的老师免费观看完整版| 午夜免费激情av| 国产极品精品免费视频能看的| 国产精品 国内视频| 变态另类成人亚洲欧美熟女| 国产高清有码在线观看视频| 日韩国内少妇激情av| 国产精品精品国产色婷婷| 99热精品在线国产| 国产蜜桃级精品一区二区三区| 国产亚洲欧美98| 国产午夜福利久久久久久| 国产亚洲av嫩草精品影院| 国产熟女xx| 国产黄色小视频在线观看| 看片在线看免费视频|