• <tr id="yyy80"></tr>
  • <sup id="yyy80"></sup>
  • <tfoot id="yyy80"><noscript id="yyy80"></noscript></tfoot>
  • 99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

    采用輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的H.266/通用視頻編碼跨分量預(yù)測(cè)

    2025-02-07 00:00:00鄒承益萬(wàn)帥朱志偉尹宇杰
    關(guān)鍵詞:注意力機(jī)制

    摘要:為提高新一代通用視頻編碼標(biāo)準(zhǔn)(H.266/VVC)中色度幀內(nèi)預(yù)測(cè)的準(zhǔn)確度,提出了采用輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的跨分量預(yù)測(cè)方法。設(shè)計(jì)了亮度模塊和邊界模塊,從亮度和色度參考樣本中提取特征。設(shè)計(jì)了注意力模塊,構(gòu)建當(dāng)前亮度參考樣本和邊界亮度參考樣本之間的空間關(guān)系,并應(yīng)用于邊界色度參考樣本生成色度預(yù)測(cè)樣本。為降低編解碼復(fù)雜度,設(shè)計(jì)網(wǎng)絡(luò)在二維完成特征融合和預(yù)測(cè),優(yōu)化了現(xiàn)有的同組參數(shù)處理不同塊大小的訓(xùn)練策略。并且,引入寬度可變卷積,根據(jù)不同的塊大小調(diào)整網(wǎng)絡(luò)參數(shù)。實(shí)驗(yàn)結(jié)果表明:與H.266/VVC測(cè)試模型VTM18.0相比,所提網(wǎng)絡(luò)在Y(亮度分量)、Cb(藍(lán)色色度分量)、Cr(紅色色度分量)上分別實(shí)現(xiàn)了0.30%、2.46%、2.25%的碼率節(jié)省。與其他基于卷積神經(jīng)網(wǎng)絡(luò)的跨分量預(yù)測(cè)方法相比,有效地降低了網(wǎng)絡(luò)參數(shù)和推理復(fù)雜度,分別節(jié)省了約10%的編碼時(shí)間和19%的解碼時(shí)間。

    關(guān)鍵詞:通用視頻編碼;跨分量預(yù)測(cè);輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò);注意力機(jī)制;寬度可變卷積

    中圖分類號(hào):TN919.8 文獻(xiàn)標(biāo)志碼:A

    DOI:10.7652/xjtuxb202502018 文章編號(hào):0253-987X(2025)02-0180-09

    Cross-Component Prediction for H.266/Versatile Video Coding Based on Lightweight Convolutional Neural Network

    ZOU Chengyi1, WAN Shuai1,2, ZHU Zhiwei1, YIN Yujie1

    (1. School of Electronic and Information, Northwestern Polytechnical University, Xi’an 710129, China;

    2. School of Engineering, Royal Melbourne Institute of Technology, Melbourne VIC3001, Australia)

    Abstract:To improve the accuracy of intra chroma prediction in H.266/versatile video coding (VVC), a cross-component prediction method based on lightweight convolutional neural network was proposed in this paper. The luma module and chroma module were designed to extract features from luma and chroma reference samples, and the attention module was designed to leverage the attention mechanism to construct the spatial correlation between the current luma reference samples and the boundary luma reference samples. Finally, the attention mask was applied to the boundary chroma reference samples to generate chroma prediction value. To reduce the encoding and decoding complexity, the feature fusion and prediction in the network were achieved in two dimensions, the existing training strategy with shared parameters to handle variable block sizes was improved, and slimmable convolutions were introduced to adjust network parameters according to different block sizes. The experimental results show that the proposed algorithm achieved 0.30%/2.46%/2.25% BD-rate reduction on the Y/Cb/Cr component, respectively, compared with the H.266/VVC test model VTM18.0. Compared with other convolutional neural networks-based cross-component prediction methods, the proposed method effectively reduced the network parameters and inference complexity, saving 10% encoding time and 19% decoding time.

    Keywords:versatile video coding; cross-component prediction; lightweight convolutional neural network; attention mechanism; slimmable convolution

    近年來(lái),隨著互聯(lián)網(wǎng)的迅速發(fā)展,4K/8K超高清視頻、高幀率視頻、大動(dòng)態(tài)范圍視頻、全景視頻等視頻業(yè)務(wù)層出不窮,相關(guān)應(yīng)用對(duì)高性能視頻編碼技術(shù)的需求與日俱增。如何進(jìn)一步降低編碼比特率,同時(shí)保持高視頻質(zhì)量,一直是學(xué)術(shù)界和工業(yè)界的研究熱點(diǎn)。新一代視頻編碼標(biāo)準(zhǔn)H.266/通用視頻編碼(versatile video coding,VVC)是最新的視頻編碼標(biāo)準(zhǔn)之一,相比于上一代視頻編碼標(biāo)準(zhǔn) H.265/高效視頻編碼(high efficiency video coding,HEVC)[1],在保證相同視頻圖像質(zhì)量的前提下,可節(jié)省近50%的碼率,滿足了對(duì)高效視頻壓縮的需求,并支持當(dāng)今更廣泛的媒體內(nèi)容和新興應(yīng)用[2-4]。

    H.266/VVC提高幀內(nèi)編碼效率的方法之一是為亮度分量和色度分量引入獨(dú)立的劃分結(jié)構(gòu)。由于亮度塊是在色度塊之前編碼的,所以編碼的亮度信息可以用于色度預(yù)測(cè),以進(jìn)一步減少分量之間的冗余。為實(shí)現(xiàn)這一點(diǎn),H.266/VVC利用了重構(gòu)的亮度信息進(jìn)行跨分量預(yù)測(cè)??绶至烤€性模型(cross-component linear model,CCLM)[5]是一種有效的色度分量編碼工具,它建立了一個(gè)跨分量線性預(yù)測(cè)模型,并將該模型應(yīng)用于下采樣的亮度重建樣本來(lái)預(yù)測(cè)色度。然而,簡(jiǎn)單的線性映射無(wú)法準(zhǔn)確地表示分量之間的關(guān)系,在預(yù)測(cè)復(fù)雜的情況下性能有限。

    近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)已成功用于跨分量預(yù)測(cè)[6-15]。文獻(xiàn)[6]首次提出了一種用于跨分量預(yù)測(cè)的混合神經(jīng)網(wǎng)絡(luò)?;诖?,文獻(xiàn)[7]提出了變換域損失以獲得更高的預(yù)測(cè)性能。文獻(xiàn)[8]研究了超參數(shù)的影響,并實(shí)現(xiàn)了計(jì)算效率和壓縮性能之間的平衡。文獻(xiàn)[9]提出在編碼樹單元(coding tree unit,CTU)級(jí)別使用深度神經(jīng)網(wǎng)絡(luò)進(jìn)行跨分量預(yù)測(cè)。自注意力機(jī)制可用于評(píng)估特定輸入變量對(duì)輸出的影響,文獻(xiàn)[10]將這個(gè)概念成功地?cái)U(kuò)展到跨分量預(yù)測(cè),以評(píng)估每個(gè)邊界參考像素對(duì)當(dāng)前塊像素的影響。針對(duì)文獻(xiàn)[10]中的方法,文獻(xiàn)[11]提出了使用單個(gè)模型預(yù)測(cè)不同塊大小數(shù)據(jù)的訓(xùn)練方法以減少模型數(shù)量。文獻(xiàn)[12]提出了空間信息細(xì)化,進(jìn)一步提高了編碼性能。文獻(xiàn)[13]提出了一個(gè)輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了更低的編解碼復(fù)雜度?;谖墨I(xiàn)[13]中的方法, 文獻(xiàn)[14]提出了樣本自適應(yīng)方法進(jìn)一步提高性能,并提出了簡(jiǎn)化卷積的方法進(jìn)一步減少推理參數(shù)。

    然而,上述方法中的網(wǎng)絡(luò)是在高維空間完成亮度和色度特征的融合,需要額外的卷積層將融合后的特征映射到二維色度空間,復(fù)雜度較高。而且,上述方法均采用單模型訓(xùn)練所有塊大小,該策略雖然可以節(jié)省總參數(shù)量,但大塊和小塊采用同樣的參數(shù)量并不合理。相對(duì)于大塊,小塊通常內(nèi)容更為簡(jiǎn)單且容易被預(yù)測(cè),應(yīng)采用更少的參數(shù)。本文提出了一種基于注意力的輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)用于跨分量預(yù)測(cè),在保證網(wǎng)絡(luò)預(yù)測(cè)性能的前提下顯著降低了網(wǎng)絡(luò)參數(shù)量。并且,改變現(xiàn)有的同組參數(shù)處理不同塊大小的訓(xùn)練策略,提出了利用寬度可變卷積根據(jù)不同的塊大小調(diào)整網(wǎng)絡(luò)參數(shù),減少了小塊的推理復(fù)雜度。實(shí)驗(yàn)結(jié)果表明,與H.266/VVC測(cè)試模型VTM18.0相比,在相同重建視頻質(zhì)量下,本文所提出的方法在在Y(亮度分量)、Cb(藍(lán)色色度分量)、Cr(紅色色度分量)分量上可分別節(jié)省0.30%、2.46%和2.25%的碼率。與其他基于卷積神經(jīng)網(wǎng)絡(luò)的跨分量預(yù)測(cè)方法相比,本文網(wǎng)絡(luò)在提高色度編碼性能的同時(shí),實(shí)現(xiàn)了更少的編解碼時(shí)間。

    1 相關(guān)研究

    1.1 跨分量線性模型

    YCbCr顏色空間的3個(gè)分量間存在相關(guān)性,去除分量間的冗余可以進(jìn)一步提高視頻編解碼性能。視頻編碼中重建的亮度像素可以用于色度幀內(nèi)預(yù)測(cè)。文獻(xiàn)[5]中首次引入了亮度和色度分量之間的線性模型,其中線性模型的參數(shù)可以通過(guò)顯式傳輸或隱式推導(dǎo)獲得?;诟咝б曨l編碼框架,文獻(xiàn)[15]設(shè)計(jì)了幾種改進(jìn)的色度亮度預(yù)測(cè)算法,稱為跨分量預(yù)測(cè),具有優(yōu)異的性能。文獻(xiàn)[16]建議僅使用左鄰居或上鄰居采樣來(lái)推斷線性模型,文獻(xiàn)[17]中的工作提出了一種自適應(yīng)模板選擇方法來(lái)擴(kuò)展相鄰像素采樣,其中Cr分量可以從Y分量或Cb分量預(yù)測(cè),或者從Y分量和Cb分量進(jìn)行預(yù)測(cè)。在文獻(xiàn)[18]中,相鄰像素的加權(quán)和被用作當(dāng)前色度像素的預(yù)測(cè),其中加權(quán)因子由亮度和色度之間的相關(guān)性確定。文獻(xiàn)[19]對(duì)同一位置的亮度塊和色度塊進(jìn)行模板匹配,然后使用匹配的亮度塊的同一位置色度塊作為當(dāng)前色度塊的預(yù)測(cè)器。在文獻(xiàn)[20]中,引入了一種使用亮度殘差信號(hào)來(lái)補(bǔ)償色度殘差信號(hào)的去相關(guān)方法。

    為進(jìn)一步提高跨分量線性模型的預(yù)測(cè)能力,在文獻(xiàn)[21-22]中,提出了多模型的CCLM(multi-model based cross-component linear model,MMLM)方法。該方法首先將當(dāng)前塊的重建亮度值劃分為組,并將線性模型應(yīng)用于每組。其次,設(shè)計(jì)了更多的亮度下采樣濾波器。最后,提出了一種結(jié)合角度幀內(nèi)預(yù)測(cè)和CCLM預(yù)測(cè)的預(yù)測(cè)方法。文獻(xiàn)[23]提出了多種梯度下采樣濾波器,利用亮度梯度構(gòu)建與色度之間的梯度線性模型。文獻(xiàn)[24]提出了卷積跨分量模型,使用相鄰模板構(gòu)建亮度和色度之間多對(duì)一的關(guān)系。

    1.2 基于神經(jīng)網(wǎng)絡(luò)的跨分量預(yù)測(cè)

    與簡(jiǎn)單的線性模型無(wú)法準(zhǔn)確描述亮度和色度分量之間的相關(guān)性相比,神經(jīng)網(wǎng)絡(luò)善于建模更復(fù)雜的非線性映射,如圖1所示。

    文獻(xiàn)[6]首次將混合神經(jīng)網(wǎng)絡(luò)引入色度幀內(nèi)預(yù)測(cè),該網(wǎng)絡(luò)利用卷積神經(jīng)網(wǎng)絡(luò)和全連接網(wǎng)絡(luò)分別從重構(gòu)的亮度樣本和相鄰重構(gòu)的亮度和色度樣本中提取特征。然后,將這兩個(gè)特征進(jìn)行融合以預(yù)測(cè)色度樣本?;谶@種方法,文獻(xiàn)[7]提出了一個(gè)變換域損失函數(shù),有利于熵編碼過(guò)程。此外,文獻(xiàn)[7]還研究了超參數(shù)的影響,以實(shí)現(xiàn)計(jì)算效率和壓縮性能之間的平衡。文獻(xiàn)[8]提出了一種不同的卷積神經(jīng)網(wǎng)絡(luò),它使用亮度和色度樣本作為網(wǎng)絡(luò)的兩個(gè)模塊的輸入。此外,針對(duì)基于網(wǎng)絡(luò)的幀內(nèi)預(yù)測(cè)模式,提出了一種新的信令方案,并證實(shí)了絕對(duì)變換差分之和損失函數(shù)對(duì)訓(xùn)練預(yù)測(cè)網(wǎng)絡(luò)的好處。文獻(xiàn)[9]提出通過(guò)更深的神經(jīng)網(wǎng)絡(luò)和更多的參考像素來(lái)預(yù)測(cè)CTU級(jí)別的色度,小于CTU的塊將復(fù)制位于同一位置的預(yù)測(cè)。CCLM的預(yù)測(cè)值被生成作為色度初始化,并且編碼失真水平被引入作為網(wǎng)絡(luò)的輸入。然而,這種方法需要修改VVC的編碼和解碼流程,因?yàn)樵摼W(wǎng)絡(luò)是在CTU級(jí)別應(yīng)用的,并且預(yù)測(cè)值需要傳輸?shù)骄幋a單元級(jí)別。

    注意力網(wǎng)絡(luò)被廣泛用于不同類型的深度學(xué)習(xí)任務(wù),以提高神經(jīng)網(wǎng)絡(luò)的性能。文獻(xiàn)[10]首次提出一種基于注意力的色度預(yù)測(cè)神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)使用注意力機(jī)制來(lái)建模參考樣本和預(yù)測(cè)樣本之間的空間關(guān)系。該網(wǎng)絡(luò)由4個(gè)模塊組成。前兩個(gè)模塊(跨分量邊界模塊和亮度卷積模塊)從相鄰的重構(gòu)樣本和并置的重構(gòu)亮度塊中提取跨分量信息和亮度空間信息。前兩個(gè)模塊的輸出特征由第3個(gè)基于注意力的模塊融合,最后一個(gè)預(yù)測(cè)頭模塊產(chǎn)生色度預(yù)測(cè)值?;谶@項(xiàng)工作,文獻(xiàn)[11]提出了一個(gè)多模型用于處理可變的塊大小并簡(jiǎn)化推理過(guò)程。此外,文獻(xiàn)[11]還提出了幾種簡(jiǎn)化方案來(lái)進(jìn)一步降低原始多模型的復(fù)雜性,包括卷積運(yùn)算的復(fù)雜性降低框架、使用稀疏自動(dòng)編碼器的簡(jiǎn)化跨分量邊界模塊以及具有整數(shù)精度近似的算法。為進(jìn)一步改進(jìn)色度預(yù)測(cè),文獻(xiàn)[12]提出了兩種基于現(xiàn)有注意力結(jié)構(gòu)的空間信息細(xì)化方案,包括增加下采樣模塊和位置圖。 文獻(xiàn)[13]提出了面向輕量級(jí)的卷積神經(jīng)網(wǎng)絡(luò),并將Cb和Cr分量分別進(jìn)行預(yù)測(cè),然而這樣大大提高了編解碼復(fù)雜度。基于文獻(xiàn)[13]中的網(wǎng)絡(luò),文獻(xiàn)[14]提出了樣本自適應(yīng)方法利用更多的邊界參考樣本以進(jìn)一步提高預(yù)測(cè)性能,還提出了簡(jiǎn)化卷積的方法進(jìn)一步減少推理參數(shù)以降低編解碼復(fù)雜度。然而,上述方法的網(wǎng)絡(luò)都是在高維空間完成特征融合,再通過(guò)預(yù)測(cè)模塊降維以完成最終預(yù)測(cè),且大塊和小塊均采用相同的參數(shù)進(jìn)行訓(xùn)練和推理,這導(dǎo)致網(wǎng)絡(luò)設(shè)計(jì)和針對(duì)不同塊大小的訓(xùn)練策略都有進(jìn)一步的簡(jiǎn)化空間。

    2 采用輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)的H.266/VVC跨分量預(yù)測(cè)

    本節(jié)首先詳細(xì)介紹了所提出的跨分量預(yù)測(cè)網(wǎng)絡(luò),然后提出了一種利用可變卷積訓(xùn)練不同塊大小的策略,以降低復(fù)雜度。

    2.1 基于注意力的輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)

    基于注意力的輕量級(jí)卷積神經(jīng)網(wǎng)絡(luò)框架如圖2所示。該網(wǎng)絡(luò)由邊界模塊、亮度模塊、注意力模塊組成。與傳統(tǒng)色度預(yù)測(cè)模式[25]不同,Cb和Cr分量的邊界樣本一起輸入。這樣,兩個(gè)色度分量只需要預(yù)測(cè)一次,而不需要預(yù)測(cè)兩次,可以顯著降低推理復(fù)雜度。此外,與其他色度預(yù)測(cè)網(wǎng)絡(luò)不同,亮度和色度邊界樣本是單獨(dú)輸入的,與文獻(xiàn)[10-12]相比,這可以更好地從不同的參考樣本中提取特征,同時(shí)節(jié)省了注意力模塊的復(fù)雜度。與文獻(xiàn)[13]和[14]相比,在提取特征后直接映射到二維預(yù)測(cè),不需要額外的預(yù)測(cè)模塊得到Cb和Cr分量的預(yù)測(cè)值,從而大大降低了網(wǎng)絡(luò)復(fù)雜度。

    由于在視頻編碼中經(jīng)常使用YCbCr 4∶2∶0格式,因此在預(yù)測(cè)同一位置的色度塊之前對(duì)重建的亮度塊進(jìn)行下采樣。值得注意的是,這里使用與CCLM相同的傳統(tǒng)下采樣操作,并且下采樣的亮度塊X∈H×W的大小設(shè)為H × W。在色度預(yù)測(cè)的過(guò)程中,拼接當(dāng)前塊的上邊界和左邊界作為亮度和色度邊界參考樣本BY∈d、 Bc∈2×d,其中d隨著編碼順序和塊大小變化而變化,Y是亮度分量,c∈{Cb,Cr}是當(dāng)前色度分量。

    邊界模塊和亮度模塊并行地從邊界參考樣本和同一位置的亮度參考樣本中提取特征。邊界模塊被分為兩個(gè)分支,分別從亮度和色度邊界參考樣本中提取亮度和色度特征。這種方法清楚地分離不同的分量,直到最后的注意力模塊,然后可以根據(jù)亮度圖更有效地包裹色度特征。每個(gè)邊界分支的輸出特征圖S∈C×d可以表示為

    S(B,W,b)=ReLU(WB+b)(1)

    式中:W∈5×C×D和b∈C代表5×1卷積的權(quán)重和偏置,D為輸入通道數(shù);ReLU為激活函數(shù)修正線性單元。

    亮度模塊并行地提取位于同一位置的亮度參考樣本X上的空間信息。使用步長(zhǎng)為1的C維5×5卷積層來(lái)獲得亮度特征圖X1∈C×H×W,其在網(wǎng)絡(luò)中具有最大的卷積核大小。映射函數(shù)可以寫成

    X1(X,WY,bY)=ReLU(WYX+bY)(2)

    式中:WY∈5×5×C和bY∈C是5×5卷積的權(quán)重和偏置。

    注意力模塊通過(guò)注意力機(jī)制對(duì)所有輸入特征進(jìn)行融合,以獲得融合特征。與文獻(xiàn)[10-12]中融合當(dāng)前亮度塊特征和跨分量邊界特征的注意力模塊不同,注意力圖是根據(jù)當(dāng)前亮度塊和亮度邊界的特征生成的。這種方法不僅可以更好地預(yù)測(cè)色度,還減少了對(duì)齊特征維度(即1×1卷積)的計(jì)算需求。與文獻(xiàn)[13-14]中的方法類似,注意力模塊將亮度參考特征通過(guò)1×1卷積將映射到更小的空間,從而得到F∈J×b和G∈J×H×W,不同的是色度邊界的特征會(huì)直接映射到2維空間,從而得到H∈2×b,這樣可以在注意力模塊直接完成最終的預(yù)測(cè),而不需要多余的卷積再來(lái)實(shí)現(xiàn)多維特征到2維的映射,從而大大減少了參數(shù)量。然后,將F和G相乘得到注意力圖A=FTG,A∈b×H×W。通過(guò)對(duì)A應(yīng)用softmax函數(shù)以生成注意力掩碼M∈b×H×W,表示每個(gè)邊界位置對(duì)當(dāng)前塊的影響。A中每個(gè)值的計(jì)算方式為

    αj,i=exp(mj,i)

    ∑b-1i=0exp(mj,i)(3)

    式中:j=0,…,H×W-1代表了預(yù)測(cè)塊的樣本位置;i=0,…,b-1代表參考樣本位置;mj,i代表M中每個(gè)值。通過(guò)運(yùn)算=HM,將掩碼作用在色度邊界特征上,得到色度預(yù)測(cè)值∈2×H×W。

    2.2 寬度可變卷積

    文獻(xiàn)[11]提出了塊獨(dú)立的訓(xùn)練策略,可以使用單個(gè)網(wǎng)絡(luò)預(yù)測(cè)3種不同大小的塊,文獻(xiàn)[14]進(jìn)一步將這種方法運(yùn)用在所有尺寸的塊上。通常越小的塊越容易預(yù)測(cè),所以預(yù)測(cè)小塊可以使用比預(yù)測(cè)大塊更少的參數(shù)。文獻(xiàn)[26]首次提出了寬度可變卷積的概念,針對(duì)不同硬件設(shè)備需要訓(xùn)練部署不同模型的問(wèn)題,只需要訓(xùn)練一個(gè)網(wǎng)絡(luò)就可以根據(jù)實(shí)際硬件設(shè)備的資源限制動(dòng)態(tài)調(diào)整卷積寬度。文獻(xiàn)[27-28]分別將寬度可變卷積用于基于神經(jīng)網(wǎng)絡(luò)的圖像壓縮和視頻壓縮,以改變碼率失真的權(quán)衡并控制復(fù)雜度。受這些文獻(xiàn)的啟發(fā),本文提出采用寬度可變卷積的方法來(lái)控制不同塊大小所使用的參數(shù)量,在保證性能的基礎(chǔ)上極大減少了預(yù)測(cè)小塊的推理復(fù)雜度。

    圖3展示了具有不同數(shù)量活動(dòng)通道的寬度可變卷積。以色度邊界分支和亮度分支為例,同樣的模型可以以多種不同的寬度(活動(dòng)通道數(shù)量)運(yùn)行,并且模型變體的參數(shù)是共享的,允許實(shí)現(xiàn)精度和效率之間的平衡。本文采用3種不同的寬度,1×代表使用所有的通道,0.75×代表使用前75%的通道,0.5×代表使用前一半的通道。

    本文網(wǎng)絡(luò)完整的訓(xùn)練過(guò)程偽代碼如下。

    輸入:

    {XNm,BNm,ZNm}:當(dāng)前亮度塊,邊界參考樣本,基準(zhǔn)真實(shí)值。 其中,m∈[0,M]代表數(shù)據(jù)數(shù)量, N∈{16,32,64,128,256,512,1024}代表待預(yù)測(cè)塊的面積。

    C: 可變寬度卷積的活動(dòng)通道數(shù)

    θN(W(t)): N個(gè)網(wǎng)絡(luò)共享權(quán)重W(t)

    L(t)reg: 訓(xùn)練t步的目標(biāo)函數(shù)

    optimizer (g(t)): 優(yōu)化器函數(shù)

    過(guò)程:

    t←0初始化步長(zhǎng)

    while θN(W(t))未收斂 do:

    for m∈[0,M) do

    for N∈{16,32,64,128,256} do

    if 16≤Nlt;64 do

    C=32

    if 64≤Nlt;256 do

    C=48

    if 256≤N≤1024 do

    C=64

    t←t+1

    L(t)reg←MSE(ZNm,θN(XNm,BNm,W(t-1)))

    g(t)←ΔWL(t)reg(獲取t步的梯度)

    W(t)←optimizer(g(t))

    end for

    end for

    end while

    在訓(xùn)練第t步時(shí),首先根據(jù)預(yù)測(cè)塊的面積確定可變寬度卷積的活動(dòng)通道數(shù),本文最多使用64個(gè)活動(dòng)通道,最少使用32和活動(dòng)通道,即1×=64,0.75×=48,0.5×=32。確定活動(dòng)通道數(shù)后即可更新網(wǎng)絡(luò)參數(shù),獲得一組新的權(quán)重。為了讓預(yù)測(cè)值更接近于原始值,使用最小化均方誤差(mean-square error,MSE)作為目標(biāo)函數(shù)來(lái)更新網(wǎng)絡(luò)參數(shù),MSE公式如下

    MSE(yi, i)=1n∑ni=1(yi-i)2 (4)

    式中:yi為真實(shí)值;i為預(yù)測(cè)值;n為像素總數(shù)。

    本文網(wǎng)絡(luò)的參數(shù)如表1所示。由于采用了寬度可變卷積,邊界模塊和亮度模塊的輸出通道及注意力模塊的輸入通道會(huì)根據(jù)塊的大小發(fā)生變化。

    2.3 網(wǎng)絡(luò)訓(xùn)練

    訓(xùn)練數(shù)據(jù)集由來(lái)自DIV2K數(shù)據(jù)集[29]的800張圖像和來(lái)自BVI-DVC數(shù)據(jù)集[30]的800張圖像組成。DIV2K數(shù)據(jù)集是一個(gè)高質(zhì)量的自然圖像數(shù)據(jù)集,包含800個(gè)訓(xùn)練樣本和100個(gè)驗(yàn)證樣本。DIV2K數(shù)據(jù)庫(kù)中圖像的最大分辨率為2K((2040×648)~(2040×2040)像素)。該數(shù)據(jù)庫(kù)還提供了3個(gè)較低分辨率版本((1020×324)~(1020×1020)像素,(680×216)~(680×680)像素,(510×162)~(510×510)像素),它們通過(guò)雙線性和未知濾波器按因子2、3、4進(jìn)行下采樣。對(duì)于每個(gè)數(shù)據(jù)實(shí)例,隨機(jī)選擇一個(gè)分辨率。值得注意的是,選擇高分辨率圖像的概率被設(shè)置為高于低分辨率圖像的選擇概率,并且圖像需要從PNG格式轉(zhuǎn)換YCbCr 4∶2∶0格式。BVI-DVC是一個(gè)YCbCr格式的代表性視頻數(shù)據(jù)庫(kù),旨在訓(xùn)練基于CNN的視頻壓縮算法,其中包含270p~2160p的各種空間分辨率的800個(gè)序列。對(duì)于每個(gè)序列,隨機(jī)選擇一個(gè)幀,然后選擇多個(gè)H×W大小的塊。所有像素值都需要轉(zhuǎn)換為浮點(diǎn)數(shù),并歸一化到[0,1]范圍內(nèi)。所有尺寸的塊一起輸入到網(wǎng)絡(luò)中訓(xùn)練。

    在本文中,Tensorflow/Keras被用于訓(xùn)練所提出的網(wǎng)絡(luò)。批量大小設(shè)置為16。所提出的網(wǎng)絡(luò)使用Adam優(yōu)化器,并以10-4的學(xué)習(xí)率開始訓(xùn)練。為了公平比較復(fù)雜度,本文只在訓(xùn)練網(wǎng)絡(luò)時(shí)使用GPU,在VTM推理時(shí)使用CPU。所使用CPU為Intel Core i9-12900K,GPU為NVIDIA GeForce RTX 3090。

    2.4 H.266/VVC集成

    將所提出的方法作為一種新模式加入到VTM18.0[31]中,與傳統(tǒng)色度預(yù)測(cè)模式(平面、直流、角度預(yù)測(cè)、CCLM)進(jìn)行率失真競(jìng)爭(zhēng)。集成后,共有9種候選預(yù)測(cè)模式。在編碼端,所有候選預(yù)測(cè)模式通過(guò)計(jì)算率失真性能代價(jià)進(jìn)行模式選擇,選出損失最小的模式。這不僅需要修改預(yù)測(cè)過(guò)程,而且需要額外的二進(jìn)制塊級(jí)語(yǔ)法標(biāo)志來(lái)指示給定塊是否使用所提出的方法。如圖4所示,如果最佳模式是新模式,則設(shè)置為1。否則,指定為0。這樣,新模式只需要一個(gè)標(biāo)志,而其他模式有一個(gè)以上的標(biāo)志。與傳統(tǒng)模式不同,所提出的預(yù)測(cè)模式在編碼和解碼過(guò)程中只需一次執(zhí)行就可以獲得兩個(gè)色度分量(Cb和Cr)的預(yù)測(cè)值,這大大降低了編碼和解碼的復(fù)雜度。

    3 實(shí)驗(yàn)與分析

    3.1 編碼性能評(píng)估

    編碼性能測(cè)試采用全幀內(nèi)配置配置,量化參數(shù)(quantization parameter,QP)設(shè)置為通用測(cè)試條件(common test conditions,CTC)[32]所建議的22、27、32、37。采用BD-rate(Bjntegaard delta bit rate, 用符號(hào)ΔR表示)來(lái)評(píng)估相對(duì)于VTM18.0的編碼性能。測(cè)試序列包括CTC推薦的22個(gè)不同分辨率的視頻序列,分為5個(gè)類別,分別為class A(6個(gè)視頻序列)、class B(5個(gè)視頻序列)、class C(4個(gè)視頻序列)、class D(4個(gè)視頻序列)和class E(3個(gè)視頻序列)。表2總結(jié)了本文網(wǎng)絡(luò)和其他網(wǎng)絡(luò)在VTM18.0的BD-rate對(duì)比結(jié)果。實(shí)驗(yàn)結(jié)果表明:在相同重建視頻質(zhì)量下,本文網(wǎng)絡(luò)在Y、Cb、Cr上分別平均節(jié)省了0.30%、2.46%和2.25%的編碼碼率。這表明本文網(wǎng)絡(luò)可提高壓縮效率,尤其是針對(duì)色度分量,并且與文獻(xiàn)[11]和文獻(xiàn)[14]相比,編碼性能更高。

    3.2 復(fù)雜度分析

    表3展示了網(wǎng)絡(luò)參數(shù)數(shù)量以分析網(wǎng)絡(luò)復(fù)雜性。

    從表3可以看出:對(duì)于面積大于等于256的塊,本文網(wǎng)絡(luò)所使用的訓(xùn)練參數(shù)數(shù)量(4962)小于文獻(xiàn)[11]和文獻(xiàn)[14]中的網(wǎng)絡(luò)參數(shù)數(shù)量(7074和5538); 對(duì)于面積小于256的塊,本文網(wǎng)絡(luò)所使用的訓(xùn)練參數(shù)數(shù)量(2498和1266)遠(yuǎn)小于文獻(xiàn)[11,14]中的網(wǎng)絡(luò)參數(shù)數(shù)量(7074和5538)。這意味著本文提出的神經(jīng)網(wǎng)絡(luò)比文獻(xiàn)[11,14]中的網(wǎng)絡(luò)更輕量,且能根據(jù)塊大小靈活調(diào)整參數(shù)。

    表4總結(jié)了本文網(wǎng)絡(luò)和其他網(wǎng)絡(luò)在VTM18.0的編解碼復(fù)雜度對(duì)比結(jié)果。其中,文獻(xiàn)[14]為目前最先進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)跨分量預(yù)測(cè)方法之一。實(shí)驗(yàn)結(jié)果表明:相比于VTM18.0,本文網(wǎng)絡(luò)編碼和解碼時(shí)間分別增加了20%和297%。與文獻(xiàn)[11,14]中的網(wǎng)絡(luò)相比,本文網(wǎng)絡(luò)在提高編碼性能的同時(shí),實(shí)現(xiàn)了更少的編碼時(shí)間和解碼時(shí)間。相比文獻(xiàn)[14]中的網(wǎng)絡(luò),本文網(wǎng)絡(luò)編碼和解碼時(shí)間分別降低了10%和19%。

    4 結(jié) 論

    本文提出了一種基于注意力的輕量級(jí)神經(jīng)網(wǎng)絡(luò)用于跨分量預(yù)測(cè),該網(wǎng)絡(luò)能夠有效地對(duì)參考樣本和預(yù)測(cè)樣本之間的空間關(guān)系進(jìn)行建模。為降低復(fù)雜度,設(shè)計(jì)網(wǎng)絡(luò)在二維完成參考樣本的特征融合和Cb與Cr兩個(gè)色度分量的預(yù)測(cè)。并且,改變了現(xiàn)有跨分量預(yù)測(cè)網(wǎng)絡(luò)的訓(xùn)練策略,采用寬度可變卷積根據(jù)塊大小調(diào)整網(wǎng)絡(luò)參數(shù)。實(shí)驗(yàn)結(jié)果表明,新的預(yù)測(cè)模式有效,相對(duì)于最先進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)跨分量預(yù)測(cè)方法,在節(jié)省了比特率的同時(shí),大大減少了編解碼復(fù)雜度。

    在未來(lái)的工作中,為進(jìn)一步提高編碼性能,可考慮使用更多的參考信息,并根據(jù)內(nèi)容設(shè)計(jì)不同的網(wǎng)絡(luò)進(jìn)行預(yù)測(cè)。

    參考文獻(xiàn):

    [1]SULLIVAN G J, OHM J R, HAN W J, et al. Overview of the high efficiency video coding (HEVC) standard [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 22(12): 1649-1668.

    [2]BROSS B, CHEN Jianle, OHM J R, et al. Developments in international video coding standardization after AVC, with an overview of versatile video coding (VVC) [J]. Proceedings of the IEEE, 2021, 109(9): 1463-1493.

    [3]萬(wàn)帥, 霍俊彥, 馬彥卓, 等. 新一代通用視頻編碼標(biāo)準(zhǔn)H.266/VVC: 現(xiàn)狀與發(fā)展 [J]. 西安交通大學(xué)學(xué)報(bào), 2024, 58(4): 1-17.

    WAN Shuai, HUO Junyan, MA Yanzhuo, et al. The new-generation versatile video coding standard H.266/VVC: state-of-the-art and development [J]. Journal of Xi’an Jiaotong University, 2024, 58(4): 1-17.

    [4]萬(wàn)帥, 霍俊彥, 馬彥卓, 等. 新一代通用視頻編碼H.266/VVC: 原理、標(biāo)準(zhǔn)與實(shí)現(xiàn) [M]. 北京: 電子工業(yè)出版社, 2022.

    [5]LEE S H, CHO N I. Intra prediction method based on the linear relationship between the channels for YUV 4:2:0 intra coding [C]//2009 16th IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2009: 1037-1040.

    [6]LI Yue, LI Li, LI Zhu, et al. A hybrid neural network for chroma intra prediction [C]//2018 25th IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2018: 1797-1801.

    [7]LI Yue, YI Yan, LIU Dong, et al. Neural-network-based cross-channel intra prediction [J]. ACM Transactions on Multimedia Computing Communications and Applications, 2021, 17(3): 77.

    [8]MEYER M, WIESNER J, SCHNEIDER J, et al. Convolutional neural networks for video intra prediction using cross-component adaptation [C]//2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). Piscataway, NJ, USA: IEEE, 2019: 1607-1611.

    [9]ZHU Linwei, ZHANG Yun, WANG Shiqi, et al. Deep learning-based chroma prediction for intra versatile video coding [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 31(8): 3168-3181.

    [10]BLANCH M G, BLASI S, SMEATON A, et al. Chroma intra prediction with attention-based CNN architectures [C]//2020 IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2020: 783-787.

    [11]BLANCH M G, BLASI S, SMEATON A F, et al. Attention-based neural networks for chroma intra prediction in video coding [J]. IEEE Journal of Selected Topics in Signal Processing, 2021, 15(2): 366-377.

    [12]]ZOU Chengyi, WAN Shuai, JI Tiannan, et al. Spatial information refinement for chroma intra prediction in video coding [C]//2021 Asia-Pacific Signal and Information Processing Association Annual Summit and Conference (APSIPA ASC). Piscataway, NJ, USA: IEEE, 2021: 1422-1427.

    [13]ZOU Chengyi, WAN Shuai, MRAK M, et al. Towards lightweight neural network-based chroma intra prediction for video coding [C]//2022 IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2022: 1006-1010.

    [14]ZOU Chengyi, WAN Shuai, JI Tiannan, et al. Chroma intra prediction with lightweight attention-based neural networks [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2024, 34(1): 549-560.

    [15]KHAIRAT A, NGUYEN T, SIEKMANN M, et al. Adaptive cross-component prediction for 4∶4∶4 high efficiency video coding [C]//2014 IEEE International Conference on Image Processing (ICIP). Piscataway, NJ, USA: IEEE, 2014: 3734-3738.

    [16]ZHANG Xingyu, GISQUET C, FRANOIS E, et al. Chroma intra prediction based on inter-channel correlation for HEVC [J]. IEEE Transactions on Image Processing, 2014, 23(1): 274-286.

    [17]ZHANG Tao, FAN Xiaopeng, ZHAO Debin, et al. Improving chroma intra prediction for HEVC [C]//2016 IEEE International Conference on Multimedia amp; Expo Workshops (ICMEW). Piscataway, NJ, USA: IEEE, 2016: 1-6.

    [18]LEE S H, MOON J W, BYUN J W, et al. A new intra prediction method using channel correlations for the H.264/AVC intra coding [C]//2009 Picture Coding Symposium. Piscataway, NJ, USA: IEEE, 2009: 1-4.

    [19]YEO C, TAN Y, LI Zhengguo, et al. Chroma intra prediction using template matching with reconstructed luma components [C]//2011 18th IEEE International Conference on Image Processing. Piscataway, NJ, USA: IEEE, 2011: 1637-1640.

    [20]KIM W S, PU Wei, KHAIRAT A, et al. Cross-component prediction in HEVC [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 30(6): 1699-1708.

    [21]ZHANG Kai, CHEN Jianle, ZHANG Li, et al. Multi-model based cross-component linear model chroma intra-prediction for video coding [C]//2017 IEEE Visual Communications and Image Processing (VCIP). Piscataway, NJ, USA: IEEE, 2017: 1-4.

    [22]ZHANG Kai, CHEN Jianle, ZHANG Li, et al. Enhanced cross-component linear model for chroma intra-prediction in video coding [J]. IEEE Transactions on Image Processing, 2018, 27(8): 3983-3997.

    [23]KUO Chewei, LI Xinwei, XIU Xiaoyu, et al. Gradient linear model for chroma intra prediction [C]//2023 Data Compression Conference (DCC). Piscataway, NJ, USA: IEEE, 2023: 13-21.

    [24]ASTOLA P. AHG12: convolutional cross-component model(CCCM) for intra prediction: JVET-Z0064 [EB/OL]. (2022-04-13) [2024-05-01]. https://jvet-experts.org/.

    [25]BROSS B, WANG Yekui, YE Yan, et al. Overview of the versatile video coding (VVC) standard and its applications [J]. IEEE Transactions on Circuits and Systems for Video Technology, 2021, 31(10): 3736-3764.

    [26]YU Jiahui, YANG Linjie, XU Ning, et al. Slimmable neural networks [C]//7th International Conference on Learning Representations. New York, USA: ICLR, 2019:1-12.

    [27]YANG Fei, HERRANZ L, CHENG Yongmei, et al. Slimmable compressive autoencoders for practical neural image compression [C]//2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, NJ, USA: IEEE, 2021: 4996-5005.

    [28]LIU Zhaocheng, HERRANZ L, YANG Fei, et al. Slimmable video codec [C]//2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Piscataway, NJ, USA: IEEE, 2022: 1742-1746.

    [29]MA Di, ZHANG Fan, BULL D R. BVI-DVC: a training database for deep video compression [J]. IEEE Transactions on Multimedia, 2022, 24: 3847-3858.

    [30]TIMOFTE R, AGUSTSSON E, GOOL L V, et al. NTIRE 2017 challenge on single image super-resolution: methods and results [C]//2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). Piscataway, NJ, USA: IEEE, 2017: 1110-1121.

    [31]BROWNE A, YE Y, KIM S. Algorithm description for versatile video coding and test model 18(vtm 18): JVET-AB2002 [EB/OL]. (2022-10-28) [2024-05-01]. https://jvet-experts.org/.

    [32]BOYCE J, SUEHRING K, LI L, et al. JVET common test conditions and software reference configurations: JVET-J1010 [EB/OL]. (2018-04-20) [2024-05-01]. https://jvet-experts.org/.

    (編輯 陶晴 武紅江)

    猜你喜歡
    注意力機(jī)制
    基于注意力機(jī)制的行人軌跡預(yù)測(cè)生成模型
    基于注意力機(jī)制和BGRU網(wǎng)絡(luò)的文本情感分析方法研究
    多特征融合的中文實(shí)體關(guān)系抽取研究
    基于序列到序列模型的文本到信息框生成的研究
    基于深度學(xué)習(xí)的手分割算法研究
    從餐館評(píng)論中提取方面術(shù)語(yǔ)
    面向短文本的網(wǎng)絡(luò)輿情話題
    基于自注意力與動(dòng)態(tài)路由的文本建模方法
    基于深度學(xué)習(xí)的問(wèn)題回答技術(shù)研究
    基于LSTM?Attention神經(jīng)網(wǎng)絡(luò)的文本特征提取方法
    国产一区二区在线观看日韩| 天天一区二区日本电影三级| 国产欧美日韩一区二区三区在线 | 精品一区二区三区视频在线| 91在线精品国自产拍蜜月| 不卡视频在线观看欧美| 成人亚洲精品av一区二区| 亚洲va在线va天堂va国产| 午夜福利视频精品| 男插女下体视频免费在线播放| 久久6这里有精品| 在线免费十八禁| 麻豆成人午夜福利视频| 最近的中文字幕免费完整| 人妻系列 视频| 亚洲精品成人av观看孕妇| 亚洲国产色片| 男人狂女人下面高潮的视频| 嫩草影院入口| 99九九线精品视频在线观看视频| 久久99热这里只频精品6学生| 少妇人妻一区二区三区视频| 中国美白少妇内射xxxbb| 欧美潮喷喷水| 女的被弄到高潮叫床怎么办| 亚洲久久久久久中文字幕| av专区在线播放| 在线精品无人区一区二区三 | 麻豆成人午夜福利视频| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 两个人的视频大全免费| 国产精品一区二区三区四区免费观看| 国产精品99久久99久久久不卡 | 色哟哟·www| 在线天堂最新版资源| 高清毛片免费看| 欧美少妇被猛烈插入视频| 我的老师免费观看完整版| 少妇的逼水好多| 乱系列少妇在线播放| 欧美成人一区二区免费高清观看| 亚洲真实伦在线观看| 日韩不卡一区二区三区视频在线| 日韩不卡一区二区三区视频在线| 高清日韩中文字幕在线| 亚州av有码| 久久久精品94久久精品| 亚洲精品久久午夜乱码| 国产av国产精品国产| 日本欧美国产在线视频| 99热这里只有是精品50| 精品国产露脸久久av麻豆| 草草在线视频免费看| 午夜免费鲁丝| 中文字幕制服av| 熟女av电影| 久久热精品热| 18禁裸乳无遮挡动漫免费视频 | 国产成人午夜福利电影在线观看| 免费人成在线观看视频色| 国产一级毛片在线| 日本黄大片高清| 色婷婷久久久亚洲欧美| 女人十人毛片免费观看3o分钟| 性插视频无遮挡在线免费观看| 丰满少妇做爰视频| 国产在视频线精品| 日韩 亚洲 欧美在线| 国产精品蜜桃在线观看| 亚洲久久久久久中文字幕| 日韩欧美一区视频在线观看 | 国产精品av视频在线免费观看| 亚洲av.av天堂| 精品人妻视频免费看| 国产永久视频网站| 亚洲经典国产精华液单| 男的添女的下面高潮视频| 在线观看一区二区三区| 亚洲av男天堂| 久久久精品欧美日韩精品| 久久久久九九精品影院| 国产一级毛片在线| 丝瓜视频免费看黄片| 赤兔流量卡办理| 欧美区成人在线视频| av在线观看视频网站免费| 国产成人福利小说| 日本一二三区视频观看| 熟妇人妻不卡中文字幕| 国产探花在线观看一区二区| 内地一区二区视频在线| av专区在线播放| www.av在线官网国产| 身体一侧抽搐| 久久精品国产自在天天线| 一级二级三级毛片免费看| xxx大片免费视频| 精品人妻熟女av久视频| 亚洲美女搞黄在线观看| 成人美女网站在线观看视频| 精品久久久噜噜| 亚洲精品国产av蜜桃| 成人一区二区视频在线观看| 欧美激情久久久久久爽电影| av天堂中文字幕网| 欧美最新免费一区二区三区| 午夜福利在线在线| 亚洲综合色惰| 爱豆传媒免费全集在线观看| 亚洲怡红院男人天堂| 久久人人爽av亚洲精品天堂 | 26uuu在线亚洲综合色| 最近最新中文字幕免费大全7| 夫妻午夜视频| 好男人视频免费观看在线| 国产 精品1| 在线免费十八禁| 欧美xxxx性猛交bbbb| 尤物成人国产欧美一区二区三区| 涩涩av久久男人的天堂| 久久精品国产a三级三级三级| 国产高清三级在线| 可以在线观看毛片的网站| 黄色一级大片看看| 亚洲欧美精品自产自拍| 在线观看一区二区三区| 激情 狠狠 欧美| 性色avwww在线观看| 午夜老司机福利剧场| 欧美日本视频| 寂寞人妻少妇视频99o| 日韩一区二区视频免费看| a级一级毛片免费在线观看| 欧美精品一区二区大全| 高清日韩中文字幕在线| 嫩草影院新地址| 午夜激情福利司机影院| 80岁老熟妇乱子伦牲交| 亚洲欧美精品自产自拍| 亚洲av.av天堂| 成人高潮视频无遮挡免费网站| 亚洲精品乱码久久久久久按摩| 99热网站在线观看| 欧美少妇被猛烈插入视频| 成人无遮挡网站| 日韩一区二区三区影片| 乱码一卡2卡4卡精品| 尾随美女入室| 成人亚洲精品一区在线观看 | 欧美日韩精品成人综合77777| 亚洲婷婷狠狠爱综合网| 国产午夜精品一二区理论片| 成人国产麻豆网| 色婷婷久久久亚洲欧美| 国产精品99久久久久久久久| 亚洲精品乱久久久久久| 国产v大片淫在线免费观看| 久久久久久久久久人人人人人人| 成人漫画全彩无遮挡| 婷婷色av中文字幕| 精品国产一区二区三区久久久樱花 | 精品国产一区二区三区久久久樱花 | 国产精品秋霞免费鲁丝片| 春色校园在线视频观看| 伦精品一区二区三区| 一区二区av电影网| 青春草国产在线视频| 五月开心婷婷网| 国产成年人精品一区二区| 51国产日韩欧美| 日本熟妇午夜| 国产黄a三级三级三级人| a级毛色黄片| 成人免费观看视频高清| 中文精品一卡2卡3卡4更新| 久久精品国产亚洲网站| 美女脱内裤让男人舔精品视频| 有码 亚洲区| 蜜桃亚洲精品一区二区三区| 午夜福利网站1000一区二区三区| 大片免费播放器 马上看| 欧美一级a爱片免费观看看| 亚洲av中文av极速乱| 亚洲aⅴ乱码一区二区在线播放| 国产免费又黄又爽又色| 日韩不卡一区二区三区视频在线| 久久精品国产亚洲网站| 国内精品美女久久久久久| 搡老乐熟女国产| 欧美高清性xxxxhd video| 日本-黄色视频高清免费观看| 日韩大片免费观看网站| 性色avwww在线观看| 免费黄网站久久成人精品| 不卡视频在线观看欧美| 看非洲黑人一级黄片| 久久人人爽av亚洲精品天堂 | 熟妇人妻不卡中文字幕| av福利片在线观看| 少妇丰满av| 欧美性感艳星| 国产精品久久久久久精品电影小说 | 欧美xxxx性猛交bbbb| 又黄又爽又刺激的免费视频.| 成人高潮视频无遮挡免费网站| av在线观看视频网站免费| 一级a做视频免费观看| 一级毛片我不卡| 女的被弄到高潮叫床怎么办| 亚洲av二区三区四区| 91aial.com中文字幕在线观看| 国产黄a三级三级三级人| 高清欧美精品videossex| 久久久久久久久久久丰满| 一个人看视频在线观看www免费| 99久久精品热视频| 久久精品夜色国产| 亚洲成色77777| 久久久精品94久久精品| 丝袜喷水一区| 国产精品成人在线| 乱系列少妇在线播放| 成人亚洲精品一区在线观看 | 国产免费视频播放在线视频| 亚洲无线观看免费| 在线观看三级黄色| 蜜桃久久精品国产亚洲av| 国产高潮美女av| 国产免费视频播放在线视频| 人妻 亚洲 视频| 日韩伦理黄色片| 最近2019中文字幕mv第一页| 在线a可以看的网站| 久久精品综合一区二区三区| 国产一区有黄有色的免费视频| 欧美亚洲 丝袜 人妻 在线| 一级毛片我不卡| 亚洲性久久影院| 国产精品国产三级国产av玫瑰| 又爽又黄无遮挡网站| 全区人妻精品视频| 女人十人毛片免费观看3o分钟| 国产欧美日韩精品一区二区| av免费在线看不卡| 欧美成人精品欧美一级黄| 亚洲精品成人久久久久久| 精品久久久精品久久久| 小蜜桃在线观看免费完整版高清| 日韩制服骚丝袜av| 女的被弄到高潮叫床怎么办| 国产黄频视频在线观看| 51国产日韩欧美| 人体艺术视频欧美日本| 亚洲欧美日韩卡通动漫| 欧美老熟妇乱子伦牲交| 午夜激情久久久久久久| 亚洲精品乱码久久久v下载方式| 国产乱人视频| 国产片特级美女逼逼视频| 看十八女毛片水多多多| 国产黄片视频在线免费观看| 久久精品熟女亚洲av麻豆精品| 久久精品国产自在天天线| 狂野欧美激情性bbbbbb| 国产免费福利视频在线观看| 91久久精品国产一区二区成人| 另类亚洲欧美激情| xxx大片免费视频| 亚洲国产成人一精品久久久| av在线观看视频网站免费| 亚洲av免费高清在线观看| 国产成人精品福利久久| 久久久精品欧美日韩精品| 精品久久久噜噜| 草草在线视频免费看| 亚洲欧美日韩另类电影网站 | 婷婷色麻豆天堂久久| 最后的刺客免费高清国语| 十八禁网站网址无遮挡 | 成人国产麻豆网| 麻豆精品久久久久久蜜桃| 三级国产精品欧美在线观看| 一级毛片我不卡| 日韩国内少妇激情av| 精品久久国产蜜桃| 久久久a久久爽久久v久久| 少妇被粗大猛烈的视频| 亚洲成人一二三区av| 天天躁夜夜躁狠狠久久av| 春色校园在线视频观看| 最近中文字幕2019免费版| 亚洲色图综合在线观看| 十八禁网站网址无遮挡 | 国产精品人妻久久久影院| 久久久久久久大尺度免费视频| 精品人妻偷拍中文字幕| 亚洲精品国产av成人精品| 精品酒店卫生间| 欧美性感艳星| 日韩成人伦理影院| 欧美少妇被猛烈插入视频| 99热这里只有是精品50| 免费不卡的大黄色大毛片视频在线观看| 婷婷色av中文字幕| 亚洲自拍偷在线| 国产精品一区www在线观看| 免费观看av网站的网址| 国产成人免费无遮挡视频| 高清视频免费观看一区二区| 偷拍熟女少妇极品色| 精品久久久久久久人妻蜜臀av| 99久久中文字幕三级久久日本| 99热这里只有精品一区| 最新中文字幕久久久久| 欧美极品一区二区三区四区| 欧美日韩视频精品一区| 久久久久性生活片| 蜜臀久久99精品久久宅男| 国产精品熟女久久久久浪| 国产欧美亚洲国产| 欧美zozozo另类| 特级一级黄色大片| 日韩成人av中文字幕在线观看| 日韩在线高清观看一区二区三区| 久久久精品欧美日韩精品| av专区在线播放| 自拍欧美九色日韩亚洲蝌蚪91 | 国产精品久久久久久精品古装| 国产高潮美女av| 亚洲最大成人手机在线| 99视频精品全部免费 在线| 欧美激情在线99| 一个人看视频在线观看www免费| 在线观看国产h片| 成人一区二区视频在线观看| 国产男女内射视频| 日韩欧美一区视频在线观看 | 免费av毛片视频| 欧美 日韩 精品 国产| 亚洲精品久久久久久婷婷小说| 水蜜桃什么品种好| 永久免费av网站大全| 日韩免费高清中文字幕av| 成年版毛片免费区| 性插视频无遮挡在线免费观看| 久久久久国产网址| 欧美性感艳星| 久久亚洲国产成人精品v| 精品一区在线观看国产| 欧美变态另类bdsm刘玥| 欧美另类一区| 91精品一卡2卡3卡4卡| 精品一区在线观看国产| 日韩成人伦理影院| 欧美日韩视频高清一区二区三区二| 少妇的逼水好多| 国产一区二区亚洲精品在线观看| 国产伦精品一区二区三区四那| 大码成人一级视频| 成年女人在线观看亚洲视频 | 亚洲无线观看免费| 日韩成人av中文字幕在线观看| 国产毛片在线视频| 男女国产视频网站| 国产精品国产av在线观看| 日韩av免费高清视频| 亚洲av成人精品一区久久| 精品一区二区免费观看| 免费黄频网站在线观看国产| 亚洲国产欧美在线一区| 大又大粗又爽又黄少妇毛片口| xxx大片免费视频| 国产日韩欧美在线精品| 国产成人福利小说| 免费黄频网站在线观看国产| 国产午夜精品久久久久久一区二区三区| 国产真实伦视频高清在线观看| 久久久亚洲精品成人影院| 欧美国产精品一级二级三级 | 色综合色国产| 丰满人妻一区二区三区视频av| 久久人人爽人人片av| 国产精品久久久久久久电影| 国产视频首页在线观看| 99久久人妻综合| 国产极品天堂在线| 亚洲国产最新在线播放| 中文资源天堂在线| 亚洲自偷自拍三级| 熟妇人妻不卡中文字幕| 婷婷色麻豆天堂久久| 男插女下体视频免费在线播放| 不卡视频在线观看欧美| 国产黄a三级三级三级人| av线在线观看网站| 亚洲精品,欧美精品| 国产精品嫩草影院av在线观看| 午夜免费观看性视频| 精品国产乱码久久久久久小说| 一级黄片播放器| 色5月婷婷丁香| 欧美日韩视频精品一区| 黄色视频在线播放观看不卡| 成人欧美大片| 国内精品美女久久久久久| 国产男女内射视频| 天美传媒精品一区二区| 国产女主播在线喷水免费视频网站| 国产一区亚洲一区在线观看| 91久久精品国产一区二区三区| 日本一二三区视频观看| 一级爰片在线观看| 日本黄大片高清| 国产男女内射视频| 免费黄色在线免费观看| kizo精华| 国产一区二区三区av在线| 久久影院123| 在线免费十八禁| 中文字幕制服av| 午夜免费观看性视频| 久久久久国产网址| 亚洲精品自拍成人| 久久精品综合一区二区三区| 国产中年淑女户外野战色| 国产欧美日韩精品一区二区| 男女边摸边吃奶| 亚洲精品国产成人久久av| 美女高潮的动态| 精品少妇黑人巨大在线播放| 美女主播在线视频| 97热精品久久久久久| 国产色婷婷99| 日韩av不卡免费在线播放| 日韩亚洲欧美综合| 精品酒店卫生间| 国产黄片视频在线免费观看| 另类亚洲欧美激情| 大片电影免费在线观看免费| 成人亚洲精品av一区二区| 国产精品福利在线免费观看| 狂野欧美激情性bbbbbb| 99视频精品全部免费 在线| 高清欧美精品videossex| av网站免费在线观看视频| 亚洲精品第二区| 精品人妻偷拍中文字幕| 国产精品久久久久久精品电影小说 | 亚洲欧美一区二区三区国产| 亚洲国产日韩一区二区| 国产国拍精品亚洲av在线观看| 久热久热在线精品观看| 久久久久精品久久久久真实原创| 久久久久久久亚洲中文字幕| 夫妻午夜视频| 看免费成人av毛片| 精品久久久精品久久久| 男女边摸边吃奶| 蜜桃亚洲精品一区二区三区| 亚洲一级一片aⅴ在线观看| 日韩视频在线欧美| 我要看日韩黄色一级片| 国产黄片美女视频| 麻豆成人午夜福利视频| 少妇人妻一区二区三区视频| 亚洲精品一区蜜桃| 夫妻午夜视频| 黄色配什么色好看| 久久久久九九精品影院| 久久久午夜欧美精品| 欧美3d第一页| 亚洲精品乱码久久久久久按摩| 熟女人妻精品中文字幕| 国产男女超爽视频在线观看| 高清av免费在线| 丝瓜视频免费看黄片| 亚洲精品日韩av片在线观看| 麻豆乱淫一区二区| 欧美最新免费一区二区三区| 91久久精品国产一区二区成人| 不卡视频在线观看欧美| 我的女老师完整版在线观看| 国产精品一二三区在线看| 两个人的视频大全免费| 国产亚洲精品久久久com| 成年版毛片免费区| 免费观看无遮挡的男女| 国产欧美亚洲国产| 久久精品久久精品一区二区三区| 国产伦在线观看视频一区| 欧美少妇被猛烈插入视频| 一级毛片aaaaaa免费看小| 爱豆传媒免费全集在线观看| 观看免费一级毛片| 一本—道久久a久久精品蜜桃钙片 精品乱码久久久久久99久播 | 97超碰精品成人国产| 国产一区二区亚洲精品在线观看| 欧美潮喷喷水| 麻豆国产97在线/欧美| 一级毛片aaaaaa免费看小| 久久久国产一区二区| 联通29元200g的流量卡| 久久久国产一区二区| a级一级毛片免费在线观看| 久久人人爽av亚洲精品天堂 | 日韩制服骚丝袜av| 波多野结衣巨乳人妻| 国产高清有码在线观看视频| 亚洲国产高清在线一区二区三| 一区二区三区免费毛片| 精品国产一区二区三区久久久樱花 | 少妇裸体淫交视频免费看高清| 久久久久久久久久成人| 欧美精品国产亚洲| 麻豆乱淫一区二区| 欧美日韩一区二区视频在线观看视频在线 | 亚洲精品视频女| 男人和女人高潮做爰伦理| 欧美+日韩+精品| 久久影院123| 尾随美女入室| 欧美一区二区亚洲| 小蜜桃在线观看免费完整版高清| 亚洲av福利一区| 联通29元200g的流量卡| 国产黄a三级三级三级人| 美女被艹到高潮喷水动态| av又黄又爽大尺度在线免费看| 免费少妇av软件| 在线观看三级黄色| 中文字幕久久专区| 亚洲国产欧美在线一区| 大又大粗又爽又黄少妇毛片口| 国产男女内射视频| 午夜视频国产福利| 嫩草影院精品99| 日韩成人伦理影院| 日本av手机在线免费观看| 九草在线视频观看| 性插视频无遮挡在线免费观看| .国产精品久久| 插阴视频在线观看视频| 国产免费福利视频在线观看| 亚洲精品日本国产第一区| 国产黄频视频在线观看| 国产精品麻豆人妻色哟哟久久| 青青草视频在线视频观看| 日本-黄色视频高清免费观看| 超碰97精品在线观看| 国产精品一及| 伦精品一区二区三区| 亚洲最大成人手机在线| 亚洲成人中文字幕在线播放| 欧美成人午夜免费资源| 国产精品一及| 美女被艹到高潮喷水动态| 久久精品国产亚洲av涩爱| 久久久成人免费电影| 中文字幕人妻熟人妻熟丝袜美| 少妇丰满av| 99热这里只有是精品50| 国产精品国产三级国产av玫瑰| 日韩视频在线欧美| 激情五月婷婷亚洲| 人人妻人人爽人人添夜夜欢视频 | 国内精品宾馆在线| 边亲边吃奶的免费视频| 国产精品一区www在线观看| 亚洲精品自拍成人| 热re99久久精品国产66热6| 少妇被粗大猛烈的视频| 精品亚洲乱码少妇综合久久| 爱豆传媒免费全集在线观看| 可以在线观看毛片的网站| 听说在线观看完整版免费高清| 91狼人影院| 综合色丁香网| 成人亚洲精品一区在线观看 | 在线观看国产h片| 亚洲国产日韩一区二区| 欧美日韩国产mv在线观看视频 | 日韩人妻高清精品专区| 亚洲精品第二区| 日本午夜av视频| 尤物成人国产欧美一区二区三区| 美女xxoo啪啪120秒动态图| 国产精品一区二区性色av| 成人鲁丝片一二三区免费| 日韩欧美精品v在线| 亚洲av在线观看美女高潮| 亚洲av免费在线观看| 国产亚洲av片在线观看秒播厂| 中国三级夫妇交换| 国产亚洲av片在线观看秒播厂| 国产视频首页在线观看| 人妻制服诱惑在线中文字幕| 亚洲精品影视一区二区三区av| 伦理电影大哥的女人| 好男人视频免费观看在线| 纵有疾风起免费观看全集完整版| 亚洲国产色片| 精品国产一区二区三区久久久樱花 | 永久网站在线| 亚洲精品成人av观看孕妇| 美女主播在线视频| 国产 一区 欧美 日韩| 一级片'在线观看视频| 午夜视频国产福利| 久久久久久久精品精品| 亚洲av二区三区四区| 在现免费观看毛片| 婷婷色麻豆天堂久久| 亚洲国产成人一精品久久久| 我的女老师完整版在线观看| 人妻 亚洲 视频|