• 
    

    
    

      99热精品在线国产_美女午夜性视频免费_国产精品国产高清国产av_av欧美777_自拍偷自拍亚洲精品老妇_亚洲熟女精品中文字幕_www日本黄色视频网_国产精品野战在线观看 ?

      基于神經(jīng)網(wǎng)絡(luò)的HEVC幀間預(yù)測(cè)

      2020-07-04 02:27:37王洋高文
      關(guān)鍵詞:卷積神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)

      王洋 高文

      摘要:高效視頻編碼標(biāo)準(zhǔn)HEVC是最新的數(shù)字視頻編碼標(biāo)準(zhǔn),其中,幀間預(yù)測(cè)在去除時(shí)域相關(guān)性方面扮演重要角色。在傳統(tǒng)的幀間預(yù)測(cè)方法中,因?yàn)閮H僅利用了時(shí)域信息,所以幀間預(yù)測(cè)的準(zhǔn)確性是有限的。在本文中,提出了利用時(shí)域-空域信息的基于神經(jīng)網(wǎng)絡(luò)的HEVC幀間預(yù)測(cè)算法。具體來(lái)講,在本文提出的算法中,首先設(shè)計(jì)了一個(gè)包含全連接網(wǎng)絡(luò)(fully connected network,F(xiàn)CN)和卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。其次,時(shí)域相鄰像素和空域相鄰像素輸入到FCN網(wǎng)絡(luò),F(xiàn)CN網(wǎng)絡(luò)輸出的結(jié)果和當(dāng)前預(yù)測(cè)塊輸入到CNN網(wǎng)絡(luò)中,CNN網(wǎng)絡(luò)生成最終的當(dāng)前塊的更準(zhǔn)確的預(yù)測(cè)塊。實(shí)驗(yàn)結(jié)果表明,與HEVC參考軟件HM 16.9在通用測(cè)試條件Low Delay P(LDP)下編碼,本文提出的算法能夠帶來(lái)平均1.7%(高達(dá)8.6%)的BD-rate節(jié)省。

      關(guān)鍵詞: HEVC; 幀間預(yù)測(cè); 神經(jīng)網(wǎng)絡(luò); 卷積神經(jīng)網(wǎng)絡(luò); 全連接網(wǎng)絡(luò)

      【Abstract】 HEVC is the latest video coding standard, in which inter prediction plays an important role to reduce the temporal redundancy. The accuracy of inter prediction is limited since only temporal information is used in conventional algorithms. This paper proposes a neural network based inter prediction algorithm for HEVC by using the spatial-temporal information. In the proposed algorithm, first a neural network architecture is designed consisting of a fully connected network (FCN) and a convolutional neural network (CNN). Then the spatial neighboring pixels and the temporal neighboring pixels are inputted into FCN. The output of FCN and the prediction of current block are inputted into CNN, which will generate the more accurate prediction of current block. Experimental results demonstrate that the proposed method can achieve average 1.7% (up to 8.6%) BD-rate reduction in low delay P test condition compared to HM 16.9.

      【Key words】 ?HEVC; inter prediction; neural network; CNN; FCN

      0 引 言

      隨著通信技術(shù)、互聯(lián)網(wǎng)技術(shù)的發(fā)展和移動(dòng)終端、智能設(shè)備的普及,作為信息載體的視頻在人們生活的方方面面都扮演著不可或缺的角色。數(shù)字廣播電視、互聯(lián)網(wǎng)視頻、視頻會(huì)議、遠(yuǎn)程醫(yī)療、遠(yuǎn)程教育等傳統(tǒng)多媒體應(yīng)用一直影響和改變著人們的工作學(xué)習(xí)和生活?yuàn)蕵?lè)的方式。視頻數(shù)據(jù)呈爆炸式增長(zhǎng),給數(shù)據(jù)存儲(chǔ)和網(wǎng)絡(luò)傳輸帶來(lái)巨大挑戰(zhàn),如何穩(wěn)定高效地存儲(chǔ)和傳輸海量的視頻數(shù)據(jù)成為目前亟待解決的問(wèn)題。為了高效地壓縮高清和超高清數(shù)字視頻,國(guó)際標(biāo)準(zhǔn)組織制定了相應(yīng)的數(shù)字視頻編碼標(biāo)準(zhǔn)。國(guó)際的視頻編碼聯(lián)合協(xié)作組JCTVC制定的高效視頻編碼標(biāo)準(zhǔn)HEVC于2013年1月正式發(fā)布,相比于上一代數(shù)字視頻編碼標(biāo)準(zhǔn)H.264/AVC,在獲得相同主觀質(zhì)量的條件下,HEVC能夠節(jié)省大約50%的碼率,極大地提高了視頻編碼的壓縮性能。HEVC中的幀間預(yù)測(cè)方法中,能夠很好的處理視頻中的平移運(yùn)動(dòng)。然而,自然視頻中的運(yùn)動(dòng)類(lèi)型種類(lèi)多樣、復(fù)雜性高,簡(jiǎn)單的平移運(yùn)動(dòng)并不能涵蓋所有的情況。自然視頻中會(huì)包含許多復(fù)雜的運(yùn)動(dòng),如非線性的亮度變化、縮放和模糊等。

      1 提出的基于神經(jīng)網(wǎng)絡(luò)的HEVC幀間預(yù)測(cè)算法

      在本節(jié)中,將詳述本次研究所提出的基于神經(jīng)網(wǎng)絡(luò)的HEVC幀間預(yù)測(cè)算法。首先,簡(jiǎn)要討論了HEVC的幀間預(yù)測(cè)和本文所用的基礎(chǔ)網(wǎng)絡(luò)VRCNN;其次,介紹提出的算法的網(wǎng)絡(luò)結(jié)構(gòu);再次,給出了本文設(shè)計(jì)的網(wǎng)絡(luò)的訓(xùn)練策略;最后,將本文提出的算法集成到HEVC以提高其壓縮性能。

      1.1 HEVC幀間預(yù)測(cè)及VRCNN

      幀間預(yù)測(cè)在HEVC中發(fā)揮著重要作用,可以通過(guò)提高幀間預(yù)測(cè)的準(zhǔn)確性,從而提高HEVC的壓縮性能。編碼單元(Coding Unit,CU)是HEVC中編碼的基本單位,每個(gè)CU都被設(shè)定為一種預(yù)測(cè)模式:幀內(nèi)預(yù)測(cè)或幀間預(yù)測(cè)。每個(gè)CU都包含了一個(gè)或多個(gè)預(yù)測(cè)單元(Prediction Unit,PU)。 如圖1所示,對(duì)于幀間編碼的CU,一共有8種PU劃分模式。

      HEVC中使用幀間預(yù)測(cè)進(jìn)行編碼和解碼的簡(jiǎn)化框圖如圖2所示。在編碼端,幀間預(yù)測(cè)用于生成當(dāng)前塊的預(yù)測(cè),或者使用常規(guī)的幀間預(yù)測(cè)模式,或者使用Merge模式。常規(guī)的幀間預(yù)測(cè)模式中,運(yùn)動(dòng)估計(jì)用來(lái)獲取運(yùn)動(dòng)矢量(motion vector,MV),這個(gè)MV在運(yùn)動(dòng)補(bǔ)償中用來(lái)生成最終的預(yù)測(cè)值。之后,變換、量化、熵編碼用來(lái)生成最終的碼流。在解碼端,從熵解碼階段獲取MV和殘差,通過(guò)將殘差與預(yù)測(cè)值相加獲取重構(gòu)視頻。

      本文的網(wǎng)絡(luò)結(jié)構(gòu)中利用了文獻(xiàn)[1]提出的VRCNN網(wǎng)絡(luò),VRCNN用來(lái)去除HEVC幀內(nèi)編碼產(chǎn)生的噪聲。研究可知,VRCNN的結(jié)構(gòu)。見(jiàn)表1。VRCNN中有4個(gè)全卷積層,其中第二層和第三層采用了可變?yōu)V波尺寸,不同的濾波尺寸卷積層產(chǎn)生的特征圖聚合到一起,并輸入到下一層。第一層和最后一層不使用可變的濾波尺寸。VRCNN采用了最近發(fā)明的殘差學(xué)習(xí)技術(shù)[2],因此網(wǎng)絡(luò)的輸出加上網(wǎng)絡(luò)輸入為最終的結(jié)果。

      由圖5(a)可知,在HEVC編碼的過(guò)程中,NNIP用在幀間預(yù)測(cè)之后。研究發(fā)現(xiàn),與相鄰像素、時(shí)域相鄰像素和當(dāng)前塊的預(yù)測(cè)值輸入到NNIP網(wǎng)絡(luò),NNIP網(wǎng)絡(luò)的輸出是提升后的當(dāng)前塊的預(yù)測(cè)值。由圖5(b)可知,在HEVC的解碼過(guò)程中,NNIP也是應(yīng)用在幀間預(yù)測(cè)后用來(lái)生成當(dāng)前塊更加準(zhǔn)確的預(yù)測(cè)塊。

      本文提出的NNIP算法能夠提高HEVC幀間預(yù)測(cè)的準(zhǔn)確性。首先,空域相鄰像素和是與相鄰像素通過(guò)FCN學(xué)習(xí)得到相互之間的相關(guān)性;其次,這個(gè)結(jié)果和當(dāng)前塊的預(yù)測(cè)值相加,相加的結(jié)果用CNN進(jìn)一步提升性能。在本文中,只有HEVC的亮度分量用NNIP來(lái)提升性能,NNIP算法僅應(yīng)用在常規(guī)幀間預(yù)測(cè)、Merge模式和Skip模式的2N×2N的PU劃分的CU上??紤]到一些簡(jiǎn)單的紋理使用傳統(tǒng)的幀間預(yù)測(cè)方法能夠很好地獲取當(dāng)前塊的預(yù)測(cè)值,因此對(duì)于使用一個(gè)CU級(jí)別的標(biāo)志位來(lái)表示這個(gè)CU是否使用NNIP方法,是否使用NNIP方法通過(guò)率失真優(yōu)化(rate distortion optimization,RDO)來(lái)決定。

      2 實(shí)驗(yàn)結(jié)果及分析

      在本節(jié)中,研究進(jìn)行了大量的實(shí)驗(yàn)來(lái)驗(yàn)證提出的基于神經(jīng)網(wǎng)絡(luò)的HEVC幀間預(yù)測(cè)算法的有效性。對(duì)此可做研究分述如下。

      2.1 實(shí)驗(yàn)配置

      本文提出的NNIP算法集成到HEVC的參考軟件HM 16.9中,實(shí)驗(yàn)中遵循HEVC的通用測(cè)試條件[4]配置編解碼器,使用LDP配置來(lái)驗(yàn)證NNIP在HEVC上的性能。一共18個(gè)8位深的視頻測(cè)試序列用來(lái)驗(yàn)證結(jié)果,編碼其中的前64幀,用到的測(cè)試序列為:Class A (2 560×1 080,4 K×2 K)、Class B ,(1 920×1 080,1 080P)、Class C(832×480,WVGA)、Class D(416×240,QWVGA)、Class E(1 280×720,720P)。實(shí)驗(yàn)中使用的QP為22、27、32、37。使用的機(jī)器的配置是主頻為3.4 GHz的Intel i7-6700QP處理器和64 GB的內(nèi)存,操作系統(tǒng)為Microsoft Windows Server 2012 R2。HM 16.9和提出的NNIP算法都使用Microsoft Visual Studio 2013編譯,當(dāng)把NNIP集成到HEVC時(shí),NNIP網(wǎng)絡(luò)的前饋操作使用GPU版本的Caffe來(lái)實(shí)現(xiàn)。

      2.2 NNIP的壓縮性能

      使用雙三次插值的Bjontegaard失真率(BD-rate)[15]來(lái)評(píng)估NNIP的壓縮性能。對(duì)于BD-rate,負(fù)數(shù)表示相同質(zhì)量下比特率節(jié)省,正數(shù)表示相同質(zhì)量下比特率增加。和HM 16.9相比,NNIP的壓縮性能見(jiàn)表2。由表2可知,本文提出的算法在亮度分量上,能夠獲得平均1.7%(最大達(dá)8.6%)的性能提升,驗(yàn)證了本文算法的有效性。

      由表2可知,對(duì)于所有的測(cè)試序列,本文提出的NNIP算法都能夠帶來(lái)性能的提升。但是,對(duì)于不同的測(cè)試序列,壓縮性能的提升變化比較明顯,表明提出的NNIP的算法受視頻序列內(nèi)容的影響比較大。本文提出的NNIP算法對(duì)于運(yùn)動(dòng)劇烈或者紋理豐富的視頻序列能夠帶來(lái)比較好的壓縮性能,如BasketballDrive、BQTerrace、BQMall。此外,對(duì)于會(huì)議視頻,如Class E,NNIP的壓縮性能也是十分可觀的。盡管研究中使用了3個(gè)HEVC的視頻序列來(lái)訓(xùn)練網(wǎng)絡(luò),但是這三個(gè)序列的壓縮性能并沒(méi)有比其它序列的性能獲得顯著提升。在將來(lái)的工作中,研究會(huì)擴(kuò)展訓(xùn)練集并且去除HEVC的測(cè)試序列,用以有效驗(yàn)證提出的NNIP算法的有效性。

      為了進(jìn)一步驗(yàn)證提出的NNIP算法的壓縮性能,研究也比較NNIP和傳統(tǒng)幀間預(yù)測(cè)方法的主觀視覺(jué)效果。如圖6所示,無(wú)論對(duì)于低碼率視頻QP = 37、還是高碼率視頻QP = 27,本文提出的NNIP算法都能夠獲得更好的主觀視覺(jué)效果。

      由表3可知,使用NNIP算法時(shí),編碼時(shí)間平均增加了3 444%,解碼時(shí)間平均增加了2 022%。如此高的計(jì)算復(fù)雜度主要來(lái)源于2個(gè)方面,對(duì)此則可表述如下:

      (1)對(duì)于所有不同尺寸的CU的所有幀間預(yù)測(cè)模式都要進(jìn)行率失真代價(jià)決策計(jì)算,會(huì)導(dǎo)致計(jì)算復(fù)雜度數(shù)倍地增加。

      (2)相比HEVC本身算法來(lái)講,提出的網(wǎng)絡(luò)的前饋操作具有較高的計(jì)算復(fù)雜度。在未來(lái)的研究工作中,將會(huì)考慮開(kāi)展降低算法計(jì)算復(fù)雜度方面的研究。

      3 結(jié)束語(yǔ)

      在本文中,設(shè)計(jì)研發(fā)了一種基于神經(jīng)網(wǎng)絡(luò)的HEVC幀間預(yù)測(cè)算法。研究中,提出了一種融合全連接網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),其中空域相鄰像素、時(shí)域相鄰像素、當(dāng)前塊的預(yù)測(cè)值作為網(wǎng)絡(luò)的輸入。本文提出的網(wǎng)絡(luò)能夠提高HEVC中幀間預(yù)測(cè)的準(zhǔn)確性。實(shí)驗(yàn)表明,所提出的NNIP算法可以獲得平均1.7%(高達(dá)8.6%)的BD-rate節(jié)省。在未來(lái)的研究工作中,將探索NNIP算法在其他幀間模式的效果以及降低網(wǎng)絡(luò)的計(jì)算復(fù)雜度。

      參考文獻(xiàn)

      [1] DAI Y, LIU D, WU F. A convolutional neural network approach for post-processing in HEVC intra coding[M]// AMSALEG L, GUMUNDSSON G, GURRIN C,et al.MultiMedia Modeling. MMM 2017. Lecture Notes in Computer Science. Cham: Springer, 2017,10132:28.

      [2]HE K, ZHANG X, REN S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition( CVPR). Las Vegas, Nevada, USA:IEEE, 2016:710.

      [3] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Delving deep into rectifiers surpassing human-level performance on ImageNet classification[C]//2015 IEEE International Coference on Computer Vision(ICCV). Santiago, Chile: IEEE, 2015:1026.

      [4] BOSSEN F. HM10 Common test conditions and software reference configurations[C]// 12th Joint Collaborative Team on Video Coding Meeting.Geneva:[s.n.], 2013:JCTVC-L1100.

      [5]JIA Yangqing, SHELHMER E, CONAHUE J, et al. Caffe: Convolutional architecture for fast feature embedding[J]. ACM Multimedia, 2014,2:675.

      [6]KINGMA D P, BA J. Adam: A method for stochastic optimization[J]. arXiv preprint arXiv:1412.6980,2014.

      [7]BJNTEGAARD G. Improvements of the BD-PSNR Model, document VCEG-AI11, ITU-TVideo Coding Experts Group (VCEG)[Z].Berlin, Germany:Heinrich-Hertz-Institute, 2008.

      [8] ?SULLIVAN G J, OHM J R, HAN W J, et al. Overview of the high efficiency video coding (HEVC) standard[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2012, 22(12):1649.

      [9]WIEGAND T, SULLIVAN G J, BJNTEGAARD G, et al. Overview of the H.264/AVC video coding standard[J].IEEE Transactions on Circuits and Systems for Video , 2006, 13(7):560.

      [10]YIN P, TOURAPIS A M, BOYCE J. Localized weighted prediction for video coding[C]//International Sysmposium on Circuits and Systems(ISCAS 2005). Kobe, Japan:dblp,2005,5:4365.

      [11]JEONG S, PARK H. Offset compensation method for skip mode in hybrid video coding[J].IEEE Transactions on Circuits and Systems for Video Technology ,2014, 24(10):1825.

      [12]ZHANG Na, LU Yiran, FAN Xiaopeng, et al.Enhanced inter prediction with localized weighted prediction in HEVC[C]//2015 Visual Communications and Image Processing (VCIP). Singapore:IEEE,2015:1.

      [13]DONG C, LOY C C, HE Kaiming,et al. Learning a deep convolutional network for image super-resolution[C]// European Conference on Computer Vision. Cham:Springer, 2014:184.

      [14]DONG C, DENG Y, LOY C,et al.Compression artifacts reduction by a deep convolutional network[C]// 2005 IEEE International Conference on Computer Vision(ICCV). Santiago, Chile:IEEE, 2015:576.

      [15]WANG Zhongyang, LIU Dong, CHANG Shiyu, et al. D3: Deep dual-domain based fast restoration of JPEG compressed images[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Las Vegas, NV, USA:IEEE, 2016:2764.

      猜你喜歡
      卷積神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)
      神經(jīng)網(wǎng)絡(luò)抑制無(wú)線通信干擾探究
      電子制作(2019年19期)2019-11-23 08:42:00
      基于卷積神經(jīng)網(wǎng)絡(luò)溫室智能大棚監(jiān)控系統(tǒng)的研究
      基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法
      深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
      基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)
      軟件工程(2016年8期)2016-10-25 15:47:34
      基于卷積神經(jīng)網(wǎng)絡(luò)的樹(shù)葉識(shí)別的算法的研究
      基于神經(jīng)網(wǎng)絡(luò)的拉矯機(jī)控制模型建立
      復(fù)數(shù)神經(jīng)網(wǎng)絡(luò)在基于WiFi的室內(nèi)LBS應(yīng)用
      基于支持向量機(jī)回歸和RBF神經(jīng)網(wǎng)絡(luò)的PID整定
      基于神經(jīng)網(wǎng)絡(luò)分?jǐn)?shù)階控制的逆變電源
      延边| 山东省| 宝坻区| 塔城市| 沧州市| 沐川县| 介休市| 乌兰察布市| 宝山区| 大兴区| 剑川县| 都江堰市| 来凤县| 双柏县| 松原市| 邯郸市| 元谋县| 台安县| 庆阳市| 嘉祥县| 石嘴山市| 建德市| 德令哈市| 夏邑县| 太谷县| 孙吴县| 乐安县| 大兴区| 连江县| 定州市| 潮州市| 湘乡市| 珠海市| 台北县| 山阴县| 诸城市| 咸宁市| 綦江县| 临夏县| 新建县| 汽车|