林翔宇 陳耀武
(浙江大學(xué)數(shù)字技術(shù)及儀器研究所,浙江杭州310027)
網(wǎng)絡(luò)化和終端智能化代表當(dāng)今視頻行業(yè)的發(fā)展趨勢.由于網(wǎng)絡(luò)帶寬和存儲設(shè)備的限制,視頻壓縮技術(shù)有著廣泛的應(yīng)用.但是視頻在壓縮、傳輸和儲存的過程中會引入各種失真,導(dǎo)致質(zhì)量下降,因此對其進(jìn)行質(zhì)量評價顯得日益重要.到目前為止,在各種主客觀視頻質(zhì)量評價方法中,人類對這些失真視頻的主觀質(zhì)量評價依然被認(rèn)為是最精確的方法[1].但是,這個過程消耗大量的人力和時間,不適合大規(guī)模實際應(yīng)用.因此,視頻客觀質(zhì)量評價成為一個重要的研究課題[2-6].根據(jù)對原始視頻及相關(guān)信息的依賴程度,視頻客觀質(zhì)量評價可以分為3種:全參考、部分參考和無參考.在全參考和部分參考評價過程中,原始視頻及相關(guān)信息的傳輸會占用額外的帶寬,增加計算量,相比之下,無參考質(zhì)量評價方法具有更好的靈活性和適應(yīng)性,有著更廣泛的應(yīng)用價值.
傳統(tǒng)的無參考客觀質(zhì)量評價方法在像素域計算失真視頻與原始視頻的相似度,評估各種失真效應(yīng)對視頻質(zhì)量帶來的影響.Naccari等[2]在宏塊級計算錯誤隱藏造成的失真,結(jié)合運動補償?shù)挠绊懙贸鲆曨l客觀質(zhì)量評價;Yang等[3]通過統(tǒng)計相鄰兩幀視頻之間相同位置像素的差異,結(jié)合人類視覺系統(tǒng)特性來計算視頻客觀質(zhì)量.這些方法都取得了較好的精確度,但是其計算復(fù)雜度較高,很難滿足實時應(yīng)用需求.近年來,壓縮域視頻客觀質(zhì)量評價也取得了一些成果.Lee等[4]利用碼流中提取的量化系數(shù)和濾波系數(shù)計算視頻客觀質(zhì)量;Ichigaya等[5]通過量化后的離散余弦變換系數(shù)來估算視頻的PSNR值,從而得出客觀質(zhì)量;Yang等[6]通過估算視頻空域和時域的復(fù)雜度,結(jié)合量化系數(shù)來計算視頻客觀質(zhì)量,同時也考慮了丟包的影響.壓縮域質(zhì)量評價方法具有計算復(fù)雜度低的優(yōu)點,但是無法精確評估一些常見的失真效應(yīng),如塊效應(yīng)、模糊效應(yīng)等對視頻質(zhì)量帶來的影響,評價結(jié)果的精確度還有待提高.
為了提高無參考視頻質(zhì)量評價的精確度,同時降低計算復(fù)雜度,文中提出了一種基于雙域的無參考視頻質(zhì)量評價算法.首先,視頻接收端在解碼的同時,從碼流中提取編碼信息,在壓縮域用較低的計算復(fù)雜度實現(xiàn)對視頻質(zhì)量的初步評定,得出視頻相似度;然后,用Sobel算子對重建的視頻進(jìn)行邊緣檢測,將視頻分為邊緣區(qū)域和非邊緣區(qū)域,在此基礎(chǔ)上進(jìn)行模糊效應(yīng)和塊效應(yīng)評估,得出視頻失真度;最后結(jié)合視頻相似度和失真度計算視頻客觀質(zhì)量.
在視頻壓縮過程中,量化是導(dǎo)致視頻質(zhì)量下降的主要原因.許多空域和時域的信息由于量化而損失,從而引入了一些失真效應(yīng).由于傳輸帶寬的限制,大多數(shù)視頻相關(guān)的應(yīng)用中必須把編碼后的碼率控制在一定范圍之內(nèi),如何恰當(dāng)?shù)胤峙溆邢薜拇a流也是影響視頻質(zhì)量的一個重要因素.文中提出的算法從這兩個方面來計算壓縮域視頻相似度.
壓縮視頻的失真程度隨著壓縮過程中使用的量化參數(shù)的增大而增強,但是即使使用相同的量化參數(shù),不同內(nèi)容的視頻表現(xiàn)出來的失真程度也不一樣.為了分析壓縮后視頻質(zhì)量與量化參數(shù)之間的關(guān)系,選取了4個具有不同特點的視頻,選用1到51之間的13個量化參數(shù)進(jìn)行壓縮,并用文獻(xiàn)[7]中推薦的方法對這些壓縮視頻進(jìn)行主觀質(zhì)量評價.主觀質(zhì)量評價值M與量化參數(shù)QP之間的關(guān)系如圖1所示.其中,M的取值范圍為[0,100],M越大代表視頻質(zhì)量越差.
從圖1中可以發(fā)現(xiàn),M和QP呈近似指數(shù)關(guān)系.但是4條曲線不完全一致,原因正是視頻內(nèi)容差異引起的失真程度不同.綜合這些因素,M和QP之間存在如下關(guān)系:
圖1 視頻的主觀質(zhì)量與量化系數(shù)之間的關(guān)系Fig.1 Relationship between video subjective quality and quantization parameter
式中,C為視頻內(nèi)容復(fù)雜度,p與量化參數(shù)相關(guān),f代表其他影響視頻質(zhì)量的因素,是權(quán)重值.為了更直觀地反映式(1)的數(shù)學(xué)特性,用擬合得到的C、p、和f生成一條參考曲線,如圖1中虛線所示,它的形狀與另外4條曲線非常相似.
一般來說,運動劇烈、紋理復(fù)雜的視頻,用相同的量化參數(shù)壓縮后的失真程度更嚴(yán)重.但是,要精確計算視頻內(nèi)容的運動劇烈度和紋理復(fù)雜度非常困難.在相同的壓縮比率下,內(nèi)容復(fù)雜的視頻壓縮后往往得到更高的碼率,因此,可以用壓縮比率和碼率的乘積來反映視頻內(nèi)容的復(fù)雜度.壓縮比率與量化過程中的量化步長成正比,而量化步長與量化參數(shù)有直接聯(lián)系,量化參數(shù)每增加6,量化步長就增加一倍[8].綜合以上信息,一段視頻(n幀)的內(nèi)容復(fù)雜度Cn可以表示為
式中,Bn為n幀視頻總共消耗的碼流,w和h分別代表視頻的寬度和高度,q是這n幀視頻壓縮時用到的平均量化參數(shù).在此基礎(chǔ)上,結(jié)合式(1)可以得出量化影響因子FQ為
式中,a1、a2和a3是取值大于零的權(quán)重系數(shù).
碼率控制的目標(biāo)是將有限的碼流分配到合適的區(qū)域,得到最佳的視頻質(zhì)量.圖2展示了采用兩種不同的碼率控制算法得到的壓縮視頻截圖.這兩幀視頻消耗的碼流基本相同,但左圖具有更好的主觀質(zhì)量.圖3是圖2中壓縮視頻的碼流分配圖,以16× 16宏塊為單位,用不同的灰度代表每個宏塊消耗的碼流,黑色代表較少的碼流,白色代表較多的碼流.從圖3中可以看出,采用基于感興趣區(qū)域的碼率控制算法將碼流集中到某幾塊區(qū)域內(nèi),這符合前面提到的碼率控制算法的目標(biāo):合理分配碼流以提高視頻質(zhì)量.另外,采用其他多種不同的碼率控制算法的實驗結(jié)果都表明,一幀視頻內(nèi)碼流分配的均勻程度與視頻的質(zhì)量有一定聯(lián)系,將有限的碼流集中分配到最合適的位置有利于提高視頻質(zhì)量.因此,文中的算法用幀內(nèi)每個宏塊消耗碼流值的方差DB來反映碼流分配的集中程度,以此評估碼流分配對視頻客觀質(zhì)量的影響.
圖2 不同的碼率控制算法得到的壓縮視頻截圖Fig.2 Screenshots of videos compressed with different rate control algorithms
圖3 碼流分配圖Fig.3 Bit allocation maps
考慮到任何碼率控制算法都不能完全確保把碼流分配到合適的區(qū)域,碼流分配的準(zhǔn)確性CRC也對視頻質(zhì)量起到一定影響.計算CRC包括以下3步:
(1)計算該幀視頻中每個宏塊消耗的平均碼流.統(tǒng)計采用幀間預(yù)測方式編碼,并且消耗碼流超過平均值的宏塊個數(shù)NB.
(2)逐個判斷這些宏塊的重要性,確定其是否值得消耗超過平均數(shù)的碼流.根據(jù)人類視覺系統(tǒng)特性,人眼對視頻中的運動信息非常敏感[9],因此,可以根據(jù)每個宏塊的運動矢量來判定該宏塊是否被人眼所關(guān)注.首先,統(tǒng)計該幀視頻中所有宏塊的水平和垂直運動矢量平均值,并計算其方差(Dx,Dy);然后計算每個宏塊的水平和垂直運動矢量與相應(yīng)方向平均值的差值(Δx,Δy);最后,根據(jù)以上信息判斷每個宏塊的重要性IM.統(tǒng)計IM為1的宏塊個數(shù)NI.IM計算方法如下:
式中,T1為常數(shù)閾值.
(3)計算重要宏塊占所有消耗碼流超過平均數(shù)宏塊的百分比,即碼流分配準(zhǔn)確性CRC:
碼流分配影響因子FB的計算公式如下:
式中,DB為每個宏塊消耗碼流值的方差.
文中的算法中,在壓縮域用視頻相似度QS來初步評估視頻客觀質(zhì)量,QS越大代表視頻質(zhì)量越好.QS的計算公式如下:
式中:b1和b2是取值大于零的權(quán)重系數(shù).
視頻在壓縮、傳輸和存儲的過程中會引入各種失真效應(yīng),它們是引起視頻質(zhì)量下降的重要因素.在這些失真效應(yīng)中,人眼對塊效應(yīng)和模糊效應(yīng)較為敏感,文中算法從這兩個方面來計算像素域視頻失真度.
塊效應(yīng)一般出現(xiàn)在基于離散余弦變換(DCT)的壓縮算法中,粗糙的量化過程也會加劇塊效應(yīng).不同宏塊受DCT和量化的影響不一樣,細(xì)節(jié)損失也有差異,因此,在宏塊的邊界往往會有明顯的不連續(xù),形成塊效應(yīng)失真.另外,根據(jù)人類視覺系統(tǒng)特性,人眼對視頻中紋理較為簡單的區(qū)域內(nèi)的塊效應(yīng)更為敏感[10].根據(jù)以上分析,文中設(shè)計了一種快速塊效應(yīng)評估算法,分別從水平和垂直方向計算宏塊邊緣塊效應(yīng)失真程度.下面以水平方向為例介紹該算法的實現(xiàn)過程.
如圖4所示,白色和灰色的方塊分別代表宏塊A和B.首先,計算宏塊邊界像素點差值SB、宏塊內(nèi)部像素點差值SI和平均差值SI_AVG:
式中,i∈[0,15].
圖4 相鄰宏塊間像素分布Fig.4 Distribution of pixels between adjacent macroblocks
然后,根據(jù)宏塊邊緣和內(nèi)部像素差異,計算邊緣跳變度J.由于量化過程是以宏塊為單位進(jìn)行的,相鄰的宏塊可以采用不同的量化參數(shù),因此,宏塊邊緣像素間的差異往往比內(nèi)部像素間的差異更大,而隨著差異的增大,宏塊邊緣之間的不連續(xù)跳變越明顯.J的計算方法如下:
同時,結(jié)合人類視覺系統(tǒng)特性,對不同區(qū)域的塊效應(yīng)失真度加以不同的權(quán)重.如果用精確的紋理檢測算法劃分紋理簡單和復(fù)雜區(qū)域,計算復(fù)雜度非常高.文中采用一種相對簡單的算法,首先用Sobel算子進(jìn)行邊緣檢測,將所有像素點分為邊緣區(qū)域和非邊緣區(qū)域,基于此給出不同的權(quán)重w,用來修正邊緣跳變度.然后取所有宏塊邊緣像素點對應(yīng)的邊緣跳變度的平均值,作為該宏塊邊緣水平塊效應(yīng)失真度DBLOCK_H,
w按下式計算:
式中,w1和w2是取值大于零的權(quán)重系數(shù).
最后,統(tǒng)計該幀視頻中每個宏塊DBLOCK_H值的平均值DBLOCK_H_AVG.用相同的方法計算垂直方向的塊效應(yīng)失真度平均值 DBLOCK_V_AVG.塊效應(yīng)失真度DBLOCK即為水平和垂直失真度的平均值,DBLOCK越大,代表塊效應(yīng)越嚴(yán)重.
模糊效應(yīng)是一種常見的視頻失真效應(yīng).引起模糊效應(yīng)的原因有多種:原始視頻采集時失焦、拍攝場景相對于鏡頭的快速運動、以及在視頻壓縮過程中高頻信息的損失等.從主觀視覺上看,模糊效應(yīng)主要體現(xiàn)在視頻中物體邊緣附近細(xì)節(jié)退化、銳利程度下降,如圖5所示.物體邊緣上的像素點如果受到模糊效應(yīng)的影響,一般都會有最大的局部梯度值[11].因此,文中的算法通過復(fù)用前文提到的Sobel邊緣檢測的結(jié)果,對每一個位于物體邊緣的像素點檢測其梯度方向的邊緣銳利度S,以此來評估視頻受到模糊效應(yīng)影響的失真程度.
圖5 清晰和模糊圖片的對比Fig.5 Comparison of clear and blur pictures
Sobel算子在檢測物體邊緣的同時,還可以算出邊緣像素點的梯度方向θ.梯度方向可能是0°到360°的任意值,為了降低運算復(fù)雜度,將梯度方向分為8種,如圖6(a)所示:θ∈{0°,45°,90°,135°,180°,225°,270°,315°}.任何梯度方向都近似歸為上述8種方向中最接近的一種,并沿此方向計算S.S越小,表明模糊效應(yīng)越嚴(yán)重.下面以315°方向為例介紹S的計算方法.
圖6 邊緣銳利度計算示意圖Fig.6 Diagram of calculation of edge sharpness
從圖5可以看出,模糊圖像的邊緣是一個漸變的過程,漸變的速率越慢,模糊效應(yīng)越嚴(yán)重.Wang等[12]提出一種圖像邊緣銳利度檢測算法,先計算圖像邊緣周圍的像素點與邊緣上像素點的灰度差值,然后用這個差值與它們之間距離的比值來估算圖像邊緣灰度的漸變速度.在此基礎(chǔ)上,文中的算法在梯度方向上選取4個點,用它們的平均漸變速度來計算S:
式中,I(j,j)的位置如圖6(b)所示,其中灰色的I(0,0)點為位于物體邊緣上的像素點.
統(tǒng)計整幀視頻中每個邊緣像素點對應(yīng)的S值,取其平均值為該幀的模糊效應(yīng)失真度DBLUR.
文中的算法中,在像素域用視頻失真度QD來修正在壓縮域得到的初步視頻客觀質(zhì)量,QD越大代表失真越嚴(yán)重,視頻質(zhì)量越差.QD的計算公式如下:
式中,c1和c2是取值大于零的權(quán)重系數(shù).
傳統(tǒng)的視頻客觀質(zhì)量評價方法一般先計算每一幀視頻的質(zhì)量,然后取其均值代表整個序列的質(zhì)量.然而人眼對視頻的質(zhì)量評價是一個連續(xù)的過程,幀與幀之間包含的信息也應(yīng)考慮在內(nèi).一般情況下,一段時間內(nèi)視頻每一幀都具有相似的內(nèi)容特征,因此,文中算法將某一段時間內(nèi)的整個序列作為整體,給出客觀質(zhì)量評價.
在實際操作中,每t秒進(jìn)行一次視頻客觀質(zhì)量評價,也就是將總共長度為t秒的一段視頻作為一個整體進(jìn)行客觀質(zhì)量評價,其中,t的大小可以根據(jù)不同的應(yīng)用場合做相應(yīng)調(diào)整.同時,在每一幀視頻內(nèi)進(jìn)行場景切換檢測,當(dāng)檢測到場景切換時,馬上開始新一次的客觀質(zhì)量評價.文中的算法根據(jù)從碼流中提取的編碼信息,用一幀中幀內(nèi)預(yù)測模式的宏塊占總共宏塊的百分比作為特征指標(biāo)來檢測場景切換,當(dāng)這個值超過閾值 T2時,則認(rèn)為有場景切換發(fā)生.
最后,結(jié)合壓縮域視頻相似度和像素域視頻失真度,給出視頻客觀質(zhì)量QM.為了與視頻主觀評價結(jié)果有相同的取值范圍和數(shù)值單調(diào)性,QM修正為如下公式:
式中,d1和d2是常數(shù),作用是將QM的取值范圍限制到[0,100],0代表質(zhì)量最好,100代表質(zhì)量最差.
文中選用LIVE Video Quality Database來評估算法的效果[7,13].LIVE數(shù)據(jù)庫包含10個代表不同特征自然場景的序列,150個受到不同失真影響的視頻.文中的實驗過程分為以下4步.
(1)通過訓(xùn)練得到所有公式中用到的權(quán)重系數(shù)和閾值.考慮到現(xiàn)實場景的多樣性,訓(xùn)練中在LIVE數(shù)據(jù)庫之外選擇了4個不同特點的視頻序列:Into tree、Stockholm、Amazon和Vidyo.
用JM 17.0對這4個序列進(jìn)行壓縮,并對壓縮視頻進(jìn)行主客觀評價,然后通過訓(xùn)練得到所有公式中用到的權(quán)重系數(shù)和閾值,如表1所示.
表1 權(quán)重系數(shù)和閾值Table 1 Weights and thresholds
在訓(xùn)練中發(fā)現(xiàn):當(dāng)待評價視頻的量化參數(shù)小于20時,a1和a3起到?jīng)Q定性作用,其他參數(shù)的影響基本可以忽略,這說明此時視頻的塊效應(yīng)和模糊效應(yīng)產(chǎn)生的影響不明顯;當(dāng)量化參數(shù)大于20時,a1和a3仍然起到關(guān)鍵作用,同時c1和c2也對結(jié)果產(chǎn)生一定影響,而且隨著量化參數(shù)增大,它們的影響也隨之增大,表明視頻的塊效應(yīng)和模糊效應(yīng)加劇.
(2)基于LIVE數(shù)據(jù)庫的實驗.首先用文中算法對LIVE數(shù)據(jù)庫中全部40個H.264/AVC壓縮的視頻進(jìn)行客觀質(zhì)量評價.然后,為了比較客觀評價結(jié)果與數(shù)據(jù)庫中提供的各個待評價視頻對應(yīng)的主觀評價的一致性,用多參數(shù)非線性方程[14](式(16))對主客觀評價進(jìn)行擬合,使經(jīng)過非線性轉(zhuǎn)換后的客觀評價估計值DMOSP與客觀質(zhì)量QM的關(guān)系近似線性,方便對評價的單調(diào)性和精確性進(jìn)行比較.最后,根據(jù)文獻(xiàn)[7]的建議,分別用Spearman等級相關(guān)系數(shù)(SROCC)和Pearson線性相關(guān)系數(shù)(LCC)來衡量該算法的單調(diào)性和精確性.測試結(jié)果與文獻(xiàn)[7]中列出的10種客觀質(zhì)量評價方法作對比.
式中,β1、β2、β3、β4為該方程中4個待定的參數(shù),通過Matlab曲線擬合得到.
(3)基于JM壓縮視頻的實驗.LIVE數(shù)據(jù)庫的視頻都是用相同編碼器配置壓縮的,編碼器配置為:幀內(nèi)16×16、8×8、4×4預(yù)測模式,幀間16×16、16×8、8×16、8×8、skip和4×4子模式,幀級碼率控制,CABAC熵編碼,I幀間隔16.
考慮到算法的通用性,另外用JM 17.0根據(jù)10種不同的配置,對每個序列進(jìn)行壓縮,共得到100個壓縮視頻.每一種配置都對上文描述的編碼器配置做了唯一一處修改,如表2所示.用文獻(xiàn)[7]中推薦的方法對這100個壓縮視頻進(jìn)行主觀質(zhì)量評價,再用文中算法和兩種常用的開源客觀質(zhì)量評價方法PSNR和SSIM[15]計算它們的客觀質(zhì)量,最后計算SROCC和LCC,并比較測試結(jié)果.
表2 編碼器配置改動Table 2 The modification of encoder configuration
(4)基于全部壓縮視頻的實驗.對前面提到的一共140個視頻的主客觀質(zhì)量進(jìn)行評價,計算SROCC和LCC,并與PSNR和SSIM的結(jié)果對比.
基于LIVE數(shù)據(jù)庫中的測試視頻、JM壓縮視頻和全部140個視頻的測試結(jié)果散點圖分別如圖7所示.圖中曲線為多參數(shù)非線性方程擬合得到的曲線.表3-5分別是根據(jù)上述結(jié)果計算得到的SROCC和LCC.
從表3的比較中可以看出,文中的算法在單調(diào)性和精確性方面要優(yōu)于文獻(xiàn)[7]中列出的10種客觀質(zhì)量評價方法.表4和5的結(jié)果說明,在通用性實驗中,文中的算法優(yōu)于另兩種常用的開源算法.同時,對文中算法的計算復(fù)雜度進(jìn)行評估,結(jié)果如表6所示.測試環(huán)境是:3 GHz CPU,2 GB內(nèi)存.由表6可見,文中的算法完全可以滿足實時應(yīng)用需求.另外,文中實驗選用的視頻內(nèi)容包括人物、動植物、建筑、機械、電影和自然環(huán)境等,包含不同的紋理復(fù)雜度和運動幅度,涵蓋了常見的視頻場景.在此基礎(chǔ)上文中的算法取得了理想的結(jié)果,表現(xiàn)出良好的普適性.
圖7 基于不同測試對象的實驗結(jié)果散點圖Fig.7 Scatter of experimental results based on different test objects
表3 基于LIVE數(shù)據(jù)庫的實驗結(jié)果Table 3 Experiment results based on LIVE database
表4 基于JM壓縮視頻的實驗結(jié)果Table 4 Experiment results based on JM encoded videos
表5 基于全部壓縮視頻的實驗結(jié)果Table 5 Experiment results based on combined test videos
表6 計算復(fù)雜度Table 6 Computation complesity
文中提出了一種基于雙域的無參考視頻質(zhì)量評價算法.在壓縮域,利用從碼流中提取的編碼信息,結(jié)合視頻內(nèi)容復(fù)雜度計算視頻相似度;在像素域,結(jié)合人類視覺系統(tǒng)特性,計算視頻失真度;最后綜合這兩者得出視頻客觀質(zhì)量.該算法利用視頻壓縮過程中產(chǎn)生的編碼信息,用較低的計算復(fù)雜度初步評定視頻質(zhì)量,然后通過計算塊效應(yīng)和模糊效應(yīng)失真給視頻質(zhì)量帶來的影響作為補充,給出完整的視頻客觀質(zhì)量.在評價過程中,充分考慮人類視覺系統(tǒng)特性的影響.實驗結(jié)果表明,該算法不僅具有很好的精確度,同時擁有較低的計算復(fù)雜度,完全滿足實時應(yīng)用需求.
[1] ITU-R BT.500-8,Methodology for the subjective assessment of the quality of television pictures[S].
[2] Naccari M,Tagliasacchi M,Tubaro S.No-reference video quality monitoring for H.264/AVC coded video[J].IEEE Transactions on Multimedia,2009,11(5):932-946.
[3] Yang F,Wan S,Chang Y,et al.A novel objective no-reference metric for digital video quality assessment[J].IEEE Signal Processing Letters,2005,12(10):685-688.
[4] Lee S,Jung K,Sim D.Real-time objective quality assessment based on coding parameters extracted from H.264/ AVC bitstream[J].IEEE Transactions on Consumer Electronic,2010,56(2):1071-1078.
[5] Ichigaya A,Kurozumi M,Hara N,et al.A method of estimating coding PSNR using quantized DCT coefficients[J].IEEE Transactions on Circuits System for Video Technology,2006,16(2):251-259.
[6] Yang F,Wang S,Xie Q,et al.No-reference quality assessment for networked video via primary analysis of bit stream[J].IEEE Transactions on Circuits System for Video Technology,2010,20(11):1544-1554.
[7] Seshadrinathan K,Soundararajan R,Bovik A C,et al.A subjective study to evaluate video quality assessment algorithms[C]∥Human Vision and Electronic Imaging XV.San Jose:SPIE,2010.
[8] ISO/IEC 14496-10,Advanced video coding[S].
[9] Seshadrinathan K,Bovik A C.Motion tuned spatio-temporal quality assessment of natural videos[J].IEEE Transactions on Image Processing,2010,19(2):335-350.
[10] Wang A,Jiang G,Wang X,et al.New no-reference blocking artifacts metric based on human visual system[C]∥International Conference on Wireless Communications and Signal Processing.Nanjing:IEEE,2009:595-599.
[11] Wu S,Lin W,Xie S.Blind blur assessment for visionbased applications[J].Journal of Visual Communication and Image Representation,2009,20(4):231-241.
[12] Wang X,Tian B,Liang C,et al.Blind image quality assessment for measuring image blur[C]∥Proceedings of International Congress on Image and Signal Processing.Sanya:IEEE,2008:467-470.
[13] Seshadrinathan K,Soundararajan R,Bovik A C,et al.Study of subjective and objective quality assessment of video[J].IEEE Transactions on Image Processing,2010,19(6):1427-1441.
[14] Sheikh H R,Sabir M F,Bovik A C.A statistical evaluation of recent full reference image quality assessment algorithms[J].IEEE Transactions on Image Processing,2006,15(11):3440-3451.
[15] Wang Z,Lu L,Bovik A C.Video quality assessment based on structural distortion measurement[C]∥International Conference on Image Processing.Rochester: IEEE,2002:121-132.