HEVC關(guān)鍵技術(shù)內(nèi)容_第1頁(yè)
HEVC關(guān)鍵技術(shù)內(nèi)容_第2頁(yè)
HEVC關(guān)鍵技術(shù)內(nèi)容_第3頁(yè)
HEVC關(guān)鍵技術(shù)內(nèi)容_第4頁(yè)
HEVC關(guān)鍵技術(shù)內(nèi)容_第5頁(yè)
已閱讀5頁(yè),還剩13頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

HEVC關(guān)鍵技術(shù)2.1引言視頻編碼標(biāo)準(zhǔn)主要由兩大國(guó)際組織開(kāi)發(fā),即ITU-T(國(guó)際電信聯(lián)盟電信標(biāo)準(zhǔn)化部門)和ISO/IEC(國(guó)際標(biāo)準(zhǔn)化組織/國(guó)際電工委員會(huì)),ITU-T開(kāi)發(fā)了H.261REF_Ref363900323\r\h[1]和H.263REF_Ref363900334\r\h[2],ISO/IEC開(kāi)發(fā)了MPEG-1REF_Ref363900373\r\h[3]和MPEG4VisualREF_Ref363900381\r\h[4],兩大組織合作開(kāi)發(fā)了H.262/MPEG-2VideoREF_Ref363900389\r\h[5]以及H.264/MPEG-4AVCREF_Ref363900397\r\h[6],這兩個(gè)合作開(kāi)發(fā)的視頻標(biāo)準(zhǔn)得到了廣泛的應(yīng)用,尤其是H.264/MPEG-4AVC,其應(yīng)用領(lǐng)域包括高清衛(wèi)星電視廣播、有線電視、視頻采集/編輯系統(tǒng)、便攜攝像機(jī)、視頻監(jiān)控、網(wǎng)絡(luò)和移動(dòng)互聯(lián)網(wǎng)視頻傳播、藍(lán)光光盤、以及視頻聊天、視頻會(huì)議和網(wǎng)真系統(tǒng)等實(shí)時(shí)視頻應(yīng)用場(chǎng)景。H.264/MPEG-4AVC基本覆蓋了所有數(shù)字視頻應(yīng)用領(lǐng)域并替代了其他一些視頻標(biāo)準(zhǔn)。然而,隨著服務(wù)多樣化的增加、高清視頻的流行、以及超高清格式(4k×2k或8k×4k)的出現(xiàn),市場(chǎng)上需要比H.264/MPEG-4AVC性能更優(yōu)的視頻編碼標(biāo)準(zhǔn)。另外,隨著移動(dòng)設(shè)備和平板電腦的興起,人們對(duì)視頻點(diǎn)播服務(wù)需求量不斷增大,對(duì)視頻質(zhì)量和分辨率要求也不斷提高,從而對(duì)現(xiàn)有網(wǎng)絡(luò)帶寬造成很大的威脅和挑戰(zhàn)。因此,針對(duì)這些應(yīng)用,市場(chǎng)需要比H.264/MPEG-4AVC更高效的視頻編碼標(biāo)準(zhǔn)。在這樣的背景下,HEVC作為新一代的視頻編碼標(biāo)準(zhǔn)應(yīng)運(yùn)而生,HEVC(HighEfficiencyVideoCoding)是由ITU-T的VCEG(VideoCodingExpertGroup)和ISO/IEC的MPEG(MovingPictureExpertsGroup)聯(lián)合開(kāi)發(fā),合作開(kāi)發(fā)組稱為JCT-VC(JointCollaborativeTeamonVideoCoding)REF_Ref363900533\r\h[7],JCT-VC從2010年4月開(kāi)始第一次會(huì)議,從世界各大公司、高校和研究機(jī)構(gòu)征集新標(biāo)準(zhǔn)的提案,在2013年1月發(fā)布了HEVC的第一版,確定了HEVC的基本框架和內(nèi)容,之后HEVC仍會(huì)不斷擴(kuò)展其內(nèi)容和功能以適應(yīng)不同場(chǎng)景的應(yīng)用需求,如對(duì)多種顏色空間格式的支持,SCC(ScreenContentCoding),3D視頻編碼,可伸縮視頻編碼等。ISO/IEC將會(huì)把HEVC稱為MPEG-HPart2(ISO/IEC23008-2),ITU-T可能會(huì)把HEVC稱為H.265。HEVC的設(shè)計(jì)目標(biāo)是在同等圖像質(zhì)量下,比H.264/AVC的比特率降低50%,其設(shè)計(jì)側(cè)重點(diǎn)主要有兩個(gè)方面,即針對(duì)高分辨率視頻和增加并行處理結(jié)構(gòu)的運(yùn)用。和以前的ITU-T和ISO/IEC開(kāi)發(fā)的視頻標(biāo)準(zhǔn)一樣,HEVC采用了基于分塊結(jié)構(gòu)的編碼流程,圖2-1為HEVC編碼器結(jié)構(gòu)圖,其中包括塊分割、幀內(nèi)預(yù)測(cè)、幀間預(yù)測(cè)、運(yùn)動(dòng)估計(jì)/運(yùn)動(dòng)補(bǔ)償、正變換/反變換、量化/反量化、熵編碼、以及環(huán)路濾波等。圖2-1HEVC視頻編碼器2.2基于四叉樹(shù)策略的編碼單元分割和傳統(tǒng)視頻編碼標(biāo)準(zhǔn)一樣,HEVC先將一幀數(shù)據(jù)分割為若干二維對(duì)稱結(jié)構(gòu)的編碼單元,再逐個(gè)進(jìn)行處理。HEVC定義了3種塊分割單元,分別是CU(CodingUnit),PU(PredictionUnit),和TU(TransformUnit)。CU是最基本的二維對(duì)稱結(jié)構(gòu)編碼單位,和H.264/AVC中的“宏塊”作用相似,唯一不同的地方是CU的大小沒(méi)有嚴(yán)格的限制,如CU大小可以是64×64、32×32、16×16、和8×8。除了以幀為單位的環(huán)路濾波外,其他編碼環(huán)節(jié)如幀內(nèi)/幀間預(yù)測(cè)、變換、量化、以及熵編碼都是以CU為單位進(jìn)行的。最大的CU稱為L(zhǎng)CU(LargestCodingUnit),最小的CU稱為SCU(SmallestCodingUnit),LCU和SCU的大小一般限制為2的整數(shù)次冪且大于等于8。一幀圖像可以認(rèn)為是由互相不重疊的LCU組合而成,由于CU是二維對(duì)稱結(jié)構(gòu),對(duì)LCU的進(jìn)一步分割是以遞歸四叉樹(shù)方式進(jìn)行的。具體如圖2-2所示。圖2-5CU,PU,TU之間的關(guān)系圖2-5給出了CU,PU,TU之間的關(guān)系,當(dāng)TUsizeflag=1時(shí),TU的大小取決于PU的分割類型(是否對(duì)稱),非對(duì)稱PU分割模式下,TU需要做更深的分割,這種設(shè)計(jì)的目的是為了避免TU跨越PU的邊界。CU、PU、TU三種單元相互獨(dú)立又互有聯(lián)系,這種設(shè)計(jì)使塊的分割更符合圖像的紋理特征,也使編碼、預(yù)測(cè)、變換等各個(gè)環(huán)節(jié)更加靈活,有利于各個(gè)單元更好的完成各自的功能。2.3幀內(nèi)預(yù)測(cè)2.3.1幀內(nèi)預(yù)測(cè)模式HEVC的幀內(nèi)預(yù)測(cè)和H.264/AVC類似,也是根據(jù)相鄰塊的數(shù)據(jù)按照各種方式進(jìn)行預(yù)測(cè)重建。當(dāng)編碼高清視頻時(shí),HEVC會(huì)采用較大的編碼單元,如果仍然使用H.264/AVC的預(yù)測(cè)模式,則不足以全面描述所有可能的預(yù)測(cè)匹配模型。因?yàn)?,為了使幀?nèi)預(yù)測(cè)更準(zhǔn)確,HEVC對(duì)亮度分量的預(yù)測(cè)模式多達(dá)35種(包括DC,PlanarREF_Ref363934076\r\h[15-REF_Ref363934080\r\h18]兩種非方向性預(yù)測(cè),以及另外33種方向性預(yù)測(cè)),具體如圖2-6所示。色度分量的預(yù)測(cè)模式有5種,即水平、垂直、DC、DM(DerivationMode)和LM(LinearMode),其中DM模式是根據(jù)亮度預(yù)測(cè)模式來(lái)決定色度預(yù)測(cè)模式。LM模式根據(jù)相鄰塊的亮度和色度線性模型關(guān)系來(lái)預(yù)測(cè)當(dāng)前塊的色度,詳見(jiàn)2.3.2節(jié)。(a)35種預(yù)測(cè)模式(b)33種方向預(yù)測(cè)角度圖2-6幀內(nèi)預(yù)測(cè)模式2.3.2Planar預(yù)測(cè)模式Planar預(yù)測(cè)模式適用于圖像平滑內(nèi)容的預(yù)測(cè)重建,JCT-VC的提案REF_Ref363934076\r\h[15]首先提出這種預(yù)測(cè)方案,具體如圖2-7所示,首先把待預(yù)測(cè)塊的右下角像素值寫入碼流,然后根據(jù)該值和相鄰塊重建像素來(lái)插值最右側(cè)列和最下面行,然后通過(guò)雙線性插值的方法得到其他像素的預(yù)測(cè)值。圖2-7Planar預(yù)測(cè)模式提案REF_Ref363934078\r\h[16]對(duì)planar模式做了進(jìn)一步的改進(jìn),首先最右下角的像素不再傳送給解碼端,而是通過(guò)相鄰塊重建像素插值得到。另外把雙線性插值改為分別作水平和垂直方向的線性插值,然后再求平均值,具體如圖2-8所示。圖2-8改進(jìn)的planar預(yù)測(cè)模式2.3.2LM預(yù)測(cè)LM(linearmodel)是HEVC新增的色度預(yù)測(cè)模式REF_Ref363937296\r\h[19-REF_Ref363937301\r\h22],其基本思想是根據(jù)當(dāng)前塊的亮度重建信號(hào)來(lái)預(yù)測(cè)色度信號(hào),具體計(jì)算方法如式(2-1)所示:(2-1)其中PredC[x,y]為當(dāng)前塊的色度預(yù)測(cè)信號(hào),RecL'[x,y]為當(dāng)前塊的亮度重建信號(hào)。α和β是根據(jù)相鄰塊重建亮度和色度信號(hào)的關(guān)系推導(dǎo)出來(lái)的。如果視頻源是YUV4:2:0格式,則色度信號(hào)的采樣率是亮度信號(hào)的一半,在使用LM預(yù)測(cè)時(shí),色度和亮度信號(hào)就存在1/2個(gè)像素的相位差。因此,需要先將亮度信號(hào)下采樣,使其和色度信號(hào)的大小和相位相匹配。在LM預(yù)測(cè)方式中,對(duì)重建亮度信號(hào)在垂直方向上下采樣,在水平方向上二次抽樣,即:(2-2)通過(guò)使用最小二乘法,可以擬合出下采樣后的重建亮度信號(hào)和色度信號(hào)之間的關(guān)系,從而推導(dǎo)出式(2-1)的參數(shù)α和β。如式(2-3)和(2-4)所示:(2-3)(2-4)式(2-3)和(2-4)中RecC(i)和RecL'(i)分別表示和當(dāng)前塊相鄰行/列的重建色度信號(hào)和重建下采樣亮度信號(hào)。I為參與計(jì)算的相鄰塊采樣點(diǎn)總數(shù),如圖2-9所示,只有當(dāng)前塊左側(cè)和上側(cè)標(biāo)為灰色的相鄰采樣點(diǎn)參與計(jì)算。圖2-9LM模式下計(jì)算α和β所用采樣點(diǎn)文獻(xiàn)REF_Ref363937301\r\h[22]中列舉了LM模式的實(shí)驗(yàn)數(shù)據(jù),在Intra配置下,啟用LM模式可使Y,Cb,Cr的BD-rate數(shù)據(jù)分別提高0.8%,7.8%和5.9%。2.4幀間預(yù)測(cè)由于HEVC在PU分割時(shí)可能使用4種非對(duì)稱的方式(2N×nU,2N×nD,nL×2N,nR×2N),在幀間預(yù)測(cè)時(shí),其運(yùn)動(dòng)矢量也允許以非對(duì)稱塊為單位,這種技術(shù)稱為AMP(AsymmetricMotionPartition)REF_Ref363997100\r\h[24-REF_Ref363997106\r\h27],這樣對(duì)于圖像中的非對(duì)稱形狀的區(qū)域,使用AMP能更靈活的進(jìn)行運(yùn)動(dòng)估計(jì)。圖2-10為64×64塊的非對(duì)稱運(yùn)動(dòng)矢量分割。圖2-1064×64塊的AMP分割傳統(tǒng)視頻編碼器對(duì)運(yùn)動(dòng)矢量的編碼一般都采用預(yù)測(cè)編碼。如H.264/AVC中,會(huì)把相鄰塊的運(yùn)動(dòng)矢量的中值作為當(dāng)前塊的MV預(yù)測(cè)值,并將MV預(yù)測(cè)值和實(shí)際值的差編碼。這種空域運(yùn)動(dòng)矢量預(yù)測(cè)編碼方法也稱為MVP(MotionVectorPrediction)。HEVC將這種方法進(jìn)一步拓展,提出了AMVP(Advancedmotionvectorprediction)技術(shù)REF_Ref363997100\r\h[24-REF_Ref363998831\r\h31],HEVC中MV預(yù)測(cè)候選塊不局限于空域,也在時(shí)域范圍內(nèi)尋找,這些候選塊組成一個(gè)集合,而AMVP方案會(huì)在此集合中尋找最優(yōu)的MV匹配,然后只需要編碼最優(yōu)匹配塊的索引、參考幀下標(biāo)、以及MVD(MotionVectorDifference),從而更有效的節(jié)省空間開(kāi)銷。如果MVD=0,則HEVC就會(huì)啟用merge模式,使當(dāng)前塊和候選塊共用一個(gè)運(yùn)動(dòng)矢量。HEVC一般會(huì)同時(shí)使用AMVP和merge,以獲得最優(yōu)的MVP編碼效率。2.5頻域變換2.5.1大尺度變換H.264/AVC只有4×4和8×8兩種變換模式,HEVC增加了16×16、32×32兩種更大尺度的變換REF_Ref363939200\r\h[23]。對(duì)于高清視頻,使用更大尺度的頻域變換會(huì)得到更好的編碼效果,因?yàn)樵诟咔逡曨l中,宏塊所表示的內(nèi)容一般是某一物體的一部分或背景的一小部分,宏塊內(nèi)大多是都是紋理模式均勻,顏色變化較小的內(nèi)容。因此,使用較大尺度的變換將會(huì)使頻域能量更集中,從而減少量化誤差。二維DCT變換是通過(guò)計(jì)算水平和垂直方向的一維DCT實(shí)現(xiàn)的。其計(jì)算方式可表示為:(2-5)其中X為預(yù)測(cè)殘差,H為變換矩陣。圖2-11為HEVC的16×16的變換矩陣,為了簡(jiǎn)便,HEVC只指定了32×32尺度的變換矩陣,通過(guò)下采樣而得到其他尺度(16×16,8×8,4×4)的變換矩陣。圖2-1116×16變換矩陣2.5.2可選的4×4DST對(duì)于4×4大小的TU,HEVC提供了可選的基于DST變換模式REF_Ref364069634\r\h[32-REF_Ref364069640\r\h36],其變換矩陣如圖2-12所示。圖2-124×4DST變換矩陣對(duì)于離塊邊界越遠(yuǎn)殘差振幅越大的區(qū)域,DST具有更好的編碼適應(yīng)性。復(fù)雜度方面,4×4DST和4×4DCT相差不大,但DST可以節(jié)省大約1%的比特率。另外,HEVC中DST變換只限于4×4亮度變換塊中使用。2.5.3TSMHEVC為了提高屏幕視頻編碼的效率,也征集考察了一些其他編碼技術(shù),其中TSM(TransformSkipMode)REF_Ref364082300\r\h[37-REF_Ref364082308\r\h42]就是被HEVC采納的相關(guān)技術(shù)之一。研究表明,由于屏幕視頻內(nèi)容的各向異性特征,使用傳統(tǒng)的Hybrid框架視頻編碼器并不能得到最優(yōu)的編碼效果。對(duì)屏幕圖像中的文本、圖形、色調(diào)單一的背景等區(qū)域,如果不做頻域變換,而直接對(duì)預(yù)測(cè)殘差編碼效果會(huì)更好。對(duì)于幀內(nèi)編碼,由于塊之間的相關(guān)性沒(méi)有幀間編碼高,其預(yù)測(cè)殘差值一般比較大,HEVC中尺度越大的CU越是如此。因此使用2D頻域變換有利于能量的集中。然而,如果視頻源是屏幕圖像,其內(nèi)容多是重復(fù)性無(wú)損匹配數(shù)據(jù),這樣幀內(nèi)預(yù)測(cè)殘差就會(huì)比較小或?yàn)榱?,這種情況下,如果仍然使用頻域變換,就會(huì)減少甚至降低編碼效率。對(duì)于這些TU,TSM模式下HEVC會(huì)考慮跳過(guò)變換環(huán)節(jié),在后續(xù)的CABAC熵編碼階段,適當(dāng)?shù)男薷臍埐顢?shù)據(jù)的統(tǒng)計(jì)特性,可以得到更好的編碼結(jié)果。TSM定義了跳過(guò)變換的4種方式,詳見(jiàn)圖2-13。TSM模式垂直方向水

方向TS0啟用變換啟用變換TS1啟用變換跳過(guò)變換TS2跳過(guò)變換啟用變換TS3跳過(guò)變換跳過(guò)變換圖2-13TSM模式運(yùn)動(dòng)補(bǔ)償殘差信號(hào)一般在垂直和水平兩個(gè)方向上表現(xiàn)出不同的特性,因此,在幀間編碼時(shí),HEVC可根據(jù)具體情況選擇不同的TSM模式跳過(guò)水平/垂直變換。從圖2-13可以看出,TSM模式也包含了同時(shí)啟用水平和垂直變換的選擇。實(shí)驗(yàn)結(jié)果表明,對(duì)于某些屏幕視頻,啟用TSM后,BD-rate性能最高可提升30%。這種方案的另一個(gè)優(yōu)點(diǎn)是對(duì)HEVC編碼器修改少,在不增加額外時(shí)間空間的開(kāi)銷的前提下,有效提高了對(duì)屏幕視頻的編碼性能。2.6環(huán)路濾波2.6.1去方塊濾波由于頻域變換量化產(chǎn)生的誤差,以及運(yùn)動(dòng)補(bǔ)償造成的預(yù)測(cè)誤差,基于塊結(jié)構(gòu)的編碼在經(jīng)過(guò)預(yù)測(cè)/變換/量化步驟后會(huì)產(chǎn)生塊效應(yīng),因此,混合視頻編碼器會(huì)采用相應(yīng)的措施消除塊效應(yīng),一般做法是在塊的邊界進(jìn)行濾波處理,HEVC的去方塊濾波(DeblockingFilter)基本沿用了H.264/AVC中的方法,如濾波方式,邊界強(qiáng)度的決策機(jī)制等,區(qū)別只在于HEVC采用了更靈活的塊分割方案,由于TU可能不在PU的范圍內(nèi),HEVC的去方塊濾波需要在較小的塊內(nèi)進(jìn)行。2.6.2采樣點(diǎn)自適應(yīng)補(bǔ)償采樣點(diǎn)自適應(yīng)補(bǔ)償(SAO,SampleAdaptiveOffset)是HEVC中出現(xiàn)的新技術(shù)REF_Ref364086231\r\h[43-REF_Ref364086235\r\h46],該環(huán)節(jié)在去方塊濾波之后,其基本原理是根據(jù)重建圖像和原始圖像的差異,對(duì)重建圖像根據(jù)實(shí)際情況做自適應(yīng)的補(bǔ)償,以減少重建圖像和原始圖像的失真度,從而提高重建圖像質(zhì)量,大量實(shí)際數(shù)據(jù)顯示,SAO可以提高2%~6%的編碼性能,編碼復(fù)雜度增加了2%左右。SAO是以LCU為單位進(jìn)行處理的,采樣點(diǎn)補(bǔ)償?shù)姆绞椒譃閹钛a(bǔ)償(BandOffset,BO)和邊緣補(bǔ)償(EdgeOffset,EO)兩種,帶狀補(bǔ)償根據(jù)像素值強(qiáng)度劃分為若干條帶,每個(gè)條帶內(nèi)部使用相同的補(bǔ)償值。邊緣補(bǔ)償主要用于對(duì)圖像中的像素邊緣進(jìn)行補(bǔ)償,通過(guò)將當(dāng)前像素點(diǎn)和相鄰兩個(gè)像素點(diǎn)比較,從而獲得該像素點(diǎn)的類型,并根據(jù)類型進(jìn)行對(duì)應(yīng)的補(bǔ)償校正。邊緣補(bǔ)償?shù)南噜徬袼攸c(diǎn)位置有4種情況,具體如圖2-14所示:圖2-14EO像素分類模型在編碼端,首先以幀為單位進(jìn)行SAO的初始化,通過(guò)分析重建數(shù)據(jù)和原始數(shù)據(jù)之間的失真度,配置SAO狀態(tài)參數(shù),并決定SAO類型。然后對(duì)每個(gè)LCU進(jìn)行SAO處理。這種先驗(yàn)信息收集整理的過(guò)程只在編碼端出現(xiàn),在解碼端,每個(gè)LCU的SAO處理都是獨(dú)立的,不需要訪問(wèn)幀緩存數(shù)據(jù)就能解碼。2.7并行化設(shè)計(jì)2.7.1Tiles在混合編碼框架內(nèi),一個(gè)Slice之內(nèi)的LCU之間編碼具有很強(qiáng)的相關(guān)性,如幀內(nèi)預(yù)測(cè)、MV預(yù)測(cè)、CABAC的概率等,都需要參考相鄰LCU的數(shù)據(jù)。為了使編解碼能并行進(jìn)行,從而更充分的利用多處理器的并行計(jì)算能力,以及達(dá)到最優(yōu)的負(fù)載平衡,HEVC使用了名為Tiles的新技術(shù)REF_Ref364087462\r\h[47-REF_Ref364088131\r\h50]。首先把圖像分割成若干個(gè)由LCU組成的矩形區(qū)域,具體如圖2-15所示,每個(gè)矩形區(qū)域稱為Tile,Tile之間的編碼是相互獨(dú)立的。Tile的定義如下:Tile必須是矩形形狀Tile內(nèi)包含固定個(gè)數(shù)的LCUTile的寬和高放在序列參數(shù)集或圖像參數(shù)集中Tile之間編解碼無(wú)相關(guān)性,這點(diǎn)和Slice類似。使用Tiles并不改變碼流的光柵掃描傳送順序。Tiles可以和Slice在幀內(nèi)共存Tiles是編碼端的可選項(xiàng)圖2-153×3Tiles分割和Slice比較,使用Tiles具有更好并行性。因?yàn)門iles是矩形分割,而Slice必須是以光柵掃描方式順序的LCU組成。另外,在一幀內(nèi)使用過(guò)多的Slice,就會(huì)增加Sliceheader的開(kāi)銷。因此,使用Tiles能以更小的代價(jià)獲得更靈活的圖像分割,以及更好的并行性。2.7.2WPP(WavefrontParallelProcessing)HEVC是以LCU為單位并按照光柵掃描的順序進(jìn)行編解碼,CABAC熵編碼的概率模型也隨著編碼過(guò)程更新。因此,HEVC的LCU之間具有很大的編碼相關(guān)性。具體如圖2-16所示。為了編碼當(dāng)前LCU(X),則必須先得到X的左、上、左上、右上LCU的相關(guān)信息,這樣才能進(jìn)行幀內(nèi)預(yù)測(cè)和MV預(yù)測(cè)。圖2-16LCU光柵掃描編碼方式WPPREF_Ref364088111\r\h[51-REF_Ref364088115\r\h54]的并行化處理是從不打斷LCU之間的相關(guān)性的角度進(jìn)行的,具體如圖2-17所示,每一個(gè)LCU行使用一個(gè)單獨(dú)的線程的進(jìn)行編解碼(圖2-17中共使用了4個(gè)線程),考慮到LCU之間的相關(guān)性,線程之間的編碼異步次序至少要錯(cuò)開(kāi)兩個(gè)LCU,這樣就可以使時(shí)域和空域預(yù)測(cè)得到足夠的相鄰LCU數(shù)據(jù)。圖2-17WPP方案由于CABAC的上下文概率模型是按光柵掃描的順序逐行更新的,按照這種方式,在第一行的線程沒(méi)有結(jié)束前,第二行的線程是無(wú)法啟動(dòng)的。在HEVC的早期版本中,曾經(jīng)嘗試在第二行重新初始化CABAC概率,但這樣做會(huì)造成編碼性能的降低,全I(xiàn)幀模式BD-rate降低0.7%,隨機(jī)訪問(wèn)模式降低5.9%,低延遲模式降低7.8%。因此,提案REF_Ref364088113\r\h[53]中提出,第二行延續(xù)使用第一行第2個(gè)LCU的概率,具體如圖2-18所示。圖2-18WPP非首行CABAC概率設(shè)定從圖2-17可以看出WPP和Tiles這兩種并行化技術(shù)是兼容的,可以同時(shí)使用,實(shí)驗(yàn)結(jié)果也表明這兩種技術(shù)可以在多處理器環(huán)境下,明顯減少編解碼時(shí)間。參考文獻(xiàn)VideoCodecforAudiovisualServicesatpx64kbit/s,ITU-TRec.H.261,version1:November.1990,version2:March.1993.VideoCodingforLowBitRateCommunication,ITU-TRec.H.263,November.1995(andsubsequenteditions).CodingofMovingPicturesandAssociatedAudioforDigitalStorageMediaatuptoAbout1.5Mbit/s—Part2:Video,ISO/IEC11172-2(MPEG-1),ISO/IECJTC1,1993.CodingofAudio-VisualObjects—Part2:Visual,ISO/IEC14496-2(MPEG-4Visualversion1),ISO/IECJTC1,April.1999.GenericCodingofMovingPicturesandAssociatedAudioInformation-Part2:Video,ITU-TRec.H.262andISO/IEC13818-2(MPEG2Video),ITU-TandISO/IECJTC1,November.1994.AdvancedVideoCodingforGenericAudio-VisualServices,ITU-TRec.H.264andISO/IEC14496-10(AVC),ITU-TandISO/IECJTC1,May2003(andsubsequenteditions).B.Bross,W.-J.Han,G.J.Sullivan,J.-R.Ohm,andT.Wiegand,HighEfficiencyVideoCoding(HEVC)TextSpecificationDraft9,JCT-VC-11thmeeting,JCTVC-K1003,Shanghai,October.2012.K.H.Lee,E.Alshina,J.H.Park,W.J.HanandJ.H.Min,TechnicalconsiderationsforAdHocGrouponNewChallengesinVideoCodingStandardization,ISO/IECMPEG85thmeeting,M15580,Hannover,Germany,2008.E.Alshina,K.H.Lee,W.J.HanandJ.H.Park,TechnicalconsiderationsforAdHocGrouponNewChallengesinVideoCodingStandardization,ISO/IECMPEG86thmeeting,M15899,Busan,Korea,2008.S.Naito,A.MatsumuraandA.Koike,EfficientcodingschemeforsuperhighdefinitionvideobasedonextendingH.264highprofile,VCIP2006,Januray.2006.S.MaandC.-C.JayKuo,High-definitionvideocodingwithsuper-macroblocks,VCIP2007,Januray2007.P.Chen,Y.Ye,andM.Karczewicz,“VideoCodingUsingExtendedBlockSizes,”ITU-TSG16/Q.6Doc.VCEG-AJ23,SanDiego,October.2008.TomonobuYoshino,SeiNaitoandShigeyukiSakazawa,PreliminaryresponseforDraftCallforEvidenceonHighPerformanceVideoCoding,M16082,February2009Shun-ichiSekiguchiandShuichiYamagishi,OncodingefficiencywithextendedblocksizeforUHDTV,VCEG-C91,Januray2009K.Ugur,K.R.Andersson,A.Fuldseth,DescriptionofvideocodingtechnologyproposalbyTandberg,Nokia,Ericsson,JCT-VC-1stMeeting,JCTVC-A119,Dresden,April,2010.SandeepKanumuri,TKTanandFrankBossen,EnhancementstoIntraCoding,JCT-VC-4thMeeting,JCTVC-D235,Daegu,January,2011.J.Lainema,K.Ugur,andO.Bici,Planarintracodingforimprovedsubjectivevideoquality,JCT-VC-4thMeeting,JCTVC-D326,Daegu,January,2011.YongbingLin,LingzhiLiu,ChangcaiLai,JianhuaZheng,SimplifiedPlanarIntraPrediction,JCT-VC-5thMeeting,JCTVC-E289,Geneva,March,2011J.Kim,S.W.Park,etal,Newintrachromapredictionusinginter-channelcorrelation,JCT-VC-2ndMeeting,JCTVC-B021,Geneva,July2010J.Chen,V.Seregin,Chromaintrapredictionbyreconstructedlumasamples,JCT-VC-3rdMeeting,JCTVC-C206,Guangzhou,October,2010.J.Chen,V.Seregin,S.Lee,W.Han,J.Kim,B.M.Jeon,Chromaintrapredictionbyreconstructedlumasamples,JCT-VC-4thMeeting,JCTVC-D350,Daegu,January,2011.J.Chen,VadimSeregin,Woo-JinHan,Chromaintrapredictionbyreconstructedlumasamples,JCT-VC-5thMeeting,JCTVC-E266,Geneva,March,2011GaryJ.Sullivan,Jens-RainerOhm,Woo-JinHan,ThomasWiegand,OverviewoftheHighEfficiencyVideoCoding(HEVC)Standard,IEEETransactionsonCircuitsandSystemsforVideoTechnology,2012:22(12):1649–1668KenMcCann,Woo-JinHan,Il-KooKim,Samsung’sResponsetotheCallforProposalsonVideoCompressionTechnology,JCT-VC-1stMeeting,JCTVC-A124,Dresden,April,2010E.Francois,L.Guillo,A.Ichigaya,H.Yu,TE12.2:Technicolor&INRIAreportonAMPevaluation,JCT-VC-3rdMeeting,JCTVC-C030,Guangzhou,April2010.A.Ichigaya,K.Iguchi,TE12.2:Reportonasymmetricmotionpredictionunit(AMP)on/off,JCT-VC-3rdMeeting,JCTVC-C149,Guangzhou,April2010.Il-KooKim,P.Chen,L.Guo,CE2:Testresultsofasymmetricmotionpartition(AMP)withoverlappedblockmotioncompensation(OBMC),JCT-VC-5thMeeting,JCTVC-E316,Geneva,March2011.KazuoSugimoto,AkiraMinezawa,Shun-ichiSekiguchi,TE12.2reportonMVpredictionAMVP/IMVP,JCT-VC-3rdMeeting,JCTVC-C119,Guangzhou,April2010.JoonyoungPark,SeungwookPark,ByeongmoonJeon,Wei-JungChien,MartaKarczewicz,ImprovementsonmedianmotionvectorsofAMVP,JCT-VC-4thMeeting,JCTVC-D095,Daegu,January2010.KazushiSato,ConsiderationonAMVP,JCT-VC-4thMeeting,JCTVC-D303,Daegu,January2010.Il-KooKim,TammyLee,ImprovedmotionvectorpredictorselectioninAMVP,JCT-VC-4thMeeting,JCTVC-D337,Daegu,January2010.AnkurSaxena,FelixC.Fernandes,Jointlyoptimalintrapredictionandadaptiveprimarytransform,JCT-VC-3rdMeeting.JCTVC-C108,Guangzhou,October,2010.XinZhao,LiZhang,SiweiMa,WenGao,Simplifiedmultiplierless4x4DSTforintrapredictionresidue,JCT-VC-4thMeeting,JCTVC-D286,Daegu,January,2011.A.Saxena,F.Fernandes,CE7:Mode-dependentDCT/DSTwithout4*4fullmatrixmultiplicationforintraprediction,JCT-VC-5thMeeting,JCTVC-E125,Geneva,March,2011.YoujiShibahara,TakahiroNishi,Considerationofreferencepixelavailabilityformode-dependentDCT/DSTdecision,JCT-VC-6thMeeting,JCTVC-F225,Torino,July,2011.A.Ichigaya,Y.Sugito,S.Sakaida,CE7.5:PerformanceanalysisofadaptiveDCT/DSTselection,JCT-VC-6thMeeting,JCTVC-F229,Torino,July,2011.M.Mrak,A.Gabriellini,N.Sprljan,D.Flynn,Transformskipmode,JCT-VC-6thMeeting,JCTVC-F077,Torino,July,2011.M.Mrak,A.Gabriellini,D.Flynn,ResultsforSCCwithTransformSkipMode,JCT-VC-6thMeeting,JCTVC-F770,Torino,July,2011.MartaMrak,AndreaGabriellini,DavidFlynn,Transformskipmode,JCT-VC-7thMeeting,JCTVC-G575,Geneva,November,2011.M.Naccari,A.Gabriellini,M.Mrak,Quantizationfortransformskipping,JCT-VC-8thMeeting,JCTVC-H0208,SanJose,January,2012.C.Lan,J.Xu,G.J.Sullivan,F.Wu,Intratransformskipping,JCT-VC-9thMeeting,JCTVC-I0408,Geneva,April,2012.L.Zhao,J.An,Y-W.Huang,S.Lei,D.Zhao,Simplificationforintratransformskipmode,JCT-VC-10thMeeting,JCTVC-J

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論