三維視頻或多視點視頻編解碼方法及其裝置的制造方法
【專利說明】
[0001]奪叉引用
[0002] 本發(fā)明要求如下優(yōu)先權:編號為PCT/CN2013/086271,發(fā)明名稱為"Methodsfor Sub-PULevelPrediction",申請日為2013年10月31日的PCT專利申請。上述PCT專利 申請在此一并作為參考。
技術領域
[0003] 本發(fā)明涉及一種三維(three-dimensional, 3D)視頻編解碼技術。特別地,本發(fā) 明涉及一種基于子預測單元(sub-predictionunit,sub-PU)的預測方法,其中上述預 測方法與用于三維編解碼系統(tǒng)中紋理編解碼的巾貞間視點運動預測(inter-Viewmotion prediction,IVMP)以及視點合成預測(viewsynthesisprediction,VSP)相關聯(lián)。
【背景技術】
[0004] 近年來,為了給觀眾帶來前所未有的視覺體驗,3D電視已經(jīng)成為一種技術趨勢。如 今已發(fā)展出了多種技術用于3D觀影并且其中多視角視頻(multi-viewvideo)是3D電視 應用區(qū)別于其他應用的關鍵技術。為了利用幀間視點冗余,可將例如子PU級視間運動預 測(sub-PUlevelinter-viewmotionprediction,SPIVMP)以及視點合成預測的 3D編解 碼技術集成入傳統(tǒng)3D高效率視頻編解碼器(HighEfficiencyVideoCodingcodec,HEVC codec)或者 3D高級視頻編解碼器(AdvancedVideoCodingcodec,AVCcodec)中。
[0005] 圖I描述在當前基于HEVC測試模型的三維視頻編解碼(3DV-HTM)中的SPIVMP 進程。將在當前相關視點(即Vl122)中的當前待處理PU(122)分割為多個子PU(即A、 B、C、D),其中每個子PU具有更小尺寸。將與每個子PU相關聯(lián)的視差矢量(disparity vector,DV)加入各自位置(如每個子PU中心的黑點所示)以定位參考視點(即V0110)中 的各自預測區(qū)塊(即A'、B'、C'、D'),其中參考視點的預測區(qū)塊(即A'、B'、C'、D')是已 經(jīng)編碼過的。覆蓋采樣位置的上述預測區(qū)塊用作參考區(qū)塊。用于為每個子PU導出參考視 點中的參考區(qū)塊的DV可為導出DV,并且上述導出DV對于每個子PU可為不同的或者所有的 子I3U共享一聯(lián)合的導出DV。
[0006] 對于每個參考區(qū)塊,如果使用運動補償預測(motioncompensated prediction,MCP)進行編解碼,則可將相關運動參數(shù)(即與參考視點VO相關聯(lián)的MV/、 MVb'、MVc'、MVd')用作當前視點中當前PU的對應子PU的時域視間運動矢量候選(temporal inter-viewmotionvectorcandidate,TIVMC)。另外,相關子PU可與其空域相鄰子PU共 享候選運動參數(shù)。當前PU的TIVMC由所有子PU的TIVMC組成。子PU尺寸可為4X4、8X8、 16X16等,其可由視頻參數(shù)集合(videoparameterset,VPS)中的旗標(flag)進行指示。
[0007] 圖2是描述VSP進程的示意圖。對于當前相關視點(Tl220)中的紋理PU(222), 可使用與相鄰區(qū)塊(224)相關聯(lián)的DV(240)定位參考視點(D0 230)中深度圖像的對應深 度區(qū)塊(234)。可使用DV(240)定位參考視點(D0 230)中深度圖像的同位區(qū)塊(232)。當 前紋理I3U(222)的采樣可變形映射(warp)至參考紋理視點(T0 210)中的對應采樣。映射 (250a-c)描述根據(jù)從相應深度值變換的DV將當前紋理PU中的采樣映射至參考紋理圖像中 采樣的示例。當前3D-HEVC的VSP方法也使用子PU級預測(如區(qū)塊232與區(qū)塊222中的 虛線所示)并且子PU尺寸可為8X4或4X8。因此,可將紋理PU(222)分割為子PU并且將 每個子I3U映射至相應深度子區(qū)塊。
[0008] 在當前3D-HEVC中,對于分割為更小的PU,允許子PU級視間運動預測以及子PU視 點合成預測。例如,對于SPIVMP或VSP,可將PU進一步分割為8X4或4X8尺寸單元。上 述小子將增大系統(tǒng)存儲帶寬。為了減小運動補償?shù)拇鎯?,在傳統(tǒng)HEVC中,已經(jīng)禁 用了小PU尺寸(8X4、4X8)的雙向預測。因此,在保持效能的同時,需要發(fā)展一種改進的 3D-HEVC編解碼技術(例如改進的SPIVMP與VSP)以降低較高的存儲帶寬需求。
【發(fā)明內容】
[0009] 有鑒于此,本發(fā)明揭露一種三維視頻或多視點視頻編解碼方法及其裝置。
[0010] 本發(fā)明實施例揭露一種三維視頻或多視點視頻編解碼方法,包含:接收相關視點 中與當前紋理預測單元相關聯(lián)的輸入數(shù)據(jù);將該當前紋理預測單元分割為子預測單元;使 用導出視點矢量定位對應該當前紋理預測單元的參考視點中的深度子區(qū)塊或紋理子區(qū)塊; 對于三維編解碼技術,使用該參考視點中該紋理子區(qū)塊的運動信息生成該當前紋理預測單 元的時域預測,或者使用該深度子區(qū)塊基于該參考視點中變形映射紋理采樣生成視間預 測;其中當生成的該時域預測或該視間預測是雙向預測時,僅使用列表0中的該時域預測 或該視間預測編解碼該當前紋理預測單元。
[0011] 本發(fā)明另一實施例揭露一種三維視頻或多視點視頻編解碼方法,包含:接收相關 視點中與當前紋理預測單元相關聯(lián)的輸入數(shù)據(jù);如果分割該當前紋理預測單元得到的子預 測單元不小于最小預測單元分割尺寸或者該當前紋理預測單元不屬于受限分割組,則將該 當前紋理預測單元分割為該子預測單元;使用第一導出視點矢量定位對應該當前紋理預測 單元的參考視點中的深度子區(qū)塊或紋理子區(qū)塊;對于三維編解碼技術,使用該參考視點中 該紋理子區(qū)塊的運動信息生成該當前紋理預測單元的時域預測,或者使用該深度子區(qū)塊基 于該參考視點中變形映射紋理采樣生成視間預測;如果分割該當前紋理預測單元得到的子 預測單元小于該最小預測單元分割尺寸或者該當前紋理預測單元屬于該受限分割組,則使 用第二導出視點矢量定位對應該當前紋理預測單元的該參考視點中的深度區(qū)塊或紋理區(qū) 塊;使用該參考視點中該紋理區(qū)塊的運動信息生成該當前紋理預測單元的該時域預測,或 者使用該深度區(qū)塊基于該參考視點中該變形映射紋理采樣生成該視間預測;以及使用該時 域預測或該視間預測編解碼該當前紋理預測單元。
[0012] 本發(fā)明另一實施例揭露一種用于三維視頻或多視點視頻編解碼的裝置,包含:接 收模塊,用于接收相關視點中與當前紋理預測單元相關聯(lián)的輸入數(shù)據(jù);分割模塊,用于將該 當前紋理預測單元分割為子預測單元;定位模塊,用于使用導出視點矢量定位對應該當前 紋理預測單元的參考視點中的深度子區(qū)塊或紋理子區(qū)塊;以及預測模塊,對于三維編解碼 技術,用于使用該參考視點中該紋理子區(qū)塊的運動信息生成該當前紋理預測單元的時域預 測,或者使用該深度子區(qū)塊基于該參考視點中變形映射紋理采樣生成視間預測;其中當生 成的該時域預測或該視間預測是雙向預測時,僅使用列表0中的該時域預測或該視間預測 編解碼該當前紋理預測單元。
[0013] 本發(fā)明另一實施例揭露一種用于三維視頻或多視點視頻編解碼的裝置,包含:接