国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      基于視點(diǎn)相關(guān)性的3D視頻深度圖像預(yù)測(cè)模式選擇方法與流程

      文檔序號(hào):11524745閱讀:385來(lái)源:國(guó)知局
      基于視點(diǎn)相關(guān)性的3D視頻深度圖像預(yù)測(cè)模式選擇方法與流程
      本發(fā)明屬于視頻編解碼
      技術(shù)領(lǐng)域
      ,具體是一種基于視點(diǎn)相關(guān)性的3d視頻深度圖預(yù)測(cè)模式快速選擇方法。
      背景技術(shù)
      :新興的多視點(diǎn)加深度圖的視頻格式是下一代3d視頻系統(tǒng)的最主要的格式。它采用少量視點(diǎn)的紋理圖信息和附加的相應(yīng)視點(diǎn)的深度圖信息來(lái)表示一個(gè)3d視頻場(chǎng)景,而更多的視點(diǎn)信息可由基于深度圖像的3d渲染技術(shù)來(lái)合成出來(lái)。由于在當(dāng)前的3d視頻系統(tǒng)中,深度圖對(duì)于提供視差信息并引導(dǎo)合成過(guò)程起著關(guān)鍵性的作用,所以深度圖編碼的研究有其重要的實(shí)用意義。圖1列出了深度圖所有可能的預(yù)測(cè)編碼模式。值得注意的是,3d-hevc中的每一次預(yù)測(cè)模式選擇過(guò)程都會(huì)遍歷這些模式,這使得整個(gè)預(yù)測(cè)編碼過(guò)程的復(fù)雜度極高。目前,學(xué)術(shù)界已有很多針對(duì)深度圖預(yù)測(cè)模式選擇過(guò)程簡(jiǎn)化的研究。文獻(xiàn)1(j.m.kang,k.d.chung,‘a(chǎn)fastmodedecisionusingtextureinformationforintradepthcodingin3dvc,’in19thieeesymposiumoncomputersandcommunications(iscc).,madeira,portugal,june.2014,pp.1-5.)提出了一種利用對(duì)應(yīng)紋理視圖信息來(lái)提前決定深度圖幀內(nèi)模式的方法。文獻(xiàn)2(z.wang,l.mo,d.li,t.xu,‘fastdepthmapintrapredictionalgorithmbasedonedgedetectionandcupartition,’in11thinternationalconferenceonwirelesscommunications.,shanghai,china,sep.2015,pp.1-5.)提出了一種用于深度編碼塊的邊緣檢測(cè)方法,并對(duì)平滑塊和邊緣塊采用不同的候選預(yù)測(cè)模式集。而在文獻(xiàn)3(miok,k.,nam,l.,andli,s.:‘fastsingledepthintramodedecisionfordepthmapcodingin3d-hevc’,int.conf.onicmew,turin,italian,june2015,pp.1-6)中,mirkm等人設(shè)計(jì)了一種通過(guò)考慮方差和估計(jì)失真來(lái)提前確定四叉樹編碼結(jié)構(gòu)的快速方法。然而,現(xiàn)有的深度圖編碼技術(shù)并沒有充分考慮到多個(gè)視點(diǎn)之間的相關(guān)性,而且深度圖大面積區(qū)域平滑的特點(diǎn)也沒有被很好地利用。另一方面,在多視點(diǎn)紋理視頻編碼領(lǐng)域,視點(diǎn)間的相關(guān)性已經(jīng)被研究地很深入了。文獻(xiàn)4(n.zhang,y.w.chen,s.w.lei,.etal.:‘fastencoderdecsionfortexturecoding,’itu-tsg16wp3andiso/iecjtc1/sc29/wg11,jct3v-e0173,july.2013)提出了一種利用5個(gè)基視點(diǎn)的相鄰塊的信息來(lái)預(yù)測(cè)當(dāng)前紋理塊編碼模式的方法。如果5個(gè)基視點(diǎn)相鄰塊都選擇merge模式,并且skip模式在當(dāng)前塊的編碼率失真rd-cost小于2n×2nmerge模式,則當(dāng)前塊選擇skip模式而提前終止模式選擇過(guò)程。其中,當(dāng)前塊的5個(gè)基視點(diǎn)相鄰塊如圖2所示?;谶@種方法,紋理圖編碼可以減少32%的編碼時(shí)間,同時(shí)沒有損壞視頻質(zhì)量。上述文獻(xiàn)中提出的提前終止判斷條件為c[10]。鑒于視點(diǎn)間相關(guān)性在紋理視頻編碼領(lǐng)域的極好表現(xiàn),觀察將上述方法移植到深度視頻編碼中來(lái)的效果。表1給出了滿足條件c[10]的深度編碼塊最終選擇預(yù)測(cè)模式的分布。從表中,很容易看到skip模式平均占比高達(dá)97.84%。這表明,在深度圖中,不同視點(diǎn)中的預(yù)測(cè)模式的相關(guān)性也極高。另一方面,值得注意的是,表1中除merge外的其余2.16%的分布中,dis平均占比超過(guò)60%。這是由于dis作為一種針對(duì)深度圖大面積平滑特點(diǎn)提出的預(yù)測(cè)模式,在一些平滑區(qū)域可以更好地表示編碼塊。表1滿足條件c[10]深度編碼塊最終選擇的預(yù)測(cè)模式分布總而言之,現(xiàn)有的深度圖快速編碼技術(shù)并沒有充分考慮到視點(diǎn)間的相關(guān)性,現(xiàn)有的深度圖模式選擇算法的復(fù)雜度依然有待降低。技術(shù)實(shí)現(xiàn)要素:本發(fā)明的目的在于提供一種快速的基于視點(diǎn)相關(guān)性的3d視頻深度圖像預(yù)測(cè)模式選擇方法,在保證合成視角中視頻質(zhì)量的前提下,簡(jiǎn)化深度圖像預(yù)測(cè)模式選擇的計(jì)算過(guò)程。實(shí)現(xiàn)本發(fā)明目的的技術(shù)解決方案為:一種基于視點(diǎn)相關(guān)性的3d視頻深度圖像預(yù)測(cè)模式選擇方法,包括如下步驟:步驟1:對(duì)于輸入的非獨(dú)立視點(diǎn)編碼塊,判斷基視點(diǎn)的5個(gè)相鄰參考編碼塊是否都選擇了merge模式作為預(yù)測(cè)編碼模式,如果是,則進(jìn)行步驟2;如果不是,則跳至步驟5;步驟2:計(jì)算當(dāng)前編碼塊基于skip模式、2n×2nmerge模式和dis模式的率失真rd-cost;步驟3:判斷skip模式的率失真rd-cost是否小于2n×2nmerge模式和dis模式,如果是,則進(jìn)行步驟4;如果不是,則跳至步驟5;步驟4:將skip模式設(shè)置為當(dāng)前編碼塊的預(yù)測(cè)模式,且預(yù)測(cè)模式選擇過(guò)程終止,跳至步驟6;步驟5:對(duì)當(dāng)前編碼塊進(jìn)行3d-hevc的原始預(yù)測(cè)模式選擇過(guò)程;步驟6:結(jié)束當(dāng)前塊的預(yù)測(cè)編碼模式選擇過(guò)程。進(jìn)一步地,步驟1中所述基視點(diǎn)的5個(gè)相鄰參考編碼塊,包括由深度視差估計(jì)搜索得到的對(duì)應(yīng)參考?jí)K,以及和該參考?jí)K上下左右四個(gè)直接相鄰參考?jí)K。進(jìn)一步地,步驟2中所述的率失真rd-cost的計(jì)算表達(dá)式如下:j(m)=dvso(m)+λ·b(m)m∈c其中,c是所有可能的預(yù)測(cè)模式的集合,j(m)是指對(duì)應(yīng)m模式的率失真rd-cost,dvso(m)是通過(guò)視點(diǎn)合成優(yōu)化技術(shù)vso得到的當(dāng)前模式的失真,λ是拉格朗日乘子,b(m)是用模式m編碼當(dāng)前塊的比特?cái)?shù)。進(jìn)一步地,步驟3中所述判斷skip模式的率失真rd-cost是否小于2n×2nmerge模式和dis模式,其中:merge模式包括不傳輸預(yù)測(cè)殘差的skip模式和傳輸預(yù)測(cè)殘差的2n×2nmerge模式,dis模式為幀內(nèi)編碼模式。本發(fā)明與現(xiàn)有技術(shù)相比,其顯著優(yōu)點(diǎn)在于:(1)利用視點(diǎn)間的相關(guān)性來(lái)預(yù)測(cè)深度圖的編碼模式,大大降低了編碼復(fù)雜度,并擴(kuò)展了深度圖編碼領(lǐng)域的研究方向;(2)設(shè)計(jì)方案結(jié)合了新的深度編碼模式dis的特點(diǎn),保證了視頻質(zhì)量不被損壞。附圖說(shuō)明圖1為3d-hevc中深度圖預(yù)測(cè)編碼的所有可能模式示意圖。圖2為本發(fā)明基于視點(diǎn)相關(guān)性的3d視頻深度圖預(yù)測(cè)模式選擇方法中當(dāng)前非獨(dú)立試點(diǎn)編碼塊的5個(gè)基視點(diǎn)的相鄰參考?jí)K示意圖。圖3是本發(fā)明基于視點(diǎn)相關(guān)性的3d視頻深度圖預(yù)測(cè)模式快速選擇方法的流程圖。具體實(shí)施方式本發(fā)明利用視點(diǎn)間的相關(guān)性來(lái)預(yù)測(cè)當(dāng)前非獨(dú)立視點(diǎn)深度編碼塊的預(yù)測(cè)模式。當(dāng)5個(gè)來(lái)自基視點(diǎn)的相鄰編碼塊都選擇merge模式時(shí),當(dāng)前編碼塊便很有可能也選擇merge模式。而為了進(jìn)一步確定merge模式是否適合表示當(dāng)前編碼塊,我們將skip模式的率失真rd-cost與2n×2nmerge模式和dis模式的進(jìn)行比較,如果由merge模式所得的運(yùn)動(dòng)矢量可以足夠好地表示當(dāng)前塊,則不傳輸預(yù)測(cè)殘差的skip模式的率失真rd-cost必然小于2n×2nmerge模式和dis模式的。結(jié)合圖3給出的詳細(xì)流程,上述方法具體包括如下步驟:步驟1:對(duì)于輸入的非獨(dú)立視點(diǎn)編碼塊,判斷基視點(diǎn)的5個(gè)相鄰參考編碼塊是否都選擇了merge模式作為預(yù)測(cè)編碼模式,如果是,則進(jìn)行步驟2;如果不是,則跳至步驟5;步驟2:計(jì)算當(dāng)前編碼塊基于skip模式、2n×2nmerge模式和dis模式的率失真rd-cost;步驟3:判斷skip模式的率失真rd-cost是否小于2n×2nmerge模式和dis模式,如果是,則進(jìn)行步驟4;如果不是,則跳至步驟5;步驟4:將skip模式設(shè)置為當(dāng)前編碼塊的預(yù)測(cè)模式,且預(yù)測(cè)模式選擇過(guò)程終止,跳至步驟6;步驟5:對(duì)當(dāng)前編碼塊進(jìn)行3d-hevc的原始預(yù)測(cè)模式選擇過(guò)程;步驟6:結(jié)束當(dāng)前塊的預(yù)測(cè)編碼模式選擇過(guò)程。進(jìn)一步地,步驟1中所述基視點(diǎn)的5個(gè)相鄰參考編碼塊,包括由深度視差估計(jì)搜索得到的對(duì)應(yīng)參考?jí)K,以及和該參考?jí)K上下左右四個(gè)直接相鄰參考?jí)K。進(jìn)一步地,步驟2中所述的率失真rd-cost的計(jì)算表達(dá)式如下:j(m)=dvso(m)+λ·b(m)m∈c其中,c是所有可能的預(yù)測(cè)模式的集合,j(m)是指對(duì)應(yīng)m模式的率失真rd-cost,dvso(m)是通過(guò)視點(diǎn)合成優(yōu)化技術(shù)vso得到的當(dāng)前模式的失真,λ是拉格朗日乘子,b(m)是用模式m編碼當(dāng)前塊的比特?cái)?shù)。進(jìn)一步地,步驟3中所述判斷skip模式的率失真rd-cost是否小于2n×2nmerge模式和dis模式,其中:merge模式包括不傳輸預(yù)測(cè)殘差的skip模式和傳輸預(yù)測(cè)殘差的2n×2nmerge模式,dis模式為幀內(nèi)編碼模式。下面通過(guò)實(shí)施例,對(duì)本發(fā)明的技術(shù)方案作進(jìn)一步具體的說(shuō)明。實(shí)施例本實(shí)施例展示的是基于視點(diǎn)相關(guān)性的3d視頻深度圖像預(yù)測(cè)模式快速選擇方法,其流程如圖3所示,其步驟包括:步驟1:對(duì)于輸入的非獨(dú)立視點(diǎn)編碼塊,判斷基視點(diǎn)的5個(gè)相鄰參考編碼塊是否都選擇了merge模式作為其預(yù)測(cè)編碼模式,如果是,則進(jìn)行步驟2;如果不是,則跳至步驟5;步驟2:計(jì)算當(dāng)前編碼塊基于skip模式、2n×2nmerge模式和dis模式的率失真rd-cost,其計(jì)算公式為:j(m)=dvso(m)+λ·b(m)m∈c步驟3:判斷skip模式的率失真是否小于2n×2nmerge模式和dis模式,如果是,則進(jìn)行步驟4;如果不是,則跳至步驟5;步驟4:將skip模式設(shè)置為當(dāng)前編碼塊的預(yù)測(cè)模式,且預(yù)測(cè)模式選擇過(guò)程提前終止,跳至步驟6;步驟5:對(duì)當(dāng)前編碼塊進(jìn)行3d-hevc的原始預(yù)測(cè)模式選擇過(guò)程;步驟6:結(jié)束當(dāng)前塊的預(yù)測(cè)編碼模式選擇過(guò)程。上述深度圖編碼快速方法被集成到3d-hevc測(cè)試模型(htm16.1)編碼器中,并與原始的htm16.1模型進(jìn)行性能比較。測(cè)試序列和參數(shù)都參考文獻(xiàn)”mller,k.,andvetro,a.:‘commontestconditionsof3dvcoreexperiments’,itu-tsg16wp3andiso/iecjtc1/sc29/wg11jct3v-g1100,january2014”中提出的標(biāo)準(zhǔn)。文獻(xiàn)”n.zhang,y.w.chen,s.w.lei,.etal.:‘fastencoderdecsionfortexturecoding,’itu-tsg16wp3andiso/iecjtc1/sc29/wg11,jct3v-e0173,july.2013”提出的紋理視頻編碼快速方法將被移植到深度圖編碼中,并與本發(fā)明方法在同樣的平臺(tái)上進(jìn)行性能的比較。表2給出了鑒于編碼時(shí)間和bdbr的編碼性能比較。其中,bdbr表示同等客觀視頻質(zhì)量的條件下,相較原始htm方法比特率的節(jié)省情況。bdbr的計(jì)算基于總的比特率和合成視點(diǎn)的客觀質(zhì)量psnr。編碼時(shí)間比較的是相對(duì)于原始htm16.1方法編碼時(shí)間的節(jié)省情況。從表2中可知,本發(fā)明的編碼方法相較于目前最先進(jìn)的方法(集成在htm16.1中)可以節(jié)省平均22.1%的時(shí)間,同時(shí)僅僅增加了0.01%的bdbr。這表明,本發(fā)明的編碼方法降低了編碼復(fù)雜度,并且保證了編碼視頻的質(zhì)量。而相應(yīng)的zhang的編碼方法由于不是針對(duì)深度圖編碼提出的,在獲取快速編碼效果的同時(shí),它并不能保持相對(duì)穩(wěn)定的視頻質(zhì)量。表2本發(fā)明方法和zhang的算法的結(jié)果對(duì)比表3本發(fā)明方法的適用編碼塊的比例以及適用塊預(yù)測(cè)模式選擇的準(zhǔn)確率測(cè)試序列適用編碼塊的比例模式選擇的準(zhǔn)確率balloons67.90%99.30%kendo54.69%99.12%newspaper67.26%99.16%gt_fly75.53%99.85%poznan_hall272.11%99.76%poznan_street75.48%99.67%shark66.92%98.86%undo_dancer67.80%99.09%average68.46%99.35%表3是本發(fā)明的方法提前終止的準(zhǔn)確率和適用本方法的編碼塊的比例。從表3中可以看出,平均68.46%的編碼塊滿足提前終止模式選擇的條件,其中,高達(dá)99.35%提前終止預(yù)測(cè)模式選擇過(guò)程的編碼塊正確地選擇了預(yù)測(cè)模式。這表明本發(fā)明的方法適用性廣,準(zhǔn)確度高,實(shí)用性強(qiáng)。當(dāng)前第1頁(yè)12
      當(dāng)前第1頁(yè)1 2 
      網(wǎng)友詢問(wèn)留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1