国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      面向裸眼3d顯示的實(shí)拍雙視點(diǎn)3d視頻優(yōu)化方法及系統(tǒng)的制作方法

      文檔序號:10661338閱讀:686來源:國知局
      面向裸眼3d顯示的實(shí)拍雙視點(diǎn)3d視頻優(yōu)化方法及系統(tǒng)的制作方法
      【專利摘要】本發(fā)明揭示了一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法及系統(tǒng),所述方法包括如下步驟:輸入實(shí)拍雙視點(diǎn)3D視頻;選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第二視點(diǎn)圖像;將第一視點(diǎn)圖像分割成基本計算單元;基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配單元,計算視差場;使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為基于像素的視差場;將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素的視差場按圖像及深度3D視頻格式輸出。本發(fā)明可避免復(fù)雜的后期處理以消除實(shí)拍雙視點(diǎn)3D視頻左右畫面的差異;利用半自動視差計算方法可有效提取實(shí)拍雙視點(diǎn)3D視頻的深度信息或視差信息,保持實(shí)拍雙視點(diǎn)3D視頻的3D效果。
      【專利說明】
      面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法及系統(tǒng)
      技術(shù)領(lǐng)域
      [0001]本發(fā)明屬于3D視頻優(yōu)化技術(shù)領(lǐng)域,涉及一種3D視頻優(yōu)化方法,尤其涉及一種面向 裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法;同時,本發(fā)明還涉及一種面向裸眼3D顯示的實(shí) 拍雙視點(diǎn)3D視頻優(yōu)化系統(tǒng)。
      【背景技術(shù)】
      [0002] 雙視點(diǎn)3D視頻是通用3D視頻格式,是3D影視內(nèi)容的主要形式。雙視點(diǎn)3D視頻可以 通過雙攝像頭3D攝像機(jī)拍攝,是3D影視內(nèi)容獲取的主要方式。但是,雙攝像頭3D攝像機(jī)使用 雙攝像頭分別拍攝左右畫面,導(dǎo)致實(shí)拍雙視點(diǎn)3D視頻的左右畫面通常存在差異,如亮度不 一致、顏色不一致、垂直視差等,會顯著影響實(shí)拍雙視點(diǎn)3D視頻的3D顯示效果,因此實(shí)拍雙 視點(diǎn)3D影視內(nèi)容通常需要復(fù)雜的后期處理與優(yōu)化以獲得好的3D視覺效果。
      [0003] -種裸眼3D顯示設(shè)備,由顯示裝置與光柵裝置組成,可讓觀看者無需任何輔助設(shè) 備就可以感覺到3D效果。為解決多人多角度同時觀看的問題,通常采用多視點(diǎn)顯示方式,多 視點(diǎn)立體圖像經(jīng)過合成后可以在該裸眼3D顯示設(shè)備上觀看到3D效果。這樣雙視點(diǎn)3D視頻要 在該裸眼3D顯示設(shè)備上顯示就需要實(shí)時提取雙視點(diǎn)3D視頻的深度信息或視差信息并實(shí)時 渲染成多視點(diǎn)立體視頻,實(shí)時提取深度信息或視差信息是個巨大的難題,尤其是實(shí)拍雙視 點(diǎn)3D視頻,亮度不一致、顏色不一致、垂直視差等都是影響深度信息或視差信息實(shí)時提取的 重要因素。
      [0004] 播放3D影視類等經(jīng)過良好后期處理的雙視點(diǎn)3D視頻的裸眼3D顯示設(shè)備已經(jīng)出現(xiàn) 并規(guī)模應(yīng)用,但是直接播放實(shí)拍雙視點(diǎn)3D視頻在該裸眼3D顯示設(shè)備上面臨諸多問題:(1)實(shí) 拍雙視點(diǎn)3D視頻左右畫面存在亮度不一致、顏色不一致和垂直視差等顯著影響3D效果的問 題;(2)亮度不一致、顏色不一致和垂直視差等問題也是影響實(shí)時多視點(diǎn)轉(zhuǎn)換的重要因素, 使深度提取或視差提取不準(zhǔn)確,導(dǎo)致3D圖像扯動等嚴(yán)重問題。
      [0005] 隨著多視點(diǎn)裸眼3D顯示設(shè)備的普及,迫切需要一種面向裸眼3D顯示的簡單快速的 實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法與系統(tǒng)以優(yōu)化其裸眼3D顯示效果。

      【發(fā)明內(nèi)容】

      [0006] 本發(fā)明所要解決的技術(shù)問題是:提供一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu) 化方法,避免實(shí)拍雙視點(diǎn)3D視頻左右畫面不一致并保持深度信息或視差信息,提升3D顯示 效果。
      [0007] 此外,本發(fā)明還提供一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化系統(tǒng),避免實(shí) 拍雙視點(diǎn)3D視頻左右畫面不一致并保持深度信息或視差信息,提升3D顯示效果。
      [0008] 為解決上述技術(shù)問題,本發(fā)明采用如下技術(shù)方案:
      [0009] 一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,所述方法包括如下步驟:
      [0010] 步驟S1.輸入實(shí)拍雙視點(diǎn)3D視頻;
      [0011] 步驟S2.選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第二視點(diǎn)圖像;
      [0012] 步驟S3.將第一視點(diǎn)圖像分割成基本計算單元;所述基本計算單元按照塊的形式 進(jìn)行劃分,優(yōu)選塊的大小為4x4或8x8或16x16;
      [0013] 步驟S4.基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配單元,計 算視差場;
      [0014] 所述搜索匹配單元采用半自動方法;邊緣塊及其相鄰塊采用人工方式進(jìn)行視差賦 值,非邊緣塊根據(jù)空間相關(guān)性自動搜索匹配單元獲取視差;
      [0015] 所述非邊緣塊的自動搜索方法中:
      其中Dm,n為基本計算單元視差,IU2分別為第一視點(diǎn)圖像和第二視點(diǎn)圖像,argmin為參數(shù)極 小值計算;
      [0016] 步驟S5.使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為基于像素 的視差場;
      [0017] 所述邊緣指導(dǎo)的插值方法中,垂直方向插值采用如下方式進(jìn)行:
      [0018] Si,n=((M-v)*Dm,n + v*Dm + i,n)/M,M為基本計算單元垂直方向大小,

      如果當(dāng)前像素屬于邊緣塊且位于邊緣上方,
      [0019] 水平方向插值采用如下方式進(jìn)行:
      [0020] di, j = ((N-h)*Si,n+h*Si,n+i)/N,di, j為像素視差,N為基本計算單元水平方向大小,
      如果當(dāng)前像素屬于邊緣塊且位于邊緣左邊
      [0021] 步驟S6.將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素的視差場按圖 像及深度3D視頻格式輸出;
      [0022] 其中,視差場歸一化采用如下方式:Xi, j = _k*di, j+b,k與b為常數(shù),且最大負(fù)視差對 應(yīng)最大值,最大正視差對應(yīng)零;
      [0023] 所述步驟S6中,將第一視點(diǎn)圖像放在左邊,對應(yīng)的視差場放在右邊形成圖像及深 度3D視頻格式。
      [0024] 一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,所述方法包括如下步驟:
      [0025]步驟S1.輸入實(shí)拍雙視點(diǎn)3D視頻;
      [0026] 步驟S2.選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第二視點(diǎn)圖像;
      [0027] 步驟S3.將第一視點(diǎn)圖像分割成基本計算單元;
      [0028]步驟S4.基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配單元,計 算視差場;
      [0029] 步驟S5.使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為基于像素 的視差場;
      [0030] 步驟S6.將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素的視差場按圖 像及深度3D視頻格式輸出。
      [0031] 作為本發(fā)明的一種優(yōu)選方案,所述基本計算單元按照塊的形式進(jìn)行劃分,優(yōu)選塊 的大小為4x4或8x8或16x16。
      [0032] 作為本發(fā)明的一種優(yōu)選方案,所述搜索匹配單元采用半自動方法。
      [0033] 作為本發(fā)明的一種優(yōu)選方案,所述搜索匹配單元采用的半自動方法中,邊緣塊及 其相鄰塊采用人工方式進(jìn)行視差賦值,非邊緣塊根據(jù)空間相關(guān)性自動搜索匹配單元獲取視 差。
      [0034] 作為本發(fā)明的一種優(yōu)選方案,所述非邊緣塊的自動搜索方法中,
      ,其中Dm,η為基本計算單兀視差,II、 12分別為第一視點(diǎn)圖像和第二視點(diǎn)圖像,argmin為參數(shù)極小值計算。
      [0035] 作為本發(fā)明的一種優(yōu)選方案,所述邊緣指導(dǎo)的插值方法中,垂直方向插值采用如 下方式進(jìn)行:
      [0036] Si, n = ( (M_V)*Dm,n + V*Dm + l,n)/M,M為基本計算單元垂直方向大小,
      如果當(dāng)前像素屬于邊緣塊且位于邊緣上方:

      [0037] 水平方向插值采用如下方式進(jìn)行:
      [0038] 為像素視差,N為基本計算單元水平方向大小,
      :如果當(dāng)前像素屬于邊緣塊且位于邊緣左邊,
      [0039] 作為本發(fā)明的一種優(yōu)選方案,所述步驟S6中,視差場歸一化采用如下方式:Xlu = _ k*di, j+b,k與b為常數(shù),且最大負(fù)視差對應(yīng)最大值,最大正視差對應(yīng)零。
      [0040] 作為本發(fā)明的一種優(yōu)選方案,所述步驟S6中,將第一視點(diǎn)圖像放在左邊,對應(yīng)的視 差場放在右邊形成圖像及深度3D視頻格式。
      [0041] 一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化系統(tǒng),所述系統(tǒng)包括:
      [0042]實(shí)拍雙視點(diǎn)3D視頻輸入模塊,用以輸入實(shí)拍雙視點(diǎn)3D視頻;
      [0043]視點(diǎn)圖像選擇模塊,用以選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖 為第二視點(diǎn)圖像;
      [0044] 第一視點(diǎn)圖像分割模塊,用以將第一視點(diǎn)圖像分割成基本計算單元;
      [0045] 視差場計算模塊,用以基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索 匹配單元,計算視差場;
      [0046] 視差場轉(zhuǎn)換模塊,用以使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn) 換為基于像素的視差場;
      [0047] 3D視頻格式輸出模塊,用以將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于 像素的視差場按圖像及深度3D視頻格式輸出。
      [0048]本發(fā)明的有益效果在于:本發(fā)明提出的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化 方法及系統(tǒng),可避免實(shí)拍雙視點(diǎn)3D視頻左右畫面不一致,同時克服由于實(shí)時深度提取或視 差提取不準(zhǔn)確導(dǎo)致的3D視覺效果問題。
      [0049]本發(fā)明將實(shí)拍雙視點(diǎn)3D視頻轉(zhuǎn)換為圖像及深度3D視頻,可避免復(fù)雜的后期處理以 消除實(shí)拍雙視點(diǎn)3D視頻左右畫面的差異,如亮度差異、顏色差異和垂直視差等;利用半自動 視差計算方法可有效提取實(shí)拍雙視點(diǎn)3D視頻的深度信息或視差信息,保持實(shí)拍雙視點(diǎn)3D視 頻的3D效果。
      【附圖說明】
      [0050]圖1實(shí)拍雙視點(diǎn)3D視頻示例。
      [0051 ]圖2邊緣基本計算單元示意圖。
      [0052]圖3本發(fā)明技術(shù)方案流程圖。
      [0053]圖4圖像+深度3D視頻示例。
      【具體實(shí)施方式】
      [0054]下面結(jié)合附圖詳細(xì)說明本發(fā)明的優(yōu)選實(shí)施例。
      [0055] 實(shí)施例一
      [0056]請參閱圖3,本發(fā)明揭示了一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,所 述方法包括如下步驟:
      [0057] 步驟S1.輸入實(shí)拍雙視點(diǎn)3D視頻,可參見圖1;
      [0058]步驟S2.選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第二視點(diǎn)圖像;
      [0059] 步驟S3.將第一視點(diǎn)圖像分割成基本計算單元;所述基本計算單元按照塊的形式 進(jìn)行劃分(如圖2所示),優(yōu)選塊的大小為4x4或8x8或16x16;
      [0060] 步驟S4.基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配單元,計 算視差場;
      [0061] 所述搜索匹配單元采用半自動方法;邊緣塊及其相鄰塊采用人工方式進(jìn)行視差賦 值,非邊緣塊根據(jù)空間相關(guān)性自動搜索匹配單元獲取視差;
      [0062] 所述非邊緣塊的自動搜索方法中
      其中Dm,n為基本計算單元視差,IU2分別為第一視點(diǎn)圖像和第二視點(diǎn)圖像,argmin為參數(shù)極 小值計算;
      [0063] 步驟S5.使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為基于像素 的視差場;
      [0064] 所述邊緣指導(dǎo)的插值方法中,垂直方向插值采用如下方式進(jìn)行:
      [0065]Si, n = ( (M-v)*Dm,n + v*Dm + i,n)/M,M為基本計算單元垂直方向大小,
      如果當(dāng)前像素屬于邊緣塊且位于邊緣上方,
      ,否則
      [0066] 水平方向插值采用如下方式進(jìn)行:
      [0067] di,j = ((N_h)*Si,n+h*Si,n+i)/N,di, j為像素視差,N為基本計算單元水平方向大小,
      ;如果當(dāng)前像素屬于邊緣塊且位于邊緣左邊
      ,否則
      [0068] 步驟S6.將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素的視差場按圖 像及深度3D視頻格式輸出(可參閱圖4);
      [0069] 其中,視差場歸一化采用如下方式:Xi, j = -k*di, j+b,k與b為常數(shù),且最大負(fù)視差對 應(yīng)最大值,最大正視差對應(yīng)零;
      [0070] 所述步驟S6中,將第一視點(diǎn)圖像放在左邊,對應(yīng)的視差場放在右邊形成圖像及深 度3D視頻格式。
      [0071] 本發(fā)明還揭示一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化系統(tǒng),所述系統(tǒng)包 括:實(shí)拍雙視點(diǎn)3D視頻輸入模塊、視點(diǎn)圖像選擇模塊、第一視點(diǎn)圖像分割模塊、視差場計算 模塊、視差場轉(zhuǎn)換模塊、3D視頻格式輸出模塊。
      [0072]實(shí)拍雙視點(diǎn)3D視頻輸入模塊用以輸入實(shí)拍雙視點(diǎn)3D視頻;
      [0073]視點(diǎn)圖像選擇模塊用以選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為 第二視點(diǎn)圖像;
      [0074]第一視點(diǎn)圖像分割模塊用以將第一視點(diǎn)圖像分割成基本計算單元;
      [0075]視差場計算模塊用以基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索 匹配單元,計算視差場;
      [0076]視差場轉(zhuǎn)換模塊用以使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn) 換為基于像素的視差場;
      [0077] 3D視頻格式輸出模塊用以將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像 素的視差場按圖像及深度3D視頻格式輸出。
      [0078] 上述各個模塊的具體功能可以參見上述方法的描述,這里不做贅述。
      [0079] 實(shí)施例二
      [0080] 一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,所述方法包括如下步驟:
      [0081 ]步驟S1.輸入實(shí)拍雙視點(diǎn)3D視頻;
      [0082]步驟S2.選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第二視點(diǎn)圖像; [0083]步驟S3.將第一視點(diǎn)圖像分割成基本計算單元;
      [0084] 步驟S4.基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配單元,計 算視差場;
      [0085] 步驟S5.使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為基于像素 的視差場;
      [0086] 步驟S6.將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素的視差場按圖 像及深度3D視頻格式輸出。
      [0087]綜上所述,本發(fā)明提出的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法及系統(tǒng), 可避免實(shí)拍雙視點(diǎn)3D視頻左右畫面不一致,同時克服由于實(shí)時深度提取或視差提取不準(zhǔn)確 導(dǎo)致的3D視覺效果問題。
      [0088]本發(fā)明將實(shí)拍雙視點(diǎn)3D視頻轉(zhuǎn)換為圖像及深度3D視頻,可避免復(fù)雜的后期處理以 消除實(shí)拍雙視點(diǎn)3D視頻左右畫面的差異,如亮度差異、顏色差異和垂直視差等;利用半自動 視差計算方法可有效提取實(shí)拍雙視點(diǎn)3D視頻的深度信息或視差信息,保持實(shí)拍雙視點(diǎn)3D視 頻的3D效果。
      [0089]這里本發(fā)明的描述和應(yīng)用是說明性的,并非想將本發(fā)明的范圍限制在上述實(shí)施例 中。這里所披露的實(shí)施例的變形和改變是可能的,對于那些本領(lǐng)域的普通技術(shù)人員來說實(shí) 施例的替換和等效的各種部件是公知的。本領(lǐng)域技術(shù)人員應(yīng)該清楚的是,在不脫離本發(fā)明 的精神或本質(zhì)特征的情況下,本發(fā)明可以以其它形式、結(jié)構(gòu)、布置、比例,以及用其它組件、 材料和部件來實(shí)現(xiàn)。在不脫離本發(fā)明范圍和精神的情況下,可以對這里所披露的實(shí)施例進(jìn) 行其它變形和改變。
      【主權(quán)項(xiàng)】
      1. 一種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于,所述方法包括如 下步驟: 步驟Sl.輸入實(shí)拍雙視點(diǎn)3D視頻; 步驟S2.選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第二視點(diǎn)圖像; 步驟S3.將第一視點(diǎn)圖像分割成基本計算單元;所述基本計算單元按照塊的形式進(jìn)行 劃分,優(yōu)選塊的大小為4x4或8x8或16x16; 步驟S4.基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配單元,計算視 差場; 所述搜索匹配單元采用半自動方法;邊緣塊及其相鄰塊采用人工方式進(jìn)行視差賦值, 非邊緣塊根據(jù)空間相關(guān)性自動搜索匹配單元獲取視差; 所述非邊緣塊的自動搜索方法中其中Dm,n為基本計算單元視差,I1J2分別為第一視點(diǎn)圖像和第二視點(diǎn)圖像,argmin為參數(shù)極 小值計算; 步驟S5.使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為基于像素的視 差場; 所述邊緣指導(dǎo)的插值方法中,垂直方向插值采用如下方式進(jìn)行: 31,11=((1-¥)*0111,11+¥*0111+1, 11)/]\1,]\1為基本計算單元垂直方向大小,_=#:^ = ;[%1;如果當(dāng)前像素屬于邊緣塊且位于邊緣上方,! 水平方向插值采用如下方式進(jìn)行: di.jiUN-hhSi.n+l^Si.n+O/Hj為像素視差,N為基本計算單元水平方向大小, 數(shù)=^ h = j % N ;如果當(dāng)前像素屬于邊緣塊且位于邊緣左邊,則綠=I 一 I h = 0,否則 這=I + .Ui = O; 步驟S6.將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素的視差場按圖像及 深度3D視頻格式輸出; 其中,視差場歸一化采用如下方式:Xi, j = _k*di, j+b,k與b為常數(shù),且最大負(fù)視差對應(yīng)最 大值,最大正視差對應(yīng)零; 所述步驟S6中,將第一視點(diǎn)圖像放在左邊,對應(yīng)的視差場放在右邊形成圖像及深度3D 視頻格式。2. -種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于,所述方法包括如 下步驟: 步驟Sl.輸入實(shí)拍雙視點(diǎn)3D視頻; 步驟S2.選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第二視點(diǎn)圖像; 步驟S3.將第一視點(diǎn)圖像分割成基本計算單元; 步驟S4.基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配單元,計算視 差場; 步驟S5.使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為基于像素的視 差場; 步驟S6.將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素的視差場按圖像及 深度3D視頻格式輸出。3. 根據(jù)權(quán)利要求2所述的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于: 所述基本計算單元按照塊的形式進(jìn)行劃分,優(yōu)選塊的大小為4x4或8x8或16x16。4. 根據(jù)權(quán)利要求2所述的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于: 所述搜索匹配單元采用半自動方法。5. 根據(jù)權(quán)利要求4所述的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于: 所述搜索匹配單元采用的半自動方法中,邊緣塊及其相鄰塊采用人工方式進(jìn)行視差賦 值,非邊緣塊根據(jù)空間相關(guān)性自動搜索匹配單元獲取視差。6. 根據(jù)權(quán)利要求5所述的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于: 所述非邊緣塊的自動搜索方法=其中Dm,n為基本計算單元視差,I1J2分別為第一視點(diǎn)圖像和第二視點(diǎn)圖像,argmin為參數(shù)極 小值計算。7. 根據(jù)權(quán)利要求2所述的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于: 所述邊緣指導(dǎo)的插值方法中,垂直方向插值采用如下方式進(jìn)行: Si, n = ( ( M-V ) *Dm, n+V*Dm+l, n ) /M,M為基本計算單元垂直方向大/J? M ;如果 當(dāng)前像素屬于邊緣塊且位于邊緣上方,卩,否! ^水平方向插值采用如下方式進(jìn)行:di.jiUN-hhSi.n+l^Si.n+O/Hj為像素視差,N為基本計算單元水平方向大小, 數(shù)= I^h = j %N;如果當(dāng)前像素屬于邊緣塊且位于邊緣左邊,則-Ih = O,否則8. 根據(jù)權(quán)利要求2所述的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于: 所述步驟S6中,視差場歸一化采用如下方式 :Xlu = -k*dlu+b,k與b為常數(shù),且最大負(fù)視 差對應(yīng)最大值,最大正視差對應(yīng)零。9. 根據(jù)權(quán)利要求2所述的面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化方法,其特征在于: 所述步驟S6中,將第一視點(diǎn)圖像放在左邊,對應(yīng)的視差場放在右邊形成圖像及深度3D 視頻格式。10. -種面向裸眼3D顯示的實(shí)拍雙視點(diǎn)3D視頻優(yōu)化系統(tǒng),其特征在于,所述系統(tǒng)包括: 實(shí)拍雙視點(diǎn)3D視頻輸入模塊,用以輸入實(shí)拍雙視點(diǎn)3D視頻; 視點(diǎn)圖像選擇模塊,用以選擇左圖或右圖為第一視點(diǎn)圖像,則相應(yīng)的右圖或左圖為第 二視點(diǎn)圖像; 第一視點(diǎn)圖像分割模塊,用以將第一視點(diǎn)圖像分割成基本計算單元; 視差場計算模塊,用以基于第一視點(diǎn)圖像的基本計算單元在第二視點(diǎn)圖像中搜索匹配 單元,計算視差場; 視差場轉(zhuǎn)換模塊,用以使用邊緣指導(dǎo)的插值方法將基于基本計算單元的視差場轉(zhuǎn)換為 基于像素的視差場; 3D視頻格式輸出模塊,用以將基于像素的視差場歸一化,將第一視點(diǎn)圖像與基于像素 的視差場按圖像及深度3D視頻格式輸出。
      【文檔編號】H04N13/00GK106028018SQ201610375463
      【公開日】2016年10月12日
      【申請日】2016年5月31日
      【發(fā)明人】方勇, 石巖
      【申請人】上海易維視科技股份有限公司
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
      1