虛擬影像與真實場景相結合的舞臺交互集成系統(tǒng)及實現(xiàn)方法
【專利摘要】本發(fā)明公開了一種虛擬影像與真實場景相結合的舞臺交互集成系統(tǒng)及實現(xiàn)方法,該系統(tǒng)包括現(xiàn)場行為采集單元、行為學習單元、表演意圖分析單元和布景單元,現(xiàn)場行為采集單元采集用于生成表演者的表演行為的訓練數(shù)據(jù)或現(xiàn)場數(shù)據(jù),行為學習單元,利用支持向量機分類器學習訓練數(shù)據(jù),得到表演者的預設行為;利用現(xiàn)場數(shù)據(jù)得到表演者的現(xiàn)場行為,表演意圖分析單元上根據(jù)表演者的當前現(xiàn)場行為與相應預設行為的對應關系,獲得表演者的表演意圖;布景單元上保存有與表演者的表演意圖相對應的多個場景畫面,所述布景單元根據(jù)所述表演意圖,選擇相應的場景畫面投影到舞臺上。本發(fā)明,可以實現(xiàn)表演者與舞臺場景的互動,達到了虛擬影像與真實場景相結合的舞臺效果。
【專利說明】虛擬影像與真實場景相結合的舞臺交互集成系統(tǒng)及實現(xiàn)方法
【技術領域】
[0001]本發(fā)明涉及舞臺展示系統(tǒng),具體涉及虛擬影像與真實場景相結合的舞臺交互集成系統(tǒng)及實現(xiàn)方法。
【背景技術】
[0002]眾所周知,藝術演出的舞臺展示對演出效果的作用越來越突出。但是,現(xiàn)有的舞臺展示系統(tǒng)通常采用的是人工或定時變換場景畫面的方式,實現(xiàn)虛擬影像與真實場景的結合。這種方式,無法實現(xiàn)表演者與舞臺場景的互動,已經(jīng)不能滿足人們更高層次的需求,虛擬影像與真實場景相結合的舞臺效果越來越受到人們的關注。
【發(fā)明內容】
[0003]本發(fā)明所要解決的技術問題是在舞臺展示系統(tǒng)無法實現(xiàn)表演者與舞臺場景的互動的問題。
[0004]為了解決上述技術問題,本發(fā)明所采用的技術方案是提供一種虛擬影像與真實場景相結合的舞臺交互集成系統(tǒng),包括:
[0005]行為采集単元,采集用于生成表演者的表演行為的訓練數(shù)據(jù)或現(xiàn)場數(shù)據(jù);
[0006]行為學習単元,利用支持向量機分類器學習所述訓練數(shù)據(jù),得到表演者的預設行為;利用所述現(xiàn)場數(shù)據(jù)得到表演者的現(xiàn)場行為;
[0007]表演意圖分析単元,根據(jù)表演者的當前現(xiàn)場行為與相應預設行為的對應關系,獲得表演者的表演意圖;
[0008]布景單元,其上保存有與表演者的表演意圖相對應的多個場景,所述布景単元根據(jù)所述表演意圖,選擇相應的場景加載到舞臺上;所述場景包括相應的聲音、燈光、靜態(tài)畫面和動態(tài)畫面。
[0009]在上述系統(tǒng)中,所述彳了為米集單兀包括:
[0010]多個輕型慣導傳感輸入設備,分別固定在表演者的頭部、軀干部以及上肢和下肢上,每個所述輕型慣導傳感輸入設備實時采集表演者各關節(jié)的運動學姿態(tài)訓練數(shù)據(jù)或姿態(tài)現(xiàn)場數(shù)據(jù);
[0011]3D重構單元,根據(jù)所述姿態(tài)訓練數(shù)據(jù)重構表演者的三維預設模型,根據(jù)所述姿態(tài)現(xiàn)場數(shù)據(jù)重構表演者的三維現(xiàn)場模型;
[0012]所述預設行為為預設姿態(tài),所述現(xiàn)場行為為現(xiàn)場姿態(tài),所述行為學習單元利用所述三維預設模型創(chuàng)建表演者的姿態(tài)訓練集,并利用所述姿態(tài)訓練集獲得表演者的預設姿態(tài);利用所述姿態(tài)現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場姿態(tài)。
[0013]在上述系統(tǒng)中,所述彳丁為米集單兀包括:
[0014]3D體感攝影機,采集表演者的表情和語音訓練數(shù)據(jù)或表情和語音現(xiàn)場數(shù)據(jù);
[0015]所述預設行為為預設表情,所述現(xiàn)場行為為現(xiàn)場表情,所述行為學習單元利用所述表情和語音訓練數(shù)據(jù)創(chuàng)建表演者的表情訓練集和語音訓練集,并利用所述表情訓練集獲得表演者的預設表情和預設語音;利用所述表情和語音現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場表情和現(xiàn)場語音。
[0016]在上述系統(tǒng)中,所述彳丁為米集單兀包括:
[0017]動作捕捉単元,采集表演者的動作訓練數(shù)據(jù)或動作現(xiàn)場數(shù)據(jù),所述動作訓練數(shù)據(jù)或動作現(xiàn)場數(shù)據(jù)包括表演者運動過程中身體移動的位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù);
[0018]所述預設行為為預設動作,所述現(xiàn)場行為為現(xiàn)場動作,所述行為學習單元利用所述動作訓練數(shù)據(jù)創(chuàng)建表演者的動作訓練集,并利用所述動作訓練集獲得表演者的預設動作;利用所述動作現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場動作。
[0019]在上述系統(tǒng)中,所述行為采集單元上還設有校正模塊,利用某個已知的輕型慣導傳感輸入設備與相應身體軀段間的空間關系以及人體生物機械模型對其他輕型慣導傳感輸入設備進行校正。
[0020]在上述系統(tǒng)中,所述行為采集單元上還設有表情處理單元,所述表情處理單元包括:
[0021]標定模塊,分別采集每ー個參考平面的散斑圖案數(shù)據(jù),所述參考平面為沿所述3D體感攝影機的鏡頭方向由近及遠依次間隔設置在舞臺上的虛擬垂直平面;
[0022]存儲模塊,存儲每ー個所述參考平面的所述散斑圖案數(shù)據(jù);
[0023]插值計算模塊,根據(jù)所述表情訓練數(shù)據(jù)與每一個所述散斑圖案數(shù)據(jù)的互相關運算結果,得到表演者的訓練表情;根據(jù)所述表情現(xiàn)場數(shù)據(jù)得到所述現(xiàn)場表情。
[0024]在上述系統(tǒng)中,所述行為采集單元上還設有圖像計算處理単元,所述圖像計算處理單元包括:
[0025]標定模塊,通過對所述動作捕捉識別單元的標定得出其與投影影像之間的相對位置數(shù)據(jù),
[0026]圖像處理模塊,根據(jù)對所述表演者運動過程的連續(xù)圖像數(shù)據(jù)進行計算分析,得出在所述動作捕捉識別單元中表演者運動過程中身體移動的位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù),
[0027]坐標轉換模塊,將動作捕捉識別單元圖像坐標系中的所述位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù)轉換為在投影單元圖像坐標系中的投影位置數(shù)據(jù)、投影方向數(shù)據(jù)和投影速度數(shù)據(jù)。
[0028]在上述系統(tǒng)中,所述布景単元包括若干個投影儀和亮帶消除模塊,所述投影儀根據(jù)所述影像調用輸出信號調用相應的虛擬環(huán)境影像及虛擬環(huán)境中物體的運動影像進行投影,所述亮帶消除模塊消除若干個投影儀之間因為投影范圍融合而產(chǎn)生的亮帶。
[0029]本發(fā)明還提供了一種虛擬影像與真實場景相結合的舞臺交互實現(xiàn)方法,包括以下步驟:
[0030]利用支持向量機分類器學習表演者的各種行為的訓練數(shù)據(jù)得到表演者的預設行為;
[0031]實時采集表演者的現(xiàn)場行為數(shù)據(jù),并獲得表演者的現(xiàn)場行為;
[0032]根據(jù)表演者的所述現(xiàn)場行為與所述預設行為的對應關系,獲得表演者的表演意圖;[0033]根據(jù)所述表演意圖,選擇相應的場景畫面投影到舞臺上,所述場景包括相應的聲音、燈光、靜態(tài)畫面和動態(tài)畫面。
[0034]本發(fā)明,根據(jù)表演者的當前現(xiàn)場行為與所述預設行為的對應關系,獲得表演者的表演意圖,再根據(jù)表演意圖,選擇相應的場景畫面投影到舞臺上,所述場景包括相應的聲音、燈光、靜態(tài)畫面和動態(tài)畫面,從而實現(xiàn)了虛擬影像與真實場景相結合的舞臺效果。
【專利附圖】
【附圖說明】
[0035]圖1為本發(fā)明的結構示意圖;
[0036]圖2為本發(fā)明中行為采集単元的結構示意圖。
【具體實施方式】
[0037]本發(fā)明提供了一種虛擬影像與真實場景相結合的舞臺交互集成系統(tǒng)及實現(xiàn)方法,實現(xiàn)了根據(jù)表演者的姿態(tài)、表情等現(xiàn)場行為,調動相應的聲、光、電及場景,實現(xiàn)表演者與舞臺場景的實時交互。下面結合說明書附圖和【具體實施方式】對本發(fā)明做出詳細的說明。
[0038]如圖1所示,本發(fā)明提供的擬影像與真實場景相結合的舞臺交互集成系統(tǒng)包括行為采集単元10、行為學習単元20、表演意圖分析単元30和布景單元40。
[0039]其中,行為采集単元10用于采集用于生成表演者的表演行為的訓練數(shù)據(jù)或現(xiàn)場數(shù)據(jù);
[0040]行為學習単元20利用支持向量機分類器學習所述訓練數(shù)據(jù),得到表演者的預設行為;利用所述現(xiàn)場數(shù)據(jù)得到表演者的現(xiàn)場行為;
[0041]表演意圖分析単元30根據(jù)表演者的當前現(xiàn)場行為與相應預設行為的對應關系,獲得表演者的表演意圖;
[0042]布景單元40上保存有與表演者的表演意圖相對應的多個場景,所述布景単元根據(jù)所述表演意圖,選擇相應的場景加載到舞臺上;所述場景包括相應的聲音、燈光、靜態(tài)畫面和動態(tài)畫面。
[0043]本發(fā)明中的行為采集単元可以采集表演者的姿態(tài)、表情以及動作。下面分別加以介紹。
[0044]如圖2所示,行為采集単元包括多個輕型慣導傳感輸入設備101和3D重構單元102。
[0045]每個輕型慣導傳感輸入設備均集成有ー個3維加速度傳感器、ー個3維陀螺儀和ー個3維磁力傳感器。多個慣導傳感輸入設備101分別固定在表演者的上肢、下肢、軀干和頭部,本實施例中,慣輕型慣導傳感輸入設備的數(shù)量為12 — 16個,其中,I個輕型慣導傳感輸入設備固定在表演者的頭部,I 一 5個輕型慣導傳感輸入設備分散地固定在表演者的軀干部,4個輕型慣導傳感輸入設備分別固定在表演者的兩個上肢的上臂上和下臂上,6個輕型慣導傳感輸入設備分別固定在表演者的兩個下肢的大腿、小腿和腳上。每個輕型慣導傳感輸入設備101實時采集表演者的各關節(jié)運動學姿態(tài)訓練數(shù)據(jù)或姿態(tài)現(xiàn)場數(shù)據(jù)。
[0046]3D重構單元102根據(jù)表演者的姿態(tài)訓練數(shù)據(jù)重構表演者的三維預設模型,根據(jù)表演者的姿態(tài)現(xiàn)場數(shù)據(jù)重構表演者的三維現(xiàn)場模型。
[0047]行為學習単元利用三維預設模型創(chuàng)建表演者的姿態(tài)訓練集,并利用姿態(tài)訓練集獲得表演者的預設姿態(tài);利用姿態(tài)現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場姿態(tài)。
[0048]由于輕型慣導傳感輸入設備附加到表演者身上時,與人體軀段間的初始位置未知,很難通過加速度數(shù)值積分的方法來估計人體軀段間的距離。因此,應當采取適當?shù)男U齺泶_定傳感器與軀段間的空間關系和身體的維度信息。為此,本發(fā)明中還設有校正單元,利用某個已知的輕型慣導傳感輸入設備與相應身體軀段間的空間關系以及人體生物機械模型對其他輕型慣導傳感輸入設備進行校正。其中,已知的輕型慣導傳感輸入設備可以選擇設置在頭部的輕型慣導傳感輸入設備。具體作法是:將輕型慣導傳感輸入設備中各傳感器信號和人體三維模型描述為隨機事件,構建含有預測和校正步驟的傳感器融合過程對其進行聚合。在預測過程中,各個傳感器的信號都通過慣性導向系統(tǒng)(INS)算法進行處理,其后利用某個已知的傳感器與相應身體軀段間的空間關系以及人體生物機械模型來預測軀段的機械運動。在較長時間執(zhí)行上述處理過程后,由于存在傳感器噪聲、信號偏移和姿態(tài)錯誤等因素,對慣性傳感器數(shù)據(jù)進行積分會導致漂移誤差。為糾正諸如方向、速度、位移一類的估計量,傳感器融合過程會不斷更新這些估計量。校正過程會包含上述數(shù)據(jù)更新,這些更新基于人體生物運動學特征、主要關節(jié)、包含外界位置和速度限制因素的軀段連接點檢測,運動估計的結果反饋到下一幀的INS算法和軀段運動過程中。[0049]如圖2所示,行為采集單元10還包括3D體感攝影機111和表情處理單元112,3D體感攝影機111采集表演者的表情語音訓練數(shù)據(jù)或表情語音現(xiàn)場數(shù)據(jù)。表情處理單元112包括標定模塊、存儲模塊和插值計算模塊。標定模塊分別采集每一個參考平面的散斑圖案數(shù)據(jù),參考平面為沿3D體感攝影機的鏡頭方向由近及遠依次間隔設置在舞臺上的虛擬垂直平面;存儲模塊存儲每一個參考平面的散斑圖案數(shù)據(jù);插值計算模塊根據(jù)表演者的表情訓練數(shù)據(jù)與每一個散斑圖案數(shù)據(jù)的互相關運算結果,得到表演者的訓練表情。插值計算模塊根據(jù)表演者的表情現(xiàn)場數(shù)據(jù)得到表演者的現(xiàn)場表情。
[0050]行為學習單元利用表演者的表情和語音訓練數(shù)據(jù)創(chuàng)建表演者的表情訓練集和語音訓練集,并利用表情訓練集獲得表演者的預設表情,利用語音訓練集獲得表演者的預設語音;行為學習單元利用表演者的表情和語音現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場表情和現(xiàn)場語
曰?
[0051]如圖2所示,行為采集單元還包括動作捕捉單元121和圖像計算處理單元122,動作捕捉單元121采集表演者的動作訓練數(shù)據(jù)或動作現(xiàn)場數(shù)據(jù),表演者的動作訓練數(shù)據(jù)或動作現(xiàn)場數(shù)據(jù)包括表演者運動過程中身體移動的位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù)。
[0052]圖像計算處理單元122包括標定模塊、圖像處理模塊和坐標轉換模塊,標定模塊通過對動作捕捉識別單元的標定得出其與投影影像之間的相對位置數(shù)據(jù),圖像處理模塊根據(jù)對表演者運動過程的連續(xù)圖像數(shù)據(jù)進行計算分析,得出表演者運動過程中身體移動的位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù),坐標轉換模塊將動作捕捉識別單元圖像坐標系中的位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù)轉換為在布景單元圖像坐標系中的投影位置數(shù)據(jù)、投影方向數(shù)據(jù)和投影速度數(shù)據(jù)。
[0053]行為學習單元利用表演者的動作訓練數(shù)據(jù)創(chuàng)建表演者的動作訓練集,并利用動作訓練集獲得表演者的預設動作;行為學習單元利用表演者的動作現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場動作。
[0054]布景單元還包括若干個投影儀和亮帶消除模塊,布景單元上保存有與表演者的表演意圖相對應的虛擬環(huán)境影像及虛擬環(huán)境中物體的運動影像,布景單元根據(jù)表演者的表演意圖調用相應的虛擬環(huán)境影像及虛擬環(huán)境中物體的運動影像,并根據(jù)圖像計算處理單元得到的坐標轉換結果,通過相應的投影儀投影到舞臺上的相應位置,亮帶消除模塊消除多個投影儀之間因為投影范圍融合而產(chǎn)生的亮帶。
[0055]本發(fā)明還提供了 一種虛擬影像與真實場景相結合的舞臺交互實現(xiàn)方法,包括以下步驟:
[0056]利用支持向量機分類器學習表演者的各種行為的訓練數(shù)據(jù)得到表演者的預設行為;
[0057]實時采集表演者的現(xiàn)場行為數(shù)據(jù),并獲得表演者的現(xiàn)場行為;
[0058]根據(jù)表演者的當前現(xiàn)場行為與所述預設行為的對應關系,獲得表演者的表演意圖;
[0059]根據(jù)所述表演意圖,選擇相應的場景畫面投影到舞臺上,所述場景包括相應的聲音、燈光、靜態(tài)畫面和動態(tài)畫面。
[0060]本發(fā)明不局限于上述最佳實施方式,任何人應該得知在本發(fā)明的啟示下作出的結構變化,凡是與本發(fā)明具有相同或相近的技術方案,均落入本發(fā)明的保護范圍之內。
【權利要求】
1.虛擬影像與真實場景相結合的舞臺交互集成系統(tǒng),其特征在于,包括: 行為采集単元,采集用于生成表演者的表演行為的訓練數(shù)據(jù)或現(xiàn)場數(shù)據(jù); 行為學習単元,利用支持向量機分類器學習所述訓練數(shù)據(jù),得到表演者的預設行為;利用所述現(xiàn)場數(shù)據(jù)得到表演者的現(xiàn)場行為; 表演意圖分析単元,根據(jù)表演者的當前現(xiàn)場行為與相應預設行為的對應關系,獲得表演者的表演意圖; 布景單元,其上保存有與表演者的表演意圖相對應的多個場景,所述布景単元根據(jù)所述表演意圖,選擇相應的場景加載到舞臺上;所述場景包括相應的聲音、燈光、靜態(tài)畫面和動態(tài)畫面。
2.如權利要求1所述的系統(tǒng),其特征在于,所述行為采集單元包括: 多個輕型慣導傳感輸入設備,分別固定在表演者的頭部、軀干部以及上肢和下肢上,每個所述輕型慣導傳感輸入設備實時采集表演者各關節(jié)的運動學姿態(tài)訓練數(shù)據(jù)或姿態(tài)現(xiàn)場數(shù)據(jù); 3D重構單元,根據(jù)所述姿態(tài)訓練數(shù)據(jù)重構表演者的三維預設模型,根據(jù)所述姿態(tài)現(xiàn)場數(shù)據(jù)重構表演者的三維現(xiàn)場模型; 所述預設行為為預設姿態(tài),所述現(xiàn)場行為為現(xiàn)場姿態(tài),所述行為學習單元利用所述三維預設模型創(chuàng)建表演者的姿態(tài)訓練集,并利用所述姿態(tài)訓練集獲得表演者的預設姿態(tài);利用所述姿態(tài)現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場姿態(tài)。
3.如權利要求1所述的系統(tǒng),其特征在于,所述行為采集單元包括: 3D體感攝影機,采集表演者的表情和語音訓練數(shù)據(jù)或表情和語音現(xiàn)場數(shù)據(jù);` 所述預設行為為預設表情和預設語音,所述現(xiàn)場行為為現(xiàn)場表情和現(xiàn)場語音,所述行為學習単元利用所述表情和語音訓練數(shù)據(jù)創(chuàng)建表演者的表情和語音訓練集,并利用所述表情和語音訓練集獲得表演者的預設表情和預設語音;利用所述表情和語音現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場表情和現(xiàn)場語音。
4.如權利要求1所述的系統(tǒng),其特征在于,所述行為采集單元包括: 動作捕捉単元,采集表演者的動作訓練數(shù)據(jù)或動作現(xiàn)場數(shù)據(jù),所述動作訓練數(shù)據(jù)或動作現(xiàn)場數(shù)據(jù)包括表演者運動過程中身體移動的位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù); 所述預設行為為預設動作,所述現(xiàn)場行為為現(xiàn)場動作,所述行為學習單元利用所述動作訓練數(shù)據(jù)創(chuàng)建表演者的動作訓練集,并利用所述動作訓練集獲得表演者的預設動作;利用所述動作現(xiàn)場數(shù)據(jù)獲得表演者的現(xiàn)場動作。
5.如權利要求2所述的系統(tǒng),其特征在于,所述行為采集單元上還設有校正模塊,利用某個已知的輕型慣導傳感輸入設備與相應身體軀段間的空間關系以及人體生物機械模型對其他輕型慣導傳感輸入設備進行校正。
6.如權利要求3所述的系統(tǒng),其特征在于,所述行為采集單元上還設有表情處理單元,所述表情處理單元包括: 標定模塊,分別采集每ー個參考平面的散斑圖案數(shù)據(jù),所述參考平面為沿所述3D體感攝影機的鏡頭方向由近及遠依次間隔設置在舞臺上的虛擬垂直平面; 存儲模塊,存儲每ー個所述參考平面的所述散斑圖案數(shù)據(jù); 插值計算模塊,根據(jù)所述表情訓練數(shù)據(jù)與每一個所述散斑圖案數(shù)據(jù)的互相關運算結果,得到表演者的訓練表情;根據(jù)所述表情現(xiàn)場數(shù)據(jù)得到所述現(xiàn)場表情。
7.如權利要求4所述的系統(tǒng),其特征在干,所述行為采集單元上還設有圖像計算處理單元,所述圖像計算處理單元包括: 標定模塊,通過對所述動作捕捉識別單元的標定得出其與投影影像之間的相對位置數(shù)據(jù), 圖像處理模塊,根據(jù)對所述表演者運動過程的連續(xù)圖像數(shù)據(jù)進行計算分析,得出在所述動作捕捉識別單元中表演者運動過程中身體移動的位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù),坐標轉換模塊,將動作捕捉識別單元圖像坐標系中的所述位置數(shù)據(jù)、方向數(shù)據(jù)和速度數(shù)據(jù)轉換為在投影單元圖像坐標系中的投影位置數(shù)據(jù)、投影方向數(shù)據(jù)和投影速度數(shù)據(jù)。
8.如權利要求7所述的系統(tǒng),其特征在干, 布景單元還包括若干個投影儀和亮帶消除模塊,布景單元上保存有與表演者的表演意圖相對應的虛擬環(huán)境影像及虛擬環(huán)境中物體的運動影像,布景單元根據(jù)表演者的表演意圖調用相應的虛擬環(huán)境影像及虛擬環(huán)境中物體的運動影像,井根據(jù)圖像計算處理單元得到的坐標轉換結果,通過相應的投影儀投影到舞臺上的相應位置,亮帶消除模塊消除多個投影儀之間因為投影范圍融合而產(chǎn)生的亮帶。
9.虛擬影像與真實場景相結合的舞臺交互實現(xiàn)方法,其特征在于,包括以下步驟: 利用支持向量機分類器學習表演者的各種行為的訓練數(shù)據(jù)得到表演者的預設行為; 實時采集表演者的現(xiàn)場行為數(shù)據(jù),并獲得表演者的現(xiàn)場行為; 根據(jù)表演者的所述現(xiàn)場行為與所述預設行為的對應關系,獲得表演者的表演意圖; 根據(jù)所述表演意圖,選擇相應的場景畫面投影到舞臺上,所述場景包括相應的聲音、燈光、靜態(tài)畫面和動態(tài)畫面。
【文檔編號】G06F3/01GK103578135SQ201310603998
【公開日】2014年2月12日 申請日期:2013年11月25日 優(yōu)先權日:2013年11月25日
【發(fā)明者】趙松德, 郭樹濤, 孫濤, 趙煜, 張紅武, 崔德靖, 蘇宏程 申請人:恒德數(shù)字舞美科技有限公司