国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種實(shí)時(shí)交互3D動(dòng)畫的方法、裝置和系統(tǒng)與流程

      文檔序號(hào):11775870閱讀:690來源:國知局
      一種實(shí)時(shí)交互3D動(dòng)畫的方法、裝置和系統(tǒng)與流程

      本發(fā)明涉及動(dòng)畫合成技術(shù)領(lǐng)域,尤其涉及一種實(shí)時(shí)交互3d動(dòng)畫的方法、裝置和系統(tǒng)。



      背景技術(shù):

      近年來,顯卡的性能得到了極大的發(fā)展,使用計(jì)算機(jī)顯卡進(jìn)行實(shí)時(shí)渲染成為了可能,根據(jù)實(shí)時(shí)渲染的實(shí)時(shí)交互動(dòng)畫,有著所見即所得的好處,而且觀眾將不再使單方面的觀看渲染好的動(dòng)畫,而是可以實(shí)時(shí)和動(dòng)畫進(jìn)行交互。實(shí)時(shí)動(dòng)畫在教育、游戲、影視、商業(yè)領(lǐng)域有著新的前景和需求。



      技術(shù)實(shí)現(xiàn)要素:

      本發(fā)明通過提供一種實(shí)時(shí)交互3d動(dòng)畫的方法、裝置和系統(tǒng),以彌補(bǔ)了上述需求方面的空白。

      本發(fā)明采用的技術(shù)方案一方面為一種實(shí)時(shí)交互3d動(dòng)畫的方法,包括以下步驟:a、創(chuàng)建虛擬的3d角色,并導(dǎo)入至圖形引擎,生成角色模型;b、通過視頻或穿戴設(shè)備來實(shí)時(shí)捕捉真實(shí)的演員動(dòng)作信息,然后關(guān)聯(lián)和控制所述角色模型;c、將所述角色模型合成至動(dòng)畫場(chǎng)景,為該動(dòng)畫場(chǎng)景配置燈光效果以匹配所述角色模型,然后通過客戶端后臺(tái)的控制面板進(jìn)行動(dòng)畫場(chǎng)景控制;其中,所述動(dòng)作信息包括肢體動(dòng)作或面部表情。

      進(jìn)一步,其中所述步驟a包括:根據(jù)原畫資料,為所述虛擬的3d角色配置人設(shè)特性數(shù)據(jù),人設(shè)特性數(shù)據(jù)包含職業(yè)信息、性格信息或人物背景特性,并且為所述角色模型配置貼圖、材質(zhì)和3d動(dòng)畫骨骼。

      進(jìn)一步,其中所述步驟a還包括:將所述角色模型及其匹配的3d動(dòng)畫骨骼導(dǎo)入至所述圖形引擎中運(yùn)算骨骼動(dòng)畫。

      進(jìn)一步,其中所述步驟b包括:捕捉所述演員的肢體動(dòng)作或面部表情,轉(zhuǎn)換為與所述3d角色的人設(shè)特性關(guān)聯(lián)的肢體動(dòng)作數(shù)據(jù)、面部動(dòng)作數(shù)據(jù)和角色混音數(shù)據(jù),然后關(guān)聯(lián)至圖形引擎中的相應(yīng)的角色模型,并且配置所述演員的肢體動(dòng)作或面部表情與所述角色模型動(dòng)畫的肢體動(dòng)作或面部表情能夠?qū)崟r(shí)同步。

      進(jìn)一步,其中所述步驟b還包括:提取所述演員的骨骼模型,然后導(dǎo)入至所述圖形引擎中,以匹配所述角色模型的3d動(dòng)畫骨骼;根據(jù)該骨骼模型來實(shí)時(shí)捕捉和轉(zhuǎn)換演員的肢體動(dòng)作數(shù)據(jù),將實(shí)時(shí)捕捉的肢體動(dòng)作數(shù)據(jù)生成動(dòng)作控制指令,通過所述圖形引擎生成相應(yīng)的角色模型的動(dòng)作姿態(tài);在角色模型的動(dòng)作姿態(tài)之間運(yùn)算生成肢體動(dòng)畫。

      進(jìn)一步,其中所述步驟b還包括:提取所述演員的面部骨骼,然后導(dǎo)入至所述圖形引擎中,以匹配所述角色模型的面部骨骼蒙皮;根據(jù)該面部骨骼來實(shí)時(shí)捕捉和轉(zhuǎn)換演員的面部動(dòng)作數(shù)據(jù),將實(shí)時(shí)捕捉的面部動(dòng)作數(shù)據(jù)生成面部表情控制指令,通過所述圖形引擎生成相應(yīng)的角色模型的面部表情形狀;在角色模型相應(yīng)面部位置的面部表情形狀之間運(yùn)算生成面部表情動(dòng)畫過渡。

      進(jìn)一步,其中所述步驟c包括:加入音樂,允許通過客戶端后臺(tái)的控制面板進(jìn)行控制。

      本發(fā)明技術(shù)方案的第二方面為一種實(shí)時(shí)交互3d動(dòng)畫的裝置,包括:第一模塊,用于創(chuàng)建虛擬的3d角色,并導(dǎo)入至圖形引擎,生成角色模型;第二模塊,用于通過視頻或穿戴設(shè)備來實(shí)時(shí)捕捉真實(shí)的演員動(dòng)作信息,然后關(guān)聯(lián)和控制所述角色模型;第三模塊,將所述角色模型合成至動(dòng)畫場(chǎng)景,為該動(dòng)畫場(chǎng)景配置燈光效果以匹配所述角色模型,然后通過客戶端后臺(tái)的控制面板進(jìn)行動(dòng)畫場(chǎng)景控制;其中,所述動(dòng)作信息包括肢體動(dòng)作或面部表情。

      進(jìn)一步,所述第一模塊還包括捕捉模塊,用于:捕捉所述演員的肢體動(dòng)作或面部表情,轉(zhuǎn)換為與所述3d角色的人設(shè)特性關(guān)聯(lián)的肢體動(dòng)作數(shù)據(jù)、面部動(dòng)作數(shù)據(jù)和角色混音數(shù)據(jù),然后關(guān)聯(lián)至圖形引擎中的相應(yīng)的角色模型,并且配置所述演員的肢體動(dòng)作或面部表情與所述角色模型動(dòng)畫的肢體動(dòng)作或面部表情能夠?qū)崟r(shí)同步。

      本發(fā)明技術(shù)方案的第三方面為一種實(shí)時(shí)交互3d動(dòng)畫的系統(tǒng),包括:捕捉裝置,用于實(shí)時(shí)捕捉真實(shí)演員的肢體動(dòng)作或面部表情;圖形引擎,用于生成和處理3d角色模型,運(yùn)算3d角色模型的物理動(dòng)力學(xué)動(dòng)作,轉(zhuǎn)換動(dòng)畫視頻輸出至視頻傳播軟件;以及應(yīng)用程序。該應(yīng)用程序用于執(zhí)行以下步驟:創(chuàng)建虛擬的3d角色,并導(dǎo)入至圖形引擎,生成角色模型;實(shí)時(shí)捕捉真實(shí)的演員動(dòng)作信息,然后關(guān)聯(lián)和控制所述角色模型;將所述角色模型合成至動(dòng)畫場(chǎng)景,為該動(dòng)畫場(chǎng)景配置燈光效果以匹配所述角色模型,然后通過客戶端后臺(tái)的控制面板進(jìn)行動(dòng)畫場(chǎng)景控制。

      本發(fā)明的有益效果為:1)解決了以前3d動(dòng)畫只是純cg動(dòng)畫,無法實(shí)時(shí)交互的問題;2)解決了以前3d動(dòng)畫手調(diào)動(dòng)作很假,很做作的問題;3)解決了以前3d動(dòng)畫畫面很粗糙的問題;4)解決了以前3d動(dòng)畫多為預(yù)渲染,制作成本高,周期長的問題;5)解決了以前3d動(dòng)畫中,無法實(shí)現(xiàn)真實(shí)的物理動(dòng)力學(xué)的問題;6)解決了以前3d動(dòng)畫技術(shù)中,場(chǎng)景簡(jiǎn)單單調(diào)的問題;7)解決了以前3d動(dòng)畫技術(shù)中,無法對(duì)燈光和鏡頭進(jìn)行實(shí)時(shí)控制的問題;8)解決了以前的3d動(dòng)畫,面部表情僵硬的問題。

      附圖說明

      圖1為根據(jù)本發(fā)明的實(shí)施例的實(shí)時(shí)交互3d動(dòng)畫的方法的流程圖;

      圖2為根據(jù)本發(fā)明的實(shí)施例中的角色模型制作過程的示意圖;

      圖3為根據(jù)本發(fā)明的實(shí)施例中的角色骨骼制作過程的示意圖;

      圖4為根據(jù)本發(fā)明的實(shí)施例中的燈光和后期制作過程的示意圖;

      圖5為根據(jù)本發(fā)明的實(shí)施例中的制作實(shí)時(shí)交互動(dòng)畫過程的示意圖;

      圖6為根據(jù)本發(fā)明的實(shí)施例中的實(shí)時(shí)交互3d動(dòng)畫的系統(tǒng)的框圖;

      圖7為根據(jù)本發(fā)明的具體實(shí)施例中的角色模型制作過程的示意圖;

      圖8為根據(jù)本發(fā)明的具體實(shí)施例中的實(shí)時(shí)捕捉真實(shí)的演員動(dòng)作信息然后關(guān)聯(lián)和控制所述角色模型的示意圖;

      圖9為根據(jù)本發(fā)明的具體實(shí)施例中的動(dòng)畫畫面以及特效生成的示意圖。

      具體實(shí)施方式

      在本公開使用的術(shù)語是僅僅出于描述特定實(shí)施例的目的,而非旨在限制本公開。在本公開和所附權(quán)利要求書中所使用的單數(shù)形式的“一種”、“所述”和“該”也旨在包括多數(shù)形式,除非上下文清楚地表示其他含義。還應(yīng)當(dāng)理解,本文中使用的術(shù)語“和/或”是指并包含一個(gè)或多個(gè)相關(guān)聯(lián)的列出項(xiàng)目的任何或所有可能組合。

      應(yīng)當(dāng)理解,盡管在本公開可能采用術(shù)語第一、第二、第三等來描述各種信息,但這些信息不應(yīng)限于這些術(shù)語。這些術(shù)語僅用來將同一類型的信息彼此區(qū)分開。例如,在不脫離本公開范圍的情況下,第一信息也可以被稱為第二信息,類似地,第二信息也可以被稱為第一信息。

      在下文中,還將參照附圖更詳細(xì)地解釋本發(fā)明。在所有附圖中,相同的附圖標(biāo)記表示相同的特征。

      參照?qǐng)D1所示的實(shí)時(shí)交互3d動(dòng)畫的方法的流程圖。該方法包括以下主要步驟:a、創(chuàng)建虛擬的3d角色,并導(dǎo)入至圖形引擎,生成角色模型;b、通過視頻或穿戴設(shè)備來實(shí)時(shí)捕捉真實(shí)的演員動(dòng)作信息,然后關(guān)聯(lián)和控制所述角色模型;c、將所述角色模型合成至動(dòng)畫場(chǎng)景,為該動(dòng)畫場(chǎng)景配置燈光效果以匹配所述角色模型,然后通過客戶端后臺(tái)的控制面板進(jìn)行動(dòng)畫場(chǎng)景控制;其中,所述動(dòng)作信息包括肢體動(dòng)作或面部表情。

      如圖2所示,在主步驟a中包含角色模型制作過程:

      s201,根據(jù)原畫資料制作3d角色,為所述虛擬的3d角色配置人設(shè)特性數(shù)據(jù)。人設(shè)特性數(shù)據(jù)包含職業(yè)信息、性格信息或人物背景特性。

      s202,進(jìn)行角色的初步3d建模。根據(jù)實(shí)際情況,可以在步驟s204中繼續(xù)進(jìn)一步修改,以符合3d角色人設(shè)要求,或者滿足新修改的要求。

      s203,為所述角色模型配置貼圖、材質(zhì)。

      3d角色的身體和頭發(fā),衣服,使用了物理動(dòng)力學(xué)方面的技術(shù),格按照物理規(guī)律移動(dòng),體現(xiàn)重力、引力、反作用力、加速度等物理特性。

      如圖3所示,在主步驟a中包含角色骨骼制作過程:

      s301、制作角色的3d動(dòng)畫骨骼;

      s302、為所述動(dòng)畫骨骼模型綁定和制作權(quán)重。

      這里的骨骼動(dòng)畫采用的動(dòng)作捕捉技術(shù)為了能形象的描述真實(shí)人體的運(yùn)動(dòng)。所有的骨骼模型存儲(chǔ)在動(dòng)作模塊數(shù)據(jù)庫中。

      進(jìn)一步,其中所述步驟b包括:捕捉所述演員的肢體動(dòng)作或面部表情,轉(zhuǎn)換為與所述3d角色的人設(shè)特性關(guān)聯(lián)的肢體動(dòng)作數(shù)據(jù)、面部動(dòng)作數(shù)據(jù)和角色混音數(shù)據(jù),然后關(guān)聯(lián)至圖形引擎中的相應(yīng)的角色模型,并且配置所述演員的肢體動(dòng)作或面部表情與所述角色模型動(dòng)畫的肢體動(dòng)作或面部表情能夠?qū)崟r(shí)同步。為了讓捕捉到的動(dòng)作數(shù)據(jù)來驅(qū)動(dòng)三維人體模型,需要將模型與捕捉到的動(dòng)作數(shù)據(jù)結(jié)合,實(shí)現(xiàn)與模型的匹配,從而驅(qū)動(dòng)模型的運(yùn)動(dòng)。最后是模型與捕捉數(shù)據(jù)匹配,以及讓模型能跟著捕捉下來的動(dòng)作數(shù)據(jù)動(dòng)起來。

      如圖4所示,在主步驟c中包含燈光和后期制作過程:

      s401、為場(chǎng)景制作燈光或照明效果;

      s402、對(duì)燈光或照明效果進(jìn)行構(gòu)建計(jì)算,根據(jù)角色模型的位置和環(huán)境光進(jìn)行匹配。

      如圖5所示,進(jìn)行實(shí)時(shí)交互動(dòng)畫的過程如下:

      s501、設(shè)置一名演員,為其調(diào)整動(dòng)捕設(shè)備,以捕捉其肢體動(dòng)作、面部表情和聲音。演員可以根據(jù)事先策劃的臺(tái)詞和劇本,進(jìn)行動(dòng)作測(cè)試和表情測(cè)試。這里,需要對(duì)演員的聲音進(jìn)行處理,轉(zhuǎn)換為符合所述3d角色人設(shè)的音色。比如,可以將錄制演員的聲音音調(diào)修改。還可以預(yù)先選用聲優(yōu)預(yù)先錄制該角色的基本發(fā)音,然后將演員的聲音識(shí)別出文字,然后再用預(yù)先錄制該角色的基本發(fā)音組合出角色的發(fā)音。

      s502、與圖形引擎進(jìn)行聯(lián)調(diào)。將捕捉所述演員的肢體動(dòng)作、面部表情和聲音轉(zhuǎn)換為與所述3d角色的人設(shè)特性關(guān)聯(lián)的肢體動(dòng)作數(shù)據(jù)、面部動(dòng)作數(shù)據(jù)和角色混音數(shù)據(jù),然后關(guān)聯(lián)至圖形引擎中的相應(yīng)的角色模型,并且配置所述演員的肢體動(dòng)作、面部表情和聲音與所述角色模型動(dòng)畫的肢體動(dòng)作、面部表情和聲音能夠?qū)崟r(shí)同步。如果遇到問題,則返回步驟s501調(diào)整動(dòng)捕設(shè)備。

      s503、導(dǎo)入場(chǎng)景和燈光文件。用于在虛擬現(xiàn)實(shí)的物體附近展現(xiàn)光影效果。優(yōu)選地,可以預(yù)先配置場(chǎng)景參數(shù)和燈光參數(shù),然后實(shí)時(shí)地計(jì)算攝影機(jī)影像的位置及角度,并配置到所述虛擬的3d角色中,以進(jìn)行交互。

      應(yīng)當(dāng)認(rèn)識(shí)到,本發(fā)明的實(shí)施例可以由計(jì)算機(jī)硬件、硬件和軟件的組合、或者通過存儲(chǔ)在非暫時(shí)性計(jì)算機(jī)可讀存儲(chǔ)器中的計(jì)算機(jī)指令來實(shí)現(xiàn)或?qū)嵤?。所述方法可以使用?biāo)準(zhǔn)編程技術(shù)-包括配置有計(jì)算機(jī)程序的非暫時(shí)性計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)在計(jì)算機(jī)程序中實(shí)現(xiàn),其中如此配置的存儲(chǔ)介質(zhì)使得計(jì)算機(jī)以特定和預(yù)定義的方式操作-根據(jù)在具體實(shí)施例中描述的方法和附圖。每個(gè)程序可以以高級(jí)過程或面向?qū)ο蟮木幊陶Z言來實(shí)現(xiàn)以與計(jì)算機(jī)系統(tǒng)通信。然而,若需要,該程序可以以匯編或機(jī)器語言實(shí)現(xiàn)。在任何情況下,該語言可以是編譯或解釋的語言。此外,為此目的該程序能夠在編程的專用集成電路上運(yùn)行。

      進(jìn)一步,該方法可以在可操作地連接至合適的斷層攝影數(shù)據(jù)掃描裝置的任何類型的計(jì)算平臺(tái)中實(shí)現(xiàn),包括但不限于個(gè)人電腦、迷你計(jì)算機(jī)、主框架、工作站、網(wǎng)絡(luò)或分布式計(jì)算環(huán)境、單獨(dú)的或集成的計(jì)算機(jī)平臺(tái)、或者與帶電粒子工具或其它成像裝置通信等等。本發(fā)明的各方面可以以存儲(chǔ)在非暫時(shí)性存儲(chǔ)介質(zhì)或設(shè)備上的機(jī)器可讀代碼來實(shí)現(xiàn),無論是可移動(dòng)的還是集成至計(jì)算平臺(tái),如硬盤、光學(xué)讀取和/或?qū)懭氪鎯?chǔ)介質(zhì)、ram、rom等,使得其可由可編程計(jì)算機(jī)讀取,當(dāng)存儲(chǔ)介質(zhì)或設(shè)備由計(jì)算機(jī)讀取時(shí)可用于配置和操作計(jì)算機(jī)以執(zhí)行在此所描述的過程。此外,機(jī)器可讀代碼,或其部分可以通過有線或無線網(wǎng)絡(luò)傳輸。當(dāng)此類媒體包括結(jié)合微處理器或其他數(shù)據(jù)處理器實(shí)現(xiàn)上文所述步驟的指令或程序時(shí),本文所述的發(fā)明包括這些和其他不同類型的非暫時(shí)性計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)。當(dāng)根據(jù)本發(fā)明所述的方法和技術(shù)編程時(shí),本發(fā)明還包括計(jì)算機(jī)本身。

      計(jì)算機(jī)程序能夠應(yīng)用于輸入數(shù)據(jù)以執(zhí)行本文所述的功能,從而轉(zhuǎn)換輸入數(shù)據(jù)以生成存儲(chǔ)至非易失性存儲(chǔ)器的輸出數(shù)據(jù)。輸出信息還可以應(yīng)用于一個(gè)或多個(gè)輸出設(shè)備如顯示器。在本發(fā)明優(yōu)選的實(shí)施例中,轉(zhuǎn)換的數(shù)據(jù)表示物理和有形的對(duì)象,包括顯示器上產(chǎn)生的物理和有形對(duì)象的特定視覺描繪。

      具體地參照?qǐng)D6,本發(fā)明通過一種實(shí)時(shí)交互3d動(dòng)畫的系統(tǒng),以實(shí)施上述方法。該系統(tǒng)包括應(yīng)用程序60、圖形引擎61、模型創(chuàng)建平臺(tái)62、動(dòng)捕裝置63、面部表情捕捉器64、攝像設(shè)備65、燈光系統(tǒng)66和特效生成模塊67。動(dòng)捕裝置63用于實(shí)時(shí)捕捉真實(shí)演員的肢體動(dòng)作。面部表情捕捉器64用于捕捉真實(shí)演員的面部表情。圖形引擎61用于生成和處理3d角色模型,運(yùn)算3d角色模型的物理動(dòng)力學(xué)動(dòng)作,轉(zhuǎn)換動(dòng)畫視頻輸出至視頻傳播軟件。特效生成模塊67,可以整合用于協(xié)調(diào)場(chǎng)景,增加特效。應(yīng)用程序60,用于:通過模型創(chuàng)建平臺(tái)62創(chuàng)建虛擬的3d角色,并導(dǎo)入至圖形引擎61,生成角色模型;通過動(dòng)捕裝置63、面部表情捕捉器64和錄音設(shè)備實(shí)時(shí)捕捉真實(shí)的演員動(dòng)作信息,然后關(guān)聯(lián)和控制所述角色模型;以及將所述角色模型合成至動(dòng)畫場(chǎng)景,然后實(shí)時(shí)與直播平臺(tái)對(duì)接,生成直播畫面。

      下面通過圖7-9進(jìn)一步描述本發(fā)明的優(yōu)選實(shí)施例。

      根據(jù)本發(fā)明的系統(tǒng)首先提供模型創(chuàng)建平臺(tái),使用戶可以依照原畫和人設(shè)繪制用于動(dòng)畫合成的虛擬3d角色1,如圖7左邊所示。生成角色模型時(shí)需要處理各種肢體子模型、頭發(fā)、衣物,然后配色、貼圖和配置材質(zhì)。接著對(duì)3d角色模型的細(xì)節(jié)進(jìn)行調(diào)整,使其盡可能達(dá)到原設(shè)中的神韻。然后制作該3d角色1對(duì)應(yīng)的虛擬角色骨骼2,綁定到3d模型上,并調(diào)整權(quán)重,使其有盡可能真實(shí)的人類的肌肉感覺。這和骨骼動(dòng)畫的原理類似,由于骨骼系統(tǒng)與模型是相互獨(dú)立的,為了讓骨骼能驅(qū)動(dòng)模型產(chǎn)生合理的變形運(yùn)動(dòng)。把模型與骨骼進(jìn)行關(guān)聯(lián),發(fā)生關(guān)系叫綁定。骨骼以蒙皮控制器為中介,來控制模型的各個(gè)面。每個(gè)關(guān)節(jié)對(duì)模型的影響范圍通過權(quán)重來控制和調(diào)節(jié)。如果想要改變每個(gè)關(guān)節(jié)的影響模型表面的范圍,那么可以通過多次改變權(quán)重來實(shí)現(xiàn)。蒙皮簡(jiǎn)單地說就是:把模型上的點(diǎn),匹配到骨骼上,然后用骨骼的運(yùn)動(dòng)帶動(dòng)模型運(yùn)動(dòng)。優(yōu)選地,同樣還可以采用骨骼蒙皮的方式來制作3d角色的面部表情10,這種方法更靈活,可以輕松實(shí)現(xiàn)多種表情。首先為面部模型創(chuàng)建骨骼,例如可以對(duì)眉毛、眼皮、臉頰、鼻子、嘴唇、下顎分別創(chuàng)建好骨骼。一側(cè)骨骼創(chuàng)建好后,鏡像給另一側(cè),需要注意的是要有一根主骨骼,這樣在刷權(quán)重時(shí)更方便一些。第二步,依次選擇骨骼,然后加選模型,進(jìn)行蒙皮。然后對(duì)骨骼做好動(dòng)畫,以便完成各種表情。

      然后,將上述動(dòng)畫角色的3d模型、骨骼以及相應(yīng)的配置參數(shù)導(dǎo)入圖形引擎。

      如圖8所示,使一名真實(shí)的演員戴上面部表情捕捉器64,然后采用動(dòng)捕裝置63(比如是mocap設(shè)備)捕捉演員的肢體運(yùn)動(dòng)。該運(yùn)動(dòng)捕捉技術(shù)涉及尺寸測(cè)量、物理空間里物體的定位及方位測(cè)定等方面可以由計(jì)算機(jī)直接理解處理的數(shù)據(jù)。在運(yùn)動(dòng)物體的關(guān)鍵部位設(shè)置跟蹤器,由motioncapture系統(tǒng)捕捉跟蹤器位置,再經(jīng)過計(jì)算機(jī)處理后得到三維空間坐標(biāo)的數(shù)據(jù)。當(dāng)數(shù)據(jù)被計(jì)算機(jī)識(shí)別后,可以應(yīng)用在動(dòng)畫。

      這里可以采用現(xiàn)有的面部表情實(shí)時(shí)動(dòng)捕技術(shù)(如業(yè)內(nèi)的facemoca、kinect等)來實(shí)施。這里采用的真實(shí)面部表情實(shí)時(shí)動(dòng)捕技術(shù),無需任何標(biāo)記點(diǎn)或油漆標(biāo)志進(jìn)行面部標(biāo)定;可以跟蹤和分析嘴唇、眉毛、眼睛和眼珠等肌肉運(yùn)動(dòng)并生成表情動(dòng)畫,虛擬角色與真實(shí)演員進(jìn)行實(shí)時(shí)表情聯(lián)動(dòng)。

      動(dòng)捕裝置63和面部表情捕捉器64采集的數(shù)據(jù)傳輸?shù)綀D形引擎61,從而關(guān)聯(lián)控制動(dòng)畫角色的3d模型。如圖9中,演員右手?jǐn)[出“剪刀手”動(dòng)作和表演賣萌表情后,圖形引擎可以運(yùn)算出面部特征和肢體骨骼特征,然后匹配到動(dòng)畫角色的3d模型,控制該3d模型做出相應(yīng)的動(dòng)作。

      本領(lǐng)域技術(shù)人員在考慮說明書及實(shí)踐這里公開的發(fā)明后,將容易想到本公開的其它實(shí)施方案。本公開旨在涵蓋本公開的任何變型、用途或者適應(yīng)性變化,這些變型、用途或者適應(yīng)性變化遵循本公開的一般性原理并包括本公開未公開的本技術(shù)領(lǐng)域中的公知常識(shí)或者慣用技術(shù)手段。說明書和實(shí)施例僅被視為示例性的,本公開的真正范圍和精神由下面的權(quán)利要求指出。

      以上所述僅為本公開的較佳實(shí)施例而已,并不用以限制本公開,凡在本公開的精神和原則之內(nèi),所做的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本公開保護(hù)的范圍之內(nèi)。

      當(dāng)前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1