国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種數(shù)據(jù)處理方法、裝置、設(shè)備、介質(zhì)及程序產(chǎn)品與流程

      文檔序號:40274690發(fā)布日期:2024-12-11 13:09閱讀:11來源:國知局
      一種數(shù)據(jù)處理方法、裝置、設(shè)備、介質(zhì)及程序產(chǎn)品與流程

      本技術(shù)涉及計算機(jī),尤其涉及圖像處理領(lǐng)域,具體涉及一種數(shù)據(jù)處理方法、一種數(shù)據(jù)處理裝置、一種計算機(jī)設(shè)備、一種計算機(jī)可讀存儲介質(zhì)及一種計算機(jī)程序產(chǎn)品。


      背景技術(shù):

      1、元宇宙(metaverse)是人類運(yùn)用數(shù)字技術(shù)構(gòu)建的,由現(xiàn)實世界映射或超越現(xiàn)實世界,可與現(xiàn)實世界交互的虛擬世界。在元宇宙的虛擬世界中人們需要擁有一副全新的虛擬角色,以在虛擬世界中通過該虛擬角色實現(xiàn)與現(xiàn)實事情相同的事情(如會話或交友等)。

      2、目前,虛擬角色的面部特征和面部表情是被獨(dú)立定制的;如用戶可以個性化地將虛擬角色的面部特征捏臉為小狗,并將虛擬角色的面部表情驅(qū)動為微笑表情等。因此,如何結(jié)合面部特征捏臉和面部表情驅(qū)動,實現(xiàn)虛擬角色定制成為研究熱點(diǎn)。


      技術(shù)實現(xiàn)思路

      1、本技術(shù)實施例提供一種數(shù)據(jù)處理方法、裝置、設(shè)備、介質(zhì)及程序產(chǎn)品,有效結(jié)合捏臉和表情驅(qū)動,確保針對虛擬角色的定制的連貫性。

      2、一方面,本技術(shù)實施例提供了一種數(shù)據(jù)處理方法,該方法包括:

      3、獲取人臉圖像,并對人臉圖像中的人臉進(jìn)行捏臉處理;

      4、獲取表情數(shù)據(jù),并基于表情數(shù)據(jù)對基準(zhǔn)虛擬角色進(jìn)行表情驅(qū)動,得到具備虛擬面部表情的基準(zhǔn)虛擬角色;表情數(shù)據(jù)用于描述虛擬面部表情;

      5、對捏臉處理后的人臉和具備虛擬面部表情的基準(zhǔn)虛擬角色進(jìn)行融合處理,生成人臉圖像對應(yīng)的目標(biāo)虛擬角色;目標(biāo)虛擬角色具備捏臉處理后的人臉的面部特征,且具備虛擬面部表情。

      6、另一方面,本技術(shù)實施例提供了一種數(shù)據(jù)處理裝置,該裝置包括:

      7、獲取單元,用于獲取人臉圖像,處理單元,用于對人臉圖像中的人臉進(jìn)行捏臉處理;

      8、獲取單元,還用于獲取表情數(shù)據(jù),處理單元,還用于基于表情數(shù)據(jù)對基準(zhǔn)虛擬角色進(jìn)行表情驅(qū)動,得到具備虛擬面部表情的基準(zhǔn)虛擬角色;表情數(shù)據(jù)用于描述虛擬面部表情;

      9、處理單元,還用于對捏臉處理后的人臉和具備虛擬面部表情的基準(zhǔn)虛擬角色進(jìn)行融合處理,生成人臉圖像對應(yīng)的目標(biāo)虛擬角色;目標(biāo)虛擬角色具備捏臉處理后的人臉的面部特征,且具備虛擬面部表情。

      10、在一種實現(xiàn)方式中,處理單元,用于對人臉圖像中的人臉進(jìn)行捏臉處理時,具體用于:

      11、獲取自動捏臉?biāo)惴?,并采用自動捏臉?biāo)惴▽θ四槇D像中的人臉進(jìn)行自動捏臉,生成第一骨骼蒙皮;骨骼蒙皮中包括骨骼和蒙皮,蒙皮是由網(wǎng)格頂點(diǎn)和網(wǎng)格連邊組成;網(wǎng)格頂點(diǎn)被綁定至骨骼,使得控制骨骼的位置變化能夠改變網(wǎng)格頂點(diǎn)的位置;骨骼蒙皮中各人臉部位關(guān)聯(lián)一個或多個骨骼;一個人臉部位對應(yīng)一個調(diào)整控件,調(diào)整控件用于對人臉部位關(guān)聯(lián)的骨骼的位置進(jìn)行調(diào)整;

      12、若存在針對第一骨骼蒙皮中目標(biāo)人臉部位對應(yīng)的調(diào)整控件的觸發(fā)操作,則根據(jù)觸發(fā)操作確定調(diào)整控件的第二調(diào)整數(shù)值;目標(biāo)人臉部位是第一骨骼蒙皮中的任一人臉部位;

      13、根據(jù)調(diào)整控件的第二調(diào)整數(shù)值,確定目標(biāo)人臉部位關(guān)聯(lián)的骨骼的第二位置變化信息;

      14、基于骨骼的第二位置變化信息,調(diào)整第一骨骼蒙皮中骨骼的位置,將調(diào)整后的第一骨骼蒙皮作為第二骨骼蒙皮。

      15、在一種實現(xiàn)方式中,調(diào)整控件的調(diào)整范圍與骨骼的位置變化信息具有映射關(guān)系;處理單元,還用于:

      16、從第一骨骼蒙皮中確定目標(biāo)人臉部位關(guān)聯(lián)的骨骼所綁定的網(wǎng)格頂點(diǎn)的第一位置信息,并根據(jù)網(wǎng)格頂點(diǎn)的第一位置信息計算骨骼的第一位置變化信息;

      17、將第一位置變化信息映射至調(diào)整控件的調(diào)整范圍,得到調(diào)整控件的第一調(diào)整數(shù)值;

      18、將調(diào)整控件的調(diào)整范圍中的最大限值與第一調(diào)整數(shù)值相減,得到第一剩余可調(diào)范圍;第一剩余可調(diào)范圍用于指示:在手動捏臉過程中調(diào)整控件的剩余可調(diào)范圍;

      19、其中,調(diào)整控件的第二調(diào)整數(shù)值屬于第一剩余可調(diào)范圍。

      20、在一種實現(xiàn)方式中,處理單元,還用于:

      21、獲取目標(biāo)人臉部位對應(yīng)的調(diào)整控件的第一調(diào)整數(shù)值和第二調(diào)整數(shù)值;目標(biāo)人臉部位是捏臉處理后的人臉中任一人臉部位;

      22、將調(diào)整控件的第一調(diào)整數(shù)值和第二調(diào)整數(shù)值相加,得到相加結(jié)果;

      23、將調(diào)整控件的調(diào)整范圍中的最大限值與相加結(jié)果相減,得到第二剩余可調(diào)范圍;第二剩余可調(diào)范圍用于指示:在表情驅(qū)動過程中調(diào)整控件的剩余可調(diào)范圍。

      24、在一種實現(xiàn)方式中,處理單元,用于基于表情數(shù)據(jù)對基準(zhǔn)虛擬角色進(jìn)行表情驅(qū)動,得到具備虛擬面部表情的基準(zhǔn)虛擬角色時,具體用于:

      25、對表情數(shù)據(jù)進(jìn)行解碼處理,得到解碼后的表情數(shù)據(jù);

      26、對解碼后的情數(shù)據(jù)進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,得到轉(zhuǎn)換后的表情數(shù)據(jù);

      27、基于轉(zhuǎn)換后的表情數(shù)據(jù)和第二剩余可調(diào)范圍,對基準(zhǔn)虛擬角色進(jìn)行表情驅(qū)動,得到具備虛擬面部表情的基準(zhǔn)虛擬角色。

      28、在一種實現(xiàn)方式中,若在數(shù)據(jù)格式轉(zhuǎn)換的過程中邏輯線程被占用,則處理單元,用于對解碼后的表情數(shù)據(jù)進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,得到轉(zhuǎn)換后的表情數(shù)據(jù)時,用于:

      29、獲取加速轉(zhuǎn)換算法;

      30、采用加速轉(zhuǎn)換算法對解碼后的表情數(shù)據(jù)進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,得到轉(zhuǎn)換后的表情數(shù)據(jù)。

      31、在一種實現(xiàn)方式中,加速轉(zhuǎn)換算法包括通過啟動目標(biāo)子線程執(zhí)行數(shù)據(jù)格式轉(zhuǎn)換;處理單元,用于采用加速轉(zhuǎn)換算法對解碼后的表情數(shù)據(jù)進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,得到轉(zhuǎn)換后的表情數(shù)據(jù)時,具體用于:

      32、在啟動數(shù)據(jù)格式轉(zhuǎn)換時,啟動目標(biāo)子線程;

      33、采用目標(biāo)子線程對表情數(shù)據(jù)進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換;

      34、在目標(biāo)子線程完成數(shù)據(jù)格式轉(zhuǎn)換后,通知邏輯線程獲取轉(zhuǎn)換后的表情數(shù)據(jù)。

      35、在一種實現(xiàn)方式中,加速轉(zhuǎn)換算法包括通過圖形處理器執(zhí)行數(shù)據(jù)格式轉(zhuǎn)換;處理單元,用于采用加速轉(zhuǎn)換算法對解碼后的表情數(shù)據(jù)進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,得到轉(zhuǎn)換后的表情數(shù)據(jù)時,具體用于:

      36、調(diào)用圖形處理器中的著色器對表情數(shù)據(jù)進(jìn)行數(shù)據(jù)格式轉(zhuǎn)換,得到轉(zhuǎn)換后的表情數(shù)據(jù);

      37、將轉(zhuǎn)換后的表情數(shù)據(jù)回傳至中央處理器。

      38、在一種實現(xiàn)方式中,處理單元,用于基于轉(zhuǎn)換后的表情數(shù)據(jù)和第二剩余可調(diào)范圍,對基準(zhǔn)虛擬角色進(jìn)行表情驅(qū)動,得到具備虛擬面部表情的基準(zhǔn)虛擬角色時,具體用于:

      39、獲取一個或多個預(yù)置表情姿勢;每個預(yù)置表情姿勢通過基準(zhǔn)虛擬角色呈現(xiàn)一種面部表情;

      40、按照轉(zhuǎn)換后的表情數(shù)據(jù)所描述的虛擬面部表情和第二剩余可調(diào)范圍,確定一個或多個預(yù)置表情姿勢中每個預(yù)置表情姿勢對應(yīng)的表情權(quán)重;

      41、基于每個預(yù)置表情姿勢對應(yīng)的表情權(quán)重,對一個或多個預(yù)置表情姿勢進(jìn)行加權(quán)處理,得到具備虛擬面部表情的基準(zhǔn)虛擬角色;

      42、其中,具備虛擬面部表情的基準(zhǔn)虛擬角色中目標(biāo)人臉部位對應(yīng)的調(diào)整控件的第三調(diào)整數(shù)值,屬于第二剩余可調(diào)范圍。

      43、在一種實現(xiàn)方式中,捏臉處理后的人臉為第二骨骼蒙皮;處理單元,用于對捏臉處理后的人臉和具備虛擬面部表情的基準(zhǔn)虛擬角色進(jìn)行融合處理,生成人臉圖像對應(yīng)的目標(biāo)虛擬角色時,具體用于:

      44、將具備虛擬面部表情的基準(zhǔn)虛擬角色,替換為第二骨骼蒙皮;

      45、將替換后具備虛擬面部表情的第二骨骼蒙皮作為第三骨骼蒙皮;

      46、對第三骨骼蒙皮進(jìn)行渲染,生成人臉圖像對應(yīng)的目標(biāo)虛擬角色。

      47、在一種實現(xiàn)方式中,數(shù)據(jù)處理方法適用的應(yīng)用場景包括以下至少一種:游戲場景、音視頻場景和會話場景;應(yīng)用場景為游戲場景時,該數(shù)據(jù)處理方法集成至提供游戲場景的虛幻引擎中;

      48、表情數(shù)據(jù)為視頻中包含虛擬面部表情的任一視頻幀;視頻是通過攝像頭拍攝得到的,或者從外接設(shè)備接收到的;表情數(shù)據(jù)的數(shù)量為多個。

      49、另一方面,本技術(shù)實施例提供了一種計算機(jī)設(shè)備,該計算機(jī)設(shè)備包括:

      50、處理器,用于加載并執(zhí)行計算機(jī)程序;

      51、計算機(jī)可讀存儲介質(zhì),該計算機(jī)可讀存儲介質(zhì)中存儲有計算機(jī)程序,該計算機(jī)程序被處理器執(zhí)行時,實現(xiàn)上述數(shù)據(jù)處理方法。

      52、另一方面,本技術(shù)實施例提供了一種計算機(jī)可讀存儲介質(zhì),計算機(jī)可讀存儲介質(zhì)存儲有計算機(jī)程序,該計算機(jī)程序適于由處理器加載并執(zhí)行上述數(shù)據(jù)處理方法。

      53、另一方面,本技術(shù)實施例提供了一種計算機(jī)程序產(chǎn)品,該計算機(jī)程序產(chǎn)品包括計算機(jī)程序,該計算機(jī)程序被處理器執(zhí)行時,實現(xiàn)上述數(shù)據(jù)處理方法。

      54、本技術(shù)實施例支持對用戶提供的人臉圖像中的人臉進(jìn)行捏臉處理,以捏臉處理得到具有捏臉效果的人臉;然后,還支持基于描述了虛擬面部表情的表情數(shù)據(jù),對基準(zhǔn)虛擬角色進(jìn)行表情驅(qū)動,以使得該基準(zhǔn)虛擬角色能夠呈現(xiàn)該虛擬面部表情。進(jìn)一步的,在得到捏臉處理后的人臉和具備虛擬面部表情的基準(zhǔn)虛擬角色后,可以對捏臉處理后的人臉和具備虛擬面部表情的基準(zhǔn)虛擬角色進(jìn)行融合,生成人臉圖像對應(yīng)的目標(biāo)虛擬角色;此時該目標(biāo)虛擬角色具備捏臉處理后的人臉面部特征,且具備虛擬面部表情。由此可見,本技術(shù)實施例提出一種將捏臉和表情驅(qū)動進(jìn)行結(jié)合的方案,該方案不僅能夠按照用戶的捏臉需求對人臉圖像中人臉進(jìn)行捏臉,得到面部特征與人臉圖像中人臉的面部特征相匹配的捏臉處理后的人臉,而且還能通過表情驅(qū)動的方式讓捏臉處理后的人臉呈現(xiàn)虛擬面部表情;通過將捏臉和表情驅(qū)動集成為一個解決方案,有效解決捏臉鏈路和表情驅(qū)動鏈路相互獨(dú)立所帶來的虛擬角色定制分離問題;對于用戶而言能夠開箱即用,實現(xiàn)捏臉和表情驅(qū)動的連貫性執(zhí)行,降低虛擬角色定制成本。

      當(dāng)前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
      1