本發(fā)明涉及人體生理參數(shù)測(cè)量,具體為一種基于ippg技術(shù)從人臉視頻中提取血容量脈搏波形態(tài)方法。
背景技術(shù):
1、生理信號(hào)已經(jīng)被廣泛的應(yīng)用與檢測(cè)各種生理疾病。ippg技術(shù)就是通過(guò)光源發(fā)出一部分光透過(guò)皮膚表皮進(jìn)入組織內(nèi)部,由于心臟搏動(dòng)產(chǎn)生振動(dòng)會(huì)導(dǎo)致皮膚下面的微血管中的血容量發(fā)生變化,血液中的血紅蛋白對(duì)光具有一定的吸收能力,經(jīng)過(guò)血紅蛋白吸收過(guò)的光反射出來(lái)被相機(jī)捕捉到,通過(guò)分析相機(jī)捕捉到的每一幀對(duì)應(yīng)光的強(qiáng)度可以分析出血管中血容量脈沖的變化。通過(guò)對(duì)脈搏波的分析可以實(shí)現(xiàn)心率、呼吸率、血氧飽和度、心率變異性、血壓等生理參數(shù)的檢測(cè)。但是目前的ippg技術(shù)對(duì)血容量脈搏波的重建效果較差,基本只能實(shí)現(xiàn)心率的估算,對(duì)其它生理參數(shù)的檢測(cè)效果較差。
2、本專利提出了一種新的ippg信號(hào)估算的方法,相比以往的ippg信號(hào)估算方法只能將血容量脈搏波的峰值估算出來(lái),我們可以將血容量脈搏波的整體形態(tài)估算出來(lái)。
技術(shù)實(shí)現(xiàn)思路
1、本發(fā)明的目的在于提供一種基于ippg技術(shù)從人臉視頻中提取血容量脈搏波形態(tài)方法,以解決上述背景技術(shù)中提出的問(wèn)題。
2、為了解決上述技術(shù)問(wèn)題,本發(fā)明提供如下技術(shù)方案:一種基于ippg技術(shù)從人臉視頻中提取血容量脈搏波形態(tài)方法,所述方法包括:
3、s10:從包含人臉的視頻中截取面部區(qū)域幀序列,對(duì)面部區(qū)域幀序列進(jìn)行人臉3d建模及面部特征點(diǎn)抓??;
4、s20:根據(jù)面部特征點(diǎn)選取合適的感興趣區(qū)域并獲取該區(qū)域的rgb值幀序列,利用人臉的3d模型得到隨著幀序列變化的z軸坐標(biāo)值幀序列;
5、s30:基于s20中獲得的感興趣區(qū)域的rgb值幀序列和z軸坐標(biāo)值幀序列,通過(guò)編碼器-解碼器神經(jīng)網(wǎng)絡(luò)模型提取血容量脈搏波形態(tài)。
6、進(jìn)一步的,所述s10包括:
7、s101:使用opencv讀取人臉視頻視頻,并逐幀提取視頻幀。對(duì)每一幀視頻使用多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)(mtcnn)檢測(cè)圖像中的人臉,獲取人臉的邊界框,根據(jù)邊界框裁剪出人臉區(qū)域。
8、s102:采用谷歌的mediapipefacemesh模型,對(duì)s101中獲取的人臉區(qū)域圖像中的人臉進(jìn)行3d建模,估計(jì)面部的468個(gè)3d臉部界標(biāo)。
9、進(jìn)一步的,所述s20包括:
10、s201:使用s102中獲取的468個(gè)3d臉部界標(biāo)獲取感興趣區(qū)域,選取人臉的鼻子、嘴唇上面、下巴、額頭、右臉頰作為感興趣區(qū)域,獲取感興趣區(qū)域的rgb值幀序列。
11、s202:mediapipefacemesh算法建立了一個(gè)公制3d空間,并使用人臉界標(biāo)圖像位置來(lái)估計(jì)該空間內(nèi)的人臉幾何形狀。人臉在圖像的坐標(biāo)空間中執(zhí)行單相機(jī)人臉標(biāo)志測(cè)量,x和y坐標(biāo)是歸一化的圖像坐標(biāo),z坐標(biāo)是相對(duì)的并在下按x坐標(biāo)縮放。在空間內(nèi),有一個(gè)虛擬透視相機(jī)位于空間原點(diǎn),指向z軸的負(fù)方向。在當(dāng)前管道中,假定正好通過(guò)此虛擬攝像機(jī)觀察到輸入的攝像機(jī)幀。故軸的坐標(biāo)就是臉部特征點(diǎn)與虛擬相機(jī)的相對(duì)距離,我們獲取z軸坐標(biāo)值隨著幀序列的變化序列。
12、進(jìn)一步的,所述s30包括:
13、s301:編碼器-解碼器網(wǎng)絡(luò)模型由以下三部分組成:處理感興趣區(qū)域rgb值變化序列的編碼器、處理感興趣區(qū)域z軸坐標(biāo)值幀序列的編碼器,以及通用解碼器。處理感興趣區(qū)域rgb值變化序列的編碼器包括四個(gè)卷積塊,每個(gè)卷積塊包含一層一維卷積神經(jīng)網(wǎng)絡(luò)(conv1d)、一層relu激活函數(shù),以及一層一維卷積神經(jīng)網(wǎng)絡(luò)(conv1d)和一層glu激活函數(shù)。處理感興趣區(qū)域z軸坐標(biāo)值幀序列的編碼器包括兩個(gè)卷積塊,每個(gè)卷積塊同樣包含一層一維卷積神經(jīng)網(wǎng)絡(luò)(conv1d)、一層relu激活函數(shù),以及一層一維卷積神經(jīng)網(wǎng)絡(luò)(conv1d)和一層glu激活函數(shù)。通用解碼器包括四個(gè)上采樣塊,每個(gè)上采樣塊包含一層glu激活函數(shù)和一層反卷積神經(jīng)網(wǎng)絡(luò)(convtranspose1d)。
14、s302:訓(xùn)練時(shí)間編碼器-解碼器網(wǎng)絡(luò)模型,具體的訓(xùn)練方法為:
15、a.從deap多生理參數(shù)數(shù)據(jù)集中提取所有測(cè)試者的測(cè)試過(guò)程中的人臉面部視頻以及對(duì)應(yīng)的血容量脈搏波信號(hào)。對(duì)所有的人臉面部視頻進(jìn)行預(yù)處理,提取出感興趣區(qū)域的rgb值幀序列和z軸坐標(biāo)值序列存儲(chǔ)在數(shù)組中(此處預(yù)處理方法與s10和s20中對(duì)人臉視頻進(jìn)行預(yù)處理的方法一致,均是為了獲取面部感興趣區(qū)域的rgb值幀序列和z軸坐標(biāo)值幀序列)。對(duì)所有的血容量脈搏波信號(hào)進(jìn)行傅里葉濾波去除高頻和低頻的噪聲。將預(yù)處理后的感興趣區(qū)域的rgb值幀序列和z軸坐標(biāo)值序列和血容量脈搏波信號(hào)對(duì)應(yīng),創(chuàng)建70%的訓(xùn)練數(shù)據(jù)集、20%的測(cè)試數(shù)據(jù)集和10%的驗(yàn)證數(shù)據(jù)集。將訓(xùn)練集輸入時(shí)間編碼器—解碼器網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,訓(xùn)練后得到具有準(zhǔn)確預(yù)測(cè)血容量脈搏信號(hào)能力的時(shí)間編碼器—解碼器網(wǎng)絡(luò)模型;
16、b.獲取訓(xùn)練集中rgb值幀序列的數(shù)據(jù)其中代表樣本s1中感興趣區(qū)域1中的紅色通道(r通道)平均值幀序列,代表第i幀時(shí)該區(qū)域的紅色通道(r通道)平均值,代表樣本s1中感興趣區(qū)域1中的綠色通道(g通道)平均值幀序列,代表第i幀時(shí)該區(qū)域的綠色通道(g通道)平均值,代表樣本s1中感興趣區(qū)域1中的藍(lán)色通道(b通道)平均值幀序列,代表第i幀時(shí)該區(qū)域的藍(lán)色通道(b通道)平均值。
17、c.獲取訓(xùn)練集中z軸坐標(biāo)值幀序列的數(shù)據(jù)代表樣本s1中感興趣區(qū)域1中軸坐標(biāo)平均值幀序列,代表第i幀時(shí)該區(qū)域的z軸坐標(biāo)平均值。
18、d.將z軸坐標(biāo)值幀序列輸入到感興趣區(qū)域z軸坐標(biāo)值變化序列處理的編碼器中,首先經(jīng)過(guò)第一個(gè)卷積塊,其結(jié)構(gòu)包括一個(gè)通道數(shù)從5變?yōu)?4的一維卷積層(conv1d),一個(gè)relu激活函數(shù),一個(gè)通道數(shù)從64變?yōu)?28的一維卷積層(conv1d),以及一個(gè)glu激活函數(shù),輸出一個(gè)通道數(shù)128的特征數(shù)組(featurevectorz_128)。接著,經(jīng)過(guò)第二個(gè)卷積塊,包括一個(gè)通道數(shù)從64變?yōu)?28的一維卷積層(conv1d),一個(gè)relu激活函數(shù),一個(gè)通道數(shù)從128變?yōu)?12的一維卷積層(conv1d),以及一個(gè)glu激活函數(shù),輸出一個(gè)通道數(shù)512的特征數(shù)組(featurevectorz_512)。
19、e.將rgb值幀序列輸入到感興趣區(qū)域rgb值變化序列的編碼器中,首先經(jīng)過(guò)第一個(gè)卷積塊,其結(jié)構(gòu)包括一個(gè)通道數(shù)從15變?yōu)?4的一維卷積層(conv1d),一個(gè)relu激活函數(shù),一個(gè)通道數(shù)從64變?yōu)?28的一維卷積層(conv1d),以及一個(gè)glu激活函數(shù),輸出一個(gè)通道數(shù)128的特征數(shù)組(featurevectorrgb_128)。featurevectorrgb_128減去感興趣區(qū)域z軸坐標(biāo)值變化序列處理的編碼器第一個(gè)卷積塊輸出featurevectorz_128。接著,經(jīng)過(guò)第二個(gè)卷積塊,包括一個(gè)通道數(shù)從64變?yōu)?28的一維卷積層(conv1d),一個(gè)relu激活函數(shù),一個(gè)通道數(shù)從128變?yōu)?56的一維卷積層(conv1d),以及一個(gè)glu激活函數(shù),輸出一個(gè)通道數(shù)256的特征數(shù)組(featurevectorrgb_258)。然后,經(jīng)過(guò)第三個(gè)卷積塊,包括一個(gè)通道數(shù)從128變?yōu)?56的一維卷積層(conv1d),一個(gè)relu激活函數(shù),一個(gè)通道數(shù)從256變?yōu)?12的一維卷積層(conv1d),以及一個(gè)glu激活函數(shù),輸出一個(gè)通道數(shù)512的特征數(shù)組(featurevectorrgb_512)。featurevectorrgb_512減去感興趣區(qū)域z軸坐標(biāo)值變化序列處理的編碼器第一個(gè)卷積塊輸出featurevectorz_512。最后,經(jīng)過(guò)第四個(gè)卷積塊,包括一個(gè)通道數(shù)從256變?yōu)?12的一維卷積層(conv1d),一個(gè)relu激活函數(shù),一個(gè)通道數(shù)從512變?yōu)?024的一維卷積層(conv1d),以及一個(gè)glu激活函數(shù),最終輸出一個(gè)通道數(shù)1024的特征數(shù)組(featurevectorrgb_1024)。
20、f.將編碼器輸出的特征數(shù)組輸入到解碼器中后,首先經(jīng)過(guò)第一個(gè)解碼塊,將通道數(shù)從1024變?yōu)?12的conv1d層處理,然后通過(guò)glu激活函數(shù),再經(jīng)過(guò)通道數(shù)從512變?yōu)?56的反卷積層(convtranspose1d),并通過(guò)relu激活函數(shù),輸出一個(gè)通道數(shù)為256的特征數(shù)組。接著,經(jīng)過(guò)第二個(gè)解碼塊,結(jié)構(gòu)類似,將通道數(shù)從256變?yōu)?12,再經(jīng)過(guò)glu激活函數(shù)和反卷積層處理,輸出通道數(shù)為128的特征數(shù)組。隨后,經(jīng)過(guò)第三個(gè)解碼塊,繼續(xù)類似的處理流程,將通道數(shù)從128變?yōu)?56,再通過(guò)glu激活函數(shù)和反卷積層,輸出通道數(shù)為64的特征數(shù)組。最后,經(jīng)過(guò)第四個(gè)解碼塊,將通道數(shù)從64變?yōu)?28,再經(jīng)過(guò)glu激活函數(shù)和反卷積層,最終輸出一個(gè)通道數(shù)為1數(shù)組,為提取的血容量脈搏波信號(hào)。
21、g.通過(guò)a中處理得到的測(cè)試集檢驗(yàn)時(shí)間編碼器-解碼器網(wǎng)絡(luò)模型提取血容量脈搏波信號(hào)的能力。首先,將測(cè)試集的rgb值序列和z軸坐標(biāo)值序列輸入到模型中,預(yù)測(cè)出血容量脈搏波信號(hào)。使用真實(shí)的血容量脈搏波信號(hào)與預(yù)測(cè)信號(hào)進(jìn)行比較,計(jì)算總損失(loss)、皮爾遜相似系數(shù)(pearson?correlation?coefficient)常用英文字母小寫(xiě)字母r代表和由血容量脈搏波信號(hào)計(jì)算心率的平均絕對(duì)誤差(mae)和均方根誤差(rmse),基于上述的指標(biāo)的計(jì)算結(jié)果,對(duì)時(shí)間編碼器-解碼器網(wǎng)絡(luò)模型的參數(shù)進(jìn)行優(yōu)化,最終提取bvp信號(hào)效果最好的時(shí)間編碼器-解碼器網(wǎng)絡(luò)模型。
22、總損失(loss)的計(jì)算公式為:
23、
24、其中,xi和yi分別表示單個(gè)樣本的第i個(gè)點(diǎn)的預(yù)測(cè)值及相應(yīng)真實(shí)值,n單個(gè)樣本的長(zhǎng)度。
25、皮爾遜相似系數(shù)(r)的計(jì)算公式為:
26、
27、其中,xi和yi分別表示單個(gè)樣本的第i個(gè)點(diǎn)的預(yù)測(cè)值及相應(yīng)真實(shí)值,和分別表示單個(gè)樣本所有點(diǎn)的預(yù)測(cè)值及相應(yīng)真實(shí)值的均值,n單個(gè)樣本的長(zhǎng)度。
28、心率的平均絕對(duì)誤差(mae)的計(jì)算公式為:
29、
30、其中,xi和yi分別表示第i個(gè)樣本的心率預(yù)測(cè)值(預(yù)測(cè)bvp波形峰點(diǎn)個(gè)數(shù))及心率相應(yīng)真實(shí)值(真實(shí)bvp波形峰點(diǎn)個(gè)數(shù)),n為樣本的個(gè)數(shù)。
31、心率的均方根誤差(rmse)的計(jì)算公式為:
32、
33、其中,xi和yi分別表示第i個(gè)樣本的心率預(yù)測(cè)值(預(yù)測(cè)bvp波形峰點(diǎn)個(gè)數(shù))及心率相應(yīng)真實(shí)值(真實(shí)bvp波形峰點(diǎn)個(gè)數(shù)),n為樣本的個(gè)數(shù)。
34、一種基于ippg技術(shù)從人臉視頻中提取血容量脈搏波形態(tài)方法,所述方法包括面部3d建模模塊、感興趣區(qū)域rgb序列值和z軸坐標(biāo)序列值獲取模塊、血容量脈搏波信號(hào)形態(tài)重建模塊;
35、所述面部3d建模模塊用于對(duì)包含人臉的面部視頻進(jìn)行預(yù)處理,對(duì)處理后的每一幀二維人臉圖像進(jìn)行3d建模,獲取面部特征點(diǎn)用于感興趣區(qū)域的選定;
36、所述感興趣區(qū)域rgb值序列和z軸坐標(biāo)值序列獲取模塊使用從3d面部建模獲取的面部特征點(diǎn),根據(jù)這些面部特征點(diǎn)可以詳細(xì)的繪制出面部感興趣區(qū)域,之后計(jì)算感興趣區(qū)域的rgb序列值和對(duì)應(yīng)的z軸序列值作為血容量脈搏波重建模塊中神經(jīng)網(wǎng)絡(luò)模型的輸入;
37、所述血容量脈搏波重建模塊使用感興趣區(qū)域的rgb序列值和z軸坐標(biāo)序列值作為輸入,使用時(shí)間編碼器-解碼器結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型重建對(duì)應(yīng)時(shí)間內(nèi)人體的血容量脈搏信號(hào)形態(tài)。
38、進(jìn)一步所述面部3d建模模塊,其包括從人臉視頻中獲取人臉幀序列單元和將二維的人臉幀3d建模單元;
39、從人臉視頻中獲取人臉幀序列單元使用了opencv讀取人臉視頻視頻,并逐幀提取視頻幀。對(duì)每一幀視頻使用多任務(wù)卷積神經(jīng)網(wǎng)絡(luò)(mtcnn)檢測(cè)圖像中的人臉,獲取人臉的邊界框,根據(jù)邊界框裁剪出人臉區(qū)域,最后得到包含人臉區(qū)域的幀序列。
40、將二維的人臉幀3d建模單元使用了谷歌的mediapipe?face?mesh模型對(duì)人臉幀圖像中的人臉進(jìn)行檢測(cè),實(shí)時(shí)估計(jì)468個(gè)3d臉部界標(biāo),繪制了一個(gè)包含468個(gè)三維面部界標(biāo)拓?fù)涞撵o態(tài)3d模型,重復(fù)上述工作將人臉幀序列全部重建為包含468個(gè)三維面部界標(biāo)拓?fù)涞撵o態(tài)3d模型就構(gòu)建了一個(gè)對(duì)應(yīng)時(shí)間序列內(nèi)的面部3d動(dòng)態(tài)模型了,該模型可以實(shí)時(shí)的反應(yīng)面部的旋轉(zhuǎn)、平移和縮放等變化。
41、感興趣區(qū)域rgb值變化序列和z軸坐標(biāo)值變化序列獲取單元;
42、感興趣區(qū)域rgb值變化序列單元通過(guò)面部的3d建模獲取了468個(gè)3d面部界標(biāo),這些3d界標(biāo)詳細(xì)的描述了面部的各個(gè)位置,可以使用這些3d界標(biāo)選取合適的感興趣區(qū)域。使用3d面部界標(biāo)選取額頭區(qū)域(108,151,337,336,9,107)、右側(cè)臉頰區(qū)域(266,330,280,425)、下嘴唇區(qū)域(182,18,406,421,201)、上嘴唇區(qū)域(165,164,391,267,0,37)、鼻子區(qū)域(3,195,248,281,275,4,45,51)。計(jì)算該區(qū)域坐標(biāo)的rgb值,取該區(qū)域所有坐標(biāo)rgb值的平均值,重復(fù)上述工作對(duì)3d人臉建模后的每一幀,獲取5個(gè)感興趣區(qū)域的rgb值變化序列。
43、z軸坐標(biāo)值變化序列獲取單元,將二維的人臉幀視頻進(jìn)行3d建模,添加了第三維度的坐標(biāo)信息。相當(dāng)于建立了度量的3d空間,在這個(gè)空間的z軸上有一個(gè)虛擬透視相機(jī)位于空間的原點(diǎn),z軸坐標(biāo)就相當(dāng)于與這個(gè)虛擬透視相機(jī)的距離。在實(shí)際拍攝中,面部轉(zhuǎn)動(dòng)會(huì)導(dǎo)致面部感興趣區(qū)域靠近或遠(yuǎn)離相機(jī)位置,當(dāng)靠近的時(shí)感興趣區(qū)域rgb值就會(huì)相對(duì)于上一幀提高,反之遠(yuǎn)離時(shí)感興趣區(qū)域rgb值降低,這就是由于面部轉(zhuǎn)動(dòng)導(dǎo)致的噪聲,我們通過(guò)獲取感興趣區(qū)域的坐標(biāo)點(diǎn)z軸坐標(biāo),取平均值,重復(fù)上述工作對(duì)3d人臉建模后的每一幀,獲取5個(gè)感興趣區(qū)域的在z軸值變化序列,對(duì)運(yùn)動(dòng)引起的噪聲進(jìn)行補(bǔ)償,消除噪聲。
44、進(jìn)一步所敘血容量脈搏波信號(hào)形態(tài)重建模塊包括對(duì)感興趣區(qū)域rgb值變化序列處理的編碼器、對(duì)感興趣區(qū)域z軸坐標(biāo)值變化序列處理的編碼器、通用解碼器單元;
45、感興趣區(qū)域rgb值變化序列處理的編碼器單元由四個(gè)模塊組成,每個(gè)模塊包含一層卷積神經(jīng)網(wǎng)絡(luò)(conv1d)和一層激活函數(shù)relu,以及一層1x1的卷積和門(mén)控線性單元(glu)。每個(gè)模塊的第一個(gè)卷積層用于提取特征,第二個(gè)卷積層用于細(xì)化特征。
46、對(duì)感興趣區(qū)域z軸坐標(biāo)值變化序列處理的編碼器由四個(gè)模塊組成,每個(gè)模塊包含一層卷積神經(jīng)網(wǎng)絡(luò)(conv1d)和一層激活函數(shù)relu,以及一層1x1的卷積和門(mén)控線性單元(glu)。每個(gè)模塊的第一個(gè)卷積層用于提取特征,第二個(gè)卷積層用于細(xì)化特征。編碼器的第二個(gè)模塊的輸出傳遞到感興趣區(qū)域rgb值變化序列處理的編碼器的第二個(gè)模塊的輸出,進(jìn)行噪聲抵消,再輸入到感興趣區(qū)域rgb值變化序列處理的編碼器單元的第三個(gè)模塊中。編碼器的第四個(gè)模塊的輸出傳遞到感興趣區(qū)域rgb值變化序列處理的編碼器的第四個(gè)模塊的輸出,進(jìn)行噪聲抵消,再輸入到通用解碼器單元中。
47、通用解碼器單元由四個(gè)模塊組成,每個(gè)模塊包含一層glu激活函數(shù)和一層反卷積神經(jīng)網(wǎng)絡(luò)(convtranspose1d)。解碼器的作用是將編碼后的特征重新映射到原始信號(hào)的維度。每個(gè)模塊的glu激活函數(shù)用于將特征進(jìn)行解碼和重構(gòu)。最后輸出預(yù)測(cè)的血容量脈搏信號(hào)。
48、與現(xiàn)有技術(shù)相比,本發(fā)明所達(dá)到的有益效果是:
49、1.本發(fā)明通過(guò)人臉面部視頻提取血容量脈搏波(bvp)的波形,與傳統(tǒng)方法通常只能提取用于心率預(yù)測(cè)的血容量脈搏波數(shù)量相比,本發(fā)明能夠提取的bvp波形可應(yīng)用于呼吸率、血壓、血氧等多種生理參數(shù)的預(yù)測(cè),顯著擴(kuò)大了該技術(shù)的應(yīng)用范圍。這為醫(yī)學(xué)工作提供了更加便捷和快速的解決方案,具有廣泛的臨床應(yīng)用前景。
50、2.本發(fā)明通過(guò)對(duì)人臉進(jìn)行3d建模,與傳統(tǒng)的68點(diǎn)人臉特征點(diǎn)提取方法相比,采用了谷歌的mediapipe?face?mesh模型,能夠?qū)崟r(shí)估計(jì)468個(gè)3d臉部標(biāo)志點(diǎn),從而更加精準(zhǔn)地選取面部感興趣區(qū)域。同時(shí),3d臉部標(biāo)志點(diǎn)的z軸坐標(biāo)值包含了面部感興趣區(qū)域與相機(jī)鏡頭之間的相對(duì)距離,因此,通過(guò)計(jì)算z軸坐標(biāo),可以獲得面部旋轉(zhuǎn)、平移和縮放的信息,使得對(duì)面部運(yùn)動(dòng)的描述更加準(zhǔn)確。
51、3.本發(fā)明設(shè)計(jì)了時(shí)間編碼器-解碼器網(wǎng)絡(luò)模型,其中包括兩個(gè)編碼器。在訓(xùn)練網(wǎng)絡(luò)模型時(shí),除了輸入感興趣區(qū)域的rgb值變化序列外,還同時(shí)輸入了軸坐標(biāo)值變化序列。此外,將噪聲也作為一種特征輸入,從而顯著提升了模型對(duì)運(yùn)動(dòng)中面部的血容量脈搏波信號(hào)的準(zhǔn)確性。這種設(shè)計(jì)不僅使模型更具廣泛性,也為在更多生活場(chǎng)景中應(yīng)用該技術(shù)提供了可能性。