本發(fā)明屬于計算機視覺技術(shù)領(lǐng)域,涉及人體姿態(tài)估計方法。
背景技術(shù):
隨著當(dāng)今社會人機交互技術(shù)的快速發(fā)展,人與機器之間自然的、多模態(tài)的交互成為人與機器之間交互的主要方式。人類首先遇到的問題就是需要機器能夠正確地認(rèn)識和理解人的行為,正是在這種背景情況下,姿態(tài)估計被人們提出來了。它是目前人機交互的重要技術(shù)之一,能夠應(yīng)用在人體運動分析、虛擬現(xiàn)實、智能監(jiān)控、制作游戲等領(lǐng)域,人體姿態(tài)估計潛在的巨大應(yīng)用價值,引起了學(xué)術(shù)界、工業(yè)界的廣泛關(guān)注。現(xiàn)有的人體姿態(tài)估計工作可以分為無模型、基于模型的兩類方法。
無模型的人體姿態(tài)估計方法又可以劃分為基于學(xué)習(xí)的方法和基于樣本方法。
(1)基于學(xué)習(xí)的方法:使用訓(xùn)練樣本學(xué)習(xí)到一個從圖像特征空間到人體姿態(tài)空間的映射,若從新的觀測圖像中提取圖像特征輸入到從訓(xùn)練樣本中學(xué)習(xí)得到的映射之中,即可估計出對應(yīng)的人體姿態(tài)。例如文獻(xiàn)Ankur Agarwal,Bill Triggs.3D human pose from silhouettes by relevance vector regression,Computer Vision and Pattern Recognition,vol.2,no.2,pp.882-888,2004中作者使用人體輪廓的形狀上下文作為特征,采用相關(guān)向量機作為回歸器,用稀疏貝葉斯非線性回歸方法學(xué)習(xí)得到一個緊湊的映射,并將特征空間映射到姿態(tài)空間,對輸入特征直接輸出其相應(yīng)的人體姿態(tài)相關(guān)的數(shù)值。在參考文獻(xiàn)Romer Rosales,Assilis Athitsos,Leonid Sigal,et al.3D Hand Pose Reconstruction Using Specialized Mappings,ICCV,vol.1,pp.378-385,2001中則是將輸入空間分成許多簡單的小區(qū)域,這里的每個小區(qū)域都有相對應(yīng)的映射函數(shù),并使用了一種反饋匹配機制對姿態(tài)進(jìn)行重構(gòu),由于訓(xùn)練數(shù)據(jù)范圍較小,映射函數(shù)有較好的擬合效果,所以這種方法能夠很大程度上提高估計準(zhǔn)確度。雖然基于學(xué)習(xí)的方法執(zhí)行速度快,不需要專門初始化,具有較小的存儲代價,且無需保存樣本數(shù)據(jù)庫,但是基于學(xué)習(xí)方法的估計結(jié)果往往受訓(xùn)練樣本規(guī)模的影響較大。
(2)基于樣本的方法:首先需要建立模板庫,這個模板庫中存儲了大量特征以及人體姿態(tài)的訓(xùn)練樣本。當(dāng)輸入估計測試圖像時,提取相應(yīng)特征再用某種度量與模板庫里的樣本進(jìn)行比較,即找到和待估計圖像相似的訓(xùn)練樣本,最后使用最近鄰算法估計測試圖像的人體姿態(tài)。人體姿態(tài)十分復(fù)雜,不同的姿態(tài)所投影得到的圖像特征描述符可能非常相似,即特征描述符與姿態(tài)空間之間是一對多的關(guān)系。例如,在文獻(xiàn)Nicholas R.Howe.Silhouette Look up for Automatic Pose Tracking,Computer Vision and Pattern Recognition Workshop,pp.15-22,2004中作者從模板數(shù)據(jù)庫中檢索出多個接近的候選樣本,再用時域相似性約束得到這些樣本中的最佳匹配?;跇颖镜姆椒ū仨氁凶銐虻臉颖靖采w人體所有可能的姿態(tài),但是因為人體姿態(tài)過于復(fù)雜,有限的樣本難以覆蓋整個人體姿態(tài)空間,因此基于樣本的方法只適用于特定姿態(tài)的估計。
基于模型的方法將人體劃分成一些相互聯(lián)系的部件,用圖模型表示人體架構(gòu),并使用圖推理方法優(yōu)化人體姿態(tài),即在進(jìn)行人體姿態(tài)估計的過程中使用先驗的人體模型,并且模型的參數(shù)也隨著當(dāng)前狀態(tài)的變化而更新?;谀P偷娜梭w姿態(tài)估計中主要由圖模型、優(yōu)化算法、部件的觀測模型三部分組成。圖模型用來表示部件連接之間的約束關(guān)系,其中樹模型是最常用的模型,樹模型是根據(jù)部件之間的連接情況來定義的,所以相對直觀。觀測模型對人體部件的表觀建立模型,它是用來度量人體部件的圖像相似度,從而確定人體部件的具體位置。
優(yōu)化算法是利用建立好的圖模型和部件觀測模型來估計得到人體姿態(tài)。其中置信度傳播是較為常用的算法,但是由于在人體姿態(tài)估計中,人體部件的狀態(tài)向量維數(shù)相對較高,直接使用置信度傳播算法不現(xiàn)實。在文獻(xiàn)Deva Ramanan.Learning to parse images of articulated bodies,Neural Information Processing Systems,pp.1129-1136,2006中作者提出了和積算法,它繼承了消息傳遞機制,但通過引入因子圖將全局的概率密度函數(shù)分解成若干個局部概率密度函數(shù)的乘積,將算法使用范圍拓展到了無向圖(比如條件隨機場)上,但和積算法仍然有一個限制,它只有在無環(huán)的因子圖上才可以保證算法收斂。
基于模型的人體姿態(tài)估計方法具有較強的通用性,同時也減少了訓(xùn)練樣本的存儲代價。對于人體模型,人們可以方便地利用先驗知識來解決自遮擋以及其他遮擋問題,估計準(zhǔn)確度相對較高,適用于人體姿態(tài)分析等領(lǐng)域的應(yīng)用,但是缺點也比較明顯:(1)優(yōu)化速度相對較慢,一般不能滿足實時性要;2)初始化的好壞對姿態(tài)優(yōu)化的結(jié)果影響很大。
技術(shù)實現(xiàn)要素:
本發(fā)明的任務(wù)是提供了一種基于監(jiān)督局部子空間的人體姿態(tài)估計方法,它屬于無模型中基于學(xué)習(xí)的估計方法,該方法從稀疏和非均勻采樣的訓(xùn)練集中建立局部線性模型,很好地解決了以往學(xué)習(xí)算法遭受的通用性和魯棒性問題,減少了估計過程中受稀疏和非均勻訓(xùn)練樣本對估計結(jié)果的影響。并且在算法訓(xùn)練過程中對基礎(chǔ)算法進(jìn)行了一定的改進(jìn),在保證精確度的同時,很大程度上提高了運算效率,因此它能更好地實現(xiàn)實時人體姿態(tài)估計的任務(wù)。
為了方便地描述本發(fā)明內(nèi)容,首先對一些術(shù)語進(jìn)行定義。
定義1:人機交互。人機交互是一門研究系統(tǒng)與用戶之間的交互關(guān)系的學(xué)科。系統(tǒng)可以是各種各樣的機器,也可以是計算機的系統(tǒng)和軟件。人機交互界面通常是指用戶可見的部分。用戶通過人機交互界面與系統(tǒng)交流,并進(jìn)行操作。
定義2:人體姿態(tài)。人體的姿態(tài)分二維和三維兩種情況。二維人體姿態(tài)是指人體各關(guān)節(jié)在圖像二維平面分布的一種描述,通常用線段或者矩形來描述人體各關(guān)節(jié)在圖像二維平面的投影,線段的長度和角度分布或者矩形的大小和方向就代表了人體二維姿態(tài),二維姿態(tài)不存在二義性問題;三維人體姿態(tài)是指人體目標(biāo)在真實三維空間中的位置和角度信息,通常用關(guān)節(jié)樹模型來表述估計的姿態(tài),也有一些研究者采用更加復(fù)雜的模型,三維姿態(tài)的獲取通常是通過模型反投影的方法。
定義3:過擬合。在機器學(xué)習(xí)中通過訓(xùn)練樣本進(jìn)行分類或回歸模型訓(xùn)練時,模型得到的輸出值和真實目標(biāo)值基本一致,但在測試樣本集上模型得到的輸出值和目標(biāo)值相差卻很大,這類為了得到一致假設(shè)而使假設(shè)變得過度復(fù)雜的現(xiàn)象稱為過擬合。
定義4:前景。前景是指圖像中靠近鏡頭位置的人物或景物。
定義5:背景。背景是指圖像中主體背后的景物,能表現(xiàn)任務(wù)和事物所處的時空環(huán)境。
定義6:形狀上下文特征。形狀上下文在2002年提出的,最初用于檢測物體形狀之間匹配點。形狀上下文描述子可充分地利用像素點周圍的上下文信息,對圖像內(nèi)部區(qū)域的形狀特征進(jìn)行很好地描繪,在形狀匹配問題中,具有非常好的魯棒性。該描述子的基本原理是:對于給定的一幅圖像,首先用邊緣特征提取算法(如Canny邊緣檢測器)檢測出它的邊緣信息;然后對邊緣像素點進(jìn)行采樣,提取出一系列特征點(這些特征點可以是內(nèi)部邊緣上的點,也可以是外部邊緣上的點,并且不需要是邊緣曲線上曲率最大處的點,可以通過均勻采樣獲得。);針對每一個特征點,以其為原點建立起極坐標(biāo)系,根據(jù)角度的變化將其周圍的空間劃分成一系列扇形區(qū)域,同時根據(jù)半徑的大小將周圍空間劃分成一系列同心圓,統(tǒng)計分布每一個區(qū)域的特征點的個數(shù);(見圖1中(c))最后根據(jù)統(tǒng)計得到的數(shù)據(jù)建立相應(yīng)的向量,即為相應(yīng)像素點形狀上下文特征向量。
定義7:K均值算法。K均值算法是一種基于距離的迭代式算法,它將m個觀測樣本分類到k個聚類中,以使得每個觀察樣本距離它所在的聚類中心點比距離其它聚類中心點的距離更小。具體過程為:
1)假設(shè)樣本空間為其中m表示樣本的個數(shù),n表示每一個訓(xùn)練樣本的維數(shù)。然后從訓(xùn)練樣本空間中隨機選取k個聚類中心點,分別為
2)重復(fù)下面的過程直至收斂:
對于每一個樣本i∈[1,m],計算它應(yīng)該屬于哪一個聚類:
對于每一個聚類j∈[1,k],重新計算該聚類的中心:
其中,1{ci=j(luò)}為示性函數(shù),當(dāng)ci=j(luò)條件滿足時函數(shù)值等于1,否則為0。經(jīng)過若干次迭代后,算法達(dá)到收斂即聚類中心不再變化或者變化很小了,測試可以得到我們想要的k個聚類中心點以及每個樣本所屬的聚類。
定義8:BVH格式。BVH文件包含角色的骨骼和肢體關(guān)節(jié)旋轉(zhuǎn)數(shù)據(jù)。BVH是一種通用的人體特征動畫文件格式,廣泛地被當(dāng)今流行的各種動畫制作軟件支持。通??蓮挠涗浫祟愋袨檫\動的運動捕獲硬件獲得。
按照本發(fā)明的一種基于監(jiān)督局部子空間的人體姿態(tài)估計方法,它包含以下步驟:
步驟1:對需要進(jìn)行人體姿態(tài)估計的原始圖像,去除背景并得到人體輪廓信息,達(dá)到突出前景的作用;
步驟2:對步驟1獲得圖像進(jìn)行二值化,再對上述人體輪廓圖片提取形狀上下文特征,其中提取形狀上下文特征的算法相關(guān)參數(shù)分別是采樣點個數(shù)為200,圓形極坐標(biāo)均分為12個扇形區(qū)域,半徑分為5份;因此對于每一個訓(xùn)練樣本,它所對應(yīng)的形狀上下文特征為一個60*200維矩陣即200個60維的形狀上下文向量;
步驟3:采用降維操作將每張圖片的形狀上下文特征降到100維獲得圖像特征X;
步驟4:將步驟3獲得的圖像特征X通過姿態(tài)角度Θ進(jìn)行局部子空間重構(gòu),具體公式為
其中,f是人體姿態(tài)空間到圖像特征空間的映射函數(shù),是指第i個局部子空間對應(yīng)的參數(shù)集合,是子空間的中心,是切線空間的主要成分,為第i個子空間中心所對應(yīng)的人體姿態(tài)角度,m為子空間的數(shù)量,d為樣本的輸入特征維數(shù);
步驟5:將步驟4中的近似函數(shù)f(Θ)進(jìn)行一階泰勒展開;由某一局部子空間對每個訓(xùn)練樣本進(jìn)行重構(gòu),如果姿態(tài)角度為θp的訓(xùn)練樣本xp在參數(shù)決定的子空間中,就將xp近似成:
xp≈ci+Gi△θpi
其中,同時定義且N(θp)表示鄰近θp的子空間索引序號;
步驟6:根據(jù)步驟5確定出該算法的誤差函數(shù)為
其中第一項為每個訓(xùn)練樣本(xp,θp)由近鄰子空間重構(gòu)所造成的重構(gòu)誤差的加權(quán)和,近鄰子空間的選取依據(jù)是子空間中心所對應(yīng)的姿態(tài)角度與θp歐氏距離的大小關(guān)系;第二項進(jìn)行正則化,通過近鄰子空間將每個子空間的均值進(jìn)行重構(gòu);這個步驟確保了子空間參數(shù)的平穩(wěn)變化,并且能夠從稀疏的非均勻的數(shù)據(jù)中估計出來;其中λ=(n/m)2是一個正則化參數(shù),它等于訓(xùn)練樣本個數(shù)n除以子空間個數(shù)m的平方,wpi定義了每個近鄰子空間對數(shù)據(jù)樣本重構(gòu)的權(quán)重,具體公式為:
其中,是測量角度θp和之間相似性的正值函數(shù),函數(shù)表達(dá)式為:
步驟7:令表示子空間的中心,表示子空間的基,其中d是輸入的維數(shù),在本專利中d為100,m為子空間的個數(shù),之后采用閉合解算法優(yōu)化計算得到C和G;
步驟8:對于一個新的測試樣本點的圖像特征xt,為了提高效率;本算法采用如下兩個步驟從子空間中確定該測試樣本的近鄰子空間:
(1)首先找出2|Γt|個候選子空間;|Γt|為我們設(shè)定的近鄰子空間個數(shù),一般為2~16。這些子空間的中心ci在輸入空間中最接近xt,然后根據(jù)公式算出θti,其中為選取出的某近鄰子空間的基,為選取出的某近鄰子空間的中心;θti表示對于一個新的測試數(shù)據(jù)點xt它根據(jù)子空間i重構(gòu)所得到的姿態(tài)角度θti;
(2)比較重構(gòu)誤差的大小,從2|Γt|個候選中選擇出|Γt|個近鄰子空間,并將最小重構(gòu)誤差所對應(yīng)的θti,記作測試數(shù)據(jù)點xt對應(yīng)的姿態(tài)角度θt0,其中重構(gòu)誤差的公式為:
最后,最佳的θt通過最小化公式得到,其中權(quán)重wti由上述θt0算出,具體公式為最后可以得到測試樣本點xt對應(yīng)的最佳姿態(tài)角度θt:
步驟9:將得到的θt解析成BVH格式的文本并表示成相應(yīng)人體姿態(tài)圖像。
進(jìn)一步的,所述步驟3的具體步驟為:
首先將所有訓(xùn)練樣本中的形狀上下文特征矩陣從左到由合并在一起,然后采用K均值算法得到100個60維的向量,我們稱這些向量為數(shù)據(jù)空間的聚類中心。最后每個樣本的200個形狀上下文向量帶有高斯權(quán)重地向這100個聚類中心進(jìn)行投票,具體的投票方式為形狀上下文與某個聚類中心的歐氏距離越近就越趨于1,越遠(yuǎn)就趨于0。最后可以得到后面步驟所需要的圖像特征X,其中第i列對應(yīng)第i個訓(xùn)練樣本的圖像特征且每個樣本的特征為100維。
進(jìn)一步的,所述步驟7的具體步驟為:
具體做法為:用U=[C,G]代替C和G,則可以將步驟6中的誤差函數(shù)改寫為:
其中e∈11×d,Wp=diag{wpi,i∈Γp},Wj=diag{wji,i∈Γj},另外,是一個0-1選擇矩陣,該矩陣對角線上非零元素的序號為訓(xùn)練樣本xp對應(yīng)的近鄰子空間的序列,其余元素均為0,例如訓(xùn)練樣本xp對應(yīng)的近鄰子空間的序號分別為2,4,5,6,則在中有且僅有元素S22,S44,S55,S66為1,其他元素均為0;也是一個0-1選擇矩陣,該矩陣對角線上非零元素的序號為每個子空間中心cj對應(yīng)的近鄰子空間的序列;s為一個m×m的單位矩陣,sj為一個m維列向量,I是一個m×m的單位矩陣,E(U)是關(guān)于U的一個凸二次函數(shù)。最后得到U的解的表達(dá)式為:U=A(B(x)+B(c))-1
其中,A,B(x),B(c),C,G分別為:
C=U[1:d,1:m]
G=U[1:d,1+m:56×m]
通過數(shù)次迭代優(yōu)化后,C和G能迅速收斂,C和G此時得到和的近似最優(yōu)解。
本發(fā)明的創(chuàng)新之處在于:
本專利提出了在人體姿態(tài)估計問題中引入基于監(jiān)督局部子空間的估計方法,它屬于無模型中基于學(xué)習(xí)的估計方法,該算法從稀疏和非均勻采樣的訓(xùn)練集中建立局部線性模型,很好地解決了以往學(xué)習(xí)算法遭受的通用性和魯棒性問題,減少了估計過程中受稀疏和非均勻訓(xùn)練樣本對估計結(jié)果的影響。同時提出了一種閉合解算法優(yōu)化局部子空間參數(shù),比之前的交替優(yōu)化算法更快地達(dá)到收斂,在保證精確度的同時,很大程度上提高了運算效率,因此它能更好地實現(xiàn)實時人體姿態(tài)估計的任務(wù)。此外,由于該算法是一個生成的模型,它也能夠很好的處理圖像噪聲。
附圖說明:
圖1形狀上下文特征描述;
圖2對人體輪廓提取形狀上下文特征時200個采樣點的分布;
圖3去除背景后的人體輪廓圖;
圖4姿態(tài)估計結(jié)果展示。
圖1中(c)圖表示處于極坐標(biāo)原點的樣本點的形狀信息,周圍與它相鄰的點(在極坐標(biāo)覆蓋的范圍之內(nèi))落于不同的小格子,就表示不同的相對向量,這些相對向量就成為這個點的形狀上下文;同時圖(a)和圖(b)中菱形點和方塊點,他們的形狀上下文直方圖(d)、(e)圖,基本上一致,而三角形點的形狀上下文就有不同,這和我們實際的觀察基本上是一致的。圖4中左邊為我們輸入的人體輪廓信息,右邊為我們估計并解析出的BVH格式的人體姿態(tài)。
具體實施方式:
結(jié)合說明書附圖對本發(fā)明的一種基于監(jiān)督局部子空間的人體姿態(tài)估計方法進(jìn)行說明,它包含以下步驟:
步驟1:對需要進(jìn)行人體姿態(tài)估計的原始圖像,去除背景并得到人體輪廓信息,達(dá)到突出前景的作用(見圖3);
步驟2:對上述人體輪廓圖片提取形狀上下文特征,其中提取形狀上下文特征的算法相關(guān)參數(shù)分別是采樣點個數(shù)為200(見圖2),圓形極坐標(biāo)均分為12個扇形區(qū)域,半徑分為5份;因此對于每一個訓(xùn)練樣本,它所對應(yīng)的形狀上下文特征為一個60*200維矩陣即200個60維的形狀上下文向量;
步驟3:采用降維操作將每張圖片的形狀上下文特征降到100維獲得圖像特征X;具體操作為:首先將所有訓(xùn)練樣本中的形狀上下文特征矩陣從左到由合并在一起,然后采用K均值算法得到100個60維的向量,我們稱這些向量為數(shù)據(jù)空間的聚類中心。最后每個樣本的200個形狀上下文向量帶有高斯權(quán)重地向這100個聚類中心進(jìn)行投票,具體的投票方式為形狀上下文與某個聚類中心的歐氏距離越近就越趨于1,越遠(yuǎn)就趨于0。最后可以得到后面步驟所需要的圖像特征X,其中第i列對應(yīng)第i個訓(xùn)練樣本的圖像特征且每個樣本的特征為100維。
該步驟中在選取100個中心點過程中,可以用任意的聚類算法,我們采用K-Means算法一是因為它運行簡單快速,而是因為它為后面形狀上下文特征向量進(jìn)行投票中的高斯權(quán)重提供了相應(yīng)的均值u和方差σ2。
步驟4:將步驟3獲得的圖像特征X通過姿態(tài)角度Θ進(jìn)行局部子空間重構(gòu),具體公式為
其中,f是人體姿態(tài)空間到圖像特征空間的映射函數(shù),是指第i個局部子空間對應(yīng)的參數(shù)集合,是子空間的中心,是切線空間的主要成分,為第i個子空間中心所對應(yīng)的人體姿態(tài)角度,m為子空間的數(shù)量,d為樣本的輸入特征維數(shù);
步驟5:將步驟4中的近似函數(shù)f(Θ)進(jìn)行一階泰勒展開;由某一局部子空間對每個訓(xùn)練樣本進(jìn)行重構(gòu),如果姿態(tài)角度為θp的訓(xùn)練樣本xp在參數(shù)決定的子空間中,就將xp近似成:
xp≈ci+Gi△θpi
其中,同時定義且N(θp)表示鄰近θp的子空間索引序號;
步驟6:根據(jù)步驟5確定出該算法的誤差函數(shù)為
其中第一項為每個訓(xùn)練樣本(xp,θp)由近鄰子空間重構(gòu)所造成的重構(gòu)誤差的加權(quán)和,近鄰子空間的選取依據(jù)是子空間中心所對應(yīng)的姿態(tài)角度與θp歐氏距離的大小關(guān)系;第二項進(jìn)行正則化,通過近鄰子空間將每個子空間的均值進(jìn)行重構(gòu);這個步驟確保了子空間參數(shù)的平穩(wěn)變化,并且能夠從稀疏的非均勻的數(shù)據(jù)中估計出來;其中λ=(n/m)2是一個正則化參數(shù),它等于訓(xùn)練樣本個數(shù)n除以子空間個數(shù)m的平方,wpi定義了每個近鄰子空間對數(shù)據(jù)樣本重構(gòu)的權(quán)重,具體公式為:
其中,是測量角度θp和之間相似性的正值函數(shù),函數(shù)表達(dá)式為:
步驟7:令表示子空間的中心,表示子空間的基,其中d是輸入的維數(shù),在本專利中d為100,m為子空間的個數(shù),之后采用閉合解算法優(yōu)化計算得到C和G;
具體做法為:用U=[C,G]代替C和G,則可以將步驟6中的誤差函數(shù)改寫為:
其中e∈11×d,Wp=diag{wpi,i∈Γp},Wj=diag{wji,i∈Γj},另外,是一個0-1選擇矩陣,該矩陣對角線上非零元素的序號為訓(xùn)練樣本xp對應(yīng)的近鄰子空間的序列,其余元素均為0,例如訓(xùn)練樣本xp對應(yīng)的近鄰子空間的序號分別為2,4,5,6,則在中有且僅有元素S22,S44,S55,S66為1,其他元素均為0;也是一個0-1選擇矩陣,該矩陣對角線上非零元素的序號為每個子空間中心cj對應(yīng)的近鄰子空間的序列;s為一個m×m的單位矩陣,sj為一個m維列向量,I是一個m×m的單位矩陣,E(U)是關(guān)于U的一個凸二次函數(shù)。最后得到U的解的表達(dá)式為U=A(B(x)+B(c))-1
其中,A,B(x),B(c),C,G分別為:
C=U[1:d,1:m]
G=U[1:d,1+m:56×m]
通過數(shù)次迭代優(yōu)化后,C和G能迅速收斂,C和G此時得到和的近似最優(yōu)解。
步驟8:對于一個新的測試樣本點的圖像特征xt,為了提高效率;本算法采用如下兩個步驟從子空間中確定該測試樣本的近鄰子空間:
(1)首先找出2|Γt|個候選子空間;|Γt|為我們設(shè)定的近鄰子空間個數(shù),一般為2~16。這些子空間的中心ci在輸入空間中最接近xt,然后根據(jù)公式算出θti,其中為選取出的某近鄰子空間的基,為選取出的某近鄰子空間的中心;θti表示對于一個新的測試數(shù)據(jù)點xt它根據(jù)子空間i重構(gòu)所得到的姿態(tài)角度θti;
(2)比較重構(gòu)誤差的大小,從2|Γt|個候選中選擇出|Γt|個近鄰子空間,并將最小重構(gòu)誤差所對應(yīng)的θti,記作測試數(shù)據(jù)點xt對應(yīng)的姿態(tài)角度θt0,其中重構(gòu)誤差的公式為:
最后,最佳的θt通過最小化公式得到,其中權(quán)重wti由上述θt0算出,具體公式為最后可以得到測試樣本點xt對應(yīng)的最佳姿態(tài)角度θt:
步驟9:將得到的θt解析成BVH格式的文本并表示成相應(yīng)人體姿態(tài)圖像。(見圖3)
根據(jù)本發(fā)明的方法,首先利用Matlab語言編寫基于監(jiān)督局部子空間學(xué)習(xí)算法的程序;接著選取若干圖片對算法進(jìn)行訓(xùn)練,求解子空間中心和基向量參數(shù);最后將需要進(jìn)行姿態(tài)估計的含人體的圖片輸入到算法中,即可得到由該算法預(yù)測出的人體姿態(tài)。本發(fā)明的方法,可以用于自然場景中人體的姿態(tài)估計,如行為檢測,人機交互。最后我們將我們的算法在Poser dataset數(shù)據(jù)庫上進(jìn)行測試,該數(shù)據(jù)集由選取其中的1691張作為訓(xùn)練樣本,418張為測試樣本。當(dāng)在算法中選擇子空間個數(shù)為61,近鄰子空間個數(shù)為8時,在該數(shù)據(jù)集上能得到最佳的測試誤差為7.125°。