本發(fā)明涉及的是一種步態(tài)識別方法,特別涉及一種多視角步態(tài)識別方法。
背景技術:步態(tài)識別是一種新興的生物特征識別技術,旨在通過人們走路的姿態(tài)進行身份識別。與其他生物特征識別技術相比,步態(tài)識別是生物特征識別中唯一可以遠距離識別的方法,其優(yōu)勢還包括非接觸性、非侵犯性、易于感知、難于隱藏、難于偽裝等。基于上述優(yōu)點,步態(tài)識別在門禁系統、安全監(jiān)控、人機交互、醫(yī)療診斷等領域具有廣闊的應用空間和較高的經濟價值。然而,步態(tài)識別在實際應用中也面臨許多難點,主要表現在行人在行走過程中會受到外在環(huán)境和自身因素的影響,例如不同行走路面、不同分辨率、不同視角、不同服飾、不同攜帶物等因素。在上述影響因素中,視角變化是影響步態(tài)識別系統性能的最主要因素之一。視角變化問題是步態(tài)識別無法逃避的問題,因為人的行走方向是完全自由隨機的,并且不同區(qū)域的攝像頭存在位置差異。目前,傳統的步態(tài)識別技術,如公開號CN1426020的專利文件中公開的“基于步態(tài)的遠距離身份識別方法”,在固定視角下可以取得很好的性能,而在視角劇烈變化或存在遮擋的情況下,無法適用或識別性能明顯下降。理論上在注冊集中保存所有個體在多個視角下的步態(tài)信息可以提高傳統步態(tài)識別方法在視角變化情況下的識別性能,然而存儲多個視角的步態(tài)信息將耗費大量存儲資源,不便于實際應用。
技術實現要素:本發(fā)明的目的在于提供一種在測試步態(tài)視角與注冊集中步態(tài)視角不匹配的情況下也能保證有較好的識別性能,能降低系統的存儲需求的基于最優(yōu)判別耦合投影的多視角步態(tài)識別方法。本發(fā)明的目的是這樣實現的:步驟1,對訓練集里多個已知視角的步態(tài)視頻序列進行行人目標輪廓提取、步態(tài)周期檢測和步態(tài)特征提??;步驟2,在步驟1提取得到的訓練集內多個視角下的步態(tài)特征中,選取一個標準視角步態(tài)特征,將其余多個視角下的步態(tài)特征分別與標準視角步態(tài)特征進行聯合訓練,得到相應的最優(yōu)判別耦合投影矩陣對,所述標準視角步態(tài)特征選取90°視角作為標準視角;步驟3,對注冊集中標準視角的步態(tài)視頻序列進行行人目標輪廓提取、步態(tài)周期檢測和步態(tài)特征提??;步驟4,存儲由步驟3提取到的標準視角即90°視角下的步態(tài)特征、由步驟2計算得出的其余多個已知視角和標準視角間步態(tài)特征的最優(yōu)判別耦合投影矩陣對和不同視角步態(tài)特征的均值向量;步驟5,對測試集中的多個步態(tài)視頻序列進行行人目標輪廓提取、步態(tài)周期檢測和步態(tài)特征提??;步驟6,對步驟5提取到的測試集中的步態(tài)特征進行視角估計,根據估計到的近似視角選取相應最優(yōu)判別耦合投影矩陣對;步驟7,將注冊集中標準視角步態(tài)特征和測試集中步態(tài)特征通過由步驟6選取的最優(yōu)判別耦合投影矩陣對,投影到具有最優(yōu)判別能力或最優(yōu)類可分性的共同耦合步態(tài)特征空間中,并在其中進行相似性度量,得到步態(tài)識別結果。本發(fā)明的優(yōu)點在于:(1)充分利用類別標記信息和跨視角間的互補信息,將測試視角步態(tài)特征和注冊視角步態(tài)特征投影到共同的最具判別能力的耦合空間中,使得測試步態(tài)視角與注冊集中標準步態(tài)視角存在顯著差異時,步態(tài)識別系統仍能獲得高識別率。從而解決了傳統步態(tài)識別技術在測試步態(tài)視角與注冊集中步態(tài)視角不匹配的情況下,識別性能明顯下降的問題。(2)僅需存儲注冊集標準視角(90°視角)下的步態(tài)特征、不同視角與標準視角間步態(tài)特征的耦合投影矩陣、和不同視角步態(tài)特征的均值向量。與存儲多個視角步態(tài)信息的方法相比極大降低了系統的存儲需求。附圖說明圖1多角度步態(tài)識別流程圖;圖2提取的人體步態(tài)輪廓;圖3基于四肢運動的正面步態(tài)周期檢測結果;圖4人體測量學高度圖;圖5基于腿部區(qū)域能量變化的周期檢測曲線;圖6非正面步態(tài)周期檢測結果;圖7同一行人不同視角下的步態(tài)能量圖;圖8最優(yōu)判別耦合投影矩陣對的訓練過程;圖9多視角步態(tài)測試序列的識別過程;圖10傳統方法在注冊集中存儲90度視角樣本時,與本專利提出方法進行多視角步態(tài)識別的精度比較;圖11傳統方法在注冊集中存儲所有視角樣本時,與本專利提出方法進行多視角步態(tài)識別的精度比較;圖12(a)-圖12(f)傳統方法在注冊集中存儲所有視角樣本與本發(fā)明方法提取不同步態(tài)特征維數時的精度比較,其中:圖12(a)測試視角為0度;圖12(b)測試視角為18度;圖12(c)測試視角為36度;圖12(d)測試視角為54度;圖12(e)測試視角為72度;圖12(f)測試視角為90度。具體實施方式下面結合附圖對本發(fā)明做進一步詳細說明。如圖1所示,本發(fā)明具體包括以下幾個步驟:步驟1,對訓練集里多個已知視角的步態(tài)視頻序列進行行人目標輪廓提取、步態(tài)周期檢測和步態(tài)特征提?。凰霾襟E1進一步包括以下步驟:步驟1.1,對訓練集中每一個人在不同視角下的行走視頻,順次通過前景檢測和形態(tài)學處理,來提取每一個人在各視角下的人體步態(tài)輪廓序列;所述的前景檢測采用基于碼本的前景檢測,根據當前像素值與該像素碼本是否匹配來進行前景判斷。通過碼本模型建立以及背景差分運算,可以得出前景區(qū)域。但是由于算法在去除陰影的同時,將與陰影相似的前景部分一起消除,容易造成空洞和目標斷裂情況,我們隨后進行圖像后處理;所述的形態(tài)學處理為對前景檢測得出的前景區(qū)域運用形態(tài)學算子(侵蝕和膨脹)對虛假像素進行濾除,消除毛刺和小噪聲的影響,并填充提取輪廓內部的小洞。利用連通區(qū)域算法,計算連通區(qū)域的外圍輪廓,提取大尺寸的高度緊連...