一種基于加速度計(jì)的人體行為識(shí)別方法
【專利摘要】本發(fā)明公開一種基于加速度計(jì)的人體行為識(shí)別分類方法,包括如下步驟:1)收集人體行為樣本作為訓(xùn)練集;2)尋找對(duì)該訓(xùn)練集識(shí)別分類最優(yōu)的投影矩陣U;3)對(duì)無標(biāo)注數(shù)據(jù)進(jìn)行投影;4)對(duì)投影后的數(shù)據(jù)采用最小距離分類器分類,獲得識(shí)別結(jié)果。本發(fā)明對(duì)標(biāo)注數(shù)據(jù)形成的近鄰塊做局部近似線性的假設(shè),并使塊上不同類別之間樣本距離足夠大,相同類別樣本位置順序信息通過類sigmoid函數(shù)懲罰因子盡可能的保留,最后在所有塊上目標(biāo)函數(shù)的基礎(chǔ)上建立全局目標(biāo)函數(shù)。利用本發(fā)明提出的方法能夠合適的保留高維空間中樣本之間距離的信息,減少識(shí)別模型對(duì)人工標(biāo)注樣本的依賴,其識(shí)別效果優(yōu)于有代表性的基于線性判別分析的人體行為識(shí)別方法。
【專利說明】一種基于加速度計(jì)的人體行為識(shí)別方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及一種模式識(shí)別與人工智能技術(shù),特別涉及一種基于加速度計(jì)的人體行為識(shí)別方法。
【背景技術(shù)】
[0002]人類行為識(shí)別是一個(gè)復(fù)雜的問題,橫跨很多學(xué)科,并且受到了工業(yè)信息化領(lǐng)域的極大關(guān)注?;静襟E包括感知信號(hào)的獲取,信息處理和模式分類。最近幾年,人們提出了很多有效的方法來自動(dòng)識(shí)別人類行為。這些方法可以歸為兩類:一類是基于計(jì)算機(jī)視覺的,另一類是基于加速度傳感器的。基于計(jì)算機(jī)視覺的人類行為分析系統(tǒng)不能很好地應(yīng)用于工業(yè)環(huán)境,這是因?yàn)樵擃愊到y(tǒng)對(duì)于光照條件非常敏感。最近幾年來基于加速度計(jì)的人類行為識(shí)別在工業(yè)環(huán)境中的應(yīng)用受到越來越多的關(guān)注,它可以替代基于計(jì)算機(jī)視覺的人體行為識(shí)別系統(tǒng)。通過固定在人體上的加速度計(jì)上的加速度信號(hào),我們可以很好地分析并區(qū)分人類的行為,例如走路、跑步和站立。
[0003]通常的基于加速度計(jì)人體行為是一種監(jiān)督學(xué)習(xí)方法,即通過學(xué)習(xí)人工標(biāo)注數(shù)據(jù),以獲得人體行為識(shí)別模型,然后對(duì)新的數(shù)據(jù)進(jìn)行自動(dòng)人體行為識(shí)別。通常采集到的人體行為特征維數(shù)非常高,因此降維方法有助于識(shí)別性能的提高。傳統(tǒng)的全局線性降維的方法主要是基于線性的,其中線性判別分析被廣泛地應(yīng)用在模式分類問題上。線性判別分析法主要通過全局最大化類間距離的同時(shí)使類內(nèi)樣本間距離最小,從而實(shí)現(xiàn)不同類別之間的可分性。但是,手工標(biāo)定人體行為樣本數(shù)據(jù)是費(fèi)時(shí)費(fèi)力的。采用線性判別分析模型進(jìn)行訓(xùn)練需要人工大量的標(biāo)注樣本,這使得人體行為模型開發(fā)成本大量增加,需要人工大量的標(biāo)注樣本。因此,尋找一個(gè)需要標(biāo)注少量樣本即可得到滿足要求的人體行為分類方法是非常必要的。
【發(fā)明內(nèi)容】
[0004]本發(fā)明的目的在于克 服現(xiàn)有技術(shù)的缺點(diǎn)與不足,提供一種基于加速度計(jì)的人體行為識(shí)別方法,該方法是一種只需要少量人工標(biāo)注樣本的基于加速度計(jì)人體行為識(shí)別方法。
[0005]本發(fā)明的目的通過下述技術(shù)方案實(shí)現(xiàn):一種基于加速度計(jì)的人體行為識(shí)別方法,可以包括以下步驟:
[0006]I)收集N個(gè)人體行為樣本作為訓(xùn)練集X,即
【權(quán)利要求】
1.一種基于加速度計(jì)的人體行為識(shí)別方法,包括以下步驟: .1)收集人體行為樣本作為訓(xùn)練集X,即:X=[X1,X2,…,XN]e Rdxn,樣本維數(shù)為D,樣本個(gè)數(shù)為N,每個(gè)樣本有相應(yīng)的類別標(biāo)志Ci e Zn; . 2)尋找基于加速度計(jì)的人體行為識(shí)別分類最優(yōu)的投影矩陣U; .3)通過對(duì)無標(biāo)注數(shù)據(jù)Xu進(jìn)行投影,即=Yu=UtXu; . 4)對(duì)Yu采用最小距離分類器分類,以獲得人體行為識(shí)別的結(jié)果; 其特征在于,所述尋找基于加速度計(jì)的人體行為識(shí)別分類最優(yōu)的投影矩陣的方法包括以下步驟: 步驟1:建立局部?jī)?yōu)化目標(biāo)函數(shù); 步驟2:建立全局優(yōu)化目標(biāo)函數(shù); 步驟3:利用拉格朗日乘數(shù)法,投影矩陣U由式子XLXt的前d個(gè)最小特征值對(duì)應(yīng)的d個(gè)特征向量得到。
2.根據(jù)權(quán)利要求1所述的基于加速度計(jì)的人體行為識(shí)別方法,其特征在于,所述步驟I中,建立局部?jī)?yōu)化目標(biāo)函數(shù)的方法為:對(duì)每一個(gè)已標(biāo)注的樣本Xi,找到同類樣本.-Λ,的Ic1近鄰和不同類別樣本^,...〃\2的k2近鄰來形成一個(gè)局部塊,SP
3.根據(jù)權(quán)利要求1所述的基于加速度計(jì)的人體行為識(shí)別方法,其特征在于,所述步驟2中,建立全局優(yōu)化目標(biāo)函數(shù)的方法為:通過樣本選擇矩陣,低維空間表達(dá)Yi的坐標(biāo)是從全局坐標(biāo)Y=U1X= Iiy1, y2,…yN] e RdXN中選擇出來的,即: Yi=YSi, (8) 式中,Si e Rnx(k+1)是選擇矩陣,令Fi=Ud1,…iK}為指示集合,則選擇矩陣的定義如下:
【文檔編號(hào)】G06K9/62GK103500342SQ201310428353
【公開日】2014年1月8日 申請(qǐng)日期:2013年9月18日 優(yōu)先權(quán)日:2013年9月18日
【發(fā)明者】陶大鵬, 金連文, 黎小鳳 申請(qǐng)人:華南理工大學(xué)