国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于asm算法的人臉特征定位方法

      文檔序號:6483154閱讀:263來源:國知局
      專利名稱:一種基于asm算法的人臉特征定位方法
      技術(shù)領(lǐng)域
      本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,主要涉及生物特征鑒別中的人臉識別技術(shù)。
      背景技術(shù)
      在當(dāng)今信息化吋代,如何準(zhǔn)確鑒定一個人的身份,保護信息安全是一個必須解決的關(guān)鍵 社會問題。為此,生物特征鑒別技術(shù)悄然新起,并成為目前世界信息安全管理領(lǐng)域的前沿研 究課題。生物特征鑒別技術(shù)是指利用人體所固有的生理特征或行為特征來進行個人身份鑒定。 人臉識別技術(shù)是生物特征鑒別技術(shù)的一個分支,是計算機圖像處理技術(shù)和模式識別技術(shù)在個 人身份識別領(lǐng)域的應(yīng)用,由于其終身不變性和圖像來源不需要人特別配合等特性,近年來己 經(jīng)成為生物特征鑒別的熱門發(fā)展方向。人臉自動識別技術(shù),在居民小區(qū)、公司單位的門禁系 統(tǒng)、銀行、公安、機場、網(wǎng)絡(luò)等方面應(yīng)用廣泛,具有巨大的經(jīng)濟價值和現(xiàn)實意義?,F(xiàn)在它己 經(jīng)使用在邊境檢査、通觀認(rèn)證、銀行提款、信息管理和建筑物安全管理等,還可以使人們擺 脫記憶信用卡號、銀行帳號、身份證號、網(wǎng)絡(luò)登錄號的繁瑣。隨著數(shù)字信號處理技術(shù)和圖像 處理技術(shù)的發(fā)展,人臉識別已經(jīng)越來越受到人們的重視。詳見文獻(xiàn)John G. Daugman, "High Confidence Recognition of Persons," 77^ PraceW"g 7EE五3J^ /她rw加》wa/ Qir""/zaw Co",eweSecwr/(v 7fec/z"o/ogy, pp. 254-263, 2000所述。
      在人臉識別技術(shù)中,人臉圖像的檢測定位是人臉識別的第一步,它的執(zhí)行準(zhǔn)確度將直接 影響整個人臉識別系統(tǒng)的識別率。在實際中,由于人臉區(qū)域常常受到頭發(fā),眼睛,胡子和一 些飾物的遮擋和光照的影響,人臉定位算法的準(zhǔn)確性和有效性還有待進一步提高。如何在存 在頭發(fā),眼睛,胡子和一些飾物的遮擋和光照影響問題的低質(zhì)量人臉圖像中,快速精確地定 位出人臉,并對其邊界或位置用數(shù)學(xué)模型進行描述是我們研究的主要問題。詳見文獻(xiàn)JohnG. Daugman, "High Confidence Visual Recognition of Persons by a Test of Statistical Independence," 7hmsac"'OM尸"股r"朋d Mac/zz'股/"te〃/gewce, volume 15, no. 11, pp. 1148-1161,
      1993。
      現(xiàn)在通常使用的人臉定位的方法大致有以下三大類,應(yīng)用最為廣泛的是基于統(tǒng)計學(xué)的定 位方法主動形狀模型(即active shape model, ASM)算法、主動外觀模型(即active appearance model, AAM)算法等。
      (1)基于膚色的彩色圖定位方法。它通過膚色模型進行粗定位,尋找含有膚色的區(qū)域 作為人臉的候選區(qū),然后再在這些候選區(qū)利用人臉模板進行匹配或者利用圓檢測定位眼睛從 而定位出人臉區(qū)。在實際應(yīng)用中此類方法對光照有一定的要求,光照改變的情況下定位結(jié)果會出現(xiàn)不可預(yù)料的結(jié)果。詳見文獻(xiàn)Rein-Lien Hau and Anil K.Jain. Face Detection in Color Image [J]. IEEE Trans. Pattern Analysis and Machine Intelligence, may 2002.禾口文獻(xiàn)M.H. Yang, N.A. huju. Detecting human faces in color images [J]. /VoceefZ/wgA. Co"y^尸e"ce /附(3g/wg iVocesi7."g, 1998, 1:127-130.
      (2)基于變換域的定位方法。基于小波變換的人臉定位方法。它是通過一定的算子, 提取出人臉圖像中的不同頻率的成分,從而搜索到人臉?biāo)诘奈恢谩F淙秉c是在于背景細(xì)節(jié) 的干擾,使得人臉定位結(jié)果不準(zhǔn)確。詳見文獻(xiàn)Jarmo Ilonen, Joni-Kristian Kamarainen. "Image Feature Localization by Multiple Hypothesis Testing of Gabor Features" 7 awracrio附 /扁ge praceM/wg, w/.77, no.3, March 2008。
      基于統(tǒng)計學(xué)的定位方法。不管人臉的哪個構(gòu)成的部分都有輪廓,這種方法通過對感興趣 的輪廓事先進行訓(xùn)練,后再進行搜索,做到了對定位的目標(biāo)有針對性,從而能達(dá)到比較準(zhǔn)確 的效果。詳見文獻(xiàn)Kwok-Wai Wan, Kin-Man Lam , Kit-Chong Ng. "An accurate active shape model for facial feature extraction" 26 (2005) 2409—2423 。

      發(fā)明內(nèi)容
      本發(fā)明的任務(wù)是提供一種基于ASM算法的人臉檢測定位方法,它具有在不同光照情況 下定位準(zhǔn)確的特點。
      為了方便地描述本發(fā)明內(nèi)容,首先對一些術(shù)語進行定義。
      定義l:輪廓特征點。是指能夠表征人臉形狀和五官形狀的外圍輪廓上的離散點。
      定義2:配準(zhǔn)。由于訓(xùn)練樣本中的不同圖像的特征點是在各自的坐標(biāo)下進行標(biāo)定的,其
      絕對位置和圖像尺寸存在差異,配準(zhǔn)就是把兩幅圖像的通過某種變換到同一坐標(biāo)系中,使差
      異達(dá)到某種程度的統(tǒng)一,各S的形狀特點保持不變。
      定義3:奇異值分解。wxw階矩陣^可以寫成^=^51/'的形式,t/為m階正交陣,F(xiàn)為 n階正交陣,S-c^agfa,,^"."^)^, >0(!' = l_,r),r = M"/t(J) , [/和F中分別是^4的奇異
      向量,而S是^的奇異值。奇異值分解和特征值問題是緊密聯(lián)系的,X4'的正交單位特征向 量組成,特征值組成, Ji的正交單位特征向量組成F ,特征值(與Jl相同)組成, 奇異值分解提供了一些關(guān)于^的信息,例如非零奇異值的數(shù)目(S的階數(shù))和J的秩相同, 一旦秩r確定,那么t/的前r列構(gòu)成了」的列向量空間的正交基。 本發(fā)明的技術(shù)方案如下
      一種基于ASM算法的人臉特征定位方法,如圖1所示,包含下列歩驟 歩驟1.選取人臉庫中的M張圖片作為樣本集并對其進行特征點的標(biāo)定;對人臉庫中的每張樣本圖片的主要器官的輪廓進行w個特征點的手工標(biāo)定,則一張樣本 圖片由w個特征點的坐標(biāo)值1 = (、...^ ,乂,...,;;,,)7'表示;M張圖片的樣本集表示成
      X4 = ",X2,...,ZM);
      步驟2.采用Procrustes Analysis算法對樣本集x4進行配準(zhǔn),如圖2所示,具體包括; 步驟2-1.選取樣本集x4中的第A:列向量x,為基準(zhǔn),計算第A:列向量和第m列向量
      的平均值&和c",,其中1SA:《M, w^A:且l《m^M;
      步驟2-2.計算矩陣5 = ^;,-/^;)^^-其中/為一個和X具有相同維數(shù)的單位
      向量;并對矩陣5進行奇異值分解,得到^=^/5",其中t/為2/7階正交矩陣,F(xiàn)為2"階正 交矩陣,S是矩陣5的奇異值。
      步驟2-3.構(gòu)造旋轉(zhuǎn)矩陣i = f/f^ ,位移矩陣T = / ^ - icOT 。
      步驟2-4. x^經(jīng)過以j^為基準(zhǔn)進行配準(zhǔn)后,得到的向量i;二fj^+r。
      步驟2-5.對x4中的每一列不同于A的向量做步驟2-2至步驟2-4的變換,得到與x4同 樣大小的新的樣本集z4 = 其中《=4。
      步驟3.計算平均人臉模型P, F-丄f^;
      步驟4.采用對三種分辨率下的圖片進行輪廓搜索的策略,建立統(tǒng)計灰度搜索模型(圖3
      所示),具體方法如下
      針對人臉庫中的每張樣本圖片的每一個特征點,以該特征點的坐標(biāo)為中心,取其法線方 向兩側(cè)各w個像素點的灰度值按順序組成向量g"&,&,…,g^wf ;然后求出向量
      g = (gpg2,...,g(2—f的一階差分向量《=(&-其次構(gòu)建該特征點的灰度
      搜索模型g、g'/l;lg(叫-g,;接著構(gòu)建該人臉樣本圖片的搜索模型G'-(g'"g ,...,/ );
      最后構(gòu)建人臉庫中整個人臉樣本圖片集的統(tǒng)計灰度搜索模型浐。
      步驟5.對待定位人臉圖像i;進行搜索定位,包括以下具體步驟; 步驟5-i.搜索的初始位置為y = m+r ,其中f= +戶6為待定位人臉圖像j;的 人臉模型,其中i^(p,,/72,…,A) , 6二(4 4..4) , 6由協(xié)方差矩陣£ = lf;(r, -7"y,的f個最大的特征值從大到小的順序排列而成,p由6中特征 Af -1*、 7 八" 7
      值對應(yīng)的正交特征向量構(gòu)成,/的取值為不等式J]A,々a24確定的最小值,權(quán)值系數(shù)a通
      ,-=1 i=
      常取0.98或0.95, fc向量初始元素值為0;
      步驟5-2.根據(jù)待定位人臉圖像1;的人臉模型5 = ]7+/^在待定位人臉圖像1;中提取n個
      特征點,為每個特征點坐標(biāo)為屮心,取其法線方向兩側(cè)各/個像素點的灰度值,根據(jù)步驟4 的方法計算得到本次搜索的局部灰度模型7,其中/>沐;
      步驟5-3.匹配統(tǒng)計灰度搜索模型f和局部灰度模型;'以確定n個特征點的移動方向c/r (如圖4所示),移動方向c^確定后,姿態(tài)參數(shù)控制的等式(y + dy卜M(l + A,t^)[y] + ^r成
      步驟5-4.位置參數(shù)t^由等式M(s(i+ife),6)+^)[y+辦]+:r+^r"+w確定,等式變 步驟5-5. ;r+辦aF+p(6+w)成立,更新形狀參數(shù)必二p—、辦。
      步驟5-6.循環(huán)5-1到5-5,直至本次循環(huán)與上次循環(huán)結(jié)果的"個特征點的坐標(biāo)值之和的 差異值占本次循環(huán)結(jié)果的比例小于閾值Tg時(閾值Tg的取值范圍可以是(0,0.001]),搜索
      完成,定位結(jié)束,得到待定位人臉圖像i;的人臉模型f = 7+外。
      需要說明的是
      1. 步驟2中對訓(xùn)練樣本X4采用Procrustes Analysis方法進行配準(zhǔn)時選用的基準(zhǔn)向量 XJ1S &《M)為樣本集X4中的任意一列。
      2. 步驟2-5中Z4 = (",:r2,..":rM)是原始的訓(xùn)練樣本集X4經(jīng)過Procrustes Analysis算法配
      準(zhǔn)后在同一坐標(biāo)系下的坐標(biāo)數(shù)據(jù)。
      3. 歩驟5中模型的搜索模型必須在待識別圖像的搜索模型中進行移動搜索,才能找到最 佳匹配,因此模型的灰度搜索模型維數(shù)/必須大于w。
      本發(fā)明首先對一組人臉樣本圖片進行手工標(biāo)定提取特征點,然后采用Procrustes Analysis 算法對樣本集進行配準(zhǔn),得到T均人臉模型;然后采用對三種分辨率下的圖片進行輪廓搜索
      的策略,建立統(tǒng)計灰度搜索模型;最后對統(tǒng)計灰度搜索模型和待定位人臉圖像j;的局部灰度模型釆取匹配運算,對待定位人臉圖像i;進行循環(huán)迭代式搜索定位。本發(fā)明采用ASM算法
      和Procrustes分析方法相結(jié)合的方法,通過Procrustes分析方法對坐標(biāo)系、點模型分布不均和 形狀大小存在差異的圖像進行配準(zhǔn),從而獲得比較準(zhǔn)確的姿態(tài)參數(shù),能夠達(dá)到使數(shù)據(jù)進行更 精確變換的目的。利用Procrustes分析方法和ASM算法結(jié)合定位人臉是本發(fā)明的一個特色, 與一般的人臉定位方法相比,本發(fā)明定位準(zhǔn)確率要高的同時速度也在一定程度上有所提高, 在人臉定位方面具有很強的通用性。


      圖1是整體定位方法流程圖。
      圖2是Procrustes Analysis算法流程圖。
      圖3是灰度搜索模型示意圖。
      圖4是搜索過程的示意圖。
      具體實施例方式
      采用本發(fā)明的方法,使用C語言進行程序的編寫,然后在matlab的平臺上進行仿真實驗 并得到結(jié)果。對imm—face—db人臉庫中的240張拍攝好的、包括40個人在不同光照條件、不 同表情和不同姿勢的灰度人臉圖像作為源數(shù)據(jù),與傳統(tǒng)的ASM算法結(jié)果的數(shù)據(jù)分析相比較, 定位的準(zhǔn)確率有較大的提高。
      綜上所述,本發(fā)明的方法充分利用人臉的特征信息,結(jié)合ASM算法的優(yōu)勢,從而實現(xiàn)快 速準(zhǔn)確地從所提供的人臉原始圖像中檢測定位人臉區(qū)域。
      權(quán)利要求
      1、一種基于ASM算法的人臉特征定位方法,包含下列步驟步驟1.選取人臉庫中的M張圖片作為樣本集并對其進行特征點的標(biāo)定;對人臉庫中的每張樣本圖片的主要器官的輪廓進行n個特征點的手工標(biāo)定,則一張樣本圖片由n個特征點的坐標(biāo)值X=(x1,...,xn,y1,...,yn)T表示;M張圖片的樣本集表示成XA=(X1,X2,...,XM);步驟2.采用Procrustes Analysis算法對樣本集XA進行配準(zhǔn),具體包括;步驟2-1.選取樣本集XA中的第k列向量Xk為基準(zhǔn),計算第k列向量Xk和第m列向量Xm的平均值ck和cm,其中1≤k≤M,m≠k且1≤m≤M;步驟2-2.計算矩陣B=(Xm-I·cm)(Xk-I·ck)T,其中I為一個和X具有相同維數(shù)的單位向量;并對矩陣B進行奇異值分解,得到B=USVT,其中U為2n階正交矩陣,V為2n階正交矩陣,S是矩陣B的奇異值;步驟2-3.構(gòu)造旋轉(zhuǎn)矩陣R=UVT,位移矩陣T=I·ck-R·cm;步驟2-4.Xm經(jīng)過以Xk為基準(zhǔn)進行配準(zhǔn)后,得到的向量Ym=R·Xm+T;步驟2-5.對XA中的每一列不同于Xk的向量做步驟2-2至步驟2-4的變換,得到與XA同樣大小的新的樣本集YA=(Y1,Y2,...,YM),其中Yk=Xk;步驟3.計算平均人臉模型<overscore>Y</overscore>,<maths id="math0001" num="0001" ><math><![CDATA[ <mrow><mover> <mi>Y</mi> <mo>&OverBar;</mo></mover><mo>=</mo><mfrac> <mn>1</mn> <mi>M</mi></mfrac><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mi>M</mi></munderover><msub> <mi>Y</mi> <mi>i</mi></msub><mo>;</mo> </mrow>]]></math> id="icf0001" file="A2009100596480002C1.tif" wi="22" he="10" top= "174" left = "85" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>步驟4.采用對三種分辨率下的圖片進行輪廓搜索的策略,建立統(tǒng)計灰度搜索模型(圖3所示),具體方法如下針對人臉庫中的每張樣本圖片的每一個特征點,以該特征點的坐標(biāo)為中心,取其法線方向兩側(cè)各w個像素點的灰度值按順序組成向量g=(g1,g2,...,g(2w+1))T;然后求出向量g=(g1,g2,...,g(2w+1))T的一階差分向量g′=(g2-g1,g3-g2,...,g(2w+1)-g2w);其次構(gòu)建該特征點的灰度搜索模型<maths id="math0002" num="0002" ><math><![CDATA[ <mrow><msup> <mi>g</mi> <mo>*</mo></msup><mo>=</mo><msup> <mi>g</mi> <mo>&prime;</mo></msup><mo>/</mo><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mrow><mn>2</mn><mi>w</mi> </mrow></munderover><mo>|</mo><msub> <mi>g</mi> <mrow><mo>(</mo><mi>i</mi><mo>+</mo><mn>1</mn><mo>)</mo> </mrow></msub><mo>-</mo><msub> <mi>g</mi> <mi>i</mi></msub><mo>|</mo><mo>;</mo> </mrow>]]></math> id="icf0002" file="A2009100596480002C2.tif" wi="39" he="10" top= "237" left = "37" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>接著構(gòu)建該人臉樣本圖片的搜索模型G*=(g*1,g*2,...,g*n);最后構(gòu)建人臉庫中整個人臉樣本圖片集的統(tǒng)計灰度搜索模型<maths id="math0003" num="0003" ><math><![CDATA[ <mrow><msup> <mover><mi>Y</mi><mo>&OverBar;</mo> </mover> <mo>*</mo></msup><mo>=</mo><mfrac> <mn>1</mn> <mi>M</mi></mfrac><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mi>M</mi></munderover><msub> <msup><mi>G</mi><mo>*</mo> </msup> <mi>i</mi></msub><mo>;</mo> </mrow>]]></math> id="icf0003" file="A2009100596480002C3.tif" wi="26" he="10" top= "254" left = "130" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>步驟5.對待定位人臉圖像Ys進行搜索定位,包括以下具體步驟;步驟5-1.搜索的初始位置為y=M(s,θ)[Ys]+T,其中Ys=Y(jié)+Pb為待定位人臉圖像Ys的人臉模型,其中P=(p1,p2,...,pt),b=(λ1 λ2...λt),b由協(xié)方差矩陣<maths id="math0004" num="0004" ><math><![CDATA[ <mrow><mi>E</mi><mo>=</mo><mfrac> <mn>1</mn> <mrow><mi>M</mi><mo>-</mo><mn>1</mn> </mrow></mfrac><munderover> <mi>&Sigma;</mi> <mrow><mi>j</mi><mo>=</mo><mn>1</mn> </mrow> <mi>M</mi></munderover><mrow> <mo>(</mo> <msub><mi>Y</mi><mi>j</mi> </msub> <mo>-</mo> <mover><mi>Y</mi><mo>&OverBar;</mo> </mover> <mo>)</mo></mrow><msup> <mrow><mo>(</mo><msub> <mi>Y</mi> <mi>j</mi></msub><mo>-</mo><mover> <mi>Y</mi> <mo>&OverBar;</mo></mover><mo>)</mo> </mrow> <mi>T</mi></msup> </mrow>]]></math> id="icf0004" file="A2009100596480003C1.tif" wi="48" he="10" top= "48" left = "24" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>的t個最大的特征值從大到小的順序排列而成,P由b中特征值對應(yīng)的正交特征向量構(gòu)成,t的取值為不等式<maths id="math0005" num="0005" ><math><![CDATA[ <mrow><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mi>t</mi></munderover><msub> <mi>&lambda;</mi> <mi>i</mi></msub><mo>&GreaterEqual;</mo><mi>&alpha;</mi><munderover> <mi>&Sigma;</mi> <mrow><mi>i</mi><mo>=</mo><mn>1</mn> </mrow> <mrow><mn>2</mn><mi>n</mi> </mrow></munderover><msub> <mi>&lambda;</mi> <mi>i</mi></msub> </mrow>]]></math> id="icf0005" file="A2009100596480003C2.tif" wi="22" he="9" top= "64" left = "109" img-content="drawing" img-format="tif" orientation="portrait" inline="yes"/></maths>確定的最小值,權(quán)值系數(shù)α通常取0.98或0.95,b向量初始元素值為0;步驟5-2.根據(jù)待定位人臉圖像Ys的人臉模型Ys=Y(jié)+Pb在待定位人臉圖像Ys中提取n個特征點,為每個特征點坐標(biāo)為中心,取其法線方向兩側(cè)各l個像素點的灰度值,根據(jù)步驟4的方法計算得到本次搜索的局部灰度模型y*,其中l(wèi)>w;步驟5-3.匹配統(tǒng)計灰度搜索模型Y*和局部灰度模型y*以確定n個特征點的移動方向dY,移動方向dY確定后,姿態(tài)參數(shù)控制的等式(y+dY)=M(1+ds,dθ)[y]+dT成立;步驟5-4.位置參數(shù)dy由等式M(s(1+ds),θ+dθ)[Y+dy]+T+dT=y(tǒng)+dY確定,等式變換得到dy=M((s(1+ds))-1,-(θ+dθ))[M(s,θ)[Y]+dY-dT]-y;步驟5-5.Y+dy≈Y+P(b+db)成立,更新形狀參數(shù)db=P-1·dy;步驟5-6.循環(huán)5-1到5-5,直至本次循環(huán)與上次循環(huán)結(jié)果的n個特征點的坐標(biāo)值之和的差異值占本次循環(huán)結(jié)果的比例小于閾值Tg時,搜索完成,定位結(jié)束,得到待定位人臉圖像Ys的人臉模型Ys=Y(jié)+Pb。
      2、根據(jù)權(quán)利要求1所述的基于ASM算法的人臉特征定位方法,其特征在于,步驟5-6 中所述閾值Tg的取值范圍是(0,0.001]。
      全文摘要
      一種基于ASM算法的人臉特征定位方法,屬于圖像處理技術(shù)領(lǐng)域,主要涉及生物特征鑒別中的人臉識別技術(shù)。本發(fā)明首先對一組人臉樣本圖片進行手工標(biāo)定提取特征點,然后采用Procrustes Analysis算法對樣本集進行配準(zhǔn),得到平均人臉模型;然后采用對三種分辨率下的圖片進行輪廓搜索的策略,建立統(tǒng)計灰度搜索模型;最后對統(tǒng)計灰度搜索模型和待定位人臉圖像Y<sub>s</sub>的局部灰度模型采取匹配運算,對待定位人臉圖像Y<sub>s</sub>進行循環(huán)迭代式搜索定位。本發(fā)明采用ASM算法和Procrustes分析方法相結(jié)合的方法,可以有效地提高人臉定位速度和精度,具有很強的通用性。
      文檔編號G06K9/00GK101593272SQ200910059648
      公開日2009年12月2日 申請日期2009年6月18日 優(yōu)先權(quán)日2009年6月18日
      發(fā)明者華 徐, 梅 解 申請人:電子科技大學(xué)
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1