国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種性別識別方法

      文檔序號:6575034閱讀:577來源:國知局
      專利名稱:一種性別識別方法
      技術(shù)領(lǐng)域
      本發(fā)明涉及一種性別識別方法,屬于圖像處理技術(shù)領(lǐng)域。
      背景技術(shù)
      近年來,隨著人臉識別技術(shù)研究的深入,基于人臉圖像的性別識別已經(jīng)成為計算機生物識別領(lǐng)域中熱門的研究課題之一。性別識別是讓計算機根據(jù)輸入的人的圖像信息判斷性別的過程,在人工智能、系統(tǒng)監(jiān)控、模式識別等方面有著重要的前景。應(yīng)當(dāng)理解,性別識別在身份識別與驗證中可以充當(dāng)“過濾器”,利用檢測出來的性別信息顯著降低身份識別的圖片搜索數(shù)量,提高身份認(rèn)證識別速度與精度。性別識別技術(shù)領(lǐng)域是人臉圖像識別中被較早提出的識別領(lǐng)域,國內(nèi)外對此也進行了大量的研究,常用的性別識別的方法有1.基于人工神經(jīng)網(wǎng)絡(luò)的性別識別。由B. A. Golomb率先提出,后續(xù)如S. C. Yen等人提出改進,正確識別率可達(dá)88. 7%。其根據(jù)提取出的人臉特征訓(xùn)練神經(jīng)網(wǎng)絡(luò),再利用訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)識別人的性別。2.基于支持向量機的性別識別。其將得到的人臉圖像縮小為21*21的圖像,訓(xùn)練支持向量機,或?qū)⒗肁AM得提取的特征訓(xùn)練支持向量機,再利用訓(xùn)練好的支持向量機識別人的性別。3.基于Adaboost的性別識別,也稱為Adaoost分類方法。其提取圖像的Haar特征,訓(xùn)練Adaboost分類器,再利用訓(xùn)練好的Adaboost識別人的性別。以上所采取的方法都是僅僅利用了圖像的部分信息,當(dāng)其中的部分信息被干擾時,勢必會影響其識別率,因此,上述的幾種方法存在識別率不高、識別率易受干擾的缺點。而圖像中的多路信息,當(dāng)一部分信息被干擾時,綜合所有信息可以相對有效的消除干擾,因此,這在單一的信息無法滿足識別需要時,發(fā)明人認(rèn)為可以考慮融合信息,以提高性別的識別率。

      發(fā)明內(nèi)容
      因此,本發(fā)明從融合多路信息的角度入手,采用一種新的性別識別的路徑,而提出一種識別率可以被接受的性別識別方法。本發(fā)明采用以下技術(shù)方案
      一種性別識別方法,基于同樣規(guī)格的樣本按照選定的多個子特征訓(xùn)練,輸出基于每個子特征識別的性別識別結(jié)果;
      輸入待識別的圖片,歸一到所述規(guī)格,識別歸一后的所述圖片每一子特征識別的性別識別結(jié)果,信息融合的方式為求和該圖片的基于各子特征的性別識別結(jié)果,取優(yōu)勢的性別識別結(jié)果之和對應(yīng)的性別輸出。依據(jù)本發(fā)明的上述性別識別方法,把得到的多個一次識別信息進行二次融合,得到最終的識別結(jié)果,信息融合充分利用了各個一次識別結(jié)果,形成信息互補,有效地消除了干擾,具有很好的應(yīng)用效果。其應(yīng)用可以大大提高性別是別的魯棒性,且對光照等干擾有很好的適應(yīng)性,從而獲得更好的識別率。上述性別識別方法,,所述規(guī)格為截取的人臉區(qū)域大小為MXN的尺寸規(guī)格,且含有兩瞳孔間距的規(guī)格,據(jù)此行列均分該人臉,生成網(wǎng)格,得到匹配數(shù)目的網(wǎng)格點;
      基于每個網(wǎng)格點提取人臉子特征,利用每個子特征信息和預(yù)先知道的男女信息,應(yīng)用學(xué)習(xí)算法進行學(xué)習(xí),輸出訓(xùn)練結(jié)果。上述性別識別方法,提取人臉子特征的方法是,首先截取對應(yīng)網(wǎng)格點的預(yù)定鄰域,形成一個Ml XNI子區(qū)域,進而得到Ml XNI列的向量。上述性別識別方法,M1、N1的取值范圍均為[10,15]。上述性別識別方法,所述性別識別結(jié)果為y={0,1},其中O代表女,I代表男,或者輸出y={p,q},其中P為女的概率,q為男的概率,O
      ^ P ^ I, O ^ q ^ I ;
      相應(yīng)地,信息融合的方式對于輸出結(jié)果為y={0,l}的分類方法采用對比輸出分類為O與分類為I的個數(shù);
      信息融合的方式對于輸出結(jié)果為y={p,q}分類方法采用概率加權(quán)的方法
      P= {pl, p2, p3, p4,…,pK}和 Q= {ql, q2, q3, q4, ...,qK},其中 K 為網(wǎng)格點個數(shù),P 為判定為女的概率集合,Q為判定為男的概率組合;
      計算為女的概率為p=sum(P)/K,為男的概率為q=sum(Q)/K,其中sum代表求和;若p>q,則認(rèn)定是女,否則 為男。上述性別識別方法,所述網(wǎng)格劃分方法是寬m等分,高η等分,其中m、η均為自然數(shù),且m e [4,10],n e [3,8] 上述性別識別方法,所述規(guī)格包含截取人臉區(qū)域的內(nèi)容,所述的人臉區(qū)域為整張人臉或選擇眼睛、眉毛、鼻子、嘴巴中的一個或者多個。結(jié)合具體實施例對本發(fā)明進行更詳細(xì)的說明,本發(fā)明的上述及其他目的和優(yōu)點將更加顯而易見。
      具體實施例方式在以下的內(nèi)容中,所涉及到的性別識別方法,表現(xiàn)在對圖片多種信息的信息融合,其原理是將得到的多個一次識別信息進行二次融合,以二次融合的結(jié)果,作為最終的識別結(jié)果。當(dāng)某些識別信息因為受到干擾而受到影響時,其他的一次識別信息在正確時,類同于剔除掉了不可用的識別信息,從而信息融合充分利用了各個一次識別結(jié)果,形成信息互補,因而具有很好的應(yīng)用效果。進而可大大提高性別識別的魯棒性,且對光照等干擾有很好的適應(yīng)性,有很高的識別率。依據(jù)上述內(nèi)容,提供一種性別識別方法,其包括步驟1.圖片幾何尺寸歸一化,截取人臉區(qū)域,得到人臉區(qū)域的大小MXN;
      歸一化樣本以及待處理的圖片,使得相關(guān)信息具有相對統(tǒng)一的基礎(chǔ)。1.1、在一些實施例中,幾何尺寸歸一化的方法可以是利用支持向量機來獲得,通過大量樣本的學(xué)習(xí),定位人的兩瞳孔位置;在較佳的實施例中,設(shè)定兩瞳孔距離為64像素,設(shè)定兩睛孔的中點為圖片的中心點,將圖片放縮到240X320的尺寸,在較佳的實施例中可以在獲得較好識別率的情況下,計算量相對比較小;
      1.2、在一些實施例中,截取的人臉區(qū)域可以是整張人臉,也可以是人臉的眼睛、眉毛、鼻子、嘴巴等關(guān)鍵特征,在選擇局部特征時,盡可能選擇性別區(qū)分度較大的部位,在區(qū)分度相對較小時,可以匹配多種部位進行區(qū)分,以滿足信息融合的需要;
      1.2、1、在一些較佳的實施例中,截取人臉區(qū)域可為整張人臉,區(qū)域?qū)挾葹?00-150,區(qū)域高度為150-200,此方法較為充分的利用了人臉的全部信息;
      1.2.2、在一些實施例中,截取人臉區(qū)域可為眉毛眼睛區(qū)域,截取區(qū)域的大小可為100X40,此方法利用了人臉的局部區(qū)域,但由于眉毛眼睛具有很好的區(qū)分度,也可具有很好的識別效果; 2.對選擇的MXN區(qū)域的高和寬分別等距離劃分網(wǎng)格,得到若干個網(wǎng)格點;
      2.1、在一些實施例中,MXN區(qū)域的寬可以劃分為m等份,m為自然數(shù),m—般取M的1/10-1/4 ;經(jīng)過大量的實驗,m過大則容易包含過多的無效信息,造成識別率下降,m過小則容易遺漏關(guān)鍵信息,同樣造成識別率下降,在這個區(qū)間內(nèi),可以獲得較佳區(qū)分度;
      2.2、在另一些實施例中,MXN區(qū)域的高可以劃分為η等份,η為自然數(shù),η 一般取N的1/8 —1/3,經(jīng)過驗證,η過大或過小也都將使識別率有不同程度的下降;
      3、選取2Κ(K為自然數(shù),一般取100-300張即可,可獲得具有較好代表性的數(shù)據(jù))張尺寸歸一化的人臉圖像,男女圖像各K張,基于每個網(wǎng)格點提取人臉子特征,利用每個子特征信息和預(yù)先知道的男女信息,用學(xué)習(xí)算法進行學(xué)習(xí);其中輸入為網(wǎng)格點信息,輸出為y={0,1},其中O代表女,I代表男,或者輸出y={p,q},其中P為女的概率,q為男的概率,Oi
      P-1j O^q^l;
      3.1、在一些實施例中,每個網(wǎng)格點的子特征提取可以采用直接截取網(wǎng)格點周圍MlXNl區(qū)域的方法,形成以網(wǎng)格點為中心的鄰域,逐行排列得到I行Ml XNI列的向量,其中M1、N1均為自然數(shù),此種方法簡單明了,易于操作;
      3.2、再進一步應(yīng)用的一些實施例中,每個網(wǎng)格點的子特征提取可首先截取網(wǎng)格點周圍MlXNl區(qū)域,再將Ml X NI區(qū)域的灰度值做歸一化處理,最后逐行排列得到I行Ml XNl列的向量,此種方法通過歸一化處理,將人臉灰度信息映射到同一尺度空間,可在一定程度上提高識別率;
      3.3、優(yōu)選地,每個網(wǎng)格點的子特征提取可首先截取網(wǎng)格點周圍MlXNl區(qū)域,計算A(i, j)的灰度平均值A(chǔ)veGray和灰度方差VariGray,其中O s i〈Ml,O S j〈Nl,A(i,j)為MlXNl區(qū)域內(nèi)對應(yīng)位置上的灰度值,計算標(biāo)準(zhǔn)化的灰度值A(chǔ)s(i, j) = ( A(i, j)_ AveGray) /VariGray,最后將標(biāo)準(zhǔn)化后的區(qū)域逐行排列得到I行MlXNl列的向量,此種方法可確保處理后區(qū)域的像素值均值為0,區(qū)域內(nèi)像素信息近似滿足標(biāo)準(zhǔn)正態(tài)分布;
      上述3.1 — 3. 3中的Ml、NI均可取10 —15之間,過大或過小都會造成學(xué)習(xí)效果變差,經(jīng)過驗證在期望的識別率中上述范圍可用,并可在上述范圍中去的峰值;
      應(yīng)當(dāng)理解,包括Ml、NI取值范圍在內(nèi)的范圍基本滿足一定參數(shù)效果的曲線,由此所延伸出效果較差的數(shù)值,屬于其的簡單變換,應(yīng)當(dāng)落入其保護范圍之內(nèi)。3.4根據(jù)3,機器學(xué)習(xí)方法可以是貝葉斯學(xué)習(xí)的方法,此時的識別結(jié)果可為實數(shù)P和q,其中P為是女的概率,Q為是男的概率,0 ρ 1,O < q <1:識別結(jié)果還可以是y={0,l},其中O代表女,I代表男;3.5根據(jù)3,機器學(xué)習(xí)方法可以是支持向量機學(xué)習(xí)的方法,此時的識別結(jié)果可為O或1,其中O代表女,I代表男;
      3.6根據(jù)3,機器學(xué)習(xí)方法可以是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的方法,此時的識別結(jié)果可為O或1,其中O代表女,I代表男;
      4.對于一幅待識別的圖像,通過上述步驟對圖像預(yù)處理,將得到的多個網(wǎng)格點信息作為訓(xùn)練好的分類器的輸入,分別得到其一次識別結(jié)果,最后通過信息融合的方式得到最終判斷結(jié)果;更具體的步驟表示如下
      4.1、若分類器的輸出結(jié)果為y= {O,1},信息融合的方式可以采用擇多判決的方法,為判斷方便,選取網(wǎng)格點個數(shù)NUM可為奇數(shù),NUM —般可為15 — 35之間的奇數(shù),分別統(tǒng)計分類器輸出為O的個數(shù)NUMQl和分類器為I的個數(shù)NUMQ2,若NUMQDNUMQ2,則為女,否則為男;
      4.2、在一些實施例中,若分類器的輸出結(jié)果為y= {p,q},信息融合的方式可以采用概率加權(quán)的方法。設(shè)網(wǎng)格點的輸出結(jié)果為P={pl,p2,p3,p4,…,pK}和Q={ql,q2,q3,q4,...,qK},其中K為網(wǎng)格點個數(shù),P為判定為女的概率集合,Q為判定為男的概率組合;最后計算為女的概率為P=sum(P)/K,為男的概率為q=sum(Q)/K,其中sum代表求和;若p>q,則認(rèn)定是女,否則為男。下面結(jié)合更具體的實施例對上述方案作更具體的描述。實施方式一1.圖像幾何尺寸歸一化,截取人臉區(qū)域;1.1.設(shè)定樣本數(shù)量S=100000,采用支持向量機學(xué)習(xí)的方法,定位人的兩瞳孔位置;設(shè)定兩瞳孔距離為64像素,設(shè)定兩瞳孔的中點為圖片的中心點,將圖片放縮到240X320的尺寸;1. 2對于n=100幅人臉圖像,依次粗略估計能截取人臉區(qū)域的矩形大小Aj,并得到此矩形的左上角坐標(biāo)(Xlj,yij)和右下角坐標(biāo)(x2j,y2j),其中ISJ S ,分別計算兩坐標(biāo)點的均值
      (X1, Y1)和(x2, y2),其中
      權(quán)利要求
      1.一種性別識別方法,其特征在于,基于同樣規(guī)格的樣本按照選定的多個子特征訓(xùn)練,輸出基于每個子特征識別的性別識別結(jié)果; 輸入待識別的圖片,歸一到所述規(guī)格,識別歸一后的所述圖片每一子特征識別的性別識別結(jié)果,信息融合的方式為求和該圖片的基于各子特征的性別識別結(jié)果,取優(yōu)勢的性別識別結(jié)果之和對應(yīng)的性別輸出。
      2.根據(jù)權(quán)利要求1所述的性別識別方法,其特征在于,所述規(guī)格為截取的人臉區(qū)域大小為MXN的尺寸規(guī)格,且含有兩瞳孔間距的規(guī)格,據(jù)此行列均分該人臉,生成網(wǎng)格,得到匹配數(shù)目的網(wǎng)格點; 基于每個網(wǎng)格點提取人臉子特征,利用每個子特征信息和預(yù)先知道的男女信息,應(yīng)用學(xué)習(xí)算法進行學(xué)習(xí),輸出訓(xùn)練結(jié)果。
      3.根據(jù)權(quán)利要求2所述的性別識別方法,其特征在于,提取人臉子特征的方法是,首先截取對應(yīng)網(wǎng)格點的預(yù)定鄰域,形成一個Ml XNl子區(qū)域,進而得到Ml XNI列的向量。
      4.根據(jù)權(quán)利要求3所述的性別識別方法,其特征在于,M1、N1的取值范圍均為[10,15]。
      5.根據(jù)權(quán)利要求1至4任一所述的性別識別方法,其特征在于,所述性別識別結(jié)果為7={0,1},其中0代表女,1代表男,或者輸出y={p,q},其中p為女的概率,q為男的概率,0^p<l, 0<q<l; 相應(yīng)地,信息融合的方式對于輸出結(jié)果為y={0,l}的分類方法采用對比輸出分類為0與分類為I的個數(shù); 信息融合的方式對于輸出結(jié)果為y={p,q}分類方法采用概率加權(quán)的方法P= {pl, p2, p3, p4,…,pK}和 Q= {ql, q2, q3, q4, ...,qK},其中 K 為網(wǎng)格點個數(shù),P 為判定為女的概率集合,Q為判定為男的概率組合; 計算為女的概率為p=sum(P)/K,為男的概率為q=sum(Q)/K,其中sum代表求和;若p>q,則認(rèn)定是女,否則為男。
      6.根據(jù)權(quán)利要求2至4任一所述的性別識別方法,其特征在于,所述網(wǎng)格劃分方法是寬m等分,高n等分,其中m、n均為自然數(shù),且m G [4,10], n G [3,8]。
      7.根據(jù)權(quán)利要求1所述的性別識別方法,其特征在于,所述規(guī)格包含截取人臉區(qū)域的內(nèi)容,所述的人臉區(qū)域為整張人臉或選擇眼睛、眉毛、鼻子、嘴巴中的一個或者多個。
      全文摘要
      本發(fā)明公開了一種性別識別方法,基于同樣規(guī)格的樣本按照選定的多個子特征訓(xùn)練,輸出基于每個子特征識別的性別識別結(jié)果;輸入待識別的圖片,歸一到所述規(guī)格,識別歸一后的所述圖片每一子特征識別的性別識別結(jié)果,信息融合的方式為求和該圖片的基于各子特征的性別識別結(jié)果,取優(yōu)勢的性別識別結(jié)果之和對應(yīng)的性別輸出。依據(jù)本發(fā)明為一種新的性別識別方法,其識別率較高。
      文檔編號G06K9/62GK103034840SQ20121051511
      公開日2013年4月10日 申請日期2012年12月5日 優(yōu)先權(quán)日2012年12月5日
      發(fā)明者張傳鋒, 許野平, 方亮, 曹杰, 劉辰飛 申請人:山東神思電子技術(shù)股份有限公司
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1