人臉部位識別的方法和裝置的制造方法
【專利摘要】本發(fā)明提供的一種人臉部位識別的方法和裝置,所述方法包括:獲得深度圖像;提取所述深度圖像中的圖像像素特征;將所述圖像像素特征輸入人臉深度學習模型中進行識別分類;判斷所述圖像像素特征的分類與所述人臉深度學習模型中已有的人臉部位標簽是否匹配;若所述圖像像素特征的分類與所述人臉深度學習模型中的已有標簽匹配,則輸出與該像素特征對應(yīng)的標簽。本發(fā)明采用提取深度圖像像素特征的方法保證了特征提取的精確性,并采用深度學習模型識別圖像像素特征,可以一次性對多個人臉部位進行識別分類。
【專利說明】
人臉部位識別的方法和裝置
技術(shù)領(lǐng)域
[0001 ]本發(fā)明涉及人臉識別技術(shù)領(lǐng)域,具體而言,涉及一種人臉部位識別的方法和裝置。
【背景技術(shù)】
[0002] 人臉部位識別是人臉識別分析技術(shù)的一個重要組成部分,它可廣泛應(yīng)用于人臉檢 測和定位、人臉識別、姿態(tài)識別、3D人臉重構(gòu)、臉部動畫、人臉肖像生成、頭部追蹤和殘疾人 實現(xiàn)免持鼠標的人機交互等領(lǐng)域。處理人臉圖像,進行人臉部位識別成為本領(lǐng)域研究的熱 點。
[0003] 傳統(tǒng)的人臉部位識別方案主要針對二維可見光圖像,二維可見光圖像容易受到圖 像分辨率、光照、拍攝角度等因素的影響,導致識別效果不佳,識別精準度低。并且,傳統(tǒng)人 臉部位識別方法僅僅針對一個部位人臉部位進行識別,在進行表情識別、臉部重建、臉部姿 態(tài)識別時不能一次性有效獲得多個人臉部位,無法有效滿足于實時分析的需求。如何建立 一套不易受拍攝環(huán)境影響且能一次性對多個人臉部位同時進行識別方法成為本領(lǐng)域技術(shù) 人員亟待解決的問題。
【發(fā)明內(nèi)容】
[0004] 為了克服現(xiàn)有技術(shù)中的上述不足,本發(fā)明所要解決的技術(shù)問題是提供一種人臉部 位識別的方法和裝置,其能夠通過人臉深度學習模型識別深度圖像的圖像像素特征,準確 地同時完成多個人臉部位的識別。
[0005] 就方法而言,本發(fā)明提供一種人臉部位識別的方法,所述方法包括:
[0006] 獲得深度圖像;
[0007] 提取所述深度圖像中的圖像像素特征;
[0008] 將所述圖像像素特征輸入人臉深度學習模型中進行識別分類;
[0009] 判斷所述圖像像素特征的分類與所述人臉深度學習模型中已有的人臉部位標簽 是否匹配;
[0010] 若所述圖像像素特征的分類與所述人臉深度學習模型中的已有標簽匹配,則輸出 與該圖像像素特征對應(yīng)的標簽。
[0011] 進一步地,在所述人臉部位識別的方法中,所述圖像像素特征為像素點鄰域內(nèi)其 他像素點深度值之差的集合,所述提取所述深度圖像中的圖像像素特征的步驟包括:
[0012] 由選定像素點的深度值及一空間不變系數(shù)得到該選定像素點在真實空間的空間 分辨率;
[0013] 由該選定像素點的所述空間分辨率、預設(shè)真實空間偏移量及預設(shè)多個偏移角中任 意的兩個不同的偏移角得到多個偏移向量對,其中每個所述偏移向量對包含兩個偏移向 量;
[0014] 由所述兩個偏移向量得到該選定像素點的兩個偏移點,由一深度差值函數(shù)獲得兩 個偏移點之間的深度值之差;
[0015] 將多個所述深度值之差的集合作為該選定像素點的特征向量,以此表征該選定像 素點的圖像像素特征。
[0016] 進一步地,在所述人臉部位識別的方法中,在所述由一深度差值函數(shù)獲得兩個偏 移點之間的深度值之差的步驟中,
[0017] 當所述兩個偏移點相對于所述選定像素點的深度值之差均小于等于一預設(shè)深度 閾值時,所述深度差值函數(shù)等于所述兩個偏移點之間的深度值的差,
[0018] 當所述兩個偏移點中的至少一個相對于所述選定像素點的深度值之差大于所述 深度閾值時,所述深度差值函數(shù)等于一設(shè)定值,所述設(shè)定值大于所述深度圖像上所有像素 點的深度值。
[0019] 進一步地,在所述人臉部位識別的方法中,所述人臉深度學習模型包括深度置信 網(wǎng)絡(luò)模型,所述深度置信網(wǎng)絡(luò)模型將所述圖像像素特征作為其底層的輸入,在網(wǎng)絡(luò)最頂層 進行回歸分類,并匹配相應(yīng)的標簽,其中,所述標簽包括各人臉部位標簽。
[0020] 進一步地,在所述人臉部位識別的方法中,所述人臉部位識別的方法還包括預先 對所述人臉深度學習模型進行深度學習訓練,所述深度學習訓練的步驟包括,
[0021] 獲得深度圖像庫中的訓練圖像;
[0022] 提取所述訓練圖像的圖像像素特征;
[0023] 利用所述訓練圖像的圖像像素特征訓練所述人臉深度學習模型,并對訓練完成的 分類賦予相應(yīng)標簽;
[0024] 所述人臉深度學習模型根據(jù)所述標簽對其參數(shù)進行調(diào)整。
[0025] 進一步地,在所述人臉部位識別的方法中,所述人臉部位識別的方法還包括:
[0026] 將識別完成后的帶標簽的圖像像素特征及圖像像素特征的正確識別率輸入到所 述人臉深度學習模型;所述人臉深度學習模型以此進行深度學習訓練,并對其參數(shù)進行調(diào) 整。
[0027] 就裝置而言,本發(fā)明提供一種人臉部位識別的裝置,所述人臉部位識別的裝置包 括:
[0028]第一獲取模塊,用于獲得深度圖像;
[0029]第一特征提取模塊,用于提取所述深度圖像中的圖像像素特征;
[0030]人臉深度學習模塊,用于將所述圖像像素特征輸入人臉深度學習模型中進行識別 分類;
[0031] 判斷模塊,用于判斷所述圖像像素特征的分類與所述人臉深度學習模型中已有的 人臉部位標簽是否匹配;
[0032] 輸出模塊,用于當所述圖像像素特征的分類與所述人臉深度學習模型中的已有標 簽匹配時,輸出與該像素特征對應(yīng)的標簽。
[0033] 進一步地,在所述人臉部位識別的方法中,所述人臉深度學習模型用于將所述圖 像像素特征作為其底部輸入層的輸入,在網(wǎng)絡(luò)最頂層進行回歸分類,并匹配相應(yīng)的標簽,其 中,所述標簽包括人臉各部位標簽及非人臉部位標簽。
[0034] 進一步地,在所述人臉部位識別的方法中,所述裝置還包括:
[0035]第二獲取模塊,用于獲得深度圖像庫中的訓練圖像;
[0036]第二特征提取模塊,用于提取所述訓練圖像的圖像像素特征;
[0037] 訓練模塊,用于利用所述訓練圖像的圖像像素特征訓練所述人臉深度學習模型, 并對訓練完成的分類賦予相應(yīng)標簽;
[0038] 參數(shù)調(diào)整模塊,用于根據(jù)所述標簽對人臉深度學習模型的參數(shù)進行調(diào)整。
[0039] 進一步地,在所述人臉部位識別的方法中,,所述參數(shù)調(diào)整模塊還用于根據(jù)識別完 成后帶標簽的圖像像素特征及圖像像素特征的正確識別率對所述人臉深度學習模型的參 數(shù)進行調(diào)整。
[0040] 相對于現(xiàn)有技術(shù)而言,本發(fā)明具有以下有益效果:
[0041] 本發(fā)明提供的人臉部位識別的方法和裝置,通過采用人臉深度學習模型對提取的 深度圖像像素特征進行檢測識別,一方面以像素深度差值作為圖像像素特征,不易受到光 線、色彩等環(huán)境因素影響,且特征提取過程簡單,有較好的唯一性和空間不變性。另一方面, 采用人臉深度學習模型同時完成檢測與識別,可同時對多個人臉部位進行識別,提高了檢 測識別效率,擁有更好的實時性。且深度學習算法有較強的分類和學習能力,以及較強的自 適應(yīng)性,能有效準確的檢測識別到人臉及相應(yīng)部位。
【附圖說明】
[0042] 為了更清楚地說明本發(fā)明實施例的技術(shù)方案,下面將對實施例中所需要使用的附 圖作簡單地介紹,應(yīng)當理解,以下附圖僅示出了本發(fā)明的某些實施例,因此不應(yīng)被看作是對 范圍的限定,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這 些附圖獲得其他相關(guān)的附圖。
[0043] 圖1為本發(fā)明實施例提供的人臉部位識別的方法的流程示意圖;
[0044] 圖2為本發(fā)明實施例提供的深度圖像獲得方法的示意圖;
[0045] 圖3為本發(fā)明實施例提供的提取圖像像素特征流程的示意圖;
[0046] 圖4為本發(fā)明實施例提供的像素空間分辨率獲得方法的示意圖;
[0047] 圖5為本發(fā)明實施例提供的訓練人臉深度學習模型流程的示意圖;
[0048] 圖6為本發(fā)明實施例提供的深度置信網(wǎng)絡(luò)模型的示意圖;
[0049]圖7為本發(fā)明實施例提供的人臉部位識別的裝置的一種結(jié)構(gòu)框圖;
[0050]圖8為本發(fā)明實施例提供的人臉部位識別的裝置的另一種結(jié)構(gòu)框圖。
[0051]上述附圖中,各附圖標記對應(yīng)的名稱為:
【具體實施方式】
[0053]為使本發(fā)明實施例的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合本發(fā)明實施例 中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例是 本發(fā)明一部分實施例,而不是全部的實施例。通常在此處附圖中描述和示出的本發(fā)明實施 例的組件可以以各種不同的配置來布置和設(shè)計。
[0054]因此,以下對在附圖中提供的本發(fā)明的實施例的詳細描述并非旨在限制要求保護 的本發(fā)明的范圍,而是僅僅表示本發(fā)明的選定實施例。基于本發(fā)明中的實施例,本領(lǐng)域普通 技術(shù)人員在沒有作出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范 圍。
[0055]需要說明的是,在本文中,諸如"第一"和"第二"等之類的關(guān)系術(shù)語僅僅用來將一 個實體或者操作與另一個實體或操作區(qū)分開來,而不一定要求或者暗示這些實體或操作之 間存在任何這種實際的關(guān)系或者順序。而且,術(shù)語"包括"、"包含"或者其任何其他變體意在 涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設(shè)備不僅包括那些 要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設(shè) 備所固有的要素。在沒有更多限制的情況下,由語句"包括一個……"限定的要素,并不排除 在包括所述要素的過程、方法、物品或者設(shè)備中還存在另外的相同要素。
[0056] 應(yīng)注意到:相似的標號和字母在下面的附圖中表示類似項,因此,一旦某一項在一 個附圖中被定義,則在隨后的附圖中不需要對其進行進一步定義和解釋。
[0057] 第一實施例
[0058]請參照圖1,圖1為本實施例提供人臉部位識別的方法的具體流程圖,所述方法包 括:
[0059]步驟S110,獲得深度圖像。
[0060] 在本實施例中,所述深度圖像通過深度傳感器獲得,其中,所述深度圖像包括通過 所述深度傳感器獲得的每個像素點的深度值。
[0061] 請參照圖2,假設(shè)在本實施例中所述深度傳感器視場角為(α,β),獲得的深度圖像 的分辨率為(m, n)。在所述深度圖像上以像素點為單位建立坐標,記錄像素點p=(x,y)的深 度值為D(x,y)。
[0062] 步驟S120,提取所述深度圖像中的圖像像素特征。
[0063] 提取所述圖像像素特征可以包括:深度梯度方向直方圖特征、局部簡化三元模式 特征、深度值統(tǒng)計分布特征及鄰域內(nèi)其他像素點間深度差值之差特征等,在本實施例中,優(yōu) 選為采用像素點鄰域內(nèi)其他像素點間深度差值之差的集合作為該像素點的圖像像素特征。 [0064] 請參照圖3,所述提取所述圖像像素特征的步驟可以包括子步驟S121、S122、S123 及S124。
[0065] 子步驟S121,由選定像素點的深度值及一空間不變系數(shù)得到該選定像素點在真實 空間的空間分辨率。
[0066] 具體地,請參照圖4,在本實施例中,選取所述深度圖像上像素點p=(l,l),其對應(yīng) 視場角為(α:,^),得到其深度值為D(1,1),由此可得像素點 ?1在真實空間的橫向空間分辨 率1x1為:
[0067] lxi = 2D( 1,1 )tan(〇i) =2D( 1,1 )tan(a/2m)
[0068] 同理其縱向空間分辨率10為:
[0069] lyi = 2D( 1,1 )tan(P/2n)
[0070] 由此可得任意像素點Pl=(Xl,yi)的空間分辨率為:
[0071 ] lxi = 2D(Xi,yi)tan(a/2m) =D(Xi,yi)|x
[0072] lyi = 2D(xi,yi)tan(P/2n) =D(xi,yi)Cy
[0073]其中,Cx=2tan(a/2m),Cy = 2tan(P/2n)為空間不變系數(shù)。
[0074]子步驟S122,由該選定像素點的所述空間分辨率、預設(shè)真實空間偏移量及預設(shè)多 個偏移角中任意的兩個不同的偏移角得到多個偏移向量對,其中每個所述偏移向量對包含 兩個偏移向量。
[0075]具體地,預設(shè)一真實空間偏移量為ε,并在所述深度圖像上預設(shè)多個離散化的偏移 角(方向)為9 = {01,02,~0"},由任意兩個偏移方向的偏移向量構(gòu)成,即對于//,^/對,可構(gòu) 成偏移量對δ = (ιι,ν),其中,
[0077] 由此得到S = C;2個所述偏移量對
[0078] 在本實施例中,所述偏移角的取值可以:
[0079] 子步驟S123,由所述偏移向量對中的兩個偏移向量得到該選定像素點的兩個偏移 點,由一深度差值函數(shù)獲得兩個偏移點之間的深度值之差。
[0080] 具體地,在深度圖像上取任意點Ρ,通過深度差值函數(shù)計算該點經(jīng)其中一個所述偏 移量對S = (U,V)后所得的兩個偏移點之間的深度差值為:
[0081] f (ρ,δ) = D(p+u)-D(p+v)
[0082] 在本實施例中,為保證所述圖像像素特征描述為同一人臉部位上的特征,當所述 兩個偏移點相對于所述選定像素點的深度值之差均小于等于一預設(shè)深度閾值時,所述深度 差值函數(shù)等于所述兩個偏移點之間的深度值的差;當所述兩個偏移點中的至少一個相對于 所述選定像素點的深度值之差大于所述深度閾值時,所述深度差值函數(shù)等于一個大于所述 深度圖像上所有像素點的深度值的κ值。以使得同一目標上點的特征向量值較為接近;即給 定一個深度閾值n,兩個偏移點之間的深度差值的計算公式如下:
[0084] 子步驟S124,將多個所述深度值之差的集合作為該選定像素點的特征向量,以此 表征該選定像素點的圖像像素特征。所述特征向量可以表示如下:
[0085] Fp=(f(p,5i) ,f (ρ,δ2) ,---f(p,5s))
[0086] 如此,所述提取所述深度圖像中的圖像像素特征的步驟,不僅利用了深度值,還利 用了空間不變系數(shù)進行計算,因此該特征具有較好的局部深度以及不同分辨率情況下的特 征不變性,可為后續(xù)檢測識別模型提供有力的判別依據(jù)。
[0087]步驟S130,將所述圖像像素特征輸入人臉深度學習模型中進行識別分類。
[0088] 所述人臉深度學習模型可以為隨機森林學習模型、回歸自組織神經(jīng)網(wǎng)絡(luò)模型、深 度置信網(wǎng)絡(luò)(DBN,Deep Belief Network)模型等,在本實施例中,優(yōu)選為采用DBN模型。所述 DBN模型具有多個隱層神經(jīng)網(wǎng)絡(luò),能更好的處理復雜函數(shù),在處理復雜分類問題時表現(xiàn)出更 優(yōu)的泛化性。
[0089] 值得說明的是,在本實施例中,所述人臉部位識別的方法還包括預先對所述人臉 深度學習模型進行深度學習訓練。請參照圖5,所述深度學習訓練的步驟包括:
[0090] 步驟S210,預先建立有深度圖像庫,獲得所述深度圖像庫中的訓練圖像。
[0091] 步驟S220,提取所述訓練圖像的圖像像素特征。
[0092] 在本實施例中,所述圖像像素特征為像素點領(lǐng)域內(nèi)其他像素點的深度差值的集 合。所述圖像像素特征的提取步驟和S120中提取過程相同,在此不再贅述。
[0093] 步驟S230,利用所述訓練圖像的圖像像素特征訓練所述人臉深度學習模型,并對 訓練完成的分類賦予相應(yīng)標簽;所述人臉深度學習模型根據(jù)所述標簽對其參數(shù)進行調(diào)整。 [0094] 具體地,請參照圖6,所述DBN模型可以包括多層受限玻爾茲曼機(RBM,Restricted Boltzman Machines)網(wǎng)絡(luò)和反向傳播(BP,Backpropagation Algorithm)網(wǎng)絡(luò)組成。
[0095]將所述圖像像素特征輸入底層RBM,對該層RBM進行無監(jiān)督訓練,確保特征向量映 射到不同特征空間時,都盡可能多地保留特征信息。
[0096]每一高層RBM以低一層的RBM輸出數(shù)據(jù)作為輸入,并對該層RBM進行無監(jiān)督訓練。每 一層RBM網(wǎng)絡(luò)確保自身層內(nèi)的權(quán)值對該層特征向量映射達到最優(yōu)。
[0097]在所述DBN最后一層設(shè)置BP網(wǎng)絡(luò),以最上層的RBM輸出的特征向量作為其輸入。預 設(shè)分類標簽,所述標簽可以包括人臉各部分的標簽(如鼻子、左眼、右眼、左耳、右耳、嘴、左 臉頰、右臉頰、下頌、額頭等部位標簽),以及一個非人臉部位標簽。以所述標簽有監(jiān)督地訓 練實體關(guān)系分類器,根據(jù)有監(jiān)督訓練是否分類正確信息,所述BP網(wǎng)絡(luò)將錯誤信息自頂向下 傳播至每一層RBM,微調(diào)整個DBN模型中對應(yīng)的特征向量的權(quán)重,以使DBN收斂到全局最優(yōu)。 在本實施例中,所述分類器可以采用Softmax回歸分類器。
[0098]步驟S140,判斷所述像素特征的分類與所述人臉深度學習模型中的已有標簽是否 匹配。若匹配則進入步驟S150,若不匹配則回到步驟S110。
[0099] 步驟S150,輸出與該像素特征對應(yīng)的標簽。
[0100] 在本實施例中,所述人臉部位檢測識別的方法還包括:將識別完成后的帶標簽的 圖像像素特征及圖像像素特征的正確識別率輸入到所述人臉深度學習模型。所述人臉深度 學習模型以此進行深度學習訓練,并對其自身參數(shù)進行調(diào)整。
[0101] 如此在進行人臉部位識別的同時,不斷補充新的訓練樣本對所述人臉深度學習模 型進行在線訓練,使得隨著識別的進行,所述人臉深度學習模型的識別準確度也不斷提高。
[0102] 第二實施例
[0103] 請參照圖7,本實施例提供的人臉部位識別裝置10包括:
[0104] 第一獲取模塊110,用于獲得深度圖像;
[0105] 第一特征提取模塊120,用于提取所述深度圖像中的圖像像素特征;
[0106] 人臉深度學習模塊130,用于將輸入的所述圖像像素特征進行識別分類;
[0107] 判斷模塊140,用于判斷所述圖像像素特征的分類與所述人臉深度學習模型中已 有的人臉部位標簽是否匹配;
[0108] 輸出模塊150,用于當所述圖像像素特征的分類與所述人臉深度學習模型中的已 有標簽匹配時,輸出與該像素特征對應(yīng)的標簽。
[0109] 在本實施例中,所述人臉深度學習模型用于將所述圖像像素特征作為其底部輸入 層的輸入,在網(wǎng)絡(luò)最頂層進行回歸分類,并匹配相應(yīng)的標簽,其中,所述標簽包括人臉各部 位標簽及非人臉部位標簽。在本實施例中,所述人臉深度學習模型可以采用深度置信網(wǎng)絡(luò) 模型。
[0110] 請參照圖8,進一步地,在本實施例中,所述人臉部位識別裝置10還可以包括:
[0111] 第二獲取模塊210,用于獲得深度圖像庫中的訓練圖像;
[0112] 第二特征提取模塊220,用于提取所述訓練圖像的圖像像素特征;
[0113]訓練模塊230,用于利用所述訓練圖像的圖像像素特征訓練所述人臉深度學習模 型,并對訓練完成的分類賦予相應(yīng)標簽;
[0114]參數(shù)調(diào)整模塊240,用于根據(jù)所述標簽對人臉深度學習模型的參數(shù)進行調(diào)整。
[0115] 應(yīng)當理解的是,在本實施例中,所述第一特征提取模塊120和所述第二特征提取模 塊220可以為同一模塊。
[0116] 請參照圖8,進一步地,在本實施例中,所述參數(shù)調(diào)整模塊240還用于根據(jù)識別完成 后帶標簽的圖像像素特征及圖像像素特征的正確識別率對所述人臉深度學習模型的參數(shù) 進行調(diào)整。
[0117] 綜上所述,本發(fā)明提供的人臉部位識別的方法和裝置,通過采用人臉深度學習模 型對提取的深度圖像像素特征進行檢測識別,一方面以像素深度差值作為圖像像素特征, 不易受到光線、色彩等環(huán)境因素影響,且特征提取過程簡單,有較好的唯一性和空間不變 性。另一方面,采用人臉深度學習模型同時完成檢測與識別,可同時對多個人臉部位進行識 另IJ,提高了檢測識別效率,擁有更好的實時性。且深度學習算法有較強的分類和學習能力, 以及較強的自適應(yīng)性,能有效準確的檢測識別到人臉及相應(yīng)部位。
[0118] 以上所述僅為本發(fā)明的優(yōu)選實施例而已,并不用于限制本發(fā)明,對于本領(lǐng)域的技 術(shù)人員來說,本發(fā)明可以有各種更改和變化。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修 改、等同替換、改進等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。
【主權(quán)項】
1. 一種人臉部位識別的方法,其特征在于,所述方法包括: 獲得深度圖像; 提取所述深度圖像中的圖像像素特征; 將所述圖像像素特征輸入人臉深度學習模型中進行識別分類; 判斷所述圖像像素特征的分類與所述人臉深度學習模型中已有的人臉部位標簽是否 匹配; 若所述圖像像素特征的分類與所述人臉深度學習模型中的已有標簽匹配,則輸出與該 圖像像素特征對應(yīng)的標簽。2. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述圖像像素特征為像素點鄰域內(nèi)其他像 素點深度值之差的集合,所述提取所述深度圖像中的圖像像素特征的步驟包括: 由選定像素點的深度值及一空間不變系數(shù)得到該選定像素點在真實空間的空間分辨 率; 由該選定像素點的所述空間分辨率、預設(shè)真實空間偏移量及預設(shè)多個偏移角中任意的 兩個不同的偏移角得到多個偏移向量對,其中每個所述偏移向量對包含兩個偏移向量; 由所述兩個偏移向量得到該選定像素點的兩個偏移點,由一深度差值函數(shù)獲得兩個偏 移點之間的深度值之差; 將多個所述深度值之差的集合作為該選定像素點的特征向量,以此表征該選定像素點 的圖像像素特征。3. 根據(jù)權(quán)利要求2所述的方法,其特征在于,在所述由一深度差值函數(shù)獲得兩個偏移點 之間的深度值之差的步驟中, 當所述兩個偏移點相對于所述選定像素點的深度值之差均小于等于一預設(shè)深度閾值 時,所述深度差值函數(shù)等于所述兩個偏移點之間的深度值的差, 當所述兩個偏移點中的至少一個相對于所述選定像素點的深度值之差大于所述深度 閾值時,所述深度差值函數(shù)等于一設(shè)定值,所述設(shè)定值大于所述深度圖像上所有像素點的 深度值。4. 根據(jù)權(quán)利要求1所述的方法,其特征在于:所述人臉深度學習模型包括深度置信網(wǎng)絡(luò) 模型,所述深度置信網(wǎng)絡(luò)模型將所述圖像像素特征作為其底層的輸入,在網(wǎng)絡(luò)最頂層進行 回歸分類,并匹配相應(yīng)的標簽,其中,所述標簽包括各人臉部位標簽。5. 根據(jù)權(quán)利要求4所述的方法,其特征在于:所述人臉部位識別的方法還包括預先對所 述人臉深度學習模型進行深度學習訓練,所述深度學習訓練的步驟包括, 獲得深度圖像庫中的訓練圖像; 提取所述訓練圖像的圖像像素特征; 利用所述訓練圖像的圖像像素特征訓練所述人臉深度學習模型,并對訓練完成的分類 賦予相應(yīng)標簽; 所述人臉深度學習模型根據(jù)所述標簽對其參數(shù)進行調(diào)整。6. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述人臉部位識別的方法還包括: 將識別完成后的帶標簽的圖像像素特征及圖像像素特征的正確識別率輸入到所述人 臉深度學習模型;所述人臉深度學習模型以此進行深度學習訓練,并對其參數(shù)進行調(diào)整。7. -種人臉部位識別的裝置,其特征在于,所述人臉部位識別的裝置包括: 第一獲取模塊,用于獲得深度圖像; 第一特征提取模塊,用于提取所述深度圖像中的圖像像素特征; 人臉深度學習模塊,用于將所述圖像像素特征輸入人臉深度學習模型中進行識別分 類; 判斷模塊,用于判斷所述圖像像素特征的分類與所述人臉深度學習模型中已有的人臉 部位標簽是否匹配; 輸出模塊,用于當所述圖像像素特征的分類與所述人臉深度學習模型中的已有標簽匹 配時,輸出與該像素特征對應(yīng)的標簽。8. 根據(jù)權(quán)利要求7所述的裝置,其特征在于,所述人臉深度學習模型用于將所述圖像像 素特征作為其底部輸入層的輸入,在網(wǎng)絡(luò)最頂層進行回歸分類,并匹配相應(yīng)的標簽,其中, 所述標簽包括人臉各部位標簽及非人臉部位標簽。9. 根據(jù)權(quán)利要求8所述的裝置,其特征在于,所述裝置還包括: 第二獲取模塊,用于獲得深度圖像庫中的訓練圖像; 第二特征提取模塊,用于提取所述訓練圖像的圖像像素特征; 訓練模塊,用于利用所述訓練圖像的圖像像素特征訓練所述人臉深度學習模型,并對 訓練完成的分類賦予相應(yīng)標簽; 參數(shù)調(diào)整模塊,用于根據(jù)所述標簽對人臉深度學習模型的參數(shù)進行調(diào)整。10. 根據(jù)權(quán)利要求9所述的裝置,其特征在于:所述參數(shù)調(diào)整模塊還用于根據(jù)識別完成 后帶標簽的圖像像素特征及圖像像素特征的正確識別率對所述人臉深度學習模型的參數(shù) 進行調(diào)整。
【文檔編號】G06K9/62GK106096551SQ201610414560
【公開日】2016年11月9日
【申請日】2016年6月14日 公開號201610414560.0, CN 106096551 A, CN 106096551A, CN 201610414560, CN-A-106096551, CN106096551 A, CN106096551A, CN201610414560, CN201610414560.0
【發(fā)明人】譚志國, 楊阿峰, 李洪
【申請人】湖南拓視覺信息技術(shù)有限公司