一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別方法及裝置制造方法
【專利摘要】本發(fā)明提供一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別方法及裝置,其中基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別方法,包括:從當(dāng)前獲取的圖像中得到人臉圖像;對人臉圖像進行處理,得到多個顏色通道信息;將多個顏色通道信息輸入到預(yù)先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行計算,得到表示性別的輸出結(jié)果;當(dāng)表示性別的輸出結(jié)果在第一預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別為男性;當(dāng)表示性別的輸出結(jié)果在第二預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別為女性。這樣通過將人臉圖像中的多個顏色通道信息輸入到預(yù)先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行計算,得到表示性別的輸出結(jié)果。與現(xiàn)有技術(shù)相比增加了性別識別的顏色特征,從而相對于基于單一的灰顏色通道信息識別來說提高性別識別準(zhǔn)確度。
【專利說明】一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別方法及裝置
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及人臉性別識別【技術(shù)領(lǐng)域】,更具體地說,涉及一種基于多通道卷積神經(jīng) 網(wǎng)絡(luò)的人臉性別識別方法及裝置。
【背景技術(shù)】
[0002] 基于人臉圖像的性別識別方法是人臉圖像信息利用計算機技術(shù)識別被觀察者的 性別屬性的過程,主要包括:人臉圖像預(yù)處理、人臉性別特征提取、人臉性別分類和識別結(jié) 果穩(wěn)定四步驟。其中,人臉性別特征提取是性別分類算法的前提,性別特征提取的好壞直接 影響著最后性別分類的性能。
[0003] 目前,人臉性別特征提取的方法總體分為兩類,一類是人工設(shè)計,包括LBP(Local BinaryPatterns,局部二值模式),HOG(HistogramofOrientedGradient,方向梯度直方 圖),SIFT(Scale-invariantFeatureTransform,尺度不變特征轉(zhuǎn)換)等;另一類是自動 學(xué)習(xí)。人工設(shè)計的人臉性別特征提取方法具有識別效果好的特點,但是設(shè)計過程復(fù)雜,特征 挑選過程繁瑣,一定程度上依賴于設(shè)計者的經(jīng)驗?;谧詣訉W(xué)習(xí)的人臉性別特征提取方法 避免人工設(shè)計的缺點,同時達到了非常好的識別效果。
[0004] 基于自動學(xué)習(xí)的人臉性別特征提取方法在進行特征提取時,僅提取灰度顏色通道 信息進行人臉性別識別,雖然可以避免人工設(shè)計的缺點,但是其識別效果還是有一定缺陷。
【發(fā)明內(nèi)容】
[0005] 有鑒于此,本發(fā)明的目的是提供一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別方 法及裝置,用于提高性別識別準(zhǔn)確度。
[0006] 為了實現(xiàn)上述目的,本發(fā)明提供如下技術(shù)方案:
[0007] 本發(fā)明提供一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別方法,包括:
[0008] 從當(dāng)前獲取的圖像中得到人臉圖像,其中所述人臉圖像為RGB圖像;
[0009] 對所述人臉圖像進行處理,得到多個顏色通道信息;
[0010] 將所述多個顏色通道信息輸入到預(yù)先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行計算,得到表示 性別的輸出結(jié)果;
[0011] 當(dāng)所述表示性別的輸出結(jié)果在第一預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別為男性;
[0012] 當(dāng)所述表示性別的輸出結(jié)果在第二預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別為女性。
[0013] 優(yōu)選地,所述多個顏色通道信息包括紅顏色通道信息、綠顏色通道信息、藍顏色通 道信息、灰顏色通道信息、灰紅顏色通道信息、灰綠顏色通道信息和灰藍顏色通道信息。
[0014] 優(yōu)選地,對所述人臉圖像進行處理,得到多個顏色通道信息,包括:
[0015] 從所述人臉圖像的R通道中獲取紅顏色通道信息;
[0016] 從所述人臉圖像的G通道中獲取綠顏色通道信息;
[0017] 從所述人臉圖像的B通道中獲取藍顏色通道信息;
[0018] 獲取所述人臉圖像的R通道、G通道和B通道的權(quán)重,將各通道內(nèi)的像素分別與對 應(yīng)的權(quán)重相乘并相加得到所述灰顏色通道信息,其中r+g+b= 1,r為R通道的權(quán)重,g為G通道的權(quán)重,b為B通道的權(quán)重;
[0019] 獲取所述人臉圖像的灰顏色通道和R通道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng) 的權(quán)重相乘并相加得到所述灰紅顏色通道信息,其中g(shù)ray+r= 1,gray為灰顏色通道的權(quán) 重,r為R通道的權(quán)重;
[0020] 獲取所述人臉圖像的灰顏色通道和G通道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng) 的權(quán)重相乘并相加得到所述灰綠顏色通道信息,其中g(shù)ray+g= 1,gray為灰顏色通道的權(quán) 重,g為G通道的權(quán)重;
[0021] 獲取所述人臉圖像的灰顏色通道和B通道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng) 的權(quán)重相乘并相加得到所述灰綠顏色通道信息,其中g(shù)ray+b= 1,gray為灰顏色通道的權(quán) 重,b為B通道的權(quán)重。
[0022] 優(yōu)選地,所述將所述多個顏色通道信息輸入到預(yù)先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行計 算,得到表示性別的輸出結(jié)果,包括:
[0023] 將所述多個顏色通道信息輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的特征抽取層,得到輸出向 量;
[0024] 將所述輸出向量輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的全連接層,得到表示性別的輸出結(jié) 果。
[0025] 優(yōu)選地,將所述多個顏色通道信息輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的特征抽取層,得 到輸出向量,包括: f \
[0026] 依據(jù)公式\ =/Σ切叫.*夂+ 4進行卷積運算,并對卷積后的運算結(jié)果進 KieuJJ 行下采樣得到輸出向量,其中Mj表示輸入的顏色通道數(shù),inputi表示第i個顏色通道的輸 入,1?表示第i個顏色通道與第一個卷積層中第j個平面的卷積核,h表示第一個卷積層 中第j個平面的偏置,&是第一個卷積層的第j個平面,f( ·)表示激活函數(shù),號表示 卷積操作。
[0027] 本發(fā)明還提供一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別裝置,包括:
[0028] 第一獲取單元,用于從當(dāng)前獲取的圖像中得到人臉圖像,其中所述人臉圖像為RGB 圖像;
[0029] 第二獲取單元,用于對所述人臉圖像進行處理,得到多個顏色通道信息;
[0030] 計算單元,用于將所述多個顏色通道信息輸入到預(yù)先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行 計算,得到表示性別的輸出結(jié)果;
[0031] 第一標(biāo)識單元,用于當(dāng)所述表示性別的輸出結(jié)果在第一預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉 性別為男性;
[0032] 第二標(biāo)識單元,用于當(dāng)所述表示性別的輸出結(jié)果在第二預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉 性別為女性。
[0033] 優(yōu)選地,所述多個顏色通道信息包括紅顏色通道信息、綠顏色通道信息、藍顏色通 道信息、灰顏色通道信息、灰紅顏色通道信息、灰綠顏色通道信息和灰藍顏色通道信息。
[0034] 優(yōu)選地,所述第二獲取單元包括:紅顏色通道信息獲取子單元、綠顏色通道信息獲 取子單元、藍顏色通道信息獲取子單元、灰顏色通道信息獲取子單元、灰紅顏色通道信息獲 取子單元、灰綠顏色通道信息獲取子單元和灰藍顏色通道信息獲取子單元;其中,
[0035] 所述紅顏色通道信息獲取子單元,用于從所述人臉圖像的R通道中獲取紅顏色通 道信息;
[0036] 所述綠顏色通道信息獲取子單元,用于從所述人臉圖像的G通道中獲取綠顏色通 道信息;
[0037] 所述藍顏色通道信息獲取子單元,用于從所述人臉圖像的B通道中獲取藍顏色通 道信息;
[0038] 所述灰顏色通道信息獲取子單元,用于獲取所述人臉圖像的R通道、G通道和B通 道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰顏色通道信息,其 中r+g+b= 1,r為R通道的權(quán)重,g為G通道的權(quán)重,b為B通道的權(quán)重;
[0039] 所述灰紅顏色通道信息獲取子單元,用于獲取所述人臉圖像的灰顏色通道和R通 道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰紅顏色通道信息, 其中g(shù)ray+r= 1,gray為灰顏色通道的權(quán)重,r為R通道的權(quán)重;
[0040] 所述灰綠顏色通道信息獲取子單元,用于獲取所述人臉圖像的灰顏色通道和G通 道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰綠顏色通道信息, 其中g(shù)ray+g =1,gray為灰顏色通道的權(quán)重,g為G通道的權(quán)重;
[0041] 所述灰藍顏色通道信息獲取子單元,用于獲取所述人臉圖像的灰顏色通道和B通 道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰綠顏色通道信息, 其中g(shù)ray+b= 1,gray為灰顏色通道的權(quán)重,b為B通道的權(quán)重。
[0042] 優(yōu)選地,所述計算單元包括:第一計算子單元和第二計算子單元;其中,
[0043] 所述第一計算子單元,用于將所述多個顏色通道信息輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中 的特征抽取層,得到輸出向量;
[0044] 所述第二計算子單元,用于將所述輸出向量輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的全連接 層,得到表示性別的輸出結(jié)果。
[0045] 優(yōu)選地,所述第一計算子單元將所述多個顏色通道信息輸入到所述卷積神經(jīng)網(wǎng)絡(luò) 中的特征抽取層,得到輸出向量,包括:
[0046] 依據(jù)公式
【權(quán)利要求】
1. 一種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別方法,其特征在于,包括: 從當(dāng)前獲取的圖像中得到人臉圖像,其中所述人臉圖像為RGB圖像; 對所述人臉圖像進行處理,得到多個顏色通道信息; 將所述多個顏色通道信息輸入到預(yù)先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行計算,得到表示性別 的輸出結(jié)果; 當(dāng)所述表示性別的輸出結(jié)果在第一預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別為男性; 當(dāng)所述表示性別的輸出結(jié)果在第二預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別為女性。
2. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述多個顏色通道信息包括紅顏色通道 信息、綠顏色通道信息、藍顏色通道信息、灰顏色通道信息、灰紅顏色通道信息、灰綠顏色通 道信息和灰藍顏色通道信息。
3. 根據(jù)權(quán)利要求2所述的方法,其特征在于,對所述人臉圖像進行處理,得到多個顏色 通道信息,包括: 從所述人臉圖像的R通道中獲取紅顏色通道信息; 從所述人臉圖像的G通道中獲取綠顏色通道信息; 從所述人臉圖像的B通道中獲取藍顏色通道信息; 獲取所述人臉圖像的R通道、G通道和B通道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的 權(quán)重相乘并相加得到所述灰顏色通道信息,其中r+g+b=l,r為R通道的權(quán)重,g為G通道 的權(quán)重,b為B通道的權(quán)重; 獲取所述人臉圖像的灰顏色通道和R通道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán) 重相乘并相加得到所述灰紅顏色通道信息,其中g(shù)ray+r= 1,gray為灰顏色通道的權(quán)重,r 為R通道的權(quán)重; 獲取所述人臉圖像的灰顏色通道和G通道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán) 重相乘并相加得到所述灰綠顏色通道信息,其中g(shù)ray+g=1,gray為灰顏色通道的權(quán)重,g 為G通道的權(quán)重; 獲取所述人臉圖像的灰顏色通道和B通道的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán) 重相乘并相加得到所述灰綠顏色通道信息,其中g(shù)ray+b= 1,gray為灰顏色通道的權(quán)重,b 為B通道的權(quán)重。
4. 根據(jù)權(quán)利要求1所述的方法,其特征在于,所述將所述多個顏色通道信息輸入到預(yù) 先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行計算,得到表示性別的輸出結(jié)果,包括: 將所述多個顏色通道信息輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的特征抽取層,得到輸出向量; 將所述輸出向量輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的全連接層,得到表示性別的輸出結(jié)果。
5. 根據(jù)權(quán)利要求4所述的方法,其特征在于,將所述多個顏色通道信息輸入到所述卷 積神經(jīng)網(wǎng)絡(luò)中的特征抽取層,得到輸出向量,包括:
采樣得到輸出向量,其中%表示輸入的顏色通道數(shù),inputi表示第i個顏色通道的輸入,ku表示第i個顏色通道與第一個卷積層中第j個平面的卷積核,h表示第一個卷積層中第j 個平面的偏置,&是第一個卷積層的第j個平面,f( ?)表示激活函數(shù),號表示卷積操 作。
6. -種基于多通道卷積神經(jīng)網(wǎng)絡(luò)的人臉性別識別裝置,其特征在于,包括: 第一獲取單元,用于從當(dāng)前獲取的圖像中得到人臉圖像,其中所述人臉圖像為RGB圖 像; 第二獲取單元,用于對所述人臉圖像進行處理,得到多個顏色通道信息; 計算單元,用于將所述多個顏色通道信息輸入到預(yù)先得到的卷積神經(jīng)網(wǎng)絡(luò)中進行計 算,得到表示性別的輸出結(jié)果; 第一標(biāo)識單元,用于當(dāng)所述表示性別的輸出結(jié)果在第一預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別 為男性; 第二標(biāo)識單元,用于當(dāng)所述表示性別的輸出結(jié)果在第二預(yù)設(shè)范圍內(nèi)時,標(biāo)識人臉性別 為女性。
7. 根據(jù)權(quán)利要求6所述的裝置,其特征在于,所述多個顏色通道信息包括紅顏色通道 信息、綠顏色通道信息、藍顏色通道信息、灰顏色通道信息、灰紅顏色通道信息、灰綠顏色通 道信息和灰藍顏色通道信息。
8. 根據(jù)權(quán)利要求7所述的裝置,其特征在于,所述第二獲取單元包括:紅顏色通道信息 獲取子單元、綠顏色通道信息獲取子單元、藍顏色通道信息獲取子單元、灰顏色通道信息獲 取子單元、灰紅顏色通道信息獲取子單元、灰綠顏色通道信息獲取子單元和灰藍顏色通道 信息獲取子單元;其中, 所述紅顏色通道信息獲取子單元,用于從所述人臉圖像的R通道中獲取紅顏色通道信 息; 所述綠顏色通道信息獲取子單元,用于從所述人臉圖像的G通道中獲取綠顏色通道信 息; 所述藍顏色通道信息獲取子單元,用于從所述人臉圖像的B通道中獲取藍顏色通道信 息; 所述灰顏色通道信息獲取子單元,用于獲取所述人臉圖像的R通道、G通道和B通道 的權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰顏色通道信息,其中 r+g+b= 1,r為R通道的權(quán)重,g為G通道的權(quán)重,b為B通道的權(quán)重; 所述灰紅顏色通道信息獲取子單元,用于獲取所述人臉圖像的灰顏色通道和R通道的 權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰紅顏色通道信息,其中 gray+r= 1,gray為灰顏色通道的權(quán)重,r為R通道的權(quán)重; 所述灰綠顏色通道信息獲取子單元,用于獲取所述人臉圖像的灰顏色通道和G通道的 權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰綠顏色通道信息,其中 gray+g =1,gray為灰顏色通道的權(quán)重,g為G通道的權(quán)重; 所述灰藍顏色通道信息獲取子單元,用于獲取所述人臉圖像的灰顏色通道和B通道的 權(quán)重,將各通道內(nèi)的像素分別與對應(yīng)的權(quán)重相乘并相加得到所述灰綠顏色通道信息,其中 gray+b= 1,gray為灰顏色通道的權(quán)重,b為B通道的權(quán)重。
9. 根據(jù)權(quán)利要求6所述的裝置,其特征在于,所述計算單元包括:第一計算子單元和第 二計算子單元;其中, 所述第一計算子單元,用于將所述多個顏色通道信息輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的特 征抽取層,得到輸出向量; 所述第二計算子單元,用于將所述輸出向量輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的全連接層, 得到表示性別的輸出結(jié)果。
10.根據(jù)權(quán)利要求9所述的裝置,其特征在于,所述第一計算子單元將所述多個顏色通 道信息輸入到所述卷積神經(jīng)網(wǎng)絡(luò)中的特征抽取層,得到輸出向量,包括:
采樣得到輸出向量,其中%表示輸入的顏色通道數(shù),inputi表示第i個顏色通道的輸入,ku表示第i個顏色通道與第一個卷積層中第j個平面的卷積核,h表示第一個卷積層中第j 個平面的偏置,&是第一個卷積層的第j個平面,f( ?)表示激活函數(shù),號表示卷積操 作。
【文檔編號】G06K9/00GK104484658SQ201410840403
【公開日】2015年4月1日 申請日期:2014年12月30日 優(yōu)先權(quán)日:2014年12月30日
【發(fā)明者】盧金鑫, 謝衍濤 申請人:中科創(chuàng)達軟件股份有限公司