国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于L1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法及裝置與流程

      文檔序號(hào):11216543閱讀:571來(lái)源:國(guó)知局
      一種基于L1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法及裝置與流程

      本發(fā)明涉及人臉識(shí)別領(lǐng)域,更具體地說(shuō),涉及一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法與裝置。



      背景技術(shù):

      隨著科學(xué)技術(shù)的發(fā)展,人臉檢索技術(shù)也得到了快速發(fā)展。人臉檢索這項(xiàng)技術(shù)可以從某一個(gè)人上傳的一張照片中搜索出這個(gè)人的在網(wǎng)上的其他照片。例如用戶(hù)在社交網(wǎng)站中的相冊(cè)中,為一張照片的人物加上姓名,系統(tǒng)就可以利用人臉檢索技術(shù)自動(dòng)為同一相冊(cè)中相同人臉的其他照片都加上這個(gè)姓名。另外,在搜索引擎中也有應(yīng)用到人臉檢索這項(xiàng)技術(shù)實(shí)現(xiàn)“以圖搜圖”,也就是利用一張圖片可以檢索出與圖片中的人臉相同的其他所有圖片。

      但是目前人臉檢索技術(shù)的精度普遍不高,尤其在雙胞胎方面幾乎沒(méi)辦法區(qū)分,而精度較高的人臉檢索技術(shù),檢索時(shí)間又會(huì)很長(zhǎng)。

      因此,如何提高人臉檢索精度并且降低檢索時(shí)間,是本領(lǐng)域技術(shù)人員需要解決的問(wèn)題。



      技術(shù)實(shí)現(xiàn)要素:

      本發(fā)明的目的在于提供一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,以提高人臉檢索精度并且降低檢索時(shí)間。

      為實(shí)現(xiàn)上述目的,本發(fā)明實(shí)施例提供了如下技術(shù)方案:

      一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,包括:

      s101,利用毛孔訓(xùn)練樣本與基于l1范數(shù)的代價(jià)函數(shù)得到神經(jīng)網(wǎng)絡(luò);

      s102,將測(cè)試圖像預(yù)處理得到灰度人臉圖像;

      s103,將所述灰度人臉圖像遍歷分塊得到多塊人臉區(qū)域圖像塊;

      s104,將檢索庫(kù)中未經(jīng)過(guò)匹配的一張待匹配圖像遍歷分塊得到多塊待匹配區(qū)域圖像塊;

      s105,將所述人臉區(qū)域圖像塊與所述待匹配圖像塊利用所述神經(jīng)網(wǎng)絡(luò)進(jìn)行匹配,得到匹配塊總數(shù);

      s106,判斷所述匹配塊總數(shù)是否大于等于預(yù)設(shè)閾值,若是,則將此次的待匹配圖像作為檢索結(jié)果,停止檢索,若否,則返回s104。

      其中,所述s101包括:

      將毛孔訓(xùn)練樣本輸入初始毛孔特征描述子生成網(wǎng)絡(luò),得到初始特征描述子;

      利用初始特征描述子最小化基于l1范數(shù)的代價(jià)函數(shù),訓(xùn)練得到目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò);

      利用初始全連接層得到所述初始特征描述子的匹配結(jié)果,利用所述匹配結(jié)果與毛孔訓(xùn)練樣本標(biāo)簽的差值,訓(xùn)練得到目標(biāo)全連接層,其中所述目標(biāo)全連接層與所述目標(biāo)特征描述子生成網(wǎng)絡(luò)組成神經(jīng)網(wǎng)絡(luò)。

      其中,所述s105包括:

      s301,將一塊未匹配的人臉區(qū)域圖像塊與一塊未匹配的待匹配圖像塊用所述目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)得到第一特征描述子與第二特征描述子;

      s302,利用所述目標(biāo)全連接層判斷所述第一特征描述子與所述第二特征描述子是否匹配,若是,則將匹配塊總數(shù)加一。

      s303,判斷人臉區(qū)域圖像塊與待匹配圖像塊是否都已進(jìn)行過(guò)匹配操作,若是,則停止匹配,若否,則返回s301。

      其中,所述s102包括:

      截取所述測(cè)試圖像的人臉部分圖像;

      將所述人臉部分圖像進(jìn)行灰度化處理得到灰度圖像;

      將所述灰度圖像縮放至預(yù)設(shè)尺寸,得到灰度人臉圖像。

      其中,所述s103,包括:

      將所述灰度人臉圖像根據(jù)預(yù)設(shè)分塊尺寸不重疊的遍歷所述灰度人臉圖像,舍去多余邊緣得到多塊人臉區(qū)域圖像塊。

      一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索裝置,包括:

      神經(jīng)網(wǎng)絡(luò)獲取模塊,用于利用毛孔訓(xùn)練樣本與基于l1范數(shù)的代價(jià)函數(shù)得到神經(jīng)網(wǎng)絡(luò);

      預(yù)處理模塊,用于將測(cè)試圖像預(yù)處理得到灰度人臉圖像;

      第一分塊模塊,用于將所述灰度人臉圖像遍歷分塊得到多塊人臉區(qū)域圖像塊;

      第二分塊模塊,用于將檢索庫(kù)中未經(jīng)過(guò)匹配的一張待匹配圖像遍歷分塊得到多塊待匹配區(qū)域圖像塊;

      匹配模塊,用于將所述人臉區(qū)域圖像塊與所述待匹配圖像塊利用所述神經(jīng)網(wǎng)絡(luò)進(jìn)行匹配,得到匹配塊總數(shù);

      判斷模塊,用于判斷所述匹配塊總數(shù)是否大于等于預(yù)設(shè)閾值,若是,則將此次的待匹配圖像作為檢索結(jié)果,停止檢索,若否,則調(diào)用所述第二分塊模塊。

      其中,所述神經(jīng)網(wǎng)絡(luò)獲取模塊,包括:

      初始特征描述子獲取單元,用于將毛孔訓(xùn)練樣本輸入初始毛孔特征描述子生成網(wǎng)絡(luò),得到初始特征描述子;

      目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)訓(xùn)練單元,用于利用初始特征描述子最小化基于l1范數(shù)的代價(jià)函數(shù),訓(xùn)練得到目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò);

      目標(biāo)全連接層訓(xùn)練單元,用于利用初始全連接層得到所述初始特征描述子的匹配結(jié)果,利用所述匹配結(jié)果與毛孔訓(xùn)練樣本標(biāo)簽的差值,訓(xùn)練得到目標(biāo)全連接層,其中所述目標(biāo)全連接層與所述目標(biāo)特征描述子生成網(wǎng)絡(luò)組成神經(jīng)網(wǎng)絡(luò)。

      其中,所述匹配模塊,包括:

      特征描述子獲取單元,用于將一塊未匹配的人臉區(qū)域圖像塊與一塊未匹配的待匹配圖像塊用所述目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)得到第一特征描述子與第二特征描述子;

      匹配單元,用于利用所述目標(biāo)全連接層判斷所述第一特征描述子與所述第二特征描述子是否匹配,若是,則將匹配塊總數(shù)加一。

      判斷單元,用于判斷人臉區(qū)域圖像塊與待匹配圖像塊是否都已進(jìn)行過(guò)匹配操作,若是,則停止匹配,若否,則調(diào)用所述特征描述子獲取單元。

      其中,所述預(yù)處理模塊,包括:

      測(cè)試圖像截取單元,用于截取所述測(cè)試圖像的人臉部分圖像;

      灰度化處理單元,用于將所述人臉部分圖像進(jìn)行灰度化處理得到灰度圖像;

      縮放單元,用于將所述灰度圖像縮放至預(yù)設(shè)尺寸,得到灰度人臉圖像。

      其中,所述第一分塊模塊,具體用于,將所述灰度人臉圖像根據(jù)預(yù)設(shè)分塊尺寸不重疊的遍歷所述灰度人臉圖像,舍去多余邊緣得到多塊人臉區(qū)域圖像塊。

      通過(guò)以上方案可知,本發(fā)明實(shí)施例提供的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,利用l1范數(shù)的代價(jià)函數(shù)與毛孔訓(xùn)練樣本可以得到神經(jīng)網(wǎng)絡(luò),通過(guò)神經(jīng)網(wǎng)絡(luò)在檢索庫(kù)中檢索與測(cè)試圖像匹配的圖像。由于基于li范數(shù)的代價(jià)函數(shù)得到的神經(jīng)網(wǎng)絡(luò)中的參數(shù)已經(jīng)確定,每次檢索時(shí)不會(huì)根據(jù)測(cè)試圖像不同重新定義參數(shù),因此檢索速度快,耗時(shí)很少,同時(shí),基于l1范數(shù)確定的神經(jīng)網(wǎng)絡(luò)為深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),因此有很強(qiáng)大的學(xué)習(xí)能力,能夠充分地學(xué)習(xí)到測(cè)試圖像特征信息,因此準(zhǔn)確度很高。本發(fā)明實(shí)施例還提供一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索裝置,同樣可以實(shí)現(xiàn)上述技術(shù)效果。

      附圖說(shuō)明

      為了更清楚地說(shuō)明本發(fā)明實(shí)施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對(duì)實(shí)施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡(jiǎn)單地介紹,顯而易見(jiàn)地,下面描述中的附圖僅僅是本發(fā)明的一些實(shí)施例,對(duì)于本領(lǐng)域普通技術(shù)人員來(lái)講,在不付出創(chuàng)造性勞動(dòng)的前提下,還可以根據(jù)這些附圖獲得其他的附圖。

      圖1為本發(fā)明實(shí)施例公開(kāi)的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法流程圖;

      圖2為本發(fā)明實(shí)施例公開(kāi)的一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法流程圖;

      圖3為本發(fā)明實(shí)施例公開(kāi)的一種神經(jīng)網(wǎng)絡(luò)示意圖;

      圖4為本發(fā)明實(shí)施例公開(kāi)的一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法流程圖;

      圖5為本發(fā)明實(shí)施例公開(kāi)的一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索裝置結(jié)構(gòu)示意圖。

      具體實(shí)施方式

      下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對(duì)本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例?;诒景l(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒(méi)有作出創(chuàng)造性勞動(dòng)前提下所獲得的所有其他實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。

      本發(fā)明實(shí)施例公開(kāi)了一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,以提高人臉檢索精度并且降低檢索時(shí)間。

      參見(jiàn)圖1,本發(fā)明實(shí)施例提供的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,具體包括:

      s101,利用毛孔訓(xùn)練樣本與基于l1范數(shù)的代價(jià)函數(shù)得到神經(jīng)網(wǎng)絡(luò)。

      具體地,在檢索前首先需要根據(jù)毛孔訓(xùn)練樣本與基于l1范數(shù)的代價(jià)函數(shù)訓(xùn)練出神經(jīng)網(wǎng)絡(luò),需要說(shuō)明的是,在神經(jīng)網(wǎng)絡(luò)中有兩個(gè)小網(wǎng)絡(luò),一個(gè)是描述子生成網(wǎng)絡(luò),一個(gè)是全連接層。訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過(guò)程就是訓(xùn)練描述子生成網(wǎng)絡(luò)與全連接層,訓(xùn)練描述子生成網(wǎng)絡(luò)后會(huì)確定一個(gè)參數(shù),這個(gè)參數(shù)在每次檢索時(shí)都不會(huì)改變,每次檢索都是使用這個(gè)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),因此耗時(shí)不會(huì)很長(zhǎng)。

      s102,將測(cè)試圖像預(yù)處理得到灰度人臉圖像。

      具體地,在接收到用戶(hù)的人臉檢索觸發(fā)指令時(shí),獲得用戶(hù)的人臉測(cè)試圖像,并將測(cè)試圖像進(jìn)行預(yù)處理,得到符合要求的灰度人臉圖像,以便匹配。

      s103,將所述灰度人臉圖像遍歷分塊得到多塊人臉區(qū)域圖像塊。

      在本方案中,是將圖像分成多個(gè)小塊后分塊進(jìn)行匹配,因此,在匹配前還需要將會(huì)對(duì)灰度人臉圖像遍歷分塊,需要說(shuō)明的是,遍歷分塊后得到的人臉區(qū)域圖像塊是不重疊的。

      s104,將檢索庫(kù)中未經(jīng)過(guò)匹配的一張待匹配圖像遍歷分塊得到多塊待匹配區(qū)域圖像塊。

      具體地,在檢索庫(kù)中按順序找出一張沒(méi)有進(jìn)行檢測(cè)過(guò)的圖像作為待匹配圖像,用于與灰度人臉圖像進(jìn)行匹配,并將這個(gè)圖像同樣遍歷分塊得到待匹配區(qū)域圖像塊。

      s105,將所述人臉區(qū)域圖像塊與所述待匹配圖像塊利用所述神經(jīng)網(wǎng)絡(luò)進(jìn)行匹配,得到匹配塊總數(shù)。

      具體地,將每塊人臉區(qū)域圖像塊與每塊待匹配圖像塊都送入神經(jīng)網(wǎng)絡(luò)中進(jìn)行匹配。需要說(shuō)明的是,這里的匹配是指逐塊匹配,每一塊人臉區(qū)域圖像塊與對(duì)應(yīng)的每一塊待匹配圖像塊進(jìn)行匹配,確定兩塊圖像是否是匹配的,然后統(tǒng)計(jì)出所有匹配成功的總塊數(shù)。

      s106,判斷所述匹配塊總數(shù)是否大于等于預(yù)設(shè)閾值,若是,則將此次的待匹配圖像作為檢索結(jié)果,停止檢索,若否,則返回s104。

      具體地,判斷匹配成功的總數(shù)是否大于等于一個(gè)預(yù)設(shè)的閾值,如果大于,那么說(shuō)明此次選擇的檢索庫(kù)中的待匹配圖像與測(cè)試圖像可以判定為同一人臉的圖像,則將這張圖像作為檢索結(jié)果,檢索完成。如果沒(méi)有大于這個(gè)閾值,那么需要返回s104繼續(xù)在檢索庫(kù)中選擇圖像并進(jìn)行匹配等操作,直至檢索到檢索結(jié)果。

      預(yù)設(shè)的閾值可以是所有塊圖像數(shù)量的4/5,也就是說(shuō)當(dāng)匹配塊總數(shù)大于等于所有塊圖像數(shù)量的4/5,則說(shuō)明這張圖像可以作為檢索結(jié)果。

      通過(guò)以上方案可知,本發(fā)明實(shí)施例提供的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,利用l1范數(shù)的代價(jià)函數(shù)與毛孔訓(xùn)練樣本可以得到神經(jīng)網(wǎng)絡(luò),通過(guò)神經(jīng)網(wǎng)絡(luò)在檢索庫(kù)中檢索與測(cè)試圖像匹配的圖像。由于基于li范數(shù)的代價(jià)函數(shù)得到的神經(jīng)網(wǎng)絡(luò)中的參數(shù)已經(jīng)確定,每次檢索時(shí)不會(huì)根據(jù)測(cè)試圖像不同重新定義參數(shù),因此檢索速度快,耗時(shí)很少,同時(shí),基于l1范數(shù)確定的神經(jīng)網(wǎng)絡(luò)為深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),因此有很強(qiáng)大的學(xué)習(xí)能力,能夠充分地學(xué)習(xí)到測(cè)試圖像特征信息,因此準(zhǔn)確度很高。

      本發(fā)明實(shí)施例提供了一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的s101做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,參見(jiàn)圖2與圖3,s101包括:

      s201,將毛孔訓(xùn)練樣本輸入初始毛孔特征描述子生成網(wǎng)絡(luò),得到初始特征描述子。

      具體地,將毛孔訓(xùn)練楊本輸入到初始毛孔特征描述子生成網(wǎng)絡(luò),經(jīng)過(guò)多層卷積、歸一操作,得到毛孔尺度的特征描述子。

      s202,利用初始特征描述子最小化基于l1范數(shù)的代價(jià)函數(shù),訓(xùn)練得到目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)。

      具體地,參照?qǐng)D3,由上至下分別為卷積層、批歸一化層、卷基層、批歸一化層、局部響應(yīng)歸一層、全連接層。

      具體地,定義為lrn層(局部響應(yīng)歸一層)輸出的第一圖像分塊后的第i塊區(qū)域圖像的128維毛孔尺度特征描述子;為lrn層輸出的第二圖像分塊后的第i塊區(qū)域圖像的128維毛孔尺度特征描述子。

      定義基于l1范數(shù)的匹配對(duì)的特征描述子的距離||||1表示l1范數(shù)。

      定義特征描述子的列相似度行相似度則代價(jià)函數(shù)為

      需要說(shuō)明的是,第一圖像為待測(cè)試圖像,第二圖像為待匹配圖像。在測(cè)試樣本中,包括一個(gè)待測(cè)試樣本圖像和一個(gè)待匹配測(cè)試圖像。在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行檢索時(shí),測(cè)試圖像為第一圖像,待匹配圖像為第二圖像。

      在訓(xùn)練過(guò)程中,會(huì)不斷地產(chǎn)生特征描述子,利用特征描述子以最小化代價(jià)函數(shù)為手段,確定出目標(biāo)特征描述子生成網(wǎng)絡(luò)的參數(shù),確定參數(shù)后,訓(xùn)練目標(biāo)特征描述子生成網(wǎng)絡(luò)完成。

      s203,利用初始全連接層得到所述初始特征描述子的匹配結(jié)果,利用所述匹配結(jié)果與毛孔訓(xùn)練樣本標(biāo)簽的差值,訓(xùn)練得到目標(biāo)全連接層,其中所述目標(biāo)全連接層與所述目標(biāo)特征描述子生成網(wǎng)絡(luò)組成神經(jīng)網(wǎng)絡(luò)。

      具體地,將初始特征描述子通過(guò)全連接層得到匹配結(jié)果,最小化匹配結(jié)果和毛孔訓(xùn)練樣本標(biāo)簽的差值,訓(xùn)練得到全連接層。

      需要說(shuō)明的是,匹配結(jié)果就是毛孔訓(xùn)練樣本中待測(cè)試樣本圖像和一個(gè)待匹配測(cè)試圖像的匹配結(jié)果,待測(cè)試樣本圖像和待匹配測(cè)試圖像可以是整張圖像,也可以是切塊后的圖像,在本方案中是切塊后的圖像。毛孔訓(xùn)練樣本的標(biāo)簽為已知的毛孔訓(xùn)練樣本中待測(cè)試樣本圖像和一個(gè)待匹配測(cè)試圖像的預(yù)定匹配結(jié)果。

      由此可見(jiàn),在本方案中目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)的參數(shù)在訓(xùn)練時(shí)已確定,在檢索時(shí)參數(shù)不會(huì)再改變,因此耗費(fèi)時(shí)間極少,同時(shí)深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)大的學(xué)習(xí)能力,能夠充分地學(xué)習(xí)到毛孔尺寸特征的信息,因此準(zhǔn)確度高。

      本發(fā)明實(shí)施例提供一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的s105做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,參見(jiàn)圖4,s105包括:

      s301,將一塊未匹配的人臉區(qū)域圖像塊與一塊未匹配的待匹配圖像塊用所述目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)得到第一特征描述子與第二特征描述子。

      具體地,在檢索時(shí),將人臉區(qū)域圖像塊和待匹配圖像塊送入神經(jīng)網(wǎng)絡(luò)中的目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò),得到每塊人臉區(qū)域圖像塊對(duì)應(yīng)的第一特征描述子與每塊待匹配圖像塊對(duì)應(yīng)的第二特征描述子。

      s302,利用所述目標(biāo)全連接層判斷所述第一特征描述子與所述第二特征描述子是否匹配,若是,則將匹配塊總數(shù)加一。

      具體地,將每一個(gè)第一特征描述子與對(duì)應(yīng)的第二特征描述子送入神經(jīng)網(wǎng)絡(luò)中的目標(biāo)全連接層,得到第一特征描述子與對(duì)應(yīng)的第二特征描述子的匹配結(jié)果,也就是判斷一個(gè)人臉區(qū)域圖像塊和對(duì)應(yīng)的待匹配圖像塊是否匹配,如果匹配,那么將匹配塊總數(shù)加一,匹配塊總數(shù)就是所有匹配成功的圖像塊的總數(shù),從0開(kāi)始,每匹配成功一次則匹配塊總數(shù)加一。

      s303,判斷人臉區(qū)域圖像塊與待匹配圖像塊是否都已進(jìn)行過(guò)匹配操作,若是,則停止匹配,若否,則返回s301。

      判斷灰度人臉圖像的人臉區(qū)域圖像塊與待匹配圖像塊是否均已進(jìn)行過(guò)匹配,如果都已進(jìn)行匹配,那么s302得到的匹配塊總數(shù)就是最終的匹配塊總數(shù),如果還有未進(jìn)行匹配的圖像塊,那么返回s301繼續(xù)匹配。

      本發(fā)明實(shí)施例提供一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的s102做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,s102包括:

      截取所述測(cè)試圖像的人臉部分圖像;

      將所述人臉部分圖像進(jìn)行灰度化處理得到灰度圖像;

      將所述灰度圖像縮放至預(yù)設(shè)尺寸,得到灰度人臉圖像。

      具體地,首先對(duì)測(cè)試圖像進(jìn)行人臉檢測(cè),定位人臉并截取出人臉部分圖像,對(duì)截取后的人臉部分圖像進(jìn)行灰度化處理,得到灰度圖像,根據(jù)檢索的環(huán)境,預(yù)設(shè)一個(gè)圖像尺寸,將灰度人臉圖像縮放至預(yù)設(shè)尺寸,進(jìn)行以上預(yù)處理后,就得到了灰度人臉圖像。

      本發(fā)明實(shí)施例提供一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的s103做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,s103包括:

      將所述灰度人臉圖像根據(jù)預(yù)設(shè)分塊尺寸不重疊的遍歷所述灰度人臉圖像,舍去多余邊緣得到多塊人臉區(qū)域圖像塊。

      具體地,設(shè)定一個(gè)圖像的分塊尺寸,根據(jù)這個(gè)尺寸不重疊地遍歷灰度人臉圖像,舍去多余的邊緣,就可以得到多塊人臉區(qū)域圖像塊。

      需要說(shuō)明的是,在s104中,需要將檢索庫(kù)中未經(jīng)過(guò)匹配的一張待匹配圖像遍歷分塊得到多塊待匹配區(qū)域圖像塊,這里的遍歷分塊可以用同樣的方法實(shí)現(xiàn),具體地:

      根據(jù)s103中的預(yù)設(shè)尺寸不重疊地遍歷待匹配圖像,舍去多余的邊緣,就可以得到多塊待匹配圖像塊。

      下面對(duì)本發(fā)明實(shí)施例提供一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索裝置進(jìn)行介紹,下文描述的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索裝置與上文描述的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法可以相互參照。

      參見(jiàn)圖5,本發(fā)明實(shí)施例提供的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索裝置,具體包括:

      神經(jīng)網(wǎng)絡(luò)獲取模塊401,用于利用毛孔訓(xùn)練樣本與基于l1范數(shù)的代價(jià)函數(shù)得到神經(jīng)網(wǎng)絡(luò)。

      具體地,在檢索前首先需要神經(jīng)網(wǎng)絡(luò)獲取模塊401根據(jù)毛孔訓(xùn)練樣本與基于l1范數(shù)的代價(jià)函數(shù)訓(xùn)練出神經(jīng)網(wǎng)絡(luò),需要說(shuō)明的是,在神經(jīng)網(wǎng)絡(luò)中有兩個(gè)小網(wǎng)絡(luò),一個(gè)是描述子生成網(wǎng)絡(luò),一個(gè)是全連接層。訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過(guò)程就是訓(xùn)練描述子生成網(wǎng)絡(luò)與全連接層,訓(xùn)練描述子生成網(wǎng)絡(luò)后會(huì)確定一個(gè)參數(shù),這個(gè)參數(shù)在每次檢索時(shí)都不會(huì)改變,每次檢索都是使用這個(gè)訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),因此耗時(shí)不會(huì)很長(zhǎng)。

      預(yù)處理模塊402,用于將測(cè)試圖像預(yù)處理得到灰度人臉圖像。

      具體地,在接收到用戶(hù)的人臉檢索觸發(fā)指令時(shí),預(yù)處理模塊402獲得用戶(hù)的人臉測(cè)試圖像,并將測(cè)試圖像進(jìn)行預(yù)處理,得到符合要求的灰度人臉圖像,以便匹配。

      第一分塊模塊403,用于將所述灰度人臉圖像遍歷分塊得到多塊人臉區(qū)域圖像塊。

      在本方案中,是將圖像分成多個(gè)小塊后分塊進(jìn)行匹配,因此,在匹配前還需要將會(huì)對(duì)灰度人臉圖像遍歷分塊,需要說(shuō)明的是,通過(guò)第一分塊模塊403遍歷分塊后得到的人臉區(qū)域圖像塊是不重疊的。

      第二分塊模塊404,用于將檢索庫(kù)中未經(jīng)過(guò)匹配的一張待匹配圖像遍歷分塊得到多塊待匹配區(qū)域圖像塊。

      具體地,在檢索庫(kù)中按順序找出一張沒(méi)有進(jìn)行檢測(cè)過(guò)的圖像作為待匹配圖像,用于與灰度人臉圖像進(jìn)行匹配,并通過(guò)第二分塊模塊404將這個(gè)圖像同樣遍歷分塊得到待匹配區(qū)域圖像塊。

      匹配模塊405,用于將所述人臉區(qū)域圖像塊與所述待匹配圖像塊利用所述神經(jīng)網(wǎng)絡(luò)進(jìn)行匹配,得到匹配塊總數(shù)。

      具體地,匹配模塊405將每塊人臉區(qū)域圖像塊與每塊待匹配圖像塊都送入神經(jīng)網(wǎng)絡(luò)中進(jìn)行匹配。需要說(shuō)明的是,這里的匹配是指逐塊匹配,每一塊人臉區(qū)域圖像塊與對(duì)應(yīng)的每一塊待匹配圖像塊進(jìn)行匹配,確定兩塊圖像是否是匹配的,然后統(tǒng)計(jì)出所有匹配成功的總塊數(shù)。

      判斷模塊406,用于判斷所述匹配塊總數(shù)是否大于等于預(yù)設(shè)閾值,若是,則將此次的待匹配圖像作為檢索結(jié)果,停止檢索,若否,則調(diào)用所述第二分塊模塊。

      具體地,判斷模塊406判斷匹配成功的總數(shù)是否大于等于一個(gè)預(yù)設(shè)的閾值,如果大于,那么說(shuō)明此次選擇的檢索庫(kù)中的待匹配圖像與測(cè)試圖像可以判定為同一人臉的圖像,則將這張圖像作為檢索結(jié)果,檢索完成。如果沒(méi)有大于這個(gè)閾值,那么需要調(diào)用第二分塊模塊404,繼續(xù)在檢索庫(kù)中選擇圖像并進(jìn)行匹配等操作,直至檢索到檢索結(jié)果。

      預(yù)設(shè)的閾值可以是所有塊圖像數(shù)量的4/5,也就是說(shuō)當(dāng)匹配塊總數(shù)大于等于所有塊圖像數(shù)量的4/5,則說(shuō)明這張圖像可以作為檢索結(jié)果。

      通過(guò)以上方案可知,本發(fā)明實(shí)施例提供的一種基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,神經(jīng)網(wǎng)絡(luò)獲取模塊401利用l1范數(shù)的代價(jià)函數(shù)與毛孔訓(xùn)練樣本可以得到神經(jīng)網(wǎng)絡(luò),通過(guò)神經(jīng)網(wǎng)絡(luò)在檢索庫(kù)中檢索與測(cè)試圖像匹配的圖像。由于基于li范數(shù)的代價(jià)函數(shù)得到的神經(jīng)網(wǎng)絡(luò)中的參數(shù)已經(jīng)確定,每次檢索時(shí)不會(huì)根據(jù)測(cè)試圖像不同重新定義參數(shù),因此檢索速度快,耗時(shí)很少,同時(shí),基于l1范數(shù)確定的神經(jīng)網(wǎng)絡(luò)為深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),因此有很強(qiáng)大的學(xué)習(xí)能力,能夠充分地學(xué)習(xí)到測(cè)試圖像特征信息,因此準(zhǔn)確度很高。

      本發(fā)明實(shí)施例提供了一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的神經(jīng)網(wǎng)絡(luò)獲取模塊401做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,神經(jīng)網(wǎng)絡(luò)獲取模塊401包括:

      初始特征描述子獲取單元501,用于將毛孔訓(xùn)練樣本輸入初始毛孔特征描述子生成網(wǎng)絡(luò),得到初始特征描述子。

      具體地,初始特征描述子獲取單元501將毛孔訓(xùn)練楊本輸入到初始毛孔特征描述子生成網(wǎng)絡(luò),經(jīng)過(guò)多層卷積、歸一操作,得到毛孔尺度的特征描述子。

      目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)訓(xùn)練單元502,用于利用初始特征描述子最小化基于l1范數(shù)的代價(jià)函數(shù),訓(xùn)練得到目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)。

      具體地,定義為lrn層(局部響應(yīng)歸一層)輸出的第一圖像分塊后的第i塊區(qū)域圖像的128維毛孔尺度特征描述子;為lrn層輸出的第二圖像分塊后的第i塊區(qū)域圖像的128維毛孔尺度特征描述子。

      定義基于l1范數(shù)的匹配對(duì)的特征描述子的距離||||1表示l1范數(shù)。

      定義特征描述子的列相似度行相似度則代價(jià)函數(shù)為

      需要說(shuō)明的是,第一圖像為待測(cè)試圖像,第二圖像為待匹配圖像。在測(cè)試樣本中,包括一個(gè)待測(cè)試樣本圖像和一個(gè)待匹配測(cè)試圖像。在利用神經(jīng)網(wǎng)絡(luò)進(jìn)行檢索時(shí),測(cè)試圖像為第一圖像,待匹配圖像為第二圖像。

      在訓(xùn)練過(guò)程中,會(huì)不斷地產(chǎn)生特征描述子,目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)訓(xùn)練單元502利用特征描述子以最小化代價(jià)函數(shù)為手段,確定出目標(biāo)特征描述子生成網(wǎng)絡(luò)的參數(shù),確定參數(shù)后,訓(xùn)練目標(biāo)特征描述子生成網(wǎng)絡(luò)完成。

      目標(biāo)全連接層訓(xùn)練單元503,用于利用初始全連接層得到所述初始特征描述子的匹配結(jié)果,利用所述匹配結(jié)果與毛孔訓(xùn)練樣本標(biāo)簽的差值,訓(xùn)練得到目標(biāo)全連接層,其中所述目標(biāo)全連接層與所述目標(biāo)特征描述子生成網(wǎng)絡(luò)組成神經(jīng)網(wǎng)絡(luò)。

      具體地,目標(biāo)全連接層訓(xùn)練單元503將初始特征描述子通過(guò)全連接層得到匹配結(jié)果,最小化匹配結(jié)果和毛孔訓(xùn)練樣本標(biāo)簽的差值,訓(xùn)練得到全連接層。

      需要說(shuō)明的是,匹配結(jié)果就是毛孔訓(xùn)練樣本中待測(cè)試樣本圖像和一個(gè)待匹配測(cè)試圖像的匹配結(jié)果,待測(cè)試樣本圖像和待匹配測(cè)試圖像可以是整張圖像,也可以是切塊后的圖像,在本方案中是切塊后的圖像。毛孔訓(xùn)練樣本的標(biāo)簽為已知的毛孔訓(xùn)練樣本中待測(cè)試樣本圖像和一個(gè)待匹配測(cè)試圖像的預(yù)定匹配結(jié)果。

      由此可見(jiàn),在本方案中目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)的參數(shù)在初始特征描述子獲取單元501訓(xùn)練時(shí)已確定,在檢索時(shí)參數(shù)不會(huì)再改變,因此耗費(fèi)時(shí)間極少,同時(shí)深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)具有很強(qiáng)大的學(xué)習(xí)能力,能夠充分地學(xué)習(xí)到毛孔尺寸特征的信息,因此準(zhǔn)確度高。

      本發(fā)明實(shí)施例提供一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的匹配模塊405做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,匹配模塊405包括:

      特征描述子獲取單元601,用于將一塊未匹配的人臉區(qū)域圖像塊與一塊未匹配的待匹配圖像塊用所述目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò)得到第一特征描述子與第二特征描述子。

      具體地,在檢索時(shí),特征描述子獲取單元601將人臉區(qū)域圖像塊和待匹配圖像塊送入神經(jīng)網(wǎng)絡(luò)中的目標(biāo)毛孔特征描述子生成網(wǎng)絡(luò),得到每塊人臉區(qū)域圖像塊對(duì)應(yīng)的第一特征描述子與每塊待匹配圖像塊對(duì)應(yīng)的第二特征描述子。

      匹配單元602,用于利用所述目標(biāo)全連接層判斷所述第一特征描述子與所述第二特征描述子是否匹配,若是,則將匹配塊總數(shù)加一。

      具體地,匹配單元602將每一個(gè)第一特征描述子與對(duì)應(yīng)的第二特征描述子送入神經(jīng)網(wǎng)絡(luò)中的目標(biāo)全連接層,得到第一特征描述子與對(duì)應(yīng)的第二特征描述子的匹配結(jié)果,也就是判斷一個(gè)人臉區(qū)域圖像塊和對(duì)應(yīng)的待匹配圖像塊是否匹配,如果匹配,那么將匹配塊總數(shù)加一,匹配塊總數(shù)就是所有匹配成功的圖像塊的總數(shù),從0開(kāi)始,每匹配成功一次則匹配塊總數(shù)加一。

      判斷單元603,用于判斷人臉區(qū)域圖像塊與待匹配圖像塊是否都已進(jìn)行過(guò)匹配操作,若是,則停止匹配,若否,則調(diào)用所述特征描述子獲取單元601。

      判斷單元603判斷灰度人臉圖像的人臉區(qū)域圖像塊與待匹配圖像塊是否均已進(jìn)行過(guò)匹配,如果都已進(jìn)行匹配,那么匹配單元602得到的匹配塊總數(shù)就是最終的匹配塊總數(shù),如果還有未進(jìn)行匹配的圖像塊,那么調(diào)用特征描述子獲取單元601繼續(xù)匹配。

      本發(fā)明實(shí)施例提供一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的預(yù)處理模塊402做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,預(yù)處理模塊402包括:

      測(cè)試圖像截取單元,用于截取所述測(cè)試圖像的人臉部分圖像;

      灰度化處理單元,用于將所述人臉部分圖像進(jìn)行灰度化處理得到灰度圖像;

      縮放單元,用于將所述灰度圖像縮放至預(yù)設(shè)尺寸,得到灰度人臉圖像。

      具體地,首先測(cè)試圖像截取單元對(duì)測(cè)試圖像進(jìn)行人臉檢測(cè),定位人臉并截取出人臉部分圖像,灰度化處理單元對(duì)截取后的人臉部分圖像進(jìn)行灰度化處理,得到灰度圖像,根據(jù)檢索的環(huán)境,預(yù)設(shè)一個(gè)圖像尺寸,縮放單元將灰度人臉圖像縮放至預(yù)設(shè)尺寸,進(jìn)行以上預(yù)處理后,就得到了灰度人臉圖像。

      本發(fā)明實(shí)施例提供一種具體的基于l1范數(shù)神經(jīng)網(wǎng)絡(luò)的人臉檢索方法,區(qū)別于上一實(shí)施例,本發(fā)明實(shí)施例對(duì)上一實(shí)施例中的第一分塊模塊403做了具體地限定說(shuō)明,其他內(nèi)容與上一實(shí)施例大致相同,具體內(nèi)容可以參照上一實(shí)施例,此處不再贅述,具體地,第一分塊模塊403具體用于:

      將所述灰度人臉圖像根據(jù)預(yù)設(shè)分塊尺寸不重疊的遍歷所述灰度人臉圖像,舍去多余邊緣得到多塊人臉區(qū)域圖像塊。

      具體地,第一分塊模塊403設(shè)定一個(gè)圖像的分塊尺寸,根據(jù)這個(gè)尺寸不重疊地遍歷灰度人臉圖像,舍去多余的邊緣,就可以得到多塊人臉區(qū)域圖像塊。

      需要說(shuō)明的是,在第二分塊模塊404中,需要將檢索庫(kù)中未經(jīng)過(guò)匹配的一張待匹配圖像遍歷分塊得到多塊待匹配區(qū)域圖像塊,這里的遍歷分塊可以用同樣的方法實(shí)現(xiàn),具體地:

      根據(jù)第一分塊模塊403的預(yù)設(shè)尺寸不重疊地遍歷待匹配圖像,舍去多余的邊緣,就可以得到多塊待匹配圖像塊。

      本說(shuō)明書(shū)中各個(gè)實(shí)施例采用遞進(jìn)的方式描述,每個(gè)實(shí)施例重點(diǎn)說(shuō)明的都是與其他實(shí)施例的不同之處,各個(gè)實(shí)施例之間相同相似部分互相參見(jiàn)即可。

      對(duì)所公開(kāi)的實(shí)施例的上述說(shuō)明,使本領(lǐng)域?qū)I(yè)技術(shù)人員能夠?qū)崿F(xiàn)或使用本發(fā)明。對(duì)這些實(shí)施例的多種修改對(duì)本領(lǐng)域的專(zhuān)業(yè)技術(shù)人員來(lái)說(shuō)將是顯而易見(jiàn)的,本文中所定義的一般原理可以在不脫離本發(fā)明的精神或范圍的情況下,在其它實(shí)施例中實(shí)現(xiàn)。因此,本發(fā)明將不會(huì)被限制于本文所示的這些實(shí)施例,而是要符合與本文所公開(kāi)的原理和新穎特點(diǎn)相一致的最寬的范圍。

      當(dāng)前第1頁(yè)1 2 
      網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
      • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1