国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      結合深度信息的人體皮膚識別方法及裝置和電子裝置與流程

      文檔序號:11654884閱讀:246來源:國知局
      結合深度信息的人體皮膚識別方法及裝置和電子裝置與流程

      本發(fā)明涉及圖像處理技術,尤其涉及一種結合深度信息的人體皮膚識別方法、人體皮膚識別裝置和電子裝置。



      背景技術:

      現(xiàn)有的人體皮膚識別方法通過尋找與人臉色彩相接近的區(qū)域進行人體皮膚的識別,可能將與人體皮膚顏色相近的其他物體識別為人體皮膚區(qū)域,影響人體皮膚區(qū)域識別的準確性。



      技術實現(xiàn)要素:

      本發(fā)明的實施例提供了一種結合深度信息的人體皮膚識別方法及裝置和電子裝置。

      本發(fā)明是實施方式的結合深度信息的人體皮膚識別方法,用于處理成像裝置采集的場景數(shù)據,所述人體皮膚識別方法包括以下步驟:

      處理所述場景數(shù)據以識別人臉區(qū)域;

      處理所述場景數(shù)據以獲取所述人臉區(qū)域的深度信息;

      根據所述人臉區(qū)域和所述深度信息確定人像區(qū)域;和

      處理所述人像區(qū)域以將所述人像區(qū)域中與所述人臉區(qū)域顏色相近的區(qū)域歸并為人體皮膚區(qū)域。

      本發(fā)明實施方式的結合深度信息的人體皮膚識別裝置,用于處理成像裝置采集的場景數(shù)據,所述人體皮膚識別裝置包括識別模塊、獲取模塊、確定模塊和歸并模塊。所述識別模塊用于處理所述場景數(shù)據以識別人臉區(qū)域;所述獲取模塊用于處理所述場景數(shù)據以獲取所述人臉區(qū)域的深度信息;所述確定模塊用于根據所述人臉區(qū)域和所述深度信息確定人像區(qū)域;所述歸并模塊用于處理所述人像區(qū)域以將所述人像區(qū)域中與所述人臉區(qū)域顏色相近的區(qū)域歸并為人體皮膚區(qū)域。

      本發(fā)明實施方式的電子裝置包括成像裝置和上述的人體皮膚識別裝置,所述人體皮膚識別裝置與所述成像裝置電連接。

      本發(fā)明實施方式的結合深度信息的人體皮膚識別方法、結合深度信息的人體皮膚識別裝置和電子裝置基于深度信息提取人像區(qū)域,并在人像區(qū)域中識別人體皮膚區(qū)域,避免出現(xiàn)對整幅圖像進行人體皮膚區(qū)域識別從而將與人體皮膚顏色相近的其他物體識別為人體區(qū)域的問題,提升人體皮膚區(qū)域識別的準確性。

      本發(fā)明的附加方面和優(yōu)點將在下面的描述中部分給出,部分將從下面的描述中變得明顯,或通過本發(fā)明的實踐了解到。

      附圖說明

      本發(fā)明的上述和/或附加的方面和優(yōu)點從結合下面附圖對實施方式的描述中將變得明顯和容易理解,其中:

      圖1是本發(fā)明實施方式的結合深度信息的人體皮膚識別方法的流程示意圖;

      圖2是本發(fā)明實施方式的電子裝置的功能模塊示意圖;

      圖3是本發(fā)明實施方式的結合深度信息的人體皮膚識別方法的狀態(tài)示意圖;

      圖4是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的流程示意圖;

      圖5是本發(fā)明某些實施方式的獲取模塊的功能模塊示意圖;

      圖6是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的流程示意圖;

      圖7是本發(fā)明某些實施方式的獲取模塊的功能模塊示意圖;

      圖8是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的流程示意圖;

      圖9是本發(fā)明某些實施方式的確定模塊的功能模塊示意圖;

      圖10是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的狀態(tài)示意圖;

      圖11是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的狀態(tài)示意圖;

      圖12是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的流程示意圖;

      圖13是本發(fā)明某些實施方式的歸并模塊的功能模塊示意圖;

      圖14是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的流程示意圖;

      圖15是本發(fā)明某些實施方式的電子裝置的功能模塊示意圖;和

      圖16是本發(fā)明某些實施方式的結合深度信息的人體皮膚識別方法的狀態(tài)示意圖。

      具體實施方式

      下面詳細描述本發(fā)明的實施方式,所述實施方式的示例在附圖中示出,其中自始至終相同或類似的標號表示相同或類似的元件或具有相同或類似功能的元件。下面通過參考附圖描述的實施方式是示例性的,僅用于解釋本發(fā)明,而不能理解為對本發(fā)明的限制。

      請一并參閱圖1至2,本發(fā)明實施方式的結合深度信息的人體皮膚識別方法用于處理成像裝置20采集的場景數(shù)據,人體皮膚識別方法包括以下步驟:

      s11:處理所述場景數(shù)據以識別人臉區(qū)域;

      s12:處理所述場景數(shù)據以獲取所述人臉區(qū)域的深度信息;

      s13:根據所述人臉區(qū)域和所述深度信息確定人像區(qū)域;和

      s14:處理所述人像區(qū)域以將所述人像區(qū)域中與所述人臉區(qū)域顏色相近的區(qū)域歸并為人體皮膚區(qū)域。

      本發(fā)明實施方式的結合深度信息的人體皮膚識別方法應用于本發(fā)明實施方式的人體皮膚識別裝置10。本發(fā)明實施方式的人體皮膚識別裝置10包括識別模塊11、獲取模塊12、確定模塊13和歸并模塊14。步驟s11可以由識別模塊11實現(xiàn),步驟s12可以由獲取模塊12實現(xiàn),步驟s13可以由確定模塊13實現(xiàn),步驟s14可以由歸并模塊14實現(xiàn)。

      也即是說,識別模塊11用于處理所述場景數(shù)據以識別人臉區(qū)域;獲取模塊12用于處理所述場景數(shù)據以獲取所述人臉區(qū)域的深度信息;確定模塊13用于根據所述人臉區(qū)域和所述深度信息確定人像區(qū)域;歸并模塊14用于處理所述人像區(qū)域以將所述人像區(qū)域中與所述人臉區(qū)域顏色相近的區(qū)域歸并為人體皮膚區(qū)域。

      本發(fā)明實施方式的人體皮膚識別裝置10可以應用于本發(fā)明實施方式的電子裝置100。也即是說本發(fā)明實施方式的電子裝置100包括本發(fā)明實施方式的人體皮膚識別裝置10。當然,本發(fā)明實施方式的電子裝置100還包括成像裝置20。其中,人體皮膚識別裝置10與成像裝置20電連接。

      在某些實施方式中,電子裝置100包括手機和/或平板電腦。在此不作任何限制。在本發(fā)明的具體實施例中,電子裝置100為手機。

      在識別人體皮膚區(qū)域時,一般對整幅圖像進行人體皮膚識別,找出與人臉皮膚顏色相近的區(qū)域,并將這些區(qū)域歸并為人體皮膚區(qū)域。但圖像中可能包含有與人臉皮膚顏色相近的其他物體,如黃色的桌子、褐色的大理石等。如此,會導致人體皮膚區(qū)域的識別不準確。

      請參閱圖3,在本發(fā)明的實施方式中,首先識別人臉區(qū)域,并根據人臉區(qū)域即人臉區(qū)域的深度信息確定人像區(qū)域,最終在人像區(qū)域中找出與人臉皮膚顏色相近的區(qū)域并將這些區(qū)域歸并為人體皮膚區(qū)域。如此,可以避免將與人臉皮膚顏色相近的其他物體歸并到人體皮膚區(qū)域中,提升人臉皮膚識別的準確性。此外,本發(fā)明實施方式的中的人像區(qū)域是基于深度信息進行提取的。由于深度信息的獲取不易受光照等外部環(huán)境因素的影響,因此提取得的人像區(qū)域的精度較高,可進一步提升人臉皮膚識別的準確性。

      較佳地,對于人臉區(qū)域識別過程,可以采用已訓練好的基于彩色信息和深度信息的深度學習模型檢測場景主圖像中是否存在人臉。深度學習模型在給定訓練集時,訓練集中的數(shù)據包括人臉的彩色信息和深度信息。因此,訓練過后的深度學習訓練模型可以根據當前場景的彩色信息和深度信息推斷當前場景中是否存在人臉區(qū)域。由于人臉區(qū)域的深度信息的獲取不易受光照等環(huán)境因素的影響,可以提升人臉檢測準確性。進一步地,根據人臉可確定基本位于同一深度的人像區(qū)域。

      請參閱圖4,在某些實施方式中,所述場景數(shù)據包括場景主圖像和與所述場景主圖像對應的深度圖像,步驟s12處理所述場景數(shù)據以獲取所述人臉區(qū)域的深度信息包括以下步驟:

      s121:處理所述深度圖像以獲取對應所述人臉區(qū)域的深度數(shù)據;和

      s122:處理所述深度數(shù)據以得到所述深度信息。

      請參閱圖5,在某些實施方式中,獲取模塊11包括第一處理單元111和第二處理單元112。步驟s111可以由第一處理單元111實現(xiàn),步驟s112可以由第二處理單元112實現(xiàn)。

      也即是說,第一處理單元111用于處理所述深度圖像以獲取對應所述人臉區(qū)域的深度數(shù)據;第二處理單元112用于處理所述深度數(shù)據以得到所述深度信息。

      可以理解,場景數(shù)據包括場景主圖像和與場景主圖像對應的深度圖像。其中,場景主圖像為rgb彩色圖像,深度圖像包含場景中各個人或物體的深度信息。由于場景主圖像的色彩信息與深度圖像的深度信息是一一對應的關系,因此,檢測到人臉區(qū)域后,即可在對應的深度圖像中獲取到人臉區(qū)域的深度信息。

      需要說明的是,由于人臉區(qū)域包括鼻子、眼睛、耳朵等特征,因此,在深度圖像中,人臉區(qū)域中鼻子、眼睛、耳朵等特征在深度圖像中所對應的深度數(shù)據是不同的,例如對于人臉正對成像裝置20的情況下所拍攝得的深度圖像中,鼻子對應的深度數(shù)據可能較小,而耳朵對應的深度數(shù)據可能較大。因此,在本發(fā)明的具體實施例中,處理人臉區(qū)域的深度數(shù)據得到的人臉區(qū)域深度信息可能為一個數(shù)值或一個數(shù)值范圍。其中,當人臉區(qū)域的深度信息為一個數(shù)值時,該數(shù)值可通過對人臉區(qū)域的深度數(shù)據取平均值得到,或通過對人臉區(qū)域的深度數(shù)據取中值得到。

      在某些實施方式中,成像裝置20包括深度攝像頭。深度攝像頭可用來獲取深度圖像。其中,深度攝像頭包括基于結構光深度測距的深度攝像頭和基于tof測距的深度攝像頭。

      具體地,結構光深度測距的深度攝像頭包括攝像頭和投射器。投射器將一定模式的光結構投射到當前待拍攝的場景中,在場景中的各個人或物體表面形成由該場景中的人或物調制后的光條三維圖像,再通過攝像頭探測上述的光條三維圖像即可獲得光條二維畸變圖像。光條的畸變程度取決于投射器與攝像頭之間的相對位置以及當前待拍攝場景中的各個人或物體表面的形廓或高度。由于深度攝像頭中的攝像頭和投射器之間的相對位置是一定的,因此,由畸變的二維光條圖像坐標便可重現(xiàn)場景中各個人或物體表面的三維輪廓,從而可以獲取深度信息。結構光深度測距具有較高的分辨率和測量精度,可以提升獲取的深度信息的精確度。

      基于tof(timeofflight)測距的深度攝像頭是通過傳感器記錄從發(fā)光單元發(fā)出的調制紅外光發(fā)射到物體,再從物體反射回來的相位變化,在一個波長的范圍內根據光速,可以實時的獲取整個場景深度距離。當前待拍攝的場景中各個人或物體所處的深度位置不一樣,因此調制紅外光從發(fā)出到接收所用時間是不同的,如此,便可獲取場景的深度信息。基于tof深度測距的深度攝像頭計算深度信息時不受被攝物表面的灰度和特征的影響,且可以快速地計算深度信息,具有很高的實時性。

      請參閱圖6,在某些實施方式中,所述場景數(shù)據包括場景主圖像和與所述場景主圖像對應的場景副圖像,步驟s12包括以下步驟:

      s123:處理所述場景主圖像和所述場景副圖像以獲取對應所述人臉區(qū)域的深度數(shù)據;和

      s124:處理所述深度數(shù)據以得到所述深度信息。

      請參閱圖7,在某些實施方式中,獲取模塊12包括第三處理單元123和第四處理單元124。步驟s123可以由第三處理單元123實現(xiàn),步驟s124可以由第四處理單元124實現(xiàn)。

      也即是說,第三處理單元123用于處理所述場景主圖像和所述場景副圖像以獲取對應所述人臉區(qū)域的深度數(shù)據;第四處理單元124用于處理所述深度數(shù)據以得到所述深度信息。

      在某些實施方式中,成像裝置20包括主攝像頭和副攝像頭。

      可以理解,深度信息可以通過雙目立體視覺測距的方法進行獲取,此時場景數(shù)據包括場景主圖像和場景副圖像。其中,場景主圖像由主攝像頭拍攝得到,場景副圖像由副攝像頭拍攝得到,且場景主圖像與場景副圖像均為rgb彩色圖像。在一些示例中,主攝像頭和副攝像頭可以是相同規(guī)格的兩個攝像頭,雙目立體視覺測距是運用兩個規(guī)格相同的攝像頭對同一場景從不同的位置成像以獲得場景的立體圖像對,再通過算法匹配出立體圖像對的響應想點,從而計算出視差,最后采用基于三角測量的方法恢復深度信息。在以下示例中,主攝像頭和副攝像頭可以是不用規(guī)格的攝像頭,主設想回頭用于獲取當前場景的彩色信息,副攝像頭用于記錄場景的深度數(shù)據。如此,通過對場景主圖像和場景副圖像這一立體圖像對進行匹配便可獲得人臉區(qū)域的深度數(shù)據。隨后,對正想人臉區(qū)域的深度數(shù)據進行處理獲得人臉區(qū)域的深度信息。由于人臉區(qū)域中包含多個特征,各個特征對應的深度數(shù)據可能不一樣,因此,人臉區(qū)域的深度信息可以為一個數(shù)值范圍;或者,可對深度信息進行求取平均值處理以得到人臉區(qū)域的深度信息,或取深度數(shù)據的中值以獲得人臉區(qū)域的深度信息。

      請參閱圖8,在某些實施方式中,步驟s13包括以下子步驟:

      s131:根據所述人臉區(qū)域確定預估人像區(qū)域;

      s132:根據所述人臉區(qū)域的深度信息確定所述人像區(qū)域的深度范圍;

      s133:根據所述人像區(qū)域的深度范圍確定與所述人臉區(qū)域連接且落入所述深度范圍的計算人像區(qū)域;

      s134:判斷所述計算人像區(qū)域與所述預估人像區(qū)域是否匹配;

      s135:在所述計算人像區(qū)域與所述預估人像區(qū)域匹配時確定所述計算人像區(qū)域為所述人像區(qū)域。

      請參閱圖9,在某些實施方式中,確定模塊13包括第一確定單元131、第二確定單元132、第三確定單元133、第一判斷單元134和第四確定單元135。步驟s131可以由第一確定單元131實現(xiàn),步驟s132可以由第二確定單元132實現(xiàn),步驟s133可以由第三確定單元133實現(xiàn),步驟s134可以由第一判斷單元134實現(xiàn),步驟s135可以由第四確定單元135實現(xiàn)。

      也即是說,第一確定單元131用于根據所述人臉區(qū)域確定預估人像區(qū)域;第二確定單元132用于根據所述人臉區(qū)域的深度信息確定所述人像區(qū)域的深度范圍;第三確定單元133用于根據所述人像區(qū)域的深度范圍確定與所述人臉區(qū)域連接且落入所述深度范圍的計算人像區(qū)域;第一判斷單元134用于判斷所述計算人像區(qū)域與所述預估人像區(qū)域是否匹配;第四確定單元135用于在所述計算人像區(qū)域與所述預估人像區(qū)域匹配時確定所述計算人像區(qū)域為所述人像區(qū)域。

      請參閱圖10,具體地,由于拍攝過程中的人像存在有多種行為姿勢,如站立、蹲坐等,因此,確定人臉區(qū)域后,首先根據人臉區(qū)域的當前狀態(tài)確定預估人像區(qū)域,也即是說,根據人臉區(qū)域的當前狀態(tài)確定人像當前的行為姿勢的信息。其中,預估人像區(qū)域為人像區(qū)域的匹配樣本庫,樣本庫中包含多種人像的行為姿勢信息。由于人像區(qū)域包含人臉區(qū)域,也即是說,人像區(qū)域與人臉區(qū)域同處于某一個深度范圍內,因此,確定人臉區(qū)域的深度信息后,可以根據人臉區(qū)域的深度信息設定人像區(qū)域的深度范圍,并根據人像區(qū)域的深度范圍提取落入該深度范圍內且與人臉區(qū)域相連接的計算人像區(qū)域。由于拍攝人像時人像所處的場景可能較為復雜,也即是說,與人像所處位置相鄰的位置上可能存在有其他物體并且這些物體與人體發(fā)生接觸,這些物體處于人像區(qū)域的深度范圍內,因此,計算人像區(qū)域的提取僅在人像區(qū)域的深度范圍內提取與人臉相連接的部分以去除其他落入人像區(qū)域的深度范圍內的物體。在確定計算人像區(qū)域后,需將計算人像區(qū)域與預估人像區(qū)域進行匹配,匹配成功則可將計算人像區(qū)域確定為人像區(qū)域。若匹配不成功,則表明計算人像區(qū)域中還可能包含有除人像外的其他物體,人像區(qū)域的識別失敗。

      在另一示例中,針對拍攝場景中較為復雜的情況,還可對計算得到人像進行區(qū)域劃分,并將面積較小的區(qū)域去除,可以理解,相對于人像區(qū)域,其他面積較小的區(qū)域可明顯確定為非人像,如此可排除與人像處于同一深度范圍內的其他物體的干擾。

      在某些實施方式中,對獲取的人像區(qū)域處理還包括以下步驟:

      處理場景主圖像的人像區(qū)域以得到彩色邊緣圖;

      處理場景主圖像的人像區(qū)域對應的深度信息以得到深度邊緣圖;和

      利用彩色邊緣圖和深度邊緣圖修正人像區(qū)域的邊緣。

      請參閱圖11,可以理解,由于彩色邊緣圖包含人像區(qū)域內部的邊緣信息,如服裝的邊緣信息等,而目前獲取的深度信息的精度有限,如在手指、頭發(fā)、衣領等邊緣存在些許誤差。如此,利用彩色邊緣圖和深度邊緣圖共同修正人像區(qū)域的邊緣一方面可以去除人像區(qū)域包含的人臉、服裝等部分的邊緣及細節(jié)信息,另一方面在手指、頭發(fā)、衣領等邊緣部分有更高的準確度,從而可以獲得較為準確的人像區(qū)域的外輪廓的邊緣信息。由于彩色邊緣圖及深度邊緣圖均只對人像區(qū)域部分對應的數(shù)據進行處理,因此所需處理的數(shù)據量較少,處理的速度較快。

      具體地,彩色邊緣圖可以通過邊緣檢測算法得到。邊緣檢測算法是通過對場景主圖像中人像區(qū)域所對應的圖像數(shù)據求微分以獲得具有階躍變化或屋頂變化的像素點的集合。常用的邊緣檢測算法那包括roberts算子、sobel算子、prewitt算子、canny算子、laplacian算子、log算子等。在一些示例中,可以采用上述的任一種邊緣檢測算法進行計算以獲得彩色邊緣圖,在此不做任何限制。

      進一步地,在深度邊緣圖的獲取過程中,由于只需要對人像區(qū)域對應的深度信息進行處理,因此,首先對獲得的人像區(qū)域進行膨脹處理,擴大人像區(qū)域以保留人像區(qū)域對應的深度信息中深度邊緣的細節(jié)。隨后,對膨脹處理后的人像區(qū)域對應的深度信息進行濾波處理,從而去除深度信息中攜帶的高頻噪聲,以用于平滑深度邊緣圖的邊緣細節(jié)。最后,將濾波后的數(shù)據轉換為灰度值數(shù)據,并對灰度數(shù)據進行線性邏輯回歸組合,再利用圖像邊緣概率密度算法對線性邏輯回歸組合以獲取深度邊緣圖。

      單一的彩色邊緣圖會保留人像內部區(qū)域的邊緣,而單一的深度邊緣圖存在些許誤差因此,需要通過深度邊緣圖去除彩色邊緣概率中人像內部邊緣,并通過彩色邊緣圖修正深度邊緣圖中外輪廓的精度。如此,利用深度邊緣圖和彩色邊緣圖修正所述人像區(qū)域的邊緣,可得到較為精準的人像區(qū)域。

      請參閱圖12,在某些實施方式中,步驟s14處理所述人像區(qū)域以將所述人像區(qū)域中與所述人臉區(qū)域顏色相近的區(qū)域歸并為人體皮膚區(qū)域包括以下子步驟:

      s141:處理所述人像區(qū)域以獲取所述人像區(qū)域的各個像素點的彩色數(shù)據;

      s142:判斷所述彩色數(shù)據是否落入預設范圍;和

      s143:將所有所述彩色數(shù)據落入所述預設范圍的對應的像素點歸并為所述人體皮膚區(qū)域。

      請參閱圖13,在某些實施方式中,歸并模塊14包括第五處理單元141、第二判斷單元142和歸并單元143。步驟s141可以由第五處理單元141實現(xiàn),步驟s142可以由第二判斷單元142實現(xiàn),步驟s143可以由歸并單元143實現(xiàn)。

      也即是說,第五處理單元141用于處理所述人像區(qū)域以獲取所述人像區(qū)域的各個像素點的彩色數(shù)據;第二判斷單元142用于判斷所述彩色數(shù)據是否落入預設范圍;歸并單元143用于將所有所述彩色數(shù)據落入所述預設范圍的對應的像素點歸并為所述人體皮膚區(qū)域。

      具體地,首先將rgb格式的場景主圖像中的人像區(qū)域圖像轉換為ycrcb格式的人像區(qū)域圖像,可以用以下公式進行轉換以計算人像區(qū)域圖像中各個像素點的在ycrcb彩色空間的彩色數(shù)據:y=0.299r+0.587g+0.114b,cr=0.500r+0.419g-0.081b+128,cb=-0.169r-0.331g+0.500b+128。在ycrcb格式的人像區(qū)域圖像中對各個像素點進行檢測。若像素點的彩色數(shù)據落入預設范圍,即133≤cr≤173及77≤cb≤127,則將這些像素點歸并為人體皮膚區(qū)域。

      如此,僅對人像區(qū)域進行人體皮膚區(qū)域的識別,可以去除其他與皮膚區(qū)域顏色相近的物體的干擾。此外可以識別出人像區(qū)域中所有的人體皮膚區(qū)域,包括臉部、頸部、手部等皮膚區(qū)域。

      請參閱圖14,本發(fā)明實施方式的人體皮膚識別方法還包括以下步驟:

      s15:對所述人體皮膚區(qū)域進行特殊效果處理。

      請參閱圖15,在某些實施方式中,人體皮膚識別裝置10還包括處理模塊15。步驟s15可以由處理模塊15實現(xiàn)。

      也即是說,處理模塊15用于對所述人體皮膚區(qū)域進行特殊效果處理。

      請參閱圖16,如此,可以對人體皮膚區(qū)域進行美白、磨皮等特殊效果處理,得到視覺效果較佳的圖像,提升用戶的使用體驗。

      本發(fā)明實施方式的電子裝置100還包括殼體、存儲器、電路板和電源電路。其中,電路板安置在殼體圍成的空間內部,處理器和存儲器設置在電路板上;電源電路用于為電子裝置100的各個電路或器件供電;存儲器用于存儲可執(zhí)行程序代碼;人體皮膚識別裝置10通過讀取存儲器中存儲的可執(zhí)行程序代碼來運行與可執(zhí)行程序代碼對應的程序以實現(xiàn)上述的本發(fā)明的任一實施方式的人體皮膚識別方法。

      在本說明書的描述中,參考術語“一個實施方式”、“一些實施方式”、“示意性實施方式”、“示例”、“具體示例”、或“一些示例”等的描述意指結合所述實施方式或示例描述的具體特征、結構、材料或者特點包含于本發(fā)明的至少一個實施方式或示例中。在本說明書中,對上述術語的示意性表述不一定指的是相同的實施方式或示例。而且,描述的具體特征、結構、材料或者特點可以在任何的一個或多個實施方式或示例中以合適的方式結合。

      流程圖中或在此以其他方式描述的任何過程或方法描述可以被理解為,表示包括一個或更多個用于實現(xiàn)特定邏輯功能或過程的步驟的可執(zhí)行指令的代碼的模塊、片段或部分,并且本發(fā)明的優(yōu)選實施方式的范圍包括另外的實現(xiàn),其中可以不按所示出或討論的順序,包括根據所涉及的功能按基本同時的方式或按相反的順序,來執(zhí)行功能,這應被本發(fā)明的實施例所屬技術領域的技術人員所理解。

      在流程圖中表示或在此以其他方式描述的邏輯和/或步驟,例如,可以被認為是用于實現(xiàn)邏輯功能的可執(zhí)行指令的定序列表,可以具體實現(xiàn)在任何計算機可讀介質中,以供指令執(zhí)行系統(tǒng)、裝置或設備(如基于計算機的系統(tǒng)、包括處理器的系統(tǒng)或其他可以從指令執(zhí)行系統(tǒng)、裝置或設備取指令并執(zhí)行指令的系統(tǒng))使用,或結合這些指令執(zhí)行系統(tǒng)、裝置或設備而使用。就本說明書而言,"計算機可讀介質"可以是任何可以包含、存儲、通信、傳播或傳輸程序以供指令執(zhí)行系統(tǒng)、裝置或設備或結合這些指令執(zhí)行系統(tǒng)、裝置或設備而使用的裝置。計算機可讀介質的更具體的示例(非窮盡性列表)包括以下:具有一個或多個布線的電連接部(電子裝置),便攜式計算機盤盒(磁裝置),隨機存取存儲器(ram),只讀存儲器(rom),可擦除可編輯只讀存儲器(eprom或閃速存儲器),光纖裝置,以及便攜式光盤只讀存儲器(cdrom)。另外,計算機可讀介質甚至可以是可在其上打印所述程序的紙或其他合適的介質,因為可以例如通過對紙或其他介質進行光學掃描,接著進行編輯、解譯或必要時以其他合適方式進行處理來以電子方式獲得所述程序,然后將其存儲在計算機存儲器中。

      應當理解,本發(fā)明的各部分可以用硬件、軟件、固件或它們的組合來實現(xiàn)。在上述實施方式中,多個步驟或方法可以用存儲在存儲器中且由合適的指令執(zhí)行系統(tǒng)執(zhí)行的軟件或固件來實現(xiàn)。例如,如果用硬件來實現(xiàn),和在另一實施方式中一樣,可用本領域公知的下列技術中的任一項或他們的組合來實現(xiàn):具有用于對數(shù)據信號實現(xiàn)邏輯功能的邏輯門電路的離散邏輯電路,具有合適的組合邏輯門電路的專用集成電路,可編程門陣列(pga),現(xiàn)場可編程門陣列(fpga)等。

      本技術領域的普通技術人員可以理解實現(xiàn)上述實施例方法攜帶的全部或部分步驟是可以通過程序來指令相關的硬件完成,所述的程序可以存儲于一種計算機可讀存儲介質中,該程序在執(zhí)行時,包括方法實施例的步驟之一或其組合。

      此外,在本發(fā)明各個實施例中的各功能單元可以集成在一個處理模塊中,也可以是各個單元單獨物理存在,也可以兩個或兩個以上單元集成在一個模塊中。上述集成的模塊既可以采用硬件的形式實現(xiàn),也可以采用軟件功能模塊的形式實現(xiàn)。所述集成的模塊如果以軟件功能模塊的形式實現(xiàn)并作為獨立的產品銷售或使用時,也可以存儲在一個計算機可讀取存儲介質中。

      上述提到的存儲介質可以是只讀存儲器,磁盤或光盤等。盡管上面已經示出和描述了本發(fā)明的實施方式,可以理解的是,上述實施方式是示例性的,不能理解為對本發(fā)明的限制,本領域的普通技術人員在本發(fā)明的范圍內可以對上述實施方式進行變化、修改、替換和變型。

      當前第1頁1 2 
      網友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1