技術(shù)領(lǐng)域
本發(fā)明涉及機(jī)器人技術(shù)領(lǐng)域,尤其涉及一種基于3D攝像頭機(jī)器人的人體跟隨方法及系統(tǒng)。
背景技術(shù):
隨著現(xiàn)有技術(shù)的迅速發(fā)展,機(jī)器人開始走進(jìn)老百姓的生活中,機(jī)器人的使用領(lǐng)域較為廣泛,以服務(wù)行業(yè)為例,機(jī)器人可從事餐飲、維護(hù)保養(yǎng)、修理、運(yùn)輸、清洗、救援或監(jiān)護(hù)等工作,能完成有益于人類健康的服務(wù)工作,給人民的生活帶來的極大的便利。
然而,現(xiàn)有的機(jī)器人普遍是通過語音喚醒的,如果他沒有聽到聲音,他就沒法感知周圍環(huán)境變化,不能做出合理的響應(yīng)。因此,視覺是對這種情景的必要補(bǔ)充,使得機(jī)器人能主動(dòng)感知沒有聲音的情景。
技術(shù)實(shí)現(xiàn)要素:
針對上述技術(shù)中存在的不足之處,本發(fā)明提供一種可跟隨人體、便于用戶與機(jī)器人及時(shí)交互的基于3D攝像頭機(jī)器人的人體跟隨方法及系統(tǒng)。
為了達(dá)到上述目的,本發(fā)明一種基于3D攝像頭機(jī)器人的人體跟隨方法,包括以下步驟:
步驟1,打開機(jī)器人電源,初始化機(jī)器人系統(tǒng);
步驟2,機(jī)器人系統(tǒng)驅(qū)動(dòng)3D攝像頭初始化;
步驟3,3D攝像頭開始進(jìn)行抓拍,若抓拍到物體,則執(zhí)行步驟4;若未抓拍到物體,則3D攝像頭繼續(xù)抓拍;
步驟4,3D攝像頭得到深度數(shù)據(jù)量和顏色數(shù)據(jù)量并發(fā)送給機(jī)器人;
步驟5,機(jī)器人根據(jù)深度數(shù)據(jù)量和顏色數(shù)據(jù)量計(jì)算分析得到物體的特征值,并通過物體的特征值判斷是人體或者是非人體,若判斷是人體,則執(zhí)行步驟6;若判斷為非人體,則返回執(zhí)行步驟3;
步驟6,機(jī)器人將人體的特征值和位置信息記錄下來,且3D攝像頭構(gòu)建周圍環(huán)境的空間坐標(biāo)系,并將該坐標(biāo)系映射到機(jī)器人的屏幕上;
步驟7,機(jī)器人根據(jù)空間坐標(biāo)與3D攝像頭映射到人體的點(diǎn)計(jì)算出人體中心坐標(biāo);
步驟8,機(jī)器人根據(jù)人體中心坐標(biāo)計(jì)算出與人體的距離,且根據(jù)距離決定跟隨人體的速度;
步驟9,機(jī)器人跟隨人體的同時(shí)掃描周圍環(huán)境,繪制地圖并保存地圖。
其中,所述步驟6記錄人體的特征值的具體過程為:
步驟61,將機(jī)器人檢測人體的特征值中的圖像數(shù)據(jù)進(jìn)行灰度化處理;
步驟62,采用Gamma校正法對輸入的圖像數(shù)據(jù)進(jìn)行顏色空間標(biāo)準(zhǔn)化;
步驟63,計(jì)算圖像數(shù)據(jù)中每個(gè)像素的梯度;
步驟64,將圖像數(shù)據(jù)劃分為多個(gè)cell;
步驟65,統(tǒng)計(jì)每個(gè)cell的梯度直方圖,形成每個(gè)cell的descriptor;
步驟66,將每幾個(gè)cell的梯度直方圖組成一個(gè)block,一個(gè)block內(nèi)的所有cell的特征descriptor串聯(lián)后得到該block的特征descriptor;
步驟67,將圖像數(shù)據(jù)內(nèi)所有block的特征descriptor串聯(lián)后得到該圖像的HOG特征descriptor,且該圖像的HOG特征descriptor供分類使用的特征向量。
其中,所述步驟5中,機(jī)器人的分析過程為:調(diào)用IPP數(shù)據(jù)庫和PCL數(shù)據(jù)庫,采用detect算法對深度數(shù)據(jù)量和顏色數(shù)據(jù)量進(jìn)行計(jì)算分析。
其中,所述步驟8中,機(jī)器人在跟隨人體的過程中保持常量距離。
其中,所述步驟3中,3D攝像頭的抓拍速度為每秒60幀。
其中,所述步驟64中,每個(gè)cell為6*6像素,所述步驟66中,一個(gè)block中有3*3個(gè)cell。
為了實(shí)現(xiàn)上述目的,本發(fā)明還提供一種基于3D攝像頭機(jī)器人的人體跟隨系統(tǒng),包括設(shè)置在機(jī)器人上的3D攝像頭、中央處理器和屏幕,所述3D攝像頭和屏幕均與中央處理器交互連接;
所述3D攝像頭抓拍到物體后,所述3D攝像頭得到深度數(shù)據(jù)量和顏色數(shù)據(jù)量,且所述3D攝像頭將深度數(shù)據(jù)量和顏色數(shù)據(jù)量發(fā)送給中央處理器處理,所述中央處理器根據(jù)深度數(shù)據(jù)量和顏色數(shù)據(jù)量計(jì)算分析得到物體的特征值,并通過物體的特征值判斷是人體或者是非人體,若判斷為非人體,則3D攝像頭繼續(xù)抓拍;若判斷是人體,則中央處理器記錄人體的特征值和位置信息,且3D攝像頭構(gòu)建周圍環(huán)境的空間坐標(biāo)系,并將該坐標(biāo)系映射到屏幕上,所述中央處理器根據(jù)空間坐標(biāo)與3D攝像頭映射到人體的點(diǎn)計(jì)算出人體中心坐標(biāo),所述中央處理器根據(jù)人體中心坐標(biāo)計(jì)算出與人體的距離,且根據(jù)距離決定跟隨人體的速度。
其中,所述3D攝像頭的抓拍速度為每秒60幀。
本發(fā)明的有益效果是:
與現(xiàn)有技術(shù)相比,本發(fā)明的基于3D攝像頭機(jī)器人的人體跟隨方法,能夠使機(jī)器人不斷主動(dòng)監(jiān)測周圍的環(huán)境,根據(jù)3D攝像頭獲取到的物體特征值進(jìn)行分析判斷,若抓拍到人體,則記錄人體的特征值和位置信息,并計(jì)算人體中心坐標(biāo)與人體之間的距離,且根據(jù)機(jī)器人與人體之間的距離而決定跟隨人體的速度,保證機(jī)器人與人體之間的常量間距,從而實(shí)現(xiàn)對人體的拍照跟隨,用戶走到哪里,機(jī)器人就跟隨到哪里,方便用戶及時(shí)與機(jī)器人交互,使得機(jī)器人從被動(dòng)與人交互轉(zhuǎn)換為主動(dòng)與人交互,可以增強(qiáng)娛樂性,主動(dòng)監(jiān)測周圍環(huán)境,增強(qiáng)對周圍環(huán)境感知能力,為機(jī)器人應(yīng)用提供良好的體驗(yàn)。本發(fā)明的基于3D攝像頭機(jī)器人的人體跟隨方法使得機(jī)器人更加智能化,能更好的為用戶服務(wù)。
附圖說明
圖1為本發(fā)明基于3D攝像頭機(jī)器人的人體跟隨方法的方框流程圖;
圖2為本發(fā)明基于3D攝像頭機(jī)器人的人體跟隨方法中步驟6的方框流程圖;
圖3為本發(fā)明基于3D攝像頭機(jī)器人的人體跟隨系統(tǒng)的方框示意圖。
主要元件符合說明如下:
1、3D攝像頭 2、中央處理器
3、屏幕。
具體實(shí)施方式
為了更清楚地表述本發(fā)明,下面結(jié)合附圖對本發(fā)明作進(jìn)一步地描述。
參閱圖1-3,本發(fā)明一種基于3D攝像頭機(jī)器人的人體跟隨方法,包括以下步驟:
步驟S1,打開機(jī)器人電源,初始化機(jī)器人系統(tǒng);
步驟S2,機(jī)器人系統(tǒng)驅(qū)動(dòng)3D攝像頭初始化;
步驟S3,3D攝像頭開始進(jìn)行抓拍,若抓拍到物體,則執(zhí)行步驟S4;若未抓拍到物體,則3D攝像頭繼續(xù)抓拍;
步驟S4,3D攝像頭得到深度數(shù)據(jù)量和顏色數(shù)據(jù)量并發(fā)送給機(jī)器人;
步驟S5,機(jī)器人根據(jù)深度數(shù)據(jù)量和顏色數(shù)據(jù)量計(jì)算分析得到物體的特征值,并通過物體的特征值判斷是人體或者是非人體,若判斷是人體,則執(zhí)行步驟S6;若判斷為非人體,則返回執(zhí)行步驟S3;
步驟S6,機(jī)器人將人體的特征值和位置信息記錄下來,且3D攝像頭構(gòu)建周圍環(huán)境的空間坐標(biāo)系,并將該坐標(biāo)系映射到機(jī)器人的屏幕上;
步驟S7,機(jī)器人根據(jù)空間坐標(biāo)與3D攝像頭映射到人體的點(diǎn)計(jì)算出人體中心坐標(biāo);
步驟S8,機(jī)器人根據(jù)人體中心坐標(biāo)計(jì)算出與人體的距離,且根據(jù)距離決定跟隨人體的速度;
步驟S9,機(jī)器人跟隨人體的同時(shí)掃描周圍環(huán)境,繪制地圖并保存地圖。
與現(xiàn)有技術(shù)相比,本發(fā)明的基于3D攝像頭機(jī)器人的人體跟隨方法,能夠使機(jī)器人不斷主動(dòng)監(jiān)測周圍的環(huán)境,根據(jù)3D攝像頭獲取到的物體特征值進(jìn)行分析判斷,若抓拍到人體,則記錄人體的特征值和位置信息,并計(jì)算人體中心坐標(biāo)與人體之間的距離,且根據(jù)機(jī)器人與人體之間的距離而決定跟隨人體的速度,保證機(jī)器人與人體之間的常量間距,從而實(shí)現(xiàn)對人體的拍照跟隨,用戶走到哪里,機(jī)器人就跟隨到哪里,方便用戶及時(shí)與機(jī)器人交互,使得機(jī)器人從被動(dòng)與人交互轉(zhuǎn)換為主動(dòng)與人交互,可以增強(qiáng)娛樂性,主動(dòng)監(jiān)測周圍環(huán)境,增強(qiáng)對周圍環(huán)境感知能力,為機(jī)器人應(yīng)用提供良好的體驗(yàn)。本發(fā)明的基于3D攝像頭機(jī)器人的人體跟隨方法使得機(jī)器人更加智能化,能更好的為用戶服務(wù)。
本實(shí)施例中,步驟S6記錄人體的特征值的具體過程為:
步驟S61,將機(jī)器人檢測人體的特征值中的圖像數(shù)據(jù)進(jìn)行灰度化處理;
步驟S62,采用Gamma校正法對輸入的圖像數(shù)據(jù)進(jìn)行顏色空間標(biāo)準(zhǔn)化;Gamma校正法用于調(diào)節(jié)圖像的對比度,降低圖像局部的陰影和光照變化造成的影響,同時(shí)可以抑制噪音的干擾;
步驟S63,計(jì)算圖像數(shù)據(jù)中每個(gè)像素的梯度;該步驟是為了捕獲輪廓信息,同時(shí)進(jìn)一步弱化光照的干擾;
步驟S64,將圖像數(shù)據(jù)劃分為多個(gè)cell;其中,cell為單元;
步驟S65,統(tǒng)計(jì)每個(gè)cell的梯度直方圖,形成每個(gè)cell的descriptor;其中,descriptor為描述符;
步驟S66,將每幾個(gè)cell的梯度直方圖組成一個(gè)block,一個(gè)block內(nèi)的所有cell的特征descriptor串聯(lián)后得到該block的特征descriptor;其中,block為塊;
步驟S67,將圖像數(shù)據(jù)內(nèi)所有block的特征descriptor串聯(lián)后得到該圖像的HOG特征descriptor,且該圖像的HOG特征descriptor供分類使用的特征向量。
Gamma校正法即伽瑪校正,為Gamma Correction,是對圖象的伽瑪曲線進(jìn)行編輯,以對圖象進(jìn)行非線性色調(diào)編輯的方法。所謂伽瑪校正就是對圖像的伽瑪曲線進(jìn)行編輯,以對圖像進(jìn)行非線性色調(diào)編輯的方法,檢出圖像信號(hào)中的深色部分和淺色部分,并使兩者比例增大,從而提高圖像對比度效果;
HOG,為Histogram of Oriented Gradient的縮寫,譯為方向梯度直方圖,HOG特征是一種在計(jì)算機(jī)視覺和圖像處理中用來進(jìn)行物體檢測的特征描述子,通過計(jì)算和統(tǒng)計(jì)圖像局部區(qū)域的梯度方向直方圖來構(gòu)成特征,HOG特征結(jié)合SVM分類器已經(jīng)被廣泛應(yīng)用于圖像識(shí)別中,尤其在行人檢測中獲得了極大的成功。
本實(shí)施例中,步驟S5中,機(jī)器人的分析過程為:調(diào)用IPP數(shù)據(jù)庫和PCL數(shù)據(jù)庫,采用detect算法對深度數(shù)據(jù)量和顏色數(shù)據(jù)量進(jìn)行計(jì)算分析。IPP數(shù)據(jù)庫是指intel performance libiariy,為英特爾性能數(shù)據(jù)庫;PCL數(shù)據(jù)庫是指point clouds library ,為點(diǎn)云數(shù)據(jù)庫;detect算法為現(xiàn)有技術(shù)中識(shí)別人體特征的一個(gè)算法,在得到人體的color值和depth值后,color值即顏色數(shù)據(jù)量,depth值即深度數(shù)據(jù)量,是通過color值和depth值計(jì)算而得出人體的特征值的一種算法。
本實(shí)施例中,步驟S8中,機(jī)器人在跟隨人體的過程中保持常量距離。常量距離為機(jī)器人中可設(shè)置的人體與機(jī)器人的間距,保證安全,避免機(jī)器人與用戶的距離過近或過遠(yuǎn),避免交互不便。
本實(shí)施例中,步驟S3中,3D攝像頭的抓拍速度為每秒60幀。當(dāng)然,本案中并不局限于60幀每秒的抓拍速度,也可以是其他的速度,只要能保持抓拍人體的抓拍速度即可。
本實(shí)施例中,步驟S64中,每個(gè)cell為6*6像素,步驟S66中,一個(gè)block中有3*3個(gè)cell。當(dāng)然,本案中并不局限于6*6像素的cell,也可以是其他像素,一個(gè)block中并不局限于3*3個(gè)cell,只要能保證人體的特征值有效記錄即可。
本案中,步驟S7的機(jī)器人根據(jù)空間坐標(biāo)與3D攝像頭映射到人體的點(diǎn)計(jì)算出人體中心坐標(biāo)為現(xiàn)有技術(shù)中的計(jì)算方法,只要能根據(jù)空間坐標(biāo)與3D攝像頭映射到人體的點(diǎn)計(jì)算出人體中心坐標(biāo)的方法均可為本案的計(jì)算方法。
請參閱圖3,為了實(shí)現(xiàn)上述目的,本發(fā)明還提供一種基于3D攝像頭機(jī)器人的人體跟隨系統(tǒng),包括設(shè)置在機(jī)器人上的3D攝像1、中央處理器2和屏幕3,3D攝像頭1和屏幕3均與中央處理器2交互連接;
3D攝像頭1抓拍到物體后,3D攝像頭1得到深度數(shù)據(jù)量和顏色數(shù)據(jù)量,且3D攝像頭1將深度數(shù)據(jù)量和顏色數(shù)據(jù)量發(fā)送給中央處理器2處理,中央處理器2根據(jù)深度數(shù)據(jù)量和顏色數(shù)據(jù)量計(jì)算分析得到物體的特征值,并通過物體的特征值判斷是人體或者是非人體,若判斷為非人體,則3D攝像頭1繼續(xù)抓拍;若判斷是人體,則中央處理器2記錄人體的特征值和位置信息,且3D攝像頭1構(gòu)建周圍環(huán)境的空間坐標(biāo)系,并將該坐標(biāo)系映射到屏幕3上,中央處理器2根據(jù)空間坐標(biāo)與3D攝像頭1映射到人體的點(diǎn)計(jì)算出人體中心坐標(biāo),中央處理器2根據(jù)人體中心坐標(biāo)計(jì)算出與人體的距離,且根據(jù)距離決定跟隨人體的速度。
本實(shí)施例中,3D攝像頭1的抓拍速度為每秒60幀。
本發(fā)明的優(yōu)勢在于:
與現(xiàn)有技術(shù)相比,本發(fā)明的基于3D攝像頭機(jī)器人的人體跟隨系統(tǒng),3D攝像頭1不斷主動(dòng)監(jiān)測周圍的環(huán)境,根據(jù)3D攝像頭獲取到的物體特征值進(jìn)行分析判斷,若抓拍到人體,則中央處理器2記錄人體的特征值和位置信息,并計(jì)算人體中心坐標(biāo)與人體之間的距離,且根據(jù)機(jī)器人與人體之間的距離而決定跟隨人體的速度,保證機(jī)器人與人體之間的常量間距,從而實(shí)現(xiàn)對人體的拍照跟隨,用戶走到哪里,機(jī)器人就跟隨到哪里,方便用戶及時(shí)與機(jī)器人交互,使得機(jī)器人從被動(dòng)與人交互轉(zhuǎn)換為主動(dòng)與人交互,可以增強(qiáng)娛樂性,主動(dòng)監(jiān)測周圍環(huán)境,增強(qiáng)對周圍環(huán)境感知能力,為機(jī)器人應(yīng)用提供良好的體驗(yàn)。本發(fā)明的基于3D攝像頭機(jī)器人的人體跟隨系統(tǒng)使得機(jī)器人更加智能化,能更好的為用戶服務(wù)。
以上公開的僅為本發(fā)明的幾個(gè)具體實(shí)施例,但是本發(fā)明并非局限于此,任何本領(lǐng)域的技術(shù)人員能思之的變化都應(yīng)落入本發(fā)明的保護(hù)范圍。