本發(fā)明涉及一種基于全景視覺成像系統(tǒng)的移動機器人室內(nèi)快速歸航的方法,屬于移動機器人視覺歸航領(lǐng)域。
背景技術(shù):
移動機器人的導(dǎo)航問題是機器人研究領(lǐng)域中的一項重要的研究熱點,其中,視覺歸航(visualhoming)則是控制機器人到達預(yù)計目標的一種有效手段。與傳統(tǒng)的機器人同時定位與地圖構(gòu)建(slam)不同,視覺歸航并不需要對機器人所在環(huán)境構(gòu)建地圖,而是直接獲得機器人在當前位置處的歸航向量,即可使機器人到達預(yù)先設(shè)計好的位置,從而在保證精度的前提下,大幅度地降低了運算成本。
視覺歸航需要利用全景視覺成像系統(tǒng),由于全景視覺可以獲得360°的全方位視場,因此在采用全景視覺成像系統(tǒng)獲得全景圖像時,更多的特征點可以被利用到,再加上視覺系統(tǒng)本身所具有的價格低廉,構(gòu)圖直觀等優(yōu)勢,因此視覺歸航可以作為機器人局部導(dǎo)航領(lǐng)域中一個非常有效而且高效的手段。
技術(shù)實現(xiàn)要素:
本發(fā)明的目的是為了提供一種基于全景視覺成像系統(tǒng)的移動機器人室內(nèi)快速歸航的方法,實現(xiàn)了在動態(tài)室內(nèi)環(huán)境下的機器人歸航功能。
本發(fā)明的目的是這樣實現(xiàn)的:步驟一:通過搭載在移動機器人上的全景視覺成像系統(tǒng)來獲得全景圖像,使移動機器人自行檢測全景圖像中的無效區(qū)域并去除;
步驟二:對傳統(tǒng)的sift匹配算法進行改進,增加sift特征點匹配數(shù)量;
步驟三:根據(jù)改進后的sift匹配算法得到匹配對,依據(jù)每對匹配對的相應(yīng)位置與尺度信息,判斷自然路標與當前位置/目標位置的相對距離,從而對自然路標進行分類,并獲得歸航向量。
本發(fā)明還包括這樣一些結(jié)構(gòu)特征:
1.步驟一具體為:
(1)將全景視覺成像系統(tǒng)搭載在移動機器人上,控制移動機器人到達指定位置,拍攝當前位置和目標位置的全景圖像;
(2)將兩幅圖像的相同位置的像素值進行做差運算,當機器人識別出有較大連通區(qū)域的像素差值為0時,自行判斷該區(qū)域為無效區(qū)域;
(3)當判斷完成后,分別將目標圖像與當前圖像的無效區(qū)域像素全部設(shè)置為255,將無效區(qū)域置黑。
2.步驟二具體為:
(1)使用去除無效區(qū)域后所剩余的圓環(huán)型圖像進行匹配;
(2)增大sift匹配過程中的高斯金字塔層數(shù)與組數(shù),從而增大了關(guān)鍵點檢測基數(shù);
(3)在保證匹配精度始終保持較高水平的前提下,降低圖像特征點匹配閾值,實現(xiàn)sift特征點總數(shù)量的增加。
3.步驟三具體為:
(1)根據(jù)改進后的sift匹配算法,將目標圖像與當前圖像進行sift匹配,獲得匹配對,每個匹配對由目標圖像與當前圖像的sift匹配點構(gòu)成,每個匹配點均帶有尺度值信息;
(2)對每個匹配對,比較目標圖像與當前圖像中兩個sift特征點的尺度值,若目標圖像中的sift特征點尺度值較大,則將該點記作收縮特征;反之,若目標圖像中的sift特征點尺度值較小,則將該點記作擴張?zhí)卣?,將當前圖像中的特征點被分為了收縮特征與擴張?zhí)卣鲀深悾?/p>
(3)利用svm支持向量機對當前圖像中的兩類匹配點進行svm大間距二值線性分類,將收縮特征與擴張?zhí)卣鞣譃閮蓚€部分,并得到線性決策邊界;
(4)畫出一條與決策邊界相互垂直的向量,其中向量的方向為由擴張?zhí)卣鞑糠种赶蚴湛s特征部分,該向量即為最終的歸航向量。
與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果是:本發(fā)明利用改進的sift特征點匹配算法,提取機器人當前位置和目標位置全景圖像中的匹配點作為自然路標,并根據(jù)路標在兩幅圖像中的尺度值差異來判斷路標距離當前位置與目標位置的相對差異,從而獲得歸航向量。
本發(fā)明涉及的方法解決了移動機器人在室內(nèi)環(huán)境中的快速歸航問題,通過比對機器人在當前位置與目標位置處的兩幅全景圖像,結(jié)合改進的sift算法,對于機器人局部導(dǎo)航問題具有重要的借鑒意義,也可以直接應(yīng)用到諸如工業(yè)機器人、服務(wù)型機器人的領(lǐng)域中。
具體是通過搭載在移動機器人上的全景視覺成像系統(tǒng)來獲得全景圖像,根據(jù)全景視覺成像系統(tǒng)的成像特點,通過指令使移動機器人自行檢測全景圖像中的無效區(qū)域并去除,從而提高了匹配精度;對傳統(tǒng)的sift匹配算法進行改進,在保證匹配精度的前提下,增加sift特征點匹配數(shù)量,從而提高精度,更利于獲得歸航向量;根據(jù)每對sift特征匹配對的相應(yīng)位置與尺度信息,判斷自然路標與當前位置/目標位置的相對距離,從而對自然路標進行分類,并獲得歸航向量。
附圖說明
圖1是本發(fā)明中基于sift算法實現(xiàn)自然路標提取與匹配的示例;
圖2是本發(fā)明中改進的sift特征提取與匹配的算法流程圖;
圖3是本發(fā)明的系統(tǒng)流程圖。
具體實施方式
下面結(jié)合附圖與具體實施方式對本發(fā)明作進一步詳細描述。
基于全景視覺成像系統(tǒng)的移動機器人室內(nèi)快速歸航方法,通過利用改進的sift特征檢測與匹配手段,分別對當前位置與目標位置處的全景圖像進行sift匹配,從而獲得自然路標,并結(jié)合svm手段得到當前位置下機器人的歸航向量。其中:
(1)利用全景成像視覺傳感器,預(yù)先記錄目標位置處的全景圖像。在實現(xiàn)機器人歸航的過程中,通過不斷比對機器人當前位置與目標位置處的全景圖像,同時驅(qū)動機器人自行識別全景圖像中的無效區(qū)域,獲得高質(zhì)量的自然路標,并結(jié)合歸航算法使機器人得到當前位置的歸航向量;
(2)在利用基于改進的sift特征檢測與匹配手段來獲得自然路標后,設(shè)計的路標具有光照、旋轉(zhuǎn)等不變性,并且在保證匹配精度較高的條件下,增加特征點匹配數(shù)量,提高最終所得歸航向量的精度;
(3)根據(jù)sift特征點檢測過程中sift特征點的尺度與拍攝位置到該特征點所代表的自然路標的直線距離關(guān)系,來通過兩幅圖像中sift的尺度差值對當前圖像中的所有sift特征點進行分類,并利用svm大間距線性分類器對兩類sift特征點進行線性分類,從而直接獲得歸航向量,控制機器人逐漸向目標位置移動。
所述獲取全景圖像并自行去除無效區(qū)域的方法具體為:
(1)將全景視覺成像系統(tǒng)搭載在移動機器人上,控制移動機器人到達指定位置,拍攝當前位置和目標位置的全景圖像;
(2)將兩幅圖像的相同位置的像素值進行做差運算,當機器人識別出有較大連通區(qū)域的像素差值為0時,自行判斷該區(qū)域為無效區(qū)域(即全景系統(tǒng)遮擋區(qū)域以及墻面、天花板等識別度極低的區(qū)域);
(3)當區(qū)域判斷完成后,分別將目標圖像與當前圖像的無效區(qū)域像素全部設(shè)置為255,即將無效區(qū)域置黑,從而進行進一步的sift匹配。
所述改進的sift特征匹配算法具體為:
(1)人為設(shè)置圖像檢測區(qū)域,去除掉原始全景圖像中邊緣區(qū)域以及全景系統(tǒng)遮擋區(qū)域,從而增大了有效匹配區(qū)域占比,提高了自然路標的品質(zhì);
(2)增大sift匹配過程中的高斯金字塔層數(shù)與組數(shù),從而增大了關(guān)鍵點檢測基數(shù),最終獲得的sift特征點也隨之增多,尺度信息也隨著高斯金字塔的擴大而更豐富化,并與此同時保證了匹配準確性;
(3)在保證匹配精度始終保持較高水平的前提下,適當降低圖像特征點匹配閾值,從而增加sift特征點總數(shù)量。
所述利用特征點尺度信息來實現(xiàn)歸航的方法具體為:
(1)將目標圖像與當前圖像進行sift匹配,獲得匹配對,即每個匹配對由目標圖像與當前圖像的sift匹配點構(gòu)成,每個匹配點均帶有尺度值信息;
(2)對每個匹配對,比較目標圖像與當前圖像中兩個sift特征點的尺度值,若目標圖像中的sift特征點尺度值較大,則將該點記作收縮特征;反之,若目標圖像中的sift特征點尺度值較小,則將該點記作擴張?zhí)卣?。故在當前圖像中,特征點被分為了收縮特征與擴張?zhí)卣鲀深悺?/p>
(3)利用svm支持向量機對當前圖像中的兩類匹配點進行svm大間距二值線性分類,將收縮特征與擴張?zhí)卣鞣譃閮蓚€部分,并得到線性決策邊界;
(4)畫出一條與決策邊界相互垂直的向量,其中向量的方向為由擴張?zhí)卣鞑糠种赶蚴湛s特征部分。該向量即為最終的歸航向量。
下面結(jié)合附圖對本發(fā)明的實施例進行描述:
(1)基于sift算法實現(xiàn)路標提取與匹配
選取室內(nèi)中的某一位置作為目標位置,即機器人通過自我歸航預(yù)計到達的位置,記為s位置(snapshot),然后將全景視覺成像系統(tǒng)搭載在移動機器人上,拍攝s位置處的全景目標圖像is并保存。
當機器人室內(nèi)某一位置向預(yù)設(shè)的目標位置進行歸航任務(wù)時,記當前機器人位置為c位置(current),并拍攝當前位置下的全景圖像ic。獲得兩幅全景圖像后,利用sift算法分別對兩幅圖像進行特征提取,獲得特征點后再對兩幅圖像進行匹配,獲得匹配對
(2)改進的sift特征點提取與匹配的算法
圖2是本發(fā)明中改進的sift特征提取與匹配的算法流程圖。當利用搭載在移動機器人上的全景視覺成像系統(tǒng)獲得目標位置與當前位置的兩幅全景圖像is、ic后,利用改進后的sift特征點提取與匹配算法對兩幅圖像的穩(wěn)健特征點進行匹配。
首先,根據(jù)全景圖像的尺寸與成像特點,自行設(shè)計檢測區(qū)域,將圖像中的邊緣區(qū)域以及移動機器人系統(tǒng)的遮擋區(qū)域置黑,設(shè)置移動機器人遮擋區(qū)域半徑為n,邊緣有效區(qū)域外環(huán)半徑為m,則在干擾部分去除后,剩余的有效部分為一個內(nèi)環(huán)半徑為n,外環(huán)半徑為m的圓環(huán)。
然后,根據(jù)sift特征檢測與匹配算法的特點,為了獲得關(guān)鍵點,需要對原始圖像進行多次的高斯模糊與降采樣,得到不同尺度的圖像組。即為高斯金字塔,因此本發(fā)明在其基礎(chǔ)上,人為地增大sift匹配過程中的高斯金字塔的層數(shù)s與組數(shù)o,從而增大了關(guān)鍵點的檢測數(shù)量,并使得特征點的尺度信息更豐富化。
最后,適當降低圖像特征點的peakthreshold匹配閾值,使在保證匹配精度的前提下,適當提高特征點總數(shù)量。
(3)利用特征點尺度信息來實現(xiàn)移動機器人歸航的方法
圖3為本發(fā)明的系統(tǒng)流程圖。在利用改進的sift特征提取與匹配算法后,得到多個帶有尺度信息的sift匹配對。根據(jù)高斯模糊的性質(zhì),當拍攝位置與sift特征點所代表的實際位置的距離越大時,sift算法需要用更大尺度的高斯模糊對圖像進行處理才能將該sift特征點檢測出來,因此將匹配對中的兩個匹配點的尺度信息進行比較,可以推斷出該匹配點所代表的實際位置與目標位置/當前位置的距離關(guān)系。因此對任意一個sift匹配對
若δσk>0,則說明移動機器人當前位置c到該匹配對
根據(jù)幾何學的知識,我們可以輕易地判斷,如果作出c位置與s位置的垂直平分線將當前圖像切割成兩部分,理論上靠近c位置一側(cè)的特征點應(yīng)均為擴張?zhí)卣鼽c,靠近s位置一側(cè)的特征點應(yīng)均為收縮特征點。因此利用svm支持向量機,以收縮特征與擴張?zhí)卣髯鳛橛柧殬颖?,采取大間隔二值線性分類手段,將訓練樣本進行二值分類,并獲得線性決策邊界:
ωx+b=0
最后,畫出一條與該線性決策邊界向垂直的一條向量
綜上,本發(fā)明設(shè)計了一種基于自然路標的移動機器人室內(nèi)快速歸航的方法,包括機器人當前位置與目標位置的全景圖像獲取與自動檢測優(yōu)化、自然特征匹配手段以及機器人歸航算法。針對一般機器人導(dǎo)航手段運算量較大的問題,采用機器人視覺歸航方法,通過計算機器人目標位置到當前位置的運動向量,省略了機器人建圖、定位等具有較大計算量的過程,并通過自行比對圖像差異獲得無效區(qū)域的手段,提出一種獲得高質(zhì)量全景圓環(huán)的方法;針對復(fù)雜的動態(tài)環(huán)境問題,采用改進的圖像特征提取手段提取自然路標,從而在保證匹配精度的同時,增大匹配點基數(shù);根據(jù)特征匹配手段中的尺度信息與性質(zhì),并引入機器學習中的分類手段,提出了一種高魯棒性的歸航算法。本發(fā)明實現(xiàn)了移動機器人室內(nèi)局部歸航,適用于動態(tài)環(huán)境下機器人的導(dǎo)航任務(wù),并可以廣泛的應(yīng)用于家庭型或工業(yè)型的服務(wù)機器人局部導(dǎo)航中,較高的精確性與較好的快速性使得移動機器人可以很好地完成歸航任務(wù)。