專利名稱:一種基于一般物體識別的機器人視覺導航方法
技術(shù)領(lǐng)域:
本發(fā)明屬于人工智能技術(shù)領(lǐng)域,特別涉及一種基于一般物體識別的機器人視覺導航方法。
背景技術(shù):
隨著科技的進步和社會的發(fā)展,目前越來越多的智能移動機器人走進人們的日常生活,諸如家政服務(wù)機器人、伴侶機器人等將會逐漸代替人類去做繁瑣重復的事情。在移動機器人技術(shù)的研究中,導航是其研究關(guān)鍵技術(shù)之一,其研究目標是在沒有人的干預(yù)下,使機器人有目的地移動到目標區(qū)域,以便進行特定操作,完成特定任務(wù)。在移動機器人導航控制理論和方法的研究中,確定性環(huán)境的導航控制方法已經(jīng)取得大量的研究和應(yīng)用成果。對未知環(huán)境中移動機器人導航也展開ー些研究,并提出了若干方法,但并沒有形成統(tǒng)ー和完善的體系,還有許多關(guān)鍵理論和技術(shù)有待解決和完善。這些問題主要包括環(huán)境建模、定位、導
航控制器的學習和優(yōu)化、故障診斷、在線運動規(guī)劃和控制。機器人的導航問題可以歸結(jié)為“我在哪”、“我要去哪”及“我如何到達那里”這三個問題。機器人為了完成導航任務(wù),必須解決如下四個問題運動控制(Motion Control)、地圖構(gòu)建(World Modeling)、路徑規(guī)劃(Planning)和定位(Localization)。其中路徑規(guī)劃和機器人自身的位置定位是機器人導航的基礎(chǔ)和關(guān)鍵環(huán)節(jié)。移動機器人的路徑規(guī)劃可以分為基于地圖的全局路徑規(guī)劃和基于機器人自身攜帯傳感器的局部路徑規(guī)劃。對于環(huán)境已知條件下的離線全局規(guī)劃方法,現(xiàn)在已經(jīng)有很多的研究成果?;跈C器人自身攜帯傳感器的局部路徑規(guī)劃是實現(xiàn)移動機器人在未知環(huán)境中導航的重要技術(shù),也是移動機器人導航研究領(lǐng)域的研究熱點。類比于人類在未知環(huán)境中的問路方式,李新德、吳雪建等人在“一種基于手繪地圖的動態(tài)環(huán)境視覺導航方法”(李新德、吳雪建、朱博、戴先中.一種基于手繪地圖的動態(tài)環(huán)境視覺導航方法[J].機器人,2011,33 (4) =490-501.)提出了手繪地圖的動態(tài)環(huán)境視覺導航方法,該方法通過手繪地圖的方式,給出機器人起始、終止信息,以及在行進過程中遇到的標志性參照物的大體相對位置關(guān)系,不需要對現(xiàn)實環(huán)境進行精確測量,只需要目測大概方位和距離即可方便快捷地對陌生環(huán)境進行處理。由于室內(nèi)環(huán)境具有多祥性和可變性,如果事先將攝像機要捜索的目標物自身的確切圖像信息告訴機器人,讓機器人在行進過程中進行匹配識別,當環(huán)境發(fā)生變化時,還需要重新把目標物的信息指定給機器人,這樣會很大限制機器人導航方法的適用性。為了解決在變化環(huán)境中一般物體識別問題,有人在自然物體表面人為的添加一些標志物,比如紅色或者緑色的紙片,通過讓機器人捜索事前粘貼的標簽來尋找自然物體,該方法表面上是尋找到了自然物體,但該方法的本質(zhì)是對人為定義的標簽進行識別的過程,因此并不滿足在真實環(huán)境中對一般物體識別,此外,物體表面添加標簽也改變了物體的真實外觀。并且在實際應(yīng)用中圖像處理過程中運算量大從而會影響移動機器人實時性。
發(fā)明內(nèi)容
發(fā)明目的針對上述現(xiàn)有技術(shù)存在的問題和不足,本發(fā)明的目的是提供一種基于一般物體識別的機器人視覺導航方法,解決在室內(nèi)未知環(huán)境中機器人的自主導航問題。技術(shù)方案為實現(xiàn)上述發(fā)明目的,本發(fā)明米用的技術(shù)方案為ー種基于一般物體識別的機器人視覺導航方法,包括如下步驟(I)繪制實際環(huán)境的手繪地圖;(2)機載攝像機讀入實際環(huán)境的圖片;(3)運用判別函數(shù)對讀入的圖片進行判決,識別自然路標; (4)機器人通過傳感器測量識別的自然路標和機器人的位置關(guān)系,完成自定位。
進ー步的,所述步驟(I)中,手繪地圖呈現(xiàn)給機器人的信息包括機器人的起始點和方向,路徑的起點和終點,起點和終點之間的大概實際物理距離,機器人從起點到終點過程中會遇到的關(guān)鍵路標的大體位置;將機器人引導到關(guān)鍵路標附近,然后向著下一個關(guān)鍵路標運行。進ー步的,所述步驟(2)還包括①建立視覺詞庫進行圖片的特征點檢測,生成各類物體的視覺詞庫;②圖像預(yù)處理將待檢測圖片中的每ー個特征點與視覺詞庫中的每ー個視覺單詞進行相似性計算,若特征點與相應(yīng)視覺單詞的誤差不大于設(shè)定的閾值,認為該特征點是構(gòu)成目標物體的特征點;③用一個多維向量描述預(yù)處理后的圖像。更進一歩的,所述步驟①中,還包括對視覺詞庫中的視覺單詞進行聚類分析的步驟。更進一歩的,所述步驟②中,還包括運用隨機抽樣一致性算法處理背景上的干擾點的步驟。更進一歩的,所述步驟③中,多維向量中的元素的性質(zhì)包括對視覺單詞本身數(shù)量的描述和視覺單詞空間關(guān)系描述,其中對視覺單詞本身數(shù)量的描述指視覺單詞庫中視覺單詞出現(xiàn)的次數(shù),視覺單詞空間關(guān)系描述指用每個視覺單詞相對于物體幾何中心距離特征與角度特征來描述每個視覺單詞的位置特征。進ー步的,所述步驟(3)中的判別函數(shù)由離線訓練得出。進ー步的,所述特征點檢測和描述采用GPU加速圖像處理。進ー步的,所述傳感器為聲納傳感器。有益效果本發(fā)明提出一種新的一般物體識別方法,解決在未知環(huán)境中機器人的自主導航問題。不僅解決了在變化環(huán)境中一般物體識別問題,并且不改變物體的真實外觀,還能夠消減背景環(huán)境對一般物體識別過程的影響。針對圖像處理過程中運算量大從而影響移動機器人實時性的問題,引入GPU加速來提升系統(tǒng)處理速度。最后通過模仿人類問路方式,利用手繪地圖、一般物體識別方法和GPU加速處理進行機器人導航運行。本發(fā)明所提出的方法對機器人在復雜多變的真實環(huán)境中實現(xiàn)智能導航有重要意義,其實時性和對環(huán)境的魯棒性可以促進家政服務(wù)機器人順利走進人類的生活。
圖I為機器人導航的流程圖;圖2為真實實驗室環(huán)境的照片;圖3為圖2的平面圖;,圖4為手繪地圖;圖5為一般物體識別的流程圖;圖6為圖片上的特征點; 7(al),(a2),(bl),(b2),(cl),(c2)分別為不同目標特征點提取處理前(尾數(shù)為I)后(尾數(shù)為2)的效果圖;
圖8為特征點的空間位置圖;圖9為硬件設(shè)備信息流向圖;圖10為三次實驗中識別出來的不同物體,左側(cè)圖片為第一次實驗物體,中間圖片為第二次實驗物體,右側(cè)圖片為第三次實驗物體;圖11為實驗一手繪路徑和三次實驗機器人行走的路徑圖;圖12為更改機器人行進路線后的導航線路圖,圖中的1、2、3、4、5標志為路標;圖13為實驗二手繪路徑和機器人行走的路徑圖;圖14為實驗三手繪路徑和三次實驗機器人行走的路徑圖;圖15為實驗四手繪路徑和三次實驗機器人行走的路徑圖。
具體實施例方式下面結(jié)合附圖和具體實施例,進ー步闡明本發(fā)明,應(yīng)理解這些實施例僅用于說明本發(fā)明而不用于限制本發(fā)明的范圍,在閱讀了本發(fā)明之后,本領(lǐng)域技術(shù)人員對本發(fā)明的各種等價形式的修改均落于本申請所附權(quán)利要求所限定的范圍。本發(fā)明的目的是為了解決在室內(nèi)未知環(huán)境中機器人的自主導航問題。路徑規(guī)劃是機器人導航的基礎(chǔ)和關(guān)鍵環(huán)節(jié),一般路徑規(guī)劃可分為基于地圖的全局路徑規(guī)劃和基于機器人自身攜帯傳感器的局部路徑規(guī)劃。對于環(huán)境已知條件下的離線全局規(guī)劃方法,現(xiàn)在已經(jīng)有很多的研究成果,基于機器人自身攜帯傳感器的局部路徑規(guī)劃是實現(xiàn)移動機器人在未知環(huán)境中導航的重要技術(shù),也是移動機器人導航研究領(lǐng)域的研究熱點。本發(fā)明運用機器人自身攜帯的視覺傳感器來識別環(huán)境中的自然路標,在手繪地圖的幫助下完成機器人在未知環(huán)境中的自主導航。本發(fā)明提出了ー種新奇的一般物體識別方法,采用統(tǒng)計的思想,在圖像描述環(huán)節(jié),把一幅圖片包含的局部特征點信息抽象映轉(zhuǎn)換成一個多維行向量(XtlX1X2...
xp^xp^xp^yoyiy;,......yQ-3yQ-2yQ-i),其中前P維為出現(xiàn)在該圖片中特征部件的統(tǒng)計信息,
后Q維為這些特征部件之間的空間關(guān)系統(tǒng)計信息。利用SIFT (Scale-invariant featuretransform,尺度不變特征轉(zhuǎn)換)檢測算子進行特征向量描述,充分考慮和利用物體部件空間關(guān)系的統(tǒng)計信息來描述一幅圖片中所有特征點的空間(相對距離和角度)關(guān)系。為了消減背景環(huán)境對一般物體識別過程的影響,在對每一幅圖像描述之前,對其所含有的特征點進行閾值處理。在此基礎(chǔ)上,采用隨機抽樣一致,進ー步濾除背景上的特征點。與此同時考慮到SIFT特征提取與描述的實時性,采用基于CUDA(Compute Unified DeviceArchitecture,統(tǒng)ー計算設(shè)備架構(gòu))平臺的GPU加速技術(shù)來實現(xiàn)。然后,在手繪地圖輔助導航的基礎(chǔ)上,將該方法成功的應(yīng)用到室內(nèi)移動機器人導航上。本發(fā)明所提出的方法對機器人在復雜多變的真實環(huán)境中實現(xiàn)智能導航有重要意義,其實時性和對環(huán)境的魯棒性可以促進家政服務(wù)機器人順利走進人類的生活。機器人完整導航框架如圖I所示,首先在手繪地圖交互界面繪制出機器人導航的手繪地圖,離線訓練出一般物體的判別函數(shù),機器人在導航過程中利用得到的判別函數(shù)對現(xiàn)實中的一般物體進行識別,在聲納的輔助下機器人通過對路標的識別完成自定位,考慮到機器人導航的實時性問題,在圖像處理過程中使用基于CUDA平臺的GPU進行加速處理。最后的實驗結(jié)果驗證本發(fā)明的可行性和魯棒性。I、手繪地圖的特點與表示相對于米制地圖、拓撲地圖,手繪地圖可以更加靈活的應(yīng)用于多變的室內(nèi)環(huán)境。設(shè)計了基于自然路標識別的手繪地圖導航。地圖的繪制遵循以下原則根據(jù)參考目標在實際環(huán)境中所處的大體位置,在繪圖面板中對應(yīng)的大致位置手繪其輪廓,并標注其語義信息;根 據(jù)機器人在實際地圖中的概略位置和方向,在手繪地圖中對應(yīng)位置繪制它,并同時確定路徑的起點,然后繪制路徑和目標點。手繪地圖與實際環(huán)境地圖之間存在“松散”的映射關(guān)系。這是因為環(huán)境的精確大小無法獲知,地圖也沒有精確的比例尺,所以手工繪制的路徑無法表示機器人要走的精確路線。另ー方面,繪制的路徑對機器人起到的只是指引作用,機器人導航的最終目的是到達目標區(qū)域,因此機器人沒有必要完全按照指定路徑運行。手繪地圖的優(yōu)勢在于不需要很精確的將環(huán)境信息傳遞給機器人,地圖所要呈現(xiàn)給機器人的信息機器人的起始點和方向,路徑的起點和終點,起點和終點之間的大概實際物理距離,從起點到終點過程中會遇到的關(guān)鍵路標的大體位置。圖2是真實環(huán)境照片,圖3為其平面圖,圖4為手繪地圖。由以上3幅圖分析手繪地圖與實際環(huán)境的映射關(guān)系。將圖3所代表的實際環(huán)境Mreal表述為
Jz(大小,位1),5(大小,位a),D(大小,位置)j -—レ(目標,位置范圍),及(位置方向) JL(0表示導航設(shè)置的自然路標;S(0表示在導航過程中不適宜作為自然路標的障礙物,比如很長的柜子;D( )表示在機器人行進的過程中環(huán)境中的動態(tài)物體;T( )表示目標或者任務(wù)作業(yè)區(qū)域;R(0表示機器人的初始位姿。圖4手繪地圖Msk6tdl可以表述
為Kk-={LU}其中r表示自然路標しい)在手繪地圖中的概略位置,即存在映射關(guān)系
#包含路徑的起始點S、終點D以及路徑線路圖,該路徑圖不是機器人走的實際路徑或者真實路徑,而只是指引移動機器人沿該路徑的大致趨勢行走。友表示機器人的初始概略位姿。從所繪路徑的延伸趨勢出發(fā),將原始路徑分成幾段,每段都有ー個關(guān)鍵引導點,將機器人引導到關(guān)鍵引導點附近,然后向著下一個關(guān)鍵引導點運行。為了便于控制機器人,關(guān)鍵引導點間的運動采用直線運行方式,這樣可以有效地避免機器人頻繁旋轉(zhuǎn)所帶來的累積誤差。機器人在已知環(huán)境的大概信息的條件下,在前進過程中,通過尋找路途中環(huán)境路標進行自身定位。2、導航過程中自然路標的識別及判別函數(shù)的求取如圖I所示,機器人導航過程中ー個重要環(huán)節(jié)是對現(xiàn)實環(huán)境中自然路標的識別從而完成自身的定位。在機器人實際導航過程中是根據(jù)離線訓練出的一般物體判決函數(shù)來對讀入攝像機的圖片進行識別。下面詳細闡述一般物體的識別過程以及判別函數(shù)的求取過程。通常情況下,圖像目標物都有自己本身所特有的外觀特征,人類的視覺系統(tǒng)在判斷某種物體的時候,很大程度上是根據(jù)該物體所表現(xiàn)出來的外觀特征描述,結(jié)合自己的先驗知識將圖像目標特征抽象到一定程度,形成該物體的高度語義特征。當人類在看到以前并未見過的物體吋,也可以通過自己的先驗知識對其進行分析和判斷。遵循人類識別一般物體的過程,設(shè)計如下一般室內(nèi)物體識別方法。圖5為一般物體的識別框架圖,最后,通過運用支持向量機SVM得出某類物體的判別函數(shù)。 2. I、建立視覺詞庫本發(fā)明提出的一般物體識別是基于統(tǒng)計的思想,第一步是建立某類物體的視覺單T^rI o大衛(wèi).勞伊教授提出的SIFT檢測子在特征檢測方面有很好的表現(xiàn),該算法滿足對圖像旋轉(zhuǎn)、縮放、平移不變的特性,本發(fā)明運用SIFT進行圖片的特征點檢測。由于用大量圖片直接生成的視覺單詞數(shù)量很多,并且ー些視覺單詞用SIFT描述子表述以后很相近,所以接下來要對視覺詞庫中的視覺單詞進行聚類分析。K均值聚類是常用的聚類方法,本發(fā)明運用K均值聚類實現(xiàn)對圖片特征的聚類分析。經(jīng)過此環(huán)節(jié),每類物體的視覺單詞庫建立完成,每個視覺單詞為(簡稱“單詞”)經(jīng)過K均值聚類后的SIFT算法檢測出來的128特征描述向量。2. 2、圖像預(yù)處理本環(huán)節(jié)的目的是消減背景環(huán)境對后期圖像識別的負面影響?,F(xiàn)在已經(jīng)得出某類物體的視覺詞庫,在描述一幅待檢測的圖片之前,現(xiàn)將待檢測圖片中的每ー個特征點與詞庫中的每ー個單詞進行相似性計算,在滿足一定閾值的情況下,認為該特征點是構(gòu)成目標物體的特征點。假設(shè)經(jīng)過相似性運算,圖片上的特征點個數(shù)由X個縮減至T個,如圖6所示,想要的是黑色方框中的目標物,但是背景上還有ー些干擾點。為了減少這些干擾點對后續(xù)圖像描述的負面影響,利用特征點分布的密度特點,運用RANSAC(RANdom SAmple Consensus,隨機抽樣一致性算法)來處理。為簡便和通用性起見,用一個圓形區(qū)域來覆蓋特征點分布密集的那部分區(qū)域。圖7是不同目標特征點提取處理前后的效果。由實驗結(jié)果可見,經(jīng)過處理后的特征點大部分都集中在物體上,更能貼近實際的描述物體,為后續(xù)的圖像描述做了很好的準備工作。2. 3、圖像的描述本環(huán)節(jié)的目的是設(shè)計某種表達方式來抽象圖片。借鑒BOW對圖片特征的描述,用一個多維向量來描述圖像。描述向量元素的性質(zhì)分為兩類,一類為對單詞本身數(shù)量的描述,一類是對單詞的空間關(guān)系的描述。I)對單詞本身數(shù)量的描述視覺單詞庫中視覺單詞出現(xiàn)的次數(shù)。例如在實驗中,
單詞表有P個單詞,貝1J這類物體的視覺單詞向量維數(shù)為P維,(XtlX1X2......Xp^Xp^)姆ー維
數(shù)字的大小代表的是該單詞出現(xiàn)的次數(shù)。2)視覺單詞空間關(guān)系描述每個視覺單詞的位置描述可以用每個視覺單詞相對于物體幾何中心距離與角度兩個特征來描述。具體描述如下假設(shè)經(jīng)過2. 2節(jié)的處理,特征點新的幾何中心為(X,乃)=丄fI,其中m為處理后特征點的個數(shù),幾何中心如圖8中的圓心所示。圓心周圍的標志物為物體上的特征點,以右上角的正五邊形為例,它相對應(yīng)幾何中心的距離為L,角度為0。對于距離計算每一個特征點與幾何中心(Xl,Y1)的歐式距離,
(L1, L2, L3,......Lm+ Lm),取中值作為單位長度L,其他長度按照各自長度與L的比值劃分 為0 0. 5L, 0. 5L L, L I. 5L, I. 5L MAX四個區(qū)間。對于角度任意選擇ー個特征點,計算其他所有點與該點相對于中心點的夾角。通過簡單的數(shù)學變換,得到每ー個點所對應(yīng)的角度(Q1, 02) Q3……匕-ェ,e J,考慮到每ー個e角度不會很大,故將e的區(qū)間劃分為如下O。 30° 30° 60° ,60° 90° ,90° 12O。, 120° MAX這五個區(qū)間。2. 4、求取某類物體的判別函數(shù)在機器人實際導航過程中,機載攝像機不斷讀入現(xiàn)實環(huán)境的圖片,運用離線訓練得出的判別函數(shù)對讀入的圖片進行判決,本環(huán)節(jié)將介紹判別函數(shù)的求取。分類器是進行模式分類的常用手段,支持向量機分類器具有對小樣本下推廣能力強的優(yōu)勢,受到較高關(guān)注。支持向量機通過在特征空間中找到ー個滿足最大間隔的超平面實現(xiàn)兩類數(shù)據(jù)劃分。對ー個變量X,以及所屬類別標簽Y= ±1,通過分類函數(shù)來實現(xiàn)模式學習和分類。本發(fā)明選擇線性支持向量機,對圖像庫的視覺單詞直方圖集合進行監(jiān)瞀訓練。在訓練過程中,用含用目標物體的圖片作為正的圖片輸入,此時Y= I ;不含有目標物體作為負的圖片輸入,此時Y =-I。由此可以離線訓練出對一般物體判別的支持向量機函數(shù),有了判別函數(shù),機器人可以據(jù)此在行進過程中對自然路標進行識別,從而完成自身定位。3、導航過程中機器人自身粗定位在第I小節(jié)有關(guān)手繪地圖的介紹中給出手繪地圖包含的信息目標的像素位置,機器人的初始像素位置以及起點至終點的大致直線距離。將手繪地圖信息和機器人自身配備的傳感器對真實世界的感知結(jié)合起來,可以完成機器人自身的粗定位。在繪制機器人導航路徑過程中,提取k+1的關(guān)鍵點,將一條手繪地圖路徑劃分為k個部分,姆一段表示為從結(jié)點IV1到Iii的直線//, ,//,(/ = 1,2,...,/0 ,機器人起始位置為A ^ nQ。路面打滑等因素會造成機器人本身里程計信息的誤差,機器人需要根據(jù)間的實際行走路程LA更新比例尺mi+1。路程//ハ的初始比例尺IH1由公式⑴給出,其中(1( , )代表的是第一個結(jié)點與最后ー個結(jié)點之間的實際距離,d’ (n0, nk)代表的是手繪地圖中第一個結(jié)點與最后ー個結(jié)點之間的像素距離。假設(shè)某一時刻機器人沿G行走并觀察到Iii附近的自然路標Li,此刻機器人與Li之間的粗略米制距離由式(2)計算,其中!■代表機器人在手繪地圖中的當前位置,IV1表示機器人到達Iv1結(jié)點后經(jīng)過自定位獲得的位置,d’表示手繪地圖中的相對像素距離,Hii代表“的這段路程的地圖比例尺,t為像素距離閾值,d’ (r, Li)代表的是手繪地圖中機器人當前的位置與自然路標Li之間的像素距離,d’(IVpni)代表的是在手繪地圖中機器人上一次自定位的位置與第Hi個結(jié)點之間像素距離,(Kiv1, r,)代表的是機器人上一次自定位的位置IV1到機器人本次自定位的位置巧的實際距離,d’(I^rv1)代表的是手繪地圖中機器人當前的位置與上ー個自然路標IV1之間的像素距離,s(r,Li)代表的意義是機器人自身攜帯的聲納傳感器測得的當前機器人與自然路標Iii之間的距離。到達目地結(jié)點Iii后,由公式(3)更新機器人自定位后的實際位置r,_,&代表的是由機器人上一次自定位的位置IV1到機器人本次自定位的位置巧的向量,^代表的是由機器人上一次自定位的位置IV1到自然路標Li的向量,^代表是由自然路標Li到機器人本次自定位的位置A的向量,最后用公式⑷更新地圖的比例尺mi+1,其中Hii代表的是上一次的比例尺,d’(IVpni)代表手繪地圖中機器人上一次自定位的位置IV1與結(jié)點Iii之間的像素距離,代表的是機器人上一次自定位的位置IV1與機器人本次自定位的位置A之間的距離。
權(quán)利要求
1.一種基于一般物體識別的機器人視覺導航方法,包括如下步驟 (1)繪制實際環(huán)境的手繪地圖; (2)機載攝像機讀入實際環(huán)境的圖片; (3)運用判別函數(shù)對讀入的圖片進行判決,識別自然路標; (4)機器人通過傳感器測量識別的自然路標和機器人的位置關(guān)系,完成自定位。
2.根據(jù)權(quán)利要求I所述基于一般物體識別的機器人視覺導航方法,其特征在于所述步驟(I)中,手繪地圖呈現(xiàn)給機器人的信息包括機器人的起始點和方向,路徑的起點和終點,起點和終點之間的大概實際物理距離,機器人從起點到終點過程中會遇到的關(guān)鍵路標的大體位置;將機器人引導到關(guān)鍵路標附近,然后向著下一個關(guān)鍵路標運行。
3.根據(jù)權(quán)利要求I所述一種基于一般物體識別的機器人視覺導航方法,其特征在于所述步驟(2)還包括 ①建立視覺詞庫進行圖片的特征點檢測,生成各類物體的視覺詞庫; ②圖像預(yù)處理將待檢測圖片中的每一個特征點與視覺詞庫中的每一個視覺單詞進行相似性計算,若特征點與相應(yīng)視覺單詞的誤差不大于設(shè)定的閾值,認為該特征點是構(gòu)成目標物體的特征點; ③用一個多維向量描述預(yù)處理后的圖像。
4.根據(jù)權(quán)利要求3所述一種基于一般物體識別的機器人視覺導航方法,其特征在于所述步驟①中,還包括對視覺詞庫中的視覺單詞進行聚類分析的步驟。
5.根據(jù)權(quán)利要求3所述一種基于一般物體識別的機器人視覺導航方法,其特征在于所述步驟②中,還包括運用隨機抽樣一致性算法處理背景上的干擾點的步驟。
6.根據(jù)權(quán)利要求3所述一種基于一般物體識別的機器人視覺導航方法,其特征在于所述步驟③中,多維向量中的元素的性質(zhì)包括對視覺單詞本身數(shù)量的描述和視覺單詞空間關(guān)系描述,其中對視覺單詞本身數(shù)量的描述指視覺單詞庫中視覺單詞出現(xiàn)的次數(shù),視覺單詞空間關(guān)系描述指用每個視覺單詞相對于物體幾何中心距離特征與角度特征來描述每個視覺單詞的位置特征。
7.根據(jù)權(quán)利要求I所述一種基于一般物體識別的機器人視覺導航方法,其特征在于所述步驟(3)中的判別函數(shù)由離線訓練得出。
8.根據(jù)權(quán)利要求3所述一種基于一般物體識別的機器人視覺導航方法,其特征在于所述特征點檢測和描述采用GPU加速圖像處理。
9.根據(jù)權(quán)利要求I所述一種基于一般物體識別的機器人視覺導航方法,其特征在于所述傳感器為聲納傳感器。
全文摘要
本發(fā)明公開了一種基于一般物體識別的機器人視覺導航方法,包括如下步驟繪制實際環(huán)境的手繪地圖;機載攝像機讀入實際環(huán)境的圖片;運用判別函數(shù)對讀入的圖片進行判決,識別自然路標;機器人通過傳感器測量識別的自然路標和機器人的位置關(guān)系,完成自定位。本發(fā)明解決在室內(nèi)未知環(huán)境中機器人的自主導航問題。
文檔編號G01C21/00GK102853830SQ20121032116
公開日2013年1月2日 申請日期2012年9月3日 優(yōu)先權(quán)日2012年9月3日
發(fā)明者李新德, 張曉 , 朱博, 金曉彬 申請人:東南大學