本發(fā)明涉及導(dǎo)航
技術(shù)領(lǐng)域:
,特別是涉及一種面向虛擬圖像的機器人導(dǎo)航方法。
背景技術(shù):
:機器人(Robot)作為一種機械裝置,可自動執(zhí)行指定工作,同時它又是人類活動的一種新型的替代品。從第一次工業(yè)革命到現(xiàn)在,科學(xué)技術(shù)在一步一步的發(fā)展推進,機器人技術(shù)發(fā)展也越來越火熱,同樣的人類對機器人的需求越來愈大,各種類型的機器人也就應(yīng)運而生。從工業(yè)生產(chǎn)擴大、核能、醫(yī)藥、生化、家庭清潔、深海開發(fā)、醫(yī)療康復(fù)、火星探測等,機器人出現(xiàn)在人類社會的各個角落。在眾多應(yīng)用中,機器人逐漸從固定機械中解放出來,導(dǎo)航技術(shù)的需求迫在眉睫,這也為機器人智能化以及自主化提供了契機。導(dǎo)航的目的是為了讓機器人能夠自主的從出發(fā)點移動到目標(biāo)點,并完成指定工作。導(dǎo)航按照其輔助工具主要分為視覺導(dǎo)航、基于環(huán)境模型的地圖匹配導(dǎo)航和路標(biāo)導(dǎo)航。在日趨擬人化的現(xiàn)代技術(shù)中,作為人眼替代品的視覺傳感器可以更多的獲取完整的豐富的環(huán)境信息,基于其信息的導(dǎo)航方式更加近似于的人類,因而備受科學(xué)家們的關(guān)注,同樣的,其復(fù)雜度也是在各類應(yīng)用中登高不下。如何讓機器人去準(zhǔn)確穩(wěn)定的獲取所處環(huán)境的信息(環(huán)境固定信息以及環(huán)境動態(tài)變化信息)變得異常困難,同時如何去可靠的應(yīng)用這些數(shù)據(jù)也同樣是一個巨大的難題。傳統(tǒng)的視覺導(dǎo)航主要依賴于各類傳感器并通過其參數(shù)來建立環(huán)境的精確模型,主要分為路徑規(guī)劃、地圖建模、定位這三個基本方式,并輔佐以其他功能來完成自主運動操作。當(dāng)機器人處于位置的環(huán)境中進行導(dǎo)航時,自身的定位以及環(huán)境的模型必須同步進行,因此形成了SLAM。SLAM以其卓越的性能受到了領(lǐng)域內(nèi)研究者們的重視,現(xiàn)在已經(jīng)發(fā)展出了可以應(yīng)用于多鐘用途的方法,包含立體視覺方法,全景視覺方法和單目視覺方法等。立體視覺vSLAM配置有雙目或多目視覺傳感器,傳統(tǒng)的方法為對于同時采集的多圖像進行視差操作,最終建立精確的環(huán)境模型。單目視覺vSLAM由于只有一個視覺傳感器,因而在完成導(dǎo)航操作時,應(yīng)輔佐以其他已知外部結(jié)果,例如Davison提出的深度信息估計方法,其借助于已知坐標(biāo)的特征點,利用基于貝葉斯的快速估計方法,但當(dāng)運動劇烈時會造成估計誤差較大。全景視覺vSLAM利用特征區(qū)域在全景圖像中的方位角信息并結(jié)合機器人本身的坐標(biāo)位置來求解出物體三維空間的坐標(biāo),這就要求了全景圖像質(zhì)量達到一個非常高的精度。隨著機器人的運動環(huán)境的不斷擴充,無論怎樣的vSLAM導(dǎo)航,其信息的存儲或者新路標(biāo)的注冊都存在了極大的困難。除此之外,由于環(huán)境噪聲、機械誤差以及其他不可控的干擾,對造成誤差的累積,為此,類似于卡爾曼或者粒子濾波等算法被用來完成其使命。然而所有路標(biāo)的相關(guān)性矩陣則需要卡爾曼濾波來維護,這就造成了數(shù)據(jù)的存儲量以爆炸式的方式增加,增加了系統(tǒng)計算的復(fù)雜度,對于地圖規(guī)模的建立造成了嚴(yán)重限制。在機器人導(dǎo)航中,另外一種技術(shù)在放棄復(fù)雜的地圖建模的基礎(chǔ)上,通過擬人化決策,將人類運動的模式運用到機器人導(dǎo)航中。陳鳳東在單目視覺時利用該方法依靠PnP實現(xiàn)視覺定位實現(xiàn)了機器人的自由導(dǎo)航。但在實際應(yīng)用中,其所能包含有限的視野,故而限制了機器人導(dǎo)航的范圍。由于單目視覺導(dǎo)航這一缺陷,全景視覺導(dǎo)航則利用全景技術(shù),獲得更大視角的圖像結(jié)果,使得機器人運動的范圍更加廣泛。全景視覺導(dǎo)航其實是通過圖像匹配的方式來完成的,通過根據(jù)現(xiàn)有位置的圖像信息對比目標(biāo)點位置的圖像信息,進行匹配,從匹配的數(shù)據(jù)中,計算出路標(biāo)的狀態(tài)或者規(guī)劃出當(dāng)前位置到目標(biāo)位置之間的方位和距離結(jié)果,該類方法已經(jīng)被西方學(xué)者研究了很多年份,通常稱之為視覺歸航(VisualHoming)。項必須傳統(tǒng)的導(dǎo)航方式,此方法不需要去進行地圖構(gòu)建以及自身定位等操作,而是直接從圖像之間的匹配結(jié)果來估計出運動方向和運動距離。因此我們可以理解到,在此過程中,機器人不需要一個全局的定位,知道自己的準(zhǔn)備位置,也不需要知道全局的一個地圖框架,只需要知道目標(biāo)在哪兒的,怎么走,往哪兒走,走多遠,因此更加類似于人類基于視覺的運動模式,實現(xiàn)其擬人化操作,大大降低了其的復(fù)雜性。經(jīng)過更加深層的分析,視覺導(dǎo)航方法其實就是只需要存儲目標(biāo)位置的圖像結(jié)果或者圖像相關(guān)參數(shù),不需要跟SLAM一樣去精確地建立地圖,這大大降低了數(shù)據(jù)的存儲量;同時,視覺歸航不會需要去累積數(shù)據(jù),因為在導(dǎo)航過程中,我們只需要知道位置圖像與目標(biāo)位置圖像,當(dāng)環(huán)境或者位置發(fā)生變換時,替換掉當(dāng)前位置圖像,不會去累積數(shù)據(jù),導(dǎo)航的精度也不會受距離的影響。視覺歸航是完全依賴于圖像結(jié)果,因此需要去克服圖像中遮擋、光照、旋轉(zhuǎn)、尺度、視差等多方面的影響,將有用的特征結(jié)果從圖像中分離出來,這也是目前急需攻克的技術(shù)壁壘。技術(shù)實現(xiàn)要素:本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種面向虛擬圖像的機器人導(dǎo)航方法,在不需要計算運動角度,計算運動距離等優(yōu)勢的基礎(chǔ)上,其存儲數(shù)據(jù)比較小,消耗內(nèi)存少,計算速度快。本發(fā)明的目的是通過以下技術(shù)方案來實現(xiàn)的:面向虛擬圖像的機器人導(dǎo)航方法,包括:獲取第一圖像和第二圖像,并計算第一圖像和第二圖像之間的第一雙向流場;利用所述第一雙向流場生成第一圖像對應(yīng)的第一虛擬視角圖像和第二圖像對應(yīng)的第二虛擬視角圖像;計算第一虛擬視角圖像和第二虛擬視角圖像之間的第二雙向流場,并根據(jù)所述第二雙向流場的大小計算第一虛擬視角圖像和第二虛擬視角圖像的景深信息;根據(jù)景深信息分別對第一虛擬視角圖像和第二虛擬視角圖像進行圖像特寫,得到第一虛擬特寫圖像和第二虛擬特寫圖像,融合第一虛擬特寫圖像和第二虛擬特寫圖像得到虛擬圖像;獲取機器人四周環(huán)境的全景圖像,將虛擬圖像與全景圖像進行匹配,進行方位角定位;根據(jù)圖像特征點比值與距離之間的對應(yīng)關(guān)系,擬合出機器人的距離計算函數(shù),輸出機器人的運動距離。進行圖像特寫采用區(qū)域分割法。進行圖像特寫時,分別確定圖像的上、下、左、右四個方向最邊緣的閉合區(qū)域點;根據(jù)所述最邊緣的閉合區(qū)域點,確定最大閉合區(qū)域。確定閉合區(qū)域點的方法為:根據(jù)第二雙向流場計算圖像中每個像素點的深度信息;搜索圖像中的全部像素點,搜索到有深度信息的像素點時i,判斷該像素點四周的多個像素點是否有深度信息,若所述該像素點四周的多個像素點中超過一半的像素點具有深度信息時,則認(rèn)為該像素點為閉合區(qū)域點,否則認(rèn)為該像素點為拋棄點。進行圖像特寫時,還包括對最大閉合區(qū)域進行修剪:對于最大閉合區(qū)域邊緣上的任一像素點,計算該像素點與其上一列方向或上一行方向的邊緣點之間的距離,若該距離超過預(yù)設(shè)值,則對該像素點進行修剪。進行圖像特寫時,在完成最大閉合區(qū)域修剪后,對修剪后的圖像進行放大操作。方位角定位的方法為:分別提取虛擬圖像和全景圖像的特征,將虛擬圖像的特征與全景圖像的特征進行匹配,得到的匹配度最高的區(qū)域作為機器人的方位角所在位置。本發(fā)明的有益效果是:本發(fā)明提供一種基于虛擬圖像的導(dǎo)航方法,在不需要計算運動角度,計算運動距離等優(yōu)勢的基礎(chǔ)上,其存儲數(shù)據(jù)比較小,消耗內(nèi)存少,計算速度快,同時此方法基礎(chǔ)為基于視覺的導(dǎo)航,后續(xù)的擴展更加簡便,其擴展性以及開發(fā)性更高。附圖說明圖1為本發(fā)明的一個實施例的流程示意圖;圖2為原始視角與虛擬視角關(guān)系示意圖;圖3為閉合區(qū)域分割法示意圖;圖4為方位角確認(rèn)搜索示意圖;圖5為圖像成像與距離關(guān)系示意圖。具體實施方式下面結(jié)合附圖進一步詳細描述本發(fā)明的技術(shù)方案,但本發(fā)明的保護范圍不局限于以下所述。如圖1所示,面向虛擬圖像的機器人導(dǎo)航方法,包括:步驟一、獲取第一圖像和第二圖像,并計算第一圖像和第二圖像之間的第一雙向流場。步驟二、利用所述第一雙向流場生成第一圖像對應(yīng)的第一虛擬視角圖像和第二圖像對應(yīng)的第二虛擬視角圖像。如圖2所示,在虛擬視角圖像和第一圖像和第二圖像之間同樣存在一個流場的對應(yīng)關(guān)系。設(shè)定虛擬視角所代表的圖像呈現(xiàn)在如圖2所示的表示,可以認(rèn)為在第一圖像和第二圖像之間存在第三張圖像,若依次從左到右表示的話,第一圖像到虛擬視角圖像之間存在流場關(guān)系I′,虛擬視角圖像到第二圖像之間存在流場關(guān)系I″,同時,在第一圖像和第二圖像之間存在已知流場I。流場其實表征的是三維坐標(biāo)系中物體的運動,在二維圖像中,可以理解為圖像目標(biāo)的運動,具體表現(xiàn)為像素點的遷移運動。由于在步驟一中,對第一圖像和第二圖像進行過校正,得到的是在同一平面的兩幅圖像,可以認(rèn)為,對應(yīng)關(guān)系I=I′+I″。本實施例中,設(shè)定流場I′和流場I″與流場I是屬于同方向上的一種變換關(guān)系。流場I′和流場I″表示為與流場I是平行的,但大小為流場I對應(yīng)比例。因此,在計算過程中,從乙方原始流場中就可以得到其平行方向上的虛擬視角圖像。設(shè)定原始圖像(第一圖像或第二圖像)中,每個像素點的位置為W=(u,v),則虛擬視角圖像中其對應(yīng)像素點的位置為W′=(u′,v′),可得公式為:W′=W+I′⇒W′=W+α|I|I0≤α≤|I|]]>根據(jù)公式可推算出任意視角的虛擬視角圖像,但由于存在遮擋、流場計算誤差等問題,生成的虛擬視角圖像必然空洞,因此采用插值技術(shù)完成空洞填補。步驟三、計算第一虛擬視角圖像和第二虛擬視角圖像之間的第二雙向流場,并根據(jù)所述第二雙向流場的大小計算第一虛擬視角圖像和第二虛擬視角圖像的景深信息。直接從第二雙向流場的大小計算出第一虛擬視角圖像和第二虛擬視角圖像中每個像素點的景深。本實施例中,在計算出每一個像素點的流場I=(x,y)T,將其表達為像素點的深度步驟四、根據(jù)景深信息分別對第一虛擬視角圖像和第二虛擬視角圖像進行圖像特寫,得到第一虛擬特寫圖像和第二虛擬特寫圖像,融合第一虛擬特寫圖像和第二虛擬特寫圖像得到虛擬圖像。進行圖像特寫采用區(qū)域分割法。進行圖像特寫時,分別確定圖像的上、下、左、右四個方向最邊緣的閉合區(qū)域點;根據(jù)所述最邊緣的閉合區(qū)域點,確定最大閉合區(qū)域。確定閉合區(qū)域點的方法為:根據(jù)第二雙向流場計算圖像中每個像素點的深度信息;搜索圖像中的全部像素點,搜索到有深度信息的像素點時i,判斷該像素點四周的9個像素點是否有深度信息,若所述該像素點四周的9個像素點中超過一半的像素點具有深度信息時,則認(rèn)為該像素點為閉合區(qū)域點,否則認(rèn)為該像素點為拋棄點。進行圖像特寫時,還包括對最大閉合區(qū)域進行修剪:對于最大閉合區(qū)域邊緣上的任一像素點,計算該像素點與其上一列方向或上一行方向的邊緣點之間的距離,若該距離超過預(yù)設(shè)值,則對該像素點進行修剪。進行圖像特寫時,在完成最大閉合區(qū)域修剪后,對修剪后的圖像進行放大操作。完成深度信息估計之后,需要針對提取出來的深度信息進行圖像的類深度信息分割。如圖3所示,將深度信息勾勒出來后,必然存在部分像素點不符合其結(jié)果,當(dāng)我們搜索全局像素點時,當(dāng)遇到一次遇到有深度信息的像素點時,若是只是個別錯誤像素點,那么必然四周不會出現(xiàn)大量的深度信息。步驟五、獲取機器人四周環(huán)境的全景圖像,將虛擬圖像與全景圖像進行匹配,進行方位角定位。方位角定位的方法為:分別提取虛擬圖像和全景圖像的特征,將虛擬圖像的特征與全景圖像的特征進行匹配,得到的匹配度最高的區(qū)域作為機器人的方位角所在位置。如圖4所示,設(shè)置一個搜索框,當(dāng)搜索框?qū)τ谌皥D像(環(huán)境全景大圖)搜索時,其實就是對機器人對于環(huán)境的一個旋轉(zhuǎn)變化。此時,只需要比較旋轉(zhuǎn)時得到的圖像的特征,即可完成方位角的確認(rèn)。此方法把方位角的計算直接簡化為圖像配準(zhǔn),將圖像特征之間的相似度作為方位角的度量元素。步驟六、根據(jù)圖像特征點比值與距離之間的對應(yīng)關(guān)系,擬合出機器人的距離計算函數(shù),輸出機器人的運動距離。根據(jù)圖像成像原理可知,在同一場景,同一視角條件下,不同距離拍攝的圖像所包含的圖像內(nèi)容是重疊并區(qū)別的,如圖5所示。從圖5中可以看出,近距離的成像三角形與遠距離的成像三角形為相似三角形,由于是相同參數(shù)的相機,因而焦距以及成像角度相同,這就成就了兩個三角形為相似三角形。則根據(jù)相似三角形之間的相似性,可以歸納出,遠處圖像結(jié)果X與近處圖像x之間的對應(yīng)關(guān)系為:Xx=d+cc′]]>式中:c、c′為常量。遠近距離的圖像結(jié)果比值,本實施例中采用利用特征點個數(shù)來表示,因為圖像的特征可以完全表示圖像結(jié)果,因此物理上的幾何長度,可用特征點的個數(shù)來表示,其中表示遠距離圖像中所有特征點的個數(shù),表示遠距離圖像結(jié)果中與近距離圖像相匹配的特征點的個數(shù)。根據(jù)此方式,即可模擬出圖像特征點比值與距離之間的對應(yīng)關(guān)系,兩者之間為一種類似的線性正比關(guān)系,則通過線性回歸的方式計算最優(yōu)擬合函數(shù)。以上所述僅是本發(fā)明的優(yōu)選實施方式,應(yīng)當(dāng)理解本發(fā)明并非局限于本文所披露的形式,不應(yīng)看作是對其他實施例的排除,而可用于各種其他組合、修改和環(huán)境,并能夠在本文所述構(gòu)想范圍內(nèi),通過上述教導(dǎo)或相關(guān)領(lǐng)域的技術(shù)或知識進行改動。而本領(lǐng)域人員所進行的改動和變化不脫離本發(fā)明的精神和范圍,則都應(yīng)在本發(fā)明所附權(quán)利要求的保護范圍內(nèi)。當(dāng)前第1頁1 2 3