本發(fā)明屬于計算機視覺與移動機器人的
技術(shù)領(lǐng)域:
:,特別是涉及一種移動機器人同時視覺伺服與自適應(yīng)深度辨識方法。
背景技術(shù):
::對于移動機器人系統(tǒng),引入視覺傳感器可大大增強其智能性,靈活性和環(huán)境感知能力[1-3](參見附錄文獻[1-3],以下表述均為附錄中文獻)。利用實時圖像反饋來控制的移動機器人的運動,即視覺伺服技術(shù),能夠廣泛運用于各種領(lǐng)域,如智能交通和環(huán)境勘探。由于這些原因,這項技術(shù)受到格外關(guān)注并且成為機器人領(lǐng)域的研究熱點。對于視覺傳感器,由于是根據(jù)透視投影模型成像的,深度信息的缺失是其主要缺陷。因此,對于單目攝像機視覺系統(tǒng),難以完整恢復(fù)出外部三維場景信息和移動機器人自身運動信。另外,由于移動機器人存在非完整運動約束特點,使得位姿控制器的設(shè)計非常具有挑戰(zhàn)性。因此,深度信息的缺失和非完整約束,使移動機器人視覺控制任務(wù)變得異常艱巨。然而,現(xiàn)有方法大多在原有視覺伺服控制器的基礎(chǔ)上為未知深度信息設(shè)計補償模塊。在這種意義上,在視覺伺服任務(wù)完成后依然無法得到場景模型。由于工作空間信息仍無法完全獲得,限制了機器人系統(tǒng)的進一步應(yīng)用推廣。因此,如何在視覺伺服控制的同時進行深度信息辨識,是機器人和控制領(lǐng)域內(nèi)一個困難但非常有價值的問題。至今,為了完成移動機器人視覺伺服任務(wù),已有許多處理深度信息缺失問題的解決方法。在文獻[4]中,Zhang等人提出了一種兩階段的控制器利用逆推方法使移動機器人在攝像機外參數(shù)未知情況下驅(qū)動到目標位姿,其中使用自適應(yīng)更新律對特征點平面的未知深度信息進行補償。在文獻[5]中,在對單一特征點深度信息進行補償后,為移動機器人設(shè)計了一種聯(lián)合視覺跟蹤和控制的控制器。Mariottini等人根據(jù)視覺伺服過程中的真實值來設(shè)定距離參數(shù)[6],并且在文獻[7]中使用同樣的方法。在文獻[8]中,Becerra等人在超扭曲控制器中設(shè)計了適當(dāng)?shù)目刂圃鲆鎭砗喜⑽粗纳疃刃畔?,并在文獻[9]和[10]中,根據(jù)單應(yīng)矩陣中的項用控制增益抵消了未知的深度信息。Li等人利用基于視覺的模型預(yù)估控制驅(qū)動機器人到達期望位姿,并通過距離傳感器,如激光,獲得深度信息[11]。不幸的是,除了裝置距離傳感器,現(xiàn)有的方法無法通過補償方式辨識深度信息。另一方面,雖然增加距離傳感器能夠解決深度辨識問題,其卻無可避免地增加了系統(tǒng)復(fù)雜度和成本。為了使實際應(yīng)用系統(tǒng)使用更加方便,充分利用圖像數(shù)據(jù)和系統(tǒng)狀態(tài)辨識深度信息仍然是較好的方法。最近,在機器人系統(tǒng)的距離信息辨識方面取得了一些研究成果。Hu等人用非線性觀測器測出了物體的歐式坐標,其中用已知運動參數(shù)漸進地辨識出距離信息[12]。Dani等人在全局指數(shù)穩(wěn)定下設(shè)計了降階非線性觀測器來辨識一個靜止物體和運動相機之間的距離[13]。另外,距離信息和相機運動都可以被非線性觀測器檢測到,如文獻[14]和[15]的研究結(jié)果。在機器人操作臂的視覺跟蹤任務(wù)方面,設(shè)計距離觀測器來測量末段執(zhí)行器的位姿[16],移動物體的位姿[17],和機器人的速度[18]。Spica等人為常見視覺目標的結(jié)構(gòu)提出一種動態(tài)估計方法,其能夠在期望瞬態(tài)響應(yīng)下運行并提高執(zhí)行視覺伺服任務(wù)時的表現(xiàn)[19]。與機器臂相比,驅(qū)動移動機器人時應(yīng)考慮到非完整約束,其為深度辨識帶來更多挑戰(zhàn)。在文獻[20]中,構(gòu)造了一種適應(yīng)算法,其利用在視覺軌道跟蹤任務(wù)中的目標特征來估計移動機器人位姿。Luca等人設(shè)計了非線性觀測器以在移動機器人視覺伺服中漸進地找到特征深度[21]。然而,現(xiàn)有方法普遍要求在持續(xù)激勵條件下并且僅有漸進收斂性質(zhì)。因而,無法保證控制誤差收斂之前觀測誤差收斂至零,造成無法保證控制器/觀測器組合系統(tǒng)全局穩(wěn)定。因此,如何同時完成控制和深度辨識仍然是一項具有挑戰(zhàn)的任務(wù)。為了在與所設(shè)計的控制器協(xié)調(diào)一致的前提下辨識相關(guān)系統(tǒng)參數(shù),許多研究人員都已注意到并發(fā)學(xué)習(xí)結(jié)構(gòu)。Chowdhary等人開發(fā)了一種并發(fā)學(xué)習(xí)參考模型控制器,他使用當(dāng)前和已知數(shù)據(jù)并發(fā)進行自適應(yīng)來保證在沒有持續(xù)激勵條件情況下的未知線性動態(tài)系統(tǒng)的全局指數(shù)穩(wěn)定[22]。他們同時也將并發(fā)學(xué)習(xí)自適應(yīng)控制器運用到飛行器上,并因自適應(yīng)律限制了權(quán)重更新提高了其運動表現(xiàn)[23]。另外,可運用并發(fā)學(xué)習(xí)結(jié)構(gòu)運用來辨識神經(jīng)網(wǎng)絡(luò)的未知參數(shù),然后獲得控制任務(wù)的近似最優(yōu)性質(zhì),如移動機器人的路徑跟蹤[24]和非線性系統(tǒng)控制[25]。為了在控制過程中重建場景信息,Parikh等人設(shè)計了一種并發(fā)學(xué)習(xí)自適應(yīng)控制策略完成機器臂的軌道跟蹤任務(wù),其中使用歷史數(shù)據(jù)的增強的自適應(yīng)更新律能保證在沒有持續(xù)激勵時完成指數(shù)跟蹤和特征深度估計[26]。另外,由于非完整運動約束和運動路徑的有限長度完成在輪式移動機器人視覺伺服過程中辨識深度信息會面臨更多挑戰(zhàn)。本發(fā)明受到[26]和[27]的啟發(fā),開發(fā)了一種自適應(yīng)視覺伺服方法,完成了對輪式移動機器人同時位姿控制和深度辨識任務(wù)。技術(shù)實現(xiàn)要素:本發(fā)明的目的是解決現(xiàn)有移動機器人視覺深度信息辨識存在的上述不足,提供一種移動機器人同時視覺伺服與自適應(yīng)深度辨識方法。本發(fā)明提出了一種新穎的移動機器人同時視覺伺服與自適應(yīng)深度辨識方法。該方法最大的特點是完成同時視覺伺服和深度辨識。因而解決了現(xiàn)有的移動機器人視覺伺服時辨識深度信息的問題,并且無需外加距離傳感器,不增加系統(tǒng)復(fù)雜度和成本。具體而言,首先,由可測量信號定義移動機器人位姿誤差,接著,由包含未知特征深度的極坐標獲得運動學(xué)模型。進而,根據(jù)并發(fā)學(xué)習(xí)方法策略,利用記錄數(shù)據(jù)和當(dāng)前數(shù)據(jù)為未知特征深度設(shè)計增強的自適應(yīng)更新律。之后,設(shè)計有極坐標表示法的調(diào)節(jié)控制器來驅(qū)動移動機器人在非完整約束下到達指定位姿。然后,根據(jù)Lyapunov方法和LaSalle不變性原理,證明出位姿誤差與深度辨識誤差同時收斂。因此,解決了控制器和辨識模塊作為一個整體的全局穩(wěn)定性問題。仿真與實驗結(jié)果均證明本方法有效可靠。本發(fā)明主要做出了以下幾方面貢獻:1.成功辨識視野的深度信息,通過視覺系統(tǒng)得到對外部環(huán)境的良好感知;2.用極坐標表示法的連續(xù)控制器將機器人有效驅(qū)動到期望位姿;3.因誤差同時收斂,組合控制器和深度辨識模塊解決系統(tǒng)全局穩(wěn)定問題。在文獻[28]中,F(xiàn)ang等人建造了一種平滑的隨時間變化的控制器調(diào)節(jié)機器人到達期望位姿,其中通過自適應(yīng)更新律補償特征深度信息。同樣通過設(shè)計自適應(yīng)控制器,Zhang等人有效且自然地完成了位姿控制任務(wù)。和以上兩種方法相比,本方法證明深度辨識誤差在控制過程中收斂至零。和文獻[34]相比,本方法解決了非完整運動約束下位姿控制任務(wù)中的深度辨識問題。本發(fā)明提供的移動機器人同時視覺伺服與自適應(yīng)深度辨識方法包括:第1,定義系統(tǒng)坐標系第1.1,系統(tǒng)坐標系描述定義車載攝像機的坐標系與移動機器人的坐標系一致;以表示機器人/攝像機期望位姿的直角坐標系,其中的原點在車輪軸線的中心點,也在攝像機的光心位置;z*軸與攝像機鏡頭的光軸重合,同時也和機器人前進方向重合;x*軸和機器人輪軸平行;y*軸垂直于x*z*平面;以表示攝像機/機器人當(dāng)前位姿坐標系;以e(t)表示期望位置和當(dāng)前位置之間的距離;θ(t)表示相對于的旋轉(zhuǎn)角度;α(t)表示機器人當(dāng)前位姿和從到的旋轉(zhuǎn)向量之間的角度;φ(t)表示機器人期望位姿和從到的旋轉(zhuǎn)向量之間的角度;θ(t),α(t),φ(t)的方向均被標出,圖中他們均為正值;另外,視野中有N個靜止的共面特征點Pi(i=1,2...,n);定義是特征平面的單位法向量在中的表示;是從原點到沿n*的特征平面的未知距離;這里我們假設(shè)特征平面不經(jīng)過原點,即d*≠0;因此,本發(fā)明的目的是在所定義的系統(tǒng)坐標系的基礎(chǔ)上,用一種新穎的視覺伺服方法驅(qū)動移動機器人以使與重合,并實時進行d*的識別;第1.2,坐標系變換不失一般性,本方法以作為參考坐標系;從到的旋轉(zhuǎn)矩陣和平移向量分別記為和*Tc(t);考慮到移動機器人的平面運動約束,和*Tc(t)的形式可寫為如下形式:其中*Tcx(t)和*Tcz(t)分別表示的原點在中的x和z坐標;因此,機器人的當(dāng)前位姿表示為(*Tcz(t),*Tcx(t),θ(t));第2,構(gòu)造系統(tǒng)模型第2.1,可測量信號對于特征點Pi,在和采集到的圖像分別表示期望圖像和當(dāng)前圖像;利用單應(yīng)性矩陣估計和快速分解技術(shù),從當(dāng)前圖像和期望圖像中得到機器人的相對位姿[36],即*T/d*(t)和n*;然后,得到笛卡爾坐標系下的含比例因子的機器人坐標,其形式為為了便于控制器的設(shè)計,將機器人的笛卡爾坐標轉(zhuǎn)變?yōu)闃O坐標形式;定義e(t)為*Tc(t)的范數(shù),即根據(jù)上文的假設(shè)d*≠0,定義可測的含比例因子的距離es(t)為:另外,φ(t),α(t)的計算公式分別為:α=φ-θ(4)第2.2,建立機器人運動學(xué)方程在這部分,選擇可測量信號es(t),φ(t),α(t)構(gòu)造執(zhí)行視覺伺服任務(wù)的攝像機機器人系統(tǒng)模型;用極坐標下的e(t),φ(t),α(t)表示移動機器人運動學(xué)方程為:vr(t)和wr(t)分別表示移動機器人的線速度和角速度;將es(t)的定義(6)帶入(7),得到系統(tǒng)開環(huán)動態(tài)方程如下:另外,表示深度辨識,定義深度辨誤差為es(t),φ(t),α(t)收斂至?xí)r0,移動機器人鎮(zhèn)定至期望位姿;當(dāng)為0時,系統(tǒng)成功辨識出深度信息;第3,構(gòu)建自適應(yīng)控制器根據(jù)上文中的系統(tǒng)開環(huán)動態(tài)方程,為配有攝像機的移動機器人系統(tǒng)設(shè)計控制器和自適應(yīng)更新律;根據(jù)并發(fā)學(xué)習(xí)方法,為深度辨識設(shè)計自適應(yīng)更新律,其形式如下:其中為更新增益,為正常數(shù),tk∈[0,t]是初始時間和當(dāng)前時間之間的時間點;投影函數(shù)Proj(χ)定義為:其中是正值的下界;從(9)可知即也是深度辨識的下界,應(yīng)選取的初值大于進一步,可知:為了達到位姿控制目的,設(shè)計移動機器人的線速度和角速度為:其中為控制增益;應(yīng)當(dāng)指出,由于在自適應(yīng)更新律的并發(fā)學(xué)習(xí)項中使用了已記錄的數(shù)據(jù)(8),應(yīng)用最優(yōu)平滑濾波器給出的準確估計;因此,顯著提高了參數(shù)估計值。另外,控制參數(shù)和更新參數(shù)ke,kα,kφ,Γ1,Γ2值小,參數(shù)ke,kα,kφ主要影響機器人鎮(zhèn)定,參數(shù)Γ1,Γ2主要影響深度辨識。因此,本系統(tǒng)參數(shù)容易調(diào)節(jié),也使本發(fā)明適于實際應(yīng)用。定理1:控制律(11)(12)和參數(shù)更新律(14)將移動機器人鎮(zhèn)定到期望位姿的同時進行深度辨識,即下式成立:至此,完成了移動機器人同時視覺伺服與自適應(yīng)深度辨識。本發(fā)明的優(yōu)點和有益效果是:本發(fā)明主要做出了以下幾方面貢獻:1.成功辨識視野的深度信息,通過視覺系統(tǒng)得到對外部環(huán)境的良好感知;2.用極坐標表示法的連續(xù)控制器將機器人有效驅(qū)動到期望位姿;3.因誤差同時收斂,組合控制器和深度辨識模塊解決系統(tǒng)全局穩(wěn)定問題。附圖說明:圖1為視覺伺服任務(wù)的坐標系關(guān)系;圖2為仿真結(jié)果:移動機器人的運動路徑[加粗三角形為期望位姿];圖3為仿真結(jié)果:移動機器人位姿變化[實線:機器人位姿;虛線:期望位姿(零)];圖4為仿真結(jié)果:由參數(shù)更新律(8)得到的變化[實線:的值;虛線:d*的真實值;圖5表示本發(fā)明實驗結(jié)果:移動機器人的運動路徑[加粗三角形為期望位姿];圖6表示實驗結(jié)果:移動機器人位姿變化[實線:機器人位姿;虛線:期望位姿(零)];圖7表示實驗結(jié)果:移動機器人的速度[虛線:零值];圖8表示實驗結(jié)果:特征點的圖像軌跡;圖9表示實驗結(jié)果:在控制過程的初始6秒鐘內(nèi)由視覺測量得到的d*計算值;圖10表示實驗結(jié)果:由參數(shù)更新律(8)得到的d*變化[實線:d*的值;虛線:圖9中得到的d*(t)的計算得真實值];具體實施方式:實施例1:第1,定義系統(tǒng)坐標系第1.1,系統(tǒng)坐標系描述定義車載攝像機的坐標系與移動機器人的坐標系一致。以表示機器人/攝像機期望位姿的直角坐標系,其中的原點在車輪軸線的中心點,也在攝像機的光心位置。z*軸與攝像機鏡頭的光軸重合,同時也和機器人前進方向重合;x*軸和機器人輪軸平行;y*軸垂直于x*z*平面(移動機器人運動平面)。以表示攝像機/機器人當(dāng)前位姿坐標系。以e(t)表示期望位置和當(dāng)前位置之間的距離;θ(t)表示相對于的旋轉(zhuǎn)角度;α(t)表示機器人當(dāng)前位姿和從到的旋轉(zhuǎn)向量之間的角度。φ(t)表示機器人期望位姿和從到的旋轉(zhuǎn)向量之間的角度。θ(t),α(t),φ(t)的方向均被標出,圖中他們均為正值。另外,視野中有N個靜止的共面特征點Pi(i=1,2...,n);定義是特征平面的單位法向量在中的表示;是從原點到沿n*的特征平面的未知距離;這里我們假設(shè)特征平面不經(jīng)過原點,即d*≠0。因此,本發(fā)明的目的是在所定義的系統(tǒng)坐標系的基礎(chǔ)上,用一種新穎的視覺伺服方法驅(qū)動移動機器人以使與重合,并實時進行d*的識別。第1.2,坐標系變換不失一般性,本方法以作為參考坐標系。從到的旋轉(zhuǎn)矩陣和平移向量分別記為和*Tc(t)。考慮到移動機器人的平面運動約束,和*Tc(t)的形式可寫為如下形式:其中*Tcx(t)和*Tcz(t)分別表示的原點在中的x和z坐標。因此,機器人的當(dāng)前位姿表示為(*Tcz(t),*Tcx(t),θ(t))。第2,構(gòu)造系統(tǒng)模型第2.1,可測量信號對于特征點Pi,在和采集到的圖像分別表示期望圖像和當(dāng)前圖像。利用單應(yīng)性矩陣估計和快速分解技術(shù),從當(dāng)前圖像和期望圖像中得到機器人的相對位姿[28],即*Tc/d*(t)和n*。然后,得到笛卡爾坐標系下的含比例因子的機器人坐標,其形式為為了便于控制器的設(shè)計,將機器人的笛卡爾坐標轉(zhuǎn)變?yōu)闃O坐標形式。定義e(t)為*Tc(t)的范數(shù),即根據(jù)上文的假設(shè)d*≠0,定義可測的含比例因子的距離es(t)為:另外,φ(t),α(t)的計算公式分別為:α=φ-θ(19)第2.2,建立機器人運動學(xué)方程在這部分,選擇可測量信號es(t),φ(t),α(t)構(gòu)造執(zhí)行視覺伺服任務(wù)的攝像機機器人系統(tǒng)模型。用極坐標下的e(t),φ(t),α(t)表示移動機器人運動學(xué)方程為[29]:vr(t)和wr(t)分別表示移動機器人的線速度和角速度。將es(t)的定義(21)帶入(22),得到系統(tǒng)開環(huán)動態(tài)方程如下:另外,表示深度辨識,定義深度辨誤差為從圖1知,es(t),φ(t),α(t)收斂至?xí)r0,移動機器人鎮(zhèn)定至期望位姿。當(dāng)為0時,系統(tǒng)成功辨識出深度信息。第3,構(gòu)建自適應(yīng)控制器根據(jù)上文中的系統(tǒng)開環(huán)動態(tài)方程,為配有攝像機的移動機器人系統(tǒng)設(shè)計控制器和自適應(yīng)更新律。根據(jù)并發(fā)學(xué)習(xí)方法[26],為深度辨識設(shè)計自適應(yīng)更新律,其形式如下:其中為更新增益,為正常數(shù),tk∈[0,t]是初始時間和當(dāng)前時間之間的時間點。投影函數(shù)Proj(χ)定義為:其中是正值的下界。從(9)可知即也是深度辨識的下界,應(yīng)選取的初值大于進一步,可知:為了達到位姿控制目的,設(shè)計移動機器人的線速度和角速度為:其中為控制增益。應(yīng)當(dāng)指出,由于在自適應(yīng)更新律的并發(fā)學(xué)習(xí)項中使用了已記錄的數(shù)據(jù)(8),應(yīng)用最優(yōu)平滑濾波器給出的準確估計。因此,顯著提高了參數(shù)估計值[26]。另外,控制參數(shù)和更新參數(shù)ke,kα,kφ,Γ1,Γ2值小,參數(shù)ke,kα,kφ主要影響機器人鎮(zhèn)定,參數(shù)Γ1,Γ2主要影響深度辨識。因此,本系統(tǒng)參數(shù)容易調(diào)節(jié),也使本發(fā)明適于實際應(yīng)用。定理1:控制律(11)(12)和參數(shù)更新律(29)將移動機器人鎮(zhèn)定到期望位姿的同時進行深度辨識,即下式成立:第4,定理1證明本發(fā)明在此給出定理1的證明。證明:使用(6)和(7),將自適應(yīng)更新律(8)寫為另一方面,將(11)和(12)帶入(6)得到閉環(huán)動態(tài)方程:然后,選擇李雅普諾夫方程V(t)如下:將(16)對時間求導(dǎo)并帶入閉環(huán)動態(tài)方程組(15)得:將更新律(14)應(yīng)用到(17),利用關(guān)系(10)得:由于投影函數(shù)保證了為正,從(36)看出:因此從(16)和(19)得到:由(7)可以看出然后從(11)(12)和(20)我們有另外由(7)(8)和(15)得到:因此,所有系統(tǒng)狀態(tài)的變化都是有界的。另外,我們定義Φ為所有使的點的集合:定義M為Φ的最大不變集。從(41)可知下列關(guān)系式對M中的點成立:因此,可知:然后將(23)和(24)代入(15)的動態(tài)方程(15),得出:d*kekφφ=0(44)因此,根據(jù)上文中d*≠0的假設(shè),得出在集合M中φ=0。雖然由于使用投影函數(shù)(8)使分段光滑,但他對于初始條件是連續(xù)的。從(7)(8)和(23)看出:因此,得出的正邊界是不變的[30]。因此,最大不變集M僅包含平衡點,其形式如下:根據(jù)拉塞爾不變性原理[31],移動機器人位姿和深度辨識誤差漸進收斂至零,即本發(fā)明中,應(yīng)激發(fā)系統(tǒng)來使(18)中的回歸量滿足為了完成控制任務(wù),機器人的初始位姿不應(yīng)和期望位姿重合,即es(0)≠0。因此,es(t)在所設(shè)計的控制器下減小,尤其是在初始階段時,使控制過程中易于滿足該條件。雖然所設(shè)計的控制器和更新律中沒有奇點,根據(jù)極坐標性質(zhì)當(dāng)es(t)為零時機器人位姿無意義。為了解決這一問題,當(dāng)es(t)滿足閾值時設(shè)置線速度為零,并控制移動機器人做純旋轉(zhuǎn)運動來控制其方向。第5,仿真與實驗效果描述第5.1,仿真結(jié)果在本節(jié)中提供仿真結(jié)果來對本方法進行驗證。首先,隨機設(shè)置四個共面特征點計算單應(yīng)性矩陣,攝像機的內(nèi)參數(shù)和隨后實驗所用的一致:機器人的初始位姿設(shè)計為:(-2.1m,-0.6m,-28°)(48)期望位姿是(0m,0m,0°)。另外,加入標準差為σ=0.15的圖像噪聲來測試控制器的可靠性和深度辨識抗干擾的能力。設(shè)置控制參數(shù)為ke,kα,kφ,Γ1,Γ2,N設(shè)置為100,這些是在最初的100個采樣時間里記錄的數(shù)據(jù)。用三次多項式函數(shù)擬合es(tk),用這種辦法抑制干擾,并由對三次多項式函數(shù)對時間求導(dǎo)得到的準確估計。圖2表示了移動機器人在笛卡爾空間的運動路徑結(jié)果,加粗三角表示期望位姿??梢钥闯鰴C器人有效運動到期望位姿并且運動路徑平滑。機器人狀態(tài)(*Tcz(t),*Tcx(t),θ(t))的變化表示在圖3中,并且可知穩(wěn)態(tài)誤差足夠小。另外,深度信息的估計表示在圖4中??梢钥闯?,深度信息很快收斂至真實值并良好地與真實值保持一致。因此,場景的深度信息被成功辨識。第5.2,實驗結(jié)果仿真測試后,進一步收集實驗結(jié)果證實本專利。實驗使用裝有一個機載攝像機的Pioneer3-DX移動機器人和在視野中的四個共面特征點,他們是兩個正方形的共頂點。所有策略都是在VsiualStudio2005環(huán)境下并在OpenCV實驗室輔助下實施運行的。采樣速率為每秒32次,足以完成視覺伺服任務(wù)。機器人的初始位姿隨機設(shè)置為(-2.1m,0.6m,-25°),期望位姿為(0m,0m,0°)。控制參數(shù)選擇為ke=0.4,kα=0.1,kφ=1,Γ1=2,Γ2=4。記錄數(shù)據(jù)和匹配的方式與仿真實驗部分相同。機器人的路徑結(jié)果表示在圖5中;機器人狀態(tài)(*Tcz(t),*Tcx(t),θ(t))的變化表示在圖6中,他是由文獻[32]中的方法計算來的。圖7表示移動機器人的速度,可以看出移動機器人以較小的穩(wěn)態(tài)誤差通過非常高效的路徑到達目標位姿。特征的圖像軌跡結(jié)果顯示在圖8中,原點表示所獲特征點初始位置圖像,五角星表示期望圖像中作為參照的特征點。圖像特征逐漸接近期望位姿,表示機器人向期望位姿移動。另外,為了測試深度辨識的準確程度,d*的真實值是由文獻[32]中的方法計算得到的,其用到了期望和當(dāng)前圖像信息并且要求已知某些特征點之間的距離。圖9表示在控制過程的前6秒鐘d*的計算結(jié)果,該時間段內(nèi)和的距離較大,這樣使計算得的d*較準確。接著,圖9中的計算出的d*的平均值是1.30米。圖10表示了的變化,其中虛線表示d*的平均值。因而,可以看出的深度估計值很快收斂至其真實值d*,并且穩(wěn)態(tài)估計誤差也較小。因此,可以得出深度辨識和視覺伺服任務(wù)同時成功完成的結(jié)論。需要說明的是,以上所述僅為本發(fā)明優(yōu)選實施例,僅僅是解釋本發(fā)明,并非因此限制本發(fā)明專利范圍。對屬于本發(fā)明技術(shù)構(gòu)思而僅僅顯而易見的改動,同樣在本發(fā)明保護范圍之內(nèi)。附錄:參考文獻1.A.Sabnis,G.K.Arunkumar,V.DwaracherlaV,andL.Vachhani,“Probabilisticapproachforvisualhomingofamobilerobotinthepresenceofdynamicobstacles,”IEEETrans.Ind.Electron.,vol.63,no.9,pp.5523-5533,Sep.2016.2.J.-S.Hu,J.-J.Wang,andD.M.Ho,“Designofsensingsystemandanticipativebehaviorforhumanfollowingofmobilerobots,”IEEETrans.Ind.Electron.,vol.61,no.4,pp.1916-1927,Apr.2014.FaugerasO.,LuongQ.T.,MaybankS.,Cameraself-calibration:theoryandexperiments,inProc.2ndEuro.Conf.Comput.Vis.,1992:321-334.3.T.N.Shene,K.Sridharan,andN.Sudha,“Real-timeSURF-basedvideostabilizationsystemforanFPGA-drivenmobilerobot,”IEEETrans.Ind.Electron.,vol.63,no.8,pp.5012-5021,Sep.2016.4.X.Zhang,Y.Fang,B.Li,andJ.Wang,“Visualservoingofnonholonomicmobilerobotswithuncalibratedcamera-to-robotparameters,”IEEETrans.Ind.Electron.,onlinepublished,DOI:10.1109/TIE.2016.2598526.5.B.Li,Y.Fang,G.Hu,andX.Zhang,“Model-freeunifiedtrackingandregulationvisualservoingofwheeledmobilerobots,”IEEETrans.ControlSyst.Technol.,vol.24,no.4,pp.1328-1339,Jul.2016.6.G.L.Mariottini,G.Oriolo,andD.Prattichizzo,“Image-basedvisualservoingfornonholonomicmobilerobotsusingepipolargeometry,”IEEETrans.Robot.,vol.23,no.1,pp.87-100,Feb.2007.7.B.Li,Y.Fang,andX.Zhang,“Visualservoregulationofwheeledmobilerobotswithanuncalibratedonboardcamera,”IEEE/ASMETrans.Mechatronics,vol.21,no.5,pp.2330-2342,Oct.2016.8.H.M.Becerra,J.B.Hayet,andC.Saüés,“Asinglevisual-servocontrollerofmobilerobotswithsuper-twistingcontrol,”Robot.Auton.Syst.,vol.62,no.11,pp.1623-1635,Nov.2014.9.G.López-Nicolás,N.R.Gans,S.Bhattacharya,C.Sagüés,J.J.Guerrero,andS.Hutchinson,“Homography-basedcontrolschemeformobilerobotswithnonholonomicandfield-of-viewconstraints,”IEEETrans.Syst.ManCybern.PartB-Cybern.,vol.40,no.4,pp.1115-1127,Aug.2010.10.Y.Fang,X,Liu,andX.Zhang,“Adaptiveactivevisualservoingofnonholonomicmobilerobots,”IEEETrans.Ind.Electron.,vol.59,no.1,pp.486-497,Jan.2012.11.Z.Li,C.Yang,C.-Y.Su,J.Deng,andW.Zhang,“Vision-basedmodelpredictivecontrolforsteeringofanonholonomicmobilerobot,”IEEETrans.ControlSyst.Technol.,vol.24,no.2,pp.553-564,Mar.2016.12.G.Hu,D.Aiken,S.Gupta,andW.E.Dixon,“Lyapunov-basedrangeidentificationforparacatadiopticsystems,”IEEETrans.Autom.Control,vol.53,no.7,pp.1775-1781,Aug.2008.13.A.P.Dani,N.R.Fischer,Z.Kan,andW.E.Dixon,“Globallyexponentiallystableobserverforvision-basedrangeestimation,”Mechatronics,vol.22,no.4,pp.381-389,Jun.2012.14.D.Chwa,A.P.Dani,andW.E.Dixon,“Rangeandmotionestimationofamonocularcamerausingstaticandmovingobjects,”IEEETrans.ControlSyst.Technol.,vol.24,no.4,pp.1174-1183,Jul.2016.15.A.P.Dani,N.R.Fischer,andW.E.Dixon,“Singlecamerastructureandmotion,”IEEETrans.Autom.Control,vol.57,no.1,pp.241-246,Jan.2012.16.X.Liang,H.Wang,Y.-HLiu,W.Chen,G.Hu,andJ.Zhao,“Adaptivetask-spacecooperativetrackingcontrolofnetworkedroboticmanipulatorswithouttask-spacevelocitymeasurements,”IEEETrans.Cybern.,onlinepublished,DOI:10.1109/TCYB.2015.2477606.17.H.Wang,Y.-H,Liu,W.Chen,andZ.Wang,“Anewapproachtodynamiceye-in-handvisualtrackingusingnonlinearobservers,”IEEE/ASMETrans.Mechatronics,vol.16,no.2,pp.387-394,Apr.2011.18.H.Wang,Y.-H.Liu,andWChen,“Uncalibratedvisualtrackingcontrolwithoutvisualvelocity,”IEEETrans.ControlSyst.Technol.,vol.18,no.6,pp.1359-1370,Nov.2010.19.R.Spica,P.R.Giordano,andF.Chaumette,“Activestructurefrommotion:applicationtopoint,sphere,andcylinder,”IEEETrans.Robot.,vol.30,no.6,pp.1499-1513,Dec.2014.20.K.Wang,Y.Liu,andL.Li,“Visualservoingtrajectorytrackingofnonholonomicmobilerobotswithoutdirectpositionmeasurement,”IEEETrans.Robot.,vol.30,no.4,pp.1026-1035,Aug.2014.21.A.D.Luca,G.Oriolo,andP.R.Giordano,“Featuredepthobservationforimage-basedvisualservoing:theoryandexperiments,”Int.J.Robot.Res.,vol.27,no.10,pp.1093-1116,Oct.2008.22.G.Chowdhary,T.Yucelen,M.Mühlegg,andE.N.Johnson,“Concurrentlearningadaptivecontroloflinearsystemswithexponentiallyconvergentbounds,”Int.J.Adapt.ControlSignalProcess.,vol.27,no.4,pp.280-301,Apr.2013.23.G.V.ChowdharyandE.N.Johnson,“Theoryandflight-testvalidationofaconcurrent-learningadaptivecontroller,”J.Guid.ControlDynam.,vol.34,no.2,pp.592-607,Mar.2011.24.P.Walters,R.Kamalapurkar,L.Anderws,andW.E.Dixon,“Onlineapproximateoptimalpath-followingforamobilerobot,”inProc.IEEEConf.Decis.Control,Dec.2014,pp.4536-4541.25.R.Kamalapurkar,P.Walters,andW.E.Dixon,“Model-basedreinforcementlearningforapproximateoptimalregulation,”Automatica,vol.64,pp.94-104,Feb.2016.26.A.Parikh,R.Kamalapurkar,H.-Y.Chen,andW.E.Dixon,“Homographybasedvisualservocontrolwithscenereconstruction,”inProc.IEEEConf.Decis.Control,Osaka,Japan,Dec.2015,pp.6972-6977.27.X.Zhang,Y.Fang,andN.Sun,“Visualservoingofmobilerobotsforposturestabilization:fromtheorytoexperiments,”Int.J.RobustNonlinearControl,vol.25,no.1,pp.1-15,Jan.2015.28.Y.Fang,W.E.Dixon,D.M.Dawson,andP.Chawda,“Homography-basedvisualservoregulationofmobilerobots,”IEEETrans.Syst.ManCybern.PartB-Cybern.,vol.35,no.5,pp.1041-1050,Oct.2005.29.M.Aicardi,G.Casalino,A.Bicchi,andA.Balestrino,“Closedloopsteeringofunicycle-likevehiclesviaLyapunovtechniques,”IEEERobot.Autom.Mag.,vol.2,no.1,pp.27-35,Mar.1995.30.S.ChareyronandP.-B.Wieber,“Lasalle'sinvariancetheoremfornonsmoothlagrangiandynamicalsystems,”inProc.EuromechNonlinearDynamicsConf.,Eindhoven,Netherlands,Aug.2005.31.J.J.SlotineandW.Li,Appliednonlinearcontrol,EnglewoodCliff,NJ:PrenticeHall,Inc.,1991.32.W.MacKunis,N.Gans,K.Kaiser,andW.E.Dixon,“Unifiedtrackingandregulationvisualservocontrolforwheeledmobilerobots,”inProc.IEEEInt.Conf.ControlApplication,2007,pp.88-93.當(dāng)前第1頁1 2 3 當(dāng)前第1頁1 2 3