本發(fā)明涉及一種機器人自標(biāo)定方法,特別涉及一種基于平面約束以及視覺輔助定位的機器人自標(biāo)定方法。
背景技術(shù):
1.機器人定位精度是衡量其工作性能的一個重要指標(biāo),目前,國內(nèi)外廠家生產(chǎn)出來的機器人由于制造、安裝等因素,大多絕對定位精度不高,無法滿足高精加工以及離線編程的需要,因此,對引起機器人定位誤差的各種因素進行分析,最大可能地提高機器人絕對定位精度已經(jīng)成為機器人技術(shù)研究中的核心內(nèi)容。
2.目前,國內(nèi)外常用的機器人標(biāo)定方法通常需要借助于外界先進的測量設(shè)備,成本高,且測量過程復(fù)雜,需要專業(yè)人員進行操作;同時,由于涉及到測量坐標(biāo)系與機器人基坐標(biāo)系的轉(zhuǎn)換過程,容易引入坐標(biāo)系環(huán)誤差,且該誤差與機器人連桿參數(shù)誤差不屬于同類誤差,需要單獨處理,過程較復(fù)雜。
3.為了降低成本等因素,很多研究人員提出了閉環(huán)法標(biāo)定,即給機器人末端附加一約束,用的較多的是面約束(平面或球面),然而在對這些面進行接觸式測量時,大多采用人工手動示教的方式,測量過程費時費力,效率很低。
4.針對上述技術(shù)情況,本發(fā)明在一般平面約束(手動示教進行接觸式測量)的基礎(chǔ)上,提出一種基于視覺輔助定位的機器人自標(biāo)定方法。
技術(shù)實現(xiàn)要素:
針對上述現(xiàn)有技術(shù)存在的不足,本發(fā)明在一般平面約束(手動示教進行接觸式測量)的基礎(chǔ)上,提供一種基于視覺輔助定位的機器人自標(biāo)定方法,該方法通過雙目視覺定位約束平面的位置,輸入到機器人控制系統(tǒng),控制機器人自動對約束平面進行接觸式測量,在繼承一般平面約束標(biāo)定方法優(yōu)點的同時,又大大提高了標(biāo)定效率,并且,可通過編程使約束點按一定規(guī)律有序排列,可為后期研究約束點對機器人標(biāo)定結(jié)果的影響奠定基礎(chǔ)。
本發(fā)明技術(shù)方案步驟如下:
(1)建立機器人運動學(xué)模型
建立d-h法與md-h法相結(jié)合的機器人運動學(xué)模型,將坐標(biāo)系i-1到坐標(biāo)系i的變換過程描述為ai,ai=f(αi-1,ai-1,di,θi,βi),則機器人末端坐標(biāo)系n相對于基坐標(biāo)系的位姿矩陣0tn為:
0tn=a0·a1·...·an
(2)建立機器人末端位置誤差模型
按照微分變換的思想對ai進行全微分,得到由連桿幾何參數(shù)誤差造成的相鄰坐標(biāo)系間的微分?jǐn)z動齊次矩陣dai:
δai是關(guān)節(jié)坐標(biāo)系i相對于坐標(biāo)系i-1的微分變換,則機器人相鄰兩連桿之間的實際齊次坐標(biāo)變換
將上式展開,并略去高階攝動項,化簡后得到下式:
其中,δp=[dpxdpydpz]t是機器人位置誤差矩陣,j為3×(4n+1)連桿參數(shù)的微分變換雅可比矩陣,δx=[δαδaδθδdδβ]t為(4n+1)×1連桿參數(shù)誤差矩陣;
(3)建立基于平面約束的機器人連桿參數(shù)誤差模型
0
其中,
同樣地,
同樣地,
(4)定位約束平面
對每個相機進行張正友內(nèi)參標(biāo)定及手眼標(biāo)定,通過雙目視覺獲取約束平面在左右相機中的圖像并提取單幅圖像中的目標(biāo)點信息,通過立體匹配即可定位約束平面在機器人基坐標(biāo)系下的三維位置信息;
(5)驅(qū)動機器人對約束平面進行測量
將立體匹配后得到的約束平面位置值輸入到機器人控制系統(tǒng),驅(qū)動機器人對約束平面進行接觸式測量,當(dāng)測量頭輸出有接觸信號時,立即記錄當(dāng)前各關(guān)節(jié)角度值,并對下一個約束點進行測量,若采集n+3個點:n0,n1,…,nn+2,則有:
hδx+s=0
其中,
(6)機器人連桿參數(shù)辨識
通過改進的最小二乘法,對機器人運動學(xué)參數(shù)誤差進行辨識,如下:
δx=-(hth+μi)-1hts
約束點的數(shù)量要滿足3n≥4n+1。
本發(fā)明的有益效果是:本發(fā)明提供的一種基于視覺輔助定位的機器人自標(biāo)定方法,成本低、精度高、測量效率高。通過附加雙目視覺系統(tǒng),自動獲取約束平面位置,從而避免手動示教測量;可以通過編程手段實現(xiàn)約束點按一定規(guī)律有序排列,為研究約束點對標(biāo)定結(jié)果的影響奠定基礎(chǔ);標(biāo)定的精度完全取決于平面度,與雙目視覺定位精度無關(guān);對大理石平面的擺放要求,只需要滿足在機器人工作空間內(nèi)同時測頭可安全接觸平面,不需要讓約束平面與基坐標(biāo)系的某個軸垂直。
本發(fā)明的其他特征和優(yōu)點將在隨后的說明書中闡述,部分地從說明書中變得顯而易見,或者通過實施本發(fā)明,并與其他方法比較后而了解。
附圖說明
下面結(jié)合附圖對本發(fā)明的具體實施方式作進一步說明。
圖1是標(biāo)定現(xiàn)場簡圖;
圖2是粘貼靶點后的平面示意圖;
圖3是基于視覺輔助定位的機器人自標(biāo)定方法流程圖。
具體實施方式
以下結(jié)合附圖對本發(fā)明的優(yōu)先實施例進行說明,應(yīng)當(dāng)理解,此處所描述的優(yōu)選實施例僅用于說明和解釋本發(fā)明,并不用于限定本發(fā)明。
參見附圖1~3,本發(fā)明的基于視覺輔助定位的機器人自標(biāo)定方法,包括以下幾個步驟:
(1)建立機器人運動學(xué)模型
建立d-h法與md-h法相結(jié)合的機器人運動學(xué)模型,將坐標(biāo)系i-1到坐標(biāo)系i的變換過程描述為ai,ai=f(αi-1,ai-1,di,θi,βi),則機器人末端坐標(biāo)系n相對于基坐標(biāo)系的位姿矩陣0tn為:
0tn=a0·a1·...·an
(2)建立機器人末端位置誤差模型
按照微分變換的思想對ai進行全微分,得到由連桿幾何參數(shù)誤差造成的相鄰坐標(biāo)系間的微分?jǐn)z動齊次矩陣dai:
δai是關(guān)節(jié)坐標(biāo)系i相對于坐標(biāo)系i-1的微分變換,則機器人相鄰兩連桿之間的實際齊次坐標(biāo)變換
將上式展開,并略去高階攝動項,化簡后得到下式:
其中,δp=[dpxdpydpz]t是機器人位置誤差矩陣,j為3×(4n+1)連桿參數(shù)的微分變換雅可比矩陣,δx=[δαδaδθδdδβ]t為(4n+1)×1連桿參數(shù)誤差矩陣;
(3)建立基于平面約束的機器人連桿參數(shù)誤差模型
設(shè)
其中,
同樣地,
同樣地,
(4)定位約束平面
對左右兩個相機分別進行張正友內(nèi)參標(biāo)定,得到四參數(shù)內(nèi)參矩陣:
其中,fxi,fyi(i=1,2)分別是x方向和y方向的尺度因子,[ui0,yi0](i=1,2)分別是左右兩相機的主點坐標(biāo);
對左右兩個相機分別進行手眼標(biāo)定,即確定攝像機坐標(biāo)系相對于機器人末端法蘭坐標(biāo)系的齊次轉(zhuǎn)換矩陣,利用傳統(tǒng)手眼標(biāo)定方法ax=xb,至少使機器人運動到三個不同的姿態(tài),分別計算獲得左右兩個相機的手眼矩陣x1,x2;
建立世界坐標(biāo)系使之與機器人末端法蘭坐標(biāo)系重合,并令
設(shè)目標(biāo)點在末端法蘭坐標(biāo)系(世界坐標(biāo)系)中的三維位置坐標(biāo)為p=[xwywzw]t,可建立三維定位模型,如下:
zl,zr分別是目標(biāo)點在攝像機坐標(biāo)系下的深度信息,聯(lián)立以上兩個方程,可得:
其中,[ulvl]t,[urvr]t分別是目標(biāo)點在左右兩像素坐標(biāo)系中的位置值,由此,可計算得到[xwywzw]t,即通過立體匹配定位約束平面在機器人基坐標(biāo)系下的三維位置信息;
(5)驅(qū)動機器人對約束平面進行測量
將立體匹配后得到的約束平面位置值輸入到機器人控制系統(tǒng),驅(qū)動機器人對約束平面進行接觸式測量,當(dāng)測量頭輸出有接觸信號時,立即記錄當(dāng)前各關(guān)節(jié)角度值,并對下一個約束點進行測量,若采集n+3個點:n0,n1,…,nn+2,則有:
hδx+s=0
其中,
(7)機器人連桿參數(shù)辨識
通過改進的最小二乘法,對機器人運動學(xué)參數(shù)誤差進行辨識,如下:
δx=-(hth+μi)-1hts
約束點的數(shù)量要滿足3n≥4n+1。
由此,可辨識出機器人所有的連桿參數(shù)誤差。
上述雖然結(jié)合附圖對本發(fā)明的具體實施方式進行了描述,但并非對本發(fā)明保護范圍的限制,所屬領(lǐng)域技術(shù)人員應(yīng)該明白,在本發(fā)明的技術(shù)方案的基礎(chǔ)上,本領(lǐng)域技術(shù)人員不需要付出創(chuàng)造性勞動即可做出的各種修改或變形仍在本發(fā)明的保護范圍以內(nèi)。