国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法與流程

      文檔序號:12810104閱讀:264來源:國知局
      一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法與流程

      本發(fā)明涉及機器人手臂操作領(lǐng)域,尤其是涉及了一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法。



      背景技術(shù):

      在機器人領(lǐng)域,操控易變形物體一直是一個具有挑戰(zhàn)性的問題,例如繩索、衣服、布條等。但同時,這些活動對人類來講意義重大,在許多具有高度危險的場合可以代替人力勞動,使人類避免受到傷害,如高樓外墻的構(gòu)建與清洗、具有重大污染地區(qū)的管道清理、航天航空中的機械處理等,都具有非常大的潛在開發(fā)空間,另外,在遠洋深海中,繩索的操控更具有重要性,例如油井的探勘、輪船的拖拉、漁場圍捕網(wǎng)的豎立,結(jié)冰面的海底工具牽引等,不僅在實體應(yīng)用上,而且在經(jīng)濟上也是高新科技發(fā)展的重要動力。

      繩索等易變形物體的機械操作始終未能有突破性進展,一方面由于物質(zhì)材料的軟化性質(zhì)及易變形狀性質(zhì),既難以在視覺上對變形程度、形變方向角度等進行預測,也不能從材料密度中估算出每次形變的結(jié)果,因此,對一千條繩子作及其細微變化的力學操作,也可能得到一千種截然不同的形變結(jié)果,另一方面由于機械制備的強度問題,無法掌握易形變材料在不同力的強度之下作出的反應(yīng),因此很難完備地完成一種易變形材料的輕操控。

      本發(fā)明提出了一種基于深度卷積網(wǎng)絡(luò)學習的新框架。改造機器人機械系統(tǒng)平臺,允許其進行拾、取操作,然后將真實世界人手操控的圖像與機器人自己操控的圖像進行對比,輸入到深度神經(jīng)學習網(wǎng)絡(luò)中進行配對訓練,生成逆向模型,來進行下一步的動作預測,在重復訓練過程中提高預測準度,從而使得該配置符合人手要求。本發(fā)明可以處理繩索等軟性材料物體的操縱,提供一個深度神經(jīng)學習網(wǎng)絡(luò)來生成逆向動態(tài)模型,同時提高了機器人操控繩索的準確度。



      技術(shù)實現(xiàn)要素:

      針對解決在易形變材料中機器人操控的問題,本發(fā)明的目的在于提供一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法,提出了一種基于深度卷積網(wǎng)絡(luò)學習的新框架。

      為解決上述問題,本發(fā)明提供一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法,其主要內(nèi)容包括:

      (一)繩索操縱機械系統(tǒng)構(gòu)造;

      (二)指數(shù)線性單元深度卷積學習網(wǎng)絡(luò);

      (三)繩索拾放模塊;

      (四)繩索拾放仿真。

      其中,所述的繩索操縱機械系統(tǒng)構(gòu)造,改造具有視覺攝入系統(tǒng)、軟件處理單元、單機械手臂和實驗平臺的機器人機械系統(tǒng);

      (1)視覺攝入系統(tǒng)具有攝像設(shè)備及儲存設(shè)備,可以對視覺范圍內(nèi)的物體進行攝影儲存;

      (2)軟件處理單元具有計算單元、數(shù)據(jù)處理單元,主要對圖像進行變換及搭建深度卷積學習網(wǎng)絡(luò);

      (3)單機械手臂具有旋轉(zhuǎn)功能,末端是由平行的夾子組成的抓手,可以開啟跟閉合;

      (4)實驗平臺是置于機械手臂下的平板,繩索的一端固定于平板上。

      進一步地,所述的指數(shù)線性單元深度卷積學習網(wǎng)絡(luò),包括網(wǎng)絡(luò)結(jié)構(gòu)、學習過程和有效數(shù)據(jù)收集。

      進一步地,所述的網(wǎng)絡(luò)結(jié)構(gòu),對當前視圖及下一視圖中的繩索,分別利用兩組原始設(shè)置相同的卷積網(wǎng)絡(luò)進行學習,具體網(wǎng)絡(luò)設(shè)置為:c96-c256-c384-c384-c256-c200,每一層緊接著指數(shù)線性函數(shù);

      其中,上述鏈接符號“-”表示相繼連接網(wǎng)絡(luò)的層,“c”表示卷積層,數(shù)字表示該網(wǎng)絡(luò)層的神經(jīng)元數(shù);

      兩張視圖經(jīng)過這兩組卷積網(wǎng)絡(luò)后得到兩部分輸出(xt,xt+1),t是指當前視圖,分別具有200個特征,合并兩部分特征再輸入到最后一個部分全連接網(wǎng)絡(luò)f200-f200,得到關(guān)于繩索的動作預測特征。

      進一步地,所述的學習過程,為了進行網(wǎng)絡(luò)訓練,動作預測問題轉(zhuǎn)變?yōu)閯幼骺臻g的分類問題,具體地將其表達為(pt,θt,lt),pt是拾取動作地點,范圍為20×20的網(wǎng)格,θt是拾取動作方向,分為36個范圍,lt是拾取動作長度,分為10個等級;

      訓練過程是將以上三個參數(shù)獨立地進行分類,即:

      p(pt,θt,lt)=p(pt)p(θt|pt)p(lt|θt,pt)(1)

      神經(jīng)網(wǎng)絡(luò)首先對拾取地點進行一個預測分布,得到超過400個的可能拾取地點,然后某一地點被選取為拾取地點;接著,根據(jù)特征(xt,xt+1)和公式(1),利用一位有效編碼推出θt;進一步地,再一次利用一位有效編碼推出狀態(tài)lt;

      具體地,按照著名神經(jīng)網(wǎng)絡(luò)alexnet在imagenet中訓練得到的權(quán)值對神經(jīng)網(wǎng)絡(luò)前五層賦值,在前面5000次迭代中將學習率調(diào)整為0,剩余迭代則學習率調(diào)整為0.004,總共利用60000對圖像進行網(wǎng)絡(luò)訓練,2500張圖像進行參數(shù)調(diào)整。

      進一步地,所述的有效數(shù)據(jù)采集,為了使得數(shù)據(jù)收集有益于配置,在手動選擇隨機配置時,先實時收集一套含有50張連續(xù)動作的圖像,然后利用一個已經(jīng)經(jīng)過30000張圖像訓練的模型進行圖像的收集,將這兩個不同的圖像庫作為特征對(xt,xt+1)的訓練圖像。

      進一步地,所述的繩索拾放模塊,按照以下次序進行機械手臂的動作:

      (1)由公式(1)得到拾取動作地點和釋放動作地點;

      (2)在拾取地點使用夾子抓住繩索一點;

      (3)旋轉(zhuǎn)手臂,使夾子垂直上升5厘米;

      (4)移動手臂到釋放動作地點垂直高度5厘米處;

      (5)松開夾子,釋放繩索;

      其中,旋轉(zhuǎn)角度的范圍是(0,2π),移動距離是(1,15cm)。

      進一步地,所述的繩索拾放仿真,包括逆向動態(tài)模型和仿真人手拾放動作兩部分。

      進一步地,所述的逆向動態(tài)模型,給定當前動作圖像it和下一動作圖像it+1,用ut表示預測的動作,則可定義為:

      ut=f(it,it+1)(2)

      其中,f表示動作預測函數(shù),這個逆向動態(tài)模型表達動作預測與當前及下一動作都密切相關(guān)。

      進一步地,所述的人手拾放動作仿真,在逆向動態(tài)模型的幫助下,機器人系統(tǒng)可以使得繩索逐漸變形,成為想要的形狀,每個階段的形狀會作為圖像的序列輸入到機器人系統(tǒng)中,用v={i′t|t∈(1…t)}表示,其中i′t表示終極動作圖像;

      具體地,i1表示初始圖像,i′t表示終極圖像,則(i1,i2′)會被輸入到逆向動態(tài)模型并預測動作,從而產(chǎn)生真實世界圖像i2,再將(i2,i3′)輸入到逆向動態(tài)模型,得到下一個真實預測動作,產(chǎn)生下一個真實世界圖像,一直重復此套動作直到t次,則完成一次人手拾放動作的仿真。

      附圖說明

      圖1是本發(fā)明一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法的系統(tǒng)流程圖。

      圖2是本發(fā)明一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法的深度學習卷積網(wǎng)絡(luò)示意圖。

      圖3是本發(fā)明一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法的實驗結(jié)果圖。

      具體實施方式

      需要說明的是,在不沖突的情況下,本申請中的實施例及實施例中的特征可以相互結(jié)合,下面結(jié)合附圖和具體實施例對本發(fā)明作進一步詳細說明。

      圖1是本發(fā)明一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法的系統(tǒng)流程圖。主要包括繩索操縱機械系統(tǒng)構(gòu)造、指數(shù)線性單元深度卷積學習網(wǎng)絡(luò)、繩索拾放模塊、繩索拾放仿真。

      其中,繩索操縱機械系統(tǒng)構(gòu)造,改造具有視覺攝入系統(tǒng)、軟件處理單元、單機械手臂和實驗平臺的機器人機械系統(tǒng);

      (1)視覺攝入系統(tǒng)具有攝像設(shè)備及儲存設(shè)備,可以對視覺范圍內(nèi)的物體進行攝影儲存;

      (2)軟件處理單元具有計算單元、數(shù)據(jù)處理單元,主要對圖像進行變換及搭建深度卷積學習網(wǎng)絡(luò);

      (3)單機械手臂具有旋轉(zhuǎn)功能,末端是由平行的夾子組成的抓手,可以開啟跟閉合;

      (4)實驗平臺是置于機械手臂下的平板,繩索的一端固定于平板上。

      指數(shù)線性單元深度卷積學習網(wǎng)絡(luò),包括網(wǎng)絡(luò)結(jié)構(gòu)、學習過程和有效數(shù)據(jù)收集。

      網(wǎng)絡(luò)結(jié)構(gòu),對當前視圖及下一視圖中的繩索,分別利用兩組原始設(shè)置相同的卷積網(wǎng)絡(luò)進行學習,具體網(wǎng)絡(luò)設(shè)置為:c96-c256-c384-c384-c256-c200,每一層緊接著指數(shù)線性函數(shù);

      其中,上述鏈接符號“-”表示相繼連接網(wǎng)絡(luò)的層,“c”表示卷積層,數(shù)字表示該網(wǎng)絡(luò)層的神經(jīng)元數(shù);

      兩張視圖經(jīng)過這兩組卷積網(wǎng)絡(luò)后得到兩部分輸出(xt,xt+1),t是指當前視圖,分別具有200個特征,合并兩部分特征再輸入到最后一個部分全連接網(wǎng)絡(luò)f200-f200,得到關(guān)于繩索的動作預測特征。

      學習過程,為了進行網(wǎng)絡(luò)訓練,動作預測問題轉(zhuǎn)變?yōu)閯幼骺臻g的分類問題,具體地將其表達為(pt,θt,lt),pt是拾取動作地點,范圍為20×20的網(wǎng)格,θt是拾取動作方向,分為36個范圍,lt是拾取動作長度,分為10個等級;

      訓練過程是將以上三個參數(shù)獨立地進行分類,即:

      p(pt,θt,lt)=p(pt)p(θt|pt)p(lt|θt,pt)(1)

      神經(jīng)網(wǎng)絡(luò)首先對拾取地點進行一個預測分布,得到超過400個的可能拾取地點,然后某一地點被選取為拾取地點;接著,根據(jù)特征(xt,xt+1)和公式(1),利用一位有效編碼推出θt;進一步地,再一次利用一位有效編碼推出狀態(tài)lt;

      具體地,按照著名神經(jīng)網(wǎng)絡(luò)alexnet在imagenet中訓練得到的權(quán)值對神經(jīng)網(wǎng)絡(luò)前五層賦值,在前面5000次迭代中將學習率調(diào)整為0,剩余迭代則學習率調(diào)整為0.004,總共利用60000對圖像進行網(wǎng)絡(luò)訓練,2500張圖像進行參數(shù)調(diào)整。

      有效數(shù)據(jù)采集,為了使得數(shù)據(jù)收集有益于配置,在手動選擇隨機配置時,先實時收集一套含有50張連續(xù)動作的圖像,然后利用一個已經(jīng)經(jīng)過30000張圖像訓練的模型進行圖像的收集,將這兩個不同的圖像庫作為特征對(xt,xt+1)的訓練圖像。

      繩索拾放模塊,按照以下次序進行機械手臂的動作:

      (1)由公式(1)得到拾取動作地點和釋放動作地點;

      (2)在拾取地點使用夾子抓住繩索一點;

      (3)旋轉(zhuǎn)手臂,使夾子垂直上升5厘米;

      (4)移動手臂到釋放動作地點垂直高度5厘米處;

      (5)松開夾子,釋放繩索;

      其中,旋轉(zhuǎn)角度的范圍是(0,2π),移動距離是(1,15cm)。

      繩索拾放仿真,包括逆向動態(tài)模型和仿真人手拾放動作兩部分。

      逆向動態(tài)模型,給定當前動作圖像it和下一動作圖像it+1,用ut表示預測的動作,則可定義為:

      ut=f(it,it+1)(2)

      其中,f表示動作預測函數(shù),這個逆向動態(tài)模型表達動作預測與當前及下一動作都密切相關(guān)。

      人手拾放動作仿真,在逆向動態(tài)模型的幫助下,機器人系統(tǒng)可以使得繩索逐漸變形,成為想要的形狀,每個階段的形狀會作為圖像的序列輸入到機器人系統(tǒng)中,用v={i′t|t∈(1…t)}表示,其中i′t表示終極動作圖像;

      具體地,i1表示初始圖像,i′t表示終極圖像,則(i1,i2′)會被輸入到逆向動態(tài)模型并預測動作,從而產(chǎn)生真實世界圖像i2,再將(i2,i3′)輸入到逆向動態(tài)模型,得到下一個真實預測動作,產(chǎn)生下一個真實世界圖像,一直重復此套動作直到t次,則完成一次人手拾放動作的仿真。

      圖2是本發(fā)明一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法的深度學習卷積網(wǎng)絡(luò)示意圖。如圖所示,第一行第二行的卷積網(wǎng)絡(luò)設(shè)置是一樣的,左端輸入的圖像分別是現(xiàn)動作及下一動作的真實世界圖像,由此可推出關(guān)于拾取地點、方向和角度的參數(shù)值(右端)。

      圖3是本發(fā)明一種基于視覺上自監(jiān)督學習與模仿的繩索操縱方法的實驗結(jié)果圖。如圖所示,可以觀察到,在人手和機器人操控學習中,機器人能通過學習圖像的特征,很好地預判到繩索的運動方向,從而進行拾放功能,將其操縱地跟人手一樣。

      對于本領(lǐng)域技術(shù)人員,本發(fā)明不限制于上述實施例的細節(jié),在不背離本發(fā)明的精神和范圍的情況下,能夠以其他具體形式實現(xiàn)本發(fā)明。此外,本領(lǐng)域的技術(shù)人員可以對本發(fā)明進行各種改動和變型而不脫離本發(fā)明的精神和范圍,這些改進和變型也應(yīng)視為本發(fā)明的保護范圍。因此,所附權(quán)利要求意欲解釋為包括優(yōu)選實施例以及落入本發(fā)明范圍的所有變更和修改。

      當前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1