国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于視覺(jué)的移動(dòng)機(jī)器人室內(nèi)環(huán)境識(shí)別定位方法與流程

      文檔序號(hào):11249062閱讀:2071來(lái)源:國(guó)知局
      一種基于視覺(jué)的移動(dòng)機(jī)器人室內(nèi)環(huán)境識(shí)別定位方法與流程

      本發(fā)明屬于計(jì)算機(jī)視覺(jué)識(shí)別技術(shù)領(lǐng)域,涉及一種移動(dòng)機(jī)器人對(duì)環(huán)境識(shí)別定位的方法,具體涉及一種移動(dòng)機(jī)器人對(duì)室內(nèi)環(huán)境進(jìn)行高效簡(jiǎn)單識(shí)別及定位的方法。

      技術(shù)背景

      目前移動(dòng)機(jī)器人室內(nèi)定位多數(shù)采用激光雷達(dá)掃描構(gòu)建二維地圖(如掃地機(jī)器人)定位和采用計(jì)算機(jī)視覺(jué)領(lǐng)域的圖像特征提取和特征匹配等一系列復(fù)雜方法來(lái)完成物體識(shí)別和定位,這些方法的缺點(diǎn)是成本高和較復(fù)雜。



      技術(shù)實(shí)現(xiàn)要素:

      為了解決上述技術(shù)問(wèn)題,本發(fā)明提供了一種新的移動(dòng)機(jī)器人室內(nèi)環(huán)境識(shí)別和定位的方法,與人對(duì)室內(nèi)環(huán)境識(shí)別和自身定位的方法相接近,并且對(duì)環(huán)境識(shí)別和定位的魯棒性增強(qiáng),實(shí)時(shí)性強(qiáng),效率更高。

      本發(fā)明所采用的技術(shù)方案是:一種基于視覺(jué)的移動(dòng)機(jī)器人室內(nèi)環(huán)境識(shí)別定位方法,其特征在于,包括以下步驟:

      步驟1:利用圖像數(shù)據(jù)庫(kù),進(jìn)行深度學(xué)習(xí),得出深度學(xué)習(xí)模型;

      步驟2:確定拓?fù)涔?jié)點(diǎn)和確定節(jié)點(diǎn)自然路標(biāo),構(gòu)建拓?fù)涞貓D;

      步驟3:將每個(gè)節(jié)點(diǎn)自然路標(biāo)以單詞形式命名,構(gòu)建詞袋模型;

      步驟4:實(shí)時(shí)采集圖像,利用深度學(xué)習(xí)模型,對(duì)自然路標(biāo)進(jìn)行識(shí)別;

      步驟5:利用步驟4中自然路標(biāo)識(shí)別結(jié)果,結(jié)合詞袋模型,進(jìn)行自然路標(biāo)匹配;

      步驟6:利用匹配結(jié)果,結(jié)合拓?fù)涞貓D,進(jìn)行模糊推理,實(shí)現(xiàn)室內(nèi)環(huán)境識(shí)別定位。

      本發(fā)明的優(yōu)點(diǎn)在于:

      (1)通過(guò)深度學(xué)習(xí)的方法對(duì)室內(nèi)環(huán)境物體識(shí)別,準(zhǔn)確率和效率都比傳統(tǒng)圖像特征匹配法高;

      (2)構(gòu)建室內(nèi)環(huán)境拓?fù)涞貓D和詞袋模型,比激光雷達(dá)構(gòu)建二維地圖成本要低,并且方法簡(jiǎn)單,更向人工智能靠近。

      附圖說(shuō)明

      圖1是本發(fā)明實(shí)施例的移動(dòng)機(jī)器人離線(xiàn)狀態(tài)下需要完成任務(wù)的流程圖;

      圖2是本發(fā)明實(shí)施例的移動(dòng)機(jī)器人在線(xiàn)狀態(tài)下完成識(shí)別定位流程圖。

      具體實(shí)施方式

      為了便于本領(lǐng)域普通技術(shù)人員理解和實(shí)施本發(fā)明,下面結(jié)合附圖及實(shí)施例對(duì)本發(fā)明作進(jìn)一步的詳細(xì)描述,應(yīng)當(dāng)理解,此處所描述的實(shí)施示例僅用于說(shuō)明和解釋本發(fā)明,并不用于限定本發(fā)明。

      本實(shí)施例首先移動(dòng)機(jī)器人在離線(xiàn)狀態(tài)下對(duì)圖像數(shù)據(jù)集進(jìn)行深度學(xué)習(xí),得到訓(xùn)練模型,同時(shí)構(gòu)建拓?fù)涞貓D和詞袋庫(kù),然后移動(dòng)機(jī)器人在線(xiàn)狀態(tài)下通過(guò)攝像頭采集實(shí)時(shí)圖像,輸入訓(xùn)練好的模型,識(shí)別出實(shí)時(shí)圖像中的自然路標(biāo),最后通過(guò)自然路標(biāo)匹配,結(jié)合詞袋庫(kù)和拓?fù)涞貓D就可以模糊推理出移動(dòng)機(jī)器人的大概位置。

      本發(fā)明提供的一種基于視覺(jué)的移動(dòng)機(jī)器人室內(nèi)環(huán)境識(shí)別定位方法,其特征在于,包括以下步驟:

      步驟1:利用圖像數(shù)據(jù)庫(kù),進(jìn)行深度學(xué)習(xí),得出深度學(xué)習(xí)模型;

      圖像數(shù)據(jù)庫(kù)運(yùn)用現(xiàn)有的imagenet數(shù)據(jù)集,采用卷積神經(jīng)網(wǎng)絡(luò)(cnn)提取圖像特征,采用cnn訓(xùn)練其中一個(gè)優(yōu)點(diǎn)能權(quán)重(卷積核)共享,就是直接用世界上別人訓(xùn)練效果非常好的權(quán)重參數(shù),再根據(jù)實(shí)際任務(wù)(需要識(shí)別分類(lèi)哪些物體),通過(guò)fineturn算法對(duì)自己要訓(xùn)練的網(wǎng)絡(luò)進(jìn)行參數(shù)初始化和一些模塊參數(shù)改變。最終得到自己想要的深度學(xué)習(xí)模型。

      步驟2:確定拓?fù)涔?jié)點(diǎn)和確定節(jié)點(diǎn)自然路標(biāo),構(gòu)建拓?fù)涞貓D;

      具體實(shí)現(xiàn)包括以下子步驟:

      步驟2.1:將室內(nèi)環(huán)境中預(yù)定位置(例如:廚房、客廳、臥室、陽(yáng)臺(tái)、走廊、書(shū)房、衛(wèi)生間這些空間分別設(shè)定為不同的節(jié)點(diǎn))設(shè)定為拓?fù)涔?jié)點(diǎn);

      步驟2.2:將每個(gè)節(jié)點(diǎn)自然路標(biāo)以單詞形式命名,節(jié)點(diǎn)與節(jié)點(diǎn)間連線(xiàn)為走道。

      步驟3:將每個(gè)節(jié)點(diǎn)自然路標(biāo)以單詞形式命名,構(gòu)建詞袋模型;

      節(jié)點(diǎn)自然路標(biāo)主要由一些特定物體組成(廚房里固定的物體如鍋、油煙機(jī)、冰箱等可視作自然路標(biāo)),節(jié)點(diǎn)處這些物體組成小詞袋。

      步驟4:實(shí)時(shí)采集圖像,利用深度學(xué)習(xí)模型,對(duì)自然路標(biāo)進(jìn)行識(shí)別;然后以單詞形式輸出。

      步驟5:利用步驟4中自然路標(biāo)識(shí)別結(jié)果,結(jié)合詞袋模型,進(jìn)行自然路標(biāo)匹配;

      步驟6:利用匹配結(jié)果,結(jié)合拓?fù)涞貓D,進(jìn)行模糊推理,實(shí)現(xiàn)室內(nèi)環(huán)境識(shí)別定位。

      請(qǐng)見(jiàn)圖1和圖2,本實(shí)施例的深度學(xué)習(xí)、構(gòu)建拓?fù)涞貓D、建立詞袋模型和標(biāo)定節(jié)點(diǎn)自然路標(biāo)都是離線(xiàn)狀態(tài)執(zhí)行的;而實(shí)時(shí)采集圖像、自然路標(biāo)識(shí)別、單詞匹配、模糊推理都必須在線(xiàn)狀態(tài)執(zhí)行。

      應(yīng)當(dāng)理解的是,本說(shuō)明書(shū)未詳細(xì)闡述的部分均屬于現(xiàn)有技術(shù)。

      應(yīng)當(dāng)理解的是,上述針對(duì)較佳實(shí)施例的描述較為詳細(xì),并不能因此而認(rèn)為是對(duì)本發(fā)明專(zhuān)利保護(hù)范圍的限制,本領(lǐng)域的普通技術(shù)人員在本發(fā)明的啟示下,在不脫離本發(fā)明權(quán)利要求所保護(hù)的范圍情況下,還可以做出替換或變形,均落入本發(fā)明的保護(hù)范圍之內(nèi),本發(fā)明的請(qǐng)求保護(hù)范圍應(yīng)以所附權(quán)利要求為準(zhǔn)。



      技術(shù)特征:

      技術(shù)總結(jié)
      本發(fā)明公開(kāi)了一種基于視覺(jué)的移動(dòng)機(jī)器人室內(nèi)環(huán)境識(shí)別定位方法,首先移動(dòng)機(jī)器人在離線(xiàn)狀態(tài)下對(duì)圖像數(shù)據(jù)集進(jìn)行深度學(xué)習(xí),得到深度學(xué)習(xí)模型,同時(shí)構(gòu)建拓?fù)涞貓D和詞袋模型,然后移動(dòng)機(jī)器人在線(xiàn)狀態(tài)下通過(guò)攝像頭采集實(shí)時(shí)圖像,輸入深度學(xué)習(xí)模型,識(shí)別出實(shí)時(shí)圖像中的自然路標(biāo),最后通過(guò)自然路標(biāo)匹配,結(jié)合詞袋庫(kù)和拓?fù)涞貓D就可以模糊推理出移動(dòng)機(jī)器人的大概位置。本發(fā)明通過(guò)深度學(xué)習(xí)的方法對(duì)室內(nèi)環(huán)境物體識(shí)別,準(zhǔn)確率和效率都比傳統(tǒng)圖像特征匹配法高;構(gòu)建室內(nèi)環(huán)境拓?fù)涞貓D和詞袋模型,比激光雷達(dá)構(gòu)建二維地圖成本要低,并且方法簡(jiǎn)單,更向人工智能靠近。

      技術(shù)研發(fā)人員:劉訪(fǎng);趙慧;舒作武;周爽;張錦
      受保護(hù)的技術(shù)使用者:武漢科技大學(xué)
      技術(shù)研發(fā)日:2017.07.07
      技術(shù)公布日:2017.09.15
      網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
      • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1