国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于雙攝像頭的周?chē)h(huán)境信息提示方法

      文檔序號(hào):6364867閱讀:255來(lái)源:國(guó)知局
      專(zhuān)利名稱(chēng):一種基于雙攝像頭的周?chē)h(huán)境信息提示方法
      技術(shù)領(lǐng)域
      本發(fā)明涉及提醒周?chē)h(huán)境的路況信息的技術(shù)領(lǐng)域,尤其涉及是一種基于雙攝像頭的周?chē)h(huán)境信息提示方法。
      背景技術(shù)
      目前人們一直在致力于發(fā)展對(duì)殘障人士的關(guān)愛(ài)和保障,但是現(xiàn)在很多道路上的盲道由于各種原因往往會(huì)出現(xiàn)了破損的狀況,為盲人的出行帶來(lái)了不便。對(duì)于現(xiàn)如今日益復(fù)雜的交通道路狀況,盲人的出行更成了很困難的問(wèn)題。本發(fā)明即是想利用兩個(gè)攝像頭來(lái)獲取周?chē)h(huán)境的各種信息,通過(guò)語(yǔ)音震動(dòng)等方式回饋給使用者的周?chē)h(huán)境信息提示設(shè)備。這個(gè)設(shè)備通過(guò)優(yōu)化識(shí)別和匹配算法,能為使用者實(shí)時(shí)的提醒周?chē)穆窙r,在盲人的出行方面提供很大的便利。盲人行走速度不會(huì)很快,所以可以利用這個(gè)時(shí)間進(jìn)行快速的識(shí)別和匹配,來(lái)達(dá)到幫助盲人的目的。

      發(fā)明內(nèi)容
      本發(fā)明要解決的技術(shù)問(wèn)題為提供一種基于雙攝像頭的周?chē)h(huán)境信息提示方法, 其通過(guò)雙攝像頭獲取周?chē)矬w距離信息,然后進(jìn)行語(yǔ)音和傳感器提示的電子便攜式設(shè)備, 并且其中涉及模式識(shí)別和快速匹配的優(yōu)化算法,達(dá)到幫助盲人的目的,為盲人的出行方面提供很大的便利。本發(fā)明解決上述技術(shù)問(wèn)題采用的技術(shù)方案為一種基于雙攝像頭的周?chē)h(huán)境信息提示方法,其步驟如下步驟(I)攝像機(jī)會(huì)提取前方的圖像,進(jìn)行圖像壓縮后,然后對(duì)圖像進(jìn)行背景差分和模式匹配;步驟(2)實(shí)時(shí)背景差分對(duì)攝像機(jī)傳入的圖像差分出移動(dòng)的前景和不變的背景, 因?yàn)檎紫到y(tǒng)是在緩慢移動(dòng)的,所以要保證差分算法的實(shí)時(shí)性;步驟(3)優(yōu)化模式匹配對(duì)攝像機(jī)傳入的圖像進(jìn)行模式匹配,由于分辨率較低,模式匹配算法需要再現(xiàn)有條件下進(jìn)行模糊匹配;步驟(4)匹配之后,根據(jù)匹配出的物體外形,提示使用者物體的信息。本發(fā)明與現(xiàn)有技術(shù)相比的優(yōu)點(diǎn)在于I、成本低,本方法對(duì)攝像頭要求比較低,并不需要專(zhuān)門(mén)的深度攝像頭,而是用兩個(gè)很便宜的網(wǎng)絡(luò)攝像頭組成,所以是用算法來(lái)?yè)Q取成本。2、效率高,借助高效的視覺(jué)庫(kù)和自己優(yōu)化后,運(yùn)行效率值得期待。


      圖I為平行雙目測(cè)量圖示的示意圖;圖2為訓(xùn)練、檢測(cè)用矩形的示意圖;圖3為處理器工作流程圖。
      具體實(shí)施例方式下面結(jié)合附圖及具體實(shí)施方式
      對(duì)本發(fā)明進(jìn)行詳細(xì)說(shuō)明,但本發(fā)明的保護(hù)范圍并不僅限于下面實(shí)施例,應(yīng)包括權(quán)利要求書(shū)中的全部?jī)?nèi)容。一種基于雙攝像頭的周?chē)h(huán)境信息提示方法,其步驟如下步驟(I)攝像機(jī)會(huì)提取前方的圖像,進(jìn)行圖像壓縮后,然后對(duì)圖像進(jìn)行背景差分和模式匹配;雙目成像可獲得同一場(chǎng)景的兩幅不同圖像,當(dāng)兩個(gè)攝像頭參數(shù)(攝像頭的焦距f) 相同且光心平行放于一條直線(xiàn)上時(shí),構(gòu)成平行雙目立體視覺(jué)系統(tǒng),通過(guò)對(duì)各個(gè)部分的幾何關(guān)系的分析,可以獲取目標(biāo)物的距離信息。圖I是一個(gè)典型的雙目視覺(jué)測(cè)量系統(tǒng)。兩臺(tái)攝像頭沿基線(xiàn)相距B,其光軸平行于Z軸,圖像平面與xy平面平行。假設(shè)三維空間一點(diǎn)V (X,Y,Z) 在左、右兩個(gè)像平面上的投影分別是Pl (xl,yl)和Pr(x2,y2),則視差定義為d= |pl-pr =x2-xl I ο由相似三角形關(guān)系可得到Z = B · f/d = B · f/ (I x2-xl | · dx)(I)其中d X表示每一像素在X軸方向上的物理單位。Z即是點(diǎn)V到攝像頭的距離(即物體到兩個(gè)攝像頭中心連線(xiàn)的距離)。步驟(2)實(shí)時(shí)背景差分對(duì)攝像機(jī)傳入的圖像差分出移動(dòng)的前景和不變的背景, 因?yàn)檎紫到y(tǒng)是在緩慢移動(dòng)的,所以要保證差分算法的實(shí)時(shí)性;具體可由混合高斯模型背景差分進(jìn)行分析混合高斯模型使用K(基本為3到5個(gè))個(gè)高斯模型來(lái)表征圖像中各個(gè)像素點(diǎn)的特征,在新一幀圖像獲得后更新混合高斯模型,用當(dāng)前圖像中的每個(gè)像素點(diǎn)與混合高斯模型匹配,如果成功則判定該點(diǎn)為背景點(diǎn),否則為前景點(diǎn)。通觀整個(gè)高斯模型,他主要是有方差和均值兩個(gè)參數(shù)決定,對(duì)均值和方差的學(xué)習(xí),采取不同的學(xué)習(xí)機(jī)制,將直接影響到模型的穩(wěn)定性、精確性和收斂性。由于是對(duì)運(yùn)動(dòng)目標(biāo)的背景提取建模,因此需要對(duì)高斯模型中方差和均值兩個(gè)參數(shù)實(shí)時(shí)更新。為提高模型的學(xué)習(xí)能力,改進(jìn)方法對(duì)均值和方差的更新采用不同的學(xué)習(xí)率;為提高在繁忙的場(chǎng)景下,大而慢的運(yùn)動(dòng)目標(biāo)的檢測(cè)效果,引入權(quán)值均值的概念,建立背景圖像并實(shí)時(shí)更新,然后結(jié)合權(quán)值、權(quán)值均值和背景圖像對(duì)像素點(diǎn)進(jìn)行前景和背景的分類(lèi)。具體更新公式如下μ t = (I-P ) μ t_l+P xt (I)o 2t = (I- P ) σ 2t_l+ P (xt- U t) T (xt- U t) (2)p = α η (xt I μ K,σ K ) (3)xt-μ t-11 彡 2· 5 σ t-1 (4)w k, t = (I- a ) w k, t_l+ a Mk, t (5)式中p為學(xué)習(xí)率,即反映當(dāng)前圖像融入背景的速率。步驟(3)優(yōu)化模式匹配對(duì)攝像機(jī)傳入的圖像進(jìn)行模式匹配,由于分辨率較低,模式匹配算法需要在現(xiàn)有條件下進(jìn)行模糊匹配。首先,利用樣本(大約幾百幅樣本圖片)的haar特征進(jìn)行分類(lèi)器訓(xùn)練,得到一個(gè)級(jí)聯(lián)的boosted分類(lèi)器。訓(xùn)練樣本分為正例樣本和反例樣本,其中正例樣本是指待檢目標(biāo)樣本(例如人臉或汽車(chē)等),反例樣本指其它任意圖片,所有的樣本圖片都被歸一化為同樣的尺寸大小(例如,20x20)。其中,haar特征分為三類(lèi)邊緣特征、線(xiàn)性特征、中心特征和對(duì)角線(xiàn)特征,組合成特征模板。特征模板內(nèi)有白色和黑色兩種矩形,并定義該模板的特征值為白色矩形像素和減去黑色矩形像素和。在確定了特征形式后haar-like特征的數(shù)量就取決于訓(xùn)練樣本圖像矩陣的大小,特征模板在子窗口內(nèi)任意放置,一種形態(tài)稱(chēng)為一種特征,找出所有子窗口的特征是進(jìn)行弱分類(lèi)訓(xùn)練的基礎(chǔ)。分類(lèi)器訓(xùn)練完以后,就可以應(yīng)用于輸入圖像中的感興趣區(qū)域(與訓(xùn)練樣本相同的尺寸)的檢測(cè)。檢測(cè)到目標(biāo)區(qū)域(汽車(chē)或人臉)分類(lèi)器輸出為1,否則輸出為O。為了檢測(cè)整副圖像,可以在圖像中移動(dòng)搜索窗口,檢測(cè)每一個(gè)位置來(lái)確定可能的目標(biāo)。為了搜索不同大小的目標(biāo)物體,分類(lèi)器被設(shè)計(jì)為可以進(jìn)行尺寸改變,這樣比改變待檢圖像的尺寸大小更為有效。所以,為了在圖像中檢測(cè)未知大小的目標(biāo)物體,掃描程序通常需要用不同比例大小的搜索窗口對(duì)圖片進(jìn)行幾次掃描。分類(lèi)器中的“級(jí)聯(lián)”是指最終的分類(lèi)器是由幾個(gè)簡(jiǎn)單分類(lèi)器級(jí)聯(lián)組成。在圖像檢測(cè)中,被檢窗口依次通過(guò)每一級(jí)分類(lèi)器,這樣在前面幾層的檢測(cè)中大部分的候選區(qū)域就被排除了,全部通過(guò)每一級(jí)分類(lèi)器檢測(cè)的區(qū)域即為目標(biāo)區(qū)域。目前支持這種分類(lèi)器的 boosting 技術(shù)有四種Discrete Adaboost, Real Adaboost, Gentle Adaboost and Logitboost。" boosted"即指級(jí)聯(lián)分類(lèi)器的每一層都可以從中選取一個(gè)boosting算法 (權(quán)重投票),并利用基礎(chǔ)分類(lèi)器的自我訓(xùn)練得到。基礎(chǔ)分類(lèi)器是至少有兩個(gè)葉結(jié)點(diǎn)的決策樹(shù)分類(lèi)器。Haar特征是基礎(chǔ)分類(lèi)器的輸入,主要描述如下。目前的算法主要利用下面的 Harr特征。每個(gè)特定分類(lèi)器所使用的特征用形狀、感興趣區(qū)域中的位置以及比例系數(shù)(這里的比例系數(shù)跟檢測(cè)時(shí)候采用的比例系數(shù)是不一樣的,盡管最后會(huì)取兩個(gè)系數(shù)的乘積值)來(lái)定義。例如在第二行特征(2c)的情況下,響應(yīng)計(jì)算為復(fù)蓋全部特征整個(gè)矩形框(包括兩個(gè)白色矩形框和一個(gè)黑色矩形框)象素的和減去黑色矩形框內(nèi)象素和的三倍。每個(gè)矩形框內(nèi)的象素和都可以通過(guò)積分圖象很快的計(jì)算出來(lái)。步驟(4)匹配之后,根據(jù)匹配出的物體外形,提示使用者物體的信息。例如可以利用文本轉(zhuǎn)語(yǔ)音進(jìn)行提醒,下面是VC庫(kù)中的一個(gè)例子,調(diào)用vc庫(kù)函數(shù)發(fā)出
      權(quán)利要求
      1.一種基于雙目攝像頭的周?chē)h(huán)境信息提示方法,其特征在于其步驟如下步驟(I)攝像機(jī)會(huì)提取前方的圖像,進(jìn)行圖像壓縮后,然后對(duì)圖像進(jìn)行背景差分和模式匹配;步驟(2)實(shí)時(shí)背景差分對(duì)攝像機(jī)傳入的圖像差分出移動(dòng)的前景和不變的背景,因?yàn)檎紫到y(tǒng)是在緩慢移動(dòng)的,所以要保證差分算法的實(shí)時(shí)性;步驟(3)優(yōu)化模式匹配對(duì)攝像機(jī)傳入的圖像進(jìn)行模式匹配,由于分辨率較低,模式匹配算法需要在現(xiàn)有條件下進(jìn)行模糊匹配;步驟(4)匹配之后,根據(jù)匹配出的物體外形,提示使用者物體的信息。
      全文摘要
      本發(fā)明提供一種基于雙目攝像頭的周?chē)h(huán)境信息提示方法,其主要特點(diǎn)為(1)由雙目攝像頭(即兩個(gè)分開(kāi)一定距離的攝像頭)對(duì)環(huán)境進(jìn)行取景;(2)將獲取到的圖像在處理器中進(jìn)行處理,進(jìn)行背景差分,模式識(shí)別等算法;(3)算法是經(jīng)過(guò)優(yōu)化了的,對(duì)實(shí)時(shí)性有良好的支持;(4)根據(jù)處理和識(shí)別的結(jié)果,通過(guò)語(yǔ)音和傳感器等設(shè)備進(jìn)行提示。本發(fā)明達(dá)到幫助盲人的目的,為盲人的出行方面提供很大的便利。
      文檔編號(hào)G06K9/62GK102609724SQ20121003500
      公開(kāi)日2012年7月25日 申請(qǐng)日期2012年2月16日 優(yōu)先權(quán)日2012年2月16日
      發(fā)明者丁嶸, 劉崢, 柴巧珍 申請(qǐng)人:北京航空航天大學(xué)
      網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
      • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1