国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法

      文檔序號(hào):6397886閱讀:203來源:國(guó)知局
      專利名稱:仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法
      技術(shù)領(lǐng)域
      本發(fā)明屬于目標(biāo)跟蹤領(lǐng)域,更進(jìn)一步涉及一種仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,可用于智能機(jī)器人、智能交通系統(tǒng)和視頻監(jiān)控等領(lǐng)域。
      背景技術(shù)
      目標(biāo)跟蹤即依據(jù)事先給定的目標(biāo)模板的某些特征如灰度特征、顏色特征、紋理特征、邊緣特征等,采用模式識(shí)別方法在待跟蹤視頻圖像中搜索目標(biāo),確定目標(biāo)在視頻圖像中的位置信息和狀態(tài)信息?,F(xiàn)有的模式識(shí)別方法有模板匹配方法、Back Propagation神經(jīng)網(wǎng)絡(luò)方法等傳統(tǒng)模式識(shí)別方法。天津工業(yè)大學(xué)提出的專利申請(qǐng)“一種基于模板匹配的目標(biāo)跟蹤方法”(專利申請(qǐng)?zhí)?01010529681. 2,公開號(hào)CN102004898A)公開了一種基于模板匹配的目標(biāo)跟蹤方法。該方法將模板匹配方法的平移不變性與圓形模板的旋轉(zhuǎn)不變形相結(jié)合,在目標(biāo)發(fā)生較小變化時(shí)可以精確跟蹤到目標(biāo)。該方法仍存在的不足是對(duì)目標(biāo)的學(xué)習(xí)能力不足,在目標(biāo)狀態(tài)發(fā)生較大變化時(shí)穩(wěn)定跟蹤的魯棒性較差。上海交通大學(xué)提出的專利申請(qǐng)“基于神經(jīng)網(wǎng)絡(luò)的機(jī)動(dòng)目標(biāo)精確跟蹤方法”(專利申請(qǐng)?zhí)?2112061. 7,公開號(hào)CN1382997)公開了一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)動(dòng)目標(biāo)精確跟蹤方法。該方法采用訓(xùn)練Back Propagation神經(jīng)網(wǎng)絡(luò)調(diào)整系統(tǒng)的方法以適應(yīng)目標(biāo)的運(yùn)動(dòng)變化,對(duì)各種運(yùn)動(dòng)狀態(tài)的機(jī)動(dòng)目標(biāo)具有良好自適應(yīng)跟蹤能力。該方法仍然存在的不足是基于分類劃分的Back Propagation神經(jīng)網(wǎng)絡(luò)必須對(duì)多種不同狀態(tài)的訓(xùn)練樣本進(jìn)行學(xué)習(xí),產(chǎn)生劃分的最優(yōu)分界面才能完成對(duì)目標(biāo)的精確識(shí)別,因此對(duì)訓(xùn)練樣本的多樣性要求較高。傳統(tǒng)模式識(shí)別方法應(yīng)用在目標(biāo)跟蹤上存在兩個(gè)缺陷一是不具有學(xué)習(xí)能力的傳統(tǒng)模式識(shí)別方法,例如模板匹配方法,在目標(biāo)狀態(tài)發(fā)生較大變化時(shí)魯棒性較差;二是具有學(xué)習(xí)能力的傳統(tǒng)模式識(shí)別方法,例如Back Propagation神經(jīng)網(wǎng)絡(luò),必須對(duì)多種狀態(tài)的訓(xùn)練樣本進(jìn)行學(xué)習(xí),以產(chǎn)生劃分的最優(yōu)分界面,因此對(duì)訓(xùn)練樣本的多樣性要求較高。

      發(fā)明內(nèi)容
      本發(fā)明的目的在于針對(duì)現(xiàn)有傳統(tǒng)模式識(shí)別方法在目標(biāo)跟蹤中存在的不足,提出一種仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,通過對(duì)訓(xùn)練樣本集中的訓(xùn)練樣本進(jìn)行覆蓋式訓(xùn)練,提聞目標(biāo)跟蹤的魯棒性和穩(wěn)定性,減少對(duì)訓(xùn)練樣本多樣性的依賴。實(shí)現(xiàn)本發(fā)明的思路是從訓(xùn)練樣本集中提取訓(xùn)練樣本特征,建立超香腸神經(jīng)網(wǎng)絡(luò)和徑向基神經(jīng)網(wǎng)絡(luò),使用歐式距離度量法則在搜索區(qū)域內(nèi)搜索目標(biāo),計(jì)算超香腸神經(jīng)網(wǎng)絡(luò)中擴(kuò)展樣本與搜索區(qū)域中測(cè)試樣本之間的歐式距離,采用最小距離法獲得目標(biāo)位置,將目標(biāo)位置在超香腸神經(jīng)網(wǎng)絡(luò)中的編號(hào)輸入徑向基神經(jīng)網(wǎng)絡(luò)獲得目標(biāo)尺寸,從而實(shí)現(xiàn)目標(biāo)的自適應(yīng)跟蹤。具體實(shí)現(xiàn)步驟包括如下(I)輸入一段視頻,采用隔幀抽取的方式選擇n幀圖像,以每幀圖像中目標(biāo)區(qū)域?yàn)橹行慕厝∮?xùn)練樣本,得到n個(gè)訓(xùn)練樣本,分別將其編號(hào)為1,2,. . .,n,組成訓(xùn)練樣本集;
      (2)從訓(xùn)練樣本集中提取訓(xùn)練樣本特征,其特征包括訓(xùn)練樣本編號(hào)特征、訓(xùn)練樣本灰度特征和訓(xùn)練樣本目標(biāo)尺寸特征;(3)建立超香腸神經(jīng)網(wǎng)絡(luò)和徑向基神經(jīng)網(wǎng)絡(luò)3a)設(shè)定覆蓋參數(shù)a = 0. 05,覆蓋間隔k = I/a,徑向基函數(shù)個(gè)數(shù)m = 10 ;3b)采用向量化方法和標(biāo)準(zhǔn)化方法對(duì)訓(xùn)練樣本灰度特征進(jìn)行預(yù)處理,并按照覆蓋參數(shù)a進(jìn)行加權(quán)訓(xùn)練,得到擴(kuò)展訓(xùn)練樣本,將所有擴(kuò)展訓(xùn)練樣本組合形成超香腸神經(jīng)網(wǎng)絡(luò)H,再將超香腸神經(jīng)網(wǎng)絡(luò)H中所有的擴(kuò)展樣本依次編號(hào)作為超香腸神經(jīng)網(wǎng)絡(luò)編號(hào)特征;3c)依據(jù)覆蓋間隔k更新訓(xùn)練樣本編號(hào)特征,將更新后的訓(xùn)練樣本編號(hào)特征與訓(xùn)練樣本目標(biāo)尺寸特征一起輸入到具有m個(gè)互相連接的徑向基函數(shù)R內(nèi)進(jìn)行訓(xùn)練,獲得徑向基神經(jīng)網(wǎng)絡(luò)W ;(4)使用歐式距離度量法則在搜索區(qū)域內(nèi)搜索目標(biāo)4a)輸入一幀視頻圖像作為搜索區(qū)域;4b)在搜索區(qū)域內(nèi),逐像素選擇與訓(xùn)練樣本集中訓(xùn)練樣本同尺寸的區(qū)域作為候選區(qū)域,提取候選區(qū)域灰度特征,按照步驟3b)的方法對(duì)候選區(qū)域灰度特征進(jìn)行預(yù)處理后得到測(cè)試樣本,計(jì)算測(cè)試樣本與超香腸神經(jīng)網(wǎng)絡(luò)H中所有擴(kuò)展樣本之間的歐式距離,得到一組超香腸距離;4c)記錄搜索區(qū)域內(nèi)每一候選區(qū)域的最小超香腸距離,得到搜索區(qū)域距離,記錄最小超香腸距離在超香腸編號(hào)特征中的編號(hào),得到搜索區(qū)域編號(hào);(5)取搜索區(qū)域距離中具有最小距離的位置作為目標(biāo)位置;(6)取得搜索區(qū)域編號(hào)中目標(biāo)位置處的編號(hào),輸入到徑向基神經(jīng)網(wǎng)絡(luò)W,得到目標(biāo)尺寸;(7)在輸入的該幀視頻圖像中標(biāo)記出目標(biāo)位置和目標(biāo)尺寸,重復(fù)步驟(4)-步驟
      (6),直至視頻結(jié)束。本發(fā)明與現(xiàn)有技術(shù)相比有以下優(yōu)點(diǎn)第一,由于本發(fā)明采用超香腸神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練樣本進(jìn)行覆蓋式訓(xùn)練,克服了傳統(tǒng)模式識(shí)別方法在目標(biāo)跟蹤中魯棒性較差、對(duì)訓(xùn)練樣本多樣性要求高的缺點(diǎn)。第二,由于本發(fā)明采用基于徑向基神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練樣本目標(biāo)尺寸特征進(jìn)行訓(xùn)練,結(jié)合最小距離法獲得視頻圖像中的目標(biāo)尺寸,克服了現(xiàn)有技術(shù)在計(jì)算目標(biāo)尺寸時(shí)對(duì)圖像質(zhì)量要求較高的缺點(diǎn)。


      圖1為本發(fā)明的流程圖;圖2為本發(fā)明使用的卡車視頻中抽取的20幀圖像;圖3為本發(fā)明使用的卡車視頻的訓(xùn)練樣本集;圖4為用本發(fā)明對(duì)卡車視頻的仿真結(jié)果圖。
      具體實(shí)施措施下面結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步描述,并給出卡車視頻作為實(shí)施例進(jìn)行說明,但不局限于這種視頻。
      參照?qǐng)D1,對(duì)本發(fā)明的具體實(shí)現(xiàn)如下:步驟1,輸入一段視頻,獲取訓(xùn)練樣本集:Ia)輸入大小為512X384像素、長(zhǎng)度為1000幀的卡車視頻;Ib)從卡車視頻的第0幀開始每隔50幀抽取一幀圖像,共抽取20幀圖像,如圖2所示;Ic)從每幀圖像中以目標(biāo)區(qū)域?yàn)橹行慕厝〕叽鐬?0X90像素的區(qū)域作為一個(gè)訓(xùn)練樣本,共得到20個(gè)訓(xùn)練樣本,組成訓(xùn)練樣本集,如圖3所示。步驟2,從訓(xùn)練樣本集中提取訓(xùn)練樣本特征:2a)將訓(xùn)練樣本集中的訓(xùn)練樣本依次編號(hào),第i個(gè)訓(xùn)練樣本編號(hào)為i =
      0,1,-.., 19,用訓(xùn)練樣本編號(hào)i作為提取的訓(xùn)練樣本編號(hào)特征A,則訓(xùn)練樣本編號(hào)特征A可以表示為 A= {0, I,..., 19};2b)將訓(xùn)練樣本集中的訓(xùn)練樣本由RGB圖像轉(zhuǎn)換為灰度圖像,RGB圖像中R表示紅色通道、G表示綠色通道,B表示藍(lán)色通道,灰度圖像中只有灰度通道,將灰度通道作為提取的訓(xùn)練樣本灰度特征B,訓(xùn)練樣本灰度特征B可以表示為B=Lbtl,匕,...b19,其中匕表示編號(hào)為i的訓(xùn)練樣本灰度特征,i = 0, I,-.., 19 ;2c)截取訓(xùn)練樣本集中每個(gè)訓(xùn)練樣本的目標(biāo)區(qū)域,將目標(biāo)區(qū)域的尺寸作為提取的訓(xùn)練樣本目標(biāo)尺寸特征C,訓(xùn)練樣本目標(biāo)尺寸特征C可以表示為C = [c0, C1,..., C19],其中Ci表示編號(hào)為i的訓(xùn)練樣本目標(biāo)尺寸特征,i = 0,1,...,19。步驟3,建立超香腸神經(jīng)網(wǎng)絡(luò)H和徑向基神經(jīng)網(wǎng)絡(luò)W:3a)設(shè)定覆蓋參數(shù)a = 0.05,覆蓋間隔k = I/a ,徑向基函數(shù)個(gè)數(shù)r = 10 ;3b)將訓(xùn)練樣本灰度特征B中每個(gè)訓(xùn)練樣本灰度特征匕按照先行后列順序轉(zhuǎn)換為向量的形式,得到訓(xùn)練樣本向量B' = [b'19],并采用如下轉(zhuǎn)換公式對(duì)其進(jìn)行轉(zhuǎn)換,得到預(yù)處理后訓(xùn)練樣本B" = [b/ b" b" 19]:
      權(quán)利要求
      1.一種仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,包括以下步驟: (1)輸入一段視頻,采用隔幀抽取的方式選擇n幀圖像,以每幀圖像中目標(biāo)區(qū)域?yàn)橹行慕厝∮?xùn)練樣本,得到n個(gè)訓(xùn)練樣本,分別將其編號(hào)為1,2,...,n,組成訓(xùn)練樣本集; (2)從訓(xùn)練樣本集中提取訓(xùn)練樣本特征,其特征包括:訓(xùn)練樣本編號(hào)特征、訓(xùn)練樣本灰度特征和訓(xùn)練樣本目標(biāo)尺寸特征; (3)建立超香腸神經(jīng)網(wǎng)絡(luò)和徑向基神經(jīng)網(wǎng)絡(luò): 3a)設(shè)定覆蓋參數(shù)a = 0.05,覆蓋間隔k = I/a ,徑向基函數(shù)個(gè)數(shù)m = 10 ; 3b)采用向量化方法和標(biāo)準(zhǔn)化方法對(duì)訓(xùn)練樣本灰度特征進(jìn)行預(yù)處理,并按照覆蓋參數(shù)a進(jìn)行加權(quán)訓(xùn)練,得到擴(kuò)展訓(xùn)練樣本,將所有擴(kuò)展訓(xùn)練樣本組合形成超香腸神經(jīng)網(wǎng)絡(luò)H,再將超香腸神經(jīng)網(wǎng)絡(luò)H中所有的擴(kuò)展樣本依次編號(hào)作為超香腸神經(jīng)網(wǎng)絡(luò)編號(hào)特征; 3c)依據(jù)覆蓋間隔k更新訓(xùn)練樣本編號(hào)特征,將更新后的訓(xùn)練樣本編號(hào)特征與訓(xùn)練樣本目標(biāo)尺寸特征一起輸入到具有m個(gè)互相連接的徑向基函數(shù)R內(nèi)進(jìn)行訓(xùn)練,獲得徑向基神經(jīng)網(wǎng)絡(luò)W ; (4)使用歐式距離度量法則在搜索區(qū)域內(nèi)搜索目標(biāo): 4a)輸入一幀視頻圖像作為搜索區(qū)域; 4b)在搜索區(qū)域內(nèi),逐像素 選擇與訓(xùn)練樣本集中訓(xùn)練樣本同尺寸的區(qū)域作為候選區(qū)域,提取候選區(qū)域灰度特征,按照步驟3b)的方法對(duì)候選區(qū)域灰度特征進(jìn)行預(yù)處理后得到測(cè)試樣本,計(jì)算測(cè)試樣本與超香腸神經(jīng)網(wǎng)絡(luò)H中所有擴(kuò)展樣本之間的歐式距離,得到一組超香腸距離; 4c)記錄搜索區(qū)域內(nèi)每一候選區(qū)域的最小超香腸距離,得到搜索區(qū)域距離,記錄最小超香腸距離在超香腸編號(hào)特征中的編號(hào),得到搜索區(qū)域編號(hào); (5)取搜索區(qū)域距離中具有最小距離的位置作為目標(biāo)位置; (6)取得搜索區(qū)域編號(hào)中目標(biāo)位置處的編號(hào),輸入到徑向基神經(jīng)網(wǎng)絡(luò)W,得到目標(biāo)尺寸; (7)在輸入的該幀視頻圖像中標(biāo)記出目標(biāo)位置和目標(biāo)尺寸,重復(fù)步驟(4)-步驟¢),直至視頻結(jié)束。
      2.根據(jù)權(quán)利要求1所述的仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,其特征在于,步驟(I)所述的采用隔幀抽取的方式選擇n幀圖像,是從輸入的視頻中每隔t幀抽取一幀圖像,一共抽取n = L/t巾貞圖像,其中L表示視頻長(zhǎng)度。
      3.根據(jù)權(quán)利要求1所述的仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,其特征在于,步驟(2)所述的從訓(xùn)練樣本集中提取訓(xùn)練樣本特征,按照如下步驟進(jìn)行: 2a)將訓(xùn)練樣本集中的訓(xùn)練樣本依次編號(hào),將訓(xùn)練樣本編號(hào)作為提取的訓(xùn)練樣本編號(hào)特征; 2b)將訓(xùn)練樣本集中的訓(xùn)練樣本由RGB圖像轉(zhuǎn)換為灰度圖像,RGB圖像中R表示紅色通道、G表示綠色通道,B表示藍(lán)色通道,灰度圖像中只有灰度通道,將灰度通道作為提取的訓(xùn)練樣本灰度特征; 2c)截取訓(xùn)練樣本集中訓(xùn)練樣本的目標(biāo)區(qū)域,將目標(biāo)區(qū)域的尺寸作為提取的訓(xùn)練樣本目標(biāo)尺寸特征。
      4.根據(jù)權(quán)利要求1所述的仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,其特征在于,步驟3b)所述的采用向量化方法和標(biāo)準(zhǔn)化方法對(duì)訓(xùn)練樣本灰度特征進(jìn)行預(yù)處理,是將訓(xùn)練樣本灰度特征按照先行后列的順序轉(zhuǎn)換為向量的形式,得到訓(xùn)練樣本向量,并采用如下轉(zhuǎn)換公式對(duì)其進(jìn)行轉(zhuǎn)換,得到預(yù)處理后的訓(xùn)練樣本:
      5.按照權(quán)利要求1所述的仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,其特征在于,步驟4b)所述的計(jì)算測(cè)試樣本與超香腸神經(jīng)網(wǎng)絡(luò)H中所有擴(kuò)展樣本之間的歐式距離,利用如下公式計(jì)算:
      全文摘要
      本發(fā)明公開一種仿生模式識(shí)別目標(biāo)自適應(yīng)跟蹤方法,主要解決現(xiàn)有技術(shù)中魯棒性較差、對(duì)訓(xùn)練樣本多樣性要求較高的問題。其實(shí)現(xiàn)步驟為(1)獲取訓(xùn)練樣本集;(2)提取訓(xùn)練樣本特征;(3)依據(jù)訓(xùn)練樣本灰度特征建立超香腸神經(jīng)網(wǎng)絡(luò),依據(jù)訓(xùn)練樣本編號(hào)特征和訓(xùn)練樣本尺寸特征建立徑向基神經(jīng)網(wǎng)絡(luò);(4)計(jì)算超香腸神經(jīng)網(wǎng)絡(luò)與搜索區(qū)域中所有候選區(qū)域之間的歐式距離;(5)采用最小距離法獲取目標(biāo)位置;(6)獲得目標(biāo)位置在超香腸神經(jīng)網(wǎng)絡(luò)中的編號(hào),并將其輸入徑向基神經(jīng)網(wǎng)絡(luò)獲得目標(biāo)尺寸。本發(fā)明通過對(duì)訓(xùn)練樣本集中的訓(xùn)練樣本進(jìn)行覆蓋式訓(xùn)練,提高了目標(biāo)跟蹤的魯棒性,減少了對(duì)訓(xùn)練樣本多樣性的依賴,可用于智能機(jī)器人、智能交通系統(tǒng)和視頻監(jiān)控等領(lǐng)域。
      文檔編號(hào)G06K9/62GK103077538SQ20131001460
      公開日2013年5月1日 申請(qǐng)日期2013年1月15日 優(yōu)先權(quán)日2013年1月15日
      發(fā)明者王軍寧, 劉煥云, 何迪, 涂尚斌, 張晶 申請(qǐng)人:西安電子科技大學(xué)
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1