国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法與流程

      文檔序號:11178385閱讀:1719來源:國知局
      一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法與流程

      本發(fā)明屬于背景建模技術(shù)領(lǐng)域,涉及一種基于區(qū)域塊的背景建模物體檢測方法,具體涉及一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法。



      背景技術(shù):

      在背景建模技術(shù)領(lǐng)域,基于區(qū)域塊的背景建模方法流程一般主要分為兩部分:(1)將每一幀圖像劃分成若干個區(qū)域塊(小的樣本區(qū)域);(2)在區(qū)域塊的級別上建立背景模型(這樣的方法可以有效利用圖像的上下文信息)。

      在基于區(qū)域塊的背景建模方法研究中,h.grabner提出了針對每一個背景區(qū)域塊,利用在線學(xué)習(xí)的優(yōu)勢訓(xùn)練一系列相同的分類器,而分類器中置信度低的樣本區(qū)域塊被判斷為前景。m.seki提出了出一種基于圖像在空間上變化一致的背景建模方法,認(rèn)為相鄰區(qū)域塊之間的變化有很強(qiáng)的相關(guān)性;方法在不要求背景圖像在時間上連續(xù)的前提下,動態(tài)縮小每個輸入圖像背景的變化范圍,提高算法的檢測率。reddyv提出一種基于概率決策級聯(lián)分類器的前景檢測方法,該方法獲取樣本區(qū)域的dct系數(shù)作為區(qū)域的特征表示,在此特征上建立一個單高斯背景模型,最后通過多個概率決策級聯(lián)分類器確定該區(qū)域的類型。

      針對以上的研究現(xiàn)狀,目前基于區(qū)域塊的背景建模方法存在的問題是:

      (1)基于區(qū)域塊的方法在區(qū)域的特征提取方面不夠完善;

      (2)沒有詳細(xì)對區(qū)域塊內(nèi)的中心像素進(jìn)行分析,在檢測率和正確率方面并沒有到達(dá)很好的結(jié)果。



      技術(shù)實(shí)現(xiàn)要素:

      為了解決上述技術(shù)問題,本發(fā)明提供了一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法。

      本發(fā)明所采用的技術(shù)方案是:一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法,其特征在于,包括以下步驟:

      步驟1:利用第一幀圖像初始化混合高斯背景模型;

      步驟2:讀取視頻中圖像序列,獲取當(dāng)前視頻幀;

      步驟3:將視頻幀劃分為若干區(qū)域;

      步驟4:將各區(qū)域塊送入到自編碼卷積神經(jīng)網(wǎng)絡(luò)中獲取對應(yīng)的卷積特征;

      步驟5:對得到的卷積特征進(jìn)行池化操作,得到圖像最后的特征表示;

      步驟6:利用自適應(yīng)區(qū)域判斷法判斷區(qū)域類型;

      若區(qū)域類型為背景區(qū)域,則標(biāo)記區(qū)域中心像素為背景像素,更新該中心像素對應(yīng)的混合高斯背景模型中的各個高斯模型參數(shù);并執(zhí)行下述步驟7;

      若區(qū)域類型為前景區(qū)域,則標(biāo)記區(qū)域中心像素為前景像素,添加新的高斯背景模型到混合高斯背景模型中,并執(zhí)行下述步驟7;

      若區(qū)域類型為邊緣區(qū)域,則利用邊緣區(qū)域中心像素判斷法進(jìn)行判斷,若屬于背景像素,則標(biāo)記為背景像素;若屬于前景像素,則標(biāo)記為前景像素;并執(zhí)行下述步驟7;

      步驟7:通過各像素的判斷結(jié)果,得到視頻幀中的運(yùn)動目標(biāo)檢測結(jié)果。

      本發(fā)明相比已有基于區(qū)域塊的背景建模方法的不足做出以下改進(jìn):

      (1)針對已有基于區(qū)域塊背景建模方法中以離散余弦變換(dct)系數(shù)描述作為區(qū)域特性表示方面的不足,提出一種基于卷積神經(jīng)網(wǎng)絡(luò)(cnn)區(qū)域特征提取的方法;并用區(qū)域塊經(jīng)過卷積神經(jīng)網(wǎng)絡(luò)提取得到的卷積特征對各個區(qū)域建立相對應(yīng)的混合高斯背景模型,實(shí)現(xiàn)連續(xù)視頻幀中的運(yùn)動目標(biāo)檢測;

      (2)針對現(xiàn)有的基于區(qū)域塊背景建模方法中以區(qū)域類型武斷地判斷區(qū)域中心像素類型的不足,提出一種基于區(qū)域變化速率的自適應(yīng)區(qū)域類型判斷方法,利用自適應(yīng)區(qū)域類型判斷方法檢測出邊緣區(qū)域之后,結(jié)合邊緣區(qū)域中心像素與其臨近像素的關(guān)系,提出一種邊緣區(qū)域中心像素類型的判斷方法。

      附圖說明

      圖1為本發(fā)明實(shí)施例的流程圖;

      圖2為本發(fā)明實(shí)施例的基于卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域特征表示示意圖;

      圖3為本發(fā)明實(shí)施例的兩種特征的結(jié)果對比示意圖,從左到右分別是原圖、groundtruth、dct結(jié)果、本發(fā)明的卷積特征結(jié)果示意圖;

      圖4為本發(fā)明實(shí)施例的三種區(qū)域類型示意圖,從左到右分別是背景區(qū)域、邊緣區(qū)域和前景區(qū)域示意圖;

      圖5為本發(fā)明實(shí)施例的數(shù)據(jù)集li上的實(shí)驗結(jié)果示意圖,從上到下分別是針對不同場景下的數(shù)據(jù)處理示意圖,從左到右分別是原圖、groundtruth和本發(fā)明采用的方法處理得到的結(jié)果示意圖;

      圖6為本發(fā)明實(shí)施例的cdnet2014數(shù)據(jù)集上的實(shí)驗結(jié)果示意圖,從上到下的視頻序列分別是backdoor、diningroom、highway、streetlight、turnpike-0.5fps,從左到右分別是原始圖像,rmog方法的結(jié)果,第三列為本發(fā)明方法的結(jié)果;

      圖7為本發(fā)明實(shí)施例的自有數(shù)據(jù)集上的實(shí)驗效果示意圖,從左到右分別是原圖、mog方法的實(shí)驗結(jié)果、本發(fā)明方法的實(shí)驗結(jié)果。

      具體實(shí)施方式

      為了便于本領(lǐng)域普通技術(shù)人員理解和實(shí)施本發(fā)明,下面結(jié)合附圖及實(shí)施例對本發(fā)明作進(jìn)一步的詳細(xì)描述,應(yīng)當(dāng)理解,此處所描述的實(shí)施示例僅用于說明和解釋本發(fā)明,并不用于限定本發(fā)明。

      請見圖1,本發(fā)明提供的一種基于卷積神經(jīng)網(wǎng)絡(luò)自適應(yīng)背景建模物體檢測方法,包括以下步驟:

      步驟1:利用第一幀圖像初始化混合高斯背景模型;

      混合高斯模型可以看做是一種利用多個高斯分布來表示的一種函數(shù),這個函數(shù)的輸入是卷積神經(jīng)網(wǎng)絡(luò)提取的中心像素周圍的區(qū)域得到的特征,函數(shù)的輸出是判斷該像素是屬于前景區(qū)域還是背景區(qū)域還是邊緣區(qū)域的概率;下面是對混合高斯背景模型的概念介紹:

      混合高斯模型概念介紹:

      混合高斯模型是由多個高斯背景模型組成的一個函數(shù),而高斯背景模型其含義就是一個正態(tài)分布通過設(shè)置一個定值q,判斷輸入特征值x>q時屬于a類別,x<q時屬于b類別,根據(jù)正態(tài)分布概率公式可以知道x>q時的概率,即高斯背景模型就是一個概率函數(shù),它的輸入是特征值,輸出時該特征值所對應(yīng)的類別的概率。

      多個高斯模型意思就是,輸入特征值到多個參數(shù)不同的高斯模型(如均值參數(shù)、方差參數(shù)不同),每個高斯函數(shù)都會對該輸入特征值輸出一個對應(yīng)的所屬類型以及其概率。例如混合高斯模型由三個高斯模型組成,這三個高斯模型分別輸出,前景(類型)-0.9(概率)、前景(類型)-0.3(概率)、前景(類型)-0.7(概率)。根據(jù)輸出的概率乘以各個高斯模型相應(yīng)的權(quán)重即可得到混合高斯模型對該特征的所屬類型判斷概率。例如三個高斯模型權(quán)重分別為0.5、0.3、0.2則可得到該特征值對應(yīng)的前景概率為:

      0.5*0.9+0.3*0.3+0.2*0.7=0.68;

      使用第一幀圖像初始化混合高斯模型方式介紹:

      在輸入各個像素所對應(yīng)的區(qū)域塊到卷積神經(jīng)網(wǎng)絡(luò)中后,卷積神經(jīng)網(wǎng)絡(luò)提取各個區(qū)域特征,各個區(qū)域的特征表示為:

      其中,參數(shù)“t”表示視頻中第t幀圖像,用“ft”表示視頻中第t幀圖像中所有經(jīng)過劃分的圖像塊的特征表示;表示第t幀圖像中第i行第j列像素對應(yīng)的圖像區(qū)域塊的特征表示:

      其中參數(shù)表示第t幀圖像中第i行第j列像素對應(yīng)的圖像區(qū)域塊,將該圖像區(qū)域塊送到設(shè)計好的卷積神經(jīng)網(wǎng)絡(luò)中進(jìn)行特征提取操作即“cnn()”,獲得其對應(yīng)特征表示并在此基礎(chǔ)上建立對應(yīng)的混合高斯背景模型。令圖像區(qū)域塊所對應(yīng)的混合高斯背景模型為:

      其中,參數(shù)“t”表示視頻中第t幀圖像,表示由n個高斯模型組成的混合高斯模型,用于判斷第t幀圖像中第i行第j列像素所對應(yīng)的是哪一個區(qū)域;表示對應(yīng)第t幀圖像中第i行第j列像素的單個高斯模型中均值;表示對應(yīng)第t幀圖像中第i行第j列像素單個高斯模型的方差;表示對應(yīng)第t幀圖像中第i行第j列像素單個高斯模型的權(quán)重;n表示建立的單個高斯模型個數(shù),一般取3-5個。

      例如,對于第一幀圖像it的單獨(dú)的區(qū)域對應(yīng)的背景模型由以下方式進(jìn)行初始化:

      上式中除了“i”的所有參數(shù)前面都已介紹,“i”是指當(dāng)前第一幀圖像數(shù)據(jù)的像素值。這三個式子表達(dá)了統(tǒng)一對所有的單高斯模型進(jìn)行相同的初始化,均值、方差以及權(quán)重全部相同。表示用區(qū)域的特征表示作為高斯模型的均值表示高斯模型的標(biāo)準(zhǔn)差,初始化為一個固定的值,i表示對應(yīng)維度的單位矩陣。表示所有高斯模型的權(quán)重都為1/n。建立每個圖像區(qū)域的背景模型后,就可以從第二幀開始進(jìn)行前景檢測和模型更新。

      對于第t時刻圖像it的每個區(qū)域首先根據(jù)計算區(qū)域特征為接著利用建立的混合高斯模型判斷該區(qū)域?qū)儆诒尘皡^(qū)域,屬于前景區(qū)域。若該區(qū)域?qū)儆诒尘?,則令該區(qū)域的中心像素為背景像素,并以當(dāng)前區(qū)域的特征更新對應(yīng)的背景模型。若該區(qū)域為前景區(qū)域,則令該區(qū)域的中心像素為前景像素,并把當(dāng)前區(qū)域的特征添加到高斯模型中。利用建立好的混合高斯背景模型,可以計算出出當(dāng)前圖像區(qū)域塊的特征屬于背景模型的概率,也就是特征屬于區(qū)域對應(yīng)背景模型的概率為:

      表示高斯概率密度函數(shù):

      步驟2:讀取視頻中圖像序列,獲取當(dāng)前視頻幀;

      步驟3:將視頻幀劃分為若干區(qū)域;

      步驟4:將各區(qū)域塊送入到自編碼卷積神經(jīng)網(wǎng)絡(luò)中獲取對應(yīng)的卷積特征;

      步驟5:對得到的卷積特征進(jìn)行池化操作,得到圖像最后的特征表示;

      步驟6:利用自適應(yīng)區(qū)域判斷法判斷區(qū)域類型;

      若區(qū)域類型為背景區(qū)域,則標(biāo)記區(qū)域中心像素為背景像素,更新該中心像素對應(yīng)的混合高斯背景模型中的各個高斯模型參數(shù);并執(zhí)行下述步驟7;(混合高斯背景模型,實(shí)驗中每個區(qū)域?qū)?yīng)一個混合高斯背景模型,每個混合高斯模型對應(yīng)三到五個高斯模型)

      若區(qū)域類型為前景區(qū)域,則標(biāo)記區(qū)域中心像素為前景像素,添加新的高斯背景模型到混合高斯背景模型中,并執(zhí)行下述步驟7;

      若區(qū)域類型為邊緣區(qū)域,則利用邊緣區(qū)域中心像素判斷法進(jìn)行判斷,若屬于背景像素,則標(biāo)記為背景像素;若屬于前景像素,則標(biāo)記為前景像素;并執(zhí)行下述步驟7;

      更新該中心像素對應(yīng)的混合高斯背景模型中的各個高斯模型參數(shù),以下詳細(xì)介紹具體更新過程:對于第t時刻圖像it的每個區(qū)域首先根據(jù)式(2-4)計算區(qū)域特征為接著利用建立的混合高斯模型判斷該區(qū)域?qū)儆诒尘皡^(qū)域,屬于前景區(qū)域。若該區(qū)域?qū)儆诒尘埃瑒t令該區(qū)域的中心像素為背景像素,并以當(dāng)前區(qū)域的特征更新對應(yīng)的背景模型。若該區(qū)域為前景區(qū)域,則令該區(qū)域的中心像素為前景像素,并把當(dāng)前區(qū)域的特征添加到高斯模型中。利用建立好的混合高斯背景模型,可以計算出出當(dāng)前圖像區(qū)域塊的特征屬于背景模型的概率,也就是特征屬于區(qū)域對應(yīng)背景模型的概率為:

      上式中參數(shù)前面都有介紹,表示高斯概率密度函數(shù):

      其中d表示特征的維數(shù),是一個列向量。由于建立的背景模型包含多個高斯分布函數(shù),在進(jìn)行前景檢測的過程中需要逐個對比特征與各個模型之間的差異,如果這個差異符合條件,就認(rèn)為該特征落在該高斯分布內(nèi)。如果這個差異過大,則認(rèn)為該特征不落在該高斯分布內(nèi)。具體判斷的條件為:

      其中ε是一個固定的值,表示特征相對于均值變化是否在標(biāo)準(zhǔn)差的ε個倍數(shù)內(nèi)。若有多個高斯分布滿足式(2-11)的條件,需要從中找到最接近的高斯分布,評價方法為:

      要求尋找到最接近的高斯分布模型,并更新該模型對應(yīng)的參數(shù)。具體參數(shù)的更新方法為:

      上面學(xué)習(xí)速率α表示模型對外界新變化的學(xué)習(xí)速度快慢,若α過小,則需要經(jīng)過很多幀才會認(rèn)為該變化屬于背景模型;若α過大,僅僅需要幾幀就會認(rèn)為該變化屬于背景模型;因根據(jù)背景的特性,選擇合適大小的學(xué)習(xí)速率α。學(xué)習(xí)速率ρ表示參數(shù)學(xué)習(xí)的速度,可以直接計算得到,對應(yīng)高斯模型色權(quán)值越小,參數(shù)的學(xué)習(xí)速度越快。

      步驟7:通過各像素的判斷結(jié)果,得到視頻幀中的運(yùn)動目標(biāo)檢測結(jié)果。

      本發(fā)明主要包括卷積神經(jīng)網(wǎng)絡(luò)的特征提取方法、自適應(yīng)區(qū)域判斷兩個方面的內(nèi)容。

      (1)基于卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域特征提取方法;

      與已有基于區(qū)域塊背景建模方法中以離散余弦變換(dct)系數(shù)描述提取區(qū)域特征不同,本發(fā)明采用基于卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域特征提取方法,該卷積神經(jīng)網(wǎng)絡(luò)是以自編碼神經(jīng)網(wǎng)絡(luò)以及卷積池化操作為基礎(chǔ)而建立的模型。整個模型對自編碼神經(jīng)網(wǎng)絡(luò)提取的特征進(jìn)行一次卷積操作和一次池化操作,最后得到區(qū)域的特征表示。具體來說將分辨率為m*n大小的圖像區(qū)域劃分成若干個areasize*areasize小的區(qū)域,把這些小的區(qū)域送到自編碼神經(jīng)網(wǎng)絡(luò)中,就可以獲得圖像區(qū)域的卷積特征。然后對得到的卷積特征進(jìn)行池化操作就可以得到圖像最后的特征表示,下面分別針對卷積神經(jīng)網(wǎng)絡(luò)所涉及到的自編碼神經(jīng)網(wǎng)絡(luò)的參數(shù)訓(xùn)練以及最后的區(qū)域特征表示兩個方面,來描述區(qū)域特征提取的具體步驟。

      對areasize*areasize大小圖像區(qū)域提取區(qū)域特征之前,需要訓(xùn)練好自編碼神經(jīng)網(wǎng)絡(luò)的參數(shù),自編碼神經(jīng)網(wǎng)絡(luò)輸入大小與所選擇的卷積大小是一致的。

      areasize*areasize為算法涉及到的卷積神經(jīng)網(wǎng)絡(luò)輸入?yún)^(qū)域大小,采用卷積大小為convolvedsize*convolvedsize,池化大小為pooledsize*pooledsize。

      本發(fā)明采用無監(jiān)督的學(xué)習(xí)方法進(jìn)行自編碼神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,不要求有標(biāo)簽的樣本數(shù)據(jù)。僅需要給出滿足要求的訓(xùn)練樣本,即可以訓(xùn)練好對應(yīng)的各個參數(shù)。對于每個目標(biāo)視頻,可以按固定間隔取出若干幀圖像。對于每張取出的圖像,從中按取出若干個大小為convolvedsize*convolvedsize的不重疊圖像樣本塊。以取出的若干個大小為convolvedsize*convolvedsize的圖像樣本塊作為訓(xùn)練樣本,既可以訓(xùn)練好網(wǎng)絡(luò)的參數(shù)。假如目標(biāo)視頻有n幀,為了避免相鄰幀之間區(qū)域的重復(fù)性,可以每隔k幀(k取值視具體情況而定,只要最后能取得足夠的樣本數(shù)量即可)取一張圖像作為訓(xùn)練樣本來源。假如目標(biāo)視頻有1200幀,則每隔10幀取一張圖像,一共取120張圖像。每一張圖像劃分為若干個convolvedsize*convolvedsize大小的不重疊區(qū)域作為訓(xùn)練樣本,假如圖像大小為m*n,則可以劃分為[n/aeasize]*[m/aeasize]個convolvedsize*convolvedsize大小的圖像樣本塊。通過獲取的樣本,利用反向轉(zhuǎn)播算法訓(xùn)練好自編碼神經(jīng)網(wǎng)絡(luò)的參數(shù)之后,就可以進(jìn)行區(qū)域的特征提取。利用訓(xùn)練好的模型,把a(bǔ)reasize*areasize大小的區(qū)域塊送到卷積神經(jīng)網(wǎng)絡(luò)中,既可以得到其對應(yīng)的特征表示。如圖2所示,假定輸入圖像塊大小為9*9,所采用卷積大小為4*4,池化大小為3*3,那么結(jié)合自編碼神經(jīng)網(wǎng)絡(luò)進(jìn)行卷積操作后的卷積特征大小為6*6。然后對得到的卷積特征作池化操作,得到的池化特征大小為2*2,令自編碼神經(jīng)網(wǎng)絡(luò)中隱藏神經(jīng)元的個數(shù)為63,則最后的區(qū)域塊特征維數(shù)為63*2*2*252。

      對圖像區(qū)域塊的特征提取進(jìn)行更一般的表述,設(shè)自編碼神經(jīng)網(wǎng)絡(luò)隱藏層的節(jié)點(diǎn)個數(shù)為hiddensize,輸入圖像區(qū)域塊經(jīng)過卷積之后的特征大小為(areasize*convolvedsize*1)*(areasize*convolvedsize*1),經(jīng)過池化后特征大小為((areasize*convolvedsize*1)/pooledsize)*((areasize*convolvedsize*1)/pooledsize)。由于最后的池化特征大小必須是整數(shù),所以要求卷積之后的尺寸(areasize*convolvedsize*1)是池化大小pooledsize的整數(shù)倍。

      針對所要處理的視頻中的每張分辨率大小為m*n的圖片數(shù)據(jù),進(jìn)行擴(kuò)展之后的大小為(m+2*[areasize/2])*(n+2*[areasize/2]),因此原圖中每個像素都對應(yīng)一個areasize*areasize大小的區(qū)域塊。經(jīng)過擴(kuò)展之后的圖像劃分為若干個區(qū)域塊為:

      上式中at表示視頻中第t張圖片所有經(jīng)過劃分的圖像塊,表示圖片中第i行第j列像素所對應(yīng)的區(qū)域塊,其大小為areasize*areasize。得到圖像的各個區(qū)域塊之后,將每個areasize*areasize大小的圖像區(qū)域塊送入卷積神經(jīng)網(wǎng)絡(luò)得到所對應(yīng)的區(qū)域特征表示。對應(yīng)各個區(qū)域的特征表示為:

      上式中,ft表示圖像中所有經(jīng)過劃分的圖像塊的特征表示;表示圖像中第i行第j列像素對應(yīng)的圖像區(qū)域塊的特征表示:

      將圖像區(qū)域塊送到設(shè)計好的自編碼卷積神經(jīng)網(wǎng)絡(luò)中,獲得其對應(yīng)特征表示在此基礎(chǔ)上建立對應(yīng)的混合高斯背景模型;令圖像區(qū)域塊所對應(yīng)的混合高斯背景模型為:

      上式中表示由n個高斯模型組成的混合高斯模型公式;

      使用本發(fā)明所采用的卷積神經(jīng)網(wǎng)絡(luò)提取得到的圖片中各個區(qū)域的特征代入到該公式隨后進(jìn)行一般的混合高斯背景建模流程操作。混合高斯背景建?;趯D片進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)提取得到的特征判斷圖片中屬于背景像素的部分,或者為前景像素。至此達(dá)到通過基于卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片特征提取,將特征輸入混合高斯模型中進(jìn)行背景建模的目的;

      不同于已有的基于dct系數(shù)的區(qū)域塊特征描述方法,本發(fā)明采用區(qū)域卷積特征建立混合高斯背景模型。下面給出相關(guān)實(shí)驗結(jié)果的對比分析,如圖3所示。

      (2)自適應(yīng)區(qū)域判斷方法判斷區(qū)域類型;

      接著上一步通過卷積神經(jīng)網(wǎng)絡(luò)提取圖片區(qū)域塊特征進(jìn)行混合高斯背景建模操作,由于混合高斯背景建模對區(qū)域所代表的像素判斷為前景區(qū)域或背景區(qū)域時會存在一些難以分辨的情況,即該區(qū)域中既有前景像素又有背景像素時我們稱之為邊緣區(qū)域,如下圖4所示,左邊的圖中,前景像素的個數(shù)較小,所占的比例在1/3左右;中間的圖中,前景像素的個數(shù)適中,所占的比例在1/2左右;右邊的圖中,前景像素的個數(shù)較多,所占的比例在2/3左右。對于第一種情況,對該區(qū)域進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)特征提取、混合高斯建模判定其為背景區(qū)域,該區(qū)域所對應(yīng)的中心像素是背景像素。對于第二種情況,本發(fā)明認(rèn)為該區(qū)域為邊緣區(qū)域,所對應(yīng)的中心像素的類型需要通過自適應(yīng)區(qū)域判斷方法判斷區(qū)域類型才能得到,這也是本發(fā)明做出的第二點(diǎn)創(chuàng)新。對于第三種情況,對該區(qū)域進(jìn)行卷積神經(jīng)網(wǎng)絡(luò)特征提取、混合高斯建模判定其為前景區(qū)域,該區(qū)域所對應(yīng)的中心像素是前景像素。針對邊緣區(qū)域情況我們提出一種自適應(yīng)區(qū)域判斷方法判斷區(qū)域類型來判斷邊緣區(qū)域所對應(yīng)的像素是屬于背景還是前景;

      對邊緣區(qū)域的中心像素進(jìn)行額外的判斷,主要結(jié)合基于中心像素在區(qū)域中的相鄰像素的類型,能夠較好確定中心像素的類型。下面詳細(xì)介紹利用相鄰像素間的關(guān)系判斷邊緣區(qū)域?qū)?yīng)中心像素類型的方法。具體說來,獲取待處理區(qū)域ai,j中心像素pi,j,以該像素為中心,在原圖中取大小為m*m的區(qū)域作為模板區(qū)域。獲取中心像素pi,j對應(yīng)模板區(qū)域內(nèi)的各個像素,并把模板區(qū)域內(nèi)的各像素劃分成兩類:

      上式表示區(qū)域內(nèi)各像素值與中心像素值是否接近,η是判斷兩像素值之間是否接近的一個閾值(是一個可調(diào)節(jié)變量)。如果兩個像素值pi,j和px,y之間的差異小于η,則認(rèn)為兩個像素是相似的,記為close(pi,j,px,y)=1;反之則記為

      close(pi,j,px,y)=0;

      對模板區(qū)域內(nèi)各個像素與中心像素關(guān)系判斷完成后,獲得與中心像素值接近的像素總數(shù):

      基于以上規(guī)則計算區(qū)域內(nèi)與中心像素相似的像素數(shù)量計算,獲取相似像素值的個數(shù)之后,在相近像素值中判斷屬于背景像素的個數(shù):

      px,y表示該像素屬于背景像素類型,由此得到區(qū)域中與中心像素相似的像素中,屬于背景像素的個數(shù);然后通過以下式子比較b和s判斷中心像素屬于背景或前景:

      上式表示判斷模板區(qū)域內(nèi)相近像素中是否超過一半的像素為背景像素,超過一半則認(rèn)為像素pi,j屬于背景像素,不超過一半則認(rèn)為像素pi,j屬于前景像素。

      為了驗證本發(fā)明的有效性,在兩個公共數(shù)據(jù)集以及一個自有數(shù)據(jù)集上進(jìn)行測試,分別包括li、cdnet2014和yangtze-boat數(shù)據(jù)集。三個數(shù)據(jù)集中都提供若干組視頻序列,視頻序列分別涉及背景建?,F(xiàn)在所面臨的各種挑戰(zhàn)性問題,例如光照變化、動態(tài)背景、陰影等。由于篇幅限制,這里列舉了本發(fā)明與其他方法在公有數(shù)據(jù)集中的一部分對比結(jié)果進(jìn)行展示,在定量的對比分析時,用公認(rèn)的f-score作為評價標(biāo)準(zhǔn),來衡量算法的優(yōu)劣。在公共數(shù)據(jù)集li上,將數(shù)據(jù)集的正確標(biāo)注groundtruth與本發(fā)明的方法處理數(shù)據(jù)集所得的結(jié)果進(jìn)行比較,選取了以下光照變化問題的視頻序列ws、涉及移動窗簾動態(tài)背景問題的視頻序列mr、涉及陰影問題的視頻序列ft、涉及搖晃樹葉動態(tài)背景問題的視頻序列cam上的對比結(jié)果,對相關(guān)的實(shí)驗結(jié)果給出定性和定量的分析如圖5和表1所示。在公共數(shù)據(jù)集cdnet2014上,利用數(shù)據(jù)集官網(wǎng)上給出的rmog方法的實(shí)驗結(jié)果,與本發(fā)明的方法進(jìn)行定性的對比分析,如圖6所示,第一列為原始圖像,第二列為rmog方法的結(jié)果,第三列為本發(fā)明方法的結(jié)果。相對于rmog方法的實(shí)驗結(jié)果,本發(fā)明的方法成功檢測出前景的大部分像素,取得較好的實(shí)驗效果。在自有數(shù)據(jù)集yangtze-boat上,如圖7所示,本發(fā)明所采用方法與傳統(tǒng)的mog方法進(jìn)行定性對比分析。由于mog方法對單獨(dú)像素的變化十分敏感,由此造成水面上的錯誤前景像素點(diǎn)較多。而本發(fā)明的方法對單個區(qū)域塊的變化十分敏感,這樣可以充分把像素空間上的特性考慮在內(nèi)。例如第二和第三組視頻中,對于單個像素變化不大的船身,mog方法無法檢測出類似的像素點(diǎn),使之被錯誤檢測為背景像素,而本發(fā)明的方法能正確把類似像素成功檢測為前景像素點(diǎn)。在yangtze-boat數(shù)據(jù)集中三組視頻數(shù)據(jù)上,與mog方法的實(shí)驗結(jié)果對比,可以發(fā)現(xiàn)本發(fā)明的方法在前景檢測方面取得較好的實(shí)驗結(jié)果。

      表1f-score標(biāo)準(zhǔn)下各種方法的定量對比分析

      應(yīng)當(dāng)理解的是,本說明書未詳細(xì)闡述的部分均屬于現(xiàn)有技術(shù)。

      應(yīng)當(dāng)理解的是,上述針對較佳實(shí)施例的描述較為詳細(xì),并不能因此而認(rèn)為是對本發(fā)明專利保護(hù)范圍的限制,本領(lǐng)域的普通技術(shù)人員在本發(fā)明的啟示下,在不脫離本發(fā)明權(quán)利要求所保護(hù)的范圍情況下,還可以做出替換或變形,均落入本發(fā)明的保護(hù)范圍之內(nèi),本發(fā)明的請求保護(hù)范圍應(yīng)以所附權(quán)利要求為準(zhǔn)。

      當(dāng)前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
      1