国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      基于結(jié)構(gòu)相似背景建模的運動目標檢測方法

      文檔序號:9565265閱讀:463來源:國知局
      基于結(jié)構(gòu)相似背景建模的運動目標檢測方法
      【技術(shù)領(lǐng)域】
      [0001] 本發(fā)明涉及一種基于結(jié)構(gòu)相似背景建模的運動目標檢測方法,用于公共安全與防 范以及視頻分析與理解。屬于智能信息處理技術(shù)領(lǐng)域。
      【背景技術(shù)】
      [0002] 隨著攝像頭的日益普及,大量攝像機被廣泛應(yīng)用于公共安全與防范以及視頻分析 與理解,海量視頻信息亟待處理,其中,運動目標檢測是處理、分析和理解視頻內(nèi)容的關(guān)鍵 和基礎(chǔ)。運動目標檢測的運用,可以極大減少人類的工作量,從而將人類從繁重的勞動中解 放出來。
      [0003] 正是由于運動目標檢測的重要性,使其一直受到國內(nèi)外研究人員的廣泛關(guān)注,而 復(fù)雜多樣場景中的運動目標高效自動檢測,迄今為止仍是一項極具挑戰(zhàn)性工作。其中,運動 目標檢測主要包括:背景建模和前景分割。目前,背景建模方法主要有前向型和反饋型兩 種。前向型背景建模方法,由于采用統(tǒng)一的學習率更新背景,因而,背景模型中易引入前景 特征;反饋型背景建模方法,在識別前景的基礎(chǔ)上對背景進行更新,但由于前景的誤判,仍 然易導(dǎo)致背景引入前景特征中。在前景分割方面,所采用的主要特征包括:亮度、色彩、紋理 等,其中,亮度特征難有效壓制陰影,而色彩特征則難有效區(qū)分偽裝,紋理特征卻在前景分 割時,容易產(chǎn)生空洞。因此,如何實現(xiàn)復(fù)雜多樣場景中的運動目標高效自動檢測,迄今為止 仍是一項亟待解決的挑戰(zhàn)性難題。

      【發(fā)明內(nèi)容】

      [0004] 本發(fā)明的目的在于針對目前運動目標檢測存在的問題與不足,提供一種基于結(jié)構(gòu) 相似背景建模的運動目標檢測方法,根據(jù)視頻場景中的物體結(jié)構(gòu)對光照變化具有強的魯棒 性,利用結(jié)構(gòu)相似性,更新背景模型,并采用多模態(tài)特征融合策略,提取視頻前景運動目標, 實現(xiàn)復(fù)雜多變視頻場景中的前景運動目標檢測。
      [0005] 為達到上述目的,本發(fā)明的構(gòu)思是:利用結(jié)構(gòu)相似性,更新背景模型,并采用多模 態(tài)特征融合策略,提取視頻前景運動目標。
      [0006] 根據(jù)上述發(fā)明構(gòu)思,本發(fā)明采用下述技術(shù)方案:
      [0007] -種基于結(jié)構(gòu)相似背景建模的運動目標檢測方法,其特征在于:根據(jù)視頻場景中 的物體結(jié)構(gòu)對光照變化具有強的魯棒性,利用結(jié)構(gòu)相似性,更新背景模型,并采用多模態(tài)特 征融合策略,提取視頻前景運動目標,實現(xiàn)復(fù)雜多變視頻場景中的運動目標檢測;具體操作 步驟如下:
      [0008] 1)啟動視頻米集系統(tǒng):米集視頻圖像序列;
      [0009] 2)背景初始化:采用前η幀圖像的平均值,作為初始背景圖像F ;
      [0010] 3)計算當前幀圖像與初始背景圖像的結(jié)構(gòu)相似系數(shù);
      [0011] 4)根據(jù)結(jié)構(gòu)相似性,進行背景更新;
      [0012] 5)基于多模態(tài)特征融合,提取前景運動目標。
      [0013] 上述步驟3)的具體操作步驟如下:
      [0014] (1)計算當前幀圖像仁與初始背景圖像F之間的亮度失真S"(F,It)和對比度失真 Sv (F, It):
      [0017] 其中,μ JP μ 2分別是F和I t的區(qū)域均值,σ JP σ 2分別是F和I t的區(qū)域方差, σ 1ι2是F和I t之間的區(qū)域協(xié)方差,c JP c 2為常數(shù);
      [0018] (2)確定當前幀圖像仁與初始背景圖像F之間的結(jié)構(gòu)相似圖M(F,I t):
      [0019] M(F, It) = Sn (F, It) XSV(F, It);
      [0020] (3)根據(jù)步驟(2)所得的結(jié)構(gòu)相似圖M(F,It),計算當前幀圖像仁與初始背景圖像 F之間的結(jié)構(gòu)相似性mt:mt= (M(F,It))Y,其中,γ為常數(shù);
      [0021] 上述步驟4)的具體操作步驟如下:
      [0022] (1)根據(jù)步驟3)獲得的結(jié)構(gòu)相似性系數(shù)叫,計算運動區(qū)域的反饋系數(shù)dt:d t = (l-α )dt fa (l-mt),其中,dt i為t-1時刻運動區(qū)域反饋系數(shù),α為學習率;
      [0023] (2)計算當前t時刻的反饋系數(shù)β t:
      [0024] (3)根據(jù)步驟(2),更新背景,確定當前t時刻的背景Bt:Bt= (l-β tXa) Bt !+PtX a XIt,
      [0025] 其中,Bt丨為t-1時刻的背景;
      [0026] 上述步驟5)的具體操作步驟如下:
      [0027] (1)色彩空間轉(zhuǎn)換:由RGB彩色空間的紅R、綠G、藍B三分量,分別確定YUV色彩 空間的亮度分量Y、色度分量U和V :
      [0028] Y = O. 299R+0. 587G+0. 114B
      [0029] U = -0. 147R-0. 289G+0. 436B
      [0030] V = 0. 615R-0. 515G-0. 100B ;
      [0031] (2)分別計算當前幀圖像It的亮度分量Y t、色度分量Ut、Vt與當前t時刻的背景 Bt的亮度分量YB t、UBt、VBt之間的差距If t、cft:
      [0032] Ift=Ift= IYt-YBt
      [0033] cft:Cft= IUt-UBt I+ I Vt_VBt|,其中,I I 為絕對值運算符。
      [0034] (3)計算當前幀圖像It與當前t時刻的背景Bt之間的結(jié)構(gòu)相似性tf t:tft = mt(It,Bt);
      [0035] (4)根據(jù)步驟⑵和步驟(3),分別確定初始前景運動目標的二值圖mlt、mc t、mtt:

      [0039] 其中,HT3S閾值;
      [0040] (5)根據(jù)步驟(4)獲得的mlt、mCJP mt t,確定最終的前景運動目標的二值圖kt:k t =mtt& (mlt I mct),其中,符號"&"為邏輯與運算符,符號" I "為邏輯或運算符。
      [0041] 本發(fā)明的原理如下:
      [0042] 根據(jù)視頻場景中的物體結(jié)構(gòu)對光照變化具有強的魯棒性,因此,可利用結(jié)構(gòu)相似 圖,減少基于視頻場景中的物體紋理差異進行前景運動目標檢測所導(dǎo)致的運動目標分割不 完整現(xiàn)象。同時,采用結(jié)構(gòu)相似圖,可獲取當前幀圖像與背景模型之間的差異情況,從而使 得利用結(jié)構(gòu)相似圖進行背景建模與更新可行。
      [0043] 根據(jù)上述原理,背景更新模型如下:
      [0044] Bt= (l-β tX a )Bt !+β tX a XIt
      [0045] 其中,1,為當前幀圖像,B t i為t-1時刻的背景,α為一級學習率,β t為二級學習 率。α由視頻幀率、視場中物體運動速度等因素決定,Pt可表示為:
      [0047] 其中,dt= (l-α )d t !+a (l-mt),mt表示當前幀和當前背景的結(jié)構(gòu)相似圖。
      [0048] mt值越大,表明當前幀與背景模型之間的相似度越高,,則其為前景運動目標的概 率則越低,因而,需提高背景更新速度;屯代表當前運動區(qū)域的反饋系數(shù),其值越大,則表明 存在運動或者出現(xiàn)新的背景物體,此時,應(yīng)加快背景更新速度;d t i則為t-Ι時刻的運動區(qū) 域反饋系數(shù)。
      [0049] 為確定上述值,并獲取視頻場景中有效的前景運動目標,首先,米用初始前η幀圖 像的平均值,作為初始背景圖像。
      [0050] 按下式分別計算當前幀圖像仁與初始背景圖像F之間的亮度失真S "(F,It)和對 比度失真\沉1,):
      [0053] 其中,μ JP μ 2分別是F和I t的區(qū)域均值,σ JP σ 2分別是F和I t的區(qū)域方差, σ 1ι2是F和I t之間的區(qū)域協(xié)方差,c JP c 2為常數(shù)。
      [0054] 確定當前幀圖像仁與初始背景圖像F之間的結(jié)構(gòu)相似圖:
      [0055] M(F, It) = Sn (F, It) XSV(F, It)
      [0056] 根據(jù)上述所得的結(jié)構(gòu)相似圖M(F,It),計算當前幀圖像仁與初始背景圖像F之間 的結(jié)構(gòu)相似性:
      [0057] mt= (M(F, I t)) γ
      [0058] 其中,γ為常數(shù)。
      [0059] 根據(jù)結(jié)構(gòu)相似性系數(shù)mt,計算運動區(qū)域的反饋系數(shù)屯以及當前t時刻的反饋系數(shù)
      [0062] 其中,dt i為t-1時刻運動區(qū)域反饋系數(shù),α為學習率。
      [0063] 在此基礎(chǔ)上,更新背景,確定當前t時刻的背景:
      [0064] Bt= (l-β tX a )Bt !+β tX a XIt
      [0065] 其中,Bt i為t-1時刻的背景。
      [0066] 根據(jù)YUV色彩空間中亮度分量和色度分量不僅相互分離,而且可以避免相互干 擾。其中,在YUV色彩中,Y分量表示亮度信息,U和V分量表示色度信息。從RGB空間轉(zhuǎn)換 到Y(jié)UV色彩空間的轉(zhuǎn)換公式如下:
      [0068] 由此分別計算當前幀圖像It的亮度分量Y t、色度分量Ut、Vt與當前t時刻的背景 Bt的亮度分量YB t、UBt、VBt之間的差距:
      [0069] Ift= IYt-YBt
      [0070] cft= |Ut-UBt I+ IVt-VBt
      [0071] 其中,I I為絕對值運算符。
      [0072] 計算當前幀圖像It與當前t時刻的背景B t之間的結(jié)構(gòu)相似性:
      [0073] tft= m t(It, Bt)
      [0074] 在此基礎(chǔ)上,分別確定初始前景運動目標的二值圖:
      [0078] 其中,InI^T3為閾值。
      [0079] 通過上述獲取的初始前景運動目標的二值圖,采用如下多模態(tài)融合策略,確定最 終
      當前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1