一種無重疊視域下的行人再識別方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于智能視頻監(jiān)控領(lǐng)域,特別涉及一種無重疊視域下的行人再識別方法。
【背景技術(shù)】
[0002] 行人再識別是智能視頻監(jiān)控領(lǐng)域最具有挑戰(zhàn)性的問題之一,隨著視頻監(jiān)控技術(shù)的 廣泛應(yīng)用,大量的監(jiān)控攝像頭被應(yīng)用于各種公共場所,在對視頻進行監(jiān)控的時候,視頻中的 行人是我們重點監(jiān)控的對象之一,由于攝像機監(jiān)控區(qū)域的局限性,無重疊視域的攝像機聯(lián) 合監(jiān)控在監(jiān)控系統(tǒng)中的應(yīng)用越來越廣泛。在無重疊視域下,目標行人的再識別是一種將曾 經(jīng)在監(jiān)控網(wǎng)絡(luò)中出現(xiàn)過的目標行人在其他攝像機的場景內(nèi)出現(xiàn)時再次識別出來的技術(shù);在 對行人進行再識別匹配的時候往往我們很難僅根據(jù)行人的某一張圖片信息或者某一種單 一的特征信息來進行很好的匹配,同時單一的一種度量準則也很難對不同的特征達到相同 的匹配基準,因此如何有效的利用行人圖片的序列信息以及提出一種綜合魯棒的表示特征 和相應(yīng)的度量準則是解決行人再識別的關(guān)鍵。
【發(fā)明內(nèi)容】
[0003] 本發(fā)明的目的在于提出了一種無重疊視域下行人再識別的方法,通過對行人序列 的采集以及行人的精確提取與分割從而減小外界干擾信息的影響,最終構(gòu)建一個行人的分 塊多通道稀疏字典,計算待識別行人的重構(gòu)誤差并進行融合判決,該方法能夠很好的提高 行人目標再識別的可靠性。
[0004] 為了實現(xiàn)上述目的,本發(fā)明采用以下技術(shù)方案:一種無重疊視域下的行人再識別 方法,包括步驟如下: 步驟A、監(jiān)控視域中行人目標的檢測與跟蹤; 步驟B、精確行人區(qū)域的提取與行人模型的分割; 步驟C、行人序列上下半身HSV三通道稀疏字典的構(gòu)建; 步驟D、另一監(jiān)控視域中行人目標的檢測分割預(yù)處理; 步驟E、稀疏重構(gòu)融合判決,得出行人目標識別相似度。
[0005] 所述步驟A包括以下步驟:對監(jiān)控視域下的視頻采用基于H0G+SVM的行人檢測算法 進行行人檢測,獲取行人的最小矩形框i*j,然后采用TLD算法對目標行人進行跟蹤,保存每 一幀跟蹤結(jié)果信息。
[0006] 所述步驟B中包括以下步驟:步驟B-1,結(jié)合行人跟蹤結(jié)果框坐標信息以及視頻幀 信息,采用GrabCut算法對視頻序列的每一個行人區(qū)域進行前景分割處理,分割出精確的行 人前景區(qū)域并歸一化到統(tǒng)一大小i*j保存; 步驟B-2,將精確的行人前景采用固定的行人模型進行分割,將行人分割為上半身和下 半身并保存分割后的行人上下半身序列,分割比例為7:5。
[0007] 所述步驟C中包括以下步驟:利用步驟B-2中分割出來的行人目標的上半身以及下 半身序列,將其顏色從RGB顏色通道轉(zhuǎn)化為HSV顏色通道,然后將每一個通道顏色分量合成 一維特征矢量,之后利用提取到的特征矢量分別構(gòu)建上下半身的H、S和V三通道的稀疏字 典,分別為上半身字典0111、031和0^以及下半身字典0112,0 32和0^。
[0008] 所述步驟D中包括以下步驟:利用步驟A中行人檢測方法對行人目標進行檢測并將 檢測到的行人矩形框歸一化到i*j大小,然后再利用步驟B中所提到的行人分割方法對行人 區(qū)域進行精確的提取和行人模型的分割,從而精確提取出行人的上下半身序列,將待識別 行人目標的上下半身序列從RGB顏色通道轉(zhuǎn)換為HSV顏色通道。
[0009] 所述步驟中E包括以下步驟:對步驟D處理過后的行人上下半身序列分別提取其 HSV三通道值,每一個顏色分量合成一維特征矢量,然后計算其在對應(yīng)稀疏字典Dhl、Dsl、D vl、 〇112、032、0^下的重誤差3111、3;51人1、5[ 12、3;52人2,之后對六個字典的重構(gòu)差賦予不同的權(quán)重并 進行融合判決,融合原則為δ總=0.65*(5 hl+5sl+5vl)+0. 35*(5hl+5sl+5vl),從而由總的重構(gòu)誤 差知.判決待識別行人目標的識別相似度。
[0010] 總體而言,通過本發(fā)明所構(gòu)思的以上技術(shù)方案與現(xiàn)有技術(shù)相比,能夠取得以下有 益效果:(1)本發(fā)明能夠有效的利用到行人目標的圖片序列信息,同時大大減小了外界信息 對行人目標信息的干擾以及行人角度、姿態(tài)變化對識別所帶來的影響,能夠使提取到的特 征信息更加魯棒可靠;(2)本發(fā)明能夠很好的利用行人HSV顏色通道信息,構(gòu)建行人分塊多 通道稀疏字典,計算待識別目標分塊后的多通道重構(gòu)誤差,最后通過分別賦予上下半身字 典不同權(quán)重比例進行融合判決從而大大提高了待識別行人的識別準確度。
【附圖說明】
[0011] 圖1是本發(fā)明的無重疊視域下的行人再識別方法的流程圖。
【具體實施方式】
[0012] 為了使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合附圖實施例對本發(fā) 明作進一步的詳細說明。
[0013] 本發(fā)明的流程圖如圖1所示,以下為一個具體的實施例,其具體步驟依次為: 步驟A:監(jiān)控視域中行人目標的檢測與跟蹤: 首先采用H0G+SVM的行人檢測算法對視域下的行人目標進行行人檢測,獲取行人目標 的最小矩形框i*j,然后將檢測到的行人目標框作為TLD算法的初始跟蹤框?qū)π腥四繕诉M行 跟蹤,同時保存當前幀跟蹤坐標信息(1 1,71,12,72),其中#」為矩形框的大小,(1 1,71),(^, y2)分別為當前跟蹤結(jié)果矩形框左上角和右下角的坐標。
[0014] 步驟B:精確行人區(qū)域的提取與行人模型的分割: 在對行人目標進行跟蹤的同時結(jié)合跟蹤算法的跟蹤結(jié)果坐標,采用GrabCut算法對當 前視頻幀的行人區(qū)域進行前景分割處理,從而分割出不包含背景信息的行人目標,保存分 割出的行人目標矩形框,同時將圖片大小歸一化為統(tǒng)一大小i*j,依次保存為Im gl,Img2, Img3,"_,Imgn,直至目標跟蹤消失;然后將圖片按照行人分割模型進行分割,上下半身分割 比為7 : 5,從而分割成上半身和下半身,依次保存為Imgi上,ImgrF,Img2上,Img2上,…,Imgn上, Imgn下序列集,其中Imgi上,ImgrF,Img2上,Img2上,…,Imgn上,Img n下,分別為對應(yīng)圖片Imgi,Img2, Img3,···,Imgn分割出來的上半身和下半身。
[0015]步驟C、行人上下半身序列HSV三通道稀疏字典的構(gòu)建: 首先將保存的行人上下半身序列從RGB顏色空間轉(zhuǎn)換到HSV