一種基于有限混合模型的行人再識別方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于計算機(jī)視覺與模式識別領(lǐng)域,更具體地,涉及一種基于有限混合模型 的行人再識別方法。
【背景技術(shù)】
[0002] 行人再識別在視頻監(jiān)控網(wǎng)絡(luò)中中是非常重要的問題,在監(jiān)控網(wǎng)絡(luò)中的行人會在不 同的攝像頭下出現(xiàn)。行人再識別的任務(wù)是在監(jiān)控網(wǎng)絡(luò)中行人的身份的鑒定,將曾經(jīng)在監(jiān)控 網(wǎng)絡(luò)中出現(xiàn)過的目標(biāo)行人在其他攝像機(jī)的場景內(nèi)時再次識別出來的技術(shù),即在給定一些候 選目標(biāo)的情況下如何將行人進(jìn)行再識別。
[0003] 現(xiàn)有的行人再識別方法中主要分為以下幾步:從原始視頻數(shù)據(jù)中提取更為可靠、 魯棒和精確的特征數(shù)據(jù);通過提取的特征數(shù)據(jù)來建立描述子能夠有效描述不同個體;將需 再識別圖像與監(jiān)控網(wǎng)絡(luò)中的行人進(jìn)行距離度量并返回再識別行人的候選行人圖像。
[0004] 但現(xiàn)有的行人再識別方法也存在著一些相應(yīng)的問題:(1)提取的特征不能夠建立 一個魯棒性的描述子對行人圖像的整體信息進(jìn)行描述;(2)不同個體的描述子是處在黎曼 流形上,簡單得采用一些歐式空間度量距離的方法往往帶來很大的偏差。
【發(fā)明內(nèi)容】
[0005] 針對現(xiàn)有技術(shù)的以上缺陷或改進(jìn)需求,本發(fā)明提供了一種基于有限混合模型的 行人再識別方法,其目的在于,在提取的特征上建立更為魯棒性的描述子對行人圖像進(jìn)行 描述,并對不同行人圖像的描述子建立度量模型以更準(zhǔn)確得返回再識別行人的候選行人圖 像。
[0006] 為實(shí)現(xiàn)上述目的,按照本發(fā)明的一個方面,提供了一種基于有限混合模型的行人 再識別方法,包括以下步驟:
[0007] (1)對監(jiān)控視頻進(jìn)行預(yù)處理,以構(gòu)建行人圖像庫,并提取需再識別行人的圖像和行 人圖像庫的多維特征向量;
[0008] (2)利用步驟(1)中得到的多維特征向量并使用期望最大化算法計算行人圖像庫 中所有圖像的有限混合模型參數(shù)和需再識別行人的圖像的有限混合模型參數(shù);
[0009] (3)采用李群運(yùn)土工距離分別獲得需再識別行人的有限混合模型與行人圖像庫中 所有圖像的有限混合模型之間的距離,并對距離按照從小到大的順序排序后返回排名前列 的多個結(jié)果所對應(yīng)的行人數(shù)據(jù)庫中的多幅圖像。
[0010] 優(yōu)選地,本方法進(jìn)一步包括:在步驟(1)之后,利用主成分分析法對提取的多維特 征向量進(jìn)行維數(shù)削減。
[0011] 優(yōu)選地,步驟(1)包括以下子步驟:
[0012] (I. 1)對監(jiān)控視頻進(jìn)行行人檢測,提取所有行人的最小矩形框圖像,并根據(jù)提取的 最小矩形框圖像構(gòu)建行人圖像庫;
[0013] (1. 2)將需再識別行人的圖像與行人圖像庫中所有圖像按照統(tǒng)一的圖像長度和寬 度進(jìn)行縮放,并將行人圖像庫中的所有圖像進(jìn)行顏色直方圖均衡化處理,其中以圖像左上 方的頂點(diǎn)作為坐標(biāo)原點(diǎn),像素點(diǎn)的坐標(biāo)為(x,y);
[0014] (1. 3)提取步驟(1. 2)處理后的需再識別行人的圖像與處理后的行人圖像庫中所 有圖像的每個像素點(diǎn)(x,y)處的多維特征向量z (x,y)。
[0015] 優(yōu)選地,步驟(1. 3)具體為,提取像素點(diǎn)(X,y)處多維特征向量
,其中R、G、B分別為像素點(diǎn) (X,y)處的顏色信息,I# I ¥分別為圖像經(jīng)過(-1,〇, I) τ、(-1,〇, 1)濾波后在像素點(diǎn)(X,y) 處的一階梯度值,Ixx與Iyy則分別為圖像經(jīng)過(-1,2, I) T、(-1,2, 1)濾波后像素在像素點(diǎn) (X,y)處的二階梯度值,(·)T表示對矩陣進(jìn)行轉(zhuǎn)置操作。
[0016] 優(yōu)選地,步驟⑵包括以下子步驟:
[0017] (2. 1)采用有限混合模型對需再識別行人的圖像及行人圖像庫中的每幅圖像的多 維特征向量ζ (X,y)進(jìn)行建模,以生成有限混合模型中的模型參數(shù)T和S ;具體而言,有限混 合模型的基函數(shù)采用高斯函數(shù),基函數(shù)的個數(shù)根據(jù)經(jīng)驗(yàn)設(shè)置一個值N,使用EM算法獲取有 限混合模型中需再識別行人的圖像的模型參數(shù)了={(?^以^2 1^),(¥2^,以2,1,22一,· ..(w K,T,μκ,τ,Σκ,τ)},以及有限混合模型中行人圖像庫中圖像的模型參數(shù)S= {(Wl,s,μ。 ,\s),(W2, s,μ2』,Σ2』),...(W;s,Σ;』)},其中K和J分別為有限混合模型中需再識 別行人的圖像、行人圖像庫中的圖像經(jīng)過EM算法迭代融合后的基函數(shù)個數(shù),且1彡K彡Ν, 1彡J彡N ;這里(wk,T,yk,T,Xk, T)分別表示需再識別行人圖像的有限混合模型中高斯基函 數(shù)的權(quán)值、均值向量和協(xié)方差矩
分別表示行人圖像庫圖像 k-:i J 的有限混合模型中高斯基函數(shù)的權(quán)值、均值向量和協(xié)方差矩陣,且Σ?ι',.ν =1;
[0018] (2.2)將需再識別行人的圖像與行人圖像庫中的圖像的有限混合模型中高斯 基函數(shù)的協(xié)方差矩陣Σ ρ進(jìn)行喬列斯基分解分解,以得到下三角矩陣LtT、L]iS: 2蚊.=Ai :τ?。害印dsXi s,其中分角軍所得到的Lk,T、1^,5是唯一的;
[0019] (2. 3)枏據(jù)得到的下三角矩陣L. T、Lj,s并通過多維標(biāo)準(zhǔn)正態(tài)分布生成仿射變換矩 ^
多個Tk,T、T k,s形成有限混合模型的模型參數(shù)T -I (wI1T) Tii t) , (w2jT, T2j τ),. . . (wK T, Τκ τ)} ν S - {(wliS, S1!s), (w2,s, S2,s), · · · (Wj,s, Sj,s)}。
[0020] 優(yōu)選地,步驟(3)包括以下子步驟:
[0021] (3. 1)度量需再識別行人的有限混合模型與行人圖像庫中每幅圖像的有限混合模 型之間的距離;
[0022] (3. 2)遍歷整個行人圖像庫計算圖像庫中所有行人與需再識別行人之間的李群運(yùn) 土工距離,將距離LGEMD(S,T)進(jìn)行排序,并返回排名前列的多個結(jié)果所對應(yīng)的行人數(shù)據(jù)庫 中的多幅候選圖像。
[0023] 優(yōu)選地,步驟(3. 1)包括以下子步驟:
[0024] (3. I. 1)將行人圖像庫中每個行人的第j個高斯成分S]iS映射到需再識別行人的 第k個仿射變換矩陣TkiT的切空間上,并計算第j個高斯成分S jiS到切空間的測地線距離
? I IfS矩陣的弗羅貝尼烏斯范數(shù); L,b」 H i. Z;米用LGEMD計算方法來優(yōu)化由模型參數(shù)S = {(wliS, SliS),(w2,s,S2,s),· · ·( wj,s,SiS)}到模型參數(shù) T= {(WpU,(w2,t,T2,t),···(w k,t,Tk,t)}之間的距離,其通過以下 線性目標(biāo)函數(shù)表示:
[0031] 上述優(yōu)化問題可通過單純形方法求出,上式中的d]k由(3.2.1)運(yùn)算得 到,然后根據(jù)所得的優(yōu)化參數(shù)計算出兩混合模型之間的李群運(yùn)土工距離
[0032] 按照本發(fā)明的另一方面,提供了一種基于有限混合模型的行人再識別系統(tǒng),包 括:
[0033] 第一模塊,用于對監(jiān)控視頻進(jìn)行預(yù)處理,以構(gòu)建行人圖像庫,并提取需再識別行人 的圖像和行人圖像庫的多維特征向量;
[0034] 第二模塊,用于利用第一模塊中得到的多維特征向量并使用期望最大化算法計 算行人圖像庫中所有圖像的有限混合模型參數(shù)和需再識別行人的圖像的有限混合模型參 數(shù);
[0035] 第三模塊,用于采用李群運(yùn)土工距離分別獲得需再識別行人的有限混合模型與行 人圖像庫中所有圖像的有限混合模型之間的距離,并對距離按照從小到大的順序排序后返 回排名前列的多個結(jié)果所對應(yīng)的行人數(shù)據(jù)庫中的多幅圖像。
[0036] 總體而言,通過本發(fā)明所構(gòu)思的以上技術(shù)方案與現(xiàn)有技術(shù)相比,能夠取得下列有 益效果:
[0037] 1、本發(fā)明采用了步驟(1)和步驟(2),能夠使提取的行人圖像描述子更為魯棒,并 很好得反映行人的整體信息;
[0038] 2、在不同行人圖像描述子距離度量上本發(fā)明采用步驟(3),依據(jù)李群李代數(shù)的相 關(guān)理論和線性優(yōu)化方法進(jìn)行度量不同行人描述子之間的距離,度量距離更為可靠。
【附圖說明】
[0039] 圖1是本發(fā)明基于有限混合模型的行人再識別方法的流程圖。
[0040] 圖2是本發(fā)明方法中步驟⑵的細(xì)化流程圖。
[0041] 圖3是本發(fā)明方法中步驟(3)的細(xì)化流程圖。
【具體實(shí)施方式】
[0042] 為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,以下結(jié)合附圖及實(shí)施例,對 本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅僅用以解釋本發(fā)明,并 不用于限定本發(fā)明。此外,下面所描述的本發(fā)明各個實(shí)施方式中所涉及到的技術(shù)特征只要 彼此之間未構(gòu)成沖突就可以相互組合。
[0043] 本發(fā)明的基本思路在于,提出一種基于有限混合模型進(jìn)行特征融合,并將局部特 征信息轉(zhuǎn)化為能描述行人整體信息的混合模型基函數(shù)的參數(shù),協(xié)方差描述子具有更強(qiáng)的描 述能力。混合模型的基函數(shù)采用高斯函數(shù),并進(jìn)一步將所有基函數(shù)的參數(shù)抽象為混合高斯 特征,實(shí)現(xiàn)圖像的局部信息描述向整體信息描述的過渡,并利用圖像的整體信息進(jìn)行距離 度量,整體信息的度量基于高斯基函數(shù)之間的測地線距離。
[0044] 如圖1所示,本發(fā)明提供的基于有限混合模型的行人再識別方法包括以下步驟:
[0045] (1)對監(jiān)控視頻進(jìn)行預(yù)處理,以構(gòu)建行人圖像庫,并提取需再識別 (Reidentification)行人的圖像和行人圖像庫的多維特征向量,本步驟包括以下子步驟:
[0046] (I. 1)對監(jiān)控視頻進(jìn)行行人檢測,提取所有行人的最小矩形框圖像,并根據(jù)提取的 最小矩形框圖像構(gòu)建行人圖像庫;
[0047] (1. 2)將需再識別行人的圖像與行人圖像庫中所有圖像按照統(tǒng)一的圖像長度和寬 度進(jìn)行縮放,并將行人圖像庫中的所有圖像進(jìn)行顏色直方圖均衡化處理,其中以圖像左上 方的頂點(diǎn)作為坐標(biāo)原點(diǎn),像素點(diǎn)的坐標(biāo)為(x,y);具體而言,縮放后的圖像大小將決定再識 別的效果,其大小越大,則再識別的速度變慢,效果更好;反之則識別速度快,效果變差;
[0048] (1. 3)提取步驟(1. 2)處理后的需再識別行人的圖像與處理后的行人圖像庫中所 有圖像的每個像素點(diǎn)(x,y)處的多維特征向量z (x,y),本步驟具體為,提取像素點(diǎn)(x,y)處 多維特征向量
其中R、G、B分 別為像素點(diǎn)(X,y)處的顏色信息,、與I ¥分別為圖像經(jīng)過(-1,〇, I) τ、(-1,〇, 1)濾波后在 像素點(diǎn)(X,y)處的一階梯度值,I yy則分別為圖像經(jīng)過(-1,2, I) τ、(-1,2, 1)濾波后像 素在像素點(diǎn)(x,y)處的二階梯度值,(·)τ表示對矩陣進(jìn)行轉(zhuǎn)置操作;
[0049] 優(yōu)選地,在本步驟之后,也可以利用主成分分析法(Principle Component Analysis,簡稱PCA)對提取的多維特征向量進(jìn)行維數(shù)削減,目的在于減