基于主顏色直方圖和空間位置信息融合的快速目標(biāo)匹配方法
【專利摘要】本發(fā)明公開了一種基于主顏色直方圖和空間位置信息融合的快速目標(biāo)匹配方法,其具體實(shí)施步驟如下:獲取一幀圖像,在圖像里選取目標(biāo)模板同時(shí)得到去除目標(biāo)模板區(qū)域的背景圖像;分別計(jì)算目標(biāo)模板和背景圖像的主顏色空間,并且根據(jù)兩個(gè)主顏色空間得到最終的目標(biāo)主顏色;根據(jù)目標(biāo)主顏色計(jì)算目標(biāo)模板和待匹配目標(biāo)模板的主顏色直方圖;比較待匹配目標(biāo)模板和目標(biāo)模板的主顏色直方圖,得出相似度最高的即為匹配目標(biāo)。本發(fā)明提供的目標(biāo)匹配方法具有匹配精確度高,處理速度快的優(yōu)點(diǎn)。
【專利說明】基于主顏色直方圖和空間位置信息融合的快速目標(biāo)匹配方 法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及圖像處理和計(jì)算機(jī)視覺領(lǐng)域,具體說來,涉及一種基于主顏色直方圖 和空間位置信息融合的快速目標(biāo)匹配方法。
【背景技術(shù)】
[0002] 目前視頻監(jiān)控已經(jīng)廣泛應(yīng)用于交通監(jiān)控,社會(huì)安防,金融安全監(jiān)控以及家庭個(gè)人。 交通監(jiān)控的主要目的是通過對(duì)路況的分析及時(shí)協(xié)助交警進(jìn)行交通管制和路況播報(bào),方便廣 大市民的出行。視頻監(jiān)控在社會(huì)安防、金融安全和家庭個(gè)人中的作用體現(xiàn)在通過分析視頻 及時(shí)發(fā)現(xiàn)異常行為或異常人群,從而預(yù)防發(fā)生人身、財(cái)產(chǎn)危險(xiǎn)。
[0003] 在視頻監(jiān)控系統(tǒng)中,目標(biāo)匹配技術(shù)是最為廣泛應(yīng)用的技術(shù)之一。其目的在于通過 對(duì)多個(gè)攝像機(jī)獲取的圖像序列進(jìn)行處理,自動(dòng)匹配到我們感興趣的目標(biāo),然后輸出給后續(xù) 的處理系統(tǒng)繼續(xù)進(jìn)行相關(guān)處理。在跟蹤系統(tǒng),異常檢測(cè)系統(tǒng),交通違章監(jiān)控系統(tǒng),視頻檢索 等領(lǐng)域已經(jīng)得到了廣泛應(yīng)用。
[0004] 目前成熟的目標(biāo)匹配技術(shù)大致可以分為基于圖像灰度,圖像特征,圖像變換域三 類?;趫D像灰度的匹配方法是最早出現(xiàn)的,如:MAD,NCC,SSDA等算法。因?yàn)槠渚薮蟮挠?jì)算 量不能滿足實(shí)時(shí)性要求,而且當(dāng)有較大的灰度畸變和幾何變形時(shí),匹配往往會(huì)失敗,所以 在實(shí)際應(yīng)用中很少使用?;趫D像變換域的匹配方法是最近興起的還處于不斷完善階段。 現(xiàn)在主流的匹配技術(shù)是基于圖像特征的?;趫D像特征的匹配方法可以分為兩大類:基于 局部特征的和基于全局特征的?;诰植刻卣鞯钠ヅ浞椒ㄊ茄芯孔疃嘁沧顭岬?,如STFT, SURF等算法已經(jīng)在很多應(yīng)用中使用但是這些算法一般需要圖片的分辨率足夠高,否則提取 不出足夠的特征導(dǎo)致匹配失敗?;谌痔卣鞯钠ヅ浞椒▽?duì)于任何圖像均適用,但是在傳 統(tǒng)的基于全局特征的匹配方法中只考慮到圖像的全局信息沒有考慮到位置信息,所以使得 精確度不能滿足應(yīng)用要求。總之,上述所有匹配算法都在速度或精確度上有待提高,而同時(shí) 利用圖像的全局特征和位置信息的匹配是一種既能滿足匹配精度又能解決匹配速度的方 法。
【發(fā)明內(nèi)容】
[0005] 本發(fā)明提供了一種基于主顏色外觀模型和空間位置信息融合的快速目標(biāo)匹配方 法,本方法可以實(shí)現(xiàn)快速準(zhǔn)確的目標(biāo)的匹配。
[0006] 為了解決匹配的速度和精度的平衡問題,本發(fā)明的具體實(shí)施步驟為:
[0007] (1)提取選取的含有背景的目標(biāo)模板的主顏色;
[0008] (2)提取背景圖像的主顏色;
[0009] (3)計(jì)算目標(biāo)的主顏色;
[0010] (4)計(jì)算目標(biāo)模板和待匹配目標(biāo)的分塊主顏色直方圖;
[0011] (5)根據(jù)直方圖相交計(jì)算相似度,得到匹配的目標(biāo);
[0012] 進(jìn)一步,步驟(1)中提取含有背景的目標(biāo)模板的主顏色是指:根據(jù)聚類公式(I) (2)進(jìn)行顏色聚類之后得出主顏色空間IC1, C2, C^CJ,然后把主顏色空間按主顏色包含的 像素?cái)?shù)目進(jìn)行降序排序選取前90%的主顏色{CFei,CFe2, CFe3…CFaJ。
【權(quán)利要求】
1. 一種基于主顏色外觀模型和空間位置信息融合的快速目標(biāo)匹配方法,其特征在于該 方法的具體步驟為: 步驟(1),提取選取的含有背景的目標(biāo)模板的主顏色; 步驟(2),提取背景圖像的主顏色; 步驟(3),計(jì)算目標(biāo)的主顏色; 步驟(4),計(jì)算目標(biāo)模板和待匹配目標(biāo)的分塊主顏色直方圖; 步驟(5),根據(jù)直方圖相交計(jì)算相似度,得到匹配的目標(biāo)。
2. 根據(jù)權(quán)利1所述的基于主顏色外觀模型和空間位置信息融合的快速目標(biāo)匹配方法, 其特征在于步驟(1)中提取選取的含有背景的目標(biāo)模板的主顏色,具體步驟如下: SI. 1 :根據(jù)公式(1),(2)進(jìn)行像素點(diǎn)顏色聚類,得到聚類后的主顏色
公式中i是當(dāng)前類的像素?cái)?shù)目,w(i) =Ι/i是像素點(diǎn)的權(quán)重。 51. 2 :把SI. 1中得到的主顏色{CFei,CFe2,CFe3. ..CfJ根據(jù)每個(gè)主顏色包含的像素的數(shù) 目進(jìn)行降序排序。 51.3:選取前90%的主顏色作為目標(biāo)模板的主顏色{(^1,(^2,(^ 3...(^111}。
3. 根據(jù)權(quán)利1所述的基于主顏色外觀模型和空間位置信息融合的快速目標(biāo)匹配方法, 其特征在于步驟(2)中提取背景圖像的主顏色,具體步驟如下: 52. 1 :將獲取的一幀圖像通過背景減除,去除目標(biāo)模板區(qū)域得到背景圖像。 52. 2 :將背景圖像進(jìn)行步驟⑴中的計(jì)算得到背景圖像的主顏色 iCFG1, CFG2, Gbg3. ·· Gbg1J〇
4. 根據(jù)權(quán)利1所述的基于主顏色外觀模型和空間位置信息融合的快速目標(biāo)匹配方法, 其特征在于步驟(3)中計(jì)算目標(biāo)的主顏色,具體步驟如下: 53. 1 :根據(jù)公式(3)顏色距離公式依次計(jì)算目標(biāo)模板的主顏色與背景圖像的主顏色的 顏色距離,如果d(CFei,CBW)〈ε則去掉目標(biāo)主顏色中的CFei,得到最終的目標(biāo)主顏色 iCfg CFG2, CFG3· ·· CFGt)·〇
公式⑶中CFei,Cfci是顏色向量,包含r,g,b三個(gè)通道。
5. 根據(jù)權(quán)利1所述的基于主顏色外觀模型和空間位置信息融合的快速目標(biāo)匹配方法, 其特征在于步驟(4)中計(jì)算目標(biāo)模板的分塊主顏色直方圖,具體步驟如下: S4. 1 :將目標(biāo)模板和待匹配目標(biāo)模板分成m*n個(gè)子區(qū)域。 S4.2 :計(jì)算第一個(gè)子區(qū)域的主顏色直方圖,將該區(qū)域中的像素點(diǎn)與步驟(3)中的 到的目標(biāo)主顏色{CFei,CF(;2,CF(;3...CF(;t}根據(jù)公式(3)依次計(jì)算顏色距離,如果顏色距離 d(CFei,Ι)〈δ則像素IeCFei的bin。遍歷該區(qū)域中所有像素即可得該區(qū)域的主顏色直方 圖。 54. 3 :根據(jù)S4. 2的方法以此計(jì)算所有子區(qū)域的主顏色直方圖,并將m*n個(gè)主顏色直方 圖組合成一個(gè)包含有t*m*n個(gè)bin的主顏色直方圖。
6. 根據(jù)權(quán)利1所述的基于主顏色外觀模型和空間位置信息融合的快速目標(biāo)匹配方法, 其特征在于步驟(5)中根據(jù)公式(4)計(jì)算相似度,得到匹配的目標(biāo),具體步驟如下: 55. 1 :將步驟(4)中計(jì)算出的目標(biāo)模板和待匹配目標(biāo)模板的主顏色直方圖通過直方圖 相交方法分別計(jì)算相似度,得到相似度(Sim1,Sim2,Sim3. ..SimJ,選取其中相似度最高的 作為匹配目標(biāo)。
(4) 公式中H1,H2代表兩個(gè)直方圖。
【文檔編號(hào)】G06K9/00GK104463151SQ201510004749
【公開日】2015年3月25日 申請(qǐng)日期:2015年1月5日 優(yōu)先權(quán)日:2015年1月5日
【發(fā)明者】黃治同, 張雪, 韓琦, 紀(jì)越峰 申請(qǐng)人:北京郵電大學(xué)