專利名稱:密集客流計(jì)數(shù)和行人步行速度自動(dòng)檢測(cè)方法及系統(tǒng)的制作方法
技術(shù)領(lǐng)域:
本發(fā)明涉及計(jì)算機(jī)視覺領(lǐng)域,具體基于視頻圖像的密集客流計(jì)數(shù)和行人步 行速度自動(dòng)檢測(cè)方法及裝置。
背景技術(shù):
隨著經(jīng)濟(jì)的飛速發(fā)展,人口的城巿化程度越來越高,城市的人口密度越 來越大,在某些公共場(chǎng)所的人群管理問題日益突出。人群密度是表征特定場(chǎng)所 即時(shí)擁擠程度的一個(gè)重要參考指標(biāo),是對(duì)公共場(chǎng)所進(jìn)行有效管理的重要依據(jù), 隨著國內(nèi)經(jīng)濟(jì)和大規(guī)??土鬟\(yùn)輸?shù)目焖侔l(fā)展,目前在某些特定場(chǎng)所對(duì)人群計(jì)數(shù) 和行人步行速度計(jì)算的需求己經(jīng)變得越來越緊迫。對(duì)密集客流計(jì)數(shù)和行人步行 速度的傳統(tǒng)方法是人工估計(jì),但這種方法比較主觀,不能做定量判斷。
由于視頻監(jiān)控的廣泛應(yīng)用,基于計(jì)算機(jī)視覺的行人檢測(cè)和跟蹤已經(jīng)成為一 個(gè)非?;钴S的研究領(lǐng)域,為大型公共場(chǎng)所的智能監(jiān)控提出了新的解決辦法。當(dāng) 前,針對(duì)客流密集場(chǎng)所的行人檢測(cè)和跟蹤方面己經(jīng)取得了一些成果。但是多數(shù) 所提出的方法和系統(tǒng), 一般針對(duì)人數(shù)較少的視頻圖像,通過在出入口設(shè)置虛擬 的檢測(cè)線,根據(jù)單個(gè)行人的軌跡來對(duì)過往的行人進(jìn)行計(jì)數(shù)。然而對(duì)于客流密集 的場(chǎng)所,存在嚴(yán)重的相互遮擋問題,因此傳統(tǒng)的基于斑塊檢測(cè)與跟蹤的背景差 方法無法解決以下問題
1. 在客流密集的情況下,只有有限的背景,甚至無法提取背景;
2. 在行人擁擠時(shí),行人間存在嚴(yán)重的相互遮擋,以及背包等物品的遮擋;
3. 客流密集的視頻圖像中,往往包含大量的不規(guī)則運(yùn)動(dòng),目標(biāo)的特征信息 有限, 一般需要通過兩幀以上的視頻圖像才能檢測(cè)出單個(gè)運(yùn)動(dòng)目標(biāo);
避免遮擋問題的方法之一,是通過調(diào)整攝像機(jī)的拍攝角度,采用從人的頭 頂部向下拍攝的辦法,對(duì)行人的頭部進(jìn)行識(shí)別和計(jì)數(shù)。這種拍攝的方式無疑降 低了處理的難度,但是需要重新安裝檢測(cè)的攝像機(jī),增大了系統(tǒng)的投入。更加 實(shí)用的方式是,將客流信息統(tǒng)計(jì)作為安全監(jiān)控系統(tǒng)(閉路電視CCTV)的增強(qiáng) 功能,通過視頻圖像的處理技術(shù),得到客流信息。
發(fā)明內(nèi)容
針對(duì)現(xiàn)有技術(shù)的基于斑塊檢測(cè)與跟蹤的背景差方法存在識(shí)別準(zhǔn)確率低的
問題,本發(fā)明的目的是提供一種基于視頻圖像的密集客流計(jì)數(shù)和行人步行速度 自動(dòng)檢測(cè)方法。
采用視頻處理裝置和算法。視頻圖像采集設(shè)備通過閉路電視系統(tǒng)(CCTV) 采集監(jiān)控視頻圖像,通常采用置于地鐵通道的出入口頂端的攝像機(jī),實(shí)時(shí)采集 客流出入的視頻圖像。處理器采用計(jì)算機(jī)視覺算法對(duì)采集到的視頻圖像進(jìn)行處 理,采用Adaboost算法進(jìn)行人臉識(shí)別,以Harr特征作為輸入,以弱分類器加 權(quán)組合構(gòu)成強(qiáng)分類器,最后用強(qiáng)分類器組成"瀑布"層疊形式;然后進(jìn)行觸發(fā)計(jì) 數(shù),觸發(fā)計(jì)數(shù)的中心思想是根據(jù)人臉在圖中的位置具有連續(xù)性的特點(diǎn),將得 到新圖中的人臉結(jié)果和鏈表進(jìn)行匹配,當(dāng)發(fā)現(xiàn)其中兩者的位置和接近時(shí)認(rèn)為是 同一個(gè)人臉。計(jì)算行人步行速度主要根據(jù)對(duì)行人臉部進(jìn)行跟蹤,跟蹤區(qū)域?yàn)樾?人臉部進(jìn)入檢測(cè)區(qū)域開始,出檢測(cè)區(qū)域?yàn)橹埂S?jì)算行人步行速度的要點(diǎn)為標(biāo)定 和跟蹤。
人臉識(shí)別
使用Adaboost算法,采用Harr特征作為輸入,以弱分類器加權(quán)組合構(gòu)成 強(qiáng)分類器,弱分類器的性能要求不是很高,只需要比隨機(jī)猜測(cè)性能稍好即可, 這種弱分類器在實(shí)際情況下是很容易獲得的。最后用強(qiáng)分類器組成"瀑布"層疊 形式,以此達(dá)到較高的實(shí)時(shí)性并保證獲得較高的識(shí)別率。 觸發(fā)計(jì)數(shù)
將檢測(cè)區(qū)內(nèi)的得到的識(shí)別結(jié)果放到鏈表結(jié)構(gòu)中,觸發(fā)的中心思想是根據(jù)
人臉在圖中的位置具有連續(xù)性的特點(diǎn),將得到新圖中的人臉結(jié)果和鏈表進(jìn)行匹 配,當(dāng)發(fā)現(xiàn)其中兩者的位置和接近時(shí)認(rèn)為是同一個(gè)人臉。記錄匹配幀數(shù)和不匹
配幀數(shù)兩個(gè)參數(shù),設(shè)置兩個(gè)閾值T,、 T2,分別用于觸發(fā)計(jì)數(shù)和刪除模板,如果 匹配幀數(shù)大于Tp則觸發(fā)。如果不匹配幀數(shù)大于T2,則認(rèn)為人已離開檢測(cè)區(qū), 刪除模版。 計(jì)算行人步行速度
計(jì)算行人步行速度主要根據(jù)對(duì)行人臉部進(jìn)行跟蹤,跟蹤區(qū)域?yàn)樾腥四槻窟M(jìn)
入檢測(cè)區(qū)域開始,出檢測(cè)區(qū)域?yàn)橹埂8櫼c(diǎn)主要有
標(biāo)定標(biāo)定為二維標(biāo)定。因?yàn)橹挥幸粋€(gè)攝像頭,并且人臉部可以近似認(rèn)為 在一個(gè)平面上,所以采用二維標(biāo)定。標(biāo)定主要是將圖像坐標(biāo)轉(zhuǎn)換為實(shí)際坐標(biāo), 為計(jì)算行人步行速度提供可能。
跟蹤跟蹤主要根據(jù)人臉部顏色特征進(jìn)行跟蹤。人臉部顏色分布在一個(gè)特
定的范圍內(nèi)。跟蹤采用CAMSHIFT算法。
CAMSHIFT算法首先將RGB顏色空間轉(zhuǎn)換到HSV顏色空間。人臉顏色 分布與H有直接聯(lián)系。當(dāng)S和V同時(shí)很小時(shí),H誤差較大;并且,人臉顏色 對(duì)應(yīng)于H分布為某一特定范圍(50 160),所以取出某一范圍內(nèi)的H分量進(jìn) 行直方圖分析。根據(jù)象素點(diǎn)值的概率分布對(duì)設(shè)定的跟蹤區(qū)域找中心。尋找中心
主要是根據(jù)求跟蹤區(qū)域重心的原理。若上次中心與當(dāng)前中心距離小于某一個(gè)特 定的值,則認(rèn)為找到中心,迭代結(jié)束。求出半徑根據(jù)零階距、 一階距和二階 距計(jì)算出半徑。
采用本發(fā)明的方法得到的密集客流計(jì)數(shù)和行人步行速度自動(dòng)檢測(cè)的結(jié)果 更為準(zhǔn)確。
圖1是實(shí)現(xiàn)基于視頻圖像的密集客流計(jì)數(shù)和行人步行速度自動(dòng)檢測(cè)方法的系 統(tǒng)的結(jié)構(gòu)框圖2是客流計(jì)數(shù)中整個(gè)訓(xùn)練過程流程示意圖3是客流計(jì)數(shù)中層疊分類器訓(xùn)練流程圖4是行人步行速度算法流程圖5是本發(fā)明方法的軟件測(cè)試界面示意圖。
具體實(shí)施例方式
下面結(jié)合附圖對(duì)本發(fā)明的實(shí)施例作詳細(xì)說明。
本實(shí)施例采用圖1所示的基于視頻圖像的密集客流計(jì)數(shù)和行人步行速度自 動(dòng)檢測(cè)方法,具體實(shí)施步驟如下
1、 硬件設(shè)備的建立
如圖1所示,基于視頻圖像的密集客流計(jì)數(shù)和行人步行速度自動(dòng)檢測(cè)可以 采用以數(shù)字信號(hào)處理器DSP為核心的硬件結(jié)構(gòu),由采集模塊、存儲(chǔ)器、處理 器構(gòu)成。由于計(jì)算機(jī)視覺算法具有一定的復(fù)雜性,處理的對(duì)象是復(fù)雜的視頻圖 像,并且要求系統(tǒng)能滿足實(shí)時(shí)性,因此選擇的芯片一定要有強(qiáng)大的處理能力。 綜合以上各方面考慮,可以選擇TI的TMS320DM642。 TMS320C6000DSP平 臺(tái)提高了性能和成本效益的水準(zhǔn),提供業(yè)界最快的廣泛DSP產(chǎn)品系列,這些 DSP以高達(dá)lGHz的時(shí)鐘速度運(yùn)行。平臺(tái)由TMS320C64x和TMS320C62x 定點(diǎn)系列以及TMS320C67x浮點(diǎn)系列組成。C6000 DSP平臺(tái)是處理目標(biāo)寬帶 基礎(chǔ)設(shè)施、高性能音頻和成像應(yīng)用等產(chǎn)品的設(shè)計(jì)人員的最佳選擇。 TMS320DM642是TI公司目前推出的在多媒體處理領(lǐng)域的主流產(chǎn)品,它是在 C64x的基礎(chǔ)上,增加了許多外圍設(shè)備和接口。
2、 軟件流程圖的建立
如圖2, 3所示,密集客流計(jì)數(shù)檢測(cè)方法軟件流程圖,首先采集視頻圖像, 首先采用類Haar特征提取人臉特征,然后使用AdaBoost學(xué)習(xí)算法構(gòu)建分類器,
最后通過多級(jí)分類器級(jí)聯(lián)的結(jié)構(gòu)快速檢測(cè)人臉。同時(shí),聯(lián)合膚色、邊緣特征以
及由粗到細(xì)的金字塔式搜索,提高檢測(cè)速度。如圖4所示,行人步行速度算法 主要是對(duì)行人臉部進(jìn)行跟蹤,要點(diǎn)為標(biāo)定和跟蹤。
3、 基于Haar特征的學(xué)習(xí)方法
基于Haar特征的方法是一種基于樣本的學(xué)習(xí)方法,該方法主要思想是
(1) 利用積分圖像(Integral Image)的概念,獲取Haar特征值;
(2) 把Haar特征作為訓(xùn)練過程的輸入,利用算法挑選某些分量能力強(qiáng)的 Haar特征構(gòu)成各自對(duì)應(yīng)的"弱分類器";
(3) 利用Adaboost算法將若干"弱分類器"組成"強(qiáng)分類器";
(4) 將若干"強(qiáng)分類器"串聯(lián)起來組合成層疊分類器,調(diào)節(jié)層疊分類器的串 聯(lián)的級(jí)數(shù),可以方便的改變系統(tǒng)的錯(cuò)誤率和響應(yīng)速度;
由于特征簡(jiǎn)單、搜索策略高效,算法在保證90%以上準(zhǔn)確率的基礎(chǔ)上,檢 測(cè)速度可以基本滿足實(shí)時(shí)應(yīng)用的要求。 Haar特征的定義為<formula>complex formula see original document page 6</formula> (3.1)
其中w,ei 為矩形C的權(quán),i "^m(。為矩形^;所謂圖像的灰度積分,7V是組 成/e加t^的矩形個(gè)數(shù)。
在定義Haar特征的時(shí)候,對(duì)其構(gòu)成做了限制
(1) 由于滿足定義的iV有無窮多個(gè),W極限為2,即一個(gè)Haar特征至少要 有2個(gè)矩形構(gòu)成,最多也只能有2個(gè);
(2) 這兩個(gè)構(gòu)成Haar特征的矩形的權(quán)值必須異號(hào),而且權(quán)值與矩形面積呈 反比;
(3) 為了便于采集積分圖像計(jì)算特征值,這兩個(gè)構(gòu)成Haar特征的矩形必須 有一個(gè)包含于另一個(gè)之中。
由公式(3.1)可知i "^m(。是計(jì)算Haar特征的核心,因此定義積分圖像 如下
己知輸入圖像I,在點(diǎn)(xj;)處的積分圖像值定義為
<formula>complex formula see original document page 6</formula> (3.2)
4、 AdaBoost算法與強(qiáng)分類器
AdaBoost算法是Boosting算法的一種變形,通常,Boosting算法可以提高 任何給定的學(xué)習(xí)算法的分類精確度,在AdaBoost算法中,每個(gè)訓(xùn)練樣本都被 賦予一個(gè)權(quán)值,表明該樣本被某個(gè)弱分類器選中的概率。如果某個(gè)樣本已經(jīng)被 準(zhǔn)確地分類,那么在構(gòu)造下一個(gè)訓(xùn)練集時(shí),它被選中的概率就被降低;相反,
如果樣本沒有被準(zhǔn)確分類,那么它的權(quán)值就得到提高,使得這些被錯(cuò)分的樣本 在下一輪學(xué)習(xí)中被重視。通過這種方法每一輪學(xué)習(xí)都"聚焦"與這些較困難的樣 本上。重復(fù)上述操作,每一輪都選出一個(gè)最優(yōu)的弱分類器,最后由這些弱分類 器的線性組合構(gòu)成一個(gè)總的強(qiáng)分類器。
AdaBoost算法的級(jí)別定義如下
(1) 給定^個(gè)訓(xùn)練例(11,少1),...,(^凡),^=0,1分別不是反例和正例。設(shè)有M個(gè) 反例,丄個(gè)正例,M+丄-iV;
(2) 初始化每個(gè)樣例的權(quán)值<formula>complex formula see original document page 7</formula>
(3)對(duì)于^7,...,有迭代過程: ①正規(guī)化權(quán)值w"—
② 計(jì)算弱分類器〗的錯(cuò)誤率<formula>complex formula see original document page 7</formula>
③ 選擇出錯(cuò)誤率最低的分類器,設(shè)為A
依照&分類能力修改每個(gè)樣例的權(quán)值,使之與e,成正比:
<formula>complex formula see original document page 7</formula>
這樣在下次迭代時(shí),被錯(cuò)誤識(shí)別的樣例要重點(diǎn)考慮。
(4)經(jīng)過r次迭代后,選出r個(gè)弱分類器,然后加權(quán)組成一個(gè)強(qiáng)分類器;<formula>complex formula see original document page 7</formula>
其中<formula>complex formula see original document page 7</formula>
只要弱分類器的能力比隨機(jī)猜測(cè)好,那么就能提高總體分類器的準(zhǔn)確 率,而隨著弱分類器個(gè)數(shù)的增加,得到的強(qiáng)分類器在訓(xùn)練樣本上的分類錯(cuò) 誤按指數(shù)遞減。
AdaBoost學(xué)習(xí)過程只是試圖減少錯(cuò)誤,它本身不能做到以提高錯(cuò)誤判對(duì) 率為代價(jià)而達(dá)到高的檢測(cè)率。因此, 一個(gè)很簡(jiǎn)單,也是一直以來使用的用 來平衡這些錯(cuò)誤的方法是調(diào)整由AdaBoost生成的分類器的閾值。更高的閾 值產(chǎn)生更低的檢測(cè)率和錯(cuò)誤判對(duì)率的分類器。反之則產(chǎn)生高檢測(cè)率和高錯(cuò) 誤判對(duì)率。
通過AdaBoost算法生成了由重要特征組成的強(qiáng)分類器,層疊分類器見圖 3。對(duì)于一個(gè)的強(qiáng)分類器,將之用于人臉檢測(cè),但由于檢測(cè)過程要掃描帶檢測(cè) 圖像的每個(gè)位置的各個(gè)規(guī)模的每個(gè)窗口,所以要檢測(cè)窗口數(shù)量很多,這種條件 下,如果每個(gè)窗口都進(jìn)行所以特征的特征值計(jì)算,檢測(cè)工作的這個(gè)過程將花費(fèi) 很多的時(shí)間。在實(shí)際的人臉檢測(cè)過程中可以采用"先重后輕"的層疊分類器的思 想。它首先使用更重要的特征構(gòu)成的結(jié)果較簡(jiǎn)單的強(qiáng)分類器進(jìn)行非人臉窗口的 排除,隨著特征的重要性的逐漸降低,分類器的數(shù)目越來越多,但同時(shí)待檢測(cè) 窗口也越來越少。
層疊分類器的每一層都是用AdaBoost算法算法訓(xùn)練。如果把基于 AdaBoost算法的訓(xùn)練模塊比作中央處理器的話,那么所有樣本的所有矩形特征 值就是其輸入。而多層分類器里的各個(gè)強(qiáng)分類器就是其輸出。訓(xùn)練之前必須先 確定整個(gè)系統(tǒng)要達(dá)到的最高誤檢率i^^為多少,最低檢測(cè)率D^。在確定目標(biāo) 的前提下,整個(gè)系統(tǒng)至少需要由^i。g, & 個(gè)強(qiáng)分類器組成。整個(gè)訓(xùn)練過程就 是一個(gè)利用AdaBoost算法構(gòu)造強(qiáng)分類i的過程。圖2是整個(gè)訓(xùn)練過程流程圖。
采集的樣本分為兩部分人臉樣本集和非人臉樣本集。人臉樣本應(yīng)選擇具 有不同背景、不同光照條件、不同表情的多訓(xùn)練樣本。
5. 觸發(fā)計(jì)數(shù)
將檢測(cè)區(qū)內(nèi)的得到的識(shí)別結(jié)果放到鏈表結(jié)構(gòu)中,觸發(fā)的中心思想是根據(jù) 人臉在圖中的位置具有連續(xù)性的特點(diǎn),將得到下一幀新圖中的人臉結(jié)果和鏈表 進(jìn)行匹配,當(dāng)發(fā)現(xiàn)其中兩者的位置和接近時(shí)認(rèn)為是同一個(gè)人臉。記錄匹配幀數(shù) 和不匹配幀數(shù)兩個(gè)參數(shù),設(shè)置兩個(gè)閾值T,、T2,分別用于觸發(fā)計(jì)數(shù)和刪除模板,
如果匹配幀數(shù)大于Tp則觸發(fā)。如果不匹配幀數(shù)大于T2,則認(rèn)為人已離開檢
測(cè)區(qū),刪除模版。
6. 計(jì)算行人步行速度
計(jì)算行人步行速度主要根據(jù)對(duì)行人臉部進(jìn)行跟蹤,跟蹤區(qū)域?yàn)樾腥四槻窟M(jìn)
入檢測(cè)區(qū)域開始,出檢測(cè)區(qū)域?yàn)橹?。行人步行速度算法要點(diǎn)主要有
標(biāo)定標(biāo)定為二維標(biāo)定。因?yàn)橹挥幸粋€(gè)攝像頭,并且人臉部可以近似認(rèn)為 在一個(gè)平面上,所以采用二維標(biāo)定。標(biāo)定主要是將圖像坐標(biāo)轉(zhuǎn)換為實(shí)際坐標(biāo), 為計(jì)算行人步行速度提供可能。跟蹤跟蹤主要根據(jù)人臉部顏色特征進(jìn)行跟蹤。人臉部顏色分布在一個(gè)特 定的范圍內(nèi)。
首先將RGB顏色空間轉(zhuǎn)換到HSV顏色空間。人臉顏色分布與H有直接聯(lián) 系。當(dāng)S和V同時(shí)很小時(shí),H誤差較大;并且,人臉顏色對(duì)應(yīng)于H分布為某 一特定范圍(50 160),所以取出某一范圍內(nèi)的H分量進(jìn)行直方圖分析。根據(jù) 象素點(diǎn)值的概率分布對(duì)設(shè)定的跟蹤區(qū)域找中心。尋找中心主要是根據(jù)求跟蹤區(qū) 域重心的原理。若上次中心與當(dāng)前中心距離小于某一個(gè)特定的值,則認(rèn)為找到 中心,迭代結(jié)束。求出半徑根據(jù)零階距、 一階距和二階距計(jì)算出半徑。
7.測(cè)試結(jié)果 軟件測(cè)試界面,如圖5所示
1. 客流計(jì)數(shù)結(jié)果(圖5中為24)
2. 行人步行速度結(jié)果(圖5中為146cm/s)
本發(fā)明的方法與現(xiàn)有技術(shù)中"基于斑塊檢測(cè)與跟蹤的背景差方法"相比, 顯著地提高了準(zhǔn)確度。而且系統(tǒng)結(jié)構(gòu)簡(jiǎn)單,便于在現(xiàn)有硬件系統(tǒng)中應(yīng)用實(shí)現(xiàn)。
權(quán)利要求
1. 一種基于視頻圖像的密集客流計(jì)數(shù)和行人步行速度自動(dòng)檢測(cè)方法,步驟如下;(a)采集客流出入的監(jiān)控視頻圖像,(b)采用計(jì)算機(jī)視覺算法對(duì)采集到的視頻圖像進(jìn)行處理,采用人臉識(shí)別的方法統(tǒng)計(jì)人數(shù),采用跟蹤人臉的方法計(jì)算行人步行速度。
2. 根據(jù)權(quán)利要求1所述的方法,特征在于,步驟(b)包括(b-i)人臉識(shí)別的方法統(tǒng)計(jì)人數(shù),具體是使用Adaboost算法,采用Harr 特征作為輸入,以弱分類器加權(quán)組合構(gòu)成強(qiáng)分類器,最后用強(qiáng)分類器組成"瀑 布"層疊形式,進(jìn)行觸發(fā)計(jì)數(shù),獲得實(shí)時(shí)性人群流量。
3. 根據(jù)權(quán)利要求l所述的方法,特征在于,步驟(b)還包括(b-ii)跟蹤人臉的方法計(jì)算行人步行速度,具體是對(duì)行人臉部進(jìn)行跟蹤,跟蹤區(qū)域?yàn)樾腥四槻窟M(jìn)入檢測(cè)區(qū)域開始,出檢測(cè)區(qū)域?yàn)橹梗唤y(tǒng)計(jì)圖片的幀數(shù),計(jì)算時(shí)間和行人步行速度。
4. 根據(jù)權(quán)利要求2所述的方法,特征在于,步驟(b-i)的觸發(fā)計(jì)數(shù)的方法是根據(jù)人臉在圖中的位置具有連續(xù)性的特點(diǎn),將得到下一幀新圖中的人臉 結(jié)果和鏈表進(jìn)行匹配,當(dāng)發(fā)現(xiàn)其中兩者的位置和接近時(shí)認(rèn)為是同一個(gè)人臉。
5. 根據(jù)權(quán)利要求3所述的方法,特征在于,步驟(b-ii)的方法中還需采 用標(biāo)定和跟蹤,具體如下(a) 標(biāo)定為二維標(biāo)定,將圖像坐標(biāo)轉(zhuǎn)換為實(shí)際坐標(biāo);(b) 跟蹤根據(jù)人臉部顏色特征進(jìn)行跟蹤,采用CAMSHIFT算法。
6. 根據(jù)權(quán)利要求3或5所述的方法,特征在于步驟(b-ii)的方法中判斷進(jìn)出檢測(cè)區(qū)域的方法是記錄匹配幀數(shù)和不匹配幀數(shù)兩個(gè)參數(shù),設(shè)置兩個(gè)閾值T1、 T2,分別用于觸發(fā)計(jì)數(shù)和刪除模板,如果匹配幀數(shù)大于T1,則觸發(fā); 如果不匹配幀數(shù)大于T2,則判斷人己離開檢測(cè)區(qū),刪除模版。
7. 根據(jù)權(quán)利要求2所述的方法,特征在于,步驟(b-i)中弱分類器優(yōu)于隨 機(jī)猜測(cè)性能。
8. 實(shí)現(xiàn)權(quán)利要求1-5或7中任一所述方法的系統(tǒng),特征在于包括(a) 視頻圖像采集設(shè)備,包括置于客流通道的出入口頂端的攝像機(jī),閉路電視系統(tǒng)CCTV;(b) 用計(jì)算機(jī)視覺算法對(duì)采集到的視頻圖像進(jìn)行處理的視頻處理裝置,具體包括視頻采集模塊、存儲(chǔ)器、處理器,所述的處理器包括但不限于嵌入式處理器;平臺(tái)由TMS320C64x和TMS320C62x定點(diǎn)系列以及TMS320C67x 浮點(diǎn)系列組成。
全文摘要
一種基于視頻圖像的密集客流計(jì)數(shù)和行人步行速度自動(dòng)檢測(cè)方法,屬于計(jì)算機(jī)視覺技術(shù)領(lǐng)域。本發(fā)明采用視頻采集裝置和處理算法。其中視頻圖像采集設(shè)備通過閉路電視系統(tǒng)(CCTV)采集監(jiān)控視頻圖像,通常采用置于客流通道的出入口頂端的攝像機(jī),實(shí)時(shí)采集客流出入的視頻圖像。處理器采用計(jì)算機(jī)視覺算法對(duì)采集到的視頻圖像進(jìn)行處理,采用Adaboost算法進(jìn)行人臉識(shí)別,以Harr特征作為輸入,以弱分類器加權(quán)組合構(gòu)成強(qiáng)分類器,最后用強(qiáng)分類器組成“瀑布”層疊形式;然后進(jìn)行觸發(fā)計(jì)數(shù)。計(jì)算行人步行速度主要根據(jù)對(duì)行人臉部進(jìn)行跟蹤,跟蹤區(qū)域?yàn)樾腥四槻窟M(jìn)入檢測(cè)區(qū)域開始,出檢測(cè)區(qū)域?yàn)橹?。?jì)算行人步行速度的要點(diǎn)為標(biāo)定和跟蹤。
文檔編號(hào)G06K9/00GK101196991SQ20071017233
公開日2008年6月11日 申請(qǐng)日期2007年12月14日 優(yōu)先權(quán)日2007年12月14日
發(fā)明者劉富強(qiáng), 張姍姍, 徐尚志, 李志鵬, 平 王, 王怡凌, 王新紅, 祖克舉, 錢業(yè)青 申請(qǐng)人:同濟(jì)大學(xué)