一種多特征融合的交通視頻數(shù)據(jù)采集處理方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于道路交通視頻圖像數(shù)據(jù)采集和處理技術(shù)領(lǐng)域,具體來說是一種基于多 特征融合的交通視頻數(shù)據(jù)采集處理方法,從而克服復(fù)雜多樣的交通場景和天氣條件對圖像 數(shù)據(jù)處理的影響,提高檢測道路車輛和車速的準(zhǔn)確度。
【背景技術(shù)】
[0002] 在智能交通系統(tǒng)應(yīng)用、交通管理、交通仿真和交通流理論研究中,一項(xiàng)非常重要的 工作就是對交通信息的采集。目前絕大多數(shù)交通信息采集設(shè)備能夠提供的信息主要是單一 車型的流量、速度、密度等宏觀參數(shù),該些交通信息并不區(qū)分車輛類型。采集多車型交通信 息對于交通管理和理論研究具有重要意義。傳統(tǒng)的交通信息采集方法主要有:地埋式感應(yīng) 線圈法、紅外線檢測法和超聲波檢測法等。該些傳統(tǒng)方法的成本高、維護(hù)困難;而且中國的 道路交通環(huán)境復(fù)雜,導(dǎo)致該些傳統(tǒng)方法不能有效地分辨車型。隨著視頻處理技術(shù)的快速發(fā) 展,基于視頻的交通信息采集方法得到廣泛應(yīng)用。相比傳統(tǒng)的交通信息采集方法,視頻檢測 系統(tǒng)具有安裝簡單、維護(hù)方便、采集參數(shù)多等優(yōu)點(diǎn),而且可W在復(fù)雜交通場景下有效識別車 型。
[0003] 視頻交通數(shù)據(jù)采集主要有兩種研究方法;車輛跟蹤法和虛擬區(qū)域法。車輛跟蹤法 首先識別和分割交通視頻中的車輛,通過車輛跟蹤建立相鄰帖之間的車輛對應(yīng)關(guān)系,獲取 車輛運(yùn)動軌跡,采集交通數(shù)據(jù);虛擬區(qū)域法則是模擬地感線圈的工作原理,由用戶在圖像的 關(guān)鍵位置上劃定虛擬區(qū)域,根據(jù)虛擬區(qū)域內(nèi)的像素變化來判斷是否存在車輛,從而采集交 通數(shù)據(jù)。該兩種方法各有特色。車輛跟蹤法從車輛軌跡獲得交通數(shù)據(jù)更加精確,該些信息來 源于時間域也來源于空間域,其缺陷在于當(dāng)交通密度較大時,車輛遮擋嚴(yán)重降低跟蹤精度, 因此車輛跟蹤法通常用于高速公路的監(jiān)測。與之相比,虛擬區(qū)域法不能充分利用圖像的空 間域信息,因而獲得的交通數(shù)據(jù)比較有限,但其優(yōu)點(diǎn)在于不受交通狀況的限制,全天侯工作 時的魯椿性較好,更加適合實(shí)際應(yīng)用。
[0004] 現(xiàn)有的商業(yè)交通視頻檢測器主要采用虛擬區(qū)域法,但從其實(shí)用評估報告來看普遍 存在W下缺陷:在車燈反光、運(yùn)動陰影、惡劣天氣、攝像機(jī)晃動等條件下,交通檢測數(shù)據(jù)結(jié)果 錯誤率較高,例如,由于車燈反光導(dǎo)致夜晚的檢測錯誤率達(dá)到74. 3% ;由于雨雪天氣導(dǎo)致的 檢測錯誤率即使在白天也高達(dá)16. 3%,而夜晚的檢測錯誤率高達(dá)50%。如何優(yōu)化交通視頻 圖像數(shù)據(jù)的檢測方法,確保檢測率對車燈反光、運(yùn)動陰影、光照劇烈變化、攝像機(jī)晃動等干 擾具有較強(qiáng)的免疫能力是交通視頻數(shù)據(jù)采集處理前沿性研究方向。
【發(fā)明內(nèi)容】
[0005] 本發(fā)明的目的是為了 ;(1)減少視頻圖像交通信息監(jiān)測中由于車燈反光、運(yùn)動陰 影、光照劇烈變化、攝像機(jī)晃動等干擾導(dǎo)致的檢測錯誤率高的缺陷;(2)減少雙線圈測速法 的錯誤匹配。
[0006] 實(shí)現(xiàn)上述目的本發(fā)明的技術(shù)方案為,一種多特征融合的交通視頻數(shù)據(jù)采集處理方 法,該方法包括步驟為;(1)在交通視頻圖像上劃分虛擬區(qū)域;(2)計算虛擬區(qū)域的前景像 素比例對所有前景像素,將中值濾波后的輸入圖像亮度與背景亮度相減得到差分圖像做 Ede形態(tài)學(xué)邊緣檢測,從而確定邊緣強(qiáng)度的標(biāo)準(zhǔn)差SD。;記錄虛擬區(qū)域中的前景區(qū)域的平均 運(yùn)動向量FMVi,根據(jù)虛擬區(qū)域記錄的FMVi次數(shù)n,確定車輛檢測方向ZVD;做根據(jù)似步 圖像處理得到的前景像素比例、邊緣強(qiáng)度的標(biāo)準(zhǔn)差SD。、車輛檢測方向ZVD計算車輛存在信 屯、級數(shù)化,化G{0, 1,. . .,k};化=0為最低信屯、級數(shù),表示虛擬區(qū)域內(nèi)沒有車輛;化=K 為最高信屯、級數(shù),表示虛擬區(qū)域被車輛占有;化取中間值表示過渡狀態(tài);K取2-4范圍的整 數(shù),與監(jiān)控場景有關(guān);車速越高,K越小;車速越低,K越大,化始終處于0-K之間:當(dāng)化達(dá) 到K時,不再增加;達(dá)到0時,不再減少;(4)統(tǒng)計化的數(shù)據(jù)即可確定監(jiān)測到的車輛數(shù)。
[0007] 上述步驟中,劃分虛擬區(qū)域是橫向邊界小于車道線間距,縱向邊界小于普通轎車 長度的四邊形區(qū)域;同時虛擬區(qū)域分別沿橫向和縱向劃分兩條特征線ai、a2和bI、b2,從而將 虛擬區(qū)域橫向和縱向等分為3段,ai,32,bi和b2上的前景像素比例依次為FR。1,F(xiàn)R,2,F(xiàn)Rbi和 FRb2,它們決定了 4條特征線的被占有情況。該種橫向和縱向二次通過特征線的劃分方式, 能夠減小"一輛車投影到兩條車道"帶給算法的不利影響W及同一車道上前后車輛的間距 太小,虛擬區(qū)域可能被兩輛車同時占有的問題。
[000引上述步驟(2)中,車輛檢測方向= ^[心同時采用邊緣強(qiáng)度的標(biāo)準(zhǔn) 打 差SD。的參數(shù)實(shí)現(xiàn)了增加運(yùn)動車輛和前景噪聲的區(qū)分度,避免雙線圈測速法的錯誤匹配問 題。
[0009] 上述步驟(3)中,化的計算過程為;設(shè)定化初始值為0,當(dāng)FRvi〉0. 2and腫。1〉0. 2 orFRa2)and(FRbi〉0. 2orFRb2〉〇. ^andSDe〉TsDand1^巧WF-ZF公|<^時,CL增加1 .當(dāng)
[0010]
時,化減1 ;上式中的TSD是紋理變化的闊值,選擇范圍為[0, 512]。上述化的計算方法 體現(xiàn)了特征級融合的思想,上式中,如果虛擬區(qū)域內(nèi)的前景像素比例大于閩值,并且特征線 上的前景像素比例也大于闊值,表示虛擬線圈內(nèi)存在前景車輛或噪聲干擾;該時需要利用 紋理變化特征加W區(qū)分,如果SD。大于闊值,表示很可能是前景車輛,因?yàn)樵肼晭缀醪桓淖?背景路面的紋理;最后利用像素運(yùn)動特征進(jìn)行驗(yàn)證,如果運(yùn)動方向與道路方向一致,表示虛 擬線圈內(nèi)很可能存在車輛運(yùn)動,于是增加信屯、級數(shù);在式中,如果虛擬區(qū)域內(nèi)的前景像素比 例小于闊值,或者特征線上的前景像素比例小于闊值,表示虛擬線圈內(nèi)前景面積太小,肯定 不是車輛;否則,如果紋理變化特征SD。小于闊值,表示虛擬線圈內(nèi)是前景噪聲,肯定不是車 輛;否則,如果像素運(yùn)動方向與道路方向偏差較大,表示可能是攝像機(jī)晃動或前景干擾引起 像素變化,肯定不是車輛,于是減少信屯、級數(shù)。融合=種特征來檢測車輛,效果好于利用任 何單一特征的效果。
[0011] 上述方法中,當(dāng)檢測到車輛時,根據(jù)此時虛擬區(qū)域的前景區(qū)域的平均運(yùn)動向量FMV 可計算車輛的瞬時速度ViMt,對多次虛擬區(qū)域得到瞬時速度做中值濾波處理確定車輛平均 速度V。根據(jù)車輛在虛擬區(qū)域的存在時間0,即車輛占據(jù)虛擬線圈的時間、虛擬區(qū)域長度及 車輛平均速度V ;可w計算車輛長度L=VXO-d;該里d選擇為虛擬區(qū)域長度的1/3。
[0012] 本申請的優(yōu)點(diǎn)在于;(1)綜合利用虛擬區(qū)域內(nèi)的前景面積、紋理變化、像素運(yùn)動等 特征來檢測車輛,通過將該=種特征有效融合,使得車輛檢測算法能夠抵抗不良天氣和光 照的影響;(2)根據(jù)單個虛擬線圈內(nèi)的像素運(yùn)動向量來估計車輛速度,避免了雙線圈測速 法固有的車輛錯誤匹配問題。
【附圖說明】
[0013] 圖1為本發(fā)明所述方法的流程圖;
[0014] 圖2為本發(fā)明圖像上的虛擬區(qū)域圖;
[0015] 圖3為本發(fā)明中前景與背景差分的形態(tài)學(xué)邊緣強(qiáng)度與標(biāo)準(zhǔn)差的計算過程圖;
[0016] 圖4A為本發(fā)明白天視頻的車輛圖像;
[0017] 圖4B利用發(fā)明的方法對白天視頻的車輛圖像進(jìn)行速度計算;
[001引圖5A為本發(fā)明夜晚視頻的車輛圖像;
[0019] 圖5B利用發(fā)明的方法對夜晚視頻的車輛圖像進(jìn)行速度計算。
【具體實(shí)施方式】
[0020] 下面對本發(fā)明的技術(shù)方案進(jìn)行具體描述,如圖1所示為本發(fā)明所述的多特征融合 的交通視頻數(shù)據(jù)采集處理方法,該方法包括步驟為;(1)在交通視頻圖像上劃分虛擬區(qū)域; 在圖像上沿車道方向劃分四邊形虛擬線圈,每條車道上至少一個,虛擬區(qū)域的寬度略小于 車道寬度,長度近似為普通轎車的長度,如圖2所示。由于攝像機(jī)側(cè)向安裝,公交車等大型 車輛經(jīng)常大面積遮擋相鄰車道;此外跨車道行駛的車輛會在相鄰兩條車道上都產(chǎn)生投影。 單獨(dú)依靠虛擬區(qū)域內(nèi)的前景像素比例很難處理該些情況,于是在線圈內(nèi)增加兩條沿車道方 向的特征線ai和a,,它們的端點(diǎn)將線圈上下兩條邊等分為S段。假設(shè)線圈被車輛占有時,ai 和32中至少有一條線被車輛占有。根據(jù)該假設(shè),車輛必須投射到ai和32之間的區(qū)域才算占 有線圈,該樣能夠明顯減小"一輛車投影到兩條車道""帶給算法的不利影響。另外,如果同 一車道上前后車輛的間距太小,虛擬區(qū)域有可能被兩輛車同時占有。依靠線圈內(nèi)的前景像 素比例、特征線ai和32都很難處理該種情況。于是在虛擬區(qū)域內(nèi)增加兩條垂直于車道方向 的特征線bi和b2,它們的端點(diǎn)將線圈左右兩條邊等分為S段,如圖2所示。假設(shè)線圈被車輛 占有時,bi和