一種基于衣帽特征與姿態(tài)檢測的交警檢測方法和系統(tǒng)的制作方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明屬于主動駕駛領(lǐng)域,具體說是一種基于衣帽特征與姿態(tài)檢測的交警檢測方 法和系統(tǒng)。
【背景技術(shù)】
[0002] 近年來汽車主動駕駛技術(shù)發(fā)展得如火如茶,各汽車廠商與科技公司紛紛推出自己 的主動駕駛試驗概念車。運些實驗概念車通過行人檢測、車輛檢測、交通信號燈檢測、GPS定 位與地圖查找、路徑規(guī)劃等技術(shù)來指導(dǎo)其進行自主駕駛,甚至無人駕駛。運些實驗車可W在 一些比較常見的路況情形下,幾乎完全脫離人為操作進行汽車的控制與駕駛。但是在有些 特殊的交通場景下,是由交警來指揮車輛行為的。而目前的主動駕駛車輛還沒有主動對交 警進行積極的應(yīng)對措施。
[0003] 鑒于此,本發(fā)明提出一種基于交警衣帽特征與姿態(tài)檢測相結(jié)合的交警檢測方法。 通過該技術(shù),可W使主動駕駛在檢測出行人的時候,進一步檢測其是否是交警,如果是交警 則進行告警,提醒主動駕駛切換回人為駕駛模式、W及對交警姿態(tài)進行解讀等。
【發(fā)明內(nèi)容】
[0004] 針對現(xiàn)有技術(shù)中存在的上述不足之處,本發(fā)明要解決的技術(shù)問題是提供一種檢測 交警并解讀交警指揮動作的方法和系統(tǒng)。
[0005] 本發(fā)明為實現(xiàn)上述目的所采用的技術(shù)方案是:一種基于衣帽特征與姿態(tài)檢測的交 警檢測方法,包括W下步驟:
[0006] 車載視覺采集模塊:通過車載視覺傳感器實時采集原始圖像;
[0007] 行人檢測模塊:對原始圖像利用行人hog特征提取算法獲取特征圖像XR;當特征圖 像XR中有行人時,則在特征圖像XR中標記行人并傳送行人坐標至軀干檢測模塊;
[000引軀干檢測模塊:對特征圖像XR中的行人區(qū)域進行模塊分割,得到頭部區(qū)域坐標和軀 干區(qū)域坐標,并發(fā)送至衣帽檢測模塊和巧光馬甲檢測模塊;
[0009] 衣帽檢測模塊:當在頭部區(qū)域中檢測有警帽時,則將警帽判斷標識發(fā)送至聯(lián)合判 斷模塊;
[0010] 巧光馬甲檢測模塊:當在軀干區(qū)域中檢測有巧光馬甲時,則將判斷標識發(fā)送至聯(lián) 合判斷模塊;
[0011] 聯(lián)合判斷模塊:將警帽判斷標識和判斷標識進行加權(quán)求和得到可信度,并通過與 闊值比較,得到交警的檢測結(jié)果發(fā)送至交警姿態(tài)檢測模塊;
[0012] 交警姿態(tài)檢測模塊:當行人為交警時,通過特征圖像XR中的行人區(qū)域與預(yù)設(shè)的交警 位姿模板進行模板匹配得到交警姿態(tài)標識,并發(fā)送至信息解讀模塊;
[0013] 信息解讀模塊:將交警姿態(tài)標識對應(yīng)的交通指揮信息提示駕駛者。
[0014] 所述對原始圖像利用行人hog特征提取算法獲取特征圖像XR;若特征圖像XR中有行 人,則在特征圖像XR中標記行人并傳送行人坐標至軀干檢測模塊包括W下步驟:
[0015] I)將原始圖像進行hog特征提取得到特征圖像XR,具體為:
[0016] hog特征為高寬相等的像素塊,像素塊中平均分割成四個單元像素塊,hog特征的 步長為像素塊的高;
[0017] 對原始圖像的YUV的每個通道進行hog特征提取,將每個通道得到的特征根據(jù)權(quán)重 進行加權(quán)計算得到特征圖像XR;
[0018] 2)通過行人分類器對特征圖像XR進行檢測:
[0019]
[0020] 其中,X表示輸入的測試樣本,代表特征圖像XR中的一個hog特征,ht(x)表示第t個 弱分類器,Qt為權(quán)重,fk(x)表示行人分類器的一個強分類器,化為闊值,T為弱分類器個數(shù); 行人分類器為若干強分類器的集合{fk(x)},k=l......N;N為強分類器個數(shù);
[0021] 3)若{fk(x)}為1,則該測試樣本是行人,在特征圖像XR中標記行人并傳送行人坐標 至軀干檢測模塊;否則該測試樣本不是行人。
[0022] 所述對特征圖像XR中的行人區(qū)域進行模塊分割,得到頭部區(qū)域坐標和軀干區(qū)域坐 標,并發(fā)送至衣帽檢測模塊和巧光馬甲檢測模塊包括W下步驟:
[0023] 將特征圖像XR中的行人區(qū)域分別通過預(yù)設(shè)的頭部模板和軀干模板進行模板匹配, 匹配上的部分即是行人的頭部區(qū)域與軀干區(qū)域,并將頭部區(qū)域與軀干區(qū)域坐標發(fā)送至衣帽 檢測模塊和巧光馬甲檢測模塊。
[0024] 所述行人檢測模塊還傳送行人坐標至輔助檢測模塊,包括W下步驟:
[0025] 行人姿態(tài)檢測模塊:將特征圖像XR中的行人區(qū)域通過預(yù)設(shè)的交警位姿模板進行模 板匹配;當姿態(tài)相似度大于闊值時,認為匹配成功,并將行人區(qū)域坐標傳至衣帽特征模糊檢 測模塊;
[0026] 衣帽特征模糊檢測模塊:將行人區(qū)域坐標進行模糊匹配,得到交警檢測結(jié)果,并發(fā) 送至信息解讀模塊,用于提示駕駛員。
[0027] 所述模糊匹配包括W下步驟:
[002引
[0029] 其中,X表示測試樣本,即行人區(qū)域坐標內(nèi)的hog特征,Y表示設(shè)定的衣帽圖像的hog 特征,P表示相似度的階數(shù),n表示hog特征的維度,di St (X,Y)表示測試樣本與設(shè)定的衣帽圖 像hog特征之間的相似度,x\yi分別表示測試樣本第i個維度的hog特征、標準衣帽圖像第i 個維度的hog特征。
[0030] -種基于衣帽特征與姿態(tài)檢測的交警檢測系統(tǒng),包括:
[0031] 車載視覺采集模塊:用于通過車載視覺傳感器實時采集原始圖像;
[0032] 行人檢測模塊:用于對原始圖像利用行人hog特征提取算法獲取特征圖像XR;當特 征圖像XR中有行人時,則在特征圖像XR中標記行人并傳送行人坐標至軀干檢測模塊;
[0033] 軀干檢測模塊:用于對特征圖像XR中的行人區(qū)域進行模塊分割,得到頭部區(qū)域坐標 和軀干區(qū)域坐標,并發(fā)送至衣帽檢測模塊和巧光馬甲檢測模塊;
[0034] 衣帽檢測模塊:用于當在頭部區(qū)域中檢測有警帽時,則將警帽判斷標識發(fā)送至聯(lián) 合判斷模塊;
[0035] 巧光馬甲檢測模塊:用于當在軀干區(qū)域中檢測有巧光馬甲時,則將判斷標識發(fā)送 至聯(lián)合判斷模塊;
[0036] 聯(lián)合判斷模塊:用于將警帽判斷標識和判斷標識進行加權(quán)求和得到可信度,并通 過與闊值比較,得到交警的檢測結(jié)果發(fā)送至交警姿態(tài)檢測模塊;
[0037] 交警姿態(tài)檢測模塊:用于當行人為交警時,通過特征圖像XR中的行人區(qū)域與預(yù)設(shè)的 交警位姿模板進行模板匹配得到交警姿態(tài)標識,并發(fā)送至信息解讀模塊;
[0038] 信息解讀模塊:用于將交警姿態(tài)標識對應(yīng)的交通指揮信息提示駕駛者。
[0039] 所述行人檢測模塊用于:
[0040] 1)將原始圖像進行hog特征提取得到特征圖像XR,具體為:
[0041] hog特征為高寬相等的像素塊,像素塊中平均分割成四個單元像素塊,hog特征的 步長為像素塊的高;
[0042] 對原始圖像的YUV的每個通道進行hog特征提取,將每個通道得到的特征根據(jù)權(quán)重 進行加權(quán)計算得到特征圖像XR;
[0043] 2)通過行人分類器對特征圖像XR進行檢測:
[0044]
[0045] 其中,X表示輸入的測試樣本,代表特征圖像XR中的一個hog特征,ht(x)表示第t個 弱分類器,Qt為權(quán)重,fk(x)表示行人分類器的一個強分類器,化為闊值,T為弱分類器個數(shù); 行人分類器為若干強分類器的集合{fk(x)},k=l……N;N為強分類器個數(shù);
[0046] 3)若{fk(x)}為1,則該測試樣本是行人,在特征圖像XR中標記行人并傳送行人坐標 至軀干檢測模塊;否則該測試樣本不是行人。
[0047] 所述軀干檢測模塊:用于將特征圖像XR中的行人區(qū)域分別通過預(yù)設(shè)的頭部模板和 軀干模板進行模板匹配,匹配上的部分即是行人的頭部區(qū)域與軀干區(qū)域,并將頭部區(qū)域與 軀干區(qū)域坐標發(fā)送至衣帽檢測模塊和巧光馬甲檢測模塊。
[004引所述行人檢測模塊還傳送行人坐標至輔助檢測模塊,輔助檢測模塊包括:
[0049] 行人姿態(tài)檢測模塊:用于將特征圖像XR中的行人區(qū)域通過預(yù)設(shè)的交警位姿模板進 行模板匹配;當姿態(tài)相似度大于闊值時,認為匹配成功,并將行人區(qū)域坐標傳至衣帽特征模 糊檢測板塊;
[0050] 衣帽特征模糊檢測模塊:用于將行人區(qū)域坐標進行模糊匹配,得到交警檢測結(jié)果, 并發(fā)送至信息解讀模塊,用于提示駕駛員。
[0