本發(fā)明涉及圖像處理技術(shù)領(lǐng)域,尤其涉及一種基于圖像的車型識(shí)別方法及裝置。
背景技術(shù):
隨著現(xiàn)代化經(jīng)濟(jì)的高速發(fā)展,機(jī)動(dòng)車的數(shù)量和種類日益增加,這使得城市的交通狀況不斷惡化。而智能交通系統(tǒng)的出現(xiàn),不僅緩解了交通阻塞問題,還能夠?qū)崿F(xiàn)對交通狀況的實(shí)時(shí)監(jiān)控。在管理機(jī)動(dòng)車違章、交通事故的應(yīng)急處理、環(huán)境的保護(hù)、能源的節(jié)約等方面,智能交通系統(tǒng)均有著顯著的效果。而在智能交通系統(tǒng)中的電子警察系統(tǒng),能夠?qū)崟r(shí)監(jiān)控機(jī)動(dòng)車的違章行為(如闖紅燈、逆行、超速、越線行駛、違例??康?。其中,車型識(shí)別是電子警察系統(tǒng)實(shí)現(xiàn)上述功能的主要技術(shù)手段。實(shí)際應(yīng)用時(shí),電子警察系統(tǒng)通過攝像機(jī)拍攝卡口圖片后,提取卡口照片中車輛的具體信息(車牌和車型等),以此為依據(jù)來對車輛使用假牌、套用車牌和盜用車牌等現(xiàn)象進(jìn)行識(shí)別和處理。
現(xiàn)有的電子警察系統(tǒng)所用的車型識(shí)別方法,一般在使用方向梯度直方圖(HOG)、局部二值模式(LBP)、哈爾(Haar)特征、詞袋模型、費(fèi)舍爾向量等方法提取圖像中車型的特征后,將提取到的車型特征輸入分類器中進(jìn)行分類識(shí)別來獲取圖像中指定車輛的車型信息。然而,上述幾種特征提取方法的魯棒性較差,各有其局限性。且上述幾種方法所獲取到的車型特征的維數(shù)較大,難以進(jìn)行精準(zhǔn)的車型識(shí)別,在大規(guī)模車型圖像識(shí)別應(yīng)用中,特征獲取過程的運(yùn)算時(shí)間長,車型識(shí)別的效率低。
技術(shù)實(shí)現(xiàn)要素:
有鑒于此,本發(fā)明提供了一種基于圖像的車型識(shí)別方法及裝置,能夠解決現(xiàn)有技術(shù)在提取車型特征的過程中運(yùn)算時(shí)間長、車型識(shí)別效率低的問題,提高車型識(shí)別的準(zhǔn)確率。
本發(fā)明實(shí)施例提供的基于圖像的車型識(shí)別方法,包括:
獲取待識(shí)別車輛的圖像;
構(gòu)建測試網(wǎng)絡(luò);
將所述待識(shí)別車輛的圖像輸入所述測試網(wǎng)絡(luò),得到所述待識(shí)別車輛的車型特征;
根據(jù)所述車型特征,確定所述待識(shí)別車輛的車型。
優(yōu)選地,所述根據(jù)所述車型特征,確定所述待識(shí)別車輛的車型,具體包括:
獲取所述車型特征中的最大特征值,所述車型特征包括至少兩個(gè)特征值;
根據(jù)車型特征模型,獲取所述最大特征值所對應(yīng)的車型,所述車型特征模型是預(yù)先根據(jù)所述測試網(wǎng)絡(luò)得到的,所述車型特征模型為車型與特征值的一一對應(yīng)關(guān)系;
將所述最大特征值所對應(yīng)的車型確定為所述待識(shí)別車輛的車型。
優(yōu)選地,所述獲取待識(shí)別車輛的圖像,具體包括:
獲取原始圖像,所述原始圖像中包括所述待識(shí)別車輛;
檢測所述原始圖像中所述待識(shí)別車輛的位置,得到所述待識(shí)別車輛的檢測框;
根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映所述原始圖像中所述待識(shí)別車輛的實(shí)際位置;
根據(jù)所述真實(shí)框,提取所述原始圖像上所述待識(shí)別車輛的圖像。
優(yōu)選地,構(gòu)建所述測試網(wǎng)絡(luò)并得到所述車型特征模型的方法,具體包括:
獲取第一訓(xùn)練圖像集合,所述第一訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
建立深度卷積神經(jīng)網(wǎng)絡(luò),并以所述第一訓(xùn)練圖像集合中的圖像為輸入訓(xùn)練所述深度卷積神經(jīng)網(wǎng)絡(luò);
根據(jù)訓(xùn)練后的深度卷積神經(jīng)網(wǎng)絡(luò),構(gòu)建所述測試網(wǎng)絡(luò);
將所述第一訓(xùn)練圖像集合中的圖像輸入所述測試網(wǎng)絡(luò),確定所述第一訓(xùn)練圖像集合中每個(gè)車型所對應(yīng)的特征值,得到所述車型特征模型。
優(yōu)選地,所述獲取第一訓(xùn)練圖像集合,具體包括:
獲取多個(gè)不同車型車輛的原始圖像;
逐一檢測每個(gè)原始圖像中車輛的位置,得到該原始圖像中車輛的檢測框后,根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映該原始圖像中車輛的實(shí)際位置;
根據(jù)所述每個(gè)原始圖像中的真實(shí)框,提取所述每個(gè)原始圖像上車輛的圖像,得到所述第一訓(xùn)練圖像集合。
優(yōu)選地,所述根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,具體包括:
獲取所述檢測框中心點(diǎn)的坐標(biāo)以及所述檢測框的寬和高;
依據(jù)公式Gx1=Pw1dx1(P)+Px1和公式Gy1=Ph1dy1(P)+Py1,得到所述真實(shí)框中心點(diǎn)的坐標(biāo);
依據(jù)公式Gw1=Pw1exp[dw1(P)]和公式Gh1=Ph1exp[dh1(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框中心點(diǎn)的坐標(biāo)為(Px1,Py1),所述檢測框的寬為Pw1,所述檢測框的高為Ph1,所述真實(shí)框中心點(diǎn)的坐標(biāo)為(Gx1,Gy1),所述真實(shí)框的寬為Gw1,所述真實(shí)框的高為Gh1,dx1(P)、dy1(P)、dw1(P)和dh1(P)為預(yù)先得到的轉(zhuǎn)換函數(shù);
或,
獲取所述檢測框的預(yù)設(shè)頂點(diǎn)坐標(biāo)以及所述檢測框的寬和高;
依據(jù)公式Gx2=Pw2dx2(P)+Px2和公式Gy2=Ph2dy2(P)+Py2,得到所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo);
依據(jù)公式Gw2=Pw2exp[dw2(P)]和公式Gh2=Ph2exp[dh2(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框的預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Px2,Py2),所述檢測框的寬為Pw2,所述檢測框的高為Ph2,所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Gx2,Gy2),所述真實(shí)框的寬為Gw2,所述真實(shí)框的高為Gh2,dx2(P)、dy2(P)、dw2(P)和dh2(P)為預(yù)先得到的轉(zhuǎn)換函數(shù)。
優(yōu)選地,得到所述轉(zhuǎn)換函數(shù)的方法,具體包括:
獲取所述第二訓(xùn)練圖像集合,所述第二訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
逐一檢測所述車輛的位置,得到該圖像上車輛的檢測框,并獲取該圖像上車輛的真實(shí)框;
獲取所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框中圖像的特征;
根據(jù)所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框和真實(shí)框以及該檢測框中圖像的特征,訓(xùn)練公式Gx=Pwdx(P)+Px、Gy=Phdy(P)+Py、Gw=Pwexp[dw(P)]和Gh=Phexp[dh(P)],得到所述轉(zhuǎn)換函數(shù)。
優(yōu)選地,所述測試網(wǎng)絡(luò),包括:一個(gè)輸入層、四個(gè)卷積層、四個(gè)池化層、兩個(gè)全連接層和一個(gè)輸出層;
所述輸入層之后連接第一個(gè)卷積層,每個(gè)卷積層之后連接與其對應(yīng)的池化層,上一個(gè)卷積層所對應(yīng)的池化層之后連接下一個(gè)卷積層,最后一個(gè)池化層之后連接所述兩個(gè)全連接層,所述兩個(gè)全連接層之后連接所述輸出層。
優(yōu)選地,所述四個(gè)卷積層中卷積核大小依次為7×7像素、3×3像素、3×3像素和3×3像素,特征圖個(gè)數(shù)依次為48個(gè)、96個(gè)、128個(gè)和256個(gè);
所述四個(gè)池化層為2×2大小的最大池化;
所述兩個(gè)全連接層的大小分別是1024維和4096維。
本發(fā)明實(shí)施例提供的基于圖像的車型識(shí)別裝置,包括:圖像獲取模塊、網(wǎng)絡(luò)構(gòu)建模塊、特征獲取模塊和車型確定模塊;
所述圖像獲取模塊,用于獲取待識(shí)別車輛的圖像;
所述網(wǎng)絡(luò)構(gòu)建模塊,用于構(gòu)建測試網(wǎng)絡(luò);
所述特征獲取模塊,用于將所述待識(shí)別車輛的圖像輸入所述測試網(wǎng)絡(luò),得到所述待識(shí)別車輛的車型特征;
所述車型確定模塊,用于根據(jù)所述車型特征,確定所述待識(shí)別車輛的車型。
優(yōu)選地,所述車型確定模塊,具體包括:比較子模塊、對比子模塊和確定子模塊;
所述比較子模塊,用于獲取所述車型特征中的最大特征值,所述車型特征包括至少兩個(gè)特征值;
所述對比子模塊,用于根據(jù)車型特征模型,獲取所述最大特征值所對應(yīng)的車型,所述車型特征模型是預(yù)先根據(jù)所述測試網(wǎng)絡(luò)得到的,所述車型特征模型為車型與特征值的一一對應(yīng)關(guān)系;
所述確定子模塊,用于將所述最大特征值所對應(yīng)的車型確定為所述待識(shí)別車輛的車型。
優(yōu)選地,所述圖像獲取模塊,具體包括:原始圖像獲取子模塊、檢測子模塊、映射子模塊和提取子模塊;
所述原始圖像獲取子模塊,用于獲取原始圖像,所述原始圖像中包括所述待識(shí)別車輛;
所述檢測子模塊,用于檢測所述原始圖像中所述待識(shí)別車輛的位置,得到所述待識(shí)別車輛的檢測框;
所述映射子模塊,用于根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映所述原始圖像中所述待識(shí)別車輛的實(shí)際位置;
所述提取子模塊,用于根據(jù)所述真實(shí)框,提取所述原始圖像上所述待識(shí)別車輛的圖像。
優(yōu)選地,所述網(wǎng)絡(luò)構(gòu)建模塊,具體包括:圖像集合獲取子模塊、訓(xùn)練子模塊、構(gòu)建子模塊和模型獲取子模塊;
所述圖像集合獲取子模塊,用于獲取第一訓(xùn)練圖像集合,所述第一訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
所述訓(xùn)練子模塊,用于建立深度卷積神經(jīng)網(wǎng)絡(luò),并以所述第一訓(xùn)練圖像集合中的圖像為輸入訓(xùn)練所述深度卷積神經(jīng)網(wǎng)絡(luò);
所述構(gòu)建子模塊,用于根據(jù)訓(xùn)練后的深度卷積神經(jīng)網(wǎng)絡(luò),構(gòu)建所述測試網(wǎng)絡(luò);
所述第三獲取子模塊,用于將所述第一訓(xùn)練圖像集合中的圖像輸入所述測試網(wǎng)絡(luò),確定所述第一訓(xùn)練圖像集合中每個(gè)車型所對應(yīng)的特征值,得到所述車型特征模型。
優(yōu)選地,所述圖像集合獲取子模塊,具體包括:原始圖像獲取子模塊、映射子模塊和提取子模塊;
所述原始圖像獲取子模塊,用于獲取多個(gè)不同車型車輛的原始圖像;
所述映射子模塊,用于逐一檢測每個(gè)原始圖像中車輛的位置,得到該原始圖像中車輛的檢測框后,根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映該原始圖像中車輛的實(shí)際位置;
所述提取子模塊,用于根據(jù)所述每個(gè)原始圖像中的真實(shí)框,提取所述每個(gè)原始圖像上車輛的圖像,得到所述第一訓(xùn)練圖像集合。
優(yōu)選地,所述映射子模塊,具體包括:第一獲取子模塊、第一計(jì)算子模塊和第二計(jì)算子模塊;
所述第一獲取子模塊,用于獲取所述檢測框中心點(diǎn)的坐標(biāo)以及所述檢測框的寬和高;
所述第一計(jì)算子模塊,用于依據(jù)公式Gx1=Pw1dx1(P)+Px1和公式Gy1=Ph1dy1(P)+Py1,得到所述真實(shí)框中心點(diǎn)的坐標(biāo);
所述第二計(jì)算子模塊,用于依據(jù)公式Gw1=Pw1exp[dw1(P)]和公式Gh1=Ph1exp[dh1(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框中心點(diǎn)的坐標(biāo)為(Px1,Py1),所述檢測框的寬為Pw1,所述檢測框的高為Ph1,所述真實(shí)框中心點(diǎn)的坐標(biāo)為(Gx1,Gy1),所述真實(shí)框的寬為Gw1,所述真實(shí)框的高為Gh1,dx1(P)、dy1(P)、dw1(P)和dh1(P)為預(yù)先得到的轉(zhuǎn)換函數(shù);
或,
所述第一獲取子模塊,用于獲取所述檢測框的預(yù)設(shè)頂點(diǎn)坐標(biāo)以及所述檢測框的寬和高;
所述第一計(jì)算子模塊,用于依據(jù)公式Gx2=Pw2dx2(P)+Px2和公式Gy2=Ph2dy2(P)+Py2,得到所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo);
所述第二計(jì)算子模塊,用于依據(jù)公式Gw2=Pw2exp[dw2(P)]和公式Gh2=Ph2exp[dh2(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框的預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Px2,Py2),所述檢測框的寬為Pw2,所述檢測框的高為Ph2,所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Gx2,Gy2),所述真實(shí)框的寬為Gw2,所述真實(shí)框的高為Gh2,dx2(P)、dy2(P)、dw2(P)和dh2(P)為預(yù)先得到的轉(zhuǎn)換函數(shù)。
優(yōu)選地,所述映射子模塊,還用于得到所述轉(zhuǎn)換函數(shù);
所述映射子模塊,具體還包括:圖像集合獲取子模塊、檢測子模塊、特征獲取子模塊和訓(xùn)練子模塊;
所述圖像集合獲取子模塊,用于獲取所述第二訓(xùn)練圖像集合,所述第二訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
所述檢測子模塊,用于逐一檢測所述車輛的位置,得到該圖像上車輛的檢測框,并獲取該圖像上車輛的真實(shí)框;
所述特征獲取子模塊,用于獲取所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框中圖像的特征;
所述訓(xùn)練子模塊,用于根據(jù)所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框和真實(shí)框以及該檢測框中圖像的特征,訓(xùn)練公式Gx=Pwdx(P)+Px、Gy=Phdy(P)+Py、Gw=Pwexp[dw(P)]和Gh=Phexp[dh(P)],得到所述轉(zhuǎn)換函數(shù)。
優(yōu)選地,所述測試網(wǎng)絡(luò),包括:一個(gè)輸入層、四個(gè)卷積層、四個(gè)池化層、兩個(gè)全連接層和一個(gè)輸出層;
所述輸入層之后連接第一個(gè)卷積層,每個(gè)卷積層之后連接與其對應(yīng)的池化層,上一個(gè)卷積層所對應(yīng)的池化層之后連接下一個(gè)卷積層,最后一個(gè)池化層之后連接所述兩個(gè)全連接層,所述兩個(gè)全連接層之后連接所述輸出層。
優(yōu)選地,所述四個(gè)卷積層中卷積核大小依次為7×7像素、3×3像素、3×3像素和3×3像素,特征圖個(gè)數(shù)依次為48個(gè)、96個(gè)、128個(gè)和256個(gè);
所述四個(gè)池化層為2×2大小的最大池化;
所述兩個(gè)全連接層的大小分別是1024維和4096維。
與現(xiàn)有技術(shù)相比,本發(fā)明至少具有以下優(yōu)點(diǎn):
本發(fā)明實(shí)施例提供的基于圖像的車型識(shí)別方法,先收集車輛的原始圖片,使用車輛定位技術(shù)對原始圖片進(jìn)行車輛的定位,再將定位的車輛圖片歸一化為同樣大小。之后針對車型識(shí)別,設(shè)計(jì)深度卷積神經(jīng)網(wǎng)絡(luò)的卷積層、池化層和全連接層的個(gè)數(shù),以及各卷積層所得到的特征圖的個(gè)數(shù)。再以之前得到的車輛圖片為輸入訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),得到基于深度卷積神經(jīng)網(wǎng)絡(luò)的測試網(wǎng)絡(luò)以及車型特征模型。實(shí)際進(jìn)行車型識(shí)別時(shí),通過將待識(shí)別車輛的圖像輸入預(yù)先構(gòu)建好的測試網(wǎng)絡(luò),獲得該車輛的車型特征。之后,將獲得到的車型特征中的最大特征值與預(yù)先得到的車型特征模型作對比,得到該車輛的車型。本發(fā)明實(shí)施例提供的基于圖像的車型識(shí)別方法,采用深度卷積神經(jīng)網(wǎng)絡(luò)獲取車型特征,能夠縮短特征獲取的運(yùn)算時(shí)間。另外,深度卷積神經(jīng)網(wǎng)絡(luò)通過組合低層特征形成更加抽象的高層表示、屬性類別或特征,自動(dòng)地學(xué)習(xí)得到層次化的特征表示,從而增強(qiáng)了分類器的魯棒性,提高車型識(shí)別的準(zhǔn)確率和精度。
附圖說明
為了更清楚地說明本申請實(shí)施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實(shí)施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本申請中記載的一些實(shí)施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動(dòng)的前提下,還可以根據(jù)這些附圖獲得其它的附圖。
圖1a為車輛原始圖像的示意圖;
圖1b為現(xiàn)有的車輛檢測方法定位出的原始圖像中車輛的示意圖;
圖1c為經(jīng)Bounding-box回歸計(jì)算后得出的車輛定位結(jié)果的示意圖;
圖2為本發(fā)明提供的基于圖像的車型檢測方法實(shí)施例的流程示意圖;
圖3為本發(fā)明實(shí)施例提供的基于圖像的車型檢測方法中獲取車輛定位的真實(shí)框方法的流程示意圖;
圖4為本發(fā)明提供的基于圖像的車型識(shí)別裝置實(shí)施例一的結(jié)構(gòu)示意圖;
圖5為本發(fā)明提供的基于圖像的車型識(shí)別裝置實(shí)施例二的結(jié)構(gòu)示意圖。
具體實(shí)施方式
為了使本技術(shù)領(lǐng)域的人員更好地理解本發(fā)明方案,下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例。基于本發(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動(dòng)前提下所獲得的所有其他實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。
現(xiàn)有的車型檢測方法,在采用不同的特征提取方法獲取車型特征時(shí),魯棒性較差。并且,獲得的車型特征維數(shù)較大,在大規(guī)模車型圖像識(shí)別應(yīng)用中運(yùn)算時(shí)間長,識(shí)別效率低,難以進(jìn)行精準(zhǔn)的車型識(shí)別。此外,在獲取車型特征前對車輛進(jìn)行定位時(shí),現(xiàn)有的車輛檢測方法只能對車輛的位置進(jìn)行粗定位,這會(huì)對后續(xù)特征提取的精度造成影響。具體如圖1a和圖1b所示,其中,圖1a示出了車輛的原始圖像,圖1b示出了現(xiàn)有的車輛檢測方法定位出的車輛檢測框。
為此,本發(fā)明提供了一種基于圖像的車型識(shí)別方法及裝置,采用深度卷積神經(jīng)網(wǎng)絡(luò)來獲取圖像中車輛的車型特征。之后,根據(jù)樣本訓(xùn)練時(shí)獲得的車型特征模型以及獲取到的車型特征,準(zhǔn)確的識(shí)別出圖像中車輛的車型。深度卷積神經(jīng)網(wǎng)絡(luò)通過組合低層特征形成更加抽象的高層表示、屬性類別或特征,自動(dòng)地學(xué)習(xí)得到層次化的特征表示,從而增強(qiáng)了分類器的魯棒性,提高車型識(shí)別的準(zhǔn)確率。在此基礎(chǔ)上,本發(fā)明提供的一種基于圖像的車型識(shí)別方法及裝置還采用了Bounding-box回歸的方法,將現(xiàn)有的車輛檢測方法檢測出的車輛檢測框回歸至真實(shí)框(反映了該圖像中車輛的實(shí)際位置),對車輛進(jìn)行精準(zhǔn)定位,進(jìn)一步提高了后續(xù)車型檢測的精度。具體如圖1c所示,該圖示出了采用Bounding-box回歸之后得到的真實(shí)框。
基于上述思想,為使本發(fā)明的上述目的、特征和優(yōu)點(diǎn)能夠更加明顯易懂,下面結(jié)合附圖對本發(fā)明的具體實(shí)施方式做詳細(xì)的說明。
方法實(shí)施例:
參見圖2,該圖為本發(fā)明提供一種基于圖像的車型識(shí)別方法實(shí)施例的流程示意圖。
本實(shí)施例提供的基于圖像的車型識(shí)別方法,包括:
S201:獲取待識(shí)別車輛的圖像;
可以理解的是,為了提高車型識(shí)別的精度及準(zhǔn)確率,一般將定位出的車型圖像作為待識(shí)別車輛的圖像輸入車型識(shí)別系統(tǒng)。例如,將圖1b或圖1c中示出的車輛檢測的定位框(白色線框)范圍以內(nèi)的圖像作為待識(shí)別車輛的圖像。
這里需要說明的是,車輛檢測定位的精度越高,可相應(yīng)的減小待識(shí)別車輛的圖像中除車輛圖像之外的背景信息,獲取車輛特征時(shí)的干擾因素越少,后續(xù)車型識(shí)別的準(zhǔn)確率和精度就會(huì)越高。這樣,為進(jìn)一步提高車型識(shí)別的準(zhǔn)確率和精度,本實(shí)施例將圖1c中真實(shí)框(白色線框)以內(nèi)區(qū)域的圖像作為待識(shí)別車輛的圖像。
S202:構(gòu)建測試網(wǎng)絡(luò);
S203:將所述待識(shí)別車輛的圖像輸入測試網(wǎng)絡(luò),得到所述待識(shí)別車輛的車型特征;
這里需要說明的是,所述測試網(wǎng)絡(luò)為預(yù)先構(gòu)建的深度卷積神經(jīng)網(wǎng)絡(luò)??梢岳斫獾氖牵噍^于現(xiàn)有技術(shù),采用深度卷積神經(jīng)網(wǎng)絡(luò)獲取車型特征,能夠縮短特征獲取的運(yùn)算時(shí)間。
在一個(gè)例子中,本領(lǐng)域技術(shù)人員可通過下述方法構(gòu)建測試網(wǎng)絡(luò):
首先,獲取第一訓(xùn)練圖像集合,所述第一訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
這里需要說明的是,為保證后續(xù)實(shí)際的車型檢測中能夠準(zhǔn)確的識(shí)別出不同車型的車輛,第一訓(xùn)練圖像集合中需包括多個(gè)不同車型不同質(zhì)量的車輛圖像。例如,當(dāng)需檢測1000種車型時(shí),先獲取這1000種車型車輛的原始圖像,這些原始圖像包括各種不同質(zhì)量不同大小的車輛圖像。再經(jīng)檢測定位后,獲得這些原始圖像中車輛的真實(shí)框。這時(shí),第一訓(xùn)練集合中的車輛圖像中包括這些車輛的真實(shí)框以內(nèi)區(qū)域的圖像。
其次,建立深度卷積神經(jīng)網(wǎng)絡(luò),并以所述第一訓(xùn)練圖像集合中的圖像為輸入訓(xùn)練所述深度卷積神經(jīng)網(wǎng)絡(luò);
需要說明的是,將圖像輸入深度卷積神經(jīng)網(wǎng)絡(luò)之前,需將該圖像歸一化為預(yù)設(shè)大小。在本實(shí)施例中,訓(xùn)練和實(shí)際測試過程中,將輸入的圖像縮放至112×112的大小,再輸入至深度卷積神經(jīng)網(wǎng)絡(luò)。
最后,即可根據(jù)訓(xùn)練后的深度卷積神經(jīng)網(wǎng)絡(luò),構(gòu)建所述測試網(wǎng)絡(luò)。
所述測試網(wǎng)絡(luò),包括:一個(gè)輸入層、四個(gè)卷積層、四個(gè)池化層、兩個(gè)全連接層和一個(gè)輸出層;
所述輸入層之后連接第一個(gè)卷積層,每個(gè)卷積層之后連接與其對應(yīng)的池化層,上一個(gè)卷積層所對應(yīng)的池化層之后連接下一個(gè)卷積層,最后一個(gè)池化層之后連接所述兩個(gè)全連接層,所述兩個(gè)全連接層之后連接所述輸出層。
這時(shí),圖像在深度卷積神經(jīng)網(wǎng)絡(luò)中的傳輸路徑為:輸入層-第一卷積層-第一池化層-第二卷積層-第二池化層-第三卷積層-第三池化層-第四卷積層-第四池化層-第一全連接層-第二全連接層-輸出層。
需要說明的是,所述四個(gè)卷積層中卷積核大小依次為7×7像素、3×3像素、3×3像素和3×3像素,特征圖個(gè)數(shù)依次為48個(gè)、96個(gè)、128個(gè)和256個(gè);所述四個(gè)池化層為2×2大小的最大池化;所述兩個(gè)全連接層的大小分別是1024維和4096維。輸出層為Softmax層。
可以理解的是,訓(xùn)練的過程即調(diào)整深度卷積神經(jīng)網(wǎng)絡(luò)權(quán)重的過程。通過調(diào)整權(quán)重,得到不同車型的特征,用以區(qū)分不同車型的車輛圖像。
S204:根據(jù)所述待識(shí)別車輛的車型特征,確定所述待識(shí)別車輛的車型;
在另一個(gè)例子中,本領(lǐng)域技術(shù)人員可通過以下方法確定待識(shí)別車輛的車型:
獲取所述車型特征中的最大特征值,并根據(jù)車型特征模型,獲取所述最大特征值所對應(yīng)的車型,所述車型特征包括至少兩個(gè)特征值,所述車型特征模型是預(yù)先根據(jù)所述測試網(wǎng)絡(luò)得到的,所述車型特征模型為車型與特征值的一一對應(yīng)關(guān)系;
需要說明的是,在本例子中,車型特征為一1×N的矩陣。矩陣中每個(gè)值為待識(shí)別車輛為車型特征模型中該數(shù)值所對應(yīng)車型的概率。最大特征值表示待識(shí)別車輛為其所對應(yīng)車型的概率最大。
這樣,即可將所述最大特征值所對應(yīng)的車型確定為所述待識(shí)別車輛的車型。
這里需要說明的是,在上述構(gòu)建測試網(wǎng)絡(luò)的過程中,可通過將所述第一訓(xùn)練圖像集合中的圖像輸入構(gòu)建好的測試網(wǎng)絡(luò),確定所述第一訓(xùn)練圖像集合中每個(gè)車型所對應(yīng)的特征值,得到所述車型特征模型。
此時(shí),可使用構(gòu)建好的測試網(wǎng)絡(luò)以及相應(yīng)的車型特征模型,檢測實(shí)際待識(shí)別車輛的圖像中該車輛的車型。
為方便理解,下面以3種車型的車輛為例詳細(xì)說明上述方法。
首先,獲取多個(gè)A、B、C三種車型車輛的圖像,并定位檢測出真實(shí)框。再以真實(shí)框中的圖像為輸入,訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò),得到訓(xùn)練好的測試網(wǎng)絡(luò)。然后,將真實(shí)框中的圖像輸入測試網(wǎng)絡(luò),確定A、B、C三種車型分別對應(yīng)車型特征中的哪個(gè)特征值,得到車型特征模型。車型特征模型為車型與車型特征中特征值之間的一一對應(yīng)關(guān)系。此時(shí),車型特征為一1×3的矩陣(k1,k2,k3),矩陣中不同位置的特征值對應(yīng)不同車型。例如,矩陣中k1對應(yīng)A車型,k2對應(yīng)B車型,k3對應(yīng)C車型。
之后,在實(shí)際檢測時(shí),將待識(shí)別車輛的圖像輸入測試網(wǎng)絡(luò)后,判斷輸出的車型特征矩陣中最大特征值所對應(yīng)的車型,即可檢測出該待識(shí)別車輛的車型。
本實(shí)施例提供的基于圖像的車型識(shí)別方法,先收集車輛的原始圖片,使用車輛定位技術(shù)對原始圖片進(jìn)行車輛的定位,再將定位的車輛圖片歸一化為同樣大小。之后針對車型識(shí)別,設(shè)計(jì)深度卷積神經(jīng)網(wǎng)絡(luò)的卷積層、池化層和全連接層的個(gè)數(shù),以及各卷積層所得到的特征圖的個(gè)數(shù)。再以之前得到的車輛圖片為輸入訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),得到基于深度卷積神經(jīng)網(wǎng)絡(luò)的測試網(wǎng)絡(luò)以及車型特征模型。實(shí)際進(jìn)行車型識(shí)別時(shí),通過將待識(shí)別車輛的圖像輸入預(yù)先構(gòu)建好的測試網(wǎng)絡(luò),獲得該車輛的車型特征。之后,將獲得到的車型特征中的最大特征值與預(yù)先的得到的車型特征模型作對比,得到該車輛的車型。本實(shí)施例提供的基于圖像的車型識(shí)別方法,采用深度卷積神經(jīng)網(wǎng)絡(luò)獲取車型特征,能夠縮短特征獲取的運(yùn)算時(shí)間。另外,深度卷積神經(jīng)網(wǎng)絡(luò)通過組合低層特征形成更加抽象的高層表示、屬性類別或特征,自動(dòng)地學(xué)習(xí)得到層次化的特征表示,從而增強(qiáng)了分類器的魯棒性,提高車型識(shí)別的準(zhǔn)確率和精度。
下面將舉例說明步驟S201和步驟S203中獲得車輛真實(shí)框的方法??梢岳斫獾氖牵绢I(lǐng)域技術(shù)人員還可根據(jù)實(shí)際情況,具體設(shè)定獲取車輛真實(shí)框的方法,這里不再一一列舉。
參見圖3,該圖為本發(fā)明實(shí)施例提供的基于圖像的車型識(shí)別方法中獲取車輛定位的真實(shí)框方法的流程示意圖。
該方法,包括:
S301:獲取原始圖像,所述原始圖像中包括所述待識(shí)別車輛;
可以理解的是,現(xiàn)有的電子警察系統(tǒng)一般是采用十字路口或卡口圖像作為車型識(shí)別的原始圖像。每有一輛車觸碰到路口白線時(shí),電子警察系統(tǒng)拍攝一張車輛的車尾圖像。這樣,每張?jiān)紙D像中待識(shí)別車輛為圖像中觸碰到白線的車輛。在圖1a所示的原始圖像中,待識(shí)別車輛為圖像右下角觸碰到白線的黑色轎車。
S302:檢測所述原始圖像中所述待識(shí)別車輛的位置,得到所述待識(shí)別車輛的檢測框;
這里需要說明的是,本領(lǐng)域技術(shù)人員可采用現(xiàn)有的任意一種車輛檢測方法,對原始圖像中待檢測車輛進(jìn)行定位,得到待識(shí)別車輛的檢測框,具體檢測方法在此不再一一贅述。
然而,由于現(xiàn)有的車型檢測方法的限制,該方法僅是對原始圖像中的車輛進(jìn)行粗定位,定位得到的檢測框中除車輛圖像之外的背景較多,影響后續(xù)車型檢測的精度。因此,為進(jìn)一步提高后續(xù)車型檢測的進(jìn)度和準(zhǔn)確率,需對車輛進(jìn)行二次定位,去除檢測框中多余的背景信息,獲取車輛精準(zhǔn)的定位結(jié)果(即真實(shí)框)。
S303:根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映所述原始圖像中所述待識(shí)別車輛的實(shí)際位置;
可以理解的是,本領(lǐng)域技術(shù)人員可根據(jù)經(jīng)驗(yàn)或訓(xùn)練預(yù)先得到檢測框與真實(shí)框之間的映射關(guān)系,并以此為依據(jù)將之前檢測出的檢測框映射至相應(yīng)的真實(shí)框,以得到反映該圖像中車輛真實(shí)位置的真實(shí)框。
S304:根據(jù)所述真實(shí)框,提取所述原始圖像上所述待識(shí)別車輛的圖像。
同理,步驟S202中獲取車輛真實(shí)框的方法具體如下:
獲取多個(gè)不同車型車輛的原始圖像;逐一檢測每個(gè)原始圖像中車輛的位置,得到該原始圖像中車輛的檢測框后,根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映該原始圖像中車輛的實(shí)際位置;根據(jù)所述每個(gè)原始圖像中的真實(shí)框,提取所述每個(gè)原始圖像上車輛的圖像,得到所述第一訓(xùn)練圖像集合。
可以理解的是,其具體實(shí)現(xiàn)方法與上述步驟S301-S302類似,在此不再一一贅述。
下面將以采用Bounding-box回歸的方法計(jì)算車輛檢測框與真實(shí)框之間的映射關(guān)系為例,說明如何將檢測框映射至真實(shí)框。
首先,獲取所述檢測框中心點(diǎn)的坐標(biāo)以及所述檢測框的寬和高;
依據(jù)公式Gx1=Pw1dx1(P)+Px1和公式Gy1=Ph1dy1(P)+Py1,得到所述真實(shí)框中心點(diǎn)的坐標(biāo);
依據(jù)公式Gw1=Pw1exp[dw1(P)]和公式Gh1=Ph1exp[dh1(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框中心點(diǎn)的坐標(biāo)為(Px1,Py1),所述檢測框的寬為Pw1,所述檢測框的高為Ph1,所述真實(shí)框中心點(diǎn)的坐標(biāo)為(Gx1,Gy1),所述真實(shí)框的寬為Gw1,所述真實(shí)框的高為Gh1,dx1(P)、dy1(P)、dw1(P)和dh1(P)為預(yù)先得到的轉(zhuǎn)換函數(shù);
或者,可以使用檢測框的某一頂點(diǎn)為依據(jù)來獲取該頂點(diǎn)與真實(shí)框相應(yīng)頂點(diǎn)之間的映射關(guān)系。
此時(shí),相應(yīng)的將檢測框映射至真實(shí)框的步驟包括:
獲取所述檢測框的預(yù)設(shè)頂點(diǎn)坐標(biāo)以及所述檢測框的寬和高;依據(jù)公式Gx2=Pw2dx2(P)+Px2和公式Gy2=Ph2dy2(P)+Py2,得到所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo);依據(jù)公式Gw2=Pw2exp[dw2(P)]和公式Gh2=Ph2exp[dh2(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框中心點(diǎn)的預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Px2,Py2),所述檢測框的寬為Pw2,所述檢測框的高為Ph2,所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Gx2,Gy2),所述真實(shí)框的寬為Gw2,所述真實(shí)框的高為Gh2,dx2(P)、dy2(P)、dw2(P)和dh2(P)為預(yù)先得到的轉(zhuǎn)換函數(shù)。
可以理解的是,對于窗口框來說,一般使用四維向量(x,y,w,h)來表示。其中,x和y分別表示窗口框的中心點(diǎn)(或某一頂點(diǎn))坐標(biāo)和w表示窗口框的寬,h表示窗口框的高。通過尋找一種關(guān)系使得檢測框P的四維向量經(jīng)過映射后得到一個(gè)跟實(shí)際框(為車輛的真實(shí)位置)更接近的真實(shí)框G(反映車輛的真實(shí)位置)的四維向量。
即,給定(Px,Py,Pw,Ph),尋找映射f,使得f(Px,Py,Pw,Ph)=(Gx,Gy,Gw,Gh)。
這時(shí),先做平移,再做尺度縮放,得到Gx=Pwdx(P)+Px,Gy=Phdy(P)+Py,Gw=Pwexp[dw(P)]和Gh=Phexp[dh(P)]。
之后,通過樣本訓(xùn)練得出四個(gè)轉(zhuǎn)換函數(shù)Gh1,dx1(P)、dy1(P)、dw1(P)和dh1(P)。
此時(shí),得到所述轉(zhuǎn)換函數(shù)的方法,具體包括:
第一,獲取所述第二訓(xùn)練圖像集合,所述第二訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
第二,逐一檢測所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的位置,得到該圖像上車輛的檢測框,并獲取該圖像上車輛的真實(shí)框;
可以理解的是,實(shí)際操作時(shí),可通過人工選定獲取圖像上車輛的真實(shí)框,以提高后續(xù)車輛定位的真實(shí)框的準(zhǔn)確性。
第三,獲取所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框中圖像的特征;
可以理解的是,通過獲取檢測框中圖像的特征,能夠確定該檢測框中各部分的類型。例如,檢測框中某一部分為車輛,其他部分為地面等。這里需要說明的是,本領(lǐng)域技術(shù)人員可根據(jù)預(yù)先訓(xùn)練好的深度卷積神經(jīng)網(wǎng)絡(luò),獲取檢測框中圖像的特征,還可采用其他方式獲取檢測框中圖像的特征,在此不再一一列舉。
第四,根據(jù)所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框和真實(shí)框以及該檢測框中圖像的特征,訓(xùn)練公式Gx=Pwdx(P)+Px、Gy=Phdy(P)+Py、Gw=Pwexp[dw(P)]和Gh=Phexp[dh(P)],得到所述轉(zhuǎn)換函數(shù)。
可以理解的是,本領(lǐng)域技術(shù)人員可根據(jù)實(shí)際情況,具體設(shè)定獲取真實(shí)框的方法,在此不再一一列舉。
基于上述實(shí)施例提供的一種基于圖像的車型識(shí)別方法,本發(fā)明還提供了一種基于圖像的車型識(shí)別裝置。
裝置實(shí)施例一:
參見圖4,該圖為本發(fā)明提供的基于圖像的車型識(shí)別裝置一的結(jié)構(gòu)示意圖。
本實(shí)施例提供的基于圖像的車型識(shí)別裝置,包括:圖像獲取模塊100、網(wǎng)絡(luò)構(gòu)建模塊200、特征獲取模塊300和車型確定模塊400;
所述圖像獲取模塊100,用于獲取待識(shí)別車輛的圖像;
所述網(wǎng)絡(luò)構(gòu)建模塊200,用于構(gòu)建測試網(wǎng)絡(luò);
所述特征獲取模塊300,用于將所述待識(shí)別車輛的圖像輸入所述測試網(wǎng)絡(luò),得到所述待識(shí)別車輛的車型特征;
在一個(gè)例子中,所述網(wǎng)絡(luò)構(gòu)建模塊200,具體包括:圖像集合獲取子模塊、訓(xùn)練子模塊、構(gòu)建子模塊和模型獲取子模塊(均為在圖中示出);
所述圖像集合獲取子模塊,用于獲取第一訓(xùn)練圖像集合,所述第一訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
所述訓(xùn)練子模塊,用于建立深度卷積神經(jīng)網(wǎng)絡(luò),并以所述第一訓(xùn)練圖像集合中的圖像為輸入訓(xùn)練所述深度卷積神經(jīng)網(wǎng)絡(luò);
所述構(gòu)建子模塊,用于根據(jù)訓(xùn)練后的深度卷積神經(jīng)網(wǎng)絡(luò),構(gòu)建所述測試網(wǎng)絡(luò);
所述測試網(wǎng)絡(luò),包括:一個(gè)輸入層、四個(gè)卷積層、四個(gè)池化層、兩個(gè)全連接層和一個(gè)輸出層;
所述輸入層之后連接第一個(gè)卷積層,每個(gè)卷積層之后連接與其對應(yīng)的池化層,上一個(gè)卷積層所對應(yīng)的池化層之后連接下一個(gè)卷積層,最后一個(gè)池化層之后連接所述兩個(gè)全連接層,所述兩個(gè)全連接層之后連接所述輸出層。
所述四個(gè)卷積層中卷積核大小依次為7×7像素、3×3像素、3×3像素和3×3像素,特征圖個(gè)數(shù)依次為48個(gè)、96個(gè)、128個(gè)和256個(gè);所述四個(gè)池化層為2×2大小的最大池化;所述兩個(gè)全連接層的大小分別是1024維和4096維。
所述第三獲取子模塊,用于將所述第一訓(xùn)練圖像集合中的圖像輸入所述測試網(wǎng)絡(luò),確定所述第一訓(xùn)練圖像集合中每個(gè)車型所對應(yīng)的特征值,得到所述車型特征模型。
所述車型確定模塊400,用于根據(jù)所述車型特征,確定所述待識(shí)別車輛的車型。
在另一個(gè)例子中,所述車型確定模塊400,具體包括:比較子模塊、對比子模塊和確定子模塊(均未在圖中示出);
所述比較子模塊,用于獲取所述車型特征中的最大特征值,所述車型特征包括至少兩個(gè)特征值;
所述對比子模塊,用于根據(jù)車型特征模型,獲取所述最大特征值所對應(yīng)的車型,所述車型特征模型是預(yù)先根據(jù)所述測試網(wǎng)絡(luò)得到的,所述車型特征模型為車型與特征值的一一對應(yīng)關(guān)系;
所述確定子模塊,用于將所述最大特征值所對應(yīng)的車型確定為所述待識(shí)別車輛的車型。
本實(shí)施例提供的基于圖像的車型識(shí)別裝置,圖像獲取模塊先收集車輛的原始圖片,使用車輛定位技術(shù)對原始圖片進(jìn)行車輛的定位,再將定位的車輛圖片歸一化為同樣大小。之后網(wǎng)絡(luò)構(gòu)建模塊針對車型識(shí)別,設(shè)計(jì)深度卷積神經(jīng)網(wǎng)絡(luò)的卷積層、池化層和全連接層的個(gè)數(shù),以及各卷積層所得到的特征圖的個(gè)數(shù)。再以之前得到的車輛圖片為輸入訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),得到基于深度卷積神經(jīng)網(wǎng)絡(luò)的測試網(wǎng)絡(luò)以及車型特征模型。實(shí)際進(jìn)行車型識(shí)別時(shí),特征獲取模塊通過將待識(shí)別車輛的圖像輸入預(yù)先構(gòu)建好的測試網(wǎng)絡(luò),獲得該車輛的車型特征。之后,車型確定模塊將獲得到的車型特征中的最大特征值與預(yù)先的得到的車型特征模型作對比,得到該車輛的車型。本實(shí)施例提供的基于圖像的車型識(shí)別裝置,采用深度卷積神經(jīng)網(wǎng)絡(luò)獲取車型特征,能夠縮短特征獲取的運(yùn)算時(shí)間。另外,深度卷積神經(jīng)網(wǎng)絡(luò)通過組合低層特征形成更加抽象的高層表示、屬性類別或特征,自動(dòng)地學(xué)習(xí)得到層次化的特征表示,從而增強(qiáng)了分類器的魯棒性,提高車型識(shí)別的準(zhǔn)確率和精度。
裝置實(shí)施例二:
參見圖5,該圖為本發(fā)明提供的基于圖像的車型識(shí)別裝置實(shí)施例二的結(jié)構(gòu)示意圖。相較于圖4,該圖提供了一種更加具體的基于圖像的車型識(shí)別裝置。
本實(shí)施例提供的基于圖像的車型識(shí)別裝置中,所述圖像獲取模塊,具體包括:原始圖像獲取子模塊201、檢測子模塊202、映射子模塊203和提取子模塊204;
所述原始圖像獲取子模塊201,用于獲取原始圖像,所述原始圖像中包括所述待識(shí)別車輛;
所述檢測子模塊202,用于檢測所述原始圖像中所述待識(shí)別車輛的位置,得到所述待識(shí)別車輛的檢測框;
所述映射子模塊203,用于根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映所述原始圖像中所述待識(shí)別車輛的實(shí)際位置;
所述提取子模塊204,用于根據(jù)所述真實(shí)框,提取所述原始圖像上所述待識(shí)別車輛的圖像。
同理,所述網(wǎng)絡(luò)構(gòu)建模塊中圖像集合獲取子模塊,具體包括:原始圖像獲取子模塊、映射子模塊和提取子模塊;
所述原始圖像獲取子模塊,用于獲取多個(gè)不同車型車輛的原始圖像;
所述映射子模塊,用于逐一檢測每個(gè)原始圖像中車輛的位置,得到該原始圖像中車輛的檢測框后,根據(jù)預(yù)設(shè)規(guī)則,將所述檢測框映射至真實(shí)框,所述真實(shí)框反映該原始圖像中車輛的實(shí)際位置;
所述提取子模塊,用于根據(jù)所述每個(gè)原始圖像中的真實(shí)框,提取所述每個(gè)原始圖像上車輛的圖像,得到所述第一訓(xùn)練圖像集合。
所述映射子模塊,具體包括:第一獲取子模塊、第一計(jì)算子模塊和第二計(jì)算子模塊;
所述第一獲取子模塊,用于獲取所述檢測框中心點(diǎn)的坐標(biāo)以及所述檢測框的寬和高;
所述第一計(jì)算子模塊,用于依據(jù)公式Gx1=Pw1dx1(P)+Px1和公式Gy1=Ph1dy1(P)+Py1,得到所述真實(shí)框中心點(diǎn)的坐標(biāo);
所述第二計(jì)算子模塊,用于依據(jù)公式Gw1=Pw1exp[dw1(P)]和公式Gh1=Ph1exp[dh1(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框中心點(diǎn)的坐標(biāo)為(Px1,Py1),所述檢測框的寬為Pw1,所述檢測框的高為Ph1,所述真實(shí)框中心點(diǎn)的坐標(biāo)為(Gx1,Gy1),所述真實(shí)框的寬為Gw1,所述真實(shí)框的高為Gh1,dx1(P)、dy1(P)、dw1(P)和dh1(P)為預(yù)先得到的轉(zhuǎn)換函數(shù);
或,
所述第一獲取子模塊,用于獲取所述檢測框的預(yù)設(shè)頂點(diǎn)坐標(biāo)以及所述檢測框的寬和高;
所述第一計(jì)算子模塊,用于依據(jù)公式Gx2=Pw2dx2(P)+Px2和公式Gy2=Ph2dy2(P)+Py2,得到所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo);
所述第二計(jì)算子模塊,用于依據(jù)公式Gw2=Pw2exp[dw2(P)]和公式Gh2=Ph2exp[dh2(P)],得到所述真實(shí)框的寬和高;
其中,所述檢測框的預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Px2,Py2),所述檢測框的寬為Pw2,所述檢測框的高為Ph2,所述真實(shí)框的所述預(yù)設(shè)頂點(diǎn)坐標(biāo)為(Gx2,Gy2),所述真實(shí)框的寬為Gw2,所述真實(shí)框的高為Gh2,dx2(P)、dy2(P)、dw2(P)和dh2(P)為預(yù)先得到的轉(zhuǎn)換函數(shù)。
所述映射子模塊,還用于得到所述轉(zhuǎn)換函數(shù);
所述映射子模塊,具體還包括:圖像集合獲取子模塊、檢測子模塊、特征獲取子模塊和訓(xùn)練子模塊;
所述圖像集合獲取子模塊,用于獲取所述第二訓(xùn)練圖像集合,所述第二訓(xùn)練圖像集合包括多個(gè)不同車型車輛的圖像;
所述檢測子模塊,用于逐一檢測所述車輛的位置,得到該圖像上車輛的檢測框,并獲取該圖像上車輛的真實(shí)框;
所述特征獲取子模塊,用于獲取所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框中圖像的特征;
所述訓(xùn)練子模塊,用于根據(jù)所述第二訓(xùn)練圖像集合中每個(gè)圖像上車輛的檢測框和真實(shí)框以及該檢測框中圖像的特征,訓(xùn)練公式Gx=Pwdx(P)+Px、Gy=Phdy(P)+Py、Gw=Pwexp[dw(P)]和Gh=Phexp[dh(P)],得到所述轉(zhuǎn)換函數(shù)。
需要說明的是,圖4和圖5所示的基于圖像的車型識(shí)別裝置是與圖2中所示的基于圖像的車型識(shí)別方法所對應(yīng)的裝置,具體實(shí)現(xiàn)方法與圖2所示的基于圖像的車型識(shí)別方法類似,參考圖2中所示的基于圖像的車型識(shí)別方法中的描述,這里不再贅述。
還需要說明的是,本說明書中各個(gè)實(shí)施例采用遞進(jìn)的方式描述,每個(gè)實(shí)施例重點(diǎn)說明的都是與其他實(shí)施例的不同之處,各個(gè)實(shí)施例之間相同相似部分互相參見即可。
最后還需要說明的是,在本文中,諸如第一和第二等之類的關(guān)系術(shù)語僅僅用來將一個(gè)實(shí)體或者操作與另一個(gè)實(shí)體或操作區(qū)分開來,而不一定要求或者暗示這些實(shí)體或操作之間存在任何這種實(shí)際的關(guān)系或者順序。而且,術(shù)語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設(shè)備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設(shè)備所固有的要素。在沒有更多限制的情況下,由語句“包括一個(gè)……”限定的要素,并不排除在包括所述要素的過程、方法、物品或者設(shè)備中還存在另外的相同要素。
結(jié)合本文中所公開的實(shí)施例描述的方法或算法的步驟可以直接用硬件、處理器執(zhí)行的軟件模塊,或者二者的結(jié)合來實(shí)施。軟件模塊可以置于隨機(jī)存儲(chǔ)器(RAM)、內(nèi)存、只讀存儲(chǔ)器(ROM)、電可編程ROM、電可擦除可編程ROM、寄存器、硬盤、可移動(dòng)磁盤、CD-ROM、或技術(shù)領(lǐng)域內(nèi)所公知的任意其它形式的存儲(chǔ)介質(zhì)中。
以上所述,僅是本發(fā)明的較佳實(shí)施例而已,并非對本發(fā)明作任何形式上的限制。雖然本發(fā)明已以較佳實(shí)施例揭露如上,然而并非用以限定本發(fā)明。任何熟悉本領(lǐng)域的技術(shù)人員,在不脫離本發(fā)明技術(shù)方案范圍情況下,都可利用上述揭示的方法和技術(shù)內(nèi)容對本發(fā)明技術(shù)方案做出許多可能的變動(dòng)和修飾,或修改為等同變化的等效實(shí)施例。因此,凡是未脫離本發(fā)明技術(shù)方案的內(nèi)容,依據(jù)本發(fā)明的技術(shù)實(shí)質(zhì)對以上實(shí)施例所做的任何簡單修改、等同變化及修飾,均仍屬于本發(fā)明技術(shù)方案保護(hù)的范圍內(nèi)。