本發(fā)明屬于圖像檢索技術(shù)領(lǐng)域,涉及一種基于多特征集成的行人再識(shí)別方法。
背景技術(shù):
行人再識(shí)別是指在可能的圖像庫(kù)中識(shí)別出某個(gè)特定的已經(jīng)在圖像庫(kù)中出現(xiàn)過(guò)的行人。例如,行人再識(shí)別技術(shù)一個(gè)典型的應(yīng)用場(chǎng)景是刑事偵查,給定嫌疑人照片,收集嫌疑人相關(guān)的視頻監(jiān)控錄像,進(jìn)而收集與嫌疑人有關(guān)的線索。隨著人們對(duì)社會(huì)公共安全的日益關(guān)注以及視頻采集技術(shù)和大規(guī)模數(shù)據(jù)存儲(chǔ)技術(shù)的發(fā)展,大量的監(jiān)控?cái)z像頭應(yīng)用在商場(chǎng)、公園、學(xué)校、醫(yī)院、地鐵站等人群密集且易發(fā)生公共安全事件的場(chǎng)所,監(jiān)控?cái)z像的出現(xiàn)無(wú)疑給人們帶來(lái)了極大的便利。然而,由于相關(guān)的視頻監(jiān)控錄像中設(shè)計(jì)的行人圖像的數(shù)量往往是海量的,傳統(tǒng)人工監(jiān)控的方法效率非常低下,因此,利用計(jì)算機(jī)對(duì)監(jiān)控視頻進(jìn)行行人再識(shí)別有著非常重要的現(xiàn)實(shí)意義。
由于此研究領(lǐng)域具有較高的理論研究與實(shí)際應(yīng)用價(jià)值,國(guó)內(nèi)外許多研究者提出了較多針對(duì)行人圖像的識(shí)別技術(shù),但大致可以分為兩類:一類是基于特征的方法,另一類是基于測(cè)度學(xué)習(xí)的方法。特征類方法的基本出發(fā)點(diǎn)是設(shè)計(jì)出具有較強(qiáng)的區(qū)分性和穩(wěn)定性的特征,主要使用的特征有顏色直方圖、紋理、形狀、梯度等。測(cè)度類方法的關(guān)注點(diǎn)是如何度量人體目標(biāo)的相似性。通過(guò)建立正負(fù)樣本訓(xùn)練,學(xué)習(xí)出不同攝像機(jī)下人體目標(biāo)的距離函數(shù),使同一個(gè)目標(biāo)之間距離小、相似性高,不同目標(biāo)間距離大、相似性小。
盡管研究人員在此研究領(lǐng)域上已經(jīng)取得了一些成果,但由于行人圖像數(shù)據(jù)本身具有非常復(fù)雜的動(dòng)態(tài)特性,如:光照,角度,姿勢(shì)變化和遮擋等,使得現(xiàn)有的技術(shù)并不成熟,所以部分研究人員嘗試引入多特征集成技術(shù),進(jìn)一步提高行人再識(shí)別的性能。
現(xiàn)有行人再識(shí)別模型包含如下幾方面缺點(diǎn):
(1)特征類方法與測(cè)度類方法相結(jié)合的缺點(diǎn)
目前,行人再識(shí)別問(wèn)題主要研究方向分為特征類和測(cè)度類兩種。前者致力于設(shè)計(jì)出具有較強(qiáng)的區(qū)分性和穩(wěn)定性的特征,后者則傾向于建立人體目標(biāo)的相似性的度量模型,而這兩類方法各有其優(yōu)勢(shì)和缺陷,特征類方法較為簡(jiǎn)單,測(cè)度類方法對(duì)特征的設(shè)計(jì)要求較低,能取得較高的識(shí)別率。然而目前,少有技術(shù)將兩者合理的結(jié)合在一起,揚(yáng)長(zhǎng)避短,設(shè)計(jì)出依賴普遍特征的高效的識(shí)別算法。
(2)多特征融合的缺點(diǎn)
現(xiàn)有多特征融合算法大多將幾個(gè)不同的特征首尾相連串聯(lián)成一個(gè)整體特征以后,在此特征上訓(xùn)練得到一個(gè)行人外觀匹配模型,并未考慮不同特征的重要性以及特征之間的沖突,互補(bǔ)性等問(wèn)題;并且串聯(lián)特征由于包含大量的冗余、無(wú)關(guān)信息,通常無(wú)法全面地反映出行人圖像的真實(shí)信息,因而大大降低學(xué)習(xí)算法的效能,導(dǎo)致識(shí)別算法失效;再者,多個(gè)特征串聯(lián)得到的特征通常維度較高,算法難以獲得較高的效率。
(3)集成算法的缺點(diǎn)
大部分的集成算法通過(guò)平均求和的方式構(gòu)建最終的集成結(jié)果。但此種融合方式并不理想。如何在沒(méi)有先驗(yàn)知識(shí)的條件下,合理地組合大量的初始分析結(jié)果以達(dá)到最優(yōu)融合,仍然是一個(gè)待解決的問(wèn)題。
技術(shù)實(shí)現(xiàn)要素:
為實(shí)現(xiàn)上述目的,本發(fā)明提供一種基于多特征集成的行人再識(shí)別方法,解決了現(xiàn)有技術(shù)中存在的由于數(shù)據(jù)具有復(fù)雜的動(dòng)態(tài)特性和不穩(wěn)定性等特點(diǎn),使得傳統(tǒng)的識(shí)別算法無(wú)法獲得較為理想的結(jié)果的問(wèn)題,提升了行人再識(shí)別的準(zhǔn)確度。
本發(fā)明所采用的技術(shù)方案是,一種基于多特征集成的行人再識(shí)別方法,將行人圖像轉(zhuǎn)化為四種不同的特征表示,并分別在每種特征上學(xué)習(xí)相似度距離度量模型,根據(jù)不同模型在訓(xùn)練數(shù)據(jù)上所表現(xiàn)出的性能好壞,為各個(gè)模型分配不同的權(quán)重,對(duì)辨識(shí)能力強(qiáng)的特征給予較高權(quán)重,反之,辨識(shí)度低的特征給予較低權(quán)重,最終通過(guò)加權(quán)集成學(xué)習(xí)技術(shù)將多個(gè)模型匹配結(jié)果有效地融合為一個(gè)更加精確和穩(wěn)定的最優(yōu)結(jié)果,具體包括如下步驟:
步驟1:多特征信息采集;
步驟2:將步驟1采集的多特征信息進(jìn)行度量模型學(xué)習(xí),建立多個(gè)基于單一特征的匹配模型;
步驟3:權(quán)值學(xué)習(xí):根據(jù)步驟2所學(xué)得的4個(gè)模型在訓(xùn)練數(shù)據(jù)集上的辨識(shí)度表現(xiàn),為各個(gè)模型分配對(duì)應(yīng)的權(quán)重;
步驟4:多特征匹配:將指定圖像與匹配圖像通過(guò)步驟2得到的各單特征匹配模型,進(jìn)行計(jì)算得到在各單特征模型上圖像之間的距離,進(jìn)行排序即得到相應(yīng)的匹配結(jié)果,再將各特征上的距離與步驟3得到的權(quán)值進(jìn)行加權(quán)集成,求出最終的組合距離,繼而可得到一個(gè)更優(yōu)的多特征匹配結(jié)果。
所述步驟1的信息采集具體包括以下步驟:
步驟1.1:將數(shù)據(jù)分為訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù),測(cè)試數(shù)據(jù)又分為查詢數(shù)據(jù)和比對(duì)數(shù)據(jù),在每一組數(shù)據(jù)上,分別進(jìn)行rgb,hsv,ycbcr和lbp特征的提取,分別表示為f1,f2,f3和f4;
步驟1.2:計(jì)算rgb到hsv的轉(zhuǎn)換關(guān)系,計(jì)算式如下:
其中,max為r,g,b分量的最大值,min為r,g,b分量的最小值,r,g,b為圖像在r,g,b上的分量值;
步驟1.3:計(jì)算ycbcr與rgb顏色空間轉(zhuǎn)換關(guān)系,計(jì)算式如下:
步驟1.4:計(jì)算各種顏色出現(xiàn)的概率,其函數(shù)表達(dá)式如下:
其中,k代表圖像的特征取值,l是特征可取值的個(gè)數(shù),nk是圖像中具有特征值為k的像素的個(gè)數(shù),n是圖像像素的總數(shù);
步驟1.5:采用lbp紋理特征計(jì)算該區(qū)域的紋理信息:
lbp是一種用來(lái)描述圖像局部紋理特征的算子,它反映的是每個(gè)像素與周圍像素的關(guān)系,原始的lbp算子定義為在3*3的窗口內(nèi),計(jì)算公式為:
式中,gc為中心像素點(diǎn)的灰度值,gp為其周圍像素點(diǎn)p的灰度值,以窗口中心像素為閾值,將相鄰的p個(gè)像素的灰度值與其進(jìn)行比較,若周圍像素值大于中心像素值,則該像素點(diǎn)的位置被標(biāo)記為1,否則為0,這樣,其鄰域內(nèi)的p個(gè)點(diǎn)經(jīng)比較可產(chǎn)生p位二進(jìn)制數(shù),將其轉(zhuǎn)換為十進(jìn)制數(shù)即得到該窗口中心像素點(diǎn)的lbp值,并用這個(gè)值來(lái)反映該區(qū)域的紋理信息。
所述步驟2的具體操作如下:
基于步驟1提取出的四種特征f1,f2,f3和f4,利用rs-kiss距離度量方法分別在每種特征上學(xué)習(xí)得到四個(gè)匹配模型m1,m2,m3和m4;
所述kiss算法從統(tǒng)計(jì)推斷角度,把一堆樣本(xi,xj)匹配與否可以用一個(gè)似然比值來(lái)描述,如果樣本對(duì)(xi,xj)相似/匹配,記yij=1;如果樣本對(duì)(xi,xj)不相似/不匹配,記yij=0,為了簡(jiǎn)化表示,定義xij=xi-xj,則和之間的距離可以表示為:
其中,
由于數(shù)據(jù)量不足或噪音的存在等多種因素,上述協(xié)方差矩陣的估計(jì)通常產(chǎn)生較大偏差,因此,tao等人引入平滑技術(shù)和正則化方法來(lái)提高算法的性能,上述協(xié)方差矩陣為半正定矩陣,因此可以對(duì)角化表示為:
其中,i∈{0,1},λi=diag[λi1,λi2,...,λid],λij為σi,的特征值,φi=[φi1,φi2,...,φid],φij為σi的特征向量,根據(jù)平滑技術(shù),我們用一個(gè)常值βi代替中最小的d-k個(gè)特征值來(lái)做估計(jì)以達(dá)到平滑的效果,即:
λi=diag[λi1,λi2,...,λik,βi,...,βi](9)
其中,常值βi為最小的d-k個(gè)特征值的平均值,如下所示:
根據(jù)正則化理論,加入正則化項(xiàng),通過(guò)犧牲一定的準(zhǔn)確性,增加一定的泛化性能,同時(shí)能有效的避免過(guò)擬合的產(chǎn)生。rs-kiss中正則化如公式(11)所示:
其中,αi=(1/d)tr(σi),0<γ<1,用于平衡前后兩項(xiàng)的權(quán)重。
因此,在每個(gè)特征上的模型可定義為對(duì)應(yīng)特征m上的同類協(xié)方差矩陣和異類協(xié)方差矩陣之差,如公式(12)所示:
通過(guò)上述平滑技術(shù)和正則化方法處理后,過(guò)大或過(guò)小的估計(jì)協(xié)方差矩陣所帶來(lái)的影響,同時(shí)增強(qiáng)了模型的泛化能力,有效的避免過(guò)擬合的產(chǎn)生。
所述步驟3的具體操作如下:
首先對(duì)每一個(gè)初始匹配結(jié)果進(jìn)行質(zhì)量評(píng)估,并對(duì)其量化得到一個(gè)權(quán)值,最后優(yōu)化集成多個(gè)基于不同特征的匹配結(jié)果,每個(gè)特征的權(quán)值如下:
其中,m表示特征數(shù),
所述步驟4的具體操作如下:
將指定圖像與匹配圖像通過(guò)步驟2得到的各單特征匹配模型m1,m2,m3和m4計(jì)算得到在各單特征模型上圖像之間的距離,進(jìn)行排序即得到相應(yīng)的匹配結(jié)果matching1,matching2,matching3和matching4再將各特征上的距離與步驟3得到的權(quán)值w1,w2,w3和w4按照公式(14)進(jìn)行加權(quán)集成,
求出最終的組合距離δ*,繼而可得到一個(gè)更優(yōu)的多特征匹配結(jié)果。
本發(fā)明的有益效果是:
1.本發(fā)明將行人圖像轉(zhuǎn)化為不同的特征表示,從不同側(cè)面全面地反映了行人圖像的真實(shí)信息,最大程度上避免了單一特征帶來(lái)的不穩(wěn)定性所造成的影響;
2.建立了一個(gè)全新的權(quán)重學(xué)習(xí)機(jī)制,對(duì)辨識(shí)能力強(qiáng)的特征給予較高權(quán)重,充分體現(xiàn)了不同特征差異性和辨識(shí)度;
3.通過(guò)引入新的加權(quán)集成學(xué)習(xí)技術(shù)而非普通的平均加權(quán),有效地將多個(gè)特征空間的匹配結(jié)果融合為一個(gè)更加精確和穩(wěn)定的最優(yōu)結(jié)果,使得行人再識(shí)別精確度得到進(jìn)一步的提高。
附圖說(shuō)明
為了更清楚地說(shuō)明本發(fā)明實(shí)施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對(duì)實(shí)施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡(jiǎn)單地介紹,顯而易見(jiàn)地,下面描述中的附圖僅僅是本發(fā)明的一些實(shí)施例,對(duì)于本領(lǐng)域普通技術(shù)人員來(lái)講,在不付出創(chuàng)造性勞動(dòng)的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
圖1是本發(fā)明一種基于多特征集成的行人再識(shí)別方法的流程圖;
圖2是本發(fā)明一種基于多特征集成的行人再識(shí)別方法的ethz數(shù)據(jù)集上訓(xùn)練數(shù)據(jù)為76人的實(shí)驗(yàn)結(jié)果對(duì)比圖;
圖3是本發(fā)明一種基于多特征集成的行人再識(shí)別方法的ethz數(shù)據(jù)集上訓(xùn)練數(shù)據(jù)為106人的實(shí)驗(yàn)結(jié)果對(duì)比圖;
圖4是本發(fā)明一種基于多特征集成的行人再識(shí)別方法的viper數(shù)據(jù)集上訓(xùn)練數(shù)據(jù)為100人的實(shí)驗(yàn)結(jié)果對(duì)比圖;
圖5是本發(fā)明一種基于多特征集成的行人再識(shí)別方法的viper數(shù)據(jù)集上訓(xùn)練數(shù)據(jù)為316人的實(shí)驗(yàn)結(jié)果對(duì)比圖。
具體實(shí)施方式
下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對(duì)本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例。基于本發(fā)明中的實(shí)施例,本領(lǐng)域普通技術(shù)人員在沒(méi)有做出創(chuàng)造性勞動(dòng)前提下所獲得的所有其他實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。
本發(fā)明一種基于多特征集成的行人再識(shí)別方法,算法模型圖如圖1所示,將行人圖像轉(zhuǎn)化為四種不同的特征表示,并分別在每種特征上學(xué)習(xí)相似度距離度量模型;根據(jù)不同模型在訓(xùn)練數(shù)據(jù)上所表現(xiàn)出的性能好壞,為各個(gè)模型分配不同的權(quán)重,對(duì)辨識(shí)能力強(qiáng)的特征給予較高權(quán)重;反之,辨識(shí)度低的特征給予較低權(quán)重;最終通過(guò)加權(quán)集成學(xué)習(xí)技術(shù)將多個(gè)模型匹配結(jié)果有效地融合為一個(gè)更加精確和穩(wěn)定的最優(yōu)結(jié)果,使得行人再識(shí)別精確度得到進(jìn)一步的提高。
具體包括如下步驟:
步驟1:多特征信息采集
由于行人圖像數(shù)據(jù)具有復(fù)雜的多變性,單一特征只能描述圖像的部分屬性,對(duì)圖像內(nèi)容描述比較片面,缺少足夠的區(qū)分信息,因此,本發(fā)明將行人圖像轉(zhuǎn)換為不同的特征表示,包括顏色及紋理特征,從不同側(cè)面反映了行人圖像的真實(shí)信息。具體來(lái)說(shuō),我們將數(shù)據(jù)分為訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù),測(cè)試數(shù)據(jù)又分為查詢數(shù)據(jù)和比對(duì)數(shù)據(jù),在每一組數(shù)據(jù)上,我們分別進(jìn)行rgb,hsv,ycbcr,和lbp特征的提取,分別表示為f1,f2,f3和f4。其中,rgb,hsv,ycbcr為常用的顏色特征,且各有其側(cè)重點(diǎn),lbp則為紋理特征,rgb是一種廣泛用于計(jì)算機(jī)圖形學(xué)的基礎(chǔ)彩色模式,r、g、b分別為圖像紅、綠、藍(lán)的亮度值,大小限定在0~1或者0~255之間。這個(gè)彩色模型為每一個(gè)顏色通道分配0~255,256個(gè)級(jí)別的灰度值。
hsv顏色模型由h(hue)代表色度,s(saturation)色飽和度,v(value)亮度3個(gè)互獨(dú)立的分量構(gòu)成,該顏色系統(tǒng)比rgb系統(tǒng)更接近于人們的經(jīng)驗(yàn)和對(duì)彩色的感知,因而被廣泛應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域。在攝像頭中,通過(guò)圖像采集卡所采集到的行人圖像是基于rgb模型的,但相對(duì)于rgb空間,hsv空間能夠非常直觀的表達(dá)色彩的明暗,色調(diào),以及鮮艷程度,方便進(jìn)行顏色之間的對(duì)比,因而可與rgb進(jìn)行互補(bǔ)。rgb到hsv的轉(zhuǎn)換關(guān)系為:
其中,max為r,g,b分量的最大值,min為r,g,b分量的最小值,r,g,b為圖像在r,g,b上的分量值。
ycbcr是色彩空間的一種,通常會(huì)用于影片中的影像連續(xù)處理,或是數(shù)字?jǐn)z影系統(tǒng)中。y為顏色的亮度成分、而cb和cr則為藍(lán)色和紅色的濃度偏移量成份。采用ycbcr彩色空間的主要優(yōu)點(diǎn)是它的亮度信號(hào)y和色差信號(hào)cb、cr是分離的。ycbcr與rgb顏色空間轉(zhuǎn)換關(guān)系如下:
對(duì)于顏色特征,其常用表示方法為顏色直方圖。顏色直方圖是最基本的顏色特征表示方法,它反映的是圖像中顏色的組成分布,即出現(xiàn)了哪些顏色以及各種顏色出現(xiàn)的概率,其函數(shù)表達(dá)式如下:
其中,k代表圖像的特征取值,l是特征可取值的個(gè)數(shù),nk是圖像中具有特征值為k的像素的個(gè)數(shù),n是圖像像素的總數(shù)。
紋理信息可用于彌補(bǔ)全局顏色特征和局部特征的不足。與顏色等圖像特征不同,紋理通過(guò)像素及其周圍空間鄰域的灰度分布來(lái)表現(xiàn),本發(fā)明采用lbp紋理特征。
lbp(localbinarypattern,局部二值模式)是一種用來(lái)描述圖像局部紋理特征的算子,它反映的是每個(gè)像素與周圍像素的關(guān)系。它具有旋轉(zhuǎn)不變性和灰度不變性等顯著的優(yōu)點(diǎn)。原始的lbp算子定義為在3*3的窗口內(nèi),計(jì)算公式為:
式中,gc為中心像素點(diǎn)的灰度值,gp為其周圍像素點(diǎn)p的灰度值。以窗口中心像素為閾值,將相鄰的p個(gè)像素的灰度值與其進(jìn)行比較,若周圍像素值大于中心像素值,則該像素點(diǎn)的位置被標(biāo)記為1,否則為0。這樣,其鄰域內(nèi)的p個(gè)點(diǎn)經(jīng)比較可產(chǎn)生p位二進(jìn)制數(shù),將其轉(zhuǎn)換為十進(jìn)制數(shù)即得到該窗口中心像素點(diǎn)的lbp值,并用這個(gè)值來(lái)反映該區(qū)域的紋理信息。
步驟2:將步驟1采集的多特征信息進(jìn)行度量模型學(xué)習(xí),建立多個(gè)基于單一特征的匹配模型。
基于步驟1提取出的四種特征f1,f2,f3和f4我們利用rs-kiss距離度量方法分別在每種特征上學(xué)習(xí)得到四個(gè)匹配模型m1,m2,m3和m4。其中rs-kiss距離度量方法詳細(xì)描述如下。
rs-kiss是kiss的改進(jìn)方法,它通過(guò)引入平滑技術(shù)和正則化方法來(lái)提高kiss算法的效率。kiss算法從統(tǒng)計(jì)推斷角度,把一堆樣本(xi,xj)匹配與否可以用一個(gè)似然比值來(lái)描述。這里我們先規(guī)定一下:如果樣本對(duì)(xi,xj)相似/匹配,記yij=1;如果樣本對(duì)(xi,xj)不相似/不匹配,記yij=0。為了簡(jiǎn)化表示,定義xij=xi-xj,則和之間的距離可以表示為:
其中,σ1-1和σ0-1分別為同類協(xié)方差矩陣和異類協(xié)方差矩陣的逆矩陣,可以分別從訓(xùn)練數(shù)據(jù)中的相似樣本對(duì)和不相似樣本對(duì)訓(xùn)練得到,可分別由下式計(jì)算:
但是,現(xiàn)實(shí)問(wèn)題中,由于數(shù)據(jù)量不足或噪音的存在等多種因素,上述協(xié)方差矩陣的估計(jì)通常產(chǎn)生較大偏差,因此,tao等人引入平滑技術(shù)和正則化方法來(lái)提高算法的性能。上述協(xié)方差矩陣為半正定矩陣,因此可以對(duì)角化表示為:
其中,i∈{0,1},λi=diag[λi1,λi2,...,λid],λij為σi,的特征值,φi=[φi1,φi2,...,φid],φij為σi的特征向量。根據(jù)平滑技術(shù),我們用一個(gè)常值βi代替中最小的d-k個(gè)特征值來(lái)做估計(jì)以達(dá)到平滑的效果,即:
λi=diag[λi1,λi2,...,λik,βi,...,βi](9)
其中,常值βi為最小的d-k個(gè)特征值的平均值,如下所示:
根據(jù)正則化理論,加入正則化項(xiàng),通過(guò)犧牲一定的準(zhǔn)確性,增加一定的泛化性能,同時(shí)能有效的避免過(guò)擬合的產(chǎn)生。rs-kiss中正則化如公式(11)所示:
其中,αi=(1/d)tr(σi),0<γ<1,用于平衡前后兩項(xiàng)的權(quán)重。
因此,在每個(gè)特征上的模型可定義為對(duì)應(yīng)特征m上的同類協(xié)方差矩陣和異類協(xié)方差矩陣之差,如公式(12)所示:
通過(guò)上述平滑技術(shù)和正則化方法處理后,過(guò)大或過(guò)小的估計(jì)協(xié)方差矩陣所帶來(lái)的影響,同時(shí)增強(qiáng)了模型的泛化能力,有效的避免過(guò)擬合的產(chǎn)生。
步驟3:權(quán)值學(xué)習(xí),根據(jù)步驟2所學(xué)得的4個(gè)模型在訓(xùn)練數(shù)據(jù)集上的辨識(shí)度表現(xiàn),為各個(gè)模型分配對(duì)應(yīng)的權(quán)重。
在沒(méi)有任何先驗(yàn)知識(shí)的情況下,如何將多個(gè)匹配結(jié)果有效地融合成一個(gè)最優(yōu)匹配結(jié)果是本發(fā)明的核心問(wèn)題之一。與傳統(tǒng)方法不同,我們引入一個(gè)新的加權(quán)方案,首先對(duì)每一個(gè)初始匹配結(jié)果進(jìn)行質(zhì)量評(píng)估,并對(duì)其量化得到一個(gè)權(quán)值,最后優(yōu)化集成多個(gè)基于不同特征的匹配結(jié)果。我們定義每個(gè)特征的權(quán)值如下:
其中,m表示特征數(shù),
步驟4:多特征匹配
將指定圖像與匹配圖像通過(guò)步驟2得到的各單特征匹配模型m1,m2,m3和m4計(jì)算得到在各單特征模型上圖像之間的距離,進(jìn)行排序即得到相應(yīng)的匹配結(jié)果matching1,matching2,matching3和matching4再將各特征上的距離與步驟3得到的權(quán)值w1,w2,w3和w4按照公式(14)進(jìn)行加權(quán)集成,求出最終的組合距離δ*,繼而可得到一個(gè)更優(yōu)的多特征匹配結(jié)果。
需要說(shuō)明的是,在本文中,諸如第一和第二等之類的關(guān)系術(shù)語(yǔ)僅僅用來(lái)將一個(gè)實(shí)體或者操作與另一個(gè)實(shí)體或操作區(qū)分開(kāi)來(lái),而不一定要求或者暗示這些實(shí)體或操作之間存在任何這種實(shí)際的關(guān)系或者順序。而且,術(shù)語(yǔ)“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過(guò)程、方法、物品或者設(shè)備不僅包括那些要素,而且還包括沒(méi)有明確列出的其他要素,或者是還包括為這種過(guò)程、方法、物品或者設(shè)備所固有的要素。在沒(méi)有更多限制的情況下,由語(yǔ)句“包括一個(gè)……”限定的要素,并不排除在包括所述要素的過(guò)程、方法、物品或者設(shè)備中還存在另外的相同要素。
以上所述僅為本發(fā)明的較佳實(shí)施例而已,并非用于限定本發(fā)明的保護(hù)范圍。凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換、改進(jìn)等,均包含在本發(fā)明的保護(hù)范圍內(nèi)。