本發(fā)明屬于圖像檢索
技術(shù)領(lǐng)域:
,更為具體地講,涉及一種基于顯著性區(qū)域的圖像檢索方法。
背景技術(shù):
:基于內(nèi)容的圖像檢索技術(shù)(cbir,content-basedimageretrieval)指的是用于搜索的對象本身就是一幅圖像,或者是對于圖像內(nèi)容的特征描述?,F(xiàn)存的大多數(shù)方法采用的是圖像的底層視覺特征,如sift描述子,以及使用bag-of-words(bow)、fishervectors(fv)或者vectorlocallyaggregateddescriptors(vlad)對sift描述子進(jìn)行編碼。但大多數(shù)的傳統(tǒng)圖像檢索算法性能還不能滿足人們的要求。究其原因,主要是底層特征和高層特征語義理解之間的差異,即語義鴻溝。隨后,cnn在圖像識別領(lǐng)域取得了巨大的成功,全局cnn特征作為一種高層的語義表示,開始用于其它的識別任務(wù)并表現(xiàn)優(yōu)異。razavian研究了全局cnn特征的特點(diǎn),將其用于不同的圖像識別任務(wù),包括圖像檢索。yandex提出了使用目標(biāo)數(shù)據(jù)集微調(diào)cnn并提取fc6層特征用于圖像檢索,并取得了最優(yōu)的效果。kevinlin利用哈希編碼將fc6層特征處理成二進(jìn)制序列,大大提高了檢索效率。但是,訓(xùn)練cnn的目的是面向分類任務(wù)的,全局cnn特征包含太多的與分類任務(wù)相關(guān)的高層語義信息,往往會忽略圖片中的細(xì)節(jié)。近來,一些研究開始關(guān)注于圖片的細(xì)粒度特征,用以改善全局cnn特征。jiangwang提出使用triplet來增加類內(nèi)相似度和類間的區(qū)分性,并使用一個(gè)多尺度的網(wǎng)絡(luò),來增加圖片中的局部細(xì)節(jié)信息。qiangchen提出了一種自適應(yīng)的區(qū)域檢測方法來消除街拍服裝圖片和商店服裝圖片的的差異,并利用屬性數(shù)據(jù)集來挖掘服裝的細(xì)粒度屬性。julien提出了ckn網(wǎng)絡(luò)來提取圖片的局部變性特征。mattis將無監(jiān)督訓(xùn)練的ckn網(wǎng)絡(luò)提取圖片的局部卷積特征用于圖像檢索任務(wù)中。然而這些方法都是從識別圖像的角度來挖掘圖像當(dāng)中的屬性,而不是理解圖像的角度來挖掘圖像當(dāng)中的屬性,檢索準(zhǔn)確率仍有待提高。技術(shù)實(shí)現(xiàn)要素:本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種基于顯著性區(qū)域的圖像檢索方法,通過全局cnn特征和局部cnn特征來進(jìn)行相同類別和相同物體的檢索,提高了圖像檢索的準(zhǔn)確性。為實(shí)現(xiàn)上述發(fā)明目的,本發(fā)明一種基于顯著性區(qū)域的圖像檢索方法,其特征在于,包括以下步驟:(1)、提取輸入圖像的顯著性區(qū)域(1.1)、將圖像庫中任意一幅圖像作為輸入圖像,輸入圖像為rgb圖像,且寬為w、高為h;(1.2)、利用cnn+rpn+lstm模型提取輸入圖像的顯著性區(qū)域;(1.2.1)、將輸入圖像輸入至cnn網(wǎng)絡(luò),cnn網(wǎng)絡(luò)將其變成c×w'×h'的特征圖集合,其中,c表示特征圖集合圖像個(gè)數(shù),w'×h'表示特征圖集合中圖像的寬和高;(1.2.2)、將特征圖集合中的圖像輸入至rpn定位層,得到包含顯著性區(qū)域的中心點(diǎn)信息(x,y)、顯著性區(qū)域的寬和高(w,h),以及區(qū)域評分和區(qū)域特征的顯著性區(qū)域;(1.3)、按照步驟(1.2)所述方法,提取出圖像庫中其余輸入圖像的顯著性區(qū)域;(2)、構(gòu)建檢索特征庫(2.1)、提取輸入圖像的局部cnn特征;(2.1.1)、利用顯著性區(qū)域的區(qū)域特征生成特征矩陣;識別網(wǎng)絡(luò)將輸入圖像的顯著性區(qū)域的區(qū)域特征形成一個(gè)b×d維的特征矩陣,其中,b表示顯著性區(qū)域的個(gè)數(shù),d表示維數(shù);(2.1.2)、基于和采樣的池化編碼,得到局部cnn特征;1)、計(jì)算特征矩陣中每一維特征在所有顯著性區(qū)域的和f′k其中,表示第i個(gè)顯著性區(qū)域的第k維特征;2)、計(jì)算顯著性區(qū)域的局部cnn特征fk;(2.2)、提取輸入圖像的全局cnn特征將輸入圖像輸入至cnn網(wǎng)絡(luò),cnn網(wǎng)絡(luò)對輸入圖像依次進(jìn)行預(yù)訓(xùn)練、微調(diào)和特征提取,得到輸入圖像的全局cnn特征;(2.3)、利用pca和l2規(guī)則化對局部cnn特征和全局cnn特征進(jìn)行降維和融合,生成用于檢索的特征向量;(2.4)、按照步驟(2.1)-(2.3)所述方法,利用剩余輸入圖像生成檢索的特征向量,再利用生成的特征向量構(gòu)建出檢索特征庫;(3)、根據(jù)待檢索圖像進(jìn)行相同類別檢索按照步驟(1)-(2)所述方法,利用待檢索圖像生成用于檢索的特征向量,再用該特征向量在檢索特征庫中進(jìn)行相似性搜索,并返回檢索結(jié)果;(4)、根據(jù)待檢索圖像進(jìn)行相同物體檢索(4.1)、利用相同物體檢索算法提取待檢索圖像的特征,再利用該特征在檢索特征庫中進(jìn)行相似度初步檢索,得到初步檢索結(jié)果;(4.2)、按照步驟(2.2)所述方法,提取待檢索圖像的全局cnn特征;(4.3)、提取初步檢索結(jié)果中相似度排名最高的n張圖像,再按照步驟(1)所述方法,提取n張圖的顯著性區(qū)域;(4.4)、按照步驟(2.2)所述方法,分別提取n張圖像的顯著性區(qū)域的全局cnn特征;(4.5)、利用步驟(4.2)得到的全局cnn特征和步驟(4.4)得到的全局cnn特征計(jì)算相似性得分,再按照相似性得分大小進(jìn)行降序排名,返回檢索結(jié)果。本發(fā)明的發(fā)明目的是這樣實(shí)現(xiàn)的:本發(fā)明一種基于顯著性區(qū)域的圖像檢索方法,通過提取待檢索圖像的顯著性區(qū)域,并對顯著性區(qū)域進(jìn)行描述和池化編碼等處理,提取出待檢索圖像的局部cnn特征和全局cnn特征,再通過待檢索圖像的全局cnn特征和局部cnn特征在檢索圖片庫中進(jìn)行相同類別和相同物體的檢索,提高了圖像檢索的準(zhǔn)確性。同時(shí),本發(fā)明一種基于顯著性區(qū)域的圖像檢索方法還具有以下有益效果:(1)、本發(fā)明結(jié)合了傳統(tǒng)局部特征通過提取待檢索圖像關(guān)鍵點(diǎn)來生成局部特征的策略,借鑒了圖像描述的思想來實(shí)現(xiàn);(2)、本發(fā)明融合了全局cnn特征和局部cnn特征來進(jìn)行相同類別檢索,以及利用顯著性區(qū)域進(jìn)行重排序的方法進(jìn)行相同物體檢索,能夠進(jìn)一步提高圖像檢索的準(zhǔn)確性。附圖說明圖1是基于顯著性區(qū)域的圖像檢索方法流程圖;圖2是cnn+rpn+lstm模型示意圖;圖3是全局cnn特征提取過程示意圖。具體實(shí)施方式下面結(jié)合附圖對本發(fā)明的具體實(shí)施方式進(jìn)行描述,以便本領(lǐng)域的技術(shù)人員更好地理解本發(fā)明。需要特別提醒注意的是,在以下的描述中,當(dāng)已知功能和設(shè)計(jì)的詳細(xì)描述也許會淡化本發(fā)明的主要內(nèi)容時(shí),這些描述在這里將被忽略。實(shí)施例為了方便描述,先對具體實(shí)施方式中出現(xiàn)的相關(guān)專業(yè)術(shù)語進(jìn)行說明:cnn(convolutionalneuralnetwork):卷積神經(jīng)網(wǎng)絡(luò);rpn(regionproposalnetwork):區(qū)域定位網(wǎng)絡(luò);lstm(longshorttimememory):長短時(shí)記憶網(wǎng)絡(luò);roi(regionofinterest):感興趣區(qū)域;fc(fullyconnect):全連接;mpoc(maxpoolingofconvolutionalfeatures):最大值池化卷積特征;spoc(sumpoolingofconvolutionalfeatures):和池化卷積特征。圖1是本發(fā)明基于顯著性區(qū)域的圖像檢索方法流程圖。在本實(shí)施例中,如圖1所示,本發(fā)明一種基于顯著性區(qū)域的圖像檢索方法,包括以下步驟:s1、提取輸入圖像的顯著性區(qū)域s1.1、將圖像庫中任意一幅圖像作為輸入圖像,輸入圖像為rgb圖像,且寬為w、高為h;在本實(shí)施例中,將圖像庫中所有的圖像均處理成w=h=256,并一次作為cnn+rpn+lstm模型的輸入圖像;s1.2、利用cnn+rpn+lstm模型提取輸入圖像的顯著性區(qū)域;s1.2.1、如圖2所示,將輸入圖像輸入至cnn網(wǎng)絡(luò),cnn網(wǎng)絡(luò)將其變成c×w'×h'的特征圖集合,其中,c表示特征圖集合圖像個(gè)數(shù),w'×h'表示特征圖集合中圖像的寬和高;在本是實(shí)施例中,c=512,s1.2.2、將特征圖集合中的圖像輸入至rpn定位層,得到包含顯著性區(qū)域的中心點(diǎn)信息(x,y)、顯著性區(qū)域的寬和高(w,h),以及區(qū)域評分和區(qū)域特征的顯著性區(qū)域;rpn定位層輸入為cnn網(wǎng)絡(luò)生成的c×w'×h',根據(jù)這些特征圖定位出感興趣的區(qū)域,并從每一個(gè)區(qū)域中提取一個(gè)合適長度的表示。定位層的結(jié)構(gòu)基于fasterr-cnn的思想,但是我們將fasterr-cnn中的roi機(jī)制代替為雙邊插值法,這樣就使得候選的感興趣區(qū)域的邊界可以后向傳播,在訓(xùn)練過程中進(jìn)行調(diào)整,rpn定位層輸出三種信息:①候選區(qū)域:一個(gè)b×4的矩陣包含著感興趣區(qū)域的邊界信息,即中心點(diǎn)信息(x,y),(x,y)表示中心點(diǎn)坐標(biāo),候選區(qū)域的寬和高(w,h);②區(qū)域評分:一個(gè)b維的向量,對應(yīng)著b個(gè)區(qū)域的可信度得分,擁有越高的可信度得分的區(qū)域,越有可能被選為顯著性區(qū)域;③區(qū)域特征:本層的輸出為b×c×x×y的特征流,每個(gè)區(qū)域被表示為c×x×y的特征;rpn層主要完成候選區(qū)域的定位,并根據(jù)區(qū)域得分對候選區(qū)域進(jìn)行篩選,剩下的區(qū)域便是提取的顯著性區(qū)域;s1.3、同理,按照步驟s1.2所述方法,可以提取出圖像庫中其余輸入圖像的顯著性區(qū)域;s2、構(gòu)建檢索特征庫s2.1、提取輸入圖像的局部cnn特征;在傳統(tǒng)的圖像檢索任務(wù)里,局部特征比全局特征表現(xiàn)出更大的優(yōu)勢,更能描繪圖片細(xì)節(jié)信息以及尺度不變、旋轉(zhuǎn)不變、亮度不變等特性。sift特征是一種非常常見的局部描述子,它通過關(guān)鍵點(diǎn)檢測和關(guān)鍵點(diǎn)描述等幾個(gè)步驟,將圖像信息凝聚成128維的特征向量。鑒于sift的優(yōu)秀特性,本實(shí)施例通過利用深度學(xué)習(xí)關(guān)于圖像理解的相關(guān)理論和模型,提取圖像的顯著性區(qū)域并對其描述和池化編碼,生成類似于sift的局部特征。s2.1.1、利用顯著性區(qū)域的區(qū)域特征生成特征矩陣;識別網(wǎng)絡(luò)將輸入圖像的顯著性區(qū)域的區(qū)域特征形成一個(gè)b×d維的特征矩陣,其中,b表示顯著性區(qū)域的個(gè)數(shù),d表示維數(shù);在本實(shí)施例中,識別網(wǎng)絡(luò)實(shí)際是一個(gè)全連接神經(jīng)網(wǎng)絡(luò),用來處理來自定位層的區(qū)域特征。每個(gè)c×x×y的區(qū)域特征首先被展開成一個(gè)向量,然后通過兩層全連接層,其中,全連接層中包含relu(rectifiedlinearunits)激活函數(shù)和dropout規(guī)則化。最終每個(gè)區(qū)域特征被編碼成d=4096維的特征向量,所挑選出的顯著性區(qū)域的特征向量形成一個(gè)b×d維的矩陣。s2.1.2、基于和采樣的池化編碼,得到局部cnn特征;識別網(wǎng)絡(luò)是一個(gè)全連接網(wǎng)絡(luò),它可以對特征進(jìn)行初步編碼,得到b×4096維的特征,要將其應(yīng)用到圖像檢索任務(wù)中,還需要對其進(jìn)行編碼。接下來,我們使用和采樣算法對其進(jìn)行進(jìn)一步編碼。1)、計(jì)算特征矩陣中每一維特征在所有顯著性區(qū)域的和f′k其中,表示第i個(gè)顯著性區(qū)域的第k維特征;2)、計(jì)算顯著性區(qū)域的局部cnn特征fk;s2.2、提取輸入圖像的全局cnn特征將輸入圖像輸入至cnn網(wǎng)絡(luò),cnn網(wǎng)絡(luò)對輸入圖像依次進(jìn)行預(yù)訓(xùn)練、微調(diào)和特征提取,得到輸入圖像的全局cnn特征;下面結(jié)合圖3,我們對輸入圖像依次進(jìn)行預(yù)訓(xùn)練、微調(diào)和特征提取的具體過程進(jìn)行描述,具體為:1)預(yù)訓(xùn)練:利用ilsvrc2012圖像分類任務(wù)中的訓(xùn)練數(shù)據(jù)集imagenet(120萬張圖像,1000個(gè)類別)對cnn模型進(jìn)行預(yù)訓(xùn)練。本文采用的vgg模型是現(xiàn)在最常用的cnn模型,它采用了和alexnet基本相同的網(wǎng)絡(luò)框架,只是通過深度替換寬度策略將每一層變得更深。它包含5個(gè)group的卷積(每個(gè)group包含不同數(shù)量的3*3卷積層、1個(gè)relu激活層和1個(gè)2*2的最大值池化層)、2層全連接層、一層分類層。它可以看做和alexnet一樣總共8個(gè)部分,只是每個(gè)卷積部分變得更深。2)微調(diào):通常情況下圖像檢索任務(wù)所使用的圖像集與imagenet數(shù)據(jù)集還是存在比較大的差異的,無論是類別數(shù)量還是圖像內(nèi)容。如果直接使用預(yù)訓(xùn)練好的cnn模型對目標(biāo)任務(wù)的效果會有一定的影響。在目標(biāo)圖像集的檢索任務(wù)中,采用預(yù)訓(xùn)練好的cnn模型的目的僅僅是使模型的實(shí)際訓(xùn)練階段更好的收斂。所以,為了使cnn模型更好地適用于目標(biāo)任務(wù),還需要使用目標(biāo)圖像集對預(yù)訓(xùn)練好的cnn模型參數(shù)進(jìn)行微調(diào)。微調(diào)的基本過程為:假設(shè)目標(biāo)圖像集的類別數(shù)目為c,由于imagenet是包含1000個(gè)類別的圖像數(shù)據(jù)集,此時(shí)cnn模型的softmax分類層的神經(jīng)元數(shù)量為1000,我們需要將它改為c,并對全連接的網(wǎng)絡(luò)參數(shù)進(jìn)行具有高斯分布的隨機(jī)初始化。對于全連接層之前的隱藏層,則直接使用同預(yù)訓(xùn)練之后相同的參數(shù)。最后適當(dāng)增大學(xué)習(xí)率,減小迭代次數(shù),使用目標(biāo)數(shù)據(jù)集對網(wǎng)絡(luò)進(jìn)行訓(xùn)練。3)特征提?。篶nn模型中主要有兩種類型的網(wǎng)絡(luò)層,分別為卷積層和池化層。卷積層通過多個(gè)卷積核對輸入信息進(jìn)行卷積從而提取不同的圖像信息,池化層對輸入信息進(jìn)行池化采樣,最后通過激活函數(shù)對輸入的特征進(jìn)行非線性抽象。原始圖像進(jìn)入cnn模型中,依次經(jīng)過多層的卷積、池化和非線性變換向前傳播,圖像信息也不斷地抽象。最終的輸出特征也由局部的細(xì)節(jié)特征逐漸抽象成高層語義信息。因此,cnn模型越靠近全連接層的特征包含越多的高層語義信息,越靠近輸入的卷積層特征則包含越多的低層細(xì)節(jié)信息。我們可以提取vgg網(wǎng)絡(luò)的全連接層(fc6層)信息作為圖像的全局cnn特征。s2.3、利用pca和l2規(guī)則化對局部cnn特征和全局cnn特征進(jìn)行降維和融合,生成用于檢索的特征向量;s2.4、按照步驟s2.1-s2.3所述方法,利用剩余輸入圖像生成檢索的特征向量,再利用生成的特征向量構(gòu)建出檢索特征庫;s3、根據(jù)待檢索圖像進(jìn)行相同類別檢索按照步驟s1-s2所述方法,利用待檢索圖像生成用于檢索的特征向量,再用該特征向量在檢索特征庫中進(jìn)行相似性搜索,并返回檢索結(jié)果;在本實(shí)施例中,采用融合全局cnn特征和局部cnn特征的算法用于相同類別檢索,在這部分中,我們提出的基于顯著性區(qū)域的局部cnn特征是為了改進(jìn)cnn全局特征不能考慮圖片中的局部細(xì)節(jié)的缺點(diǎn)。s4、根據(jù)待檢索圖像進(jìn)行相同物體檢索s4.1、利用相同物體檢索算法提取待檢索圖像的特征,再利用該特征在檢索特征庫中進(jìn)行相似度初步檢索,得到初步檢索結(jié)果;在本實(shí)施例中,相同物體檢索算法選用crow算法,來自于論文《cross-dimensionalweightingforaggregateddeepconvolutionalfeatures》,此算法可以通過對特征圖進(jìn)行空間加權(quán)和通道加權(quán)生成特征向量,用于相同物體檢索任務(wù)中;s4.2、按照步驟s2.2所述方法,提取待檢索圖像的全局cnn特征;s4.3、提取初步檢索結(jié)果中相似度排名最高的n張圖像,再按照步驟s1所述方法,提取n張圖的顯著性區(qū)域;s4.4、按照步驟s2.2所述方法,分別提取n張圖像的顯著性區(qū)域的全局cnn特征;s4.5、利用步驟s4.2得到的全局cnn特征和步驟s4.4得到的全局cnn特征計(jì)算相似性得分,再按照相似性得分大小進(jìn)行降序排名,返回檢索結(jié)果。仿真驗(yàn)證本實(shí)施例中,使用caltech101和caltech256數(shù)據(jù)集對相同類別檢索進(jìn)行實(shí)驗(yàn)驗(yàn)證,并計(jì)算平均檢索準(zhǔn)確率:1、caltech101:包含102類共9145張圖片,所有的圖片都帶有一個(gè)類別標(biāo)簽。每一類大約有40到800張圖片,每幅圖片的尺寸300x200。2、caltech256:包含257類共30607張圖片,所有的圖片都帶有一個(gè)類別標(biāo)簽,每一類至少有80張圖片,每幅圖片的尺寸不等,在本次試驗(yàn)中,先將其先進(jìn)行尺寸調(diào)整,全部變?yōu)?56x256的圖片。然后,本文使用oxfordbuildings和parisbuildings數(shù)據(jù)集對相同物體檢索任務(wù)進(jìn)行實(shí)驗(yàn)驗(yàn)證:1、oxfordbuildings數(shù)據(jù)集:為牛津大學(xué)的vgg小組公布的數(shù)據(jù)集,并被大多數(shù)從事相同物體圖像檢索的研究人員所采用,此數(shù)據(jù)集包含5062張圖片,是對牛津大學(xué)中的建筑物的圖片采集。這五千張圖片主要涵蓋了11個(gè)不同的建筑物,該數(shù)據(jù)集還提供了55張查詢圖片,查詢圖片中只包含了具體的需要查詢的建筑物。2、parisbuildings數(shù)據(jù)集:這也是被廣泛應(yīng)用的一個(gè)實(shí)體檢索的數(shù)據(jù)集,該數(shù)據(jù)集包含了6412張圖片,涵蓋了巴黎一些標(biāo)志性的建筑物圖片。與oxfordbuilding數(shù)據(jù)及類似,此數(shù)據(jù)集同樣提供了12張查詢圖片以及相應(yīng)的查詢標(biāo)準(zhǔn)來供研究者直接使用。相同類別檢索結(jié)果分析按照本發(fā)明所提供方法,使用圖像檢索任務(wù)中常用的分級評價(jià)標(biāo)準(zhǔn)來計(jì)算平均檢索準(zhǔn)確率。對于任意一張查詢圖片,假設(shè)其返回10張檢索結(jié)果,對第k個(gè)返回結(jié)果,它的準(zhǔn)確率的計(jì)算方式為:其中,rel(i)∈{0,1},當(dāng)返回圖片與查詢圖片屬于同一類別時(shí)表示返回結(jié)果正確,其值為1;否則其值為0,對所有正確的結(jié)果求平均,就可以得到每張查詢圖像的檢索準(zhǔn)確率,再對所有的查詢圖片的檢索準(zhǔn)確率求取平均值,可以得到平均檢索準(zhǔn)確率。對于每個(gè)數(shù)據(jù)集,隨機(jī)抽取了總圖片的5%作為檢索圖片,計(jì)算當(dāng)返回10張查詢結(jié)果時(shí),對于每個(gè)數(shù)據(jù)集的平均檢索準(zhǔn)確率(%)。如表1所示。表1是平均檢索準(zhǔn)確率對比結(jié)果;caltech101caltech256傳統(tǒng)的bow模型22.5626.80全局cnn特征79.1464.91本發(fā)明80.6767.37本發(fā)明+查詢擴(kuò)展80.0770.05表1從表1可以看出,對于相同類別的圖像檢索來說,傳統(tǒng)的圖像檢索算法如bow檢索準(zhǔn)確率較低,而利用全局cnn特征進(jìn)行檢索具有較高的檢索準(zhǔn)確率,表現(xiàn)出了巨大的優(yōu)勢。利用本發(fā)明對相同類別圖像檢索的檢索準(zhǔn)確率有了進(jìn)一步的提升,其中,在caltech101上,相比于全局cnn特征,本章算法的平均檢索準(zhǔn)確率提升了1.53%;在caltech256數(shù)據(jù)集上,檢索準(zhǔn)確率提升了2.46%,在添加查詢擴(kuò)展之后,準(zhǔn)確率得到了進(jìn)一步的提升,充分證明了本發(fā)明的精確性和有效性。相同物體檢索實(shí)驗(yàn)分析按照本發(fā)明所提供的方法,使用oxford和paris數(shù)據(jù)集對相同物體檢索任務(wù)進(jìn)行實(shí)驗(yàn)驗(yàn)證。并與目前一些優(yōu)秀的算法mpoc、spoc和crow進(jìn)行比較,實(shí)驗(yàn)結(jié)果如表2所示。從表中可以看出本文的算法在一些優(yōu)秀的算法上仍得到了提升。相比于crow,本發(fā)明在oxford數(shù)據(jù)集上準(zhǔn)確率提升了2.5%,在paris數(shù)據(jù)集上準(zhǔn)確率提升了0.23%。充分證明了本發(fā)明的有效性,并且,在添加查詢擴(kuò)展之后,準(zhǔn)確率得到了進(jìn)一步的提升。表2是平均檢索準(zhǔn)確率對比結(jié)果;oxfordparismpoc0.5240.701spoc0.5890.712crow0.65740.7347本發(fā)明0.68200.7370本發(fā)明+查詢擴(kuò)展0.70340.7491表2實(shí)驗(yàn)表明,本發(fā)明提出的算法在相同類別檢索和相同物體檢索任務(wù)中都取得了較好的效果。盡管上面對本發(fā)明說明性的具體實(shí)施方式進(jìn)行了描述,以便于本
技術(shù)領(lǐng)域:
的技術(shù)人員理解本發(fā)明,但應(yīng)該清楚,本發(fā)明不限于具體實(shí)施方式的范圍,對本
技術(shù)領(lǐng)域:
的普通技術(shù)人員來講,只要各種變化在所附的權(quán)利要求限定和確定的本發(fā)明的精神和范圍內(nèi),這些變化是顯而易見的,一切利用本發(fā)明構(gòu)思的發(fā)明創(chuàng)造均在保護(hù)之列。當(dāng)前第1頁12