国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種基于圖像顯著區(qū)域的圖像分類方法和系統(tǒng)與流程

      文檔序號(hào):11620989閱讀:268來(lái)源:國(guó)知局
      一種基于圖像顯著區(qū)域的圖像分類方法和系統(tǒng)與流程
      本發(fā)明屬于圖像內(nèi)容分類及檢索領(lǐng)域,更具體地,涉及一種基于圖像顯著區(qū)域的圖像分類方法和系統(tǒng)。
      背景技術(shù)
      :隨著計(jì)算機(jī)與數(shù)字信息技術(shù)的不斷發(fā)展,每天都有大量的數(shù)字圖像通過(guò)各種渠道出現(xiàn)在人們的生活中。圖像是對(duì)客觀事物的一種相似性或者生動(dòng)性的描述,是人類社會(huì)活動(dòng)中最常用的信息載體,它作為人們最主要的信息來(lái)源,正在以各種各樣的方式滲透到人們的工作、學(xué)習(xí)和生活中。在圖像分類和檢索等圖像處理和分析的過(guò)程中,傳統(tǒng)的方法大都會(huì)對(duì)圖像的全圖信息進(jìn)行描述和分析,然而對(duì)圖像的全圖描述有時(shí)會(huì)包含干擾信息,比如針對(duì)包含顯著區(qū)域的圖像而言,圖像的顯著區(qū)域信息可以體現(xiàn)圖像類別,而對(duì)背景信息的考慮會(huì)對(duì)圖像分類和檢索性能造成影響。對(duì)于包含顯著區(qū)域的圖像而言,要想獲取圖像顯著區(qū)域信息,往往需要定位或者分割提取出圖像顯著區(qū)域,目前提出的分割提取圖像顯著區(qū)域的方法可以分為兩類:基于人工標(biāo)注的交互式分割提取和基于圖像顯著性檢測(cè)的自動(dòng)分割提取。由于互聯(lián)網(wǎng)圖像數(shù)據(jù)量非常龐大,交互式分割方法耗時(shí)費(fèi)力;而基于圖像顯著度的自動(dòng)分割應(yīng)用于背景較復(fù)雜的圖像時(shí),存在區(qū)域邊界處劃分準(zhǔn)確率低或者誤將目標(biāo)區(qū)域劃分成背景的局限。圖像分類是對(duì)互聯(lián)網(wǎng)上龐大的圖像資源進(jìn)行組織、管理和檢索的關(guān)鍵技術(shù)。目前圖像分類大多基于全圖實(shí)現(xiàn),當(dāng)圖像語(yǔ)義類別相同但背景不同時(shí),底層視覺(jué)特征一般不相似,針對(duì)這種圖像訓(xùn)練圖像分類器,分類性能會(huì)受背景信息的影響,從而使得圖像分類準(zhǔn)確率降低。而在不同拍攝條件下獲取的圖像,例如智能手機(jī)和平板電腦的圖像,會(huì)出現(xiàn)底層視覺(jué)特征十分相似但語(yǔ)義類別明顯不同的情況,僅僅基于底層視覺(jué)特征很難實(shí)現(xiàn)有效分類。因此針對(duì)包含顯著區(qū)域的圖像而言,圖像類別往往由圖像顯著區(qū)域信息表現(xiàn),基于原圖進(jìn)行圖像類別判斷會(huì)出現(xiàn)信息干擾,影響分類準(zhǔn)確度。技術(shù)實(shí)現(xiàn)要素:本發(fā)明針對(duì)上述現(xiàn)有技術(shù)的不足,提出一種基于圖像顯著區(qū)域的圖像分類方法和系統(tǒng),本發(fā)明的目的在于保證分割結(jié)果的前提下,減少人工交互的工作量,提高了圖像分類的準(zhǔn)確率。為實(shí)現(xiàn)上述目的,按照本發(fā)明的一個(gè)方面,提供了一種基于圖像顯著區(qū)域的圖像分類方法,包括離線訓(xùn)練和在線測(cè)試部分:離線訓(xùn)練部分包括以下步驟:s1:對(duì)圖像進(jìn)行n次超像素分割得到圖像n層尺度下的分割塊,計(jì)算圖像的n層尺度下分割塊的特征對(duì)比度得到n個(gè)顯著圖,融合n個(gè)顯著圖得到目標(biāo)顯著圖;s2:對(duì)目標(biāo)顯著圖進(jìn)行閾值分割得到二值圖像,然后對(duì)該二值圖像分別作形態(tài)學(xué)處理得到圖像標(biāo)記,然后基于圖像標(biāo)記利用分割算法對(duì)目標(biāo)顯著圖進(jìn)行自動(dòng)分割提取得到顯著區(qū)域;s3:將顯著區(qū)域作為訓(xùn)練樣本輸入到卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練,得到基于圖像顯著區(qū)域的圖像分類器;在線測(cè)試部分包括以下步驟:s4:測(cè)試圖像按照步驟s1和s2的方式完成測(cè)試圖像的顯著區(qū)域自動(dòng)分割提取,然后將測(cè)試圖像的顯著區(qū)域圖像輸入到離線訓(xùn)練好的圖像分類器,圖像分類器輸出圖像分類結(jié)果。進(jìn)一步的,s1中的特征對(duì)比度為色彩對(duì)比度、空間對(duì)比度和紋理對(duì)比度中的一種或幾種。更進(jìn)一步的,s1中的特征對(duì)比度為色彩對(duì)比度和空間對(duì)比度。進(jìn)一步的,s2中閾值設(shè)定為w和h為目標(biāo)顯著圖s的長(zhǎng)和寬,(x,y)為目標(biāo)顯著圖內(nèi)像素點(diǎn)的坐標(biāo)。進(jìn)一步的,s2中分割算法為growcut算法、graphcut算法和grabcut算法中的任意一種。更進(jìn)一步的,s2中分割算法為growcut算法。進(jìn)一步的,s3中卷積神經(jīng)網(wǎng)絡(luò)為alexnet網(wǎng)絡(luò)、lenet網(wǎng)絡(luò)、googlenet網(wǎng)絡(luò)、vgg網(wǎng)絡(luò)和resnet網(wǎng)絡(luò)中的任意一種。更進(jìn)一步的,s3中卷積神經(jīng)網(wǎng)絡(luò)為alexnet網(wǎng)絡(luò)。進(jìn)一步的,s3中alexnet網(wǎng)絡(luò)通過(guò)來(lái)少量的權(quán)重衰減減小訓(xùn)練誤差,其中權(quán)重更新規(guī)則為:其中i是迭代次數(shù),v是動(dòng)力變量,ε是學(xué)習(xí)率,是對(duì)ωi求值的倒數(shù)在第i批樣本di上的平均值,ωi表示第i次迭代后的權(quán)重,ωi+1表示第i+1次迭代后的權(quán)重,vi表示第i次迭代后的動(dòng)力變量,vi+1表示第i+1次迭代后的動(dòng)力變量。按照本發(fā)明的另一個(gè)方面,提供了一種基于圖像顯著區(qū)域的圖像分類系統(tǒng),包括離線訓(xùn)練模塊和在線測(cè)試模塊:所述離線訓(xùn)練模塊包括以下子模塊:多尺度顯著性檢測(cè)子模塊,用于對(duì)圖像進(jìn)行n次超像素分割得到圖像的n層尺度下的分割塊,計(jì)算圖像的n層尺度下分割塊的特征對(duì)比度得到n個(gè)顯著圖,融合n個(gè)顯著圖得到目標(biāo)顯著圖;顯著區(qū)域子模塊,用于對(duì)目標(biāo)顯著圖進(jìn)行閾值分割得到二值圖像,然后對(duì)該二值圖像分別作形態(tài)學(xué)處理得到圖像標(biāo)記,然后基于圖像標(biāo)記利用分割算法對(duì)目標(biāo)顯著圖進(jìn)行自動(dòng)分割提取得到顯著區(qū)域;分類器子模塊,用于將顯著區(qū)域作為訓(xùn)練樣本輸入到卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練,得到基于圖像顯著區(qū)域的圖像分類器;所述在線訓(xùn)練模塊包括:圖像分類子模塊,用于對(duì)測(cè)試圖像通過(guò)多尺度顯著性檢測(cè)子模塊和顯著區(qū)域子模塊完成測(cè)試圖像的顯著區(qū)域自動(dòng)分割提取,然后將測(cè)試圖像的顯著區(qū)域圖像輸入到訓(xùn)練好的圖像分類器,進(jìn)行圖像分類,得到圖像類別標(biāo)記。本發(fā)明與現(xiàn)有方法相比具有如下優(yōu)點(diǎn):(1)對(duì)目標(biāo)顯著圖進(jìn)行閾值分割得到二值圖像,然后對(duì)該二值圖像分別作形態(tài)學(xué)處理,然后利用分割算法,提高了自動(dòng)分割提取得到顯著區(qū)域的準(zhǔn)確率,在保證分割結(jié)果的前提下,減少人工交互的工作量。(2)將顯著區(qū)域作為訓(xùn)練樣本輸入到卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練,得到基于圖像顯著區(qū)域的圖像分類器,提高了圖像分類的準(zhǔn)確率。附圖說(shuō)明圖1是一種基于圖像顯著區(qū)域的圖像分類方法的流程圖;圖2是一種基于圖像顯著區(qū)域的圖像分類系統(tǒng)的結(jié)構(gòu)示意圖;圖3(a)是本發(fā)明實(shí)施例的第一測(cè)試圖像;圖3(b)是本發(fā)明實(shí)施例的第一測(cè)試圖像,利用本專利方法得到的顯著區(qū)域圖;圖4(a)是本發(fā)明實(shí)施例的第二測(cè)試圖像;圖4(b)是本發(fā)明實(shí)施例的第二測(cè)試圖像,利用本專利方法得到的顯著區(qū)域圖;圖5(a)是本發(fā)明實(shí)施例的第三測(cè)試圖像;圖5(b)是本發(fā)明實(shí)施例的第三測(cè)試圖像,利用本專利方法得到的顯著區(qū)域圖。具體實(shí)施方式為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,以下結(jié)合附圖及實(shí)施例,對(duì)本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說(shuō)明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。此外,下面所描述的本發(fā)明各個(gè)實(shí)施方式中所涉及到的技術(shù)特征只要彼此之間未構(gòu)成沖突就可以相互組合。如圖1所示,一種基于圖像顯著區(qū)域的圖像分類方法,包括離線訓(xùn)練和在線測(cè)試部分:其中,離線訓(xùn)練部分包括以下步驟:s1:首先對(duì)圖像進(jìn)行n次超像素分割得到圖像的n層尺度下的分割塊,計(jì)算圖像的n層尺度下分割塊的特征對(duì)比度得到n個(gè)顯著圖,融合n個(gè)顯著圖得到目標(biāo)顯著圖。不同尺度下的超像素分割塊大小不同。每層圖像的尺度大小計(jì)算公式為:其中rt×t表示一個(gè)t×t的分割塊中像素點(diǎn)個(gè)數(shù)。r表示預(yù)設(shè)尺度值,計(jì)算每層圖像尺度,再確認(rèn)圖像每層尺度下的圖像顯著圖。圖像顯著圖通過(guò)計(jì)算分割塊特征對(duì)比度得到。進(jìn)一步的,特征對(duì)比度為色彩對(duì)比度、空間對(duì)比度和紋理對(duì)比度中的一種或幾種。優(yōu)選的特征對(duì)比度為色彩對(duì)比度和空間對(duì)比度。圖像中ri分割塊的色彩對(duì)比度ci由總共n個(gè)分割塊的色彩加權(quán)得到:其中ci和cj分別代表分割塊ri和rj的色彩信息,ω(rj)是區(qū)域rj的像素點(diǎn)個(gè)數(shù),ψ(i,j)為控制系數(shù),設(shè)定為exp{-d(ri,rj)/σ2},用來(lái)控制區(qū)域ri和rj之間空間距離的對(duì)色彩對(duì)比度的影響,d(ri,rj)為區(qū)域中心間的歐氏距離,參數(shù)σ設(shè)為0.2。而空間對(duì)比度hi的計(jì)算公式如下:其中{x0,x1,...}是區(qū)域ri中像素點(diǎn)的坐標(biāo),xc是區(qū)域中心的坐標(biāo),μ為預(yù)設(shè)值。通過(guò)上面公式計(jì)算出每層圖像的顯著圖后,融合不同尺度下的顯著圖獲得最終的目標(biāo)顯著圖。優(yōu)選的,本發(fā)明首先對(duì)圖像進(jìn)行3次超像素分割得到圖像的3層尺度下的分割塊,計(jì)算圖像的3層尺度下分割塊的特征對(duì)比度得到3個(gè)顯著圖,融合3個(gè)顯著圖得到目標(biāo)顯著圖。s2:對(duì)目標(biāo)顯著圖進(jìn)行閾值分割得到二值圖像,然后對(duì)該二值圖像分別作形態(tài)學(xué)處理得到圖像標(biāo)記,然后基于圖像標(biāo)記利用分割算法對(duì)目標(biāo)顯著圖進(jìn)行自動(dòng)分割提取得到顯著區(qū)域閾值設(shè)定為w和h為顯著圖s的長(zhǎng)寬值,(x,y)為目標(biāo)顯著圖內(nèi)像素點(diǎn)的坐標(biāo),然后對(duì)該二值圖像做形態(tài)學(xué)上的腐蝕,剩下為“1”的像素點(diǎn)作為顯著區(qū)域的標(biāo)記,二值圖像膨脹后外圍為“0”的像素點(diǎn)作為背景區(qū)域的標(biāo)記。這樣的標(biāo)記方法能夠在保證幾乎沒(méi)有誤標(biāo)記的前提下,盡量正確的提供對(duì)象和背景標(biāo)記點(diǎn)。完成圖像標(biāo)記之后使用分割算法使得圖像顯著區(qū)域標(biāo)記為“1”的像素點(diǎn)保留原始圖像色彩,背景區(qū)域標(biāo)記為“0”的像素點(diǎn)為黑色。s2中分割算法為growcut算法、graphcut算法和grabcut算法中的任意一種。優(yōu)選的,本發(fā)明的分割算法為growcut算法,其中采用了鄰域系統(tǒng),通常鄰域系統(tǒng)包括馮·諾依曼鄰域和摩爾領(lǐng)域兩種。growcut算法把圖像像素點(diǎn)定義了一個(gè)三元的狀態(tài),lp為當(dāng)前圖像像素點(diǎn)的標(biāo)記,θp為當(dāng)前圖像像素點(diǎn)的“力量”,為當(dāng)前圖像像素點(diǎn)的特征向量,為了不失去一般性,普遍采用θp∈[0,1]。一幅數(shù)字圖像一般可以被看作一個(gè)二維數(shù)組,包含k×m個(gè)像素。像素點(diǎn)空間p由圖像這個(gè)k×m的數(shù)組確定,對(duì)于的初始狀態(tài)則由下面的式子共同確定:其中,rgbp為像素點(diǎn)p的rgb色彩空間內(nèi)的三維向量,分割的最終目的是給予每個(gè)像素點(diǎn)以某一種特定的標(biāo)記。原始的像素點(diǎn)分割算法中,用戶首先需要指定分割的種子像素,根據(jù)用戶標(biāo)記的種子像素點(diǎn),從而設(shè)置像素點(diǎn)標(biāo)記獲得初始值。本發(fā)明中利用顯著圖實(shí)現(xiàn)圖像像素點(diǎn)標(biāo)記,然后像素點(diǎn)自動(dòng)增長(zhǎng)、合并,完成圖像分割,圖像顯著區(qū)域標(biāo)記為“1”的像素點(diǎn)保留原始rgb值,背景區(qū)域標(biāo)記為“0”的像素點(diǎn)rgb值為0;最終圖像顯著區(qū)域標(biāo)記為“1”的像素點(diǎn)保留原始圖像色彩,背景區(qū)域標(biāo)記為“0”的像素點(diǎn)為黑色。s3:將顯著區(qū)域作為訓(xùn)練樣本輸入到卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練,得到基于圖像顯著區(qū)域的圖像分類器。使用卷積神經(jīng)網(wǎng)絡(luò)(cnn)對(duì)圖像顯著區(qū)域圖進(jìn)行訓(xùn)練。卷積神經(jīng)網(wǎng)絡(luò)為alexnet網(wǎng)絡(luò)、lenet網(wǎng)絡(luò)、googlenet網(wǎng)絡(luò)、vgg網(wǎng)絡(luò)和resnet網(wǎng)絡(luò)中的任意一種。優(yōu)選的,s3中卷積神經(jīng)網(wǎng)絡(luò)為alexnet網(wǎng)絡(luò)。并用樣本圖像顯著區(qū)域?qū)W(wǎng)絡(luò)微調(diào)。做網(wǎng)絡(luò)訓(xùn)練之前,需要準(zhǔn)備好訓(xùn)練和測(cè)試數(shù)據(jù),本發(fā)明將圖像庫(kù)中圖像通過(guò)s1和s2提取圖像顯著區(qū)域,然后對(duì)不同類別的圖像進(jìn)行圖像類別標(biāo)記。準(zhǔn)備好圖像樣本之后,輸入cnn網(wǎng)絡(luò)進(jìn)行分類器訓(xùn)練。cnn網(wǎng)絡(luò)包括八個(gè)網(wǎng)絡(luò)層;前五層是卷積層,剩下三層是全連接層。最后一個(gè)全連接層的輸出被送到一個(gè)softmax層,其產(chǎn)生一個(gè)覆蓋數(shù)據(jù)類別數(shù)目的標(biāo)簽的分布。這個(gè)網(wǎng)絡(luò)使得多分類的邏輯回歸目標(biāo)最大化,這相當(dāng)于在預(yù)測(cè)分布下,最大化正確標(biāo)記訓(xùn)練樣本的對(duì)數(shù)概率平均值。第一層卷積層利用96個(gè)大小為11×11×3、步長(zhǎng)為4個(gè)像素(一個(gè)卷積核中鄰近神經(jīng)元的感受野中心的距離)的卷積核,來(lái)對(duì)大小為224×224×3的輸入圖像顯著區(qū)域進(jìn)行濾波。第二層卷積層把第一個(gè)卷積層的(響應(yīng)歸一化及池化的)輸出作為自己的輸入,且利用256個(gè)大小為5×5×48的卷積核對(duì)其進(jìn)行濾波。第三、第四和第五層卷積層彼此相連,這三層中間沒(méi)有池化層與歸一化層。第三個(gè)卷積層有384個(gè)大小為3×3×256的卷積核被連接到第二層卷積層的(歸一化的、池化的)輸出。第四層卷積層擁有384個(gè)大小為3×3×192的卷積核,第五層卷積層有256個(gè)大小為3×3×192的卷積核。全連接層都各有4096個(gè)神經(jīng)元。alexnet網(wǎng)絡(luò)的初始值為在imagenet圖像庫(kù)中訓(xùn)練好的網(wǎng)絡(luò)參數(shù)值,通過(guò)迭代更新網(wǎng)絡(luò)參數(shù),最后得到訓(xùn)練好的圖像分類器。本發(fā)明所用的alexnet神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)有6000萬(wàn)個(gè)參數(shù)。網(wǎng)絡(luò)初始值為在imagenet圖像庫(kù)中訓(xùn)練好的網(wǎng)絡(luò)參數(shù)值,網(wǎng)絡(luò)參數(shù)值輸入到網(wǎng)絡(luò)中作為網(wǎng)絡(luò)初始值,并輸入圖像顯著區(qū)域以及圖像類別標(biāo)注,使用隨機(jī)梯度下降法來(lái)訓(xùn)練alexnet神經(jīng)網(wǎng)絡(luò)得到基于圖像顯著區(qū)域的圖像分類器。由于少量的權(quán)重衰減可以減小模型的訓(xùn)練誤差,因此對(duì)于權(quán)重的更新規(guī)則為:ωi+1:=ωi+vi+1(6)其中i是迭代次數(shù),v是動(dòng)力變量,ε是學(xué)習(xí)率,是對(duì)ωi求值的倒數(shù)在第i批樣本di上的平均值,ωi表示第i次迭代后的權(quán)重,ωi+1表示第i+1次迭代后的權(quán)重,vi表示第i次迭代后的動(dòng)力變量,vi+1表示第i+1次迭代后的動(dòng)力變量。其中,在線測(cè)試部分包括以下步驟:s4:對(duì)測(cè)試圖像,首先通過(guò)s1和s2完成測(cè)試圖像的顯著區(qū)域自動(dòng)分割提取,然后將測(cè)試圖像的顯著區(qū)域圖像輸入到訓(xùn)練好的圖像分類器,進(jìn)行圖像分類,得到圖像類別標(biāo)記。綜上所述,針對(duì)包含顯著區(qū)域的圖像數(shù)據(jù),本發(fā)明設(shè)計(jì)了一種自動(dòng)分割提取圖像顯著區(qū)域的算法,通過(guò)顯著區(qū)域分割提取保留圖像顯著信息過(guò)濾背景信息。本發(fā)明直接利用顯著區(qū)域訓(xùn)練圖像分類器,顯著區(qū)域有效地保存了圖像的顯著信息,并且消除了圖像背景干擾信息,是一種可行的圖像類別檢測(cè)方法。如圖2所示,按照本發(fā)明的另一個(gè)方面,提供了一種基于圖像顯著區(qū)域的圖像分類系統(tǒng),包括離線訓(xùn)練模塊和在線測(cè)試模塊:所述離線訓(xùn)練模塊包括以下子模塊:多尺度顯著性檢測(cè)子模塊,用于對(duì)圖像進(jìn)行n次超像素分割得到圖像的n層尺度下的分割塊,計(jì)算圖像的n層尺度下分割塊的特征對(duì)比度得到n個(gè)顯著圖,融合n個(gè)顯著圖得到目標(biāo)顯著圖;顯著區(qū)域子模塊,用于對(duì)目標(biāo)顯著圖進(jìn)行閾值分割得到二值圖像,然后對(duì)該二值圖像分別作形態(tài)學(xué)處理得到圖像標(biāo)記,然后基于圖像標(biāo)記利用分割算法對(duì)目標(biāo)顯著圖進(jìn)行自動(dòng)分割提取得到顯著區(qū)域;分類器子模塊,用于將顯著區(qū)域作為訓(xùn)練樣本輸入到卷積神經(jīng)網(wǎng)絡(luò)中訓(xùn)練,得到基于圖像顯著區(qū)域的圖像分類器;所述在線訓(xùn)練模塊包括:圖像分類子模塊,用于對(duì)測(cè)試圖像通過(guò)多尺度顯著性檢測(cè)子模塊和顯著區(qū)域子模塊完成測(cè)試圖像的顯著區(qū)域自動(dòng)分割提取,然后將測(cè)試圖像的顯著區(qū)域圖像輸入到訓(xùn)練好的圖像分類器,進(jìn)行圖像分類,得到圖像類別標(biāo)記。以下通過(guò)實(shí)驗(yàn)來(lái)驗(yàn)證本發(fā)明的有效性:本實(shí)驗(yàn)選用imagenet中的三類具有顯著區(qū)域的圖像:老虎、豹子和貓。這三類圖像同屬于貓科動(dòng)物,具有很強(qiáng)的相似性,我們測(cè)試本發(fā)明的方法將它們區(qū)分的效果并與原始基于全圖訓(xùn)練的分類器效果作對(duì)比,本實(shí)驗(yàn)的圖像數(shù)據(jù)如表1所示。表1:圖像數(shù)據(jù)類別圖像總數(shù)訓(xùn)練圖像數(shù)測(cè)試圖像數(shù)老虎tiger600500100豹子leopard600500100貓cat600500100分類器評(píng)價(jià)指標(biāo):利用測(cè)試圖像檢測(cè)的準(zhǔn)確度p。實(shí)驗(yàn)結(jié)果:本實(shí)驗(yàn)的網(wǎng)絡(luò)參數(shù)如下:網(wǎng)絡(luò)測(cè)試時(shí)的測(cè)試迭代次數(shù)test_iter為20,test_interval為90表示訓(xùn)練時(shí)迭代90次進(jìn)行一次測(cè)試,基礎(chǔ)學(xué)習(xí)率base_lr設(shè)置為0.0001,display為20表示每迭代20次在日志文件打印一次loss值,最大訓(xùn)練迭代次數(shù)為max_iter:2000,學(xué)習(xí)率下降策略lr_policy為"step"方式,參數(shù)gamma設(shè)置為0.1,沖量單元momentum為0.9,權(quán)值衰減項(xiàng)weight_decay設(shè)為0.0005。從主觀的角度分析本專利圖像顯著區(qū)域分割的實(shí)驗(yàn)結(jié)果,本專利的方法能夠有效的提取圖像的顯著區(qū)域。通過(guò)2000次迭代后,分類器的分類準(zhǔn)確度結(jié)果見(jiàn)表2。由于卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展,基于深度學(xué)習(xí)的圖像分類準(zhǔn)確度已經(jīng)達(dá)到了很高的準(zhǔn)確度,因此在如此高準(zhǔn)確度的基礎(chǔ)上進(jìn)一步提高分類的性能難度較大,而由表2可以看出,相對(duì)與基于原圖訓(xùn)練的方法,本專利的方法在分類準(zhǔn)確度上仍能有一定的提升。表3給出了測(cè)試圖像的直觀分類結(jié)果,表中列出了分類器對(duì)測(cè)試圖像屬于不同類別的概率值,結(jié)果顯示本專利的方法分類準(zhǔn)確度更高。表2:分類準(zhǔn)確度分類準(zhǔn)確度本專利的方法98.44%基于原圖訓(xùn)練的方法97.81%表3:分類結(jié)果直觀對(duì)比(注:上述表格中圖像為彩色圖像,此處由于專利說(shuō)明書(shū)要求,改為灰度圖顯示)綜上所述,本發(fā)明與經(jīng)典基于原圖訓(xùn)練分類器的方法比較可知,從主觀視覺(jué),本發(fā)明有效提取了圖像的顯著區(qū)域,保留顯著區(qū)域信息??陀^評(píng)價(jià)指標(biāo)上,本發(fā)明的分類方法提升了分類準(zhǔn)確度,因此基于圖像顯著區(qū)域訓(xùn)練圖像分類器的方法有效的學(xué)習(xí)顯著信息,過(guò)濾無(wú)關(guān)背景信息對(duì)分類結(jié)果的干擾。本領(lǐng)域的技術(shù)人員容易理解,以上所述僅為本發(fā)明的較佳實(shí)施例而已,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi)所作的任何修改、等同替換和改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。當(dāng)前第1頁(yè)12
      當(dāng)前第1頁(yè)1 2 
      網(wǎng)友詢問(wèn)留言 已有0條留言
      • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1