国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      從點(diǎn)至面的圖像顯著性檢測(cè)的制作方法

      文檔序號(hào):6373145閱讀:212來(lái)源:國(guó)知局

      專利名稱::從點(diǎn)至面的圖像顯著性檢測(cè)的制作方法
      技術(shù)領(lǐng)域
      :本發(fā)明涉及基于一種從點(diǎn)至面的圖像顯著性檢測(cè)方法、裝置和計(jì)算機(jī)程序產(chǎn)品。
      背景技術(shù)
      :圖像的顯著性檢測(cè)對(duì)于圖像信息提取有著重要作用。在絕大多數(shù)基于內(nèi)容的圖像處理中都或多或少需要提取圖像中的顯著部分,因?yàn)閳D像的顯著區(qū)域相對(duì)提供了整幅圖像的所要表達(dá)的大部分信息。因此準(zhǔn)確的提取圖像中的顯著區(qū)域?qū)χT如基于內(nèi)容的圖像檢索、圖像自適應(yīng)壓縮、物體識(shí)別、圖像適配等圖像處理工作有極大的幫助。人類總是能夠根據(jù)自己的經(jīng)驗(yàn)及判斷很容易的找到圖像中顯著區(qū)域,從而準(zhǔn)確獲取圖像所傳達(dá)的信息。然而對(duì)于機(jī)器來(lái)說(shuō),智能識(shí)別出圖像中的顯著區(qū)域就沒有那么容易了。多年來(lái)許多學(xué)者進(jìn)行了基于生物、生理、神經(jīng)系統(tǒng)的研究,獲取了圖像的顯著區(qū)域應(yīng)該具有的一些特征,這些特征包括獨(dú)特性、隨機(jī)性、奇異性等。由此產(chǎn)生了自頂向下和自底向上的視覺顯著性機(jī)制。圖像視覺顯著性檢測(cè)在最近的二十年經(jīng)歷了快速的發(fā)展。誕生了各種各樣優(yōu)秀的方法,不同的方法有不同的側(cè)重點(diǎn),也取得了在某些方面出色的效果。其中,Koch和Ullman等人(文獻(xiàn)[7])提出的生物視覺啟發(fā)模型影響了一大批基于圖像基本特征的顯著性檢測(cè)算法。Itti等人(文獻(xiàn)[8])定義了圖像的顯著性。通過分析圖像的Intensity、Color和Orientation等視覺特征計(jì)算圖像的顯著性特征圖。但由于該方法只對(duì)圖像進(jìn)行了整體的分析,所以在顯著定位上能取得較好的效果,但顯著區(qū)域的細(xì)節(jié)定位略顯不足。S.Goferman等人(文獻(xiàn)[5])的方法則開始對(duì)圖像的局部、全局綜合考慮,相比Itti等人在局部的細(xì)節(jié)定位有很大進(jìn)步,但對(duì)于均勻的突出整個(gè)顯著區(qū)域做的還不夠優(yōu)秀。在生物視覺的基礎(chǔ)上,一些算法開始考慮加入一些數(shù)學(xué)上模型進(jìn)行建模。Harel等人(文獻(xiàn)[9])和Gopalakrishnan等人(文獻(xiàn)[15])利用馬爾科夫隨機(jī)場(chǎng)模型對(duì)圖像的基本特征進(jìn)行了處理。而Duan等人(文獻(xiàn)[16])的方法則利用PCA對(duì)圖像的顏色空間進(jìn)行轉(zhuǎn)換和降維處理。Li等人(文獻(xiàn)[17])使用了基于稀疏編碼長(zhǎng)度的求解方式計(jì)算圖像的顯著區(qū)域。該方法將顯著性視為編碼長(zhǎng)度的直接體現(xiàn),給出了影響視覺顯著性的成因的一種可能解釋。這些方法均能取得一定程度的優(yōu)秀效果,且擴(kuò)大適用的圖像類型的范圍,但數(shù)學(xué)模型的引入給算法帶來(lái)了運(yùn)算復(fù)雜度的增加。對(duì)于大量圖像的顯著性檢測(cè),Liu等人(文獻(xiàn)[6])和Judd等人(文獻(xiàn)[I])給出了系統(tǒng)性的檢測(cè)方法。兩種方法均加入的機(jī)器學(xué)習(xí)的過程。Liu等人的方法使用了CRF(ConditionalRandomFiled)建立了機(jī)器學(xué)習(xí)的模型。兩種方法同時(shí)都對(duì)圖像進(jìn)行了人工測(cè)試顯著區(qū)域進(jìn)行顯著特征的采集。毫無(wú)疑問,這類機(jī)器學(xué)習(xí)的方法無(wú)論對(duì)于處理圖像的類型還是顯著性檢測(cè)的準(zhǔn)確性都有較強(qiáng)的魯棒性。對(duì)于場(chǎng)景及其復(fù)雜的的圖像,兩者也能做出準(zhǔn)確的判斷。但是系統(tǒng)級(jí)的檢測(cè)所需要的復(fù)雜的設(shè)備及計(jì)算代價(jià)卻不適合很多的實(shí)時(shí)顯著性檢測(cè)場(chǎng)合。而且對(duì)于日常的自然圖像,這種復(fù)雜度的增加所帶來(lái)的檢測(cè)性能的提升并不是線性關(guān)系。相比于通用的圖像特征分析,Hou等人(文獻(xiàn)[11])在圖像的頻域進(jìn)行顯著性分析,作者發(fā)現(xiàn)大量圖像的log頻譜的平均值和頻率呈現(xiàn)正比關(guān)系。通過一幅圖像的log振幅譜減去平均log振幅譜得到圖像的顯著部分。而Guo等人(文獻(xiàn)[18])的方法認(rèn)為通過圖像傅里葉變換的相位譜能得到更好的顯著圖檢測(cè)結(jié)果。這方面的分析為圖像的顯著性檢測(cè)提供了另一個(gè)分析途徑。我們的方法分析圖像的基本特征,采用定位-定量的分析過程,首先得到可能的顯著性點(diǎn),然后對(duì)得到的基準(zhǔn)點(diǎn)進(jìn)行定量分析,完成顯著區(qū)域的檢測(cè)。我們的算法綜合考慮了圖像的局部和全局特征,能充分體現(xiàn)出整個(gè)顯著區(qū)域,同時(shí)由于我們并不是逐像素比較計(jì)算,因此需要的計(jì)算復(fù)雜度較少。具體而言,本文將圖像的顯著區(qū)域檢測(cè)視為圖像像素二值化的隨機(jī)分布問題。具體來(lái)說(shuō),對(duì)于一幅待分析的圖像,我們可以認(rèn)為圖像的所有像素集合是一個(gè)由取值只有{1,0}兩個(gè)取值的序列,也就是說(shuō)對(duì)于每一個(gè)像素針對(duì)我們的目標(biāo)只有兩種選擇,要么屬于顯著區(qū)域,要么不屬于顯著區(qū)域。所以,像素的取值分布具有兩個(gè)重要的性質(zhì)隨機(jī)性和相關(guān)性。隨機(jī)性是指盡管我們知道圖像中可能存在屬于顯著區(qū)域的一組像素集合,但并不知道這些像素的數(shù)量、位置及組合方式,也就是顯著區(qū)域的尺寸、位置和形狀。相關(guān)性是指盡管像素的分布是隨機(jī)的,但并不是無(wú)規(guī)律的完全“自由隨機(jī)分布”。這些像素總是通過一些互相關(guān)聯(lián)的特征相互影響。比如圖像的對(duì)比度、多尺度特征、顏色分布特征。本文的算法建立了由點(diǎn)到面的計(jì)算機(jī)制。算法首先從信息含量豐富的角點(diǎn)開始,我們通過改進(jìn)的SUSAN算子獲取圖像中角點(diǎn)。然后從角點(diǎn)區(qū)域結(jié)合圖像的區(qū)域?qū)Ρ榷?、全局顏色分布等圖像像素相關(guān)信息得到圖像的顯著性圖。對(duì)于顯著性檢測(cè)結(jié)果的體現(xiàn),我們認(rèn)為應(yīng)該有兩個(gè)方面的技術(shù)指標(biāo)對(duì)單幅圖像顯著區(qū)域檢測(cè)的精確度及對(duì)大量圖像檢測(cè)的成功率。我們?cè)趪?guó)際上通用的數(shù)據(jù)集上進(jìn)行結(jié)果測(cè)試,并與現(xiàn)有的一些代表性方法進(jìn)行比較,結(jié)果表明我們的方法在兩個(gè)方面的技術(shù)指標(biāo)上都能取得較好的結(jié)果。本申請(qǐng)是基于以下文獻(xiàn)提出的改進(jìn)算法。[I]T.Judd,K.Ehinger,F.DurandandA.Torralba,“2010LearningtoPredictWhereHumansLook,”IEEEICCV.Proc.,pp.2106-2113,Sep.2009.[2]J.S.Kim,S.G.Jeong,Y.H.JooandC.S.Kim,^Content-awareimageandvideoresizingbasedonfrequencydomainanalysis,,,IEEETrans.ConsumerElectronics.,Vol.57,no.I,pp.615-622,July.2011.[3]MengmengCheng,GXZhang,NJ.MitraXlHuangandSMHu,“Globalcontrastbasedsaliencyregiondetection,,,,IEEECVPR,p.409-416,ColoradoSprings,Colorado,USA,June21-23,2011.[4]HuihuiBai,CeZhuandYaoZhao,“OptimizedMultipleDescriptionLatticeVectorQuantizationforWaveletImageCoding,,,IEEETrans.CircuitsandSystemsforVideoTechnology.,Vol.17,no.7,pp.912-917,2007.[5]GofermanS,Zelnik-ManorLandTalA.“Context-awaresaliencydetection.”IEEECVPR.Proc.Pp.2376-2383.SanFrancisco,2010.[6]T.Liu,Z.Yuan,J.Sun,J.Wang,N.Zheng,T.X.,andS.H.Y.“Learningtodetectasalientobject.,,IEEETPAMI,pp.33(2):353-367,2011.[7]C.Koch,andS.Ullman,“ShiftsinselectivevisualattentionTowardstheunderlyingneuronalcircuitry,,,HumanNeurobiology,pp.219-227,Apr.1985.[8]Itti,KochandNiebur,“Amodelofsaliency-basedvisualattentionforrapidsceneanalysis,,,IEEETrans.PatternAnalysisandMachineIntelligence.,Vol.20,pp.1254-1259,Nov.1998.[9]J.Harel,C.KochandP.PeronaZiGraph-BasedVisualSaliency,,,AdvancesinNeuralInformationProcessingSystems,2006,pp.545-552.[10]R.Achanta,S.Hemami,F.EstradaandS.Susstrunk,“Frequency-tunedsalientregiondetection,,’Proc.,pp.1597-1604,June.2009.[ll]XiaodiHou,LiqingZhang,“SaliencydetectionAspectralresidualapproach,”IEEECVPR.Proc.,pp.1-8,June.2007.[12]Smith,M.Stephen,BradyandJ.Michael,“SUSAN-anewapproachtolowlevelimageprocessing,,,InternationalJournalofComputerVision,Vol.23,no.I,pp.45-78,May.1997.[I3]C.Harris,andM.Stephens,“ACombinedCornerandEdgeDetector,,,AlveyVisionConf,Univ.Manchester,1988.[14]U.Rutishauser,D.Walther,C.Koch,andP.Perona.“Isbottom-upattentionusefulforobjectrecognition”IEEECVPR,pp.37-44,2004.409[15]V.Gopalakrishnan,Y.HuandD.Rajan.“Randomwalksongraphstomodelsaliencyinimages.IEEECVPR.Proc.2009.[16]LijuanDuan,ChunpengWu,JunMiao,LaiyunQingandYuFu.“VisualSaliencyDetectionbySpatiallyWeightedDissimilarity.,,IEEECVPR,ColoradoSprings,USA,pp.473-480,Jun.2011.[17]YinLi,YueZhou,LeiXu,JieYangandXiaochaoYang.“IncrementalSparseSaliencyDetection,”IEEEInternationalConferenceonImageProcessing(ICIP),2009.[18]C.Guo,Q.MaandLZhang.“Spatio-temporalsaliencydetectionusingphasespectrumofquaternionfouriertransform.,’IEEECVPR.2008.[19]OzyerGT,andVuralFY,“AContent-BasedImageRetrievalsystemusingVisualAttention,”IEEESIU.Proc.,pp.399-402,April.2010.[20]DewenZhuang,andShoujueWangZiContent-BasedImageRetrievalBasedonIntegratingRegionSegmentationandRelevanceFeedback,,,IEEEICMT.Proc.,pp.1-3,Oct.2010.[21]ZhihongChen,ZhiyongFengandYongxinYu,“Imageretrieveusingvisualattentionweightmodel,,,IEEEICSESS.Proc.,pp.718-721,July.2011.圖I示出了根據(jù)本發(fā)明的一個(gè)實(shí)施例的圖像處理系統(tǒng);圖2示出了根據(jù)本發(fā)明的一些實(shí)施例的從點(diǎn)至面的圖像顯著性檢測(cè)的流程圖;圖3示出了根據(jù)本發(fā)明的一些實(shí)施例的從點(diǎn)至面的圖像顯著性檢測(cè)裝置;以及圖4示出了根據(jù)一些實(shí)施例的示例性處理結(jié)果圖。具體實(shí)施方式現(xiàn)在參考附圖來(lái)描述各種方案。在以下描述中,為了進(jìn)行解釋,闡述了多個(gè)具體細(xì)節(jié)以便提供對(duì)一個(gè)或多個(gè)方案的透徹理解。然而,顯然,在沒有這些具體細(xì)節(jié)的情況下也能夠?qū)崿F(xiàn)這些方案。如在本申請(qǐng)中所使用的,術(shù)語(yǔ)“組件”、“模塊”、“系統(tǒng)”等等旨在指代與計(jì)算機(jī)相關(guān)的實(shí)體,例如但不限于,硬件、固件、硬件和軟件的組合、軟件,或者是執(zhí)行中的軟件。例如,組件可以是但不限于在處理器上運(yùn)行的進(jìn)程、處理器、對(duì)象、可執(zhí)行體(executable)、執(zhí)行線程、程序、和/或計(jì)算機(jī)。舉例而言,運(yùn)行在計(jì)算設(shè)備上的應(yīng)用程序和該計(jì)算設(shè)備都可以是組件。一個(gè)或多個(gè)組件可以位于執(zhí)行進(jìn)程和/或者執(zhí)行線程內(nèi),并且組件可以位于一臺(tái)計(jì)算機(jī)上和/或者分布在兩臺(tái)或更多臺(tái)計(jì)算機(jī)上。另外,這些組件可以從具有存儲(chǔ)在其上的各種數(shù)據(jù)結(jié)構(gòu)的各種計(jì)算機(jī)可讀介質(zhì)執(zhí)行。組件可以借助于本地和/或遠(yuǎn)程進(jìn)程進(jìn)行通信,例如根據(jù)具有一個(gè)或多個(gè)數(shù)據(jù)分組的信號(hào),例如,來(lái)自于借助于信號(hào)與本地系統(tǒng)、分布式系統(tǒng)中的另一組件交互和/或者與在諸如因特網(wǎng)之類的網(wǎng)絡(luò)上借助于信號(hào)與其他系統(tǒng)交互的一個(gè)組件的數(shù)據(jù)。圖I示出了根據(jù)本發(fā)明的一個(gè)實(shí)施例的圖像處理系統(tǒng)100。裝置101為圖像采集設(shè)備,用于依據(jù)現(xiàn)有技術(shù)中已知的任何圖像采集技術(shù)來(lái)獲取待處理的圖像,所采集的圖像可以經(jīng)由通信裝置直接傳送給圖像處理裝置103,或者可以存儲(chǔ)在存儲(chǔ)裝置105中以待后續(xù)處理。在本發(fā)明的一個(gè)實(shí)施例中,圖像采集裝置101直接在用戶所訪問的網(wǎng)頁(yè)上獲取與網(wǎng)頁(yè)相關(guān)聯(lián)的圖像。由圖像采集設(shè)備101所采集到的圖像通過通信裝置102以有線和/或無(wú)線的方式傳送至圖像處理裝置103,該圖像處理裝置103對(duì)接收到的圖像進(jìn)行基于邊緣的圖像顯著性檢測(cè),以檢測(cè)圖像中的顯著物體或其他顯著區(qū)域。但是應(yīng)該理解,圖像處理裝置103還可以對(duì)輸入圖像進(jìn)行其它各種處理,例如圖像去噪、圖像配準(zhǔn)、模式識(shí)別等等。圖像處理裝置103可以用通用處理器、數(shù)字信號(hào)處理器(DSP)、專用集成電路(ASIC)、現(xiàn)場(chǎng)可編程門陣列(FPGA)或其它可編程邏輯器件、分立門或晶體管邏輯器件、分立硬件組件或者設(shè)計(jì)為執(zhí)行本文所述功能的其任意組合,來(lái)實(shí)現(xiàn)或執(zhí)行。通用處理器可以是微處理器,但是可替換地,該處理器也可以是任何常規(guī)的處理器、控制器、微控制器或者狀態(tài)機(jī)。處理器也可以實(shí)現(xiàn)為計(jì)算設(shè)備的組合,例如,DSP和微處理器的組合、多個(gè)微處理器的組合、一個(gè)或多個(gè)微處理器與DSP內(nèi)核的組合或者任何其它此種結(jié)構(gòu)。另外,至少一個(gè)處理器可以包括可操作以執(zhí)行上述的一個(gè)或多個(gè)步驟和/或操作的一個(gè)或多個(gè)模塊。當(dāng)用ASIC、FPGA等硬件電路來(lái)實(shí)現(xiàn)圖像處理裝置103時(shí),其可以包括被配置為執(zhí)行各種功能的各種電路塊。本領(lǐng)域技術(shù)人員可以根據(jù)施加在整個(gè)系統(tǒng)上的各種約束條件來(lái)以各種方式設(shè)計(jì)和實(shí)現(xiàn)這些電路,來(lái)實(shí)現(xiàn)本發(fā)明所公開的各種功能。例如,用ASIC、FPGA等硬件電路實(shí)現(xiàn)的圖像處理裝置103可以包括圖像顯著性檢測(cè)電路及/或其它電路模塊,其用來(lái)依據(jù)本文公開的各種圖像顯著性檢測(cè)方案來(lái)對(duì)輸入圖像執(zhí)行圖像顯著性檢測(cè)。本領(lǐng)域技術(shù)人員應(yīng)該可以理解和認(rèn)識(shí)到,本文所述的圖像處理裝置103可選地可以包括除圖像顯著性檢測(cè)電路之外的其它任何可用電路模塊,例如被配置為進(jìn)行邊緣檢測(cè)、圖像配準(zhǔn)、模式識(shí)別的任何電路模塊。以下結(jié)合圖3的流程圖詳細(xì)描述了濾波器電路所實(shí)現(xiàn)的功能。圖像存儲(chǔ)裝置105可以耦合至圖像采集設(shè)備101及/或圖像處理裝置103,以存儲(chǔ)圖像采集設(shè)備101所采集的原始數(shù)據(jù)及/或經(jīng)過圖像處理裝置103處理后的輸出圖像。對(duì)于圖像的顯著性區(qū)域檢測(cè),本質(zhì)上的問題即為決定在一幅圖像的所有像素中哪些屬于顯著區(qū)域,哪些不屬于顯著區(qū)域。為此對(duì)一幅給定的圖像I我們定義A={apix(w,h)},對(duì)任意像素pix(w,h),apix(w,h)G{1,0}表示該像素是否為顯著像素點(diǎn)。對(duì)于一幅尺寸為WXH的圖像,我們用P(w,h)表示坐標(biāo)為(w,h)的像素是否屬于顯著像素的概率,那么P(w,h)G(0,1)。我們針對(duì)的目標(biāo)為通常的自然圖像,對(duì)于一幅含有顯著性區(qū)域的自然圖像,其中的顯著區(qū)域包含了該圖像想要傳達(dá)的大部分信息。當(dāng)然圖像背景對(duì)于整幅圖像內(nèi)容的表達(dá)也有很大貢獻(xiàn),這就像紅花和綠葉的關(guān)系。作為圖像中的單個(gè)像素點(diǎn),不同的像素點(diǎn)含有的能量也是不同的,即P(w,h)不同,因此我們從一些P(w,h)取值較大的像素點(diǎn)開始算法的進(jìn)行。以下描述根據(jù)本發(fā)明的采用改進(jìn)的SUSAN算法的角點(diǎn)檢測(cè)。對(duì)于圖像中像素點(diǎn)的信息含量,一般認(rèn)為在一幅圖像中出現(xiàn)頻率越小的像素取值,其能量越高。而對(duì)于圖像中一些能量較高,信息含量豐富點(diǎn)的檢測(cè)已有多種多樣的方法,比如SUSAN角點(diǎn)(文獻(xiàn)[12]),Harris角點(diǎn)(汶文獻(xiàn)[13]),尺度旋轉(zhuǎn)不變特征點(diǎn)等。在本文的方法中為了減少前期的計(jì)算量,我們使用改進(jìn)的SUSAN角點(diǎn)檢測(cè)的方法獲取圖像中P(w,h)可能會(huì)較大的點(diǎn)。常規(guī)的SUSAN角點(diǎn)檢測(cè)采用一個(gè)圓形模板在圖像中移動(dòng),并在每個(gè)位置上比較模板內(nèi)各像素的亮度與模板核的亮度,比較式如下n,、Jlif\p{r)~p{r0)\<tD{r,r0)=i其中,r0是圓形模板的核心像素點(diǎn),r是圓形模板的其它像素點(diǎn)。pOJ指的是核心像素點(diǎn)的像素值,而P(r)指的就是其它對(duì)應(yīng)像素點(diǎn)的像素值,t是灰度差閾值,D可以被認(rèn)為是判決結(jié)果,其也被稱為SUSAN距離。每個(gè)像素點(diǎn)的USAN區(qū)域大小用式(2)給出咖r(2)然后根據(jù)式(3)可得該像素點(diǎn)的初始角響應(yīng)權(quán)利要求1.ー種方法,包括(a)輸入彩色圖像,所述圖像為L(zhǎng)ab(L為亮度,a和b分別表示色度)顔色空間格式的圖像,其一個(gè)像素的像素值為由L、a、b三個(gè)分量構(gòu)成的矢量;(b)利用SUSAN角點(diǎn)檢測(cè)方法獲取所述圖像的基準(zhǔn)點(diǎn)集合,其中,采用ー個(gè)圓形模板在所述圖像中移動(dòng),并在每個(gè)位置上利用以下公式出)比較所述模板內(nèi)各像素的亮度與模板核的亮度2.如權(quán)利要求I所述的方法,進(jìn)一步包括使用高斯金字塔模型L(X,y,0)=G(x,y,o)*1(x,y),采用尺度集!對(duì)步驟(b)-(f)進(jìn)行多尺度計(jì)算,其中=為高斯核,0為所述尺度因子,XIncr和y為圖像像素坐標(biāo),I(x,y)為坐標(biāo)(x,y)處的像素值,從而獲得在三個(gè)尺寸上的顯著性值SaliencyMap|JaliencyMaPIivSaliencyMap|,^’并且在步驟⑴之后使用以下公式來(lái)獲得最終的顯著性值3.如權(quán)利要求I所述的方法,其中,在步驟(b)中,g取*iV,表示所述模板內(nèi)像素?cái)?shù)量的一半。4.如權(quán)利要求I所述的方法,其中,在步驟(f)中,X=3。5.一種裝置,包括(a)用于輸入彩色圖像的模塊,所述圖像為L(zhǎng)ab(L為亮度,a和b分別表示色度)顔色空間格式的圖像,其一個(gè)像素的像素值為由L、a、b三個(gè)分量構(gòu)成的矢量;(b)用于利用SUSAN角點(diǎn)檢測(cè)方法獲取所述圖像的基準(zhǔn)點(diǎn)集合,其中,采用ー個(gè)圓形模板在所述圖像中移動(dòng),并在每個(gè)位置上利用以下公式出)比較所述模板內(nèi)各像素的亮度與模板核的亮度的模塊I(Px-P)6.一種處理器,其被配置為(a)輸入彩色圖像,所述圖像為L(zhǎng)ab(L為亮度,a和b分別表示色度)顏色空間格式的圖像,其一個(gè)像素的像素值為由L、a、b三個(gè)分量構(gòu)成的矢量;(b)利用SUSAN角點(diǎn)檢測(cè)方法獲取所述圖像的基準(zhǔn)點(diǎn)集合,其中,采用一個(gè)圓形模板在所述圖像中移動(dòng),并在每個(gè)位置上利用以下公式出)比較所述模板內(nèi)各像素的亮度與模板核的亮度7.一種計(jì)算機(jī)程序產(chǎn)品,其包含由處理器執(zhí)行的指令,所述指令當(dāng)由所述處理器執(zhí)行時(shí),使得所述處理器能夠執(zhí)行如權(quán)利要求I或2所述的方法。全文摘要本發(fā)明涉及基于一種從點(diǎn)至面的圖像顯著性檢測(cè)方法、裝置和計(jì)算機(jī)程序產(chǎn)品。文檔編號(hào)G06T7/00GK102800092SQ201210239939公開日2012年11月28日申請(qǐng)日期2012年7月12日優(yōu)先權(quán)日2012年7月12日發(fā)明者張萌萌申請(qǐng)人:北方工業(yè)大學(xué)
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1