国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種緊框架Grouplet關(guān)聯(lián)域計(jì)算方法與流程

      文檔序號(hào):11250848閱讀:1049來(lái)源:國(guó)知局
      一種緊框架Grouplet關(guān)聯(lián)域計(jì)算方法與流程

      本發(fā)明涉及一種圖像處理方法,尤其涉及一種緊框架grouplet關(guān)聯(lián)域計(jì)算方法。



      背景技術(shù):

      幾筆線條就可以勾勒出一個(gè)特征很明顯的圖形或者紋理。自然圖像一般都包含由局部方向結(jié)構(gòu)構(gòu)成的區(qū)域。能夠更好的表示圖像中復(fù)雜幾何信息和得到圖像的稀疏表示是圖像處理的關(guān)鍵。

      小波變換可以依據(jù)局部圖像的規(guī)則性來(lái)自適應(yīng)的調(diào)整圖像處理中的分辨率,因而它對(duì)于圖像的表示特別高效。然而小波基在表示幾何結(jié)構(gòu)的圖像上不是最優(yōu)的,因?yàn)樗姆街尾荒茏赃m應(yīng)表示方向幾何屬性。curvelets,contourlets,curvelets,bnadlets,wedgelets先后被提出來(lái)用以改進(jìn)這一問(wèn)題,并在特定的圖像處理應(yīng)用中取得了不錯(cuò)的效果,然而它們?cè)趯?shí)際圖像處理的應(yīng)用中的改進(jìn)并沒(méi)有理論上預(yù)期的效果那么好,可能由于這些圖片的紋理結(jié)構(gòu)過(guò)于復(fù)雜以致于它們的基不能很好的表示圖像。為了克服這個(gè)缺點(diǎn),mallat在2008年提出grouplet變換。這是一種全新的變換,它的基可以隨著圖像在不同尺度下幾何結(jié)構(gòu)的變化而變化,因而可以最大限度的利用圖像的幾何特征。同時(shí),grouplet變換的計(jì)算是簡(jiǎn)單的,它本身的變換方法就是一種快速計(jì)算方法。

      緊框架grouplet分解包含關(guān)聯(lián)域?qū)雍拖禂?shù)層兩個(gè)層的計(jì)算。緊框架grouplet變換中關(guān)聯(lián)域的尋找對(duì)變換的性能有著很大的影響。緊框架grouplet變換采用了blockmatching算法來(lái)尋找關(guān)聯(lián)域,這種方法的好處是它是離散化的,可以精確反映每個(gè)像素點(diǎn)的變化,但是由于需要預(yù)先劃定網(wǎng)格,所以不能自適應(yīng)的根據(jù)圖像結(jié)構(gòu)選取方向,因而不能很好的表示包含復(fù)雜紋理的圖像。



      技術(shù)實(shí)現(xiàn)要素:

      本發(fā)明實(shí)施例所要解決的技術(shù)問(wèn)題在于,提供一種緊框架grouplet關(guān)聯(lián)域計(jì)算方法??山档驮儞Q中blockmatching算法帶來(lái)的高復(fù)雜度,提高了緊框架grouplet變換的效率。

      為了解決上述技術(shù)問(wèn)題,本發(fā)明實(shí)施例提供了一種緊框架grouplet關(guān)聯(lián)域計(jì)算方法,包括以下步驟:

      1)對(duì)輸入的圖像轉(zhuǎn)化為灰度圖;

      2)對(duì)所述灰度圖grouplet分解,計(jì)算第j層系數(shù)層系數(shù),通過(guò)線檢測(cè)算子計(jì)算最優(yōu)匹配點(diǎn)并計(jì)算第j層關(guān)聯(lián)域?qū)酉禂?shù),其中1≤j≤j;

      3)重復(fù)循環(huán)步驟2),直到j(luò)層系數(shù)都計(jì)算完畢,其中j為給定的經(jīng)驗(yàn)值。

      進(jìn)一步地,所述線檢測(cè)算子模板使用的3×3的矩陣。

      更進(jìn)一步地,所述線檢測(cè)算子計(jì)算最優(yōu)匹配點(diǎn)的公式為:

      其中是以為中心二值化后的3×3圖像數(shù)據(jù)矩陣;opi[j]是檢測(cè)方向i的線檢測(cè)算子,i表示集合{+45°,0°,-45°}中的一個(gè)方向;符號(hào)j表示對(duì)應(yīng)矩陣第j個(gè)位置。

      更進(jìn)一步地,所述線檢測(cè)算子計(jì)算最優(yōu)匹配點(diǎn)的步驟為:

      1)在第j層時(shí),以點(diǎn)為中心,選取大小為3×3,像素值構(gòu)成的數(shù)據(jù)矩陣bp,

      2)二值化所述數(shù)據(jù)矩陣bp3×3,記矩陣bp3×3的均值為av,則當(dāng)bpx,y小于為所述均值av時(shí),bpx,y取值0,否則為1,

      3)使用所述線檢測(cè)算子計(jì)算最優(yōu)匹配點(diǎn)的公式求得點(diǎn)最優(yōu)匹配點(diǎn)m,

      4)計(jì)算關(guān)聯(lián)域?qū)酉禂?shù)和系數(shù)層系數(shù){dj[m],aj[m]}1≤j≤j,其中

      關(guān)聯(lián)域?qū)酉禂?shù):

      當(dāng)j從1至j增長(zhǎng)時(shí),系數(shù)層系數(shù)數(shù)值由以下公式更新:

      其中,a[m]表示點(diǎn)m處的均值系數(shù),當(dāng)j=1時(shí),a[m]為點(diǎn)m處的像素值;dj[m]表示點(diǎn)m處的差分系數(shù);s[m]表示點(diǎn)m處支撐框架的大小,當(dāng)j=1時(shí),s[m]=1。當(dāng)j=j(luò)時(shí),aj[m]由公式計(jì)算得到

      5)重復(fù)循環(huán)上述步驟,至1至j層的所有點(diǎn)都匹配完成。

      實(shí)施本發(fā)明實(shí)施例,具有如下有益效果:本發(fā)明的方法降低了blockmatching算法帶來(lái)的高復(fù)雜度,應(yīng)用于緊框架grouplet變換時(shí),將大大節(jié)省變換的時(shí)間,提高效率。

      附圖說(shuō)明

      圖1是本發(fā)明的流程結(jié)構(gòu)示意圖;

      圖2是為-45°,0°,+45°檢測(cè)模板;

      圖3是線檢測(cè)算法與blockmatching算法效果的對(duì)比數(shù)據(jù)。

      具體實(shí)施方式

      為使本發(fā)明的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚,下面將結(jié)合附圖對(duì)本發(fā)明作進(jìn)一步地詳細(xì)描述。

      如圖1所示的流程結(jié)構(gòu)圖。

      本發(fā)明實(shí)施例的一種緊框架grouplet關(guān)聯(lián)域計(jì)算方法,包括以下步驟:①輸入圖像并轉(zhuǎn)化為灰度圖像i;②進(jìn)行g(shù)rouplet分解,計(jì)算j層系數(shù)層系數(shù),通過(guò)線檢測(cè)算子計(jì)算最優(yōu)匹配點(diǎn)并計(jì)算j層關(guān)聯(lián)域?qū)酉禂?shù);③重復(fù)循環(huán)步驟②,直到j(luò)層系數(shù)都計(jì)算完畢。

      對(duì)于大小為m×n的灰度圖i,經(jīng)過(guò)線檢測(cè)算子算法后將得到j(luò)層緊框架grouplet關(guān)聯(lián)域?qū)酉禂?shù)aj和(j+1)系數(shù)層系數(shù){dj[m],aj[m]}1≤j≤j。

      說(shuō)明:(1)ob_n45:大小為3x3的-45°檢測(cè)模板矩陣;ob_0:大小為3x3的0°檢測(cè)模板矩陣;ob_p45:大小為3x3的+45°檢測(cè)模板矩陣;(2)qm,n表示第m行,n列的點(diǎn)q,假設(shè)當(dāng)前點(diǎn)為pm,n,則待匹配的點(diǎn)為qk,(n-1),其中k∈{m-1,m,m+1},從上到下的點(diǎn)依次與模板矩陣ob_n45,ob_0和ob_p45對(duì)應(yīng)。(3)j為緊框架grouplet變換分解總層數(shù);集合{dj[m],aj[m]}1≤j≤j存儲(chǔ)(j+1)層系數(shù)層數(shù)值;矩陣aj存儲(chǔ)第j層關(guān)聯(lián)域?qū)訑?shù)值。如圖2所示。

      具體步驟:

      (1)初始化j=1,{dj[m],aj[m]}1≤j≤j=0,aj=0,m=n=1;

      (2)pm,n為中心,選取數(shù)據(jù)矩陣bp3×3;

      (3)二值化矩陣bp:記矩陣bp的均值為av,則其中正整數(shù)x,y∈[1,3];

      (4)分別將bp與線檢測(cè)模板矩陣ob_n45,ob_0,ob_p45中相應(yīng)數(shù)據(jù)相乘,并將所乘結(jié)果累加后求絕對(duì)值得t1,t2,t3;min{t1,t2,t3}所對(duì)應(yīng)的待匹配點(diǎn)即為匹配點(diǎn)。

      (5)計(jì)算點(diǎn)pm,n處關(guān)聯(lián)域?qū)酉禂?shù)aj(m,n)和系數(shù)層系數(shù){dj[p],aj[p]}1≤j≤j。具體由以下公式獲得,其中點(diǎn)q是點(diǎn)p的最優(yōu)匹配點(diǎn):

      關(guān)聯(lián)域?qū)酉禂?shù):

      aj[p]=q-p

      系數(shù)層系數(shù)數(shù)值由以下公式更新:

      如果m<m,就m=m+1;

      否則

      如果n<n

      就n=n+1;

      m=1;

      否則m=1;n=1;

      j=j(luò)+1;

      如果j>j,結(jié)束循環(huán),得到關(guān)聯(lián)域?qū)酉禂?shù)aj和系數(shù)層系數(shù){dj[m],aj[m]}1≤j≤j否則跳轉(zhuǎn)到步驟(2)。

      實(shí)例在matlabr2014a環(huán)境下測(cè)試,本發(fā)明提出的線檢測(cè)算法計(jì)算出來(lái)的關(guān)聯(lián)域?qū)酉禂?shù)同blockmatching算法一樣,都能表現(xiàn)出原圖像中幾何流的走向。從圖3的對(duì)比數(shù)據(jù)中可以明顯發(fā)現(xiàn),在不明顯損失系數(shù)層系數(shù)稀疏度,而且可以完美重建原始圖像的前提下,本發(fā)明提出的線檢測(cè)算子匹配算法所需時(shí)間都要明顯低于使用blockmatching算法的時(shí)間。

      以上所揭露的僅為本發(fā)明一種較佳實(shí)施例而已,當(dāng)然不能以此來(lái)限定本發(fā)明之權(quán)利范圍,因此依本發(fā)明權(quán)利要求所作的等同變化,仍屬本發(fā)明所涵蓋的范圍。

      當(dāng)前第1頁(yè)1 2 
      網(wǎng)友詢問(wèn)留言 已有0條留言
      • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1