国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種大容量的模式識別方法

      文檔序號:6581194閱讀:160來源:國知局
      專利名稱:一種大容量的模式識別方法
      技術(shù)領(lǐng)域
      本發(fā)明涉及大容量模式或圖像高效識別方法,屬圖像處理技術(shù)領(lǐng)域。
      背景技術(shù)
      模式識別誕生于20世紀20年代,隨著40年代計算機的出現(xiàn),50年代人工智能的興起,模式識別迅速發(fā)展成為一門學科,它所研究的理論和方法在很多科學和技術(shù)領(lǐng)域中得到了廣泛應(yīng)用,其領(lǐng)域涉及到人工智能,計算機工程,機器人學習,神經(jīng)生物學,醫(yī)學,偵探學,宇航科學等。但是,在這些傳統(tǒng)模式中,存儲容量是非常有限的,而在現(xiàn)實生活中識別都是大容量的圖像或模式,因此許多復(fù)雜的現(xiàn)實問題根本無法解決。這就促使研究人員一直在探索新的方法。近年來,模式識別與其他學科,比如模糊集理論、神經(jīng)網(wǎng)絡(luò)、量子計算等結(jié)合產(chǎn)生了一些新型的模式識別方法,并且迅速成為模式識別的研究熱點。

      發(fā)明內(nèi)容
      本發(fā)明的目的是,設(shè)計一種模式或圖像矩陣元素以概率分布存儲的大容量高效模式識別方法,從而解決傳統(tǒng)模式識別速度和效率不高,不適合識別大量圖像或模式的缺點。
      本發(fā)明的設(shè)計思想為 本發(fā)明借鑒量子計算的核心思想,設(shè)計一種圖像矩陣元素概率存儲方法,該方法的存儲容量以及識別效率較傳統(tǒng)方法有了指數(shù)級的提高。該方法有兩個突出的特點(l)一個N元素的矩陣在該方法下可同時存儲2N個模式或圖像,存儲容量相對于傳統(tǒng)的存儲器有了指數(shù)級的提高。這是因為一個元素可以同時存儲兩個數(shù)據(jù),所以一個N元矩陣可以存儲2W個數(shù)據(jù)。(2)由于圖像矩陣的疊加、糾纏等特性,使得計算能夠?qū)崿F(xiàn)并行運算,可大大加快計算速度。正是對圖像存儲施行了這種效率存儲改造,真正實現(xiàn)了高效并行運算。
      本發(fā)明的技術(shù)方案,是一種采用權(quán)值矩陣元素基于概率分布存儲的模式識別方法。該方法根據(jù)圖像狀態(tài)或向量構(gòu)成的矩陣,通過么正演化來確定權(quán)值,設(shè)計矩陣元素以概率分布存儲的模式識別器,當輸入一個外界待識別的模式時,經(jīng)過測量就可以以一定的概率坍縮到它的一個存儲模式或圖像中,這樣即實現(xiàn)了模式識別的功能。 所述方法將W的矩陣元素Wi, j設(shè)計成一種隨機變量或隨機數(shù)值,根據(jù)Wi, j的數(shù)值大小在一個坐標軸上分成若干等份,^,&,…Xn,劃分的原則是使得每個矩陣元素值(可能有相同的元素值)要屬于不同的等分區(qū)間內(nèi),理論上說區(qū)間越小分類越精確。設(shè)矩陣元素Wi,j
      取值Xi的概率為Pi,j,那么取值Xw的概率為l-Pi,j。其中Pi,j= (Xwii,j)/(Ui)。
      所述方法確定需要處理的Wi, j的元素的個數(shù),即為處理單元的個數(shù)N,和Wi, j取值
      為Xi(概率為Pi,j)或取值為X^(概率為l-Pi,j)的任意排列。因為每個Wi,j只有兩個不
      同的取值,所以就可以構(gòu)成2w個不同的Wi,Wi即為存儲在網(wǎng)絡(luò)中的圖像或模式。 所述方法計算輸入模式被識別為Wi的概率Pi,根據(jù)矩陣的性質(zhì),可由概率Pi,j來
      構(gòu)成概率矩陣,其矩陣的范數(shù)(ttk,卩除以矩陣的非對角元素的總數(shù)(N(N-1))乘以2W—1等于1。艮卩、fi iik卜i所以^ i ki 2飼。
      具體實現(xiàn)該方法的步驟如下 (1)將所需識別的模式或圖像向量正交化為了滿足么正性,要求提供的圖像或模式向量需是正交向量,由于一般情況下它們不是正交的,所以必需變換成正交向量;
      (2)計算模式或圖像的權(quán)值矩陣W :根據(jù)提供的模式或圖像來計算權(quán)值矩陣W ;
      (3)根據(jù)矩陣的特征選擇需要處理的矩陣元素Wi,j :我們對W中對角線上的數(shù)值并不關(guān)心,且W又是對稱矩陣,根據(jù)需要選擇要處理的矩陣元素; (4)將W的矩陣元素設(shè)計成一種隨機變量或隨機數(shù)值根據(jù)Wi, j的數(shù)值大小在一個坐標軸上分成若干等份,將W的矩陣元素Wi, j看成是一種隨機變量或隨機數(shù)值,即Wi, j既有可能以某一概率取其區(qū)間左邊值,又可能取區(qū)間右邊值; (5)權(quán)值矩陣疊加表示將權(quán)值矩陣表示為,=;A^; (6)計算輸入圖像被識別為Wi的概率Pi :矩陣的范數(shù)(ZZI/^P除以矩陣的非對
      角元素的總數(shù)(N(N-l))乘以2N—1等于l,分別求出概率幅Pi ; (7)模式識別訓練后輸入的待識別圖像就是經(jīng)測量坍縮到不同的Wi,從而達到圖像識別的目的。 本發(fā)明與已有技術(shù)比較的有益效果是,本發(fā)明采用存儲矩陣W中元素的概率分布來構(gòu)造存儲模式的線性疊加,當輸入一個模式時,經(jīng)過比較將以較高概率落在矩陣W的一個線性分量上,從而達到識別模式的目的。傳統(tǒng)存儲的模式或圖像數(shù)一般為P = 0. 14N,N為處理單元的個數(shù),P為存儲的模式數(shù)。本發(fā)明中的方法采用矩陣元素概率分布存儲,識別的模式或圖像能達到處理單元的2M咅,存儲容量或記憶容量有了指數(shù)級的提高。本發(fā)明的方法對促進模式識別、圖像處理、人腦意識和高級智能機器人等的研究都將有重大科學意義。
      本發(fā)明適用于大容量模式或圖象的識別。


      圖1是大容量模式高效識別方法的流程 圖2是根據(jù)Wi, j劃分坐標軸示意 圖3是仿真時輸入模式或圖像;
      圖4是仿真時輸出模式或圖像。
      具體實施例方式
      本發(fā)明實施例為一種采用權(quán)值矩陣元素基于概率分布存儲的模式識別方法。首先根據(jù)提供的模式或圖像計算權(quán)值矩陣W,將計算得到的權(quán)值矩陣W中的元素設(shè)計成一種隨機變量或隨機數(shù)值,如圖2,在此基礎(chǔ)上構(gòu)造存儲模式的線性疊加。具體步驟如圖l流程圖所示。 根據(jù)線性疊加,權(quán)值可以寫為<formula>formula see original document page 5</formula><formula>formula see original document page 5</formula>(1) Pi是W坍縮到Wi的概率(滿足歸一化條件;^'=1) ;Ps是存儲的模式或圖像總
      數(shù),也是能夠識別的模式或圖像總數(shù);當輸入一個外界待識別的模式時,經(jīng)過測量就可以以
      一定的概率坍縮到它的一個存儲模式或圖像中,這樣即實現(xiàn)了圖像識別的功能。 本發(fā)明設(shè)計了一仿真實驗來檢測所提出的大容量模式高效識別方法的性能。圖3,
      圖4分別是仿真輸入和輸出的結(jié)果。 該方法在分析了線性疊加特性的基礎(chǔ)上,提出了一種存儲矩陣元素基于概率分布的模式識別器,它在存儲容量或記憶容量上提高到了處理單元個數(shù)的2N倍,比傳統(tǒng)方法有了指數(shù)級的提高,其方法為 1.)計算模式或圖像的權(quán)值矩陣W :根據(jù)提供的模式或圖像來計算權(quán)值矩陣W。為了滿足么正性,要求提供的模式或圖像向量需是正交向量,由于一般情況下它們不是正交的,所以必需變換成正交向量,其變換可以采用Gram-Schmidt正交化方法進行;
      2.)將W的矩陣元素Wi, j設(shè)計成一種隨機變量或隨機數(shù)值將W的矩陣元素Wi, j看成是一種隨機變量或隨機數(shù)值,根據(jù)Wi, j的數(shù)值大小在一個坐標軸上分成若干等份,Xl,x2,…Xn劃分的原則是使得每個矩陣元素值(可能有相同的元素值)要屬于不同的等分區(qū)間內(nèi),理論上說區(qū)間越小分類越精確。設(shè)矩陣元素Wi,j取值Xi的概率為Pi,j,那么取值X^的概率為卜Pi,j。其中Pi,j= (Xwii,j)/(Xi+「Xi); 3.)根據(jù)需要處理Wi, j元素的個數(shù),即處理單元個數(shù)N :根據(jù)需要處理的Wi, j的元素的個數(shù),即為處理單元的個數(shù)N,和Wi,j取值為Xi(概率為Pi,j)或取值為xw(概率為1-P i, j)的任意排列,因為每個Wi, j只有兩個不同的取值,所以就可以構(gòu)成2N個不同的Wi,Wi即為存儲在網(wǎng)絡(luò)中的模式或圖像,輸入的待識別圖像就是經(jīng)測量坍縮到不同的Wi,從而達到模式識別的目的。從這里可以看出有N個元素的矩陣可以識別2W個模式。識別容量,即存儲容量比傳統(tǒng)方法有了指數(shù)級的提高; 4.)計算輸入圖像被識別為Wi的概率Pi :根據(jù)矩陣的性質(zhì),可由概率P i, j來構(gòu)成概率矩陣,其矩陣的范數(shù)(t力A,」)除以矩陣的非對角元素的總數(shù)(N(N-l))乘以2"—,于
      i.即 本發(fā)明的具體方法為 第一步計算模式或圖像的權(quán)值矩陣W 設(shè)表示模式的向量集有N個向量^ , V2,......Vn。為了滿足么正性,要求提供的模
      式或圖像向量需是正交向量,由于一般情況下它們不是正交的,所以必需變換成正交向量,其變換可以采用Gram-Schmidt正交化方法進行權(quán)值矩陣可由(1)式得出<formula>formula see original document page 6</formula> 將矩陣W中的元素看成是隨機變量,我們對W中對角線上的數(shù)值并不關(guān)心,而由于W又是對稱矩陣,因此需要在坐標軸上來確定其位置的元素遠遠少于權(quán)值矩陣元素。
      第二步將W的矩陣元素Wi, j設(shè)計成一種隨機變量或隨機數(shù)值 將W的矩陣元素Wi, j看成是一種隨機變量或隨機數(shù)值,即根據(jù)Wi, j的數(shù)值大小在一個坐標軸上分成若干等份A, x2,…x后,Wi, j既有可能以某一概率取其區(qū)間左邊值,又可能取區(qū)間右邊值。坐標軸劃分的原則是使得每個矩陣元素值(可能有相同的元素值)要
      屬于不同的等分區(qū)間內(nèi),理論上說區(qū)間越小分類越精確。設(shè)矩陣元素Wi,j取值Xi的概率為
      Pi,j,那么取值Xw的概率為l-Pi,j,其中Pi,j= (Xwii,j)/(Xw-Xi)。這樣每個Wi,j有兩個不同的取值,根據(jù)需要確定要處理的Wi,j個數(shù)后,就可以構(gòu)成2w個不同的Wi,Wi即為模式或圖像 第三步計算輸入圖像被識別為Wi的概率Pi 在第二步中根據(jù)需要確定了需要處理元素個數(shù)N,并構(gòu)成了2w個不同的Wi,根據(jù)矩陣的性質(zhì),可由概率Pi,j來構(gòu)成概率矩陣,其矩陣的范數(shù)(^tl/^l)除以矩陣的非對角元素的總數(shù)(N-(N-l))乘以2H等于1.艮卩<formula>formula see original document page 6</formula>
      所以 等號兩邊的i不是相同的變量[OO49] 那么由(2)式可得 訓練后輸入的待識別模式就是經(jīng)測量以概率Pi坍縮到不同的Wi,從而達到模式識別的目的。
      權(quán)利要求
      一種大容量高效率的模式識別方法,其特征在于,所述方法采用權(quán)值矩陣元素基于概率分布存儲的模式識別,所述方法將W的矩陣元素wi,j設(shè)計成一種隨機變量或隨機數(shù)值,根據(jù)wi,j的數(shù)值大小在一個坐標軸上分成若干等份,X1,X2,…Xn,劃分的原則是使得每個矩陣元素值(可能有相同的元素值)要屬于不同的等分區(qū)間內(nèi),設(shè)矩陣元素wi,j取值Xi的概率為ρi,j,那么取值Xj+1的概率為1-ρi,j,其中ρi,j=(Xi+1-wi,j)/(Xi+1-Xi)。
      2. 根據(jù)權(quán)利要求1所述的一種大容量高效率的模式識別方法,其特征在于,所述方法 確定需要處理的的元素的個數(shù),即為處理單元的個數(shù)N,和Wi,j取值為Xi (概率為P i,j)或取值為Xw(概率為l-Pi,j)的任意排列,因為每個Wi,j只有兩個不同的取值,所以就可以構(gòu)成2N個不同的Wi, Wi即為存儲在網(wǎng)絡(luò)中的圖像或模式。
      3. 根據(jù)權(quán)利要求1所述一種大容量高效率的模式識別方法,其特征在于,所述方法 計算輸入模式被識別為Wi的概率Pi,根據(jù)矩陣的性質(zhì),可由概率Pi,j來構(gòu)成概率矩陣,其矩陣的范數(shù)(Z藝lA」)除以矩陣的非對角元素的總數(shù)(N(N-l))乘以2^工等于1,即<formula>formula see original document page 2</formula>
      全文摘要
      一種大容量高效率的模式識別方法,屬圖像處理技術(shù)領(lǐng)域。所述方法采用權(quán)值矩陣元素基于概率分布存儲的模式識別,所述方法根據(jù)提供的模式或圖像來計算權(quán)值矩陣W;將W的矩陣元素wi,j設(shè)計成一種隨機變量或隨機數(shù)值,根據(jù)需要處理wi,j元素的個數(shù),構(gòu)成2N個不同的Wi,訓練后輸入的待識別模式或圖像就是經(jīng)測量坍縮到不同的Wi,從而達到大容量模式識別的目的。本發(fā)明中的方法采用矩陣元素概率分布存儲,識別的模式或圖像能達到處理單元的2N倍,存儲容量或記憶容量有了指數(shù)級的提高。本發(fā)明的方法對促進模式識別、圖像處理、人腦意識和高級智能機器人等的研究都將有重大科學意義。本發(fā)明適用于大容量模式或圖象的識別。
      文檔編號G06K9/62GK101739565SQ20091018661
      公開日2010年6月16日 申請日期2009年12月4日 優(yōu)先權(quán)日2009年12月4日
      發(fā)明者周日貴 申請人:華東交通大學
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1