国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種用于腦電信號(hào)特征分類的ANFIS規(guī)則庫(kù)優(yōu)化算法的制作方法

      文檔序號(hào):12035159閱讀:694來(lái)源:國(guó)知局
      一種用于腦電信號(hào)特征分類的ANFIS規(guī)則庫(kù)優(yōu)化算法的制作方法與工藝

      本發(fā)明涉及一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法。涉及腦電信號(hào)特征參數(shù)分類算法技術(shù)領(lǐng)域。



      背景技術(shù):

      特征分類是采用模式識(shí)別的方法,建立特征參數(shù)與對(duì)應(yīng)的特征狀態(tài)之間的數(shù)學(xué)模型,并且可以通過該模型對(duì)未知樣本特征狀態(tài)進(jìn)行預(yù)測(cè)的過程。建立良好的穩(wěn)健的模式識(shí)別模型,不僅要對(duì)參與建模的特征參數(shù)進(jìn)行優(yōu)化選擇,還要對(duì)參與建模的樣本進(jìn)行合理的選擇。理想的建模樣本應(yīng)包含待測(cè)樣本中所有的狀態(tài)集合,如基于腦電信號(hào)的睡眠分期檢測(cè)過程中,理想的睡眠樣本應(yīng)包括所有的睡眠狀態(tài)。

      特征參數(shù)分類方法可以分為線性方法和非線性方法。常用的線性方法主要包括主成分回歸、偏最小二乘法等。非線性方法常用的主要有神經(jīng)網(wǎng)絡(luò)和模糊邏輯等。腦電信號(hào)非線性特征非常明顯,因此其特征分類更多采用非線性參數(shù)分類方法。神經(jīng)網(wǎng)絡(luò)和模糊邏輯都具有非常強(qiáng)的非線性映射能力,都可以用來(lái)解決常規(guī)方法難以解決的非線性問題。常見的神經(jīng)網(wǎng)絡(luò)方法主要有bp神經(jīng)網(wǎng)絡(luò)、徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)等。神經(jīng)網(wǎng)絡(luò)雖然可以對(duì)訓(xùn)練樣本進(jìn)行有效的學(xué)習(xí),但對(duì)知識(shí)的抽取和表達(dá)比較困難,而模糊邏輯采用規(guī)則庫(kù)等方法很好地解決了知識(shí)的表達(dá)和抽取,卻無(wú)法對(duì)知識(shí)進(jìn)行直接的學(xué)習(xí)。自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)融合了神經(jīng)網(wǎng)絡(luò)和模糊邏輯的優(yōu)點(diǎn),不僅可以對(duì)樣本進(jìn)行有效的學(xué)習(xí),還可以對(duì)知識(shí)進(jìn)行良好的表達(dá)和抽取。

      anfis系統(tǒng)在進(jìn)行模糊推理時(shí),首先要建立模糊規(guī)則庫(kù),規(guī)則庫(kù)的數(shù)量為所有參數(shù)隸屬度函數(shù)個(gè)數(shù)的乘積。目前,只能依靠經(jīng)驗(yàn)給每個(gè)輸入?yún)?shù)的隸屬度函數(shù)個(gè)數(shù)進(jìn)行設(shè)置,往往無(wú)法達(dá)到較好的訓(xùn)練效果。特別是當(dāng)anfis系統(tǒng)輸入?yún)?shù)較多時(shí),會(huì)導(dǎo)致規(guī)則庫(kù)數(shù)量劇增,嚴(yán)重影響系統(tǒng)的訓(xùn)練和學(xué)習(xí)效率,另一方面參數(shù)較多時(shí),各輸入?yún)?shù)隸屬度函數(shù)的設(shè)置僅憑借經(jīng)驗(yàn)實(shí)施,會(huì)嚴(yán)重影響分類結(jié)果的正確率。

      綜上所述,anfis在進(jìn)行特征參數(shù)分類時(shí),每個(gè)輸入?yún)?shù)的隸屬度函數(shù)設(shè)置以及規(guī)則庫(kù)的建立缺乏參考標(biāo)準(zhǔn),僅憑經(jīng)驗(yàn)進(jìn)行設(shè)置往往達(dá)不到良好的訓(xùn)練效果。



      技術(shù)實(shí)現(xiàn)要素:

      本發(fā)明的目的是為了解決上述現(xiàn)有技術(shù)存在的問題,進(jìn)而提供一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法。

      本發(fā)明的目的是通過以下技術(shù)方案實(shí)現(xiàn)的:

      一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法,步驟如下:

      步驟一、特征參數(shù)編碼:假設(shè)用于特征參數(shù)分類的參數(shù)個(gè)數(shù)為m;輸入隸屬度函數(shù)選擇高斯型,每個(gè)輸入特征參數(shù)至少包含一個(gè)隸屬度函數(shù),每個(gè)輸入特征參數(shù)隸屬度函數(shù)最多為d個(gè),同時(shí)限制規(guī)則庫(kù)的上限為m,設(shè)初始特征向量為x={x1,x2,...,xm};采用真值編碼方式,xi為各特征參數(shù)的隸屬度函數(shù)個(gè)數(shù),且0≤xi≤d-1;

      步驟二、適應(yīng)度函數(shù)設(shè)計(jì):采用式(1)所示適應(yīng)度函數(shù);由于每個(gè)特征參數(shù)至少要包含1個(gè)隸屬度函數(shù),因此在計(jì)算適應(yīng)度函數(shù)時(shí)將每個(gè)初始特征向量x加1,即x={x1+1,x2+1,...,xm+1};

      f(si)=ω×f(si)+(1-ω)×c(si),i=1,2,...,n(1)

      其中,f(si)為第i個(gè)特征參數(shù)編碼的分類精度,c(si)為第i個(gè)特征參數(shù)編碼分類結(jié)果與目標(biāo)結(jié)果的相似系數(shù),ω為調(diào)整系數(shù),取0.6~0.8;

      步驟三、自適應(yīng)交叉與變異:采用式(2)和式(3)所示的交叉概率pc和變異概率pm的自適應(yīng)調(diào)整機(jī)制,產(chǎn)生新的個(gè)體,評(píng)價(jià)其適應(yīng)度值;結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個(gè)數(shù);

      步驟四、采用anfis系統(tǒng)對(duì)校正集樣本進(jìn)行訓(xùn)練學(xué)習(xí),并對(duì)驗(yàn)證集樣本進(jìn)行驗(yàn)證;最后,對(duì)模型進(jìn)行評(píng)價(jià);在模型建立和驗(yàn)證過程中,分類正確率accuracyofclassification,ac如式(4)所示;

      其中,n為校正集或驗(yàn)證集樣本數(shù),nc為分類結(jié)果正確的樣本數(shù)。

      本發(fā)明針對(duì)現(xiàn)有技術(shù)存在的缺陷,提出了一種用于anfis系統(tǒng)規(guī)則庫(kù)的優(yōu)化算法ga-anfis方法,首先采用真值編碼方式對(duì)每個(gè)輸入?yún)?shù)隸屬度函數(shù)個(gè)數(shù)進(jìn)行編碼,當(dāng)規(guī)則庫(kù)數(shù)量,即所有輸入?yún)?shù)隸屬度函數(shù)個(gè)數(shù)的乘積,超過所設(shè)定閾值時(shí),所有輸入?yún)?shù)的隸屬度函數(shù)個(gè)數(shù)等比例縮小并取整;其次,采用計(jì)算當(dāng)前編碼的加權(quán)適應(yīng)度函數(shù)值。隨后,對(duì)當(dāng)前編碼采用自適應(yīng)交叉和變異的方式產(chǎn)生新個(gè)體,評(píng)價(jià)其適應(yīng)度值。結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個(gè)數(shù)。采用遺傳算法(ga)對(duì)每個(gè)輸入?yún)?shù)的隸屬度函數(shù)進(jìn)行合理設(shè)置,同時(shí)還能有效控制規(guī)則庫(kù)的數(shù)量,保證系統(tǒng)的訓(xùn)練學(xué)習(xí)效率。

      附圖說明

      圖1為訓(xùn)練時(shí)間與規(guī)則數(shù)量的關(guān)系曲線圖。

      圖2為各分類方法分類正確率對(duì)比圖。

      具體實(shí)施方式

      下面將結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步的詳細(xì)說明:本實(shí)施例在以本發(fā)明技術(shù)方案為前提下進(jìn)行實(shí)施,給出了詳細(xì)的實(shí)施方式,但本發(fā)明的保護(hù)范圍不限于下述實(shí)施例。

      本實(shí)施例所涉及的一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法,包括以下步驟:

      步驟一、特征參數(shù)編碼:假設(shè)用于特征參數(shù)分類的參數(shù)個(gè)數(shù)為m。輸入隸屬度函數(shù)選擇高斯型,每個(gè)輸入特征參數(shù)至少包含一個(gè)隸屬度函數(shù),每個(gè)輸入特征參數(shù)隸屬度函數(shù)最多為d個(gè),同時(shí)限制規(guī)則庫(kù)的上限為m,設(shè)初始特征向量為x={x1,x2,...,xm}。采用真值編碼方式,xi為各特征參數(shù)的隸屬度函數(shù)個(gè)數(shù),且0≤xi≤d-1。

      步驟二、適應(yīng)度函數(shù)設(shè)計(jì):采用式(1)所述適應(yīng)度函數(shù)。由于每個(gè)特征參數(shù)至少要包含1個(gè)隸屬度函數(shù),因此在計(jì)算適應(yīng)度函數(shù)時(shí)將每個(gè)初始特征向量x加1,即x={x1+1,x2+1,...,xm+1}。

      f(si)=ω×f(si)+(1-ω)×c(si),i=1,2,...,n(1)

      其中,f(si)為第i個(gè)特征參數(shù)編碼的分類精度,c(si)為第i個(gè)特征參數(shù)編碼分類結(jié)果與目標(biāo)結(jié)果的相似系數(shù),ω為調(diào)整系數(shù),一般取0.6~0.8。

      步驟三、自適應(yīng)交叉與變異:采用式(2)和式(3)所示的交叉概率pc和變異概率pm的自適應(yīng)調(diào)整機(jī)制,產(chǎn)生新的個(gè)體,評(píng)價(jià)其適應(yīng)度值。結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個(gè)數(shù)。

      步驟四、采用anfis系統(tǒng)對(duì)校正集樣本進(jìn)行訓(xùn)練學(xué)習(xí),并對(duì)驗(yàn)證集樣本進(jìn)行驗(yàn)證。最后,對(duì)模型進(jìn)行評(píng)價(jià)。在模型建立和驗(yàn)證過程中,分類正確率(accuracyofclassification,ac)如式(4)所示。

      其中,n為校正集或驗(yàn)證集樣本數(shù),nc為分類結(jié)果正確的樣本數(shù)。

      實(shí)驗(yàn)驗(yàn)證:

      為了驗(yàn)證ga-anfis系統(tǒng)的分類效果,以mit-bih多導(dǎo)睡眠數(shù)據(jù)庫(kù)的數(shù)據(jù)為分析對(duì)象,將本發(fā)明分類優(yōu)化算法(ga-anfis)分別與偏最小二乘(pls,partialleastsquares)線性分類算法、最小二乘支持向量機(jī)(ls-svm,leastsquaressupportvectormachines)分類算法以及自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)分類算法進(jìn)行比較,采用基于自適應(yīng)模擬退火遺傳算法的特征參數(shù)選擇方法選出1~25個(gè)特征參數(shù),分別輸入到不同的分類器中。將數(shù)據(jù)庫(kù)中所有樣本分為5份,依次選擇其中4份為訓(xùn)練樣本,剩余1份為驗(yàn)證樣本。輪流執(zhí)行5次,以5次分類結(jié)果正確率的均值作為評(píng)價(jià)特征參數(shù)選擇結(jié)果的標(biāo)準(zhǔn)。

      (1)偏最小二乘(pls)分類結(jié)果

      pls進(jìn)行分類建模的原理是:首先,按照式(5)和式(6)對(duì)特征參數(shù)矩陣x和參考狀態(tài)矩陣y進(jìn)行分解,求取得分矩陣t和u。

      其次,按照式(7)和式(8)對(duì)得分矩陣進(jìn)行線性回歸,建立數(shù)學(xué)模型,對(duì)特征參數(shù)進(jìn)行校正和預(yù)測(cè)。

      u=tb(7)

      b=(ttt)-1tty(8)

      最后,計(jì)算特征參數(shù)矩陣xnew的得分矩陣tnew,并由式(9)預(yù)測(cè)出未知狀態(tài)的特征參數(shù)。

      ynew=tnewbqt(9)

      當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),pls方法的分類正確率如表1所示。

      表1偏最小二乘分類結(jié)果

      (2)最小二乘支持向量機(jī)(ls-svm)分類結(jié)果

      采用徑向基核函數(shù)最小二乘支持向量機(jī),建立睡眠eeg模型,需要確定兩個(gè)參數(shù):正則化參數(shù)γ和內(nèi)核函數(shù)參數(shù)σ2。采用十倍交叉驗(yàn)證方法對(duì)模型參數(shù)進(jìn)行優(yōu)化,依據(jù)最小均方誤差原則(mse)對(duì)模型進(jìn)行訓(xùn)練。當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),ls-svm方法的分類正確率如表2所示。

      表2最小二乘支持向量機(jī)分類結(jié)果

      (3)自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)分類結(jié)果

      采用anfis算法對(duì)數(shù)據(jù)進(jìn)行分類,首先需要對(duì)各輸入?yún)?shù)進(jìn)行隸屬度函數(shù)設(shè)計(jì),建立規(guī)則庫(kù)。由于輸入?yún)?shù)較多,而過多的規(guī)則會(huì)造成訓(xùn)練時(shí)間以指數(shù)的速度上升。以600組訓(xùn)練樣本為例,執(zhí)行一次學(xué)習(xí)運(yùn)算所消耗的時(shí)間與規(guī)則數(shù)量的關(guān)系,即所有參數(shù)隸屬度函數(shù)乘積的關(guān)系如圖1所示。通常根據(jù)輸入?yún)?shù)與輸出參數(shù)的相關(guān)系數(shù)確定輸入?yún)?shù)對(duì)應(yīng)隸屬度函數(shù)的個(gè)數(shù),相關(guān)性強(qiáng)的參數(shù)隸屬度函數(shù)個(gè)數(shù)也相對(duì)較少,而相關(guān)性較弱的需要設(shè)置相對(duì)較多的隸屬度函數(shù)。依此原則,首先按照與睡眠狀態(tài)的相關(guān)系數(shù),將25組特征參數(shù)由小到大順序排列。相關(guān)系數(shù)小的設(shè)置3個(gè)隸屬度函數(shù),相關(guān)系數(shù)大的設(shè)置1個(gè)隸屬度函數(shù)??紤]到圖1中訓(xùn)練時(shí)間與規(guī)則數(shù)量的關(guān)系,規(guī)則數(shù)量上限設(shè)置為150。

      當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),anfis方法的分類正確率如表3所示。

      表3自適應(yīng)模糊神經(jīng)推理系統(tǒng)分類結(jié)果

      (4)ga-anfis系統(tǒng)分類結(jié)果

      設(shè)每個(gè)特征參數(shù)隸屬度函數(shù)最多為3個(gè),最少為1個(gè),規(guī)則庫(kù)個(gè)數(shù)上限為150。當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),經(jīng)過優(yōu)化后的ga-anfis系統(tǒng)的分類正確率如表4所示。

      表4ga優(yōu)化自適應(yīng)模糊神經(jīng)推理系統(tǒng)分類結(jié)果

      圖2為所選出的1~25個(gè)特征參數(shù)采用上述四種分類方法的分類結(jié)果正確率對(duì)比圖。由圖2可知,采用本發(fā)明的ga-anfis系統(tǒng)能夠?yàn)槊總€(gè)輸入?yún)?shù)設(shè)置更為合理的隸屬度函數(shù)個(gè)數(shù),建立優(yōu)化的規(guī)則庫(kù),在輸入相同特征參數(shù)時(shí)的分類正確率得到較大提高。相比于依靠經(jīng)驗(yàn)設(shè)置輸入?yún)?shù)隸屬個(gè)數(shù)的傳統(tǒng)anfis方法,該方法分類效果平均提高了約9.96%;相比于ls-svm分類器的分類效果,則平均提高了5.19%。

      以上所述,僅為本發(fā)明較佳的具體實(shí)施方式,這些具體實(shí)施方式都是基于本發(fā)明整體構(gòu)思下的不同實(shí)現(xiàn)方式,而且本發(fā)明的保護(hù)范圍并不局限于此,任何熟悉本技術(shù)領(lǐng)域的技術(shù)人員在本發(fā)明揭露的技術(shù)范圍內(nèi),可輕易想到的變化或替換,都應(yīng)涵蓋在本發(fā)明的保護(hù)范圍之內(nèi)。因此,本發(fā)明的保護(hù)范圍應(yīng)該以權(quán)利要求書的保護(hù)范圍為準(zhǔn)。

      當(dāng)前第1頁(yè)1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
      1