本發(fā)明涉及一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法。涉及腦電信號(hào)特征參數(shù)分類算法技術(shù)領(lǐng)域。
背景技術(shù):
特征分類是采用模式識(shí)別的方法,建立特征參數(shù)與對(duì)應(yīng)的特征狀態(tài)之間的數(shù)學(xué)模型,并且可以通過該模型對(duì)未知樣本特征狀態(tài)進(jìn)行預(yù)測(cè)的過程。建立良好的穩(wěn)健的模式識(shí)別模型,不僅要對(duì)參與建模的特征參數(shù)進(jìn)行優(yōu)化選擇,還要對(duì)參與建模的樣本進(jìn)行合理的選擇。理想的建模樣本應(yīng)包含待測(cè)樣本中所有的狀態(tài)集合,如基于腦電信號(hào)的睡眠分期檢測(cè)過程中,理想的睡眠樣本應(yīng)包括所有的睡眠狀態(tài)。
特征參數(shù)分類方法可以分為線性方法和非線性方法。常用的線性方法主要包括主成分回歸、偏最小二乘法等。非線性方法常用的主要有神經(jīng)網(wǎng)絡(luò)和模糊邏輯等。腦電信號(hào)非線性特征非常明顯,因此其特征分類更多采用非線性參數(shù)分類方法。神經(jīng)網(wǎng)絡(luò)和模糊邏輯都具有非常強(qiáng)的非線性映射能力,都可以用來(lái)解決常規(guī)方法難以解決的非線性問題。常見的神經(jīng)網(wǎng)絡(luò)方法主要有bp神經(jīng)網(wǎng)絡(luò)、徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)等。神經(jīng)網(wǎng)絡(luò)雖然可以對(duì)訓(xùn)練樣本進(jìn)行有效的學(xué)習(xí),但對(duì)知識(shí)的抽取和表達(dá)比較困難,而模糊邏輯采用規(guī)則庫(kù)等方法很好地解決了知識(shí)的表達(dá)和抽取,卻無(wú)法對(duì)知識(shí)進(jìn)行直接的學(xué)習(xí)。自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)融合了神經(jīng)網(wǎng)絡(luò)和模糊邏輯的優(yōu)點(diǎn),不僅可以對(duì)樣本進(jìn)行有效的學(xué)習(xí),還可以對(duì)知識(shí)進(jìn)行良好的表達(dá)和抽取。
anfis系統(tǒng)在進(jìn)行模糊推理時(shí),首先要建立模糊規(guī)則庫(kù),規(guī)則庫(kù)的數(shù)量為所有參數(shù)隸屬度函數(shù)個(gè)數(shù)的乘積。目前,只能依靠經(jīng)驗(yàn)給每個(gè)輸入?yún)?shù)的隸屬度函數(shù)個(gè)數(shù)進(jìn)行設(shè)置,往往無(wú)法達(dá)到較好的訓(xùn)練效果。特別是當(dāng)anfis系統(tǒng)輸入?yún)?shù)較多時(shí),會(huì)導(dǎo)致規(guī)則庫(kù)數(shù)量劇增,嚴(yán)重影響系統(tǒng)的訓(xùn)練和學(xué)習(xí)效率,另一方面參數(shù)較多時(shí),各輸入?yún)?shù)隸屬度函數(shù)的設(shè)置僅憑借經(jīng)驗(yàn)實(shí)施,會(huì)嚴(yán)重影響分類結(jié)果的正確率。
綜上所述,anfis在進(jìn)行特征參數(shù)分類時(shí),每個(gè)輸入?yún)?shù)的隸屬度函數(shù)設(shè)置以及規(guī)則庫(kù)的建立缺乏參考標(biāo)準(zhǔn),僅憑經(jīng)驗(yàn)進(jìn)行設(shè)置往往達(dá)不到良好的訓(xùn)練效果。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明的目的是為了解決上述現(xiàn)有技術(shù)存在的問題,進(jìn)而提供一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法。
本發(fā)明的目的是通過以下技術(shù)方案實(shí)現(xiàn)的:
一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法,步驟如下:
步驟一、特征參數(shù)編碼:假設(shè)用于特征參數(shù)分類的參數(shù)個(gè)數(shù)為m;輸入隸屬度函數(shù)選擇高斯型,每個(gè)輸入特征參數(shù)至少包含一個(gè)隸屬度函數(shù),每個(gè)輸入特征參數(shù)隸屬度函數(shù)最多為d個(gè),同時(shí)限制規(guī)則庫(kù)的上限為m,設(shè)初始特征向量為x={x1,x2,...,xm};采用真值編碼方式,xi為各特征參數(shù)的隸屬度函數(shù)個(gè)數(shù),且0≤xi≤d-1;
步驟二、適應(yīng)度函數(shù)設(shè)計(jì):采用式(1)所示適應(yīng)度函數(shù);由于每個(gè)特征參數(shù)至少要包含1個(gè)隸屬度函數(shù),因此在計(jì)算適應(yīng)度函數(shù)時(shí)將每個(gè)初始特征向量x加1,即x={x1+1,x2+1,...,xm+1};
f(si)=ω×f(si)+(1-ω)×c(si),i=1,2,...,n(1)
其中,f(si)為第i個(gè)特征參數(shù)編碼的分類精度,c(si)為第i個(gè)特征參數(shù)編碼分類結(jié)果與目標(biāo)結(jié)果的相似系數(shù),ω為調(diào)整系數(shù),取0.6~0.8;
步驟三、自適應(yīng)交叉與變異:采用式(2)和式(3)所示的交叉概率pc和變異概率pm的自適應(yīng)調(diào)整機(jī)制,產(chǎn)生新的個(gè)體,評(píng)價(jià)其適應(yīng)度值;結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個(gè)數(shù);
步驟四、采用anfis系統(tǒng)對(duì)校正集樣本進(jìn)行訓(xùn)練學(xué)習(xí),并對(duì)驗(yàn)證集樣本進(jìn)行驗(yàn)證;最后,對(duì)模型進(jìn)行評(píng)價(jià);在模型建立和驗(yàn)證過程中,分類正確率accuracyofclassification,ac如式(4)所示;
其中,n為校正集或驗(yàn)證集樣本數(shù),nc為分類結(jié)果正確的樣本數(shù)。
本發(fā)明針對(duì)現(xiàn)有技術(shù)存在的缺陷,提出了一種用于anfis系統(tǒng)規(guī)則庫(kù)的優(yōu)化算法ga-anfis方法,首先采用真值編碼方式對(duì)每個(gè)輸入?yún)?shù)隸屬度函數(shù)個(gè)數(shù)進(jìn)行編碼,當(dāng)規(guī)則庫(kù)數(shù)量,即所有輸入?yún)?shù)隸屬度函數(shù)個(gè)數(shù)的乘積,超過所設(shè)定閾值時(shí),所有輸入?yún)?shù)的隸屬度函數(shù)個(gè)數(shù)等比例縮小并取整;其次,采用計(jì)算當(dāng)前編碼的加權(quán)適應(yīng)度函數(shù)值。隨后,對(duì)當(dāng)前編碼采用自適應(yīng)交叉和變異的方式產(chǎn)生新個(gè)體,評(píng)價(jià)其適應(yīng)度值。結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個(gè)數(shù)。采用遺傳算法(ga)對(duì)每個(gè)輸入?yún)?shù)的隸屬度函數(shù)進(jìn)行合理設(shè)置,同時(shí)還能有效控制規(guī)則庫(kù)的數(shù)量,保證系統(tǒng)的訓(xùn)練學(xué)習(xí)效率。
附圖說明
圖1為訓(xùn)練時(shí)間與規(guī)則數(shù)量的關(guān)系曲線圖。
圖2為各分類方法分類正確率對(duì)比圖。
具體實(shí)施方式
下面將結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步的詳細(xì)說明:本實(shí)施例在以本發(fā)明技術(shù)方案為前提下進(jìn)行實(shí)施,給出了詳細(xì)的實(shí)施方式,但本發(fā)明的保護(hù)范圍不限于下述實(shí)施例。
本實(shí)施例所涉及的一種用于腦電信號(hào)特征分類的anfis規(guī)則庫(kù)優(yōu)化算法,包括以下步驟:
步驟一、特征參數(shù)編碼:假設(shè)用于特征參數(shù)分類的參數(shù)個(gè)數(shù)為m。輸入隸屬度函數(shù)選擇高斯型,每個(gè)輸入特征參數(shù)至少包含一個(gè)隸屬度函數(shù),每個(gè)輸入特征參數(shù)隸屬度函數(shù)最多為d個(gè),同時(shí)限制規(guī)則庫(kù)的上限為m,設(shè)初始特征向量為x={x1,x2,...,xm}。采用真值編碼方式,xi為各特征參數(shù)的隸屬度函數(shù)個(gè)數(shù),且0≤xi≤d-1。
步驟二、適應(yīng)度函數(shù)設(shè)計(jì):采用式(1)所述適應(yīng)度函數(shù)。由于每個(gè)特征參數(shù)至少要包含1個(gè)隸屬度函數(shù),因此在計(jì)算適應(yīng)度函數(shù)時(shí)將每個(gè)初始特征向量x加1,即x={x1+1,x2+1,...,xm+1}。
f(si)=ω×f(si)+(1-ω)×c(si),i=1,2,...,n(1)
其中,f(si)為第i個(gè)特征參數(shù)編碼的分類精度,c(si)為第i個(gè)特征參數(shù)編碼分類結(jié)果與目標(biāo)結(jié)果的相似系數(shù),ω為調(diào)整系數(shù),一般取0.6~0.8。
步驟三、自適應(yīng)交叉與變異:采用式(2)和式(3)所示的交叉概率pc和變異概率pm的自適應(yīng)調(diào)整機(jī)制,產(chǎn)生新的個(gè)體,評(píng)價(jià)其適應(yīng)度值。結(jié)合收斂條件,判斷循環(huán)是否終止,最終確定各參數(shù)的最佳隸屬度函數(shù)個(gè)數(shù)。
步驟四、采用anfis系統(tǒng)對(duì)校正集樣本進(jìn)行訓(xùn)練學(xué)習(xí),并對(duì)驗(yàn)證集樣本進(jìn)行驗(yàn)證。最后,對(duì)模型進(jìn)行評(píng)價(jià)。在模型建立和驗(yàn)證過程中,分類正確率(accuracyofclassification,ac)如式(4)所示。
其中,n為校正集或驗(yàn)證集樣本數(shù),nc為分類結(jié)果正確的樣本數(shù)。
實(shí)驗(yàn)驗(yàn)證:
為了驗(yàn)證ga-anfis系統(tǒng)的分類效果,以mit-bih多導(dǎo)睡眠數(shù)據(jù)庫(kù)的數(shù)據(jù)為分析對(duì)象,將本發(fā)明分類優(yōu)化算法(ga-anfis)分別與偏最小二乘(pls,partialleastsquares)線性分類算法、最小二乘支持向量機(jī)(ls-svm,leastsquaressupportvectormachines)分類算法以及自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)分類算法進(jìn)行比較,采用基于自適應(yīng)模擬退火遺傳算法的特征參數(shù)選擇方法選出1~25個(gè)特征參數(shù),分別輸入到不同的分類器中。將數(shù)據(jù)庫(kù)中所有樣本分為5份,依次選擇其中4份為訓(xùn)練樣本,剩余1份為驗(yàn)證樣本。輪流執(zhí)行5次,以5次分類結(jié)果正確率的均值作為評(píng)價(jià)特征參數(shù)選擇結(jié)果的標(biāo)準(zhǔn)。
(1)偏最小二乘(pls)分類結(jié)果
pls進(jìn)行分類建模的原理是:首先,按照式(5)和式(6)對(duì)特征參數(shù)矩陣x和參考狀態(tài)矩陣y進(jìn)行分解,求取得分矩陣t和u。
其次,按照式(7)和式(8)對(duì)得分矩陣進(jìn)行線性回歸,建立數(shù)學(xué)模型,對(duì)特征參數(shù)進(jìn)行校正和預(yù)測(cè)。
u=tb(7)
b=(ttt)-1tty(8)
最后,計(jì)算特征參數(shù)矩陣xnew的得分矩陣tnew,并由式(9)預(yù)測(cè)出未知狀態(tài)的特征參數(shù)。
ynew=tnewbqt(9)
當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),pls方法的分類正確率如表1所示。
表1偏最小二乘分類結(jié)果
(2)最小二乘支持向量機(jī)(ls-svm)分類結(jié)果
采用徑向基核函數(shù)最小二乘支持向量機(jī),建立睡眠eeg模型,需要確定兩個(gè)參數(shù):正則化參數(shù)γ和內(nèi)核函數(shù)參數(shù)σ2。采用十倍交叉驗(yàn)證方法對(duì)模型參數(shù)進(jìn)行優(yōu)化,依據(jù)最小均方誤差原則(mse)對(duì)模型進(jìn)行訓(xùn)練。當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),ls-svm方法的分類正確率如表2所示。
表2最小二乘支持向量機(jī)分類結(jié)果
(3)自適應(yīng)模糊神經(jīng)推理系統(tǒng)(anfis)分類結(jié)果
采用anfis算法對(duì)數(shù)據(jù)進(jìn)行分類,首先需要對(duì)各輸入?yún)?shù)進(jìn)行隸屬度函數(shù)設(shè)計(jì),建立規(guī)則庫(kù)。由于輸入?yún)?shù)較多,而過多的規(guī)則會(huì)造成訓(xùn)練時(shí)間以指數(shù)的速度上升。以600組訓(xùn)練樣本為例,執(zhí)行一次學(xué)習(xí)運(yùn)算所消耗的時(shí)間與規(guī)則數(shù)量的關(guān)系,即所有參數(shù)隸屬度函數(shù)乘積的關(guān)系如圖1所示。通常根據(jù)輸入?yún)?shù)與輸出參數(shù)的相關(guān)系數(shù)確定輸入?yún)?shù)對(duì)應(yīng)隸屬度函數(shù)的個(gè)數(shù),相關(guān)性強(qiáng)的參數(shù)隸屬度函數(shù)個(gè)數(shù)也相對(duì)較少,而相關(guān)性較弱的需要設(shè)置相對(duì)較多的隸屬度函數(shù)。依此原則,首先按照與睡眠狀態(tài)的相關(guān)系數(shù),將25組特征參數(shù)由小到大順序排列。相關(guān)系數(shù)小的設(shè)置3個(gè)隸屬度函數(shù),相關(guān)系數(shù)大的設(shè)置1個(gè)隸屬度函數(shù)??紤]到圖1中訓(xùn)練時(shí)間與規(guī)則數(shù)量的關(guān)系,規(guī)則數(shù)量上限設(shè)置為150。
當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),anfis方法的分類正確率如表3所示。
表3自適應(yīng)模糊神經(jīng)推理系統(tǒng)分類結(jié)果
(4)ga-anfis系統(tǒng)分類結(jié)果
設(shè)每個(gè)特征參數(shù)隸屬度函數(shù)最多為3個(gè),最少為1個(gè),規(guī)則庫(kù)個(gè)數(shù)上限為150。當(dāng)特征參數(shù)維數(shù)為5、10、15、20和25時(shí),經(jīng)過優(yōu)化后的ga-anfis系統(tǒng)的分類正確率如表4所示。
表4ga優(yōu)化自適應(yīng)模糊神經(jīng)推理系統(tǒng)分類結(jié)果
圖2為所選出的1~25個(gè)特征參數(shù)采用上述四種分類方法的分類結(jié)果正確率對(duì)比圖。由圖2可知,采用本發(fā)明的ga-anfis系統(tǒng)能夠?yàn)槊總€(gè)輸入?yún)?shù)設(shè)置更為合理的隸屬度函數(shù)個(gè)數(shù),建立優(yōu)化的規(guī)則庫(kù),在輸入相同特征參數(shù)時(shí)的分類正確率得到較大提高。相比于依靠經(jīng)驗(yàn)設(shè)置輸入?yún)?shù)隸屬個(gè)數(shù)的傳統(tǒng)anfis方法,該方法分類效果平均提高了約9.96%;相比于ls-svm分類器的分類效果,則平均提高了5.19%。
以上所述,僅為本發(fā)明較佳的具體實(shí)施方式,這些具體實(shí)施方式都是基于本發(fā)明整體構(gòu)思下的不同實(shí)現(xiàn)方式,而且本發(fā)明的保護(hù)范圍并不局限于此,任何熟悉本技術(shù)領(lǐng)域的技術(shù)人員在本發(fā)明揭露的技術(shù)范圍內(nèi),可輕易想到的變化或替換,都應(yīng)涵蓋在本發(fā)明的保護(hù)范圍之內(nèi)。因此,本發(fā)明的保護(hù)范圍應(yīng)該以權(quán)利要求書的保護(hù)范圍為準(zhǔn)。