国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      一種數(shù)據(jù)庫系統(tǒng)日志解析與處理分析方法與流程

      文檔序號:40282651發(fā)布日期:2024-12-11 13:24閱讀:13來源:國知局
      一種數(shù)據(jù)庫系統(tǒng)日志解析與處理分析方法與流程

      本發(fā)明屬于數(shù)據(jù)處理,具體涉及一種數(shù)據(jù)庫系統(tǒng)日志解析與處理分析方法。


      背景技術(shù):

      1、隨著信息技術(shù)的快速發(fā)展,數(shù)據(jù)庫系統(tǒng)在組織和個人的日常運(yùn)作中扮演著越來越重要的角色。這些系統(tǒng)產(chǎn)生的大量操作日志包含了豐富的操作信息,如查詢語句、執(zhí)行時間、用戶信息及對數(shù)據(jù)庫結(jié)構(gòu)的更改等。然而,這些日志數(shù)據(jù)的規(guī)模龐大且復(fù)雜,傳統(tǒng)的日志分析方法難以有效處理和分析,尤其是在實時監(jiān)控和安全威脅識別方面。

      2、針對該問題,申請?zhí)枮閏n202010886796.0的中國發(fā)明專利提出一種基于機(jī)器學(xué)習(xí)的應(yīng)用程序控制方法和系統(tǒng),所述方法包括:獲取所述應(yīng)用程序的歷史運(yùn)行數(shù)據(jù)獲得樣本集;為所述樣本集的樣本建立標(biāo)簽;根據(jù)所述樣本集及其標(biāo)簽基于機(jī)器學(xué)習(xí)的方法獲得第一模型;選擇所述應(yīng)用程序運(yùn)行的一種或多種指標(biāo);判斷所述指標(biāo)的當(dāng)前值是否超出預(yù)設(shè)范圍;若是,基于第一模型對所述應(yīng)用程序的當(dāng)前數(shù)據(jù)進(jìn)行測算;根據(jù)所述測算結(jié)果對應(yīng)用程序的進(jìn)程數(shù)進(jìn)行控制。先對指標(biāo)的區(qū)間進(jìn)行預(yù)判,再通過第一模型對超出合理區(qū)間的數(shù)據(jù)進(jìn)行預(yù)測,對指標(biāo)的區(qū)間進(jìn)行預(yù)判的計算量小,利于節(jié)約計算資源;通過第一模型對應(yīng)用程序的進(jìn)程數(shù)進(jìn)行測算,作為二次篩選和判斷,以控制應(yīng)用程序的進(jìn)程數(shù),調(diào)整應(yīng)用程序的處理量。申請?zhí)枮閏n202410796336.7的中國發(fā)明專利提出一種網(wǎng)絡(luò)安全數(shù)據(jù)處理技術(shù),尤其涉及基于機(jī)器學(xué)習(xí)的網(wǎng)絡(luò)安全威脅檢測方法及系統(tǒng)。所述方法包括以下步驟:基于預(yù)設(shè)的網(wǎng)絡(luò)數(shù)據(jù)監(jiān)測腳本對網(wǎng)絡(luò)接口數(shù)據(jù)進(jìn)行網(wǎng)絡(luò)數(shù)據(jù)流監(jiān)測處理,生成流量監(jiān)測數(shù)據(jù);對流量監(jiān)測數(shù)據(jù)進(jìn)行數(shù)據(jù)包解析,生成流量解析數(shù)據(jù);對流量解析數(shù)據(jù)進(jìn)行流量解析數(shù)據(jù)的結(jié)構(gòu)化異常與溯源異常分析,以得到異常流量解析數(shù)據(jù);根據(jù)溯源常規(guī)流量解析數(shù)據(jù)對流量監(jiān)測數(shù)據(jù)進(jìn)行初步安全流量監(jiān)測數(shù)據(jù)提取,生成初步安全流量監(jiān)測數(shù)據(jù);對初步安全流量行為數(shù)據(jù)進(jìn)行網(wǎng)絡(luò)攻擊流量識別,生成網(wǎng)絡(luò)攻擊流量數(shù)據(jù);基于網(wǎng)絡(luò)攻擊流量數(shù)據(jù)設(shè)計網(wǎng)絡(luò)攻擊流量安全攔截機(jī)制。本發(fā)明通過機(jī)器學(xué)習(xí)分析流量異常特征,實現(xiàn)高效地網(wǎng)絡(luò)安全威脅檢測。申請?zhí)枮閏n202410372019.2的中國發(fā)明專利提出一種基于機(jī)器學(xué)習(xí)算法的網(wǎng)絡(luò)安全事件分類方法和系統(tǒng)。所述基于機(jī)器學(xué)習(xí)算法的網(wǎng)絡(luò)安全事件分類方法包括:收集網(wǎng)絡(luò)完全事件對應(yīng)的數(shù)據(jù)信息,生成訓(xùn)練數(shù)據(jù)集和測試數(shù)據(jù)集;從數(shù)據(jù)庫中調(diào)取用于進(jìn)行網(wǎng)絡(luò)安全事件分類的機(jī)器學(xué)習(xí)算法模型,并對所述機(jī)器學(xué)習(xí)算法模型進(jìn)行訓(xùn)練,獲得訓(xùn)練后的機(jī)器學(xué)習(xí)算法模型;利用所述測試數(shù)據(jù)集對所述機(jī)器學(xué)習(xí)算法模型進(jìn)行測試,獲取機(jī)器學(xué)習(xí)算法模型的測試結(jié)果;當(dāng)所述測試結(jié)果不滿足預(yù)設(shè)的分類要求時,對所述機(jī)器學(xué)習(xí)算法模型進(jìn)行重新訓(xùn)練直至所述機(jī)器學(xué)習(xí)算法模型的測試結(jié)果滿足預(yù)設(shè)的分類要求。所述系統(tǒng)包括與所述方法步驟對應(yīng)的模塊。

      3、上述技術(shù)方案在一定程度上能夠解決部分問題,但同時存在以下問題仍需進(jìn)一步解決:

      4、1、現(xiàn)有技術(shù)在數(shù)據(jù)采集與標(biāo)注過程中可能面臨數(shù)據(jù)量不足或標(biāo)注效率低下的問題,導(dǎo)致模型訓(xùn)練缺乏足夠的高質(zhì)量樣本。

      5、2、傳統(tǒng)神經(jīng)網(wǎng)絡(luò)在特征提取時可能會遇到梯度問題或局部最優(yōu)解,影響模型的穩(wěn)定性和性能。

      6、3、現(xiàn)有技術(shù)在特征降維過程中可能無法有效保留數(shù)據(jù)的關(guān)鍵信息,導(dǎo)致重構(gòu)質(zhì)量下降。

      7、4、現(xiàn)有分類算法可能無法精確地對輸入數(shù)據(jù)進(jìn)行編碼和分類,特別是在面對復(fù)雜或具有特定特征的數(shù)據(jù)時,分類精度和適應(yīng)性可能不足。


      技術(shù)實現(xiàn)思路

      1、本發(fā)明提出一種數(shù)據(jù)庫系統(tǒng)日志解析與處理分析方法,通過利用訓(xùn)練完成的模型處理新樣本,能夠快速、準(zhǔn)確地對數(shù)據(jù)庫系統(tǒng)日志進(jìn)行分類和分析,在面對新的日志記錄時能夠即時做出響應(yīng),識別出可能的安全威脅或異常行為,為數(shù)據(jù)庫系統(tǒng)的安全管理和故障診斷提供了重要依據(jù),不僅提高了系統(tǒng)的實時監(jiān)控能力,還為運(yùn)維人員提供了可靠的決策支持工具。

      2、本發(fā)明采取的技術(shù)方案是:

      3、一種數(shù)據(jù)庫系統(tǒng)日志解析與處理分析方法,包括以下步驟:

      4、s1、數(shù)據(jù)采集與標(biāo)注:數(shù)據(jù)采集于數(shù)據(jù)庫操作日志,所述數(shù)據(jù)庫操作日志記錄數(shù)據(jù)庫在操作期間所有事務(wù)的詳細(xì)信息,包括查詢語句、執(zhí)行時間、用戶信息以及對數(shù)據(jù)庫結(jié)構(gòu)的更改;所采集的日志數(shù)據(jù)以結(jié)構(gòu)化的json格式存儲,并對采集到的數(shù)據(jù)進(jìn)行人工標(biāo)注;

      5、s2、數(shù)據(jù)擴(kuò)充:采用基于自適應(yīng)噪聲抑制學(xué)習(xí)的生成對抗網(wǎng)絡(luò)進(jìn)行樣本生成,進(jìn)而實現(xiàn)數(shù)據(jù)擴(kuò)充;

      6、s3、特征提取模型訓(xùn)練:將擴(kuò)充后的數(shù)據(jù)輸入到特征提取模型中進(jìn)行特征提取模型的訓(xùn)練,采用6層的全連接神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,現(xiàn)有技術(shù)中,一些方案使用神經(jīng)網(wǎng)絡(luò)進(jìn)行特征提取,在某些神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)中,可能會遇到梯度消失、梯度爆炸或陷入局部最優(yōu)解的問題,影響訓(xùn)練的穩(wěn)定性和模型的性能。具體采用基于策略梯度調(diào)整的神經(jīng)網(wǎng)絡(luò)特征提取模型提取數(shù)據(jù)庫系統(tǒng)日志數(shù)據(jù)的關(guān)鍵特征,在傳統(tǒng)神經(jīng)網(wǎng)絡(luò)基礎(chǔ)上采用策略梯度的方法允許網(wǎng)絡(luò)在學(xué)習(xí)過程中自動調(diào)整其行為策略,優(yōu)化特征提取效率和準(zhǔn)確性。

      7、s4、特征降維模型訓(xùn)練:將特征提取后的數(shù)據(jù)輸入到特征降維模型中進(jìn)行特征降維模型的訓(xùn)練,具體采用自編碼器算法作為特征降維模型,所述自編碼器算法由編碼器和解碼器組成,編碼器負(fù)責(zé)將高維輸入數(shù)據(jù)壓縮成低維特征表示,解碼器則嘗試從這些低維表示重構(gòu)原始輸入數(shù)據(jù)。本發(fā)明在編碼器和解碼器的每層中采用量子干涉策略,通過模擬量子態(tài)的干涉模式來優(yōu)化信息的流動,增強(qiáng)特征提取和數(shù)據(jù)重構(gòu)的精度。

      8、s5、分類器模型訓(xùn)練:將降維后的數(shù)據(jù)輸入到分類器中進(jìn)行分類器模型的訓(xùn)練,具體采用基于隱式神經(jīng)表示的極限學(xué)習(xí)機(jī)算法作為分類算法;在極限學(xué)習(xí)機(jī)算法的基礎(chǔ)上,采用隱式函數(shù)來表示神經(jīng)元的激活狀態(tài),不僅包括線性或非線性激活,還對特定數(shù)據(jù)特征的適應(yīng)性學(xué)習(xí),使得每個神經(jīng)元能更加精確地對其輸入進(jìn)行編碼,進(jìn)而提高分類性能和分類精度。

      9、s6、日志解析與操作行為識別:利用訓(xùn)練好的模型對新日志樣本進(jìn)行處理,首先將采集的原始數(shù)據(jù)輸入到訓(xùn)練完成的特征提取和特征降維模型中進(jìn)行特征處理,再將處理得到的特征輸入到分類器模型中進(jìn)行分類器的訓(xùn)練,進(jìn)而得到分類結(jié)果。

      10、進(jìn)一步的,步驟s2的數(shù)據(jù)擴(kuò)充,具體的訓(xùn)練流程如下:

      11、s201、對生成器和判別器的參數(shù)進(jìn)行初始化,包括生成器的權(quán)重和偏置參數(shù),以及判別器的權(quán)重和偏置參數(shù),初始化的方式為隨機(jī)初始化;

      12、s202、基于當(dāng)前網(wǎng)絡(luò)狀態(tài),利用自適應(yīng)噪聲模塊生成初步的噪聲向量,自適應(yīng)噪聲的生成方式表示為:

      13、zc=ac⊙(μc+σc⊙∈c)

      14、式中,zc為生成的噪聲向量;μc為噪聲的均值向量;σc為噪聲的標(biāo)準(zhǔn)差向量;∈c為標(biāo)準(zhǔn)正態(tài)分布中采樣得到的隨機(jī)噪聲;⊙為元素級乘法;ac為噪聲注意力權(quán)重向量;

      15、其中,噪聲的標(biāo)準(zhǔn)差向量的計算方式表示為:

      16、

      17、式中,sig()為sigmoid激活函數(shù),βc為可學(xué)習(xí)的放縮參數(shù),tanh()是雙曲正切函數(shù),nc表示自適應(yīng)噪聲模塊網(wǎng)絡(luò)層中的節(jié)點數(shù),wc,i為自適應(yīng)噪聲模塊網(wǎng)絡(luò)層第i個節(jié)點的權(quán)重,bc,i為自適應(yīng)噪聲模塊網(wǎng)絡(luò)層第i個節(jié)點的偏置,dout為自適應(yīng)噪聲模塊網(wǎng)絡(luò)層的輸入向量;

      18、通過對抗性注意力權(quán)重向量,動態(tài)選擇和強(qiáng)化對生成質(zhì)量影響最大的特征,從而提高生成數(shù)據(jù)的真實性和多樣性,計算方式表示為:

      19、ac=sof(vctanh(wc,azc+bc,a))

      20、式中,wc,a和bc,a分別為學(xué)習(xí)的參數(shù)矩陣和偏置向量;vc為注意力調(diào)節(jié)參數(shù);sof()為softmax函數(shù),用于歸一化權(quán)重;

      21、s203、生成器g使用調(diào)整后的噪聲向量生成新的日志數(shù)據(jù),生成方式表示為:

      22、xc=g(zc,θc)

      23、式中,xc表示生成的日志數(shù)據(jù);g()為生成器函數(shù);θc為生成器的參數(shù);

      24、s204、根據(jù)判別器的反饋,調(diào)整生成器的參數(shù),具體采用復(fù)合損失函數(shù)優(yōu)化生成過程,確保生成的日志數(shù)據(jù)更加逼真,表示為:

      25、

      26、式中,為復(fù)合損失函數(shù),λc是第一正則化參數(shù),γc是第二正則化系數(shù),∥∥表示l2范數(shù);

      27、s205、根據(jù)判別器的性能調(diào)整噪聲的均值向量,噪聲的均值向量的增量的計算方式表示為:

      28、

      29、式中,δμc為噪聲的均值向量的增量;ηc為噪聲調(diào)整學(xué)習(xí)率;為復(fù)合損失函數(shù)關(guān)于均值向量的梯度;

      30、噪聲的均值向量的更新方式表示為:

      31、μc(t+1)=μc(t)+δμc

      32、式中,μc(t+1)為第t+1次迭代的噪聲的均值向量;μc(t)為第t次迭代的噪聲的均值向量;

      33、s206、重復(fù)迭代步驟s201-s205,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。

      34、進(jìn)一步的,步驟s3的特征提取模型訓(xùn)練,具體的訓(xùn)練流程如下:

      35、s301、設(shè)置神經(jīng)網(wǎng)絡(luò)的初始網(wǎng)絡(luò)參數(shù),包括神經(jīng)網(wǎng)絡(luò)的權(quán)重wp和神經(jīng)網(wǎng)絡(luò)的偏置bp,初始化的方式為隨機(jī)初始化;

      36、s302、輸入經(jīng)過數(shù)據(jù)擴(kuò)充后的數(shù)據(jù)庫日志數(shù)據(jù)到神經(jīng)網(wǎng)絡(luò)中,進(jìn)行數(shù)據(jù)的前向傳播,計算得到神經(jīng)網(wǎng)絡(luò)的每個層級的輸出特征;具體采用自適應(yīng)噪聲調(diào)制增強(qiáng)輸入特征向量的隨機(jī)性,以實現(xiàn)增強(qiáng)模型對輸入數(shù)據(jù)的理解和處理能力;

      37、對于第1層神經(jīng)網(wǎng)絡(luò),其計算方式表示為:

      38、hp(1)=sig(wp(1)xp′+bp(1))

      39、

      40、式中,xp為輸入神經(jīng)網(wǎng)絡(luò)的特征向量;⊙為元素級乘法;表示均值為0、標(biāo)準(zhǔn)差為單位矩陣的正態(tài)分布噪聲,i為單位矩陣;σp(xp)為基于輸入的自適應(yīng)標(biāo)準(zhǔn)差函數(shù);xp′為調(diào)制后的輸入特征向量;wp(1)為神經(jīng)網(wǎng)絡(luò)輸入層到第一隱藏層的權(quán)重矩陣;bp(1)為神經(jīng)網(wǎng)絡(luò)輸入層到第一隱藏層的偏置向量;sig()為sigmoid激活函數(shù);hp(1)為神經(jīng)網(wǎng)絡(luò)的第一隱藏層的輸出;

      41、對于第2層神經(jīng)網(wǎng)絡(luò)至第6層神經(jīng)網(wǎng)絡(luò)的傳遞,計算方式表示為:

      42、hp(i)=sig(wp(i)hp(i-1)+bp(i))

      43、式中,hp(i)為神經(jīng)網(wǎng)絡(luò)的第i層的輸出,hp(i-1)為神經(jīng)網(wǎng)絡(luò)的前一隱藏層(即第i-1層)輸出;wp(i)為神經(jīng)網(wǎng)絡(luò)的第i層的權(quán)重;bp(i)為神經(jīng)網(wǎng)絡(luò)的第i層的偏置;

      44、s303、利用策略梯度方法調(diào)整網(wǎng)絡(luò)策略,增強(qiáng)對關(guān)鍵特征的識別能力,具體是所述策略梯度方法根據(jù)策略函數(shù)來計算神經(jīng)網(wǎng)絡(luò)權(quán)重的更新量,計算方式表示為:

      45、

      46、式中,δwp為神經(jīng)網(wǎng)絡(luò)的權(quán)重的更新量;αp為神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率;tnn為神經(jīng)網(wǎng)絡(luò)的總迭代次數(shù);γp為折扣因子,為第t次迭代的折扣因子;wp為神經(jīng)網(wǎng)絡(luò)的權(quán)重參數(shù);gt為在第t次迭代的回報;為對權(quán)重的梯度;πp()為策略函數(shù);πp(at|st,wp)決定參數(shù)為wp時,給定狀態(tài)st下采取更新策略at的概率;其中,梯度的計算方式表示為:

      47、

      48、式中,rt為即時獎勵;bp(st)為狀態(tài)st下的基線函數(shù);st為第t次迭代的狀態(tài);at為第t次迭代的更新策略;qp()為動作價值函數(shù);qp(st,at,wp)表示參數(shù)為wp時,在狀態(tài)st下采取更新策略at的預(yù)期收益;

      49、動作價值函數(shù)的計算方式表示為:

      50、

      51、式中,為第k次迭代的折扣因子;rt+k為第t+k次的更新參數(shù)值;rt+k|st表示給定狀態(tài)st下的第t+k次的更新參數(shù)值;

      52、s304、在每次前向傳播后,激活神經(jīng)元競爭機(jī)制,根據(jù)每個神經(jīng)元的輸出貢獻(xiàn)評估其重要性,通過預(yù)設(shè)閾值對神經(jīng)元的活躍程度進(jìn)行篩選,優(yōu)先訓(xùn)練那些更活躍的神經(jīng)元,對于活躍程度高的神經(jīng)元,其權(quán)重的更新方式表示為:

      53、

      54、式中,←為參數(shù)更新符號;ηp為神經(jīng)網(wǎng)絡(luò)反向傳播的學(xué)習(xí)率;cap()為內(nèi)容感知函數(shù);hp(i)(t)為第t次迭代時第i層神經(jīng)網(wǎng)絡(luò)的隱藏層輸出;wp(i)表示第i層神經(jīng)網(wǎng)絡(luò)的權(quán)重;jp()為神經(jīng)網(wǎng)絡(luò)的損失函數(shù);為神經(jīng)網(wǎng)絡(luò)的損失函數(shù)相對于權(quán)重wp(i)的梯度;

      55、其中,神經(jīng)網(wǎng)絡(luò)的損失函數(shù)定義為:

      56、

      57、式中,mnn是當(dāng)前批次輸入的訓(xùn)練樣本的數(shù)量;c是類別的總數(shù);yij是如果第i個樣本屬于第j個類別則為1,否則為0;pij是模型第i個預(yù)測樣本屬于第j個類別的概率;

      58、內(nèi)容感知函數(shù)根據(jù)當(dāng)前層輸出的信息含量動態(tài)調(diào)整權(quán)重更新的強(qiáng)度,內(nèi)容感知函數(shù)的計算方式表示為:

      59、

      60、式中,cap(hp)表示基于當(dāng)前層輸出hp的內(nèi)容感知權(quán)重調(diào)整因子;∥∥為l2范數(shù);hp為隱藏層的輸出;

      61、s305、重復(fù)迭代步驟s301-s304,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。

      62、進(jìn)一步的,步驟s4的特征降維模型訓(xùn)練,具體的訓(xùn)練流程如下:

      63、s401、初始化編碼器和解碼器的權(quán)重和偏置參數(shù),初始化的方式為隨機(jī)初始化;

      64、s402、輸入特征提取后的數(shù)據(jù),通過編碼器進(jìn)行多層轉(zhuǎn)換,每一層都利用量子干涉策略來增強(qiáng)特征提取能力,最終形成的低維特征表示是對輸入數(shù)據(jù)的壓縮表達(dá),表示為:

      65、zr=tanh(wr·xr+br)⊙cos(φ(xr))

      66、式中,zr表示編碼后的低維特征向量,xr為輸入的特征提取后的特征向量;wr為編碼層的權(quán)重矩陣;br為編碼層的偏置向量;tanh()是雙曲正切函數(shù);cos()表示模擬量子干涉策略的余弦變換;φ()為編碼特征的相位調(diào)節(jié)函數(shù),φ(xr)為根據(jù)輸入數(shù)據(jù)動態(tài)變化的相位調(diào)節(jié)函數(shù);

      67、其中,相位調(diào)節(jié)函數(shù)的計算方式表示為:

      68、

      69、式中,wφ,k是第一參數(shù)矩陣,w′φ,k是第二參數(shù)矩陣,所述第一參數(shù)矩陣和第二參數(shù)矩陣分別用于對輸入特征xr進(jìn)行變換,以產(chǎn)生分子和分母的線性組合;xrk為輸入的特征提取后的特征向量的第k列;arctan()函數(shù)用于將線性組合轉(zhuǎn)換為相位角,提供一個周期性變化的角度,以模擬量子態(tài)的相位變化;

      70、s403、在解碼過程中,編碼器輸出的低維特征表示被送入解碼器,解碼器通過相反的多層結(jié)構(gòu)嘗試重構(gòu)原始輸入數(shù)據(jù),并采用量子干涉策略來優(yōu)化重構(gòu)質(zhì)量,表示為:

      71、yr=w′r·(zr⊙sin(φ(zr)))+b′r

      72、式中,yr為解碼后的重構(gòu)數(shù)據(jù);w′r為解碼層的權(quán)重矩陣;b′r為解碼層的偏置向量;sin()表示正弦變換,與編碼階段的余弦變換相對應(yīng),以實現(xiàn)數(shù)據(jù)的完整重構(gòu);φ()為編碼特征的相位調(diào)節(jié)函數(shù),計算方式與步驟s402中所述的相位調(diào)節(jié)函數(shù)相同;

      73、s404、根據(jù)自編碼器的損失函數(shù)計算梯度,并通過反向傳播算法更新編碼器和解碼器的參數(shù),更新方式表示為:

      74、

      75、式中,ηr為自編碼器的學(xué)習(xí)率;sgn()為權(quán)重的符號函數(shù);αr為自編碼器的調(diào)節(jié)系數(shù);ψ()為自編碼器的調(diào)節(jié)函數(shù);er為重構(gòu)誤差因子;

      76、其中,重構(gòu)誤差因子er的計算方式表示為:

      77、er=∥xr-yr∥2

      78、式中,∥∥為l2范數(shù);

      79、自編碼器的調(diào)節(jié)函數(shù)的計算方式表示為:

      80、

      81、式中,kr為調(diào)節(jié)敏感性系數(shù),θr為錯誤閾值;

      82、s405、重復(fù)迭代步驟s401-s404,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。

      83、進(jìn)一步的,步驟s5的分類器模型訓(xùn)練,具體的訓(xùn)練流程如下:

      84、s501、采用密度感知機(jī)制初始化極限學(xué)習(xí)機(jī)的參數(shù),以此確保模型對稀疏數(shù)據(jù)區(qū)域的敏感性,所述極限學(xué)習(xí)機(jī)的參數(shù)包括極限學(xué)習(xí)機(jī)的權(quán)重和偏置參數(shù);具體采用以下公式計算:

      85、wu(0)=sig(au·xu+cu)

      86、bu(0)=0

      87、式中,wu為極限學(xué)習(xí)機(jī)的權(quán)重,wu(0)為極限學(xué)習(xí)機(jī)的初始權(quán)重;bu為極限學(xué)習(xí)機(jī)的偏置,bu(0)為極限學(xué)習(xí)機(jī)的初始偏置;sig()為sigmoid激活函數(shù);au為密度感知矩陣;xu為輸入的特征降維后的特征矩陣;cu為初始化偏置向量;

      88、其中,密度感知矩陣的計算方式表示為:

      89、au=exp(-γu·∥xu-μu∥2)

      90、式中,γu為密度調(diào)節(jié)參數(shù);μu為輸入的數(shù)據(jù)中心的均值向量;

      91、s502、將特征降維后的數(shù)據(jù)輸入到極限學(xué)習(xí)機(jī)中進(jìn)行前向傳播計算,極限學(xué)習(xí)機(jī)的隱含層采用隱式神經(jīng)表示學(xué)習(xí)方法處理,具體的,每個神經(jīng)元的輸出不僅取決于其激活函數(shù),還通過隱式神經(jīng)表示函數(shù)根據(jù)輸入數(shù)據(jù)的特征進(jìn)行適應(yīng)性學(xué)習(xí),前向傳播的計算方式表示為:

      92、hu=re(wu·xu+bu+ξu(xu))

      93、式中,hu為極限學(xué)習(xí)機(jī)隱含層的輸出;ξu()為隱式神經(jīng)表示函數(shù);re()為relu激活函數(shù);

      94、其中,隱式神經(jīng)表示函數(shù)的計算方式表示為:

      95、

      96、式中,為線性變換的第一權(quán)重矩陣;為線性變換的第二權(quán)重矩陣,為線性變換的第一偏置項;為線性變換的第二偏置項;tanh()為雙曲正切函數(shù);αu為隱式神經(jīng)表示函數(shù)的加權(quán)因子;

      97、s503、極限學(xué)習(xí)機(jī)的隱含層的輸出傳遞到極限學(xué)習(xí)機(jī)的輸出層,極限學(xué)習(xí)機(jī)的輸出層的神經(jīng)元直接計算與訓(xùn)練目標(biāo)的誤差,極限學(xué)習(xí)機(jī)的輸出層的權(quán)重通過解析方式求解,表示為:

      98、wuout=hu+·tu

      99、式中,hu+為極限學(xué)習(xí)機(jī)的隱含層輸出的廣義逆矩陣;wuout為極限學(xué)習(xí)機(jī)的輸出層權(quán)重矩陣;tu為每個樣本的真實標(biāo)簽矩陣,也即目標(biāo)矩陣;

      100、其中,隱含層輸出的廣義逆矩陣的計算方式表示為:

      101、hu+=(hut·hu+λui)-1·hut

      102、式中,hut為隱含層輸出的轉(zhuǎn)置矩陣;λui為正則化項,λu為正則化參數(shù),i為單位矩陣;(hut·hu+λui)-1表示對計算得到的矩陣求逆;

      103、s504、動態(tài)調(diào)整隱式神經(jīng)表示函數(shù),以優(yōu)化模型的特征提取能力,表示為:

      104、ξu(xu)←ξu(xu)+αud·gu(xu,wu)

      105、式中,αud為隱式神經(jīng)表示函數(shù)的學(xué)習(xí)率參數(shù);gu()為預(yù)設(shè)的非線性映射函數(shù);

      106、s505、在訓(xùn)練過程中,極限學(xué)習(xí)機(jī)的輸出層的權(quán)重通過解析方式求解,而隱含層和隱式表示的權(quán)重通過極限學(xué)習(xí)機(jī)的損失函數(shù)進(jìn)行優(yōu)化,表示為:

      107、

      108、式中,ju為極限學(xué)習(xí)機(jī)的損失函數(shù);λud為第一正則化參數(shù),βud為第一正則化參數(shù);tu為每個樣本的真實標(biāo)簽矩陣,也即目標(biāo)矩陣;hu為極限學(xué)習(xí)機(jī)隱含層的輸出;∥∥2為l2范數(shù)的平方,為l1范數(shù)的平方;ξcf為懲罰系數(shù);

      109、s506、重復(fù)迭代步驟s501-s505,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。

      110、進(jìn)一步地,在步驟s203中,通過判別器判別數(shù)據(jù)為真實數(shù)據(jù)還是生成的數(shù)據(jù),判別器的優(yōu)化約束條件為:

      111、

      112、式中,φc為判別器的參數(shù);d()為判別器函數(shù);表示期望;~表示服從于特定分布;xcs為真實數(shù)據(jù)樣本;pdata為真實數(shù)據(jù)的分布;為噪聲分布;αc是動態(tài)調(diào)整的平衡因子。

      113、進(jìn)一步地,在步驟s302中,基于輸入的自適應(yīng)標(biāo)準(zhǔn)差函數(shù)的計算方式表示為:

      114、

      115、式中,waes為自適應(yīng)標(biāo)準(zhǔn)差指數(shù)項,和分別為自適應(yīng)噪聲調(diào)制函數(shù)的權(quán)重和偏置。

      116、進(jìn)一步地,在步驟s403中,計算重構(gòu)數(shù)據(jù)與原始輸入數(shù)據(jù)之間的差異,并使用自編碼器的損失函數(shù)評估該差異;所述自編碼器的損失函數(shù)的計算方式表示為:

      117、

      118、式中,jr為自編碼器的損失函數(shù);λr為自編碼器的正則化參數(shù);∥wr(i)∥1為自編碼器第i層權(quán)重的l1范數(shù)。

      119、進(jìn)一步地,在步驟s505中,懲罰系數(shù)的計算方式表示為:

      120、

      121、式中,λus為懲罰系數(shù)的權(quán)重因子;c為總類別數(shù);pu,k為當(dāng)前輸入樣本屬于第k類的概率;為指示函數(shù);τu為動態(tài)調(diào)整后的閾值,用于影響最終分類決策;表示當(dāng)概率pu,k超過閾值τu時取值為1,否則為0;

      122、式中,動態(tài)調(diào)整后的閾值τu的計算方式表示為:

      123、

      124、式中,為初始閾值;αus為不確定性影響因子;uu(hu)為極限學(xué)習(xí)機(jī)隱含層輸出的熵值;

      125、式中,極限學(xué)習(xí)機(jī)隱含層輸出的熵值的計算方式表示為:

      126、

      127、式中,uu()為極限學(xué)習(xí)機(jī)隱含層輸出的熵值的計算函數(shù)。

      128、懲罰系數(shù)基于不確定性度量計算得到,在度量分類的不確定性時,通過熵值計算極限學(xué)習(xí)機(jī)隱含層輸出。

      129、本發(fā)明的有益效果:

      130、1、本發(fā)明采用基于自適應(yīng)噪聲抑制學(xué)習(xí)的生成對抗網(wǎng)絡(luò)進(jìn)行樣本生成,解決了訓(xùn)練數(shù)據(jù)不足導(dǎo)致的模型泛化能力差的問題,生成器和判別器的協(xié)同工作,通過自適應(yīng)噪聲控制模塊動態(tài)調(diào)整噪聲信號,提高了生成數(shù)據(jù)的真實性和多樣性。

      131、2、本發(fā)明通過采用策略梯度調(diào)整的神經(jīng)網(wǎng)絡(luò)特征提取模型,解決了傳統(tǒng)神經(jīng)網(wǎng)絡(luò)在特征提取過程中可能出現(xiàn)的梯度消失、梯度爆炸或陷入局部最優(yōu)的問題,策略梯度方法允許網(wǎng)絡(luò)自動調(diào)整行為策略,優(yōu)化了特征提取的效率和準(zhǔn)確性。

      132、3、本發(fā)明使用自編碼器算法進(jìn)行特征降維,并通過量子干涉策略模擬量子態(tài)的干涉模式,增強(qiáng)了特征提取和數(shù)據(jù)重構(gòu)的精度,有效壓縮了高維數(shù)據(jù),同時保留了關(guān)鍵信息。

      133、4、本發(fā)明基于隱式神經(jīng)表示的極限學(xué)習(xí)機(jī)算法,不僅提高了分類性能和精度,還通過隱式函數(shù)適應(yīng)性學(xué)習(xí)特定數(shù)據(jù)特征,使得每個神經(jīng)元能更精確地對輸入進(jìn)行編碼,進(jìn)而提高分類性能和分類精度。

      當(dāng)前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1