国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法和電子設(shè)備

      文檔序號:40401090發(fā)布日期:2024-12-20 12:24閱讀:5來源:國知局
      面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法和電子設(shè)備

      本發(fā)明涉及人工智能,尤其涉及一種面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法和電子設(shè)備。


      背景技術(shù):

      1、隨著礦山機械設(shè)備的廣泛應(yīng)用,設(shè)備的安全性和可靠性成為礦山生產(chǎn)中至關(guān)重要的因素。礦山設(shè)備通常在復(fù)雜、惡劣的環(huán)境中長時間運行,面臨著高溫、高壓、強振動等多種不利條件,導(dǎo)致設(shè)備故障風(fēng)險較高。設(shè)備一旦出現(xiàn)故障,不僅會影響礦山的正常生產(chǎn),還可能帶來安全隱患,甚至引發(fā)事故。

      2、現(xiàn)有技術(shù)中,對于公開的專利文獻cn202210372271.4、cn202011592545.8以及cn201611245269.1中記載了提高設(shè)備故障診斷精度的技術(shù)方案,但仍然存在不足:傳統(tǒng)的smote算法只能在少數(shù)類樣本間進行線性插值,無法充分應(yīng)對數(shù)據(jù)分布的多樣性和復(fù)雜性,導(dǎo)致生成的樣本缺乏代表性,模型泛化能力不足;神經(jīng)網(wǎng)絡(luò)模型在特征提取過程中容易遭遇梯度消失或梯度爆炸等問題,且其進化過程缺乏靈活性,難以根據(jù)數(shù)據(jù)特性自適應(yīng)地調(diào)整模型,導(dǎo)致訓(xùn)練不穩(wěn)定,模型性能下降;降維技術(shù)往往會造成重要特征的丟失,且無法在降維過程中動態(tài)優(yōu)化特征權(quán)重,導(dǎo)致降維后的特征表示冗余,影響模型的簡潔性和信息保留的平衡;分類器模型在處理類別不平衡時無法動態(tài)調(diào)整不同類別的權(quán)重,特別是在關(guān)鍵故障類別的識別上缺乏精準(zhǔn)性,導(dǎo)致設(shè)備維護監(jiān)測中的分類結(jié)果不夠準(zhǔn)確。


      技術(shù)實現(xiàn)思路

      1、有鑒于此,本發(fā)明提供了一種面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法和電子設(shè)備,用以有效地對礦山設(shè)備進行預(yù)測性維護,降低設(shè)備故障率,保障設(shè)備安全運行。

      2、第一方面,本發(fā)明提供了一種面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法,所述方法包括:

      3、s1、采集礦山設(shè)備的運行數(shù)據(jù),對運行數(shù)據(jù)進行標(biāo)注;并對標(biāo)注后的運行數(shù)據(jù)進行擴充,得到擴充后的數(shù)據(jù)集;

      4、s2、通過擴充后的數(shù)據(jù)集對特征提取模型進行訓(xùn)練,得到訓(xùn)練后的特征提取模型和特征提取后的數(shù)據(jù);

      5、s3、將特征提取后的數(shù)據(jù)輸入到特征降維模型中,進行特征降維模型的訓(xùn)練,得到訓(xùn)練后的特征降維模型和特征降維后的數(shù)據(jù);

      6、s4、利用特征降維后的數(shù)據(jù)對分類器模型進行訓(xùn)練,得到訓(xùn)練后的分類器模型;

      7、s5、通過訓(xùn)練后的特征提取模型、特征降維模型和分類器模型對新樣本進行處理,以預(yù)測礦山設(shè)備的運行。

      8、可選地,采集礦山設(shè)備的運行數(shù)據(jù),對運行數(shù)據(jù)進行標(biāo)注,包括:

      9、通過振動傳感器、溫度傳感器和壓力傳感器,實時收集設(shè)備的運行數(shù)據(jù),并并通過無線網(wǎng)絡(luò)傳輸?shù)街行臄?shù)據(jù)庫;

      10、標(biāo)注的類別包括:

      11、正常運行,表示設(shè)備運行在正常的工作參數(shù)范圍內(nèi);

      12、維護警示,表示設(shè)備即將需要維護,但尚未出現(xiàn)故障;

      13、故障模式,表示設(shè)備出現(xiàn)故障,需要立即維修。

      14、可選地,對標(biāo)注后的運行數(shù)據(jù)進行擴充,得到擴充后的數(shù)據(jù)集,包括:

      15、通過smote算法進行樣本生成,在此基礎(chǔ)上采用非凸優(yōu)化策略,樣本生成的流程包括:

      16、s101、初始化算法參數(shù),包括鄰居數(shù)、插值數(shù)和非凸優(yōu)化參數(shù),這些參數(shù)共同決定合成樣本的生成策略,其公式為:

      17、;

      18、式中,表示在特征空間中每個少數(shù)類樣本選取的鄰居數(shù)量;表示從每對少數(shù)類樣本和其鄰居生成的合成樣本數(shù);表示非凸優(yōu)化過程中的調(diào)整系數(shù);

      19、s102、從訓(xùn)練數(shù)據(jù)中識別出數(shù)量少的類別,將其作為擴充的目標(biāo),設(shè)識別出的少數(shù)類樣本集為,其公式為:

      20、;

      21、式中,為數(shù)據(jù)集中的樣本,為樣本對應(yīng)的類標(biāo)簽;表示少數(shù)類別,即其類別對應(yīng)的樣本數(shù)量明顯少于其他類別;

      22、s103、對每個選中的少數(shù)類樣本,找出其在特征空間中的個最近鄰樣本,具體通過計算樣本之間的距離來完成,距離的計算可以根據(jù)數(shù)據(jù)的特性進行選擇,設(shè)每個少數(shù)類樣本在特征空間中的個最近鄰樣本為,其公式為:

      23、;

      24、式中,表示樣本之間的距離度量函數(shù),其為歐氏距離或余弦相似度;為第個的近鄰樣本,為第個的近鄰樣本;為整體數(shù)據(jù)集;

      25、s104、對每個少數(shù)類樣本及其鄰居,根據(jù)非凸優(yōu)化算法計算新樣本點的特征值,新樣本的生成不僅基于線性插值,還通過動態(tài)優(yōu)化過程調(diào)整每個特征的權(quán)重,以更好地適應(yīng)數(shù)據(jù)的本質(zhì)結(jié)構(gòu),具體的,對于每個少數(shù)類樣本和其鄰居,生成個合成樣本,其公式為:

      26、;

      27、式中,為生成的合成樣本;為隨機生成的介于0和1之間的插值系數(shù);表示非凸函數(shù),用于根據(jù)鄰居的動態(tài)分布調(diào)整的影響,使插值更加符合實際數(shù)據(jù)的分布特性;

      28、s105、在樣本生成過程中,算法實時監(jiān)控新樣本的質(zhì)量和類別分布的變化,根據(jù)設(shè)定的優(yōu)化目標(biāo),動態(tài)調(diào)整生成策略,調(diào)整方式表示為:

      29、;

      30、式中,為調(diào)整學(xué)習(xí)率,為評估合成樣本質(zhì)量的損失函數(shù),和分別表示合成樣本及其標(biāo)簽集合,表示損失函數(shù)相對于的梯度;

      31、s106、將生成的合成樣本合并到原始訓(xùn)練集中,形成一個新的數(shù)據(jù)集,其公式為:

      32、;

      33、式中,為擴充后的數(shù)據(jù)集。

      34、可選地,所述步驟s104包括:

      35、非凸函數(shù)對插值系數(shù)的調(diào)整方式,其公式為:

      36、;

      37、式中,和為根據(jù)鄰居樣本集合計算得到的兩個不同的統(tǒng)計量,分別代表鄰居樣本在特征空間中的集中趨勢和分散趨勢;

      38、其中,的計算方式,其公式為:

      39、;

      40、式中,是鄰居樣本的均值向量;反映的是鄰居樣本的變異系數(shù),其公式分別為:

      41、;

      42、;

      43、式中,表示l2范數(shù)。

      44、可選地,所述步驟s105包括:

      45、評估合成樣本質(zhì)量的損失函數(shù)用于評估合成樣本的質(zhì)量,并調(diào)整非凸優(yōu)化參數(shù),其計算方式表示為:

      46、;

      47、式中,是由當(dāng)前模型預(yù)測的合成樣本的類標(biāo)簽,是交叉熵損失函數(shù),用于衡量預(yù)測標(biāo)簽與真實標(biāo)簽之間的差異。

      48、可選地,所述步驟s2包括:

      49、采用6層的全連接神經(jīng)網(wǎng)絡(luò)進行特征提取,通過基于動態(tài)群體進化優(yōu)化的神經(jīng)網(wǎng)絡(luò)作為特征提取模型;利用自校正機制根據(jù)當(dāng)前訓(xùn)練數(shù)據(jù)的特性自動調(diào)整進化規(guī)則,根據(jù)損失函數(shù)的變化趨勢調(diào)整交叉和變異的概率;

      50、基于動態(tài)群體進化優(yōu)化的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程包括:

      51、s201、根據(jù)仿生算法初始化方式,在初始化階段,生成一個初始的種群,每個個體代表一種網(wǎng)絡(luò)權(quán)重的配置,具體的,設(shè)種群大小為,為第個個體初始化權(quán)重和偏置,表示為:

      52、;

      53、;

      54、式中,為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置,表示第個個體在初始狀態(tài)的權(quán)重矩陣;表示第個個體在初始狀態(tài)的偏置;表示初始化的方差;表示均值為0、方差為的正態(tài)分布;為正態(tài)分布;設(shè)置為0.01;

      55、s202、對于種群中的每個個體,利用其對應(yīng)的神經(jīng)網(wǎng)絡(luò)配置來處理輸入的訓(xùn)練數(shù)據(jù),計算模型的輸出,并根據(jù)預(yù)定的損失函數(shù)評估其性能,具體的,對于第個個體,利用其權(quán)重和偏置計算在訓(xùn)練數(shù)據(jù)集上的損失,表示為:

      56、;

      57、式中,為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的損失;表示當(dāng)前批次輸入的樣本數(shù)量;表示復(fù)合損失函數(shù),表示神經(jīng)網(wǎng)絡(luò)模型函數(shù);表示第個樣本的特征;表示第個樣本的標(biāo)簽;

      58、復(fù)合損失函數(shù)包含正則化項,用于增加模型的泛化能力,計算方式表示為:

      59、;

      60、式中,是均方誤差函數(shù),是正則化項,為正則化參數(shù);

      61、正則化項的計算方式表示為:

      62、;

      63、式中,為為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的第個權(quán)重;

      64、s203、根據(jù)個體的適應(yīng)度,從當(dāng)前種群中選擇表現(xiàn)最好的個體進行保留,作為下一代的候選解,具體的,基于個體的適應(yīng)度進行選擇,優(yōu)秀個體有更高概率被選中,個體被選擇的概率的計算方式表示為:

      65、;

      66、式中,表示第個個體被選擇的概率;是控制選擇壓力的參數(shù);為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的損失;設(shè)置為2;

      67、s204、通過交叉和變異操作生成新的個體,交叉操作允許兩個優(yōu)秀個體交換部分基因,生成新的子代;變異操作則是隨機改變個體中的部分基因,以增加種群的多樣性;具體的,交叉操作隨機選擇兩個個體進行基因交換,表示為:

      68、;

      69、;

      70、式中,是交叉率,為選定的第一個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為選定的第一個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置,為選定的第二個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為選定的第二個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置,為交叉操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為交叉操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置;設(shè)置為0.3;

      71、變異操作對新生成的個體權(quán)重進行小幅度隨機擾動,表示為:

      72、;

      73、;

      74、式中,表示變異的方差,為變異操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為變異操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置;設(shè)置為0.04;

      75、s205、重復(fù)迭代上述步驟,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。

      76、可選地,所述步驟s3包括:

      77、采用基于特征細化的自編碼神經(jīng)網(wǎng)絡(luò)作為降維模型,所述基于特征細化的自編碼神經(jīng)網(wǎng)絡(luò)由編碼器、解碼器、特征調(diào)整模塊三部分構(gòu)成,編碼器負責(zé)將高維輸入數(shù)據(jù)映射到低維特征空間,解碼器用于將降維后的特征重構(gòu)回原始空間,以保證降維過程的可逆性;特征調(diào)整模塊通過遞歸特征自適應(yīng)優(yōu)化動態(tài)調(diào)整降維后的特征空間,使得重要特征能夠得到強化,次要特征被逐步弱化,從而使得降維后的特征表示在保留數(shù)據(jù)信息的同時具備簡潔性;

      78、基于特征細化的自編碼神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程包括:

      79、s301、設(shè)輸入到自編碼神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)為,編碼器采用多層非線性映射結(jié)構(gòu),將高維數(shù)據(jù)映射到初始的低維特征空間,表示為:

      80、;

      81、式中,表示初始低維特征,為編碼器的權(quán)重矩陣,為編碼器的偏置向量,為編碼器的多層sigmoid激活函數(shù);

      82、s302、在低維特征生成后,特征調(diào)整模塊根據(jù)當(dāng)前特征空間中的特征重要性,自動生成特征權(quán)重,該模塊初始化時對所有特征賦予相同的初始權(quán)重,以便后續(xù)根據(jù)特征貢獻逐步調(diào)整,初始權(quán)重矩陣的計算方式表示為:

      83、;

      84、式中,為初始權(quán)重矩陣;為特征權(quán)重向量,中的每個元素初始化為相同的值,表示所有特征在初始階段具有相同的重要性;為提取矩陣的對角線元素的函數(shù);

      85、調(diào)整后的特征表示為:

      86、;

      87、式中,為經(jīng)過特征權(quán)重調(diào)整后的特征表示;

      88、s303、特征調(diào)整模塊對初步生成的低維特征進行遞歸優(yōu)化,在每一輪迭代中,模塊會根據(jù)前一輪特征的表現(xiàn),調(diào)整各個特征的權(quán)重,逐步增強具有重要影響的特征,并逐步削弱冗余或噪聲特征,設(shè)第輪迭代中,權(quán)重的更新規(guī)則如下:

      89、;

      90、式中,表示第輪迭代的特征權(quán)重,表示第輪迭代的特征權(quán)重,為自編碼神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率,為自編碼神經(jīng)網(wǎng)絡(luò)的損失函數(shù),為標(biāo)簽數(shù)據(jù),表示損失函數(shù)對特征權(quán)重的梯度;自編碼神經(jīng)網(wǎng)絡(luò)的損失函數(shù)為重構(gòu)誤差損失函數(shù);設(shè)置為0.01;

      91、s304、為了確保降維過程的有效性,解碼器將低維特征重新映射回高維空間,以確保降維過程沒有丟失重要信息;解碼器的重構(gòu)過程表示為:

      92、;

      93、式中,為重構(gòu)后的高維數(shù)據(jù),為解碼器的權(quán)重矩陣,為解碼器的偏置向量,為解碼器的多層sigmoid激活函數(shù);

      94、s305、重復(fù)迭代上述步驟,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。

      95、可選地,所述步驟s4包括:

      96、采用基于極限學(xué)習(xí)機的分類算法作為分類模型,通過采用自適應(yīng)獎勵函數(shù)來動態(tài)調(diào)整每個類別的權(quán)重;

      97、基于自適應(yīng)獎勵的極限學(xué)習(xí)機的訓(xùn)練流程包括:

      98、s401、初始化極限學(xué)習(xí)機模型結(jié)構(gòu),極限學(xué)習(xí)機的輸入層、隱藏層和輸出層的節(jié)點數(shù)分別設(shè)為、和;其中是特征數(shù),是隱藏層節(jié)點數(shù),是輸出類別數(shù);

      99、取決于特征降維后的特征向量的維度,設(shè)置為100,取決于數(shù)據(jù)標(biāo)注的類別數(shù)量;

      100、s402、通過優(yōu)化算法預(yù)調(diào)極限學(xué)習(xí)機的整隱藏層的權(quán)重和偏差,以更好地適應(yīng)訓(xùn)練數(shù)據(jù)的初步分布,設(shè)極限學(xué)習(xí)機隱藏層的權(quán)重為,極限學(xué)習(xí)機隱藏層的偏差為,初始化為:

      101、;

      102、;

      103、式中,表示生成一個的矩陣,其元素從一個均勻或正態(tài)分布中隨機生成;

      104、s403、利用激活函數(shù)計算每個樣本在隱藏層的輸出,設(shè)極限學(xué)習(xí)機的隱藏層的輸出為,計算方式表示為:

      105、;

      106、式中,是極限學(xué)習(xí)機的輸入數(shù)據(jù)矩陣;是全1向量,用于廣播偏差項到每個數(shù)據(jù)樣本;為sigmoid激活函數(shù);

      107、s404、在輸出層之前,根據(jù)分類任務(wù)的重要性和難易程度動態(tài)調(diào)整輸出權(quán)重,通過反饋學(xué)習(xí)不斷優(yōu)化,旨在提升模型對關(guān)鍵故障的預(yù)測能力,具體的,設(shè)輸出層的權(quán)重為,其根據(jù)類別的誤差動態(tài)調(diào)整權(quán)重,表示為:

      108、;

      109、式中,是權(quán)重學(xué)習(xí)率;是權(quán)重損失函數(shù),評估實際輸出與預(yù)測輸出之間的誤差;為第次迭代的輸出層的權(quán)重;為第次迭代的輸出層的權(quán)重;為第個類別的調(diào)節(jié)因子;

      110、權(quán)重損失函數(shù)計算方式表示為:

      111、;

      112、式中,是真實標(biāo)簽矩陣中的元素,是由模型預(yù)測的對應(yīng)類別的概率;

      113、調(diào)節(jié)因子根據(jù)類別的樣本數(shù)量或先前周期的訓(xùn)練誤差進行調(diào)整,使得權(quán)重更新更加精細化,適應(yīng)性更強,計算方式表示為:

      114、;

      115、式中,是第類別的樣本數(shù)量,是總樣本數(shù)量;

      116、s405、極限學(xué)習(xí)機的輸出層的權(quán)重通過求解一個優(yōu)化問題得到,以確保更精確地反映從隱藏層到輸出層的映射關(guān)系,最小化輸出誤差的目標(biāo)函數(shù)是:

      117、;

      118、式中,為極限學(xué)習(xí)機的輸出層的權(quán)重,表示數(shù)據(jù)復(fù)雜度;

      119、為提高模型的適應(yīng)性和準(zhǔn)確性,數(shù)據(jù)復(fù)雜度的計算方式表示為:

      120、;

      121、式中,是第個特征的標(biāo)準(zhǔn)差,為輸入極限學(xué)習(xí)機的數(shù)據(jù)的第個特征;

      122、s406、重復(fù)迭代上述步驟,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。

      123、第二方面,本發(fā)明實施例提供一種電子設(shè)備,包括:一個或多個處理器;存儲器;以及一個或多個計算機程序,其中所述一個或多個計算機程序被存儲在所述存儲器中,所述一個或多個計算機程序包括指令,當(dāng)所述指令被所述設(shè)備執(zhí)行時,使得所述設(shè)備執(zhí)行第一方面或第一方面任一可能的實現(xiàn)方式中的面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法。

      124、本發(fā)明提供的技術(shù)方案中,該方法包括采集礦山設(shè)備的運行數(shù)據(jù),對運行數(shù)據(jù)進行標(biāo)注;并對標(biāo)注后的運行數(shù)據(jù)進行擴充,得到擴充后的數(shù)據(jù)集;通過擴充后的數(shù)據(jù)集對特征提取模型進行訓(xùn)練,得到訓(xùn)練后的特征提取模型和特征提取后的數(shù)據(jù);將特征提取后的數(shù)據(jù)輸入到特征降維模型中,進行特征降維模型的訓(xùn)練,得到訓(xùn)練后的特征降維模型和特征降維后的數(shù)據(jù);利用特征降維后的數(shù)據(jù)對分類器模型進行訓(xùn)練,得到訓(xùn)練后的分類器模型;通過訓(xùn)練后的特征提取模型、特征降維模型和分類器模型對新樣本進行處理,以預(yù)測礦山設(shè)備的運行,該方法有效地對礦山設(shè)備進行了預(yù)測性維護,降低了設(shè)備故障率,保障了設(shè)備安全運行。

      當(dāng)前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1