本發(fā)明涉及人工智能,尤其涉及一種面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法和電子設(shè)備。
背景技術(shù):
1、隨著礦山機械設(shè)備的廣泛應(yīng)用,設(shè)備的安全性和可靠性成為礦山生產(chǎn)中至關(guān)重要的因素。礦山設(shè)備通常在復(fù)雜、惡劣的環(huán)境中長時間運行,面臨著高溫、高壓、強振動等多種不利條件,導(dǎo)致設(shè)備故障風(fēng)險較高。設(shè)備一旦出現(xiàn)故障,不僅會影響礦山的正常生產(chǎn),還可能帶來安全隱患,甚至引發(fā)事故。
2、現(xiàn)有技術(shù)中,對于公開的專利文獻cn202210372271.4、cn202011592545.8以及cn201611245269.1中記載了提高設(shè)備故障診斷精度的技術(shù)方案,但仍然存在不足:傳統(tǒng)的smote算法只能在少數(shù)類樣本間進行線性插值,無法充分應(yīng)對數(shù)據(jù)分布的多樣性和復(fù)雜性,導(dǎo)致生成的樣本缺乏代表性,模型泛化能力不足;神經(jīng)網(wǎng)絡(luò)模型在特征提取過程中容易遭遇梯度消失或梯度爆炸等問題,且其進化過程缺乏靈活性,難以根據(jù)數(shù)據(jù)特性自適應(yīng)地調(diào)整模型,導(dǎo)致訓(xùn)練不穩(wěn)定,模型性能下降;降維技術(shù)往往會造成重要特征的丟失,且無法在降維過程中動態(tài)優(yōu)化特征權(quán)重,導(dǎo)致降維后的特征表示冗余,影響模型的簡潔性和信息保留的平衡;分類器模型在處理類別不平衡時無法動態(tài)調(diào)整不同類別的權(quán)重,特別是在關(guān)鍵故障類別的識別上缺乏精準(zhǔn)性,導(dǎo)致設(shè)備維護監(jiān)測中的分類結(jié)果不夠準(zhǔn)確。
技術(shù)實現(xiàn)思路
1、有鑒于此,本發(fā)明提供了一種面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法和電子設(shè)備,用以有效地對礦山設(shè)備進行預(yù)測性維護,降低設(shè)備故障率,保障設(shè)備安全運行。
2、第一方面,本發(fā)明提供了一種面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法,所述方法包括:
3、s1、采集礦山設(shè)備的運行數(shù)據(jù),對運行數(shù)據(jù)進行標(biāo)注;并對標(biāo)注后的運行數(shù)據(jù)進行擴充,得到擴充后的數(shù)據(jù)集;
4、s2、通過擴充后的數(shù)據(jù)集對特征提取模型進行訓(xùn)練,得到訓(xùn)練后的特征提取模型和特征提取后的數(shù)據(jù);
5、s3、將特征提取后的數(shù)據(jù)輸入到特征降維模型中,進行特征降維模型的訓(xùn)練,得到訓(xùn)練后的特征降維模型和特征降維后的數(shù)據(jù);
6、s4、利用特征降維后的數(shù)據(jù)對分類器模型進行訓(xùn)練,得到訓(xùn)練后的分類器模型;
7、s5、通過訓(xùn)練后的特征提取模型、特征降維模型和分類器模型對新樣本進行處理,以預(yù)測礦山設(shè)備的運行。
8、可選地,采集礦山設(shè)備的運行數(shù)據(jù),對運行數(shù)據(jù)進行標(biāo)注,包括:
9、通過振動傳感器、溫度傳感器和壓力傳感器,實時收集設(shè)備的運行數(shù)據(jù),并并通過無線網(wǎng)絡(luò)傳輸?shù)街行臄?shù)據(jù)庫;
10、標(biāo)注的類別包括:
11、正常運行,表示設(shè)備運行在正常的工作參數(shù)范圍內(nèi);
12、維護警示,表示設(shè)備即將需要維護,但尚未出現(xiàn)故障;
13、故障模式,表示設(shè)備出現(xiàn)故障,需要立即維修。
14、可選地,對標(biāo)注后的運行數(shù)據(jù)進行擴充,得到擴充后的數(shù)據(jù)集,包括:
15、通過smote算法進行樣本生成,在此基礎(chǔ)上采用非凸優(yōu)化策略,樣本生成的流程包括:
16、s101、初始化算法參數(shù),包括鄰居數(shù)、插值數(shù)和非凸優(yōu)化參數(shù),這些參數(shù)共同決定合成樣本的生成策略,其公式為:
17、;
18、式中,表示在特征空間中每個少數(shù)類樣本選取的鄰居數(shù)量;表示從每對少數(shù)類樣本和其鄰居生成的合成樣本數(shù);表示非凸優(yōu)化過程中的調(diào)整系數(shù);
19、s102、從訓(xùn)練數(shù)據(jù)中識別出數(shù)量少的類別,將其作為擴充的目標(biāo),設(shè)識別出的少數(shù)類樣本集為,其公式為:
20、;
21、式中,為數(shù)據(jù)集中的樣本,為樣本對應(yīng)的類標(biāo)簽;表示少數(shù)類別,即其類別對應(yīng)的樣本數(shù)量明顯少于其他類別;
22、s103、對每個選中的少數(shù)類樣本,找出其在特征空間中的個最近鄰樣本,具體通過計算樣本之間的距離來完成,距離的計算可以根據(jù)數(shù)據(jù)的特性進行選擇,設(shè)每個少數(shù)類樣本在特征空間中的個最近鄰樣本為,其公式為:
23、;
24、式中,表示樣本之間的距離度量函數(shù),其為歐氏距離或余弦相似度;為第個的近鄰樣本,為第個的近鄰樣本;為整體數(shù)據(jù)集;
25、s104、對每個少數(shù)類樣本及其鄰居,根據(jù)非凸優(yōu)化算法計算新樣本點的特征值,新樣本的生成不僅基于線性插值,還通過動態(tài)優(yōu)化過程調(diào)整每個特征的權(quán)重,以更好地適應(yīng)數(shù)據(jù)的本質(zhì)結(jié)構(gòu),具體的,對于每個少數(shù)類樣本和其鄰居,生成個合成樣本,其公式為:
26、;
27、式中,為生成的合成樣本;為隨機生成的介于0和1之間的插值系數(shù);表示非凸函數(shù),用于根據(jù)鄰居的動態(tài)分布調(diào)整的影響,使插值更加符合實際數(shù)據(jù)的分布特性;
28、s105、在樣本生成過程中,算法實時監(jiān)控新樣本的質(zhì)量和類別分布的變化,根據(jù)設(shè)定的優(yōu)化目標(biāo),動態(tài)調(diào)整生成策略,調(diào)整方式表示為:
29、;
30、式中,為調(diào)整學(xué)習(xí)率,為評估合成樣本質(zhì)量的損失函數(shù),和分別表示合成樣本及其標(biāo)簽集合,表示損失函數(shù)相對于的梯度;
31、s106、將生成的合成樣本合并到原始訓(xùn)練集中,形成一個新的數(shù)據(jù)集,其公式為:
32、;
33、式中,為擴充后的數(shù)據(jù)集。
34、可選地,所述步驟s104包括:
35、非凸函數(shù)對插值系數(shù)的調(diào)整方式,其公式為:
36、;
37、式中,和為根據(jù)鄰居樣本集合計算得到的兩個不同的統(tǒng)計量,分別代表鄰居樣本在特征空間中的集中趨勢和分散趨勢;
38、其中,的計算方式,其公式為:
39、;
40、式中,是鄰居樣本的均值向量;反映的是鄰居樣本的變異系數(shù),其公式分別為:
41、;
42、;
43、式中,表示l2范數(shù)。
44、可選地,所述步驟s105包括:
45、評估合成樣本質(zhì)量的損失函數(shù)用于評估合成樣本的質(zhì)量,并調(diào)整非凸優(yōu)化參數(shù),其計算方式表示為:
46、;
47、式中,是由當(dāng)前模型預(yù)測的合成樣本的類標(biāo)簽,是交叉熵損失函數(shù),用于衡量預(yù)測標(biāo)簽與真實標(biāo)簽之間的差異。
48、可選地,所述步驟s2包括:
49、采用6層的全連接神經(jīng)網(wǎng)絡(luò)進行特征提取,通過基于動態(tài)群體進化優(yōu)化的神經(jīng)網(wǎng)絡(luò)作為特征提取模型;利用自校正機制根據(jù)當(dāng)前訓(xùn)練數(shù)據(jù)的特性自動調(diào)整進化規(guī)則,根據(jù)損失函數(shù)的變化趨勢調(diào)整交叉和變異的概率;
50、基于動態(tài)群體進化優(yōu)化的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程包括:
51、s201、根據(jù)仿生算法初始化方式,在初始化階段,生成一個初始的種群,每個個體代表一種網(wǎng)絡(luò)權(quán)重的配置,具體的,設(shè)種群大小為,為第個個體初始化權(quán)重和偏置,表示為:
52、;
53、;
54、式中,為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置,表示第個個體在初始狀態(tài)的權(quán)重矩陣;表示第個個體在初始狀態(tài)的偏置;表示初始化的方差;表示均值為0、方差為的正態(tài)分布;為正態(tài)分布;設(shè)置為0.01;
55、s202、對于種群中的每個個體,利用其對應(yīng)的神經(jīng)網(wǎng)絡(luò)配置來處理輸入的訓(xùn)練數(shù)據(jù),計算模型的輸出,并根據(jù)預(yù)定的損失函數(shù)評估其性能,具體的,對于第個個體,利用其權(quán)重和偏置計算在訓(xùn)練數(shù)據(jù)集上的損失,表示為:
56、;
57、式中,為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的損失;表示當(dāng)前批次輸入的樣本數(shù)量;表示復(fù)合損失函數(shù),表示神經(jīng)網(wǎng)絡(luò)模型函數(shù);表示第個樣本的特征;表示第個樣本的標(biāo)簽;
58、復(fù)合損失函數(shù)包含正則化項,用于增加模型的泛化能力,計算方式表示為:
59、;
60、式中,是均方誤差函數(shù),是正則化項,為正則化參數(shù);
61、正則化項的計算方式表示為:
62、;
63、式中,為為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的第個權(quán)重;
64、s203、根據(jù)個體的適應(yīng)度,從當(dāng)前種群中選擇表現(xiàn)最好的個體進行保留,作為下一代的候選解,具體的,基于個體的適應(yīng)度進行選擇,優(yōu)秀個體有更高概率被選中,個體被選擇的概率的計算方式表示為:
65、;
66、式中,表示第個個體被選擇的概率;是控制選擇壓力的參數(shù);為第個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的損失;設(shè)置為2;
67、s204、通過交叉和變異操作生成新的個體,交叉操作允許兩個優(yōu)秀個體交換部分基因,生成新的子代;變異操作則是隨機改變個體中的部分基因,以增加種群的多樣性;具體的,交叉操作隨機選擇兩個個體進行基因交換,表示為:
68、;
69、;
70、式中,是交叉率,為選定的第一個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為選定的第一個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置,為選定的第二個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為選定的第二個個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置,為交叉操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為交叉操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置;設(shè)置為0.3;
71、變異操作對新生成的個體權(quán)重進行小幅度隨機擾動,表示為:
72、;
73、;
74、式中,表示變異的方差,為變異操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的權(quán)重,為變異操作后的個體對應(yīng)的神經(jīng)網(wǎng)絡(luò)的偏置;設(shè)置為0.04;
75、s205、重復(fù)迭代上述步驟,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。
76、可選地,所述步驟s3包括:
77、采用基于特征細化的自編碼神經(jīng)網(wǎng)絡(luò)作為降維模型,所述基于特征細化的自編碼神經(jīng)網(wǎng)絡(luò)由編碼器、解碼器、特征調(diào)整模塊三部分構(gòu)成,編碼器負責(zé)將高維輸入數(shù)據(jù)映射到低維特征空間,解碼器用于將降維后的特征重構(gòu)回原始空間,以保證降維過程的可逆性;特征調(diào)整模塊通過遞歸特征自適應(yīng)優(yōu)化動態(tài)調(diào)整降維后的特征空間,使得重要特征能夠得到強化,次要特征被逐步弱化,從而使得降維后的特征表示在保留數(shù)據(jù)信息的同時具備簡潔性;
78、基于特征細化的自編碼神經(jīng)網(wǎng)絡(luò)的訓(xùn)練流程包括:
79、s301、設(shè)輸入到自編碼神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)為,編碼器采用多層非線性映射結(jié)構(gòu),將高維數(shù)據(jù)映射到初始的低維特征空間,表示為:
80、;
81、式中,表示初始低維特征,為編碼器的權(quán)重矩陣,為編碼器的偏置向量,為編碼器的多層sigmoid激活函數(shù);
82、s302、在低維特征生成后,特征調(diào)整模塊根據(jù)當(dāng)前特征空間中的特征重要性,自動生成特征權(quán)重,該模塊初始化時對所有特征賦予相同的初始權(quán)重,以便后續(xù)根據(jù)特征貢獻逐步調(diào)整,初始權(quán)重矩陣的計算方式表示為:
83、;
84、式中,為初始權(quán)重矩陣;為特征權(quán)重向量,中的每個元素初始化為相同的值,表示所有特征在初始階段具有相同的重要性;為提取矩陣的對角線元素的函數(shù);
85、調(diào)整后的特征表示為:
86、;
87、式中,為經(jīng)過特征權(quán)重調(diào)整后的特征表示;
88、s303、特征調(diào)整模塊對初步生成的低維特征進行遞歸優(yōu)化,在每一輪迭代中,模塊會根據(jù)前一輪特征的表現(xiàn),調(diào)整各個特征的權(quán)重,逐步增強具有重要影響的特征,并逐步削弱冗余或噪聲特征,設(shè)第輪迭代中,權(quán)重的更新規(guī)則如下:
89、;
90、式中,表示第輪迭代的特征權(quán)重,表示第輪迭代的特征權(quán)重,為自編碼神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率,為自編碼神經(jīng)網(wǎng)絡(luò)的損失函數(shù),為標(biāo)簽數(shù)據(jù),表示損失函數(shù)對特征權(quán)重的梯度;自編碼神經(jīng)網(wǎng)絡(luò)的損失函數(shù)為重構(gòu)誤差損失函數(shù);設(shè)置為0.01;
91、s304、為了確保降維過程的有效性,解碼器將低維特征重新映射回高維空間,以確保降維過程沒有丟失重要信息;解碼器的重構(gòu)過程表示為:
92、;
93、式中,為重構(gòu)后的高維數(shù)據(jù),為解碼器的權(quán)重矩陣,為解碼器的偏置向量,為解碼器的多層sigmoid激活函數(shù);
94、s305、重復(fù)迭代上述步驟,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。
95、可選地,所述步驟s4包括:
96、采用基于極限學(xué)習(xí)機的分類算法作為分類模型,通過采用自適應(yīng)獎勵函數(shù)來動態(tài)調(diào)整每個類別的權(quán)重;
97、基于自適應(yīng)獎勵的極限學(xué)習(xí)機的訓(xùn)練流程包括:
98、s401、初始化極限學(xué)習(xí)機模型結(jié)構(gòu),極限學(xué)習(xí)機的輸入層、隱藏層和輸出層的節(jié)點數(shù)分別設(shè)為、和;其中是特征數(shù),是隱藏層節(jié)點數(shù),是輸出類別數(shù);
99、取決于特征降維后的特征向量的維度,設(shè)置為100,取決于數(shù)據(jù)標(biāo)注的類別數(shù)量;
100、s402、通過優(yōu)化算法預(yù)調(diào)極限學(xué)習(xí)機的整隱藏層的權(quán)重和偏差,以更好地適應(yīng)訓(xùn)練數(shù)據(jù)的初步分布,設(shè)極限學(xué)習(xí)機隱藏層的權(quán)重為,極限學(xué)習(xí)機隱藏層的偏差為,初始化為:
101、;
102、;
103、式中,表示生成一個的矩陣,其元素從一個均勻或正態(tài)分布中隨機生成;
104、s403、利用激活函數(shù)計算每個樣本在隱藏層的輸出,設(shè)極限學(xué)習(xí)機的隱藏層的輸出為,計算方式表示為:
105、;
106、式中,是極限學(xué)習(xí)機的輸入數(shù)據(jù)矩陣;是全1向量,用于廣播偏差項到每個數(shù)據(jù)樣本;為sigmoid激活函數(shù);
107、s404、在輸出層之前,根據(jù)分類任務(wù)的重要性和難易程度動態(tài)調(diào)整輸出權(quán)重,通過反饋學(xué)習(xí)不斷優(yōu)化,旨在提升模型對關(guān)鍵故障的預(yù)測能力,具體的,設(shè)輸出層的權(quán)重為,其根據(jù)類別的誤差動態(tài)調(diào)整權(quán)重,表示為:
108、;
109、式中,是權(quán)重學(xué)習(xí)率;是權(quán)重損失函數(shù),評估實際輸出與預(yù)測輸出之間的誤差;為第次迭代的輸出層的權(quán)重;為第次迭代的輸出層的權(quán)重;為第個類別的調(diào)節(jié)因子;
110、權(quán)重損失函數(shù)計算方式表示為:
111、;
112、式中,是真實標(biāo)簽矩陣中的元素,是由模型預(yù)測的對應(yīng)類別的概率;
113、調(diào)節(jié)因子根據(jù)類別的樣本數(shù)量或先前周期的訓(xùn)練誤差進行調(diào)整,使得權(quán)重更新更加精細化,適應(yīng)性更強,計算方式表示為:
114、;
115、式中,是第類別的樣本數(shù)量,是總樣本數(shù)量;
116、s405、極限學(xué)習(xí)機的輸出層的權(quán)重通過求解一個優(yōu)化問題得到,以確保更精確地反映從隱藏層到輸出層的映射關(guān)系,最小化輸出誤差的目標(biāo)函數(shù)是:
117、;
118、式中,為極限學(xué)習(xí)機的輸出層的權(quán)重,表示數(shù)據(jù)復(fù)雜度;
119、為提高模型的適應(yīng)性和準(zhǔn)確性,數(shù)據(jù)復(fù)雜度的計算方式表示為:
120、;
121、式中,是第個特征的標(biāo)準(zhǔn)差,為輸入極限學(xué)習(xí)機的數(shù)據(jù)的第個特征;
122、s406、重復(fù)迭代上述步驟,直至滿足預(yù)設(shè)的停止迭代條件,即表示模型訓(xùn)練完成。
123、第二方面,本發(fā)明實施例提供一種電子設(shè)備,包括:一個或多個處理器;存儲器;以及一個或多個計算機程序,其中所述一個或多個計算機程序被存儲在所述存儲器中,所述一個或多個計算機程序包括指令,當(dāng)所述指令被所述設(shè)備執(zhí)行時,使得所述設(shè)備執(zhí)行第一方面或第一方面任一可能的實現(xiàn)方式中的面向礦山安全的設(shè)備預(yù)測性維護監(jiān)測方法。
124、本發(fā)明提供的技術(shù)方案中,該方法包括采集礦山設(shè)備的運行數(shù)據(jù),對運行數(shù)據(jù)進行標(biāo)注;并對標(biāo)注后的運行數(shù)據(jù)進行擴充,得到擴充后的數(shù)據(jù)集;通過擴充后的數(shù)據(jù)集對特征提取模型進行訓(xùn)練,得到訓(xùn)練后的特征提取模型和特征提取后的數(shù)據(jù);將特征提取后的數(shù)據(jù)輸入到特征降維模型中,進行特征降維模型的訓(xùn)練,得到訓(xùn)練后的特征降維模型和特征降維后的數(shù)據(jù);利用特征降維后的數(shù)據(jù)對分類器模型進行訓(xùn)練,得到訓(xùn)練后的分類器模型;通過訓(xùn)練后的特征提取模型、特征降維模型和分類器模型對新樣本進行處理,以預(yù)測礦山設(shè)備的運行,該方法有效地對礦山設(shè)備進行了預(yù)測性維護,降低了設(shè)備故障率,保障了設(shè)備安全運行。