国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      基于GPT的加彈機數(shù)字孿生機理模型構建方法及系統(tǒng)與流程

      文檔序號:40283246發(fā)布日期:2024-12-11 13:25閱讀:16來源:國知局
      基于GPT的加彈機數(shù)字孿生機理模型構建方法及系統(tǒng)與流程

      本發(fā)明涉及紡織復雜裝備故障預測領域,尤其涉及一種基于gpt的加彈機數(shù)字孿生機理模型構建方法及系統(tǒng)。


      背景技術:

      1、紡織行業(yè)關系民生,是國家基礎性產(chǎn)業(yè),而衡量國家紡織水平的重要標準之一是高端紡織復雜裝備。加彈機屬于高度集成的先進工程技術機械,該類裝備是突破紡織行業(yè)智能化轉型的關鍵。加彈機的生產(chǎn)模式通常屬于24x7,且長期處于超負荷、高強度的狀態(tài),其關鍵零部件的損壞或性能退化不僅會降低生產(chǎn)質量,甚至會使裝備出現(xiàn)意外宕機,給企業(yè)帶來巨大的經(jīng)濟損失。因此,利用數(shù)字化手段對加彈機進行故障預測顯得至關重要。而實現(xiàn)加彈機的故障預測不僅要求能夠采集實時、全面的運行數(shù)據(jù),同時建立能夠真實反映內部機理的數(shù)字化模型更為關鍵。

      2、在構建機理模型時,需全面考慮復雜系統(tǒng)內部各部件間的物理耦合關系及其相應的退化機制,以形成能夠精確映射物理退化實體的數(shù)字化模型。然而,目前這類機理模型的構建高度依賴于手工操作,不僅成本高昂且效率低下。特別是在設計、工藝或工況發(fā)生改變時,需要重復進行手工建模,這難以滿足實際應用的需求。


      技術實現(xiàn)思路

      1、針對現(xiàn)有技術存在的問題,本發(fā)明的目的是提供一種高效的基于gpt的加彈機數(shù)字孿生機理模型構建方法及系統(tǒng)

      2、為了實現(xiàn)上述發(fā)明目的,本發(fā)明提供如下技術方案:

      3、一種基于gpt的加彈機數(shù)字孿生機理模型構建方法,包括如下步驟:

      4、s1、獲取若干歷史加彈機數(shù)字孿生機理模型,通過“模型-程序-文本”正向多模態(tài)映射機制轉換為自然語言文本,其中,所述正向多模態(tài)映射機制用于先將歷史加彈機數(shù)字孿生機理模型轉化為計算機程序,然后再將計算程序轉化為預設格式的自然語言文本;

      5、s2、構建gpt深度學習模型,并將步驟s1生成的自然語言文本和對應計算機程序作為樣本,對gpt深度學習模型進行訓練,其中,所述gpt深度學習模型用于根據(jù)加彈機數(shù)字孿生機理模型的自然語言文本生成對應的計算機程序;

      6、s3、獲取目標加彈機數(shù)字孿生機理模型的需求,將需求轉換為預設格式的自然語言文本,輸入到訓練完成的gpt深度學習模型中,并將gpt深度學習模型的輸出轉換為模型,得到目標加彈機數(shù)字孿生機理模型。

      7、進一步的,步驟s1具體包括如下步驟:

      8、s11、獲取若干歷史加彈機數(shù)字孿生機理模型,將歷史加彈機數(shù)字孿生機理模型采用模型轉換工具轉換為預設編程語言的計算機程序,并進行測試,刪除或修改測試不通過的計算機程序;

      9、s12、根據(jù)歷史加彈機數(shù)字孿生機理模型,提取加彈機關鍵文本知識,構建加彈機文本知識數(shù)據(jù)庫,并將加彈機文本知識數(shù)據(jù)庫中的文本知識與計算機程序中的加彈機關鍵信息進行映射,形成文本知識-計算機程序映射關系;

      10、s13、對步驟s11獲取的計算機程序進行解析,提取其中加彈機關鍵信息,并利用自然語言生成技術,結合文本知識-計算機程序映射關系,將計算機程序中的加彈機關鍵信息轉換為預設格式的自然語言文本;

      11、s14、對步驟s13獲取的自然語言文本進行驗證,修改和調整其中的不一致或錯誤。

      12、進一步的,所述利用自然語言生成技術,結合文本知識-計算機程序映射關系,將計算機程序中的加彈機關鍵信息轉換為預設格式的自然語言文本,具體包括:

      13、通過預先編寫的文本模版,使用規(guī)則或機器學習算法,根據(jù)文本知識-計算機程序映射關系,將計算機程序中的加彈機關鍵信息與文本模板進行匹配和填充,生成預設格式的自然語言文本,并在填寫完成后進行檢查;其中,所述文本模版為描述加彈機的不同構成部分和工作狀態(tài)的模板。

      14、進一步的,步驟s2具體包括如下步驟:

      15、s21、將每個歷史加彈機數(shù)字孿生機理模型的自然語言文本和計算機程序作為樣本對,形成樣本集,并劃分為訓練集和測試集;

      16、s22、構建gpt深度學習模型,所述gpt深度學習模型包括相連接的文本編碼器和程序解析器,所述文本編碼器用于將輸入的加彈機數(shù)字孿生機理模型的自然語言文本編碼為一系列向量表示,所述向量表示捕捉了自然語言文本中的語義和句法信息;所述程序解析器用于根據(jù)所述向量表示生成相應的計算機程序;

      17、s23、采用步驟s21的訓練集對所述gpt深度學習模型進行預訓練,并在預訓練完成后,使用測試集對gpt深度學習模型進行測試,最后根據(jù)測試結果對gpt深度學習模型進行微調,直至gpt深度學習模型達到預設要求。

      18、進一步的,步驟s3具體包括如下步驟:

      19、s31、獲取目標加彈機數(shù)字孿生機理模型的需求,將目標加彈機數(shù)字孿生機理模型的需求填寫在預先編寫的文本模板中,得到預設格式的自然語言文本;

      20、s32、將步驟s31獲取的自然語言文本輸入到訓練完成的gpt深度學習模型中,輸出即為目標加彈機數(shù)字孿生機理模型的計算機程序;

      21、s33、將目標加彈機數(shù)字孿生機理模型的計算機程序,采用模型轉換工具轉換為目標加彈機數(shù)字孿生機理模型。

      22、一種基于gpt的加彈機數(shù)字孿生機理模型構建系統(tǒng),包括:

      23、正向映射模塊,用于獲取若干歷史加彈機數(shù)字孿生機理模型,通過“模型-程序-文本”正向多模態(tài)映射機制轉換為自然語言文本,其中,所述正向多模態(tài)映射機制用于先將歷史加彈機數(shù)字孿生機理模型轉化為計算機程序,然后再將計算程序轉化為預設格式的自然語言文本;

      24、深度學習模型獲取模塊,用于構建gpt深度學習模型,并將步驟s1生成的自然語言文本和對應計算機程序作為樣本,對gpt深度學習模型進行訓練,其中,所述gpt深度學習模型用于根據(jù)加彈機數(shù)字孿生機理模型的自然語言文本生成對應的計算機程序;

      25、目標模型構建模塊,用于獲取目標加彈機數(shù)字孿生機理模型的需求,將需求轉換為預設格式的自然語言文本,輸入到訓練完成的gpt深度學習模型中,并將gpt深度學習模型的輸出轉換為模型,得到目標加彈機數(shù)字孿生機理模型。

      26、進一步的,所述正向映射模塊具體包括:

      27、模型轉換單元,用于獲取若干歷史加彈機數(shù)字孿生機理模型,將歷史加彈機數(shù)字孿生機理模型采用模型轉換工具轉換為預設編程語言的計算機程序,并進行測試,刪除或修改測試不通過的計算機程序;

      28、文本映射關系建立單元,用于根據(jù)歷史加彈機數(shù)字孿生機理模型,提取加彈機關鍵文本知識,構建加彈機文本知識數(shù)據(jù)庫,并將加彈機文本知識數(shù)據(jù)庫中的文本知識與計算機程序中的加彈機關鍵信息進行映射,形成文本知識-計算機程序映射關系;

      29、文本轉換單元,用于對模型轉換單元獲取的計算機程序進行解析,提取其中加彈機關鍵信息,并利用自然語言生成技術,結合文本知識-計算機程序映射關系,將計算機程序中的加彈機關鍵信息轉換為預設格式的自然語言文本;

      30、驗證單元,用于對文本轉換單元獲取的自然語言文本進行驗證,修改和調整其中的不一致或錯誤。

      31、進一步的,所述文本轉換單元具體包括:

      32、程序解析子單元,用于對模型轉換單元獲取的計算機程序進行解析,提取其中加彈機關鍵信息;

      33、文本生成子單元,用于通過預先編寫的文本模版,使用規(guī)則或機器學習算法,根據(jù)文本知識-計算機程序映射關系,將計算機程序中的加彈機關鍵信息與文本模板進行匹配和填充,生成預設格式的自然語言文本,并在填寫完成后進行檢查;其中,所述文本模版為描述加彈機的不同構成部分和工作狀態(tài)的模板。

      34、進一步的,所述深度學習模型獲取模塊具體包括:

      35、樣本集生成單元,用于將每個歷史加彈機數(shù)字孿生機理模型的自然語言文本和計算機程序作為樣本對,形成樣本集,并劃分為訓練集和測試集;

      36、深度學習模型構建單元,用于構建gpt深度學習模型,所述gpt深度學習模型包括相連接的文本編碼器和程序解析器,所述文本編碼器用于將輸入的加彈機數(shù)字孿生機理模型的自然語言文本編碼為一系列向量表示,所述向量表示捕捉了自然語言文本中的語義和句法信息;所述程序解析器用于根據(jù)所述向量表示生成相應的計算機程序;

      37、模型訓練單元,用于采用樣本集生成單元生成的訓練集對所述gpt深度學習模型進行預訓練,并在預訓練完成后,使用測試集對gpt深度學習模型進行測試,最后根據(jù)測試結果對gpt深度學習模型進行微調,直至gpt深度學習模型達到預設要求。

      38、進一步的,所述目標模型構建模塊具體包括:

      39、目標模型文本獲取單元,用于獲取目標加彈機數(shù)字孿生機理模型的需求,將目標加彈機數(shù)字孿生機理模型的需求填寫在預先編寫的文本模板中,得到預設格式的自然語言文本;

      40、目標程序獲取單元,用于將目標模型文本獲取單元獲取的自然語言文本輸入到訓練完成的gpt深度學習模型中,輸出即為目標加彈機數(shù)字孿生機理模型的計算機程序;

      41、目標模型獲取單元,用于將目標加彈機數(shù)字孿生機理模型的計算機程序,采用模型轉換工具轉換為目標加彈機數(shù)字孿生機理模型。

      42、本發(fā)明與現(xiàn)有技術相比,其有益效果是:

      43、(1)本發(fā)明采用gpt深度學習模型解決了數(shù)字孿生機理模型從文本到對應計算機程序的快速轉化;

      44、(2)本發(fā)明實現(xiàn)了數(shù)字孿生機理模型的自動生成,與傳統(tǒng)手工建模相比,提高了機理模型的構建效率,同時降低了機理模型的構建成本。

      當前第1頁1 2 
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1