本技術(shù)涉及領(lǐng)域,具體涉及一種基于大語言模型的任務處理方法、裝置、設(shè)備及介質(zhì)。
背景技術(shù):
1、近年來,隨著人工智能技術(shù)的飛速發(fā)展,大規(guī)模語言模型(large?languagemodels,llms)在自然語言處理、機器翻譯、智能問答等領(lǐng)域展現(xiàn)出了巨大的潛力和應用價值。這些模型憑借其強大的語言理解和生成能力,正在改變著人機交互的方式,并在各行各業(yè)中得到廣泛應用。然而,隨著模型規(guī)模的不斷擴大和應用場景的日益復雜,大模型的運營面臨著諸多挑戰(zhàn),主要表現(xiàn)在以下幾個方面:
2、資源消耗問題:大規(guī)模語言模型通常需要消耗大量的計算資源和能源。例如,gpt-3這樣的模型包含數(shù)千億個參數(shù),在訓練和推理過程中都需要大量的gpu資源和電力支持。這不僅帶來了高昂的運營成本,還造成了顯著的環(huán)境負擔。目前,許多研究都在致力于如何在保證模型性能的同時,降低資源消耗,但這仍然是一個亟待解決的難題。
3、推理效率低下:大模型在處理復雜任務時,往往需要較長的推理時間,這在實時性要求較高的應用場景中可能會導致用戶體驗下降。盡管有研究提出了模型壓縮、知識蒸餾等方法來提高推理速度,但這些方法通常會在一定程度上犧牲模型的性能,難以在效率和性能之間取得完美平衡。
4、任務適應性不足:大模型雖然在廣泛的任務上表現(xiàn)出色,但對于特定領(lǐng)域或復雜的任務可能存在適應性不足的問題。這導致在處理某些專業(yè)性強或結(jié)構(gòu)復雜的任務時,可能需要額外的微調(diào)或?qū)iT的模型版本,增加了模型維護和部署的復雜性。
5、資源分配不合理:在實際應用中,不同的任務對計算資源的需求差異很大。然而,現(xiàn)有的大模型運營方式往往采用統(tǒng)一的資源分配策略,無法根據(jù)任務的具體需求動態(tài)調(diào)整資源分配,導致資源利用效率低下,有時會出現(xiàn)簡單任務占用過多資源,而復雜任務資源不足的情況。
6、并行處理能力不足:復雜任務通??梢员环纸鉃槎鄠€子任務,理論上這些子任務可以并行處理以提高效率。但是,現(xiàn)有的大模型運營方法在任務拆解和并行處理方面的能力還比較有限,難以充分利用硬件的并行計算能力。
7、為了應對這些挑戰(zhàn),研究者們提出了多種解決方案。例如,模型量化技術(shù)被用來降低模型的存儲和計算需求;模型剪枝方法則通過去除不重要的神經(jīng)元來減小模型規(guī)模;分布式訓練和推理技術(shù)被廣泛應用于提高大模型的處理效率。此外,一些研究嘗試通過多模型融合或模型動態(tài)選擇的方式來提高系統(tǒng)的任務適應性。
8、然而,這些方法通常只能解決部分問題,缺乏一個統(tǒng)一的框架來全面提升大模型的運營效率。特別是在動態(tài)任務處理、資源智能分配以及任務并行執(zhí)行等方面,現(xiàn)有技術(shù)仍存在明顯的不足。
技術(shù)實現(xiàn)思路
1、為了解決上述問題,本技術(shù)提出了一種方法、設(shè)備及介質(zhì),其中方法包括:
2、通過大語言模型將目標任務進行拆解,以得到多個子任務以及所述多個子任務分別對應的子任務信息;根據(jù)所述子任務信息,確定所述多個子任務分別對應的步驟編號、任務描述、前置步驟編號、任務類別以及任務難度;基于所述多個子任務分別對應的任務描述、任務類別以及任務難度,確定所述多個子任務分別對應的執(zhí)行模型;使用執(zhí)行模型,執(zhí)行所述多個子任務,以得到所述多個子任務的子執(zhí)行結(jié)果;對所述多個子任務的子執(zhí)行結(jié)果進行整合,以得到所述目標任務的執(zhí)行結(jié)果。
3、在一個示例中,基于所述多個子任務分別對應的任務描述、任務類別以及任務難度,確定所述多個子任務分別對應的執(zhí)行模型,具體包括:在所述多個子任務選擇任一子任務,作為目標子任務;基于所述目標子任務的任務描述以及任務類別,確定執(zhí)行所述目標子任務對應的執(zhí)行工具;基于所述目標子任務對應的任務難度,確定所述目標子任務對應執(zhí)行模型的模型尺寸;基于所述執(zhí)行工具以及所述模型尺寸,在預設(shè)模型池中選擇目標執(zhí)行模型;遍歷所述多個子任務,直至所述多個子任務都確定了對應的執(zhí)行模型。
4、在一個示例中,所述預設(shè)模型池中維護有多個不同專業(yè)化方向以及不同參數(shù)規(guī)模的大語言模型。
5、在一個示例中,所述使用執(zhí)行模型,執(zhí)行所述多個子任務,具體包括:將所述預設(shè)模型池中與所述目標子任務對應模型尺寸的執(zhí)行模型作為所述目標子任務的理想模型;若確定所述目標子任務的執(zhí)行模型時,所述理想模型處于被調(diào)用狀態(tài),則基于所述目標子任務的任務難度以及模型尺寸,在所述預設(shè)模型池中挑選模型尺寸相近的預設(shè)模型作為所述目標子任務的待執(zhí)行模型;在執(zhí)行所述目標子任務時,判斷所述理想模型是否處于被調(diào)用狀態(tài);若所述理想模型處于被調(diào)用狀態(tài),則通過所述待執(zhí)行模型執(zhí)行所述目標子任務;若所述理想模型處于空閑狀態(tài),則通過所述理想模型執(zhí)行所述目標子任務。
6、在一個示例中,所述使用執(zhí)行模型,執(zhí)行所述多個子任務之前,具體包括:基于所述多個子任務分別對應的步驟編號以及前置步驟編號,確定所述多個子任務對應的多條單線執(zhí)行順序;基于所述多個子任務對應的多條單線執(zhí)行順序,以及空閑線程數(shù)量,確定所述多個子任務的串并行執(zhí)行序列;基于所述串并行執(zhí)行序列,以及所述執(zhí)行模型,執(zhí)行所述多個子任務。
7、在一個示例中,所述對所述多個子任務的子執(zhí)行結(jié)果進行整合,以得到所述目標任務的執(zhí)行結(jié)果,具體包括:根據(jù)所述串并行執(zhí)行序列,將所述多個子任務的子執(zhí)行結(jié)果中確定中間執(zhí)行結(jié)果;將所述中間執(zhí)行結(jié)果按照所述串并行執(zhí)行序列輸入至下一子任務的執(zhí)行模型中,直至得到多個執(zhí)行序列分別對應的序列結(jié)果;將所述多個執(zhí)行序列分別對應的序列結(jié)果進行整合,以得到所述目標任務的執(zhí)行結(jié)果。
8、在一個示例中,所述任務類別包括tool類型以及chat類型,所述tool類型的任務為需要通過調(diào)用各類執(zhí)行工具完成的任務。
9、本技術(shù)還提供了一種基于大語言模型的任務處理方法裝置,包括:拆解模塊,通過大語言模型將目標任務進行拆解,以得到多個子任務以及所述多個子任務分別對應的子任務信息;子任務信息模塊,根據(jù)所述子任務信息,確定所述多個子任務分別對應的步驟編號、任務描述、前置步驟編號、任務類別以及任務難度;執(zhí)行模型模塊,基于所述多個子任務分別對應的任務描述、任務類別以及任務難度,確定所述多個子任務分別對應的執(zhí)行模型;執(zhí)行模塊,使用執(zhí)行模型,執(zhí)行所述多個子任務,以得到所述多個子任務的子執(zhí)行結(jié)果;整合模塊,對所述多個子任務的子執(zhí)行結(jié)果進行整合,以得到所述目標任務的執(zhí)行結(jié)果。
10、本技術(shù)還提供了一種基于大語言模型的任務分解處理設(shè)備,包括:至少一個處理器;以及,與所述至少一個處理器通信連接的存儲器;其中,所述存儲器存儲有可被所述至少一個處理器執(zhí)行的指令,所述指令被所述至少一個處理器執(zhí)行,以使所述至少一個處理器能夠執(zhí)行:通過大語言模型將目標任務進行拆解,以得到多個子任務以及所述多個子任務分別對應的子任務信息;根據(jù)所述子任務信息,確定所述多個子任務分別對應的步驟編號、任務描述、前置步驟編號、任務類別以及任務難度;基于所述多個子任務分別對應的任務描述、任務類別以及任務難度,確定所述多個子任務分別對應的執(zhí)行模型;使用執(zhí)行模型,執(zhí)行所述多個子任務,以得到所述多個子任務的子執(zhí)行結(jié)果;對所述多個子任務的子執(zhí)行結(jié)果進行整合,以得到所述目標任務的執(zhí)行結(jié)果。
11、本技術(shù)還提供了一種非易失性計算機存儲介質(zhì),存儲有計算機可執(zhí)行指令,所述計算機可執(zhí)行指令設(shè)置為:通過大語言模型將目標任務進行拆解,以得到多個子任務以及所述多個子任務分別對應的子任務信息;根據(jù)所述子任務信息,確定所述多個子任務分別對應的步驟編號、任務描述、前置步驟編號、任務類別以及任務難度;基于所述多個子任務分別對應的任務描述、任務類別以及任務難度,確定所述多個子任務分別對應的執(zhí)行模型;使用執(zhí)行模型,執(zhí)行所述多個子任務,以得到所述多個子任務的子執(zhí)行結(jié)果;對所述多個子任務的子執(zhí)行結(jié)果進行整合,以得到所述目標任務的執(zhí)行結(jié)果。
12、通過本技術(shù)提出的方法能夠帶來如下有益效果:利用大模型自動識別輸入任務的類別和難度,并通過大模型將復雜任務拆解為多個子任務。在任務拆解的基礎(chǔ)上,進而通過大模型根據(jù)各子任務的難度級別以及各個模塊的實際執(zhí)行過程,確定出模型池中與當前任務在難度、場景上最為匹配的執(zhí)行模型;根據(jù)任務的具體難度,可以實現(xiàn)動態(tài)調(diào)用不同參數(shù)體量的大模型,將適當?shù)淖尤蝿辗峙浣o相應能力的模型執(zhí)行,從而在保證任務質(zhì)量的同時,最大限度地減少資源浪費。這種動態(tài)調(diào)用和任務分配機制不僅顯著降低了大模型的推理時間,還實現(xiàn)了智能體中計算資源的合理化分配。通過這種創(chuàng)新方法,本發(fā)明有效地提高了智能體的整體運行效率,為大規(guī)模人工智能系統(tǒng)的優(yōu)化提供了新的思路和解決方案。