技術(shù)編號(hào):40385651
提示:您尚未登錄,請(qǐng)點(diǎn) 登 陸 后下載,如果您還沒(méi)有賬戶請(qǐng)點(diǎn) 注 冊(cè) ,登陸完成后,請(qǐng)刷新本頁(yè)查看技術(shù)詳細(xì)信息。本發(fā)明涉及人工智能,尤其涉及一種減少算力損耗的多模態(tài)大模型緩存系統(tǒng)及方法。背景技術(shù)、隨著人工智能技術(shù)的飛速發(fā)展,大模型(large?models)在自然語(yǔ)言處理、圖像識(shí)別、推薦系統(tǒng)等領(lǐng)域得到了廣泛應(yīng)用。大模型通常指的是參數(shù)量達(dá)到億級(jí)甚至十億級(jí)的深度學(xué)習(xí)模型,如openai的gpt-、谷歌的transformer等。這些模型能夠處理復(fù)雜的任務(wù),提供高質(zhì)量的預(yù)測(cè)結(jié)果,但隨之而來(lái)的是對(duì)計(jì)算資源的巨大需求。、在大模型的推理應(yīng)用中,每當(dāng)用戶提出一個(gè)查詢或者輸入一個(gè)提示語(yǔ)(prompt),模型就需要進(jìn)...
注意:該技術(shù)已申請(qǐng)專利,請(qǐng)尊重研發(fā)人員的辛勤研發(fā)付出,在未取得專利權(quán)人授權(quán)前,僅供技術(shù)研究參考不得用于商業(yè)用途。
該專利適合技術(shù)人員進(jìn)行技術(shù)研發(fā)參考以及查看自身技術(shù)是否侵權(quán),增加技術(shù)思路,做技術(shù)知識(shí)儲(chǔ)備,不適合論文引用。
請(qǐng)注意,此類技術(shù)沒(méi)有源代碼,用于學(xué)習(xí)研究技術(shù)思路。