本發(fā)明涉及網(wǎng)絡(luò)通信、數(shù)字孿生應(yīng)用、大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)、邊緣計(jì)算、5g應(yīng)用,具體為一種消除生成式大模型幻覺(jué)問(wèn)題的方法及系統(tǒng)。
背景技術(shù):
1、生成式大模型的幻覺(jué)現(xiàn)象始終是一個(gè)不容忽視的難題。這些模型在處理用戶(hù)提供的圖像和查詢(xún)時(shí),有時(shí)會(huì)因幻覺(jué)現(xiàn)象而給出荒誕的回答,錯(cuò)誤地描述圖像中不存在的物體,或者對(duì)圖像中物體的顏色、數(shù)量和位置關(guān)系做出與事實(shí)不符的解讀。這種幻覺(jué)現(xiàn)象不僅影響了模型的可靠性,還可能在實(shí)際應(yīng)用中引發(fā)嚴(yán)重的誤導(dǎo)和錯(cuò)誤。
2、為了解決這一困擾生成式大模型的幻覺(jué)問(wèn)題,傳統(tǒng)策略主要集中在兩方向:一個(gè)方向方案集中在構(gòu)建和整合額外的訓(xùn)練數(shù)據(jù)上,試圖通過(guò)增加模型的訓(xùn)練量來(lái)優(yōu)化其性能,減少幻覺(jué)現(xiàn)象的發(fā)生。這些方法通過(guò)擴(kuò)大數(shù)據(jù)集的多樣性和覆蓋范圍,期望模型能夠在更多的場(chǎng)景中正確識(shí)別和推理。然而,實(shí)施這些方案通常伴隨著高昂的數(shù)據(jù)采集成本和數(shù)據(jù)標(biāo)注的人工成本,難以在實(shí)際應(yīng)用中大規(guī)模推廣。
3、另一個(gè)方向是尋求外部知識(shí)或更高級(jí)模型的輔助,以提供更準(zhǔn)確的信息來(lái)指導(dǎo)模型的推理過(guò)程。例如,某些方法引入了知識(shí)圖譜或?qū)<蚁到y(tǒng),嘗試通過(guò)提供額外的背景信息來(lái)減少模型的誤判。然而,這類(lèi)方法也存在明顯的局限性:外部知識(shí)的獲取和整合復(fù)雜且成本高昂,并且在處理特定領(lǐng)域或新場(chǎng)景時(shí),外部知識(shí)的有效性可能大幅下降。此外,許多方法對(duì)于幻覺(jué)現(xiàn)象產(chǎn)生的內(nèi)在機(jī)制和原因缺乏深入的分析和研究,導(dǎo)致了數(shù)據(jù)集之外的場(chǎng)景泛化能力不足。
技術(shù)實(shí)現(xiàn)思路
1、鑒于上述存在的問(wèn)題,提出了本發(fā)明。
2、因此,本發(fā)明解決的技術(shù)問(wèn)題是:現(xiàn)有的集束解碼方法存在數(shù)據(jù)標(biāo)注的人工成本高,場(chǎng)數(shù)據(jù)采集成本高,效率低,以及數(shù)據(jù)集之外的場(chǎng)景泛化能力不足的問(wèn)題。
3、為解決上述技術(shù)問(wèn)題,本發(fā)明提供如下技術(shù)方案:一種消除生成式大模型幻覺(jué)問(wèn)題的方法,包括在自注意力的權(quán)重圖上定義滑動(dòng)窗口;對(duì)權(quán)重進(jìn)行數(shù)值上的放大處理;將負(fù)反饋得分直接作用在序列的集束搜索得分上;通過(guò)回溯-重新分配策略糾正滯后性導(dǎo)致的序列。
4、作為本發(fā)明所述的消除生成式大模型幻覺(jué)問(wèn)題的方法的一種優(yōu)選方案,其中:所述在自注意力的權(quán)重圖上定義滑動(dòng)窗口包括在自注意力的權(quán)重圖上定義滑動(dòng)窗口,分析模型在推理過(guò)程中的注意力分布;
5、定義當(dāng)前生成的序列和對(duì)應(yīng)的因果自注意力權(quán)重
6、權(quán)重用于預(yù)測(cè)下一個(gè)字符標(biāo)記,權(quán)重表示為:
7、
8、其中,q,k,d分別代表查詢(xún)特征、鍵特征和特征維度;
9、為收集之前的自注意力權(quán)重,定義滑動(dòng)窗口注意力為包含從第t-k個(gè)到第t-1個(gè)標(biāo)記的注意力權(quán)重,表示為:
10、
11、其中,k表示在注意力圖上裁剪的滑動(dòng)窗口的大小,ωi,j表示第j個(gè)標(biāo)記對(duì)第i個(gè)標(biāo)記分配的注意力權(quán)重。
12、作為本發(fā)明所述的消除生成式大模型幻覺(jué)問(wèn)題的方法的一種優(yōu)選方案,其中:所述對(duì)權(quán)重進(jìn)行數(shù)值上的放大處理包括將權(quán)重進(jìn)行數(shù)值上的放大處理,通過(guò)列乘法輸出得分向量;
13、得分向量反映模型在生成句子時(shí)對(duì)不同信息的依賴(lài)程度;
14、輸出指標(biāo)來(lái)描述信息聚合模式的大小,對(duì)進(jìn)行預(yù)處理,包括將矩陣的上三角部分填充為零,并放大注意力值,表示為:
15、
16、其中,均為零,σ表示可配置的縮放因子。
17、作為本發(fā)明所述的消除生成式大模型幻覺(jué)問(wèn)題的方法的一種優(yōu)選方案,其中:所述對(duì)權(quán)重進(jìn)行數(shù)值上的放大處理包括在注意力矩陣的下三角部分進(jìn)行逐列乘法運(yùn)算,輸出逐列得分的向量;
18、得分與在對(duì)應(yīng)位置的過(guò)分信賴(lài)程度呈正比;
19、選擇逐列得分向量的最大值作為知識(shí)聚合模式的特征,表示為:
20、
21、其中,c表示公式向量的列的下標(biāo)值。
22、作為本發(fā)明所述的消除生成式大模型幻覺(jué)問(wèn)題的方法的一種優(yōu)選方案,其中:所述將負(fù)反饋得分直接作用在序列的集束搜索得分上包括在集束搜索過(guò)程中,得分低于閾值的序列被逐漸淘汰,而得分高于閾值的序列則被選中作為最終的輸出;
23、在解碼過(guò)程中自動(dòng)抑制表現(xiàn)出被高度信任的特征序列,降低幻覺(jué)內(nèi)容的生成概率;
24、選擇每個(gè)波束的對(duì)數(shù)概率中的前ncan個(gè)值來(lái)構(gòu)成一個(gè)候選集y,|y|=ncan*nbeam,nbeam是波束的數(shù)量;
25、預(yù)測(cè)限制在候選集內(nèi),并將φ(w≤t)與模型的對(duì)數(shù)概率結(jié)合起來(lái)預(yù)測(cè)下一個(gè)標(biāo)記(token),表示為:
26、
27、其中,xt∈y,w≤t表示通過(guò)向前傳遞序列{x0,x1,...,xt}獲得的所有注意力權(quán)重的簡(jiǎn)化表示。
28、作為本發(fā)明所述的消除生成式大模型幻覺(jué)問(wèn)題的方法的一種優(yōu)選方案,其中:所述通過(guò)回溯-重新分配策略糾正滯后性導(dǎo)致的序列包括由于高度信任的特征在解碼過(guò)程的后期才顯現(xiàn)出來(lái),滯后性導(dǎo)致已經(jīng)生成的序列無(wú)法被及時(shí)糾正;
29、提出回溯-重新分配的策略,策略中最近字符的得分向量中,若出現(xiàn)最大值下標(biāo)并且下標(biāo)連續(xù)出現(xiàn)的次數(shù)高于閾值,則模型在生成字符時(shí)依賴(lài)特定信息;
30、將回溯解碼過(guò)程,找到下標(biāo)對(duì)應(yīng)的字符位置,并重新從詞表中選擇概率次高的詞,排除之前已經(jīng)選擇的詞,進(jìn)行替換,糾正已經(jīng)生成的幻覺(jué)內(nèi)容;
31、給定一個(gè)序列{x0,x1,...,xt-1}及最近的位置坐標(biāo)集c,檢查坐標(biāo)是否一致,重疊次數(shù)表示為:
32、
33、其中,1表示一個(gè)指示函數(shù),當(dāng)條件為真時(shí)返回1,否則返回0,(mode表示獲取一組值眾數(shù)的函數(shù)。
34、作為本發(fā)明所述的消除生成式大模型幻覺(jué)問(wèn)題的方法的一種優(yōu)選方案,其中:所述通過(guò)回溯-重新分配策略糾正滯后性導(dǎo)致的序列包括設(shè)定重疊次數(shù)的閾值為r;
35、若(noverlap≥r),考慮實(shí)施回溯,將眾數(shù)(s=mode(c))視為摘要標(biāo)記的位置;
36、假設(shè)序列{x0,x1,...,xs,...,xt-1}在摘要標(biāo)記(xs)處呈現(xiàn)出高度信任聚合現(xiàn)象,將解碼過(guò)程回滾到序列{x0,x1,...,xs},并從互補(bǔ)集(υ/xs+1)中重新分配選擇下一個(gè)新的標(biāo)記;
37、由于隨后的回滾將比之前的回滾更進(jìn)一步,回滾位置(s)單調(diào)不減;
38、為回滾配置最大次數(shù)(β),若(xs)已經(jīng)達(dá)到了最大回滾次數(shù),則考慮回滾到{x0,x1,...,xs-1}。
39、本發(fā)明的另外一個(gè)目的是提供一種消除生成式大模型幻覺(jué)問(wèn)題的系統(tǒng),其能通過(guò)回溯-重新分配的策略,解決了目前的集束解碼方法含有數(shù)據(jù)集之外的場(chǎng)景泛化能力不足的問(wèn)題。
40、作為本發(fā)明所述的消除生成式大模型幻覺(jué)問(wèn)題的系統(tǒng)的一種優(yōu)選方案,其中:包括滑動(dòng)窗口定義模塊,放大處理模塊,集束搜索模塊,回溯-重新分配模塊;所述滑動(dòng)窗口定義模塊用于分析模型在推理過(guò)程中的注意力分布;所述放大處理模塊用于反映模型在生成句子時(shí)對(duì)不同信息的依賴(lài)程度;所述集束搜索模塊用于降低幻覺(jué)內(nèi)容的生成概率;所述回溯-重新分配模塊用于糾正滯后性導(dǎo)致的序列。
41、一種計(jì)算機(jī)設(shè)備,包括存儲(chǔ)器和處理器,所述存儲(chǔ)器存儲(chǔ)有計(jì)算機(jī)程序,所述處理器執(zhí)行所述計(jì)算機(jī)程序是實(shí)現(xiàn)消除生成式大模型幻覺(jué)問(wèn)題的方法的步驟。
42、一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其上存儲(chǔ)有計(jì)算機(jī)程序,所述計(jì)算機(jī)程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)消除生成式大模型幻覺(jué)問(wèn)題的方法的步驟。
43、本發(fā)明的有益效果:本發(fā)明提供的消除生成式大模型幻覺(jué)問(wèn)題的方法通過(guò)在自注意力的權(quán)重圖上定義滑動(dòng)窗口,對(duì)權(quán)重進(jìn)行數(shù)值上的放大處理,通過(guò)得分向量反映了模型在生成句子時(shí)對(duì)不同信息的依賴(lài)程度,能不依賴(lài)于額外訓(xùn)練數(shù)據(jù)與外部知識(shí)的集成,實(shí)施過(guò)程中更高效、成本效益更高,通過(guò)將負(fù)反饋得分直接作用在序列的集束搜索得分上,通過(guò)回溯-重新分配策略糾正滯后性導(dǎo)致的序列,通過(guò)回溯-重新分配的策略,從根源上發(fā)現(xiàn)幻覺(jué)現(xiàn)象產(chǎn)生的內(nèi)在機(jī)制和原因,相比傳統(tǒng)策略上有更好的泛化能力,本發(fā)明在準(zhǔn)確率、成本效益以及泛化能力方面都取得更加良好的效果。