本發(fā)明涉及事件論元抽取領(lǐng)域,具體涉及一種基于多視角提示學習模板的自回歸事件論元抽取方法。
背景技術(shù):
1、事件論元抽取技術(shù)是在大量異構(gòu)數(shù)據(jù)的情景中提取特定事件對應的論元信息,實現(xiàn)了將海量無結(jié)構(gòu)文本轉(zhuǎn)化為格式統(tǒng)一的事件論元數(shù)據(jù)的功能。近年來越來越多的研究者把提示學習作為無結(jié)構(gòu)文本與結(jié)構(gòu)化事件論元數(shù)據(jù)之間聯(lián)系的橋梁,通過設計提示學習模板提升事件論元抽取的性能,現(xiàn)有研究如由人工編寫句子的手工提示模板、基于偽詞元的軟提示模板、直接拼接事件論元角色的硬提示模板等主要基于各個事件類型對應的論元角色設置單一的、論元角色順序固定的事件論元提示模板,這使得模型的結(jié)果嚴重依賴于單一模板的設計,單一視角的誤差累積將嚴重影響自回歸模型的后續(xù)預測結(jié)果,導致模型的穩(wěn)定性較弱;同時,事件元素之間并非獨立,固定的事件論元提示模板限制了模板內(nèi)事件元素之間的信息交互。
2、因此,本發(fā)明提出了一種基于多視角提示學習模板的自回歸事件論元抽取方法,同時從事件觸發(fā)詞,事件論元、論元角色這三個角度出發(fā),設計具有多種事件元素組合模式的提示學習模板,有效促進了模板內(nèi)事件元素之間的信息交互。同時,基于模型從各個視角生成的事件論元預測結(jié)果進行投票,增強了模型的魯棒性。并且,在模型推理階段引入約束解碼策略,提升模型輸出的上下文相關(guān)性與準確性。
技術(shù)實現(xiàn)思路
1、本發(fā)明的目的在于解決現(xiàn)有基于提示學習的自回歸事件論元抽取模型因受限于單一、固定的提示模板設計而導致對單一模板提示的過度依賴以及固定模板內(nèi)事件元素之間的信息交互不足,從而導致學習的語義表示過度擬合訓練數(shù)據(jù),進而導致模型泛化性不佳的問題。因此本發(fā)明模擬人類利用不同角度解決問題的過程,通過多視角提示學習模板讓模型從動態(tài)的事件元素組合模式中學習事件元素之間的信息交互,進而生成更完整的詞元表示,并綜合考慮模型從各個視角生成的事件論元預測結(jié)果,緩解模型對單一模板提示的潛在錯誤累積,進而提升事件論元抽取的魯棒性,從而解決了上述背景技術(shù)中提到的問題。
2、為實現(xiàn)上述目的,本發(fā)明提供如下技術(shù)方案:
3、一種基于多視角提示學習模板的自回歸事件論元抽取方法,所述事件論元抽取方法具體步驟如下:
4、優(yōu)選的,所述步驟s10的具體步驟如下:
5、步驟s101,已知原始句子集合sentenceset中第i個句子的表示為si=[w1,w2,…wa,…,wb,…,wc,…,wd,…,we,…,wf,…,wn],n為句子si中的詞元數(shù)量,即句子的長度。wa,…,wb是該句子的事件觸發(fā)詞t,對應的事件類型為e;wc,…,wd與we,…,wf分別為該句子的兩個事件論元a1與a2,對應的論元角色分別為r1與r2。若已知該事件類型e對應的論元角色集合re=[r1,r2,r3],對于事件的觸發(fā)詞,事件論元,論元角色分別用特殊標記[t]、[a]、[r]以表示出現(xiàn)位次,按照其出現(xiàn)順序不同可構(gòu)建如下四個視角的元素提示順序:[t]→[a]→[r],[t]→[r]→[a],[a]→[r]→[t],[r]→[a]→[t]?;谔崾卷樞蚺c打亂的論元角色排列順序構(gòu)建多視角事件論元提示模板其中,
6、
7、
8、
9、
10、在模板中,[ssep]表示元素間的分隔符。
11、步驟s102,基于該事件論元提示模板的元素出現(xiàn)順序,構(gòu)建多視角目標文本:
12、
13、
14、
15、
16、其中,null表示句子中未出現(xiàn)論元角色r3對應的事件論元。目標文本經(jīng)過詞表建立索引后得到目標序列index()表示基于模型詞表的詞元-索引映射函數(shù);
17、步驟s20,將s10得到多視角事件論元提示模板與句子拼接,構(gòu)建模型的輸入數(shù)據(jù);
18、優(yōu)選的,所述步驟s20的具體步驟如下:
19、步驟s201,將句子si與事件論元提示模板融合,形成新的句子表示作為模型的輸入。其中,表示相鄰序列的拼接操作。
20、步驟s30,構(gòu)建基于自回歸預訓練語言模型的句子語義信息編碼器φs,將上述的句子表示s′i輸入到語義信息編碼器φs中生成句子向量表示其中n為原始句子編碼的長度,p為事件論元提示模板編碼的長度,d是一個整數(shù),(n+p)*d表示的維度;
21、優(yōu)選的,所述步驟s40的具體步驟如下:
22、步驟s401,構(gòu)建基于自回歸預訓練語言模型的序列到序列解碼器。解碼器通過h′i初始化隱藏狀態(tài)。為了保持從索引詞表到淺層詞向量特征空間的映射一致性,解碼器使用與編碼器共享權(quán)重參數(shù)的詞向量嵌入層embvocab,以建立從索引詞表到詞向量特征權(quán)重的共享映射空間,然后進行詞元生成,獲得輸出序列其中,t表示輸出序列的長度。
23、優(yōu)選的,所述步驟s50的具體步驟如下:
24、步驟s501,在訓練階段,在原始句子集合senten|eset中提取訓練數(shù)據(jù)集trainset時,根據(jù)任務場景所需的資源數(shù)量,針對訓練數(shù)據(jù)集trainset設置采樣系數(shù)α∈(0,1]從訓練數(shù)據(jù)集trainset中隨機采樣以得到特定資源量的訓練數(shù)據(jù)集number()表示數(shù)據(jù)集的樣本句子數(shù)量,若α∈(0,1),則為低資源訓練場景,若d=1,則為常規(guī)訓練場景。隨后,訓練數(shù)據(jù)傳入模型,得到模型生成的輸出序列yi。
25、步驟s502,將s10與s501得到的獲取目標序列-輸出序列對并最小化負對數(shù)似然損失函數(shù)其中,表示期望運算,m是目標序列的長度,y<m是在第m個詞元前生成的所有詞元,p(ym|g,y<m)表示模型訓練階段在給定目標序列和模型在第m步之前生成的詞元序列y<m的條件下,模型從詞表中生成第m步詞元ym的概率。
26、優(yōu)選的,所述步驟s60的具體步驟如下:
27、步驟s601,在推理階段,基于觸發(fā)詞,事件論元,論元角色的排列組合模式設計用于約束模型生成結(jié)構(gòu)化序列的約束解碼策略,將不同元素排列組合的結(jié)構(gòu)化信息引入到序列解碼器的解碼過程。
28、約束解碼策略如下:在推理階段,模型根據(jù)當前狀態(tài)生成的詞元動態(tài)調(diào)整下一個詞元的生成列表。若當前詞元解碼為″[″,則下一個狀態(tài)生成的詞元將從[t]、[a]、[r]中選擇;若當前狀態(tài)生成的詞元為[t]、[a],則下一個狀態(tài)生成的詞元將從句子si和[ssep]中選擇;當前狀態(tài)生成的詞元為[r],則下一個狀態(tài)生成的詞元將從論元角色集合re和[ssep]中選擇。
29、本發(fā)明的有益效果是:
30、本發(fā)明的目的在于解決現(xiàn)有基于提示學習的自回歸事件論元抽取模型因受限于單一、固定的提示模板設計而導致對單一模板提示的過度依賴以及固定模板內(nèi)事件元素之間的信息交互不足,從而導致學習的語義表示過度擬合訓練數(shù)據(jù),進而導致模型泛化性不佳。因此本發(fā)明模擬人類利用不同角度解決問題的過程,通過多視角提示學習模板讓模型從動態(tài)的事件元素組合模式中學習事件元素之間的信息交互,進而生成更完整的詞元表示,并綜合考慮模型從各個視角生成的事件論元預測結(jié)果,緩解模型對單一模板提示的潛在錯誤累積,進而提升事件論元抽取的魯棒性,從而解決了上述背景技術(shù)中提到的問題。