国产精品1024永久观看,大尺度欧美暖暖视频在线观看,亚洲宅男精品一区在线观看,欧美日韩一区二区三区视频,2021中文字幕在线观看

  • <option id="fbvk0"></option>
    1. <rt id="fbvk0"><tr id="fbvk0"></tr></rt>
      <center id="fbvk0"><optgroup id="fbvk0"></optgroup></center>
      <center id="fbvk0"></center>

      <li id="fbvk0"><abbr id="fbvk0"><dl id="fbvk0"></dl></abbr></li>

      用于自動建立經(jīng)驗評級和/或風(fēng)險準(zhǔn)備金的系統(tǒng)和方法

      文檔序號:6418556閱讀:548來源:國知局
      專利名稱:用于自動建立經(jīng)驗評級和/或風(fēng)險準(zhǔn)備金的系統(tǒng)和方法
      技術(shù)領(lǐng)域
      本發(fā)明涉及一種用于自動經(jīng)驗評級(experience rating)和/或損失準(zhǔn)備(loss reserving)的系統(tǒng)和方法,用于發(fā)展間隔序列k=1,...,K的具有f=1,...,F(xiàn)i的初始時間間隔的某個事件Pif包括發(fā)展值Pikf。對于第一初始時間間隔i=1的事件P1f,所有發(fā)展值P1kf=1,...,F(xiàn)1是已知的。本發(fā)明特別涉及一種用于實施該方法的計算機程序產(chǎn)品。
      經(jīng)驗評級在現(xiàn)有技術(shù)中涉及某年、事故年或初始年內(nèi)的第一時間發(fā)生并且結(jié)果在幾年,即所謂的發(fā)展年內(nèi)傳播的事件的價值參數(shù)的發(fā)展。更一般地說,事件在某個時間點發(fā)生并且在給定的時間間隔發(fā)展。此外,相同事件的事件值在不同發(fā)展年或發(fā)展時間間隔內(nèi)展示有依賴性的、有追溯力的發(fā)展。對價值的經(jīng)驗評級通過以在過去的已知相似事件的價值發(fā)展的外推和/或比較來進行。
      現(xiàn)有技術(shù)中典型的實例是在保險公司或再保險人處對例如損壞事件的支付狀態(tài)Z或準(zhǔn)備金狀態(tài)R的基于損壞事件的幾年的經(jīng)驗評級。在對損壞事件的經(jīng)驗評級中,保險公司知道從通知損壞的時間直至當(dāng)前狀態(tài)或直到理算時的每個單個事件的發(fā)展。在經(jīng)驗評級的情況下,通過隨機模型建立經(jīng)典可信度公式可追溯到大約30年以前;從那時起,已發(fā)展了該模型的眾多變體,因此如今可提到實際的可信度理論。可信度公式的應(yīng)用中的首要問題由通過組合(portfolio)的結(jié)構(gòu)確定的未知參數(shù)組成。作為對公知估算方法的替換,博奕論途徑亦被提供于現(xiàn)有技術(shù)中,例如精算師或保險統(tǒng)計員直到對參數(shù)的約束,并且為最不利的案例確定最優(yōu)的保費。可信度理論亦包括用于長期效應(yīng)的準(zhǔn)備的許多模型。所包括的有各種準(zhǔn)備方法,其與可信度公式不同,并不依賴于未知參數(shù)。在此,現(xiàn)有技術(shù)亦包括借助隨機模型的方法,其描述數(shù)據(jù)的產(chǎn)生。對于作為最佳已知方法之一的鏈梯方法,最主要的是存在一系列結(jié)果以便于計算拖欠支付索賠(outstanding payment claims)和/或外推損壞事件。鏈梯方法的長處一方面是其簡單性,而另一方面是該方法是近乎無分布的,即該方法是幾乎不基于假設(shè)。無分布或非參數(shù)方法特別適合于這樣的情況,即用戶可給出有關(guān)待發(fā)展的參數(shù)的將預(yù)期的分布(例如高斯分布等)的不足細節(jié)或者根本不給出該細節(jié)。
      鏈梯方法意味著對于從事故年i=1,...,1開始的f=1,2,...,F(xiàn)i的事件或損失Pif,值Pikf是已知的,其中Pikf可以是例如在每個處理年k=1,...,K的結(jié)尾的支付狀態(tài)或準(zhǔn)備金狀態(tài)。因此,在此情況下,事件Pif在于點序列Pif=(Pi1f,Pi2f,...,PiKf)其中首先的K+1-i個點是已知的,而仍然未知的點(Pi,K+2-1,f,...,Pi,K,f)將被預(yù)計。事件Pif的值形成所謂的損失三角形,或者更一般地,事件值三角形P11f=1..F1P12f=1..F1P13f=1..F1P14f=1..F1P15f=1..F1P21f=1..F2P22f=1..F2P23f=1..F2P24f=1..F2P31f=1..F3P32f=1..F3P33f=1..F3P41f=1..F4P42f=1..F4P51f=1..F5]]>行和列由損壞事故年和處理年形成。一般而言,例如,行示出初始年,并且列示出被檢查的事件的發(fā)展年,該表達亦有可能與其不同。現(xiàn)在,鏈梯方法是基于所累計的損失三角形,其項目Cij是例如純損失支付或損失支出(損失支付加上損失準(zhǔn)備金的變化)。對于累計陣列元素Cij,有效的是Cij=&Sigma;f=1FiPijf]]>根據(jù)它,所遵循的是
      &Sigma;f=1F1P11f&Sigma;f=1F1P12f&Sigma;f=1F1P13f&Sigma;f=1F1P14f&Sigma;f=1F1P15f&Sigma;f=1F2P21f&Sigma;f=1F2P22f&Sigma;f=1F2P23f&Sigma;f=1F2P24f&Sigma;f=1F3P31f&Sigma;f=1F3P32f&Sigma;f=1F3P33f&Sigma;f=1F4P41f&Sigma;f=1F4P42f&Sigma;f=1F5P51f]]>根據(jù)借助于鏈梯方法來插值的累計值,亦可再次判斷單獨的事件,這是因為假設(shè)了所述值的某個分布,例如典型為佩瑞多分布。佩瑞多分布特別適合于保險類型,如例如主要損失的保險或再保險人等。佩瑞多分布采用以下形式&Theta;(x)=1-(xT)&alpha;]]>其中T是閾值,并且α是擬合參數(shù)。鏈梯方法的簡單性特別在于以下事實,即應(yīng)用只需要以上損失三角形(通過各個事件的發(fā)展值而累計),并且例如不需要有關(guān)報告日期、準(zhǔn)備過程的信息或有關(guān)損失量的可能分布的假設(shè),等等。鏈梯方法的缺陷在現(xiàn)有技術(shù)中是充分公知的(見例如Thomas Mack,Measuring the Variability of Chain Ladder Reserve Estimates,所提交的CAS Prize Paper Competition 1993,Greg Taylor,Chain Ladder Bias,Centre for Actuarial Studies,University of Melbourne,Australia,2001年3月,第3頁)。為了獲得好的估算值,足夠的數(shù)據(jù)歷史是必要的。具體而言,例如,由于鏈梯方法的評價者對應(yīng)于借助于經(jīng)修改的泊松分布的模型的最大似然性估算者,在損失年的差異在大程度上可歸于損失頻率的差異的情況下,鏈梯方法被證明在業(yè)務(wù)類別,如機動車輛責(zé)任保險中是成功的。因此在例如發(fā)生損失量分布變化(例如最大負債金額的增加或保留的變化)的年份時,小心是可取的,這是因為這些變化可導(dǎo)致鏈梯方法中的結(jié)構(gòu)性故障。在具有極長期滿時間的業(yè)務(wù)類別中—如一般的責(zé)任保險—使用鏈梯方法同樣在許多情況下導(dǎo)致可用的結(jié)果,盡管由于長的期滿時間,諸如對最終損失定額的可靠估算的數(shù)據(jù)例如是很少可用的。然而,鏈梯方法的主要缺陷在于以下事實,即鏈梯方法是基于累計損失三角形,即通過累計具有相同初始年的事件的事件值,有關(guān)各個損失和/或事件的基本信息被丟失并且不再能在以后被恢復(fù)。
      現(xiàn)有技術(shù)中已知T.Mack的一種方法(Thomas Mack,SchriftreiheAngewandte Versicherungsmathematik,booklet 28,pp.310ff.,VerlagVersicherungswirtschaft E.V.,Karlsruhe 1997),其中值可被傳播(propagate),即損失三角形中的值可被外推,而不損失有關(guān)各個事件的信息。因此,借助Mack方法,通過針對每個損失使用完全的數(shù)值基礎(chǔ),單獨的IBNER準(zhǔn)備金可被計算(IBNER已發(fā)生但未充分報告的,Incurred But Not EnoughReported)。IBNER需求被理解成指的是支付需求,其超過預(yù)計值或是仍然未清的。IBNER準(zhǔn)備金特別對于超額損失再保險合同的經(jīng)驗評級是有用的,其中再保險人通常至少為相關(guān)主要損失而接收所需的單獨損失數(shù)據(jù)。在再保險人的案例中,風(fēng)險組合的時間發(fā)展通過其中?;瘬p壞數(shù)字和損失量的風(fēng)險過程來描述,由此在超額損失再保險中,一旦從原始保險人轉(zhuǎn)變到再保險人,則產(chǎn)生風(fēng)險過程的意外縮減(dilution)的現(xiàn)象;另一方面,通過再保險,幾個原始保險人的組合被結(jié)合并且風(fēng)險過程由此被使得重疊。直到現(xiàn)在,縮減和重疊的效果已最主要地針對泊松風(fēng)險過程而被檢查。對于保險/再保險,借助于Mack方法的經(jīng)驗評級意味著對于從事故年或初始年i=1,...,1開始的f=1,2,...,F(xiàn)i的每個損失Pif,直到當(dāng)前狀態(tài)(Zi,K+1-i,f,Ri,K+1-i,f)的在每個處理年或發(fā)展年k=1,...,K的結(jié)尾的支付狀態(tài)Zikf和準(zhǔn)備金狀態(tài)Rikf是已知的。在此情況下,損失Pif因此由點序列組成Pif=(Zi1f,Ri1f),(Zi2f,Ri2f),...,(ZiKf,RiKf)在支付準(zhǔn)備金水平,其中首先的K+1-i個點是已知的,并且仍然未知的點(Zi,K+2-i,f,Ri,K+2-i,f),...,(Zi,K,f,Ri,K,f)被假定成要被預(yù)計。特別感興趣的自然是最終狀態(tài)(Zi,K,f,Ri,K,f),Ri,K,f在理想情況下等于0,即索賠被認為是被完全結(jié)算;這是否可實現(xiàn)取決于所考慮的發(fā)展周期的長度K。在現(xiàn)有技術(shù)中,如例如在Mack方法中,索賠狀態(tài)(Zi,K+1-i,f,Ri,K+1-i,f)如在從較早事故年開始的相似索賠中一樣而被繼續(xù)。因此,在常規(guī)方法中,首先必須確定兩個索賠何時“相似”,并且其次確定“繼續(xù)”索賠意味著什么。此外,除了由此導(dǎo)致的IBNER準(zhǔn)備金以外,還必須在第二步驟中確定如何計算真正的逾期索賠,目前尚不知道有關(guān)它的任何事情。
      為了鑒定所述相似性,例如歐幾里得距離d((Z,R),(Z~,R~))=(Z-Z~)2+(R-R~)2]]>在 現(xiàn)有技術(shù)中在支付準(zhǔn)備金水平被使用。但對于歐幾里得距離,亦有許多可能性用于針對給定索賠(Pi,1,f,Pi,2,f,..,Pi,K+1-i,f)來尋找較早事故年的最接近的最相似的索賠,即索賠~P1,...,~Pk),其中k>K+1-i,對于它&Sigma;j=1K+1-ij&CenterDot;d(Pijf,P~j)]]>(所有先前距離之和)或&Sigma;j=1K+1-ij.d(Pijf,P~j)]]>(所有距離的加權(quán)和)或max1&le;j&le;K+1-jd(Pijf,P~j)]]>(最大距離)或d(Pi,K+1-i,f,P~K+1-j)]]>(當(dāng)前距離)是最小的。
      在Mack方法的實例中,正常情況下使用當(dāng)前距離。這意味著對于直至第k發(fā)展年已知其處理的索賠(P1,...,Pk),在至少直至發(fā)展年j≥k+1已知其發(fā)展的所有其它索賠 中,被認為最相似的一個是當(dāng)前距離d 最小的一個。
      索賠(P1,...,Pk)現(xiàn)在如針對其最近-距離“模型”(P~1,...,P~k,P~k+1,...,P~j)]]>一樣而被繼續(xù)。為此,存在為單個處理年(即直至Pk+1)或為在相同時間的幾個發(fā)展年(例如直至Pj)繼續(xù)的可能性。在諸如Mack方法的方法中,例如,人們典型地首先為僅一個處理年繼續(xù)以進行搜索然后再次為新的最相似索賠繼續(xù),由此使剛才繼續(xù)的索賠為另外的發(fā)展年而被繼續(xù)。所發(fā)現(xiàn)的接下來的索賠自然亦可再次是相同的一個。為繼續(xù)損壞索賠,存在兩個可能性。Pk=(Zk,Rk)的加法繼續(xù)P^k+1=(Z^k+1,R^k+1)=(Zk+Z~k+1-Z~k,Rk+R~k+1-R~k).]]>以及Pk=(Zk,Rk)的乘法繼續(xù)P^k+1=(Z^k+1,R^k+1)=(Zk&CenterDot;Z~k+1Z~k,Rk&CenterDot;R~k+1R~k).]]>容易看到現(xiàn)有技術(shù),特別是Mack方法的缺陷之一尤其在于損壞索賠的繼續(xù)的類型。乘法繼續(xù)僅對于所謂的開放索賠狀態(tài),即Zk>0,Rk>0是有用的。在可能索賠狀態(tài)Pk=(0,Rk),Rk>0的情況下,乘法繼續(xù)必須被多樣化,這是因為否則不發(fā)生繼續(xù)。而且,如果Z~k=0]]>或R~k=0,]]>則發(fā)生除以0。類似地,如果 或 是小的,則乘法方法可容易導(dǎo)致不現(xiàn)實的高繼續(xù)。這不允許對情況的一致處置。這意味著在此情況下準(zhǔn)備金Rk不能被簡單地繼續(xù)。以相同方式,理算索賠狀態(tài)Pk=(Zk,0),Zk>0可同樣不被進一步發(fā)展。一個可能性是簡單地保持它不變。然而,索賠的再生效(revival)由此被阻止。最多它可在最接近的理算模型的基礎(chǔ)上被繼續(xù),這同樣不允許對情況的一致處置。對于加法繼續(xù),可能索賠狀態(tài)亦應(yīng)當(dāng)僅在同樣的可能模型的基礎(chǔ)上被有意義地繼續(xù)以使歐幾里得距離最小并保證相似性的對應(yīng)鑒定。如果假定再生效被允許并且假定負準(zhǔn)備金被避免,則在理算索賠狀態(tài)時,可產(chǎn)生類似的缺陷。相當(dāng)概括地說,加法方法可容易導(dǎo)致負支付和/或準(zhǔn)備金。另外,在現(xiàn)有技術(shù)中,如果不存在對應(yīng)模型而沒有另外的假設(shè)被插入該方法,則索賠Pk不能被繼續(xù)。由于其一個實例是在相同處理年k時的開放索賠Pk,沒有從 同樣開放的先前事故年開始的索賠??烧业綇膬呻y處境中脫離的方式,這是因為在此情況下Pk被保持不變,即 其當(dāng)然不對應(yīng)于任何真實的繼續(xù)。
      這樣,總之在現(xiàn)有技術(shù)中,每個當(dāng)前索賠狀態(tài)Pi,K+1-i,f=(Zi,K+1-i,f,Ri,K+1-i,f)通過加法或乘法而進一步逐步發(fā)展直至K-發(fā)展年之后的發(fā)展和/或處理的結(jié)尾。在此,在每一步中,根據(jù)每種情況下的歐幾里得距離,最鄰近的相同索賠狀態(tài)類型(可能的,開放的,或者理算的)的模型索賠狀態(tài)被斷定,并且根據(jù)模型索賠的進一步發(fā)展通過加法或乘法來繼續(xù)要被繼續(xù)的索賠狀態(tài)。對于Mack方法,總是同樣可感覺的是將僅實際觀察的索賠發(fā)展P~k&RightArrow;P~k+1]]>和沒有外推的,即發(fā)展的索賠發(fā)展考慮為模型,這是因為否則將不避免對事件的相關(guān)和/或?qū)?yīng)偏向。然而相反,維持了已經(jīng)知道的事件現(xiàn)象被丟失的缺陷。
      根據(jù)現(xiàn)有技術(shù)方法的構(gòu)造,立即清楚的是所述方法亦可一方面被單獨應(yīng)用于支付的三角形,另一方面被單獨應(yīng)用于準(zhǔn)備金三角形。借助先前描述的方式,自然亦可允許其它可能性以在每種情況下尋找最接近的索賠狀態(tài)作為模型。然而,這將具有特別對方法的分布自由度的作用。由此可以說,在現(xiàn)有技術(shù)中,即使通過相應(yīng)的修改,或者最多僅由于另外的模型假設(shè)被插入到方法中,以上提及的系統(tǒng)性問題不能被消除。然而,確切地說,在復(fù)雜的動態(tài)非線性過程時,如例如在損壞索賠的發(fā)展時,這在大多數(shù)情況下不是理想的。即使拋開所提及的缺陷,在依照T.Mack的常規(guī)方法中,仍必須總是確定兩個索賠何時是相似的并且繼續(xù)索賠意味著什么,因此,從而使得必須進行最小基本假設(shè)和/或模型假設(shè)。然而在現(xiàn)有技術(shù)中,不僅歐幾里得度量的選擇是任意的,而且所提及的乘法和加法方法之間的選擇也是任意的。此外,對誤差的估算在現(xiàn)有技術(shù)中未被具體限定。真實情況是,可以設(shè)想例如基于反比距離(inverse distance)來限定誤差。然而,這未在現(xiàn)有技術(shù)中被公開。然而,現(xiàn)有技術(shù)的重要缺陷亦是每個事件必須與所有先前事件比較以使能夠被繼續(xù)。支出隨年數(shù)線性增加并且隨組合中的索賠數(shù)線性增加。當(dāng)組合被合計時,計算強度和存儲器要求相應(yīng)地增加。
      神經(jīng)網(wǎng)絡(luò)在現(xiàn)有技術(shù)中是基本上公知的,并且被用于例如解決最優(yōu)化問題、圖像識別(圖案識別)、人工智能等。對應(yīng)于生物學(xué)神經(jīng)網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)由通過加權(quán)連接(突觸(synapses))而互連的多個網(wǎng)絡(luò)節(jié)點,即所謂的神經(jīng)元組成。神經(jīng)元以網(wǎng)絡(luò)層(層)被組織并被互連。各個神經(jīng)元依賴于其輸入信號而被激活并且產(chǎn)生對應(yīng)的輸出信號。神經(jīng)元的激活是經(jīng)由各個的權(quán)重因子對輸入信號的求和來進行。通過根據(jù)給定的示例輸入和輸出值而系統(tǒng)地改變權(quán)重因子直到神經(jīng)網(wǎng)絡(luò)以限定的可預(yù)測的誤差間距顯示出所需行為,例如如預(yù)測用于未來輸入值的輸出值,這樣的神經(jīng)網(wǎng)絡(luò)是具有適應(yīng)性的。神經(jīng)網(wǎng)絡(luò)由此展示出用于學(xué)習(xí)和存儲知識的適應(yīng)性能力和用于比較新信息與所存知識的關(guān)聯(lián)能力。神經(jīng)元(網(wǎng)絡(luò)節(jié)點)可假定靜止?fàn)顟B(tài)或激發(fā)狀態(tài)。每個神經(jīng)元都具有多個輸入和僅一個輸出,其被連接在隨后網(wǎng)絡(luò)層的其它神經(jīng)元的輸入中,或者在輸出節(jié)點的情況下表示對應(yīng)的輸出值。當(dāng)足夠數(shù)目的神經(jīng)元輸入被激發(fā)于神經(jīng)元的某個閾值之上時,即如果對輸入的求和達到某個閾值,則神經(jīng)元進入激發(fā)狀態(tài)。在神經(jīng)元輸入的權(quán)重中和在神經(jīng)元的閾值中,通過適應(yīng)來存儲知識。神經(jīng)網(wǎng)絡(luò)的權(quán)重借助于學(xué)習(xí)過程來訓(xùn)練(見例如G.Cybenko,“Approximation bySuperpositions of a sigmoidal function”,Math.Control,Sig.Syst.,2,1989,第303-314頁;M.T.Hagan,M.B.Menjaj,“Training Feed-forward Networkswith the Marquardt Algorithm”,IEEE Transactions on Neural Networks,Vol.5,No.6,第989-993頁,1994年11月;K.Hornik,M.Stinchcombe,H.White,“Multilayer Feed-forward Networks are Universal Approximators”,NeuralNetworks,2,1989,第359-366頁,等等)。
      本發(fā)明的任務(wù)是提出一種用于自動的事件經(jīng)驗評級和/或損失準(zhǔn)備的新系統(tǒng)和方法,其不展示出現(xiàn)有技術(shù)的以上提及的缺陷。具體而言,將提出一種自動、簡單和合理的方法以借助單獨的增加和/或因子進一步發(fā)展給定索賠,從而使隨后所有有關(guān)單個索賠的發(fā)展的信息可用。借助該方法,應(yīng)從開頭做出有關(guān)分布的盡可能少的假設(shè),并且與此同時應(yīng)采用有關(guān)給定情況的最大可能信息。
      根據(jù)本發(fā)明,該目的具體地是借助于獨立權(quán)利要求的元素而實現(xiàn)的。進一步有利的實施例更多地來自于從屬權(quán)利要求和說明書。
      具體而言,這些目的通過本發(fā)明來實現(xiàn)是因為具有發(fā)展間隔k=1,...,K的發(fā)展值Pi,k,f被指定給初始時間間隔i的某個事件Pi,f,其中K是最后的已知發(fā)展間隔,而i=1,...,K,并且對于事件P1,f,所有發(fā)展值P1kf已知,至少一個神經(jīng)網(wǎng)絡(luò)被用于確定發(fā)展值Pi,K+2-i,f,...,Pi,K,f。在某些事件時,例如初始時間間隔可被指定給初始年,并且發(fā)展間隔可被指定給發(fā)展年。各種事件Pi,f的發(fā)展值Pikf可根據(jù)其初始時間間隔借助于至少一個縮放因子來縮放。發(fā)展值Pikf的縮放尤其具有的優(yōu)點在于,發(fā)展值在不同的時間點是可比較的。該變體實施例進一步尤其具有的優(yōu)點在于,對于自動經(jīng)驗評級,沒有例如有關(guān)值分布、系統(tǒng)動態(tài)等的模型假設(shè)需要被預(yù)先假定。具體而言,所述經(jīng)驗評級沒有近似前提,例如如歐幾里得措施等。這在現(xiàn)有技術(shù)中以這種方式是不可能的。另外,數(shù)據(jù)采樣的整個信息被使用,而沒有數(shù)據(jù)記錄被累計。有關(guān)各個事件的完整信息在每一步中被保持,并且可在結(jié)束時被再次調(diào)用(call up)??s放所具有的優(yōu)點在于,不同初始時間間隔的數(shù)據(jù)記錄接收可比的數(shù)量級,并且可由此被較好地比較。
      在一個變體實施例中,為了確定發(fā)展值Pi,K-(i-j)+i,f(i-1),針對每個初始時間間隔和/或初始年i的神經(jīng)網(wǎng)絡(luò)Ni,j被迭代產(chǎn)生,其中j=1,...,(i-1),神經(jīng)網(wǎng)絡(luò)Ni,j+1遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j。為了對某個神經(jīng)網(wǎng)絡(luò)Ni,j加權(quán),例如可使用發(fā)展值Pp,q,f,其中p=1,...,(i-1)并且q=1,...,K-(i-j)。該變體實施例尤其具有的優(yōu)點在于,如在先前的變體實施例中,數(shù)據(jù)采樣的整個信息被使用,而沒有數(shù)據(jù)記錄被累計。有關(guān)各個事件的完整信息在每一步中被維持,并且可在結(jié)束使被再次調(diào)用。借助于對全局引入的誤差的最小化,網(wǎng)絡(luò)可被附加地最優(yōu)化。
      在另一個變體實施例中,對于相同的發(fā)展年和/或發(fā)展間隔j,神經(jīng)網(wǎng)絡(luò)Ni,j被相同地訓(xùn)練,針對初始時間間隔和/或初始年i+1的神經(jīng)網(wǎng)絡(luò)Ni+1,j=i被產(chǎn)生,并且從先前的初始時間間隔和/或初始年的所有其它神經(jīng)網(wǎng)絡(luò)Ni+1,j<i被承接(take over)。該變體實施例尤其具有的優(yōu)點在于,僅已知數(shù)據(jù)被用于經(jīng)驗評級,并且某些數(shù)據(jù)不被系統(tǒng)進一步使用,由此防止誤差的或分別地,數(shù)據(jù)的相關(guān)被防止。
      在仍不同的變體實施例中,具有初始時間間隔i<1的事件Pi,f另外被用于確定,對于事件Pi<1,f,所有發(fā)展值Pi<1,k,f是已知的。該變體實施例尤其具有的優(yōu)點在于,借助于附加的數(shù)據(jù)記錄,神經(jīng)網(wǎng)絡(luò)可被較好地最優(yōu)化,并且其誤差可被最小化。
      在進一步的變體實施例中,對于自動經(jīng)驗評級和/或損失準(zhǔn)備,具有發(fā)展間隔k=1,...,K的發(fā)展值Pi,k,f被存儲指定給初始時間間隔i的某個事件Pi,f,其中i=1,...,K且K是最后的已知發(fā)展間隔,并且其中對于第一初始時間間隔,所有發(fā)展值P1,k,f已知;對于每個初始時間間隔i=2,...,K,借助于迭代j=1,...,(i-1),在每個迭代j時,在第一步驟中,具有輸入層和輸出層的神經(jīng)網(wǎng)絡(luò)Ni,j被產(chǎn)生,所述輸入層具有K-(i-j)個輸入段,所述輸入段包括至少一個輸入神經(jīng)元并被指定給發(fā)展值Pi,k,f;在第二步驟中,具有所有初始時間間隔m=1,...,(i-1)的可用事件Pi,f的神經(jīng)網(wǎng)絡(luò)Ni,j借助于作為輸入的發(fā)展值Pm,1..k-(i-j),f和作為輸出的Pm,1..k-(i-j)+1,f來加權(quán);并且在第三步驟中,借助于神經(jīng)網(wǎng)絡(luò)Ni,j,用于初始時間間隔i所有事件Pi,f的輸出值Qi,f被確定,輸出值Qi,f被指定給事件Pi,f的發(fā)展值Pi,K-(i-j)+1,f,并且神經(jīng)網(wǎng)絡(luò)Ni,j遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j+1。在某些事件時,例如初始時間間隔可被指定給初始年,并且發(fā)展間隔可被指定給發(fā)展年。該變體實施例尤其具有與先前變體實施例相同的優(yōu)點。
      在一個變體實施例中,一種系統(tǒng)包括神經(jīng)網(wǎng)絡(luò)Ni,其每個都包括具有至少一個輸入段的輸入層和輸出層,所述輸入層和輸出層包括以加權(quán)方式互連的多個神經(jīng)元,神經(jīng)網(wǎng)絡(luò)Ni可借助于通過軟件和/或硬件的數(shù)據(jù)處理單元來迭代產(chǎn)生,神經(jīng)網(wǎng)絡(luò)Ni+1遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,并且每個網(wǎng)絡(luò)Ni+1在每種情況下都比網(wǎng)絡(luò)Ni多包括一個輸入段,從神經(jīng)網(wǎng)絡(luò)N1開始,每個神經(jīng)網(wǎng)絡(luò)Ni都可借助于最小化模塊通過使局部傳播的誤差最小來訓(xùn)練,并且神經(jīng)網(wǎng)絡(luò)的遞歸系統(tǒng)可借助于最小化模塊通過基于神經(jīng)網(wǎng)絡(luò)Ni的局部誤差使全局傳播的誤差最小來訓(xùn)練。該變體實施例尤其具有的優(yōu)點在于,遞歸產(chǎn)生的神經(jīng)網(wǎng)絡(luò)可借助于全局誤差來附加地最優(yōu)化。其中是借助于局部傳播的誤差和全局傳播的誤差利用雙最小化的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的遞歸產(chǎn)生的結(jié)合導(dǎo)致了該變體實施例的優(yōu)點。
      在另一個變體實施例中,神經(jīng)網(wǎng)絡(luò)Ni的輸出層以指定方式連接到神經(jīng)網(wǎng)絡(luò)Ni+1的輸入層的至少一個輸入段。該變體實施例尤其具有的優(yōu)點在于,神經(jīng)網(wǎng)絡(luò)的系統(tǒng)可反過來被詮釋為神經(jīng)網(wǎng)絡(luò)。這樣,整個網(wǎng)絡(luò)的局部網(wǎng)絡(luò)可在局部被加權(quán),并且在全局學(xué)習(xí)的情況下亦可借助于對應(yīng)的數(shù)據(jù)記錄通過系統(tǒng)來檢查并監(jiān)視其行為。這在現(xiàn)有技術(shù)中以這種方式直到現(xiàn)在是尚不可能的。
      就此而言,應(yīng)指明除了依照本發(fā)明的方法以外,本發(fā)明亦涉及一種用于實施該方法的系統(tǒng)。此外,并不局限于所述系統(tǒng)和方法,而是等同地涉及神經(jīng)網(wǎng)絡(luò)的遞歸嵌套系統(tǒng)以及一種用于實施依照本發(fā)明的方法的計算機程序產(chǎn)品。
      以下在實例的基礎(chǔ)上描述本發(fā)明的變體實施例。所述實施例的實例是通過以下附圖來說明的

      圖1示出一個方塊圖,其示意性地再現(xiàn)了用于確定上5×5矩陣中,即K=5的事件Pf的事件值P2,5,f的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和/或確定階段或呈現(xiàn)階段。虛線T指示訓(xùn)練階段,并且實線R指示學(xué)習(xí)之后的確定階段。
      圖2同樣示出一個方塊圖,其與圖1一樣,示意性地再現(xiàn)用于確定第三初始年的事件值P3,4,f的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和/或確定階段。
      圖3示出一個方塊圖,其與圖1一樣,示意性地再現(xiàn)用于確定第三初始年的事件值P3,5,f的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和/或確定階段。
      圖4示出一個方塊圖,其僅示意性地示出用于確定P3,4,f和P3,5,f的訓(xùn)練階段,計算值P3,4,f被用于訓(xùn)練網(wǎng)絡(luò)以確定P3,5,f。
      圖5示出一個方塊圖,其示意性地示出用于確定5×5矩陣的行3中的值的神經(jīng)網(wǎng)絡(luò)的遞歸產(chǎn)生,兩個網(wǎng)絡(luò)被產(chǎn)生。
      圖6示出一個方塊圖,其示意性地示出用于確定5×5矩陣的行5中的值的神經(jīng)網(wǎng)絡(luò)的遞歸產(chǎn)生,四個網(wǎng)絡(luò)被產(chǎn)生。
      圖7示出一個方塊圖,其同樣示意性地示出依照本發(fā)明的系統(tǒng),訓(xùn)練基礎(chǔ)被限制于已知事件值A(chǔ)ij。
      圖1到7示意性地示出可被用于實施本發(fā)明的體系結(jié)構(gòu)。在該實施例實例中,初始年i的某個事件Pi,f包括用于自動的事件經(jīng)驗評級和/或損失準(zhǔn)備的發(fā)展值Pikf。索引f遍布對于某個初始年i的所有事件Pi,f,其中f=1,...,F(xiàn)j。發(fā)展值Pikf=(Zikf,Rikf,...)是發(fā)展值Zikf,Rikf,...的任何矢量和/或n-元組,其被假定成針對事件而被發(fā)展。這樣,例如,在用于損壞事件Pikf的保險的情況下,Zikf可以是支付狀態(tài),Rikf可以是準(zhǔn)備金狀態(tài),等等。用于事件的任何所需另外的相關(guān)參數(shù)可被設(shè)想而不使其影響本發(fā)明的保護范圍。發(fā)展年k從k=1,...,K開始前進,并且初始年I=1,...,I。K是最后的已知發(fā)展年。對于第一初始年i=1,所有發(fā)展值P1kf被給出。如已經(jīng)指示的,對于該實例,初始年數(shù)I和發(fā)展年數(shù)K被假定成相同,即I=K。然而,完全可以設(shè)想I≠K,而所述方法或者系統(tǒng)并不由此被限制。Pikf因此是由點序列和/或矩陣元素組成的n-元組(Zikn,Rikn,...) 其中k=1,2,...,K對于I=K,結(jié)果因此是用于已知發(fā)展值Pikf的二次上三角形矩陣和/或塊三角形矩陣
      P11f=1..F1P12f=1..F1P13f=1..F1P14f=1..F1P15f=1..F1P21f=1..F2P22f=1..F2P23f=1..F2P24f=1..F2P31f=1..F3P32f=1..F3P33f=1..F3P41f=1..F4P42f=1..F4P51f=1..F5]]>其中f=1,...,F(xiàn)i再次遍布對于某個初始年的所有事件。這樣,矩陣的行被指定給初始年并且矩陣的列被指定給發(fā)展年。在實施例實例中,Pikf將被限制在針對保險的損壞事件的實例,這是因為特別地所述方法和/或系統(tǒng)很適合于例如保險合同和/超額損失再保險合同的經(jīng)驗評級。必須強調(diào),矩陣元素Pikf本身可再次為矢量和/或矩陣,因此以上矩陣變成對應(yīng)的塊矩陣。然而,依照本發(fā)明的方法和系統(tǒng)相當(dāng)一般地適合于時間延遲的非線性過程的外推和/或經(jīng)驗評級。就是說,Pikf是點序列(Zikn,Rikn,...) 其中k=1,2,...,K其處于支付準(zhǔn)備金水平,首先的K+1-i個點是已知的,并且仍然未知的點(Zi,K+2-i,f,Ri,K+2-i,f),...,(ZiKf,RiKf)被假定成要被預(yù)計。對于該實例,如果Pikf被劃分成支付水平和準(zhǔn)備金水平,則對于支付水平類似獲得的結(jié)果是三角形矩陣Z11fZ12fZ13fZ14fZ15fZ21fZ22fZ23fZ24fZ31fZ32fZ33fZ41fZ42fZ51f]]>并且對于準(zhǔn)備金水平,是三角形矩陣R11fR12fR13fR14fR15fR21fR22fR23fR24fR31fR32fR33fR41fR42fR51f]]>這樣,在對損壞事件的經(jīng)驗評級中,每個單獨損壞事件fi的發(fā)展從初始年i的報告的時間點直到當(dāng)前狀態(tài)(當(dāng)前發(fā)展年k)或直到理算時是已知的。該信息可被存儲在數(shù)據(jù)庫中,該數(shù)據(jù)庫可例如借助于數(shù)據(jù)處理單元通過網(wǎng)絡(luò)來調(diào)用。然而,所述數(shù)據(jù)庫亦可通過依照本發(fā)明的系統(tǒng)的內(nèi)部數(shù)據(jù)總線來直接訪問,或者否則被讀出。
      為了使用索賠實例中的數(shù)據(jù),三角形矩陣在第一步驟中被縮放,即必須首先借助于相應(yīng)的通貨膨脹值使損壞值相對于所指定的事件可比。通貨膨脹指數(shù)可同樣從對應(yīng)的數(shù)據(jù)庫被讀出或者借助于輸入單元在系統(tǒng)中輸入。用于一個國家的通貨膨脹指數(shù)可例如看起來象以下一樣
      另外的縮放因子正如可設(shè)想的,如例如區(qū)域依賴性等。如果損壞事件在多于一個的國家中被比較和/或外推,則相應(yīng)的國家依賴性被添加。對于一般的、非保險特定的情況,縮放亦可涉及依賴性,如例如生物群體的平均年齡、自然的影響等,等等。
      為了自動確定發(fā)展值Pi,K+2-i,f,...,Pi,K,f=(Zi,K+2-i,f,Ri,K+2-i,f),...,(Zi,K,f,Ri,K,f),所述系統(tǒng)和/或方法包括至少一個神經(jīng)網(wǎng)絡(luò)。作為神經(jīng)網(wǎng)絡(luò),例如常規(guī)的靜態(tài)和/或動態(tài)神經(jīng)網(wǎng)絡(luò)可被選擇,如例如前饋(異關(guān)聯(lián)(heteroassociative))網(wǎng)絡(luò),如感知器或多層感知器(MLP),但還有其它網(wǎng)絡(luò)結(jié)構(gòu),如例如復(fù)現(xiàn)網(wǎng)絡(luò)(recurrent network)結(jié)構(gòu)是可設(shè)想的。與具有反饋的網(wǎng)絡(luò)(復(fù)現(xiàn)網(wǎng)絡(luò))相反,前饋網(wǎng)絡(luò)的不同網(wǎng)絡(luò)結(jié)構(gòu)確定信息被網(wǎng)絡(luò)處理的方式。在靜態(tài)神經(jīng)網(wǎng)絡(luò)的情況下,結(jié)構(gòu)被假設(shè)成確保以足夠的近似質(zhì)量來復(fù)制靜態(tài)特性域。對于該實施例實例,令多層感知器被選擇為實例。MLP由具有至少一個輸入層和一個輸出層的許多神經(jīng)元層組成。結(jié)構(gòu)被嚴(yán)格地向前引導(dǎo),并且屬于前饋網(wǎng)絡(luò)的組。神經(jīng)網(wǎng)絡(luò)相當(dāng)一般地將m-維輸入信號映射到n-維輸出信號上。在此處被考慮的前饋網(wǎng)絡(luò)中,要處理的信息由具有輸入神經(jīng)元的層,即輸入層來接收。輸入神經(jīng)元處理輸入信號,并且通過加權(quán)連接,即所謂的突觸將它們轉(zhuǎn)送到一個或多個隱藏的神經(jīng)元層,即隱藏層。同樣借助于加權(quán)突觸,信號從隱藏層被發(fā)送到輸出層的神經(jīng)元,其又產(chǎn)生神經(jīng)網(wǎng)絡(luò)的輸出信號。在向前引導(dǎo)的、完全連接的MLP中,某個層的每個神經(jīng)元都被連接到隨后層的所有神經(jīng)元。層數(shù)和特定層中的神經(jīng)元(網(wǎng)絡(luò)節(jié)點)數(shù)的選擇照常應(yīng)適合于相應(yīng)的問題。最簡單的可能性是從經(jīng)驗上找出理想的網(wǎng)絡(luò)結(jié)構(gòu)。在這樣做的過程中,應(yīng)注意如果所選的神經(jīng)元數(shù)過大,網(wǎng)絡(luò)不是學(xué)習(xí)而是純粹圖像形成而工作,而在神經(jīng)元數(shù)過小時,它變成所映射的參數(shù)的相關(guān)。換句話說,事實是如果所選的神經(jīng)元數(shù)過小,則函數(shù)可能不被表示。然而,在增加隱藏神經(jīng)元數(shù)時,誤差函數(shù)中的獨立變量數(shù)亦增加。這導(dǎo)致較多的局部最小,以及精確地處于這些最小之一的較大概率。在反向傳播的專門情況下,該問題可例如借助于模擬退火至少被最小化。在模擬退火中,概率被指定給網(wǎng)絡(luò)的狀態(tài)。與產(chǎn)生晶體的液體材料的冷卻類似,高初始溫度T被選擇。其被逐漸減小,越低則越慢。與從液體形成晶體類似,假定如果允許材料冷卻太迅速,則分子不按照網(wǎng)格結(jié)構(gòu)來排列其自身。在受影響的位置,晶體變得不純和不穩(wěn)定。為了防止這種情況,材料被使得如此緩慢地冷卻下來以至于分子仍具有足夠的能量來跳出局部最小。在神經(jīng)網(wǎng)絡(luò)的情況下,所做的沒有什么不同另外,量值T被引入略經(jīng)修改的誤差函數(shù)。在理想情況下,其然后可向著全局最小收斂。
      對于對經(jīng)驗評級的應(yīng)用,具有至少三層結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)已被證明在MLP中是有用的。這意味著神經(jīng)網(wǎng)絡(luò)包括至少一個輸入層、隱藏層和輸出層。在每個神經(jīng)元內(nèi),發(fā)生三個處理步驟傳播、激活和輸出。對于第k層的第i個神經(jīng)元,產(chǎn)生oik=fik(&Sigma;jwi,jk&CenterDot;oi,jk-1+bi,jk)]]>由此例如對于k=2,作為受控變量的范圍,j=1,2,...,N1是有效的;指定了N1是層k-1的神經(jīng)元數(shù),w為權(quán)重,并且b為偏置(閾值)。依賴于應(yīng)用,對于某個層的所有神經(jīng)元,偏置b可被選擇為相同或不同。作為激活函數(shù),例如對數(shù)-S型函數(shù)可被選擇,如fik(&xi;)=11+e-&xi;]]>激活函數(shù)(或傳遞函數(shù))被插入每個神經(jīng)元。然而,根據(jù)本發(fā)明,其它激活函數(shù),如切線函數(shù)等,同樣是可能的。然而,對于反向傳播方法,應(yīng)注意可微激活函數(shù)&lt;被使用&gt;,如例如S形函數(shù),這是因為其對于該方法是先決條件。因此,也就是說,二元激活函數(shù),如例如f(x):=1ifx>00ifx&le;0]]>對反向傳播方法不起作用。在輸出層的神經(jīng)元中,最后的隱藏層的輸出以加權(quán)方式被加起來。輸出層的激活函數(shù)亦可以是線性的。在參數(shù)-和/或加權(quán)矩陣中結(jié)合的加權(quán)Wi,jk和偏置Bi,jk的整體確定神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的行為 這樣,結(jié)果是ok=Bk+Wk&CenterDot;(1+e-(Bk-1+Wk-1&CenterDot;u))-1]]>網(wǎng)絡(luò)被假定將輸入信號映射到輸出信號上的方式,即網(wǎng)絡(luò)的所需權(quán)重和偏置的確定是通過借助于訓(xùn)練模式訓(xùn)練網(wǎng)絡(luò)來實現(xiàn)的。訓(xùn)練模式集(索引μ)由以下組成,即輸入信號 和輸出信號 在該實施例實例中,對于索賠的經(jīng)驗評級,訓(xùn)練模式包括具有用于所有k、f和i的已知發(fā)展值Pikf的已知事件Pi,f。在此,要外推的事件的發(fā)展值自然可不被用于訓(xùn)練神經(jīng)網(wǎng)絡(luò),這是因為缺乏對應(yīng)于它們的輸出值。
      這樣在神經(jīng)元的該示例實例中,在學(xué)習(xí)操作的起始,隱藏層的權(quán)重的初始化例如根據(jù)Nguyen-Widrow,例如借助于對數(shù)-S型激活函數(shù)來進行(D.Nguyen,B.Widrow,“Improving the Learning Speed of 2-Layer NeuralNetworks by Choosing Initial Values of Adaptive Weights”,International JointConference of Neural Networks,Vol.3,第21-26頁,1990年7月)。如果線性激活函數(shù)已被選擇用于輸出層的神經(jīng)元,例如可借助于對稱隨機數(shù)發(fā)生器來初始化權(quán)重。為了訓(xùn)練網(wǎng)絡(luò),各種現(xiàn)有技術(shù)學(xué)習(xí)方法可被使用,如例如反向傳播方法、學(xué)習(xí)矢量量化、徑向基函數(shù)、Hopfield算法或Kohonen算法等。訓(xùn)練方法的任務(wù)在于以這種方式來確定加權(quán)矩陣W和/或偏置矩陣B內(nèi)的突觸權(quán)重wi,j和bi,j以致輸入模式Y(jié)μ被映射到對應(yīng)的輸出模式Uμ。為判斷學(xué)習(xí)階段,例如絕對二次誤差Err=12&Sigma;&mu;=1p&Sigma;&lambda;=1m(ueff.&lambda;&mu;-usoll.&lambda;&mu;)2=&Sigma;&mu;=1pErr&mu;]]>可被使用。誤差Err然后考慮訓(xùn)練基礎(chǔ)的所有模式Pikf,其中實際輸出信號Ueffμ示出在訓(xùn)練基礎(chǔ)中指定的目標(biāo)反應(yīng)Usollμ。對于該實施例實例,反向傳播方法將被選擇為學(xué)習(xí)方法。反向傳播方法是用于使權(quán)重因子wi,j最優(yōu)化的遞歸方法。在每個學(xué)習(xí)步驟中,輸入模式Y(jié)μ被隨機選擇并且經(jīng)過網(wǎng)絡(luò)(前向傳播)傳播。借助于以上所述的誤差函數(shù)Err,所呈現(xiàn)的輸入模式上的誤差Errμ根據(jù)借助于在訓(xùn)練基礎(chǔ)中指定的目標(biāo)反應(yīng)Usollμ由網(wǎng)絡(luò)產(chǎn)生的輸出信號來確定。在第μ個訓(xùn)練模式的呈現(xiàn)之后對各個權(quán)重wi,j的修改由此與依照權(quán)重wi,j的誤差Errμ的負偏導(dǎo)數(shù)成比例(所謂的梯度下降法)&Delta;wi,j&mu;&ap;&PartialD;E&mu;&PartialD;wi,j]]>借助于鏈規(guī)則,已知適應(yīng)規(guī)范,公知為反向傳播規(guī)則,對于第μ個訓(xùn)練模式的呈現(xiàn)中加權(quán)矩陣的元素可從所述偏導(dǎo)數(shù)導(dǎo)出。
      &Delta;wi,j&mu;&equiv;s&CenterDot;&delta;i&mu;&CenterDot;ueff,j&mu;]]>其中分別地,對于輸出層,&delta;i&mu;=f1(&xi;i&mu;)&CenterDot;(usoll,i&mu;-ueff,1&mu;)]]>并且對于隱藏層,&delta;i&mu;=f1(&xi;i&mu;)&CenterDot;&Sigma;kK&delta;k&mu;wk,i]]>在此,誤差從輸出層開始在相反方向上(反向傳播)通過網(wǎng)絡(luò)來傳播并按照根據(jù)原因的花費原理(costs-by-cause principle)在各個神經(jīng)元中劃分。比例因子s被稱為學(xué)習(xí)因子。在訓(xùn)練階段內(nèi),有限數(shù)目的訓(xùn)練模式被呈現(xiàn)給神經(jīng)網(wǎng)絡(luò),所述模式足夠精確地表征要學(xué)習(xí)的映射。在該實施例實例中,對于損壞事件的經(jīng)驗評級,訓(xùn)練模式可包括具有用于所有k、f和i的已知發(fā)展值Pikf的所有已知事件Pi,f。但選擇已知事件Pi,f亦是可設(shè)想的。如果之后網(wǎng)絡(luò)被呈現(xiàn)了與訓(xùn)練基礎(chǔ)的模式不完全一致的輸入信號,則網(wǎng)絡(luò)在所學(xué)習(xí)的映射函數(shù)的范圍內(nèi)在訓(xùn)練模式之間進行插值或外推。該特性被稱為網(wǎng)絡(luò)的通用化能力。神經(jīng)網(wǎng)絡(luò)擁有好的誤差容許正是神經(jīng)網(wǎng)絡(luò)的的特性。與現(xiàn)有技術(shù)系統(tǒng)相比,這是進一步的優(yōu)點。由于神經(jīng)網(wǎng)絡(luò)將多個(部分冗余的)輸入信號映射于所需輸出信號上,所述網(wǎng)絡(luò)被證明對于各個輸入信號的故障和/或?qū)τ谛盘栐肼暿囚敯舻?。神?jīng)網(wǎng)絡(luò)的進一步感興趣的特性是其適應(yīng)性能力。因此,原則上有可能在操作中使一次訓(xùn)練的系統(tǒng)永久/周期性地重新學(xué)習(xí)或適應(yīng),這與現(xiàn)有技術(shù)系統(tǒng)相比同樣是優(yōu)點。對于學(xué)習(xí)方法,其它方法自然可被使用,如例如依照Levenberg-Marquardt的方法(D.Marquardt,“An Algorithm for least square estimation of non-linearParameters”,J.Soc.Ind.Appl.Math.,第431-441頁,1963,以及M.T.Hagan,M.B..Menjaj,“Training Feed-forward Networks with the MarquardtAlgorithm”,IEEE-Transactions on Neural Networks,Vol.5,No.6,第989-993頁,1994年11月)。Levenberg-Marquardt方法是梯度方法和牛頓方法的結(jié)合,并且所具有的優(yōu)點在于,它比以上提及的反向傳播方法收斂得快,但在訓(xùn)練階段內(nèi)需要較大的存儲容量。
      在實施例實例中,為了確定用于每個初始年i的發(fā)展值Pi,K-(i-j)+1,f,(i-1)個神經(jīng)網(wǎng)絡(luò)Ni,j被迭代產(chǎn)生。對于某個初始年i,j指示迭代次數(shù),其中j=1,...,(i-1)。因此,對于第i個初始年i-1,神經(jīng)網(wǎng)絡(luò)Ni,j被產(chǎn)生。此時神經(jīng)網(wǎng)絡(luò)Ni,j+1遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j。為了加權(quán),即為了訓(xùn)練某個神經(jīng)網(wǎng)絡(luò)Ni,j,例如事件或損失Ppq的所有發(fā)展值Pp,q,f可被使用,其中p=1,...,(i-1)且q=1,...,K-(i-j)。然而,根據(jù)應(yīng)用,有限的選擇亦可以是有用的。事件Ppq的數(shù)據(jù)可例如如以上所述通過數(shù)據(jù)處理單元而從數(shù)據(jù)庫讀出或呈現(xiàn)給系統(tǒng)。所計算的發(fā)展值Pi,k,f可例如被指定給初始年i的相應(yīng)事件Pi,f,并且自身可被呈現(xiàn)給系統(tǒng)以便于確定接下來的發(fā)展值(例如Pi,k+1,f)(圖1到6),或者僅在所尋求的所有發(fā)展值P的確定結(jié)束之后進行指定(圖7)。
      在第一種情況下(圖1到6),如所述,具有發(fā)展年k=1,...,K的發(fā)展值Pi,k,f被指定給初始年i的某個事件Pi,f,由此對于初始年i=1,...,K,并且K是最后的已知發(fā)展年。對于第一初始年i=1,所有發(fā)展值P1,k,f已知。對于每個初始年i=2,...,K,借助于迭代j=1,...,(i-1),在每個迭代j時,在第一步驟中,具有輸入層和輸出層的神經(jīng)網(wǎng)絡(luò)Ni,j被產(chǎn)生,所述輸入層具有K-(i,j)個輸入段。每個輸入段包括至少一個輸入神經(jīng)元和/或至少一樣多的輸入神經(jīng)元以獲得用于發(fā)展值Pi,k,f的輸入信號。神經(jīng)網(wǎng)絡(luò)由系統(tǒng)自動產(chǎn)生并且可借助于硬件或軟件來實施。在第二步驟中,具有所有初始年m=1,...,(i-1)的可用事件Ei,f的神經(jīng)網(wǎng)絡(luò)Ni,j借助于作為輸入的發(fā)展值Pm,1...k-(i-j),f和作為輸出的Pm,1...k-(i-j)+1,f來加權(quán)。在第三步驟中,借助于神經(jīng)網(wǎng)絡(luò)Ni,j,用于初始年i的所有事件Pi,f的輸出值Qi,f被確定,輸出值Qi,f被指定給事件Pi,f的發(fā)展值Pi,K-(i-j)+1,f,并且神經(jīng)網(wǎng)絡(luò)Ni,j遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j+1。圖1示出用于確定上5×5矩陣中,即K+5時的事件Pf的事件值P2,5,f的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和/或呈現(xiàn)階段。虛線T指示訓(xùn)練階段,并且實線R指示學(xué)習(xí)之后的確定階段。圖2示出用于為第三初始年確定事件值P3,4,f(B34)的相同情況,并且圖3用于確定P3,5,f。圖4僅示出用于確定P3,4,f和P3,5,f的訓(xùn)練階段,所產(chǎn)生的值P3,4,f(B34)被用于訓(xùn)練網(wǎng)絡(luò)以確定P3,5,f。Aij指示圖中的已知值,而Bij顯示借助于網(wǎng)絡(luò)的某些值。圖5示出用于確定5×5矩陣的行3中的值的神經(jīng)網(wǎng)絡(luò)的遞歸產(chǎn)生,i-1個網(wǎng)絡(luò)被產(chǎn)生,因此是兩個。另一方面,圖6示出用于確定5×5矩陣的行5中的值的神經(jīng)網(wǎng)絡(luò)的遞歸產(chǎn)生,i-1個網(wǎng)絡(luò)被再次產(chǎn)生,因此是四個。
      重要的是指出作為實施例實例,借助于系統(tǒng)產(chǎn)生的事件值Bij的指定亦可僅在確定所有所尋求的發(fā)展值P之后進行。新確定的值則不可作為輸入值用于確定另外的事件值。圖7示出這種方法,訓(xùn)練基礎(chǔ)被限制于已知事件值A(chǔ)ij。換句話說,對于相同的j,神經(jīng)網(wǎng)絡(luò)Nij可以相同,用于初始時間間隔i+1的神經(jīng)網(wǎng)絡(luò)Ni+1,j=i被產(chǎn)生,并且所有其它神經(jīng)網(wǎng)絡(luò)Ni+1,j<i對應(yīng)于較早初始時間間隔的網(wǎng)絡(luò)。這意味著被一次產(chǎn)生用于計算特定事件值Pij的網(wǎng)絡(luò)被進一步用于針對具有相同j的值Pij的具有初始年a>i的所有事件值。
      在這里所討論的保險案例的情況下,可例如基于不同數(shù)據(jù)來訓(xùn)練不同的神經(jīng)網(wǎng)絡(luò)。例如,網(wǎng)絡(luò)訓(xùn)練可基于已付索賠,基于發(fā)生的索賠,基于已付但仍未清的索賠(準(zhǔn)備金)和/或基于已付且發(fā)生的索賠。用于每種情況的最佳網(wǎng)絡(luò)可例如借助于使預(yù)計值和實際值的絕對平均誤差最小來確定。例如,平均誤差與(已報索賠的)平均預(yù)計值之比可被應(yīng)用于被?;闹档念A(yù)計值以獲得誤差。對于先前初始年的預(yù)計值&lt;sic.are&gt;被共同用于計算隨后初始年的情況,誤差當(dāng)然必須被對應(yīng)地累計。這可例如由于每個模型的各個誤差的平方和的平方根被使用而實現(xiàn)。
      為獲得對神經(jīng)網(wǎng)絡(luò)的質(zhì)量和/或訓(xùn)練狀態(tài)的進一步估算,例如預(yù)計值亦可借助于所提及的佩瑞多分布來擬合。該估算亦可被用于例如從借助不同數(shù)據(jù)集(如在最后段落中所述)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)(例如已付索賠、未清賠款等)中來確定最佳神經(jīng)網(wǎng)絡(luò)。因此它遵循佩瑞多分布&chi;2=&Sigma;(O(i)-T(i)E(i))2]]>其中T(i)=Th((1-P(i))(-1/α))由此α是擬合參數(shù),Th是閾參數(shù)(閾值),T(i)是第i個支付要求的理論值,O(i)是第i個支付要求的觀察值,E(i)是第i個支付要求的誤差,并且P(i)是第i個支付要求的累計概率,其中P(1)=(12n)]]>并且P(i+1)=P(i)+1n]]>而n是支付要求數(shù)。對于這里的實施例實例,參考車輛保險數(shù)據(jù),基于所提出的神經(jīng)網(wǎng)絡(luò)的系統(tǒng)的誤差與鏈梯方法進行比較。網(wǎng)絡(luò)一次與已付索賠比較,且一次與發(fā)生索賠比較。為了比較數(shù)據(jù),發(fā)展年中的各個數(shù)據(jù)被累計。直接比較示出每1000的所選實例數(shù)據(jù)的以下結(jié)果。
      這里示出的誤差對應(yīng)于所示值的標(biāo)準(zhǔn)偏差,即σ1-誤差。具體而言,對于以后的初始年,即具有較大i的初始年,與現(xiàn)有技術(shù)方法相比,基于神經(jīng)網(wǎng)絡(luò)的系統(tǒng)顯示出在值的確定上的顯著優(yōu)點誤差保持基本上穩(wěn)定。這在當(dāng)前技術(shù)中不是這樣,因為那里的誤差對于增加的i并不成比例地增加。對于較大的初始年i,累計值的量上的明顯偏差被展示于鏈梯方法和借助依照本發(fā)明的方法獲得的那些之間。該偏差是基于以下事實,即在鏈梯方法中,IBNYR(發(fā)生但尚未報告的)損失已被附加考慮。IBNYR損壞事件將必須被添加給依照本發(fā)明的方法的以上示出的值。例如,為了計算組合準(zhǔn)備金,IBNYR損壞事件可借助于分離的發(fā)展(例如鏈梯)來考慮。在為各個損失準(zhǔn)備的過程中或在確定損失量分布的過程中,IBNYR損壞事件不起作用。
      參考符號列表T訓(xùn)練階段L學(xué)習(xí)之后的確定階段Aij已知事件值Bij借助系統(tǒng)產(chǎn)生的事件值。
      權(quán)利要求
      1.一種基于計算機的系統(tǒng),用于自動經(jīng)驗評級和/或損失準(zhǔn)備,初始時間間隔i的某個事件Pif包括發(fā)展間隔k=1,...,K的發(fā)展值Pikf,K是最后的已知發(fā)展間隔,其中i=1,...,K,并且所有發(fā)展值Plkf已知,特征在于用于自動確定發(fā)展值Pi,K+2-i,f,...,Pi,K,f的系統(tǒng)包括至少一個神經(jīng)網(wǎng)絡(luò)。
      2.如權(quán)利要求1的基于計算機的系統(tǒng),特征在于對于所述事件,初始時間間隔對應(yīng)于初始年,并且發(fā)展間隔對應(yīng)于發(fā)展年。
      3.如權(quán)利要求1或2之一的基于計算機的系統(tǒng),特征在于用于確定事件Pi,f(i-1)的發(fā)展值Pi,K+2-i,f,...,Pi,K,f的系統(tǒng)包括針對每個初始時間間隔i的迭代產(chǎn)生的神經(jīng)網(wǎng)絡(luò)Ni,j,其中j=1,...,(i-1),神經(jīng)網(wǎng)絡(luò)Ni,j+1遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j。
      4.如權(quán)利要求1到3之一的基于計算機的系統(tǒng),特征在于用于對特定神經(jīng)網(wǎng)絡(luò)Nij加權(quán)的訓(xùn)練值包括發(fā)展值Pp,q,f,其中p=1,...,(i-1)并且q=1,...,K-(i-j)。
      5.如權(quán)利要求1到3之一的基于計算機的系統(tǒng),特征在于對于相同j,神經(jīng)網(wǎng)絡(luò)Nij是相同的,針對初始時間間隔i+1的神經(jīng)網(wǎng)絡(luò)Ni+1,,j=i被產(chǎn)生,并且所有其它神經(jīng)網(wǎng)絡(luò)Ni+1,,j<i對應(yīng)于較早初始時間間隔的網(wǎng)絡(luò)。
      6.如權(quán)利要求1到5之一的基于計算機的系統(tǒng),特征在于所述系統(tǒng)進一步包括具有初始時間間隔i<1的事件Pi,f,對于事件Pi<l,f,所有發(fā)展值Pi<l,k,f是已知的。
      7.如權(quán)利要求1到6之一的基于計算機的系統(tǒng),特征在于所述系統(tǒng)包括至少一個縮放因子,借助于它,不同事件Pi,f的發(fā)展值Pikf可根據(jù)其初始時間間隔來縮放。
      8.一種基于計算機的方法,用于自動經(jīng)驗評級和/或損失準(zhǔn)備,具有發(fā)展間隔k=1,...,K的發(fā)展值Pikf被指定給初始時間間隔i的某個事件Pif,K是最后的已知發(fā)展間隔,其中i=1,...,K,并且對于事件Pl,f,所有發(fā)展值Plkf已知,特征在于至少一個神經(jīng)網(wǎng)絡(luò)被用于確定發(fā)展值Pi,K+2-i,f,...,Pi,K,f。
      9.如權(quán)利要求8的基于計算機的方法,特征在于對于所述事件,初始時間間隔被指定給初始年,并且發(fā)展間隔被指定給發(fā)展年。
      10.如權(quán)利要求8或9之一的基于計算機的方法,特征在于為了確定發(fā)展值Pi,K-(i-j)+l,f,針對每個初始時間間隔i的神經(jīng)網(wǎng)絡(luò)Ni,j被迭代(i-1)次產(chǎn)生,其中j=1,...,(i-1),神經(jīng)網(wǎng)絡(luò)Ni,j+1遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j。
      11.如權(quán)利要求8到10之一的基于計算機的方法,特征在于為了對特定神經(jīng)網(wǎng)絡(luò)Ni,j加權(quán),使用p=1,...,(i-1)并且q=1,...,K-(i-j)的發(fā)展值Pp,q,f。
      12.如權(quán)利要求8到10之一的基于計算機的方法,特征在于用于相同j的神經(jīng)網(wǎng)絡(luò)Ni,j被同樣地訓(xùn)練,針對初始時間間隔i+1的神經(jīng)網(wǎng)絡(luò)Ni+1,,j=i被產(chǎn)生,并且較早初始時間間隔的所有其它神經(jīng)網(wǎng)絡(luò)Ni+1,,j<i被承接。
      13.如權(quán)利要求8到12之一的基于計算機的方法,特征在于另外被用于確定的還有具有初始時間間隔i<1的事件Pi,f,對于事件Pi<l,f,所有發(fā)展值Pi<l,k,f是已知的。
      14.如權(quán)利要求8到13之一的基于計算機的方法,特征在于借助于至少一個縮放因子,不同事件Pi,f的發(fā)展值Pikf根據(jù)其初始時間間隔被縮放。
      15.一種基于計算機的方法,用于自動經(jīng)驗評級和/或損失準(zhǔn)備,具有發(fā)展間隔k=1,...,K的發(fā)展值Pi,k,f被存儲指定給初始時間間隔i的某個事件Pi,f,由此i=1,...,K且K是最后的已知發(fā)展間隔,并且由此對于第一初始時間間隔,所有發(fā)展值Pl,k,f已知,特征在于在第一步驟中,對于每個初始時間間隔i=2,...,K,借助于迭代j=1,...,(i-1),在每個迭代j,具有輸入層和輸出層的神經(jīng)網(wǎng)絡(luò)Ni,j被產(chǎn)生,所述輸入層具有K-(i-j)個輸入段,每個輸入段都包括至少一個輸入神經(jīng)元并被指定給一個發(fā)展值Pi,k,f,在于在第二步驟中,以所有初始時間間隔m=1,...,(i-1)的可用事件Pi,f,借助于作為輸入的發(fā)展值Pm,l..K-(i-j),f和作為輸出的Pm,l..K-(i-j)+l,f來加權(quán)神經(jīng)網(wǎng)絡(luò)Ni,j,并且在于在第三步驟中,借助于神經(jīng)網(wǎng)絡(luò)Ni,j,用于初始年i的所有事件Pi,f的輸出值Qi,f被確定,輸出值Qi,f被指定給事件Pi,f的發(fā)展值Pi,K-(i-j)+l,f,并且神經(jīng)網(wǎng)絡(luò)Ni,j遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j+1。
      16.如權(quán)利要求15的基于計算機的方法,特征在于對于所述事件,初始時間間隔被指定給初始年,并且發(fā)展間隔被指定給發(fā)展年。
      17.一種神經(jīng)網(wǎng)絡(luò)的系統(tǒng),神經(jīng)網(wǎng)絡(luò)Ni的每個都包括具有至少一個輸入段的輸入層和輸出層,該輸入層和輸出層包括以加權(quán)方式相互連接的多個神經(jīng)元,特征在于神經(jīng)網(wǎng)絡(luò)Ni能夠借助于數(shù)據(jù)處理單元通過使用軟件和/或硬件來迭代產(chǎn)生,神經(jīng)網(wǎng)絡(luò)Ni+1遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,并且每個網(wǎng)絡(luò)Ni+1在每種情況下都比網(wǎng)絡(luò)Ni多包括一個輸入段,在于從神經(jīng)網(wǎng)絡(luò)N1開始,每個神經(jīng)網(wǎng)絡(luò)Ni都可借助于最小化模塊通過使局部傳播的誤差最小來訓(xùn)練,并且在于神經(jīng)網(wǎng)絡(luò)的遞歸系統(tǒng)可借助于最小化模塊通過基于神經(jīng)網(wǎng)絡(luò)Ni的局部誤差使全局傳播的誤差最小來訓(xùn)練。
      18.如權(quán)利要求17的神經(jīng)網(wǎng)絡(luò)的系統(tǒng),特征在于神經(jīng)網(wǎng)絡(luò)Ni的輸出層以指定方式連接到神經(jīng)網(wǎng)絡(luò)Ni+1的輸入層的至少一個輸入段。
      19.一種計算機程序產(chǎn)品,包括計算機可讀介質(zhì),其具有在其中包含的計算機程序代碼裝置以用于控制基于計算機的系統(tǒng)的一個或多個處理器,所述系統(tǒng)用于自動經(jīng)驗評級和/或損失準(zhǔn)備,具有發(fā)展間隔k=1,...,K的發(fā)展值Pi,k,f被存儲指定給初始時間間隔i的某個事件Pi,f,由此i=1,...,K且K是最后的已知發(fā)展間隔,并且對于第一初始時間間隔i=1,所有發(fā)展值Pl,k,f已知,特征在于借助于所述計算機程序產(chǎn)品,至少一個神經(jīng)網(wǎng)絡(luò)能夠使用軟件來產(chǎn)生并且可用于確定發(fā)展值Pi,K+2-i,f,...,Pi,K,f。
      20.如權(quán)利要求19的計算機程序產(chǎn)品,特征在于對于所述事件,初始時間間隔被指定給初始年,并且發(fā)展間隔被指定給發(fā)展年。
      21.如權(quán)利要求19或20之一的計算機程序產(chǎn)品,特征在于為了確定發(fā)展值Pi,K-(i-j)+l,f,借助于所述計算機程序產(chǎn)品,針對每個初始時間間隔i的神經(jīng)網(wǎng)絡(luò)Ni,j能夠被迭代(i-1)次產(chǎn)生,神經(jīng)網(wǎng)絡(luò)Ni,j+1遞歸地依賴于神經(jīng)網(wǎng)絡(luò)Ni,j。
      22.如權(quán)利要求19到21之一的計算機程序產(chǎn)品,特征在于為了借助于所述計算機程序產(chǎn)品對特定神經(jīng)網(wǎng)絡(luò)Ni,j加權(quán),p=1,...,(i-1)并且q=1,...,K-(i-j)的發(fā)展值Pp,q,f可從數(shù)據(jù)庫中讀取。
      23.如權(quán)利要求19到21之一的計算機程序產(chǎn)品,特征在于借助所述計算機程序產(chǎn)品,對于相同的j,神經(jīng)網(wǎng)絡(luò)Ni,j被同樣地訓(xùn)練,針對初始時間間隔i+1的神經(jīng)網(wǎng)絡(luò)Ni+1,,j=i借助于所述計算機程序產(chǎn)品而被產(chǎn)生,并且較早初始時間間隔的所有其它神經(jīng)網(wǎng)絡(luò)Ni+1,,j<i被承接。
      24.如權(quán)利要求19到23之一的計算機程序產(chǎn)品,特征在于所述數(shù)據(jù)庫另外以存儲方式包括具有初始時間間隔i<1的事件Pi,f,對于事件Pi<l,f,所有發(fā)展值Pi<l,k,f是已知的。
      25.如權(quán)利要求19到24之一的計算機程序產(chǎn)品,特征在于所述計算機程序產(chǎn)品包括至少一個縮放因子,借助于它,不同事件Pi,f的發(fā)展值Pikf可根據(jù)其初始時間間隔來縮放。
      26.一種計算機程序產(chǎn)品,其可加載于數(shù)字計算機的內(nèi)部存儲器中并且包括軟件代碼段,當(dāng)所述產(chǎn)品在計算機上正在運行時,如權(quán)利要求8到16之一的步驟能夠借助它來實施,所述神經(jīng)網(wǎng)絡(luò)能夠通過軟件和/或硬件來產(chǎn)生。
      全文摘要
      本發(fā)明涉及一種方法,用于自動建立事件的經(jīng)驗評級和/或風(fēng)險準(zhǔn)備金,由此起始年i的某個事件P
      文檔編號G06Q40/00GK1689036SQ03824551
      公開日2005年10月26日 申請日期2003年9月10日 優(yōu)先權(quán)日2003年9月10日
      發(fā)明者弗蘭克·屈佩爾斯 申請人:瑞士再保險公司
      網(wǎng)友詢問留言 已有0條留言
      • 還沒有人留言評論。精彩留言會獲得點贊!
      1