專利名稱::一種應(yīng)用于話務(wù)量預(yù)測(cè)的分段在線支持向量回歸方法一種應(yīng)用于話務(wù)觀湖啲分段在線支持向量回歸方法獄領(lǐng)域本發(fā)明涉及一種在線支持向量回歸方法,具##及一種應(yīng)用于移動(dòng)通信話務(wù)量時(shí)間序列預(yù)測(cè)的分段在線支持向量回歸方法。背景獄隨著計(jì)算機(jī)科學(xué)技術(shù)的不斷發(fā)展,知識(shí)和數(shù)據(jù)的獲取變得ffl^越容易,M^炸性增長,有效挖掘已知數(shù)據(jù)、提取1^#征和通過已知序列進(jìn)行未來狀態(tài)的預(yù)測(cè),使得m^挖掘變成時(shí)下的熱點(diǎn)問^t一,與此同時(shí),預(yù)測(cè)技術(shù)成為時(shí)間序列i^挖掘的重點(diǎn)內(nèi)容,吸引皿越多研究者的關(guān)注。移動(dòng)通信話務(wù)量的大小在一定,上體現(xiàn)了話音信道被占用'的強(qiáng)度。移動(dòng)通信話務(wù)量預(yù)測(cè)對(duì)于移動(dòng)網(wǎng)絡(luò)的維護(hù)以及移動(dòng)通信的決策具有重要的價(jià)值,如果能夠及時(shí)、準(zhǔn)確地預(yù)測(cè)話務(wù)網(wǎng)絡(luò)的流量,就倉辦有效減少網(wǎng)絡(luò)維護(hù)費(fèi)用,提高網(wǎng)絡(luò)運(yùn)行質(zhì)量。目前,時(shí)間序列分析和預(yù)測(cè)技術(shù)題行移動(dòng)通信話務(wù)量麵的分析和預(yù)觀啲一種有效方法。隨著預(yù)測(cè)時(shí)間序列鵬鋭,尤其對(duì)于復(fù)雜的非線性、非平穩(wěn)時(shí)間序列,傳統(tǒng)統(tǒng)計(jì)學(xué)的AR、A靈等方法船佳獲得令人滿意的結(jié)果。加之,在線實(shí)時(shí)預(yù)測(cè)的應(yīng)用需求也逐漸增加,使得人工智能技術(shù)中的神經(jīng)網(wǎng)絡(luò)、^糊邏輯等離線建模方法很難取得實(shí)效的應(yīng)用。近年,采用在線支持向量回歸((hlineSupportVectorRegression,OnlineSVR)進(jìn)行時(shí)間序列預(yù)測(cè)的研究十分廣泛。由于其算法簡單、不存在局部最小、維數(shù)5fet和泛化能力強(qiáng)m點(diǎn),在時(shí)間序列預(yù)測(cè)方面取得很好的效果。SVR^在統(tǒng)計(jì)學(xué)習(xí)理論和結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理基礎(chǔ)上,會(huì)辦,地解決小樣本、非線性、高維數(shù)和局部極小等實(shí)際問題,但是一般的OnlineSVR(比如增量學(xué)習(xí)算法、減量學(xué)習(xí)算法、AOSVR等)方法在獲得良好預(yù)測(cè)效果的同時(shí),由于其算法錢度較高,其執(zhí)行效率往往無法滿足實(shí)際應(yīng)用的需求。在實(shí)際應(yīng)用中,話務(wù)量涵蓋了大量的小區(qū)數(shù)據(jù),且歷史積累的話務(wù)數(shù)據(jù)量也很豐富,這就需要預(yù)測(cè)的對(duì)去具剤艮高的效率,而且不同的小區(qū)、不同的區(qū)域、不同時(shí)段話務(wù)量都會(huì)呈現(xiàn)不同的變化特性,因JlW預(yù)測(cè)模型的實(shí)時(shí),的特性提出很高的要求。在線支持向量回歸進(jìn)行時(shí)間序列預(yù)測(cè)的基本原理對(duì)于時(shí)間序列M(^乃),(X2,;;2),…,(JC,,;;,),^乂.e及,構(gòu)造回歸函數(shù)(預(yù)測(cè)函數(shù))為<formula>formulaseeoriginaldocumentpage6</formula>(1)式(1)中,v/eiT,6e及,0(.)把輸入樣本從輸入空間,到高維特征空間,通過優(yōu)化問題求解w和b。<formula>formulaseeoriginaldocumentpage6</formula>(2)式(2)的約束剝牛為<formula>formulaseeoriginaldocumentpage6</formula>f和f為松弛變量,C為懲罰參數(shù),S為不敏感損失函數(shù);轉(zhuǎn)換上述問題的Lagrange優(yōu)化問題<formula>formulaseeoriginaldocumentpage7</formula>式(3)需滿足以下條件:<formula>formulaseeoriginaldocumentpage7</formula>定義核函數(shù)^.=(^,)(^)=夂(^~),對(duì)于回歸函數(shù)(預(yù)測(cè)函數(shù))/(x)-『^(;c)+6表達(dá)為(4)按照KKT(Karush-Kuhn-Tucker)定理,可以得至!j樣本;c,.的邊界函數(shù)<formula>formulaseeoriginaldocumentpage7</formula>其中<formula>formulaseeoriginaldocumentpage7</formula>根據(jù)式(5),將訓(xùn)練數(shù)據(jù)集劃分為三個(gè)子集錯(cuò)誤支持向量集£={/||《|=C}(ErrorSupportvectors)、邊緣支持向量集S-(/l0〈l《l〈C〉(Marginsupportvectors)和保留樣本集及={/|《=0}(Remainingsamples)。普通離線SVR訓(xùn)練魏數(shù)據(jù)集一次或者批難取進(jìn)行訓(xùn)練,'獲得模型后再進(jìn)行預(yù)測(cè),而OnlineSVR是隨著在線數(shù)據(jù)的更新而不,fi,練、不斷優(yōu)化的過程,應(yīng)用較多的在線學(xué)習(xí)算法就是增量學(xué)習(xí)算法和減量學(xué)習(xí)算法。假設(shè)現(xiàn)有一個(gè)新的樣本:c。加入到訓(xùn)練集中,此時(shí)需要加入《,并計(jì)算各個(gè)《(/=1,2,…,")和《的更新值A(chǔ)《及A《以使得所有的樣本均滿足KKT割牛。M(jc,.)=K(A,;cc)A《+力K(:x:,,:c》A《+(6),'=1又因?yàn)椤?$《=0(7)對(duì)集合S,可得'—1叫,;c》A《+=-叫,Xc)A《(8)如果定義集合S中樣本的下標(biāo)集為S-^A,…,s,j,則(8)式可以表示為矩陣形式:<formula>formulaseeoriginaldocumentpage8</formula>(10)由上面推導(dǎo)可得:<formula>formulaseeoriginaldocumentpage8</formula>由式(8)(11)實(shí)現(xiàn)SVR在線訓(xùn)練,從而實(shí)現(xiàn)S、E和R集的更新。應(yīng)用減量訓(xùn)練算法從訓(xùn)練樣本集中去除一個(gè)樣本與上面過^^以。-在線支持向量回歸雖然解決了模型動(dòng)態(tài)更新的問題,會(huì)辦實(shí)現(xiàn)時(shí)間序列的在線建模和預(yù)測(cè)。但是,從算法的流社分析,當(dāng)訓(xùn)練M集更新時(shí),增量(或減量)訓(xùn)練算法對(duì)所有的Lagrange乘子進(jìn)行更新,并涉及大規(guī)模矩陣的求逆,因此,算法的計(jì)算復(fù)雜度臓較高。另一方面,如鵬取的訓(xùn)練麵集規(guī)模很大,算法鄉(xiāng)行模型更新、訓(xùn)練湘預(yù)測(cè)過程中,效率會(huì)下降比較明顯。圖1選取不同建模長度進(jìn)行在線時(shí)間序列預(yù)測(cè)(移動(dòng)通信話務(wù)量)獲得的建模長度與算法運(yùn)行時(shí)間的關(guān)系。從圖1可知,如果達(dá)到^F的建模預(yù)測(cè)效率(較短的算法執(zhí)行時(shí)間),必須降低在線建M^長度。圖2(移動(dòng)通信話務(wù)翻測(cè)實(shí)驗(yàn))說明了在選取確定參數(shù)的剝牛下,采用更大規(guī)模的建模長度,可以獲得更好的預(yù)測(cè)精度。采用OnlineSVR算法進(jìn)行時(shí)間序列預(yù)測(cè)過程中,算法效,臓測(cè)的精度處于矛盾中,樣本規(guī)模的持續(xù)增加,致使每次在線進(jìn)行模型魏過程中涉及的運(yùn)算量增加,從而導(dǎo)致算法運(yùn)行速度的下降;而如果采用^>的建模預(yù)測(cè)娜長度,OnlineSVR模賺能記錄的數(shù)據(jù)歷史知識(shí)敘莫式過于有限,從:使算法泛化能力下降,從而導(dǎo)致預(yù)測(cè)精度下降。
發(fā)明內(nèi)容本發(fā)明為了解決在移動(dòng)通信話務(wù)量預(yù)測(cè)中,采用在線支持向量回歸方法進(jìn)行時(shí)間序列預(yù)測(cè)時(shí),在提高預(yù)測(cè)效率的同時(shí),其預(yù)測(cè)精度會(huì)有所降低的問題,提供了一種應(yīng)用于話務(wù)量時(shí)間序列預(yù)測(cè)的分段在線支持向量回歸方法。本發(fā)明的設(shè)計(jì)構(gòu)思根據(jù)上述i,結(jié)果和分析(圖1和圖2),提高算法執(zhí)行效率最為直接的方式就是縮減在線建tli^樣本的規(guī)模,同時(shí)采用一種方式來彌補(bǔ)對(duì)于建模娜規(guī)豐敏短損失歷史知識(shí)而降低預(yù)測(cè)精度。為此,在進(jìn)行0nlineSVR在線學(xué)習(xí)和模型更新的同時(shí),應(yīng)用分段存儲(chǔ)的策略,以細(xì)化分段的方式對(duì)OnlineSVR歷史模型進(jìn)fi^個(gè)存儲(chǔ)。而在預(yù)測(cè)時(shí),選擇多^T分段模型中:t^合的分段模型進(jìn)行分段在線支持向量回歸(SegmentalOnlineSVR,簡記為SOSVR)算法的原理如圖3所示原理框圖。本發(fā)明為解決,技術(shù)問題采取的技術(shù)方案是本發(fā)明所述應(yīng)用于話務(wù)量時(shí)間序列預(yù)測(cè)的分段在線支持向量回歸方法包括如下步驟'步驟一、預(yù)處理將時(shí)間序列數(shù)據(jù)轉(zhuǎn)換進(jìn)行相空間重構(gòu),使之^^設(shè)定的^A維數(shù)五附6e^/e必/膨腦'o";步驟二、OnlineSVR初始化訓(xùn)練采用支持向量回歸增量算法對(duì)完成步驟一的進(jìn)行訓(xùn)練,獲f射刀^0nlineSVR模型;步驟三、對(duì)于在線更新的樣本序列(&,>0,采用支持向量回歸增量算法進(jìn)行在線訓(xùn)練;步驟四、判斷在線支持向量回歸是否滿足分段條件SGP:'若滿足分段條件SG戶,則執(zhí)行步驟五;否則,執(zhí)行步驟六;步驟五、賦值新子分段模型<formula>formulaseeoriginaldocumentpage10</formula>并存儲(chǔ);S代表子分段模型的序號(hào);用5KSW表示分段在線支持向量回歸;步驟六、OnlineSVR預(yù)測(cè)輸出值Proi^/r(/);i為預(yù)測(cè)的步數(shù);步驟七、SOSVR預(yù)測(cè)輸出Pr^"W(W):W戈表子分段模型的序號(hào),/為預(yù)測(cè)的步數(shù),以下同;步驟八、判斷步驟七中戶脫的S0SVR預(yù)測(cè)輸出Pr^"5T(w')是否f始最優(yōu)預(yù)測(cè)輸出剝牛5Zm如果符合,則執(zhí)行步驟九;否則,執(zhí)行步驟十;步驟九、預(yù)測(cè)最<formula>formulaseeoriginaldocumentpage11</formula>'步驟十、<formula>formulaseeoriginaldocumentpage11</formula>步驟十一、判斷子分段模型是否符合子分段模型更新條件C^她SOSra(/),/e(l,2,.一),若符合,執(zhí)行步針二;否則,執(zhí)行步針三;步驟十二、刪減按照子分段模型更新條件選定的子分段模型愿卿),/e(l,2,…,S);步驟十三、刪掉最遠(yuǎn)點(diǎn)歷史數(shù)據(jù),并采用支持向量回歸減量算法訓(xùn)練OnlineSVR;.步驟十四、數(shù)據(jù)在線更新,并重復(fù)步i!H步驟十三。本發(fā)明的有益效果是針對(duì)在線時(shí)間序列預(yù)測(cè)問題,提出一種分段支持向量回歸在線時(shí)間序列預(yù)測(cè)方法,算法采用支持向量回歸增量學(xué)習(xí)算法進(jìn)行OnlineSVR訓(xùn)練,通鄉(xiāng)鵬模數(shù)據(jù)長度實(shí)現(xiàn)在線'鵬訓(xùn)練,并對(duì)OnlineSVR模型進(jìn)行分段存儲(chǔ),根據(jù)待預(yù)測(cè)鄰域時(shí)間序列與各子分段模型的匹配度,選取最優(yōu)的子分段模型預(yù)測(cè)輸出,提高算法預(yù)測(cè)精度。既避免了由于樣本數(shù)量增加導(dǎo)致的增量在線學(xué)習(xí)效率的下降,XM分麟瞎存了樣本的歷史知識(shí),執(zhí)行效率和預(yù)測(cè)精度得到提高。本文提出的算法在中國移動(dòng)黑龍江有限公司實(shí)際話務(wù)量數(shù)據(jù)的預(yù)測(cè)中取得很好的應(yīng)用效果。實(shí)驗(yàn)結(jié)果表明,該算法在保持在線預(yù)測(cè)執(zhí)行效率的同時(shí),可M:分段提高預(yù)測(cè)精度5%10%。由于采用了較小的建mm據(jù)長度,算法效率得以提高??梢詫?shí)現(xiàn)對(duì)于時(shí)間序列的在線、實(shí)時(shí)、快速預(yù)測(cè)。圖1為OnlineSVR時(shí)間序列預(yù)測(cè)中在線建模數(shù)據(jù)長度與算法執(zhí)行時(shí)間關(guān)系圖;圖2OnlineSVR時(shí)間序列預(yù)測(cè)中在線建模數(shù)據(jù)長度與預(yù)測(cè)精度關(guān)系圖;圖3分段在線支持向量回歸算法(本發(fā)明)時(shí)間序列預(yù)測(cè)算法原理框圖(對(duì)OnlineSVR■進(jìn)行分段,劃分為多W分段支持向量回歸模型,通過模式匹酉^i擇最優(yōu)子分段模型預(yù)測(cè)輸出),圖4是本發(fā)明辦流程圖;圖5a是基于分段支持向量回歸算法對(duì)移動(dòng)通信話務(wù)量娜進(jìn)纟預(yù)測(cè)實(shí)驗(yàn)結(jié)果圖潔華商業(yè)區(qū),話務(wù)小區(qū)編號(hào)HUAM28A),圖5b是基于分段支持向量回歸算法對(duì)移動(dòng)通信話務(wù)量數(shù)據(jù)進(jìn)行預(yù)測(cè)實(shí)驗(yàn)結(jié)果圖(高等院校,話務(wù)小區(qū)編號(hào)HCAD26C),圖5c是基于分段支持向量回歸算法對(duì)移動(dòng)通信話務(wù)量mig進(jìn)fiil測(cè)實(shí)驗(yàn)結(jié)果圖(居民住宅區(qū),話務(wù)小區(qū)編號(hào)H0A026B),圖5d是基于分段支持向量回歸算法對(duì)移動(dòng)通信話務(wù)量數(shù)據(jù)進(jìn)行預(yù)測(cè)實(shí)驗(yàn)結(jié)果圖(^1主干線,話務(wù)小區(qū)編號(hào)HPA001A)。'具體實(shí)式具體實(shí)施方式一一種應(yīng)用于話務(wù)量時(shí)間序列預(yù)測(cè)的分段在線支持向量回歸方法定義在線支持向量回歸模型OnlineSVR,懲罰參數(shù)G不敏感損失系數(shù)s,核函數(shù)類型ii^"e/7)^,核函數(shù)參數(shù);7,子分段模型SOSra(力,"1,2,3...,初始訓(xùn)練集長度rra/"Ze"g^,分段割牛SG尸,選擇最優(yōu)子分段模型預(yù)測(cè)輸出斜牛幼尸尸,分段更新機(jī)制"盧e皿ra(/),/€(1,2,…,",駄維數(shù)録^fe孤m畫'o";輸出第i步預(yù)測(cè)值PrWc仏(/),時(shí)間序列真實(shí)值rw(/);如圖3和圖4所示,本發(fā)明所述方g括如下步驟步驟一、數(shù)據(jù)預(yù)處理將時(shí)間序列數(shù)據(jù)轉(zhuǎn)換進(jìn)行相空間重構(gòu),使之M設(shè)定的"^A維數(shù)五附6ecfe必/膨ws/o";步驟二OnlineSVR初始化訓(xùn)練采用支持向量回歸增量算法對(duì)完成步驟一的,進(jìn)fiil瞎、,獲f射刀始0nlineSVR模型;步驟三、對(duì)于在線更新的樣本序列(&,A),采用支持向量周歸增量算法進(jìn)行在線訓(xùn)練;步驟四、判斷在線支持向量回歸是否滿足分段條件SG戶若滿足分段條件SG尸,則執(zhí)行步驟五;否則,執(zhí)行步驟六;步驟五、賦值新子分段模型皿,)=0"http://恥,,屮+1,并存儲(chǔ);S條子分段模型的序號(hào);用沉5"W,分段在線支持向量回歸;步驟六、OnlineSVR預(yù)測(cè)輸出值Pre血Z/T(/);i為預(yù)測(cè)的步數(shù);步驟七、SOSVR預(yù)測(cè)輸出Pre血d^,/):^f戈表子分段模型的序號(hào),溈預(yù)測(cè)的步數(shù),以下同;步驟八、判斷步驟七中戶脫的SOSVR預(yù)測(cè)輸出Pr^'c^I^,0是否符合最優(yōu)預(yù)測(cè)輸出剝牛幼然如果船,則執(zhí)行步驟九;否則,執(zhí)行步驟十;步驟九、翻最離Pre血,)=PrW/"辟,/);步驟十、翻最維Pr^c,-Pre血卿);步驟十一、判斷子分段模型是否符合子分段模型更新條件f/^她SOSra(/),/e(l,2,…,力,若f始,執(zhí)行步針二;否則,執(zhí)行步驟十三;步驟十二、刪減按照子分段模型更新條件選定的子分段模型郷,),/e(l,2,…,s);步驟十三、刪掉最遠(yuǎn)點(diǎn)歷史數(shù)據(jù),并采用支持向量回歸減量算法訓(xùn)練OnlineSVR;步針?biāo)摹?shù)據(jù)在線更新,并重復(fù)步^H步驟十三。具體實(shí)施方式二:本實(shí)施方式在步驟四中所述分段斜牛SGP用于保證分段的條件能夠最大效率地保存數(shù)據(jù)集的歷史知識(shí),使得各^分段sosra模型差異最大化,增強(qiáng)模型的泛化能力。其它步驟與具體實(shí)施方式一相同。具體實(shí)施方式三本實(shí)施方式在步驟四中,采用聚類的方輝作為分段斜牛,使得每個(gè)子分段sosw^("適應(yīng)不同特性的子時(shí)間序列段。其它步驟與具體實(shí)施例方式一或二相同。具體實(shí)施方式四本實(shí)施方式在步驟四中,比較子分段模型SOSVR(s)之間的相似度(如i^:距離),定義SOSVR(s)相似性度量I&人若《Wfe>-Ks-"〉尸,尸為設(shè)定相似鵬量閾值,以相鄰子分段SOSVR相j贓鵬出閾值作為分段剝牛。其它步驟與具體實(shí)施方式一或二相同。具體實(shí)施方式五本實(shí)施方式在步驟四中,根據(jù)支持向量《r變化情況作為分段條件,如兩個(gè)相鄰子分段支持模型的支持向量S^^)nS;,w)〈Q作為分段剝牛,即相鄰SOSVR相同支持向量數(shù)少于閾值。其它步驟與具體實(shí)施方式一或二相同。具體實(shí)施方式六本實(shí)施方式在步驟四中,采用等分^法進(jìn)行分段,即在線訓(xùn)練!^長度TrainLength〉L時(shí)進(jìn)行分段。其它步驟與具體實(shí)施方式一或二相同。具體實(shí)施方式七本實(shí)施方式在步驟八中,最優(yōu)預(yù)測(cè)輸出剝牛幼戶贗按照待預(yù)測(cè)序列鄰域D(JC,.,兀V=1,2,...,W各個(gè)子分段模型SOSP7(A:),A:戶(1,2,...,"的匹配度作為選軒分段模型預(yù)測(cè)輸出的剝牛;可以選擇子分段模型滿壯一步預(yù)測(cè)聽最小,如下式min(五A7W(/—1)=SOSFR—Pred/"(A:,/誦1)-7ks"/-1)),A:=1,2,…s式中5*OSra—Pre血《A:,/-1)為第i-l步中第k個(gè)子分段模型預(yù)測(cè)值,rw(/-1)為第i-7步序列實(shí)際值。其它步驟與具體實(shí)施方式一相同。具體實(shí)施方式八本實(shí)施方式在步驟八中,按照樣本鄰域序列與各個(gè)子分段SOSF及("Ae(1,2,...,s)支持向量的核空間歐式距離最小作為最優(yōu)預(yù)測(cè)輸出條件。其它步驟與具體實(shí)施方式一或七相同。具體實(shí)施方式九本實(shí)施方式在步驟十一中,子分段模型更新L^她SOSra(/),/£(1,2,...,"是為了選擇出需要?jiǎng)h減的子分段模型,實(shí)JI^子分段模型進(jìn)行更新,以避免存儲(chǔ)效率下降和存儲(chǔ)溢出;若子分段模型數(shù)量到達(dá)預(yù)設(shè)的閾值,貝U選擇拋棄應(yīng)用較少或刪綱似的子分段模型。其它步驟與具體實(shí)施方式一相同。具體實(shí)施方式十本實(shí)施方式按照模型預(yù)測(cè)輸出次MIJ除應(yīng)用最少的子分段模型;娜麟產(chǎn)生最早的子分段模型;還可以進(jìn)行子分段模型模式匹配,合并相4鵬較高的子分段模型;如果預(yù)測(cè)步數(shù)不大或連,測(cè)過程中所獲得的子分段模型數(shù)量在可承受范圍之內(nèi),也可不進(jìn)行更新。其它步驟與具體實(shí)施方式九相同。本發(fā)明^M^的實(shí)驗(yàn)ME與應(yīng)用應(yīng)用sosvR進(jìn)^^動(dòng)通信網(wǎng)絡(luò)話務(wù)量數(shù)據(jù)預(yù)測(cè),實(shí)iW于話務(wù)量ic^的^i預(yù)測(cè)。實(shí)驗(yàn)所用繊為中國移動(dòng)黑龍江有限公司提供的話務(wù)量娜,話務(wù)量以文件形式,,每個(gè)文件中以1小時(shí)為采集間隔,包含全省所有小區(qū)一天24小時(shí)共約500000條記錄。,屬性包撤己錄時(shí)間、小區(qū)名稱、話務(wù)量、信道擁塞率、切換成功率等。實(shí)驗(yàn)中,用話務(wù)量作為預(yù)測(cè)m,單位是愛爾蘭(erl)。一般以一定的時(shí)間尺度(一般是小時(shí))進(jìn)行采集和計(jì)算的話務(wù)量Wg序列。圖5a圖5d是采用S0SVR算法進(jìn)行四種類型移動(dòng)通信話縫小區(qū)預(yù)湖啲結(jié)果(168個(gè)小時(shí)連,測(cè),移動(dòng)基站繁華商業(yè)區(qū)~~i舌務(wù)小區(qū)編號(hào)HUAM28A、高等院校ffi務(wù)小區(qū)編號(hào)HCAD26C、居民住宅區(qū)話務(wù)小區(qū)編號(hào)HOA026B、±干^話務(wù)小區(qū)編號(hào)HPA001A)。實(shí)驗(yàn)中SVR參,取統(tǒng)一的、通過實(shí)驗(yàn)比^^t擇的、適合一麵測(cè)的參數(shù),而子分段模型最優(yōu)預(yù)測(cè)輸出剝牛幼尸戶采用上一步模型預(yù)測(cè)誤差最小確定,艮P:<formula>formulaseeoriginaldocumentpage16</formula>式中SOSra—Pre&c"/-1)為M分分段S0SVR(s)第7^f頁測(cè)值,TeW(z'-1)為第i-J步實(shí)際序列值。為了說明算法的適應(yīng)性和一般性,采用A0SVR、IncrementalSVR(采用增量訓(xùn)練的OnlineSVR算法)和本文提出的S0SVR,進(jìn)行四類典型話務(wù)小區(qū)一周話務(wù)量的連娜測(cè),實(shí)驗(yàn)環(huán)境選擇Matlab。為全面比較算法的預(yù)觀勝能,采用兩種性能i憤標(biāo)準(zhǔn)平均,誤差(MeanAbsoluteError,MAE)和規(guī)范化均方根誤差(NormalizedRootMeanSquareError,NRMSE)。SOSVR與其它算法預(yù)測(cè)實(shí)驗(yàn)(一步預(yù)測(cè),連續(xù),測(cè)一周話務(wù)量2008071320080719)的^"比較的情況如表1所示。相同參數(shù)條件下,^比較各種在線支持向量回歸算法的預(yù)測(cè)精度和執(zhí)行效率。表1算法預(yù)測(cè)性能比較表<table>tableseeoriginaldocumentpage16</column></row><table><table>tableseeoriginaldocumentpage17</column></row><table>從實(shí)驗(yàn)結(jié)果來看,由于未采用驢學(xué)習(xí),#^蟲的IncrementalSVR受樣本規(guī)模逐,力口,表中IncrementalSVR的執(zhí)行時(shí)間相比于AOSVR、SOSVR,效率明顯低,雖然在預(yù)測(cè)精度方面相比占優(yōu),但魏于實(shí)際應(yīng)用并不是十瓶合。而對(duì)比AOSVR和本文提出的SOSVR算法,由于算法在流恥比較相近,只是在預(yù)測(cè)輸出的策略上有所差異,因此,兩種算法在建^長度相同的剝牛下,其執(zhí)行效率比近乎一致。而由于采用較小的初始建模長度,可實(shí)現(xiàn)快速在線預(yù)測(cè)。而SOSVR采用了分段建模、選取最優(yōu)子分段模型預(yù)測(cè)輸出,其預(yù)測(cè)精度指標(biāo)相比AOSVR要高,從四類典型的話務(wù)量小區(qū)預(yù)測(cè)結(jié)果上來看,預(yù)測(cè)誤差MAE、NRMSE要比AOSVR降低約5°/^10%。如果以預(yù)測(cè)精度大致相同的剝牛下對(duì)算法的效率進(jìn)行比較,表2為AOSVR和SOSVR算法執(zhí)行效率對(duì)比的情況。表2算法執(zhí)行效率對(duì)比表<table>tableseeoriginaldocumentpage18</column></row><table>如表2,S0SVR與A0SVR算法在預(yù)測(cè)精度基本一致的條件下,本文所提出算法的執(zhí)行效斜目比S0SVR提高50%以上,究其原因,由于算法采用分段策略很好地保留了話務(wù)量時(shí)間序列的歷史知識(shí),相應(yīng)地,通過在線建模和預(yù)測(cè)數(shù)據(jù)規(guī)模的減小,大大地提高了算法預(yù)測(cè)的執(zhí)行效率。從算法S^度方面進(jìn)行分析,在線學(xué)習(xí)的算法復(fù)雜度為爭2),m為在線訓(xùn)練數(shù)據(jù)集的樣本數(shù),在相同的預(yù)測(cè)精度條件下,如果S0SVR算法建模序列長度減小為A0SVR的70%,則其算法^度相應(yīng)會(huì)降低約50%,對(duì)應(yīng)地,算法效率會(huì)提高約50%。S0SVR算法由于采用在線訓(xùn)練娜建模長度較小,所以預(yù)測(cè)具剤艮好的實(shí)時(shí)性,會(huì)辦符合實(shí)際應(yīng)用的需求。分段在線支持向量回歸算法的快速時(shí)間序列預(yù)測(cè)方法,通過采用分段存儲(chǔ)策略,利用選擇最優(yōu)子分段SVR模型進(jìn)^f頁測(cè),從而在保持算法具有很高的效率的情況下,進(jìn)一步提高了算法預(yù)測(cè)精度。從基于移動(dòng)通信話務(wù)量數(shù)據(jù)的實(shí)際應(yīng)用實(shí)驗(yàn)上來看,算法較OnlineSVR算法在執(zhí)魏度不變的餅下,能夠使得算法的精度提高5%以上;如果在精度大致一致的^#下,算法的執(zhí)行效率會(huì)至少提高50%。SOSVR算法在^性能上優(yōu)于基于增量學(xué)習(xí)和減量學(xué)習(xí)的普通OnlineSVR。權(quán)利要求1、一種應(yīng)用于話務(wù)量時(shí)間序列預(yù)測(cè)的分段在線支持向量回歸方法,其特征在于所述方法包括如下步驟步驟一、數(shù)據(jù)預(yù)處理將時(shí)間序列數(shù)據(jù)轉(zhuǎn)換進(jìn)行相空間重構(gòu),使之符合設(shè)定的嵌入維數(shù)EmbededDimension;步驟二、OnlineSVR初始化訓(xùn)練采用支持向量回歸增量算法對(duì)完成步驟一的數(shù)據(jù)進(jìn)行訓(xùn)練,獲得初始OnlineSVR模型;步驟三、對(duì)于在線更新的樣本序列(xc,yc),采用支持向量回歸增量算法進(jìn)行在線訓(xùn)練;步驟四、判斷在線支持向量回歸是否滿足分段條件SGP若滿足分段條件SGP,則執(zhí)行步驟五;否則,執(zhí)行步驟六;步驟五、賦值新子分段模型SOSVR(s)=OnlineSVR,s=s+1,并存儲(chǔ);s代表子分段模型的序號(hào);用SOSVR表示分段在線支持向量回歸;步驟六、OnlineSVR預(yù)測(cè)輸出值PredictfY(i);i為預(yù)測(cè)的步數(shù);步驟七、SOSVR預(yù)測(cè)輸出PredictSY(s,i)s代表子分段模型的序號(hào),i為預(yù)測(cè)的步數(shù),以下同;步驟八、判斷步驟七中所述的SOSVR預(yù)測(cè)輸出PredictSY(s,i)是否符合最優(yōu)預(yù)測(cè)輸出條件SBPP,如果符合,則執(zhí)行步驟九;否則,執(zhí)行步驟十;步驟九、預(yù)測(cè)最終值PredictL(i)=PredictSY(s,i);步驟十、預(yù)測(cè)最終值PredictL(i)=PredictfY(i);步驟十一、判斷子分段模型是否符合子分段模型更新條件UpdateSOSVR(l),l∈(1,2,...,s),若符合,執(zhí)行步驟十二;否則,執(zhí)行步驟十三;步驟十二、刪減按照子分段模型更新條件選定的子分段模型SOSVR(l),l∈(1,2,...,s);步驟十三、刪掉最遠(yuǎn)點(diǎn)歷史數(shù)據(jù),并采用支持向量回歸減量算法訓(xùn)練OnlineSVR;步驟十四、數(shù)據(jù)在線更新,并重復(fù)步驟三~步驟十三。2、根據(jù)權(quán)利要求1所述的一種應(yīng)用于話務(wù)S1測(cè)的分段在線支持向量回歸方法,其特征在于步驟四中所述分段斜牛SOP用于保證分段的割牛能夠最大效率地保存數(shù)據(jù)集的歷史知識(shí),使得於子分段5^祝模型差異最大化,增強(qiáng)模型的泛化能力。3、根據(jù)權(quán)利要求1或2所述的一種應(yīng)用于話務(wù)測(cè)的分段在線支持向量回歸方法,其特征在于在步驟四中,采用聚類的方,為分段斜牛,使得每個(gè)子分段sosraW適應(yīng)不同特性的子時(shí)間序列段。4、根據(jù)權(quán)利要求1或2所述的一種應(yīng)用于話務(wù)測(cè)的分段在線支持向量回歸方法,其特征在于在步驟四中,比較子分段模型SOSVR(s)之間的相似度,定義S0SVR(s)相似'腿量I(^,若I(V-I(^-"〉尸,尸為設(shè)定相似髓量閾值,以相鄰子分段S0SVR相似度iM出閾值作為分段^K牛。5、根據(jù)權(quán)利要求1或2臓的一種應(yīng)用于話務(wù)量預(yù)測(cè)的分段在線支持向量回歸方法,其特征在于在步驟四中,根據(jù)支持向量W變化情況作為分段條件,如兩個(gè)相鄰子分段支持模型的支持向量^鄉(xiāng),)n<g作為分段條件,即相鄰S0SVR相同支持向m少于閾值。6、根據(jù)權(quán)利要求1或2戶脫的一種應(yīng)用于話務(wù)翻測(cè)的分段在線支持向量回歸方法,其特征在于在步驟四中,采用等分方法進(jìn)行分段,即在線訓(xùn)練數(shù)據(jù)長度TrainLength〉L時(shí)進(jìn)行分段。7、根據(jù)權(quán)利要求l所述的一種應(yīng)用于話務(wù)量預(yù)測(cè)的分段在線支持向量回歸方法,其特征在于在步驟八中,最優(yōu)預(yù)測(cè)輸出條件5SP尸是按照待預(yù)測(cè)序列鄰域D(;c^,.),/=1,2,...,7V各個(gè)子分段模型SOSra(A:),A:e(1,2,...,"的匹配度作為選擇子分段模型預(yù)測(cè)輸出的斜牛;可以選擇子分段模型滿足上一步預(yù)測(cè)誤差最小,如下式min(五mKz'-1)=皿FK—PrW/"(A:,/-1)-7fes《/-=1,2,…s式中SOSM—Pre血W,"1)為第i-l步中第k個(gè)子分段模型預(yù)測(cè)值,1)為第—涉序列實(shí)際值。8、根據(jù)權(quán)利要求1或7所述的一種應(yīng)用于話務(wù)量預(yù)測(cè)的分段在線支持向量回歸方法,其特征在于在步驟八中,按照樣本鄰域序列與各個(gè)子分段SOSra(A:),A:e(1,2,...,"支持向量的核空間歐式距離最小作為最te預(yù)觀懶出剝牛。9、根據(jù)權(quán)利要求l所述的一種應(yīng)用于話務(wù)量預(yù)測(cè)的分段在線支持向量回歸方法,其特征在于在步針一中,子分段模型更新L^"teSOSF及(/),/e(l,2,…,"是為了選擇出需要?jiǎng)h減的子分段模型,實(shí)TO子分段,進(jìn)行更新,以避免存儲(chǔ)效率下降和存儲(chǔ)溢出;若子分段模型數(shù)量到達(dá)預(yù)設(shè)的閾值,則選擇拋棄應(yīng)用^>自醎相似的子分段模型。10、根據(jù)權(quán)利要求9臓的一種應(yīng)用于話務(wù)量預(yù)測(cè)的分段在線支持向量回歸方法,其特征在于按照模型預(yù)觀懶出7MWi除應(yīng)用最少的子分^模型;^iW除產(chǎn)生最早的子分段模型;或行子分段模型模式匹配,合并相似度較高的子分段,;若預(yù)測(cè)步數(shù)不大或連自測(cè)過程中所獲得的子分段模型數(shù)量在可承受范圍之內(nèi),則不進(jìn)行更新。全文摘要應(yīng)用于話務(wù)量預(yù)測(cè)的分段在線支持向量回歸方法,它涉及一種在線支持向量回歸方法,本發(fā)明針對(duì)在線支持向量回歸(OnlineSupportVectorRegression)算法難以兼顧預(yù)測(cè)精度和運(yùn)行效率,提出一種分段支持向量回歸時(shí)間序列預(yù)測(cè)方法,通過縮減在線建模數(shù)據(jù)長度實(shí)現(xiàn)快速訓(xùn)練,并對(duì)OnlineSVR進(jìn)行分段存儲(chǔ),根據(jù)預(yù)測(cè)鄰域樣本與各子分段支持向量回歸模型的匹配度,選取最優(yōu)子分段模型預(yù)測(cè)輸出,提高預(yù)測(cè)精度。該算法在保持在線預(yù)測(cè)執(zhí)行效率的同時(shí),相比普通在線支持向量回歸算法,可提高預(yù)測(cè)精度5%~10%。算法由于采用了分段的策略,并采取了較小的建模數(shù)據(jù)長度,算法效率高。可以實(shí)現(xiàn)對(duì)于移動(dòng)通信話務(wù)量時(shí)間序列的在線、實(shí)時(shí)和快速建模和預(yù)測(cè)。文檔編號(hào)G06N99/00GK101583147SQ20091007231公開日2009年11月18日申請(qǐng)日期2009年6月17日優(yōu)先權(quán)日2009年6月17日發(fā)明者喬立巖,劉大同,宇彭,彭喜元,王建民申請(qǐng)人:哈爾濱工業(yè)大學(xué)