專利名稱:一種基于神經(jīng)網(wǎng)絡解決協(xié)同過濾推薦數(shù)據(jù)稀疏性的方法
技術(shù)領域:
本發(fā)明屬于人工神經(jīng)網(wǎng)絡及個性化推薦技術(shù)領域,更為具體來講,涉及一種基于神經(jīng)網(wǎng)絡解決協(xié)同過濾推薦數(shù)據(jù)稀疏性的方法。
背景技術(shù):
在現(xiàn)代信息社會,各行業(yè)經(jīng)過一段時期的積累都會產(chǎn)生海量的信息數(shù)據(jù),如何有效地從海量數(shù)據(jù)中提取有用的信息掀起了個性化推薦技術(shù)的研究熱潮。協(xié)同過濾技術(shù)作為主要的推薦技術(shù)備受關(guān)注,已經(jīng)被成功運用到各種推薦系統(tǒng)中。但是隨著資源種類的不斷膨脹與用戶的日益增加,用來評判的數(shù)據(jù)矩陣越來越稀疏,嚴重影響了推薦質(zhì)量。神經(jīng)網(wǎng)絡是一種模仿動物神經(jīng)網(wǎng)絡行為特征,進行分布式并行信息處理的算法數(shù)學模型。神經(jīng)網(wǎng)絡的處理單元一般可分為三類:輸入單元、隱層單元、輸出單元。輸入單元實現(xiàn)網(wǎng)絡與外界的連接,隱層實現(xiàn)輸入空間到隱藏空間的非線性變換,輸出單元實現(xiàn)最終的網(wǎng)絡輸出。常用的神經(jīng)網(wǎng)絡有反向傳播網(wǎng)絡、自組織網(wǎng)絡、遞歸網(wǎng)絡及徑向基函數(shù)網(wǎng)等。廣義回歸神經(jīng)網(wǎng)絡GRNN (Generalized Regression Neural Network)與其他神經(jīng)網(wǎng)絡相比,訓練過程更為簡單,只需確定訓練樣本,相應的網(wǎng)絡結(jié)構(gòu)和各神經(jīng)元之間的連接權(quán)值會自動確定,網(wǎng)絡訓練過程最重要的是確定光滑因子的過程。廣義回歸神經(jīng)網(wǎng)絡具有較高的逼近能力、學習速度、魯棒性、容錯性以及非線性映射能力,在決策控制系統(tǒng)、結(jié)構(gòu)分析、教育產(chǎn)業(yè)、信號分析等領域應用廣泛
發(fā)明內(nèi)容
本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種基于神經(jīng)網(wǎng)絡解決協(xié)同過濾推薦數(shù)據(jù)稀疏性的方法,采用廣義回歸神經(jīng)網(wǎng)絡GRNN,通過訓練網(wǎng)絡模型并進行評分預測,對稀疏的數(shù)據(jù)進行完全填充,改善協(xié)同過濾技術(shù)的數(shù)據(jù)高度稀疏性問題。為實現(xiàn)上述發(fā)明目的,本發(fā)明基于神經(jīng)網(wǎng)絡解決協(xié)同過濾推薦數(shù)據(jù)稀疏性的方法,其特征在于,包括以下步驟:步驟1:對于表示M個用戶對N個項目評分的稀疏評分矩陣A,計算每個用戶對所有項目評分的稀疏度以及每個項目所有用戶評分的稀疏度,其中,稀疏評分矩陣A中某個用戶未評價的某個項目的評分值統(tǒng)一用0代替;設置用戶稀疏度閾值和項目稀疏度閾值,當某個用戶的稀疏度小于用戶稀疏度閾值時,則刪除該用戶;當某個項目的稀疏度小于項目稀疏度閾值時,則將刪除該項目,得到的用戶數(shù)量記為m、項目數(shù)量記為n,根據(jù)m個用戶Ui, I彡i彡m對n個項目Pj, I彡j彡n的評分構(gòu)建原始評價矩陣T:
權(quán)利要求
1.一種基于神經(jīng)網(wǎng)絡解決協(xié)同過濾推薦數(shù)據(jù)稀疏性的方法,其特征在于,包括以下步驟: 步驟1:對于表示M個用戶對N個項目評分的稀疏評分矩陣A,計算每個用戶對所有項目評分的稀疏度以及每個項目所有用戶評分的稀疏度,其中,稀疏評分矩陣A中某個用戶未評價的某個項目的評分值統(tǒng)一用O代替; 設置用戶稀疏度閾值和項目稀疏度閾值,當某個用戶的稀疏度小于用戶稀疏度閾值時,則刪除該用戶;當某個項目的稀疏度小于項目稀疏度閾值時,則將刪除該項目,得到的用戶數(shù)量記為m、項目數(shù)量記為n,根據(jù)m個用戶Ui, I彡i彡m對n個項目Pj, I彡j彡n的評分構(gòu)建原始評價矩陣T:
2.根據(jù)權(quán)利要求1所述的解決協(xié)同過濾推薦數(shù)據(jù)稀疏性的方法,其特征在于,所述的步驟2中的f 個特征值為6個特征值,分別為平均值、標準差、極差、稀疏度、最大值、最小值。
全文摘要
本發(fā)明基于神經(jīng)網(wǎng)絡解決協(xié)同過濾推薦數(shù)據(jù)稀疏性的方法,采用廣義回歸神經(jīng)網(wǎng)絡GRNN,通過訓練網(wǎng)絡模型和評分預測對稀疏的數(shù)據(jù)進行完全填充。在進行GRNN網(wǎng)絡訓練之前,對網(wǎng)絡的輸入變量采用平均影響值MIV進行篩選,選擇對輸出影響較大的特征值作為有效輸入變量,利用有效輸入變量構(gòu)造GRNN的輸入矩陣,采用Kfold交叉驗證循環(huán)找出GRNN的最優(yōu)spread值,利用最優(yōu)的spread值及對應的輸入矩陣和輸出矩陣進行GRNN網(wǎng)絡訓練,利用訓練好的GRNN對稀疏評分矩陣進行評分預測,用預測評分值代替稀疏評分矩陣未進行評分的數(shù)據(jù)。采用本發(fā)明可對稀疏的推薦數(shù)據(jù)進行完全填充,改善現(xiàn)有協(xié)同過濾技術(shù)最突出的數(shù)據(jù)高度稀疏性問題,使推薦結(jié)果更加準確。
文檔編號G06N3/02GK103106535SQ20131005526
公開日2013年5月15日 申請日期2013年2月21日 優(yōu)先權(quán)日2013年2月21日
發(fā)明者孫健, 王曉麗, 徐杰, 隆克平, 張毅, 梁雪芬, 李乾坤, 姚洪哲, 陳旭, 陳小英 申請人:電子科技大學