CN115510319B 一種基于潛在興趣多視圖融合的推 薦方法和系統(tǒng) (山西大學(xué))_第1頁
CN115510319B 一種基于潛在興趣多視圖融合的推 薦方法和系統(tǒng) (山西大學(xué))_第2頁
CN115510319B 一種基于潛在興趣多視圖融合的推 薦方法和系統(tǒng) (山西大學(xué))_第3頁
CN115510319B 一種基于潛在興趣多視圖融合的推 薦方法和系統(tǒng) (山西大學(xué))_第4頁
CN115510319B 一種基于潛在興趣多視圖融合的推 薦方法和系統(tǒng) (山西大學(xué))_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

(19)國家知識(shí)產(chǎn)權(quán)局(12)發(fā)明專利(22)申請(qǐng)日2022.09.22(43)申請(qǐng)公布日2022.12.23務(wù)所(特殊普通合伙)14115(56)對(duì)比文件審查員吳國慶權(quán)利要求書4頁說明書10頁附圖2頁一種基于潛在興趣多視圖融合的推薦方法和系統(tǒng)本發(fā)明公開了一種基于潛在興趣多視圖融表示增加個(gè)性化的特征使其可以保持自己的特絡(luò)結(jié)構(gòu)改進(jìn)了經(jīng)典LightGCN模型,設(shè)計(jì)了VS-2LightGCN模塊和多視圖融合模塊;原始的用戶-商品交互行為矩陣R∈R"×,素為實(shí)數(shù)的矩陣;m和n分別表示用戶和商在原始的用戶-商品交互行為矩陣R的基礎(chǔ)上,用一個(gè)用戶-商品的二部圖G=(N,E)來將每個(gè)奇異值視為推薦系統(tǒng)中的一個(gè)潛在興趣主題;用戶u和商品i由前t個(gè)潛在興趣主題分別表示為奇異向量p(t)∈Pt)和q(t)∈Q(t;在前t個(gè)潛在興趣主題下,將p(t)和q(t)score?=p.?·q“根據(jù)前t個(gè)潛在興趣主題下每個(gè)用戶u和商品i的結(jié)構(gòu)相關(guān)得分score,生成相似度矩陣M⑩∈R”x,其中用戶u和商品i對(duì)應(yīng)元素M=score.);原始的用戶-商品交互行為矩陣R轉(zhuǎn)化為由t個(gè)潛在興趣主題確定的不同實(shí)值連續(xù)矩陣;;從潛在興趣主題的不同視圖中學(xué)習(xí)用戶u和商品i的表示;各視圖之間是相互獨(dú)立的,商品i表示為前t個(gè)潛在興趣主題下的t維嵌入p(t)和q(t),使其包含關(guān)于用戶u或商品i自身3所述多視圖融合模塊:由主成分控制機(jī)制PCCM來動(dòng)態(tài)調(diào)整每個(gè)視圖對(duì)推薦結(jié)果的影(t),在各視圖信息傳播優(yōu)化完成后,通過公式s:(9)=ele,得到視圖v(t)的相似度s(1),s通過主成分控制機(jī)制PCCM,多個(gè)視圖之間的融合相似度定義為:主成分控制機(jī)制PCCM是基于用戶u的潛在興趣只有在用戶愿意與某類商品交互時(shí),才能進(jìn)3.根據(jù)權(quán)利要求1所述的一種基于潛在興趣多視圖融合的推薦系統(tǒng)的推薦方法,其特步驟3,使用奇異值分解SVD來分解原始的用戶-商品交互行為矩陣R,表示為:R≈p(t)4步驟4,將每個(gè)奇異值視為推薦系統(tǒng)中的一個(gè)潛在興趣主題;用戶u和商品i由前t個(gè)潛score?=p.?·q“步驟5,根據(jù)前t個(gè)潛在興趣主題下每個(gè)用戶u和商品i的結(jié)構(gòu)相關(guān)得分score,生成相似度矩陣M⑩∈Rmxn,其中用戶u和商品i對(duì)應(yīng)元素M=score);原始的用戶-商品交互步驟6,對(duì)于多視圖生成模塊生成的每個(gè)視圖,將用戶u和商品i的初始嵌入分別表示為e)和e◎;從潛在興趣主題的不同視圖中學(xué)習(xí)用戶u和商品i的表示;各視圖之間是相互獨(dú)戶u或商品i表示為前t個(gè)潛在興趣主題下的t維嵌入p()和q①,使其包含關(guān)于用戶u或商品5控制機(jī)制PCCM是基于用戶u的潛在興趣只有在用戶愿意與某類商品交互時(shí),才能進(jìn)行準(zhǔn)確在用戶-商品交互圖中,用戶u和商品i之間的相似度記為s((t),在各視圖信息傳播優(yōu)化完成后,通過公式s(9=ee得到視圖V(t)的相似度s6一種基于潛在興趣多視圖融合的推薦方法和系統(tǒng)技術(shù)領(lǐng)域[0001]本發(fā)明屬于計(jì)算機(jī)推薦系統(tǒng)技術(shù)領(lǐng)域,具體涉及一種基于潛在興趣多視圖融合的推薦方法和系統(tǒng)。背景技術(shù)[0002]推薦系統(tǒng)因其在學(xué)術(shù)研究和實(shí)際生活中的巨大潛力,是社會(huì)網(wǎng)絡(luò)中最受歡迎的研究?jī)?nèi)容之一。例如,在電子商務(wù)中,推薦系統(tǒng)可以為特定用戶提供個(gè)性化的信息,以減少用戶在面對(duì)眾多產(chǎn)品或服務(wù)時(shí)的選擇成本。在社會(huì)媒體中,推薦系統(tǒng)可以根據(jù)用戶的個(gè)性化信息,向用戶推薦具有共同愛好或興趣的好友。傳統(tǒng)的推薦系統(tǒng)通??梢苑譃榛趨f(xié)同過濾(CF)的方法、基于內(nèi)容的方法和混合方法,主要是基于用戶與商品的交互或行為歷史記錄來學(xué)習(xí)語義特征。近年來,深度神經(jīng)網(wǎng)絡(luò)模型,如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)和長(zhǎng)短期記憶,已經(jīng)被采用來學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)和節(jié)點(diǎn)的表示,并大大改善了用戶建模和推薦的效果。典型的例子是神經(jīng)協(xié)作過濾模型采用多層神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)更好的用戶和商品表示。在此基礎(chǔ)上,基于圖卷積網(wǎng)絡(luò)(GCN)的模型由于在學(xué)習(xí)網(wǎng)絡(luò)結(jié)構(gòu)表示上的強(qiáng)大能力成為基于深度學(xué)習(xí)的推薦系統(tǒng)中最重要的基礎(chǔ)模型之一,該模型能從具有非歐幾里得結(jié)構(gòu)的局部圖鄰域迭代地聚合特征信息。并利用高階連接性緩解推薦中的稀疏問題,用戶和商品的表述將受益于從圖結(jié)構(gòu)中提煉的額外信息。盡管這些方法已經(jīng)取得了一定程度的成功,但圖卷積操作本質(zhì)上是一種特殊的圖拉普拉斯平滑,導(dǎo)致GCN模型存在嚴(yán)重的過平滑問題——在多層圖卷積操作后,節(jié)點(diǎn)表示逐漸趨于相似,限制了模型的深度和大小。LightGCN模型證明了該模型的性能可能會(huì)受到特征轉(zhuǎn)換和非線性激活的不利影響,該模型只考慮鄰域節(jié)點(diǎn),通過去除非線性并引入殘余網(wǎng)絡(luò)結(jié)構(gòu),并在聚合過程中去掉了“自環(huán)”操作,在一定程度上緩解了過平滑的問題。進(jìn)一步地,IMP-GCN模型在圖卷積操作中,通過將沒有共同興趣的高階相鄰用戶也參與到用戶的嵌入學(xué)習(xí)中,通過無監(jiān)督的子圖生成模塊,構(gòu)建由興趣相近的用戶和他們交互的商品組成的子圖。發(fā)明內(nèi)容[0003]針對(duì)目前推薦系統(tǒng)模型缺少特異性表示信息的問題,本發(fā)明提供了一種基于潛在興趣多視圖融合的推薦方法和系統(tǒng)。[0004]為了達(dá)到上述目的,本發(fā)明采用了下列技術(shù)[0005]一種基于潛在興趣多視圖融合的推薦系統(tǒng),包括多視圖生成模塊、VS-LightGCN模塊和多視圖融合模塊;[0006]所述多視圖生成模塊:[0007]原始的用戶-商品交互行為矩陣R∈Rm×,其中,R∈R“”表示R是一個(gè)m×n維,每個(gè)元素為實(shí)數(shù)的矩陣;m和n分別表示用戶和商品的數(shù)量,若R中用戶u與商品i對(duì)應(yīng)的元素R[0008]在原始的用戶-商品交互行為矩陣R的基礎(chǔ)上,用一個(gè)用戶-商品的二部圖G=(N,7[0009]再使用奇異值分解SVD來分解原始的用戶-商品交互行為矩陣R,表示為:R≈p(t)似度矩陣M⑨∈R"×,其中用戶u和商品i對(duì)應(yīng)元素M=score);[0013]原始的用戶-商品交互行為矩陣R轉(zhuǎn)化為由t個(gè)潛在興趣主題確定的不同實(shí)值連續(xù)為0;[0019]對(duì)于多視圖生成模塊生成的每個(gè)視圖,將用戶u和商品i的初始嵌入分別表示為e0)和e?;從潛在興趣主題的不同視圖中學(xué)習(xí)用戶u和商品i的表示;各視圖之間是相互獨(dú)戶u或商品i表示為前t個(gè)潛在興趣主題下的t維嵌入p(t)和q(,使其包含關(guān)于用戶u或商品8ui’·.,Sui;通過主成分控制機(jī)制PCCM,多個(gè)視圖之間的融合相似度定義為:(t),在各視圖信息傳播優(yōu)化完成后,通過公式s(9=ele,得到視圖V(t)ui’·.,Sui;通過主成分控制機(jī)制PCCM,多個(gè)視圖之間的融合相似度定義為:[0033]步驟2,在原始的用戶-商品交互行為矩陣R的基礎(chǔ)上,構(gòu)[0037]步驟5,根據(jù)前t個(gè)潛在興趣主題下每個(gè)用戶u和商品i的結(jié)構(gòu)相關(guān)得分score();,生成相似度矩陣M⑨∈Rx,其中用戶u和商品[0038]原始的用戶-商品交互離散矩陣R轉(zhuǎn)化為由t個(gè)潛在興趣主題確定的不同實(shí)值連續(xù)9矩陣M(t;選擇不同的t值,可獲得不同的相似度矩陣M(t);[0039]在原始的用戶-商品交互圖中,如果用戶不小心點(diǎn)擊了一個(gè)不感興趣的商品,這種構(gòu)相關(guān)分?jǐn)?shù)過低的噪聲邊,用戶和用戶交互的商品被分組到不同的子圖中,以生成不同的視圖;對(duì)于每個(gè)視圖V(t,其交互矩陣被定義為:[0041]當(dāng)且僅當(dāng)相似度矩陣M(t)中用戶u和商品i對(duì)應(yīng)元素M“不小于閾值η,且原始的用戶-商品交互矩陣R中對(duì)應(yīng)元素R=1時(shí),視圖V(中用戶u和商品i對(duì)應(yīng)元素值為1,否則為0;[0042]生成的視圖之間的差異性可以為模型表示學(xué)習(xí)提供豐富的信息;[0043]步驟6,對(duì)于多視圖生成模塊生成的每個(gè)視圖,改進(jìn)了傳統(tǒng)的LightGCN模型,提出了VS-LightGCN模型來學(xué)習(xí)用戶和商品的圖結(jié)構(gòu)嵌入表示,;[0044]將用戶u和商品i的初始嵌入分別表示為e“;從潛在興趣主題的不同視圖中學(xué)習(xí)用戶和商品的表示;為了保證模型能夠?qū)W習(xí)不同視圖的差異性特征,避免噪聲干擾,各視圖之間是相互獨(dú)立的,特定視圖子圖中的節(jié)點(diǎn)只能與子圖內(nèi)的鄰居傳播信息;同時(shí)通過奇異值分解SVD將用戶或商品表示為前t個(gè)潛在興趣主題下的t維嵌,使其包含關(guān)于用戶或商品自身特征的個(gè)性化特征,并利用它們來初始化視圖Vt)中的節(jié)點(diǎn)嵌入表[0045]VS-LightGCN中的傳播過程定義如下:[0049]并行訓(xùn)練優(yōu)化每個(gè)視圖,每個(gè)視圖V(t)的損失函數(shù)表示為:戶u的一個(gè)非鄰居商品節(jié)點(diǎn),eu、eae?分別為用戶u、商品a和商品b的表示向量,T為向量轉(zhuǎn)E)的L2正則化權(quán)重;[0052]步驟7,通過主成分控制機(jī)制PCCM來動(dòng)態(tài)調(diào)整每個(gè)視圖對(duì)推薦結(jié)果的影響;所述主準(zhǔn)確的推薦;[0053]在原始用戶-商品交互圖R中,用戶u和商品i之間的相似度記為s);對(duì)于每個(gè)生成的視圖V(t),在各視圖信息傳播優(yōu)化完成后,通過公式s:(9)=ee,得到視圖V(t)的相似度s三個(gè)數(shù)據(jù)集中,相對(duì)于次優(yōu)模型本發(fā)明可以分別實(shí)現(xiàn)最高2.25%的提升效果。本發(fā)明預(yù)處附圖說明潛在興趣主題數(shù)t閥值η閥值μ權(quán)重λ1批數(shù)據(jù)大小學(xué)習(xí)速率37911層k值為3;在不同的潛在興趣主題基礎(chǔ)上生成兩個(gè)視圖,對(duì)應(yīng)于潛在興趣主題的參數(shù)t;閾每個(gè)數(shù)據(jù)集中有三個(gè)值,分別對(duì)應(yīng)于三個(gè)視圖(原始交互視圖和兩個(gè)生成的視圖),權(quán)重λ為VS-LightGCN模型的正則化項(xiàng)參數(shù),模型采用Adam進(jìn)行優(yōu)化學(xué)習(xí),每次采樣2048個(gè)數(shù)據(jù)進(jìn)行批量?jī)?yōu)化,優(yōu)化函數(shù)學(xué)習(xí)速率。[0066]一種基于潛在興趣多視圖融合的推薦系統(tǒng),包括多視圖生成模塊、VS-LightGCN模塊和多視圖融合模塊;[0067]所述多視圖生成模塊:[0068]原始的用戶-商品交互行為矩陣R∈R"×,其中,R∈R"×”表示R是一個(gè)m×n維,每個(gè)元素為實(shí)數(shù)的矩陣;m和n分別表示用戶和商品的數(shù)量,若R中用戶u與商品i對(duì)應(yīng)的元素R[0069]在原始的用戶-商品交互行為矩陣R的基礎(chǔ)上,用一個(gè)用戶-商品的二部圖G=(N,[0070]再使用奇異值分解SVD來分解原始的用戶-商品交互行為矩陣R,表示為:R≈p(t)z(t)(Q(t)T,其中,P(t)和Q(t)分別是左、右奇異矩陣,z(t)是一個(gè)對(duì)角矩陣,由前t個(gè)最大奇[0071]將每個(gè)奇異值視為推薦系統(tǒng)中的一個(gè)潛在興趣主題;用戶u和商品i由前t個(gè)潛在興趣主題分別表示為奇異向量pt)∈P(t)和q()∈Q④;在前t個(gè)潛在興趣主題下,將p(④)和q(t)之間的相似度視為用戶u和商品i的結(jié)構(gòu)關(guān)聯(lián)得分,表示為:[0073]根據(jù)前t個(gè)潛在興趣主題下每個(gè)用戶u和商品i的結(jié)構(gòu)相關(guān)得分score,生成相似度矩陣M?∈R"×,其中用戶u和商品i對(duì)應(yīng)元素M2=score);[0074]原始的用戶-商品交互行為矩陣R轉(zhuǎn)化為由t個(gè)潛在興趣主題確定的不同實(shí)值連續(xù)矩陣M);選擇不同的t值,獲得不同的相似度矩陣M(t);[0075]在原始的用戶-商品交互圖中,當(dāng)用戶誤點(diǎn)擊一個(gè)不感興趣的商品,這種邊會(huì)給圖結(jié)構(gòu)學(xué)習(xí)帶來噪音;設(shè)置閾值η去除基于相似性矩陣Mt)的雙子圖中結(jié)構(gòu)相關(guān)分?jǐn)?shù)過低的噪聲邊,用戶和用戶交互的商品被分組到不同的子圖中,以生成不同的視圖;對(duì)于每個(gè)視圖V(t),其交互矩陣被定義為:[0078]當(dāng)且僅當(dāng)相似度矩陣M⑤中用戶u和商品i對(duì)應(yīng)元素于閾值n,且原始的用戶-商品交互矩陣R中對(duì)應(yīng)元素R?;=1時(shí),視圖v()中用戶u和商品i對(duì)應(yīng)元素】值為1,否則為0;[0080]對(duì)于多視圖生成模塊生成的每個(gè)視圖,將用戶u和商品i的初始嵌入分別表示為e;從潛在興趣主題的不同視圖中學(xué)習(xí)用戶u和商品i的表示;各視圖之間是相互獨(dú)立的,特定視圖子圖中的節(jié)點(diǎn)只能與子圖內(nèi)的鄰居傳播信息;同時(shí)通過奇異值分解SVD將用戶u或商品i表示為前t個(gè)潛在興趣主題下的t維嵌入p(t)和q(),使其包含關(guān)于用戶u或商品i自身特征的個(gè)性化特征,并初始化視圖V⑤中的節(jié)點(diǎn)嵌入表示,即e=p④,e?=q⑥;[0084]其中e和e?分別是e?和e,的靜態(tài)拷貝,不參與優(yōu)化更新;保證個(gè)性化特征在傳播過程中不會(huì)丟失,|NI與|N[0085]并行訓(xùn)練優(yōu)化每個(gè)戶u的一個(gè)非鄰居商品節(jié)點(diǎn),e、ea、e?分別為用戶u、商品a和商品b的表示向量;T為向量轉(zhuǎn)置,E為所有用戶和商品節(jié)點(diǎn)初始化表示構(gòu)成的矩陣,λ是視圖Vt中的一個(gè)超參數(shù),控制E?的L2正則化權(quán)重;[0088]所述多視圖融合模塊:由主成分控制機(jī)制PCCM來動(dòng)態(tài)調(diào)整每個(gè)視圖對(duì)推薦結(jié)果的影響;在用戶-商品交互圖中,用戶u和商品i之間的相似度記為s⑨;對(duì)于每個(gè)生成的視圖V(t),在各視圖信息傳播優(yōu)化完成后,通過公式s(9=ele,得到視圖V(t)的相似度s(1),s(2)ui…,su,;通過主成分控制機(jī)制PCCM,多個(gè)視圖之間的融合相似度定義為:[0090]其中,Yu表示多個(gè)視圖之間的融合相似度,sigmoid()函數(shù)將多視圖融合得分映射到[0,1],μ是一個(gè)閾值,用于控制主成分控制機(jī)制PCCM中的視圖結(jié)果融合。[0091]所述主成分控制機(jī)制PCCM是基于用戶u的潛在興趣只有在用戶愿意與某類商品交[0092]實(shí)施例2[0093]一種基于潛在興趣多視圖融合的推薦方法[0094]用戶-商品交互行為矩陣R形如:[0098]對(duì)原始交互矩陣R,本發(fā)明基于奇異值分解(SVD)技術(shù)來分解矩陣,本發(fā)明分別采用64個(gè)潛在興趣主題和52個(gè)潛在興趣主題生成2個(gè)不同視圖,以使用64個(gè)潛在興趣主題為以由這64個(gè)潛在興趣主題表示,并分別表述為奇異向量p(64)∈p[0107]針對(duì)生成的兩個(gè)潛在興趣主題視圖v(64)和v(52),使用各視圖下奇異向量初始化用[0116]對(duì)于生成的潛在興趣主題視圖V(64)和v(52),在各視圖信息傳播優(yōu)化完成后,通過公式s(9=ele得到視圖V(64)和V2)下用戶u和商品i之間的相似度s。將原始交互矩[0119]可以理解的是,模型根據(jù)所有數(shù)據(jù)上損失函數(shù)返回值的大小自動(dòng)調(diào)整模型參數(shù)和數(shù)據(jù)表示,進(jìn)行下一輪迭代,使得次輪迭代損失值減小,重復(fù)模型迭代優(yōu)化過程,直到損失值趨于穩(wěn)定或達(dá)到最大迭代次數(shù)。[0121]在優(yōu)化過程完成后,對(duì)測(cè)試集中任一用戶u,通過計(jì)算y得到每個(gè)商品與用戶的融合相似度,按照相似度從高到低排序選擇相似度得分最高的前n個(gè)商品作為為用戶u推薦的商品列表。[0122]需要說明的是,在模型學(xué)習(xí)過程中的一些參數(shù)設(shè)定和細(xì)節(jié)。模型的詳細(xì)配置如表1所示。[0123]所提出的模型每個(gè)用戶和商品節(jié)點(diǎn)的向量維度d為64維,VS-LightGCN模型的最大傳播層k值為3;在不同的潛在興趣主題(t=64和t=52)基礎(chǔ)上生成兩個(gè)視圖v(64)和v52);閾每個(gè)數(shù)據(jù)集

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論