南京大学学报(自然科学), 2023, 59(6): 937-946 doi: 10.13232/j.cnki.jnju.2023.06.004

基于知识图谱的轻量级图卷积网络推荐

彭永梅, 童向荣,

烟台大学计算机与控制工程学院,烟台,264005

Lightweight graph convolutional network recommendation based on knowledge graph

Peng Yongmei, Tong Xiangrong,

School of Computer and Control Engineering,Yantai University,Yantai,264005,China

通讯作者: E⁃mail:xr_tong@163.com

收稿日期: 2023-08-10  

基金资助: 国家自然科学基金.  62072392.  61972360
山东省重大科技创新工程.  2019522Y020131
山东省自然科学基金.  ZR2020QF113
烟台市重点实验室:高端海洋工程装备智能技术

Received: 2023-08-10  

摘要

知识图谱可以给推荐系统提供丰富的、结构化的信息,从而提高推荐准确性.最近的技术趋势是基于传播的方法设计端到端的模型,但有的基于传播的方法无法捕获项目的高阶协作信号.一般图卷积网络中包含的最常见形式是特征转换、非线性激活和邻域聚合,然而,经验表明,特征转换和非线性激活对协同过滤推荐不一定有积极的影响,更糟糕的是,它们可能会降低推荐性能,使训练更加困难.针对以上问题,提出基于知识图谱的轻量级图卷积网络推荐模型.首先,从实体邻居中抽取样本作为感受野,将知识图谱中的实体通过多次迭代嵌入传播来获取高阶邻域信息.感受野结合邻域信息和可能存在的偏差来计算实体表示,还可以扩展到多跳以模拟高阶连通性并捕获用户潜在的远距离兴趣.其次,使用邻域聚合以预测用户和项目之间的评分,这不仅简化了模型设计,还提高了模型的有效性和准确度.最后,在电影、书籍和音乐推荐这三个数据集中应用提出的模型,实验结果表明,提出的方法优于其他推荐基线.

关键词: 知识图谱 ; 推荐 ; 图卷积网络 ; 协同过滤 ; 嵌入传播

Abstract

Knowledge graph provides the recommendation system with rich and structured information to improve the recommendation accuracy. Recent trend in technology is to design end⁃to⁃end models based on propagation,but some propagation⁃based approaches are unable to capture the higher⁃order collaboration signals of a project. The most common forms included in general graph convolutional networks are feature transformation,nonlinear activation and neighborhood aggregation. However,experience has shown that feature transformation and nonlinear activation do not necessarily have a positive effect on collaborative filtering recommendations,even worse,they may reduce recommendation performance and make training more difficult. To solve these problems,a lightweight graph convolutional network recommendation model based on knowledge graph is proposed. Firstly,samples from the physical neighbors are taken as receptive fields,and entities in the knowledge graph are embedded and propagated through multiple iterations to obtain higher⁃order neighborhood information. Receptive fields are combined with neighborhood information and possible deviations to calculate the entity representation. Receptive fields can be extended to multi⁃hops to simulate higher⁃order connectivity and capture users' potential long⁃distance interests. Secondly,neighborhood aggregation is used to predict ratings between users and projects,which not only simplifies model design,but also improves model validity and accuracy. Finally,the proposed model is applied to three datasets of movie,book and music recommendations,and experimental results show that the proposed method outperforms other recommendation baselines.

Keywords: knowledge graph ; recommendation ; graph convolutional network ; collaborative filtering ; embedded propagation

PDF (640KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

彭永梅, 童向荣. 基于知识图谱的轻量级图卷积网络推荐. 南京大学学报(自然科学)[J], 2023, 59(6): 937-946 doi:10.13232/j.cnki.jnju.2023.06.004

Peng Yongmei, Tong Xiangrong. Lightweight graph convolutional network recommendation based on knowledge graph. Journal of nanjing University[J], 2023, 59(6): 937-946 doi:10.13232/j.cnki.jnju.2023.06.004

信息化时代,推荐系统已经是新闻门户、搜索引擎和电子商务等网络应用程序中的重要组成部分.传统的推荐技术使用协同过滤(Collaborative Filtering,CF)1,不能对额外的信息进行建模,例如项目属性、用户配置文件和上下文等,因此,经常会出现用户项目稀疏和冷启动问题.为了克服上述限制,研究人员使用具有丰富特性的场景来缓解稀疏性问题,并且提高推荐的性能.

最近的一些研究表明1-2,属性之间不是独立的,而是存在联系,构成了知识图谱(Knowledge Graph,KG).KG是有向异构图,节点对应实体,边对应关系.与没有KG的方法相比,在推荐中加入KG可以在三个方面提高效果3:(1) KG中项目之间的边表示项目在语义上密切相关,这有助于探索项目之间可能的关系,提高推荐的准确性;(2)KG是有向异构图,可以用有意义的方式扩展用户的兴趣,使用图中不同类型的连接,增加推荐项目的多样性;(3)KG可以结合用户历史和推荐记录来解决冷启动问题,也提高了推荐的可解释性,使用户更容易接受被推荐的项目.

目前,图卷积网络(Graph Convolutional Network,GCN)4已经成为协同过滤的新技术.Wang et al5从GCN中得到启发,提出NGCF(Neural Graph Collaborative Filtering),同样使用邻域聚合、特征转换和非线性激活的传播规则来细化嵌入.GCN是针对属性图上的节点分类提出的,每个节点都有丰富的属性作为输入特征.但在协同过滤的用户项目交互图中,节点仅由一个标识符表示,并且这个标识符没有其他特殊的含义,在此条件下,使用ID嵌入作为输入来进行多层非线性特征变换,可能会增加模型训练的复杂性.He et al6提出LightGCN,认为GCN的常见设计如特征转换和非线性激活不一定对协同过滤起积极的作用,因此对NGCF进行了广泛的消融实验,结果表明GCN的特征转换和非线性激活对协同过滤的有效性没有产生积极的影响,相反,消除它们可以显著提高准确性.证明在GCN中添加一些对目标任务无效的操作,不仅没有任何益处,反而使模型的效率下降.

本文在简化模型设计的基础上实现了KG中的高阶结构和语义信息的自动捕获以及反映远距离的潜在用户兴趣,提出基于知识图谱的轻量级图卷积网络(Lightweight Graph Convolutional Network Based on Knowledge Graph,LightKGCN).该方法通过简化GCN的结构来适应CF的需求,降低训练难度,同时,将知识图谱中的实体通过多次迭代嵌入传播来获取高阶邻域信息,聚合邻域信息并扩展感受野需求,感受野结合实体表示和邻域表示,并将其扩展到多跳,在高阶层次上捕捉用户的偏好并捕获远距离的潜在用户兴趣,提高推荐的准确性.

LightKGCN通过有偏差的方式合并和聚集邻域信息来对KG中的给定实体进行表示,这样的设计有两大优势.第一,通过使用邻域聚合操作,可以成功捕获和存储每个实体的本地邻域结构信息.第二,邻居权重是通过对连接关系和特定用户的分数加权得到的,这些评分既描述了关于KG的语义信息,又反映了用户在关系中的个性化兴趣.由于不同实体的邻居大小各不相同,因此对每个节点的固定大小的邻域进行采样来作为感受野,可以实现对LightKGCN的成本预测,也可以在多个层次上对给定实体邻域的定义进行分层扩展,从而对更高层次的实体的依赖关系进行建模,并捕获用户潜在的远距离兴趣.

本文的主要贡献如下.

(1)提出基于知识图谱的轻量级图卷积网络LightKGCN,只包含GCN中最基本的组件邻域聚合,不仅简化了模型设计,还提升了模型预测的准确性.

(2) LightKGCN是一种基于图神经网络框架的以显式端到端的方式来实现高阶关系建模的方法.通过扩展知识图谱中每个实体的感受野,可以在高阶层次上捕捉用户的偏好并且捕获远距离的潜在用户兴趣.

(3)在三个公共数据集上进行了不同的实验,证明提出的LightKGCN在不同的设置下始终优于其他推荐方法.

1 相关理论

1.1 基于知识图谱的推荐

将知识图谱应用到推荐领域中可以显著提高推荐的性能,缓解推荐中的数据稀疏和冷启动问题7.根据应用知识图谱的不同形式,可以分为三类:基于嵌入的方法、基于路径的方法和基于传播的方法.

基于嵌入的方法8-9利用知识图谱中丰富的信息来表示用户和项目,其使用知识图谱嵌入技术,通过对KG预处理来学习实体和关系表示,再将学习到的实体嵌入推荐模型10.例如,Wang et al11提出MKR模型,将知识图谱特征学习和推荐进行交替式学习,它们之间是分离的,也是相关联的.Cao et al12设计了一个通过联合学习推荐模型和KG完成模型来转移知识的系统.这些方法证明KG嵌入可以使知识之间灵活结合,有利于提高推荐精度,然而,基于嵌入的方法很难对实体之间的连通性和顺序依赖关系进行建模,导致推荐的准确性和推理能力的有限性.

基于路径的方法13需要先建立一个用户项目图,并利用图中实体之间的连接关系,学习用户到项目的路径之间的连接相似性来进行推荐.该方法的问题是严重依赖于手动构建的元路径.Xian et al14提出的PGPR模型是一种策略引导的路径推理的方式,首次将强化学习运用到知识图谱的推荐中.Wang et al15提出基于知识图谱意图网络KGIN,为每个意图建模为知识图谱中关系的组合来获得更好的建模能力和可解释性.现有的基于路径的方法大多侧重于给定的候选路径建模,通过枚举在知识图谱上的所有路径来选择候选路径,这种方式显然不适合在大规模的知识图谱中的应用.

基于传播的方法是基于嵌入传播的思想,聚合知识图谱中的多跳邻居节点的信息嵌入来深化实体表示并预测用户的偏好.Wang et al3提出RippleNet模型,引入偏好传播的概念,可以自动发现用户不同层的潜在兴趣.Kojima et al16提出的KGCN模型结合了知识图谱和图卷积神经网络,能够很好地捕捉邻域信息并考虑邻居节点权重来实现推荐.Ai et al17将知识图嵌入方法应用于可解释推荐.但是,以上方法是在推荐了相应的项目后通过软匹配生成的,所以它们的解释路径本质上是事后解释.

1.2 图卷积网络

一般来说,GCN可分为光谱方法和非光谱方法18.例如,Bruna et al19在傅里叶域中定义卷积并计算拉普拉斯图的特征分解.Defferrard et al20通过使用K跳卷积定义图上的卷积,提出ChetNet,省去了计算拉普拉斯矩阵特征向量的过程.Kipf and Welling21提出一种通过谱图卷积的局部一阶近似的卷积架构,将层级运算的k限制为1,以此缓解模型在节点的度范围较大的图上存在的局部结构过拟合的问题.相反,非光谱方法直接在原始图上操作,并且为节点组定义卷积.以往的研究建议学习每个节点度的权重矩阵,从图中提取局部连接的区域,或采样固定大小的邻域集作为支持大小.

GCN在推荐中的应用也非常广泛.例如,Ying et al22首先将其应用于web规模的推荐系统,并提出一种基于GCN的称为Pinsage的方法,结合随机行走和图卷积来生成项目嵌入,这种嵌入结合了图结构和项目特征信息.随后,Wang et al5设计了基于图的协同过滤框架NGCF,其中的交互编码器可以捕捉用户和物品之间的协作信号.为了对项目上的用户意图的多样性进行建模,Wang et al23设计了DGCF,可以在用户意图的更细粒度上考虑用户和项目之间的关系,并生成解缠结的用户项目表示,能获得更好的推荐性能.受这些有益研究的启发,本文提出了LightKGCN来进行高效和有效的推荐.

2 LightKGCN

2.1 问题描述

将基于知识图谱的轻量级图卷积网络问题描述如下.在推荐场景中,有一组M个用户U=u1,u2,,uMN个项目V=v1,v2,,vN.用户项目交互矩阵YRM×N是根据用户的隐式反馈定义的,隐式反馈表示不主动暴露用户偏好的行为,包括点击、浏览和购买等.yuv=1表示用户u对项目v感兴趣,否则,yuv=0.此外,给出了知识图谱G,它由实体⁃关系⁃实体三元组h,r,t组成,其中hE,rR,tE分别表示知识图谱中三元组的头、关系和尾,E是知识图谱中实体的集合,R是关系的集合.

给定知识图谱G和用户项目交互矩阵Y,目标是预测目标用户u是否对以前没有互动过的项目v有潜在兴趣.形式化上是学习预测函数y^uv=Fu,vθ,Y,G,其中,y^uv表示用户u喜欢项目v的概率,而θ表示函数F的模型参数.

2.2 LightKGCN层

GCN最初是为了解决对具有丰富属性的属性图中的节点进行分类的问题而提出的,其中每个节点都被用作输入属性,标识符被用来描述用户项目交互图中的每个节点.在这种情况下,通过转换多层非线性特征转换特征,模型训练的难度可能会增加.在实证结果的推动下,本文提出一个改进的模型LightKGCN,简化了GCN的非线性激活和特征变换操作,保留了GCN最基础的组成部分邻域聚合,将其用于协同过滤算法.

图1是LightKGCN的整体框架.在给定知识图谱三元组h,r,t的情况下,从候选用户项目对中任选一组,通过归一化目标用户u和三元组实体关系的分数,最终得到用户u的用户关系评分.然后,结合目标用户u的用户关系评分信息和项目v的邻域节点得到项目v的邻域信息.最后,使用聚合器聚合项目v和其邻域节点信息,在一次迭代中得到项目v的信息.

图1

图1   LightKGCN模型体系结构

Fig.1   The architecture of LightKGCN model


初始步骤中,设Nv表示与v直接连接(即一跳之内)的所有实体集合,reiej表示实体i和实体j的关系,G(比如内积)用来计算用户u和某个关系r之间的分数Rd×RdR,如式(1)所示:

ωru=Gu,r

其中,uRdrRd表示用户u和关系r之间的向量表示,d是向量的维度.一般地,ωru表征关系r对于用户u的重要程度,这里的G函数用于衡量用户对不同关系的偏好程度.例如一个男性用户可能比较关注汽车的性能,而一个女性用户更喜欢汽车的颜值和外观.

通过计算项目v的邻域线性表示来得到项目v的邻域节点信息.项目v的邻域线性表示如下:

vNvu=eNv1Nu·Nvω˜rv,eue

其中,e是实体向量表示;1Nu·Nv是对称归一化项,遵循标准的GCN的设计,可以防止嵌入的规模大小随着图卷积运算的增加而增加.ω˜rv,eu是归一化后的用户关系分数:

ω˜rv,eu=expωrv,eueNvexpωrv,eu

在真实的知识图谱中,一个实体项目是和其他实体相连的,它们之间的关系也是不同的.通过用户关系评分可以获得目标用户的个性化偏好,目标用户对某条路径对应的项目越感兴趣,它的得分就越高,反之越低.Ne的大小在不同的实体上可能会有很大的不同.实体连接的点太多,计算量很庞大,为了保证每批次计算模型的固定性并减少计算复杂度,每个实体固定随机采样,即为每个实体采样统一固定大小的邻居.具体地,计算实体v的邻域表示vSvu,其中,Sv

ee~NvSv=DD是一个可配置常数,Sv是实体v的(单层)感受野.

最后,将实体表示v及邻域表示vSvu聚合到单个向量中,得到最后的向量表示:

agg=h=0HαhvSvu+v

其中,H代表迭代的次数.聚合是LightKGCN中的一个关键步骤,通过聚合项目的表示和邻居得到实体的表示形式.αh表示第h层嵌入在构成最终嵌入中的重要性,实验中统一设置αh=1k+1通常可获得良好的性能.因此,无须设计特殊组件来优化αh,能避免LightKGCN的复杂化,保持其简单性.

2.3 学习算法

LightKGCN层中实体自身及它的近邻构成实体的最终表示,称一阶实体表示.LightKGCN可以很自然地从单层扩展到多层来更深层次地挖掘用户潜在的兴趣,即将每个实体的初始表征传递给它的邻居来获得一阶实体表示,然后不断地重复传播聚合前一阶表示的过程,得到n阶表示.通常,实体的h阶表示是当前实体自身及其上一跳的邻居的初始表示结合得到的.

图1是LightKGCN模型体系架构,euh为模型的输入部分.对于给定的用户项目对,首先对其以迭代的方式计算每一层中实体e的邻域表示,之后重复H次聚合,下一次的迭代使用实体的邻域表示和自己的表示聚合.最终的H阶实体表示为eu,它与用户表示u被输入函数f来预测用户u对项目v感兴趣的概率,如式(5)所示:

y^uv=fu,eu

本文在训练过程中使用负采样策略来提高计算效率.完全损失函数如下所示:

L=uUJyuv,y^uv-i=1TuEviPviJyuv,y^uv+λF22

其中,J是交叉熵损失,P是负采样分布,遵循均匀分布;Tu=v:yuv=1Tu是用户u的负采样数;最后一项是L2正则化器.LightKGCN具体的算法流程如下所示.

算法1

LightKGCN算法

输入:知识图谱G,用户项目交互矩阵Y,邻域采样映射S:e2ε,可训练参数uuU,eeε,rrR,Wi,biiH

超参数H,d,g,σ,agg

输出:预测函数Fu,vθ,Y,G.

1.While LightKGCN not converage do;

2. for u,v in Y do /*对于给定的用户项目对*/

3. Mii=0Hget receptive fieldv; /*以迭代的方式获得项目v的感受野*/

4. eu0e,eM0

5. for h=1,,H do /*聚合重复H次*/

6. for eMh do

7. vNvu=eNv1Nu·Nvω˜rv,eue

8. agg=h=0HαhvSvu+v

9. y^uv=fu,eu; /*计算预测概率*/

10. 梯度下降更新参数;

11.Return F

12.Function get receptive fieldv

13. Mhv

14. for h=H-1,,0 do

15. MhMh+1

16. for eMh+1 do

17. MhMhSe

18.return Mii=0H.

3 实验

在电影、书籍和音乐推荐三个现实场景中评估lightKGCN,研究不同的超参数设置(如邻居抽样的大小、感受野的深度、嵌入尺寸)对LightKGCN的影响,并对比LightKGCN和先进的基于知识图谱的推荐方法的性能表现.

3.1 数据集

为了评估LightKGCN的有效性和准确性,在三个数据集的不同场景下进行实验,这三个数据集的大小和稀疏性都是不同的.

MovieLens⁃20M是基准数据集,基于Movie⁃Lens网站上大约两千万的公开投票评分,是一个完整的体系.

Book⁃Crossing包含Book⁃Crossing社区中100万本书的评分,评分范围为0~10.

Last.FM包含FM在线音乐系统中一组2000个用户的音乐家的收听信息.

由于三个数据集是直接反馈,本文将其转换为间接反馈,每条记录用1表示,1表示正样本,对于用户未查看的项目集合用0表示.

实验不仅需要用户项目交互,还需要构建数据集的知识图谱,知识图谱通过Microsoft Stori构建.首先,从整个知识图谱中获取一个置信度高于0.9的三元组子集.为了简洁计算,将符合多个实体匹配的项目及与不符合任何一个实体的项目剔除.表1是三个数据集的详细统计数据和LightKGCN的超参数设置,其中,K是邻近样本的大小,d是嵌入的维数,H是感受野的深度,λL2正则化权重,η是学习速率.

表1   三个数据集的基本信息和LightKGCN的超参数

Table 1  Basic information of three datasets and the corresponding hyperparameter settings of LightKGCN

MovieLens⁃20MBook⁃CrossingLast.FM
#users138159196761872
#items16954200033846
#interactions1350162217257642346
#entities102569257879366
#relations321860
#KG triples4994746078715518
K488
d326416
H211
λ10-72×10-510-4
η2×10-22×10-45×10-4
batch size65536256128

新窗口打开| 下载CSV


3.2 评估指标和对比方法

采用PrecisionRecallF1和AUC (Area under Curve)四个指标来进行评估.Precision是对于给定的测试数据集预测正确的概率,也就是分类器正确分类的样本占样本总体的比例.Recall是实际为正的样本被判为正样本的比例,和推荐效率正相关.F1综合考虑了PrecisionRecall两个指标,通过取两个指标的调和平均值来计算,F1越大说明模型的质量越好.AUC是一个衡量模型整体性能的指标,其值越高,模型的性能越好.

将提出的LightKGCN与以下基线方法进行比较来验证其有效性,前两个基线方法是无知识图谱的,其余都是基于知识图谱的推荐方法.

SVD24:是一个基于CF的模型,使用内积来模拟用户项目之间的交互.

LibFM25:是一个在点击率(Click⁃Through Rate,CTR)场景下的基于特征的因式分解模型,将用户ID和项目ID合并作为输入数据.

LibFM+TransE:通过在每个用户项目对中加入TransE学习到的实体表示来扩展LibFM.

PER26:是一种典型的基于路径的方法,将KG视为异构信息网络,提取基于元路径的特征来表示用户与物品之间沿不同类型的关系路径的连通性.

CKE27:是一种典型的基于嵌入的方法,在一个贝叶斯框架中将CF与文本知识、结构知识和可视化知识结合在统一的推荐框架中.

RippleNet3:是一种类似于记忆网络的方法,在知识图谱中通过偏好传播,不断自动发现用户的层级兴趣,以此来进行推荐.

KGAT28:是一个结合了知识图谱和图卷积网络的经典案例,采用注意力机制来提高模型的整体性能.

KGCN16:利用知识图谱对项目的属性信息建模,利用图卷积层传播和聚合项目的邻域节点信息和节点本身消息,捕捉局部邻域结构储存在实体中,得到用户的个性化偏好信息.

3.3 实验设置

在LightKGCN中,将函数gf设为内积,将σ设为非末层聚合器的ReLU,将tanh设为末层聚合器.

将电影、书籍和音乐推荐三个数据集分三个部分,分别是训练集、评估集和测试集,占比为6∶2∶2,每个实验重复三次,取平均值.在两个实验场景中进行评估:(1)使用训练好的模型对测试集中的每个交互进行CTR预测,用AUCF1来进行评估;(2)对于点击率最高的推荐,训练好的模型为每个用户从测试集中选择预测点击率最高的k个项目,使用Recall@K来评估推荐.在此基础上,使用Adam算法来优化所有的训练参数.

基线方法的超参数设置如下.SVD,使用无偏版本,三个数据集的维数和学习率设置为:MovieLens⁃20M和Book⁃Crossing,d=8,η=0.5;Last.FM,d=8,η=0.1.LibFM,维数为1,1,8,训练epoch数为50.TransE的维数是32.PER,特征使用手动设计的“用户项目⁃属性⁃项目路径”.CKE,三个数据集的维数分别是64,148,64.KG的训练权值为0.1,学习率与SVD相同,Movie⁃Lens⁃20M中,d=8,H=2,λ1=10-6,λ2=0.01η=0.01.RippleNet,d=16,H=3,λ1=10-5,λ2=

0.02,η=0.005.

3.4 邻居抽样大小的影响

改变样本邻居K来研究知识图谱的使用效果,实验结果如表2所示,表中黑体字表示结果最优.由表可见,K=4或8时,LightKGCN的性能最优,这可能是因为K太小时模型没有足够的容量来包含邻域信息,而K太大时模型容易被噪声影响,结合了过多的邻域节点信息,产生过拟合现象.

表2   相邻样本K不同时LightKGCN的AUC

Table 2  AUC of LightKGCN with different adjacent sample size K

K248163264
MovieLens⁃20M0.9780.9800.9780.9780.9760.977
Book⁃Crossing0.6800.7230.7390.7240.7200.730
Last.FM0.7900.7950.7970.7930.7950.792

新窗口打开| 下载CSV


3.5 层深度的影响

研究不同的层深度H对LightKGCN的影响,在1,2,3,4中搜索层数,实验结果如表3所示,表中黑体字表示结果最优.由表可见,LightKGCN对H比对K更敏感,当H=3或4时,模型效果显著下滑,这可能是因为较大的H给模型带来了大量的噪声.远距离传播的影响有好有坏,好处是可以提供更多的用户项目交互信息,坏处是可能带来更多的噪声,特别是数据量大时.根据实验结果,实际情况下H=1或2时效果最好.

表3   层深度H不同时LightKGCN的AUC

Table 3  AUC of LightKGCN with different layer depth H

H1234
MovieLens⁃20M0.9760.9800.9730.625
Book⁃Crossing0.7490.7430.6750.547
Last.FM0.7980.7390.5640.536

新窗口打开| 下载CSV


3.6 嵌入尺寸的影响

将相同维数参数用于实体和关系的嵌入以促进计算,并探索不同维度对LightKGCN的影响.实验结果如表4所示,表中黑体字表示结果最优.由表可见,在一定范围内增加嵌入维数d可以有效地提高LightKGCN的性能,但d越大,可以编码的用户和实体信息就越多.但是,d超过某个阈值就导致过拟合,降低推荐的性能.实验结果表明,d取值8~32时算法的性能较好.

表4   嵌入维数不同时LightKGCN的AUC

Table 4  AUC of LightKGCN with different embedding dimensions

d48163264
MovieLens⁃20M0.9730.9770.9790.9750.973
Book⁃Crossing0.7350.7370.7390.7410.738
Last.FM0.7950.7980.7930.7910.789

新窗口打开| 下载CSV


3.7 对比实验结果

CTR预测结果和top⁃k推荐结果分别见表5(表中黑体字表示结果最优)和图2,整体上,LightKGCN模型在三个数据集上的结果均优于其他模型.AUCF1,LightKGCN在MovieLens⁃20M上分别提升0.3%和0.6%,在Book⁃Crossing上分别提升1.2%和1.8%,在Last.FM上分别提升4.3%和3.8%,可见其在Book⁃Crossing和Last.FM上的提升要远高于MovieLens⁃20M.一个可能的解释是每个用户的平均互动和每个项目的平均连接在三个数据集上是不同的,例如,电影数据集与书籍和音乐数据集相比有更丰富的交互和连接,表明LightKGCN在解决稀疏场景问题时效果较好,因为Book⁃Crossing和Last.FM比MovieLens⁃20M更稀疏,也证明GCN的非线性激活函数、特征变换等操作对推荐系统不会有很大的提升.

表5   CTR预测中AUCF1的实验结果

Table 5  AUC and F1 in CTR predictions

ModelMovieLens⁃20MBook⁃CrossingLast.FM
AUCF1AUCF1AUCF1
LightKGCN0.9800.9360.7470.7010.8100.735
SVD0.9630.9190.6120.6350.7690.696
LibFM0.9590.9060.6910.6180.7780.710
LibFM+TransE0.9660.9170.6980.6220.7770.709
PER0.8320.7880.6170.5620.6330.596
CKE0.9240.8710.6770.6110.7440.673
RippleNet0.9500.9120.7150.6500.7760.702
KGAT0.9650.9260.7350.6810.7880.722
KGCN0.9770.9300.7380.6880.7760.708

新窗口打开| 下载CSV


图2

图2   top⁃k推荐的Recall@K结果

Fig.2   The results of Recall@K by top⁃k recommendation


SVD和LibFM没有知识图谱基线,PER和CKE有基线,从表5还可以看出,前者性能更好.说明PER和CKE不能通过手动设计的元路径和TransR正则化来充分发挥知识图谱的作用.

大多数的情况下LibFM+TransE优于LibFM,说明引入KG会提高推荐的性能.但现实中很难定义最佳元路径,所以PER在所有基线中表现最差.和其他基线相比,RippleNet性能更好.同时,RippleNet中的多跳邻域结构可以捕获KG中的邻域信息,有助于提高推荐的准确性.

图2展示了MovieLens⁃20M,Book⁃Crossing和Last.FM上预测样例数量K(指定返回用户K个项目)在1~100时的Recall.由图可见,K不断增大,Recall也在逐步递增,而LightKGCN的Recall明显优于其他基线,证明LightKGCN模型的整体性能更好.这也证明,本文采用的轻量级聚合器简化了图卷积操作中的非线性激活和特征转换,降低了模型训练的复杂度,所以在K较高时也能表现出良好的性能.

4 结论

本文提出一个基于知识图谱的轻量级图卷积网络(LightKGCN),既可以挖掘知识图谱上的关联属性来有效地捕捉项目间的相关性,也可以自动发现实体的高阶结构信息和语义信息.LightKGCN从实体的邻居中抽取样本作为它们的感受野,再计算实体的表示来结合邻域信息和偏差.感受野可以扩展到多跳来模拟高阶连通性,并且捕获用户潜在的长距离兴趣.LightKGCN使用邻域聚合应用于协同过滤中,不仅简化了模型设计,还提高了模型的有效性和准确度.通过对真实世界数据集的大量实验,证明LightKGCN在电影、书籍和音乐推荐方面始终优于最先进的基线方法.

实验还证明,传统GCN的特征转换、非线性激活等操作对协同过滤操作没有很大的作用.未来考虑引入其他辅助信息,如使用社交网络等信息来提高推荐的准确性,引入时间节点信息来构建知识图谱,以此进一步提高推荐的精确性,同时也可以将因果推断引入知识图谱推荐,为用户提供更好的推荐.

参考文献

He X NHe Z KSong J Ket al.

NAIS:Neural attentive item similarity model for recommendation

IEEE Transactions on Knowledge and Data Engineering,201830(12):2354-2366.

[本文引用: 2]

Wang H WZhang F ZXie Xet al.

DKN:Deep knowledge⁃aware network for news recommen⁃dation

Proceedings of 2018 World Wide Web Conference. Lyon,FranceACM20181835-1844.

[本文引用: 1]

Wang H WZhang F ZWang J Let al.

RippleNet:Propagating user preferences on the knowledge graph for recommender systems

Proceedings of the 27th ACM International Conference on Information and Knowledge Management. Torino,ItalyACM2018417-426.

[本文引用: 3]

Hamilton W LYing RLeskovec J.

Inductive representation learning on large graphs

Proceedings of the 31st International Conference on Neural Information Processing Systems. Long Beach,CA,USAACM20171025-1035.

[本文引用: 1]

Wang XHe X NWang Met al.

Neural graph collaborative filtering

Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. Paris,FranceACM2019165-174.

[本文引用: 2]

He X NDeng KWang Xet al.

LightGCN:Simplifying and powering graph convolution network for recommendation

Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. Virtual EventACM2020639-648.

[本文引用: 1]

张明星张骁雄刘姗姗.

利用知识图谱的推荐系统研究综述

计算机工程与应用,202359(4):30-42.

[本文引用: 1]

Zhang M XZhang X XLiu S Set al.

Review of recommendation systems using knowledge graph

Computer Engineering and Applications,202359(4):30-42.

[本文引用: 1]

Bordes AUsunier NGarcia⁃Durán Aet al.

Translating embeddings for modeling multi⁃relational data

Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe,NevadaACM20132787-2795.

[本文引用: 1]

Wang ZZhang J WFeng J Let al.

Knowledge graph embedding by translating on hyperplanes

Proceedings of the 28th AAAI Conference on Artificial Intelligence. Québec City,CanadaAAAI Press20141112-1119.

[本文引用: 1]

Chen Z XWang X TXie Xet al.

Towards explainable conversational recommendation

Proceedings of the 29th International Joint Conference on Artificial Intelligence. Yokohama,JapanACM,Article No.4142021.

[本文引用: 1]

Wang H WZhang F ZZhao Met al.

Multi⁃task feature learning for knowledge graph enhanced recommendation

The World Wide Web Conference. San Francisco,CA,USAACM20192000-2010.

[本文引用: 1]

Cao Y XWang XHe X Net al.

Unifying knowledge graph learning and recommendation:Towards a better understanding of user preferences

The World Wide Web Conference. San Francisco,CA,USAACM2019151-161.

[本文引用: 1]

罗承天叶霞.

基于知识图谱的推荐算法研究综述

计算机工程与应用,202359(1):49-60.

[本文引用: 1]

Luo C TYe X.

Survey on knowledge graph⁃based recommendation methods

Computer Engineering and Appli⁃cations,202359(1):49-60.

[本文引用: 1]

Xian Y KFu Z HMuthukrishnan Set al.

Reinforcement knowledge graph reasoning for explainable recommendation

Proceedings of the 42nd International ACM SIGIR Conference on Research and Development in Information Retrieval. Paris,FranceACM2019285-294.

[本文引用: 1]

Wang XHuang T LWang D Xet al.

Learning intents behind interactions with knowledge graph for recommendation

Proceedings of the Web Conference 2021. Ljubljana,SloveniaACM2021878-887.

[本文引用: 1]

Wang HZhao MXie Xet al.

Knowledge graph convolutional networks for recommender systems

Proceedings of the 2019 World Wide Web Conference. San Francisco,CA,USAACM20193307-3313.

[本文引用: 2]

Ai Q YAzizi VChen Xet al.

Learning heterogeneous knowledge base Embeddings for explainable recommendation

Algorithms,201811(9):137.

[本文引用: 1]

葛尧陈松灿.

面向推荐系统的图卷积网络

软件学报,202031(4):1101-1112.

[本文引用: 1]

Ge YChen S C.

Graph convolutional network for recommender systems

Journal of Software,202031(4):1101-1112.

[本文引用: 1]

Bruna JZaremba WSzlam Aet al.

Spectral networks and locally connected networks on graphs

The 2nd International Conference on Learning Representations. Banff,CanadaICLR2014DOI:10.48550/arXiv.1312.6203 .

[本文引用: 1]

Defferrard MBresson XVandergheynst P.

Convolutional neural networks on graphs with fast localized spectral filtering

Proceedings of the 30th International Conference on Neural Information Processing Systems. Barcelona,SpainACM20163844-3852.

[本文引用: 1]

Kipf T NWelling M.

Semi⁃supervised classification with graph convolutional networks

The 5th International Conference on Learning Represen⁃tations. Toulon,FranceICLR2017DOI:10.48550/arXiv.1312.6203 .

[本文引用: 1]

Ying RHe R NChen K Fet al.

Graph convolutional neural networks for web⁃scale recom⁃mender systems

Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. London,UKACM2018974-983.

[本文引用: 1]

Wang XJin H YZhang Aet al.

Disentangled graph collaborative filtering

Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval. Virtual EventACM20201001-1010.

[本文引用: 1]

Koren Y.

Factorization meets the neighborhood:A multifaceted collaborative filtering model

Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Las Vegas,NV,USAACM2008426-434.

[本文引用: 1]

Rendle S.

Factorization machines with libfm

ACM Transactions on Intelligent Systems and Technology,20123(3):57.

[本文引用: 1]

Yu XRen XSun Y Zet al.

Personalized entity recommendation:A heterogeneous information network approach

Proceedings of the 7th ACM International Conference on Web Search and Data Mining. New York,NY,USAACM2014283-292.

[本文引用: 1]

Zhang FZYuan NJLian DFet al.

Collaborative knowledge base embedding for recommender systems

Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco,CA,USAACM2016353-362.

[本文引用: 1]

Wang XHe X NCao Y Xet al.

KGAT:Knowledge graph attention network for recommen⁃dation

Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Anchorage,AK,USAACM2019:950-958DOI:10.1145/3292500.3330989 .

[本文引用: 1]

/