南京大学学报(自然科学), 2020, 56(4): 541-548 doi: 10.13232/j.cnki.jnju.2020.04.012

基于翻译模型的异质重边信息网络链路预测研究

郑建兴,1,2, 李沁文1, 王素格1,2, 李德玉1,2

1.山西大学计算机与信息技术学院,太原,030006

2.计算智能与中文信息处理教育部重点实验室(山西大学),太原,030006

Research of link prediction based on translation model in heterogeneous multi⁃edge information network

Zheng Jianxing,1,2, Li Qinwen1, Wang Suge1,2, Li Deyu1,2

1.School of Computer and Information Technology,Shanxi University,Taiyuan,030006,China

2.Key Laboratory of Computational Intelligence and Chinese Information Processing of Ministry of Education (Shanxi University),Taiyuan,030006,China

通讯作者: E⁃mail:jxzheng@sxu.edu.cn

收稿日期: 2020-06-28   网络出版日期: 2020-08-05

基金资助: 国家自然科学基金.  61632011.  61603229.  61672331.  61573231.  61906112
山西省重点研发计划(国际科技合作).  201803D421024.  201903D421041
山西省自然科学基金.  201901D211174.  201901D111032
山西省高等学校科技创新项目.  2020L0001.  2019L0008
山西省软科学研究一般项目.  2018041015⁃3

Received: 2020-06-28   Online: 2020-08-05

摘要

在异质信息网络中,异质节点对象之间具有多元关系,形成异质重边信息网络.知识图谱表示旨在将实体和关系在低维的向量空间进行嵌入,可以用来学习异质重边信息网络中实体间的多元关系.首先通过注意力机制对异质重边信息网络中的多元关系进行融合表示,进而将异质节点的类型信息进行多元关系融合空间的映射,在多元关系融合空间上提出基于翻译的异质重边嵌入模型,用以学习异质节点之间的链路关系.最后,在MovieLens100k电影数据集上进行了异质节点多元关系的链路预测实验.实验结果表明,在异质重边信息网络中,基于改进的翻译模型在实体间链路预测性能方面要优于传统的知识表示方法,可以有效地提升链路预测的精度.

关键词: 异质重边信息网路 ; 链路预测 ; 翻译模型 ; 表示学习

Abstract

In heterogeneous information network,heterogeneous nodes have multiple relations which can form heterogeneous multi⁃edge information network. Knowledge graph⁃based representation aims to embed object entities and relations into a low⁃dimensional vector space which can be used to learn the multiple relations between entities in heterogeneous multi⁃edge information network. In this paper,we first leverage fused representation of multiple relations for heterogeneous multi⁃edge information network in terms of attention mechanism. Then,projected matrices are adopted to map the types of heterogeneous nodes into fused spaces of multiple relations. More,in the fusion representation space of multiple relations,translation⁃based heterogeneous multi⁃edge embedding model is proposed to learn the link relations among heterogeneous nodes. Finally,link prediction experiments of heterogeneous multi⁃edge relations are carried out on MovieLens100k dataset. The experimental results demonstrate that the novel translation model is superior to traditional knowledge representation methods at the aspect of link prediction performance,which can effectively improve the accuracy of link prediction.

Keywords: heterogeneous multi⁃edge information network ; link prediction ; translation model ; representation learning

PDF (779KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

郑建兴, 李沁文, 王素格, 李德玉. 基于翻译模型的异质重边信息网络链路预测研究. 南京大学学报(自然科学)[J], 2020, 56(4): 541-548 doi:10.13232/j.cnki.jnju.2020.04.012

Zheng Jianxing, Li Qinwen, Wang Suge, Li Deyu. Research of link prediction based on translation model in heterogeneous multi⁃edge information network. Journal of nanjing University[J], 2020, 56(4): 541-548 doi:10.13232/j.cnki.jnju.2020.04.012

社交媒体的发展,使用户可以随时随地发布自己感兴趣的内容[1].用户兴趣内容的发布提升了用户的社交活跃度,增强了用户的社交关系,形成了复杂的社交网络[2].电子商务的快速发展使用户与商品之间的交互也越来越频繁,庞大的用户群体与众多的商品构成了复杂的电商网络.社交网络、电商网络中具有多种类型的交互对象,交互对象间具有不同的关系,形成了异质信息网络(Heterogeneous Information Network,HIN).基于异质信息网络来预测对象之间的关系已成为当今社交网络和电子商务平台链路预测、推荐系统的热点研究方向[3].

在复杂的异质信息网络中,任意节点对象之间的关系可能有多种,比如,社交网络用户与微博的行为关系可以体现在@、发布、转发等形式;电商网站中用户对产品的行为关系可以体现在浏览、评论、购买等方式.这种多类型的行为活动使对象之间的联系更加紧密,对象之间可能形成多元化的关系[4].也即,在异质信息网络中,每个节点对象可能具有多重类型,任意两个节点对象可能具有多重关系边,形成一种特殊的网络,即异质重边信息网络(Heterogeneous Multi⁃edge Information Network,HMIN).如图1的IMDB异质重边信息网络实例所示,导演D1可能既导演了电影M1,也主演了M1,D1与M1具有多种关系;用户U4既可能观看了M3,也可能评价了M3,U4与M3具有多种行为关系.基于异质重边信息网络中节点的重边结构可以挖掘对象之间深层次的关系,对于预测社交网络链路、提高电商推荐系统的精准性有重要的意义.

图1

图1   IMDB数据集的异质重边信息网络实例

Fig.1   An instance of heterogeneous multi⁃edge information network in IMDB database


知识图谱是针对万物之间的关联关系,采用图模型描述和建模知识的方法通过可视化的方式揭示实体之间关系的语义[5-6].近年来,随着深度学习技术的发展,基于知识图谱的表示学习旨在将实体和关系表示在低维稠密的向量空间中,使实体和关系之间可以进行计算和推理,能够高效发现语义上相近的实体对象以及对象之间的相似关系.知识图谱表示已经广泛应用在链路预测、搜索引擎、推荐系统、智能问答、语义推理等多个方面[6].知识图谱中的翻译模型如TransE[7],TransD[8],TransH[9],TransR[10]等,通过将三元组对中的头实体、尾实体以翻译机制进行分布式向量的学习表示,可以有效获取对象和关系的语义信息,在链路预测方面获得了显著的性能.而异质重边信息网络中节点对的对象类型不同,且节点间具有多元关系,所以传统的翻译模型主要针对节点对象之间单一类型关系进行处理的方法不再适用,融合异质重边信息网络中节点对的多元关系则能够提升知识图谱中实体的语义表示能力.注意力机制[11]在深度神经网络中用于聚焦特定的输入特征,已被广泛应用到自然语言处理与视觉图像领域.因此,注意力机制可以学习异质重边信息网络中节点对的多元关系重要性;同时,受TransE模型启发,对于异质节点三元组(u,R,v),我们认为节点对在多元关系上也满足u+R=v.也即,在异质节点的多元关系融合表示空间下基于翻译模型可以学习节点实体对象的语义信息,实现异质对象间的链路预测.

本文提出一种改进的知识图谱异质翻译模型,用于异质重边信息网络中融合多元关系的链路预测研究.首先,将HMIN中节点对之间的多元关系采用注意力机制进行融合表示,进而将异质节点的类型信息投影学习到多元关系融合表示空间,在多元关系融合表示空间上利用翻译机制提出异质重边的嵌入模型,实现异质节点、关系的分布式表示.基于节点的表示和多元关系的融合表示进行了实体预测研究.实验表明,本文提出的基于翻译的异质重边嵌入模型能够提升异质重边信息网络链路预测的准确度,比传统的表示学习方法性能更高.

1 相关工作

传统的网络表示方法主要借助矩阵表示顶点之间的链接关系,进而通过分解矩阵获得顶点的向量表示,常见的有邻接矩阵、拉普拉斯矩阵、转移概率矩阵、相似度矩阵等类型[12].早期的Locally Linear Embedding(LLE)[13]认为节点是邻居节点在低维空间的一种线性加权组合;拉普拉斯特征映射旨在尽可能接近地保留相邻节点对嵌入之间的距离[14].近年来,随着自然语言处理词嵌入技术的发展,基于随机游走的DeepWalk[15]算法被提出学习节点的向量表示.在此基础上,Tu et al[16]提出Max⁃Margin DeepWalk学习包含网络结构的节点表示向量.Node2vec[17]在DeepWalk的基础上,引入了一个偏向的随机游走程序,生成节点序列,获取网络嵌入.Tang et al[18]通过保持局部和全局的网络结构,提出Line的网络表示学习方法.Wang et al[19]结合一阶估计与二阶估计的优点,提出SDNE半监督学习模型来计算不同节点相邻结构的相似程度,有效解决了网络稀疏的向量表示问题.上述研究成果主要针对同质网络中的节点表示进行研究,而异质信息网络中节点和关系具有不同的类型,同构网络的表示学习难以直接学习节点的异质信息.Metapath2vec[20]基于元路径的随机游走来构造节点的异构邻居,捕获不同类型节点之间的关系,学习节点的嵌入.图神经网络可以学习网络结构中的节点关系和语义知识,Wang et al[21]考虑节点级别和语义级别的影响,提出一种异构图神经网络分层注意力机制方法,解决了只考虑单一元路径结构信息的不足.在异质重边信息网络中,节点之间具有多种类型的关系,基于多元化类型关系可以增强节点的表示.

知识图谱的语义表示学习主要将语义网络中的实体在低维稠密向量空间中表示,进而广泛应用在链路预测、情感分析、推荐系统、语义推理等多个方面[6].比较代表性的TransE[7]是基于词向量的平移不变现象提出将实体和关系嵌入到低维向量空间的方法.在此基础上,一系列翻译模型被提出,如TransD[8],TransH[9],TransR[10],TransG[22],KG2E[23]等,主要针对头尾实体三元组不同类型的关系和映射矩阵的稀疏性进行研究.针对网络中实体间的多元关系,Tu et al[24]基于自编码技术学习多标签关系的表示,进而提出TransNet模型实现多元关系的预测.基于翻译模型的实体嵌入考虑了关系的类型,忽略了对网络中关系路径的描述,无法发现关系路径的语义.Wang et al[25]考虑实体和关系的类型语义生成路径的表示,通过分析路径上不同类型的语义重要性来学习用户与项目的交互关系.Wang et al[26]基于知识图谱路径迭代更新用户的兴趣,提出端到端的RippleNet模型,学习用户对项目的不同预测概率.针对异质信息网络中反馈信息的多样性,Chen et al[27]提出异质信息中的负采样策略,尽可能保持异质类型的信息,建模细粒度的用户⁃项目关系,实现Top⁃N推荐.在异质重边信息网络中,节点三元组对的头实体、尾实体具有不同的类型,如何将实体类型的信息融合到知识表示模型,对于不同类型实体的嵌入性能的改进,头尾实体的链路预测精度的提升,具有重要的影响.

2 HMIN翻译机制的链路预测

传统的异质信息网络有以下特点:(1)节点对象有多种类型,边的关系也有多种类型;(2)每个节点对象属于一个特定的类型,每条边也有特定的关系类型.已有异质信息网络的主要工作针对异质节点对象的单一关系进行研究.事实上,异质重边信息网络中节点间具有多元关系,节点间可以形成重边结构.本节给出异质重边信息网络的定义,并基于异质重边信息网络多元关系挖掘实体的语义表示,提升网络中链路预测的性能.

2.1 基于翻译模型的HMIN链路预测框架

异质重边信息网络中节点的类型信息可以表示丰富的语义,本节通过映射异质节点的类型信息到统一的空间,在多元关系融合表示空间上提出了基于翻译的异质重边嵌入模型,学习异质重边信息网络中实体的表示,实现头尾实体的链路预测.图2给出了基于翻译的异质重边嵌入模型框架.

图2

图2   基于翻译的异质重边嵌入模型框架

Fig.2   An fraework of heterogeneous multi⁃edge embedding model based on translation


图2中,首先通过注意力机制将节点间多元关系进行融合表示;进而将异质节点的类型信息进行统一潜在空间的表示;最后,将潜在空间上的节点表示映射到多元关系的融合表示空间,在关系空间上基于翻译模型实现节点的分布式向量表示.

2.2 注意力机制的多元关系融合表示

在头尾实体的链路预测中,实体间的多元关系在链路结构中有不同的作用,不同类型的关系能刻画头尾实体链路预测的不同重要性.为了区分不同类型的关系在链路预测中的作用,本文采用注意力机制学习多元关系在头尾实体预测中的不同权重分布.

定义1[28] 设异质信息网络表示为G=(V,E),其中V为节点的集合,E为边的集合.在异质信息网络中,同时存在节点类型的映射函数ϕ:V𝒜以及边类型的映射函数φ:E,且𝒜+>2.

定义2 设异质信息网络G=(V,E),若存在无向边二元组(u,v)E,关联顶点对的无向边数多于一条;或存在有向边二元组(u',v')E,关联顶点对的有向边数多于一条且有向边的始点和终点相同,则称G为异质重边信息网络.

在异质重边信息网络G=(V,E)中,给定二元组(u,v)E,设顶点对之间的多元关系集合记为R=rr,则多元关系的三元组对记为(u,R,v).对于关系riR,其初始化向量ri可以映射为:

ai=Wri

其中,W为共享参数,学习多元关系的不同重要性.异质重边信息网络中节点(u,v)之间的关系ri的向量投影在W空间上,实现了不同类型多元关系的变换.进而,对于节点对(u,v)所有的关系,通过softmax函数归一化权重系数为:

αi=e-aike-ak

权重系数反映了关系ri在节点对链接中的不同重要性.于是,考虑到节点(u,v)之间的所有关系,通过注意力权重系数学习节点对的融合关系表示,记为:

R=iαiri

2.3 多元关系融合空间的异质对象翻译表示在异质重边信息网络中,给定多元关系的三元组异质节点对(u,R,v),其中uv具有异质类型,通过投影矩阵MRuMRv分别把头实体u和尾实体v映射到多元关系统一的语义空间.头实体u和尾实体v在多元关系统一空间的表示可以记为

uR=MRuu
vR=MRvv

其中,MRuMRv为头实体u和尾实体v不同类型的学习参数矩阵.

进而,考虑头实体u和尾实体v在多元关系融合语义空间上的关联,采用知识表示翻译的思想,在多元关系融合语义空间上通过翻译机制建立异质节点对(u,v)之间的关联,即基于翻译的异质重边嵌入(TransHME),形式化为:

MRuu+RMRvv

TransHME反映了异质信息网络中异质节点对象之间在分布式多元关系空间上的关联,进一步全面地刻画了对象之间的语义关系.

接着,对于异质节点对(u,v),基于上述翻译机制的距离函数可以定义为:

fR(u,v)=uR+R-vR22

根据异质节点对的距离函数,对于正样本三元组(u,R,v)和负样本三元组û,R,v̂,定义基于翻译关系的HingeLoss损失函数为:

Ltrans=(u,R,v)S,û,R,v̂S'max0,γ+fR(u,v)-fRû,v̂+λMRuMRv-E+ηW2

其中,

S'=û,R,vû,vEu,R,v̂u,v̂E

为负样本的集合.λ为超参数,MRuMRv正交,保证了异质头实体、尾实体不同的类型可以学习不同的参数矩阵.

2.4 多元关系融合空间的异质对象链路预测算法

接下来,给出具体的基于TransHME的异质重边信息网络链路预测算法.

算法1 融合多元关系的异质节点链路预测算法

输入:异质重边信息网络G=(V,E)

输出:实体节点的推荐排序.

步骤1.依据注意力机制学习节点对(u,R,v)的多元关系融合表示R

步骤2.确定异质节点uv分别对应的类型初始化矩阵MRuMRv

步骤3.在多元关系融合表示空间上学习异质节点对(u,R,v)的节点分布式表示uR,vR

步骤4.对于新的节点三元组(u,R,v'),采用式(7)确定节点v'与头实体的距离;

步骤5.根据实体uv'的距离在候选集中进行排序.

算法1中,步骤1学习了多元关系的融合表示,步骤3在多元关系的融合表示上学习了节点的分布式表示.因此,模型的时间复杂度比传统的TransE,TransR模型更高,为O(Ns×Nr×D)

其中,Ns是模型三元组的数量,Nr是关系的数量,D是嵌入维度.

3 实验与分析

3.1 数据集及评价指标

实验采用MovieLens⁃100k电影评分的数据集(http:∥files.grouplens.org/datasets/movielens/),电影集有19种类别属性,还包括943个用户对1682部电影的评分关系(1~5分).选取用户电影评分为5的电影作为用户感兴趣的电影,选取感兴趣电影的类别属性个数大于等于3的属性作为用户与电影的多元关系标签.经过过滤,最终选取861个用户对242部感兴趣电影的评分进行实验,实验中的数据集情况如表1所示.

表1   异质重边数据集简介

Table 1  Details of heterogeneous multi⁃edge datasets

DatasetsVerticesEdgesTrainTestValid
MovieLens100k110369545564664726

新窗口打开| 下载CSV


实验过程中,采用链路预测中的评价指标Hits@k,MeanRank(MR),MRR进行实验结果的对比评价.其中,Hits@k是推荐的top@k命中的实体数在总测试样本中的比例,其值越大,模型性能越好;MR是预测正确实体的平均排序,其值越小,表明排序越靠前,模型的预测性能越好;MRR是预测正确实体的排名倒数的平均值,其值越大,模型的性能越好.

3.2 实验参数设置

实验过程中,采用随机梯度下降进行模型优化,节点的初始化向量采用TransE模型进行训练,学习率采用0.01进行调试,边缘超参数设置γ=7,正则化系数设置λ=0.1,η=0.1,节点的嵌入维度D设置为100.

3.3 实验对比方法

实验过程中,BaseLine方法选取TransE,TransD,TransH,TransR进行结果的对比.主要方法介绍如下:

TransE[7]:将关系看作头实体到尾实体的翻译,学习实体的知识嵌入.

TransH[9]:将头尾实体在超平面上进行投影,学习实体的知识嵌入.

TransR[10]:将实体和关系在不同的语义空间进行表示,把实体映射到关系空间学习实体和关系的嵌入.

TransD[8]:在TransR模型基础上,将实体间关系的映射矩阵简化为向量的积,在关系空间动态学习实体的嵌入.

3.4 实验结果及分析

本实验在i7⁃8750h处理器上运行,GPU gtx1050ti,实验结果如表2表3所示.由于预测的尾实体可能出现在训练集中,表2给出了不同方法在单一、多元关系下的粗糙结果,表3则给出了过滤后的结果.从表2表3可以看出,本文提出的TransHME方法在Hits,MR,MRR指标上都优于传统的方法.表3中融合多元关系的TransHME对尾实体电影预测的精度远胜单一关系的翻译预测方法,证明融合多元关系能更精准地为用户推荐感兴趣的电影.同时,TransE,TransH,TransR,TransD等方法在融合多元关系之后,精度仍然低于TransHME方法,如TransHME在Hits@1上的取值为0.7304,比TransE+Mule的0.6581高约7.2%,这表明在获取头实体用户、尾实体电影的异质语义信息方面,正交的类型矩阵MRuMRv起到了重要的作用,验证了融合节点的异质类型信息可以精确地预测尾实体,在Hits@1指标上能够预测更多的感兴趣的尾实体电影.

表2   不同方法在单一、多元关系下的粗糙结果

Table 2  Raw results of different methods under single and multi⁃edge relationdships

MethodMRRMRHits@5Hits@3Hits@1
TransE0.052659.13700.04370.01360.0045
TransH0.061355.50300.07380.02710.0030
TransR0.064260.69010.07440.03720.0041
TransD0.071149.85240.07230.03310.0075
TransE+Mule0.72253.95930.92920.85240.5633
TransH+Mule0.71327.36300.90570.85300.5627
TransR+Mule0.70077.39910.90060.82980.5459
TransD+Mule0.707110.39120.90290.82540.5431
TransHME0.75117.44730.93220.84340.6250

新窗口打开| 下载CSV


表3   不同方法在单一、多元关系下的过滤结果

Table 3  Filtered results of different methods under single and multi⁃edge relationdships

MethodMRRMRHits@5Hits@3Hits@1
TransE0.159446.73190.21990.15210.0693
TransH0.161744.21390.23490.15360.0693
TransR0.151149.37330.21490.15010.0550
TransD0.179139.19730.23040.16110.0889
TransE+Mule0.78373.62350.94580.89610.6581
TransH+Mule0.77076.91870.92520.89460.6416
TransR+Mule0.76826.89760.92470.86750.6521
TransD+Mule0.76639.85540.92300.86980.6409
TransHME0.81907.05120.95030.89460.7304

新窗口打开| 下载CSV


3.5 参数敏感分析

同时,为了进一步验证方法的性能,本文在不同参数取值下进行了实验:边缘超参数γ取4~8,正则化参数取0.01~1,嵌入维度取32,64,100进行验证.表4表6分别给出TransHME方法在不同γλ、嵌入维度D下的实验结果.从表4可以看出,参数γ=7时Trans⁃HME的性能最好,因此选取γ=7进行结果对比.同时,从表5表6可以看到,λ=0.1D=100时,TransHME在几个指标上的预测精度结果较好.整体上看,随着嵌入维度的提升,模型的性能也在不断提升,因此实验选取D=100进行所有方法的对比.

表4   TransHME在不同γ下的过滤结果

Table 4  Filtered results of TransHME method under different values of γ

γMRRMRHits@5Hits@3Hits@1
40.63978.12050.89460.82230.4398
50.73736.09790.91570.83890.6054
60.79274.76050.92620.87950.6928
70.81907.05120.95030.89460.7304
80.80855.77710.93220.88860.7189

新窗口打开| 下载CSV


表5   TransHME在不同λ下的过滤结果

Table 5  Filtered results of TransHME method under different values of λ

λMRRMRHits@5Hits@3Hits@1
0.010.80284.02260.93670.89310.7108
0.10.81907.05120.95030.89460.7304
1.00.80635.72130.92920.88890.7139

新窗口打开| 下载CSV


表6   TransHME在不同嵌入维度下的过滤结果

Table 6  Filtered results of TransHME method under different values of embedding dimension

DMRRMRHits@5Hits@3Hits@1
320.76107.40060.89310.85540.6611
640.78349.980710.91460.86500.6873
1000.81907.05120.95030.89460.7304

新窗口打开| 下载CSV


4 结 论

本文针对异质信息网络中的链路预测问题,首先考虑异质节点对的多元关系,提出异质重边信息网络的概念,并进一步采用注意力机制学习了节点对多元关系的融合表示.进而,将异质节点类型信息映射到统一的语义空间下,学习异质节点的类型信息表示;接着在多元关系的融合表示空间中建立了异质重边的嵌入模型方法,用来学习异质节点和多元关系的表示.最后,通过实验验证了所提出TransHME模型方法与多元关系融合表示的有效性.未来的研究工作将聚焦异质节点对的多粒度关系的融合表示,同时也可将本文提出的模型方法应用在推荐系统、情感分析、链路预测、语义推理等研究领域.

参考文献

李翠平蓝梦微邹本友.

大数据与推荐系统

大数据,20151(3):23-35.

[本文引用: 1]

Li C PLan M WZou B Yet al.

Big data and recommendation system

Big Data Research20151(3):23-35.

[本文引用: 1]

齐金山梁循李志宇. 大规模复杂信息网络表示学习概念、方法与挑战. 计算机学报201841(10):2394-2420.

[本文引用: 1]

Qi J SLiang XLi Z Yet al.

Representation learning of large⁃scale complex information network:concepts,methods and challenges

Chinese Journal of Computers201841(10):2394-2420.

[本文引用: 1]

李宇琦陈维政闫宏飞.

基于网络表示学习的个性化商品推荐

计算机学报,201942(8):1767-1778.

[本文引用: 1]

Li Y QChen W ZYan H Fet al.

Learning graph⁃based embedding for personalized product re⁃commendation

Chinese Journal of Computers201942(8):1767-1778.

[本文引用: 1]

Zheng J XWang S GLi D Yet al.

Personalized recommendation based on hierarchical interest overlapping community

Information Sciences,201947955-75.

[本文引用: 1]

Shadbolt N,Hall W,Bernerslee T.

The semantic web revisited

IEEE Intelligent Systems,2006,21(3):96-101.

[本文引用: 1]

王昊奋漆桂林陈华钧. 知识图谱:方法、实践与应用. 北京电子工业出版社201915-30.

[本文引用: 3]

Bordes AUsunier NGarcia⁃Durán Aet al.

Translating embeddings for modeling multi⁃relational data

Proceedings of the 26th International Conference on Neural Information Processing Systems. Lake Tahoe,NV,USAMIT Press20132787-2795.

[本文引用: 3]

Ji G LHe S ZXu L Het al.

Knowledge graph embedding via dynamic mapping matrix

Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing. Beijing,ChinaAssociation for Computational Linguistics2015687-696.

[本文引用: 3]

Wang ZZhang J WFeng J Let al.

Knowledge graph embedding by translating on hyperplanes

Proceedings of 28th AAAI Conference on Artificial Intelligence. Québec City,CanadaAAAI20141112-1119.

[本文引用: 3]

Lin Y KLiu Z YSun M Set al.

Learning entity and relation embeddings for knowledge graph completion

Proceedings of 29th AAAI Conference on Artificial Intelligence. Austin,TX,USAAAAI20152181-2187.

[本文引用: 3]

Vaswani AShazeer NParmar Net al.

Attention is all you need

Proceedings of the 31st International Conference on Neural Information Processing System. Long Beach,CA,USANIPS20171-12.

[本文引用: 1]

Goyal PFerrara E.

Graph embedding techniques,applications and performance:a survey

Knowledge⁃Based Systems,201815178-94.

[本文引用: 1]

Roweis S TSaul L K.

Nonlinear dimensionality reduction by locally linear embedding

Science,2000290(5500):2323-2326.

[本文引用: 1]

Luo D JHuang HNie F Pet al.

Cauchy graph embedding

Proceedings of the 28th International Conference on International Conference on Machine Learning. Bellevue,WA,USAACM2011553-560.

[本文引用: 1]

Perozzi BAl⁃Rfou RSkiena S.

Deepwalk:online learning of social representations

Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York,NY,USAACM2014701-710.

[本文引用: 1]

Tu C CZhang W CLiu Z Yet al.

Max⁃margin deepwalk:discriminative learning of network representation

Proceedings of the 25th International Joint Conference on Artificial Intelligence. New York,NY,USAMorgan Kaufmann20163889-3895.

[本文引用: 1]

Grover ALeskovec J.

Node2vec:scalable feature learning for networks

Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco,CA,USAACM2016855-864.

[本文引用: 1]

Tang JQu MWang M Zet al.

Line:large⁃scale information network embedding

Proceedings of the 24th International Conference on World Wide Web. Florence,ItalyACM20151067-1077.

[本文引用: 1]

Wang D XCui PZhu W W.

Structural deep network embedding

Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco,CA,USAACM20161225-1234.

[本文引用: 1]

Dong Y XChawla N VSwami A.

Metapath2vec:scalable representation learning for heterogeneous networks

Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. Nova Scotia,CanadaACM2017135-144.

[本文引用: 1]

Wang XJi H YShi Cet al.

Heterogeneous graph attention network

The World Wide Web Conference. San Francisco,CA,USAACM20192022-2032.

[本文引用: 1]

Xiao HHuang M LZhu X Y.

TransG:A generative model for knowledge graph embedding

Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics. Berlin,GermanyACL20162316-2325.

[本文引用: 1]

He S ZLiu KJi G Let al.

Learning to represent knowledge graphs with gaussian embedding

Proceedings of the 24th ACM International on Conference on Information and Knowledge Management. Melbourne,AustraliaACM2015623-632.

[本文引用: 1]

Tu C CZhang Z YLiu Z Yet al.

Transnet:translation⁃based network representation learning for social relation extraction

Proceedings of the 26th International Joint Conference on Artificial Intelligence. Melbourne,AustraliaMorgan Kaufmann20172864-2870.

[本文引用: 1]

Wang XWang D XXu C Net al.

Explainable reasoning over knowledge graphs for recommendation

Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Honolulu,HI,USAAAAI20195329-5336.

[本文引用: 1]

Wang H WZhang F ZWang J Let al.

RippleNet:Propagating user preferences on the knowledge graph for recommender systems

Proceedings of the 27th ACM International Conference on Information and Knowledge Management. Turin,ItalyACM2018417-426.

[本文引用: 1]

Chen CZhang MMa W Zet al.

Efficient heterogeneous collaborative filtering without negative sampling for recommendation

Proceedings of the 34th AAAI Conference on Artificial Intelligence. New York,NY,USAAAAI202019-26

[本文引用: 1]

Sun Y ZHan J W. Mining heterogeneous information networks:principles and methodologies. San RafaelMorgan & Claypool Publishers20121-159.

[本文引用: 1]

/