南京大学学报(自然科学), 2023, 59(6): 947-960 doi: 10.13232/j.cnki.jnju.2023.06.005

利用粗图训练图神经网络实现网络对齐

钱峰1,2, 张蕾1, 赵姝,2, 陈洁2

1.铜陵学院数学与计算机学院,铜陵,244061

2.安徽大学计算机科学与技术学院,合肥,230601

Training of graph neural networks on coarsening graphs for network alignment

Qian Feng1,2, Zhang Lei1, Zhao Shu,2, Chen Jie2

1.School of Mathematics and Computer Science, Tongling University, Tongling, 244061, China

2.School of Computer Science and Technology, Anhui University, Hefei, 230601, China

通讯作者: E⁃mail:zhaoshuzs2002@hotmail.com

收稿日期: 2023-08-10  

基金资助: 国家自然科学基金.  61876001
安徽省高校科研计划.  2022AH051749
安徽省高校优秀人才支持计划.  GXYQ2020054
安徽省高校优秀青年骨干人才国内外访学研修项目.  GXGNFX2021148

Received: 2023-08-10  

摘要

网络对齐是一项极具挑战性的任务,旨在识别不同网络中的等效节点,由于网络的复杂性和监督数据的缺乏,传统方法的计算复杂度高,精度低.近年来,图神经网络(Graph Neural Networks,GNN)在网络对齐算法中得到了越来越多的应用.已有研究表明,与传统方法相比,使用GNN进行网络对齐可以降低计算复杂度并提高对齐精度,然而,基于GNN的方法的性能受到训练数据质量和网络规模的限制.为此,提出一种快速鲁棒的无监督网络对齐方法FAROS,采用在粗图上训练的GNN模型进行网络对齐.使用粗图进行GNN训练的优点:(1)显著减少训练数据,最大限度地减少GNN反向传播过程中必须更新的权重参数,减少训练时间;(2)缓解数据噪声,能提取网络最重要的结构特征,便于GNN获得更鲁棒的嵌入向量.在训练过程中,FAROS通过引入基于伪锚节点对的自监督学习来提高对齐精度.在真实数据集上的实验结果验证了FAROS算法的有效性,其在保持较好精度的同时,比同类方法快几个数量级.

关键词: 网络对齐 ; 图神经网络 ; 网络嵌入 ; 粗图 ; 锚节点对

Abstract

Network alignment is a challenging task that aims to identify equivalent nodes in different networks. Conventional methods face high computational complexity and low accuracy due to the complexity of networks and the lack of supervision. In recent years,Graph Neural Networks (GNN) have been increasingly explored in network alignment algorithms,as they can reduce computational complexity and improve accuracy compared to traditional methods. However,the performance of GNN⁃based methods is limited by the quality of training data and network size. To address these limitations,we propose a fast and robust unsupervised network alignment method called FAROS. FAROS employs a GNN model trained on coarse graphs for network alignment. The use of coarse graphs for GNN training significantly reduces training data,minimizes weight parameters that must be updated during GNN back⁃propagation,and accelerates training time. Coarse graphs also mitigate data noise and extract the most important structural features of the network,which facilitates GNN to obtain more resilient embedding vectors. During training,FAROS elevates alignment accuracy by introducing self⁃supervised learning based on pseudo⁃anchor node pairs. Experimental results on real datasets demonstrate the effectiveness of FAROS,which is several orders of magnitude faster than comparative methods while maintaining good accuracy.

Keywords: network alignment ; graph neural network ; network embedding ; coarsen graph ; anchor node pairs

PDF (871KB) 元数据 多维度评价 相关文章 导出 EndNote| Ris| Bibtex  收藏本文

本文引用格式

钱峰, 张蕾, 赵姝, 陈洁. 利用粗图训练图神经网络实现网络对齐. 南京大学学报(自然科学)[J], 2023, 59(6): 947-960 doi:10.13232/j.cnki.jnju.2023.06.005

Qian Feng, Zhang Lei, Zhao Shu, Chen Jie. Training of graph neural networks on coarsening graphs for network alignment. Journal of nanjing University[J], 2023, 59(6): 947-960 doi:10.13232/j.cnki.jnju.2023.06.005

图(网络)是一种常用的数据结构,可用来建模不同实体之间的关系,图数据分析中,研究人员运用各种技术(如网络表示学习和深度学习)和手段(如社区发现、节点分类和链接预测)来挖掘图中隐藏的信息.其中,网络对齐(Network Alignment)是一项重要的数据挖掘技术,能发现不同网络中实体之间的等价关系和相似性1,在社交网络分析、生物信息学和知识图谱构建等领域得到了广泛应用.例如,在社交网络分析中,可基于用户对齐结果进行跨平台的信息传递2;在生物信息学中,对齐不同物种间的蛋白质分子网络可以实现蛋白质功能注释3;在知识图谱的构建过程中,利用实体对齐可以完成知识补全4.

网络对齐任务中,可利用网络的拓扑结构或节点属性信息来识别不同网络中的相似节点5,但由于网络结构的复杂性,传统的网络对齐方法无法满足当下网络对齐任务的需求.近年来,研究人员提出许多基于嵌入的网络对齐方法,包括基于网络嵌入的方法6-8和基于图神经网络的方法9-14,已有研究表明,基于嵌入方法的性能普遍优于传统方法.网络嵌入(Network Embedding)是一种降维技术,可以将网络节点特征映射到低维向量空间,能更好地表示节点之间的关系15.图神经网络(Graph Neural Networks,GNN)是一种深度学习模型,能捕捉节点和边之间的复杂交互关系以及全局拓扑信息.这些技术被广泛应用于各种任务,如节点分类、链接预测和图分类16.

图1展示了基于嵌入的网络对齐过程,其中源网络和目标网络代表不同的网络.假设已知节点1和节点a是等效节点,即它们指向现实中同一实体,称1,a为锚节点对或锚链.网络对齐任务的主要目标是发现源网络和目标网络中更多未知的锚节点对.基于嵌入的网络对齐方法的基本思想是采用嵌入技术来学习不同网络中节点的嵌入向量表示并将它们映射到同一向量空间中,之后通过计算向量之间的距离或相似度来构建对齐矩阵,以发现不同网络中节点之间的对应关系.

图1

图1   基于嵌入的网络对齐过程

Fig.1   Example of embedding⁃based network alignment process


基于网络嵌入的方法通常使用DeepWalk17,LINE18等算法来学习源网络和目标网络的节点嵌入向量,然而,由于嵌入空间是独立构造的,无法直接利用这些向量表示来计算对齐矩阵.为了解决这个问题,常用的方法是对嵌入矩阵进行线性变换或使用神经网络学习两个嵌入空间的映射关系,但将不同的嵌入空间映射到同一向量空间通常需要大量监督样本,计算成本高,应用过程中存在困难.这些困难主要源于两方面:一是监督样本的获取困难;二是不同网络之间存在结构和语义差异,早期的网络嵌入技术难以捕获节点深层的语义特征.结构差异指两个网络的节点数量不同,语义差异指等效节点的邻域结构不同.

近年来,GNN已被广泛应用于网络对齐任务.首先,GNN具有强大的泛化能力,适用于不同拓扑结构的网络;其次,GNN能捕捉图中节点之间的复杂关系,更好地理解正在对齐的网络的底层结构;此外,GNN中用来更新节点特征向量的权重参数可以共享,避免空间映射过程,大大降低了对齐问题的复杂性.这些优势使GNN成为目前解决网络对齐问题的强大工具.

虽然GNN在网络对齐方面有很大潜力,但仍然存在许多挑战.首先,过拟合是一个普遍存在的问题,导致GNN的性能下降,这可能由多种因素引起,如模型复杂度、训练次数和参数量等.为了避免过拟合,可以简化模型结构,但这样会降低GNN学习节点底层特征的能力,影响模型的泛化能力.鲁棒性是另一个问题.GNN依赖图结构,图中的微小变化可能导致模型输出的显著变化,然而,在网络数据中,噪声和结构缺失不可避免,会影响模型输出的节点表示的质量.最后,可扩展性也是一个需要考虑的问题.GNN计算成本高,难以扩展到大型网络.此外,在许多应用中,图中的所有嵌入必须定期重新计算.这些因素限制了GNN在现实场景中的适用性.

为了解决上述问题,提出一种快速鲁棒无监督网络对齐方法(Fast and Robust,FAROS),利用在粗图上训练的GNN模型来解决网络对齐问题.使用粗图可以更容易地训练GNN,并且内存需求更低.另外,粗图还可以提取网络中的重要节点和边,降低噪声数据对GNN训练的影响,有助于GNN学习更具鲁棒性的嵌入向量.FAROS算法包括几个步骤:首先,构造粗图,即保留原始网络主干结构的简化网络;然后,在粗图上训练GNN;最后,利用训练后的GNN预测两个网络中节点之间的对应关系.本文的主要贡献如下.

(1)提出一种利用粗图训练的GNN模型来解决网络对齐问题的方法,通过在粗图上训练GNN模型来提高算法的运行效率和鲁棒性.

(2)为了满足网络对齐任务的需求,采用多种策略来保证训练结果的可靠性,包括参数共享、多阶嵌入和基于伪锚链的自监督学习.这些策略的结合确保了对齐结果的准确性.

(3)在四个真实数据集上的实验结果表明,使用粗图训练的GNN所需的计算资源更少,能显著提高算法的运行效率和鲁棒性.此外,采用的训练方法也能保证算法的对齐精度.

1 相关工作

1.1 图粗化技术

图粗化(Graph Coarsening)是一种在保留原始图的关键特征的情形下显著减少图规模的技术.使用图粗化算法可以生成一个更简单的粗图,它具有更少的节点和边,所以对该图的分析和处理会更容易.图粗化的方法有很多种,包括基于匹配的方法、基于聚类的方法和基于谱的方法.

1.1.1 基于匹配的方法

基于匹配的方法是一种有效的图粗化方法,其主要思想是使用匹配规则来寻找相互匹配的节点,并通过互匹配的节点来构造超级节点.这一操作可以重复进行,直到没有节点能匹配或达到所需的粗化水平.通常可以根据图的固有特征制定相应的匹配规则,例如节点的度或节点共邻的数量.代表算法有重边匹配(Heavy Edge Matching,HEM)算法19、结构等价匹配(Structural Equivalence Matching,SEM)算法20和归一化重边匹配(Normalized Heavy Edge Matching,NHEM)算法21.其中,HEM算法采用贪心原则,依据边的权重来匹配合并相邻节点;SEM算法将具有相同结构的节点视为等价节点进行匹配;NHEM算法在HEM的基础上进行改进,通过对每个节点的边权重进行归一化处理使所有边权值的和为1,避免权重过大或过小而导致的匹配偏差.

1.1.2 基于聚类的方法

基于聚类的方法采用图聚类或社团检测算法,按照特定标准(如距离或模块度)将节点划分为不同的簇,使同一簇内节点的相似性尽可能大,同时,不同簇的节点差异性也尽可能大,然后递归地合并这些簇,直至达到所需的粗化水平.代表的图聚类算法有K⁃means22和高斯混合模型(Gaussian Mixture Model,GMM)23等.K⁃means是一种迭代求解的聚类分析算法,GMM是一种基于概率模型的聚类方法,代表的社团检测算法有鲁汶(Louvain)算法24等.

1.1.3 基于谱的方法

基于谱的图粗化方法的目的是保留原始图和粗图之间的谱特性.图中的谱通常指拉普拉斯(Laplacian)矩阵,用于在谱域上描述图结构和节点之间的关系.Loukas25提出一种基于受限谱逼近的多层次图粗化算法,可以在保持原始图结构特征不变的情况下将其缩减为更小规模的图.受限谱逼近是一种谱逼近方法,其主要思想是选择一个低维子空间,使得在该子空间中,原始图和粗图之间的谱距离最小化.

1.2 基于嵌入的网络对齐

基于嵌入的网络对齐是一种通过结合不同的嵌入技术解决网络对齐问题的方法,可以分为两类,即基于网络嵌入的方法和基于图神经网络的方法.

1.2.1 基于网络嵌入的方法

基于网络嵌入的方法使用DeepWalk17或LINE18等网络嵌入技术来学习不同网络中的节点表示.Man et al6提出PALE (Predicting Anchor Links via Embedding)算法,利用观测到的锚链为监督信息,结合LINE来捕捉不同网络之间的结构规律和相似性,并使用学习的嵌入向量来预测锚链.其中,锚链被视为网络中的关键节点,它们的位置和连接关系被用来指导嵌入向量的学习,通过这种方式PALE算法能更好地捕捉网络的结构和特征,提高预测的准确性和可靠性.Heimann et al7提出REGAL(Representation Based Graph Alignment)算法,通过扩展低秩矩阵近似的Nyström方法26和设置标准节点来加速表示学习,并通过Kd⁃tree方法27实现贪婪对齐.Nguyen et al8提出NAWAL (Network Alignment with Self⁃supervised Anchor Links)算法.首先,分别学习源网络和目标网络的节点向量表示;然后,使用生成对抗网络(Generative Adversarial Networks,GAN)28在无监督样本的情况下学习一个映射函数W,将两个网络的嵌入空间协调到一个公共空间中,在这个过程中,通过生成的伪锚链,利用Procrustes的封闭解29进一步优化嵌入;最后,采用贪婪启发式的方法进行对齐.Zhu et al30提出CAPER(Coarsen,Align,Project,Refine)算法,首先将输入网络粗化为不同粒度的网络,接着在最粗的网络上使用现有对齐算法(如REGAL)获得最粗的对齐矩阵,最后,将对齐结果进行逐层映射,最终得到最细层次的对齐矩阵.此外,CAPER在映射过程中,通过在不同粒度的对齐矩阵上使用CONE_Align31来改善对齐结果.CONE_Align提供了一种基于近邻一致性(Neighborhood Consistency)的优化方法来提高现有网络对齐算法的鲁棒性.具体地,如果已对齐的节点对具有相似的特征,则它们的邻居节点中很可能也存在相互对齐的节点.

1.2.2 基于图神经网络的方法

基于图神经网络的方法是利用图神经网络模型,例如图卷积网络(Graph Convolutional Network,GCN)32和图同构网络(Graph Isomorphic Network,GIN)33来学习不同网络中节点的表示,并通过学习到的特征向量推断不同网络中节点之间的相似性.Trung et al9提出GAlign算法,利用GCN学习节点的多阶嵌入.为了提高模型性能,GAlign设计了一种数据增强方法,主要通过对网络节点的边进行随机添加或删除操作来增加模型的鲁棒性和泛化能力,为网络对齐提供高质量的节点嵌入表示.Qin et al10提出G⁃CREWE (Graph CompRE⁃ssion with Embedding)算法,首先,利用GCN提取节点特征,获得原始网络的对齐结果;然后使用提出的MERGE (Minimum DEgRee NeiGhbors ComprEssion)方法对网络进行压缩,并在粗图上进行对齐;最后,将来自两种粒度网络的对齐结果合并,以实现高质量的对齐性能.Gao et al11提出WAlign算法,利用LGCN (Lightweight GCN)模型来捕获网络的局部和全局结构信息,获得高质量的节点特征向量,然后通过Wasserstein距离34鉴别器生成伪锚节点对,并在统一的优化框架下,利用对抗训练的方法迭代更新嵌入和鉴别器参数来提高对齐准确率.Park et al12提出Grade⁃Align算法,首先使用GIN生成嵌入向量并构建嵌入相似度矩阵,然后通过迭代的方式,融合嵌入相似度矩阵和不断更新的Tversky相似度矩阵来生成伪锚节点集合,逐步提高算法的对齐准确性.Tversky相似度35是一种基于集合的相似度计算方法,用于评估两个集合之间的相似程度.构造Tversky相似度矩阵的方法如下:首先,构建两个新图;接着,依据伪锚节点集合,将来自另一方的节点和相应的边加入到各自的图中;最后,计算不同图中两个节点邻域集合之间的Tversky系数,构造Tversky相似度矩阵.Lu et al13提出Bi_GANA (Bi⁃layer Graph Attention Neural Network for Network Alignment)算法,利用双层图注意力神经网络对多维用户特征和社交网络的局部和全局拓扑信息进行建模,通过不规则图和多维用户特征信息实现社交网络用户对齐问题.Huynh et al14提出NAME (Network Alignment with Multiple Embedding)算法,集成多种嵌入技术以创建更丰富、更准确的节点表示,并通过端到端的学习来实现高效对齐.

尽管GNN在网络对齐领域已取得了巨大的成功,但仍然存在一些缺陷.在处理大规模图数据时,GNN模型需要大量的计算和存储,限制了模型的规模和性能.同时,噪声数据会干扰GNN的学习过程,使模型无法准确地捕捉节点之间的关系和特征.为了解决这个问题,GNN模型可以使用数据增强技术来增加训练数据的数量,但数据增强也会增加噪声数据的数量,进一步干扰模型的训练.

针对这些问题,本文提出一种基于图神经网络的无监督网络对齐方法.与上述方法不同,该方法使用粗图训练GNN模型来加快训练速度、减少内存需求,并提高其应对噪声数据的能力.在粗图上训练GNN,可以使GNN在更小的数据集上训练,有效减少了模型参数,提高了训练效率.此外,粗图可以识别网络中的重要节点和边,为网络对齐提供更准确的信息,缓解因噪声数据给GNN模型训练带来的不稳定性和误差.

2 问题定义

本文的研究对象为两个属性网络.通常,一个无向的属性网络可表示为G=V,E,A,X.其中,集合V记录节点的索引信息.集合E记录边的信息,Eu,vVuv.矩阵AN×N为邻接矩阵,N=V,描述节点之间的连接关系.若u,vE,则Auv=Avu=1,反之,Auv=Avu=0.连接关系也可以用链接矩阵E2×E表示,其中,第一个列表是所有边上起始节点的索引,第二个列表是对应边上目标节点的索引.矩阵XN×f是属性矩阵,记录每个节点的初始特征向量,f为向量的维度.

网络对齐任务的目标是发现源网络和目标网络中的锚节点对.其中,锚节点对表示为:

anchors=a,baVs,bVt,ab

输入为源网络Gs=Vs,Es,As,Xs和目标网络Gt=Vt,Et,At,Xt.

输出为对齐矩阵SVs×Vt,其中,S用于衡量网络Gs中与网络Gt中的节点的相似程度.

3 FAROS算法

FAROS算法的框架如图2所示,分训练和推理两个阶段.在训练阶段,首先对两个网络进行粗化,然后在粗图上训练GNN模型参数.在推理阶段,将源网络和目标网络输入训练好的GNN模型,通过前向传播推断原始网络的节点向量表示并计算最终的相似矩阵.为了提高表示质量,FAROS引入基于伪锚节点对的自监督学习.具体地,通过首轮训练得到的多阶节点嵌入计算来对齐矩阵并采集伪锚节点对集合,然后传递给GNN模型用于下一轮的训练并获取新的对齐矩阵.本节首先介绍粗图的构造方法,然后介绍采用的GNN模型架构和训练方法,最后给出FAROS算法的描述.

图2

图2   FAROS算法的框架图

Fig.2   The overall framework of FAROS


3.1 网络粗化

训练GNN模型是一个昂贵的过程,尤其是在处理大型网络时.为了减少训练开销,本文采用粗图训练GNN模型,这样做主要有两个优点:第一,有效减少需要优化的参数的数量;第二,提取网络中最重要的主干结构,从而将训练过程集中在网络最重要的特征方面.因此,该方法不仅能提高模型的训练效率,还可以提高模型的鲁棒性.

由于结构噪声对图拉普拉斯矩阵的谱影响较小36,因此本文采用基于谱的粗化方法来简化网络结构.具体地,采用Loukas25的基于邻域的局部变化的图粗化方法,利用受限谱逼近方法来缩减图的大小,在不显著改变图的基本属性的情况下,具有很强的谱和割保证.因此,该方法可以有效地简化网络结构,同时保留原始图的关键谱(结构)特性.另外,该方法还提供参数r来控制输出粗图的规模,r=1-n/N,其中,N是原始图的节点数,n是粗图的节点数.算法的输出为粗图的邻接矩阵和分配矩阵MN×n,分配矩阵决定哪些邻居可以聚在一起形成超节点.根据分配矩阵可获得粗图的属性矩阵,计算如下:

Xc=MTX

算法1描述了网络结构粗化的过程,通过搜索连通子图并设置相应的阈值来减少数据噪声的影响,进一步过滤网络中的噪声数据.其中,下标*表示源网络和目标网络的st

算法1 网络粗化算法

输入:网络G*,压缩率r,阈值ξ

输出:粗图的特征和链接矩阵X*cE*c

1.提取G*的连通子图,按照子图的节点数量排序,获取待粗化子图列表;

2.循环处理每个子图,若子图的节点数量大于ξ,则进行图粗化操作,保存每个子图的粗图G*c和分配矩阵M*c

3.获取网络G*中每个节点的初始特征;

4.循环处理每个子图,得到该子图的原始节点索引和对应的特征;

5.若子图的节点数量大于ξ,则依据式(1)进行特征汇总;

6.记录粗化后的边信息;

7.返回X*cE*c

算法1的时间复杂度主要由处理子图的循环和处理特征的循环决定.假设有l个子图,每个子图的节点数为m,则处理子图的循环的时间复杂度为Olm2,处理特征的循环的时间复杂度为Olm.因此,算法1的时间复杂度为Olm2.

3.2 模型训练

网络对齐中,通过GNN学习节点的特征向量来构建对齐矩阵.一个标准的GNN模型37k个图卷积层组成,每个图卷积层通过消息传递策略来捕获网络的结构和属性信息38.从初始的特征H*(0)=X*开始,第k层的节点特征由第k-1层的相邻节点的特征聚合而成.具体地,设源网络或目标网络中的节点v在第k-1层的特征向量为h*k-1v,那么,第k层的图卷积可表示为:

h*kv=σh*k-1vW1k+uN(v)h*k-1uW2k

其中,下标*表示源网络和目标网络的stσ是激活函数,Nv是节点v的邻居节点集合,W1kW2k是第k层的需要学习的模型参数.

为了确保源网络和目标网络中的节点特征表示在相同的向量空间中,采用了权重共享机制,即使用相同的参数来更新每个节点的特征向量.此外,还采用多阶嵌入的方法9,可以更好地利用网络的局部和全局拓扑信息来增强模型的语义表示能力.

对齐矩阵S的计算如下:

S=kHskHtkΤ

尽管GNN可以捕捉网络之间的复杂关系,提高网络对齐算法的效率和精度,但其性能优势通常需要结合特定的任务设计模型架构并提供足够的监督样本才能体现.为了帮助GNN更好地识别两个网络中的节点之间的对应关系,利用自动生成的伪锚节点对集合,以迭代的方式训练GNN模型,提高最终对齐的准确率.

具体地,在首轮训练过程结束后,根据式(3)得到对齐矩阵,从中采集不同网络中节点之间的相似度,将结果以三元组i,j,Sij的形式保存到候选列表中并进行降序排序,其中,节点i是源网络的节点,节点j是目标网络的节点,Sij是其对应的相似度.接着,依序选择相似度最高的节点对加入伪锚节点对集合,并从候选列表中删除已加入伪锚节点对集合的节点的所有数据.最终,将得到的伪锚节点对集合传递给GNN模型用于下一轮训练.

在每一轮训练中,GNN模型都计算对齐矩阵并生成新的伪锚节点对集合,以帮助改善后续的表示学习过程.需要注意的是,本研究采用了一个渐进式采集策略,即逐步增加锚节点对的采集数量,能更好地控制训练的复杂性和效率.

模型训练的目标函数由两部分组成,分别是:

𝓁1k=*s,tkD˜*k-1/2A˜*kD˜*k-1/2-H*kH*kΤF

其中,F是Frobenius范数;A˜*k=l=1kA^*lA^*=A*+I*A^*是加入自边的邻接矩阵,I*是单位阵;D˜*k是对角矩阵,D˜*ki,i=jA˜*ki,j是第i个对角元素.

式(4)的目标函数用于计算预测的链接矩阵与实际的链接矩阵之间的误差.其中,用于聚合节点嵌入的矩阵A˜*k不是固定的,目的是最小化相同卷积层节点嵌入的距离,同时最大化不同卷积层嵌入之间的距离,从而能更精确地捕获一阶和高阶邻域结构.

𝓁2k=a,bPHsa-Htb

其中,P是伪锚节点对集合.

式(5)的目标函数是让每层的伪锚节点对的嵌入在表示空间中趋于相似,因为真实的锚节点对应有相似的嵌入.换言之,通过调整嵌入向量,使同一组锚节点在不同的层中的嵌入具有相似性,从而提升最终对齐结果的准确性和可靠性.

3.3 算法描述

FAROS的具体描述如下.

算法2 FAROS算法

输入:GsGtiterationepoch

输出:对齐矩阵S

1.Xsc,EscGs

2.Xtc,EtcGt

3.for some iteration do

4.for some epoch do

5.Hs1,,HskGNNXsc,Esc;θ;

6.Ht1,,HtkGNNXtc,Etc;θ;

7.如果P为空,则依据式(4)计算目标函数;否则,依据式(4)+式(5)计算目标函数;

8.反向传播更新模型参数θ

9.通过式(3)计算对齐矩阵S'

10.基于S'更新伪锚节点对集合P

11.Hs1,,HskGNNGs;θ;

12.Ht1,,HtkGNNGt;θ;

13.通过式(3)计算对齐矩阵S.

算法2中,GNN前向传播的时间复杂度为OA*,反向传播的时间复杂度为OH*2.n是粗图的节点数,获取伪锚节点的时间复杂度为On3+n2+nlgn=On3.

4 实验

首先介绍实验采用的数据集、对比算法、评价指标和实验参数设置,然后通过多组实验来验证FAROS算法的性能.

4.1 数据集

使用四个数据集进行实验,每个数据集包含两个来自真实网络的节点、边和节点属性信息文件.

douban数据集来自豆瓣网,包括douban online/offline39,其中节点代表用户.douban online中,边代表用户之间是否互为好友,douban offline中,边代表用户是否参加了同一场线下活动.allmv/imdb数据集来自Rotten Tomatoes网站和Imdb网站,其中节点代表电影,边代表两部电影至少有一位共同演员.flickr,myspace和lastfm数据集均来自社交网络平台,其中节点表示用户,边代表用户之间的交互关系.

表1列出了这些数据集的详细统计信息.

表1   实验使用的数据集的统计信息

Table 1  Statistical information of the datasets used in experiments

数据集节点数边数属性维度锚链接数平均度最大度最小度聚类系数
douban online/offline3906/11188164/151153811184.18/2.7097/261/10.0404/0.0866
allmv/imdb6011/5713124709/11907314517541.49/41.68159/1571/10.3813/0.3833
flickr/myspace6714/107337333/1108132672.18/2.06639/1641/10.0014/0.0
flickr/lastfm12974/1543616149/1631934512.49/2.11868/9761/10.0087/0.0129

新窗口打开| 下载CSV


4.2 对比算法

选择五种无监督的网络对齐算法作为对比算法.

REGAL7首先将源网络和目标网络组合起来,然后利用隐式矩阵分解方法(xNetMF)进行联合嵌入,得到节点表示向量,最后使用贪婪匹配的方法对齐不同网络间的节点.

GAlign9使用GCN学习两个网络中每个节点的多阶嵌入,然后根据不同卷积层输出的节点表示向量的相似性计算多个对齐矩阵,最终通过融合多个对齐矩阵实现节点对齐.

NAWAL8首先利用Node2Vec39算法学习节点的特征表示,然后使用自监督锚链接来实时更新节点的嵌入向量,并通过最大化锚链接之间的相似性来实现对齐.

WAlign11首先通过LGCN模型来学习节点的嵌入向量,然后利用一种新颖的Wasserstein距离鉴别器来识别用于更新节点嵌入的候选节点对,最后通过自监督的对抗学习得到适合对齐任务的嵌入.

Grad⁃Align12使用GIN学习节点的特征向量,然后融合嵌入向量相似性和节点结构的Tversky相似性.逐步发现强一致性的节点对,以便更好地捕获跨网络的节点的一致性.

4.3 评价指标和共同参数设置

为了评估算法的性能,使用两个度量指标来衡量网络对齐结果的优劣,分别是MAP (Mean Average Precision)9Precision@K911.具体地:

MAP=1P*i1ri

其中,P*是真实的锚节点对集合,ri是真实的锚目标节点的排名.

Precision@K=vs*VsvtVtkvs*ΙAvs*,vtP*P*

其中,Vtkvs*是从目标网络节点集合Vt中选取的一个子集,即对于源网络中的每个节点vs,找出目标网络中与之对应的靶节点,这些靶节点是在Svs*,中具有最高相似度得分的前K个节点.ΙA是指示函数(Indicator Function),用于判断节点对vs*,vt是否属于真实锚点对集合P*,如果属于,其值为1,否则其值为0.

为了确保实验的公正性,选择文献中的默认参数作为对比算法的参数.在初始化共同参数时,FAROS和对比算法的参数使用相同的数值.其中,嵌入维度d设为128,卷积层数k设为2,中间层维度与嵌入维度相同.使用tanh激活函数.使用学习率为0.005的Adam优化器进行模型优化,并将权重衰减率设为5×10-4.对于FAROS算法,网络压缩率r设为0.7.

实验环境:Windows 10,16 G内存,Intel(R) CPU i7⁃4790 @ 3.60 GHz.编程语言为Python,基于Pytorch深度学习框架实现GNN模型.

4.4 对比实验

通过实验观察FAROS和对比方法在网络对齐任务上的性能差异,表2展示了不同方法在相同实验条件下四个数据集上的MAP和运行时间,表中黑体字表示最优结果,下画线表示次优结果.

表2   FAROS和对比方法在四个数据集上的MAP和运行时间的比较

Table 2  MAP and running time of FAROS and baselines on the four datasets

数据集评价指标REGALGAlignNAWALWAlignGrad⁃AlignFAROS
doubanMAP0.10050.55180.00510.30040.58430.6504
Time (s)13.0066.82623.29172.11239.5318.99
allmv/imdbMAP0.18870.75370.00120.62050.80940.7830
Time (s)62.10511.421731.96539.045674.63175.73
flickr/myspaceMAP0.01320.01110.00060.01680.00560.0317
Time (s)49.13587.692068.85933.9114327.69113.49
flickr/lastfmMAP0.00730.01020.00000.00730.00400.0372
Time (s)87.951570.024389.222685.8954327.69302.82

新窗口打开| 下载CSV


由表可见,在四个数据集上的计算效率,REGAL最优.在基于GNN的对比方法中,GAlign表现最优.除了douban数据集,Grad⁃Align是最慢的方法,比其他方法多花费几个数量级的时间.NAWAL和WAlign都采用基于伪锚链的对抗自监督学习改善最终的节点嵌入,但二者的训练目标不同,前者将不同网络的特征向量空间映射到同一个语义空间,后者使节点嵌入向量之间的Wasserstein距离最小化,很明显,引入对抗机制增加了算法的运行时间.Grad⁃Align通过嵌入相似度和Tversky相似度来生成强关联的节点对,并采用图增强策略迭代计算Tversky相似度矩阵,以更精确地识别不同网络间的节点对应关系.然而,该策略不仅对内存空间需求大,还极大地增加了算法的运行时间.FAROS在计算效率上有明显优势,虽然为了提高网络对齐精度而采用了基于伪锚链的自监督学习,但使用粗图的训练方式弥补了自监督学习给算法效率带来的影响.与GAlign相比,在douban数据集上,FAROS的运行时间减少71.58%;在allmv/imdb数据集上,FAROS的运行时间减少65.64%;在flickr/myspace数据集上,FAROS的运行时间减少80.69%;在flickr/lastfm数据集上,FAROS的运行时间减少80.71%.实验结果表明,FAROS的计算效率十分出色,而且,随着网络规模的增大,这种优势会越来越明显.

对齐性能,不同方法在四个数据集上的MAP存在明显差异.NAWAL在所有方法中表现最差,几乎是随机对齐,这是由于采用DeepWalk生成节点的嵌入向量,构造的伪锚链不准确,使对齐结果不理想.基于GNN的网络对齐方法都表现良好.FAROS除了在allmv/imdb数据集上的MAP略低于Grad⁃Align外,在其他数据集上都取得了最优结果.实验结果表明,在对齐性能方面,与对比方法相比,FAROS具备一定的优势.

为了进一步验证FAROS在网络对齐任务中的性能优势,在相同的实验条件下,使用Precision@K来评估不同方法的性能差异,实验结果如表3~6所示,表中黑体字表示最优结果,下画线表示次优结果.

表3   douban online/offline数据集上FAROS算法与对比算法的Precision@K对比

Table 3  Precision@K of FAROS and baselines on the douban online/offline dataset

Precision@K151015202530
REGAL0.04470.13600.20300.25760.30680.34350.3739
GAlign0.44190.67800.78000.83270.86850.89090.9114
NAWAL0.00000.00270.00360.00720.00890.01070.0179
WAlign0.20390.38820.49460.56530.61360.65470.6816
Grad⁃Align0.47940.70840.77370.81130.83180.85150.8649
FAROS0.53580.75490.84350.88730.91060.92040.9275

新窗口打开| 下载CSV


表4   allmv/imdb数据集上FAROS算法与对比算法的Precision@K对比

Table 4  Precision@K of FAROS and baselines on the allmv/imdb dataset

Precision@K151015202530
REGAL0.09510.26850.38680.46720.52800.56820.6049
GAlign0.69820.81840.85490.87250.88580.89680.9061
NAWAL0.00020.00020.00080.00140.00190.00270.0035
WAlign0.53840.71120.77200.80530.82610.84200.8551
Grad⁃Align0.70810.93700.96000.96540.97080.97280.9745
FAROS0.72330.85160.88780.90650.91920.92790.9353

新窗口打开| 下载CSV


表5   flickr/myspace数据集上FAROS算法与对比算法的Precision@K对比

Table 5  Precision@K of FAROS and baselines on the flickr/myspace dataset

Precision@K151015202530
REGAL0.00370.01120.01120.02250.03750.05620.0562
GAlign0.00000.00750.01870.03750.04490.04870.0674
NAWAL0.00000.00000.00000.00000.00000.00000.0000
WAlign0.00370.00750.03750.04120.05240.07870.0861
Grad⁃Align0.00750.01120.01500.02250.04120.05240.0562
FAROS0.01120.02620.04870.05620.08240.09740.1049

新窗口打开| 下载CSV


表6   flickr/lastfm数据集上FAROS算法与对比算法的Precision@K对比

Table 6  Precision@K of FAROS and baselines on the flickr/lastfm dataset

Precision@K151015202530
REGAL0.00000.00220.00670.01770.02440.04430.0554
GAlign0.00440.00440.01550.02000.02440.03100.0377
NAWAL0.00000.00000.00000.00000.00000.00000.0000
WAlign0.00000.00440.01330.02000.02660.03100.0377
Grad⁃Align0.00440.02880.05100.07100.09530.11530.1397
FAROS0.01330.03550.07320.11090.14630.18400.1973

新窗口打开| 下载CSV


由表3~6可见,在实验条件相同而K不同时,基于图神经网络的GAlign,WAlign和Grad⁃Align算法性能稳定,表现较好.其中,Grad⁃Align的对齐性能总体上优于其他对比算法.除了allmv/imdb数据集,FAROS均表现出最优的性能.以Precision@5为例,Grad⁃Align结果均为次优,与其相比,FAROS的性能在douban数据集上提升6.56%,在allmv/imdb数据集上下降9.11%.这是allmv/imdb的聚类系数过高导致的.网络的聚类系数较高时,节点之间的连接较紧密,网络的局部结构较复杂,粗化后的网络可能会丢失一些重要的局部信息;网络的聚类系数较低时,节点之间的连接较稀疏,网络的局部结构较简单,粗化后的网络可能会保留更多的局部信息.因此,在进行网络粗化时需考虑网络的聚类系数及其他网络特征以获得更好的粗化效果.以Precision@5为例,与Grad⁃Align相比,FAROS的性能在flickr/myspace数据集上提升133.92%,在flickr/lastfm数据集上提升23.26%.综合来看,在不同规模的数据集中,FAROS模型的运行时间和对齐精度都表现出优越的性能.

4.5 性能分析

使用粗图训练GNN可以有效减少需要优化的参数量,提高训练效率,前提是不能使算法精度下降.为了验证这一点,调整参数r,分别对四个数据集中的网络实施不同程度的压缩,观察FAROS算法的性能变化.实验中保持其他参数不变,将参数r的数值由0变为0.8,调整步长为0.2,选取Precision@K(简称P@K)作为评估指标,实验结果如表7~10所示,表中粗体字表示最优结果,下画线表示次优结果.

表7   在douban online/offline数据集上FAROS算法在压缩比不同时的P@K对比

Table 7  P@K of FAROS with different compression ratios on douban online/offline dataset

参数r节点数运行时间(s)P@1P@5P@10P@15P@20P@25P@30
03096/1118104.430.53490.76390.84620.87750.91060.93470.9428
0.23125/89569.910.53310.76210.83900.88550.90880.93110.9436
0.42344/67144.840.52680.75220.84080.88100.92040.93200.9445
0.61563/44925.030.53850.76650.84970.88280.91320.92840.9410
0.8782/22413.950.52240.75850.84080.87480.90700.91950.9302

新窗口打开| 下载CSV


表8   allmv/imdb数据集上FAROS算法在压缩比不同时的P@K对比

Table 8  P@K of FAROS with different compression ratios on allmv/imdb dataset

参数r节点数运行时间(s)P@1P@5P@10P@15P@20P@25P@30
06011/57131212.400.70730.84950.88780.90750.92140.93060.9374
0.24809/4571794.710.72530.85160.88680.90820.92140.93010.9361
0.43607/3428494.160.72430.85180.89060.91020.92080.92930.9368
0.62405/2286233.320.72430.85700.89200.91090.92250.93060.9364
0.81203/1143130.000.71620.85030.88600.90490.91770.92640.9355

新窗口打开| 下载CSV


表9   flickr/myspace数据集上FAROS算法在压缩比不同时的P@K对比

Table 9  P@K of FAROS with different compression ratios on the flickr/myspace dataset

参数r节点数运行时间(s)P@1P@5P@10P@15P@20P@25P@30
06714/107331223.030.01120.02620.04870.06740.07870.09740.1049
0.25372/8587775.850.00750.02250.03370.05240.06370.07870.1011
0.44029/6440426.750.00750.01870.02620.03750.04120.04870.0824
0.62686/4294191.730.01500.02250.04120.05990.06740.08610.1011
0.81343/214755.760.00750.00750.00750.02250.05620.06370.0787

新窗口打开| 下载CSV


表10   flickr/lastfm数据集上FAROS算法在压缩比不同时的P@K对比

Table 10  P@K of FAROS with different compression ratios on the flickr/lastfm dataset.

参数r节点数运行时间(s)P@1P@5P@10P@15P@20P@25P@30
012974/154363687.230.01110.03100.07100.10860.13970.17290.1929
0.210380/123492259.770.00440.03990.06650.10420.15520.19290.2151
0.47785/92621194.050.00670.03100.07320.11970.15300.18630.2062
0.65190/6175535.100.00670.03770.07540.11530.13530.16190.1951
0.82595/3088140.940.00890.03100.06870.11090.13530.16850.1907

新窗口打开| 下载CSV


由表7~10可见,在其他参数相同时,随着网络规模的减小,GNN的训练速度有显著的提高.压缩程度为0.8时,P@K可能会有所下降,但下降的幅度不大,而且在不同数据集上的下降幅度也不同.比较FAROS算法在未压缩与压缩的数据集上的运行时间和P@5,参数r=0.6时,在压缩后的网络中,节点数量约为原始网络的1/6.在douban,allmv/imdb,flickr/myspace和flickr/lastfm数据集上,FAROS算法在未压缩数据集上的运行时间分别是在压缩数据集上的4,5,6,7倍.同时,P@5在douban数据集上增加了0.34%,在allmv/imdb数据集上增加了0.88%,在flickr/my⁃space数据集上减少了14.12%,在flickr/lastfm数据集上增加了21.61%.由于网络压缩率和准确性之间没有确定的关系,因此FAROS算法需要对两者作出权衡.但是,当网络规模被适度压缩后,P@K可能会有所提升,这可能是因为GNN模型具有较强的泛化能力,同时网络的粗化过程有助于减少数据中的噪声,使GNN的训练过程更加集中在网络的重要特征上.实验结果表明,较大程度的网络压缩不会对算法的性能产生太大的影响,反而可能提高算法的准确性.因此,使用粗粒度的网络训练GNN可以在一定程度上减少需要优化的模型参数量,同时又不会对算法精度造成太大影响.

对算法的鲁棒性进行验证,通过给网络删除或添加边来模拟结构噪声.一般地,随着噪声的增加,算法的精度会下降.实验中保持其他参数不变,将参数r设置为0.7,并在四个数据集上随机删除或添加固定比例的边,比例分别为0.02,0.04,0.06,0.08,0.1,0.2.使用P@5作为评估指标,实验结果见图3图4.

图3

图3   在四个数据集上对FAROS算法移除不同比例边的P@5的对比

Fig.3   P@5 of FAROS with different ratios of edges removed on four datasets


图4

图4   在四个数据集上对FAROS算法添加不同比例边的P@5的对比

Fig.4   P@5 of FAROS with different ratios of edges added on four datasets


由图可见,随着噪声幅度的增加,无论是删除还是添加边,P@5均有微小波动,但没有明显变化.在douban数据集上,当添加边的比例增至0.2时,P@5略微下降,与添加0.02的边相比,下降率仅为2.1%,证明基于粗图的训练策略可以在一定程度上消除噪声数据对GNN模型的影响并保持稳定的对齐性能,也证明其具备较强的鲁棒性.综合来看,由于在粗图上训练图神经网络需要的计算资源更少,其能达到与在精细图上训练的图神经网络相似的性能.

4.6 消融实验

探究不同的GNN模型和网络粗化策略对FAROS性能的影响.首先使用三种常见的卷积图神经网络模型,分别是GCN32,GraphSAGE40和GIN33来替换本文中的GNN模型.实验结果如图5所示.

图5

图5   FAROS使用不同GNN模型的P@5对比

Fig.5   P@5 of FAROS with different GNN models


由图可见,使用不同的图神经网络训练的嵌入向量进行网络对齐时,FAROS在不同数据集上的性能表现不同.尽管在总体上,FAROS采用GNN模型的网络对齐任务的准确率优于其他图神经网络模型,表现稳定,但这并不意味着该模型比其他模型更适合网络对齐任务.事实上,影响GNN性能的因素很多,而且图神经网络的训练过程不简单,为了获得最佳性能需要精心调整GNN的学习率、层数和每层神经元的数量以及训练策略的选择.因此,使用GNN进行网络对齐是一项具有挑战性的任务,需要仔细调整各种参数.

采用三种其他粗化方法替代本文使用的粗化方法(variation_neighborhoods),分别是基于代数多重网格的粗化算法(algebraic_jacobi)41,基于重边匹配的粗化算法(heavy_edge)42和基于Kron简化的粗化算法(kron)43.实验结果如图6所示.

图6

图6   FAROS使用不同粗化方法的P@5对比

Fig.6   P@5 of FAROS with different coarsening methods


由图可见,不同的粗化算法对算法的对齐结果的影响较小.总体上,本文采用的粗化策略十分有效,特别是在噪声数据较多的flickr/myspace数据集上,其性能比次优的algebraic_jacobi方法高28.57%.这可能是因为本文使用的粗化策略能更好地处理噪声数据,还能更准确地捕捉节点之间的语义关系.

5 结论

为了提高GNN的运行效率并缓解噪声数据对GNN性能的影响,本文提出一种快速鲁棒的无监督网络对齐方法FAROS,利用GNN学习不同网络间节点的相似性,并将其用于网络对齐任务.与其他基于GNN的网络对齐方法相比,FAROS使用粗图来训练GNN模型参数,提高了算法的效率和鲁棒性.此外,FAROS还采用多种策略来实现可靠的训练,以适应网络对齐任务的需求,有效保证了对齐结果的准确性.在基准数据集上进行了广泛实验,证明FAROS的有效性、效率和鲁棒性都具有优越性.

总体上,FAROS在保障对齐任务准确性的同时,还具有更高的时间和空间效率,使其能有效部署在一系列现实环境中.然而,由于粗图中可用的训练数据量有限,GNN超参数的选择通常很困难,仍需进一步提高其在网络对齐任务中的性能.未来可以探索更多的图粗化算法和超参数调整策略,进一步提高GNN在网络对齐任务中的性能和鲁棒性.

参考文献

Trung H TToan N TVan Tong Vet al.

A comparative study on network alignment techniques

Expert Systems with Applications,2020(140):112883.

[本文引用: 1]

Ren J QJiang LPeng Het al.

Cross⁃network social user embedding with hybrid differential privacy guarantees

Proceedings of the 31st ACM Inter⁃national Conference on Information & Knowledge Management. Atlanta,GA,USAACM20221685-1695.

[本文引用: 1]

Gu SMilenković T.

Data⁃driven biological network alignment that uses topological,sequence,and functional information

BMC Bioinformatics,202122(1):34.

[本文引用: 1]

Chakrabarti SSingh HLohiya Set al.

Joint completion and alignment of multilingual knowledge graphs

Proceedings of 2022 Conference on Empirical Methods in Natural Language Processing. Abu Dhabi,United Arab EmiratesAssociation for Computational Linguistics202211922-11938.

[本文引用: 1]

Zhang STong H H.

Attributed network alignment:Problem definitions and fast solutions

IEEE Transactions on Knowledge and Data Engineering,201931(9):1680-1692.

[本文引用: 1]

Man TShen H WLiu S Het al.

Predict anchor links across social networks via an embedding approach

Proceedings of the 25th International Joint Conference on Artificial Intelligence. New York,NY,USAAAAI Press20161823-1829.

[本文引用: 2]

Heimann MShen H MSafavi Tet al.

REGAL:Representation learning⁃based graph alignment

Proceedings of the 27th ACM International Conference on Information and Knowledge Management. Torino,ItalyACM2018117-126.

[本文引用: 2]

Nguyen T TPham M TNguyen T Tet al.

Structural representation learning for network alignment with self⁃supervised anchor links

Expert Systems with Applications,2021(165):113857.

[本文引用: 3]

Trung H TVan Vinh TTam N Tet al.

Adaptive network alignment with unsupervised and multi⁃order convolutional networks

Proceedings of the IEEE 36th International Conference on Data Engineering. Dallas,TX,USAIEEE202085-96.

[本文引用: 6]

Qin K KSalim F DRen Y Let al.

G⁃CREWE:Graph compression with embedding for network alignment

Proceedings of the 29th ACM Interna⁃tional Conference on Information & Knowledge Management. OnlineACM20201255-1264.

[本文引用: 1]

Gao JHuang XLi J D.

Unsupervised graph alignment with wasserstein distance discriminator

Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining. SingaporeACM2021426-435.

[本文引用: 3]

Park J DTran CShin W Yet al. Grad⁃align:Gradual network alignment via graph neural networks (student abstract)∥Proceedings of the 36th AAAI Conference on Artificial Intelligence. OnlineAAAI202213027-13028.

[本文引用: 2]

Lu M LDai Y LZhang Z Q.

Social network alignment:A bi⁃layer graph attention neural networks based method

Applied Intelligence,202252(14):16310-16333.

[本文引用: 1]

Huynh T TChi T DNguyen T Tet al.

Network alignment with holistic embeddings

IEEE Transactions on Knowledge and Data Engineering,202335(2):1881-1894.

[本文引用: 2]

Zhou J YLiu LWei W Qet al.

Network representation learning:From preprocessing,feature extraction to node embedding

ACM Computing Surveys,202355(2):38.

[本文引用: 1]

Xie Y CXu ZZhang J Tet al.

Self⁃supervised learning of graph neural networks:A unified review

IEEE Transactions on Pattern Analysis and Machine Intelligence,202345(2):2412-2429.

[本文引用: 1]

Perozzi BAl⁃Rfou RSkiena S.

DeepWalk:Online learning of social representations

Proceedings of the 20th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. New York,NY,USAACM2014701-710.

[本文引用: 2]

Tang JQu MWang M Zet al.

LINE:Large⁃scale information network embedding

Proceedings of the 24th International Conference on World Wide Web. Florence,ItalyACM20151067-1077.

[本文引用: 2]

Küçükpetek SPolat FOğuztüzün H.

Multilevel graph partitioning:An evolutionary approach

Journal of the Operational Research Society,200556(5):549-562.

[本文引用: 1]

Akyildiz T AAljundi A AKaya K.

Understanding coarsening for embedding large⁃scale graphs

Proceedings of 2020 IEEE International Conference on Big Data. Atlanta,GA,USAIEEE20202937-2946.

[本文引用: 1]

Yang DGe Y RNguyen Tet al.

Structural equivalence in subgraph matching

IEEE Transactions on Network Science and Engineering,202310(4):1846-1862.

[本文引用: 1]

Yang M SHussain I.

Unsupervised multi⁃view K⁃means clustering algorithm

IEEE Access,2023(11):13574-13593.

[本文引用: 1]

Niknam GMolaei SZare Het al.

Graph representation learning based on deep generative gaussian mixture models

Neurocomputing,2023(523):157-169.

[本文引用: 1]

Sattar N SArifuzzaman S.

Scalable distributed Louvain algorithm for community detection in large graphs

The Journal of Supercomputing,202278(7):10275-10309.

[本文引用: 1]

Loukas A.

Graph reduction with spectral and cut guarantees

Journal of Machine Learning Research,201920(116):1-42.

[本文引用: 2]

Drineas PMahoney M W.

On the Nyström method for approximating a gram matrix for improved kernel⁃based learning

The Journal of Machine Learning Research,2005(6):2153-2175.

[本文引用: 1]

Abudalfa SMikki M.

A dynamic linkage clustering using KD⁃tree

The International Arab Journal of Information Technology201310(3):283-289.

[本文引用: 1]

Goodfellow I JPouget⁃Abadie JMirza Met al.

Generative adversarial networks

Communications of the ACM,202063(11):139-144.

[本文引用: 1]

Schönemann P H.

A generalized solution of the orthogonal procrustes problem

Psychometrika,196631(1):1-10.

[本文引用: 1]

Zhu JKoutra DHeimann M.

CAPER:Coarsen,align,project,refine:A general multilevel framework for network alignment

Proceedings of the 31st ACM International Conference on Information & Knowledge Management. Atlanta,GA,USAACM20224747-4751.

[本文引用: 1]

Chen X YHeimann MVahedian Fet al.

CONE⁃Align:Consistent network alignment with proximity⁃preserving node embedding

Proceedings of the 29th ACM International Conference on Information & Knowledge Management. OnlineACM20201985-1988.

[本文引用: 1]

Kipf T NWelling M.

Semi⁃supervised classification with graph convolutional networks

2016,arXiv:.

[本文引用: 2]

Xu KHu W HLeskovec Jet al.

How powerful are graph neural networks?

2018,arXiv:.

[本文引用: 2]

Shi H THuang C ZZhang X Cet al.

Wasserstein distance based multi⁃scale adversarial domain adaptation method for remaining useful life prediction

Applied Intelligence,202353(3):3622-3637.

[本文引用: 1]

Wu M JVogt MMaggiora G Met al.

Design of chemical space networks on the basis of Tversky similarity

Journal of Computer⁃Aided Molecular Design,201630(1):1-12.

[本文引用: 1]

Béthune LKaloga YBorgnat Pet al.

Hierarchical and unsupervised graph representation learning with Loukas's coarsening

Algorithms,202013(9):206.

[本文引用: 1]

Morris CRitzert MFey Met al.

Weisfeiler and leman go neural:Higher⁃order graph neural networks

Proceedings of the 33rd AAAI Conference on Artificial Intelligence. Honolulu,HI,USAAAAI Press20194602-4609.

[本文引用: 1]

Wu ZHPan SRChen FWet al.

A comprehensive survey on graph neural networks

IEEE Transactions on Neural Networks and Learning Systems,202132(1):4-24.

[本文引用: 1]

Zhang STong HH.

FINAL:Fast attributed network alignment

Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco,CA,USAACM20161345-1354.

[本文引用: 2]

Grover ALeskovec J.

node2vec:Scalable feature learning for networks

Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Francisco,CA,USAACM2016855-864.

[本文引用: 1]

Ron DSafro IBrandt A.

Relaxation⁃based coarsening and multiscale graph organization

Multiscale Modeling & Simulation,20119(1):407-423.

[本文引用: 1]

Dhillon I SGuan Y QKulis B.

Weighted graph cuts without eigenvectors a multilevel approach

IEEE Transactions on Pattern Analysis and Machine Intelligence,200729(11):1944-1957.

[本文引用: 1]

Shuman D IFaraji M JVandergheynst P.

A multiscale pyramid transform for graph signals

IEEE Transactions on Signal Processing,201664(8):2119-2134.

[本文引用: 1]

/