Processing math: 0%
基于嵌入对齐与参数激活的个性化联邦子图学习
卢恬英1,2,3, 钟璐英1,2,3, 廖诗灵1,2,3, 于正欣4, 苗旺5, 陈哲毅1,2,3
1.福州大学 计算机与大数据学院 福州 350116
2.福州大学 大数据智能教育部工程研究中心 福州 350002
3.福州大学 福建省网络计算与智能信息处理重点实验室 福州 350116
4.School of Computing and Communications, Lancaster University, Lancaster LA1 4YW, UK
5.Department of Computer Science, University of Exeter, Exeter EX4 4QF, UK
通讯作者:

陈哲毅,博士,教授,主要研究方向为云边协同计算、资源优化、深度学习、强化学习.E-mail:z.chen@fzu.edu.cn.

作者简介:

卢恬英,硕士研究生,主要研究方向为边缘计算、联邦学习.E-mail:2845253612@qq.com.

钟璐英,博士研究生,主要研究方向为边缘计算、联邦图学习.E-mail:luyingzhongfzu@163.com.

廖诗灵,硕士研究生,主要研究方向为边缘计算、联邦学习.E-mail:1923238594@qq.com.

于正欣,博士,讲师,主要研究方向为边缘计算、联邦深度学习.E-mail:z.yu8@lancaster.ac.uk.

苗 旺,博士,讲师,主要研究方向为软件定义网络、网络功能虚拟化、移动边缘计算.E-mail:wang.miao@exeter.ac.uk.
第二十七届中国科协年会学术论文

摘要

融合子图学习与联邦学习后,联邦子图学习在保护数据隐私的同时可实现多客户端子图信息之间的协同学习.然而,由于不同客户端的数据收集方式存在差异,图数据通常呈现非独立同分布特性.同时,不同客户端局部图数据的结构和特征也存在较大差异.这些因素导致联邦子图学习在训练过程中出现收敛困难和泛化能较差等问题.为了解决此问题,文中提出基于嵌入对齐与参数激活的个性化联邦子图学习方法(Personalized Federated Subgraph Learning with Embedding Alignment and Parameter Activation, FSL-EAPA).首先,根据客户端之间的相似性进行个性化模型聚合,降低数据非独立同分布对整体性能的影响.然后,引入参数选择性激活进行模型更新,应对子图结构特征的异质性.最后,利用更新后的客户端为各本地节点嵌入提供正负聚类表示,聚集同类局部节点.因此,FSL-EAPA能充分学习各节点的特征表示,较好地适应不同客户端之间的差异化数据分布.在真实基准图数据集上的实验表明FSL-EAPA的有效性,并且在不同场景下都能获得较高的分类精度.

关键词: 联邦子图学习; 个性化模型聚合; 参数选择性激活; 节点嵌入对齐
中图分类号:TP393
Personalized Federated Subgraph Learning with Embedding Alignment and Parameter Activation
LU Tianying1,2,3, ZHONG Luying1,2,3, LIAO Shiling1,2,3, YU Zhengxin4, MIAO Wang5, CHEN Zheyi1,2,3
1. College of Computer and Data Science, Fuzhou University, Fuzhou 350116
2. Engineering Research Center of Big Data Intelligence of Ministry of Education, Fuzhou University, Fuzhou 350002
3. Fujian Key Laboratory of Network Computing and Intelligent Information Processing, Fuzhou University, Fuzhou 350116
4. School of Computing and Communications, Lancaster University, Lancaster LA1 4YW, UK
5. Department of Computer Science, University of Exeter, Exeter EX4 4QF, UK
Corresponding author:
CHEN Zheyi, Ph.D., professor. His research interests include cloud-edge collaborative computing, resource optimization, deep learning and reinforcement learning.

About Author:
LU Tianying, Master student. Her research interests include edge computing and federated learning.
ZHONG Luying, Ph.D. candidate. Her research interests include edge computing and federated graph learning.
LIAO Shiling, Master student. Her research interests include edge computing and federated learning.
YU Zhengxin, Ph.D., lecturer. Her research interests include edge computing and federated deep learning.
MIAO Wang, Ph.D., lecturer. His re⁃search interests include software defined net⁃works, network function virtualization, and mobile edge computing.
Academic Papers of the 27th Annual Meeting of the China Association for Science and Technology

Abstract

By integrating subgraph learning and federated learning, federated subgraph learning achieves collaborative learning of subgraph information across multiple clients while protecting data privacy. However, due to different data collection methods of clients, graph data typically exhibits the non-independent and identically distributed(Non-IID) characteristics. Meanwhile, there are significant differences in the structure and features of local graph data across clients. These factors lead to difficult convergence and poor generalization during the training of federated subgraph learning. To solve these problems, a personalized federated subgraph learning framework with embedding alignment and parameter activation(FSL-EAPA) is proposed. First, the personalized model aggregation is performed based on the similarity between clients to reduce the interference of Non-IID data on the overall model performance. Next,the parameter selective activation is introduced during model updates to handle the heterogeneity of subgraph structural features. Finally, the updated client models are utilized to provide positive and negative clustering representations for local node embeddings to aggregate the local nodes with the same class. Thus, FSL-EAPA can fully learn feature representations of nodes, and thereby better adapts to the heterogeneous data distributions across different clients. Experiments on real-world benchmark graph datasets validate the effectiveness of FSL-EAPA. The results show that FSL-EAPA achieves higher classification accuracy under various scenarios.

Key words: Federated Subgraph Learning; Personalized Model Aggregation; Parameter Selective Activation; Node Embedding Alignment

图学习具有强大的表达能力, 可模拟和分析实体之间复杂多样的关系及其交互行为, 已广泛应用于现实世界中的各种场景, 如社交网络、生物医学、推荐系统等[1].在图学习领域, 图神经网络(Graph Neural Network, GNN)因其在处理图相关任务上的卓越性能而受到广泛关注.GNN能从图结构数据上提取重要的特征表示, 处理节点级别[2]、边级别[3]和图级别的任务[4].虽然GNN在处理图结构数据时表现出色, 但其在隐私保护方面仍面临严峻挑战.GNN通过聚合邻居节点信息以增强目标节点的特征表示, 但可能会导致敏感信息的泄露.

作为一种新兴的分布式机器学习范式, 联邦学习[5]为解决GNN隐私泄露问题提供一种新的思路, 即联邦子图学习[6].在联邦子图学习中, 客户端可在不共享原始数据的前提下, 协同训练GNN, 在保持数据本地化的同时实现全局模型性能的提升.近年来, 联邦子图学习已应用于半监督分类任务[7]和一些实际场景, 如交通、无人机和边缘智能等[8].

联邦子图学习可处理分布在不同客户端上的图数据, 其中每个客户端拥有全局图的一个子图.由于不同客户端收集子图数据的方式存在差异, 这些子图数据通常呈现非独立同分布特性.以社交网络为例, 不同社交平台针对的用户群体可能具有不同的年龄、地域或兴趣, 数据特征和分布规律不尽相同.这种数据分布的差异性可能会使模型在训练过程中只学习某些客户端特定的局部特征.在某些客户端上出现过拟合, 而在另一些客户端上出现欠拟合, 进而影响模型的泛化能力和收敛效率.此外, 虽然同一客户端内的节点可能具有相似的特征和属性, 但不同客户端拥有的子图在结构、特征和属性上往往存在较大差异.这种差异性导致模型在训练过程中容易出现收敛困难、泛化能力差等问题.

近年来, 学者们对非独立同分布和数据结构特征异质性等问题开展研究.Zhao等[9]提出数据共享策略, 从云端向边缘侧分发包含各类均匀分布的小部分全局数据, 调整全局共享数据集大小和随机分发比例, 提高模型精度.Zhang等[10]提出联邦原始对偶算法, 基于全局共识重定义问题并引入增广拉格朗日函数, 适应非独立同分布数据.Briggs等[11]设计基于层次聚类的联邦学习算法, 对客户端的局部更新进行层次聚类操作, 改进其在非独立同分布数据场景中的训练效果.然而, 目前大多数现有研究通常假设数据是独立同分布的, 忽略在非独立同分布场景上存在的问题.另外, 现有针对非独立同分布的研究通常考虑客户端模型之间的整体相关性, 未充分关注模型个性化的性能表现.在面对非独立同分布问题时, 难以取得令人满意的性能.

为了解决上述关键问题, 本文提出基于嵌入对齐与参数激活的个性化联邦子图学习方法(Persona-lized Federated Subgraph Learning with Embedding Alignment and Parameter Activation, FSL-EAPA).首先, 利用不同客户端之间的相似性, 实现个性化模型聚合.然后, 引入参数选择性激活, 实现模型的高效训练和更新.最后, 通过更新后的客户端模型辅助节点嵌入对齐.在真实基准图数据集上的大量实验表明FSL-EAPA的有效性.

1 相关工作
1.1 图神经网络

图神经网络(GNN)学习节点、边或图的嵌入表示, 捕捉节点间的复杂关系和图结构信息, 完成预测和分类等下游任务.由于其优秀的性能表现, 近年来受到学术界和工业界的广泛关注.Kipf等[12]提出基于谱图卷积局部一阶近似的图卷积网络, 利用图卷积层进行信息传递与聚合, 提高分类精度.Velič ković 等[13]提出GAT(Graph Attention Network), 引入注意力机制, 为图数据中的节点分配不同权重, 并根据节点间关系的重要性程度进行信息的聚合与传播.Hamilton等[14]提出Graph-SAGE(Graph Sample and Aggregate), 用于大规模图数据的归纳式表示学习, 采样和聚合邻居节点的特征, 生成节点的嵌入表示, 提升模型的泛化性.Xu等[15]证明GNN的表达能力上限等价于Weisfeiler-Lehman图同构测试, 并提出GIN(Graph Isomorphism Network), 通过可学习参数ε 增强模型表达能力.Wu等[16]提出FedGNN(Federated Graph Neural Network), 在用户设备上进行本地训练GNN并上传梯度至服务器进行聚合, 在保护用户隐私的同时利用高阶用户-物品交互信息提升推荐性能.Liu等[17]提出GCN-HCRF(Graph Convolutional Net-works-Hidden Conditional Random Field), 结合图卷积网络和隐马尔可夫随机场, 保留骨架结构信息, 提升基于骨架的动作识别性能.Bo等[18]研究GNN中低频信号和高频信号的作用, 动态整合不同频率信号, 提出FAGCN(Frequency Adaptation Graph Convo-lutional Networks), 旨在缓解过平滑问题.Lei等[19]提出Dig-GCN, 扩散路径定义节点的邻域范围, 引入非凸正则化器, 提升节点分类效果.Xu等[20]提出Radial-GCN(Radial Graph Convolutional Network), 构建径向图并运用图注意力机制, 提升视觉问题生成任务的性能.Zhong等[21]提出CGCN(Contrastive Graph Convolutional Networks with Generative Adjacency Ma-trix), 引入自适应邻接矩阵和对比学习, 提升GNN的半监督分类性能.

随着对GNN研究的不断深入, 现有工作在提升模型表达能力、缓解过度平滑、融合联邦学习及跨模态应用等方面取得重要进展, 进一步推动GNN在图表示学习中的应用与发展.

通常, GNN包含消息传递和节点更新两阶段.在消息传递阶段, 每个节点收集来自其邻居节点的信息.该过程涉及节点特征的聚合, 如利用求和、平均或最大值等不同函数进行聚合.节点在第l+1层的表示为:

\boldsymbol{h}_{i}^{(l+1)}=A G G^{(l)}\left(\left\{\boldsymbol{h}_{j}^{(l)} \mid j \in N(i)\right\} \cup\left\{\boldsymbol{h}_{i}^{(l)}\right\}\right),

其中, hi(l)表示节点在第l层的表示, N(i)表示节点i的一组相邻节点, AGG(· )表示聚合函数.

在节点更新阶段, 每个节点会使用一个更新函数更新其特征表示.该更新函数通常是一个神经网络层, 如全连接层或其它类型层, 将聚合得到的信息转换为新的特征表示, 则节点在第l+1层的表示为:

\boldsymbol{h}_{i}^{(l+1)}=U P D^{(l)}\left(\boldsymbol{h}_{i}^{(l)}, A G G^{(l)}\left(\left\{\boldsymbol{h}_{j}^{(l)} \mid j \in N(i)\right\}\right)\right),

其中UPD(· )表示更新函数.

1.2 联邦子图学习

联邦子图学习主要应用于分布式环境下的图数据学习与分析, 在保护数据隐私和安全的前提下, 能充分利用分散在不同客户端上的图数据, 缓解数据孤岛问题.随着现实场景中对分布式学习需求的不断增长, 联邦子图学习已成为一个备受关注的研究方向.作为联邦子图学习中一种经典的模型聚合方法, FedAvg[5]的主要工作流程如下.

1)在首个通信轮次, 通过中央服务器将K个客户端的本地模型参数均初始化为全局模型参数 θ-, 即 θk0= θ-, 其中 θk0表示第k个客户端的本地模型参数.

2)每个客户端的本地模型在其本地数据集上进行训练.根据

\boldsymbol{\theta}_{k}^{(r+1)}=\boldsymbol{\theta}_{k}^{r}-\eta \nabla \boldsymbol{L}

更新本地模型参数, 其中, η 表示学习率, Ñ L表示损失函数的梯度.

3)第k个客户端的训练数据量记为wk, 总数据量

W=\sum_{k=1}^{K} w_{k} .

在本地训练完成后, 根据训练数据量在中央服务器上聚合本地模型参数, 即

\boldsymbol{\theta}^{(r+1)}=\sum_{k=1}^{K}\left(\frac{w_{k}}{W} \boldsymbol{\theta}_{k}^{(r+1)}\right) .

4)将更新后的全局模型参数分发至各客户端并进入下一通信轮次的模型训练, 直至设定的最终通信轮次.

在整个训练过程中, 只共享模型参数而不上传本地数据, 可避免数据泄露.目前, 相关研究工作大致可分为图间联邦子图学习和图内联邦子图学习两个方向.

在图间联邦子图学习中, 各客户端拥有相互独立的图数据, 不共享任何的节点或边.Xie等[22]提出GCFL(Graph Clustered Federated Learning), 通过动态聚类机制, 根据GNN的梯度信息划分客户端群组, 减少不同客户端间图结构和节点特征的分布差异, 使客户端能高效协作, 训练模型.He等[23]提出SpreadGNN, 将联邦多任务学习扩展到面向GNN的无服务计算环境中, 引入周期平均随机梯度下降, 应对多任务的去中心化学习, 解决客户端之间存在的数据非独立同分布问题.Tan等[24]提出FedStar (Federated Graph Learning via Structure Knowledge Sharing), 在不同客户端之间共享高层次的图结构信息, 减少图数据在结构和节点特征上的异质性, 提高全局模型的性能.Huang等[25]提出FGSSL(Fede-rated Graph Semantic and Structural Learning), 校准节点语义和图结构, 解决分布式图数据中的非独立同分布问题, 提升联邦图学习的性能.

不同于图间联邦子图学习中每个客户端拥有完全独立的图数据, 图内联邦子图学习中每个客户端拥有的是完整图的一部分.Wu等[16]提出FedGNN, 引入节点特征, 对齐并融合不同客户端的局部图结构信息, 提高分布式环境下的图数据处理能力.Zhang等[6]根据每个客户端的局部子图结构, 利用局部线性预测器探索客户端之间的潜在边, 通过缺失邻居生成器补全邻居节点信息, 提高模型对全局图结构的理解能力.Chen等[26]提出SFL(Structured Federated Learning), 利用客户端之间的关系图改进知识共享和模型个性化, 为每个客户端生成适合的个性化模型.Pan等[27]提出FedGKD(Federated Graph Neural Network with Kernelized Aggregation of Distilled Information), 通过客户端侧的数据蒸馏和服务器端的全局协作结构感知聚合, 旨在解决图异质性问题.Chen等[28]提出FedGraph, 引入跨客户端图卷积操作和基于深度强化学习的智能采样, 解决分布式图数据隐私保护和训练效率较低等问题, 旨在提升联邦图学习的收敛速度和准确性.He等[29]提出FedGraphNN(Federated Graph Neural Net-works), 支持图间与图内两种数据分布范式, 提供标准化的多任务数据集、模型与联邦算法, 实现对图分类、节点分类等任务的系统化评估, 为研究联邦环境下的GNN建模与解决非独立同分布问题提供基础平台.

现有联邦图神经网络研究已从基础的隐私保护拓展至图结构异质性、非独立同分布和个性化建模等复杂问题.图间联邦子图学习与图内联邦子图学习各有侧重, 前者关注结构隔离与协作, 后者强调局部信息建模.

然而, 大多现有研究工作未能考虑节点间的语义差异, 导致模型在图数据异质性较强时难以准确捕捉节点特征, 无法充分适应不同的数据分布情况.同时, 现有研究工作通常只考虑客户端模型之间的整体相关性, 无法精确识别与本地子图高度相关的参数, 限制模型个性化性能.在客户端模型的训练过程中, 现有研究工作大多未对客户端模型更新幅度进行有效控制, 导致其可能因过度拟合本地数据分布而偏离全局的参数分布.

2 基于嵌入对齐与参数激活的个性化联邦子图学习方法
2.1 整体架构

本文提出基于嵌入对齐与参数激活的个性化联邦子图学习方法(FSL-EAPA), 整体框架如图1所示.FSL-EAPA首先利用不同客户端之间的相似性实现个性化模型聚合.然后, 引入参数选择性激活, 实现模型的高效训练和更新.最后, 通过更新后的客户端模型辅助节点嵌入对齐.

图1 FSL-EAPA整体框架图Fig.1 Overall architecture of FSL-EAPA

FSL-EAPA的主要步骤如下所示.

算法 FSL-EAPA

输入 训练轮数rnd, 本地训练次数e,

客户端数量K, 学习率η , 正则化系数λ 1λ 2,

客户端i的子图数据Gi

输出 客户端全局参数

定义客户端函数 \text { ClientProcess }(\overline{\boldsymbol{\theta}});

初始化局部激活参数向量 μ i;

计算局部模型参数θ i;

for epoch=1, 2, …, e do

数据增强Aus(Gi), Auw(Gi);

生成节点嵌入h1, h2;

计算节点嵌入损失 LNEAi;

反向更新θ i;

end for

返回θ i至中央服务器;

for round=1, 2, …, rnd do

for ∀ i do

if rnd=1 then

更新局部模型参数 θi(r+1);

else

计算客户端间相似度ω ij;

更新模型全局参数 θ-i(r);

更新局部模型参数 θi(r+1);

end if

end for

end for

2.2 问题定义

对于一个图数据集G=(V, E), V表示图中的节点集合, |V|=N0, E={euv}表示节点uv之间链接关系的边集合.假设有K个客户端, 每个客户端拥有子图Gi=(Vi, Ei), 其中

G= i=1KGi.

对于任意两个子图Gi=(Vi, Ei), Gj=(Vj, Ej), 其中ij, 1≤ iK, 1≤ jK, 满足

ViVj=Ø , EiEj=Ø .

基于上述基本设定, FSL-EAPA引入个性化模型聚合模块和参数选择性激活模块, 降低数据非独立同分布和结构特征异质性对模型整体性能的干扰.另外, 节点嵌入对齐模块旨在为每个客户端生成一个全局节点分类模型, 有效处理下游节点分类任务.综上所述, FSL-EAPA旨在最小化全局损失, 其优化目标定义为

\min _{\left\{\boldsymbol{\theta}_{i}, \boldsymbol{\mu}_{i}\right\}_{i=1}^{K}} \sum_{G_{i} \subseteq G} L\left(G_{i}, \boldsymbol{\theta}_{i}, \boldsymbol{\mu}_{i}\right),

其中

\boldsymbol{\theta}_{i} \leftarrow \overline{\boldsymbol{\theta}_{i}} \cdot \operatorname{diag}\left(\boldsymbol{\mu}_{i}\right),

表示客户端i的局部模型参数, θ-i表示聚合后的客户端i的全局参数, μ i表示局部激活参数向量.

2.3 个性化模型聚合模块

由于不同客户端的图数据通常存在显著的非独立同分布特性和结构特征异质性, 模型训练容易出现收敛困难和泛化性较差等问题.若直接使用传统的平均聚合方式, 容易引发模型更新方向冲突, 导致聚合偏移和性能退化.

为了解决这些问题, 基于网络同质性, FSL-EAPA计算子图之间的相似度, 将具有相似数据分布和结构特征的子图归为一类, 在执行个性化模型聚合的过程中能更有效利用相似子图携带的信息, 避免因非独立同分布造成的知识冲突, 实现模型性能的提升.

在联邦子图学习中, 不同客户端的子图信息只能在本地访问.在这种情况下, 现有方法通常将模型参数作为代理指标以计算子图相似度, 相似性分数

S(i, j)=\frac{\boldsymbol{p}_{i} \cdot \boldsymbol{p}_{j}}{\left\|\boldsymbol{p}_{i}\right\|\left\|\boldsymbol{p}_{j}\right\|}=\frac{\sum_{t=1}^{n} x_{i t} x_{j t}}{\sqrt{\sum_{t=1}^{n} x_{i t}^{2}} \sqrt{\sum_{t=1}^{n} x_{j t}^{2}}},

其中

\boldsymbol{p}_{i}=\left(x_{i 1}, x_{i 2}, \cdots, x_{i n}\right), \boldsymbol{p}_{j}=\left(x_{j 1}, x_{j 2}, \cdots, x_{j n}\right),

表示经过扁平化处理为向量的参数.

然而, 随着向量维度n的不断增加, 噪声和冗余信息也会不断增多, 导致计算复杂度显著提升.此外, 在高维空间中, 数据点之间的距离往往会趋于相似, 这可能会使数据点失去区分度, 相似性计算结果趋于一致且不可靠.

为了解决这些问题, FSL-EAPA引入基于随机块模型(Stochastic Block Model)[30]生成的随机图Gr=(V, E), 作为所有客户端模型的共享输入, 避免因输入差异带来的相似性计算偏差, 使客户端模型间的对比更一致、稳定.另外, FSL-EAPA利用输出的平均节点嵌入计算客户端之间的相似度, 有效缓解维度灾难问题, 准确反映模型在统一输入下的行为差异.不同客户端模型之间的相似度如下所示:

S(i, j)=\frac{\overline{\boldsymbol{x}_{i}} \cdot \overline{\boldsymbol{x}_{j}}}{\left\|\overline{\boldsymbol{x}_{i}}\right\|\left\|\overline{\boldsymbol{x}_{j}}\right\|},

其中

\overline{\boldsymbol{x}}_{i}=\frac{1}{M} \sum_{m=1}^{M} \boldsymbol{h}_{m},

M表示随机图中节点嵌入向量的数量, hm表示第m个节点的嵌入向量.

基于不同客户端模型之间的相似度S(i, j), 可在不同客户端之间进行个性化模型聚合, 实现子图之间高效的参数共享.具体地, 客户端i的全局参数可定义为

\overline{\boldsymbol{\theta}}_{i}=\sum_{j=1}^{K} \omega_{i j} \cdot \boldsymbol{\theta}_{j},

其中

\omega_{i j}=\frac{\exp \left(\tau_{2} S(i, j)\right)}{\sum_{k=1}^{K} \exp \left(\tau_{2} S(i, k)\right)},

表示客户端ij之间的归一化相似性, τ 2表示缩放相似性的超参数.

在上述个性化模型聚合的过程中, 相似的子图之间会被赋予更大的权重, 以此降低数据非独立同分布对模型性能的干扰, 避免因受其过度影响而导致模型输出偏离合理的模式和规律, 提高模型对不同子图分布及特征的适应能力.

2.4 参数选择性激活模块

同类型客户模型的个性化聚合可有效应对数据非独立同分布和结构特征异质性问题, 但是个性化模型聚合只能判断客户端模型之间的相似性, 不能区分哪些参数对本地任务具有实际贡献.因此, FSL-EAPA引入参数选择性激活, 对模型进行选择性训练与更新, 旨在识别参数之间的相关性, 提升本地模型的个性化性能.

对于客户端i, 引入局部激活参数向量μ i, 通过该向量与个性化聚合得到的全局参数, 计算得到客户端的局部模型参数:

\boldsymbol{\theta}_{i}=\overline{\boldsymbol{\theta}_{i}} \cdot \operatorname{diag}\left(\boldsymbol{\mu}_{i}\right),

其中, diag(μ i)表示对角线元素由μ i组成的对角矩阵, 若μ i的第c个参数 μic接近1, 表明 θ-ic基本被保留, 若 μic接近0, 表明 θ-ic被有效屏蔽.

首先, 初始化局部激活参数向量μ i为全1向量, 即对于∀ c, 都有 μic=1.然后, 动态增强激活参数的选择性, 使模型更聚焦于与本地子图相关的参数, 专注于自身子图特性, 减少与本地子图不相容的参数带来的影响, 有效应对子图结构特征异质性问题.然而, 在实际训练过程中, 如果不对μ i加以约束, μ i中各元素可能趋向于较大的取值, 从而导致本地模型仍保留较多的无关参数.因此, 为了使客户端模型能更有效地筛选对本地任务真正有用的关键参数, 在执行局部优化时, FSL-EAPA对μ i进行L1正则化.

此外, 由于客户端本地数据量有限且分布偏差较大, 若其仅依据本地子图进行局部训练, 模型局部参数可能在优化过程中过度偏移, 出现过拟合现象, 导致更新过度偏离聚合后的全局参数方向.因此, FSL-EAPA引入近端项[31], 在客户端的目标函数中添加正则化项 \lambda_{2}\left\|\boldsymbol{\theta}_{i}-\overline{\boldsymbol{\theta}}_{i}\right\|_{2}^{2}, 有效控制模型的更新幅度, 使其更接近全局参数方向.

另外, 如果局部激活参数向量足够稀疏, 就能避免对零值参数的冗余计算, 显著减少计算资源消耗, 提升训练效率.

2.5 节点嵌入对齐模块

在经典的联邦子图学习中, 每个客户端仅在其本地数据上进行模型训练.然而, 这些客户端模型缺乏全局数据的完整视图, 可能会朝着某个特定的方向进行更新并收敛至局部最优解.因此, 依靠这些客户端模型提供正负样本可能会使局部优化方向发生偏移, 导致性能下降.

经过个性化模型聚合模块和参数选择性激活模块后得到的客户端模型聚合来自多个不同客户端的信息, 具有更小偏差, FSL-EAPA利用该模型为每个局部节点嵌入提供正负聚类表示, 聚集同一类的局部节点.局部节点的损失定义为

\begin{array}{l} L_{m}^{\mathrm{NEA}}= \\ \frac{-1}{\left|V_{m}^{+}\right|} \sum_{m^{+} \in V_{m}^{+}} \ln \left(\frac{\varphi\left(\boldsymbol{h}_{m}^{1}, \boldsymbol{h}_{m^{+}}^{2}, \tau_{1}\right)}{\varphi\left(\boldsymbol{h}_{m}^{1}, \boldsymbol{h}_{m^{+}}^{2}, \tau_{1}\right)+\sum_{v^{-} \in V_{m}^{-}} \varphi\left(\boldsymbol{h}_{m}^{1}, \boldsymbol{h}_{m^{-}}^{2}, \tau_{1}\right)}\right) \end{array}

其中, Vm+表示节点m的正样本集, Vm-表示节点m的负样本集, | Vm+|表示正样本集的数量, | Vm-|表示负样本集的数量, τ 1表示对齐超参数, hm表示节点m由局部GNN生成编码器H(· )得到的嵌入,

\varphi\left(\boldsymbol{h}_{m}, \boldsymbol{h}_{r}, \tau_{1}\right)=\exp \left(\frac{S(m, r)}{\tau_{1}}\right) .

因此, Gi的损失定义为

L_{i}^{\mathrm{NEA}}=\frac{1}{\left|G_{i}\right|} \sum_{m \in G_{i}} L_{m}^{\mathrm{NEA}} .

通过上述设计, FSL-EAPA在节点级上实现有效的嵌入对齐, 能学习更具泛化性的嵌入, 同时避免过度依赖固定拓扑结构, 从而稳定优化节点表征.这不仅提高节点分类的准确性, 也缓解数据非独立同分布给模型性能带来的负面影响.因此, 模型能更好地适应不同客户端的差异化数据分布, 提升其在复杂环境中的整体性能.

进一步地, 为了使客户端具备更好的判别能力, FSL-EAPA引入不平衡的增强模块, 生成两个不同视图.

1)使用较强的增强

Gi1=Aus(Gi),

以70%的概率随机移除图中的边, 并以50%的概率随机掩盖图中节点的特征.

2)使用较弱的增强

Gi2=Auw(Gi),

以30%的概率随机移除图中的边, 并以30%的概率随机掩盖图中节点的特征.

通过这种增强策略, 不仅能为模型的局部训练提供稳定可靠的全局语义信息, 还能引导模型向着全局最优方向进行优化的同时确保模型对本地数据始终保持敏感性和适应性.

因此, 为了有效应对客户端之间存在的非独立同分布和结构特征异质性带来的挑战, 稳定优化节点表征, 避免出现过拟合现象, 提升模型的泛化性和稳定性, 客户端i的目标函数定义为

\begin{array}{r} L\left(\boldsymbol{\theta}_{i}, \boldsymbol{\mu}_{i}\right)=\min _{\left(\boldsymbol{\theta}_{i}, \boldsymbol{\mu}_{i}\right)} L\left(G_{i}, \boldsymbol{\theta}_{i}, \boldsymbol{\mu}_{i}\right)+\lambda_{c} L_{i}^{\mathrm{NEA}}+ \\ \lambda_{1}\left\|\boldsymbol{\mu}_{i}\right\|_{1}+\lambda_{2}\left\|\boldsymbol{\theta}_{i}-\overline{\boldsymbol{\theta}}_{i}\right\|_{2}^{2} . \end{array}

其中:L(Gi; θ i, μ i)表示子图Gi的交叉熵损失函数, 驱动模型完成本地子图上的节点分类任务, 并直接决定模型最终的表现; λ cλ 1λ 2表示超参数, λ c控制节点嵌入损失的重要性, λ 1控制参数激活的程度, λ 2控制近端项对模型更新的影响程度.

3 实验及结果分析
3.1 实验环境

实验在一台工作站上开展, 配备GeForce RTX 3090型号的GPU, CUDA驱动版本为11.3.基于深度学习框架PyTorch 1.12.1, 实现FSL-EAPA.

本文选择如下4个真实的基准图数据集.

1)CitationFullCora数据集[32].面向引文网络的图数据集, 常用于GNN相关研究和实验.节点表示文献, 边表示文献之间的引用关系.根据文献主题, 所有节点分为70类.

2)CitationFullCiteSeer数据集[32].与CitationFull-Cora类似的图数据集.节点表示文献, 边表示文献之间的引用关系.根据文献主题, 所有节点分为6类.

3)DBLP数据集[32].面向计算机科学领域学术文献索引库的图数据集, 在GNN相关研究中常用于构建合作网络.节点表示论文、作者、会议等实体, 边表示这些实体之间的关系(如作者之间的合作关系、论文之间的引用关系等).根据研究领域, 所有节点分为4类.

4)CS数据集[33].聚焦作者之间合作关系的图数据集.节点表示作者, 边表示作者之间的合作关系.根据作者的研究领域, 所有节点分为15类.

各数据集详细信息如表1所示.

表1 基准图数据集 Table 1 Benchmark graph datasets

对于FSL-EAPA, 使用PyTorch和PyTorch Geo-metric作为深度学习库, 堆叠两层图卷积网络(Graph Convolutional Network, GCN)[12]和一个线性分类器层, 每个图卷积层的隐藏维数设为128.实验中采用Adam(Adaptive Moment Estimation)优化器更新模型参数, 动量设为0.9, 权重衰减设为1× 10-6, 学习率设为0.01.

对于每个数据集, 面向具有不同客户端数量的场景, 模拟不同的数据分布和计算资源情况.同时, 定义与参数选择激活项和近端项相关的正则化系数λ 1=0.001, λ 2=0.001, 损失函数系数λ c=0.03.

此外, 采用METIS[34]将数据集划分为不同规模的子图.所有数据集被随机划分为训练集、验证集和测试集, 比例分别为20%、40%和40%.为了更好地模拟不同规模的典型联邦学习环境, 并覆盖不同程度的异质性, 将客户端数量分别设为5, 10, 15, 20.

为了评估方法的有效性, 采用准确率(Accuracy, ACC)和F1值指标, 分别定义如下:

\begin{array}{l} A C C=\frac{T P+T N}{T P+T N+F P+F N} \times 100 \%, \\ F 1=\frac{2 \text { precision } \cdot \text { recall }}{\text { precision }+ \text { recall }} \times 100 \%, \end{array}

其中,

\text { precision }=\frac{T P}{T P+F P}, \text { recall }=\frac{T P}{T P+F N},

TP(True Positive)表示模型预测和实际标签都为正例的样本数, TN(True Negative)表示模型预测和实际标签都为反例的样本数, FP(False Positive)表示模型预测为正例但实际标签为反例的样本数, FN(False Negative)表示模型预测为反例但实际标签为正例的样本数.

3.2 对比实验

为了验证FSL-EAPA的优越性能, 选择如下对比方法.

1)FedAvg[5].经典的联邦学习算法, 在各客户端本地训练模型并平均聚合其模型参数, 无需汇聚各客户端上的数据即可实现全局模型的协同训练.

2)FED-PUB(Federated Personalized Subgraph Lear-ning)[35].在保护数据隐私的前提下, 聚合多方知识并利用个性化权重掩码更新参数, 应对数据分布差异问题, 提升模型性能.

3)SpreadFGL[36].引入自适应图补全生成器、多功能评估器、负采样机制和分布式训练方式, 促进信息流动, 提升模型的收敛速度和服务器之间的负载均衡.

4)FedGCN(Federated Graph Convolutional Network)[37].利用联邦学习框架训练图卷积网络, 通过本地图数据进行模型训练并将模型参数发送至中央服务器进行聚合, 在一定程度上解决图数据异质性问题.

5)FedGTA(Federated Graph Topology-Aware Agg-regation)[38].针对联邦图学习的个性化优化框架, 计算客户端的局部平滑置信度和混合邻居特征矩阵, 实现拓扑感知的个性化聚合, 提升分布式图学习性能.

各方法在4个数据集上的指标值对比如表2表3所示, 表中黑体数字表示最优值.由表可见.FSL-EAPA在4个数据集上取得大部分ACC和F1最优值.

表2 各方法在CitationFullCora、CitationFullCiteSeer数据集上的指标值对比 Table 2 Metric value comparison of different methods on CitationFullCora dataset and CitationFullCiteSeer dataset %
表3 各方法在DBLP、CS数据集上的指标值对比 Table 3 Metric value comparison of different methods on DBLP dataset and CS dataset %

通过Wilcoxon符号秩检验进一步验证FSL-EAPA在提升性能方面的显著性.如表4所示, 所有p值(Wilcoxon符号秩检验)均远低于0.05, 表明FSL-EAPA的性能提升在统计学上具有显著性.这一提升归因于FSL-EAPA利用客户端模型之间的相似性对其进行个性化聚合, 有效缓解数据非独立同分布对整体性能的干扰.同时, FSL-EAPA引入参数选择性激活, 更关注与本地子图相关的参数, 有效解决子图结构特征异质性问题.此外, FSL-EAPA引入节点嵌入对齐操作, 有效聚集同一类的局部节点.

表4 FSL-EAPA性能显著性检验 Table 4 Performance significance test for FSL-EAPA

相比之下, FedAvg假设参与联邦学习的客户端具有相同的数据分布, 未考虑数据非独立同分布和图结构异质性.FED-PUB未充分挖掘节点之间的语义联系, 在处理复杂图结构数据时难以取得良好效果.SpreadFGL虽然使用自适应图补全生成器处理客户端之间的异质性, 但在处理具有不同程度异质性的图数据时, 难以保证稳定的性能, 无法较好适应各种复杂的异质图场景.FedGCN未能充分考虑客户端的参与度和贡献度, 影响学习效果.FedGTA是基于客户端的图结构和标签分布具有一定的相似性的假设, 但在实际应用中, 客户端数据往往存在显著分布差异, 容易导致聚合效果受限.此外, 随着客户端数量的增加, 对比方法的ACC和F1值均呈现逐渐降低的趋势.这是因为随着客户端数量的增加, 场景变得复杂, 客户端之间的异质性更明显.

下面在4个数据集上对比FSL-EAPA、FED-PUB、FedAvg、SpreadFGL、FedGCN客户端的平均性能和波动情况(利用标准差进行衡量), 具体如图2所示.图中柱体高度反映方法在客户端上取得的平均ACC值, 误差线反映不同客户端上ACC的离散程度(通过计算不同客户端的ACC的标准差得到).误差线越短说明ACC的标准差越小, 离散程度越低.由图可看出, 相比其它方法, FSL-EAPA的误差线长度在大多数情况下均最短.这表明FSL-EAPA能在提高ACC值的同时有效降低不同客户端模型之间的性能差距, 更好地解决数据非独立同分布和子图结构特征异质性问题.

图2 各方法在4个数据集上客户端的平均ACC值Fig.2 Average ACC of clients for different methods on 4 datasets

在DBLP、CS数据集上, FSL-EAPA的标准差略大于SpreadFGL.这是因为在这两个数据集上进行模型训练时局部激活参数向量较稀疏, 参数更新更频繁, 因此, 更新过程中会受到更多的噪声干扰, 导致优化过程出现不稳定的情况, 增加客户端模型之间的性能差异.

实验中默认采用METIS[34]进行数据划分.为了进一步评估数据划分方式对不同方法的影响, 采用文献[39]的数据划分方式对数据集进行子图划分.与基于METIS的划分方式不同, 文献[39]更注重识别图中的聚类特征而不是图的物理分割, 因此通过这两种数据划分方式得到的数据分布情况完全不同.

文献[39]数据划分方式下各方法在4个数据集上的指标值对比如表5所示, 表中黑体数字表示最优值.由表可见, 当使用文献[39]数据划分方式时, FSL-EAPA仍可保持优良性能, 并且在大多数情况下优于对比方法.这说明即使改变数据划分方式, FSL-EAPA依然可有效解决数据非独立同分布和子图结构特征异质性问题.

表5 文献[39]数据划分方式下各方法的指标值对比 Table 5 Metric value comparison of different methods under data partitioning scheme in Reference[39] %

最后, 从时间复杂度与运行时间两方面全面对比分析不同方法的效率.各方法在客户端和服务器端的时间复杂度如表6所示, 表中d表示特征数量, f表示中间层的特征维度, |V|表示节点数量, c表示类数量, |E|表示边数量, y表示聚合特征的次数, Y表示统计矩的阶数, K表示客户端数.由表可见, 相比FedAvg、FED-PUB和FedGCN, FSL-EAPA虽然在客户端引入额外项O(|V|2d), 一定程度上增加时间复杂度, 但相比复杂度更高的SpreadFGL和FedGTA, FSL-EAPA仍具有良好的计算效率.

表6 各方法的时间复杂度对比 Table 6 Time complexity comparison of different methods

此外, 各方法在4个数据集上运行100轮次训练耗时如表7所示.

表7 各方法在4个不同数据集上的运行时间对比 Table 7 Running time comparison of different methods on 4 datasets s

表7可见, FSL-EAPA在4个数据集上的运行时间接近甚至优于多数对比方法, 验证FSL-EAPA在实现性能提升的同时具备良好的效率和实际可部署性.

3.3 消融实验

FSL-EAPA包括如下核心模块:个性化模型聚合模块、节点嵌入对齐模块、参数选择性激活模块、L1正则化项、L2正则化项.分别移除各模块后的指标值如表8表9所示, 表中黑体数字表示最优值.由表可见, 当FSL-EAPA中核心模块逐一移除时, 性能均有所下降.

表8 FSL-EAPA在CitationFullCora、CitationFullCiteSeer数据集上的消融实验结果 Table 8 Ablation experiment results of FSL-EAPA on CitationFullCora dataset and CitationFullCiteSeer dataset %
表9 FSL-EAPA在DBLP、CS数据集上的消融实验结果 Table 9 Ablation experiment results of FSL-EAPA on DBLP dataset and CS dataset %

当移除个性化模型聚合模块后, FSL-EAPA采用传统的全局聚合方式, 在不同数据集和不同客户端数量情况下, ACC和F1值分别平均下降约0.67%和0.57%.这是因为传统的全局聚合方式未能充分区分不同客户端模型间的差异, 导致全局参数中引入无关特征, 干扰本地模型的训练.

当移除节点嵌入对齐模块后, 在不同数据集和不同客户端数量情况下, FSL-EAPA的ACC和F1值分别平均下降约0.77%和0.86%.这是因为此时FSL-EAPA未能较好地优化表征空间, 可能出现过拟合自身局部数据分布的情况.

当移除参数选择性激活模块后, 在不同数据集和不同客户端数量情况下, FSL-EAPA的ACC和F1值分别平均下降约3.08%和3.36%.这是因为此时客户端模型无法完全专注于与本地子图相关的参数, 加剧全局参数中无关信息的干扰.

当移除参数选择性激活中的L1正则化项后, 在不同数据集和不同客户端数量情况下, FSL-EAPA的ACC和F1值分别平均下降约0.51%和0.58%.这是因为此时客户端模型筛选参数的能力被削弱, 导致本地模型仍保留许多无关参数.

当移除参数选择性激活中的L2正则化项后, 在不同数据集及不同客户端数量情况下, FSL-EAPA的ACC和F1值分别平均下降约0.45%和0.50%.这是因为此时模型仅依据本地子图进行局部训练, 容易在优化过程中出现过度偏移, 导致过拟合现象.

3.4 参数分析

设置标签率为0.1, 0.2, …, 0.5, 涵盖低标签率场景和高标签率场景.随着标签率的变化, FSL-EAPA在4个数据集上的ACC值对比如图3所示.

图3 标签率不同时FSL-EAPA的ACC值对比Fig.3 ACC comparison of FSL-EAPA with different label rates

由图3可见, 总体上, FSL-EAPA的ACC值随着标签率的增加而增加.这是因为更高的标签率意味着数据集上具有更丰富的标注信息可用于模型学习.一方面, 充足的标签使模型能更清晰准确地理解不同类别数据的特征及边界, 在面对新数据时做出更精准的判断.另一方面, 高标签率可减少模型因标注信息不足而产生的不确定性, 降低对数据错误解读的可能性, 使模型能更好地拟合数据分布规律, 有效提升模型精度.

设置λ 1=0.0001, 0.001, 0.01, 0.1, 1, 随着λ 1的变化, FSL-EAPA在4个数据集上的ACC和F1值对比如图4所示.由图可见, 当λ 1=0.001时, FSL-EAPA在4个数据集上的ACC和F1值均为最佳.当λ 1逐渐增大时, FSL-EAPA在4个数据集上的ACC和F1值总体上都呈现先上升后下降的趋势.特别是当λ 1由0.1变为1时, ACC和F1值急剧下降.这是因为当λ 1由0.000 1变为0.001时, 局部激活参数向量的稀疏性也随之增强, 模型更专注与本地子图相关的参数, 更准确捕捉关键参数, 从而提高模型整体性能.然而, 随着λ 1继续增大, 局部激活参数向量可能会变得过度稀疏, 丢失一些潜在有用的参数信息, 削弱模型准确性, 导致ACC和F1值的下降.

图4 λ 1不同时FSL-EAPA的指标值对比Fig.4 Metric value comparison of FSL-EAPA with different λ 1

设置λ 2=0.0001, 0.001, 0.01, 0.1, 1, 10, 100, 随着λ 2的变化, FSL-EAPA在4个数据集上的ACC和F1值对比如图4所示.由图可见, 当λ 2=0.001时, FSL-EAPA在4个数据集的ACC和F1值均为最佳.当λ 2由0.000 1升至1, FSL-EAPA在4个数据集上的ACC和F1值总体上都呈现上下波动的趋势.这是因为当λ 2刚开始增大时, 近端项对模型的约束起到积极作用, 降低模型在有限本地数据上出现的过拟合风险.

图5 λ 2不同时FSL-EAPA的指标值对比Fig.5 Metric value comparison of FSL-EAPA with different λ 2

但是, 随着λ 2的继续增大, 近端项的影响程度变得过强, 导致模型过度依赖全局参数而失去对本地子图独特特征的足够关注, 无法充分适应不同的子图结构.之后, λ 2进一步增大, 模型不断地在局部参数和全局参数之间寻找平衡, 性能出现一定的起伏.

设置λ c=0.003, 0.03, 0.3, 3, 30, 随着λ c的变化, FSL-EAPA在4个数据集上的ACC和F1值对比如图6所示.

图6 λ c不同时FSL-EAPA的指标值对比Fig.6 Metric value comparison of FSL-EAPA with different λ c

由图6可见, 当λ c=0.03时, FSL-EAPA在4个数据集的ACC和F1值均最佳.当λ c由0.003升至30时, FSL-EAPA在4个数据集上的ACC和F1值总体上都呈现先上升后下降的趋势.这是因为当λ c刚开始增大时, 节点嵌入损失在目标函数中的重要性也随之提高, 模型能更好地区分相似的子图结构.但是, 随着λ c继续增大, 节点嵌入损失在目标函数中的比重变得过大, 导致模型过度关注这项损失而忽略其它重要的损失项, 进而出现ACC和F1值的下降.

设置学习率η =0.0001, 0.001, 0.01, 0.1, 1, 随着η 的变化, FSL-EAPA在4个数据集上的ACC和F1值对比如图7所示.

图7 η 不同时FSL-EAPA的指标值对比Fig.7 Metric value comparison of FSL-EAPA with different η

由图7可见, 当η =0.01时, FSL-EAPA在4个数据集的ACC和F1值均为最佳或接近最佳.当η 过小时, 模型的收敛速度会变慢, 训练过程难以得到充分优化, 可能陷入局部最优, 影响性能.当η 过大时, 模型在参数空间中更新幅度过大, 容易在训练过程中跳过最优解, 导致损失函数震荡或持续增大, 使训练发散或收敛缓慢.

4 结束语

本文针对数据非独立同分布和子图结构特征异质性等关键问题, 提出基于嵌入对齐与参数激活的个性化联邦子图学习方法(FSL-EAPA).首先, 计算客户端之间的相似性, 并根据其进行个性化模型聚合, 降低数据非独立同分布对模型整体性能的干扰.然后, 利用参数选择性激活, 训练和更新模型, 解决子图结构特征异质性问题.最后, 利用更新后的客户端模型校准本地节点的嵌入表示, 聚集同类局部节点和实现节点级特征区分.在4个真实的基准图数据集上的实验表明FSL-EAPA的有效性, 并证实其具备良好的效率和实际可部署性.此外, FSL-EAPA能有效降低不同客户端模型之间的性能差距, 较好地适应不同的数据划分方式.尽管FSL-EAPA在个性化联邦子图学习任务中取得良好效果, 但仍有一些值得深入研究的方向.今后可进一步优化方法的通信效率与扩展性, 适应更大规模的客户端环境.同时, 可尝试引入自监督学习和多模态融合机制, 提升方法在复杂异构图中的表现.

本文责任编委 杨 明

Recommended by Associate Editor YANG Ming

参考文献
[1] XIA F, SUN K, YU S, et al. Graph Learning: A Survey. IEEE Transactions on Artificial Intelligence, 2021, 2(2): 109-127. [本文引用:1]
[2] DEFFERRARD M, BRESSON X, VANDERGHEYNST P. Convolutional Neural Networks on Graphs with Fast Localized Spectral Filtering // Proc of the 30th International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2016: 3844-3852. [本文引用:1]
[3] ZHANG M H, CHEN Y X. Link Prediction Based on Graph Neural Networks // Proc of the 32nd International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2018: 5171-5181. [本文引用:1]
[4] ZHANG Z, BU J J, ESTER M, et al. Hierarchical Graph Pooling with Structure Learning[C/OL]. [2025-01-16]. https://arxiv.org/pdf/1911.05954. [本文引用:1]
[5] MCMAHAN B H, MOORE E, RAMAGE D, et al. Communication-Efficient Learning of Deep Networks from Decentralized Data. Proceedings of Machine Learning Research, 2017, 54: 1273-1282. [本文引用:3]
[6] ZHANG K, YANG C, LI X X, et al. Subgraph Federated Learning with Missing Neighbor Generation // Proc of the 35th International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2021: 6671-6682. [本文引用:2]
[7] WANG B H, LI A, PANG M, et al. GraphFL: A Federated Lear-ning Framework for Semi-supervised Node Classification on Graphs // Proc of the IEEE International Conference on Data Mining. Washington, USA: IEEE, 2022: 498-507. [本文引用:1]
[8] ZHANG H D, SHEN T, WU F, et al. Federated Graph Learning-A Position Paper[C/OL]. [2025-01-16]. https://arxiv.org/pdf/2105.11099. [本文引用:1]
[9] ZHAO Y, LI M, LAI L Z, et al. Federated Learning with Non-IID Data[C/OL]. [2025-01-16]. https://arxiv.org/pdf/1806.00582. [本文引用:1]
[10] ZHANG X W, HONG M Y, DHOPLE S, et al. FedPD: A Federated Learning Framework with Adaptivity to Non-IID Data. IEEE Transactions on Signal Processing, 2021, 69: 6055-6070. [本文引用:1]
[11] BRIGGS C, FAN Z, ANDRAS P. Federated Learning with Hierarchical Clustering of Local Updates to Improve Training on Non-IID Data // Proc of the International Joint Conference on Neural Net-works. Washington, USA: IEEE, 2020. DOI: 101109/IJCNN4
8605. 2020. 9207469. [本文引用:1]
[12] KIPF T N, WELLING M. Semi-supervised Classification with Graph Convolutional Networks[C/OL]. [2025-01-16]. https://arxiv.org/pdf/1609.02907. [本文引用:2]
[13] VELIČKOVIĆ P, CUCURULL G, CASANOVA A, et al. Graph Attention Networks[C/OL]. [2025-01-16]. https://arxiv.org/pdf/1710.10903. [本文引用:1]
[14] HAMILTON W L, YING Z, LESKOVEC J. Inductive Representation Learning on Large Graphs // Proc of the 31st International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2017: 1025-1035. [本文引用:1]
[15] XU K, HU W H, LESKOVEC J, et al. How Powerful Are Graph Neural Networks?[C/OL]. [2025-01-16]. https://arxiv.org/pdf/1810.00826. [本文引用:1]
[16] WU C H, WU F Z, CAO Y, et al. FedGNN: Federated Graph Neural Network for Privacy-Preserving Recommendation[C/OL]. [2025-01-16]. https://arxiv.org/pdf/2102.04925. [本文引用:2]
[17] LIU K, GAO L, KHAN N M, et al. A Multi-stream Graph Convolutional Networks-Hidden Conditional Rand om Field Model for Skeleton-Based Action Recognition. IEEE Transactions on Multimedia, 2021, 23: 64-76. [本文引用:1]
[18] BO D Y, WANG X, SHI C, et al. Beyond Low-Frequency Information in Graph Convolutional Networks. Proceedings of the AAAI Conference on Artificial Intelligence, 2021, 35(5): 3950-3957. [本文引用:1]
[19] LEI M L, QUAN P, MA R R, et al. DigGCN: Learning Compact Graph Convolutional Networks via Diffusion Aggregation. IEEE Transactions on Cybernetics, 2022, 52(2): 912-924. [本文引用:1]
[20] XU X, WANG T, YANG Y, et al. Radial Graph Convolutional Network for Visual Question Generation. IEEE Transactions on Neural Networks and Learning Systems, 2021, 32(4): 1654-1667. [本文引用:1]
[21] ZHONG L Y, YANG J B, CHEN Z L, et al. Contrastive Graph Convolutional Networks with Generative Adjacency Matrix. IEEE Transactions on Signal Processing, 2023, 71: 772-785. [本文引用:1]
[22] XIE H, MA J, XIONG L, et al. Federated Graph Classification over Non-IID Graphs // Proc of the 35th International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2021: 18839-18852. [本文引用:1]
[23] HE C Y, CEYANI E, BALASUBRAMANIAN K, et al. Spread-GNN: Serverless Multi-task Federated Learning for Graph Neural Networks[C/OL]. [2025-01-16]. https://arxiv.org/pdf/2106.02743. [本文引用:1]
[24] TAN Y, LIU Y X, LONG G D, et al. Federated Learning on Non-IID Graphs via Structural Knowledge Sharing. Proceedings of the AAAI conference on Artificial Intelligence, 2023, 37(8): 9953-9961. [本文引用:1]
[25] HUANG W K, WAN G C, YE M, et al. Federated Graph Semantic and Structural Learning // Proc of the 32nd International Joint Conference on Artificial Intelligence. San Francisco, USA: IJCAI, 2023: 3830-3838. [本文引用:1]
[26] CHEN F W, LONG G D, WU Z H, et al. Personalized Federated Learning with Graph[C/OL]. [2025-01-16]. https://arxiv.org/pdf/2203.00829. [本文引用:1]
[27] PAN Q Y, WU R F, LIU T F, et al. FedGKD: Unleashing the Power of Collaboration in Federated Graph Neural Networks[C/OL]. [2025-01-16]. https://arxiv.org/pdf/2309.09517v3. [本文引用:1]
[28] CHEN F H, LI P, MIYAZAKI T, et al. FedGraph: Federated Graph Learning with Intelligent Sampling. IEEE Transactions on Parallel and Distributed Systems, 2022, 33(8): 1775-1786. [本文引用:1]
[29] HE C Y, BALASUBRAMANIAN K, CEYANI E, et al. FedGraph-NN: A Federated Learning System and Benchmark for Graph Neural Networks[C/OL]. [2025-01-16]. https://arxiv.org/pdf/2104.07145 [本文引用:1]
[30] HOLLAND P W, LASKEY K B, LEINHARDT S. Stochastic Block-models: First Steps. Social Networks, 1983, 5(2): 109-137. [本文引用:1]
[31] LI T, SAHU A K, ZAHEER M, et al. Federated Optimization in Heterogeneous Networks[C/OL]. [2025-01-16]. https://proceedings.mlsys.org/paper_files/paper/2020/file/1f5fe83998a09396ebe6477d9475ba0c-Paper.pdf. [本文引用:1]
[32] BOJCHEVSKI A, GÜNNEMANN S. Deep Gaussian Embedding of Graphs: Unsupervised Inductive Learning via Ranking[C/OL]. [2025-01-16]. https://arxiv.org/pdf/1707.03815. [本文引用:3]
[33] SHCHUR O, MUMME M, BOJCHEVSKI A, et al. Pitfalls of Graph Neural Network Evaluation[C/OL]. [2025-01-16]. https://arxiv.org/pdf/1811.05868. [本文引用:1]
[34] KARYPIS G, KUMAR V. METIS-Unstructured Graph Partitioning and Sparse Matrix Ordering System, Version 2. 0[C/OL]. [2025-01-16]. https://www.researchgate.net/publication/246815679_METIS__Unstructured_Graph_Partitioning_and_Sparse_Matrix_Ordering_System_Version_20. [本文引用:2]
[35] BAEK J, JEONG W, JIN J D, et al. Personalized Subgraph Federated Learning. Proceedings of Machine Learning Research, 2023, 202: 1396-1415. [本文引用:1]
[36] ZHONG L Y, PI Y Y, CHEN Z Y, et al. SpreadFGL: Edge-Client Collaborative Federated Graph Learning with Adaptive Neighbor Generation // Proc of the IEEE Conference on Computer Communications. Washington, USA: IEEE, 2024: 1141-1150. [本文引用:1]
[37] YAO Y H, JIN W Z, RAVI S, et al. FedGCN: Convergence-Commu-nication Tradeoffs in Federated Training of Graph Convolutional Networks // Proc of the 37th International Conference on Neural Information Processing Systems. Cambridge, USA: MIT Press, 2023: 79748-79760. [本文引用:1]
[38] LI X K, WU Z Y, ZHANG W T, et al. FedGTA: Topology-Aware Averaging for Federated Graph Learning. Proceedings of the VLDB Endowment, 2023, 17(1): 41-50. [本文引用:1]
[39] BLONDEL V D, GUILLAUME J L, LAMBIOTTE R, et al. Fast Unfolding of Communities in Large Networks. Journal of Statistical Mechanics: Theory and Experiment, 2008. DOI: 10.1088/1742-5468/2008/10/P10008. [本文引用:4]