当前位置:
X-MOL 学术
›
arXiv.cs.DC
›
论文详情
Our official English website, www.x-mol.net, welcomes your
feedback! (Note: you will need to create a separate account there.)
ASFGNN:自动分离联邦图神经网络
arXiv - CS - Distributed, Parallel, and Cluster Computing Pub Date : 2020-11-06 , DOI: arxiv-2011.03248 Longfei Zheng, Jun Zhou, Chaochao Chen, Bingzhe Wu, Li Wang, Benyu Zhang
arXiv - CS - Distributed, Parallel, and Cluster Computing Pub Date : 2020-11-06 , DOI: arxiv-2011.03248 Longfei Zheng, Jun Zhou, Chaochao Chen, Bingzhe Wu, Li Wang, Benyu Zhang
图神经网络 (GNN) 通过利用图数据取得了显着的性能。GNN 模型的成功总是取决于丰富的特征和相邻关系。然而,在实践中,这些数据通常被不同的数据所有者(客户端)隔离,因此很可能是非独立和相同分布的(Non-IID)。同时,考虑到数据所有者有限的网络状态,协作学习方法的超参数优化在数据隔离场景中是耗时的。为了解决这些问题,我们提出了一种自动分离联邦图神经网络 (ASFGNN) 学习范式。ASFGNN 由两个主要部分组成,即 GNN 的训练和超参数的调整。具体来说,解决数据Non-IID问题,我们首先提出了一个分离联邦的 GNN 学习模型,它将 GNN 的训练解耦为两部分:由客户端单独完成的消息传递部分,以及由客户端联邦学习的损失计算部分。为了处理耗时的参数调整问题,我们利用贝叶斯优化技术自动调整所有客户端的超参数。我们在基准数据集上进行了实验,结果表明 ASFGNN 在准确性和参数调整效率方面都明显优于朴素联合 GNN。我们利用贝叶斯优化技术自动调整所有客户端的超参数。我们在基准数据集上进行了实验,结果表明 ASFGNN 在准确性和参数调整效率方面都明显优于朴素联合 GNN。我们利用贝叶斯优化技术自动调整所有客户端的超参数。我们在基准数据集上进行了实验,结果表明 ASFGNN 在准确性和参数调整效率方面都明显优于朴素联合 GNN。
"点击查看英文标题和摘要"
更新日期:2020-11-09
"点击查看英文标题和摘要"