基本信息
文件名称:面向非独立同分布数据的联邦学习通信效率研究.pdf
文件大小:3.7 MB
总页数:58 页
更新时间:2025-03-17
总字数:约9.09万字
文档摘要

面向非独立同分布数据的联邦学习通信效率研究

摘要

联邦学习是一种分布式机器学习框架,面临着数据异质性的挑战。在非独立

同分布数据环境下,联邦学习本地模型的收敛偏差使全局模型的收敛速度降低,

导致通信负担增加。集群联邦学习使用集群模型训练特定分布的数据,增加非独

立同分布数据联邦学习的模型收敛速度和性能。其次,使用模型压缩能够进一步

降低模型的数据传输量,提高通信效率。然而集群联邦学习的集群划分过程要求

客户端接收额外的模型参数或者客户端全部参与训练,增加了客户端的通信负担。

针对上述问题,本文