近年来,大量数据的产生和边缘设备算力的提高,以及对数据隐私的要求使得以联邦学习为代表的分布式机器学习得到研究关注。传统的联邦学习优化方法如FEDAVG由于其简单实现且具有较低的通信代价得到了广泛的应用,但是其在异质数据环境下很难取得优秀的效果。联邦学习中各客户端的数据分布是非独立同分布的(Non-IID),使得各客户端在训练本地模型时会产生客户端漂移问题,显著降低模型收敛效率和模型性能。因此,如何提高联邦学习算法在异质数据环境下的收敛效率,同时降低通信代价,是联邦学习的重要研究课题。
标签:异质,环境,学习,联邦,数据,客户端 From: https://www.cnblogs.com/zerek/p/17731134.html