参考链接:https://www.zhihu.com/people/hidisan/posts
本文提出q-FFL优化算法,在模型准确率不变的情况下,引入q参数化的权重,使损失大的参与者权重更高,降低准确率分布方差,使模型性能更均匀分布,实现联邦学习公平性。
联邦学习的两种公平性:一种是均衡公平性,强调“人人平等有机会“,关心“表现差“的客户;另一种是贡献公平性,强调“按劳分配,多劳多得,优胜劣汰“。
本文实现的公平性是第一种 均衡公平性,属于调整聚合权重的方法。类似论文《2019-ICML-Agnostic Federated Learning》只优化最差参与者的性能;《2022-ICASSP-A Dynamic Reweighting Strategy For Fair Federated Learning》提出将 q-FFL 中的损失放大机制替换为简单的权重再分配机制,通过为损失高的客户端分配更大的权重来增加对这些客户端的惩罚;《2022-一种联邦学习中的公平资源分配方案》提出了 α-FedAvg 算法,引入Jain’s 指数度量公平,降低了准确率方差。 然而本文方法不能提前确定最佳的q值,很难在数据异构情况下收敛,而且利用损失少的用户去弥补损失大的用户的方式,对于损失小的用户不公平。 但《2022-一种联邦学习中的公平资源分配方案》针对q-FFL无法提前确定q值的问题,提出了a-FedAvg算法,通过算法在训练前确定参数α的值。
标签:公平性,06,权重,Federated,损失,Allocation,Learning,联邦 From: https://www.cnblogs.com/2506406916zhy/p/17115968.html