针对联邦学习中相关客户端选择(FRCS)的问题,本文提出一种可以选择具有相关数据的客户端的方法,并提出一个检测拥有特定目标标签数据的客户端且可以纠正单个客户端的损坏数据样本的方法。Nagalapatti, Lokesh , and R. Narayanam . "Game of Gradients: Mitigating Irrelevant Clients in Federated Learning." (2021).
FRCS方法中,设置一个由各客户端数据相关度组成的向量,使用softmax函数将相关度向量转换为选择概率向量,对每轮联邦学习结果,使用蒙特卡洛法计算沙普利值(有正有负),用部分沙普利值+部分过去相关性重新计算该客户端的数据相关性,重复上述过程直至联邦学习结束。
针对检测拥有特定目标标签数据的客户端,以及纠正单个客户端的损坏数据样本。本文提出,在联邦学习的全局模型稳定后,对疑似有问题的客户端,下发全局模型及各分类对应的准确度,客户端按照标签对本地数据集进行划分,对划分后的多个单标签数据集分别进行模型预测,如果预测结果中占比最大的标签,其比重超过了下发的准确度,则将该单标签数据集中所有标签改为占比最大的标签。
本文的优点是①在每一轮用沙普利值计算选定客户端的贡献度,降低了合作博弈的使用难度;②使用部分沙普利值+部分过去相关性的方式实现对客户端历史贡献的记录和衡量;③使用softmax函数解决部分抽样与整体概率之间的矛盾、关联度与概率之间的映射两个问题。
本文存在的问题是①标签纠正针对的是客户端中具有某个标签的全部数据,而实际应用中更可能存在的问题是单个数据的标签错误,因此实际适应性不高。
2023年1月13日
标签:21,Game,标签,Clients,Federated,沙普利,Learning,数据,客户端 From: https://www.cnblogs.com/FBprivacy/p/17962312