关于联邦学习的概念在网上资源丰富,但是考虑到有些同学在接触时缺少对研究方向细致了解而困恼,我根据一些综述论文博客等资料为大家做个易于理解的详细介绍。
由于内容较多且分为两部分。
目录
Research directions(1)
1.Model Aggregation
模型聚合(Model Aggregation)或模型融合(Model Fusion)是指如何将来自不同本地设备或数据源的模型集成合并为一个共享的全局模型,通常用于联邦学习(Federated Learning)领域。在联邦学习中,数据分散在多个边缘设备或数据中心中,由于数据隐私和安全性的考虑,不方便集中存储在单个中心位置。因此,联邦学习旨在利用分布在各地的本地数据和模型,在不共享原始数据的情况下实现模型训练和学习。
在联邦学习的研究方向中,模型聚合是一个关键的技术问题。通过将多个本地设备或数据中心上训练的局部模型进行聚合,可以提高整体模型的性能和泛化能力。模型聚合技术可以采用各种算法和策略,例如加权平均、中值聚合、特征提取、模型蒸馏等方法,以找到最佳方式将本地模型结合为全局模型。
相关论文
FedAvg
《Communication-Efficient Learning of Deep Networks from Decentralized Data》联邦学习的开山之作。这篇论文提出了FedAvg算法,是联邦学习中的经典算法之一,它通过在客户端进行本地计算并在服务器上聚合模型权重来减少通信开销。
FedBayes
《A Bayesian federated learning framework with online laplace approximation》这篇论文提出了一种贝叶斯联邦学习方法,使用在线拉普拉斯近似进行模型聚合。
PFNM
《Bayesian Nonparametric Federated Learning of Neural Networks》,发表于ICML 2019。这篇论文探讨了一种非参数贝叶斯方法来进行联邦学习,允许模型在非IID数据上进行更好的泛化。
Krum
《Machine Learning with Adversaries: Byzantine Tolerant Gradient Descent》,发表于NeurIPS 2017。这篇论文提出了Krum算法,用于对抗拜占庭故障,通过投票机制来选择可信的梯度。
median; trimmed mean
《Byzantine-Robust Distributed Learning: Towards Optimal Statistical Rates》,发表于ICML 2018。这篇论文研究了在分布式学习中如何使用中位数和修剪均值来提高对拜占庭故障的鲁棒性。
median; mean
《Distributed Training with Heterogeneous Data: Bridging Median- and Mean-Based Algorithms》,发表于NeurIPS 2020。这篇论文研究了在异构数据上进行分布式训练时,中位数和均值基础算法之间的联系。
Bulyan
《The hidden vulnerability of distributed learning in byzantium》,发表于ICML 2018。这篇论文分析了分布式学习在面对拜占庭攻击时的潜在脆弱性。
SPAHM
《Statistical Model Aggregation via Parameter Matching》,发表于NeurIPS 2019。这篇论文提出了一种通过参数匹配进行统计模型聚合的方法。
Fed+
《Fed+: A Unified Approach to Robust Personalized Federated Learning》,这篇论文提出了一种统一的方法来实现鲁棒的个性化联邦学习。
FedProx
《FEDERATED OPTIMIZATION IN HETEROGENEOUS NETWORKS》,发表于MLSys 2020。这篇论文提出了FedProx算法,用于在异构网络中进行联邦优化。
2.Personalization
个性化联邦学习是指针对每个客户端,基于其自身的数据集以及其他客户端的数据集来训练模型。个性化联邦学习有两个主要动机:
-
由于客户端之间存在统计异质性,单一全局模型并不适合所有客户端。有时,仅基于其私有数据训练的本地模型比全局共享模型表现更好。
-
不同客户端需要针对其特定环境定制的模型。以模型异质性为例,考虑以下句子:“我住在......”。对这个句子进行的下一个词预测任务需要为每个用户定制不同的答案。不同客户端可能会为相同数据分配不同的标签。
在个性化联邦学习中,每个客户端的数据和模型都是独立的,因此需要在保护数据隐私的前提下进行模型训练和更新。个性化模型需要考虑到客户端之间的差异性,以便为每个客户端提供定制化的模型,以更好地适应其特定需求和环境。
个性化联邦学习的挑战在于如何有效地整合不同客户端的个性化模型,以及如何在保持数据隐私性的同时实现模型的个性化训练和更新。通过个性化联邦学习,可以更好地满足不同客户端的需求,提高模型性能和泛化能力,同时保护数据隐私和安全性。
相关论文
《Federated Multi-Task Learning》这篇论文在NeurIPS 2017上由斯坦福、南加州大学和卡内基梅隆大学的研究者发表。它提出了一种联邦学习框架,用于同时学习多个任务,允许不同的客户端贡献于多个不同任务的学习过程。
《Ditto: Fair and Robust Federated Learning Through Personalization》这篇论文在ICML 2021上由卡内基梅隆大学和Facebook AI的研究者发表。Ditto通过个性化方法增强了联邦学习的公平性和鲁棒性,确保每个客户端的数据都能对全局模型的训练做出贡献。
《Personalized Federated Learning: A Meta-Learning Approach》这篇论文来自MIT,提出了一种基于元学习的方法来实现联邦学习中的个性化。该方法通过快速适应每个客户端的独特数据分布,提高了模型的个性化能力。
《Debiasing Model Updates for Improving Personalized Federated Training》这篇论文在ICML 2021上由波士顿大学和Arm的研究者发表。它探讨了如何在个性化联邦学习中消除偏差,以改善模型更新并提高训练质量。
《Think Locally, Act Globally: Federated Learning with Local and Global Representations》这篇论文由卡内基梅隆大学、东京大学和哥伦比亚大学的研究者发表。它提出了一种结合局部和全局表示的联邦学习策略,旨在提高模型在不同客户端上的个性化性能。
《Clustered Federated Learning: Model-Agnostic Distributed Multi-Task Optimization under Privacy Constraints》这篇论文由Fraunhofer Heinrich Hertz Institute的研究者发表,并提供了代码。论文中提出了一种聚类联邦学习方法,能够在保护隐私的同时,实现模型的分布式多任务优化。
《Personalized Federated Learning using Hypernetworks》这篇论文由Bar-Ilan大学和NVIDIA的研究者发表。论文中探讨了如何使用超网络(hypernetworks)来实现联邦学习中的个性化。
3.Recommender system
推荐系统(RecSys)广泛用于解决信息过载问题。通常情况下,推荐系统使用的数据越多,我们可以获得更好的推荐性能。
传统上,推荐系统要求分布在多个设备上的数据被上传到中央数据库进行模型训练。然而,由于隐私和安全问题,直接共享用户数据的策略不再适用。
将联邦学习与推荐系统相结合是一种有前途的方法,可以减轻隐私泄露的风险。联邦学习在推荐系统中的应用可以让每个设备本地训练模型,然后将本地模型参数聚合到一个全局模型中,从而在保护数据隐私的同时提高推荐性能。
联邦学习在推荐系统中的优势包括:
-
隐私保护:用户数据不必在各个设备之间共享,可以在本地进行模型训练,保护用户隐私。
-
跨设备学习:联邦学习允许在不同设备上训练模型,并将更新的模型参数聚合到一个全局模型中,从而可以跨设备学习,提高推荐系统的性能。
-
实时个性化推荐:通过联邦学习,推荐系统可以实时地为不同用户提供个性化的推荐服务,根据用户的偏好和行为进行动态调整。
相关论文
《Secure federated matrix factorization》这篇论文发表在IEEE Intelligent Systems上,专注于如何在保护用户隐私的前提下,通过联邦学习进行矩阵分解。这种方法允许在不共享原始数据的情况下,对用户偏好进行建模,常用于推荐系统。
《Federated Multi-view Matrix Factorization for Personalized Recommendations》这篇论文在ECML-PKDD 2020上发表。论文提出了一种多视角矩阵分解方法,用于个性化推荐的联邦学习环境,能够整合来自不同来源的数据以提升推荐的准确性。
《FedGNN: Federated Graph Neural Network for Privacy-Preserving Recommendation》这篇论文发表在Arxiv上,提出了一种基于图神经网络的联邦学习框架FedGNN。该框架能够在保护隐私的同时,利用图结构数据进行推荐系统建模。
《Federated Social Recommendation with Graph Neural Network》这篇论文发表在ACM TIST上,探讨了如何使用图神经网络来进行联邦社会推荐。该方法考虑了用户在社交网络中的互动,并将其用于改善推荐系统的性能。
4.Security
4.1.Attact
《How To Backdoor Federated Learning》这篇论文在AISTATS 2020上发表,并提供了代码。论文探讨了如何在联邦学习环境中实施后门攻击,分析了联邦学习系统中潜在的安全漏洞,并提出了相应的攻击方法。
《Deep Leakage from Gradients》这篇论文在NeurIPS 2020上发表,并有相关的主页和代码。论文研究了从梯度中泄露信息的问题,展示了攻击者如何通过模型的梯度来推断出训练数据的信息,对联邦学习中的隐私保护提出了挑战。
《Gradient Disaggregation: Breaking Privacy in Federated Learning by Reconstructing the User Participant Matrix》这篇论文在ICML 2021上发表,并提供了代码。论文提出了一种攻击方法,通过分解梯度来重建用户参与矩阵,揭示了联邦学习中可能的隐私泄露风险。
《Turning Privacy-preserving Mechanisms against Federated Learning》这篇论文将在CCS 2023上发表,由意大利帕维亚大学、荷兰代尔夫特理工大学、意大利帕多瓦大学和荷兰拉德堡德大学的研究者合作完成,并提供了代码。论文探讨了如何利用联邦学习中用于保护隐私的机制来进行攻击,特别是模型投毒攻击,分析了这些攻击对系统安全性的影响,并提出了可能的防御措施。
4.2.Defense
FL+DP、FL+HE、FL+TEE和Algorithm
《Federated Learning With Differential Privacy: Algorithms and Performance Analysis》这篇论文发表在IEEE Transactions on Information Forensics and Security上,专注于联邦学习与差分隐私的结合。论文提出了一系列算法,并对其性能进行了分析,旨在在保护用户隐私的同时实现有效的模型训练。
《BatchCrypt: Efficient Homomorphic Encryption for Cross-Silo Federated Learning》这篇论文在USENIX 2020上发表,并提供了代码。论文介绍了BatchCrypt,一种高效的同态加密方法,用于跨域联邦学习,以提高隐私保护。
《Darknetz: towards model privacy at the edge using trusted execution environments.》这篇论文发表在ACM MobiSys 2020上,并提供了代码和视频。论文探讨了如何利用可信执行环境在边缘设备上保护模型隐私。
《CRFL: Certifiably Robust Federated Learning against Backdoor Attacks》这篇论文在ICML 2021上发表,由UIUC和IBM的研究者合作完成,并提供了代码和视频。论文提出了一种可证明鲁棒的联邦学习方法,用以抵御后门攻击。
5.Efficiency
在联邦学习中,提高效率是一个重要的目标,可以通过通信、硬件和算法等多方面的方法来实现。
基于通信的提高效率:
1. 减少模型参数传输:通过优化通信策略,减少设备之间传输模型参数的频率和数据量,降低通信成本和延迟,提高联邦学习系统的效率。
2. 压缩模型参数:采用模型参数压缩和量化技术,减小模型参数的大小,降低通信传输的开销和功耗,加快模型更新速度。
基于硬件的提高效率:
1. 硬件加速:利用高性能硬件加速器如GPU、FPGA等,加快模型训练和推理的速度,提高联邦学习系统的计算效率和性能。
2. 移动端优化:优化移动设备的硬件资源利用和能耐,提高移动端设备参与联邦学习的效率和速度。
基于算法的提高效率:
1. 加快模型收敛速度:采用局部训练、模型聚合、客户端选择等算法,优化模型更新过程,加快全局模型的收敛速度,提高联邦学习系统的训练效率。
2. 参数选择和更新策略:设计有效的参数选择和更新策略,避免冗余参数传输和计算,提高模型训练的效率和速度。
3. 聚合优化:优化模型参数的聚合过程,减少通信开销和计算复杂度,提高联邦学习系统的效率和性能。
相关论文
《Communication-Efficient Distributed Learning via Lazily Aggregated Quantized Gradients》
这篇论文提出了一种通过懒惰聚合量化梯度的通信高效分布式学习方法。它使用了量化技术来减少在联邦学习中客户端和服务器之间传输的数据量。
《FPGA-Based Hardware Accelerator of Homomorphic Encryption for Efficient Federated Learning》
这篇论文讨论了基于FPGA的硬件加速器在同态加密领域的应用,旨在提高联邦学习中的计算效率,同时保证数据的隐私安全。
《HAFLO: GPU-Based Acceleration for Federated Logistic Regression》这篇论文介绍了一种基于GPU加速的联邦逻辑回归方法,通过利用GPU的并行处理能力来提高联邦学习中的计算性能。
《FedBoost: A Communication-Efficient Algorithm for Federated Learning》这篇论文介绍了FedBoost算法,这是一种针对联邦学习设计的通信高效算法,旨在优化模型更新过程,减少通信开销。
更多内容在联邦学习研究方向及论文推荐(二)