首页 > 其他分享 >联邦学习研究方向及论文推荐(一)

联邦学习研究方向及论文推荐(一)

时间:2024-06-03 20:00:54浏览次数:13  
标签:模型 论文 Federated 这篇 学习 联邦

关于联邦学习的概念在网上资源丰富,但是考虑到有些同学在接触时缺少对研究方向细致了解而困恼,我根据一些综述论文博客等资料为大家做个易于理解的详细介绍。

由于内容较多且分为两部分。

目录

Research directions(1)

1.Model Aggregation

2.Personalization

3.Recommender system

4.Security

4.1.Attact

4.2.Defense

5.Efficiency

Reference


Research directions(1)

1.Model Aggregation

模型聚合(Model Aggregation)或模型融合(Model Fusion)是指如何将来自不同本地设备或数据源的模型集成合并为一个共享的全局模型,通常用于联邦学习(Federated Learning)领域。在联邦学习中,数据分散在多个边缘设备或数据中心中,由于数据隐私和安全性的考虑,不方便集中存储在单个中心位置。因此,联邦学习旨在利用分布在各地的本地数据和模型,在不共享原始数据的情况下实现模型训练和学习。

在联邦学习的研究方向中,模型聚合是一个关键的技术问题。通过将多个本地设备或数据中心上训练的局部模型进行聚合,可以提高整体模型的性能和泛化能力。模型聚合技术可以采用各种算法和策略,例如加权平均、中值聚合、特征提取、模型蒸馏等方法,以找到最佳方式将本地模型结合为全局模型。

相关论文

FedAvg

《Communication-Efficient Learning of Deep Networks from Decentralized Data》联邦学习的开山之作。这篇论文提出了FedAvg算法,是联邦学习中的经典算法之一,它通过在客户端进行本地计算并在服务器上聚合模型权重来减少通信开销。

FedBayes

《A Bayesian federated learning framework with online laplace approximation》这篇论文提出了一种贝叶斯联邦学习方法,使用在线拉普拉斯近似进行模型聚合。

PFNM

《Bayesian Nonparametric Federated Learning of Neural Networks》,发表于ICML 2019。这篇论文探讨了一种非参数贝叶斯方法来进行联邦学习,允许模型在非IID数据上进行更好的泛化。

Krum

《Machine Learning with Adversaries: Byzantine Tolerant Gradient Descent》,发表于NeurIPS 2017。这篇论文提出了Krum算法,用于对抗拜占庭故障,通过投票机制来选择可信的梯度。

median; trimmed mean

 《Byzantine-Robust Distributed Learning: Towards Optimal Statistical Rates》,发表于ICML 2018。这篇论文研究了在分布式学习中如何使用中位数和修剪均值来提高对拜占庭故障的鲁棒性。

median; mean

《Distributed Training with Heterogeneous Data: Bridging Median- and Mean-Based Algorithms》,发表于NeurIPS 2020。这篇论文研究了在异构数据上进行分布式训练时,中位数和均值基础算法之间的联系。

Bulyan

《The hidden vulnerability of distributed learning in byzantium》,发表于ICML 2018。这篇论文分析了分布式学习在面对拜占庭攻击时的潜在脆弱性。

SPAHM

《Statistical Model Aggregation via Parameter Matching》,发表于NeurIPS 2019。这篇论文提出了一种通过参数匹配进行统计模型聚合的方法。

Fed+

 《Fed+: A Unified Approach to Robust Personalized Federated Learning》,这篇论文提出了一种统一的方法来实现鲁棒的个性化联邦学习。

FedProx

《FEDERATED OPTIMIZATION IN HETEROGENEOUS NETWORKS》,发表于MLSys 2020。这篇论文提出了FedProx算法,用于在异构网络中进行联邦优化。

2.Personalization

个性化联邦学习是指针对每个客户端,基于其自身的数据集以及其他客户端的数据集来训练模型。个性化联邦学习有两个主要动机:

  1. 由于客户端之间存在统计异质性,单一全局模型并不适合所有客户端。有时,仅基于其私有数据训练的本地模型比全局共享模型表现更好。

  2. 不同客户端需要针对其特定环境定制的模型。以模型异质性为例,考虑以下句子:“我住在......”。对这个句子进行的下一个词预测任务需要为每个用户定制不同的答案。不同客户端可能会为相同数据分配不同的标签。

在个性化联邦学习中,每个客户端的数据和模型都是独立的,因此需要在保护数据隐私的前提下进行模型训练和更新。个性化模型需要考虑到客户端之间的差异性,以便为每个客户端提供定制化的模型,以更好地适应其特定需求和环境。

个性化联邦学习的挑战在于如何有效地整合不同客户端的个性化模型,以及如何在保持数据隐私性的同时实现模型的个性化训练和更新。通过个性化联邦学习,可以更好地满足不同客户端的需求,提高模型性能和泛化能力,同时保护数据隐私和安全性。

相关论文

《Federated Multi-Task Learning》这篇论文在NeurIPS 2017上由斯坦福、南加州大学和卡内基梅隆大学的研究者发表。它提出了一种联邦学习框架,用于同时学习多个任务,允许不同的客户端贡献于多个不同任务的学习过程。

《Ditto: Fair and Robust Federated Learning Through Personalization》这篇论文在ICML 2021上由卡内基梅隆大学和Facebook AI的研究者发表。Ditto通过个性化方法增强了联邦学习的公平性和鲁棒性,确保每个客户端的数据都能对全局模型的训练做出贡献。

《Personalized Federated Learning: A Meta-Learning Approach》这篇论文来自MIT,提出了一种基于元学习的方法来实现联邦学习中的个性化。该方法通过快速适应每个客户端的独特数据分布,提高了模型的个性化能力。

《Debiasing Model Updates for Improving Personalized Federated Training》这篇论文在ICML 2021上由波士顿大学和Arm的研究者发表。它探讨了如何在个性化联邦学习中消除偏差,以改善模型更新并提高训练质量。

《Think Locally, Act Globally: Federated Learning with Local and Global Representations》这篇论文由卡内基梅隆大学、东京大学和哥伦比亚大学的研究者发表。它提出了一种结合局部和全局表示的联邦学习策略,旨在提高模型在不同客户端上的个性化性能。

《Clustered Federated Learning: Model-Agnostic Distributed Multi-Task Optimization under Privacy Constraints》这篇论文由Fraunhofer Heinrich Hertz Institute的研究者发表,并提供了代码。论文中提出了一种聚类联邦学习方法,能够在保护隐私的同时,实现模型的分布式多任务优化。

《Personalized Federated Learning using Hypernetworks》这篇论文由Bar-Ilan大学和NVIDIA的研究者发表。论文中探讨了如何使用超网络(hypernetworks)来实现联邦学习中的个性化。

3.Recommender system

推荐系统(RecSys)广泛用于解决信息过载问题。通常情况下,推荐系统使用的数据越多,我们可以获得更好的推荐性能。

传统上,推荐系统要求分布在多个设备上的数据被上传到中央数据库进行模型训练。然而,由于隐私和安全问题,直接共享用户数据的策略不再适用。

将联邦学习与推荐系统相结合是一种有前途的方法,可以减轻隐私泄露的风险。联邦学习在推荐系统中的应用可以让每个设备本地训练模型,然后将本地模型参数聚合到一个全局模型中,从而在保护数据隐私的同时提高推荐性能。

联邦学习在推荐系统中的优势包括:

  1. 隐私保护:用户数据不必在各个设备之间共享,可以在本地进行模型训练,保护用户隐私。

  2. 跨设备学习:联邦学习允许在不同设备上训练模型,并将更新的模型参数聚合到一个全局模型中,从而可以跨设备学习,提高推荐系统的性能。

  3. 实时个性化推荐:通过联邦学习,推荐系统可以实时地为不同用户提供个性化的推荐服务,根据用户的偏好和行为进行动态调整。

相关论文

《Secure federated matrix factorization》这篇论文发表在IEEE Intelligent Systems上,专注于如何在保护用户隐私的前提下,通过联邦学习进行矩阵分解。这种方法允许在不共享原始数据的情况下,对用户偏好进行建模,常用于推荐系统。

《Federated Multi-view Matrix Factorization for Personalized Recommendations》这篇论文在ECML-PKDD 2020上发表。论文提出了一种多视角矩阵分解方法,用于个性化推荐的联邦学习环境,能够整合来自不同来源的数据以提升推荐的准确性。

《FedGNN: Federated Graph Neural Network for Privacy-Preserving Recommendation》这篇论文发表在Arxiv上,提出了一种基于图神经网络的联邦学习框架FedGNN。该框架能够在保护隐私的同时,利用图结构数据进行推荐系统建模。

《Federated Social Recommendation with Graph Neural Network》这篇论文发表在ACM TIST上,探讨了如何使用图神经网络来进行联邦社会推荐。该方法考虑了用户在社交网络中的互动,并将其用于改善推荐系统的性能。

4.Security

4.1.Attact

《How To Backdoor Federated Learning》这篇论文在AISTATS 2020上发表,并提供了代码。论文探讨了如何在联邦学习环境中实施后门攻击,分析了联邦学习系统中潜在的安全漏洞,并提出了相应的攻击方法。

《Deep Leakage from Gradients》这篇论文在NeurIPS 2020上发表,并有相关的主页和代码。论文研究了从梯度中泄露信息的问题,展示了攻击者如何通过模型的梯度来推断出训练数据的信息,对联邦学习中的隐私保护提出了挑战。

《Gradient Disaggregation: Breaking Privacy in Federated Learning by Reconstructing the User Participant Matrix》这篇论文在ICML 2021上发表,并提供了代码。论文提出了一种攻击方法,通过分解梯度来重建用户参与矩阵,揭示了联邦学习中可能的隐私泄露风险。

《Turning Privacy-preserving Mechanisms against Federated Learning》这篇论文将在CCS 2023上发表,由意大利帕维亚大学、荷兰代尔夫特理工大学、意大利帕多瓦大学和荷兰拉德堡德大学的研究者合作完成,并提供了代码。论文探讨了如何利用联邦学习中用于保护隐私的机制来进行攻击,特别是模型投毒攻击,分析了这些攻击对系统安全性的影响,并提出了可能的防御措施。

4.2.Defense

FL+DP、FL+HE、FL+TEE和Algorithm

《Federated Learning With Differential Privacy: Algorithms and Performance Analysis》这篇论文发表在IEEE Transactions on Information Forensics and Security上,专注于联邦学习与差分隐私的结合。论文提出了一系列算法,并对其性能进行了分析,旨在在保护用户隐私的同时实现有效的模型训练。

《BatchCrypt: Efficient Homomorphic Encryption for Cross-Silo Federated Learning》这篇论文在USENIX 2020上发表,并提供了代码。论文介绍了BatchCrypt,一种高效的同态加密方法,用于跨域联邦学习,以提高隐私保护。

《Darknetz: towards model privacy at the edge using trusted execution environments.》这篇论文发表在ACM MobiSys 2020上,并提供了代码和视频。论文探讨了如何利用可信执行环境在边缘设备上保护模型隐私。

《CRFL: Certifiably Robust Federated Learning against Backdoor Attacks》这篇论文在ICML 2021上发表,由UIUC和IBM的研究者合作完成,并提供了代码和视频。论文提出了一种可证明鲁棒的联邦学习方法,用以抵御后门攻击。

5.Efficiency

在联邦学习中,提高效率是一个重要的目标,可以通过通信、硬件和算法等多方面的方法来实现。

基于通信的提高效率:
1. 减少模型参数传输:通过优化通信策略,减少设备之间传输模型参数的频率和数据量,降低通信成本和延迟,提高联邦学习系统的效率。
2. 压缩模型参数:采用模型参数压缩和量化技术,减小模型参数的大小,降低通信传输的开销和功耗,加快模型更新速度。

基于硬件的提高效率:
1. 硬件加速:利用高性能硬件加速器如GPU、FPGA等,加快模型训练和推理的速度,提高联邦学习系统的计算效率和性能。
2. 移动端优化:优化移动设备的硬件资源利用和能耐,提高移动端设备参与联邦学习的效率和速度。

基于算法的提高效率:
1. 加快模型收敛速度:采用局部训练、模型聚合、客户端选择等算法,优化模型更新过程,加快全局模型的收敛速度,提高联邦学习系统的训练效率。
2. 参数选择和更新策略:设计有效的参数选择和更新策略,避免冗余参数传输和计算,提高模型训练的效率和速度。
3. 聚合优化:优化模型参数的聚合过程,减少通信开销和计算复杂度,提高联邦学习系统的效率和性能。

相关论文

《Communication-Efficient Distributed Learning via Lazily Aggregated Quantized Gradients》
这篇论文提出了一种通过懒惰聚合量化梯度的通信高效分布式学习方法。它使用了量化技术来减少在联邦学习中客户端和服务器之间传输的数据量。

《FPGA-Based Hardware Accelerator of Homomorphic Encryption for Efficient Federated Learning》
这篇论文讨论了基于FPGA的硬件加速器在同态加密领域的应用,旨在提高联邦学习中的计算效率,同时保证数据的隐私安全。

《HAFLO: GPU-Based Acceleration for Federated Logistic Regression》这篇论文介绍了一种基于GPU加速的联邦逻辑回归方法,通过利用GPU的并行处理能力来提高联邦学习中的计算性能。

《FedBoost: A Communication-Efficient Algorithm for Federated Learning》这篇论文介绍了FedBoost算法,这是一种针对联邦学习设计的通信高效算法,旨在优化模型更新过程,减少通信开销。

更多内容在联邦学习研究方向及论文推荐(二)

Reference

1.Kairouz, P., McMahan, H. B., Avent, B., Bellet, A., Bennis, M., Bhagoji, A. N., ... & Zhao, S. (2021). Advances and open problems in federated learning.  Foundations and trends® in machine learning14(1–2), 1-210. 2. GitHub - innovation-cat/Awesome-Federated-Machine-Learning: Everything about federated learning, including research papers, books, codes, tutorials, videos and beyond

标签:模型,论文,Federated,这篇,学习,联邦
From: https://blog.csdn.net/weixin_74181752/article/details/139419927

相关文章

  • 2021新书Python程序设计 人工智能案例实践 Python编程人工智能基本描述统计集中趋势和
    书:pan.baidu.com/s/1owku2NBxL7GdW59zEi20AA?pwd=suov​提取码:suov我的阅读笔记:图像识别:使用深度学习框架(如TensorFlow、PyTorch)创建图像分类模型。探索迁移学习,使用预训练模型进行定制。自然语言处理(NLP):构建一个情感分析模型,用于分析文本中的情感。实现一个文本生成模型,......
  • 【精品毕设】汽车配件销售企业连锁店管理系统(包含论文和源码)
    摘要目前汽车配件销售企业大多数在其连锁店的管理还是手工进行,随着汽车配件行业的迅速发展,手工管理的种种弊端暴露无疑,给销售企业的发展带来了不必要的麻烦。为了规范企业内部管理,提高企业业务管理水平,更好的为客户服务,应采用计算机来管理汽车配件的进销存业务。本文首先对......
  • 【精品毕设】基于JavaEE的线上考试系统设计实现(包含源码和论文)
    摘 要随着计算机技术的迅猛发展,学校教学和管理的信息化发展也有长足的进步,这就要求各个环节都均衡发展,从软硬件双方面把学校建设成一流的信息管理、教育教学的平台。本文设计开发的考试管理系统也是其中重要的一个方面。该系统本着减轻教师工作负担、提高工作效率、优化学生......
  • 【文末附gpt升级秘笈】关于论文“7B?13B?175B?解读大模型的参数的论文
    论文大纲引言简要介绍大模型(深度学习模型)的概念及其在各个领域的应用。阐述参数(Parameters)在大模型中的重要性,以及它们如何影响模型的性能。引出主题:探讨7B、13B、175B等参数规模的大模型。第一部分:大模型的参数规模定义“B”代表的意义(Billion/十亿)。解释7B、13B、175B等......
  • python学习笔记-03
    流程控制1.顺序流程代码自上而下的执行。2.选择流程/分支流程根据在某一步的判断有选择的执行相应的逻辑。2.1单分支if语句if条件表达式: 代码 代码 ...2.2双分支if-else语句if条件表达式: 代码 代码 ...else:代码代码...2.3多分支if......
  • 持续性学习-Day17(MySQL)
    1、初识MySQLJavaEE:企业级Java开发Web前段(页面展示,数据)后端(连接点:连接数据库JDBC;链接前端:控制,控制反转,给前台传数据)数据库(存数据)1.1数据库分类关系型数据库(SQL):MySQL、Oracle、SqlServer、DB2、SQLlite通过表和表、行和列之间的关系进行数据的存储非关系型数......
  • 【机器学习】——驱动智能制造的青春力量,优化生产、预见故障、提升质量
    目录一.优化生产流程1.1数据收集1.2数据预处理1.3模型训练1.4优化建议1.5示例代码二.预测设备故障2.1数据收集2.2数据预处理2.3模型训练2.4故障预测2.5示例代码三.提升产品质量3.1数据收集3.2数据预处理3.3模型训练3.4质量提升3.5示例代码......
  • 孩子不爱学习,批评、催促、监督都没用,3步激发孩子的上进心
      有家长发愁说:我该如何教?三年级倒数第一?  孩子现在上三年级,成绩倒数,学习态度差,不愿多写一个字、多说一句话。写作业特别慢,写字特别丑,从上小学起就是这个状态。  在学校被老师批评、投诉、留堂后,家长开始也是苦口婆心好言相劝,但是反复多次教育,孩子就是不改。家......
  • 【计算机毕业设计】ssm719精品课程在线学习系统+jsp
    如今社会上各行各业,都喜欢用自己行业的专属软件工作,互联网发展到这个时候,人们已经发现离不开了互联网。新技术的产生,往往能解决一些老技术的弊端问题。因为传统精品课程学习信息管理难度大,容错率低,管理人员处理数据费工费时,所以专门为解决这个难题开发了一个精品课程在线学......
  • 设计模式学习(二)工厂模式——工厂方法模式+注册表
    目录工厂方法模式的瑕疵注册表工厂方法模式的瑕疵在前一篇笔记中我们介绍了工厂方法模式,示例的类图如下:考虑一种情况:现在要在程序运行时,根据外部资源,动态的实例化对象。也就是说在编译期我们无法知道要实例化的对象的类型。因此在实例化的过程中,就需要加以判断。例如,在我的例......