首页 > 其他分享 >FLAC: Federated Learning with Autoencoder Compression and Convergence Guarantee-2022

FLAC: Federated Learning with Autoencoder Compression and Convergence Guarantee-2022

时间:2023-12-23 21:23:01浏览次数:41  
标签:编码器 Autoencoder Compression 模型 Federated 用户 FL 压缩

目的:减少通信量(成本),例如VGGNet架构具有大约1.38亿个参数(4264 Mb)

方法:具有自动编码器压缩(Autoencoder Compression)且具有收敛保证(Convergence Guarantee);利用冗余信息(the redundant information)和FL的迭代纠错能力(iterative error-correcting capability of FL)来压缩client的模型,从而减少用户上传模型的通信成本。(适应资源受限、通信资源受限的用户设备:带宽小......)

   1. 在训练阶段,训练自动编码器以在服务器端对用户的模型进行编码(encode)和解码(decode)。

   2. 在压缩阶段,将自动编码器发送给用户,用户通过自动编码器中的编码器压缩本地模型。服务器在利用解码器来解码用户压缩过的局部模型。以额外的计算成本为代价。

   3. 为了保证FL的收敛,FLAC通过在训练状态和压缩状态之间切换来动态地控制自动编码器误差,以及,基于FL系统的误差容忍(error tolerance)(由学习率来确定)来调整其压缩率。

问题:在资源受限的网络上进行FL,通信问题是FL的根本瓶颈,从而限制了ML模型的复杂度和用户的参与。

直观:降低通信成本:显著方法:梯度压缩(gradient compression),目前有:①.稀疏化(sparsification)②.量化(quantization)是预先固定的方法,没有考虑模型参数、                 client数据....以及训练过程中冗余信息(迭代次数.....)

 

一. 引言

·FL的纠错特性来自于用户使用的SGD算法是一个固有的噪声过程,SGD可以在每次迭代中补偿一些误差。

·FL的冗余信息特性是由于用户间数据的相关性,这也导致了FL的模型参数和迭代之间的相关性。

 

二. 相关工作

减少通信成本的四种方法:

  1. 减少传输频率(reducing the frequency of transmissions):减少用户和客户端之间的通信次数,fedavg:以计算资源为代价,观察到该方法不会显著影响FL模型的收敛速度。然而,在实践中,很难选择适当的局部轮数,因为不同的模型可能会有很大的差异。

  2. 稀疏化(Sparsification)

  3. 量化(Quantization)

  4. 模型压缩(Model Compression)

 

标签:编码器,Autoencoder,Compression,模型,Federated,用户,FL,压缩
From: https://www.cnblogs.com/wuyijia/p/17923583.html

相关文章

  • Hierarchical Clustering-based Personalized Federated Learning for Robust and Fai
    任务:人类活动识别任务HumanActivityRecognition----HAR指标:系统准确性、公平性、鲁棒性、可扩展性方法:1.提出一个带有层次聚类(针对鲁棒性和公平的HAR)个性化的FL框架FedCHAR;通过聚类(利用用户之间的内在相似关系)提高模型性能的准确性、公平性、鲁棒性。2.提高FedCHAR的......
  • 一文弄懂自编码器 -- Autoencoders
    1.引言近年来,自编码器(Autoencoder)一词在许多人工智能相关的研究论文、期刊和学位论文中被频繁提及。自动编码器于1980年推出,是一种用于神经网络的无监督学习技术,可以从未被标注的训练集中学习。本文重点介绍自编码器的概念、相关变体及其应用,闲话少说,我们直接开始吧!2.原理介绍自......
  • The Devil Is in the Details: Window-based Attention for Image Compression
    目录简介简介基于CNN的模型的一个主要缺点是cNN结构不是为捕捉局部冗余而设计的,尤其是非重复纹理,这严重影响了重建质量。受视觉转换器(ViT)和SwinTransformer最新进展的启发,我们发现将局部感知注意机制与全局相关特征学习相结合可以满足图像压缩的期望。介绍了一种更简单有效......
  • LDAEXC: LncRNA-Disease Associations Prediction with Deep Autoencoder and XGBoost
    LDAEXC:LncRNA-DiseaseAssociationsPredictionwithDeepAutoencoderandXGBoostClassifier. 作者: LuCuihong; XieMinzhu作者背景: CollegeofInformationScienceandEngineering,HunanNormalUniversity,Changsha,China.; CollegeofInformation......
  • VARIATIONAL IMAGE COMPRESSION WITH A SCALE HYPERPRIOR
    abstruct描述了一个变分自编码器的端到端图像压缩模型。这个模型结合了超先验来捕获潜在表示的空间依赖性,这种超先验涉及到了边信息。并且改模型与底层的自编码器结合联合训练一个复杂的先验。introduction熵编码依赖于编码器和解码器都知道的量化表示的先验概率模型(熵模型)。这......
  • Joint Autoregressive and Hierarchical Priors for Learned Image Compression
    abstruct最近的图像压缩模型基于自编码器,学习近似可逆的映射(从像素到量化的可逆表示),这些与熵模型(潜在表示的先验)结合,可以与标准算术编码算法一起使用产生压缩比特流。与简单的全因子先验相比,分层熵模型可以利用更多潜变量中的结构,从而在保存端到端优化的同时提高压缩性能。众所周......
  • Conditional Probability Models for Deep Image Compression
    \(\quad\)在自编码器中使用深度网络已成为有前途的研究方向,这种学习网络有两个挑战:处理量化与控制reconstructionerror(distortion)entropy(rate)ofthelatentimagerepresentation之间的权衡(rate都用熵表示吗?)introduction\(\quad\)训练这种基于网络的压缩方法有一个......
  • Checkerboard Context Model for Efficient Learned Image Compression
    目录AbstractIntroductionPreliminary初步介绍VariationalImageCompressionwithHyperprior(超先验变分图像压缩)AutoregressiveContext(自回归上下文模型)ParallelContextModeling并行上下文模型Random-MaskModel:TestArbitraryMasks(随机掩码模型)HowDistanceInfl......
  • AutoRec Autoencoders Meet Collaborative Filtering 论文阅读笔记
    这个是第一篇将自编码器应用到推荐系统中的论文,也是将深度学习应用到推荐系统中的论文。比较老,主要学习它的思想,对输入的编码与重建。这篇文章提出了基于AutoEncoder的协同过滤方法来解决评分预测问题我们的目标就是设计一个基于项目或者用户的自动编码器,它可以将每个部分观察到......
  • mysql数据库管理-FEDERATED存储引擎远程链接MYSQL
    开启FEDERATED存储引擎1.1、查看存储引擎存在的FEDERATED存储引擎就配置文件开启不存在就安装查看showengines;YES支持并开启DEFAULT支持并开启,并且为默认引擎;NO不支持;DISABLED支持,但未开启。创建federated引擎表创建语句最好和原表语句一样,当然去掉id的auto之类的。CREATE......