首页 > 其他分享 >Joint Autoregressive and Hierarchical Priors for Learned Image Compression

Joint Autoregressive and Hierarchical Priors for Learned Image Compression

时间:2023-11-23 21:05:10浏览次数:34  
标签:Autoregressive Compression Priors 压缩 比特流 Joint 先验 模型

abstruct

最近的图像压缩模型基于自编码器,学习近似可逆的映射(从像素到量化的可逆表示),这些与熵模型(潜在表示的先验)结合,可以与标准算术编码算法一起使用产生压缩比特流。与简单的全因子先验相比,分层熵模型可以利用更多潜变量中的结构,从而在保存端到端优化的同时提高压缩性能。众所周知,自回归模型会带来较大的计算代价,但是在压缩性能方面自回归模型和分层先验模型是互补的,它们的共用效果很好。

introduction

在深度学习领域,变换通常使用卷积神经网络,他近似非线性函数,有可能将像素映射到传统线性变化更可压缩的潜空间。压缩的目的是减小发送方和接收方共享的先验概率模型(熵模型)下表示的熵。训练目标是最小化比特流的预期长度以及重建图像相对于原始图像的预期失真

标签:Autoregressive,Compression,Priors,压缩,比特流,Joint,先验,模型
From: https://www.cnblogs.com/CLGYPYJ/p/17852404.html

相关文章

  • Conditional Probability Models for Deep Image Compression
    \(\quad\)在自编码器中使用深度网络已成为有前途的研究方向,这种学习网络有两个挑战:处理量化与控制reconstructionerror(distortion)entropy(rate)ofthelatentimagerepresentation之间的权衡(rate都用熵表示吗?)introduction\(\quad\)训练这种基于网络的压缩方法有一个......
  • 【论文阅读笔记】【OCR-文本识别】 Scene Text Recognition with Permuted Autoregres
    PARSeqECCV2022读论文思考的问题论文试图解决什么问题?一些文本识别模型会对semantic信息建模,从而辅助某些困难情况下的文本识别传统的auto-regressive方式限制了语义信息的传输方向;双向的auto-regressive聚合增加了不必要的计算量和复杂度;聚合视觉模型和语言......
  • Checkerboard Context Model for Efficient Learned Image Compression
    目录AbstractIntroductionPreliminary初步介绍VariationalImageCompressionwithHyperprior(超先验变分图像压缩)AutoregressiveContext(自回归上下文模型)ParallelContextModeling并行上下文模型Random-MaskModel:TestArbitraryMasks(随机掩码模型)HowDistanceInfl......
  • ELIC: Efficient Learned Image Compression with Unevenly Grouped Space-Channel Co
    abstruct\(\quad\)受能量压缩表现的启发,提出了不均匀通道情况自适应编码.结合不均匀分组模型和现有上下文模型,获得一种空间通道上下文自适应模型,来提高编码性能,而不影响其运行时间。\(\quad\)这种模型支持预览解码和渐进解码。introduction学习图像压缩中最重要的技术联合前......
  • Conditional Probability Models for Deep Image Compression
    深度神经网络被训练来作为图像压缩的自动编码器是一个前沿方向,面临的挑战有两方面——量化(quantization)和权衡reconstructionerror(distortion)andentropy(rate),这篇文章关注后者。主要思想是使用上下文模型直接对潜在表示的熵建模;3D-CNN一个学习自动编码器潜在分布的条......
  • 【论文阅读】DeepAR Probabilistic forecasting with autoregressive recurrent netwo
    原始题目:DeepAR:Probabilisticforecastingwithautoregressiverecurrentnetworks中文翻译:DeepAR:自回归递归网络的概率预测发表时间:2020年07月平台:InternationalJournalofForecasting文章链接:https://www.sciencedirect.com/science/article/pii/S0169207019301888......
  • Conditional Probability Models for Deep Image Compression
    深度神经网络被训练来作为图像压缩的自动编码器是一个前沿方向,面临的挑战有两方面——量化(quantization)和权衡reconstructionerror(distortion)andentropy(rate),这篇文章关注后者。主要思想是使用上下文模型直接对潜在表示的熵建模;3D-CNN一个学习自动编码器潜在分布的条......
  • 【流行前沿】Text + Sketch Image Compression at Ultra Low Rates
    今天分享一篇7月挂在arxiv上的文章,研究的是用生成式网络进行图片压缩。近十年来,用图片压缩的主流方法是神经网络来做。17年左右流行用带有量化的autoencoder来做图片压缩,同时训练的指标也是常用的distortionmetric,比如MSE,PSNR,MS-SSIM等等。但是这些方法在低比特率的时候通常有......
  • HBase HFile与Prefix Compression内部实现全解--KeyValue格式
    1.引子 HFile(HBaseFile)是HBase使用的一种文件存储格式的抽象, 目前存在两种版本的HFile:HFileV1和HFileV2 HBase0.92之前的版本仅支持HFileV1,HBase0.92/0.94同时支持HFileV1和HFileV2。 以下分别是HFileV1/V2的结构图: HFileV1HFileV2(注:这两个图片在hbase......
  • .net压缩文件(System.IO.Compression.ZipFile)
    NuGet安装System.IO.Compression.ZipFile,注意不是System.IO.Compression优点:不同于ICSharpCode.SharpZipLib.dll的地方是,这个插件可以直接压缩文件夹,文件夹内的文件自动压缩进去了,ICSharpCode.SharpZipLib.dll需要一个一个将文件添加进压缩包,不能直接压缩文件夹1ZipFile.Creat......