深度神经网络被训练来作为图像压缩的自动编码器是一个前沿方向,面临的挑战有两方面——量化(quantization)和权衡reconstruction error (distortion) and entropy (rate),这篇文章关注后者。
主要思想是使用上下文模型直接对潜在表示的熵建模;3D-CNN一个学习自动编码器潜在分布的条件概率模型。训练过程中,自编码器使用上下文模型来预测估计其表示(representation)的熵,同时更新上下文模型来学习潜在表示中符号之间的依赖关系。在MS-SSIM指标上,该方法比其他方法表现更好。
Introduction
- 图像压缩是指用尽可能小的储存去表示图像.(这个说法很妥帖)。而在有损压缩中我们使用离散度数据来表示图像,由于离散化是不可微的,所以这对基于梯度的优化方法提出了挑战。离散化后信息论告诉我们,比特率是结果符号的熵?(存疑)。 该文章的重点就是如何对熵H进行建模。
- 该方法基于上下文模型