尽管使用更快和更深的卷积神经网络在单幅图像超分辨率的精度和速度上取得了突破,但一个中心问题仍然很大程度上没有解决:当我们以大的放大因子进行超分辨时,我们如何恢复更精细的纹理细节?基于优化的超分辨方法的行为主要由目标函数的选择驱动。最近的工作主要集中在最小化均方重建误差。所得到的估计具有高峰值信噪比,但是它们常常缺乏高频细节,并且在它们不能匹配在较高分辨率下期望的保真度的意义上感觉不令人满意。提出了一种用于图像超分辨率(SR)的生成式对抗网络(GAN)SRGAN。据我们所知,它是第一个能够以4倍的尺度放大因子来推断照片级真实感自然图像的框架。为了实现这一点,我们提出了一个感知损失函数,其中包括对抗损失和内容损失。对抗损失将我们的解决方案推向使用鉴别器网络的自然图像流形,该鉴别器网络被训练为区分超分辨率图像和原始照片级真实感图像。此外,我们使用由感知相似性而不是像素空间中的相似性激发的内容丢失。我们的深度残差网络能够在公共基准测试中从大量降采样图像中恢复照片级真实感纹理。一项广泛的平均意见得分(MOS)测试显示,使用SRGAN后,感知质量有了极大的提高。SRGAN获得的MOS评分比任何最先进的方法获得的MOS评分更接近原始高分辨率图像的MOS评分。
笔者:SijunMa
标签:照片,MOS,分辨率,网络,对抗性,SRGAN,图像 From: https://www.cnblogs.com/AmethystLab/p/17369781.html