前言 本文介绍了 ICCV 2023 上的新工作《Retinexformer: One-stage Retinex-based Transformer for Low-light Image Enhancement》
本文转载自我爱计算机视觉
仅用于学术分享,若侵权请联系删除
欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。
【CV技术指南】CV全栈指导班、基础入门班、论文指导班 全面上线!!
![](https://pic2.zhimg.com/80/v2-4225449e78bef1c5fd866824804384f1_1440w.webp)
论文链接:https://arxiv.org/abs/2303.06705
代码链接:https://github.com/caiyuanhao1998/Retinexformer
![](https://pic1.zhimg.com/80/v2-25176aa40de0d3e5a80497dbe6e426e0_1440w.webp)
目前所有的代码、模型、训练日志、十三个数据集(LOL-v1, LOL-v2-real, LOL-v2-synthetic, SID, SMID, SDSD-in, SDSD-out, MIT Adobe FiveK, LIME, NPE, MEF, DICM, VV)的测试结果均已开源。我们基于 BasicSR 开发了一个集成了八大数据集的训练框架。欢迎大家来使用~
1. 暗光增强简介
如图1所示,暗光增强的主要任务是增强低光图像的能见度和对比度,同时修复隐藏在黑暗中或由于提升亮度而引入的噪声、伪影、颜色畸变等复杂的退化模式。
![](https://pic2.zhimg.com/80/v2-03cfbce1f0c96f41ac8c9500a7aae705_1440w.webp)
当前的暗光增强算法大体上可以分为三类:朴素方法、传统感知方法、深度学习方法
朴素方法一般会直接在全局范围内增强整张图像的亮度和对比度。经典的算法有直方图均衡化(histogram equalization )和伽马矫正(Gama Correction)。然而这类算法没有考虑到光照因素,使得增强后的图像与真实光照图像严重不符。
传统感知算法大都基于视网膜理论(Retinex Theory),将一张自然图像解耦为照度图(Illumination)和反射图(Reflectance),并将反射图作为暗光增强后的图像。然而这类算法有两个缺陷。一是假定暗光图像都是干净的,不存在噪声伪影等。然而由于成像设备的缺陷,暗光图像常常带有噪声。二是这类算法依赖于手工设计的图像先验,常常需要调参且表征能力很弱。
现有的深度学习方法大多基于卷积神经网络,不擅长于捕获长程依赖关系,不利于图像的修复。有部分深度学习算法与视网膜分解理论相结合。然而这类算法大都需要一个冗长的流程,采取一个多阶段的训练方案,分别训练多个不同的 CNN 来做不同的任务,如解耦彩色图像、给反射图去噪、调整照度图等。然后将这些训好的 CNN 连接起来进行微调。整个训练过程繁琐复杂,费时费力。
为了解决上述难题,本文:
【1】我们提出了首个与视网膜理论相结合的 Transformer 算法,名为 Retinexformer,以用于暗光增强。
【2】我们推导了一个单阶段视网膜理论框架,名为 ORF(One-stage Retinex-based Framework),不需要繁复的训练和微调流程,只需要一个阶段端到端的训练即可。
【3】我们设计了一种由光照引导的新型多头自注意机制,名为 IG-MSA(Illumination-Guided Multi-head Self-Attention,IG-MSA),将光照信息作为关键线索来引导长程依赖关系的捕获。
【4】我们的算法在十三个暗光增强榜单上达到了更好的定量和定性效果,同时在用户研究和黑夜目标检测任务上验证了我们算法的实用价值。
2. 本文方法
![](https://pic2.zhimg.com/80/v2-56786a5bd47a2f8d7a58bd275aeb9291_1440w.webp)
本文方法的整体框架如图3所示。在图3 (a) 中,Retinexformer 采用我们设计的 ORF。而 ORF 又由两部分构成:(i) 光照估计器(illumination estimator)和 (ii) 退化修复器(corruption restorer)。在图3 (b) 中,我们设计一个光照引导的 Transformer IGT(Illumination-Guided Transformer)来作为退化修复器。IGT 的基本单元是光照引导的注意力块 IGAB (Illumination-Guided Attention Block)。IGAB 由两个层归一化 LN(Layer Normalization),一个 IG-MSA 和一个前馈网络 FFN(Feed-Forward Network)组成,其细节如图3 (c) 所示。
2.1 单阶段视网膜理论框架
根据视网膜理论,一个低光图像 I 可以分解为一个反射图 R 和一个照度图 L 的点乘:
![](https://pic4.zhimg.com/80/v2-bf9f388f36b00b54cc1b5d18c708a95f_1440w.webp)
然而这个视网膜模型并没有考虑噪声伪影等退化因素。因此,我们将这条公式重写为:
![](https://pic3.zhimg.com/80/v2-01e1af389cdf58e8705d6794070910d2_1440w.webp)
分别在反射图和照度图上加入了扰动项。那么在提升低光图像亮度时,上边等式两边会同时点乘一个亮度图:
![](https://pic4.zhimg.com/80/v2-4c9b43ebcc8675e019847eeab76fe6eb_1440w.webp)
等式右边第三项便表示隐藏在黑暗中的噪声伪影,并在提升亮度过程中被进一步放大。第二项表示点亮过程造成的失曝,过曝和颜色畸变。可将(3)式进一步简化为:
![](https://pic4.zhimg.com/80/v2-80c3cad48f5b8266111b818a1b91d8af_1440w.webp)
其中的 C 表示整体的退化项。基于(4)式,可将ORF推导为如下:
![](https://pic3.zhimg.com/80/v2-55a65695fc0e665ebae447ca2de36e22_1440w.webp)
低光图像和照度先验图先经过光照估计器后的输出作为退化修复器的输入。
2.2 光照引导的 Transformer
如图3 (a) (ii) 所示,IGT采用一个 encoder-bottleneck-decoder 的 U-型结构。其中最重要的组成部件便是 IG-MSA,光照估计器输出的增亮特征图输入到每一个 IG-MSA 当中。在 IG-MSA 当中,输入的特征图首先被变形为 token,然后被分成 k 个 heads:
![](https://pic4.zhimg.com/80/v2-c5f21c5431d640c096d02a79c6314863_1440w.webp)
对每个heads,分别将其线性投影为 Q,K,V:
![](https://pic1.zhimg.com/80/v2-8ff62e55a19a01e5b40cd55fb91599c0_1440w.webp)
同时也将增亮特征图形变成 token:
![](https://pic4.zhimg.com/80/v2-cf5224bce2326344ee5d2024d393583b_1440w.webp)
然后在每一个 head 计算自相似时,用光照信息作为引导:
![](https://pic4.zhimg.com/80/v2-f3c18f01293614f326bf2227036998ef_1440w.webp)
我们的 IG-MSA 的计算复杂度为:
![](https://pic4.zhimg.com/80/v2-5a0d741fcd202e258e8e81d1ace79a8b_1440w.webp)
同比全局的MSA的计算复杂度:
![](https://pic3.zhimg.com/80/v2-e2ab8010b48e67184e5e28885576c67e_1440w.webp)
我们 IG-MSA 计算复杂度与输入尺寸成线性而全局MSA的计算复杂度与输入成二次相关。我们的计算复杂度明显更低。
3. 实验结果
我们在 LOL-v1, LOL-v2-real, LOL-v2-synthetic, SID, SMID, SDSD-in, SDSD-out, MIT Adobe FiveK 八个数据集上开展定量实验,实验结果如表1、2所示:
![](https://pic1.zhimg.com/80/v2-7072df7abe5a48af47e1564f251a3b48_1440w.webp)
![](https://pic4.zhimg.com/80/v2-269e55ea82c4127998e182a4d9422c4f_1440w.webp)
此处需要补充说明一下,MIT Adobe FiveK 官方只提供了RAW数据。需要大家自己导出才能得到 RGB 数据。导出有两种格式,一种是 pro RGB,这种格式不适于人的眼睛来看,但是计算得到的 PSNR 和 SSIM 指标都偏高,便于大家报指标。而另一种是 s RGB 格式,这种就是最常见的 RGB 图像格式,但是这种格式指标会比较低。本文采用的就是这种格式。我们在 repo 里贴心地为大家准备好了已经导出的 sRGB 图像下载链接,可以直接下载使用~
我们在 LOL-v1, LOL-v2-real, LOL-v2-synthetic, SID, SMID, SDSD-in, SDSD-out, MIT Adobe FiveK, LIME, NPE, MEF, DICM, VV 上测试了定性效果。视觉对比如图4、5、6、7所示
![](https://pic2.zhimg.com/80/v2-011d14bcfc58d0e288a1921f7da1633d_1440w.webp)
![](https://pic4.zhimg.com/80/v2-5c760e6493056f69f1c2e627adca539f_1440w.webp)
![](https://pic1.zhimg.com/80/v2-f5259e85f054d80178e6f59772b05394_1440w.webp)
![](https://pic2.zhimg.com/80/v2-02f7931f837a3639e5bba82e68ee08b9_1440w.webp)
另外我们还做了用户调查,结果如表3所示:
![](https://pic4.zhimg.com/80/v2-c4bd3929cf1d6e4e75d7cfd2140f4303_1440w.webp)
最后,将我们的 Retinexformer 作为预处理器对暗光图像进行增强以辅助夜间目标检测的效果,在 ExDark 数据集上的定量结果如表4所示:
![](https://pic2.zhimg.com/80/v2-8435f0622bc259fd12a39cf06719b5b1_1440w.webp)
一些暗光增强辅助夜间目标检测的例子如图8、9、10 所示:
![](https://pic3.zhimg.com/80/v2-ae4e9e7f13d9ea00fd2d1dff59a14cc6_1440w.webp)
![](https://pic2.zhimg.com/80/v2-0e5193d705a6d75037d17228ccfb4655_1440w.webp)
![](https://pic3.zhimg.com/80/v2-08c28591603ed71ef4c43e892b419436_1440w.webp)
欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。
【技术文档】《从零搭建pytorch模型教程》122页PDF下载
QQ交流群:470899183。群内有大佬负责解答大家的日常学习、科研、代码问题。
其它文章
LSKA注意力 | 重新思考和设计大卷积核注意力,性能优于ConvNeXt、SWin、RepLKNet以及VAN
CVPR 2023 | TinyMIM:微软亚洲研究院用知识蒸馏改进小型ViT
ICCV2023|涨点神器!目标检测蒸馏学习新方法,浙大、海康威视等提出
ICCV 2023 Oral | 突破性图像融合与分割研究:全时多模态基准与多交互特征学习
HDRUNet | 深圳先进院董超团队提出带降噪与反量化功能的单帧HDR重建算法
南科大提出ORCTrack | 解决DeepSORT等跟踪方法的遮挡问题,即插即用真的很香
1800亿参数,世界顶级开源大模型Falcon官宣!碾压LLaMA 2,性能直逼GPT-4
SAM-Med2D:打破自然图像与医学图像的领域鸿沟,医疗版 SAM 开源了!
GhostSR|针对图像超分的特征冗余,华为诺亚&北大联合提出GhostSR
Meta推出像素级动作追踪模型,简易版在线可玩 | GitHub 1.4K星
CSUNet | 完美缝合Transformer和CNN,性能达到UNet家族的巅峰!
AI最全资料汇总 | 基础入门、技术前沿、工业应用、部署框架、实战教程学习
标签:2023,LOL,算法,ICCV,暗光,图像,ETH,CV,MSA From: https://www.cnblogs.com/wxkang/p/17733439.html