欢迎来到《每周CV论文推荐》。在这个专栏里,还是本着有三AI一贯的原则,专注于让大家能够系统性完成学习,所以我们推荐的文章也必定是同一主题的。
数据增强在每一个深度学习项目中都是必要的操作,今天给大家推荐在计算机视觉中常用的数据增强相关的论文。
作者&编辑 | 言有三
1 裁剪缩放增强
在AlexNet中采用了四个角加中心裁剪以及翻转的方法,在测试的时候使用了10个不同的输入图最后将结果平均,这是很简单而且很重要的融合技巧。在VGG中使用了scale jittering的方法,即将图像先在一个范围内进行随机缩放然后裁剪,可以提升训练精度,这两篇文章的引用量加起来超过了60000,需要精读,因为随机裁剪效果远超其他方法。
文章引用量:60000+
推荐指数:✦✦✦✦✦
[1] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]//Advances in neural information processing systems. 2012: 1097-1105.
[2] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.
2 样本插值SMOTE和Mixup
类不平衡现象是很常见的,它指的是数据集中各类别数量不近似相等。如果样本的数量相差很大,会影响分类器的分类效果。SMOTE即Synthetic Minority Over-sampling Technique方法,它通过人工合成新样本来处理样本不平衡问题,从而提升分类器性能。
Facebook人工智能研究院和MIT在“Beyond Empirical Risk Minimization”中提出的Mixup与之类似。
文章引用量:6000+
推荐指数:✦✦✦✦✧
[3] Chawla N V, Bowyer K W, Hall L O, et al. SMOTE: synthetic minority over-sampling technique[J]. Journal of artificial intelligence research, 2002, 16: 321-357.
[4] Zhang H, Cisse M, Dauphin Y N, et al. mixup: Beyond empirical risk minimization[J]. arXiv preprint arXiv:1710.09412, 2017.
3 学习增强策略Autoaugmentation
AutoAugment是Google提出的自动选择最优数据增强方案的研究,这是无监督数据增强的重要研究方向。它的基本思路是使用增强学习从数据本身寻找最佳图像变换策略,对于不同的任务学习不同的增强方法,在这个基础上发展出了针对目标检测等领域的方法。
文章引用量:120+
推荐指数:✦✦✦✦✦
[5] Cubuk E D, Zoph B, Mane D, et al. AutoAugment: Learning Augmentation Policies from Data.[J]. arXiv: Computer Vision and Pattern Recognition, 2018.
4 其他资料
除了以上论文阅读,如果大家对这个方向感兴趣,可以阅读我们公众号的综述文章以及相关的GitHub项目。
另外,给大家一个综述,比较总结了各种常见的数据增强方法。
[6] Shorten C, Khoshgoftaar T M. A survey on Image Data Augmentation for Deep Learning[J]. Journal of Big Data, 2019, 6(1): 60.
标签:增强,arXiv,推荐,论文,裁剪,文章,数据,CV From: https://blog.51cto.com/u_14122493/5751595