首页 > 其他分享 >深度学习刷SOTA有哪些trick?

深度学习刷SOTA有哪些trick?

时间:2022-10-07 13:03:00浏览次数:73  
标签:loss 训练 哪些 模型 SOTA trick 随机 https

深度学习刷SOTA有哪些trick?

【写在前面】

对深度学习而言,不论是学术研究还是落地应用都需要尽可能提升模型效果,这往往需要trick进行支撑。这些trick有的是广泛适用的(如循环学习率、BN等等),有的是任务特定的(比如cv里的数据增强,nlp里的mask,推荐里的降采样)。

这些trick有的能够提升网络精度,有的能够加速收敛,有的甚至比模型提升更加显著。

在同学们各自的领域中,有哪些常遇到的、易实践的、易推广的trick呢?

来源:​​https://www.zhihu.com/question/540433389/answer/2549775065​

作者:Gordon Lee  

  1. R-Drop:两次前向+KL loss约束
  2. MLM: 在领域语料上用mlm进一步预训练 (Post-training)
  3. EFL: 少样本下,把分类问题转为匹配问题,把输入构造为NSP任务形式.
  4. 混合精度fp16: 加快训练速度,提高训练精度
  5. 多卡ddp训练的时候,用到梯度累积时,可以使用no\_sync减少不必要的梯度同步,加快速度
  6. 对于验证集或者测试集特别大的情况,可以尝试多卡inference,需要用的就是dist.all\_gather,对于非张量的话也可以用all\_gather\_object
  7. PET: 少样本下,把分类转为mask位置预测,并构造verbalizer,参考EACL2021. PET
  8. ArcFaceLoss:双塔句子匹配的loss把NT-Xent loss改成arccos的形式,参考ACL2022. ArcCSE
  9. 数据增强在zero shot x-lingual transfer:code switch,machine translation..记得最后加一致性loss,参考consistency regularization for cross lingual finetuning
  10. SimCSE:继续在领域语料上做simcse的预训练
  11. Focal loss: 不平衡的处理
  12. ​双塔迟交互​​:maxsim操作:query和doc的每个token表征算相似度,取最大相似度再求和。速度和精度都有一个很好的平衡,参考colbert
  13. 持续学习减轻遗忘:EWC方法+一个很强的预训练模型效果很不错。就是加一个正则让重要参数遗忘不太多,重要性用fisher信息度量。
  14. 对抗训练:FGM,PGD,能提点,就是训练慢,
  15. memory bank增大bsz,虽然我感觉有时候有点鸡肋
  16. PolyLoss: -logpt + eps \* (1-pt) 效果存疑,反正我试了没啥效果,有人试过效果不错

作者:昆特Alex  

一句话原则: AI performance = data(70%) + model(CNN、RNN、Transformer、Bert、GPT 20%) + trick(loss、​​warmup​​、optimizer、attack-training etc 10%) 记住:数据决定了AI的上线,模型和trick只是去逼近这个上线,还是那句老话:garbage in, garbage out。 下面具体分享在NLP领域的一些具体trick:

一、Data Augmentation

1、噪音数据删除:(​​最大熵删除法​​、cleanlab等)

2、错误标注数据修改:​​交叉验证​​训练多个模型,取模型预测结果一致且prob比threshold大的数据(或者topN)。多个模型可以采用不同的​​seed​​,不同的训练集测试机,或者不同的模型结果(bert与textcnn等),找出覆盖部分模型预测与​​标柱数据​​不一致的标注错误数据进行修改。

3、数据增强

  • 同义词替换(Synonym Replacement):从句子中随机选取n个不属于停用词集的单词,并随机选择其同义词替换它们;
  • 随机插入(Random Insertion):随机的找出句中某个不属于停用词集的词,并求出其随机的同义词,将该同义词插入句子的一个随机位置。重复n次;
  • 随机交换(Random Swap):随机的选择句中两个单词并交换它们的位置。重复n次;
  • 随机删除(Random Deletion):以 ppp 的概率,随机的移除句中的每个单词;
  • 反向翻译(back translation):将源语言翻译成中间语言,再翻译回原语言

二、Model backbone

Transformer已经随着bert而大杀四方了,不同的预训练模型backbone有着不同的应用场景。领域数据充足且条件允许的话可以考虑用行业预料进行预训练,次之进行领域再训练,最后才考虑用公开的模型进行​​finetune​​。各个公开的backbone选择小trick如下:

  • robert\_wwm\_ext: 文本分类、NER等任务单句自然语言理解(NLU)任务上性能较好
  • simbert:句子相似度计算、句子对关系判断等任务上效果较好
  • GPT系列:文本翻译、文本摘要等自然语言生成(NLG)任务上性能效果较好。 三、训练loss等其他trick

三、tricks

  • 样本不均衡问题:除了前面介绍的数据增强,过采样等方法外,还可以试试facalloss、loss加权等方式处理。
  • optimizer、lr、warmup、batch\_size等配合的好也能能够神奇提点(比如通常batch\_size较大时lr也可以同步提升)。
  • 训练trick:进行对抗训练(FGM、PGD)等
  • 多任务学习:增加auxiliary loss
  • ​label smoothing​​: 经过了噪音数据删除、数据增强等数据精度还是差强人意的话可以考虑
  • etc···

last but not least:AI performance = data(70%) + model(20%) +other trick(10%),请把时间花在最能提升模型性能的事情上面,而不是追求各种花式trick叠buff,trick只是用来景上添花,而数据以及选择的模型backbone才是最核心的景色。

作者:爱睡觉的KKY

这里我罗列一些比较通用的​​trick​​,都是经过自己论文或比赛中使用验证过的:

  1. 尝试模型初始化方法,不同的分布,分布参数。下图是用不同初始化方法网络性能对比,有兴趣的同学可以看看​​kaiming​​的论文​​Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification​​ 。

深度学习刷SOTA有哪些trick?_数据

  1. 不同的预训练任务初始化,在最近的Google Universal Embedding比赛中,采用ImageNet 1K(1K类别分类)和ImageNet21k的两种Pretrained Model 表现差异非常大,主要原因是21K任务分类粒度更细,模型对图片细粒度信息关注度更高,得到的模型输出作为Image Embedding Vector性能表现越好,有兴趣的同学可以看看这篇讨论
  2. warmup cosine lr scheduler , 先热身(学习率逐渐攀升),再进行余弦衰减,对大模型这个学习率策略非常好用,在huggingface Transformers 库已经有现成的。  

深度学习刷SOTA有哪些trick?_github_02

  1. 分层学习率或学习率策略  
  2. 对抗训练提升模型鲁棒性,方法有很多,我常用的是对抗权重扰动(AWP, Adversarial Weight Perturbation),实现可以参考这篇文章。  
  3. ​随机权重平均​​(Stochastic Weight Averaging,SWA),通过对训练过程中的模型权重进行Avg融合,提升模型鲁棒性,PyTorch有官方实现。  

深度学习刷SOTA有哪些trick?_权重_03

  1. ​pseudo label​​ / meta pseudo label ,比赛中常用的半监督技巧。
  1. TTA,test time augmentation,可以搭配Data Augmentation来做。
  2. 数据增强
  • nlp :回译,词性替换等
  • CV :resize、crop、flip、ratate、blur、HSV变化、affine(仿射)、perspective(透视)、Mixup、cutout、cutmix、Random Erasing(随机擦除)、Mosaic(马赛克)、CopyPaste、GANs domain transfer等)
  1. 蒸馏,参考论文Can Students Outperform Teachers in Knowledge Distillation Based Model Comparison? (https://openreview.net/pdf?id=XZDeL25T12l)
  2. 结构重参数化,细节可查看RepVGG论文(https://arxiv.org/abs/2101.03697
  3. GradientCheckpoint, 节省显存,让你有更高的建模自由度
  4. 终极答案,换个random seed(笑)

以上均是针对单模型的通用trick。一些领域限定的技术这里不再具体罗列,但是有不少文献大家可以借鉴,例如:

【项目推荐】

面向小白的顶会论文核心代码库:​https://github.com/xmu-xiaoma666/External-Attention-pytorch​

AI必读论文和视频教程:​https://github.com/xmu-xiaoma666/FightingCV-Course​

面向小白的YOLO目标检测库:​https://github.com/iscyy/yoloair​

面向小白的顶刊顶会的论文解析:​https://github.com/xmu-xiaoma666/FightingCV-Paper-Reading​

深度学习刷SOTA有哪些trick?_数据_04


标签:loss,训练,哪些,模型,SOTA,trick,随机,https
From: https://blog.51cto.com/u_15782370/5734420

相关文章