- 2024-03-08论文精读:关于不确定性校准的mixup陷阱(On the Pitfall of Mixup for Uncertainty Calibration)
背景Mixup(混合)定义对于一个样本\((x_i,y_i)\),将其与另一个样本\((x_j,y_j)\)混合:\[\begin{aligned}\tilde{x}_i&=\lambdax_i+(1-\lambda)x_j,\\\tilde{y}_i&=\lambday_i+(1-\lambda)y_j,\end{aligned}\tag{1}\]其中\(\lambda\)采样于Beta(α,α),α>0
- 2023-05-20May 2022-Neighborhood Mixup Experience Replay: Local Convex Interpolation for Improved Sample Effici
摘要:经验回放在提高深度强化学习智能体的样本效率方面起着至关重要的作用。经验回放的最新进展建议使用Mixup-2018,通过合成样本生成进一步提高样本效率。在这种技术的基础上,提出了邻域混合经验回放(NMER),一种基于几何的回放缓冲区,用状态-动作空间中最近邻的转换进行插值。NMER仅
- 2023-05-07论文解读《Mixup for Node and Graph Classification》
论文信息论文标题:MixupforNodeandGraphClassification论文作者:YiweiWang、WeiWang论文来源:WWW2021论文地址:download 论文代码:download视屏讲解:click1介绍
- 2023-05-03论文解读《Interpolated Adversarial Training: Achieving robust neural networks without sacrificing too muc
论文信息论文标题:InterpolatedAdversarialTraining:Achievingrobustneuralnetworkswithoutsacrificingtoomuchaccuracy论文作者:AlexLambVikasVermaKenjiKawaguchiAlexanderMatyaskoSavyaKhoslaJuhoKannalaYoshuaBengio论文来源:2022NeuralNetworks论文地址:dow
- 2023-05-02迁移学习《mixup: Beyond Empirical Risk Minimization》
论文信息论文标题:mixup:BeyondEmpiricalRiskMinimization论文作者:TakeruMiyato,S.Maeda,MasanoriKoyama,S.Ishii论文来源:2018ICLR论文地址:download 论文代码:download视屏讲解:click
- 2023-04-27CutMix&Mixup详解与代码实战
摘要:本文将通过实践案例带大家掌握CutMix&Mixup。本文分享自华为云社区《CutMix&Mixup详解与代码实战》,作者:李长安。引言最近在回顾之前学到的知识,看到了数据增强部分,对于CutMix以及Mixup这两种数据增强方式发现理解不是很到位,所以这里写了一个项目再去好好看这两种数据增强方
- 2023-02-26初探数据增强
这篇文章主要用来大概梳理数据增强的内容。以下内容部分包含我和chatGPT对话的提炼内容(有修改)总述当我们训练机器学习模型时,我们希望用尽可能多的数据来提高模型的性能。
- 2023-01-10迁移学习(IIMT)——《Improve Unsupervised Domain Adaptation with Mixup Training》
论文信息论文标题:ImproveUnsupervisedDomainAdaptationwithMixupTraining论文作者:ShenYan,HuanSong,NanxiangLi,LincanZou,LiuRen论文来源:arxiv2020论文
- 2022-10-30小样本利器4. 正则化+数据增强 Mixup Family代码实现
前三章我们陆续介绍了半监督和对抗训练的方案来提高模型在样本外的泛化能力,这一章我们介绍一种嵌入模型的数据增强方案。之前没太重视这种方案,实在是方法过于朴实。。。不