首页 > 其他分享 >【论文阅读笔记】iCaRL: Incremental Classifier and Representation Learning

【论文阅读笔记】iCaRL: Incremental Classifier and Representation Learning

时间:2023-04-11 20:11:06浏览次数:38  
标签:特征向量 新类 样本 旧类 iCaRL Incremental Learning 类别 数据

Author: Alexander Kolesnikov
Key_words: nearest-mean-of-exemplar rule, prioritized exampler selection,representation learning
Create_time: September 11, 2021 3:06 PM
Edited_by: Huang Yujun
Publisher: CVPR 2017
Score /5: ⭐️⭐️
Status: Finished

iCaRL: Incremental Classifier and Representation Learning

1. 背景

本文提出的符合增量学习算法的三条基本属性(as class-incremental):

  • 能学习不同时间到达的新类别数据
  • 能够对所有现有的类别数据,训练出一个有效的多类分类器
  • 对计算存储资源的消耗有一个上限(时空复杂度有上界),或增长得比较慢

目前(2017年前)没有一种方法能够满足这三个条件

2. 本文提出的方法

为了满足上述提到的三个基本属性,本文提出的方法 iCaRL(Incremental Classifier and Representation Learning)的创新点主要有三个:

  • classification by a nearest-mean-of-exemplars rule
  • prioritized exemplar selection based on herding
  • representation learning using knowledge distillation and prototype rehearsal

下面介绍这三个模块的细节

2.1 增量分类器的学习模块(class-incremental classifier learning)

主要有几个要点:

  • 模型需要确保保存的采样数据量有个上限K。每增加新类的时候,会修改各个旧类别数据在存储容器中的占比
  • 模型结构。模型的特征提取器在增加新类的时候结构不改变,但会在分类器中动态的增加输出层的神经元个数。(即分类器只有一个,并非像LWF那样多头)
iCaRL (1)

2.2 样本最近-均值分类模块(nearest-mean-of-exemplars classification)

本文提出的模型会如何进行分类(推断or预测)呢?

首先,会计算当前已知所有各个类别数据的对应的平均特征向量。例如有一个类别a在样本容器中的数据量为n,那么类别a的平均特征向量为,所有a类样本特征向量求和除以n;

然后,计算需要推断数据的特征向量与各个类别平均特征向量的距离,以距离最小对应的类别为预测类别。

iCaRL (2)

2.3 表征学习模块(representation learning)

表征学习模块主要功能是更新特征提取器(即卷积层),需要使用到新类数据以及存储的旧类样本数据。它是怎么更新的呢?其步骤如下:

a) 对新类数据及存储的旧类数据进行数据增广

b) 将增广后的所有数据输入网络,得到数据在旧模型中的特征向量,并存储下来

c) 最后训练更新网络参数,最小化损失函数。对于新类数据而言,会通过训练使网络倾向于得到正确的新类别分类标签;对于旧类数据而言,将生成保存在上一步存储空间中的蒸馏损失

iCaRL (3)

此处有点像 fine-tune ,但不同之处在于本文的网络会输入新旧类数据,在新类数据训练使网络能够正确分类新类别的同时,也能够不丢失旧类的部分知识。

注意旧类容器中保存的旧类的照片数据,而非其特征向量,因为此时特征提取器参数在不断的更新

2.4 采样器管理(examplar management)

采样器需要思考该保存哪些旧样本的数据?(该存哪些,该丢掉哪些)每一类该保存多少?

iCaRL 的采样器对于每一类该保存多少数据的问题,按照平均来分配,即 每一类的容量m=容器总容量/当前已知类别个数。容器一般都会存储满(不多不少),各类别中的样本有存储优先次序。

对于该保存哪些数据的问题,iCaRL 的样本管理可以分为两部分:取样器 和 剔除器

取样器将计算同一个类别中(指在存储容器中的数据),当前样本特征向量与样本平均特征向量的距离(其实讲不太准确),对距离从小到大排序,将距离最小的前m个确定为需要存储的

iCaRL (4)

剔除器,将剔除前m个样本后面的数据

iCaRL (5)

本文实现的采样器实际上仅在当前类别第一次到达时,即作为新类时,会调用取样器,之后不会再调用。此后,仅会调用剔除器去根据类别允许容量剔除样本。

3. 实验结果

iCaRL (6)
iCaRL (7)

相关文章

  • 迁移学习()《Attract, Perturb, and Explore: Learning a Feature Alignment Network fo
    论文信息论文标题:Attract,Perturb,andExplore:LearningaFeatureAlignmentNetworkforSemi-supervisedDomainAdaptation论文作者:TaekyungKim论文来源:2020ECCV论文地址:download 论文代码:download视屏讲解:click1摘要提出了目标域内的域内差异问题。提......
  • MULTIINSTRUCT: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning
    指令调优是一种新的学习范式,它可以根据指令指定的任务对预先训练好的语言模型进行微调,在各种自然语言处理任务中显示出良好的零目标性能。然而,对于视觉和多模态任务,它仍然没有被探索。在这项工作中,我们介绍了multiinstruction,这是第一个多模态指令调优基准数据集,由47个不同的多模......
  • 利用强化学习Q-Learning实现最短路径算法
    如果你是一名计算机专业的学生,有对图论有基本的了解,那么你一定知道一些著名的最优路径解,如Dijkstra算法、Bellman-Ford算法和a*算法(A-Star)等。这些算法都是大佬们经过无数小时的努力才发现的,但是现在已经是人工智能的时代,强化学习算法能够为我们提出和前辈一样好的解决方案吗?......
  • 异常检测 | 迁移学习《Anomaly Detection in IR Images of PV Modules using Supervis
    论文信息论文标题:AnomalyDetectioninIRImagesofPVModulesusingSupervisedContrastiveLearning论文作者:AbhayRawat, IshaDua, SauravGupta, RahulTallamraju 论文来源:LukasBommes,MathisHoffmann,ClaudiaBuerhop-Lutz,TobiasPickel,JensHauch,Christ......
  • Do you know the bitwise sum sample demonstrated in "Neural Networks and Deep Lea
    Doyouknowthebitwisesumsampledemonstratedin"NeuralNetworksandDeepLearning"byautor MichaelNielsen?Yes,Iamfamiliarwiththebitwisesumexampledemonstratedin"NeuralNetworksandDeepLearning"byMichaelNielsen......
  • 论文阅读笔记《Sim-to-real learning for bipedal locomotion under unsensed dynamic
    Sim-to-reallearningforbipedallocomotionunderunsenseddynamicloads目录Sim-to-reallearningforbipedallocomotionunderunsenseddynamicloads介绍背景研究现状本文贡献学习策略无负载策略的训练有负载策略的训练实验模拟器实验虚实迁移实验总结本文的贡献对研究......
  • EECS 280 Project 5: Machine Learning
    EECS280Project5:MachineLearningDue8:00pmTuesdayApril18,2023.Youmayworkaloneorwithapartner(partnershipguidelines).Winter2023release.IntroductionAutomaticallyidentifythesubjectofpostsfromtheEECS280Piazzausingnaturallanguag......
  • GNN-learning-notes
    GNN学习笔记Datetime:2023-04-01T16:28+08:00Categories:MachineLearning目录GCNGraphSAGEGraphAttentionNetwork初学者一定要看:【GNN入门】综述篇-知乎用户MxLVSX的文章-zhihu.com,包括频域和空域、任务类型、经典模型。最早的GNN,介于迭代不动点:https://zhuanla......
  • 【论文笔记 - InstructPix2Pix】InstructPix2Pix: Learning to Follow Image Editing
    InstructPix2Pix和Pix2Pix是两码事。Pix2Pix使用的是GAN,而InstructPix2Pix使用的是Diffusion。这个名字的由来可能出于两个方面,一方面InstructPix2Pix允许在image-translation的时候引入文本Instruction,另一方面InstructPix2Pix和Pix2Pix一样使用了成对的数据进行训练。鉴于目前图......
  • FATE Machine Learning
    OFFICE280FATEMachineLearningCRISTIáNBRAVOOFFICE280Thisweek…FairnessDefinitionofFairnessConfoundingTransparencyandExplainabilityShapleyValuesLecturewillcover…FairMLBook,Chapters1,2and3.https://fairmlbook.org/pdf/fairmlbook.pdfShap......