首页 > 其他分享 >【论文阅读笔记】Learning to Prompt for Continual Learning

【论文阅读笔记】Learning to Prompt for Continual Learning

时间:2023-04-11 20:25:29浏览次数:33  
标签:task prompt Learning times key 使用 Continual Prompt id

Create_time: April 27, 2022 5:21 PM
Edited_by: Huang Yujun
Org: Google Research, Northeastern University

Learning to Prompt for Continual Learning

L2P(1)

[38]Learning to Prompt for Continual Learning.pdf

问题:

  • 最终输入transformer encoder的序列长度是怎么组成的,原始输入如何编码,是否要加上position embeding(已知class token为预训练模型的一部分)

0. 对 prompt 的背景知识的补充

1. Contribution

  • 提出将NLP领域做迁移学习的 Promting 引入到持续学习中,使用 prompt 来表征 task 的信息
  • 尝试不使用task id 而是通过key-value的方式,来选择task specific prompt

2. Motivation

持续学习本质是一个拟合 “随序列动态变化的数据分布” 的问题。目前的工作主要集中于调整整个模型的参数以拟合数据分布。

目前的主流方法仍面临许多挑战

  • 样本回放方法
    • 性能受 buffer 大小影响很大
    • 在严格限制额外存储空间的场景不适用
  • 任务增量的方法
    • 需要在测试时知道任务id

现有方法的都面临两个问题:

(1) Whether the form of episodic memory can go beyond buffering past data to more intelligent and succinct episodic memory system?
(2) How to automatically select relevant knowledge component for arbitrary sample without knowing its task identity?

相关文章

  • 【论文阅读笔记】Distiling Causal Effect of Data in Class-Incremental Learning
    Author:HanwangZhang,XintingHuCreate_time:April24,202211:01AMEdited_by:HuangYujunPublisher:CVPR2021Org:NanyangTechnologicalUniversityDistilingCausalEffectofDatainClass-IncrementalLearning1.Contribution这是一篇从因果角度思考持续......
  • 【论文阅读笔记】iCaRL: Incremental Classifier and Representation Learning
    Author:AlexanderKolesnikovKey_words:nearest-mean-of-exemplarrule,prioritizedexamplerselection,representationlearningCreate_time:September11,20213:06PMEdited_by:HuangYujunPublisher:CVPR2017Score/5:⭐️⭐️Status:FinishediCaRL:Incre......
  • 迁移学习()《Attract, Perturb, and Explore: Learning a Feature Alignment Network fo
    论文信息论文标题:Attract,Perturb,andExplore:LearningaFeatureAlignmentNetworkforSemi-supervisedDomainAdaptation论文作者:TaekyungKim论文来源:2020ECCV论文地址:download 论文代码:download视屏讲解:click1摘要提出了目标域内的域内差异问题。提......
  • NLP新范式(Prompt/Instruct)
    NLP的四范式NLP发展到今天已经进入到了LLM的时代,随着模型越来越大,在zero-shot/few-shot的情形下也表现的越来越好,NLP也进入到了新的研究范式里面。学术界按发展时间线将NLP归纳到四个范式:1),传统的基础学习范式。2),基于word2vec,cnn,rnn的全监督深度学习范式。......
  • MULTIINSTRUCT: Improving Multi-Modal Zero-Shot Learning via Instruction Tuning
    指令调优是一种新的学习范式,它可以根据指令指定的任务对预先训练好的语言模型进行微调,在各种自然语言处理任务中显示出良好的零目标性能。然而,对于视觉和多模态任务,它仍然没有被探索。在这项工作中,我们介绍了multiinstruction,这是第一个多模态指令调优基准数据集,由47个不同的多模......
  • 利用强化学习Q-Learning实现最短路径算法
    如果你是一名计算机专业的学生,有对图论有基本的了解,那么你一定知道一些著名的最优路径解,如Dijkstra算法、Bellman-Ford算法和a*算法(A-Star)等。这些算法都是大佬们经过无数小时的努力才发现的,但是现在已经是人工智能的时代,强化学习算法能够为我们提出和前辈一样好的解决方案吗?......
  • 异常检测 | 迁移学习《Anomaly Detection in IR Images of PV Modules using Supervis
    论文信息论文标题:AnomalyDetectioninIRImagesofPVModulesusingSupervisedContrastiveLearning论文作者:AbhayRawat, IshaDua, SauravGupta, RahulTallamraju 论文来源:LukasBommes,MathisHoffmann,ClaudiaBuerhop-Lutz,TobiasPickel,JensHauch,Christ......
  • 解密prompt系列5. APE+SELF=自动化指令集构建代码实现
    上一章我们介绍了不同的指令微调方案,这一章我们介绍如何降低指令数据集的人工标注成本!这样每个人都可以构建自己的专属指令集,哈哈当然我也在造数据集进行时~介绍两种方案SELFInstruct和AutomaticPromptEngineer,前者是基于多样的种子指令,利用大模型的上下文和指令理解能力,......
  • Do you know the bitwise sum sample demonstrated in "Neural Networks and Deep Lea
    Doyouknowthebitwisesumsampledemonstratedin"NeuralNetworksandDeepLearning"byautor MichaelNielsen?Yes,Iamfamiliarwiththebitwisesumexampledemonstratedin"NeuralNetworksandDeepLearning"byMichaelNielsen......
  • AI Prompt Engineering 提示工程:提升你的创意与效率
    参考引言AI工具种类也开始进入大繁荣时代。根据There'sanAIForThat网站显示,自2002年-至今,AI社区已经构建了超过2400个AI工具,覆盖577种用途类别(当然,还有很多未收录的AI工具)。虽然AI工具已经有了,但如何用好这些工具却是另外一回事。本文将向您推荐一种名为AIProm......