Create_time: April 27, 2022 5:21 PM
Edited_by: Huang Yujun
Org: Google Research, Northeastern University
Learning to Prompt for Continual Learning
[38]Learning to Prompt for Continual Learning.pdf
问题:
- 最终输入transformer encoder的序列长度是怎么组成的,原始输入如何编码,是否要加上position embeding(已知class token为预训练模型的一部分)
0. 对 prompt 的背景知识的补充
1. Contribution
- 提出将NLP领域做迁移学习的 Promting 引入到持续学习中,使用 prompt 来表征 task 的信息
- 尝试不使用task id 而是通过key-value的方式,来选择task specific prompt
2. Motivation
持续学习本质是一个拟合 “随序列动态变化的数据分布” 的问题。目前的工作主要集中于调整整个模型的参数以拟合数据分布。
目前的主流方法仍面临许多挑战
- 样本回放方法
- 性能受 buffer 大小影响很大
- 在严格限制额外存储空间的场景不适用
- 任务增量的方法
- 需要在测试时知道任务id
现有方法的都面临两个问题:
(1) Whether the form of episodic memory can go beyond buffering past data to more intelligent and succinct episodic memory system?
(2) How to automatically select relevant knowledge component for arbitrary sample without knowing its task identity?