LM-Cocktail:一种创新的模型合并方法打破预训练语言模型微调后的性能局限,实现语言模型在一般任务与特定领域的均衡高性能
使语言模型的微调类似于调制一杯精致的鸡尾酒。模型合并可用于提高单个模型的性能。我们发现此方法对于大型语言模型和密集嵌入模型也很有用,并设计了 LM-Cocktail 策略,该策略使用简单的函数计算合并权重来自动合并微调模型和基础模型。LM-Cocktail 可用于提高目标域的性能,而不会降低目标域之外的一般能力。它还可用于生成无需微调的新任务模型。
预训练的语言模型会不断微调,以更好地支持下游应用程序。但是,该操作可能会导致目标域以外的一般任务的性能明显下降。为了克服这个问题,LM-Cocktail它使微调模型在一般情况下保持弹性。该方法以模型合并的形式进行,通过加权平均将微调后的语言模型与预训练好的基础模型或其他领域的对等模型合并。尽管简单,LM-Cocktail却出奇地有效:结果模型能够在一般任务的整个范围内实现强大的经验表现,同时在目标领域保持优越的能力。我们在FLAN、MMLU、MTEB等常用基准上对LLama和BGE模型进行了综合实验,结果验证了本文方法的有效性。
相关论文:LM-Cocktail: Resilient Tuning of Language Models via Model Merging
1.LM-Cocktail:,让预训练语言模型在微调后依然保持广泛任务的强大性能
1.1 应用场景
- 缓解灾难性遗忘的问题
对基础语言模型进行微调可能会导致模型在目标领域之外的一般能力严重退化。通过混合微调模型和基础模型ÿ