首页 > 其他分享 >使用 LoRA 进行 Stable Diffusion 的高效参数微调

使用 LoRA 进行 Stable Diffusion 的高效参数微调

时间:2023-02-10 11:57:34浏览次数:59  
标签:Diffusion -- 模型 微调 Stable model LoRA

LoRA: Low-Rank Adaptation of Large Language Models 是微软研究员引入的一项新技术,主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3) 通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层 (秩-分解矩阵)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。研究人员发现,通过聚焦大模型的 Transformer 注意力块,使用 LoRA 进行的微调质量与全模型微调相当,同时速度更快且需要更少的计算。

用于 Diffusers 的 LoRA

标签:Diffusion,--,模型,微调,Stable,model,LoRA
From: https://www.cnblogs.com/huggingface/p/17108402.html

相关文章