• 2024-06-13ALoRA: Allocating Low-Rank Adaptation for Fine-tuning Large Language Models
    本文是LLM系列文章,针对《ALoRA:AllocatingLow-RankAdaptationforFine-tuningLargeLanguageModels》的翻译。ALoRA:为微调大型语言模型分配低秩自适应摘要1引言2相关工作3方法4实验5结论摘要参数有效微调(PEFT)在大语言模型时代因其有效性和效率而
  • 2024-06-04【机器学习】LoRA:大语言模型中低秩自适应分析
    LoRA:大型语言模型中的低秩自适应调优策略一、LoRA的原理与优势二、LoRA在编程和数学任务中的性能表现四、总结与展望随着人工智能技术的飞速发展,大型语言模型已成为自然语言处理领域的明星技术。然而,这些模型通常拥有数以亿计的参数,使得在特定任务上进行微调变得既