首页 > 其他分享 >大模型微调是否具有技术含量?或者说其技术含量究竟有多少?

大模型微调是否具有技术含量?或者说其技术含量究竟有多少?

时间:2024-09-19 10:49:54浏览次数:3  
标签:或者说 私有化 框架 AI 模型 微调 L2.2 应用 技术含量

有句老生常谈的话:一项工作是否具有技术含量取决于你怎么做,这在大模型(LLM)方向上尤其如此,因为与传统自然语言处理(NLP)相比,它的上手门槛变得更低了。

我来举些例子,就大模型微调的几个重要环节而言,我所列举的每一种做法基本上都能实现最终目标,甚至训练出的模型效果也相差无几。然而,它们对个人能力成长的助益却大不相同。

数据工作方面

  • 做法 1:直接沿用实验室或同事的训练数据,在获取后不检查数据质量就直接用于训练。
  • 做法 2:下载一份开源数据,构建“系统 + 查询 + 答案”的集合。
  • 做法 3:利用 GPT - 4 生成数据,学会使用 GPT - 4 偏好的提示语(prompt)来提出请求。并且要认识到数据提示语(prompt)的多样性,想尽各种办法去扩充提示语(prompt)在任务和表达方式上的多样性,甚至特意添加一些带噪声的提示语(noisy prompt)以提高抗噪性。同时,愿意放低姿态,逐一检查数据质量,并与标注人员统一标注标准。
  • 做法 4:利用用户的交互日志来推动数据构建过程,收集用户的真实提示语(prompt),通过规则或者 GPT - 4 分析用户的反馈(feedback),进而获取高质量的答案数据。
  • 做法 5:借鉴思维链(CoT)、检索增强生成(RAG)、函数调用(function_call)、智能体(agent)等思路,将复杂的、模型无法胜任的任务在数据层面进行拆解,例如,将“模型写不出长篇小说”拆分为“模型写小说大纲,模型基于小说大纲写长篇小说”等。

训练代码方面

  • 做法 1:直接继承实验室或同事的训练代码,修改数据路径(data_path)后就运行训练脚本(bash train.sh)。
  • 做法 2:继承或者自行下载一份训练代码,研究启动代码中的每一个参数,去思考并弄明白:为什么要开启卸载(offload),什么是序列并行(sequence_parallel)等。然后再去查看数据加载器(dataloader)是如何处理数据格式的,会话(session)数据的损失(loss)是只计算最后一轮还是每一轮都计算,代码中应用了哪些特殊标记(special_token)等。
  • 做法 3:不仅要理解每个参数,还要提出自己的见解:例如,轮数(epoch)等于 3 是否过多,10 万条训练数据这个量级是否合适?特殊标记(special_token)是否引入过多?对于 7B 模型来说这个学习率是否过大,预热(warmup)应该使用多少步或者是否可以不进行预热?带着这些疑问去请教 ChatGPT 或者搜索并阅读行业大佬们的文章。
  • 做法 4:对训练代码提出质疑并进行改进,思考 DeepSpeed 是否有点慢,是否要改为 Megatron 框架?是否可以将 Megatron 和 DeepSpeed 的优点相结合?如果有兴趣,还可以调试运行速度,当发现旋转位置编码(ROPE)的耗时比注意力(attention)机制还长时,想办法进行优化(查询大佬们的优化方案)。

大模型资源分享

针对所有自学遇到困难的同学,我为大家系统梳理了大模型学习的脉络,并且分享这份LLM大模型资料:其中包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等。

标签:或者说,私有化,框架,AI,模型,微调,L2.2,应用,技术含量
From: https://blog.csdn.net/weixin_42924914/article/details/142354333

相关文章

  • 大模型RAG优化策略总结(二):利用向量数据库实现高效的 RAG、针对 RAG 的微调语言模型、实
    五、利用向量数据库实现高效的RAG向量数据库专门用于存储和高效查询数据的高维向量表示,使其成为RAG检索组件的理想选择。以下是向量数据库如此重要的原因以及如何有效利用它们:a)可扩展性和性能:向量数据库针对处理大规模相似性搜索进行了优化,这对于具有广泛知识库的RAG系统至关......
  • 如何微调:关注有效的数据集!
    如何微调:关注有效的数据集本文关于适应开源大型语言模型(LLMs)系列博客的第三篇文章。在这篇文章中,我们将探讨一些用于策划高质量训练数据集的经验法则。第一部分探讨了将LLM适应于领域数据的普遍方法第二部分讨论了咋确定微调是否适用于你的实际情况1介绍微调LLMs是一门艺术......
  • 如何微调:关注有效的数据集!
    如何微调:关注有效的数据集本文关于适应开源大型语言模型(LLMs)系列博客的第三篇文章。在这篇文章中,我们将探讨一些用于策划高质量训练数据集的经验法则。第一部分探讨了将LLM适应于领域数据的普遍方法第二部分讨论了咋确定微调是否适用于你的实际情况1介绍微调LLMs是一门艺......
  • 开源模型应用落地-qwen2-7b-instruct-LoRA微调-unsloth(让微调起飞)-单机单卡-V100(十七)
    一、前言  本篇文章将在v100单卡服务器上,使用unsloth去高效微调QWen2系列模型,通过阅读本文,您将能够更好地掌握这些关键技术,理解其中的关键技术要点,并应用于自己的项目中。  使用unsloth能够使模型的微调速度提高2-5倍。在处理大规模数据或对时间要求较高的场景下......
  • Xtuner微调个人小助手
    task:使用Xtuner微调InternLM2-Chat-1.8B实现自己的小助手认知。1安装环境!pipinstalltransformers==4.39.3!pipinstallstreamlit==1.36.02安装xtunergitclonehttps://gitclone.com/github.com/InternLM/XTuner./XTunercdXTunerpipinstall-e'.[deepspeed]'-ihttp......
  • XTuner 微调个人小助手
    基础任务使用XTuner微调InternLM2-Chat-1.8B实现自己的小助手认知记录复现过程并截图。一、环境准备mkdir-p/root/InternLM/Tutorialgitclone-bcamp3https://github.com/InternLM/Tutorial/root/InternLM/Tutorial#创建虚拟环境condacreate-nxtuner012......
  • 大模型微调j技术:GaLore、BAdam、Adam-mini、DoRA、LongLoRA、LLaMA Pro、Mixture-of-D
    引言1.1大模型微调的重要性随着人工智能技术的飞速发展,大型语言模型(LLMs)如GPT-3、BERT等已经成为自然语言处理(NLP)领域的核心技术。这些模型通过在大规模文本数据上的预训练,掌握了丰富的语言知识和统计特征。然而,尽管这些预训练模型在通用任务上表现出色,但在特定任务或领......
  • 关于RTX 4090 微调llama2模型时出现nvcc fatal : Unsupported gpu architecture 'comp
    RTX4090是现在普通人可以轻松获取的最好的显卡了。运算速度仅次于专业图形卡TeslaA100,A800,H100RTX4090显卡是可以单卡推理llama27b和13b模型的,7b模型占用缓存14G左右,13b模型单卡推理显存占用在23G多点(只是运行一段时间容易爆显存),所以普通人都是可以使用llama2大语言模型。......
  • 大模型入门(六)—— RLHF微调大模型
    一、RLHF微调三阶段参考:https://huggingface.co/blog/rlhf1)使用监督数据微调语言模型,和fine-tuning一致。2)训练奖励模型奖励模型是输入一个文本序列,模型给出符合人类偏好的奖励数值,这个奖励数值对于后面的强化学习训练非常重要。构建奖励模型的训练数据一般是同一个数......
  • Llama Factory :百种以上语言模型的统一高效微调框架
    人工智能咨询培训老师叶梓转载标明出处大模型适应到特定下游任务时,传统的全参数微调方法成本高昂,因此,研究者们一直在探索更高效的微调技术。由北京航空航天大学和北京大学的研究团队提出了一个名为LlamaFactory的统一框架,旨在解决大模型高效微调的问题。该框架整合了一系列......