• 2025-01-05自学资料 - LoRA - 低秩微调技术
    目录1.微调分类2.LoRA算法全称:Low-RankAdaptation微调的不同类别1.微调分类微调主要分为三类:一种是全参数的微调(类别1)。缺点,如果利用一些较好的优化算法,梯度更新和之前所有的梯度(有历史记忆)都有关啥的会导致占用较多的显存。一种是部分参数微调(可
  • 2025-01-02大语言模型【基础】(二)微调需要多少算力?
    微调模型需要多少的GPU显存?一、模型【训练】占用显存【QWen2.5-32B为例】模型配置情况如下所示方法一:较为精确估计全量微调占用情况结论根据模型配置和假设的batchsize、序列长度:总显存需求:约388GB所需卡数:至少13张昇腾910B卡才能满足显存需求,推荐使用1
  • 2024-12-30HF微调(二)
      HF微调语言模型-问答任务¶注意:微调后的模型仍然是通过提取上下文的子串来回答问题的,而不是生成新的文本。 In [1]:#根据你使用的模型和GPU资源情况,调整以下关键参数squad_v2=Falsemodel_checkpoint="/models/distilbert-base-uncased"bat
  • 2024-12-28年底多跑一些大模型面试,你就会发现…
    面试题大全超详细解析大模型(LLMS)(背完这些题,offer直接拿到手软)大模型(LLMS)进阶面一、什么是生成式大模型?二、大模型是怎么让生成的文本丰富而不单调的呢?三、LLMS复读机问题3.1什么是LLMs复读机问题?·3.2为什么会出现LLMs复读机问题?3.3如何缓解LLM
  • 2024-12-26实操了4个 AI 大模型项目落地,我又行了!
    根据《2024年全球人工智能行业报告》最新的数据显示,全球AI市场预计将以每年超过40%的速度增长,到2030年市值将达到数万亿美元,这也是预示着在接下来的十年到十五年里,人工智能将获得巨大的发展红利。在过去的一年多时间里,我持续关注着大模型的发展趋势,并且尽可能地进行
  • 2024-12-26大模型微调方法(非常详细),收藏这一篇就够了!
    引言众所周知,大语言模型(LLM)正在飞速发展,各行业都有了自己的大模型。其中,大模型微调技术在此过程中起到了非常关键的作用,它提升了模型的生成效率和适应性,使其能够在多样化的应用场景中发挥更大的价值。前排提示,文末有大模型AGI-CSDN独家资料包哦!那么,今天这篇文章就带大
  • 2024-12-26大模型微调实战:基于 LLaMAFactory 通过 LoRA 微调修改模型自我认知
    本文主要分享如何使用LLaMAFactory实现大模型微调,基于Qwen1.5-1.8B-Chat模型进行LoRA微调,修改模型自我认知。本文的一个目的:基于Qwen1.5-1.8B-Chat模型进行微调,修改模型自我认证。修改前对于Qwen1.5-1.8B-Chat模型,用户问你是谁?时模型一般会回答我是阿里云自主研
  • 2024-12-25终于!有人总结了大模型学习资料!
    LLM基础知识前排提示,文末有大模型AGI-CSDN独家资料包哦!1.机器学习之数学基石在踏足机器学习的殿堂之前,深入理解其背后的数学原理至关重要。线性代数:它如同桥梁,连接着算法与数据世界。向量、矩阵、行列式、特征值与特征向量、向量空间及线性变换等概念,均为深度学习中
  • 2024-12-18欢迎 PaliGemma 2 – 来自 Google 的新视觉语言模型
    我们很高兴迎来Google全新的视觉语言模型PaliGemma2,这是PaliGemma的一个新版本。与其前代产品一样,PaliGemma2使用强大的SigLIP进行视觉处理,但在文本解码部分升级到了最新的Gemma2。模型规模和输入分辨率PaliGemma2提供了新的预训练模型,参数规模包括3B、10B和
  • 2024-12-16SD模型微调之LoRA
    SD模型微调方法LoRA详细介绍,包括数据集准备,模型微调过程,推理过程,优缺点等。 
  • 2024-12-16大语言模型
    LLM目录LLM1.人工智能(AI):2.自然语言处理(NLP):3.Transformer:Transformer的核心特点:它们之间的关系:1.AI是NLP的基础:2.Transformer是NLP的核心技术之一:3.Transformer在AI中的影响:总结:直接使用已存在的开源大模型(Ollama、Huggingface开源社区)好处:坏处:总结建议:微调大
  • 2024-12-15人工智能大语言模型起源篇,低秩微调(LoRA)
    上一篇:《规模法则(ScalingLaw)与参数效率的提高》序言:您在找工作时会不会经常听到LoRA微调,这项技术的来源就是这里了。(12)Hu、Shen、Wallis、Allen-Zhu、Li、LWang、SWang和Chen于2021年发表的《LoRA:Low-RankAdaptationofLargeLanguageModels》,https://arxiv.org/a
  • 2024-12-14学大模型必看!手把手带你从零微调大模型!
    前言今天分享一篇技术文章,你可能听说过很多大模型的知识,但却从未亲自使用或微调过大模型。今天这篇文章,就手把手带你从零微调一个大模型。大模型微调本身是一件非常复杂且技术难度很高的任务,因此本篇文章仅从零开始,手把手带你走一遍微调大模型的过程,并不会涉及过多技术细
  • 2024-12-11【Datawhale AI 冬令营】定制专属大模型笔记
    学习目标:跟着学习手册体验AI嬛嬛,学习定制专属模型创建自己的AI应用学习内容:如何定制大模型构建数据集微调模型评价模型效果学习时间:12月10日–跑通demo12月11日–学习数据集构建,如何定制大模型学习总结:定制专属大模型:通过投喂特定语料,改造大模型,让模型在某些专
  • 2024-12-11【大模型微调学习4】-大模型微调技术
    【大模型微调学习4】-大模型微调技术1.AdapterTuning(2019Google)开启大模型PEFT2.PrefixTuning:自动化构造Prompts3.PromptTuning:SoftPrompts开创者(2021Google)4.P-Tuningv1:解决人工设计Prompt的问题(2021Tsinghua,MIT)5.P-Tuningv2:提升小模
  • 2024-12-11智慧之锤|如何通过有监督微调锻造大模型
    作者:京东物流李雪婷本文为《大规模语言模型-从理论到实践》第五章有监督微调的学习笔记,在介绍基本内容的同时会补充一些扩展知识和案例来帮助大家更好地理解该章。一、前言大模型调整的历程经历了显著的演变,从最初的“预训练-微调”范式开始,模型首先在大规模无监督数据上进
  • 2024-12-11参数高效微调:MoRA与LoRA的比较及应用分析
    概述参数高效微调的背景,接着详细介绍MoRA的方法及其与LoRA和全微调的比较,最后讨论MoRA在特定任务中的表现在机器学习,尤其是处理大型语言模型(LLM)时,参数高效微调(Parameter-EfficientFine-Tuning,PEFT)是一种重要的技术,这种技术旨在减少微调过程中所需更新的模型参数数量。传
  • 2024-12-10datawhale 第一课 笔记
    1.注册星火maas平台账号2.选择训练模型类型 细分类型为文本对话模型  文生图模型  图像分类模型 文本分类模型此处我们选择 文本对话模型 选择基础模型此处选择sparklite 轻量训练成本低3.选择训练方式: 零代码精调  训练方法:LoRALoRA:LoRA在
  • 2024-12-09OpenAI发布强化学习微调技术
    前排提示,文末有大模型AGI-CSDN独家资料包哦!OpenAI在12天产品发布活动的第二天,推出基于强化学习的模型微调技术(ReinforcementFine-tuning,简称RFT)。这项技术将帮助开发者和机构用少量数据打造专业领域的AI模型。技术创新亮点•强化学习算法:不同于传统监督式微调,采用强化
  • 2024-12-09为什么大模型在企业落地难?(LLM技术挑战和解决篇)
    0、前言AI是下一代颠覆性的机会,已经是很多人的共识。尤其是在媒体的大力宣传下,大模型显得格外火热,但为什么已经到2024年了,在企业落地应用上颇有“雷声大,雨点小”的态势呢?前排提示,文末有大模型AGI-CSDN独家资料包哦!落地遇到的挑战是什么?希望尝试从3个不同的角度来讨论:1)大
  • 2024-12-09Datawhale 2025 AI冬令营 +动手定制你的专属大模型
    Datawhale2025AI冬令营+动手定制你的专属大模型前言:‌大模型是指具有大规模参数和复杂计算结构的机器学习模型‌。它们通常拥有数百万到数十亿的参数,需要大量的数据和计算资源进行训练和推理。大模型在深度学习领域中占据重要地位,能够处理复杂的任务,如自然语言处理、计算机视
  • 2024-12-07LoRA论文精读(上) Low-Rank Adaptation of Large Language Models
            本篇博客针对LoRA:Low-RankAdaptationofLargeLanguageModels的提出背景和算法原理做了非常清晰简明的讲解,适用于想要快速了解一下LoRA底层方法的学习者。对于原文的实验和未来工作等部分的详细介绍在LoRA论文精读(下)Low-RankAdaptationofLargeLangu
  • 2024-12-06已入职华为大模型算法岗,面试真的很水的…
    觉得中大厂面试太难的,完全就是自己没准备充分,技术不到位,没准备的面试完全是浪费时间,更是对自己的不负责!今天我给大家分享一下我整理的大模型面试专题和答案,其中大部分都是面试常问的面试题,可以对照这查漏补缺奥!祝大家早日上岸呀!方向:大模型算法工程师整个面试持续了1小
  • 2024-12-06人工智能大模型培训讲师叶梓:Llama Factory 微调模型实战分享提纲
    LLaMA-Factory——一个高效、易用的大模型训练与微调平台。它支持多种预训练模型,并且提供了丰富的训练算法,包括增量预训练、多模态指令监督微调、奖励模型训练等。LLaMA-Factory的优势在于其简单易用的界面和强大的功能。用户可以在不编写任何代码的情况下,在本地完成上百种预
  • 2024-12-05大模型微调知识全景
    大模型微调知识全景文章目录大模型微调知识全景一、大模型开发全流程二、什么是大模型微调三、为什么需要大模型微调四、大模型微调的方法有哪些4.1FFT的缺点4.2PEFT的优点4.3PEFT的分类五、各类微调方法的原理是什么5.1In-ContextLearning5.2SoftPromptTun