首页 > 其他分享 >Llama-2 推理和微调的硬件要求总结:RTX 3080 就可以微调最小模型

Llama-2 推理和微调的硬件要求总结:RTX 3080 就可以微调最小模型

时间:2023-09-13 10:23:07浏览次数:55  
标签:模型 微调 硬件 Llama GPU 3080

大语言模型微调是指对已经预训练的大型语言模型(例如Llama-2,Falcon等)进行额外的训练,以使其适应特定任务或领域的需求。微调通常需要大量的计算资源,但是通过量化和Lora等方法,我们也可以在消费级的GPU上来微调测试,但是消费级GPU也无法承载比较大的模型,经过我的测试,7B的模型可以在3080(8G)上跑起来,这对于我们进行简单的研究是非常有帮助的,但是如果需要更深入的研究,还是需要专业的硬件。

我们先看看硬件配置:

亚马逊的g3.xlarge M60是8GB的VRAM和2048个CUDA内核。3080是10Gb的GDDR6 VRAM,这两个GPU基本类似。

 

https://avoid.overfit.cn/post/0dd29b9a89514a988ae54694dccc9fa6

标签:模型,微调,硬件,Llama,GPU,3080
From: https://www.cnblogs.com/deephub/p/17698823.html

相关文章

  • Llama2-Chinese项目:1-项目介绍和模型推理
    Atom-7B与Llama2间的关系:Atom-7B是基于Llama2进行中文预训练的开源大模型。为什么叫原子呢?因为原子生万物,Llama中文社区希望原子大模型未来可以成为构建AI世界的基础单位。目前社区发布了6个模型,如下所示:FlagAlpha/Atom-7BFlagAlpha/Llama2-Chinese-7b-ChatFlagAlpha/Llama2-Chin......
  • LLamaSharp - .NET Binding for llama.cpp
    https://github.com/SciSharp/LLamaSharp TheC#/.NETbindingof llama.cpp.ItprovidesAPIstoinferencetheLLaMaModelsanddeployitonlocalenvironment.ItworksonbothWindows,LinuxandMACwithoutrequirmentforcompilingllama.cppyourself.Its......
  • 指令微调LLM进行推荐Recommendation as Instruction Following: A Large Language Mod
    原文地址:https://arxiv.org/abs/2305.07001本文作者将用户偏好、意图等构建为指令,并用这些指令调优一个LLM(3BFlan-T5-XL),该方法对用户友好,用户可以与系统交流获取更准确的推荐。INTRODUCTIONLLM是建立在自然语言文本上的,它不能直接适应基于行为数据的推荐系统。为了减少两者的g......
  • 行行AI公开课:ChatGPT和大语言模型的微调
    ChatGPT和大模型正在以前所未有的速度改变世界和你的工作。最新研究发现会使用ChatGPT4的人的工作效率是一般人的40倍,80%的世界500强企业已经在使用ChatGPT。不会使用ChatGPT和不懂大模型的人很快就会被淘汰,不是被ChatGPT淘汰,而是被会使用ChatGPT的人淘汰。史丹福机器人庞博士用......
  • 如何让 Llama2、通义千问开源大语言模型快速跑在函数计算上?
    :::info本文是“在Serverless平台上构建AIGC应用”系列文章的第一篇文章。:::前言随着ChatGPT以及StableDiffusion,Midjourney这些新生代AIGC应用的兴起,围绕AIGC应用的相关开发变得越来越广泛,有呈井喷之势,从长远看这波应用的爆发不仅仅是停留在形式之上,更是在各个领域产生......
  • 生成式人工智能体验[4]-模型微调
    摘要在AutoDL平台使用GPU和AdvertiseGen数据集对ChatGLM2模型进行微调.平台信息AutoDLNVIDIARTX4090/24GB(单精82.58TFLOPS/半精165.2TensorTFLOPS)AutoDL简介[https://www.autodl.com/home]更大更全更专业的AI算力集群,即刻开启算力租用.按小时租用GPU进行计......
  • Ziya-LLaMA-13B 模型在GPU 上部署
    Ziya-LLaMA-13B模型在GPU上部署Ziya-LLaMA-13B是IDEA-CCNL基于LLaMa的130亿参数的大规模预训练模型,具备翻译,编程,文本分类,信息抽取,摘要,文案生成,常识问答和数学计算等能力。目前姜子牙通用大模型已完成大规模预训练、多任务有监督微调和人类反馈学习三阶段的训练过程。1.部署准......
  • 剑指offer_20230803
    剑指Offer51.数组中的逆序对题目说明在数组中的两个数字,如果前面一个数字大于后面的数字,则这两个数字组成一个逆序对。输入一个数组,求出这个数组中的逆序对的总数。解题思路1:暴力肯定是可行但是会超时的,就不用考虑了,但理论可行解题思路2:归并可以利用归并排序时的一个特性......
  • 20230803模拟赛
    20230803模拟赛T1摆花sb结论题,考场上题读错了,我更是sb。直接输出最小区间长度。T2打饭题意给定\(n,k\)和序列\(a\)。求一个\(a\)的排列方式使得\[\sum_{i=1}^{n-k}|a_i-a_{i+k}|\]最小,输出这个最小值。题解可以转化成把\(n\)个数分成\(k\)组,且有\(n\bmod......
  • node18 vue2启动报错 error:0308010C:digital envelope routines::unsupported
    出现原因貌似是因为是因为node17版本开始发布的OpenSSL3.0,而OpenSSL3.0对允许算法和密钥大小增加了严格的限制,可能会对生态系统造成一些影响。解决方法第一种方法降低node版本降低到17以下即可,如项目不能降低版本看后面的解决方式第二种方法设置NODE_OPTIONS环境变量......