首页 > 其他分享 >LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读

LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读

时间:2023-07-01 11:36:46浏览次数:54  
标签:Vicuna LLaMA 训练 模型 对话 https Stable


LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读_数据

Vicuna和StableVicuna都是LLaMA的微调版本,均遵循CC BY-NC-SA-4.0协议,性能方面Stable版本更好些。

CC BY-NC-SA-4.0是一种知识共享许可协议,其全称为"署名-非商业性使用-相同方式共享 4.0 国际"。

即 用的时候要署名原作者,不能商用,下游使用也必须是相同的共享原则。

Vicuna

Vicuna(小羊驼、骆马)是LLaMA的指令微调版本模型,来自UC伯克利,代表模型为Vicuna-13B。

训练过程

用ShareGPT网站的用户分享的ChatGPT对话记录,70k条对话数据对 LLaMA进行监督质量微调训练,性能超越了LLaMa和Stanford Alpaca,达到了与ChatGPT相似的水平。

LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读_数据_02

  1. 从ShareGPT上扒了70k对话语料,将HTML数据转化为markdown并对不合适、低质量的样本进行了过滤,同时对比较长的数据进行了切分,来适应模型的上下文长度;
  2. 用Alpaca的代码进行多轮对话训练,使用8-A100,基于Pytorch FSDP训练框架训一天;
  1. **多轮对话训练:**任务还是next token prediction,同时loss只计算文本中chatbot输出的部分;
  2. **显存优化:**将最大上下文长度从alpac的512调整为2048,然后用 [gradient checkpointing](https://lmsys.org/blog/2023-03-30-vicuna/#:~:text=gradient checkpointing) 和 flash attention 进行了显存节省。
  3. 省钱:作者使用SkyPilot的算力计算的,就使用了SkyPilot managed spot来降低成本,利用更便宜的spot实例来自动恢复抢占和自动区域切换。13B模型能从$1K节省到$300。
  1. 在评估模型方面,之前的评估方式对现在的对话模型不再适用了,作者用MT-Betch一个多轮对话数据集ChatBot Arena(聊天机器人竞技场)的众包平台进行评估。众包平台上是真实的用户来进行打分,另外因为GPT-4是基于强化学习与人类反馈(RLHF)训练出来的模型,具有较好的与人对齐的能力,所以作者用GPT-4也代替人对其他模型进行评判,从而节省成本。具体可作者论文 Judging LLM-as-a-judge with MT-Bench and Chatbot Arena

现有不足

  1. 推理能力、数学能力不足;
  2. 自我感知能力不够、幻觉问题仍然存在;
  3. 模型本身可能存在潜在的偏见(比如某些言论不正确,毕竟数据集决定了模型的立场)

Stable Vicuna

Stable Vicuna: https://github.com/Stability-AI/StableLM

基于 Vicuna-13B v0 的RLHF微调版本,由StabilityAI发布。没有训练细节纰漏,但应该比 Vicuna 要更优一些。


标签:Vicuna,LLaMA,训练,模型,对话,https,Stable
From: https://blog.51cto.com/u_15366078/6598541

相关文章

  • 看这个视频,4万人学会云上部署 Stable Diffusion
    目前大火的AIGC领域中,除了ChatGPT,StableDiffusion在文生图领域大放异彩,深刻影响着绘画、视频制作等相关领域。《动手吧,开发者》本期活动邀请B站知识区UP主、“林粒粒”手把手教大家用函数计算FC部署StableDiffusion,教程简单易上手,在B站已有4w多用户观看学习。......
  • MidJourney v5.2 、Stable Diffusion XL 0.9 出图对比
    最近两个最流行的AI图像生成器,Midjourney和StableDiffusion,都发布了重大更新。Midjourneyv5.2引入了许多新功能,包括“缩小”功能、“/缩短”命令、改进的图像质量等。StableDiffusionXL(SDXL)0.9则专注于改善图像质量和构图。新模型使用更大的数据集和更强大的算法,生成的图......
  • 微调7B模型只用单GPU!通用多模态工具LLaMA-Adapter拆掉门槛,效果惊人
    前言 开源万能模型微调工具LLaMA-Adapter发布,支持多模态输入输出。本文转载自新智元仅用于学术分享,若侵权请联系删除欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。CV各大方向专栏与各个部署框架最全教程整理【CV技术指南......
  • AI绘画StableDiffusion:云端在线版免费使用笔记分享-Kaggle版
    玩AI绘画(SD),自己电脑配置不够?今天给大家介绍一下如何baipiao在线版AI绘画StableDiffusion。Kaggle是世界上最大的数据科学社区,拥有强大的工具和资源,可帮助您实现数据科学目标。(每周可以免费使用30个小时)。文末有更多相关AI资源。 文章较长,可阅读原文享F受更佳阅读体验,以及获......
  • 免费体验Stable Diffusion deforum文转视频插件,还有deforum API 接口部署介绍!
    如何使用ServerlessDevs和函数计算快速体验部署StableDiffusion,这个是小白也能简单体验安装部署的教程.有电脑就能操作,依托阿里云原生服务.不用考虑硬件问题本篇主要讲解怎么安装跟部署自定义安装插件跟模型.以deforum文转视频插件举例.deforumapi接口自定义开发镜像定......
  • LLaMA模型微调版本:斯坦福 Alpaca 详解
    项目代码:https://github.com/tatsu-lab/stanford_alpaca博客介绍:https://crfm.stanford.edu/2023/03/13/alpaca.htmlAlpaca总览Alpaca是LLaMA-7B的微调版本,使用Self-instruct[2]方式借用text-davinct-003构建了52K的数据,同时在其构建策略上做了一些修改。性能上作者对Alp......
  • AI绘画关键词Prompt:分享一些质量比较高的StableDiffusion(SD)关键词网站
    今天向大家推荐一些SD(StableDiffusion)高质量的关键词网站。这些网站的质量可靠,能为大家在创建AI绘画时提供有效的参考。以下是六个推荐的网站,优缺点分析。有几个质量还算是挺高的。大家可以参考一下结合使用~网站链接:https://prompthero.com(免费)此网站的关键词质量评分......
  • LLaMA模型微调版本 Vicuna 和 Stable Vicuna 解读
    Vicuna和StableVicuna都是LLaMA的微调版本,均遵循CCBY-NC-SA-4.0协议,性能方面Stable版本更好些。CCBY-NC-SA-4.0是一种知识共享许可协议,其全称为"署名-非商业性使用-相同方式共享4.0国际"。即用的时候要署名原作者,不能商用,下游使用也必须是相同的共享原则。VicunaVicun......
  • 本地部署开源大模型的完整教程:LangChain + Streamlit+ Llama
    在过去的几个月里,大型语言模型(llm)获得了极大的关注,这些模型创造了令人兴奋的前景,特别是对于从事聊天机器人、个人助理和内容创作的开发人员。大型语言模型(llm)是指能够生成与人类语言非常相似的文本并以自然方式理解提示的机器学习模型。这些模型使用广泛的数据集进行训练,这......
  • MosaicML 推出 30B 模型 — 挑战 LLaMA、Falcon 和 GPT
    MosaicML正在推出其第二个开源大型语言模型(LLM),称为MPT-30B,这是继五月份首次推出的较小的MPT-7B模型之后。为了讨论新模型及其对开发人员的意义,我采访了MosaicML联合创始人兼首席执行官NaveenRao。他之前的创业公司是Nervana,这是一家深度学习公司,于2016年被英特尔收购,所以他最近......