首页 > 其他分享 >大模型那么火,教你一键ModelArts玩转开源LlaMA大模型

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型

时间:2023-12-15 11:33:10浏览次数:36  
标签:pipeline LlaMA lib ModelArts 模型 mindformers build LLaMA

 本文分享自华为云社区《大模型那么火,教你一键Modelarts玩转开源LlaMA(羊驼)大模型》,作者:码上开花_Lancer 。

近日, LlaMA(羊驼)这个大模型再次冲上热搜!

LLaMA(Large Language Model Meta AI),由 Meta AI 发布的一个开放且高效的大型基础语言模型,共有 7B、13B、33B、65B(650 亿)四种版本。其数据集来源都是公开数据集,无任何定制数据集,保证了其工作与开源兼容和可复现,整个训练数据集在 token 化之后大约包含 1.4T 的 token。关于模型性能,LLaMA 的性能非常优异:具有 130 亿参数的 LLaMA 模型「在大多数基准上」可以胜过 GPT-3( 参数量达 1750 亿),而且可以在单块 V100 GPU 上运行;而最大的 650 亿参数的 LLaMA 模型可以媲美谷歌的 Chinchilla-70B 和 PaLM-540B。

上篇文章有介绍了LLaMA 所采用的Transformer 结构和细节,与之前所介绍的Transformer架构不同的地方包括采用了前置层归一化(Pre-normalization)并使用RMSNorm 归一化函数(Normalizing Function)、激活函数更换为SwiGLU,并使用了旋转位置嵌入(RoP),整体Transformer架构与GPT-2 类似,如图1.1所示。

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_大模型

图1.1 GPT-2 模型结构

关于训练集,其来源都是公开数据集,无任何定制数据集,保证了其工作与开源兼容和可复现。整个训练数据集在 token 化之后大约包含 1.4T 的 token。其中,LLaMA-65B 和 LLaMA-33B 是在 1.4万亿个 token 上训练的,而最小的模型 LLaMA-7B 是在 1万亿个 token 上训练的。LLaMA 优势在于其只使用公开可用的数据,这可以保证论文的工作与开源兼容和可复现。之前的大模型要么使用了不公开的数据集去训练从而达到了 state-of-the-art,如 Chinchilla、PaLM 或 GPT-3;要么使用了公开数据集,但模型效果不是最佳无法和 PaLM-62B 或 Chinchilla 相竞争,如 OPT、GPT-NeoX、BLOOM 和 GLM。

和 GPT 系列一样,LLaMA 模型也是 Decoder-only 架构,但结合前人的工作做了一些改进,比如:

  1. Pre-normalization [GPT3]. 为了提高训练稳定性,LLaMA 对每个 transformer 子层的输入进行归一化,使用 RMSNorm 归一化函数,Pre-normalization 由Zhang和Sennrich(2019)引入。
  2. SwiGLU 激活函数 [PaLM]. 将 ReLU 非线性替换为 SwiGLU 激活函数,且使用2/3*4D而不是 PaLM 论文中的 4d,SwiGLU 由 Shazeer(2020)引入以提高性能。
  3. Rotary Embeddings [GPTNeo]. 模型的输入不再使用 positional embeddings,而是在网络的每一层添加了 positional embeddings (RoPE),RoPE 方法由Su等人(2021)引入。

不同模型的超参数详细信息在表2中给出,具体可以去看看我上篇文章,

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_LLAMA_02

具体怎么在华为云的ModelArts上玩转LLAMA开源大模型呢?

前期准备:

1.登录华为云官方账号

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_ModelArts_03

点击右上角“控制台”,搜索栏输入“ModelArts”

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_大模型_04

点击“AI Gallery“,选择“北京四”区域,

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_大模型_05

点击"资产集市--Notebook",输入“Mindformers应用之LLaMA_7B推理应用

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_ModelArts_06

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_LLAMA_07

点击“Run in ModelArts”,进入,

大模型那么火,教你一键ModelArts玩转开源LlaMA大模型_ModelArts_08

1. 安装MindFormers开发套件

%cd /home/ma-user/work
!git clone -b r0.6 https://gitee.com/mindspore/mindformers.git
Cloning into 'mindformers'...

remote: Enumerating objects: 21732, done.

remote: Counting objects: 100% (437/437), done.

remote: Compressing objects: 100% (330/330), done.

remote: Total 21732 (delta 262), reused 190 (delta 107), pack-reused 21295

Receiving objects: 100% (21732/21732), 37.74 MiB | 3.73 MiB/s, done.

编译代码

%cd mindformers
!bash build.sh
%cd ..
/home/ma-user/work/mindformers
---------------- MindFormers: build start ----------------
running bdist_wheel
running build
running build_py
creating build/lib/mindformers
copying mindformers/__init__.py -> build/lib/mindformers
copying mindformers/auto_class.py -> build/lib/mindformers
copying mindformers/mindformer_book.py -> build/lib/mindformers
creating build/lib/mindformers/core
copying mindformers/core/__init__.py -> build/lib/mindformers/core
copying mindformers/core/clip_grad.py -> build/lib/mindformers/core
copying mindformers/core/parallel_config.py -> build/lib/mindformers/core
creating build/lib/mindformers/dataset
........

2.下载LLaMA模型和tokenizer

%cd /home/ma-user/work/mindformers

import moxing as mox
mox.file.copy_parallel('obs://modelarts-labs-bj4-v2/case_zoo/Mindfomer_LLaMA/', 'checkpoint_download/llama')

3.推理-使用pipeline接口开启快速推理

from mindformers.pipeline import pipeline
pipeline_task = pipeline("text_generation", model='llama_7b', max_length=20)
pipeline_result = pipeline_task("I love Beijing, because", top_k=3)
print(pipeline_result)

- 当我输入提示词:

text_generation_text': I love Beijing, because

通过LLaMA_7B模型推理可以快速输出:

['I love Beijing, because it is a city that is constantly changing.\nI love the city']

赶紧来点击试一试,体验下自己写代码调用LLAMA_7B开源大模型的魅力吧!!

点击关注,第一时间了解华为云新鲜技术~

标签:pipeline,LlaMA,lib,ModelArts,模型,mindformers,build,LLaMA
From: https://blog.51cto.com/u_15214399/8833024

相关文章

  • 大模型那么火,教你一键Modelarts玩转开源LlaMA(羊驼)大模型
    本文分享自华为云社区《大模型那么火,教你一键Modelarts玩转开源LlaMA(羊驼)大模型》,作者:码上开花_Lancer。近日, LlaMA(羊驼)这个大模型再次冲上热搜!LLaMA(LargeLanguageModelMetaAI),由MetaAI发布的一个开放且高效的大型基础语言模型,共有7B、13B、33B、65B(650亿)四种版本......
  • 重磅:谷歌发布最强大AI模型【Google Gemini】
    https://www.cnblogs.com/eryueren/p/17901497.html一、前言北京时间2023年12月13日Google发布了最新的GeminiPro模型,并且提供了API访问。一个更好的消息是:GeminiPro可免费使用。赶紧体验起来吧~二、关于GoogleGemini是一款由GoogleAI开发的大型语言模型聊天机......
  • 倾斜摄影三维模型的根节点合并纹理匀色技术方法分析
    倾斜摄影三维模型的根节点合并纹理匀色技术方法分析 倾斜摄影三维模型的根节点合并中,纹理色彩匀色技术是一种重要的方法,旨在优化模型的纹理质量,使其在合并后呈现出更加均衡和自然的色彩。在本文中,我们将对纹理色彩匀色技术的方法进行详细分析。1、色彩均衡调整:色彩均衡调整......
  • R语言结构方程模型SEM、路径分析房价和犯罪率数据、预测智力影响因素可视化2案例|附代
    原文链接:http://tecdat.cn/?p=25044原文出处:拓端数据部落公众号最近我们被客户要求撰写关于结构方程模型的研究报告,包括一些图形和统计输出。1简介在本文,我们将考虑观察/显示所有变量的模型,以及具有潜在变量的模型。第一种有时称为“路径分析”,而后者有时称为“测量模型”。......
  • AI浪潮下,大模型如何在音视频领域运用与实践?
    视频云大模型算法「方法论」。刘国栋|演讲者在AI技术发展如火如荼的当下,大模型的运用与实践在各行各业以千姿百态的形式展开。音视频技术在多场景、多行业的应用中,对于智能化和效果性能的体验优化有较为极致的要求。如何运用好人工智能提升算法能力,解决多场景业务中的具体问题,需......
  • Stable Zero123震撼发布:单图生成高质量3D模型
    模型简介12月13日,Stability.ai在开源领域引起了巨大震动,其最新作品StableZero123成为了焦点。这款基于Zero123模型的升级版本,主要通过改进的渲染数据集和分数蒸馏方法,大幅提升了3D模型的生成效果和训练效率。值得一提的是,StableZero123可以与Stability.ai的高精准图片模型SDXL相......
  • HarmonyOS:使用MindSpore Lite引擎进行模型推理
     场景介绍MindSpore Lite是一款AI引擎,它提供了面向不同硬件设备AI模型推理的功能,目前已经在图像分类、目标识别、人脸识别、文字识别等应用中广泛使用。本文介绍使用MindSpore Lite推理引擎进行模型推理的通用开发流程。基本概念在进行开发前,请先了解以下概念。张量:它......
  • 大模型变身双面人:虚假新闻制造机VS假新闻鉴别大师!
    大家是怎样看待大型语言模型生成信息的可靠性呢?尽管大语言模型生成的内容“像模像样”,但这些模型偶尔的失误揭示了一个关键问题:它们生成的内容并不总是真实可靠的。那么,这种“不保真”特性能否被用来制造虚假信息呢?最近,一篇论文正好针对这一议题进行了探讨:我们能否利用大型语言模型......
  • 模型放置到3D场景中后模型位置与鼠标选中的位置不一致怎么办?
    在线工具推荐:3D数字孪生场景编辑器 - GLTF/GLB材质纹理编辑器 - 3D模型在线转换 - Three.jsAI自动纹理开发包 - YOLO虚幻合成数据生成器 - 三维模型预览图生成器 - 3D模型语义搜索引擎1、问题从事3D建模相关工作的朋友们在工作中经常会遇到以下几种问题:1、模型旋......
  • pytorch训练模型内存溢出
    1、训练模型命令命令如下所示是训练命名实体识别的命令,在win10系统下执行activatepytorchcdF:\Python\github\ultralytics-main\submain\pytorch_bert_bilstm_crf_ner-mainf:pythonmain.py--bert_dir="../model_hub/chinese-bert-wwm-ext/"--data_dir="./data/cner/"--dat......