首页 > 其他分享 >丹摩DAMODEL超算平台 | 搭建Llama3.1深入体验

丹摩DAMODEL超算平台 | 搭建Llama3.1深入体验

时间:2024-09-19 12:49:34浏览次数:9  
标签:丹摩 tokenizer Llama3.1 DAMODEL ids st state session

丹摩DAMODEL超算平台 | 搭建Llama3.1深入体验

文章目录

    • 丹摩DAMODEL超算平台 | 搭建Llama3.1深入体验
      • 丹摩超算平台Llama3.1-部署与使用
      • 本地连接使用DAMODEL方法
      • 使用体验与总结

在这里插入图片描述

DAMODEL丹摩超算平台专为AI打造的智算云平台,致力于提供丰富的算力资源与基础设施,以助力AI应用的开发、训练、部署

  • 丰富的算力资源:提供CPU/GPU算力集群、CPU/GPU裸金属服务以及高性能存储等三大类产品,满足用户在不同场景下算力需求
  • 高性能计算服务:平台在计算节点之间以及计算节点与存储节点之间均采用IB网络,提供高并发、高性能的存储服务,避免网络及存储性能瓶颈,使算力节点性能得到最充分的发挥
  • 多样化的开发环境:DAMODEL平台支持TensorFlow、PyTorch、Caffe等主流工具和框架,帮助用户构建和训练各种类型的人工智能模型:图像识别、语音识别、自然语言处理等

丹摩超算平台Llama3.1-部署与使用

Llama 3.1开源大语言模型,广泛应用于从本地到云端的各类场景

1、创建实例
在这里插入图片描述

2、按量计费-包日-包月可以根据使用频率选择(LLaMA3.1 8B 版本至少需要GPU显存16G)

在这里插入图片描述

3、镜像框架选择PyTorch 2.4.0

在这里插入图片描述

4、为保证安全登录,创建密钥对,输入自定义的名称,然后选择自动创建并将创建好的私钥保存的自己电脑中并将后缀改为.pem,以便后续本地连接使用

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5、立即创建即可成功创建

在这里插入图片描述

6、JupyterLab在线访问实例的 JupyterLab 入口

在这里插入图片描述

JupyterLab 界面

在这里插入图片描述

7、部署LLama3.1

conda 管理环境

conda create -n llama3 python=3.12

在这里插入图片描述

8、环境创建好后,使用如下命令切换到新创建的环境

conda activate llama3

在这里插入图片描述

9、安装部署LLama3.1需要的依赖

pip install langchain==0.1.15
pip install streamlit==1.36.0
pip install transformers==4.44.0
pip install accelerate==0.32.1

在这里插入图片描述

10、下载 Llama-3.1-8B 模型,内网高速下载

wget http://file.s3/damodel-openfile/Llama3/Llama-3.1-8B-Instruct.tar

在这里插入图片描述

11、下载完成后解压缩/Llama-3.1-8B-Instruct.tar

tar -xf Llama-3.1-8B-Instruct.tar

在这里插入图片描述

12、新建 llamaBot.py 文件并在其中输入以下内容

  • vim llamaBot.py
  • 进入文件夹按i编辑
  • :wq保持退出
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
import streamlit as st

# 创建一个标题和一个副标题
st.title("

标签:丹摩,tokenizer,Llama3.1,DAMODEL,ids,st,state,session
From: https://blog.csdn.net/weixin_62765017/article/details/142330070

相关文章

  • 谢谢微软,又又又Open了!一口气发布3款Phi-3.5新模型,领先Llama3.1和谷歌同级模型
    前言家人们!微软又用爱发电了!一觉醒来,微软发布了最新的小模型三兄弟:Phi-3.5-MoE-instructPhi-3.5-mini-instructPhi-3.5-vision-instruct三兄弟的表现可以说是相当的不错,其中,Phi-3.5-MoE在基准测试中击败了Llama3.18B、Mistral-Nemo-12B,Gemini1.5Flash。在推理能力方面它也优......
  • 不会大模型不要紧!只需5分钟!你也可以微调大模型!如何快速微调Llama3.1-8B
    AI浪潮席卷全球并发展至今已有近2年的时间了,大模型技术作为AI发展的底座和基石,更是作为AI从业者必须掌握的技能。但是作为非技术人员,相信大家也有一颗想要训练或微调一个大模型的心,但是苦于技术门槛太高,无从下手。今天教大家一个非常快速的方法,5分钟就可以让你快速上手去微......
  • 开源最强Llama3.1 部署本地知识库应用
    一.环境介绍高性能应用服务HAI拥有丰富的预装应用,可以将开源社区的前沿模型快速转化为您专有的部署实践,一键拉起,即开即用。现已支持在HAI购买页的社区应用中,找到Llama3.1等应用的入口,简单选型后,即可一键启动推理服务。Chatchat项目介绍该项目利用langchain思想,实现......
  • ollama安装和运行llama3.1 8b
    ollama安装和运行llama3.18bcondacreate-nollamapython=3.11-ycondaactivateollamacurl-fsSLhttps://ollama.com/install.sh|shollamarunsongfy/llama3.1:8b就这么简单就能运行起来了.我们可以在命令行中与他交互.当然我们也可以用接口访问:curlhttp:/......
  • Continue-AI编程助手本地部署llama3.1+deepseek-coder-v2
    领先的开源人工智能代码助手。您可以连接任何模型和任何上下文,以在IDE内构建自定义自动完成和聊天体验推荐以下开源模型:聊天:llama3.1-8B推理代码:deepseek-coder-v2:16b嵌入模型nomic-embed-text模型默认存储路径:C:\Users\你的用户名\.ollama\models\blobs模型离线下......
  • LLAMA3.1 8B 本地部署并配合Obsidian建立本地AI知识管理系统
    目前,LLAMA3.1模型分为8B、70B、405B三个版本,其中70B和405B对于显存的要求均已超过了一般家用电脑的配置(或者换个说法,用一张4090也是带不起来的),所以运行8B即可。LLAMA3.18B的性能约相当于ChatGPT3.5。经过我的测试4080、2080、intelultra9185H(无独立显卡,其能力约相当于1060)......
  • 无法在 Llama Index 中加载 HuggingFace Embeddings llama3.1
    我有一个非常简单的代码,如下所示:fromllama_index.embeddings.huggingfaceimportHuggingFaceEmbeddingembed_model=HuggingFaceEmbedding(model_name="meta-llama/Meta-Llama-3-8B")我看到这个模型,meta-llama/Meta-Llama-3-8B,只有4.5GB,而我有16GBRAM,最多只使用20......
  • 即刻体验 Llama3.1就在Amazon Bedrock!
    引言在人工智能的浪潮中,大型语言模型(LLMs)不断推动着技术边界的扩展。Meta最新推出的Llama3.1模型系列,以其卓越的性能和广泛的应用前景,引起了业界的广泛关注。现在,激动人心的消息来了——Llama3.1已经在AmazonBedrock上线,让开发者和研究人员能够即刻体验这一革命性技术......
  • 本地运行Meta最新大模型:Llama3.1
    手把手教你本地运行Meta最新大模型:Llama3.1,可是它说自己是ChatGPT? 就在昨晚,Meta发布了可以与OpenAI掰手腕的最新开源大模型:Llama3.1。该模型共有三个版本:8B70B405B对于这次发布,Meta已经在超过150个涵盖广泛语言范围的基准数据集上评估了性能。此外,Meta还进行了广泛......
  • ollama llama3.1 8b openbuddy 模型
    openbuddy对于llama3.18b模型进行了少量的中文训练实现了不错的中文理解处理,以下是使用社区提供的gguf格式,制作一个ollama新模型模型制作下载模型下载gguf文件,推荐使用加速工具Modelfile参考了llama3.1的FROM/home/models/openbuddy-llama3.1-8b-v22.1-......