首页 > 其他分享 >以容器方式部署通义千问 Qwen

以容器方式部署通义千问 Qwen

时间:2024-02-09 18:11:20浏览次数:21  
标签:千问 -- Qwen install nvidia model docker dir 通义

准备服务器

  • 阿里云云服务器
  • 实例规格:轻量级 GPU 实例 ecs.vgn6i-m4-vws.xlarge(4vCPU 23GiB)
  • 磁盘空间 :50G
  • 操作系统:Ubuntu 22.04

安装 docker

apt install docker.io

安装 NVIDIA GRID 驱动

acs-plugin-manager --exec --plugin grid_driver_install

安装 NVIDIA Container Toolkit

  • 安装命令
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
apt-get update
apt-get install -y nvidia-container-toolkit
  • 配置命令
nvidia-ctk runtime configure --runtime=docker
systemctl restart docker
  • 验证是否安装成功
docker run --rm --runtime=nvidia --gpus all ubuntu nvidia-smi

下载 model checkpoint

  • 创建下载脚本 download-model-checkpoint.py
from modelscope import snapshot_download
from transformers import AutoModelForCausalLM, AutoTokenizer

# Downloading model checkpoint to a local dir model_dir
model_dir = snapshot_download('qwen/Qwen-7B-Chat')

# Loading local checkpoints
# trust_remote_code is still set as True since we still load codes from local dir instead of transformers
tokenizer = AutoTokenizer.from_pretrained(model_dir, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
    model_dir,
    device_map="auto",
    trust_remote_code=True
).eval()
  • 安装脚本依赖包
pip install modelscope
pip install transformers
pip install torch
pip install tiktoken
pip install transformers_stream_generator
pip install accelerate
  • 执行脚本下载 model checkpoints
python3 download-model-checkpoint.py 

注:model checkpoints 文件会被下载到 ~/.cache/modelscope/hub/qwen/Qwen-7B-Chat 文件夹中(这个路径就是 model_dir 变量的值)。

启动容器运行模型服务(OpenAI API 兼容方式)

  • 签出通义千问的开源代码
git clone https://github.com/QwenLM/Qwen.git
  • 使用下面的脚本启动容器
IMAGE_NAME=qwenllm/qwen:cu114
PORT=8901
CHECKPOINT_PATH=~/.cache/modelscope/hub/qwen/Qwen-7B-Chat
bash docker/docker_openai_api.sh -i ${IMAGE_NAME} -c ${CHECKPOINT_PATH} --port ${PORT}

注:qwenllm/qwen:cu114 镜像文件大小为 9.87G

  • 确认容器是否启动成功
# docker ps
CONTAINER ID   IMAGE                COMMAND                  CREATED         STATUS         PORTS                                   NAMES
b2bd3f3417af   qwenllm/qwen:cu114   "/opt/nvidia/nvidia_…"   3 minutes ago   Up 3 minutes   0.0.0.0:8901->80/tcp, :::8901->80/tcp   qwen

启动成功!

  • 确认 api 是否可以正常请求
# curl localhost:8901/v1/models | jq

输出内容

{
  "object": "list",
  "data": [
    {
      "id": "gpt-3.5-turbo",
      "object": "model",
      "created": 1707471911,
      "owned_by": "owner",
      "root": null,
      "parent": null,
      "permission": null
    }
  ]
}

请求成功!可以正常兼容 openai 的 api。

标签:千问,--,Qwen,install,nvidia,model,docker,dir,通义
From: https://www.cnblogs.com/dudu/p/18008693

相关文章

  • 通义千问上线春节新应用,AI帮你免费拍全家福
    2月5日,春节将至年味渐浓,阿里云通义千问APP上线多项免费新应用,涵盖全家福、拜新年、万物成龙等图像生成的新玩法,共提供超300套照片模板,用户上传照片即可生成全家福、团圆照、拜年照、千里江山主题照;此外,一个月前火爆全网的全民舞王应用也迎来上新,用户可通过一张照片生成拜年视频,用更......
  • 国内唯一!通义灵码入选全球智能编码助手使用率 TOP 榜单
    近日,在国内知名科技媒体InfoQ研究中心发布的《中国软件技术发展洞察和趋势预测报告2024》中提到,随着AI和大模型技术的普及,开发者智能编码助手的使用习惯已经养成,其中,开发者使用的智能编码助手产品使用率超过10%的产品共计8款,唯一一款国内企业研发的产品为阿里旗下的通义......
  • 通义灵码——灵动指间,快码加编,你的智能编码助手
    通义灵码,是阿里云出品的一款基于通义大模型的智能编码辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、研发智能问答、异常报错排查等能力,并针对阿里云的云服务使用场景调优,助力开发者高效、流畅的编码。点击此处立即参与通义灵......
  • 通义灵码——灵动指间,快码加编,你的智能编码助手
    通义灵码,是阿里云出品的一款基于通义大模型的智能编码辅助工具,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码优化、注释生成、代码解释、研发智能问答、异常报错排查等能力,并针对阿里云的云服务使用场景调优,助力开发者高效、流畅的编码。点击此处立即参与通义......
  • 通义灵码试用
    参考:通义灵码官方 一通义灵码是什么二安装通义灵码三通义灵码的使用四问题 一通义灵码是什么看博客园的首页推荐,来尝试下这个编码助手咋回事。通义灵码是阿里出的编码助手,基于通义大模型,提供代码AI智能生成、研发智能问答。提供功能:行/函数级实时续写自然语言......
  • 阿里云参编业内首个代码大模型标准,通义灵码获 2023 AI4SE “银弹” 案例
    日前,中国人工智能产业发展联盟智能化软件工程工作组(AIforSoftwareEngineering,下文简称AI4SE)在京召开首届“AI4SE创新巡航”活动。阿里云作为AI4SE首批成员单位,与中国信息通信研究院等组织联合发起的《智能化软件工程技术和应用要求第一部分:代码大模型》(标准编号AIIA/PG0110......
  • 通义灵码,降临博客园
    阿里云通义灵码昨天开始在园子里投放广告啦——灵动指间,快码加编,你的智能编码助手!在园子的脱困阶段,我们一边在做会员,一边在卖周边,一边也想做一些高品质广告单,这周终于等到一单。但这一单只是短期试投,投放一周左右,然后评估投放效果,如果效果好,通义灵码会考虑和园子长期合作。......
  • 阿里发布通义千问!1行代码,免费对话GPT大模型
    大家好,这里是程序员晚枫,今天给大家分享一个好用的东西......
  • 阿里云 的 通义灵码 在 IDEA 使用
    序章 官网:https://tongyi.aliyun.com/lingma介绍:基于通义大模型,提供代码智能生成、研发智能问答能力。 使用手册:https://help.aliyun.com/document_detail/2590615.html IDEA版本:IntelliJIDEA2023.1.1(CommunityEdition)通义灵码版本:1.1.0 安装通义灵码插......
  • 不需要本地部署大模型,modelscope-agent加qwen-max免费搭建自己的定制机器人
    最近阿里开源了通用大模型qwen-72b,正在为怎么本地化部署发愁,转眼看到提供了qwen-max相关接口的免费试用(据说就是基于qwen-72b大模型),这就来体验一番。1.前期准备开通阿里云灵积平台,并创建api-key2.环境搭建python:3.10+;pydantic2.0以上,老版本pydantic会报一个tool_sche......