首页 > 其他分享 >baichuan_lmdeploy大规模对话问答语言模型

baichuan_lmdeploy大规模对话问答语言模型

时间:2024-09-25 08:52:06浏览次数:12  
标签:baichuan 7b -- 模型 Baichuan lmdeploy 问答 port

Baichuan

论文

模型结构

Baichuan系列模型是由百川智能开发的开源大规模预训练模型,包含7B和13B等规模。其中,Baichuan-7B在大约1.2万亿tokens上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。

模型具体参数:

模型名称隐含层维度层数头数词表大小总参数量训练数据(tokens)位置编码最大长
Baichuan-7B4,096323264,0007,000,559,6161.2万亿RoPE4096

算法原理

Baichuan整体模型基于标准的Transformer结构,采用了和LLaMA一样的模型设计。其中,Baichuan-7B在结构上采用Rotary Embedding位置编码方案、SwiGLU激活函数、基于RMSNorm的Pre-Normalization。

环境配置

提供光源拉取推理的docker镜像:

docker pull image.sourcefind.cn:5000/dcu/admin/base/pytorch:2.1.0-ubuntu20.04-dtk24.04.1-py3.10(推荐)
# <Image ID>用上面拉取docker镜像的ID替换
# <Host Path>主机端路径
# <Container Path>容器映射路径
docker run -it --name baichuan --shm-size=1024G  --device=/dev/kfd --device=/dev/dri/ --cap-add=SYS_PTRACE --security-opt seccomp=unconfined -v /opt/hyhal:/opt/hyhal:ro --ulimit memlock=-1:-1 --ipc=host --network host --group-add video -v <Host Path>:<Container Path> <Image ID> /bin/bash

镜像版本依赖:

  • DTK驱动:24.04.1
  • Pytorch: 2.1.0
  • python: python3.10

数据集

推理

源码编译安装

# 若使用光源的镜像,可以跳过源码编译安装,镜像里面安装好了lmdeploy。
git clone http://developer.hpccube.com/codes/modelzoo/baichuan_lmdeploy.git
cd llama_lmdeploy
git submodule init && git submodule update
cd lmdeploy
mkdir build && cd build
sh ../generate.sh
make -j 32
make install
cd .. && python3 setup.py install

模型下载

预训练权重快速下载中心: SCNet AIModels

项目中的预训练权重快速通道下载地址: AIModels / Baichuan-7B · 极狐GitLab

AIModels / Baichuan2 7B Chat · 极狐GitLab

官方下载地址: baichuan-7b

baichuan2-7b-chat

运行前

#step 1
cd lmdeploy
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
#step 2
source /opt/dtk/cuda/env.sh

运行 baichuan-7b-chat

# <tp> 用于张量并行的GPU数量应该是2^n
# bash界面运行
lmdeploy chat turbomind  ./path_to_baichuan7b --tp 1     # 输入问题后执行2次回车进行推理

# 服务器网页端运行
在bash端运行:
# <server-name> gradio服务器的ip地址
# <server-port> gradio服务器的ip的端口
# <tp> 用于张量并行的GPU数量应该是2^n (和模型转换的时候保持一致)
lmdeploy serve gradio  ./path_to_baichuan7b --server-name {ip} --server-port {port} --tp 1

在网页上输入{ip}:{port}即可进行对话

运行 baichuan2-7b

# bash界面运行
lmdeploy chat turbomind ./path_to_baichuan2-7b --tp 1

# 服务器网页端运行

在bash端运行:
lmdeploy serve gradio ./path_to_baichuan2-7b --server-name {ip} --server-port {port} --tp 1

在网页上输入{ip}:{port}即可进行对话

result

精度

应用场景

算法类别

对话问答

热点应用行业

医疗,教育,科研,金融

源码仓库及问题反馈

ModelZoo / Baichuan_lmdeploy · GitLab

参考资料

GitHub - InternLM/lmdeploy: LMDeploy is a toolkit for compressing, deploying, and serving LLMs.

标签:baichuan,7b,--,模型,Baichuan,lmdeploy,问答,port
From: https://blog.csdn.net/qq_27815483/article/details/141859013

相关文章

  • 计算机知识科普问答--16(76-80)
    文章目录76、什么是处理机调度?调度算法主要有哪几种?1.**处理机调度(ProcessorScheduling)**2.**处理机调度的分类**3.**常见的调度算法**(1)**先来先服务(First-Come,First-Served,FCFS)**(2)**短作业优先(ShortestJobFirst,SJF)**(3)**优先级调度(PrioritySch......
  • 【软考机考问答】—2024软考机考时间注意事项
    一、2024各地软考机考报名时间地区      报名时间 报名入口  免费题库  备考培训广东8月21日9:00-8月29日17:00报名入口免费题库备考培训江西8月20日9:00-9月13日17:00报名入口 免费题库备考培训安徽8月23日9:00-9月3日16:00报名入口免费题库备考培训甘肃8月26......
  • 【软考机考问答】—软考机考可以提前交卷吗?
    软考机考是可以提前交卷的,但是要在规定时间交卷,交卷时要注意是否交卷成功,如果交卷失败要及时联系监考人员!1.高级资格:综合知识:150分钟案例分析+论文连考:210分钟综合知识科目考试时长150分钟,最短作答时间120分钟,考试前30分钟可以交卷离场。案例分析和论文两个科目连考,案例分析科目最......
  • 【软考机考问答】—软考机考模拟作答系统入口
    软考自2023年下半年全部科目由笔试改为机考:2023年下半年计算机技术与软件专业技术资格(水平)考试有关工作调整的通告考生在进行软考机考之前是可以提前进入软考模拟系统进行模拟操作,从而熟悉软考机考的计算机化考试环境以及作答方式,那么软考机考模拟系统入口在哪里呢?一起来看看吧!考生......
  • 【软考机考问答】—软考机考可以带笔和纸吗?
    软考机考是可以带笔的,但是不能带只,因为考场会发草稿纸,一次发一张,使用完可以举手申请再要,但要注意的是不能把准卡证作为草稿纸,要不然会被视为作弊,同时草稿纸也是不能带出考场的!......
  • 【软考机考问答】—软考机考操作指南及备考
    软考自2023年下半年全部科目由笔试改为机考,为了方便考生尽快熟悉了解软考机考,给大家介绍一下软考机考的基本操作指南!2023年下半年计算机技术与软件专业技术资格(水平)考试有关工作调整的通告一、软考机考操作流程1.登入机考系统,在指定位置输入准考号和身份证号,点击登录,进入确认登录界......
  • 计算机知识科普问答--15(71-75)
    文章目录71、操作系统中哪些操作会导致创建新进程?1.**用户登录**2.**启动新程序**3.**系统初始化**4.**父进程创建子进程**5.**执行批处理任务**6.**外部事件(定时器或设备驱动程序的请求)**7.**多线程环境中的线程创建**8.**操作系统命令或脚本的调......
  • 如何开发政企高校智能问答机器人
    开发政企高校智能问答机器人通常涉及以下步骤:需求分析:明确机器人的目标用户、应用场景和功能需求。例如,政务服务机器人需要处理市民咨询、投诉等。知识库构建:根据需求收集和整理相关领域的知识,建立问答对(Q&Apairs)、法律条文、政策文件等,形成机器人的知识库。技术选型:选......
  • RAG技术全面解析:Langchain4j如何实现智能问答的跨越式进化?
    LLM的知识仅限于其训练数据。如希望使LLM了解特定领域的知识或专有数据,可:使用本节介绍的RAG使用你的数据对LLM进行微调结合使用RAG和微调1啥是RAG?RAG是一种在将提示词发送给LLM之前,从你的数据中找到并注入相关信息的方式。这样,LLM希望能获得相关的信息并利用......
  • AIGC从入门到实战:AIGC 在教育行业的创新场景—苏格拉底式的问答模式和AIGC 可视化创新
    AIGC从入门到实战:AIGC在教育行业的创新场景—苏格拉底式的问答模式和AIGC可视化创新作者:禅与计算机程序设计艺术/ZenandtheArtofComputerProgramming1.背景介绍1.1问题的由来随着人工智能技术的飞速发展,人工智能生成内容(AIGC,ArtificialIntelligenceGenera......