首页 > 其他分享 >AI大模型ChatGLM2-6B 第三篇 - ChatGLM2-6B部署

AI大模型ChatGLM2-6B 第三篇 - ChatGLM2-6B部署

时间:2024-03-08 17:26:36浏览次数:34  
标签:Collecting kB 6B requirements AI ChatGLM2 whl line txt

clone项目

下载模型

https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/?p=%2Fchatglm2-6b&mode=list

image

切换conda里面的py39环境

cd /home/chq/ChatGLM2-6B
conda activate py39

执行pip install

(py39) root@chq:/home/chq/ChatGLM2-6B# pip install -r requirements.txt
Collecting protobuf (from -r requirements.txt (line 1))
  Downloading protobuf-4.25.2-cp37-abi3-manylinux2014_x86_64.whl.metadata (541 bytes)
Collecting transformers==4.30.2 (from -r requirements.txt (line 2))
  Downloading transformers-4.30.2-py3-none-any.whl.metadata (113 kB)
     ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 113.6/113.6 kB 530.9 kB/s eta 0:00:00
Collecting cpm_kernels (from -r requirements.txt (line 3))
  Downloading cpm_kernels-1.0.11-py3-none-any.whl (416 kB)
     ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 416.6/416.6 kB 890.6 kB/s eta 0:00:00
Collecting torch>=2.0 (from -r requirements.txt (line 4))
  Downloading torch-2.1.2-cp39-cp39-manylinux1_x86_64.whl.metadata (25 kB)
Collecting gradio (from -r requirements.txt (line 5))
  Downloading gradio-4.14.0-py3-none-any.whl.metadata (15 kB)
Collecting mdtex2html (from -r requirements.txt (line 6))
  Downloading mdtex2html-1.2.0-py3-none-any.whl (13 kB)
Collecting sentencepiece (from -r requirements.txt (line 7))
  Downloading sentencepiece-0.1.99-cp39-cp39-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (1.3 MB)
     ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 1.3/1.3 MB 193.1 kB/s eta 0:00:00
Collecting accelerate (from -r requirements.txt (line 8))
  Downloading accelerate-0.26.1-py3-none-any.whl.metadata (18 kB)
Collecting sse-starlette (from -r requirements.txt (line 9))
  Downloading sse_starlette-1.8.2-py3-none-any.whl.metadata (5.4 kB)
Collecting streamlit>=1.24.0 (from -r requirements.txt (line 10))
  Downloading streamlit-1.30.0-py2.py3-none-any.whl.metadata (8.2 kB)
Collecting filelock (from transformers==4.30.2->-r requirements.txt (line 2))
  Downloading filelock-3.13.1-py3-none-any.whl.metadata (2.8 kB)
Collecting huggingface-hub<1.0,>=0.14.1 (from transformers==4.30.2->-r requirements.txt (line 2))
  Downloading huggingface_hub-0.20.2-py3-none-any.whl.metadata (12 kB)
Collecting numpy>=1.17 (from transformers==4.30.2->-r requirements.txt (line 2))
  Downloading numpy-1.26.3-cp39-cp39-manylinux_2_17_x86_64.manylinux2014_x86_64.whl.metadata (61 kB)
     ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 61.2/61.2 kB 106.6 kB/s eta 0:00:00
Collecting packaging>=20.0 (from transformers==4.30.2->-r requirements.txt (line 2))
  Downloading packaging-23.2-py3-none-any.whl.metadata (3.2 kB)
Collecting pyyaml>=5.1 (from transformers==4.30.2->-r requirements.txt (line 2))
  Downloading PyYAML-6.0.1-cp39-cp39-manylinux_2_17_x86_64.manylinux2014_x86_64.whl.metadata (2.1 kB)
Collecting regex!=2019.12.17 (from transformers==4.30.2->-r requirements.txt (line 2))
  Downloading regex-2023.12.25-cp39-cp39-manylinux_2_17_x86_64.manylinux2014_x86_64.whl.metadata (40 kB)
     ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 40.9/40.9 kB 177.9 kB/s eta 0:00:00
Collecting requests (from transformers==4.30.2->-r requirements.txt (line 2))

启动

启动前,主要修改模型路径,如web_demo.py:


tokenizer = AutoTokenizer.from_pretrained("/home/chq/ChatGLM2-6B/module", trust_remote_code=True)
model = AutoModel.from_pretrained("/home/chq/ChatGLM2-6B/module", trust_remote_code=True).cuda()
# 多显卡支持,使用下面两行代替上面一行,将num_gpus改为你实际的显卡数量
# from utils import load_model_on_gpus
# model = load_model_on_gpus("THUDM/chatglm2-6b", num_gpus=2)
model = model.eval()

启动方式1(基于 Gradio 的网页版 demo):

python web_demo.py

方式2(基于 Streamlit 的网页版 demo):

streamlit run web_demo2.py

报错

提问的时候是有回答的,但web窗口看不到,是因为组件版本的问题,

image

参考https://github.com/THUDM/ChatGLM2-6B/issues/570

pip uninstall gradio
pip install gradio==3.39.0

参考

https://zhuanlan.zhihu.com/p/645112683

https://github.com/THUDM/ChatGLM2-6B

标签:Collecting,kB,6B,requirements,AI,ChatGLM2,whl,line,txt
From: https://www.cnblogs.com/chq3272991/p/18061439

相关文章

  • AI大模型ChatGLM2-6B - 基础环境搭建
    硬件环境cpui5-13600k内存64G显卡rtx3090软件环境window11专业版22H2n卡驱动:526.47wsl2ubuntu22.04安装nvidia-cuda-toolkit打开wsl2的ubuntu,安装nvidia驱动程序sudoaptupdatesudoaptupgradesudoubuntu-driversdevicessudoaptinstallnvidia-driver-......
  • Rails5中AR的新特性
    ApplicationRecord在Rails4中所有的模型都继承自ActiveRecord::Base,不过在Rails5中新引进了一个叫ApplicationRecord的类,存放在:app/models/application_record.rb中,所有Rails5应用都会有这个类,它的内容非常简单: 就是一个继承ActiveRecord::Base的抽象类,作用就是为整个应用......
  • windows搭建rails环境中,mysql2 gem 安装error问题
    windows搭建rails环境中,mysql2gem安装error问题可以尝试使用下面几种方法:1. Uninstallingandreinstallingthegemwilloftensolvethisissuewithnoneedtodownloadandmovefilesaroundbyhand.Fromyourrailsappdirectory:>gemuninstallmysql2You......
  • Rails中的includes和joins的区别与用法
    includes和joins的不同当includes和joins的时候最重要的概念就是他们有他们的典型用例。includes使用贪婪加载(eagerloading)而joins使用懒加载(lazyloading),两者都非常有用,但是也都很容易被滥用导致程序性能降低或过度使用。如果我们看一眼rubyonrails文档,描述includes最重......
  • 关于rails打印pdf prawn gem的使用
    1.安装gem  gem'prawn'gem'prawn-table' 2.由于prawn包中不支持打印中文,所以需要将windows电脑路径下的字体复制到gem的安装路径下windows字体路径:C:\Windows\Fontsgem中安装路径:/Users/zhoukong/.rvm/gems/jruby-9.0.0.0.pre1@rails4/gems/prawn-2.2.2/data/fonts......
  • Meta 研发大型 AI 推荐引擎;全球首部全面监管 AI 法规将落地丨 RTE 开发者日报 Vol.160
      开发者朋友们大家好: 这里是「RTE开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享RTE(RealTimeEngagement)领域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编辑的个人观点,......
  • aiofiles,一个异步测试的 Python 库!
    什么是aiofiles库?aiofiles是一个异步文件操作库,提供了一种简单而强大的方式来执行文件操作,包括打开文件、读取文件、写入文件等。aiofiles库是建立在asyncio之上的,它允许开发人员在异步程序中执行文件操作,而不会阻塞事件循环。安装aiofiles库pipinstallaiofiles基本......
  • 论文精读:关于不确定性校准的mixup陷阱(On the Pitfall of Mixup for Uncertainty Cali
    背景Mixup(混合)定义对于一个样本\((x_i,y_i)\),将其与另一个样本\((x_j,y_j)\)混合:\[\begin{aligned}\tilde{x}_i&=\lambdax_i+(1-\lambda)x_j,\\\tilde{y}_i&=\lambday_i+(1-\lambda)y_j,\end{aligned}\tag{1}\]其中\(\lambda\)采样于Beta(α,α),α>0......
  • 大咖公开课 | 探索AI的边界:如何精准地测试人工智能
    在当今数字化时代,人工智能(AI)技术已经成为我们生活中不可或缺的一部分。然而,要构建出可信赖的AI系统并非易事。这需要我们不仅深入理解人工智能的核心原理,还需要将这些理论知识应用到实际场景中。为了帮助大家系统地掌握人工智能的核心原理及在实际中的应用场景,我们特别推出了如何......
  • 效率起飞!天翼云并行文件服务HPFS高效应对AI时代大模型训练存储挑战!
    国内外AI大模型层出不穷,训练数据复杂程度更是呈指数级增加。如今,在万亿级参数时代,单个资源池已无法满足大模型训练场景中动辄PB级的数据存储量,对于企业来说,启用多个资源池构成的分布式存储势在必行。  为了应对AI大模型训练对数据存储的需求,天翼云推出并行文件服务HPFS(CT-HP......