- 背景本项目利用阿里云平台的英特尔G8i以及通义千问-7B大模型,更加高效,更加便捷,拥有更高的效率。
通义千问-7B(Qwen-7B)是基于Trabsformer的大语言模型,在其基础上使用对齐机制打造了基于大语言模型的AI助手Qwen-7B-Chat。
阿里云第八代实例G8i采用Intel® Xeon® Emerald Rapids以及Intel® Xeon® Sapphire Rapids,在Intel® AMX的加持下,推理和训练性能大幅提升。
- 部署购买云服务器实例(规格为通用型G8i)
系统选择AilibabaCloud linux 存储选择 200GESSD
创建实例以及登录
利用MobaXterm连接主机
安装Docker,使用阿里云提供的Docker镜像源快速部署
运行Intel xFasterTransformer容器
安装依赖
启用Git LFS创建所在目录
下载Qwen-7B模型
转换模型
安装大模型依赖
启动WebUI
OMP_NUM_THREADS=$(($(lscpu | grep "^CPU(s):" | awk '{print $NF}') / 2)) GRADIO_SERVER_NAME="0.0.0.0" numactl -C $(seq -s, 0 2 $(($(lscpu | grep "^CPU(s):" | awk '{print $NF}') - 2))) -m 0 python Qwen.py -t /tmp/model/qwen-7b-chat -m /tmp/model/qwen-7b-chat-xft -d bf16
- 应用创建
进入阿里云百炼,使用API形式进行部署
效果如下