首页 > 其他分享 >Qwen Runner

Qwen Runner

时间:2024-07-27 12:08:14浏览次数:8  
标签:7B Runner server Qwen api https --

本地测试

https://www.bingal.com/posts/Qwen-7b-usage/

通义千问-7B(Qwen-7b)是什么

通义千问(Qwen-7B)是阿里云最新发布的一系列超大规模语言模型,这个牛气十足的大模型令人惊叹。基于Transformer架构,Qwen-7B系列汇聚了70亿参数。废话不多说,让我们一起来看看Qwen-7B的强大之处吧!

安装虚拟环境

 
# 安装虚拟环境
conda create -n qwen-7b python=3.10 -y
# 激活虚拟环境
conda activate qwen-7b

安装 pytorch

参考 https://pytorch.org/get-started/locally/ 我本地安装的 cuda 是 11.8 版本,所以安装代码如下,如果是用 cpu 跑的话,则省略本步骤,下面的代码会自动下载 cpu 版本的 pytorch

 
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

拉取代码并安装依赖

 
# 拉取代码
git clone https://github.com/QwenLM/Qwen-7B.git
# 进入代码目录
cd Qwen-7B
# 安装依赖
pip install -r requirements.txt
# 安装 web_demo 依赖
pip install -r requirements_web_demo.txt

启动 web_demo 快速体验(自动下载模型)

 
# 通过参数 --server-port 指定端口号,默认为 8000
# 通过参数 --server-name 指定服务地址,默认为 127.0.0.1
# 如果是用 cpu 跑的话,可以加上参数 --cpu-only
# 如果想生成一个用于公网访问的 url,可以加上参数 --share
python web_demo.py --server-port 8087 --server-name "0.0.0.0"

web demo 界面 web demo 界面

启动类 openai api 形式的接口

有个必要的依赖库需要先安装 pip install sse_starlette ,然后就可以启动了

 
# 通过参数 --server-port 指定端口号,默认为 8000
# 通过参数 --server-name 指定服务地址,默认为 127.0.0.1
# 如果是用 cpu 跑的话,可以加上参数 --cpu-only
python openai_api.py --server-port 8086 --server-name "0.0.0.0"

服务启动正常之后,就可以使用 openai 的客户端使用了,比如 chatbox、opencat 等等,亲测可用。 设置 api 的时候选择 openapi api 接口,api-key 为空即可。 下面为 chatbox 设置方法: chatbox 设置方法 下面为 chatbox 对话效果 chatbox 对话效果

 

https://blog.csdn.net/qq_36344652/article/details/140361129

 

llama.cpp

https://qwen.readthedocs.io/en/latest/run_locally/llama.cpp.html

 

部署

vllm

https://qwen.readthedocs.io/zh-cn/latest/deployment/vllm.html

 

lmdeploy

https://lmdeploy.readthedocs.io/zh-cn/latest/serving/api_server.html

 

 

服务使用

https://help.aliyun.com/zh/dashscope/developer-reference/compatibility-of-openai-with-dashscope

https://help.aliyun.com/zh/dashscope/developer-reference/tongyi-qianwen-vl-plus-api

https://help.aliyun.com/zh/dashscope/developer-reference/quick-start?spm=a2c4g.11186623.0.i3

 

标签:7B,Runner,server,Qwen,api,https,--
From: https://www.cnblogs.com/lightsong/p/18326793

相关文章

  • 记录linux本地部署Langchain-chatchat-v0.3+Xinference+qwen-chat 1.5-72B
    非源码部署!!!!未用docker,用的conda虚拟环境,Langchain-chatchat-v0.3+Xinference需要分别单独放进虚拟环境,要创建两个虚拟环境,防止包冲突。1.Xinference环境配置1.1首先搭建一个xinference的虚拟环境condacreate-nxinferpython=3.10condaactivatexinfer用的py3.10......
  • 有手就行,轻松本地部署 Llama、Qwen 大模型,无需 GPU
    用CPU也能部署私有化大模型?对,没错,只要你的电脑有个8G内存,你就可以轻松部署Llama、Gemma、Qwen等多种开源大模型。非技术人员,安装Docker、Docker-compose很费劲?不用,这些都不需要安装,就一个要求:有手就行~今天主要为大家分享保姆级教程:如何利用普通个人电脑,本地私有......
  • DeepSpeed x MiniGPT4Qwen
    #关于DeepSpeed的尝试知乎博客地址:https://zhuanlan.zhihu.com/p/673359684##参考Repo:https://github.com/microsoft/DeepSpeedExampleshttps://github.com/microsoft/DeepSpeedExamples/blob/master/training/HelloDeepSpeed/train_bert_ds.py,代码拷贝到了本项目的:htt......
  • LAVIS库学习及MiniGPT4-Qwen中的实现
    目录LAVIS库一、lavis库介绍二、体验示例ImageCaptioningVisualquestionanswering(VQA)UnifiedFeatureExtractionInterface加载数据集在任务数据集上评估预训练模型微调BLIP在COCO-Captioning数据集深度剖析模型配置数据集配置三、lavis自定义模块3.1自定义数据集Datase......
  • 大模型环境配置,包括多机多卡 conda env export > qwen_environment.yml同步环境
    多机一致环境:pipfreeze>requirements.txt装特定的torch,--extra-index-urlhttps://download.pytorch.org/whl/cu118pipinstalltorch==2.2.0+cu118--extra-index-urlhttps://download.pytorch.org/whl/cu118要将Conda/Mamba环境从一台机器同步到另一台机器,最好的......
  • 通过vllm 部署qwen2 模型
    主要是一个简单测试安装vllmpip模式安装部分包比较大,注意时间,最好使用一个加速,目前阿里云的似乎有限速了,可以试试清华的https://pypi.tuna.tsinghua.edu.cn/simplepython-mvenvvenvsourcevenv/bin/acsourcevenv/bin/activatepipinstall-ih......
  • windows11 使用pytorch transformers运行Qwen2-0.5B-Instruct模型 (基于anaconda pyth
    吾名爱妃,性好静亦好动。好编程,常沉浸于代码之世界,思维纵横,力求逻辑之严密,算法之精妙。亦爱篮球,驰骋球场,尽享挥洒汗水之乐。且喜跑步,尤钟马拉松,长途奔袭,考验耐力与毅力,每有所进,心甚喜之。 吾以为,编程似布阵,算法如谋略,需精心筹谋,方可成就佳作。篮球乃团队之艺,协作共进,方显力......
  • 简单剖析qwen-agent回答是怎么获取tool的
    openai是一家伟大的公司(虽然是closedai),当他们提出agent的概念后,就很神奇。之前通过langchain的langgraph进行写demo,就很好奇,他是怎么基于我的话自动去识别这句话是大模型的闲聊,那句话是大模型去调用tool1.现象1.和大模型打招呼,大模型知道回答,这没啥稀奇2.可是当问它某个地方的......
  • 使用 lmdeploy 部署 Qwen/Qwen2-7B-Instruct
    使用lmdeploy部署internlm/internlm2_5-7b-chat0.引言1.lmdeploy性能2.lmdeploy支持的模型3.快速开始0.引言LMDeploy由MMDeploy和MMRazor团队联合开发,是涵盖了LLM任务的全套轻量化、部署和服务解决方案。这个强大的工具箱提供以下核心功能:高效的......
  • 基于Qwen2/Lllama3等大模型,部署团队私有化RAG知识库系统的详细教程(Docker+AnythingLLM
    自ChatGPT发布以来,大型语言模型(LargeLanguageModel,LLM,大模型)得到了飞速发展,它在处理复杂任务、增强自然语言理解和生成类人文本等方面的能力让人惊叹,几乎各行各业均可从中获益。然而,在一些垂直领域,这些开源或闭源的通用基础大模型也暴露了一些问题,主要体现在以下3个方面:......