首页 > 系统相关 >记录linux本地部署Langchain-chatchat-v0.3+Xinference+qwen-chat 1.5-72B

记录linux本地部署Langchain-chatchat-v0.3+Xinference+qwen-chat 1.5-72B

时间:2024-07-25 17:58:41浏览次数:14  
标签:1.5 72B https Langchain xinference chatchat conda chat edu

非源码部署!!!! 未用docker,用的conda虚拟环境,Langchain-chatchat-v0.3+Xinference需要分别单独放进虚拟环境,要创建两个虚拟环境,防止包冲突。

1.Xinference环境配置

1.1 首先搭建一个xinference的虚拟环境

conda create -n xinfer python=3.10 
conda activate xinfer 

用的py3.10,调研了一下说好像稳定些。

另外附上conda镜像源配置:

conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/
conda config --set show_channel_urls yes
conda config --show-source

因为是新服务器,遇到了创建新环境出错,报错镜像未配置,然后配置完又报错访问不到清华镜像之类的,最后发现是服务器未配置DNS的问题,ping不通,是网络问题,以为是镜像源的问题,尴尬。。。

1.2 在环境中安装xinference

用以下命令安装 Xinference ,本人只安装了transformers引擎,几乎包含了所有最新的llm,够用

pip install "xinference[transformers]" -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install "xinference[vllm]" -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install "xinference[transformers,vllm]" # 同时安装这两个引擎
pip install "xinference[all]"  -i https://pypi.tuna.tsinghua.edu.cn/simple

1.3 运行xinference

等待安装结束侯,xinference 默认会在本地启动服务,端口默认为 9997,因为这里配置了-H 0.0.0.0参数,非本地客户端也可以通过机器的 IP 地址来访问 xinference 服务。用下面代码运行,最好加个端口号,本人服务器端口映射有问题,额,访问不到默认的地址,导致每次启动都会变更端口号,麻烦。

xinference-local --host 0.0.0.0 --port 59076  

启动成功后,我们可以通过地址 http://服务器ip:59076来访问 xinference 的 WebGUI 界面了。

如图:

1.4 下载模型

点击左侧功能的Launch Model,在language models中搜索想要模型,搜索到想要模型,点击小卡片进入即可,进入后选择下载模型的配置参数(下图),然后点击小火箭下载运行模型即可。这里本人安装的qwen1.5-chat-72B-int4,下载了130个g左右,第一次下载时间较长。

这里如果当前路径下载模型内存不够的话,可以修改xinference的存储路径,代码如下:

vim .bashrc  
source ~/.bashrc
export TMPDIR=/dev/shm/tmp  #这里把临时路径也改了
export XINFERENCE_HOME=/dev/shm/tmp/xinference   #xinference的路径,改成自己路径即可
export MODELSCOPE_CACHE==/dev/shm/modelscope/hub #xinference的路径,改成自己路径即可

下载并运行完成后,点击左侧的Running models,可以看到正在运行的模型,点击下图中红色标识的小框,即可跳转webui界面。

1.5 下载Embeddings模型

在Launch Model中,选择Embedding Models,在里面选取自己想要的Embedding模型下载即可,本人下载的为bge-base-zh-v1.5

点击小火箭

标签:1.5,72B,https,Langchain,xinference,chatchat,conda,chat,edu
From: https://blog.csdn.net/qq_39067449/article/details/140689425

相关文章

  • AI大模型原理(通俗易懂版)——调教ChatGPT
    你有没有发现ChatGPT等AI聊天助手有时候像个博览群书又善解人意的天才,有时候像个喝了二两酒后前言不搭后语的笨蛋。针对这种现象,越来越多人开始研究怎么调教出一个聪明的AI聊天助手。提示工程就是研究如何提高和AI的沟通质量,其核心关注提示的开发和优化,提示就是我们给AI聊天......
  • AI大模型原理(通俗易懂版)——武装ChatGPT
    ChatGPT之类的AI大语言模型虽然博览群书,但在某些方面也始终存在短板。比如编造事实、计算不准确、数据过时等等。为了应对这些问题,可以借助一些外部工具或数据,把AI武装起来,实现这一思路的框架包括RAG索引增强、PAL程序辅助语言模型、ReAct推理行动结合,这些词是不是晦涩难懂令......
  • LLM大语言模型-ChatGPT、LLaMA、ChatGLM、文心一言、通义千问
    一、LLM与PLM主要区别:1.LLM表现出PLM所没有的EmergentAbilities(涌现能力),这些能力是LLM在复杂任务上表现惊人的关键,使得得人工智能算法前所未有的强大,但这些能力是如何获得的还不具有理论支持;2.LLM将彻底改变人类开发和使用人工智能算法的方式。与小型PLM不同,访问LLM的主要方......
  • 文心一言 VS 讯飞星火 VS chatgpt (310)-- 算法导论22.2 8题
    八、我们将一棵树T=(V,E)......
  • 文心一言 VS 讯飞星火 VS chatgpt (309)-- 算法导论22.2 7题
    七、职业摔跤手可以分为两种类型:“娃娃脸”(“好人”)型和“高跟鞋”(“坏人”)型。在任意一对职业摔跤手之间都有可能存在竞争关系。假定有n个职业摔跤手,并且有一个给出竞争关系的r对摔跤手的链表。请给出一个时间为O(n+r)的算法来判断是否可以将某些摔跤手划分为“......
  • 给园子的会员送送优惠,和你的数据库聊聊天:会员权益「Chat2DB 特惠」上线
    在园子遇到紧急困难发出求救信后,很多园友纷纷出手购买会员相救,非常感谢大家的支持!但目前会员权益很少,而我们的开发人手极其有限,为了增加更多会员权益,我们想到一个暂时的偷懒方法,尝试找优秀的厂商合作,给园子的会员特别的优惠。但这个偷懒想法并不容易实现,优秀的厂商不一定愿意理......
  • ChatMoney智能占星师:不一样的AI工具
    本文由ChatMoney团队出品在科技的前沿领域,诞生了一位独特的存在——AI占星师。它并非传统意义上的占星师,而是融合了先进的人工智能技术与神秘的占星学知识。这能够凭借其强大的数据分析能力和精准的算法,对星辰的排列和宇宙的能量进行深度解读。它以客观理性的视角,为人们揭示......
  • DolphinPHP1.5.1版本的RCE
    侵权声明本文章中的所有内容(包括但不限于文字、图像和其他媒体)仅供教育和参考目的。如果在本文章中使用了任何受版权保护的材料,我们满怀敬意地承认该内容的版权归原作者所有。如果您是版权持有人,并且认为您的作品被侵犯,请通过以下方式与我们联系:[[email protected]]。我们将在确......
  • 搭建基于 ChatGPT 的问答系统第四章-检查输入审核
    需要学习提示词工程的同学请看面向开发者的提示词工程前几章内容请查看搭建基于ChatGPT的问答系统第一章-综述搭建基于ChatGPT的问答系统第二章-提问范式与Token搭建基于ChatGPT的问答系统第三章-评估输入分类第四章检查输入-审核如果您正在构建一个需要用户......
  • OpenAI API 错误:“您尝试访问 openai.ChatCompletion,但 openai>=1.0.0 不再支持此操作
    我目前正在开发一个聊天机器人,由于我使用的是Windows11,它不允许我迁移到较新的OpenAI库或降级它。我可以用其他函数替换ChatCompletion函数以在我的版本上工作吗?这是代码:importopenaiopenai.api_key="private"defchat_gpt(prompt):response=op......