首页 > 其他分享 >搭建本地茴香豆

搭建本地茴香豆

时间:2024-09-05 10:24:50浏览次数:8  
标签:models 茴香豆 v1 base 本地 home 搭建 ray

我们要动手尝试将茴香豆从源码部署到本地服务器(以 MobaXterm为例),并开发一款简单的知识助手 Demo。

2.1 环境搭建

打开MobaXterm,添加SSH远程 链接

HuixiangDou已下载

ray1环境下 

2.1.1 搭建茴香豆虚拟环境

命令行中输入一下命令,创建茴香豆专用 conda 环境:

studio-conda -o internlm-base -t ray1  (??)

创建成功,用下面的命令激活环境:

conda activate ray1

环境激活成功后,命令行前的括号内会显示正在使用的环境,请确保所有茴香豆操作指令在 ray1 环境下运行。

2.2 安装茴香豆

下面开始茴香豆本地标准版的安装。

2.2.1 下载茴香豆

先从茴香豆仓库拉取代码到服务器:

cd /home/ray
# 克隆代码仓库
git clone https://github.com/internlm/huixiangdou && cd HuixiangDou
git checkout 79fa810

 拉取完成后进入茴香豆文件夹,开始安装

2.2.2 安装茴香豆所需依赖

首先安装茴香豆所需依赖:

conda activate ray1
# parsing `word` format requirements
apt update
apt install python-dev libxml2-dev libxslt1-dev antiword unrtf poppler-utils pstotext tesseract-ocr flac ffmpeg lame libmad0 libsox-fmt-mp3 sox libjpeg-dev swig libpulse-dev
# python requirements
pip install BCEmbedding==0.1.5 cmake==3.30.2 lit==18.1.8 sentencepiece==0.2.0 protobuf==5.27.3 accelerate==0.33.0
pip install -r requirements.txt
# python3.8 安装 faiss-gpu 而不是 faiss


# 注意 pip install BCEmbedding==0.1.5 

2.2.3 下载模型文件

茴香豆默认会根据配置文件自动下载对应的模型文件,为了节省时间,本次教程所需的模型已经提前下载到服务器中,我们只需要为本次教程所需的模型建立软连接,然后在配置文件中设置相应路径就可以:

# 创建模型文件夹
cd /home/ray && mkdir models

# 复制BCE模型
ln -s /root/share/new_models/maidalun1020/bce-embedding-base_v1 /root/models/bce-embedding-base_v1
ln -s /root/share/new_models/maidalun1020/bce-reranker-base_v1 /root/models/bce-reranker-base_v1

# 复制大模型参数(下面的模型,根据作业进度和任务进行**选择一个**就行)
ln -s /root/share/new_models/Shanghai_AI_Laboratory/internlm2-chat-7b /root/models/internlm2-chat-7b

                          cccf99bd14b14a642fb1ad0222751f9b 

gitee   clone

git clone https://gitee.com/hf-models/bce-reranker-base_v1.git 

 完成后可以在相应目录下看到所需模型文件

2.2.4 更改配置文件

茴香豆的所有功能开启和模型切换都可以通过 config.ini 文件进行修改,默认参数如下:

执行下面的命令更改配置文件,让茴香豆使用本地模型:

sed -i '9s#.*#embedding_model_path = "/home/ray/models/bce-embedding-base_v1"#' /home/ray/HuixiangDou/config.ini
sed -i '15s#.*#reranker_model_path = "/home/ray/models/bce-reranker-base_v1"#' /home/ray/HuixiangDou/config.ini
sed -i '43s#.*#local_llm_path = "/home/ray/models/internlm2-chat-7b"#' /home/ray/HuixiangDou/config.ini

2.3 知识库创建

修改完配置文件后,就可以进行知识库的搭建,本次教程选用的是茴香豆和 MMPose 的文档,利用茴香豆搭建一个茴香豆和 MMPose 的知识问答助手。

conda activate ray1

cd /home/ray/HuixiangDou/ && mkdir repodir

git clone https://github.com/internlm/huixiangdou --depth=1 repodir/huixiangdou
git clone https://github.com/open-mmlab/mmpose    --depth=1 repodir/mmpose

# Save the features of repodir to workdir, and update the positive and negative example thresholds into `config.ini`
mkdir workdir
python3 -m huixiangdou.service.feature_store

 

标签:models,茴香豆,v1,base,本地,home,搭建,ray
From: https://blog.csdn.net/Pythonliu7/article/details/141900230

相关文章

  • 金言问卷:搭建一个自己的海外问卷渠道查平台,能不能赚钱呢
    大家好,我是金言问卷。海外问卷调查是一个比较长期、稳定的互联网项目,相比于其它很多网络项目来说,算是简单易上手的项目。在十来年之前就有人参与过,那时候做海外问卷需要用到谷歌邮箱。一直发展到现在,依然有这种通过用邮箱账号来登录的形式。随着模式越来越成熟,我们也有一个相......
  • 大模型本地部署
    大模型本地部署实战:使用LMStudio简化开发流程引言近年来,随着人工智能技术的迅猛发展,大型语言模型(LLMs)已经成为多个领域中的关键技术之一。然而,对于很多开发者来说,在本地环境中部署和运行这些模型常常是一大挑战。幸运的是,LMStudio的出现为这一难题提供了简洁高效的解决方案......
  • AI超强语音转文本SenseVoice,本地化部署教程!
    模型介绍SenseVoice专注于高精度多语言语音识别、情感辨识和音频事件检测多语言识别:采用超过40万小时数据训练,支持超过50种语言,识别效果上优于Whisper模型。富文本识别:具备优秀的情感识别,能够在测试数据上达到和超过目前最佳情感识别模型的效果。支持声音事件检测能力,支持......
  • 【AIGC】Whisper语音识别模型概述,应用场景和具体实例及如何本地搭建Whisper语音识别模
    ......
  • 【python】本地local_setting设置与上传仓库
    1.我们在开发过程中,有的配置数据不希望别人看到,例如:数据库信息2.如是我们可以在本地配置一个local_setting.py文件2.1:在setting中最后,导入local_settingtry:from.local_settingimport*exceptImportError:pass2.2:将自己的配置数据,写入到local_setting......
  • 本地ollama的LLM模型运行微软GraphRAG
    pipinstallgraphragpipinstallollama1、ollama安装直接从modelscope下载ollama安装包modelscopedownload--model=modelscope/ollama-linux--local_dir./ollama-linux#运行ollama安装脚本sudochmod777./ollama-linux/ollama-modelscope-install.shsh./ollam......
  • 群晖搭建个人图书馆
    概述本文依赖于github项目talebook(https://github.com/talebook)本文依赖于github项目(GitHub-cxfksword/douban-api-rs:简单的豆瓣api,主要用于在jellyfin中刮削电影信息)其实就是面向于新手的个人图书馆项目搭建,但是作者本人也是新手[/笑哭]。搭建talebook使用ss......
  • 『功能项目』坐骑UI搭建及脚本控制显/隐【19】
    本章项目成果展示我们打开上一篇18怪物消亡掉落宝箱的项目,本章要做的事情是搭建一个坐骑UI界面,并通过键盘B键/右侧坐骑按钮控制坐骑UI界面的显示与隐藏在背包Bag上创建一个父物体,命名为Middle修改Bag的尺寸将下面资源图片放进Art文件夹将图片放在Art文......
  • 【大模型】使用 Xinference 部署本地模型,从GPU服务器到本地知识库搭建Dify【LLM大语言
    基本介绍基础信息GPU服务器获取基础安装基础信息安装显卡驱动配置显卡检查下载禁用nouveau系统自带驱动显卡驱动安装安装nvidia-docker下载配置验证Xinference部署docker部署官方文档模型下载glm-4-9b-chatEmbedding(向量)模型Rerank模型模型部署Embedding(向量)模型......
  • 一台Ubuntu22.04物理机搭建虚拟机云和容器云集群,通过安装ESXi、配置GPU透传、创建虚拟
    一台Ubuntu22.04物理机搭建虚拟机云和容器云集群,通过安装ESXi、配置GPU透传、创建虚拟机,然后在虚拟机上搭建集群。步骤1:安装ESXi并配置GPU透传下载和准备ESXi:从VMware官方网站下载ESXi镜像。使用Rufus等工具将镜像写入U盘,以便将其作为启动盘。安装ESXi:将U盘插......