部署机器硬件情况:
内存
:32GB
显卡
:3060
为什么不使用docker:
1.网上教程大多以docker为主
2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署
1.安装Ollama
下载地址:Ollama
下载好之后默认安装即可。
Ollama常用命令
【跟docker差不多,初次安装的话这边可以忽略,先看下面的】
ollama serve # 启动ollama
ollama create # 从模型文件创建模型
ollama show # 显示模型信息
ollama run # 运行模型,会先自动下载模型
ollama pull # 从注册仓库中拉取模型
ollama push # 将模型推送到注册仓库
ollama list # 列出已下载模型
ollama ps # 列出正在运行的模型
ollama cp # 复制模型
ollama rm # 删除模型
2.下载模型
Ollama模型库类似于Docker托管镜像的Docker Hub。
打开之后,在cmd里复制这边的命令来拉取模型并运行。
第一次运行的时候需要下载。
3.启动
ollama run qwen2.5-coder:14b
正常启动大概15秒左右。
可以在命令行里对其进行提问。
内存占用情况:(开了一台win7虚拟机的情况下)
还是可以接受的。
输入/?
查看常用指令
4.Open-webui实现可视化
官方github界面:GitHub - open-webui/open-webui: User-friendly AI Interface (Supports Ollama, OpenAI API, ...)
官方文档:Ollma,open,Qwen2.5,模型,14B,webui,docker,ollama,Ollama From: https://blog.csdn.net/Chen_lead/article/details/144068018