https://www.sysgeek.cn/ollama-on-windows/
浏览器输入: http://localhost:11434/ 显示Ollama is running表示正常启动
当前已安装千问(qwen2:latest)
# 安装qwen2:latest
ollama pull qwen2:latest
# 安装聊天机器人
ollama pull wangshenzhi/llama3-8b-chinese-chat-ollama-q4
# 安装文本embeding工具
ollama pull nomic-embed-text
ollama实现简单RAG https://www.sysgeek.cn/ollama-on-windows/
# 查看 Ollama 版本
ollama -v
# 查看已安装的模型
ollama list
# 运行指定模型
ollama run [modelname]
# 删除指定模型
ollama rm [modelname]
# 模型存储路径
# C:\Users\<username>\.ollama\models
C:\Users\admin\.ollama\models
下面执行失败404
curl -X POST http://172.30.48.60:8000/api/chat -H "Content-Type: application/json" -d '{"model": "qwen2:latest", "prompt": "天空为什么是蓝色的?"}'
参考:https://www.ncnynl.com/archives/202406/6190.html
获取当前已加载的模型列表。
curl http://localhost:11434/api/tags
查看正在使用的模型
curl http://localhost:11434/api/ps