先上地址https://github.com/ollama/ollama/tree/main
官网 https://ollama.com/
下载
运行,然后会默认下载
ollama run llama2
选择不同的model
ui交互
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v ollama-webui:/app/backend/data --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main
标签:--,com,模型,如何,host,webui,本地,main,ollama
From: https://www.cnblogs.com/qcy-blog/p/18101017