首页 > 其他分享 >树莓派5安装ollama+open-webui

树莓派5安装ollama+open-webui

时间:2024-10-31 22:45:08浏览次数:5  
标签:ago 树莓 run open webui docker ollama

新购置了个PI5,就想着折腾些什么。除了给它装codesys之外,想到(尤其是看到官配的冷却风扇)是不是能跑个AI什么的。捜了一下,除了TensorFlow Lite、PyTorch Mobile还有做视觉的OPENCV和YOLO。除此之外,一个熟悉的词汇又冒了出来。ollama。记得有段时间看到很多短视频推送,想着就找下资料看下。
ollama
由于之前全局安装node-red遇到npm的各种问题,想着“为吃烤鸭配一套炉子”,所以就直接选择的docker。
ollama docker
事实证明,docker确实
直接按照网站内容

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

记得如果权限问题deny了你permission denied...,记得最前面加sudo
然后就是等待。
由于docker官方仓库一直处于timeout状态,于是“翻了下笔记”,然后直接选了个仓库下载。

$ sudo docker pull docker.m.daocloud.io/ollama/ollama

很顺利,一会儿就成功了。

$ sudo docker images
REPOSITORY                           TAG       IMAGE ID       CREATED        SIZE
ghcr.io/open-webui/open-webui        main      1496175979b3   20 hours ago   4.2GB
docker.m.daocloud.io/ollama/ollama   latest    318ba808b989   10 days ago    3.28GB

然后把这个镜像run起来。

$ sudo docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama docker.m.daocloud.io/ollama/ollama

然后,发现就成了。
但使用时候,似乎是需要exec进ollama的容器里面操作。
所以,后续又尝试了。

$ sudo docker exec -it ollama bash

然后通过ollama拉取大语言模型。
模型仓库
已开始拉的是llama2,完成之后

$ollama run llama2

告知我内存不足,需要8G内存,8G的PI5和只有7.6G。
同时,学习到,运行所需的内存大致是模型的1.2倍,于是找了几个小点的。

root@7c4f600436ec:/# ollama ls
NAME                  ID              SIZE      MODIFIED     
qwen2.5-coder:1.5b    7088ac567b1e    986 MB    2 hours ago     
qwen2.5:3b            357c53fb659c    1.9 GB    3 hours ago     
qwen2.5:1.5b          65ec06548149    986 MB    3 hours ago     
qwen2.5:0.5b          a8b0c5157701    397 MB    6 hours ago     
llama3.2:latest       a80c4f17acd5    2.0 GB    2 hours ago   

然后run了一下。

root@7c4f600436ec:/# ollama run qwen2.5:3b
>>> 你好,介绍下你自己!
你好!我是Qwen,是由阿里云开发的语言模型。我被设计为帮助用户获得准确、有用的信息和解答他们的问题。我的知识涵盖广泛的领域,包括科学、技术、艺术以及历史等。
我可以回答各种问题,并在需要时提供建议和支持。同时,我也致力于保护个人隐私和安全。

尽管我是基于大规模预训练模型构建的,但我始终遵循阿里云制定的内容准则与伦理标准,在任何情况下都不会发布或传播不实信息或非法内容。我努力成为一个可靠且值得信
赖的语言模型助手。
>>>

发现跑起来了。兴奋之余,开始觉得不满足。每次都要进docker是不是有点操作不便,而且,不利于分享嘛。
于是乎,又找来了open-webui
open-webui
首页直接说Quick Start with Docker

标签:ago,树莓,run,open,webui,docker,ollama
From: https://www.cnblogs.com/PrepAndPonder/p/18519056

相关文章

  • 江大白 | 跨界融合创新,基于YOLO11和Ollama的增强OCR文本识别
    本文来源公众号“江大白”,仅用于学术分享,侵权删,干货满满。原文链接:跨界融合创新,基于YOLO11和Ollama的增强OCR文本识别导读本文介绍一种通过自定义YOLOv11和EasyOCR,结合Ollama优化OCR效果的方法,解决了传统OCR在复杂图像中的识别难题,显著提高了准确性,为高精度文本提取提供了有......
  • 【semantic Kernel】对接 Ollama
    在chatGPT的推动下。LLM简直火出天际,各行各业都在蹭。听说最近meta开源的llama3模型可以轻松在普通PC上运行,这让我也忍不住来蹭一层。以下是使用ollama试玩llama3的一些记录。什么是llamaLLaMA(LargeLanguageModelMetaAI)是Meta开发的大规模预训练语言模型,基于T......
  • 树莓派CM4(五):搭建QT开发环境
    1.软件版本Ubuntu20.04QT5.12.122.参考链接https://zhuanlan.zhihu.com/p/138021025?utm_id=0https://zhuanlan.zhihu.com/p/137745265https://bugreports.qt.io/browse/QTBUG-62216https://www.tal.org/tutorials/building-qt-512-lts-raspberry-pi-raspberry-......
  • 树莓派5B设置系统安装
     1安装系统 系统下载桌面版本32位2024-07-04-raspios-bookworm-armhf-full.img SDFormatter.exe格式化内存卡 Win32DiskImager 安装系统和备份系统写入刷新同系统 读取备份系统 eru 2开启vnc https://www.cnblogs.com/gooutlook/p/12272705.html......
  • .NET使用OllamaSharp实现大模型推理对话的简单演示
    https://www.cnblogs.com/weskynet/p/18497936 前提条件:请确保你本地已经安装了ollama以及有关本地离线模型。或者已有远程模型环境等。如果没有,请自行部署。如果需要帮助,可以文末获取联系方式咨询。由于部署离线大模型过于简单,在线资料也很多,我就省略这个步骤了。 创建一个......
  • 树莓派在终端通过修改wifi和eth0网口的配置文件来配置网络
    因为家里的其中一个WIFI出问题了,导致树莓派连不上了,又不想接显示器来修改树莓派WIFI的账户密码,于是就想了一个办法,将eth0的IP给固定了,后续如果要更换树莓派的WIFI,就可以通过eth0的固定ip去连接树莓派了。无线网修改方式:nano /etc/wpa_supplicant/wpa_supplicant.confctrl_......
  • 1024福利又来了,告诉你一个小秘密!树莓派跑LLM难上手?也许你可以试试Intel哪吒开发板
    # 1024程序员节|征文活动#前言大型语言模型(LLM)通过其卓越的文本理解与生成能力,为机器智能带来了革命性的进步。然而,这些模型的运行通常需要消耗大量的计算资源,因此它们主要部署在性能强大的服务器上。随着技术的发展和边缘计算的兴起,现在有潜力在更小巧、便携的设备上部......
  • .NET使用OllamaSharp实现大模型推理对话的简单演示
     前提条件:请确保你本地已经安装了ollama以及有关本地离线模型。或者已有远程模型环境等。如果没有,请自行部署。如果需要帮助,可以文末获取联系方式咨询。由于部署离线大模型过于简单,在线资料也很多,我就省略这个步骤了。 创建一个项目,添加使用MIT开源协议的一个nuget包OllamaS......
  • 树莓派应用场景
    以下是树莓派在不同领域的应用场景:一、智能家居1.智能灯光控制应用场景:可以根据时间、光照强度或人体感应自动调节灯光亮度和开关状态。例如,在夜晚当有人经过时自动打开走廊灯,白天则保持关闭以节省能源。实现方法:使用树莓派连接人体红外传感器,当传感器检测到人体活......
  • 使用ollama本地部署qwen2并api调用
    目录一、下载ollama二、安装qwen大模型 三、Api调用四、尝试apifox调用一、下载ollamaOllama是一个开源的、本地运行的AI聊天模型,允许在自己的设备上运行LLM,无需依赖云服务。它支持多种LLM。目前Ollamalibrary已经支持Qwen2,可以直接使用。首先安装ollama,访问官......