- 2025-01-08[软件工具使用记录] windows离线ollama部署本地模型并配置continue实现离线代码补全
qwen2.5coder发布之后,觉得差不多可以实现离线模型辅助编程了,所以尝试在公司内网部署模型,配合vsocde插件continue实现代码提示、聊天功能。目前使用qwen2.5coder的32b模型,体验上和gpt-4o差不多(都稀碎),适用于编写脚本,查一些简单问题,例如flask如何把变量传到前端,准确率还可以,但是补全
- 2025-01-08Ollama系列---【如何离线安装ollama?】
1.环境本文以centos7.9安装ollama为例2.下载ollama安装包官网地址:https://ollama.com/download/linuxGitHub手动安装文档地址:https://github.com/ollama/ollama/blob/main/docs/linux.md安装包下载地址:https://ollama.com/download/ollama-linux-amd64.tgz3.上传到服务器并
- 2025-01-05Ollama部署本地大模型
目录Ollama安装软件(Windows)安装软件(Linux)安装软件(Docker)最简单下载模型下载Ollama内置的模型下载llama3模型(亲测垃圾机房都可以跑起来)下载DeepSeek-V3模型运行模型搭建Web环境OllamaOllama是一个开源的大型语言模型服务工具,旨在帮助用户在本地环境中部署
- 2025-01-04RAG实战:本地部署ragflow+ollama(linux)
1.部署ragflow1.1安装配置docker因为ragflow需要诸如elasticsearch、mysql、redis等一系列三方依赖,所以用docker是最简便的方法。docker安装可参考Linux安装Docker完整教程,安装后修改docker配置如下:vim/etc/docker/daemon.json{"builder":{"gc":{"defau
- 2025-01-03使用Vue3实现Ollama WebUI
开始大家好呀,最近我在研究LLM,但是是本地大语言模型。其中我主要使用的软件是Ollama。Ollama可以方便的下载及运行LLMOllama提供了一套RESTApi,并且已经有了ollama-js这个库,可以方便的调用接口,所以我们可以自己写一套WebUI。那么为什么不用别人写好的呢?我找了些开源项目,但大
- 2025-01-03大模型—Ollama 本地部署大模型,保姆级教程,收藏这一篇就够!
Ollama本地部署大模型在当今的科技时代,AI已经成为许多领域的关键技术。AI的应用范围广泛,从自动驾驶汽车到语音助手,再到智能家居系统,都有着AI的身影,而随着Facebook开源LLama2更让越来越多的人接触到了开源大模型。今天我们推荐的是一条命令快速在本地运行大模型,在G
- 2025-01-01Nice!使用开源工具组建一个AI编码小助手
“ Ollama 是一个致力于推动本地人工智能模型开发和应用的工具和平台,允许用户在本地运行、管理和调用各种AI模型。它的核心理念是提供一种无需依赖云计算环境的方式,让开发者和企业能够高效地使用AI模型,同时确保数据隐私和安全。” 本次使用O
- 2025-01-01本地大模型初体验
前言近几年这个话题很火,但是我一直没得去尝试一下,今天突然来兴趣想试试,然后就出来了这一篇文档。环境准备docker安装管理工具Ollama是一款开源的大模型管理工具,它允许用户在本地便捷地运行多种大型开源模型,包括清华大学的ChatGLM、阿里的千问以及Meta的llama等。目前,Ollama
- 2024-12-29[GPT] LangChain : `LLM` 编程框架
概述:LangChain:LLM(大语言模型)编程框架基本介绍:LangChainLangChain就是一个LLM(大语言模型)编程框架你想开发一个基于LLM应用,需要什么组件它都有,直接使用就行;甚至针对常规的应用流程,它利用链(LangChain中Chain的由来)这个概念已经内置标准化方案了。本文我们从新
- 2024-12-29[Python/GPT/AI] Ollama指南
概述:Ollama基本介绍:OllamaOllama是一个支持在Windows、Linux和MacOS上本地运行大语言模型的工具。它允许用户非常方便地运行和使用各种大语言模型,比如Qwen模型等。用户只需一行命令就可以启动大语言模型。主要特点跨平台支持Windows、Linux、MacOS系统。提供了丰富
- 2024-12-25大模型应用技术系列(二):大模型部署和推理优化
之前的文章《大模型应用技术系列(一):大模型应用整体技术栈浅析》中,我们浅析了大模型技术栈的构成。从用户到底层,每层中都有很多需要深究的东西。本文将专注介绍大模型部署层面的内容。从一个简单的应用场景出发,通过一个完整的工具链路,来深入了解部署的过程。
- 2024-12-23全民AI时代:手把手教你用Ollama & AnythingLLM搭建AI知识库,无需编程,跟着做就行!
前言在本地电脑上跑大语言模型(LLM),已经不是什么高科技操作了。随着技术的迭代,现在利用Ollam和AnythingLLM就可以轻松构建自己的本地知识库,人人皆可上手,有手就行。过往要达成这一目标,可是需要有编程经验的。首先得了解一下背后的原理。大概就是三步走:一是LLM,大语言模型,懂得
- 2024-12-19本地大模型构建系列(一):5、python调用ollama本地大模型(Windows 10)
第一步,安装Python依赖包:WIN+R,打开CMD,输入:pipinstallollama也可以使用镜像pipinstallollama-ihttps://pypi.tuna.tsinghua.edu.cn/simple第二步,启动ollama后,开始调用Ollama接口,以调用“qwen2.5:3b”为例启动大模型“qwen2.5:3b”:Win+R调出运行框,输入cmd,在cmd中输
- 2024-12-14Electron + React + Monaco Editor + AI 本地代码编辑器实现分析
1.项目概述1.1核心技术栈前端框架:React编辑器引擎:MonacoEditor桌面框架:ElectronAI模型:Ollama(本地部署)Qwen(通义千问)1.2主要特性本地化AI编程助手多语言代码编辑实时代码补全智能文档生成2.AI模型集成2.1模型对比特性OllamaQwen部署方式纯本地本地/云端
- 2024-12-13星海智算:【Ollama镜像】Windows云部署教程
1、下载和安装Ollama官网地址:https://ollama.com/访问ollama界面,选择Download安装因为本次ollama部署在windows镜像中,所以在DownloadOllama中选择windows版本安装完成后,就可以在开始菜单中启动ollama了 右下角状态栏中出现ollama图标说明启动成功GPU算力云平台
- 2024-12-10Ollama部署大模型,本地调用
Ollama简单介绍Ollama是一个强大的大型语言模型平台,它允许用户轻松地下载、安装和运行各种大型语言模型。在本文中,我将指导你如何在你的本地机器上部署Ollama,并展示如何使用Python进行简单的API调用以访问这些模型最近很多人在学习大模型的时候,也遇到这个问题了,Ollama下载
- 2024-12-09Ollama+RagFlow构建本地私有化 大模型
安装Ollama下载地址Ollama点击跳转链接千问模型搜索Ollama点击跳转链接下载Qwen2.5和中文嵌入层ollamapullqwen2.5ollamapullshaw/dmeta-embedding-zh下载安装RagFlow参考ragflow官方安装文档点击跳转链接硬件:CPU≥4核;内存≥16GB;磁盘空间≥50GB;
- 2024-12-07ollama 0.5.0 发布内置结构化输出了
就在前几天ollama发布了0.5.0了内置支持结构化输出了,同时ollamapython以及js库已经支持此特性了,很值得使用说明同时就在一个小时之前发布了0.5.1解决了一些结构化输出的bug参考资料https://github.com/ollama/ollama/releases/tag/v0.5.0https://github.com/ollama/olla
- 2024-12-03pydantic ai集成ollama简单试用
就是一个示例学习,体验下pydanticai,llm基于了ollama参考代码app.py一个集成ollama的测试importasynciofromopenaiimportAsyncOpenAIfrompydanticimportBaseModel,Fieldfrompydantic_aiimportAgent,RunContextfrompydantic_ai.models.openaiimportOpenAI
- 2024-12-03[Vue3] 实现 Ollama WebUI
家好呀,最近我在研究LLM,即本地大语言模型。其中我主要使用的软件是Ollama。Ollama可以方便的下载及运行LLMOllama提供了一套RESTApi,并且已经有了ollama-js这个库,可以方便的调用接口,所以我们可以自己写一套WebUI。那么为什么不用别人写好的呢?我找了些开源项目,但大多是python编
- 2024-12-01将本地的.gguf文件导入ollama
文章目录1.创建Modelfile文件2.使用ollama进行导入2.1启动ollama服务2.2导入模型2.3运行模型1.创建Modelfile文件并写入FROM./model.gguf将./model.gguf换成自己的模型文件地址,最好是吧Modelfile文件跟model.gguf放在一起2.使用ollama进行导入2.1启动olla
- 2024-11-29ollama部署bge-m3,并实现与dify平台对接
概述这几天为了写技术博客,各种组件可谓是装了卸,卸了装,只想复现一些东西,确保你们看到的东西都是可以复现的。(看在我这么认真的份上,求个关注啊,拜托各位观众老爷了。)这不,为了实验在windows上docker里运行pytorch,把docker重装了。dify也得重装:Dify基础:Dify平台的本地化部署
- 2024-11-27ollama python 新版本支持传递python 函数
在ollamapythonsdk的最近更新中,支持传递python函数到chat调用中,以下是一个简单示例参考使用app.pyfromollamaimportchatfromollamaimportChatResponsedefadd_two_numbers(a:int,b:int)->int:"""AddtwonumbersArgs:a(int):Thefirst
- 2024-11-27Ollama本地部署Qwen2.5 14B(使用docker实现Nvidia GPU支持)
前提条件:已经本地安装好了Ollama。如果没有安装Ollama或者想部署其他的模型或者不想使用docker,,可以参考之前的这篇文章:https://www.cnblogs.com/Chenlead/p/18571005安装过程参考:https://docs.openwebui.com/getting-started/quick-start/1.docker拉取open-webui镜像在命令行
- 2024-11-26Ollma本地部署Qwen2.5 14B(不使用docker)
部署机器硬件情况:内存:32GB显卡:3060 为什么不使用docker:1.网上教程大多以docker为主2.安装docker的时间太长,在等待的时候顺便尝试一下不用docker的部署1.安装Ollama下载地址:Ollama下载好之后默认安装即可。Ollama常用命令【跟docker差不多,初次安装的话这边可以