首页 > 其他分享 >使用Ollama部署本地LLM:构建AI REST API的简易指南

使用Ollama部署本地LLM:构建AI REST API的简易指南

时间:2024-09-29 15:04:22浏览次数:22  
标签:name AI llama3 REST API Ollama response

关注TechLead,复旦AI博士,分享AI领域全维度知识与研究。拥有10+年AI领域研究经验、复旦机器人智能实验室成员,国家级大学生赛事评审专家,发表多篇SCI核心期刊学术论文,上亿营收AI产品研发负责人。

file

利用Ollama本地LLM(大语言模型)搭建AI的REST API服务是一个实用的方法。下面是一个简单的工作流程。

1. 安装Ollama和LLMs

首先,在本地机器上安装Ollama和本地LLMs。Ollama可以帮助你轻松地在本地部署LLMs,并让它们更方便地处理各种任务。

安装 Ollama

file

Ollama安装界面

file

Ollama下载页面

file

安装应用文件

为Ollama安装LLMs

ollama pull llama3
ollama run llama3

file

下载并运行llama3

file

在本地与llama3对话

Ollama命令

可用的命令:
  /set         设置会话变量
  /show        显示模型信息
  /bye         退出
  /?, /help    帮助命令

使用 "" 开始多行消息

测试Ollama

curl http://localhost:11434/api/generate -d '{  
  "model": "llama3",  
  "prompt": "为什么天空是蓝色的?",  
  "stream": true  
}'

file

如果stream设置为false,响应将是一个完整的JSON对象。

curl http://localhost:11434/api/generate -d '{  
  "model": "llama3",  
  "prompt": "为什么天空是蓝色的?",  
  "stream": false  
}'

file

2. 设置FastAPI

接下来,设置一个Python的FastAPI应用。FastAPI是一个现代、快速(高性能)的Web框架,基于标准的Python类型提示,支持Python 3.7及以上版本。它是构建稳健高效API的理想选择。

编写FastAPI的路由和端点,以便与Ollama服务器进行交互。这个过程包括发送请求给Ollama以处理任务,比如文本生成、语言理解或其他LLM支持的AI任务。以下是一个简单的代码示例(你也可以使用 Ollama Python库 来优化代码)。

from typing import Union
from fastapi import FastAPI
from pydantic import BaseModel
import json
import requests

app = FastAPI(debug=True)

class Itemexample(BaseModel):
    name: str
    prompt: str
    instruction: str
    is_offer: Union[bool, None] = None

class Item(BaseModel):
    model: str
    prompt: str

urls = ["http://localhost:11434/api/generate"]

headers = {
    "Content-Type": "application/json"
}

@app.get("/")
def read_root():
    return {"Hello": "World"}

@app.post("/chat/{llms_name}")
def update_item(llms_name: str, item: Item):
    if llms_name == "llama3":
        url = urls[0]
        payload = {
            "model": "llama3",
            "prompt": "为什么天空是蓝色的?",
            "stream": False
        }
        response = requests.post(url, headers=headers, data=json.dumps(payload))
        if response.status_code == 200:
            return {"data": response.text, "llms_name": llms_name}
        else:
            print("错误:", response.status_code, response.text)
            return {"item_name": item.model, "error": response.status_code, "data": response.text}
    return {"item_name": item.model, "llms_name": llms_name}

测试REST-API服务

curl --location 'http://127.0.0.1:8000/chat/llama3' \
--header 'Content-Type: application/json' \
--data '{
  "model": "llama3",
  "prompt": "为什么天空是蓝色的?"
}'

file

通过API发送Curl请求

file

API日志

3. 部署

当你对REST API的功能和性能感到满意后,可以将此服务部署到生产环境。这可能涉及将其部署到云平台、使用Docker进行容器化,或者在服务器上部署。

在这个简单的示例中,我们通过使用Ollama进行本地LLM部署并结合FastAPI构建REST API服务器,创建了一个免费的AI服务解决方案。你可以通过自己的训练数据对模型进行微调以实现定制用途(我们将在未来讨论)。

本文由博客一文多发平台 OpenWrite 发布!

标签:name,AI,llama3,REST,API,Ollama,response
From: https://www.cnblogs.com/xfuture/p/18439884

相关文章

  • Chat GPT 镜像网站支持最新 O1 模型,国内用户畅享全新AI体验
    随着AI技术的飞速发展,ChatGPT已经成为全球用户不可或缺的智能助手。而如今,为了更好地服务国内用户,最新的ChatGPT镜像网站正式上线,并且全面支持最新的O1模型,为用户带来更加高效、便捷的体验。本文将详细介绍这一镜像网站的功能优势,以及O1模型如何为用户带来更加智能的对话体......
  • 最强AI绘画大模型Flux可以在SDWebUI 上使用了!超便捷的Flux模型使用教程
    大家好,我是画画的小强目前最强的AI绘画大模型Flux.1横空出世有段时间了,模型效果也得到了广泛的认可,但是StableDiffusionWebUI官方迟迟没有跟进,据说是因为要修改很多底层的处理机制,加之ComfyUI如火如荼,可能AUTOMATIC1111大佬的心气也不是很高,选择了躺平,又或者是在秘密......
  • 第2天:熟悉Android Studio补充材料——`activity_main.xml`解读
    下面是对“第2天:熟悉AndroidStudio”该文学习的更深层次的补充材料,对activity_main.xml文件的理解。下面对activity_main.xml文件中每一行进行详细解释:<?xmlversion="1.0"encoding="utf-8"?><androidx.constraintlayout.widget.ConstraintLayoutxmlns:android="ht......
  • 【转型必看】Java到AI大模型,程序员的逆袭秘籍,转行不再是梦!
    随着技术的不断进步,人工智能(AI)大模型已经成为当今科技领域最热门的话题之一。许多开发者开始考虑从传统的软件开发领域,如Java,转向人工智能领域,今天小编和大家一起来探讨Java开发者是否可以转型到人工智能大模型,转型的优势,薪资对比,以及转型所需的知识和学习路线等。01Java......
  • 安全:fail2ban:重新加载firewalld时,fail2ban添加的防火墙规则丢失
    一,问题现象:firewalld未重新加载规则前,可以看到fail2ban添加的防火墙规则:[root@web~]#firewall-cmd--list-allpublic(active)target:defaulticmp-block-inversion:nointerfaces:eth0sources:services:ports:80/tcpprotocols:forward:yesm......
  • sendmail发邮件指南:配置步骤与使用方法?
    sendmail发邮件性能怎么优化?如何用sendmail发邮件?sendmail发邮件系统因其稳定性和灵活性而广泛应用于各种服务器环境中。然而,对于初学者来说,sendmail发邮件的配置和使用可能显得有些复杂。AokSend将详细介绍sendmail发邮件的配置步骤和使用方法。sendmail发邮件:用户别名sen......