首页 > 其他分享 >如何本地化部署大模型

如何本地化部署大模型

时间:2024-06-14 18:02:43浏览次数:24  
标签:Ollama 部署 本地化 模型 ollama 11434

为何要本地化部署大模型?

因为私有化部署可以解决以下问题:

        1.数据安全和隐私保护,你不必担心自己的信息会被拿去训练,不用担心泄漏

        2.降低成本,本地化部署后减少了对外部的依赖,降低运营成本。特别是在处理大规模数据和高频次请求时,本地化部署可以避免昂贵的云服务费用。

        3.更稳定可靠,本地化部署可以减少对互联网连接的依赖,提高系统的稳定性和可靠性。在断网或云服务不可用的情况下,本地系统仍能正常工作。

        4.更高的响应速度性能更好,本地化部署可以减少因网络延迟带来的影响,特别是在处理大量数据或需要实时响应的应用场景中,本地部署可以提供更快的处理速度和更好的用户体验。

        5.合规性审查,这是最重要的。对于需要符合特定行业规范和政府审查要求的企业,本地化部署可以更方便地接受监管机构的审查,确保业务合规

Ollama

在开始教程之前先看看今天会用的的工具 Ollama------一个简单易用的本地大模型运行框架。

有了 ta, 私有化部署就几分钟的事情。

一般跑大模型我们很少有本地电脑,因为对配置要求有点高,还要有显卡,我的电脑是渣渣连olo都跑不了的,所以就直接用阿里云来跑模型了。小伙伴想玩也可以尝试买个一周的云服务器玩玩。

官网有介绍其他的安装方式,本文就以 Linux 的安装往下走。

安装

Liunx用户直接运行以下命令安装。

curl https://ollama.ai/install.sh | sh

安装会花费点时间,耐心等待就好

下载模型文件

模型列表:library (ollama.com) 可以根据自己的需求下载相应的模型文件

ollama pull llama2-chinese

模型文件比较大,耐心等待

运行

ollama run llama2-chinese "菊花为什么是红色的?"

run 命令运行模型,直接将消息附在命令后。

对外暴露端口 11434

修改阿里云服务安全组,将端口 11434 进行暴露

然后访问你的阿里云服务器ip http://yourip:11434 返回 Ollama is running 就ok了

如何调用

from openai import OpenAI

client = OpenAI(
    base_url='http://localhost:11434/v1/',

    # required but ignored
    api_key='ollama',
)

chat_completion = client.chat.completions.create(
    messages=[
        {
            'role': 'user',
            'content': '天空为什么是蓝色的?',
        }
    ],
    model='llama3',
)

print(response.choices[0].message.content)

标签:Ollama,部署,本地化,模型,ollama,11434
From: https://blog.csdn.net/baoj2010/article/details/139682016

相关文章

  • 《通用大模型和垂直大模型对大学生哪个更适用?》
    嘿,同学们!是不是觉得大模型这个词听起来就很高大上,就像电影里的超级人工智能?没错,我们今天的主题就是聊聊“通用大模型”和“垂直大模型”,看看哪个更适合我们这些身处象牙塔中的莘莘学子。首先,科普一下:通用大模型:就像是那种多才多艺的学霸,什么都能干,什么都能学。你让它写篇作文......
  • GPT 模型原理介绍以及应用
    本文由ChatMoney团队出品引言随着人工智能技术的飞速发展,自然语言处理(NLP)领域也取得了显著的进步。其中,GPT(GenerativePre-trainedTransformer)模型作为OpenAI的杰出成果,以其卓越的文本生成能力和广泛的应用前景,吸引了全球范围内的关注。本文将深入解析GPT模型的原理,帮助读者更......
  • 超全AI大模型微调产品经理面试题
    前言这两天跟很多做程序员的朋友聊天,怎么看全网火爆的大模型。让我挺意外的是,大家的反馈普遍都很焦虑。在AI大模型微调领域的产品经理面试中,总会遇到一系列与技术细节、项目经验、市场趋势以及职业规划相关的问题。以下是一些建议的面试题及其回答示例:面试题1:请简述你对......
  • Linux下的python的部署
    一、python的验证一般情况下liunx系统都会自带python输入python--version便可以查看当前安装的python版本二、Linux系统下安装anaconda步骤大纲:下载anaconda文件→更改文件的权限→开始安装→完成交互问题(更改安装位置)→配置环境变量→更改文件目录权限2.1、下载anacon......
  • Llama2的安装部署运行Atom模型的操作步骤
    一、Llama2的安装部署操作步骤1.1、docker环境的使用说明:根据服务器部署的环境来分析,由于此服务器为多人使用,且不相互影响,故此服务器需要进行自己的docker环境下,如果是自己部署那么本身便不存在docker直接滤过1.1即可。1.1.1、启用docker环境服务器环境执行dockerrun-i......
  • CentOS中部署UniASR-中文方言模型
    一、UniASR语音识别-中文方言-通用-16k-离线(模型部署运行)根据ModelScope的官方指导文件,ModelScope仅仅支持Python3.7和Python3.8的版本备注:一开始由于不了解ModelScope的属性,一直是在3.10的虚拟环境下使用,当执行文件时报错需要执行命令行pipinstallmodelscope[audio]-fh......
  • Java到AI大模型,我为什么选择的后者
    我为什么从Java转到AI大模型在编程的海洋里,Java一直是我信赖的“小船”,载着我航行在代码的世界中。然而,随着行业的不断发展和变化,我开始感受到了一丝的迷茫和不安。我开始担心,随着技术的不断更新,Java这艘“小船”是否还能带我乘风破浪,继续前行。正是在这样的背景下,我接触......
  • 装上大模型翅膀,程序员入职新公司如何快速上手代码(老员工如何选择大模型如虎添翼)
    目录1、尽可能收集项目相关信息2、深入业务业务,大模型是孜孜不倦的助手。3、工欲善其事,必先利其器(各种大模型和编程助手对比)3.1国内外大模型对比3.2编程助手对比GitHubCopilotCodeiumCodeWhispererCodeGeeX通义灵码BaiduComate3.3通义灵码使用教程安装通义......
  • 大模型应用之路:从提示词到通用人工智能(AGI)
    大模型在人工智能领域的应用正迅速扩展,从最初的提示词(Prompt)工程到追求通用人工智能(AGI)的宏伟目标,这一旅程充满了挑战与创新。本文将探索大模型在实际应用中的进展,以及它们如何为实现AGI铺平道路。基于AI大模型的推理功能,结合了RAG(检索增强生成)、智能体(Agent)、知识库、向量数据库......
  • 一文读懂多模态大模型的LLM主干(1):ChatGLM系列
    〔探索AI的无限可能,微信关注“AIGCmagic”公众号,让AIGC科技点亮生活〕本文作者:AIGCmagic社区  刘一手前言AI多模态大模型发展至今,每年都有非常优秀的工作产出,按照当前模型设计思路,多模态大模型的架构主要包括以下几个部分:模态编码器(ModalityEncoder,ME):负责将不同......