首页 > 其他分享 >本地如何通过Ollama部署llama3、phi3等本地大模型?

本地如何通过Ollama部署llama3、phi3等本地大模型?

时间:2024-06-06 22:01:52浏览次数:22  
标签:run Llama 模型 llama3 phi3 本地 model ollama

一、ollama是什么?

在本地启动并运行大型语言模型。运行Llama 3,Mistral, Gemma, Code Llama和其他模型。自定义并创建您自己的。

优势如下:

  • • 快速下载+容器自动运行大模型,现在下载,马上上手。

  • • 本地利用 cpu 运行大模型,本地安全可靠。

  • • ollama 命令,管理大模型相对方便,也可以多个大模型中切换。

  • • 终端直接开始聊天。

  • • 社区提供了支持 web api 方式访问 WebUI。

官方网站: Ollama

github :https://github.com/ollama/ollama

二、准备和安装工作

设备需求和辅助软件:

  • • Ollama自带docker ,为了方便部署软件。

  • • 良好的网络环境,大模型还是要先下载下来的。

  • • 配置要求:一般来说参数越大,需要配置越好。

  • • 存储空间:确保硬盘空间充足,并且学会设置环境变量来调整保存model的地址,别再下载到C盘了!

model地址和环境变量设置

win10 设置系统环境变量:OLLAMA_MODELS,值设置本地路径,找个盘空间大点的

下载ollama

官方网站: Ollama

进入 ollama 下载页面,选择自己的系统版本的下载并安装即可。

检验是否安装成功

打开cmd命令窗口,输入ollama

Microsoft Windows [版本 10.0.19045.4291]  
(c) Microsoft Corporation。保留所有权利。  
  
C:\Users\hcq>ollama  
Usage:  
  ollama [flags]  
  ollama [command]  
  
Available Commands:  
  serve       Start ollama  
  create      Create a model from a Modelfile  
  show        Show information for a model  
  run         Run a model  
  pull        Pull a model from a registry  
  push        Push a model to a registry  
  list        List models  
  cp          Copy a model  
  rm          Remove a model  
  help        Help about any command  
  
Flags:  
  -h, --help      help for ollama  
  -v, --version   Show version information  
  
Use "ollama [command] --help" for more information about a command.  
  
C:\Users\hcq>

三、ollama 模型库

详见library (https://ollama.com),用于搜索已收录的模型库。以下是一些流行的模型:

模型参数尺寸执行下载
Llama3 8B8B4.7GBollama run llama3:8b
Llama3 70B70B40GBollama run llama3:70b
Mistral7B26GBollama run mistral
Code Llama 7b7B3.8GBollama run codellama:7b
Code Llama 13b13B7.4GBollama run codellama:13b
Code Llama 34b34B19GBollama run codellama:34b
Code Llama 70b70B39GBollama run codellama:70b
Gemma2B1.7GBollama run gemma:2b
Gemma7B5GBollama run gemma:7b

Llama 3的亮点和特性如下:

基于超过15T token训练,大小相当于Llama 2数据集的7倍还多;训练效率比Llama 2高3倍;支持8K长文本,改进的tokenizer具有128K token的词汇量,可实现更好的性能;在大量重要基准测试中均具有最先进性能;增强推理和代码能力;安全性有重大突破,带有Llama Guard 2、Code Shield 和 CyberSec Eval 2的新版信任和安全工具,还能比Llama 2有更好“错误拒绝表现”。

四、下载运行模型

ollama run llama3:8b

直接在终端中对话:用 llama3 模型写一个 python函数 或者 回答你的一些知识类问题

根据实际测试,llama3 70B在windows10环境下,基本占用32GB内存,llama3 8B基本占用16GB内存。

建议至少不低于48GB或64GB内存,否则没有足够内存支持运行其他程序。

第三方API调用

API调用默认端口 11434

本地地址参考:127.0.0.1:11434

五、通过seo-tool工具调用

seo-tool工具已集成ollama接口,只要在调用前本地启动模型即可,而且通过seo-tool可以根据标题或关键词批量生成文章,如果本地跑llama3费劲,可以调用 ollama run qwen 来运行阿里的通译千问大模型,生成内容质量还可以而且速度也很快,(题外:生成的文章如果收录不是很好,最好不要用markdown格式和html格式,直接用文本格式)

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

标签:run,Llama,模型,llama3,phi3,本地,model,ollama
From: https://blog.csdn.net/lvaolan8888/article/details/139510503

相关文章

  • 非常可靠,手把手教你本地部署AI大模型-llama3:70b
    Meta公司一直致力于这样一个理念:“thatopensourcenotonlyprovidesgreattechnologyfordevelopers,butalsobringsthebestoutinpeople”,翻译过来就是开源不仅为开发人员提供了出色的技术,而且还将给人们带来更好的。但是前几天李彦宏说开源模型没有未来?我们的......
  • 为什么我们需要在软件本地化过程中使用术语服务?
    你知道软件翻译和本地化的术语服务吗?此解决方案涵盖源术语和目标术语的创建、开发和维护。所有术语都存储在具有多个字段的数据库中,包括术语定义、用法示例、上下文和历史记录。这使我们能够正确处理每个术语的创建或更改请求,避免创建重复的术语或多次更改单个术语。如果您仍......
  • 虚幻中实现本地双人的输入设备分别控制需要的Pawn
    想要实现双人成行游戏中的双输入设备(双输入设备指的是一个键鼠和一个手柄,或者两个手柄)分别控制玩家1和玩家2,同时可以动态插拔设备切换对应的Pawn的控制权;本文是对探索并实现此功能的一个解决思路记录。1、前期准备和知识点梳理1.1本地多玩家LocalPlayer平常我们运行游戏的......
  • Windows装机很难再创建本地账号!微软Win11 24H2封堵邮件绕过方案
    据国外科技媒体报道,在装机 Windows11 24H2镜像时,微软已经采取措施封堵了,之前流行的通过电子邮件地址绕过登录微软账号直接创建本地账号的方法。自2021年Windows11系统发布以来,微软要求用户在装机过程中联网并登录微软账号,否则就无法正常进入桌面。虽然用户曾找到多种方法来......
  • 【手把手教学】最新ChatTTS语音合成项目使用指南AI变声器chatTTS教程来了!5S夺走你的卧
    像这种充满语气充满感情色彩的人声,再搭配一段自拍图,是由最近大火的AI项目chatTTS生成的,ChatTTS是专门为对话场景设计的文本转语音模型,例如LLM助手对话任务。它支持英文和中文两种语言。最大的模型使用了10万小时以上的中英文数据进行训练。在HuggingFace中开源的版本为4万小......
  • 【无人机】无人机(UAV)在无线网络的最优放置问题研究【高效本地地图搜索算法】(Matlab代
     ......
  • 最像真人的语音转文本ChatTTS本地部署+Colab部署+跳坑指南
    1.WindowsChatTTSUI:https://github.com/jianchang512/ChatTTS-ui/releases/tag/v0.85v0.85完整包下载(2.7G含模型)百度网盘下载: https://pan.baidu.com/s/1RntYLT6UNd8_ew2osy8d1A?pwd=by14123网盘下载:https://www.123pan.com/s/03Sxjv-oEyB3.htmlhuggingfacelink: h......
  • 网络字节序和本地字节序之间转换
    网络字节序和本地字节序之间转换目录网络字节序和本地字节序之间转换主机字节序网络字节序相关函数htons,htonl,ntohs,和ntohl相关函数inet_aton,inet_ntoa,inet_pton,和inet_ntop当我们与同一台计算机的进程进行通信时,一般不用考虑字节序。什么是字节序——字节序是一......
  • 斯坦福爆火Llama3-V竟抄袭国内开源项目,作者火速删库
        ChatGPT狂飙160天,世界已经不是之前的样子。新建了免费的人工智能中文站https://ai.weoknow.com新建了收费的人工智能中文站https://ai.hzytsoft.cn/更多资源欢迎关注斯坦福Llama3-Vvs清华MiniCPM-Llama3-V-2.5在GPT-4o出世后,Llama3的风头被狠狠盖过。......
  • 本地服务调用遇到的问题
    1、我本地起了两个服务8087和8086单独在浏览器是都可以访问  2、在postman中单独调用8087的一个接口没有问题 3、但是在8086服务中调用这个接口http://localhost:8087/api/account/login就会超时 4、如果把这个接口http://localhost:8087/api/account/login换成手......