首页 > 其他分享 >本地运行Meta最新大模型:Llama3.1

本地运行Meta最新大模型:Llama3.1

时间:2024-07-28 22:06:29浏览次数:6  
标签:版本 8B Llama3.1 模型 Meta 本地 ollama

手把手教你本地运行Meta最新大模型:Llama3.1,可是它说自己是ChatGPT?

 

就在昨晚,Meta发布了可以与OpenAI掰手腕的最新开源大模型:Llama 3.1。

该模型共有三个版本:

  • 8B
  • 70B
  • 405B

对于这次发布,Meta已经在超过150个涵盖广泛语言范围的基准数据集上评估了性能。此外,Meta还进行了广泛的人工评估,在现实场景中将Llama 3.1与竞争模型进行比较。Meta的实验评估表明:

405B版本的评估数据与目前最强的GPT-4、GPT-4o和Claude 3.5 Sonnet相比具有不错的竞争力:

file

此外,8B和70B版本与具有相似参数规模的模型相比也有相同甚至更好的表现:

file

使用 ollama 运行 Llama3.1

下面就来尝个鲜,手把手在本地把Llama3.1的8B版本跑起来。只要跟着下面的步骤做,你不需要有任何技术背景,也能完成。

  1. 安装 ollama

前往官网下载最新的 Ollama:https://ollama.com/

file

  1. 下载完成之后,打开安装程序,并完成安装步骤。

  2. 打开终端,执行命令:ollama run llama3.1

等待模型下载完成

  1. 完成模型下载,如下图所示:

file

已经弹出提示:Send a message,可以与AI进行互动了。

  1. 测试一下,尝试让他教我学习Java?

file

彩蛋

最后,常规操作,问一下你是谁:

file

啥情况?是ChatGPT?看到这里的小伙伴也试试看,也是一样的结果吗?有朋友知道为什么吗?知道的评论区求解。

标签:版本,8B,Llama3.1,模型,Meta,本地,ollama
From: https://www.cnblogs.com/Leo_wl/p/18328945

相关文章

  • 构建大规模账号池与本地部署:GitHub爬虫项目详解
    账号池搭建必要性常见登录方式:基于Session+Cookie的登录基于JWT的登录:登录生成JWT字符串账号池存储cookie或者JWT字符串方便后续发请求爬取数据本地部署conda建立一个虚拟环境condacreate-nnew_envpython=3.x#替换x为你需要的Python版本激活新建环......
  • Vite本地构建:手写核心原理
    前言接上篇文章,我们了解到vite的本地构建原理主要是:启动一个connect服务器拦截由浏览器请求ESM的请求。通过请求的路径找到目录下对应的文件做一下编译最终以ESM的格式返回给浏览器。基于这个核心思想,我们可以尝试来动手实现一下。搭建静态服务器基于koa搭建一个项目:项......
  • LimeTabular TypeError:__init__() 缺少 1 个必需的位置参数:'model'
    我已经开始学习Lime了。当我使用LimeTabular形式的Interpret时,我遇到一个问题,我按照标准完成了功能,但它不起作用。错误是TypeError:init()缺少1个必需的位置参数:'model'#%%ImportsfromutilsimportDataLoaderfromsklearn.ensembleimportRandomForestCla......
  • 本地海康大华和录像机接入公网EasyCVR平台----调用查看设备状态,报警信息,实时播放,视频
    一.登录  GET/api/v1/login参数 字段类型描述usernameString用户名passwordString密码(经过md5加密,32位长度,不带中划线,不区分大小写)200字段类型描述    TokenString开启鉴权后访问接口需要带上Token信息    TokenTimeoutNumberToken超时(秒)Ea......
  • 基于开源大模型的问答系统本地部署实战教程
    1.现有大模型产品使用感受           在开始教你搭建属于自己的本地大模型之前,先说下自己日常使用大模型的感受。常用的比较好的国外大模型工具,经常会遇到网络卡或者token数量、使用次数限制的问题。而国内的大模型工具虽然不存在网络的问题,但总担心自身数据存......
  • 本地部署大模型?看这篇就够了,Ollama 部署和实战
    写在前面前几篇,分享的都是如何白嫖国内外各大厂商的免费大模型服务~有小伙伴问,如果我想在本地搞个大模型玩玩,有什么解决方案?Ollama,它来了,专为在本地机器便捷部署和运行大模型而设计。也许是目前最便捷的大模型部署和运行工具,配合OpenWebUI,人人都可以拥有大模型自由。......
  • ollama llama3.1 8b openbuddy 模型
    openbuddy对于llama3.18b模型进行了少量的中文训练实现了不错的中文理解处理,以下是使用社区提供的gguf格式,制作一个ollama新模型模型制作下载模型下载gguf文件,推荐使用加速工具Modelfile参考了llama3.1的FROM/home/models/openbuddy-llama3.1-8b-v22.1-......
  • 思维导图工具MindMap本地docker一键安装详细教程
    文章目录前言1.Docker一键部署思维导图2.本地访问测试3.Linux安装Cpolar4.配置公网地址5.远程访问思维导图6.固定Cpolar公网地址7.固定地址访问前言本文主要介绍在Linux系统以docker方式一键部署思维导图工具SimpleMindMap,并结合cpolar内网穿透工具实现远程......
  • 浏览器本地存储
    浏览器本地存储的四种方式原文链接:https://blog.csdn.net/m0_65335111/article/details/127520150浏览器的本地存储主要分为Cookie、WebStorage和IndexedDB,其中WebStorage又分为localStorage(本地存储)和sessionStorage(会话存储)浏览器的本地存储主要分为Cookie、WebStorage和I......
  • 不依赖本地系统调度jupyter笔记本
    是否可以在不依赖本地系统的情况下调度使用一个驱动器文件的jupyter笔记本。我在公司的共享点中创建了一个驱动器的快捷方式,并在我的jupyter笔记本中读取这些文件(笔记本从onedrive读取csv文件)。我目前每天在jupyterlab中安排笔记本,但这是在我的本地系统中,需要每天打开我......