首页 > 其他分享 >利用ollama本地部署Llama3大语言模型

利用ollama本地部署Llama3大语言模型

时间:2024-06-06 22:02:05浏览次数:25  
标签:本地 模型 Llama3 学习 开发 Llama ollama

Meta在开源大模型方面越战越勇,近日推出的Llama3在各方面都被公认为是最出色的。

利用ollama在本地部署后使用了一会,感觉确实是行云流水。

简单介绍下本地部署的流程:

1、下载ollama:

https://ollama.com/

在这里下载win环境下的.exe文件,下载后直接安装即可。

2、部署Llama3:

安装后ollama之后,打开cmd命令窗口,下载Llama3模型:

ollama run llama3

Llama3目前有两个版本:

Llama 3 8b(文件大小为4.7GB):这是一个较小的模型,拥有 8 亿参数。这意味着它可能不能学习和生成那么长的文本,但是却能更好地 捕捉本地文本信息。

Llama 3 70b(文件大小为40GB):这是一个较大的模型,拥有 70 亿参数。这意味着它可以学习和生成更长的文本 ,并且能够捕捉更多的上下文信息。

两个模型根据自己的电脑配置、网速、需求自由选择。

3、使用Llama3:

在ollama下载完Llama 3之后,会出现对话框,提示输入信息,开始Llama3的使用。

Llama 3支持中文

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

标签:本地,模型,Llama3,学习,开发,Llama,ollama
From: https://blog.csdn.net/lvaolan8888/article/details/139510581

相关文章