Meta在开源大模型方面越战越勇,近日推出的Llama3在各方面都被公认为是最出色的。
利用ollama在本地部署后使用了一会,感觉确实是行云流水。
简单介绍下本地部署的流程:
1、下载ollama:
https://ollama.com/
在这里下载win环境下的.exe文件,下载后直接安装即可。
2、部署Llama3:
安装后ollama之后,打开cmd命令窗口,下载Llama3模型:
ollama run llama3
Llama3目前有两个版本:
Llama 3 8b(文件大小为4.7GB):这是一个较小的模型,拥有 8 亿参数。这意味着它可能不能学习和生成那么长的文本,但是却能更好地 捕捉本地文本信息。
Llama 3 70b(文件大小为40GB):这是一个较大的模型,拥有 70 亿参数。这意味着它可以学习和生成更长的文本 ,并且能够捕捉更多的上下文信息。
两个模型根据自己的电脑配置、网速、需求自由选择。
3、使用Llama3:
在ollama下载完Llama 3之后,会出现对话框,提示输入信息,开始Llama3的使用。
Llama 3支持中文
读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用
对于0基础小白入门:
如果你是零基础小白,想快速入门大模型是可以考虑的。
一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。
包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!
标签:本地,模型,Llama3,学习,开发,Llama,ollama From: https://blog.csdn.net/lvaolan8888/article/details/139510581