Llama 2 是 Meta 的下一代开源大语言模型。它是一系列经过预训练和微调的模型,参数范围从 70 亿到 700 亿个。Meta Llama 2 可免费用于研究和商业用途并且提供了一系列具有不同大小和功能的模型,因此一经发布备受关注。在之前的文章中,我们详细地介绍了Llama 2 的使用和优势以及FAQ。本文将介绍如何借助应用管理平台 Walrus 在 AWS 上部署 Llama 2。
Walrus 已于本周正式开源,关于该项目的详细开源信息可点击此处查看。本文将手把手带您使用 Walrus 在 AWS 上用 CPU 部署 Llama-2,并通过用户友好的 web UI 来使用它。
前期准备
在开始部署之前,你需要准备以下:
-
AWS 账号以及关联的凭证,并且有足够的权限来创建 EC2 实例。
-
安装 Walrus(点击查看安装教程)。
标签:llama,--,AWS,Llama2,点击,Llama,70,Walrus From: https://www.cnblogs.com/sealio/p/17650553.html