首页 > 其他分享 >快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”

时间:2023-03-14 16:32:49浏览次数:44  
标签:TARGET -- 模型 Meta LLaMA FOLDER ChatGPT 7B

近期,Meta发布了人工智能大语言模型LLaMA,包含70亿、130亿、330亿和650亿这4种参数规模的模型。其中,最小的LLaMA 7B也经过了超1万亿个tokens的训练。

本文我们将以7B模型为例,分享LLaMA的使用方法及其效果。

1. LLaMA的上手指南

这一部分,我们将step by step,展示LLaMA的使用流程。

1)下载LLaMA模型文件

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_深度学习

以7B模型文件为例,包含内容如下:

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_大语言模型_02

2)克隆LLaMA项目及环境配置

git clone https://github.com/facebookresearch/llama.git
cd llama
pip install -r requirements.txt
pip install -e

如下示例中,相关操作均可通过IDP终端进行。

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_深度学习_03


3) LLaMA初体验

在IDP的cell中运行如下代码,即可和LLaMA对话,接收LLaMA的回答啦!

对于7B模型:

TARGET_FOLDER=..
torchrun --nproc_per_node 1 example.py --ckpt_dir $TARGET_FOLDER/7B --tokenizer_path $TARGET_FOLDER/tokenizer.model

对于13B模型:

TARGET_FOLDER=..
torchrun --nproc_per_node 2 example.py --ckpt_dir $TARGET_FOLDER/13B --tokenizer_path $TARGET_FOLDER/tokenizer.model


对于不同大小的LLaMA模型文件,上述命令需要调整的为TARGET_FOLDER中模型文件的名称和node参数。


快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_深度学习_04

让我们来进行两个简单的问答测试。

Prompt 1:

Building a website can be done in 10 simple steps

LLaMA 7B模型的回答如下:

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_大语言模型_05

Prompt 2:

Please write a beautiful love poem

LLaMA 7B的模型回答如下:

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_大语言模型_06


LLaMA对这个提示词问题,自行增加了一些场景预设,如“I need some new poems for my birthday(为庆生,我需要一些新诗)"。

输入或调整提示词prompt,可在example.py文件中的prompts部分进行调整,如下图所示。

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_深度学习_07


关于这两个对话示例,我们也同样放上ChatGPT的答案,供大家对比参考。

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_深度学习_08

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_大语言模型_09


2. 从LLaMA到"开源版ChatGPT”?

LLaMA推出3天后,Nebuly AI的初创AI企业在LLaMA的基础上,基于RLHF(基于人类反馈的强化学习)进行训练,打造了对标ChatGPT的ChatLLaMA。


快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_深度学习_10


ChatLLaMA声称训练过程比ChatGPT快15倍。同时,支持DeepSpeed ZERO,可以加快微调速度。

DeepSpeed是一个开源的深度学习训练优化库,ZeRO是一种显存优化技术,用于提高大型模型的训练效率,如提高训练速度,降低成本和提高模型可用性等。

但ChatLLaMA并不提供LLaMA的模型权重,根据其license,也不可以商用。



我们在IDP开源的AI IDE中,增加了LLaMA和Stable Diffusion的示例文件,小伙伴们可以快速开启LLaMA体验之旅。

项目地址:https://github.com/BaihaiAI/IDP

快速上手Meta大语言模型LLaMA,构建“本地化ChatGPT”_深度学习_11

标签:TARGET,--,模型,Meta,LLaMA,FOLDER,ChatGPT,7B
From: https://blog.51cto.com/u_15525866/6120610

相关文章

  • Python+ChatGPT制作一个AI实用百宝箱
    ChatGPT最近在互联网掀起了一阵热潮,其高度智能化的功能能够给我们现实生活带来诸多的便利,可以帮助你写文章、写报告、写周报、做表格、做策划甚至还会写代码。只要与文字......
  • DBeaver Ultimate Edtion 23 Multilingual (macOS, Linux, Windows) - 通用数据库工具
    请访问原文链接:https://sysin.org/blog/dbeaver-23/,查看最新版。原创作品,转载请保留出处。作者主页:www.sysin.org通用数据库工具DBeaver是一个通用的数据库管理工具,适......
  • 区块链MetaMask钱包账户导入私有链
    区块链MetaMask钱包账户导入私有链在使用Geth成功搭建属于自己的私有链之后,我们还需要导入私有链中的钱包账号到区块链电子钱包软件上(例如MetaMask)来方便我们进行区块......
  • RPC框架JMH测试-chatgpt自动生成
    本文将介绍如何使用Java的JMH测试框架来测试RPC框架的性能。我们选择了ApacheDubbo作为目标RPC框架,Dubbo是一种高效的远程调用框架,它支持多种传输协议和序列化协议,并且具......
  • CHATGPT:OI刷题怎么提高建模能力
    1多做题:刷题是提高建模能力的最好方式。多做题可以帮助学生了解不同问题的求解思路和方法,从而在解决新问题时更有思路。2关注经典问题:经典问题是经过长期实践和研究后得出的......
  • 【ChatGPT解答】python 如何判断某个方法是继承于哪个父类
    ME:python如何判断某个方法是继承于哪个父类?给个能直接用的示例,能够自动遍历多层父类GPT:在Python中,可以通过使用内置函数inspect.getmro()来获取一个类的方法解......
  • 一百行代码实现简易版 ChatGPT | 社区征文
    最近,OpenAI的一款聊天机器人模型ChatGPT爆火,ChatGPT(全名:ChatGenerativePre-trainedTransformer),于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能......
  • chatgpt与搜索结合,百度会在这股浪潮下掘金吗?
    年末,在百度内部沟通会上,百度创始人李彦宏提到最近他的朋友们问他如何看待ChatGPT,包括他周围同行业中的同一领域和跨境人士。​事实上,早在ChatGPT将他的对话能力和直观的互......
  • [ChatGPT 勘误] SAP UI5 的 sap.ui.base.Object
    ChatGPT对SAPUI5sap.ui.base.Object作用的解答:在SAPUI5中,sap.ui.base.Object是所有UI5对象的基础类。该类提供了一个通用的、灵活的基础框架,可用于构建SAPUI5应......
  • chatgpt 集成飞书实践指南
    开个境外服务器目前OpenAI的API已向161个国家和地区开放,在亚洲范围内,日本、韩国、缅甸、印度、尼泊尔、巴基斯坦均在开放之列。openai对国内网络(包括香港)似乎都有屏蔽,刚......