首页 > 其他分享 >AI模型 Llama 3体验笔记

AI模型 Llama 3体验笔记

时间:2024-04-28 12:01:25浏览次数:15  
标签:container Llama AI 模型 笔记 -- https docker ollama

4月19日Meta重磅推出了最新大型开源人工智能(AI)模型——Llama 3,模型分为两种规模:8B 和 70B 参数,旨在让个人、创作者、研究人员和各种规模的企业能够负责任地试验、创新和扩展他们的想法。

 

 

已经可以很方便的在本地部署、体验。

Linux系统下安装脚本:

curl -fsSL https://ollama.com/install.sh | sh

Windows系统下载安装:

https://ollama.com/download/windows

macOS系统下载安装:

https://ollama.com/download/mac

Docker下安装脚本:

# CPU模式
docker run -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# GPU模式
# 1.配置apt源
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
# 2.更新源
sudo apt-get update
# 3.安装工具包
sudo apt-get install -y nvidia-container-toolkit

# docker使用GPU运行ollama
docker run --gpus all -d -v /opt/ai/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

# docker部署ollama web ui
docker run -d -p 8080:8080 --add-host=host.docker.internal:host-gateway --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

# 使用docker中的ollama下载并运行AI模型(示例为阿里通义千问4b-chat)
docker exec -it ollama ollama run qwen:4b-chat

安装完ollama后,拉取运行 llama3


# 运行模型 若没有当前模型 则自动下载后再运行 
ollama run llama3
# 仅下载模型 默认是8b模型 若其他模型则用 ollama pull llama3:70b
ollama pull llama3
# 查看当前已存在的模型
ollama list
# 删除指定模型
ollama rm llama2

ollama run llama3 就可以开始对话了(若未下载该模型则自动下载)

先来个简单的

有时候是用英文回答的,可以加上“用中文回答”

当然,目前的回答有时候还是比较“弱智”的

 

 

用来写代码

 

 

 

(⊙o⊙)… 要求用C# ,结果用的C, emmmm

个人体验小感受:

1、感觉中文回答明显要比英文回答慢一些;

2、回答中还是会冒出英文来;

3、对中文体验还不是太好,尤其是文学方面;

4、不想自己部署,也可以在线体验:https://llama3.replicate.dev/

 


来源:https://www.iwmyx.cn/aimxllama3tybj.html

标签:container,Llama,AI,模型,笔记,--,https,docker,ollama
From: https://www.cnblogs.com/star8521/p/18163425

相关文章

  • QAnything 与 OpenCloudOS 联合打造操作系统 AI 问答解决方案
    导语:4月26日,由网易有道开源的AI知识库问答平台QAnything发布 1.4.0版本,并集成到OpenCloudOS操作系统中,为OpenCloudOS用户提供了一键部署AI知识问答库的能力。QAnything是什么,OpenCloudOS如何与QAnything共同联合研发的,怎样在OpenCloudOS中使用QAnything?本文......
  • APP 移动应用自动化 Appium 2.0 使用笔记(一)
    APP移动应用自动化Appium2.0使用笔记(一)为什么要升级到Appium2.0?最主要的原因就是:自2022年1月1日起,Appium团队不再维护或支持Appium1。所有官方支持的平台驱动程序仅与Appium2兼容。目录安装Appium2.0启动Appium2.0安装注意,你如果已经安装了原Appium1......
  • 王道数据结构第一章个人向笔记
    目录1.1.0导读1.1.1绪论1.1.2数据结构的三要素逻辑结构数据的运算物理结构(存储结构)1.2.1算法的基本概念1.2.2时间复杂度1.2.3空间复杂度1.1.0导读数据结构在学什么?如何用程序代码把显示世界的问题信息画如何用计算机高效地处理这些信息从而创造价值1.1.1绪论数据......
  • VS和jetbrains比较容易忘记的几个快捷键(更新至20230428)
    //PS:这几个是我经常忘记的,记录一下,//         暂时只记录用到的,其他的用到后再去补充添加,后面会陆续补充。 VS2022Ctrl+T :在所有代码里面搜索的快捷键,(不是Ctrl+Q)快速搜索并定位文件名称的快捷:在当前文件快速搜索函数名称的快捷键: JetBrains在所有......
  • faiss简单测试方法
    先把仓库克隆到本地,我这边还需要改cmake环境,在project上面加set(CMAKE_CUDA_COMPILER/usr/local/cuda-11.8/bin/nvcc)构建mkdirbuildcmake-Bbuild.编译,只需要编译faiss这部分就可以,(主目录下有很多测试代码,编译很慢,只编译faiss会快很多)cdbuildmake-jfaiss这时候可......
  • 清华出品的AI学术助手--清AI
    作为一款PC端的AI工具,这款软件的安装非常简单,有一个在线安装程序,大小只有2kb,但是运行该.application扩展名程序后会在线下载256MB的软件包,下载完即可直接使用。软件支持Windows10及以上操作系统,并且支持自动升级。安装完成后需要用手机号注册并登录才能使用,登录后会自动弹出Toke......
  • 零基础手搓自己的专属AI应用
    https://mp.weixin.qq.com/s/8Hg42KyW1Xklw-8gkDvjmw  ONE.如何入门? 大模型编程通常使用以下两种方法:通过大模型发布的API,您将根据官方文档的调用格式,将提示词通过网络发送给大模型。 通过一些封装好的框架进行调用。Langchain/LlamaIndex。Langchain支持......
  • 【工作】比亚迪工作笔记2——入职两周
    1、工作制度比亚迪每天打卡3次。》早上弹性打卡上班,可以在8:30~9:30之间打卡。9:30之后算迟到。》中午打卡时间12:00~13:00。大部分人选择12:01打卡然后去吃饭。》晚上打卡时间,要求早晚打卡之间不少于9小时(理想情况下)。实际上虹桥这边很少按点下班,工作到9点基本是常态。(也不是强制......
  • baidu2
    cfredandblue题目链接题目大意:思路:将数组先按颜色,再按大小升序排序所得形式类似于其中根据贪心只要能出现1~n的序列即可在颜色B下,\(a[i]>=i+1\)因\(a[i]\)只能取不大于自身的数在颜色R下,\(a[i]<=i+1\)因\(a[i]\)只能取不小于自身的数#include<iostream>......
  • DSP学习笔记
    DSP学习笔记EPWM结构框图代码分析代码配置//1.关时基时钟(配置前一定要这么做)SysCtrlRegs.PCLKCR0.bit.TBCLKSYNC=0;//2.初始化GPIO引脚(选择EPWM的输出IO口)InitEPwm2Gpio();//3.设置同步输入脉冲触发条件(为了做后续的移相pwm控制)EPwm2Regs.TBCTL.bit.SYNCOSEL=TB_C......