首页 > 其他分享 >有手就行,轻松本地部署 Llama、Qwen 大模型,无需 GPU

有手就行,轻松本地部署 Llama、Qwen 大模型,无需 GPU

时间:2024-07-24 17:57:06浏览次数:10  
标签:7b 模型 学习 Qwen 有手 Llama ollama 下载

用 CPU 也能部署私有化大模型?

对,没错,只要你的电脑有个 8G 内存,你就可以轻松部署 Llama、Gemma、Qwen 等多种开源大模型。

非技术人员,安装 Docker、Docker-compose 很费劲?

不用,这些都不需要安装,就一个要求:有手就行~

今天主要为大家分享保姆级教程:如何利用普通个人电脑,本地私有化部署 Qwen 大模型。

一、Ollama 与 Qwen7B 安装和使用

一)下载

进入下载地址,目前支持 Mac、Windows、Linux 以及 docker 部署,本次演示,主要针对 Mac

下载地址:https://github.com/ollama/ollama

我已经为大家提前下载好了 Mac、Windows 的安装包,公众号回复 ollama 领取。

二)安装 Ollama

1、下载到本地,并解压后,双击 Ollama 图标。

2、点击 Move to Applications ,按照建议,将其移动到应用程序文件夹下。

3、按照从左到右的顺序执行这三步。到这 Ollama 安装完成了。

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传

三)安装模型

作为国内的优质大模型,Qwen 对于中文的支持力度还是很强的,最终选择用它来试手。

大家也可以尝试选择自己喜欢的模型,比如 Llama3、Gemma 等等。

1、进入模型仓库

地址:https://ollama.com/library

2、搜索对应模型。发现目前有 Qwen 0.5B ~ 110B 可供使用。

因为内存不够用,最终选择下载 Qwen:7b,大家可以按照自身硬件情况下载模型。

可以使用图中对应型号的命令,进行下载。7b 下载命令为:ollama run qwen:7b

官方建议: 至少有 8 GB 可用内存来运行 7 B 型号,16 GB 来运行 13 B 型号,32 GB 来运行 33 B 型号。

3、下载完成,开始对话,中文能力的确可以~

但是命令行对话总不是事儿啊,我们需要一个网页应用,这就得请出下一位主角:ChatGPT-Next-Web

二、ChatGPT-Next-Web 安装和使用

一)安装

进入 ChatGPT-Next-Web 仓库地址,选择对应版本下载。

地址:https://github.com/ChatGPTNextWeb/ChatGPT-Next-Web/releases/tag/v2.12.4

我选择了 NextChat_2.12.4_universal.dmg

我已经为大家提前下载好了 Mac、Windows 安装包,公众号回复 ollama 领取。

下载完成后,可以直接安装,无需额外下载其他软件。

二)设置语言(可选)

按需选择语言偏好。

三)配置

1、点击图标,进行配置页面。

2、输入接口地址:http://localhost:11434

3、自定义模型名:qwen:7b

4、模型(model):qwen:7b() ,注意该选项在最下方。

四)对话测试

1、普通对话

效果还不错。

2、面具对话

使用面具对话功能时,需要注意,软件模型忽略了自定义的 qwen:7b,每次利用面具对话时,需要重新选择模型

2.1、没有选择模型时,则会出错。

2.2、点击图标,并选择正确的模型。

2.3、对话显示成功。

三、总结

没有消费级的 GPU,竟然都可以拥有自己的本地大模型。

部署过程基本上没有卡点,一台普通的 Mac 就能搞定,太香了~

那么,如何系统的去学习大模型LLM?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。

但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~
在这里插入图片描述

篇幅有限,部分资料如下:

标签:7b,模型,学习,Qwen,有手,Llama,ollama,下载
From: https://blog.csdn.net/2401_85375151/article/details/140669630

相关文章

  • LangChain vs LlamaIndex
    LangChainvsLlamaIndexhttps://www.datacamp.com/blog/langchain-vs-llamaindexWhilebothframeworkssupportintegrationwithexternaltoolsandservices,theirprimaryfocusareassetthemapart.LangChainishighlymodularandflexible,focusingoncreat......
  • DeepSpeed x MiniGPT4Qwen
    #关于DeepSpeed的尝试知乎博客地址:https://zhuanlan.zhihu.com/p/673359684##参考Repo:https://github.com/microsoft/DeepSpeedExampleshttps://github.com/microsoft/DeepSpeedExamples/blob/master/training/HelloDeepSpeed/train_bert_ds.py,代码拷贝到了本项目的:htt......
  • 搭建Ollama环境
    Ollama环境搭建参考链接:https://baijiahao.baidu.com/s?id=1798741366479996086&wfr=spider&for=pc下载Ollama下载地址:https://ollama.com/download双击直接安装安装成功,默认模型的位置是C:\Users.ollama\models,可在powershell修改模型位置setxOLLAMA_MODELS"D:\others\O......
  • 在安卓手机上用 ollama 运行开源大模型
    License:CCBY-NC-SA4.0前言一种不刷机,不用root的解决方案。如果有条件可以root后装LinuxDeploy或者干脆刷成linux.正文先要装上termux.加速proot-distro下载以ArchLinux为例。vi/data/data/com.termux/files/usr/etc/proot-distro/archlinux.sh把里面......
  • 使用Ollama部署非官方仓库模型(Windows)
    一、从GitHub拉去llama.cpp项目gitclonehttps://github.com/ggerganov/llama.cpp下载完成后在当前目录的路径输入cmd,进入命令行二、安装python执行的相关依赖执行pipinstall-rrequirements.txt三、下载模型文件依赖安装成功后开始转换模型这里以魔塔上的C......
  • 本地训练 Llama-2-7b-hf 模型时 CUDA 内存不足
    我想在我的笔记本电脑上本地微调meta-llama/Llama-2-7b-hf。实例化Trainer类时,我的CUDA内存不足。我有16Gb系统RAM和带有6GbGPU内存的GTX1060。我已将模型层拆分为CPU和GPU,以防止GPU填满并使用小批量大小。然而,当实例化训练器类时,代码再次尝试填充GPU,但内存不......
  • 如何立即取消使用 Ollama Python 库生成答案的 Asyncio 任务?
    我正在使用Ollama通过OllamaPythonAPI从大型语言模型(LLM)生成答案。我想通过单击停止按钮取消响应生成。问题在于,只有当响应生成已经开始打印时,任务取消才会起作用。如果任务仍在处理并准备打印,则取消不起作用,并且无论如何都会打印响应。更具体地说,即使单击按钮后,此函数......
  • LAVIS库学习及MiniGPT4-Qwen中的实现
    目录LAVIS库一、lavis库介绍二、体验示例ImageCaptioningVisualquestionanswering(VQA)UnifiedFeatureExtractionInterface加载数据集在任务数据集上评估预训练模型微调BLIP在COCO-Captioning数据集深度剖析模型配置数据集配置三、lavis自定义模块3.1自定义数据集Datase......
  • 如何使用ngrok url运行LangChain Ollama?
    我运行了一个脚本来获取ngrokurl:importasyncio#SetLD_LIBRARY_PATHsothesystemNVIDIAlibraryos.environ.update({'LD_LIBRARY_PATH':'/usr/lib64-nvidia'})asyncdefrun_process(cmd):print('>>>starting',*cmd)p......
  • 尝试FreeBSD下安装ollama
    Ollama是一个用于在本地运行大型语言模型(LLM)的开源框架。它支持多种操作系统,但是唯独不支持FreeBSD,于是尝试在FreeBSD里编译安装。先上结论,官网的ollama没有编译成功,使用特供版可以安装成功。因为特供版改了代码,为了安全,最后是在FreeBSDjail里操作的。在FreeBSD下安装ollam......