首页 > 其他分享 >2024 年最值得尝试的 8 个 AI 开源大模型

2024 年最值得尝试的 8 个 AI 开源大模型

时间:2024-10-18 10:19:58浏览次数:9  
标签:FLUX.1 训练 AI 模型 2024 开源 LLM

如果要将 LLM 按照是否开源来划分的话,那么,OpenAI 的 ChatGPT,Google 的 Gemini 这一类就属于闭源模型,也可以说是专有的 LLM,用户并不能深入到模型层面去使用,而是只能在基于模型的聊天应用层使用。

当然,尽管这些 LLM 提供了开放 API 给开发者,但是也只能够在一定的范围内进行调用和调试,并不能拥有对背后的模型的完全控制权。

而像 Llama 这样的模型就是属于开源模型,用户可以在自己的设备上部署、开发,甚至是微调。

相对于闭源模型,开源模型从成本、风险把控、定制化等多个方面,都有一定的优势。

所以,如果想要定制化属于自己的 LLM 或者只是尝试着在自己电脑上进行简易的部署和开发,开源 LLM 一定是第一选择。

本文将为你介绍 2024 年最值得尝试的 8 个开源 LLM。

开源 LLM 的好处

如上文所说,开源 LLM 的好处显而易见,接下来我将从以下方面来细化讲解这些好处。

数据安全性和隐私保护

当然,并不是说使用开源 LLM 就不存在数据泄露的问题。

只是说,使用开源 LLM 的话,数据的管控都是由使用者完全控制。而如果使用闭源的 LLM,那么,这些风险其实是不可控的,而且,目前已经有多起有关于大公司使用个人或隐私数据来进行训练的争议了。

成本以及对供应商的依赖性

一般来说,闭源的 LLM 在使用其 API 的时候,都是需要购买或者按量计费的,比如 Kimi、ChatGPT,不同厂商的价格会有所区别。

而开源 LLM 通常都可以直接免费下载和使用。

当然,在前期如果不考虑自己的硬件成本的情况下,开源 LLM 肯定是优于闭源的。如果涉及到在自己电脑或者服务器上进行微调或者推理的话,那可能就需要在硬件层面投入一定的成本了。

代码透明性和模型定制化

由于开源 LLM 的源代码是公开透明的,所以可以直接查看它的工作原理,包括其架构、训练数据以及训练和推理机制,这种透明性也是定制化的基础。

活跃的社区和共建

大型开源项目的最大优势就是活跃的社区以及有大量优秀的开发者来参与共建。

这样的社区可以促进 LLM 的创新,改进模型,减少偏见,提高模型的准确性和整体性能。

比如 Llama 3,目前在 GitHub 上已经有 25.7k Star 了,链接:https://github.com/meta-Llama/Llama3

接下来,我将依次介绍 8 个最值得尝试的开源 LLM。

Llama 3.1

https://Llama.meta.com/

Llama 3.1 于 2024 年 7 月 23 日发布,包含 8B、70B,以及首次推出的 405B 参数模型。

这些模型被设计用于处理多种自然语言处理任务,覆盖的语言包括英语、西班牙语、葡萄牙语、德语、泰语、法语、意大利语和印地语等。

Llama 3.1 模型支持大幅增加的上下文长度(128k),显著增强了模型处理和理解长篇文本的能力,在复杂推理任务中表现得更为出色,并在较长的对话中保持上下文的一致性。

特别是 405B 参数的模型在生成合成数据方面具有强大的能力,这些数据可以用于训练其他模型。

此外,该模型在知识蒸馏方面也具有优势,可以将其知识转移到更小、更高效的模型中。

BLOOM

https://huggingface.co/bigscience/bloom

BLOOM 是一个自回归的 LLM,通过海量的文本数据和工业级的计算资源进行训练,能够在提示语的基础上生成连续的文本。

BLOOM 能够生成 46 种语言和 13 种编程语言的连贯文本,几乎与人类书写的文本难以区分。

此外,BLOOM 还可以在没有明确训练的情况下,将任务转化为文本生成任务,执行各种文本处理任务。

MPT-7B

https://huggingface.co/mosaicml/mpt-7b

MPT-7B 是一个仅解码的 Transformer 模型,由 MosaicML 从零开始预训练,处理了 1 万亿个英语文本和代码 tokens。

它属于 MPT (MosaicPretrainedTransformer) 模型家族,这些模型使用了一种经过修改的 Transformer 架构,专为高效训练和推理进行了优化。

MPT-7B 的架构改进包括性能优化的层实现,并通过用线性偏差注意力(ALiBi)替代位置嵌入,消除了上下文长度的限制。

这些改进使 MPT 模型能够以高吞吐量和稳定的收敛性进行训练,并能有效地与 HuggingFace 管道和 NVIDIA 的 FasterTransformer 集成进行推理。

模型的有以下特点:

  • 商业许可:与 Llama 不同,MPT-7B 允许商业用途。

  • 庞大的数据训练:模型训练数据量达到 1 万亿 tokens。

  • 处理超长输入:得益于 ALiBi,MPT-7B 可以处理极长的输入。

  • 快速训练与推理:通过 FlashAttention 和 FasterTransformer 提供快速的训练和推理能力。

  • 高效的开源训练代码:MPT-7B 提供了高效的开源训练代码,位于 llm-foundry 仓库中,链接为:https://github.com/mosaicml/llm-foundry

Falcon 40B

Falcon 40B: https://huggingface.co/tiiuae/falcon-40b

Falcon-40B 是一个由 TII(Technology Innovation Institute)构建的因果解码模型,拥有 40B 参数,训练数据包含 1,0000 亿个精炼网页和精选语料库的 tokens。

它在 Apache 2.0 许可下发布,允许商业用途,无需支付版税或面临限制。

Falcon-40B 在开放领域表现卓越,被认为是目前最好的开源模型。相比其他开源模型,如 Llama、StableLM、RedPajama 和 MPT,Falcon-40B 具有明显的优势。

这得益于其架构的优化,尤其是在推理方面,使用了 FlashAttention 和多查询(Multiquery)机制。

此模型是一个预训练的原始模型,适合大多数应用场景下的进一步微调。如果需要适合接收通用指令的聊天格式版本,可以参考 Falcon-40B-Instruct(https://huggingface.co/tiiuae/falcon-40b-instruct)。

FLUX.1

https://huggingface.co/black-forest-labs/FLUX.1-dev, Flux.1 系列模型包含 FLUX.1 [pro], FLUX.1 [dev] 和 FLUX.1 [schnell],可以在 HuggingFace 上找到。

FLUX.1 是刚发布不久的文生图模型,甚至有人说它的性能超过了 Midjourney。

FLUX.1 [pro]

这是 FLUX.1 系列中的顶级版本,提供最先进的图像生成性能,具有卓越的提示语响应、视觉质量、图像细节和输出多样性。

用户可以通过 API 访问 FLUX.1 [pro],该模型也可以通过 Replicate 和 fal.ai 使用。此外,FLUX.1 [pro] 还能够为企业提供定制解决方案。

FLUX.1 [dev]

这是一个开源权重模型,专为非商业应用设计。

FLUX.1 [dev] 是从 FLUX.1 [pro] 直接蒸馏而来,具备类似的质量和提示语响应能力,同时效率更高。

FLUX.1 [dev] 的权重可以在 HuggingFace 上找到,也可以在 Replicate 或 fal.ai 上直接试用。

FLUX.1 [schnell]

这是 FLUX.1 系列中最快的模型,专为本地开发和个人使用而设计。

FLUX.1 [schnell] 在 Apache 2.0 许可下开放,权重可在 HuggingFace 获取,推理代码可以在 GitHub 和 HuggingFace 的 Diffusers 中找到。此外,该模型与 ComfyUI 实现了集成。

Phi-2

https://huggingface.co/microsoft/phi-2

Phi-2 是一个拥有 2.7B 参数的 Transformer 模型,其训练数据与 Phi-1.5 相同,但增加了新的数据源,包括各种 NLP 合成文本和经过筛选的网站内容(确保安全性和教育价值)。

在评估常识、语言理解和逻辑推理的基准测试中,Phi-2 在 13B 参数以下的模型中表现最好。

与某些其他模型不同,Phi-2 并未通过人类反馈的强化学习进行微调。

此开源模型的开发目的是为研究社区提供一个不受限制的小型模型,用来探索关键的安全相关的问题,比如减少有害内容、理解社会偏见、增强模型可控性等。

Gemma-7B

https://huggingface.co/google/gemma-7b

Gemma 是 Google 推出的一系列轻量级、先进的开源模型家族,这些模型基于与 Gemini 模型相同的技术开发。

Gemma 是文本到文本的、仅解码的大型语言模型,主要提供英语版本,并开放了模型权重,包含预训练的变体和指令微调的变体。

Gemma 模型非常适合用于各种文本生成任务,例如问答、摘要生成和推理。

Gemma 模型的规模相对来说不算大,可以部署在资源有限的环境中,例如个人电脑或个人云基础设施上。

Whisper large-v3

https://huggingface.co/openai/whisper-large-v3

Whisper-large-v3 是一个用于自动语音识别 (ASR) 和语音翻译的预训练模型,由 OpenAI 开发。

这个模型基于 Transformer 架构的编码器-解码器设计,能够处理多种语言,且无需进行微调即可执行任务。

Whisper-large-v3 的目标是通过大规模弱监督学习,实现对语音数据的稳健识别。

这个模型的强大之处在于其零样本场景下的泛化能力,使得它在无需特定数据集微调的情况下,能够处理来自不同领域的任务。

选择适合自己的 LLM

开源 LLM 的发展速度非常快,目前在 HuggingFace 上,一共有八十多万的开源 LLM。

所以,如何选择适合自己的 LLM 就显得尤为重要了。可以从以下几点来考虑:

  • • 你需要用 LLM 做什么?

  • • 你需要的准确性如何?

  • • 你愿意在硬件设施上投入多少资金?

  • • 预训练模型是否就能够满足需求?

总结

本文只提及了 8 个值得尝试的开源 LLM,如果想要学习和尝试更多的 LLM,可以去 HuggingFace 上查看,这里集结了大量的优秀模型。

初期不建议投入大量资金到硬件设施上,个人学习的话,完全可以从小型的模型开始(比如 Llama 3.1 的 8B 模型、Phi-2 的 2.7B 模型),熟悉之后再选择更大的模型。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文转自 https://blog.csdn.net/CSDN_430422/article/details/142361651?ops_request_misc=&request_id=&biz_id=102&utm_term=ai%E5%A4%A7%E6%A8%A1%E5%9E%8B&utm_medium=distribute.pc_search_result.none-task-blog-2allsobaiduweb~default-2-142361651.142v100pc_search_result_base8&spm=1018.2226.3001.4187,如有侵权,请联系删除。

标签:FLUX.1,训练,AI,模型,2024,开源,LLM
From: https://blog.csdn.net/2401_84205765/article/details/143035850

相关文章

  • ShowMeAI-人工智能工具笔记-九-
    ShowMeAI人工智能工具笔记(九)T81-558|深度神经网络应用-全案例实操系列(2021最新·完整版)-P15:L2.4-在Pandas中为Keras使用Apply和Map-ShowMeAI-BV15f4y1w7b8嗨,我是Jeffine,欢迎来到华盛顿大学的深度神经网络应用课程。在这段视频中,我们将看看如何结合使用apply和......
  • 20222405 2024-2025-1 《网络与系统攻防技术》实验二实验报告
    1.实验内容1.1实践目标(1)使用netcat获取主机操作Shell,cron启动某项任务(任务自定)(2)使用socat获取主机操作Shell,任务计划启动(3)使用MSFmeterpreter(或其他软件)生成可执行文件,利用ncat或socat传送到主机并运行获取主机Shell(4)使用MSFmeterpreter(或其他软件)生成获取目标......
  • 【2024-10-17】缺在大人
    20:00依我看,最美好的人生是向合情合理的普通样板看齐的人生,这样的人生有序,但无奇迹,也不荒唐。                                                 ——蒙田大宝最近一周......
  • GitLab CVE-2024-6678、CVE-2024-8640 漏洞解决方案
    极狐GitLab近日发布安全补丁版本17.3.2,17.2.5,17.1.7,修复了17个安全漏洞,本分分享CVE-2024-6678、CVE-2024-8640两个漏洞详情。极狐GitLab正式推出面向GitLab老旧版本免费用户的专业升级服务,为GitLab老旧版本进行专业升级,详情可以查看官网GitLab专业升级服务指......
  • 35岁失业后,靠这5个AI副业也能养活自己!
    都说经济下行,市场大环境不好,即使是大厂也裁员不断。有铁饭碗的或许还可以熬熬工龄,一般企业的普通打工人,不得不面临35岁的职场危机。打工人,建议尽早认清一个事实,与其坐以待毙,不如在当前主业尚且稳定的情况下,尽快探索新的机会。我也不建议你做实体,开店或者下班后去摆摊,毕竟......
  • Burp Suite Professional 2024.9 for macOS x64 & ARM64 - 领先的 Web 渗透测试软件
    BurpSuiteProfessional2024.9formacOSx64&ARM64-领先的Web渗透测试软件世界排名第一的Web渗透测试工具包请访问原文链接:https://sysin.org/blog/burp-suite-pro-mac/查看最新版。原创作品,转载请保留出处。作者主页:sysin.orgBurpSuiteProfessionalTheworld......
  • 2024年全面的多端统一开发解决方案推荐!
    前言最近在DotNetGuide技术社区交流群看到有不少小伙伴问:有没有一套代码能够同时在多个平台运行的框架推荐?今天大姚给大家分享8个多端统一开发框架其中语言包括C#、C++、Vue、React、Dart、Kotlin等等(一套代码,可以运行到多个平台从而大幅减轻开发者的开发与维护负担),同学们可以按......
  • 【题解】Solution Set - NOIP2024集训Day56 哈希杂题
    【题解】SolutionSet-NOIP2024集训Day56哈希杂题https://www.becoder.com.cn/contest/5640「CF568C」NewLanguage做过的2-sat。「NOI2024」集合做过。做法见提交记录。「CSP-S2022」星战简要题意:给定有向图。修改使一条边失效/恢复;使一个点的所有入边......
  • 2024 CSP-J/S2 模板复习计划
    2024CSP-J/S2模板复习计划(Starton2024-10-18)说明原来这个计划是2023CSP-J/S2模板复习,现在被拿来当模板集。Day1我的记录@zhenghanyun的记录任务已完成SPFA(不带负环)已完成Floyd已完成Dijkstra已完成拓扑排序已完成单调栈已......
  • k8s-Longhorn系统配置 20241017 -分布式存储
    目录一Longhorn存储部署1.1Longhorn概述1.2Longhorn部署1.5动态sc创建1.6测试PV及PVC1.7Ingress暴露Longhorn1.8确认验证附加Helm部署附0.1helm安装附0.2helm安装 回到顶部一Longhorn存储部署1.1Longhorn概述Longhorn是用于Kubernetes的......