开源大语言模型是否可以商用的调查报告
0. 背景
ChatGPT 火起来了,很多企业想用 ChatGPT,但是又由于企业数据的保密性,所以本地部署开源大语言模型是不二之选。
各个企业本地部署大语言模型的第一步,就是调研哪些开源大语言模型可以商用。
本文对模型是否可以商用,主要调查了各个开源模型的许可内容及Model许可内容。
读者如果发现调查结果有需要修正的地方,欢迎在评论区留言或者发私信给我。
**免责声明:**由于作者知识和判断能力有限,此调查结果仅供参考,并不对调查结果负有任何责任。企业如果想使用某个开源模型,还请自行调查和判断。
1. 调查结果
1.1 基础大模型(LLM)
大规模基础模型:表格中只罗列出参数量
大于7B
以上模型。
模型 | 大小 | 时间 | 语言 | 领域 | 下载 | 项目地址 | 机构/个人 | 结构 | 文献 | 备注 | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|---|
Baichuan-7B | 7B | 2023-06 | 中英 | ckpt | baichuan-7B | 百川智能 | Decoder | baichuan-7B 支持商用。如果将 baichuan-7B 模型或其衍生品用作商业用途,请您按照如下方式联系许可方,以进行登记并向许可方申请书面授权:联系邮箱:[email protected], 具体许可协议可见《baichuan-7B 模型许可协议》。 | |||
Chinese-Falcon-7B | 7B | 2023-06 | 中英 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Blog | 模型以 Apache License 2.0 协议开源,支持商业用途。 | ||
AquilaCode-7B-TS | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。 | |||
Aquila-7B | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。 | |||
Chinese-LLaMA-33B | 33B | 2023-06 | 中英 | ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。 | |||
TigerBot-7b-base | 7B | 2023-06 | 多语 | ckpt | TigerBot | 虎博科技 | Decoder | 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。 | |||
Panda-OpenLLaMA-7B | 7B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 可商用 | |||
Panda-13B | 13B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 不可商用 | |||
Panda-7B | 7B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 不可商用 | |||
OpenLLaMA-13B | 13B | 2023-05 | 中英 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0 | |||
LaWGPT-7B | 7B | 2023-05 | 中英 | 法律 | ckpt | LawGPT | Pengxiao Song | Decoder | 本项目任何资源仅供学术研究使用,严禁任何商业用途。 | ||
BiLLa-7B-LLM | 7B | 2023-05 | 中英 | ckpt | BiLLa | Zhongli Li | Decoder | 本项目相关资源仅供学术研究,不得用于商业用途。 | |||
Ziya-LLaMA-7B-Reward | 7B | 2023-05 | 中英 | ckpt | Fengshenbang-LM | IDEA研究院 | Decoder | Apache License 2.0 (作者注:并未明确表明禁止商用) | |||
YuYan | 11B | 2023-04 | 中文 | ckpt | / | 网易伏羲 | Decoder | Paper | - | ||
Chinese-LLaMA-33B | 33B | 2023-04 | 中文 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Blog | LLaMA 原始模型权重基于 GNU General Public License v3.0 协议,仅供研究使用,不能用于商业目的。 | ||
Chinese-LLaMA-13B | 13B | 2023-04 | 中文 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Blog | LLaMA 原始模型权重基于 GNU General Public License v3.0 协议,仅供研究使用,不能用于商业目的。 | ||
Chinese-LLaMA-7B | 7B | 2023-04 | 中文 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Blog | LLaMA 原始模型权重基于 GNU General Public License v3.0 协议,仅供研究使用,不能用于商业目的。 | ||
OpenChineseLLaMA | 7B | 2023-04 | 中英 | ckpt | OpenChineseLLaMA | OpenLMLab | Decoder | Non-commercial bespoke license | |||
MOSS-003 | 16B | 2023-04 | 中英 | ckpt | MOSS | 复旦大学 | Decoder | 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。 | |||
BBT-2-13B-Text | 13B | 2023-04 | 中文 | 申请下载 | BBT-FinCUGE-Applications | 超对称 | Decoder | Paper | 未记述许可内容 | ||
BBT-2-12B-Text | 12B | 2023-04 | 中文 | 申请下载 | BBT-FinCUGE-Applications | 超对称 | Decoder | Paper | 未记述许可内容 | ||
Chinese-LLaMA-13B | 13B | 2023-04 | 中英 | ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。 | |||
flan-ul2 | 20B | 2023-03 | 多语 | ckpt | ul2 | encoder-decoder | Paper | 未记述许可内容 | |||
CPM-Bee | 10B | 2023-01 | 中英 | ckpt-10B ckpt-5B | CPM-Live | OpenBMB | Decoder | 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力! | |||
BLOOM | 176B | 2022-11 | 多语 | ckpt-95000 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
BLOOMZ | 176B | 2022-11 | 多语 | ckpt-498 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
flan-t5-xxl | 11B | 2022-11 | 多语 | ckpt | t5x | encoder-decoder | paper | Apache-2.0 license | |||
CPM-Ant+ | 10B | 2022-10 | 中英 | ckpt | CPM-Live | OpenBMB | Decoder | blog | 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力! | ||
GLM | 130B | 2022-10 | 中英 | 申请下载 | GLM-130B | 清华大学 | Decoder | paper | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | ||
CPM-Ant | 10B | 2022-09 | 中文 | ckpt | CPM-Live | OpenBMB | Decoder | blog | 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力! | ||
GLM | 10B | 2022-09 | 中文 | ckpt | GLM | 清华大学 | Decoder | paper | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | ||
CodeGeeX | 13B | 2022-06 | 多语 | 申请下载 | CodeGeeX | 清华大学 | Decoder | blog | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | ||
源1.0 | 245B | 2021-09 | 中文 | API申请 | Yian-1.0 | 浪潮 | Decoder | paper | 未记述许可内容 | ||
CPM-2 | 11B | 2021-06 | 中文 | 申请下载 | CPM | 智源研究院 | encoder-decoder | paper | 未记述许可内容 | ||
CPM-2 | 10B | 2021-06 | 中英 | 申请下载 | CPM | 智源研究院 | encoder-decoder | paper | 未记述许可内容 | ||
CPM-2 | 200B | 2021-06 | 中英 | 申请下载 | CPM | 智源研究院 | encoder-decoder,MOE | paper | 未记述许可内容 | ||
PanGu-Alpha | 13B | 2021-05 | 中文 | ckpt | PanGu-Alpha | 鹏城实验室 | Decoder | paper | Apache License 2.0 | ||
PanGu-Alpha | 200B | 2021-05 | 中文 | 待发布 | PanGu-Alpha | 鹏城实验室 | Decoder | paper | Apache License 2.0 | ||
PLUG | 27B | 2021-04 | 中文 | 申请下载 | AliceMind | 阿里巴巴 | encoder-decoder | Apache-2.0 license | |||
GPT-3 | 13B | 2021-04 | 中文 | 待发布 | GPT-3 | 达摩院 | Decoder | Apache-2.0 license | |||
GPT-3 | 30B | 2021-04 | 中文 | 待发布 | GPT-3 | 达摩院 | Decoder | Apache-2.0 license |
1.2 对话大模型(ChatLLM)
具备问答和对话等功能的大型语言模型。
模型 | 大小 | 时间 | 语言 | 领域 | 下载 | 项目地址 | 机构/个人 | 结构 | 文献 | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|
Yayi | 7B | 2023-06 | 中英 | 安全、舆情、治理等 | ckpt | Yayi | 中科闻歌 | Decoder | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | |
BayLing-13B | 13B | 2023-06 | 中英 | 通用 | ckpt | BayLing | 中国科学院 | Decoder | 模型权重(增量版本)和推理代码在 GNU 通用公共许可证 v3.0(GPLv3)下发布。在线演示系统仅作为研究预览,供非商业用途使用,并受到 LLaMA 的模型许可、OpenAI 生成数据的使用条款、ShareGPT 的隐私条例以及 WMT22 的数据许可的约束。 | |
BayLing-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | BayLing | 中国科学院 | Decoder | 模型权重(增量版本)和推理代码在 GNU 通用公共许可证 v3.0(GPLv3)下发布。在线演示系统仅作为研究预览,供非商业用途使用,并受到 LLaMA 的模型许可、OpenAI 生成数据的使用条款、ShareGPT 的隐私条例以及 WMT22 的数据许可的约束。 | |
MeChat | 6B | 2023-06 | 中文 | 心理 | ckpt | smile | qiuhuachuan | Encoder-Decder | CC0-1.0 license(本项目开源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微调得到。) | |
ziya-13b-medical | 13b | 2023-06 | 中英 | 医学 | ckpt | MedicalGPT | Ming Xu | Decoder | 基于以上模型局限性,我们要求开发者仅将我们开源的模型权重及后续用此项目生成的衍生物用于研究目的,不得用于商业,以及其他会对社会带来危害的用途。 | |
ZhiXi-13B-Diff | 13B | 2023-06 | 中英 | 通用 | ckpt | KnowLLM | 浙江大学 | Decoder | 基于Llama | |
Anima | 33B | 2023-06 | 中文 | 通用 | ckpt | Anima | Gavin Li | Decoder | Apache-2.0 license | |
OpenLLaMA-Chinese-13B | 13B | 2023-06 | 中文 | 通用 | ckpt | OpenLLaMA-Chinese | FittenTech | Decoder | We adopt the Apache License, following OpenLLaMA’s license. | |
OpenLLaMA-Chinese-3B | 3B | 2023-06 | 中文 | 通用 | ckpt | OpenLLaMA-Chinese | FittenTech | Decoder | We adopt the Apache License, following OpenLLaMA’s license. | |
OpenLLaMA-Chinese-7B | 7B | 2023-06 | 中文 | 通用 | ckpt | OpenLLaMA-Chinese | FittenTech | Decoder | We adopt the Apache License, following OpenLLaMA’s license. | |
Taoli | 7B | 2023-06 | 中英 | 教育 | 待开源 | taoli | 北京语言大学 | Decoder | 本项目内容仅供用于学术研究,不得用于商业以及其他会对社会带来危害的用途。 | |
Lawyer-llama | 13B | 2023-06 | 中英 | 法律 | ckpt | lawyer-llama | Quzhe Huang | Decoder | 本项目内容仅供用于学术研究,不得用于商业以及其他会对社会带来危害的用途。 | |
QiZhen-CaMA-13B | 13B | 2023-06 | 中英 | 医学 | ckpt-3600 ckpt-6000 | QiZhenGPT | 浙江大学 | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
扁鹊-2.0 | 6B | 2023-06 | 中文 | 医学 | ckpt | BianQue | 华南理工大学 | Encoder-Decder | **扁鹊-2.0(BianQue-2.0)**使用了ChatGLM-6B 模型的权重,需要遵循其MODEL_LICENSE,因此,本项目仅可用于您的非商业研究目的。 | |
SoulChat | 6B | 2023-06 | 中文 | 心理 | ckpt | SoulChat | 华南理工大学 | Encoder-Decder | 本项目使用了ChatGLM-6B 模型的权重,需要遵循其MODEL_LICENSE,因此,本项目仅可用于您的非商业研究目的。 | |
openbuddy-falcon-7b-v1.5 | 7B | 2023-06 | 多语 | 通用 | ckpt | OpenBuddy | OpenBuddy | Decoder | OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License. | |
AtomGPT_8k_chat | 13B | 2023-06 | 中英 | 通用 | ckpt | AtomGPT | 原子回声 | Decoder | 本项目遵循apache-2.0的开源协议。使用涉及第三方代码的部分时,请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响,本项目不对其准确性作出保证。对于模型输出的任何内容,本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。 | |
AquilaChat-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | Aquila | 智源研究院 | Decoder | 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。 | |
YuLan-Chat-65B | 65B | 2023-06 | 中英 | 通用 | lora-ckpt | YuLan-Chat | 中国人民大学 | Decoder | YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes. | |
YuLan-Chat-13B | 13B | 2023-06 | 中英 | 通用 | lora-ckpt | YuLan-Chat | 中国人民大学 | Decoder | YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes. | |
Chinese-Alpaca-33B | 33B | 2023-06 | 中文 | 通用 | lora-ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。 | |
TigerBot-sft | 180B | 2023-06 | 多语 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。 | |
TigerBot-sft | 7B | 2023-06 | 多语 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。 | |
ChatYuan-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | ChatYuan-7B | ClueAI | Decoder | 不允许商业用途和其他潜在有害的使用场景。 | |
Panda-Instruct-13B | 13B | 2023-05 | 中英 | 通用 | ckpt | pandallm | dandelionsllm | Decoder | 我们要求开发者不得将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于任何商业(开源可商用版本OpenPandaLLM除外)以及为社会带来危害的用途。 | |
Panda-Instruct-7B | 7B | 2023-05 | 中英 | 通用 | ckpt | pandallm | dandelionsllm | Decoder | 我们要求开发者不得将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于任何商业(开源可商用版本OpenPandaLLM除外)以及为社会带来危害的用途。 | |
BiLLa-7B-SFT | 7B | 2023-05 | 中英 | 通用 | ckpt | BiLLa | Zhongli Li | Decoder | 本项目相关资源仅供学术研究,不得用于商业用途。 | |
QiZhen-ChatGLM-6B | 6B | 2023-05 | 中英 | 医学 | ckpt-2500 | QiZhenGPT | 浙江大学 | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
QiZhen-Chinese-LLaMA-7B | 7B | 2023-05 | 中英 | 医学 | ckpt-3500 ckpt-6000 | QiZhenGPT | 浙江大学 | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
ChatMed-Consult | 7B | 2023-05 | 中英 | 医学 | ckpt | ChatMed | michael-wzhu | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
LaWGPT-7B-beta1.1 | 7B | 2023-05 | 中英 | 法律 | ckpt | LawGPT | Pengxiao Song | Decoder | 本项目任何资源仅供学术研究使用,严禁任何商业用途。 | |
LaWGPT-7B-beta1.0 | 7B | 2023-05 | 中英 | 法律 | ckpt | LawGPT | Pengxiao Song | Decoder | 本项目任何资源仅供学术研究使用,严禁任何商业用途。 | |
Cornucopia | 7B | 2023-05 | 中英 | 金融 | ckpt-linly-llama | Cornucopia-LLaMA-Fin-Chinese | yuyangmu | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
Cornucopia | 7B | 2023-05 | 中英 | 金融 | ckpt-ori-fb | Cornucopia-LLaMA-Fin-Chinese | yuyangmu | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
HuatuoGPT | 7B | 2023-05 | 中文 | 医学 | ckpt | HuatuoGPT | 香港中文大学 | Decoder | Paper | Apache-2.0 license |
LexiLaw | 6B | 2023-05 | 中文 | 法律 | ckpt | LexiLaw | Haitao Li | Decoder | Paper | 本项目任何资源仅供学术研究使用,严禁任何商业用途。 |
XuanYuan | 176B | 2023-05 | 中文 | 金融 | 申请下载 | XuanYuan | 度小满 | Decoder | Paper | 轩辕作为一个开源的中文金融对话模型,仅限于非商业用途的目的。 |
Ziya-LLaMA-13B-v1 | 13B | 2023-05 | 中英 | 通用 | ckpt | Fengshenbang-LM | IDEA研究院 | Decoder | Blog | 基于 LLaMA |
BLOOMChat V1.0 | 176B | 2023-05 | 多语 | 通用 | ckpt | bloomchat | SambaNova Systems | Decoder | Blog | 不太明确 |
BiLLa | 7B | 2023-05 | 中英 | 通用 | ckpt | BiLLa | Zhongli Li | Decoder | 本项目相关资源仅供学术研究,不得用于商业用途。 | |
Bactrian-X | 13B | 2023-05 | 多语 | 通用 | lora-ckpt | bactrian-x | MBZUAI | Decoder | Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes. | |
Bactrian-X | 7B | 2023-05 | 多语 | 通用 | lora-ckpt | bactrian-x | MBZUAI | Decoder | Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes. | |
Bactrian-ZH | 7B | 2023-05 | 中文 | 通用 | lora-ckpt | bactrian-x | MBZUAI | Decoder | Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes. | |
LawGPT | 6B | 2023-05 | 中文 | 法律 | lora-ckpt | LAW-GPT | hongchengliu | Encoder-Decder | 预训练模型是基于大量语料库和算法模型进行训练的,并且在训练过程中可能存在偏差、错误和不完整的信息。因此,本项目提供的预训练模型仅供参考和研究使用,并不能保证其准确性和可靠性。使用预训练模型产生的结果可能存在误差和偏差,不能用于实际应用或决策。本项目不对使用预训练模型所产生的结果承担任何责任,也不对因使用预训练模型所产生的任何损失承担责任。使用者在使用预训练模型时应自行承担风险并进行自我验证。 | |
ChatFlow-13B | 13B | 2023-05 | 中英 | 通用 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0 | |
ChatFlow-7B | 7B | 2023-05 | 中英 | 通用 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0 | |
OpenBuddy | 7B | 2023-05 | 多语 | 通用 | ckpt | OpenBuddy | OpenBuddy | Decoder | OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License. | |
OpenBuddy | 13B | 2023-05 | 多语 | 通用 | ckpt | OpenBuddy | OpenBuddy | Decoder | OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License. | |
YuYan-dialogue | 11B | 2023-04 | 中文 | 通用 | ckpt | / | 网易伏羲 | Decoder | paper | |
扁鹊-1.0 | 0.7B | 2023-04 | 中文 | 医学 | ckpt | BianQue | scutcyr | Encoder-Decder | 本项目仅可用于您的非商业研究目的 | |
Moss-moon-003-sft-plugin | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 复旦大学 | Decoder | 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。 | |
moss-moon-003-sft | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 复旦大学 | Decoder | 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。 | |
RWKV-4-Raven | 3/7/14B | 2023-04 | 中英 | 通用 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
Phoenix-inst-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大学 | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
Phoenix-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大学 | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
ChatPLUG | 3.7B | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
ChatPLUG | 240M | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
ChatGLM-Med | 6B | 2023-04 | 中文 | 医学 | ckpt | Med-ChatGLM | 哈尔滨工业大学 | Encoder-Decder | 基于 ChatGLM-6B | |
BenTsao | 7B | 2023-04 | 中文 | 医学 | lora-ckpt | Huatuo-Llama-Med-Chinese | 哈尔滨工业大学 | Decder | 基于 LLaMA | |
DoctorGLM | 6B | 2023-04 | 中文 | 医学 | 待更新 | DoctorGLM | xionghonglin | Encoder-Decder | 基于 ChatGLM-6B | |
Firefly-7b1 | 7B | 2023-04 | 中文 | 通用 | ckpt | Firefly | Yang JianXin | Decoder | 未记述许可内容,应该是可以商用 | |
Firefly-2b6 | 2B | 2023-04 | 中文 | 通用 | ckpt | Firefly | Yang JianXin | Decoder | 未记述许可内容,应该是可以商用 | |
firefly-1b4 | 1B | 2023-04 | 中文 | 通用 | ckpt | Firefly | Yang JianXin | Decoder | 未记述许可内容,应该是可以商用 | |
Chinese-Alpaca-13B | 13B | 2023-04 | 中文 | 通用 | lora-ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
BELLE-LLAMA-13B-2M | 13B | 2023-04 | 中文 | 通用 | ckpt | BELLE | 贝壳 | Decoder | 基于 LLaMA | |
LLaMA-65B-tuned | 65B | 2023-04 | 中文 | 通用 | 待更新 | LMFlow | 香港科技大学 | Decoder | 基于 LLaMA | |
LLaMA-33B-tuned | 33B | 2023-04 | 中文 | 通用 | ckpt | LMFlow | 香港科技大学 | Decoder | 基于 LLaMA | |
LLaMA-13B-tuned | 13B | 2023-04 | 中文 | 通用 | ckpt | LMFlow | 香港科技大学 | Decoder | 基于 LLaMA | |
LLaMA-7B-tuned | 7B | 2023-04 | 中文 | 通用 | ckpt | LMFlow | 香港科技大学 | Decoder | 基于 LLaMA | |
Chinese-Vicuna | 13B | 2023-03 | 中文 | 通用 | ckpt | Chinese-Vicuna | Facico | Decoder | Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。 | |
Chinese-Vicuna | 7B | 2023-03 | 中文 | 通用 | ckpt | Chinese-Vicuna | Facico | Decoder | Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。 | |
ChatYuan-V2 | 0.7B | 2023-03 | 中英 | 通用 | ckpt | ChatYuan | 元语智能 | Encoder-Decder | 您不得将软件全部或部分用于任何商业、军事或非法目的,包括使用、复制、修改、合并、出版、分发、复制或创建软件的衍生作品。 | |
Chinese-Alpaca-7B | 7B | 2023-03 | 中文 | 通用 | lora-ckpt | Chinese-LLaMA-Alpaca | Yiming Cui | Decoder | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
Luotuo | 7B | 2023-03 | 中文 | 通用 | ckpt | Chinese-alpaca-lora | 华中师范大学 | Decoder | Apache-2.0 license、基于 LLaMA? | |
BELLE-LLAMA | 7B | 2023-03 | 中英 | 通用 | ckpt | BELLE | 贝壳 | Decoder | 基于以上模型局限性,我们要求开发者仅将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于研究目的,不得用于商业,以及其他会对社会带来危害的用途。 | |
BELLE-BLOOM | 7B | 2023-03 | 中英 | 通用 | ckpt | BELLE | 贝壳 | Decoder | 基于以上模型局限性,我们要求开发者仅将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于研究目的,不得用于商业,以及其他会对社会带来危害的用途。 | |
ChatGLM-6B | 6B | 2023-03 | 中英 | 通用 | ckpt | ChatGLM-6B | 清华大学 | Encoder-Decder | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. | |
ChatRWKV | 7B | 2023-01 | 中英 | 小说 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
1.3 多模态对话大模型(MultiModal-ChatLLM)
收集包含中文的多模态大模型,具备对话等功能。
模型 | 大小 | 时间 | 语言模型 | 视觉模型 | 语言 | 领域 | 下载 | 项目地址 | 机构/个人 | 文献 | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|---|
Ziya-BLIP2-14B-Visual-v1 | 14B | 2023-06 | LLaMA-13B | BLIP2 | 中英 | 通用 | ckpt | Fengshenbang-LM | IDEA研究院 | 基于 LLaMA | |
Video-LLaMA-BiLLA | 7B | 2023-05 | BiLLa-7B | MiniGPT-4 | 中英 | 通用 | ckpt | Video-LLaMA | 达摩院多语言NLP | Paper | 基于 LLaMA |
Video-LLaMA-Ziya | 13B | 2023-05 | Ziya-13B | MiniGPT-4 | 中英 | 通用 | ckpt | Video-LLaMA | 达摩院多语言NLP | Paper | 基于 LLaMA |
XrayGLM | 6B | 2023-05 | ChatGLM-6B | BLIP2-Qformer | 中英 | 医学 | ckpt-300 ckpt-3000 | XrayGLM | 澳门理工大学 | 本项目相关资源仅供学术研究之用,严禁用于商业用途。 | |
VisualGLM-6B | 6B | 2023-05 | ChatGLM-6B | BLIP2-Qformer | 中英 | 通用 | ckpt | VisualGLM-6B | 清华大学 | You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes. |
2. 可商用开源模型总结
2.1 基础大模型(LLM)
大规模基础模型:表格中只罗列出参数量
大于7B
以上模型。
模型 | 大小 | 时间 | 语言 | 领域 | 下载 | 项目地址 | 机构/个人 | 结构 | 文献 | 备注 | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|---|
Baichuan-7B | 7B | 2023-06 | 中英 | ckpt | baichuan-7B | 百川智能 | Decoder | baichuan-7B 支持商用。如果将 baichuan-7B 模型或其衍生品用作商业用途,请您按照如下方式联系许可方,以进行登记并向许可方申请书面授权:联系邮箱:[email protected], 具体许可协议可见《baichuan-7B 模型许可协议》。 | |||
Chinese-Falcon-7B | 7B | 2023-06 | 中英 | ckpt | Linly | 深圳大学计算机视觉研究所 | Decoder | Blog | 模型以 Apache License 2.0 协议开源,支持商业用途。 | ||
AquilaCode-7B-TS | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。 | |||
Aquila-7B | 7B | 2023-06 | 中英 | ckpt | Aquila | 智源研究院 | Decoder | 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。 | |||
TigerBot-7b-base | 7B | 2023-06 | 多语 | ckpt | TigerBot | 虎博科技 | Decoder | 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。 | |||
Panda-OpenLLaMA-7B | 7B | 2023-05 | 中英 | ckpt | pandallm | dandelionsllm | Decoder | 可商用 | |||
CPM-Bee | 10B | 2023-01 | 中英 | ckpt-10B ckpt-5B | CPM-Live | OpenBMB | Decoder | 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力! | |||
BLOOM | 176B | 2022-11 | 多语 | ckpt-95000 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
BLOOMZ | 176B | 2022-11 | 多语 | ckpt-498 | Megatron-DeepSpeed | BigScience | Decoder | Paper | The BigScience RAIL License | ||
flan-t5-xxl | 11B | 2022-11 | 多语 | ckpt | t5x | encoder-decoder | paper | Apache-2.0 license | |||
CPM-Ant+ | 10B | 2022-10 | 中英 | ckpt | CPM-Live | OpenBMB | Decoder | blog | 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力! | ||
源1.0 | 245B | 2021-09 | 中文 | API申请 | Yian-1.0 | 浪潮 | Decoder | paper | 未记述许可内容 | ||
CPM-2 | 11B | 2021-06 | 中文 | 申请下载 | CPM | 智源研究院 | encoder-decoder | paper | 未记述许可内容 | ||
CPM-2 | 10B | 2021-06 | 中英 | 申请下载 | CPM | 智源研究院 | encoder-decoder | paper | 未记述许可内容 | ||
CPM-2 | 200B | 2021-06 | 中英 | 申请下载 | CPM | 智源研究院 | encoder-decoder,MOE | paper | 未记述许可内容 | ||
PanGu-Alpha | 13B | 2021-05 | 中文 | ckpt | PanGu-Alpha | 鹏城实验室 | Decoder | paper | Apache License 2.0 | ||
PanGu-Alpha | 200B | 2021-05 | 中文 | 待发布 | PanGu-Alpha | 鹏城实验室 | Decoder | paper | Apache License 2.0 | ||
PLUG | 27B | 2021-04 | 中文 | 申请下载 | AliceMind | 阿里巴巴 | encoder-decoder | Apache-2.0 license | |||
GPT-3 | 13B | 2021-04 | 中文 | 待发布 | GPT-3 | 达摩院 | Decoder | Apache-2.0 license | |||
GPT-3 | 30B | 2021-04 | 中文 | 待发布 | GPT-3 | 达摩院 | Decoder | Apache-2.0 license |
2.2 对话大模型(ChatLLM)
具备问答和对话等功能的大型语言模型。
模型 | 大小 | 时间 | 语言 | 领域 | 下载 | 项目地址 | 机构/个人 | 结构 | 文献 | 模型是否可以商用 |
---|---|---|---|---|---|---|---|---|---|---|
Anima | 33B | 2023-06 | 中文 | 通用 | ckpt | Anima | Gavin Li | Decoder | Apache-2.0 license | |
AtomGPT_8k_chat | 13B | 2023-06 | 中英 | 通用 | ckpt | AtomGPT | 原子回声 | Decoder | 本项目遵循apache-2.0的开源协议。使用涉及第三方代码的部分时,请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响,本项目不对其准确性作出保证。对于模型输出的任何内容,本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。 | |
AquilaChat-7B | 7B | 2023-06 | 中英 | 通用 | ckpt | Aquila | 智源研究院 | Decoder | 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。 | |
TigerBot-sft | 180B | 2023-06 | 多语 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。 | |
TigerBot-sft | 7B | 2023-06 | 多语 | 通用 | ckpt | TigerBot | 虎博科技 | Decoder | 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。 | |
HuatuoGPT | 7B | 2023-05 | 中文 | 医学 | ckpt | HuatuoGPT | 香港中文大学 | Decoder | Paper | Apache-2.0 license |
BLOOMChat V1.0 | 176B | 2023-05 | 多语 | 通用 | ckpt | bloomchat | SambaNova Systems | Decoder | Blog | 不太明确 |
LawGPT | 6B | 2023-05 | 中文 | 法律 | lora-ckpt | LAW-GPT | hongchengliu | Encoder-Decder | 预训练模型是基于大量语料库和算法模型进行训练的,并且在训练过程中可能存在偏差、错误和不完整的信息。因此,本项目提供的预训练模型仅供参考和研究使用,并不能保证其准确性和可靠性。使用预训练模型产生的结果可能存在误差和偏差,不能用于实际应用或决策。本项目不对使用预训练模型所产生的结果承担任何责任,也不对因使用预训练模型所产生的任何损失承担责任。使用者在使用预训练模型时应自行承担风险并进行自我验证。 | |
Moss-moon-003-sft-plugin | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 复旦大学 | Decoder | 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。 | |
moss-moon-003-sft | 16B | 2023-04 | 中英 | 通用 | ckpt | MOSS | 复旦大学 | Decoder | 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。 | |
RWKV-4-Raven | 3/7/14B | 2023-04 | 中英 | 通用 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
Phoenix-inst-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大学 | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
Phoenix-chat-7b | 7B | 2023-04 | 中文 | 通用 | ckpt | LLMZoo | 香港中文大学 | Decoder | Apache-2.0 license,DATA_LICENSE有限制 | |
ChatPLUG | 3.7B | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
ChatPLUG | 240M | 2023-04 | 中文 | 通用 | ckpt | ChatPLUG | 阿里巴巴 | Encoder-Decder | Paper | Apache-2.0 license |
Luotuo | 7B | 2023-03 | 中文 | 通用 | ckpt | Chinese-alpaca-lora | 华中师范大学 | Decoder | Apache-2.0 license、基于 LLaMA? | |
ChatRWKV | 7B | 2023-01 | 中英 | 小说 | ckpt | ChatRWKV | BlinkDL | RNN | Blog | Apache-2.0 license |
完结!
标签:7B,模型,2023,开源,调查报告,ckpt,LLaMA,Decoder,商用 From: https://www.cnblogs.com/Im-Victor/p/17532318.html