首页 > 其他分享 >Dify 加入更多国内外优秀模型,轻松调用 Llama2、ChatGLM 等热门开源模型

Dify 加入更多国内外优秀模型,轻松调用 Llama2、ChatGLM 等热门开源模型

时间:2023-08-17 11:03:49浏览次数:41  
标签:千问 Dify 通义 模型 Llama2 开源 7B

Dify 的朋友们,

不少细心的网友在周末的时候就已经发现了我们产品上的更新 -- 模型供应商上新增了一大批新模型,这也是很多朋友翘首以盼的版本-- V0.3.13。

此前 Dify 已经陆续支持了全球前列的模型优秀代表:OpenAI 的 GPT 系列、Anthropic 的 Claude 系列、Azure OpenAI 系列。本次更新,让大家可以轻易使用上国内外知名的开源模型如:Llama2、ChatGLM、百川Baichuan、通义千问-7B 等,凡托管在 Hugging Face 及 Replicate 上的模型,在 Dify 上只需要输入 Hugging Face 、 Replicate 的 API token 和模型名称就可以轻松接入调用。 同时,我们与国内数家模型厂商达成了友好的上下游合作,讯飞星火、MiniMax、文心一言、通义千问都已在本批次接入。(我们还为 Dify 的朋友们争取到部分模型厂商的 token 体验额度,申请通道详见下文。)

Dify 加入更多国内外优秀模型,轻松调用 Llama2、ChatGLM 等热门开源模型_llama2

轻松调用 Llama2 、ChatGLM 、Baichuan 等开源模型

Dify 支持模型托管和部署平台 Replicate 和 Hugging Face 上所有的模型, Llama2、ChatGLM、百川 Baichuan、通义千问-7B 等你都可以轻松调用,快速构建性能优异且多样化的 AI 应用。

以部署托管在 Replicate 上的 Llama2 为例,来看看如何在 Dify 上调用开源模型吧!

点击查看视频

建立安全、合规可控的模型阵地

国内用户更关注的是模型的合规可控性,无疑国内闭源商用模型是最优选择。Dify 已接通国内闭源商用模型如文心一言、讯飞星火、MiniMax、通义千问,这些模型在安全性和价值观上更符合国情,满足合规审查和企业对可控性的需求。

以百度文心一言为例,用户在 Dify 用该模型创建应用时,关于“敏感词”的合规性问题会得到很好的处理:

Dify 加入更多国内外优秀模型,轻松调用 Llama2、ChatGLM 等热门开源模型_llama2_02

但由于目前国内模型暂无法开放大规模商用,所以我们与其中部分模型厂商深度沟通合作,给 Dify 用户争取到讯飞星火、MiniMax 分别 300 万、100 万的 token 体验额度,建议提前探索评测,选定适合自己业务的模型,大规模开放后即可在 Dify 上创建安全合规的 AI 应用。

如何申请体验额度? 通过 Dify 设置 --> 模型供应商 --> 讯飞星火或 MiniMax 图标处点击【免费获取】:

  • 讯飞星火:免费领取 300 万 token,需要从 Dify 的入口进入,完成讯飞星火开放平台的注册,返回 Dify 静候 5 分钟即可在 Dify 页面体现可用额度(仅限未注册过讯飞星火的手机号)。
  • MiniMax:免费领取 100 万 token,只需点击【免费领取】即可到账额度,无需手动注册流程。

Dify.AI 探索不同模型潜力

快速切换,测验不同模型的表现。 基于 Dify 上集成的 LLMs,你可以在应用制作的页面下快速切换不同模型,仅需几分钟就可以迅速评估在特定场景下各个模型的具体表现,这可以帮助你基于测试结果做出更明智的模型选择,获取最佳体验。

点击查看视频

降低模型能力对比和选择的成本。 过去,当你需要探索不同模型的能力边界,你需要逐个去研究不同模型的性能、不断调整不同模型的不同参数等,投入大量时间和精力。而现在基于 Dify ,你只需要在应用的模型选择器中点击切换即可实现不同模型能力的反馈和对比。另外,Dify 已对各模型进行了预调优,设定最佳系统 Prompt ,简化复杂的参数设置。你无需学习各模型的使用细节,直接在 Dify 上选择并得出最优模型方案。这极大降低了模型选择和调优的门槛,让你更加高效地构建 LLM 应用。

选择使用哪个大型语言模型?

今年层出不穷的模型和迭代速度让人眼花缭乱,在模型的选择上,部署成本、训练成本、推理性能、模型能力表现等方面都起着重要的影响。下面我们根据各大专业机构的评测与官方信息,总结几个热门开源/闭源模型的能力适用情景特点供大家参考:

百花齐放的开源模型

  • Llama2:众所周知,Meta 出品的 Llama 是开源模型的“鼻祖”,在其模型能力表现上甚至超过了 GPT-3 ,但遗憾的是不能商用。但前不久 Meta 又发布的 Llama 2 系列,不仅允许了商业化使用,任何企业、个人开发者都能将其用在商业用途,且在网络规模、训练数据量和模型架构上都有显著提升,相比之前的 Llama 1 ,Llama 2 在预训练数据量上增加了 40%,达到了 2 万亿个语言单元。同时,输入文本长度也扩大一倍,到达 4096 个词元。这使得 Llama 2 更适合处理长序列语言建模任务。
  • ChatGLM:清华技术成果转化的公司智谱 AI 推出了 GLM 系列的中英双语对话模型 ChatGLM-6B ,拥有 62 亿参数,支持消费级显卡上的推理。该模型在 1T 的中英双语标识符训练基础上,通过多种技术进行优化,虽然由于模型容量较小,模型记忆和语言能力较弱,但胜在降低了部署门槛、提升了效率。 ChatGLM2-6B 是部署在 hugging face 上的第二代版本,在保留了初代模型对话流畅、部署门槛较低等众多优秀特性的基础之上,ChatGLM2-6B 通过升级模型、扩展上下文、优化推理和开放协议,实现了性能、效率与兼容性的全面提升。
  • 百川 Baichuan:百川大模型是由百川智能公司自主研发的大语言模型,其中 7B 和 13B 提供开源版。Baichuan-7B 是在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,而 Baichuan-13B 采用更大规模参数与训练数据,同时开源预训练与对齐版本,推理更高效,且开源免费可商用。 据官方透露,百川即将在下个月上线闭源商用模型 53B 版本,提供在线体验平台和 API ,官网已提供了内测入口。
  • 通义千问-7B:阿里云在 8 月 3 日开源了 7B 参数模型:通义千问-7B ( Qwen-7B ),这是阿里云研发的通义千问大模型系列的 70 亿参数规模的模型,在 hugging face 上一跃成为热度仅次于 Llama2 的文本生成型模型。Qwen-7B 是基于 Transformer 的大语言模型,在超大规模的预训练数据上进行训练得到。预训练数据类型多样,覆盖广泛,包括大量网络文本、专业书籍、代码等。丰富的预训练资源为 Qwen-7B 模型提供了坚实的知识基础,使得 Qwen-7B 在各类任务上的适应性非常强,无论是对话、文本生成还是问答,都能取得较好的效果。

专业评测验证国产模型实力

对于国产模型,我们查阅了新华社研究院对主流大模型发布的《人工智能大模型体验报告》。测试采用模块化设题的方法设计客观题和主观题,从模型回答的可用性、语义准确度、逻辑清晰度、创新性等方面与 ChatGPT4 、ChatGPT3.5 进行对比打分:

Dify 加入更多国内外优秀模型,轻松调用 Llama2、ChatGLM 等热门开源模型_API_03

整体上国产大模型相较于 ChatGPT ,在基础能力、智商测试、情商测试、工作提效上都有不俗的表现。再来看看更具体的分析:

Dify 加入更多国内外优秀模型,轻松调用 Llama2、ChatGLM 等热门开源模型_讯飞_04

  • 文心一言在语言理解和生成能力方面表现突出,对文本语义的处理达到较高水平;
  • 通义千问在知识图谱构建和常识问题处理上优势明显,知识系统较为全面;
  • 讯飞星火的语言表达和语义组织能力较强,生成的语句通顺流畅;
  • ChatGLM 模型在完成智能助理等实际工作的效果较好,可胜任各类智能问答和写作任务。

当然,不同评测机构的评测角度稍有不同,具体落地使用更重要的是结合业务情景本身来选择,在 Dify 上你可以基于你的业务数据来测试不同模型的表现,选择最适合你业务的模型供应商。

除了以上模型支持,在本次版本中我们也新增了 OpenAI 的自定义 API 域名能力,支持任何兼容 OpenAI 的大模型 API 服务器。 Dify 后续还将陆续支持如 google PaLM 、百川商用版 53B 、本地微调模型等的适配接入,敬请期待。

其他更多的小特性和 bug 修复请参考 release 信息:https://github.com/langgenius/dify/releases/

如果你喜欢 Dify ,欢迎:

  • 在 GitHub 上贡献代码,与我们一同共建更好的 Dify ;
  • 通过线上线下活动、社交媒体向你的朋友们分享 Dify ,以及你的使用经验;
  • 在 GitHub 上给我们点亮⭐️

你也可以联系 Dify 小助手,加入我们的好友群聊,相互分享使用经验:

Dify 加入更多国内外优秀模型,轻松调用 Llama2、ChatGLM 等热门开源模型_llama2_05

标签:千问,Dify,通义,模型,Llama2,开源,7B
From: https://blog.51cto.com/u_16111471/7119430

相关文章

  • 华为昇腾助力大模型,算力国产化时代已来
    去年世界人工智能大会(WAIC2022)上,只有屈指可数的几家大厂推出大模型,但在科技部新一代人工智能发展研究中心5月底发布的《中国人工智能大模型地图研究报告》显示,我国10亿参数规模以上的大模型已发布79个,几乎进入“百模大战”。而中国有一半左右的大模型创新,都是由昇腾AI来支持的,开发......
  • 三维模型OSGB格式轻量化压缩点云处理技术探讨
    三维模型OSGB格式轻量化压缩点云处理技术探讨  点云是一种常用的三维模型表示方法,由于其具有高精度、高保真度、易处理等优点,因此在很多领域都得到了广泛应用。但是,点云数据的存储量通常比较大,为了使点云数据更加易于传输和处理,需要进行轻量化处理。而OSGB格式是一种常见的......
  • 三维模型OSGB格式轻量化重难点分析
    三维模型OSGB格式轻量化重难点分析   在三维模型应用中,为了适应移动设备的硬件和网络限制等问题,OSGB格式轻量化处理已经成为一个重要的技术手段。但是,在实际应用中,OSGB格式轻量化仍然存在着一些重难点问题。下面将对这些问题进行分析。1、数据压缩与性能平衡数据压缩和......
  • m基于GMDH网络模型的数据训练和分类matlab仿真
    1.算法仿真效果matlab2022a仿真结果如下:    2.算法涉及理论知识概要         GMDH神经网络的主要思想是由系统各输入单元交叉组合产生一系列的活动神经元,其中每一神经元都具有选择最优传递函数的功能,再从已产生的一代神经元中选择若干与目标变量最为接......
  • 计算机视觉智能中医(七):基于Unet模型的舌面裂纹自动分析
    此方法的具体细节与舌体分割类似,只是所用到的数据集不同!代码参照:计算机视觉智能中医(三):基于Unet模型的舌头舌体图片分割舌裂,即舌面裂纹。在中医诊断中健康人群的舌面看起来比较光滑,而舌体上出现各式各样的裂纹往往预示着患有一些疾病。舌裂的提取非常困难,舌面上的裂纹色值与普通......
  • Matlab蛇群算法(SO)优化双向长短期记忆神经网络的数据分类预测,SO-BiLSTM分类预测,多输
    ✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。......
  • Matlab麻雀算法(SSA)优化双向长短期记忆神经网络的数据分类预测,SSA-BiLSTM分类预测,多
    ✅作者简介:热爱科研的Matlab仿真开发者,修心和技术同步精进,matlab项目合作可私信。......
  • 通用与垂直大模型之战:大模型驱动的商业智能变革之路
    科技云报道原创。是做通用大模型还是垂直大模型,这一个争论在“百模大战”的下讨论愈发热烈。目前,以微软、谷歌、百度、阿里等为代表的发力于通用大模型的科技大厂,也都开始推动大模型在垂直领域的商业化落地。比如说,微软和谷歌已将大模型技术融入操作系统、文档、搜索和邮件等产品中......
  • GIC入门(一):中断类型,状态转换,中断路由,安全模型
    GIC是ARM的通用中断处理器,和ARMCortex-A和Cortex-R系列CPU搭配使用,M系列使用NVIC(nestedvectoredinterruptcontroller)。本篇文章介绍GICV3、V4的一些基本概念:中断类型,状态转换,中断路由,安全模型 1.InterrupttypesSPI:sharedphripheralinterrupt,可以设置为被所有PE处......
  • 多文件上传控件uploadify介绍
    在很多场合下,会用到文件的批量上传功能,这个对需要上传多个照片,图片或者文档的人来说,会省不少事情。而普通的id下面的file控件只能支持单个文件的上传,这个确实比较弱。所以介绍一种可以上传多个文件的js控件:基于jquery的uploadify。它结合了ajax和flash,实现了这个多线程上传的功能......