首页 > 其他分享 >AppFlow上新——智谱ChatGLM轻松接入聊天

AppFlow上新——智谱ChatGLM轻松接入聊天

时间:2024-03-28 11:14:33浏览次数:36  
标签:AppFlow 机器人 选择 点击 应用 ChatGLM 填写 智谱

    智谱AI 开放平台提供一系列具有不同功能和定价的大模型,包括通用大模型、超拟人大模型、图像大模型、向量大模型等,并且支持使用您的私有数据对模型进行微调。其中ChatGLM系列模型在国内也享有盛名,现在AppFlow支持了ChatGLM系列模型的接入,可以轻松实现GLM接入钉钉聊天中。
    先看效果~
image.png    目前我们支持钉钉、企业微信、飞书等多种软件,下面以钉钉为例为大家展示配置方法和流程。

步骤一:配置AppFlow连接流

  1. 访问AppFlow控制台,在点击左侧菜单栏“连接流”,选择“创建连接流”,填写当前连接流的基本信息。

image.png

  1. “选择触发事件”,找到并点击选择“钉钉机器人”,触发事件选择“收到文本消息时”,点击“保存,进入下一步”。

image.png

  1. “选择执行动作”,点击“公共连接器”,找到“智谱AI”并选择“使用prompt对话大模型”并点击“保存,进入下一步”。

image.png
image.png

  1. 点击选择凭证,并选择新建。前往智谱开放平台获取您的API KEY填入即可。

image.png

  1. 填写您设置的请求体参数。点击右侧插入变量按钮,可以应用钉钉机器人收到的消息作为参数。例如下图:

image.png
即,当前连接器的“提示词”变量应用上一个节点的“请求体-会话消息-消息内容”参数,即之后您在钉钉群@机器人发送的消息内容

  1. 填写完成后点击“image.png”配置模型推理后的消息发送回钉钉的执行动作。选择“钉钉机器人”,执行动作选择发送文本消息,点击“保存,进入下一步”进行参数配置。

image.png

  1. Webhook地址点击右侧“插入变量”,选择节点1的“会话回调地址”

image.png
“加签”在稍后创建完机器人后获取并填写,这里暂时跳过。
“本文内容”配置您的执行动作中实际代表您模型推理结果的字段,您的实际参数可能会与下图示例有所出入,按实际填写即可。
image.png

  1. 其余各项参数可按照您的实际需要填写,各参数含义可参考描述或智谱官方文档
  2. 点击保存即可完成配置。回到连接流列表,点击发布按钮连接流即可正常运行。

image.png

  1. 点击详情,进入流编辑页面,点击第一个节点的编辑按钮,可以获取调用webhook地址,请保存改地址后续在钉钉机器人配置中使用。

image.png

步骤二:创建钉钉机器人(使用Outgoing功能,更简单)

  1. 直接在需要加入机器人的群聊中进入机器人管理页面添加自定义机器人,

image.png
image.png

  1. 填写机器人基本信息。安全设置可以选择IP地址(段),并将下列IP填入。
  • 121.40.82.220
  • 47.97.73.42
  • 47.98.226.113
  • 47.96.151.112
  • 118.178.89.160
  • 120.27.202.100

您也可以选择加签方式,将生成的签名回调到AppFlow链接流——钉钉机器人入参配置中。

  1. 勾选“开启Outgoing机制”,在POST地址栏填写第一步中的Webhook地址,点击完成即可。

image.png

  1. 在群里中@机器人即可实现对话

image.png

步骤二:创建钉钉机器人(使用钉钉开放平台)

  1. 访问钉钉开放平台,联系您的组织管理员获取开发权限。然后点击创建应用。成为钉钉开发者的步骤可以参考文档https://open.dingtalk.com/document/orgapp/become-a-dingtalk-developer

image.png

  1. 选择左侧“机器人”Tab,然后点击右侧“创建应用”按钮。填写您的“应用名称”和“应用描述”,上传应用图标并点击保存。

image.png
image.png

  1. 点击保存后跳转到应用开发页面,下来当前页面到最下方选择“机器人”并点击添加。点击“机器人配置”按钮展开机器人配置信息。

image.png
image.png

  1. 填写相关必填信息。消息接收模式请选择“HTTP”模型,页面会出现“消息接收地址”输入框。在这里填写刚刚在AppFlow获取的地址。

image.png

  1. 点击调试按钮。可以钉钉扫码进群调试机器人。确认无误后点击发布。
  2. 回到应用开发页面,点击刚刚创建的应用名称进入应用详情页面。点击左侧菜单栏最下方的“版本管理与发布”,进入到版本发布与管理,点击右上角“创建新版本”按钮,输入版本相关信息,并选择合适的“应用可见范围”。

image.png
image.png
image.png

  1. 点击保存将进入权限审批环节,审批结束后应用将自动发布。如果您已经有权限了可以点击直接发布。

image.png

  1. 去您想要添加对话机器人的群里添加机器人。@机器人即可与通义千问机器人进行对话啦!

image.png

写在最后

Appflow是阿里云计算巢团队自主研发的一款应用与数据集成平台,目前开发团队已经支持了众多公共连接器,您可以尽情发挥您的想象,使用AppFlow为您免去繁琐的重复接入和开发工作,为你的工作提速提效!
更多操作指南可查看官方帮助文档~~
点击页面左侧"连接流"Tab,去创建你自己的Flow吧~
image.png

联系我们

有任何疑问或者需求或者合作意向都可以加入我们的官方支持钉钉群(群号 69295006877)~欢迎大家一起加入群聊交流,为工作和Coding提效~
image.png

标签:AppFlow,机器人,选择,点击,应用,ChatGLM,填写,智谱
From: https://www.cnblogs.com/alicloudros/p/18101114

相关文章

  • ChatGLM3在Docker环境部署
    ChatGLM3docker部署1.下载项目到本地gitclonehttps://github.com/THUDM/ChatGLM3cdChatGLM3这目录ChatGLM3下应该还需要包含chatglm3-6b-32kHuggingFace或者ModelScope,需要手动下载。2.制作Docker镜像1)配置基础的Dockerfile:#基于的基础镜像FROMpython:3.11.6......
  • (离线RAG、chatGLM3-6B)安装了fastchat:0.2.36,仍报错ModuleNotFoundError: No module nam
           在离线知识库服务(Langchain-Chatchat)本地搭建时,虽然在虚拟环境中安装了fastchat:0.2.36,但在运行时,仍报错ModuleNotFoundError:Nomodulenamed'fastchat.protocol'。              经过在网上查询,发现部署成功的案例采用的0.2.34版本的fast......
  • 使用TensorRT-LLM部署ChatGLM3
    说明:TensorRT-LLM是NVIDIA开发的高性能推理TensorRT-LLM是NVIDIA推出的一个专门用于编译和优化大语言模型推理的综合程序库。可在NVIDIAGPU上加速和优化最新的大语言模型(LLM)的推理性能。官网地址为:https://github.com/THUDM/ChatGLM3/blob/main/tensorrt_llm_demo/READ......
  • ChatGLM3
    一、安装anacondacd/data/srcwgethttps://repo.anaconda.com/archive/Anaconda3-2024.02-1-Linux-x86_64.shbashAnaconda3-2021.05-Linux-x86_64.sh-p/opt/anaconda3vim/etc/profile文件末添加下面一行 exportPATH=/opt/anaconda3/bin:$PATHsource/etc/profileconda--v......
  • 大模型应用开发:手把手教你部署并使用清华智谱GLM大模型
    部署一个自己的大模型,没事的时候玩两下,这可能是很多技术同学想做但又迟迟没下手的事情,没下手的原因很可能是成本太高,近万元的RTX3090显卡,想想都肉疼,又或者官方的部署说明过于简单,安装的时候总是遇到各种奇奇怪怪的问题,难以解决。本文就来分享下我的安装部署经验,包括本地和租用......
  • 教程|腾讯云高性能应用服务 HAI 快速搭建并使用AI模型 ChatGLM2-6B
    本次我们使用 腾讯云高性能应用服务HAI 体验快速搭建并使用AI模型 ChatGLM2-6B ,实现思路如下:1、体验 高性能应用服务HAI 一键部署 ChatGLM2-6B2、启动 ChatGLM2-6BWebUI 进行简单的对话3、开发者体验 JupyterLab 进行 ChatGLM2-6BAPI 的配置调用1、配......
  • 大模型应用开发:手把手教你部署并使用清华智谱GLM大模型
    部署一个自己的大模型,没事的时候玩两下,这可能是很多技术同学想做但又迟迟没下手的事情,没下手的原因很可能是成本太高,近万元的RTX3090显卡,想想都肉疼,又或者官方的部署说明过于简单,安装的时候总是遇到各种奇奇怪怪的问题,难以解决。本文就来分享下我的安装部署经验,包括本地和租用云......
  • 本地部署 Langchain-Chatchat & ChatGLM
     一、模型&环境介绍#1.ChatGLM#github地址:https://github.com/THUDM模型地址:https://huggingface.co/THUDM2.m3e#模型地址:https://huggingface.co/moka-ai/m3e-base/3.text2vec#模型地址:https://huggingface.co/GanymedeNil/text2vec-large-chinese/4.Lang......
  • LLM大语言模型(七):部署ChatGLM3-6B并提供HTTP server能力
    目录HighLight部署ChatGLM3-6B并开启HTTPserver能力下载embedding模型bge-large-zh-v1.5HTTP接口问答示例LLM讲了个尴尬的笑话~HighLight将LLM服务化(如提供HTTPserver能力),才能在其上构建自己的应用。部署ChatGLM3-6B并开启HTTPserver能力下载embedding模型bge-l......
  • 聊聊ChatGLM-6B医疗数据微调
    转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote/参考了多个医疗大模型,如扁鹊、灵心等,重新思考了下微调的方案以及数据集的格式;基于ChatGLM/其它LLM整合多种微调方法的非官方实现的框架,审视其数据集格式,以及调试效果,进行微调。最终基于liucongg/ChatGLM-Finetuning开......