首页 > 编程语言 >零成本、无编程,GLM-4-Flash免费API发布,算法工程师嗨翻了!!!

零成本、无编程,GLM-4-Flash免费API发布,算法工程师嗨翻了!!!

时间:2024-08-28 12:22:10浏览次数:9  
标签:微调 GLM 训练 模型 Flash API

作为一名资深NLP算法工程师,大模型在日常工作中扮演了非常重要的角色,辅助处理很多工作。但是,大模型的使用非常麻烦:

  1. 主流大模型通过网页对话方式交互,手工输入Promt,通过对话的方式获取结果,长度有限且非常不方便。

  2. 资源有限,市面上很少大模型API资源可供使用,并且都是收费的。

今天一位从事大模型的老同学跟我说:“智谱AI BigModel开放平台的GLM-4-Flash大模型含API全部免费开放了,支持处理高达128K上下文,主要支持个人使用,每个新用户免费支持2个并发。”

这简直是打工人狂喜,更让我震惊的是“这次活动还开放了GLM-4-Flash免费微调活动,开放2000名500万token的免费训练资源;可以微调的GLM-4-Flash模型权重下载本地,部署到其他平台”。我赶紧上BigModel开放平台搜索GLM-4-Flash模型及其使用方式。

GLM-4-Flash是什么

GLM-4-Flash采用了10TB的高质量多语言训练数据和FP8技术加速模型训练,海量数据、高效训练加之小体量赋予GLM-4-Flash功能强大,主要体现在:

  1. 强大基础能力:GLM-4-Flash基于智谱最新GLM-4训练的极速大语言模型。

2. 推理性能强:支持最大128K的上下文推理和多语言处理能力。

3. 极速推理:生成速度72.14token/s,约等于115字符/s。

GLM-4-Flash可以用于智能对话助手、辅助论文翻译、ppt及会议内容生产、网页智能搜索、数据生成和抽取、网页解析、智能规划和决策、辅助科研等丰富场景。

GLM-4-Flash体验

对于NLP码农而言,大模型可以用于日常数据抽取,如实体识别、关键词抽取等构造训练数据,英语文献辅助阅读,脚本及模型代码生成,模型优化建议等等。下面我将选择几个日常任务,使用GLM-4-Flash网页端和Python API分别体验下效果。

任务1:学术论文翻译

图片

任务2:编码能力:C语言实现Transformer的网络结构。

任务3:模型优化:对transformer网络结构进行优化,并给出c代码实现。

任务4:信息抽取:

图片

网页端使用

BigModel开放平台提供网页端体验地址:https://open.bigmodel.cn/console/trialcenter?modelCode=glm-4-flash

通过对话的方式,直接输入指令获取结果,测试结果如下方视频。

,时长01:27

从网页端体验结果看,GLM-4-Flash模型响应速度非常快,刚输出指令就开始生成结果。英文翻译结果的质量非常高。代码生成能力这块非常强,先介绍了Transformer结构,然后分模块想写给出了模型网络结构的c语言实现结果;对网络结构也给出了常见优化方式,并选择其一给出了详细结构实现,对于日常工作中模型代码开发非常具有启发意义。

Python API调用

BigModel开放平台所有模型都提供了API的调用方式,仅需1行代码就可以完成对模型的调用,非常方便。

我这里调用的代码如下:

图片

api_key替换成自己的,对应的Prompt替换成对应的指令就可以了,API调用的结果如下视频:

,时长00:49

从上视频可以看到,API的调用非常方便,反应速度非常快,效果和网页端结果是对齐的,可以方便将模型嵌入各种后台开发系统中,整体体验非常顺滑。

GLM-4-Flash微调“NLP算法助手”大模型

大模型微调非常重要,本次活动还开放了GLM-4-Flash微调活动,我也尝试微调了一个“NLP算法助手”发模型。大模型使用过程中,经常需要加入企业独有的场景数据,对平台的基础模型进行微调。微调模型可以快速得到符合业务场景需求的专属大模型,相比训练新模型高效且低成本。

但本地化微调非常麻烦,因为:

1、环境复杂:需要配置负责的开发环境,安装一些列开发包和插件。

2、成本高:大模型都比较大,模型下载、预训练和部署对网速和机器内存和计算资源要求较高。

3、预训练和部署代码开发复杂:预训微调和和部署时数据预处理、加载、调参、预训练、模型评估、模型加载保存等代码开发。

BigModel开放的GLM-4-Flash微调非常简单,仅需3步,无需额外代码开发,无需额外环境配置,即可完成模型微调和部署,体验非常好。浏览器打开BigModel微调的页面:https://open.bigmodel.cn/console/modelft/finetuning,模型微调分为3步:准备训练数据、创建微调任务、使用微调模型。支持LoRA少量参数微调和全参微调两种方式,官方给出了详细的模型微调使用指南:https://open.bigmodel.cn/dev/howuse/finetuning。

图片

1. 创建数据集

点击页面“上传数据集”跳转到训练数据上传页面。

图片

点击右上角的“创建数据集”按钮,上传处理成指定格式的数据集,格式可参考官方文档,离线处理成指定jsonl格式。我这里创建NLP领域知识数据格式如下,保存train.jsonl:

图片

跳转到数据创建页面,添加数据描述,点击上传本地处理好的训练数据。

图片

点击“确认创建”就完成了。

图片

2. 创建微调任务

完成数据集创建之后,点击左侧“创建任务”回到任务微调主界面,点击step-2创建新任务。

图片

选择无模板微调,跳转到微调任务配置界面。

图片

选择需要微调的模型GLM-4-Flash,选择刚刚上传的NLP领域数据集,配置好新模型的名字和描述;根据需求选择微调的方式以及对应超惨配置,点击“确认创建”就完成微调任务创建。界面会自动跳转到模型微调的界面,如下图:

图片

可以看到模型微调的状态以及预计训练完成的时间,只需等待一段时间模型训练完成。单击任务跳转到任务训练详情页。

图片

可以看到模型微调具体日志,训练及验证的loss和学习率等数据。

3. 模型部署

在微调任务界面,点击任务末尾的三个“...”号

图片

点击“部署模型”跳转到模型部署配置页面。

图片

选择模型业绩并发数,点击“确认创建”就完成了模型部署了。部署成功后将生成新的私有部署后微调模型卡片,您可以在「模型广场」卡片内或在「私有实例」页面详情页查看模型编码进行调用。

部署完整之后,就可以通过API请求私有模型了,如下:

图片

填写自己私有的api_key,将模型名字替换成私有模型名就可以了,cmd环境执行代码获取结果。

图片

通过api的方式,可以方便将私有大模型嵌入到各种应用场景。

使用GLM-4-Flash微调和部署自己的专属大模型,省去很多开发和部署的时间,可以空出更多的时间优化业务的数据,提升预训练模型的效果,加速自己的业务产出以获得更高业务回报。

最后附上GLM-4-Flash免费API获取链接:点击“阅读原文”或链接https://zhipuaishengchan.datasink.sensorsdata.cn/t/fA

阅读原文

标签:微调,GLM,训练,模型,Flash,API
From: https://blog.csdn.net/AIBigModel/article/details/141607816

相关文章

  • 电商API接口能解决什么问题?
    电商API接口能帮您解决多种与电商业务相关的问题,主要包括:商品信息获取:获取商品的详细信息,包括价格、库存、规格、描述、图片等。订单管理:创建、查询、修改订单,处理订单状态,包括发货、取消、退货等。库存管理:实时更新库存信息,确保库存数据的准确性。用户管理:获取用户信息,管理用......
  • RapidCMS 几个常见漏洞
    侵权声明本文章中的所有内容(包括但不限于文字、图像和其他媒体)仅供教育和参考目的。如果在本文章中使用了任何受版权保护的材料,我们满怀敬意地承认该内容的版权归原作者所有。如果您是版权持有人,并且认为您的作品被侵犯,请通过以下方式与我们联系:[[email protected]]。我们将在确......
  • js练习--用户管理API
    需要node.js运行环境,创建2个文件:user.js,server.jsuser.js:letusers={};module.exports=users;server.js:consthttp=require('http');//导入user模块letusers=require('./user');//创建HTTP服务器constserver=http.createServer((req,res)=......
  • 使用FastAPI来开发项目,项目的目录结构如何规划的一些参考和基类封装的一些处理
    使用FastAPI开发项目时,良好的目录结构可以帮助你更好地组织代码,提高可维护性和扩展性。同样,对基类的封装,也可以进一步减少开发代码,提供便利,并减少出错的几率。下面是一个推荐的目录结构示例:my_fastapi_project/├──app/│├──__init__.py│├──main.py......
  • 使用Python进行Mock测试详解(含Web API接口Mock)
    使用Python进行Mock测试详解(含WebAPI接口Mock)在软件开发过程中,单元测试是非常重要的一部分。为了确保代码的质量和可靠性,开发者需要编写测试用例来检查代码的行为是否符合预期。然而,在测试中有时会遇到一些难以直接测试的情况,例如依赖外部系统、数据库或网络服务等。在这......
  • Express+MySQL+Sequelize实作API
    本文章为观看哔站视频Express+MySQL+Sequelize实作API所作随笔,边敲代码便跟学......
  • GLM-4-Flash 大模型API免费了,手把手构建“儿童绘本”应用实战(附源码)
    老牛同学刚刷到了一条劲爆的消息,GLM-4-Flash大模型推理API免费了:https://bigmodel.cn/pricing老牛同学一直觉得上次阿里云百炼平台为期1个月免费额度的“羊毛”已经够大了(太卷了,阿里云免费1个月大模型算力额度,玩转Llama3.1/Qwen2等训练推理),但经过老牛同学在智谱AI官网......
  • 实战案例三:异步操作FastAPI
    FastAPI框架安装pip3installfastapipip3installuvicorn(asgi内部基于uvloop)示例:luffy.py#!/usr/bin/envpython#-*-coding:utf-8-*-importasyncioimportuvicornimportaioredisfromaioredisimportRedisfromfastapiimportFastAPIapp=FastAPI()......
  • Java三网手机号实名认证接口、实名认证API调用
    翔云手机号实名认证服务接口,可快速核查上传手机号、姓名、身份证号与权威数据库信息是否一致,支持对移动、联通、电信三大运营商手机号核验,支持批量核验多个手机号,接口集成,简便高效Java手机号实名认证接口集成代码示例:packagecom.test;importokhttp3.;importorg.jso......
  • Capital许可分配策略
    在数字化浪潮席卷全球的今天,软件许可管理已成为企业运营不可或缺的一环。Capital许可分配策略,作为业界领先的解决方案,旨在帮助企业实现智能管理、优化资源,进而提升整体运营效率。一、什么是Capital许可分配策略?Capital许可分配策略是一种基于企业实际需求的软件许可分配方案。它......