8月20日,OpenAI推出了备受开发者期待的GPT-4o模型微调功能,开发者现在可以使用自己的数据集定制GPT-4o,以实现在特定应用场景中更高性能和更低成本的效果。
此前,OpenAI仅允许用户微调其较小的模型,如GPT-4o mini。而此次开放GPT-4o的微调功能,意味着企业可以更直接地优化OpenAI最强大的模型。
GPT-4o微调有什么好处?
- 性能提升:微调后的模型更懂行,处理特定任务时表现更出色!
- 成本降低:用更少的token就能达到更好的效果,省钱就是赚钱!
- 个性化定制:你可以调整模型的语气、风格,甚至让它按照你的要求输出特定格式的内容,实现私人定制!
使用方法也很简单,直接访问微调仪表盘,点击“Create”,然后从基本模型下拉列表中选择gpt-4o-2024-08-06。
官方还附赠一波福利:截至9月23日,每个组织每天都能免费获得100万个训练token。
OpenAI还提到,只需训练数据集中的几十个示例就可以产生良好效果。
官方特意晒出了几个成功案例,证明GPT-4o微调后有多牛逼:
第一个案例是Cosine公司的AI软件工程助手Genie,具有自主识别并代码修复、功能开发、代码重构等功能。
经过微调GPT-4o,Genie在新推出的SWE-bench Verified基准测试中获得了43.8%的SOTA分数;同时,在SWE-bench Full测试中,Genie也取得了30.08%领先成绩,远超之前的19.27%,创造了该基准测试史上最大幅度的提升。
另一个案例来自Distyl,这是一家为财富500强企业提供AI解决方案的公司,在文本到SQL基准测试BIRD-SQL中排名第一。
经过微调GPT-4o,其模型在排行榜上实现了71.83%的执行准确率,并在查询重构、意图分类、思维链和自我纠正等任务中表现出色,尤其是在SQL生成方面表现尤为突出。
据了解,企业需要将数据上传至OpenAI服务器进行模型微调,平均耗时1~2个小时。目前,微调仅支持基于文本的数据,图像等其他类型的数据暂时还不支持。
OpenAI还在公告中特意强调了数据隐私和安全问题:
- 开发者的业务数据(包括输入和输出)不会被共享或用于训练其他模型。
- 针对微调模型实施了分层安全缓解措施,例如不断对微调模型运行自动安全评估并监控使用情况。
> 免费推理API服务 <
英智LLM推理API是一个基于人工智能大语言模型的推理API服务平台,它可以帮助开发者简单灵活地使用市面上的所有人工智能大语言模型,为企业定制专属的智能化解决方案。
平台目前已 支持包括Llama 3.1、Mistral Large 2、Qwen 2等在内的主流开源大模型的最新版本,同时兼容OpenAI API。
平台优势:
- 免费注册:申请服务的免费套餐后可获取专属您的“API_KEY”,即可接入本服务来免费使用API。
- 在线使用:支持在线使用开源大模型。
- 兼容能力强:提供API调用方式,与OpenAI API接口兼容(只要支持OpenAI API的应用,都可以使用)。
- 推理速度快:基于NVIDIA高性能GPU算力,推理速度更快。
立即免费使用英智大模型API服务,请访问:https://cognihub.baystoneai.com
技术交流请加入企业微信群:英智API服务交流群
标签:模型,微调,4o,token,API,OpenAI,GPT From: https://www.cnblogs.com/ai2nv/p/18373135