首页 > 其他分享 >GPT-4o mini登顶大模型竞技场,奥特曼:两个月内微调免费

GPT-4o mini登顶大模型竞技场,奥特曼:两个月内微调免费

时间:2024-07-29 11:25:18浏览次数:10  
标签:Function mini AI 模型 LangChain Calling 4o GPT 奥特曼

近年来,大型语言模型(LLMs)如GPT-4的发展极大地推动了自然语言处理(NLP)领域的进步。这些模型在内容生成、语言翻译和对话系统等多个应用中展示了其强大的能力。然而,传统语言模型的局限性在于它们只能进行语言生成,无法与外部系统、API或自定义函数进行交互。本文将介绍如何通过Function Calling和LangChain技术架构,将LLMs与业务系统连接,探索其在实际业务流程中的应用和价值。

一、大型语言模型的概述
1.1 LLMs的定义与发展

LLMs通过训练海量数据生成高级语言模型,从最初的GPT-3到如今的GPT-4,这些模型在理解和生成自然语言文本方面取得了显著进步,被广泛应用于自动化内容创作、聊天机器人、语言翻译等多个领域。

1.2 传统LLMs的局限性

尽管LLMs在语言生成方面表现出色,但它们的局限性也非常明显。传统的LLMs无法获取实时数据,也不能与外部系统进行交互,这限制了它们在复杂业务场景中的应用。

二、Function Calling与LangChain的概念与机制
2.1 什么是Function Calling?

Function Calling是一种使LLMs能够与外部系统、API或自定义函数进行交互的新兴技术。通过解析用户请求并自动选择和调用适当的外部功能,Function Calling实现了更复杂和动态的交互。

2.2 什么是LangChain?

LangChain是一种用于构建和管理复杂语言模型应用的框架。它提供了模块化和可扩展的架构,使开发者能够轻松集成多种功能和服务,从而增强LLMs的能力。

2.3 Function Calling与LangChain的结合

将Function Calling与LangChain结合,可以实现LLMs与业务系统的无缝对接。Function Calling负责解析和执行请求,LangChain提供框架和工具,以便管理这些交互过程。

三、Function Calling+LangChain的技术架构
3.1 技术架构概览

技术架构包括以下几个核心组件:

  • 用户接口层:通过自然语言输入需求(prompt),用户与业务系统(应用)交互。

  • 解析与路由层:利用Function Calling解析用户请求,并确定所需的外部功能。

  • 功能调用层:通过LangChain框架管理和执行具体的功能调用。

  • 数据处理层:处理和分析从外部系统获取的数据。

  • 结果反馈层:将处理后的结果反馈给用户。

3.2 解析与路由

用户通过自然语言输入需求,Function Calling模块解析请求内容和意图,并确定所需的外部功能或API。LangChain框架则负责管理这些解析过程,确保请求被正确路由到相应的功能模块。

3.3 功能调用与数据处理

在功能调用层,LangChain通过预先设定的接口,选择并调用相关外部功能。外部系统返回数据后,数据处理层进行处理和分析,将结果转换为自然语言反馈给用户。例如,模型可以将复杂的金融数据分析结果生成简明的投资建议报告。

3.4 结果展示与交互

结果反馈层通过用户友好的界面展示处理结果,用户可以进一步与模型进行交互,提出新的请求或调整需求,从而实现连续、动态的交互流程。

3.5代码示例

`import openai``import os``import tiktoken``# 加载 .env 文件``from dotenv import load_dotenv, find_dotenv``from langchain.prompts import PromptTemplate``from langchain.llms import OpenAI``from langchain.chains import LLMChain``from langchain.chains import LLMRequestsChain``#from langchain.chat_models import AzureChatOpenAI``from langchain.chat_models import ChatOpenAI #直接访问OpenAI的GPT服务``   ``_ = load_dotenv(find_dotenv())``# 从环境变量中获得你的 OpenAI Key和配置URL``openai.api_key = os.getenv('OPENAI_API_KEY')``openai.api_base = os.getenv('OPENAI_API_URL')``model = os.getenv('OPENAI_API_MODEL')``   ``   ``   ``llm = ChatOpenAI(model_name=model, temperature=0) #直接访问OpenAI的GPT服务``#llm = AzureChatOpenAI( model_name=model, temperature=0, max_tokens=200) # 通过Azure的OpenAI服务``#根据查询的结果结果返回给大模型,大模型再组装后进行返回``def query_baidu(question):`      `template = """Between >>> and <<< are the raw search result text from web.`      `Extract the answer to the question '{query}' or say "not found" if the information is not contained.`      `Use the format`      `Extracted:<answer or "not found">`      `>>> {requests_result} <<<`      `Extracted:"""``   `      `PROMPT = PromptTemplate(`          `input_variables=["query", "requests_result"],`          `template=template,`      `)``   `      `inputs = {`          `"query": question,`          `"url": "http://www.baidu.com/s?wd=" + question.replace(" ", "+")`      `}`      `requests_chain = LLMRequestsChain(llm_chain = LLMChain(llm=llm, prompt=PROMPT), output_key="query_info", verbose=True)`      `res = requests_chain.run(inputs)`      `return res``   ``#python 程序入口``if __name__ == "__main__":`   `print(query_baidu("今天长沙的天气?"))`   

四、Function Calling+LangChain的应用场景
4.1 实时数据获取与处理

在金融市场分析中,Function Calling+LangChain架构可以帮助模型实时获取市场数据,进行分析并提供最新的投资建议。在新闻与信息监控中,模型可以实时跟踪热点事件,提供及时的信息更新。

4.2 业务流程自动化

在客户服务和支持方面,通过与客户关系管理系统的交互,模型可以自动处理客户查询,提高客户满意度。此外,作为自动化办公助手,模型可以处理日常的办公任务,如安排会议、发送邮件等,提高工作效率。

4.3 复杂决策支持

在智能推荐系统中,Function Calling+LangChain架构可以根据用户的实时数据和偏好,提供个性化的推荐。在供应链管理中,模型可以与供应链系统进行交互,优化库存管理和物流安排,提升整体运营效率。

五、Function Calling+LangChain的优势与挑战
5.1 优势分析

Function Calling与LangChain的结合,使得LLMs不仅限于语言生成,而是能够参与到实际的业务流程中。通过实时获取和处理数据,模型的实用性和应用范围得到了极大的提升,增强了与用户的交互能力。

5.2 面临的挑战

尽管Function Calling与LangChain架构带来了诸多优势,但也面临一些挑战。首先是安全与隐私问题,如何确保数据的安全传输和存储是一个重要课题。其次,技术实现的难度较高,需要投入大量的资源和精力。此外,该架构的实现也涉及到较高的成本,需要企业在预算和资源分配上做出合理的规划。

六、未来展望
6.1 技术趋势预测

随着技术的不断发展,Function Calling与LangChain的结合将变得更加智能和高效。未来,我们可以预见到更多跨领域的应用,模型将能够在更多复杂的场景中提供解决方案。

6.2 对企业与个人的影响

Function Calling与LangChain架构将推动企业的数字化转型,提升企业的运营效率和竞争力。同时,个人用户也将从中受益,获得更高效的生产力工具,改善工作和生活方式。

总结

Function Calling与LangChain架构为LLMs的发展带来了新的契机,使其能够超越纯粹的语言生成能力,参与到实际的业务流程和复杂决策中。通过这一技术架构,LLMs的应用范围得到了极大的扩展,为企业和个人带来了更多的价值。未来,我们期待看到更多企业和开发者利用这一技术,实现业务的创新和发展。

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

[](https://blog.csdn.net/python1234567_/article/details/138673993?ops_request_misc=&request_id=&biz_id=102&utm_term=%E5%A4%A7%E6%A8%A1%E5%

刚刚,GPT-4o mini版迎来“高光时刻”——

登顶了lmsys大模型竞技场,和满血版并列第一,还把Claude 3.5甩在了身后。

图片

不同于一般的数据集测评,大模型竞技场是用户自己出题、用脚投票的结果,无法通过“刷题”来走捷径,因此更为真实。

这个成绩一出,连CEO奥特曼都激动起来了:

面对评估成绩,我们本来是尽量矜持的,但是看到GPT-4o mini表现和满血版一样,价格却只有1/20,内心还是很激动。

图片

网友看到之后表示OK,但更关心的还是GPT-4o发布会上演示的“Her”到底啥时候上线。

图片

与此同时,OpenAI也送来了另一个好消息,将为开发者送出福利——

GPT-4o mini的微调将逐步开放,目前已开放给tier 4和tier 5用户,然后会陆续扩展范围。

而且从即日起到9月23号,每天都能免费使用2百万的训练token

图片

mini与满血版平起平坐

经过80多款模型上百万轮的1v1比拼,GPT-4o mini在lmsys榜单上的成绩与满血版只差7分。

按照lmsys榜单的排法,这7分的差距没有影响名次,把两个型号算作了并列第一。

紧随其后的是Claude 3.5和Gemini家族,还有GPT-4的另外两个版本。

图片

如果我们查看GPT-4o mini的原始数据,会发现它0.6的平均胜率仅次于满血版本。

图片

单独看两者比拼的结果,同样是打得不相上下。

图片

之所以lmsys的成绩受到关注,在于它拥有一套独特的比拼方式——

不用数据集,而是让用户自己出题,随机拉两个模型1对1battle,然后选择哪个模型表现更好。

在给出选择之前,模型是匿名的,用户也不知道是哪两个模型正在比拼,如果模型自己说漏嘴则投票无效。

图片

这样得到的分数更加真实,既避免了“刷题”获取虚高分数的可能,也更加接近用户体验。

这个大模型竞技场,最近还登上了机器学习顶会ICML2024

图片

而且,lmsys的评测也非常受OpenAI的青睐,GPT-4o mini正式上线之前的早期版本,就曾化名为gpt-mini在其中打榜。

当时就已经排行第4,和GPT4-Turbo处在同一水平。

图片

更早一些,GPT-4o上线之前也是化名gpt2-chatbot,在lmsys上搞起了测试。

图片

不过也有人提出质疑,表示虽然GPT-4o mini表现确实很好,但是要说它超过了Claude 3.5 sonnet就有些言过其实了。

图片

有人更是直言,lmsys方法的完善性已经开始瓦解,需要做出改变,否则将不再是一个有用的测试基准。

图片

“小模型”也卷起来了

mini版本的推出,主打的就是一个性价比。

每百万输入/输出tokens,价格分别为15美分和60美分(约1.09/4.36人民币),甚至还不到3.5 Turbo的一半。

图片

如果和两年前GPT-3的text-davinci-003版(当时最好的模型)相比,价格更是下降了99%。

而且除了把小模型开放给用户,OpenAI还搞出了新鲜玩法——

“超级对齐”团队的一篇遗作中,使用了参数量为大模型千分之一或百分之一的小模型,来对大模型进行优化。

实验中,大小两个模型相互“博弈”,大模型需要不断优化调整自己的输出,让小模型相信自己说的是真话。

在这个“博弈”的过程中,大模型的能力得到了提升,在精度没有明显损失的情况下获得了大幅度的可理解性提升。

图片

除了OpenAI,其他公司也都纷纷搞起了小模型。

比如在GPT-4o mini之前,谷歌和Anthropic就分别推出了Gemini Flash和Claude 3-Haiku。

甚至可以说,GPT-4o mini就是OpenAI对两家的反击,无论是性能还是价格都超越了这两个模型。

图片

在GPT-4o mini发布的同一周,抱抱脸Hugging Face,以及“欧洲OpenAI”Mistral都相继推出了小号模型。

甚至苹果也推出了自己的7B模型,而且一次性开源了全部训练过程和资源。

总之,在性能足以满足使用需求的前提下,小模型无疑是一种更经济实惠的选择。

同时,更小的规模也意味着有可能在端侧运行,在隐私保护等方面显现出优势。

这样就不难理解,“小”模型为什么也越来越卷了。

参考链接:
[1]https://x.com/sama/status/1815877987696533897/
[2]https://x.com/OpenAIDevs/status/1815836887631946015

如何学习AI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!

img

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。

img

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

img

四、AI大模型商业化落地方案

img

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

本文转自 https://blog.csdn.net/m0_59164304/article/details/140534104?spm=1001.2014.3001.5501,如有侵权,请联系删除。

标签:Function,mini,AI,模型,LangChain,Calling,4o,GPT,奥特曼
From: https://blog.csdn.net/chengxuyuanyy/article/details/140766936

相关文章

  • Windows安装MinIO
    官方文档1.安装MinIO服务器下载MinIO可执行文件:https://dl.min.io/server/minio/release/windows-amd64/minio.exe下一步包括运行可执行文件的说明。不能从资源管理器或双击文件来运行可执行文件https://www.minio.org.cn/download.shtml#/windows2.启动minioserver......
  • GPT-4o mini 震撼登场:开发者的新机遇与挑战
    GPT-4omini震撼登场:开发者的新机遇与挑战一、引言二、GPT-4omini模型的卓越性能三、极具竞争力的价格优势四、开发者的探索与实践五、提升开发效率和创新能力的策略六、面临的挑战与应对措施七、未来展望八、总结在科技的浪潮中,OpenAI最新推出的GPT-4omini模......
  • miniconda安装
    1.miniconda安装1.Python应用经常需要使用一些包第三方包或者模块,有时需要依赖特定的包或者库的版本,很多时候不同的Python应用所依赖的版本是冲突的满足了其中一个,另一个则无法运行,解决这一问题的方法就是虚拟环境。虚拟环境是一个包含了特定Python解析器以及一些软件包的自......
  • GPT-4o Mini登顶大模型竞技场,奥特曼:两个月内微调免费
    近日,GPT-4oMini版迎来了“高光时刻”——它在lmsys大模型竞技场中登顶,与满血版并列第一,把Claude3.5甩在了身后。不同于一般的数据集测评,大模型竞技场是用户自己出题、用脚投票的结果,无法通过“刷题”来走捷径,因此更为真实。这个成绩一出,连CEO奥特曼都激动起来了:......
  • 松灵机器人scout mini小车 自主导航(4)——运行lio-sam建图
    松灵机器人Scoutmini小车运行lio-sam在之前的工作中,我们已经实现了用小车搭载传感器,采用gmapping建图和navigation导航实现小车在2D环境中自主导航,但是实际我们采用的激光雷达多为三维激光雷达。因此决定采用lio-sam来建图。具体操作步骤如下。1.下载雷达仿真1.1下载激光雷达......
  • LeetCode 2976 Minimum Cost to Convert String I
    MinimumCosttoConvertStringIProblemDescriptionYouaregiventwo0-indexedstrings,sourceandtarget,bothoflengthnandconsistingoflowercaseEnglishletters.Youarealsoprovidedwithtwo0-indexedcharacterarrays,originalandchanged,a......
  • 从零开始使用GPT-4o mini:配置、微调与优化
    引言随着人工智能技术的不断发展,OpenAI推出的GPT-4omini模型吸引了众多开发者的关注。作为一种更经济实惠且高效的语言模型,GPT-4omini在多模态推理和成本效益方面表现出色。本篇文章旨在分享使用GPT-4omini的经验,从初始设置到性能优化,涵盖各个应用场景,并提供实际的开发建议......
  • 【深海王国】小学生都能玩的单片机!番外1:Arduino家族Uno-Mega-Nano-Pro Mini-ATtiny85
    Hi٩(๑^o^๑)۶,各位深海王国的同志们,早上下午晚上凌晨好呀~辛勤工作的你今天也辛苦啦(o゜▽゜)o☆今天大都督继续为大家带来单片机的番外系列——小学生都能玩的单片机!番外1带你快速学习认识Arduino家族:Uno、Mega、Nano、ProMini、ATtiny85,了解它们的使用场景与优......
  • Minirobot 双足舞蹈机器人
                                            MF-17ST机器人 产品介绍MF-17ST机器人是一款高度灵活的仿人机器人,它拥有17个自由度,能够精确地模仿人类的基本动作,如行走、转身、弯腰、单腿站立、......
  • 仅当 Minicom 在 macOS 上运行时,与 Arduino 的串行通信才有效
    我的macOS系统和Arduino设备之间的串行通信遇到问题。除非minicom正在运行,否则我的Rust和Python脚本都无法向Arduino发送消息。下面是问题的详细描述:问题总结环境:macOS(mac硅胶M3max)、Arduino、Rust、Python串口:/dev/cu.usbmodem101波特率:9......