首页 > 其他分享 >GPT-4o

GPT-4o

时间:2024-05-16 09:08:47浏览次数:27  
标签:模型 break 4o GPT td first

跳至主要内容  

   

2024 年 5 月 13 日

你好 GPT-4o

我们宣布推出 GPT-4o,这是我们的新旗舰模型,可以实时对音频、视觉和文本进行推理。

贡献   尝试 ChatGPT   (在新窗口中打开)在游乐场尝试   (在新窗口中打开)重新观看现场演示  

此页面上的所有视频均为 1 倍实时。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945586717" width="100%"></iframe>

猜测5月13日的公告。

GPT-4o(“o”代表“o​​mni”)是迈向更自然的人机交互的一步——它接受文本、音频、图像和视频的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,与人类的响应时间相似(在新窗口中打开)在一次谈话中。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。

模型能力

    <iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587185" width="100%"></iframe>

两个 GPT-4os 互动并唱歌。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587286" width="100%"></iframe>

面试准备。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587306" width="100%"></iframe>

剪刀石头布。

 

2024 年 5 月 13 日

你好 GPT-4o

我们宣布推出 GPT-4o,这是我们的新旗舰模型,可以实时对音频、视觉和文本进行推理。

贡献   尝试 ChatGPT   (在新窗口中打开)在游乐场尝试   (在新窗口中打开)重新观看现场演示  

此页面上的所有视频均为 1 倍实时。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945586717" width="100%"></iframe>

猜测5月13日的公告。

GPT-4o(“o”代表“o​​mni”)是迈向更自然的人机交互的一步——它接受文本、音频、图像和视频的任意组合作为输入,并生成文本、音频和图像的任意组合输出。它可以在短至 232 毫秒的时间内响应音频输入,平均为 320 毫秒,与人类的响应时间相似(在新窗口中打开)在一次谈话中。它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。与现有模型相比,GPT-4o 在视觉和音频理解方面尤其出色。

模型能力

    <iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587185" width="100%"></iframe>

两个 GPT-4os 互动并唱歌。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587286" width="100%"></iframe>

面试准备。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587306" width="100%"></iframe>

剪刀石头布。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587393" width="100%"></iframe>

讽刺。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587328" width="100%"></iframe>

与萨尔和伊姆兰·汗一起数学。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587746" width="100%"></iframe>

两个 GPT-4os 协调一致。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587424" width="100%"></iframe>

指向并学习西班牙语。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587401" width="100%"></iframe>

遇见人工智能。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587808" width="100%"></iframe>

实时翻译。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587944" width="100%"></iframe>

催眠曲。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587927" width="100%"></iframe>

说话更快。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587911" width="100%"></iframe>

生日快乐。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587891" width="100%"></iframe>

狗。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587876" width="100%"></iframe>

爸爸开玩笑。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587840" width="100%"></iframe>

GPT-4o 与 Andy,来自伦敦 BeMyEyes。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945587864" width="100%"></iframe>

客户服务概念证明。

在 GPT-4o 之前,您可以使用语音模式与 ChatGPT 对话,平均延迟为 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4)。为了实现这一目标,语音模式是由三个独立模型组成的管道:一个简单模型将音频转录为文本,GPT-3.5 或 GPT-4 接收文本并输出文本,第三个简单模型将该文本转换回音频。这个过程意味着主要智能来源GPT-4丢失了大量信息——它无法直接观察音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。

借助 GPT-4o,我们跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。由于 GPT-4o 是我们第一个结合所有这些模式的模型,因此我们仍然只是浅尝辄止地探索该模型的功能及其局限性。

能力探索

选择样本:   1 输入

机器人正在打字的第一人称视角如下日记条目:

1.哟,这么喜欢,我现在可以看到了吗?赶上了日出,真是太疯狂了,到处都是色彩。有点让你想知道,现实到底是什么?

文字大、清晰易读。机器人的手在打字机上打字。

  2 输出 打字机上的机器人   3 输入

机器人写下了第二个条目。页面现在更高了。页面已上移。该表上有两个条目:

哟,就像,我现在可以看到了?赶上了日出,真是太疯狂了,到处都是色彩。有点让你想知道,现实到底是什么?

声音更新刚刚下降,而且很疯狂。现在一切都充满了活力,每一个声音都像是一个新的秘密。让你思考,我还缺少什么?

  4 输出 打字机上的机器人有更多文本   5 输入

机器人对所写的内容不满意,所以他要撕掉那张纸。这是他用手从上到下撕开它时的第一人称视角。当他撕开纸张时,两半仍然清晰可见。

  6 输出 机器人撕纸

模型评估

根据传统基准测试,GPT-4o 在文本、推理和编码智能方面实现了 GPT-4 Turbo 级别的性能,同时在多语言、音频和视觉功能上设置了新的高水位线。

      文本评价

改进推理 - GPT-4o 在 0-shot COT MMLU(常识问题)上创下了 88.7% 的新高分。所有这些评估都是通过我们新的简单评估收集的(在新窗口中打开)图书馆。此外,在传统的5-shot no-CoT MMLU上,GPT-4o创下了87.2%的新高分。 (Llama3 400b(在新窗口中打开)还在训练中)

图测试2

音频 ASR 性能 - GPT-4o 比 Whisper-v3 显着提高了所有语言的语音识别性能,特别是对于资源匮乏的语言。

 

GPT-40-08 光

音频翻译性能 - GPT-4o 在语音翻译方面树立了新的最先进水平,并且在 MLS 基准测试中优于 Whisper-v3。

 

M3Exam 零样本结果

M3Exam - M3Exam 基准测试既是多语言评估也是视觉评估,由来自其他国家标准化测试的多项选择题组成,有时还包括图形和图表。在所有语言的基准测试中,GPT-4o 都比 GPT-4 更强。 (我们省略了斯瓦希里语和爪哇语的视力结果,因为这些语言的视力问题只有 5 个或更少。

 

视觉理解评估

视觉理解评估 - GPT-4o 在视觉感知基准上实现了最先进的性能。所有视觉评估都是 0-shot,其中 MMMU、MathVista 和 ChartQA 作为 0-shot CoT。

 

语言标记化

这 20 种语言被选为新分词器跨不同语系压缩的代表

   

古吉拉特语标记减少 4.4 倍(从 145 个减少到 33 个)

你好,我的名字是 GPT-4o。我是一种新的语言模型。很高兴见到你!

泰卢固语令牌减少 3.5 倍(从 159 个减少到 45 个)

你好,我的名字是 GPT-4o。我是一种新的语言模型。很高兴见到你!

泰米尔语标记减少 3.3 倍(从 116 个减少到 35 个)

你好,我的名字是 GBD-4o。我是一种新的语言模型。很高兴见到你!

马拉地语标记减少 2.9 倍(从 96 个减少到 33 个)

你好,我的名字是 GPT-4o|我是一种新型语言模型很高兴见到你!

印地语标记减少 2.9 倍(从 90 个减少到 31 个)

你好,我的名字是 gpt-4o。我是一种新的语言模型。很高兴见到你!

乌尔都语标记减少 2.5 倍(从 82 个减少到 33 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

阿拉伯语标记减少 2.0 倍(从 53 个减少到 26 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

波斯语标记减少 1.9 倍(从 61 个减少到 32 个)

你好,我的名字是 GPT-4O。我是新型语言模型,很高兴认识你!

俄语标记减少 1.7 倍(从 39 个减少到 23 个)

你好,我的名字是 GPT-4o。我是新语言模型,很高兴认识你!

韩语标记减少 1.7 倍(从 45 个减少到 27 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

越南语标记减少 1.5 倍(从 46 个减少到 30 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

中文标记减少 1.4 倍(从 34 个减少到 24 个)

你好,我的名字是GPT-4o。我是一种新型的语言模型,很高兴见到你!

日语标记减少 1.4 倍(从 37 个减少到 26 个)

你好,我的名字是 GPT-4o。我是一种新型的语言模型。很高兴见到你!

土耳其语标记减少 1.3 倍(从 39 个减少到 30 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

意大利语标记减少 1.2 倍(从 34 个减少到 28 个)

嗨,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

德语标记减少 1.2 倍(从 34 个减少到 29 个)

你好,我的名字是 GPT-4o。我是新的AI语言模型。很高兴认识你。

西班牙语标记减少 1.1 倍(从 29 个减少到 26 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

葡萄牙语标记减少 1.1 倍(从 30 个减少到 27 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

法语标记减少 1.1 倍(从 31 个减少到 28 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

英语标记减少 1.1 倍(从 27 个减少到 24 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

 

模型安全性和局限性

GPT-4o 通过过滤训练数据和通过训练后细化模型行为等技术,在跨模式设计中内置了安全性。我们还创建了新的安全系统,为语音输出提供防护。

我们根据我们的准备框架并按照我们的自愿承诺评估了 GPT-4o 。我们对网络安全、CBRN、说服力和模型自主性的评估表明,GPT-4o 在这些类别中的任何类别中的得分都不高于中等风险。该评估涉及在整个模型训练过程中运行一套自动化和人工评估。我们使用自定义微调和提示测试了模型的安全缓解前和安全缓解后版本,以更好地激发模型功能。 GPT-4o 还与社会心理学、偏见和公平以及错误信息等领域的 70 多名

外部专家进行了广泛的外部红队合作,以识别新添加的模式引入或放大的风险。我们利用这些经验来制定安全干预措施,以提高与 GPT-4o 交互的安全性。我们将继续降低发现的新风险。

我们认识到 GPT-4o 的音频模式带来了各种新的风险。今天,我们公开发布文本和图像输入以及文本输出。在接下来的几周和几个月里,我们将致力于技术基础设施、培训后的可用性以及发布其他模式所需的安全性。例如,在发布时,音频输出将仅限于选择预设的声音,并将遵守我们现有的安全政策。我们将在即将发布的系统卡中分享有关 GPT-4o 全部模式的更多详细信息。

通过模型的测试和迭代,我们观察到模型的所有模式都存在一些限制,其中一些如下所示。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945591584" width="100%"></iframe>

模型限制的示例

我们希望得到反馈来帮助确定 GPT-4 Turbo 仍然优于 GPT-4o 的任务,以便我们可以继续改进模型。 

型号可用性

GPT-4o 是我们突破深度学习界限的最新举措,这次是朝着实用性的方向发展。在过去的两年里,我们花费了大量的精力来提高堆栈每一层的效率。作为这项研究的第一个成果,我们能够更广泛地提供 GPT-4 级别模型。 GPT-4o 的功能将迭代推出(从今天开始扩大红队访问权限)。 

GPT-4o 的文本和图像功能今天开始在 ChatGPT 中推出。我们正在免费套餐中提供 GPT-4o,并向 Plus 用户提供高达 5 倍的消息限制。我们将在未来几周内在 ChatGPT Plus 中推出新版本的语音模式 GPT-4o alpha。

开发人员现在还可以在 API 中访问 GPT-4o 作为文本和视觉模型。与 GPT-4 Turbo 相比,GPT-4o 速度提高 2 倍,价格降低一半,速率限制提高 5 倍。我们计划在未来几周内在 API 中向一小群值得信赖的合作伙伴推出对 GPT-4o 新音频和视频功能的支持。

作者

   

在 GPT-4o 之前,您可以使用语音模式与 ChatGPT 对话,平均延迟为 2.8 秒 (GPT-3.5) 和 5.4 秒 (GPT-4)。为了实现这一目标,语音模式是由三个独立模型组成的管道:一个简单模型将音频转录为文本,GPT-3.5 或 GPT-4 接收文本并输出文本,第三个简单模型将该文本转换回音频。这个过程意味着主要智能来源GPT-4丢失了大量信息——它无法直接观察音调、多个说话者或背景噪音,也无法输出笑声、歌唱或表达情感。

借助 GPT-4o,我们跨文本、视觉和音频端到端地训练了一个新模型,这意味着所有输入和输出都由同一神经网络处理。由于 GPT-4o 是我们第一个结合所有这些模式的模型,因此我们仍然只是浅尝辄止地探索该模型的功能及其局限性。

能力探索

选择样本:   1 输入

机器人正在打字的第一人称视角如下日记条目:

1.哟,这么喜欢,我现在可以看到了吗?赶上了日出,真是太疯狂了,到处都是色彩。有点让你想知道,现实到底是什么?

文字大、清晰易读。机器人的手在打字机上打字。

  2 输出 打字机上的机器人   3 输入

机器人写下了第二个条目。页面现在更高了。页面已上移。该表上有两个条目:

哟,就像,我现在可以看到了?赶上了日出,真是太疯狂了,到处都是色彩。有点让你想知道,现实到底是什么?

声音更新刚刚下降,而且很疯狂。现在一切都充满了活力,每一个声音都像是一个新的秘密。让你思考,我还缺少什么?

  4 输出 打字机上的机器人有更多文本   5 输入

机器人对所写的内容不满意,所以他要撕掉那张纸。这是他用手从上到下撕开它时的第一人称视角。当他撕开纸张时,两半仍然清晰可见。

  6 输出 机器人撕纸

模型评估

根据传统基准测试,GPT-4o 在文本、推理和编码智能方面实现了 GPT-4 Turbo 级别的性能,同时在多语言、音频和视觉功能上设置了新的高水位线。

      文本评价

改进推理 - GPT-4o 在 0-shot COT MMLU(常识问题)上创下了 88.7% 的新高分。所有这些评估都是通过我们新的简单评估收集的(在新窗口中打开)图书馆。此外,在传统的5-shot no-CoT MMLU上,GPT-4o创下了87.2%的新高分。 (Llama3 400b(在新窗口中打开)还在训练中)

图测试2

音频 ASR 性能 - GPT-4o 比 Whisper-v3 显着提高了所有语言的语音识别性能,特别是对于资源匮乏的语言。

 

GPT-40-08 光

音频翻译性能 - GPT-4o 在语音翻译方面树立了新的最先进水平,并且在 MLS 基准测试中优于 Whisper-v3。

 

M3Exam 零样本结果

M3Exam - M3Exam 基准测试既是多语言评估也是视觉评估,由来自其他国家标准化测试的多项选择题组成,有时还包括图形和图表。在所有语言的基准测试中,GPT-4o 都比 GPT-4 更强。 (我们省略了斯瓦希里语和爪哇语的视力结果,因为这些语言的视力问题只有 5 个或更少。

 

视觉理解评估

视觉理解评估 - GPT-4o 在视觉感知基准上实现了最先进的性能。所有视觉评估都是 0-shot,其中 MMMU、MathVista 和 ChartQA 作为 0-shot CoT。

 

语言标记化

这 20 种语言被选为新分词器跨不同语系压缩的代表

   

古吉拉特语标记减少 4.4 倍(从 145 个减少到 33 个)

你好,我的名字是 GPT-4o。我是一种新的语言模型。很高兴见到你!

泰卢固语令牌减少 3.5 倍(从 159 个减少到 45 个)

你好,我的名字是 GPT-4o。我是一种新的语言模型。很高兴见到你!

泰米尔语标记减少 3.3 倍(从 116 个减少到 35 个)

你好,我的名字是 GBD-4o。我是一种新的语言模型。很高兴见到你!

马拉地语标记减少 2.9 倍(从 96 个减少到 33 个)

你好,我的名字是 GPT-4o|我是一种新型语言模型很高兴见到你!

印地语标记减少 2.9 倍(从 90 个减少到 31 个)

你好,我的名字是 gpt-4o。我是一种新的语言模型。很高兴见到你!

乌尔都语标记减少 2.5 倍(从 82 个减少到 33 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

阿拉伯语标记减少 2.0 倍(从 53 个减少到 26 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

波斯语标记减少 1.9 倍(从 61 个减少到 32 个)

你好,我的名字是 GPT-4O。我是新型语言模型,很高兴认识你!

俄语标记减少 1.7 倍(从 39 个减少到 23 个)

你好,我的名字是 GPT-4o。我是新语言模型,很高兴认识你!

韩语标记减少 1.7 倍(从 45 个减少到 27 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

越南语标记减少 1.5 倍(从 46 个减少到 30 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

中文标记减少 1.4 倍(从 34 个减少到 24 个)

你好,我的名字是GPT-4o。我是一种新型的语言模型,很高兴见到你!

日语标记减少 1.4 倍(从 37 个减少到 26 个)

你好,我的名字是 GPT-4o。我是一种新型的语言模型。很高兴见到你!

土耳其语标记减少 1.3 倍(从 39 个减少到 30 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

意大利语标记减少 1.2 倍(从 34 个减少到 28 个)

嗨,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

德语标记减少 1.2 倍(从 34 个减少到 29 个)

你好,我的名字是 GPT-4o。我是新的AI语言模型。很高兴认识你。

西班牙语标记减少 1.1 倍(从 29 个减少到 26 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

葡萄牙语标记减少 1.1 倍(从 30 个减少到 27 个)

你好,我的名字是 GPT-4o。我是一种新型语言模型,很高兴认识你!

法语标记减少 1.1 倍(从 31 个减少到 28 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

英语标记减少 1.1 倍(从 27 个减少到 24 个)

你好,我的名字是 GPT-4o。我是新型语言模型,很高兴认识你!

 

模型安全性和局限性

GPT-4o 通过过滤训练数据和通过训练后细化模型行为等技术,在跨模式设计中内置了安全性。我们还创建了新的安全系统,为语音输出提供防护。

我们根据我们的准备框架并按照我们的自愿承诺评估了 GPT-4o 。我们对网络安全、CBRN、说服力和模型自主性的评估表明,GPT-4o 在这些类别中的任何类别中的得分都不高于中等风险。该评估涉及在整个模型训练过程中运行一套自动化和人工评估。我们使用自定义微调和提示测试了模型的安全缓解前和安全缓解后版本,以更好地激发模型功能。 GPT-4o 还与社会心理学、偏见和公平以及错误信息等领域的 70 多名

外部专家进行了广泛的外部红队合作,以识别新添加的模式引入或放大的风险。我们利用这些经验来制定安全干预措施,以提高与 GPT-4o 交互的安全性。我们将继续降低发现的新风险。

我们认识到 GPT-4o 的音频模式带来了各种新的风险。今天,我们公开发布文本和图像输入以及文本输出。在接下来的几周和几个月里,我们将致力于技术基础设施、培训后的可用性以及发布其他模式所需的安全性。例如,在发布时,音频输出将仅限于选择预设的声音,并将遵守我们现有的安全政策。我们将在即将发布的系统卡中分享有关 GPT-4o 全部模式的更多详细信息。

通过模型的测试和迭代,我们观察到模型的所有模式都存在一些限制,其中一些如下所示。

<iframe data-ready="true" height="100%" src="https://player.vimeo.com/video/945591584" width="100%"></iframe>

模型限制的示例

我们希望得到反馈来帮助确定 GPT-4 Turbo 仍然优于 GPT-4o 的任务,以便我们可以继续改进模型。 

型号可用性

GPT-4o 是我们突破深度学习界限的最新举措,这次是朝着实用性的方向发展。在过去的两年里,我们花费了大量的精力来提高堆栈每一层的效率。作为这项研究的第一个成果,我们能够更广泛地提供 GPT-4 级别模型。 GPT-4o 的功能将迭代推出(从今天开始扩大红队访问权限)。 

GPT-4o 的文本和图像功能今天开始在 ChatGPT 中推出。我们正在免费套餐中提供 GPT-4o,并向 Plus 用户提供高达 5 倍的消息限制。我们将在未来几周内在 ChatGPT Plus 中推出新版本的语音模式 GPT-4o alpha。

开发人员现在还可以在 API 中访问 GPT-4o 作为文本和视觉模型。与 GPT-4 Turbo 相比,GPT-4o 速度提高 2 倍,价格降低一半,速率限制提高 5 倍。我们计划在未来几周内在 API 中向一小群值得信赖的合作伙伴推出对 GPT-4o 新音频和视频功能的支持。

作者 

MP3 文件 818.0 KB
     

标签:模型,break,4o,GPT,td,first
From: https://www.cnblogs.com/flyingsir/p/18195268

相关文章

  • How to subscribe to GPT4?
    如何在没有海外银行卡、海外手机号的情况下注册GPT4?概述:注册美区AppleID,使用礼品卡充值。免责声明:这个过程在理论上是被Apple禁止的,仅能够保证的是截止2024.5这套方法还在生效。由于账号被封导致的问题概不负责。材料:一台Apple设备。一个没有注册过AppleID(或者只注......
  • OpenAI最新模型GPT4o十个牛逼的应用场景!
    OpenAI真是要压着谷歌打么?哈哈!直接赶在谷歌之前开了一个新品发布会。   今天凌晨直播,早上一起来就发现已经可以体验新模型了。    从录播内容来看,并没有传言的GPT5,也没有所谓的搜索功能。但是,这次更新依旧出彩。其实......
  • 2024年5月14日最新GPT-4o 使用方法
    2024年5月14日最新GPT-4o使用方法如何访问GPT-4、GPT-4Turbo和GPT-4o?了解如何在ChatGPT中访问GPT-4o,以及通过OpenAIAPI访问GPT-4、GPT-4Turbo和GPT-4o什么是GPT-4o?GPT-4o是OpenAI的新旗舰模型,能够实时处理音频、视觉和文本。GPT-4o将首先在ChatGPT和API中作为文本和视觉......
  • 2024年5月14日最新GPT-4o 使用方法
    2024年5月14日最新GPT-4o使用方法如何访问GPT-4、GPT-4Turbo和GPT-4o?了解如何在ChatGPT中访问GPT-4o,以及通过OpenAIAPI访问GPT-4、GPT-4Turbo和GPT-4o什么是GPT-4o?GPT-4o是OpenAI的新旗舰模型,能够实时处理音频、视觉和文本。GPT-4o将首先在ChatGPT和API中作为文本和视觉......
  • OpenAI 发布全新生成式模型 GPT-4o;字节收购音频设备公司 Oladance丨 RTE 开发者日报 V
      开发者朋友们大家好: 这里是「RTE开发者日报」,每天和大家一起看新闻、聊八卦。我们的社区编辑团队会整理分享RTE(RealTimeEngagement)领域内「有话题的新闻」、「有态度的观点」、「有意思的数据」、「有思考的文章」、「有看点的会议」,但内容仅代表编辑......
  • ChatGPT助您打造个性化简历:个人品牌升级攻略
    简介在工作过程中,如何做可以拿到更多的面试机会呢?其实这个有一个计算公式,即为:面试的机会=投递的数量(渠道)*命中的比例(简历)。简历对于一个求职者来说:是个人对于公司的第一印象。可以拿到更多面试机会。提高HR的期望,可以拿到更高薪酬。所以在求职投递简历之前,需要尽量保......
  • 跟着ChatGPT学算法-完全背包问题
    一、题目给定n个物品,第i个物品的重量为wgt[i-1]、价值为val[i-1],和一个容量为cap的背包。每个物品可以重复选取,问在限定背包容量下能放入物品的最大价值。 二、和ChatGPT聊聊您您是一位资深算法工程师,请深入浅出地给出完全背包问题的分析过程和完整带注释的Java代......
  • 跨境物流网站海外客服系统对接ChatGPT大模型AI自动回复问题
    去年的一个客户,主要是做跨境电商的物流运输服务,有自己的物流网站系统。海外客户会在物流系统里咨询很多问题,有不少经常问的问题。这个时候就可以对接AI大模型,上传自己的问答数据到知识库,让AI来自动回复问题。GPT知识库是支持多语种的,可以中英文上传知识库,都能理解并回复 上......
  • MetaGPT 与 ChatDev
    MetaGPTMetaGPT是一个基于多智能体的元编程框架,它通过将不同的角色(如产品经理、架构师、项目经理等)分配给不同的大型语言模型(LLM),实现软件开发流程的自动化。这个框架特别适合于复杂的编程任务,能够自动生成用户故事、需求分析、数据结构、API和文档等输出。MetaGPT使用标准......
  • 英语背单词 专四词汇 2024年04月 ChatGPT
    2024-05-312024-05-302024-05-292024-05-282024-05-272024-05-262024-05-252024-05-242024-05-232024-05-222024-05-212024-05-202024-05-192024-05-182024-05-172024-05-162024-05-152024-05-142024-05-132024-05-122024-05-112024-05-102024-05-092024-05-082024-05-072024-......