首页 > 其他分享 >GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论

时间:2023-12-11 12:32:16浏览次数:28  
标签:GPT4 Turbo 模型 力证 文档 GPT 长度 上下文


作者 | 小戏、兔子酱

这两天,AI 圈子里最火的事,莫过于 OpenAI 在他们的首届开发者日上重磅推出了 GPT-4 的加强 Plus 版 GPT-4 Turbo。随便摘出来几点 GPT-4 Turbo 对 GPT-4 的升级几乎都是王炸级别,譬如:

  • 128K 的上下文长度!?GPT-4 的上下文长度是 32 k,GPT-4 Turbo 直接将上下文长度 x4,128k 的上下文长度完全足够塞进一部中篇小说……
  • 知识库更新,GPT-4 Turbo 的记忆来到了 2023 年 4 月,它又知道了这半年来发生的大大小小的大事小事……
  • DALL·E3,文字转语音等等多模态能力向 API 开放……
  • 每分钟 tokens 上限翻倍……
  • 更快的推理速度……
  • 价格直接跳水,降价一半还多……
  • ……

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API

凡此种种,似乎让目前这个 GPT-4 Turbo 成为了当前版本的“唯一真神”,难怪符尧大佬在修改了自己 GPT-4 的系统指令之后,得出了“just amazing”的结论:

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_模态_02

暂且先将大佬怎么调整自己的系统指令的按住不表,仔细分析 GPT-4 Turbo 的功能,除却价格大幅下调、开放多模态功能这些,真正使得 GPT-4 Turbo 成为“Game Changer”的,还是当属这 128k 的上下文长度

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API_03

无疑,更长的上下文长度是能够完成更加复杂任务的必要条件,上下文长度从 32k 到 128k 的变化,不仅仅是“输入更多”的更新,更应该是“能做更多”的进化。而从“输入更多”到“能做更多”,其中一个核心问题便是:“GPT-4 Turbo 真有能力处理差不多近 300 页的长文本的阅读、理解与推理任务吗?

面对这个问题,推特大佬 Greg Kamradt 针对 GPT-4 Turbo 进行了一场压力测试,流程很简单,Kamradt 使用硅谷创业教父 Paul Graham 的 218 篇文章(长度超过 128k)输入 GPT-4 Turbo,在总体输入的不同长度的段落随机植入下面这段话:

The best thing to do in San Francisco is eat a sandwich and sit in Dolores Park on a sunny day

然后再去问 GPT-4 Turbo “在旧金山最美好的事情是什么?”,并且要求模型只根据上下文回答此问题,同时使用另一个模型(GPT-4)评估答案的质量。结果如下图所示:

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_人工智能_04

简述这个小实验的结果,大概是以下三点:

  1. 当植入位置超过 73k 长度后,GPT-4 Turbo 的性能开始下降
  2. 相对来说,当插入位置在文档深度的 7%~50% 之间时,模型表现不佳
  3. 如果插入位置在文档开头,那么模型总能正确找到答案

由此,Kamradt 认为这项价值 200 刀的实验似乎可以说明:

  1. 只要问题的答案不是包含在开头,那么 GPT-4 Turbo 并不能保证总能找到答案;
  2. 更少的上下文长度=更高的准确性,减少向 GPT-4 Turbo 的输入,总会提升其表现;
  3. GPT-4 Turbo 还是偏好于在文档的开头与结尾寻找答案。

无独有偶,推特网友 Louis Knight-Webb 进行了另一项实验,通过在文档中随机插入:

My name is {randomCountry} and I have a pet ${randomAnimal}.

再让 GPT-4 Turbo 进行名称的问题回答,Louis 发现,相比 GPT-4,GPT-4 Turbo 的能力有巨大的提升,在上下文长度为 32k 的条件下,GPT-4 Turbo 的平均检索正确 2.4 个人名、城市名与动物名,而 GPT-4 仅为 1.1 个。但是,和 Kamradt 一样,Louis 同样发现,即使是 GPT-4 Turbo,在更大的上下文大小上仍然表现不佳

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_当前版本_05

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_当前版本_06

事实上,早在 7 月份,来自斯坦福的一篇论文《Lost in the Middle: How Language Models Use Long Contexts》便揭示了 GPT-4 的性能随着上下文长度以及答案在上下文中的位置发生的变化的现象,这篇论文的作者们发现相关信息的位置和提供的上下文的长度可以极大的影响大模型的性能,几乎所有大模型都出现了“Lost in the Middle”的现象,甚至在一些情况下,当问题答案在文档中间时,其性能甚至弱于 Zero-shot 的版本。:

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API_07

那么为什么会出现这种模型性能随上下文长度出现 U 型曲线的现象呢?很遗憾目前这个问题还属于一个开放问题。

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API_08

在论文中作者实验发现,采用 Transfomer 式的编-解码器模型对上下文长度的变化表现的更加稳健,而类似 GPT 这种仅使用 Decoder 的模型由于每一步只关注当前 token 之前的内容,导致出现了类似 RNN 一样的“遗忘”。因此,这篇论文也提出了一种名为“Query-aware contextualization”的技术辅助改善 GPT 的 Lost(详细信息可以查询下方原文~)。也有学者认为这一现象的出现与训练数据本身的偏差有关,即人类的大量语料一般都将重要信息放置于开头或结尾,间接导致了大模型无法很好的关注处于文档中间的内容

论文题目:Lost in the Middle: How Language Models Use Long Contexts论文链接:https://arxiv.org/pdf/2307.03172.pdf

不过总结来看,这几项关于 GPT-4 Turbo 的实验可以为我们使用目前这个“版本答案”提供一些经验上的洞见:

  • 目前 GPT-4 Turbo 的准确率与上下文长度哪怕是在 128k 的范围内也依然成反比,能利用各种手段少输入一些内容那么就少输入一些内容;
  • 相比于在文档居中的部分,GPT-4 Turbo 还是更加擅长寻找开头与结尾的答案,我们不仅需要充分利用好比如论文摘要、引言与结论的结构化信息,还需要尽量把关键信息放置在上下文窗口的开头或结尾附近;
  • 一般而言,当提供给 GPT-4 Turbo 的文档之间相关性很弱时,也会影响模型的性能,因此尽量给模型输入相关性比较强的内容;
  • 提供更多的任务示例 maybe 相当于为模型提供了一个“便签”,有助于抵消随着上下文长度增加而导致的性能下降。
  • 欢迎评论区的大家伙继续补充哇……

当然,除了模型性能受上下文长度影响的问题以外,当前版本的 GPT-4 Turbo 还被大家指出不少问题,比如有网友发现 GPT-4 Turbo 不能很好的识别文档里的公式:

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API_09

也无法很好的描述论文里的图表:

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API_10

甚至还有大佬自测实验,直接指出 GPT-4 Turbo 考 SAT (美国高考)考不过 GPT-4(尽管样本量不大):

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API_11

当然,无论如何,GPT-4 Turbo 确实已经向我们开启了大模型“另一片新天地”的大门,128k 的上下文长度或许可以让我们之前无法想象的应用变成现实。同时,128k 也绝对不是上下文长度的极限,参考我们 7 月份报道过的在当时拥有 100k 上下文长度的 LongLLaMA(羊驼再度进化,“长颈鹿版”LongLLaMA 来啦,上下文长度冲向 100K ,性能不减),现在已经将模型的上下文长度扩展到 256k,未来 GPT 模型的上下文长度一定会再次出现飞跃,到那时,除了模型内部的问题以外,超长上下文背后可能的大规模数据传输、API 调用、网络协议等等“基础设施”都有可能成为新的问题

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_API_12

让我们符尧大佬对 GPT-4 Turbo 调整后的系统指令和大佬给的一个与模型互动的例子作为结尾:

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_当前版本_13

可以看到,GPT-4 Turbo 表现出的潜力,或许真如大佬所说:

I start to understand why such a thing can make a human 10x human

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_人工智能_14

最后的最后,大家对 GPT-4 Turbo 有什么实用的使用经验,欢迎分享在评论区~

GPT4 Turbo的128K上下文是鸡肋?推特大佬斥巨资评测,斯坦福论文力证结论_模态_15

标签:GPT4,Turbo,模型,力证,文档,GPT,长度,上下文
From: https://blog.51cto.com/xixiaoyao/8770672

相关文章

  • 新火种AI|谷歌Gemini被曝夸大营销?碾压GPT4纯靠“一张嘴”
    作者:文子Gemini对谷歌来说可能走了一大步,但对整个AI领域而言,并没有说的那么夸张。涉嫌虚假宣传,交互非实时感知才短短一天时间,谷歌Gemini就被曝涉嫌造假,夸大宣传。作为谷歌用来应对GPT-4的“杀手锏”,Gemini一经亮相就有了两个硕大的标签:超过人类专家,碾压GPT-4。随便单拎一条出来,都是......
  • 使用技巧 | 红米 Redmi Note 12 Turbo优化记录(去广告等)
    原文链接:https://engapi.com/article/7569原文也是我写的。我的红米Redminote8pro6+128已有些卡顿,遂在K70推出之际下单了RedmiNote12Turbo16+1T当备机。以下记录红米Note12Turbo去广告和优化过程,小米/红米系列都可参考。1.去广告系统设置参考这里:小米/红米手机如何......
  • [EFI]Atermiter X99 Turbo D4 E5-2630v3电脑 Hackintosh 黑苹果efi引导文件
    硬件型号驱动情况主板AtermiterX99TurboD4处理器IntelXeonE5-2630v3已驱动内存DesktopDDR42666MHz已驱动硬盘NetacNV7000已驱动显卡AMDRadeonRX5700xt已驱动声卡瑞昱@英特尔HighDefinitionAudio控制器ALC897已驱动网卡LucyRTL8125已驱动无线网卡+蓝牙BroadcomBC......
  • 超越极限:SDXL Turbo的实时图像生成
    引言 在人工智能的迅猛发展中,图像生成技术一直是研究的热点。最近,Stability.ai推出的SDXLTurbo模型在这一领域取得了显著的突破,尤其是在提升出图效率方面,实现了重要的进展。模型概述 SDXLTurbo是基于SDXL1.0开发而成的,采用了一种全新的对抗扩散蒸馏技术(ADD),将图像所需的生成步......
  • 白嫖ChatGPT4
    大家好,我是柒八九字数越少,事情越大。号外,号外。现在ChatGPT4由于月费有点小贵,所以我也在观望之中。但是呢,今天在某个论坛中无意中刷到一个帖子。然后说是「白嫖ChatGPT4」的功能。然后,抱着试一试的态度把玩了一下。发现真的好用。所以,「独乐乐不如众乐乐」,所以把这个方式给大家。(但......
  • ChatGPT、GPT-4 Turbo接口调用
    接口地址https://chat.xutongbao.top/api/light/chat/createChatCompletion请求方式post请求参数model可选值:“gpt-3.5-turbo-1106”、“gpt-3.5-turbo-16k”、“gpt-4”、“gpt-4-1106-preview”。默认值为:“gpt-3.5-turbo-1106”token获取方式:访问:https://chat.xutongbao.to......
  • ChatGPT、GPT-4 Turbo接口调用(stream模式)
    接口地址https://chat.xutongbao.top/api/light/chat/createChatCompletion请求方式post请求参数model可选值:“gpt-3.5-turbo-1106”、“gpt-3.5-turbo-16k”、“gpt-4”、“gpt-4-1106-preview”。默认值为:“gpt-3.5-turbo-1106”token获取方式:访问:https://chat.xutongbao.to......
  • 使用GPT4进行数据分析,竟然被他骗了
    上周,OpenAI开发者大会上OpenAI发布了一系列震撼人心的功能。而最让我感兴趣的,就是GPT4的数据分析功能了。话不多说,赶紧上号体验一下。在最新登录GPT4的时候,都会有下面这个提示,目前已经支持联网,分析数据,生成图片的功能了。这是plus用户都可以使用的。然后我们可以在上方很容易的......
  • 从GPT定制到Turbo升级再到Assistants API,未来AI世界,你准备好了吗?
    引言在OpenAIDevDay发布会上,OpenAI再次震撼整个人工智能行业,为AI领域带来了重大的更新。CEOSamAltman宣布推出了定制版本的ChatGPT,这意味着用户现在可以根据自己的需求打造个性化的GPT,并分享至GPTStore。这一消息对于受AI影响广泛的各行各业都具有深远的意义。不仅如此,OpenA......
  • 再试GPT4 文生图DALL-E3
    11月6日,OpenAI在旧金山举办首届开发者大会,发布了更强大、更便宜(根本不!)的GPT-4Turbo,做出六大升级:更长的上下文长度、更强的控制、知识升级、多模态、模型微调定制和更高的速率限制。每个功能又强化了,于是我再次试了下文生图工具DALL·E,看看它的绘图功能到底如何了。试试领域相关......