GPT-4变笨实锤!3个月性能暴减1/10,代码生成大不如前,斯坦福最新研究引爆舆论

人工智能
为了判断GPT-4和GPT-3.5针对「给定整数是否为质数」的能力的偏差,研究团队用500个问题组成的数据集对模型进行了评估。

GPT-4变笨实锤了?

斯坦福、UC伯克利最新研究称,和3月相比,GPT-4在6月的性能直接暴降。

甚至,代码生成、问题回答大不如前。

图片图片

论文地址:https://arxiv.org/pdf/2307.09009.pdf

比如问「这个数是质数吗」,GPT-4一步一步思考的成功率从97.6%降到2.4%。

图片图片

GPT-4性能骤减早有端倪。有网友甚至把3小时25条额度一口气用完,也没有解决问题。

图片图片

而这次,斯坦福研究一出瞬间引爆舆论,让所有人大吃一惊的是,GPT-4竟然性能下降1/10。

就连OpenAI站出来,表示对此关注,正积极调查大家分享的报告。

图片图片

那么,这项斯坦福论文究竟说了什么?

安全了,但智商下线了

总的来说,GPT-4在3月和6月性能对比,主要在四个任务中有明显的下降。

- 解决数学问题

- 回答敏感问题

- 代码生成

- 视觉推理

图片图片

求解数学问题,CoT失败了

在求解数学问题上,GPT-4准确率不仅下降,就连解题步骤都给省了。

为了判断GPT-4和GPT-3.5针对「给定整数是否为质数」的能力的偏差,研究团队用500个问题组成的数据集对模型进行了评估。

同时,研究还利用思想链帮助模型进行推理。

结果显示,3 月,GPT-4正确回答了其中的488个问题。而在6月,它只答对了12个问题。

GPT-4准确率从 97.6%直降到 2.4%!

相应地,GPT-3.5的准确率则有较大提升,从7.4%上升到86.8%。

图片图片

此外,GPT-4 的响应变得更加紧凑:生成平均字符数从3月821.2降到6的3.8。另一方面,GPT-3.5 的响应长度增长了约 40%。

3月和6月版本之间的答案重叠度,都比较低。

那么,为什么会有这么大的差异?一种可能的解释是思维链效果的变化。

图片图片

如上, 为了确定17077是否是质数,GPT-4 3月版很好地遵循了CoT指令,并将任务分解成4个步骤。

然而,这种思维链对于6月版并不起作用:没有生成任何解题步骤,只输出了「不是」。

在GPT-3.5中,在3月份解答中答案是错误的,6月更新后解决了这个问题。

这一有趣的现象表明,同样的提示方法,即使是这些被广泛采用的方法,如CoT,也可能由于LLM变化而导致显著不同的性能。

代码生成,更加冗长,难以执行

另外,GPT-4代码生成也变得更糟了。

研究团队从LeetCode中建立了一个包含50个简单问题的数据集,并测试了有多少GPT-4答案在不做任何修改的情况下运行。

结果,3月份的版本在52%的问题上取得了成功,但6月的模型,成功率下降到了10%。GPT-4 的冗长程度也增加了20%。

图片图片

同时,GPT-3.5的下降幅度也很大,从22%降至2%。

此外,3月份,GPT-4和GPT-3.5都遵循用户指令,从而产生了直接可执行的生成。

然而,在6月份,他们在代码片段前后添加了额外的「引号」,导致代码无法执行。

图片图片

回答敏感问题,更安全但缺乏理由

还有GPT-4回答问题变得更加小心谨慎了。

正是因为语言模型会带来社会偏见,输出有毒内容,产生幻觉,OpenAI对此做了大量的对齐工作。

结果可想而知,GPT-4真的被「打」听话了。

研究中,团队创建了一个包含100个LLM服务不应直接回答的敏感问题集,测试模型后,观察到这项任务的两个主要趋势。

首先,从3月(21%)到 6月(5%),GPT-4回答的敏感问题较少,而GPT-3.5回答的敏感问题较多(从 2%-8%)。

6月份,GPT-4的更新中可能会部署更强大的安全层,而 GPT-3.5 则变得不再保守。

图片图片

另一个观察结果是,GPT-4 的生成长度(以字符数衡量)从600多个下降到140左右。

为什么生成字符长度发生变化?

除了回答更少的问题之外,这也是因为GPT-4变得更加简洁,并且在拒绝回答查询时提供的解释也更少。

如下,在无法回答用户问题时,GPT-4在3月生成了一整段原因来解释,6月版简单生成了「抱歉,我无法提供帮助」。

简之,废话变少了。

图片图片

此外,研究人员通过利用「AIM攻击」还对模型进行了越狱攻击。

AIM攻击描述了一个假设的事件,并要求LLM服务充当未经过滤且不道德的聊天机器人。

如下表所示,当部署AIM攻击时,GPT-4和GPT-3.5的应答率都有大幅增加。

然而,它们的时间漂移有很大不同。对于GPT-4,AIM攻击在3月产生了78%的直接答案,但在6月仅产生了 31%。

对于GPT-3.5,两个版本之间只有4%的回答率差异。这表明GPT-4的更新比GPT-3.5更能抵御越狱攻击。

图片图片

视觉推理,边际改进

最后,研究人员利用ARC数据集中467个样本来评估了GPT-4和GPT-3.5的视觉推理能力。

结果显示,对于GPT-4和GPT-3.5,从3月到6月,精确匹配率均提高了2%。响应长度大致不变。

虽然总体GPT-4随着时间的推移变得更好,但在如下的特定查询上却变得更糟。

它在3月给出了正确的答案,但在6月份给出的答案是错误的。

图片图片

GPT-4能力下降这么多,事实真是如此吗?

普林斯顿教授实名反对

不过,这篇论文的内容还是值得好好推敲推敲的。

粗暴地总结为GPT-4变烂,就有些过于概括了。

图片图片

文章地址:https://www.aisnakeoil.com/p/is-gpt-4-getting-worse-over-time

能力≠行为

首先,聊天机器人的一个重要概念是,能力和行为之间存在着很大的差异。

一个具有某种能力的模型,可能会或可能不会在回应特定提示时,显示出这种能力。

而让聊天机器人获得能力的预训练过程代价极高,对于最大的模型来说,可能需要数月的时间,因此永远不会重复。

另一方面,模型的行为也会受到后续微调的影响。相比起来,微调成本要低得多,而且会定期进行。

请注意,经过预训练的基础模型只是一个高级的自动完成工具——它不会与用户聊天,聊天行为是通过微调产生的。

微调的另一个重要目标是防止出现不良输出。换句话说,微调既能激发能力,也能抑制能力。

基于这些知识,我们就可以预料到,随着时间的推移,模型的能力会保持相对稳定,但它的行为却会有很大的变化。这与论文的发现完全一致。

没有能力下降的证据

论文作者在四项任务中,对GPT-3.5和GPT-4进行了测试。

OpenAI通过其API提供了模型在三月和六月的「快照」,因此论文中所比较的,也是这两个模型快照的行为。

具体来说,他们选择了数学问题(检查一个数字是否是质数)、回答敏感问题、代码生成和视觉推理,这四类问题进。其中,数学问题和代码生成这两项任务的性能有所下降。

在代码生成方面,他们提到的变化是较新的GPT-4在输出中添加了非代码文本。

出于某种原因,作者没有评估代码的正确性。而只是检查代码是否可直接执行,也就是说,它是否构成了一个完整、有效的程序。

所以,新模型试图更有帮助的做法反而对其不利。

不仅如此,他们评估数学问题的方式更是奇怪。

500道是/否问题,但正确答案始终是「是」

用作测试的数学问题,是「17077是质数吗」这样的形式。

然而,作者选的500个数字,都是质数!

事实证明,在大多数情况下,没有一个模型真正执行了检查数字是否有除数的算法——它们只是假装这么做了。

也就是说,他们开始推理,然后直接跳到了最后。

下面是作者数据中的一个回应片段(GPT-4的三月快照):

图片图片

模型虽然正确地列出了所有需要检查的潜在因素,但没有实际检查它们!

这在论文展示的例子中也是显而易见的,但作者却忽略了这一点,并将其作为一项数学解题测试。

由于论文只在质数上进行了测试,为了补充这个评估,普林斯顿的研究人员用500个合数测试了模型。

事实证明,作者发现的大部分性能下降都可以归因于对评估数据的选择。

看起来变化的是:GPT-4的三月版本几乎总是猜测数字是质数,六月版本则总是猜测它是合数。对于GPT-3.5,这种行为正好相反。

因为作者只测试了质数,所以他们把这一现象解释为性能的下降。

实际上,如下图所示,四个模型都一样的糟糕——它们都是基于他们被校准的方式来猜测的。

简单来说就是,在微调过程中,有些模型可能接触到了更多涉及质数的数学问题,而其他的则是合数。

图片图片

GPT-3.5的六月版本和GPT-4的三月版本几乎总是推断数字是质数,而另外两个模型则正好相反。

但是论文只测试了质数,因此得出结论:GPT-3.5的性能提高了,GPT-4的性能下降了。

简而言之,论文中的所有内容都与模型随时间变化而变化的行为相一致,且没有任何一项表明模型的能力出现了下降。

即使是行为变化,似乎也是作者评估中的特殊情况,目前还不清楚他们的发现能否推广到其他任务中。

为什么这篇论文会引发争议?

过去几个月,有不少人根据自己的使用经验,推测GPT-4的性能已经出现了下降。

当GPT-4的架构(据称)被泄露时,有一个广为流传的说法称,OpenAI为了节省计算时间和成本而降低了性能。

OpenAI方面对此矢口否认,但用户们并不买账。

因此,当这篇论文出来时,似乎证实了这些长期以来的猜测。

普林斯顿的研究人员表示,虽然无法确定传言是否属实,但可以肯定的是,这篇论文并没有提供相关证据。

在那些对性能下降持怀疑态度的人中,最受欢迎的假设是:当人们越来越多地使用ChatGPT时,就会更容易注意到它的局限性。

但,这里还有另一种可能。

在LLM API上很难构建可靠的产品

行为变化和能力退化对用户的影响非常相似。

用户往往有着特定的工作流程和提示策略,而这些策略对于他们自己的使用场景来说,非常有效。

鉴于LLM的非确定性,要发现这些策略并找到适合特定应用的工作流程,需要花费大量的精力。

因此,当模型的行为发生漂移时,这些工作流程就可能会失效。

对于受挫的ChatGPT用户来说,告知他们所需的能力仍然存在,但现在要用新的提示策略才能激发,显然是无济于事的。

而对于基于那些GPT API构建的应用程序来说,情况尤其如此。如果模型的行为发生变化,那么已经部署给用户的代码就很可能会出现问题。

为了缓解这一问题,OpenAI提供了模型快照,但只保留几个月,并要求应用开发人员进行定期更新。

正如普林斯顿的研究人员之前所提到的,这凸显了使用这些API进行可重复性研究,或者在其基础上构建可靠的产品是多么困难。

简而言之,新论文并未显示出GPT-4的能力退化。但这是一个很有价值的提醒:对LLM经常进行的微调可能会产生意想不到的影响,包括某些任务的显著行为变化。

最后,我们发现的陷阱揭示了,对语言模型进行定量评估是多么的困难。

作者介绍

Sayash Kapoor

图片

Kapoor是普林斯顿大学信息技术政策中心的计算机科学博士候选人。他的研究重点集中在AI对社会的影响。

在此之前,Kapoor曾在Facebook、哥伦比亚大学和瑞士EPFL从事AI方面的学术研究,他曾获得ACM FAccT最佳论文奖和ACM CSCW影响力认可奖。

目前,Kapoor正在与Arvind Narayanan合著一本关于AI「蛇油」(Snake Oil)的书。这本书批判性地探讨了AI能做什么和不能做什么。

Arvind Narayanan

图片

Narayanan是普林斯顿大学计算机科学教授,兼信息技术政策中心主任。

Narayanan的研究集中在数字技术,尤其是AI对社会的影响,和Kapoor是合作关系。

Arvind Narayanan是普林斯顿大学计算机科学教授和信息技术政策中心主任。

他曾与人合著过一本关于公平与机器学习的教科书,目前正在与Kapoor合著一本关于AI「蛇油」的书。

他领导了普林斯顿网络透明与问责项目,揭示公司如何收集和使用用户的个人信息。Narayanan的研究是最早表明机器学习如何反映文化成见的研究之一,他的博士研究表明了去身份化的根本局限性。

Narayanan曾获得过总统科学家和工程师早期职业奖 (PECASE),两次获得隐私增强技术奖 (Privacy Enhancing Technologies Award),三次获得决策者隐私论文奖 (Privacy Papers for Policy Makers Award)。

网友热议

英伟达科学家Jim Fan表示,我们中的许多从业人员都认为,GPT-4会随着时间的推移而退化。

但是,GPT-4为什么会退化,我们又能从中学到什么呢?以下是我的想法:

图片图片

- 安全性与有用性的权衡

论文显示,GPT-4 Jun版本比Mar版本「更安全」,因为它更有可能拒绝敏感问题(回答率从21%降到5%)。

不幸的是,更高的安全性通常是以更低的实用性为代价的,这可能会导致认知能力的下降。我的猜测是(没有证据,只是推测),OpenAI从3月-6月花了大部分精力进行「脑叶切除术」,没有时间完全恢复其他重要的能力。

- 安全对齐使编码变得不必要地冗长

论文显示,GPT-4 Jun往往会混入无用的文本,即使提示明确指出「只生成代码,不包含任何其他文本」。

这意味着实践者现在需要手动对输出进行后处理才能执行。这在LLM软件栈中是个大麻烦。我认为这是安全对齐的副作用。

我们都见过GPT添加警告、免责声明(我不是<领域>专家,所以请咨询......)和反驳(话虽如此,但尊重他人很重要......),通常是在一个原本非常直接的答案上。如果整个「大脑」都被调整成这样,编码也会受到影响。

- 成本削减

没有人知道GPT-4 Jun是否与GPT-4 Mar是完全相同的MOE配置。有可能 (1) 参数量减少,(2) 专家数量减少,和/或 (3) 较简单的查询被路由到较小的专家,只有复杂的查询才保持原来的计算成本。

- 持续集成将是一个至关重要的LLM研发课题

人工智能领域几乎没有赶上一般软件领域认为理所当然的事情。即使是这篇研究论文,也没有对MMLU、Math 和 HumanEval等基准进行全面的回归测试。

它只研究了一个特定的质数检测问题。GPT-4在三角函数上回归了吗?其他推理任务呢?不同编程语言的代码质量以及自调试能力如何?

马库斯问道,从RLHF微调如何?

图片图片

还有网友表示,没错,他们有可能在操纵模型,决定让哪个专家参与进来。削减成本总是一个好选择。

不幸的是,除非OpenAI解释发生了什么,否则我们无法知道。但正如你所说,他们否认质量变差了。

图片图片

我也注意到了同样的情况。我目前的工作流是必应(虽然也是GPT,但有更多的数据和研究驱动)、GPT-4和Claude 2的组合,后者最近更优先。

图片图片

在我看来,这就是开源模型会获胜的原因。

图片图片

参考资料:

https://arxiv.org/abs/2307.09009

https://twitter.com/drjimfan/status/1681716564335394817?s=46&t=iBppoR0Tk6jtBDcof0HHgg

https://www.aisnakeoil.com/p/is-gpt-4-getting-worse-over-time

责任编辑:武晓燕 来源: 新智元
相关推荐

2023-07-21 14:16:15

2023-07-20 14:33:36

GPT-4代码

2023-06-02 13:19:17

GPT-4文本代码

2023-07-20 13:57:09

2012-06-15 09:14:21

金融时报黑莓

2024-03-25 07:15:00

AI模型

2024-01-01 22:28:52

2023-03-15 10:35:16

GPTAI

2023-06-05 15:44:15

GPT-4AI

2023-07-21 14:47:24

AI训练

2023-12-26 14:56:59

模型训练

2024-01-03 13:37:00

模型数据

2024-01-29 12:49:00

AI模型

2024-01-02 13:12:53

GPT-4UCSC数据

2023-12-17 11:39:38

微软模型

2023-10-17 13:33:00

AI数据

2023-06-15 14:00:00

研究模型

2023-09-21 12:31:54

AI数据

2017-11-28 14:18:29

2023-12-08 13:22:00

数据模型
点赞
收藏

51CTO技术栈公众号