第一个超越ChatGPT的开源模型来了?网友并不买账

人工智能 新闻
开源模型真的超过 ChatGPT了吗?

大模型火了起来,每天我们都能看到各种「大」新闻。

图片图片

今天,又来了个 Big News:新开源的一个大模型超越了 ChatGPT。

具体是什么呢?

OpenLLM 是一系列在极小、多样且高质量的多轮对话数据集上进行微调的开源语言模型。

这两日,作者们更新了该系列模型,并宣称:OpenChat 模型在 AlpacaEval 上获得 80.9% 的胜率;在 Vicuna GPT-4 评估上,性能达到 ChatGPT 的 105%。

图片图片

也就是上面推特截图中,两位博主宣称的开源模型超越 ChatGPT/GPT-3.5。

OpenLLM 的特色是基于 LLaMA 开源模型,在只有 6,000 个 GPT4 对话的数据集上进行微调,从而达到非常好的效果。

此次更新的模型型号与评审结果如下:

  • OpenChat:基于 LLaMA-13B,上下文长度为 2048。
  • 在Vicuna GPT-4 评估中达到 ChatGPT 分数的 105.7% 。
  • 在 AlpacaEval 上达到 80.9% 的胜率。
  • OpenChat-8192:基于 LLaMA-13B,扩展上下文长度为 8192。
  • 在 Vicuna GPT-4 评估中达到 ChatGPT 分数的 106.6% 。
  • 在 AlpacaEval 上实现 79.5% 的胜率。

也就是说,两个模型在 Vicuna GPT-4 评估榜单上结果都超越了 ChatGPT。

但这种评审 + 宣传的方式似乎并不被大家认可。

网友:夸张

在 Twitter 讨论中,有网友表明,这就是夸张的说法。

图片图片

在此「大」新闻公布后,Vicuna 官方也迅速做出了回应。

实际上,Vicuna 的测试基准已被弃用,现在使用的是更高级的 MT-bench 基准。该基准的测试,有着更加具有挑战性的任务,并且解决了 gpt4 评估中的偏差以及限制。

在 MT-bench 上,OpenChat 性能表现与 wizardlm-13b 相似。也就是说,开源模型与 GPT-3.5 仍然有着一定差距。这也正是 MT-bench 所强调的内容 —— 开源模型不是完美无缺的,但是这将迈向更好的聊天机器人评估。

图片图片

图片图片

前几日,机器之心报道内容《「羊驼」们走到哪一步了?研究表明:最好的能达到 GPT-4 性能的 68%》,也对开源模型的性能进行了评估。

评估还表明,在任何给定的评估中,最佳模型的平均性能达到 ChatGPT 的 83%、GPT-4 的 68%,这表明需要进一步构建更好的基础模型和指令调优数据以缩小差距。

感兴趣的读者可以查看原文。

责任编辑:张燕妮 来源: 机器之心
相关推荐

2021-07-27 23:00:11

微信设备功能

2013-08-19 09:12:07

云价格战基础架构即服务IaaS

2014-09-05 11:03:42

智能家居

2023-09-11 08:27:21

Windows微软

2010-11-05 09:48:28

ZendCon 201PHP云计算

2023-06-25 12:46:24

GPT-4人工智能

2021-09-22 10:03:10

人工智能Transformer技术

2024-02-29 13:08:50

2013-05-23 10:50:12

Windows 8Modern应用

2023-05-04 07:16:50

ChatGPT开源

2009-03-27 09:51:21

百度贴吧改版

2023-06-01 08:24:08

OpenAIChatGPTPython

2023-07-16 23:04:10

GPT-4OpenAIMOE

2009-03-27 13:42:39

2023-02-08 19:46:25

ChatGPTOpenAI生产力

2011-06-22 14:11:47

Flash

2018-07-18 13:40:54

3D

2022-05-30 10:42:14

模型谷歌数据

2013-11-01 09:50:52

Windows 8.1平板机

2017-10-13 15:59:24

iPhone机器学习iOS
点赞
收藏

51CTO技术栈公众号