可协助 AI 语言模型改善自我纠错能力,谷歌推出 BIG-Bench Mistake 数据集

人工智能
据悉,研究人员首先使用 PaLM 语言模型在自家 BIG-Bench 基准测试任务中运行了 5 项任务,之后将生成的“思维链(Chain-of-Thought)”轨迹修改加入“逻辑错误”部分,之后重新丢给模型判断思维链轨迹中哪些地方存在错误。

IT之家 1 月 15 日消息,谷歌研究院日前使用自家 BIG-Bench 基准测试建立了一项“BIG-Bench Mistake”数据集,并利用相关数据集对市面上流行的语言模型“出错概率”及“纠错能力”进行了一系列评估研究。

谷歌研究人员表示,由于过去没有能够评估大语言模型“出错概率”及“自我纠错能力”的数据集,因此他们创建了一项名为“BIG-Bench Mistake”的专用基准数据集用于评估测试。

据悉,研究人员首先使用 PaLM 语言模型在自家 BIG-Bench 基准测试任务中运行了 5 项任务,之后将生成的“思维链(Chain-of-Thought)”轨迹修改加入“逻辑错误”部分,之后重新丢给模型判断思维链轨迹中哪些地方存在错误。

为了提升数据集准确程度,谷歌研究人员反复进行上述过程,最终形成了一项内含“255 项逻辑错误”的“BIG-Bench Mistake”专用基准数据集。

研究人员提到,由于“BIG-Bench Mistake”数据集中的逻辑错误较为“简单明确”,因此可以作为一个良好的测试标准,可协助语言模型先从简单的逻辑错误开始练习,逐步提升辨识错误的能力。

研究人员利用该数据集对市面上模型进行测试,发现虽然绝大多数语言模型可以识别在推理过程中出现的逻辑错误并进行自我修正,但这个过程“并不够理想”,通常需要人工干预来纠正模型输出的内容。

▲ 图源 谷歌研究院新闻稿

IT之家从报告中发现,谷歌声称“目前最先进的大语言模型”自我纠错能力也相对有限,在相关测试结果中成绩发挥最好的模型,也仅仅找出了 52.9% 的逻辑错误

谷歌研究人员同时声称,这一 BIG-Bench Mistake 数据集有利于改善模型自我纠错能力,经过相关测试任务微调后的模型,“即便是小型模型表现也通常比零样本提示的大模型更好”。

据此,谷歌认为在模型纠错方面,可以使用专有小型模型“监督”大型模型,相对于让大语言模型学会“纠正自我错误”,部署专用于监督大模型的小型专用模型有利于改善效率、降低相关 AI 部署成本,并更便于微调

责任编辑:姜华 来源: 漾仔
相关推荐

2022-06-13 10:43:11

谷歌模型学者

2023-11-07 14:07:51

GPT-4大语言模型

2024-01-23 11:22:53

谷歌大语言模型AI

2021-05-31 14:57:13

谷歌AI工具人工智能

2023-12-07 11:12:54

大型语言模型Gemini人工智能

2023-11-21 14:48:11

2016-02-25 10:07:03

谷歌硬盘数据中心

2023-11-15 14:17:23

微软语言模型AI 模型

2023-07-05 15:02:51

2023-05-22 09:19:19

2020-03-31 10:13:04

Google 开源技术

2023-07-31 16:19:47

机器人人工智能

2023-02-28 14:57:02

MetaAI

2023-06-05 10:01:18

模型测评

2022-11-01 13:52:44

AI数学

2020-03-12 12:31:01

开源谷歌量子AI

2023-02-25 16:14:36

AIMeta语言模型

2019-10-12 13:36:43

机器学习人工智能计算机

2011-09-09 12:09:27

Dart

2018-08-29 14:45:47

VMware协助管理
点赞
收藏

51CTO技术栈公众号