ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线

人工智能 新闻
最近,LeCun连续发推,舌战各位推友,疯狂diss大语言模型是邪路,也为自家匆忙下线的Galactica酸了一把ChatGPT。

这两天,图灵奖得主Yann LeCun心态有些崩了。

自从ChatGPT大火之后,微软凭着OpenAI腰板挺得很直。

被啪啪打脸的谷歌,也不说什么「声誉风险」了。

所有旗下的语言模型,无论是LaMDA,还是DeepMind的Sparrow,以及Apprentice Bard,是能加快的加快,能上架的上架。然后再狂投近4亿美元给Anthropic,想赶快扶出自己的OpenAI。(微软有的我也要)

然而,有一个人看着微软谷歌各领风骚,却只能急得原地跳脚。

这个人就是Meta的首席AI科学家——Yann LeCun。

他在推特中十分意难平:「ChatGPT满嘴胡诌,你们却对它如此宽容,但我家的Galactica,才出来三天,就被你们骂到下线了。」

图片

是谁酸到了,我不说

作为深度学习三巨头之一、图灵奖得主,LeCun的一举一动,都十分引人注意。

1月27日,在Zoom的媒体和高管小型聚会上,LeCun对ChatGPT给出了一段令人惊讶的评价:「就底层技术而言,ChatGPT并不是多么了不得的创新。虽然在公众眼中,它是革命性的,但是我们知道,它就是一个组合得很好的产品,仅此而已。」

图片

「除了谷歌和Meta之外,还有六家初创公司,基本上都拥有非常相似的技术。」

另外他还说,ChatGPT用的Transformer架构是谷歌提出的,而它用的自监督方式,正是他自己提倡的,那时OpenAI还没诞生呢。

此番言论一出,公众哗然。Open AI的CEO Sam Altman疑似因为这句话直接取关了LeCun。

图片

随后,LeCun继续舌战众位推友。

1月28日,LeCun发推称,「大型语言模型并没有物理直觉,它们是基于文本训练的。如果它们能从庞大的联想记忆中检索到类似问题的答案,他们可能会答对物理直觉问题。但它们的回答,也可能是完全错误的。」

图片

2月4日,LeCun再次发推,更加直白地表示「在通往人类级别AI的道路上,大型语言模型就是一条歪路」。

图片

他这话一说,网友们可high了,纷纷冲到评论区留言。

LeCun随后补充说:「依靠自动回归和响应预测下一个单词的LLM是条歪路,因为它们既不能计划也不能推理。」

「但是SSL预训练的Transformer是解决方案,因为它所处的现实系统有推理、计划和学习的能力。」

图片

LeCun举了个有趣的例子:自己在参加播客节目时,展示过ChatGPT的回答,它看上去很有道理,却错得离谱。然而主持人在读完ChatGPT的回答后,却没有第一时间发现它错了。

LeCun对此解释道:「我们的思维方式和对世界的感知让我们能预想即将发生的事物。这是我们获得常识的基础,而LLM并没有这种能力。」

他再次发推称:「在我们做出人类级别的AI之前,我们需要先做出猫猫/狗狗级别的AI。而现在我们甚至连这都做不到。我们缺失了十分重要的东西。要知道,连一只宠物猫都比任何大型语言模型有更多的常识,以及对世界的理解。」

图片

在留言区,有网友毫不客气地怼起LeCun:「你说得不对吧,本人亲测,Galactica的错误率接近100%,而ChatGPT的错误率差不多在15%左右。 」

图片

对于网友的痛击,LeCun再次发推表明态度:「我从来没说大型语言模型没用,其实我们Meta也推出过Galactica模型,只是它不像ChatGPT那么好命罢了。ChatGPT满嘴胡诌,你们却对它如此宽容,但我家的Glacatica,才出来三天,就被你们骂到下线了。」

图片

对此,评论区有网友讽刺道:「你可真棒棒啊。不如回实验室去,把你说的东西给做出来。」

LeCun回复:「今天可是周日,推特大辩论是我周末最爱的消遣了。」

图片

自家的模型只活了3天

LeCun如此意难平,可以理解。

去年11月中旬,Meta的FAIR实验室曾提出一个Galactica模型,它可以生成论文、生成百科词条、回答问题、完成化学公式和蛋白质序列的多模态任务等等。

图片

Galactica生成的论文

LeCun也很开心地发推盛赞,称这是一个基于学术文献训练出的模型,给它一段话,它就能生成结构完整的论文。

图片

然而,由于Galactica满嘴跑火车,它才上线短短三天,就被网友喷到下线。

LeCun转发了Papers with Code的通知,像个「大怨种」一样说道:「现在我们再也不能和Galactica一起愉快地玩耍了,你们开心了?」

图片

虽然Galactica的demo才上线几天,但当时的用户都感觉如临大敌。

有网友警示道:想想这个「写论文」神器会被学生们拿来做什么吧。

图片

有网友表示,「Galactica这个模型的回答错漏百出,充满偏见,可是它的语气却十分自信权威。这太恐怖了。」

图片

马库斯也表示,这种大型语言模型可能会被学生用来愚弄老师,非常令人担心。

这熟悉的配方,熟悉的味道,真是令人感慨万千:曾经Galactica引起的恐慌和质疑,不正是ChatGPT后来所经历吗?

看着这段历史的重演,却有着截然不同的结局,LeCun这么酸,确实不能说是毫无来由。

那为什么ChatGPT就能在质疑的声浪中人气愈发高涨,Galactica却只能惨兮兮地被骂到下线呢?

首先,Galactica由Meta提出,大公司确实比OpenAI这样的小初创公司,面临更多的「声誉风险」。

另外,OpenAI的产品定位策略十分聪明,从ChatGTP的名字就可以看出,它主打的概念是聊天。

你可以和它聊知识、聊论文,但既然是「chat」,自然可以放飞一些,谁规定聊天一定要聊「准确」「严谨」的东西呢?

图片

但Glactica则不同,它的官方定义是:「这是一个用于科研的模型。」「这是一个受过人类科学知识训练的人工智能。您可以将它用作一个新界面,来访问和操作我们对宇宙的知识。」

这当然就给自己埋了大雷了。

虽然从技术层面来看,ChatGPT的确没有太多创新,但是从产品运营的角度,OpenAI这一招,打得十分出色。

LLM为什么会满嘴胡话?

所以,大语言模型为什么会满嘴胡话呢?

在LeCun点赞的一篇文章中,作者做出了解释:「我曾尝试用ChatGPT来帮忙写博客文章,但都以失败告终。原因很简单:ChatGPT经常会整出很多虚假的『事实』」。

图片

自然语言不等于知识

要知道,LLM是为了在与其他人类的对话中听起来像一个人,而且它们也很好地实现了这个目标。但问题是,听起来自然与评估信息的准确性是两种完全不同的事情。

那么,这个问题该如何解决呢?

举个例子,我们可以借助已经对物理学理解进行了编码的机器——物理学引擎:

  • 修改LLM,使它能识别出自己被问到的是一个关于物理的问题
  • 将问题转换为一个物理场景
  • 用一个物理引擎来模拟这个场景
  • 用文字描述该场景的输出

而对于「假论文问题」,我们同样也可以采用类似的修正。

也就是让ChatGPT认识到它被问到了关于科学论文的问题,或者它正在写关于论文的东西,并强迫它在继续之前查阅一个可信的数据库。

但是请注意,如果真的这样做了,那就意味着你把一种特定的额外「思维」嫁接到了LLM身上。而且还必须考虑到一大堆特殊的情况。这时,人类工程师知道真相来自哪里,但LLM却不知道。

此外,随着工程师们把越来越多的这样的修复方法嫁接在一起,越来越明显的是,LLM不是一种人工通用智能的形式。

不管人类的智能是什么,我们都知道它不仅仅是能说会道的能力。

人类语言的多种用途

为什么人类要互相交谈,或为对方写下东西?

其中一个目的是直接传达事实信息,比如「我在商店」、「它没有插电」等,但这远不是我们使用语言的唯一原因:

  • 劝说、请求、命令、指示
  • 传达情感
  • 娱乐他人(包括小说、笑话等)、自娱自乐
  • 欺骗(撒谎)
  • 建立关系(与朋友建立联系,调情)

……

看得出来,人类交流的目的是非常多样化的。而且,我们通常也不会在写作的内容中表明它的目的是什么,作者和读者也对这些内容的作用有着不同的认知。

如果ChatGPT想要成为一个值得信赖的事实传播者,它可能要学会如何区分它所训练的人类写作的各种目的。

也就是说,它将不得不学会不认真对待废话,区分说服和宣传与客观分析,独立判断一个来源的可信度与它的受欢迎程度,等等。

即使对于人类,这也是一个非常困难的技巧。有研究表明,虚假信息在推特上的传播速度是准确信息的数倍——往往更具有煽动性、娱乐性或看起来很新颖。

那么问题来了,为什么生成式人工智能在计算机代码上表现很好?为什么编写功能代码的准确性不能转化为传达事实的准确性?

图片

对此可能的回答是,计算机代码是功能性的,而不是交流性的。以正确的语法编写某段代码会自动执行一些任务,而编写一个语法正确的句子却不一定能达到任何目的。

此外,我们很容易将计算机代码的训练语料库限制在「好」的代码上,也就是完美地执行其预期目的的代码。相比之下,要制作一个成功实现其目的的文本语料库几乎是不可能的。

因此,为了将自己训练成可信赖的事实传播者,LLLM必须完成一项比训练自己提出功能性计算机代码更难的任务。

虽然不知道对于工程师来说,建立一个能够区分事实和废话的LLM有多难,但这即便对于人类来说,都是一项困难的任务。

马库斯:世纪大和解

LeCun的一大串言论,让大家纷纷疑惑:这不是马库斯会说的话吗?

图片

热(chi)情(gua)的网友纷纷@马库斯,期待他对此事的锐评。

图片

苦GPT久矣的马库斯自然喜出望外,立刻转发LeCun的帖子,还评论道「100昏」。

图片

马库斯还在自己的博客上发文,回顾自己与LeCun的「爱恨情仇」。

图片

马库斯称,自己与LeCun本是多年老友,因为嘴了Galactica几句使得两人交恶。

实际上,马库斯与LeCun的嘴仗打了好几年了,可不是光只因为Galactica下线的事情。

与另外两位图灵奖得主Bengio和Hinton的相对低调不同,近几年,LeCun在社交媒体上的活跃在AI圈子里也是出了名的。不少工作在挂了Arxiv之后就第一时间在推特上宣传一波。

同样高调的马库斯也是一向视推特为自己的主场,当LeCun的宣传和马库斯的看法产生矛盾时,双方都不打算憋着。

在社交媒体上,两人可以说达到了有架必吵的地步,彼此间话讲的毫不客气,见面说不定都能直接掐起来那种。

而且要说梁子,2019年LeCun与Hinton和Bengio一起获得图灵奖后,有一张合影,原本马库斯站在LeCun的边上,但在LeCun分享的照片中,Marcus被无情地剪掉了。

图片

然而,ChatGPT的诞生改变了一切。

ChatGPT爆火,Galactica三天后便落魄下架。在LeCun对LLM疯狂输出时,马库斯自然乐于看到此景。

正所谓敌人的敌人就是朋友,不论LeCun的言论是自家产品失败后的大彻大悟,还是对竞品顶流现状的眼红,马库斯都愿意添一把火。

马库斯认为,他和LeCun达成一致的,不仅是关于LLM的炒作和局限性。他们都认为Cicero应该得到更多的关注。

最后,马库斯@了懂的都懂的那个人,并说「该给家人们福利了」。

图片

可以说,LeCun在推特上掀起的骂战,不仅让马库斯的反GPT军团多了一员猛将,还给了两人握手言和的契机。

这么看来,或许马库斯才是最终赢家。

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-02-14 14:54:09

模型AI

2023-02-14 09:28:35

2023-06-16 13:26:29

AI模型

2023-01-02 13:33:25

2023-05-12 13:14:59

ChatGPTAI工具

2023-04-27 13:46:08

2022-12-07 13:12:14

ChatGPT模型代码

2022-08-01 10:15:06

AI模型Meta

2023-05-25 13:59:12

ChatGPT模型

2023-02-22 15:06:44

AI智能

2023-03-07 13:31:45

模型泄漏

2023-08-10 08:46:52

2023-05-26 13:22:49

2023-09-06 12:11:21

ChatGPT语言模型

2023-04-20 17:47:57

模型开源

2023-04-03 09:56:22

模型系统

2023-06-15 14:01:00

模型笔记

2022-09-30 15:35:43

AI视频

2022-12-23 15:04:33

Meta模型

2023-11-27 11:34:59

ChatGPTAutoGPT
点赞
收藏

51CTO技术栈公众号