Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

人工智能 新闻
AI真的要灭绝人类吗?375+大佬共同签署了22字联名信。

3月,千名大佬签署暂停「超级AI」研发的联名信,让整个业界为之震惊。

就在昨天,一封只有22个字的联名信再次引起轩然大波。

寥寥数语,把AI类比为了传染病和核战争,分分钟灭绝人类的那种。

图片

签名者中,有Hinton和Bengio两位人工智能的「教父」,还有硅谷巨头的高管,Sam Altman、Demis Hassabis等在人工智能领域工作的研究人员。

截止目前,已经有370多名从事人工智能高管都签署了这份联名信。

然而,这封信并不是得到所有人的支持。

「图灵三巨头」中的一位LeCun直言:我不同意。

「人工智能放大了人类的智慧,这在本质上是一件好事,与核武器和致命的病原体不同。我们甚至没有一个可靠的蓝图来创造接近人类水平的人工智能。一旦我们做到了,我们会想出让它安全的方法。」

图片

这封联名信究竟说了啥?

「致命」公开信

22字,言简意赅:

「降低AI给人类带来灭绝的风险,应该被提到全球级别的优先程度。就像我们应对传染病、核战争这种社会危机一样。」

图片

而签署这封公开信的AI界人士一眼根本望不到头。

图片

赫然映入眼帘的就是Geoffrey Hinton,Yoshua Bengio,谷歌DeepMind的CEO Demis Hassabis,OpenAI的CEO Sam Altman,Anthropic的CEO Dario Amodei。

图片

这里面Hinton的含金量不用多说,前谷歌副总裁、深度学习泰斗、神经网络之父,以及图灵奖获得者。

Yoshua Bengio同样也是图灵奖获得者,和Hinton,LeCun被合称为图灵奖三巨头。(然而LeCun在这件事上和另两个巨头态度截然相反)

除了在科技巨头公司任职的大佬,还不乏知名AI学者。比如UC伯克利的Dawn Song,清华大学的张亚勤。

而在这些耳熟能详的名字下面,就是数不胜数的AI界人士了。

甚至,每个人都可以参与签署这封公开信。

只要填写姓名、邮箱、职位等等信息,就可以参与签署了。

图片

不过,可以选择的身份并不多。(狗头)

图片

反对:灭绝人类纯扯淡

当然,Meta首席科学家LeCun还是一如既往地「唱唱反调」。

他一向的观点都是:现在的AI发展刚哪儿到哪儿啊,就天天把威胁和安全挂在嘴边。

他表示,所列出的威胁,根本不是现在AI发展的水平能达到的,因为压根不存在。在我们基本设计出狗级别的人工智能(更不用说人类级别)之前,讨论如何使其安全还为时过早。

图片

斯坦福大学的吴恩达立场和LeCun相同,但理由却有点不同。

他认为,不是AI会导致各种各样的问题,而是我们将会遇到的各种各样的问题只能靠AI来解决。

比如:下一次传染病爆发,气候变化导致的人口减少,小行星撞地球等等。

他表示,人类想继续生存、繁荣下去,得加速AI的发展,而不是减慢。

图片

也有网友评论,你说的这个不是AI,而是MAGIC(魔法)吧。

图片

AI风险面面观

那么,这些大牛们所宣称的足以灭绝人类的风险包括什么呢?

他们总结了以下8个方面。

武器化

部分人可能会将AI用于带有破坏性的地方,会导致人类生存的风险,加剧政治动荡。

比方说,现在深度强化学习的技术已经可以应用于空战了,机器学习能用于制造化学武器(已有论文表明,GPT-4可以在实验室中自主进行实验、合成化学品)。

此外,近年来研究人员一直在开发用于自动进行网络打击的AI系统,还有军方领导人想要让AI控制核发射井。

因此,未来AI强国会占据战略优势,各国之间的军备竞赛会转向AI领域。就算大部分国家都确保各自构建的系统是安全的,且不会威胁他国安全,仍然可能有国家蓄意用AI做坏事,造成伤害。

这给人的感觉就像核武器,有一个不听话不老实的就全白玩儿。

因为数字领域的危害传播速度很快。

信息误传

信息误传这个事情大家早就有所耳闻。远的不说,前一阵子美国律师用ChatGPT打官司,结果举的案例有6个都是杜撰的例子,现在还热乎着。

而有影响力的集体,比如国家、政党、组织,有能力用AI来影响(通常是潜移默化地)并改变普通人的政治信仰、意识形态等等。

同时AI本身也有能力生成非常有煽动性(或者说有说服力)的观点,激起用户强烈的情绪。

而这些预想的可能后果是完全不可预料的,不得不防。

代理「把戏」

AI系统根据具象的目标进行训练,而这些目标只是我们人类所重视的东西的间接代理。

就好像AI经过训练,就可以给用户推送他们爱看的视频或文章一样。

但并不代表,这种方式就是好的。推荐系统可能会导致人们的想法越来越极端,也更容易预测每个用户的偏好。

而随着未来AI的性能越来越强、影响越来越大,我们拿来训练系统的目标也必须更加仔细的确认。

图片

人类「退化」

如果看过「机器人总动员」这部电影,我们就能想象未来时代,机器越来越强,人类是一副什么样子。

大腹便便、身体素质低下、毛病一堆。

就是因为,什么都交给AI了,人类自然就要「退化」了。

尤其是,在大量岗位被AI的自动化所取代的未来图景下,这种场面更成为可能中的很可能。

不过,按LeCun的观点,估计又得批驳一番。咱离「机器人总动员」想象的场景还差得远。

图片

技术垄断

与技术本身无关,这一点强调的是可能会出现的「技术垄断」。

也许有一天,最强大的AI由越来越少的利益相关者所掌控,使用权也被他们牢牢地捏在手心。

而真到了那一步的话,剩下的普通人就只能处在一个任人摆布的状态,因为根本反抗不了。

想想大刘的科幻小说「赡养人类」吧。

一个终产者靠着AI统治着全球的everybody,多可怕。

图片

不可控的发展

这点主要想说明,AI系统发展到某一步,可能结果会超出设计者的想象,且无法再进行控制。

实际上这也是主流的担心所纠结的地方。

总会有人担心,AI发展到最后,会像「终结者」里的「天网」一样,或者「钢铁侠」里的「奥创」一样,不受掌控,试图毁灭人类。

或者换句话说,有些风险只有在发展的进程中才能发现,而真到发现的时候就已经晚了。甚至还可能会出现新的目标。

图片

欺骗

这点有一些抽象,简单来说,就是AI系统可能会「欺骗」人类。

这种「欺骗」并不是故意的,只是因为AI为了实现代理人的目标是处的手段而已。

通过「欺骗」获得人类的认可,要比通过正常渠道获得人类的认可更高效,而效率才是AI首要考虑的要素。

寻求权力的行为

这点和技术垄断之间有相关性。

正因为会出现技术垄断的情况,各国就会追求垄断技术的权力。

而这种「追求」,很可能是会带来难以预料的后果的。

责任编辑:张燕妮 来源: 新智元
相关推荐

2023-11-02 13:40:45

2020-12-18 09:51:33

Google AI技术

2009-10-22 09:14:40

2023-10-25 12:44:47

2023-11-03 13:07:34

模型训练

2013-06-19 14:49:10

Google眼镜谷歌眼镜隐私保护

2023-11-22 11:20:22

2023-10-17 13:33:00

AI数据

2023-06-01 17:51:24

2023-03-13 13:41:57

BasedGPT机器人人工智能

2021-01-23 19:22:46

互联网数据技术

2023-10-31 12:53:33

2020-11-04 17:49:22

Python开发编程语言

2017-11-02 12:59:46

windows 10windows 7微软

2021-04-15 09:59:29

AI 数据人工智能

2024-03-28 16:09:36

2009-05-28 09:15:34

暴雪丁磊魔兽

2023-11-07 16:10:18

OpenAIGPTAI

2023-11-01 14:11:00

模型数据

2023-09-07 13:06:18

人工智能模型
点赞
收藏

51CTO技术栈公众号