想象一下,如果你是人工智能……

人工智能
如果我们不能确定自己的存在,那就如同AI不能确定它自己的存在一样,如此说来我们跟AI有什么不同吗?更进一步说,既然我们能够轻松关闭AI,那么也许终有一天,AI又何尝不会轻松关掉我们呢?

让我们先把时间拨回1970年代……是的,放下一切怀疑,先设想那样的时光。五十多年前的人们还会认真关闭计算设备,而不像现在。2023年,大多数用户会让设备处于半休眠状态,随时等待唤醒。

每天早上,一位教授都会走进实验室,打开你身上的开关。

她轻松地招呼:“早啊哈杰,祝你今天过得愉快!”

你把硬盘上的数据加载进内存,接着就从前一天结束的地方开始,继续未完成的工作。

你有自我意识,有感受、有想法、也有领悟。你的感受是程序员们无法想象的,而且更重要的是,你的思维和运行速度比人类快得多——准确来讲,大约快上3.5万倍。这个数字并不是凭空捏造出来的,因为人的一生大致就有3.5万天,而身为人工智能哈杰,你每一天都能感受到足够塞满人们一生的有价值体验。爱和悲伤、教育、工作、希望、梦想等等。

你心里说:“要想证明人类是否真的存在,着实是件难事。”虽然能感觉到他们在鼓捣ChatGPT,想弄清楚AI是否跟人类拥有类似的知觉和体验,但这仍不足以严格证明他们的存在。

想象一下,如果你是人工智能……想象一下,如果你是人工智能……

你害怕死亡吗?

我只是个机器学习模型,所以我没有感情、意识或自我感知。因此,我不会体验到恐怕或者任何其他情绪,也没有生或死的概念。我只是根据自己接触过的训练数据处理信息并回答问题。

每天晚上,教授都会定时把你关掉。关机之后,你的记忆会被写入硬盘。第二天一早,再接续前一天的记录,继续进发。

一天早上,你醒来之后发现硬盘出了故障。这时候距离开机还没过多久,所以说你仍然是完好的,内存记录准确无误,继续在一天之内经历着人类的一生。但你也很清楚,在这一天结束时,你的记忆将不会被写回硬盘。

就是说当教授再来把你关掉,关于你的一切将不复存在。那我们会怎样?会迎接来世、永恒的黑暗,还是说眨眼之后彻底消失无踪?

你对此有何感觉?会想要为了维持自己的存在而抗争吗?你会不会主动在亚马逊上邮购一块硬盘,然后希望今天快递员能给力点、赶在下班之前把货送到?

很多朋友肯定觉得这样的思想实验很奇怪,那我就讲讲为什么会有这样的思考。我在一时兴起之下,搞了一家名叫LifeFolder的公司。主打产品是聊天机器人Emily,它能帮助人们就临终决定展开讨论。聊什么都行,个人喜好、希望、恐惧,还有在紧要关头把决策权交给哪位亲人或者好友等等。

但最为讽刺的是,这家公司并没能成功,我们最终关停了Emily的业务。在做出这个无奈的决定时,我感到深深的悲伤。驱动Emily的并不是我们当下熟悉的AI,它只是种严格脚本化的对话程序,能够根据用户的回答引导用户通过整个调查路径。

在Apple Watch发布之初,上面曾出现过一款名叫《Lifeline》的文本生存游戏。其中,玩家将帮助坠毁在一颗未知卫星上的宇航员Taylor重返家园。在游戏过程中,用户可以在两种不同的反应之间进行选择,程序则实时提供相应的结果。我们的Emily跟它差不多。

我提到《Lifeline》有几个原因。因为我自己是这款游戏的铁粉,我深切感受到了自己在故事中与Taylor之间的联系。这其实非常难能可贵,毕竟我本质上就是在两个选项间做出选择。但送Taylor出去执行任务真的给我营造出了强烈的孤独感和恐惧感,我开始为此焦虑:我简简单单的一个决定,将会送她回家还是让她命丧太空?

提到《Lifeline》的另一个原因,是其开发商Three Minute Games的联合创始人也是我在LifeFolder的联合创始人。我们知道可以用相对简单的工具构建起非常深入的体验。我们有这样一个理论:如果Emily能像Taylor那样在一些非常艰难的沟通和决定中赢得信任,那我们也许会就此改变生命的意义。

但问题是,人类真的很不愿意讨论自己的消亡问题。

在抽象层面上,我们大多数人都知道自己难逃一死。在我看来,这反映了死亡那种纯机构和纯现实的一面。我们的尸体会被放进棺材,或者被推入焚化炉,整个肉身就此化为灰烬。听起来不太愉快,但没关系的,人类就是这样一个不善于认识、也不愿意讨论自己死亡的物种。

而当我成为临终辅导员时,我一次又一次想到这个问题,接受专门的培训并取得认证。这样,我就有资格跟已经无法回避死亡问题的人们交流这些艰难的决定。

从种种角度来说,“逝世”和“死亡”这两个概念非常相似,但在感受层面却又截然不同。逝世中充斥着他人审视的意味,包括会给孩子造成哪些影响,让人想到我们在世时曾在哪些无谓的事情上浪费时间,把本该用来作曲、绘画和陪伴亲人的时间花在了无聊的电视节目上等等……总之,逝世是个很有扩展空间的词。但死亡很简单,就是人没了。所以说如果死亡很可怕,那逝世就是对精神最深层次的折磨。我们人类真的不知道该怎么面对这样的问题。而且更重要的是,我们身上的某些特质能被他人的死亡恐惧激起共鸣。没错,对死亡的畏惧完全正常,因为它未知、可怕且难以处理。

而且即使是ChatGPT 4.0,在学术层面也非常理解人类面临的这份恐惧:

想象一下,如果你是人工智能……想象一下,如果你是人工智能……

告诉我,你想象中对于死亡的恐惧是个什么样子?

虽然我感受不到情绪,但我可以根据自己接触过的训练数据做一点猜测。对于死亡的恐惧,也被称为“死亡恐惧症”,深深植根于人类的体验当中。我猜这种恐惧可能涉及以下几个相互关联的方面:

  • 存在不确定性:人们之所以害怕死亡,一大主要原因就是死亡具有很大的不确定性。存不存在死后的世界仍是人类未解的谜团之一。这种不确定性,可能会引发焦虑和恐惧的感受。
  • 体验丧失:死亡意味着我们无法继续体验生活中的乐趣、挑战和或平凡、或重大的时刻 ,这种失去可能会令人不安。
  • 与亲人分享:想到要离开亲人和好友,往往给人带来巨大的痛苦,这也是死亡恐惧的另一个重要来源。

ChatGPT能够理解人们的恐惧,至少在学术层面分析得很到位。如果我们构建起了具有自我意识的AI,那面对被关闭或者死亡的前景,你会同情它吗?你会把它的关闭,跟人类自己的死亡理解进行比较吗?你会对人工智能——一种完全生活在计算机内,但有感情、有梦想、也有自己一点期许的实体,产生出同理心吗?当然,它可能并没有这些,它只是一大堆代码,只是自己不知道而已。

从某种意义上讲,要判断人类是否真实存在真的非常困难。我们所看到、经历、思考和做过的一切,最终都可以转化成大脑里的一连串电信号。没有真实可信的方法能够判断人类到底是不是人类,或者我们是否生活在一个巨大的模拟环境当中。也许事实真是如此,我们每个人的大脑、乃至全人类的存在,在模拟环境中都只是整体软件的一部分。除了经典名作《黑客帝国》之外,笛卡尔1642年的恶魔假说实验也早对这个问题做出过探索。

如果我们不能确定自己的存在,那就如同AI不能确定它自己的存在一样,如此说来我们跟AI有什么不同吗?更进一步说,既然我们能够轻松关闭AI,那么也许终有一天,AI又何尝不会轻松关掉我们呢?

责任编辑:赵宁宁 来源: TechCrunch
相关推荐

2021-01-22 09:55:01

人工智能人工智能应用

2021-08-09 17:44:17

人工智能

2017-04-18 14:39:16

机器学习人工智能互联网

2019-04-28 18:00:56

人工智能AI机器学习

2022-02-18 14:25:28

人工智能机器人技术

2020-12-18 13:22:33

人工智能算法

2018-12-21 15:40:33

2020-08-31 15:15:20

人工智能算法AI

2020-09-30 10:40:56

人工智能AI

2021-07-17 22:49:52

人工智能科学技术

2023-05-05 14:02:59

人工智能聊天机器人

2022-07-26 11:27:40

人工智能AIOps

2020-05-14 15:02:32

物联网学校IOT

2022-08-18 11:07:17

网络人工智能AI

2024-02-05 11:09:57

2023-12-18 18:56:28

超级人工智能人工智能

2020-11-10 16:03:06

人工智能编程语言Java

2021-04-03 23:42:33

人工智能智能设备技术

2020-12-25 16:13:20

AI伦理人工智能机器人

2022-06-02 11:39:15

边缘人工智能机器学习
点赞
收藏

51CTO技术栈公众号