人工智能的进化门槛在于肉身

新闻 人工智能
我们对于能够在棋局上打败人类顶尖高手的人工智能心怀恐惧,不少人会将其视为“人工智能将会终结人类”的一个预兆。

 [[233888]]

  英文原文:The future of AI lies in replicating our own neural networks

  我们对于能够在棋局上打败人类***高手的人工智能心怀恐惧,不少人会将其视为“人工智能将会终结人类”的一个预兆。然而在本文的观点中,作者似乎并不担心这一天会在可预见的未来出现——他认为人工智能还有很长的一段路要走,而阶段性的******是如何向大脑学习。

  我们的大脑似乎没有限制。我们不只会驾驶汽车,还能建造摩天楼,管理公司,处理情感。我们可以轻松拿起东西,灵活操纵,每一个人都学会了几百项复杂技能,可以混合,快速完成。但是人工智能似乎还做不到,它们有着基础性的限制。也许正如谷歌 DeepMind 项目的联合创始人杰米斯·哈萨比斯(Demis Hassibis)所说:“我们真的可能开发‘一般智力’?人类大脑是目前存在的唯一证明,为什么人类有这样的能力,是如何做到的,值得我们花时间研究理解。”

  本文来自 bigthink,由微信公众号“利维坦”编译。作者:Ben Medlock,翻译:Carlyle,校对:喵昕。

  将意识当作原始认知结构的顶层功能,这一想法是十分有吸引力的。毕竟,我们感知到自我意识的方式,与感受到自己心跳频率和肠胃蠕动的方式有所不同。如果可以将大脑行为单独看待并逐层分析,也许我们能够制造出一些类似顶层结构的东西,实现拟人类的人工智能,同时却绕过有机生命特有的复杂的肉身。

[[233889]]

2017 年 7 月 12 日,香港“RISE”技术大会会场。由汉森机器人技术公司(Hanson Robotics)组织的人工智能展览中,一场关于人类未来的讨论开始之前,机器人“汉”等在舞台中央。图源:萨克·劳伦斯/法新社/盖蒂图片社

  我理解这种观点的吸引力,因为我是 SwiftKey 的联合创始人之一,这是一家被微软收购的预测性语言软件公司。我们的目标是模拟人类理解、使用语言的了不起的过程。我们已经取得了不错的进展:对于我们在 2012 年到 2014 年间为物理学家史蒂芬·霍金(Stephen Hawking)制造的新型高端交流系统,我感到十分自豪。尽管拥有这些激动人心的成果,但是,大多数时间里我都没有忘记,我们与造出拟人智能还相去甚远。原因何在?因为我们对认知建立的模型是错误的。许多人工智能研究人员目前无法解决这道难题中最核心的问题:具象化的过程。


日本机器人学者石黑浩(Hiroshi Ishiguro)制造的人形机器人 Geminoid F。该机器人原型是一个日俄混血美女模特,F代表女性 female,她“出生”于 2010 年,会做出眨眼、微笑、皱眉等 65 种不同面部表情。图源:Cait Oppermann

  回望 20 世纪 50 年代,在现代人工智能曙光初现时,事情就走错了方向。计算机科学家尝试通过建立基于符号的逻辑系统来模拟有意识的逻辑思维过程。这一方法将客观世界的实体与数据代码相关联,并创造环境虚拟模型的过程,这一模型还将被投影回现实世界本身。

  比如,在符号逻辑的视角下,如果你想创造一种用来学习“猫是一种动物”这一结论的工具,你可以用一些数学定理来为一些特定的知识进行编码,比如“猫>是>动物”。这样的定理还能被应用于更复杂的句式中,进而使系统能够叙述***并判断***的正误——这些***包括 “通常情况下你的猫和马一样大”,和“猫一般会捉老鼠”。

  这种方式在早期人为营造的简单环境中取得了成功:在麻省理工学院计算机科学家特里·维诺格拉德(Terry Winograd)于 1968 年到 1970 年间设计的虚拟世界“SHRDLU”里,计算机可以与用户对话并帮助用户移动锥形、球形等简单形状的障碍物。但是,面对现实世界中的问题,符号化的逻辑往往无能为力,形成规则的符号系统在模糊的定义和过于宽泛的理解方式中走向崩溃。

  在过去的数十年中,随着电脑性能的提升,研究人员试图使用统计信息从海量数据中抽象出模型,这样的方法通常被称为“机器学习”。不同于尝试为高阶知识和逻辑思维编码的方式,机器学习运用自下而上的方式,其算法通过重复学习来识别对象之间的关联,比如将图像文件中能看到的对象进行分类或者将录音制品转换为文本。这样的系统也许能够学会识别猫的图像,比如,可以通过观看数百万张猫的照片,或者在海量文本中进行提取,以建立猫和鼠之间的关系。

面对一个问题时,沃森能同时运行成千上万种算法寻找答案,然后把这些答案汇合,并算出对每一个答案的确信程度。图源:wikipedia

  近年来,机器学习已经获得了广泛的应用。我们造出了能在语音识别、图像转换、唇语阅读这些方面超越人类的人工智能系统,比如在问答节目《Jeopardy!》中赢过人类的沃森(Watson);有些机器已经能在棋局上战胜我们了,比如下围棋的人工智能 AlphaGo,有些正在学习视觉艺术作品的创作、流行音乐的编曲,并写出它们自己的软件程序。

  从某种意义上说,它们自我学习的算法,是在模仿我们所了解的大脑有机体潜意识的过程。机器学习的算法从简单的“特征”开始(比如单个字母或像素),再把他们组合成为更加复杂的“类别”,同时考虑到现实世界中信息解读固有的不确定性与模糊性。在某种程度上,这与视觉皮质的功能类似——这一结构接收来自眼睛的生物电信号,并将其解读为可识别的图案和物体。

《2001 太空漫游》中的 HAL9000 高智能电脑。图源:Giphy

  要想像我们一样思考,算法还有很长的路要走——最难以逾越的鸿沟在于,我们不断进化的生物结构以及我们的生物学基础处理信息的方式。

  人由数以万计的真核细胞组成,而根据化石记录的记载,真核细胞***出现是在 25 亿年前。每个人类细胞都是人体这个网络化机器的重要组成部分,而这个机器的组件数量与一家现代喷气式飞机的零件数量持平——所有的这一切都产生于生物与自然界长期以来你中有我、我中有你的“相爱相杀”。

  在《盆地与山脉》(Basin and Range,1981)中,作者约翰·迈克菲(John McPhee)写道,如果你伸出双臂,以此代表整个地球的历史,复杂的生命体在远端的手腕部位才开始发展,另外,“只需要用一个中等颗粒大小的指甲锉轻轻一磨,整个人类的历史就覆灭了”。

图源:Rose Tree Media School District

  传统的进化理论认为,我们体内多种多样的细胞,是由原始的真核动物经过随机的基因突变和自然选择发展形成的。但在 2005 年,芝加哥大学生物学家詹姆斯·夏皮罗(James Shapiro)提出了一个激进的新观点。他认为,真核细胞通过操纵它们自己的 DNA 来回应环境的刺激,继而“智能地”适应宿主有机体的环境。最近的微生物学研究发现也使得这一观点有一定的分量。比如,哺乳动物的免疫系统趋向于复制 DNA 序列以产生有效的抗体来抵抗疾病,而且,我们现在还知道,人类基因组至少有 43% 的 DNA 能够通过“自然基因工程”的方式从一个位点转移到另一个位点(shapiro.bsd.uchicago.edu/Shapiro.2005.Gene.pdf)。

  从聪明而具有自我组织性的细胞,到我们用来苦苦思考的大脑的智能,二者之间的距离似乎有点儿远。但是,问题在于,在我们有意识并能够思考之前,我们的细胞就已经能够从环境中获得信息,并相互配合,将我们塑造成为它们强大而善于自我维持的代理人。被我们视为“智能”的东西,也不应该仅仅利用符号来展示客观存在的世界。相反,我们所了解的世界仅仅是自然向我们展示的那部分,它根植于我们的发展,体现着我们作为生物体的需求。安东尼奥·达马西奥(Antonio Damasio)在其认知方面的开创性著作《笛卡尔的错误》(Descartes' Error,1994)中写道,大自然“创造出的调节理智的机制,绝不仅仅是凌驾于生物调节机制之上的,它源于生物调节机制,并与之相依相存”。也就是说,我们是在用整个身体思考,而非仅仅是利用大脑。

石黑浩制造的人形少女机器人 Kodomoroid。图源:Mashable

  我认为,在这个不确定的世界中,能让肉体存活下来的基本要件,就是人类灵活而强大的智慧基础。但是,很少有人工智能研究人员真正受到这种观点的影响。大多数人工智能算法的推动力,还是来源于从海量的训练数据中推断模型——所以,要想更精准地识别猫,需要成千上亿单只猫的照片。但是,恰恰相反,由于人类作为有机体而存在的需求,我们在更加广阔的环境里,建立了极其丰富的思维模型。我们基于经验和期望,在观察样本数目较少时就能推断可能的结果。因此,当一个人想到“猫”时,她脑海中可能会浮现出猫移动的样子,耳边有“咕噜咕噜”的声音,感受到一只爪子挠过来时的感觉。她具有十分丰富的感官信息储备,以帮助她理解“猫”的定义以及可能帮助她与这种生物互动的其他概念。

图源:Tumblr

  这意味着当人类探讨新问题之前,大部分艰难的工作已经完成了。我们的身体和大脑,用某种我们刚刚开始理解的方式,已经自细胞水平向上构建起了一个世界的模型,我们能够随时运用它来迎接各种挑战。

  但是对于 AI 算法而言,这个过程每次都得从 0 开始。“归纳转移”是一条活跃而重要的研究路线,它着眼于利用先前的机器学习成果来帮助构建新的解决方案。但是,就目前而言,这种方式是否能捕捉到像人类脑海里那么丰富种类的模型,还需要画个问号。

  在 2014 年 SwiftKey 为霍金推出新的交流系统的同一天,霍金接受了 BBC 的采访,并警告说机器可能会终结人类,你肯定能猜到这两个故事哪个会成为头条。我非常赞同霍金的观点,我们确实需要严肃对待“流氓的人工智能”,但是我相信,我们对于有些东西正在接近人类智慧的担心还为时尚早——除非我们能够仔细思考如何能让算法与外界环境之间建立长期且互相影响的关系,否则我们几乎不可能实现这个目标。

责任编辑:张燕妮 来源: bigthink
相关推荐

2023-05-05 14:02:59

人工智能聊天机器人

2022-01-06 22:29:35

人工智能机器人自动化

2023-05-19 21:11:43

人工智能

2023-07-07 07:06:47

2020-11-06 11:01:52

人工智能

2024-04-08 07:52:24

2017-12-19 14:48:30

人工智能教育交互

2023-06-06 10:19:28

2017-02-27 16:32:46

2018-08-17 15:17:56

人工智能层次极端

2023-01-04 17:17:13

人工智能数字化

2022-12-27 15:14:43

人工智能数据

2019-09-08 15:20:38

人工智能AI

2022-06-20 11:05:58

通用人工智能机器人

2021-07-20 09:47:06

机器人人工智能AI

2021-09-07 10:06:00

人工智能机器学习技术

2020-12-13 17:55:54

AI人工智能

2023-10-17 10:20:23

2022-07-29 15:47:25

人工智能AI

2021-11-05 09:56:36

人工智能AI指数
点赞
收藏

51CTO技术栈公众号