AI军备竞赛催生未来AI硬件架构发展3大方向

新闻 人工智能
随着人们越来越多地使用 AI 来解决各个领域的问题,一场“ AI 军备竞赛”就此打响,即创造出能够以更高速度和更低功耗运行深度学习模型的专用硬件。

本文转自雷锋网,如需转载请至雷锋网官网申请授权。

随着人们越来越多地使用 AI 来解决各个领域的问题,一场“ AI 军备竞赛”就此打响,即创造出能够以更高速度和更低功耗运行深度学习模型的专用硬件,以实现翻译应用程序、数字助手、面部识别系统、内容推荐系统等方面的功能,甚至在医疗保健和自动驾驶等领域取得更大的进步。包括新的芯片架构在内,这场竞赛中已经有了众多新突破;而这些突破正在以前所未有的全新方式来执行任务。

针对这一现象,软件工程师兼科技博客 TechTalks 创始人 Ben Dickson 表示,通过对这些新突破的洞察,我们或许可以对未来几年里的 AI 硬件架构的发展窥见一二。

以下是 Ben Dickson 的观点,雷锋网在不改变原意的基础上作了编译和补充。

神经形态芯片

[[277798]]

神经网络是深度学习的关键,它由成千上万个人工神经元组成。无论是简单的计算,还是例如图像识别和语音识别等复杂的任务,都离不开(人工)神经网络。然而,目前,人们对传统计算机的升级并不基于对神经网络的优化,而是基于一个或多个更加强大的中央处理器(CPU)。

神经形态计算机则与传统计算机不同,因为它使用一种独特的芯片架构来模拟神经网络,即神经形态芯片。该芯片由许多物理形态的人工神经元组成,在训练和运行神经网络时十分快速高效。

实际上,神经形态计算的概念早在 20 世纪 80 年代就已经出现,但由于当时神经网络的效率太低,这个概念并没有引起太多关注。近年来,随着人们对深度学习和神经网络的兴趣重燃,神经形态芯片的研究也受到了新的关注。

今年 8 月,顶级学术期刊《自然》(Nature)刊登了清华大学施路平教授团队的一项研究,该研究还登上了该期的封面。

杂志中名为《面向人工通用智能的异构天机芯片架构》(Towards artificial general intelligence with hybrid Tianjic chip architecture)的论文介绍道,清华大学施路平教授的团队研究出了一款叫作“天机”(Tianjic)的新型人工智能芯片,也就是本文说到的神经形态芯片;它结合了类脑计算和基于计算机科学的人工智能。

为了验证这款全球首款异构融合的 AI 芯片,研究团队设计了无人智能自行车系统。据悉,该系统包括了激光测速、陀螺仪、摄像头等传感器,刹车电机、转向电机、驱动电机等致动器,以及控制平台、计算平台、天机板级系统等处理平台。

论文的第一作者,加州大学圣塔芭芭拉分校博士后邓磊认为:

比起自动驾驶飞机,智能自行车看起来很小,但实际上它是一个“五脏俱全”的小型类脑技术平台......无人自行车系统的语音识别、自主决策、视觉追踪功能运用了模拟大脑的模型,而目标探测、运动控制和躲避障碍功能运用了机器学习算法模型。

虽然没有直接证据表明神经形态芯片是创造通用人工智能的正确道路,但它们的研发肯定会帮助更高效的人工智能硬件诞生。而且,神经形态计算已经引起了大型科技公司的注意——今年 7 月,英特尔推出了 Pohoiki Beach,这是一台装有 64 块英特尔 Loihi 神经形态芯片的电脑,能够模拟总共 800 万个人工神经元;Loihi 处理信息的速度比传统处理器快 1000 倍,效率比传统处理器高 10000 倍。

不过,这款神经形态芯片并不适合替代传统的 CPU 架构,它的潜力在于加速诸如约束满足问题、图形搜索和稀疏编码等专门应用。英特尔还承诺在今年晚些时候将 Pohoiki Beach 扩大到 1 亿个神经元。

光学计算

[[277799]]

众所周知,神经网络和深度学习计算需要大量的计算资源和电力,而人工智能的碳足迹已然成为一个环境问题。在今年 6 月份,研究人员估算表示,训练一个 AI 所产生的碳足迹相当于 284 吨二氧化碳当量,这是普通汽车使用寿命内排放量的五倍。与此同时,神经网络的能源消耗也限制了它们在电力有限的环境中的应用。

随着摩尔定律继续放缓,传统的电子芯片的发展想要满足人工智能行业的需求变得越来越吃力。目前,已经有几家公司和实验室将目光转向了光学计算,以寻求解决方案——光学计算用光子代替电子,用光学信号代替数字信号,从而进行计算。由于光学计算设备不像铜电缆那样产生热量,这大大降低了它们的能源消耗;光学计算也特别适用于快速矩阵乘法,这是神经网络中的关键运算之一。

在过去的几个月里,已经出现了几款光学 AI 芯片的原型机。总部位于波士顿的 Lightelligence 公司就开发了一种光学人工智能加速器,该加速器与当前的电子硬件兼容,通过优化一些繁重的神经网络计算,可以将人工智能模型的性能提高一到两个数量级。Lightelligence 的工程师表示,光学计算的进步也将降低人工智能芯片的制造成本。

最近,香港科技大学的研究人员开发了一种全光神经网络。为了确认这种新方法的能力和可行性,他们构建了一个概念验证模型,即一个具有 16 个输入和 2 个输出的完全连接的双层神经网络,然后使用全光学网络对 Ising 模型的有序和无序阶段进行分类。结果表明,全光学神经网络与训练有素的基于计算机的神经网络一样准确。

研究小组成员刘俊伟说:

我们的全光学方案可以使神经网络以光速执行光学并行计算,而消耗的能量却很少。大规模的全光学神经网络可以用于从图像识别到科学研究的各种应用。

大型芯片

[[277800]]

雷锋网注:上图为 Cerebras 公司的大型芯片

有时,扩大规模确实是解决问题的好方法。今年 8 月,硅谷初创企业 Cerebras Systems 推出了一款包含 1.2 万亿晶体管的大型人工智能芯片,这也是有史以来最大的半导体芯片;除此之外,它在 42225 平方毫米的面积上拥有 40 万个内核,比 Nvidia 最大规模的图形处理器还要大 56.7 倍,后者的尺寸为 815 平方毫米。

这种大型芯片加快了数据处理速度,能够以更快的速度训练人工智能模型——据悉,Google、Facebook、OpenAI、腾讯,百度以及其他许多公司都认为,当今 AI 的基本局限性在于训练模型花费的时间太长。因此,减少 AI 训练时间可以消除了整个行业进步的主要瓶颈。与传统的 GPU 和 CPU 相比,这种超大型芯片的独特架构还减少了能耗。

Linley Group 首席分析师 Linley Gwennap 在一份声明中说:

 Cerebras 的晶片级技术取得了巨大的飞跃,在单个硅片上实现了远远超出任何人想象的处理性能。为完成这一壮举,该公司甚至解决了一系列困扰工程行业数十年的恶性工程挑战。

Cerebras 最近还与美国能源部签订了一份合同,美国能源部将利用该芯片加速科学、工程和健康领域的深度学习研究。

不过,制造出超大规模的芯片并不意味着万事大吉。因为芯片的尺寸将会受到使用空间的限制;而且,芯片制造商通常也不会制造这么大规模的芯片,因为在制造过程中很有可能出现杂质,从而导致芯片故障。

由于目前各行各业都在为深度学习寻找应用场景,单一芯片架构主导市场的可能性很小。但可以肯定的是,未来的人工智能芯片很可能与过去数十年里的经典 CPU 不尽相同。

 

责任编辑:张燕妮 来源: 雷锋网
相关推荐

2015-08-26 11:20:37

程序员发展方向

2010-08-31 15:47:25

2018-08-31 10:31:49

AI人工智能人才

2013-01-24 09:55:10

ARM英特尔移动芯片

2018-12-28 07:10:05

2023-02-20 13:59:35

2018-02-23 14:12:20

数据中心技术人工智能

2010-07-23 09:48:01

虚拟化

2023-10-28 13:32:57

谷歌模型

2009-03-15 09:50:44

诺基亚手机OS苹果

2020-12-02 14:24:40

处理器AICPU

2018-06-13 08:09:57

2023-12-19 16:30:20

2023-08-04 11:06:49

数据科学机器学习

2009-05-15 08:48:11

上网行为管理网络安全网康科技

2011-09-29 17:13:08

通信展2011通信展

2009-04-23 14:32:37

3G无线互联网牌照

2023-11-09 13:07:58

2018-02-10 18:15:36

2012-05-04 13:23:02

点赞
收藏

51CTO技术栈公众号