用 CuPy 将Numpy加速700倍?

开发 后端
本文介绍了如何利用 CuPy 库来加速 Numpy 运算速度。

 就其自身来说,Numpy 的速度已经较 Python 有了很大的提升。当你发现 Python 代码运行较慢,尤其出现大量的 for-loops 循环时,通常可以将数据处理移入 Numpy 并实现其向量化最高速度处理。

但有一点,上述 Numpy 加速只是在 CPU 上实现的。由于消费级 CPU 通常只有 8 个核心或更少,所以并行处理数量以及可以实现的加速是有限的。

这就催生了新的加速工具——CuPy 库。

何为 CuPy?

CuPy 是一个借助 CUDA GPU 库在英伟达 GPU 上实现 Numpy 数组的库。基于 Numpy 数组的实现,GPU 自身具有的多个 CUDA 核心可以促成更好的并行加速。

CuPy 接口是 Numpy 的一个镜像,并且在大多情况下,它可以直接替换 Numpy 使用。只要用兼容的 CuPy 代码替换 Numpy 代码,用户就可以实现 GPU 加速。

CuPy 支持 Numpy 的大多数数组运算,包括索引、广播、数组数学以及各种矩阵变换。

如果遇到一些不支持的特殊情况,用户也可以编写自定义 Python 代码,这些代码会利用到 CUDA 和 GPU 加速。整个过程只需要 C++格式的一小段代码,然后 CuPy 就可以自动进行 GPU 转换,这与使用 Cython 非常相似。

在开始使用 CuPy 之前,用户可以通过 pip 安装 CuPy 库: 

  1. pip install cupy 

使用 CuPy 在 GPU 上运行

为符合相应基准测试,PC 配置如下:

  •  i7–8700k CPU
  •  1080 Ti GPU
  •  32 GB of DDR4 3000MHz RAM
  •  CUDA 9.0

CuPy 安装之后,用户可以像导入 Numpy 一样导入 CuPy: 

  1. import numpy as np  
  2. import cupy as cp  
  3. import time 

在接下来的编码中,Numpy 和 CuPy 之间的切换就像用 CuPy 的 cp 替换 Numpy 的 np 一样简单。如下代码为 Numpy 和 CuPy 创建了一个具有 10 亿 1』s 的 3D 数组。为了测量创建数组的速度,用户可以使用 Python 的原生 time 库: 

  1. ### Numpy and CPU  
  2. s = time.time()  
  3. *x_cpu = np.ones((1000,1000,1000))*  
  4. e = time.time()  
  5. print(e - s)### CuPy and GPU  
  6. s = time.time()  
  7. *x_gpu = cp.ones((1000,1000,1000))*  
  8. e = time.time()  
  9. print(e - s) 

这很简单!

令人难以置信的是,即使以上只是创建了一个数组,CuPy 的速度依然快得多。Numpy 创建一个具有 10 亿 1』s 的数组用了 1.68 秒,而 CuPy 仅用了 0.16 秒,实现了 10.5 倍的加速。

但 CuPy 能做到的还不止于此。

比如在数组中做一些数学运算。这次将整个数组乘以 5,并再次检查 Numpy 和 CuPy 的速度。 

  1. ### Numpy and CPU  
  2. s = time.time()  
  3. *x_cpu *= 5*  
  4. e = time.time()  
  5. print(e - s)### CuPy and GPU  
  6. s = time.time()  
  7. *x_gpu *= 5*  
  8. e = time.time()  
  9. print(e - s) 

果不其然,CuPy 再次胜过 Numpy。Numpy 用了 0.507 秒,而 CuPy 仅用了 0.000710 秒,速度整整提升了 714.1 倍。

现在尝试使用更多数组并执行以下三种运算:

  1.  数组乘以 5
  2.  数组本身相乘
  3.  数组添加到其自身 
  1. ### Numpy and CPU  
  2. s = time.time()  
  3. *x_cpu *= 5  
  4. x_cpu *= x_cpu  
  5. x_cpu += x_cpu*  
  6. e = time.time()  
  7. print(e - s)### CuPy and GPU  
  8. s = time.time()  
  9. *x_gpu *= 5  
  10. x_gpu *= x_gpu  
  11. x_gpu += x_gpu*  
  12. e = time.time()  
  13. print(e - s) 

结果显示,Numpy 在 CPU 上执行整个运算过程用了 1.49 秒,而 CuPy 在 GPU 上仅用了 0.0922 秒,速度提升了 16.16 倍。

数组大小(数据点)达到 1000 万,运算速度大幅度提升

使用 CuPy 能够在 GPU 上实现 Numpy 和矩阵运算的多倍加速。值得注意的是,用户所能实现的加速高度依赖于自身正在处理的数组大小。下表显示了不同数组大小(数据点)的加速差异:

数据点一旦达到 1000 万,速度将会猛然提升;超过 1 亿,速度提升极为明显。Numpy 在数据点低于 1000 万时实际运行更快。此外,GPU 内存越大,处理的数据也就更多。所以用户应当注意,GPU 内存是否足以应对 CuPy 所需要处理的数据。 

 

责任编辑:庞桂玉 来源: 马哥Linux运维
相关推荐

2019-11-01 10:49:21

技术开源应用

2022-08-09 09:10:31

TaichiPython

2019-12-25 14:08:50

Pandas数据计算

2022-10-27 08:31:31

架构

2022-09-20 10:50:34

PandasNumPy

2013-09-24 09:40:41

Java图形加速

2023-05-23 14:06:53

微软研究

2018-11-26 14:56:15

云计算UCloud云主机

2020-04-07 11:30:12

人工智能AI智慧城市

2023-11-07 09:00:00

Python

2022-01-08 19:00:09

NumPyPython编程语言

2020-09-20 21:46:00

量子芯片网络

2022-05-26 08:12:39

PandasApply技巧

2022-04-18 13:42:46

区块链金融安全

2021-06-02 08:46:55

5G碳排放数字基础设施

2013-04-02 11:33:45

2014-04-16 16:20:28

2014~2015年C

2022-04-26 15:09:14

优化模型训练

2022-06-27 08:42:05

代码sklearn机器学习
点赞
收藏

51CTO技术栈公众号