TensorFlow 2.9上线:oneDNN改进实现CPU性能优化,WSL2开箱即用

人工智能
英特尔表示:我们很高兴与 GoogleAI 合作,将 oneDNN 库作为 TensorFlow 2.9 中的默认后端 CPU 优化!

昨日,TensorFlow 官方宣布:TensorFlow 2.9 来了!距离上次  2.8 版本 的更新仅仅过去三个月。

新版本亮点包括如下:

  • oneDNN 的性能改进;
  • DTensor 的发布,这是一种新 API,可用于从数据并行无缝迁移到模型并行;
  • 对核心库进行了改进,包括 Eigen、tf.function 统一以及对 Windows 的 WSL2 的新支持;
  • 还为 tf.function retracing 和 Keras 优化器发布了新的实验性 API。

下面让我们来看看 TensorFlow 2.9 具体的改进都有哪些。

TensorFlow 2.9 新特性

提高 CPU 性能:oneDNN

TensorFlow 已经与英特尔合作,将 oneDNN 性能库与 TensorFlow 集成,以实现在英特尔 CPU 上的最高性能。从 TensorFlow 2.5 以来,TensorFlow 已经对 oneDNN 进行了实验性支持,它可以提供高达 4 倍的性能提升。在 TensorFlow 2.9 中,默认在 Linux x86 包和具有神经网络硬件功能(如 AVX512_VNNI、AVX512_BF16、AMX 等)的 CPU 上启用 oneDNN 优化,这些功能可在 Intel Cascade Lake 和更新的 CPU 上找到。

英特尔表示:我们很高兴与 GoogleAI 合作,将 oneDNN 库作为 TensorFlow 2.9 中的默认后端 CPU 优化!TensorFlow 用户现在将看到由我们的开放软件优化驱动的 AI 性能加速,无需更改代码!

在启用 oneDNN 优化的情况下运行 TensorFlow 的用户,可能会观察到与关闭优化时略有不同的数值结果,这是因为浮点舍入方法和顺序不同,可能会产生轻微的误差。

如果上述情况给你带来麻烦,请在运行 TensorFlow 程序之前通过设置 TF_ENABLE_ONEDNN_OPTS=0 来关闭优化。假如你要重新启用它们,请在运行 TensorFlow 程序之前设置 TF_ENABLE_ONEDNN_OPTS=1。要验证优化是否启用,请在程序日志中查找以 oneDNN custom operations are on 开头的消息。 

DTensor

DTensor 是一种新的 TensorFlow API,可用于分布式模型处理,它允许模型无缝地从数据并行迁移到基于单程序多数据(SPMD)的模型并行。

DTensor 的核心设计原则如下:

  • 设备无关 API:这允许在 CPU、GPU 或 TPU 上使用相同的模型代码,包括跨设备类型划分的模型;
  • 多客户端执行:移除 coordinator 并让每个任务驱动其本地连接的设备,从而允许在不影响启动时间的情况下扩展模型;
  • global perspective VS per-replica:传统上使用 TensorFlow,分布式模型代码是围绕 replicas 编写的,但使用 DTensor,模型代码是从 global perspective 编写的,每个 replica 代码由 DTensor 运行时生成和运行。

TensorFlow 官方已经开发了几个关于 DTensor 的入门教程,参考资料如下:

  • DTensor 概念:https://www.tensorflow.org/guide/dtensor_overview
  • 带有 DTensors 分布式 ML:https://www.tensorflow.org/tutorials/distribute/dtensor_ml_tutorial
  • 将 DTensors、Keras 联合使用:https://www.tensorflow.org/tutorials/distribute/dtensor_keras_tutorial

tf.function 的 TraceType

新版本已经改进了 tf.function 回溯(retraces)方式,使其更简单、可预测和可配置。

所有关于 tf.function 的参数被分配一个 tf.types.experimental.TraceType。自定义用户类可以使用跟踪协议(tf.types.experimental.SupportsTracingProtocol)声明一个 TraceType。TraceType 系统使理解追溯规则变得很容易。

支持 WSL2

WSL2 允许开发人员直接在 Windows 上运行 Linux 环境,而不需要传统虚拟机或双启动设置。TensorFlow 现在支持 WSL2 开箱即用,包括 GPU 加速。

确定性行为

API tf.config.experimental.enable_op_determinism 使得 TensorFlow 的 op 是确定性的。确定性意味着如果用户使用相同的输入多次运行一个 op,则 op 每次都返回完全相同的输出,这对于调试模型很有用。

通常来讲,许多 op 是不确定的,因为在 op 中使用了线程,这些线程可以以不确定的顺序添加浮点数。

TensorFlow 2.8 引入了一个 API 来使 op 具有确定性,TensorFlow 2.9 在某些情况下提高了确定性性能。如果你希望 TensorFlow 模型确定性地运行,只需将以下内容添加到程序的开头:

<code>tf.keras.utils.set_random_seed(1)</code>
<code>tf.config.experimental.enable_op_determinism()</code>

第一行设置 Python、NumPy 和 TensorFlow 的随机种子,这是确定性所必需的。第二行使每个 TensorFlow op 具有确定性。请注意,确定性通常是以降低性能为代价的,因此当启用 op 确定性时,你的模型可能会运行得更慢。

使用 Keras 优化训练

TensorFlow 2.9 中添加了 Keras Optimizer API 的新实验版本,即 tf.keras.optimizers.experimental。该 API 提供更统一和扩展的内置优化器目录,用户可以更轻松地定制和扩展。

在未来的版本中,tf.keras.optimizers.experimental.Optimizer(及子类)将取代 tf.keras.optimizers.Optimizer(及子类),这意味着使用旧版本 Keras 优化器的工作流将自动切换至新的优化器。

如下为新优化器类的一些亮点:

  • 一些模型的训练速度越来越快;
  • 更易于编写自定义优化器;
  • 内置对模型权重移动平均的支持(Polyak 平均)。
责任编辑:张燕妮 来源: 机器之心
相关推荐

2021-09-01 17:43:32

StreamNativ开源

2022-01-03 18:15:35

FlaskTepHttpRunner

2021-07-26 09:45:24

Windows 11WSL2Linux

2022-12-07 19:12:46

移动开发性能优化

2020-11-20 21:45:26

WSL2Fedora 33Linux

2021-08-31 15:53:48

Nuxt 开箱服务

2019-07-01 06:30:07

微软开发Linux

2023-01-15 20:28:32

前端图片压缩

2023-03-08 21:25:58

开源工具库开箱

2023-11-04 12:43:44

前端图片参数

2022-08-08 08:29:55

图片压缩前端互联网

2021-03-09 08:58:51

windowsemacswsl2

2022-01-12 12:20:18

GNOMEUbuntuLinux

2021-09-26 05:41:47

基础设施连接无线技术网络

2017-01-09 13:21:24

达沃超融合

2019-12-10 08:10:35

LinuxCPU性能优化

2013-11-01 09:37:19

Android系统架构工具

2021-09-28 09:30:18

uni-appVue 3.0uniCloud

2023-01-29 07:49:57

点赞
收藏

51CTO技术栈公众号