深度学习库 TensorFlow (TF) 中的候选采样

开发 开发工具
在从事深度学习过程中, 如果我们想训练一个类别非常多的分类器 (比如一个拥有巨大词汇库的语言模型), 正常的训练过程将非常缓慢。深度学习库 TensorFlow (TF) 实现了候选采样技巧, 并提供了一些 API。

在从事深度学习过程中,如果我们想训练一个类别非常多的分类器 (比如一个拥有巨大词汇库的语言模型),正常的训练过程将非常缓慢。这是由于在训练过程中,所有的类别都需要进行评估。为了解决这个问题,人们发明了候选采样的技巧,每次只评估所有类别的一个很小的子集。深度学习库 TensorFlow (TF) 实现了候选采样技巧,并提供了一些 API。

深度学习库

一、候选采样函数

候选采样函数,从巨大的类别库中,按照一定原则,随机采样出类别子集。TF 提供下面几个候选采样函数, 其中前面三个的参数和返回值是一致的,第四个也很类似。具体参数和返回值可以移步 TF 文档。

1. tf.nn.uniform_candidate_sampler

均匀地采样出类别子集。

2. tf.nn.log_uniform_candidate_sampler

按照 log-uniform (Zipfian) 分布采样。

候选采样函数

这个函数主要用于处理词作类别的情况。在语言学中,词按照出现频率从大到小排序之后,服从 Zipfian 分布。在使用这个函数之前,需要对类别按照出现频率从大到小排序。

3. tf.nn.learned_unigram_candidate_sampler

按照训练数据中类别出现分布进行采样。具体实现方式:1)初始化一个 [0, range_max] 的数组, 数组元素初始为1; 2) 在训练过程中碰到一个类别,就将相应数组元素加 1;3) 每次按照数组归一化得到的概率进行采样。

4. tf.nn.fixed_unigram_candidate_sampler

按照用户提供的概率分布进行采样。

如果类别服从均匀分布,我们就用uniform_candidate_sampler;如果词作类别,我们知道词服从 Zipfian, 我们就用 log_uniform_candidate_sampler; 如果我们能够通过统计或者其他渠道知道类别满足某些分布,我们就用 nn.fixed_unigram_candidate_sampler; 如果我们实在不知道类别分布,我们还可以用 tf.nn.learned_unigram_candidate_sampler。

其实我蛮好奇 tf 内部怎么实现快速采样的,特别是 tf.nn.learned_unigram_candidate_sampler 概率分布在变的情况下,我知道最快的采样算法也是 O(n) 的。不知道 tf 有没有更快的算法。

二、候选采样损失函数

候选采样函数生成类别子集。类别子集需要送给候选采样损失函数计算损失,最小化候选采样损失便能训练模型。TF 提供下面两个候选采样损失函数。这两个采样损失函数的参数和返回值是一致的, 具体参数和返回值可以移步 TF 文档。

1. tf.nn.sampled_softmax_loss

这个函数通过 模型的交叉熵损失。候选类别子集由采样类别 和真实类别 组成,即 。模型***一层输出是 , 经过 softmax 激活函数转成模型输出的概率得出 。

因为只有候选类别子集 , 没有类别全集 L,我们无法计算 ,进而计算交叉熵损失。通过候选类别子集,我们只能计算 。那么怎么优化相关的损失函数,我们又得到什么呢?。

其中 K 是和 y 无关的数。我们得到概率计算公式和交叉熵损失。

最小化 J 训练模型。

2. tf.nn.nce_loss

NCE Loss 和 Sampled Softmax Loss 的出发点是一致, 都是想使得模型输出 。它们的不同点在于 Sampled Softmax Loss 只支持 Single-Label 分类,而 NCE 支持 Multi-Label 分类。候选类别子集 由采样类别 和真实类别 组成,即 。对于候选类别子集中的每一个类别,都建立一个 Logistic 二分类问题,其损失函数为

最小化 J 训练模型。

三、候选采样限制

很多时候, 负类别由问题给定。比如我们训练分类器玩斗地主扑克, 下面几个性质:

  1. 斗地主中所有可能的出牌动作非常多;
  2. 对于一副牌局, 所有可选动作至多只有几百个;
  3. 对于一副牌局, 我们选择人类高手出牌动作为正类别,我们将人类高手没有选择的出牌动作作为负样本;
  4. 按照当前牌局构建出的训练样本, 正类别只有一个, 负类别至多几百个而且由当前牌局决定。

在上述问题中, 不同牌局的候选动作的个数不一样, 我们无法使用候选采样的方法进行训练。候选采样只能采样出相同个数的类别。一方面 TF 的基本单元是 Tensor, 要求各个维度一致。另一方面是由于候选采样为了 Word2Vec 中的 Negative sampling 等场景设计, 这些场景只需要挑选一些负类别反映非正类别的特性。

四、总结

候选采样加速了类别数量巨大的训练过程。TF 提供了候选采样相关 API,方便人们使用。

【本文为51CTO专栏作者“李立”的原创稿件,转载请通过51CTO获取联系和授权】

戳这里,看该作者更多好文

责任编辑:赵宁宁 来源: 51CTO专栏
相关推荐

2017-05-30 16:16:38

TensorFlow候选采样深度学习

2018-09-06 08:00:00

深度学习TensorFlowPython

2017-09-21 12:29:58

深度学习TensorFlow智能终端

2017-12-01 15:24:04

TensorFlow深度学习教程

2018-01-26 14:55:43

TensorFlow深度学习演进

2017-05-22 13:15:45

TensorFlow深度学习

2017-02-08 17:08:32

谷歌深度学习计算图

2017-08-16 10:57:52

深度学习TensorFlowNLP

2017-05-12 16:25:44

深度学习图像补全tensorflow

2016-12-23 09:09:54

TensorFlowKubernetes框架

2021-05-28 17:18:44

TensorFlow数据机器学习

2017-08-10 15:31:57

Apache Spar TensorFlow

2022-11-13 08:11:03

TensorFlow人工智能开源

2017-03-01 19:58:00

深度学习TensorFlow

2018-04-11 17:50:14

深度学习PyTorchTensorFlow

2017-08-22 16:20:01

深度学习TensorFlow

2016-12-21 16:40:22

TensorFlow深度学习算法大数据

2018-04-09 10:20:32

深度学习

2016-12-06 08:51:48

深度学习TensorFlow机器学习

2020-05-19 14:29:50

机器学习TensorFlow
点赞
收藏

51CTO技术栈公众号