Caffe的深度学习训练全过程

人工智能 深度学习 企业动态
今天的目标是使用Caffe完成深度学习训练的全过程。Caffe是一款十分知名的深度学习框架,由加州大学伯克利分校的贾扬清博士于2013年在Github上发布。自那时起,Caffe在研究界和工业界都受到了极大的关注。Caffe的使用比较简单,代码易于扩展,运行速度得到了工业界的认可,同时还有十分成熟的社区。

[[189573]]

今天的目标是使用Caffe完成深度学习训练的全过程。Caffe是一款十分知名的深度学习框架,由加州大学伯克利分校的贾扬清博士于2013年在Github上发布。自那时起,Caffe在研究界和工业界都受到了极大的关注。Caffe的使用比较简单,代码易于扩展,运行速度得到了工业界的认可,同时还有十分成熟的社区。

对于刚开始学习深度学习的同学来说,Caffe是一款十分十分适合的开源框架。可其他同类型的框架,它又一个最大的特点,就是代码和框架比较简单,适合深入了解分析。今天将要介绍的内容都是Caffe中成型很久的内容,如今绝大多数版本的Caffe都包含这些功能。关于Caffe下载和安装的内容请各位根据官方网站指导进行下载和安装,这里就不再赘述了。

一个常规的监督学习任务主要包含训练与预测两个大的步骤,这里还是以Caffe中自带的例子——MNIST数据集手写数字识别为例,来介绍一下它具体的使用方法。

如果把上面提到的深度学习训练步骤分解得更细致一些,那么这个常规流程将分成这几个子步骤:

  1. 数据预处理(建立数据库)
  2. 网络结构与模型训练的配置
  3. 训练与在训练
  4. 训练日志分析
  5. 预测检验与分析
  6. 性能测试

下面就来一一介绍。

1. 数据预处理

首先是训练数据和预测数据的预处理。这里的工作一般是把待分析识别的图像进行简单的预处理,然后保存到数据库中。为什么要完成这一步而不是直接从图像文件中读取数据呢?因为实际任务中训练数据的数量可能非常大,从图像文件中读取数据并进行初始化的效率是非常低的,所以很有必要把数据预先保存在数据库中,来加快训练的节奏。

以下的操作将全部在终端完成。第一步是将数据下载到本地,好在MNIST的数据量不算大,如果大家的网络环境好,这一步的速度会非常快。首先来到caffe的安装根目录——CAFFE_HOME,然后执行下面的命令:

  1. cd data/mnist 
  2.  
  3. ./get_mnist.sh  

程序执行完成后,文件夹下应该会多出来四个文件,这四个文件就是我们下载的数据文件。第二步我们需要调用example中的数据库创建程序:

  1. cd $CAFFE_HOME 
  2.  
  3. ./examples/mnist/create_mnist.sh  

程序执行完成后,examples/mnist文件夹下面就会多出两个文件夹,分别保存了MNIST的训练和测试数据。值得一提的是,数据库的格式可以通过修改脚本的BACKEND变量来更换。目前数据库有两种主流选择:

  • LevelDB
  • LmDB

这两种数据库在存储数据和操纵上有一些不同,首先是它们的数据组织方式不同,这是LevelDB的内容: 

 

 

 

这是LMDB的内容: 

 

 

 

从结构可以看出LevelDB的文件比较多,LMDB的文件更为紧凑。

其次是它们的读取数据的接口,某些场景需要遍历数据库完成一些原始图像的分析处理,因此了解它们的数据读取方法也十分有必要。首先是LMDB读取数据的代码: 

 

 

其次是LevelDB读取的代码: 

 

 

最后回到本小节的问题:为什么要采用数据库的方式存储数据而不是直接读取图像?这里可以简单测试一下用MNIST数据构建的这两个数据库按序读取的速度,这里用系统函数time进行计时,结果如下: 

 

 

为了比较原始图像读入的速度,这里将MNIST的数据以jpeg的格式保存成图像,并测试它的读取效率(以Caffe python使用的scikit image为例),代码如下所示: 

 

 

最终的时间如下所示: 

 

 

由此可以看出,原始图像和数据库相比,读取数据的效率差距还是蛮大的。虽然在Caffe训练中数据读入是异步完成的,但是它还是不能够太慢,所以这也是在训练时选择数据库的原因。

至于这两个数据库之间的比较,这里就不再多做了。感兴趣的各位可以在一些大型的数据集上做一些实验,那样更容易看出两个数据集之间的区别。

2. 网络结构与模型训练的配置

上一节完成了数据库的创建,下面就要为训练模型做准备了。一般来说Caffe采用读入配置文件的方式进行训练。Caffe的配置文件一般由两部分组成:solver.prototxt和net.prototxt(有时会有多个net.prototxt)。它们实际上对应了Caffe系统架构中两个十分关键的实体——网络结构Net和求解器Solver。先来看看一般来说相对简短的solver.prototxt的内容,为了方便大家理解,所有配置信息都已经加入了注释: 

 

为了方便大家理解,这里将examples/mnist/lenet_solver.prototxt中的内容进行重新排序,整个配置文件相当于回答了下面几个问题:

  • 网络结构的文件在哪?
  • 用什么计算资源训练?CPU还是GPU?
  • 训练多久?训练和测试的比例是如何安排的,什么时候输出些给我们瞧瞧?
  • 优化的学习率怎么设定?还有其他的优化参数——如动量和正则呢?
  • 要时刻记得存档啊,不然大侠得从头来过了……

接下来就是net.prototxt了,这里忽略了每个网络层的参数配置,只把表示网络的基本结构和类型配置展示出来:

  1. name"LeNet" 
  2. layer { 
  3.   name"mnist"         
  4.   type: "Data"     
  5.   top"data"         
  6.   top"label" 
  7. layer { 
  8.   name"conv1"         
  9.   type: "Convolution"         
  10.   bottom: "data"         
  11.   top"conv1" 
  12. layer { 
  13.   name"pool1" 
  14.   type: "Pooling" 
  15.   bottom: "conv1" 
  16.   top"pool1" 
  17. layer { 
  18.   name"conv2" 
  19.   type: "Convolution" 
  20.   bottom: "pool1" 
  21.   top"conv2" 
  22. layer { 
  23.   name"pool2" 
  24.   type: "Pooling" 
  25.   bottom: "conv2" 
  26.   top"pool2" 
  27. layer { 
  28.   name"ip1" 
  29.   type: "InnerProduct" 
  30.   bottom: "pool2" 
  31.   top"ip1" 
  32. layer { 
  33.   name"relu1" 
  34.   type: "ReLU" 
  35.   bottom: "ip1" 
  36.   top"ip1" 
  37. layer { 
  38.   name"ip2" 
  39.   type: "InnerProduct" 
  40.   bottom: "ip1" 
  41.   top"ip2" 
  42. layer { 
  43.   name"loss" 
  44.   type: "SoftmaxWithLoss" 
  45.   bottom: "ip2" 
  46.   bottom: "label" 
  47.   top"loss" 

 

这里只展示了网络结构的基础配置,也占用了大量的篇幅。一般来说,这个文件中的内容超过100行都是再常见不过的事。而像大名鼎鼎的ResNet网络,它的文件长度通常在千行以上,更是让人难以阅读。那么问题来了,那么大的网络文件都是靠人直接编辑出来的么?不一定。有的人会比较有耐心地一点点写完,而有的人则不会愿意做这样的苦力活。实际上Caffe提供了一套接口,大家可以通过写代码的形式生成这个文件。这样一来,编写模型配置的工作也变得简单不少。下面展示了一段生成LeNet网络结构的代码: 

  

 

 

 

最终生成的结果大家都熟知,这里就不给出了。

  1. layer { 
  2.   name"data" 
  3.   type: "Data" 
  4.   top"data" 
  5.   top"label" 
  6.   transform_param { 
  7.     scale: 0.00390625 
  8.     mirror: false 
  9.   } 
  10.   data_param { 
  11.     source: "123" 
  12.     batch_size: 128 
  13.     backend: LMDB 
  14.   } 
  15. layer { 
  16.   name"conv1" 
  17.   type: "Convolution" 
  18.   bottom: "data" 
  19.   top"conv1" 
  20.   convolution_param { 
  21.     num_output: 20 
  22.     kernel_size: 5 
  23.     stride: 1 
  24.     weight_filler { 
  25.       type: "xavier" 
  26.     } 
  27.     bias_filler { 
  28.       type: "constant" 
  29.     } 
  30.   } 
  31. layer { 
  32.   name"pool1" 
  33.   type: "Pooling" 
  34.   bottom: "conv1" 
  35.   top"pool1" 
  36.   pooling_param { 
  37.     pool: MAX 
  38.     kernel_size: 2 
  39.     stride: 2 
  40.   } 
  41. layer { 
  42.   name"conv2" 
  43.   type: "Convolution" 
  44.   bottom: "pool1" 
  45.   top"conv2" 
  46.   convolution_param { 
  47.     num_output: 50 
  48.     kernel_size: 5 
  49.     stride: 1 
  50.     weight_filler { 
  51.       type: "xavier" 
  52.     } 
  53.     bias_filler { 
  54.       type: "constant" 
  55.     } 
  56.   } 
  57. layer { 
  58.   name"pool2" 
  59.   type: "Pooling" 
  60.   bottom: "conv2" 
  61.   top"pool2" 
  62.   pooling_param { 
  63.     pool: MAX 
  64.     kernel_size: 2 
  65.     stride: 2 
  66.   } 
  67. layer { 
  68.   name"ip1" 
  69.   type: "InnerProduct" 
  70.   bottom: "pool2" 
  71.   top"ip1" 
  72.   inner_product_param { 
  73.     num_output: 500 
  74.     weight_filler { 
  75.       type: "xavier" 
  76.     } 
  77.     bias_filler { 
  78.       type: "constant" 
  79.     } 
  80.   } 
  81. layer { 
  82.   name"relu1" 
  83.   type: "ReLU" 
  84.   bottom: "ip1" 
  85.   top"ip1" 
  86. layer { 
  87.   name"ip2" 
  88.   type: "InnerProduct" 
  89.   bottom: "ip1" 
  90.   top"ip2" 
  91.   inner_product_param { 
  92.     num_output: 10 
  93.     weight_filler { 
  94.       type: "xavier" 
  95.     } 
  96.     bias_filler { 
  97.       type: "constant" 
  98.     } 
  99.   } 
  100. layer { 
  101.   name"loss" 
  102.   type: "SoftmaxWithLoss" 
  103.   bottom: "ip2" 
  104.   bottom: "label" 
  105.   top"loss" 

 

大家可能觉得上面的代码并没有节省太多篇幅,实际上如果将上面的代码模块化做得更好些,它就会变得非常简洁。这里就不做演示了,欢迎大家自行尝试。

3. 训练与再训练

准备好了数据,也确定了训练相关的配置,下面正式开始训练。训练需要启动这个脚本: 

 

 

 

然后经过一段时间的训练,命令行产生了大量日志,训练过程也宣告完成。这时训练好的模型目录多出了这几个文件: 

 

很显然,这几个文件保存了训练过程中的一些内容,那么它们都是做什么的呢?*caffemodel*文件保存了caffe模型中的参数,*solverstate*文件保存了训练过程中的一些中间结果。保存参数这件事情很容易想象,但是保存训练中的中间结果就有些抽象了。solverstate里面究竟保存了什么?回答这个问题就需要找到solverstate的内容定义,这个定义来自src/caffe/proto/caffe.proto文件: 

 

从定义中可以很清楚的看出其内容的含义。其中history是一个比较有意思的信息,他存储了历史的参数优化信息。这个信息有什么作用呢?由于很多算法都依赖历史更新信息,如果有一个模型训练了一半停止了下来,现在想基于之前训练的成果继续训练,那么需要历史的优化信息帮助继续训练。如果模型训练突然中断训练而历史信息又丢失了,那么模型只能从头训练。这样的深度学习框架就不具备“断点训练”的功能了,只有"重头再来"的功能。现在的大型深度学习模型都需要很长的时间训练,有的需要训练好几天,如果框架不提供断点训练的功能,一旦机器出现问题导致程序崩溃,模型就不得不重头开始训练,这会对工程师的身心造成巨大打击……所以这个存档机制极大地提高了模型训练的可靠性。

从另一个方面考虑,如果模型训练彻底结束,这些历史信息就变得无用了。caffemodel文件需要保存下来,而solverstate这个文件可以被直接丢弃。因此这种分离存储的方式特别方便操作。

从刚才提到的“断点训练”可以看出,深度学习其实包含了“再训练”这个概念。一般来说“再训练”包含两种模式,其中一种就是上面提到的“断点训练”。从前面的配置文件中可以看出,训练的总迭代轮数是10000轮,每训练5000轮,模型就会被保存一次。如果模型在训练的过程中被一些不可抗力打断了(比方说机器断电了),那么大家可以从5000轮迭代时保存的模型和历史更新参数恢复出来,命令如下所示: 

 

 

这里不妨再深入一点分析。虽然模型的历史更新信息被保存了下来,但当时的训练场景真的被完全恢复了么?似乎没有,还有一个影响训练的关键因素没有恢复——数据,这个是不容易被训练过程精确控制的。也就是说,首次训练时第5001轮迭代训练的数据和现在“断点训练”的数据是不一样的。但是一般来说,只要保证每个训练批次(batch)内数据的分布相近,不会有太大的差异,两种训练都可以朝着正确的方向前进,其中存在的微小差距可以忽略不计。

第二种“再训练”的方式则是有理论基础支撑的训练模式。这个模式会在之前训练的基础上,对模型结构做一定的修改,然后应用到其他的模型中。这种学习方式被称作迁移学习(Transfer Learning)。这里举一个简单的例子,在当前模型训练完成之后,模型参数将被直接赋值到一个新的模型上,然后让这个新模型重头开始训练。这个操作可以通过下面这个命令完成: 

 

 

执行命令后Caffe会像往常一样开始训练并输出大量日志,但是在完成初始化之后,它会输出这样一条日志: 

 

 

这条日志就是在告诉我们,当前的训练是在这个路径下的模型上进行"Finetune"。

4. 训练日志分析

训练过程中Caffe产生了大量的日志,这些日志包含很多训练过程的信息,非常很值得分析。分析的内容有很多,其中之一就是分析训练过程中目标函数loss的变化曲线。在这个例子中,可以分析随着迭代轮数不断增加,Softmax Loss的变化情况。首先将训练过程的日志信息保存下来,比方说日志信息被保存到mnist.log文件中,然后用下面的命令可以将Iteration和Loss的信息提取并保存下来: 

 

 

提取后的信息可以用另一个脚本完成Loss曲线的绘图工作:

  1. import matplotlib.pyplot as plt 
  2. x = [] 
  3. y = [] 
  4. with open('loss_data'as f: 
  5.     for line in f: 
  6.         sps = line[:-1].split() 
  7.         x.append(int(sps[0])) 
  8.         y.append(float(sps[1])) 
  9. plt.plot(x,y) 
  10. plt.show() 

 

结果如图1所示,可见Loss很快就降到了很低的地方,模型的训练速度很快。这个优异的表现可以说明很多问题,但这里就不做过多地分析了。 

 

除此之外,日志中输出的其他信息也可以被观察分析,比方说测试环节的精确度等,它们也可以通过上面的方法解析出来。由于采用的方法基本相同,这里有不去赘述了,各位可以自行尝试。

正常训练过程中,日志里只会显示每一组迭代后模型训练的整体信息,如果想要了解更多详细的信息,就要将solver.prototxt中的调试信息打开,这样就可以获得更多有用的信息供大家分析:

  1. debug_info:true 

调试信息打开后,每一组迭代后每一层网络的前向后向计算过程中的详细信息都可以被观测到。这里截取其中一组迭代后的日志信息展示出来: 

  

 

 

如果想要对网络的表现做更多地了解,那么分析这些内容必不可少。

5. 预测检验与分析

模型完成训练后,就要对它的训练表现做验证,看看它在其他测试数据集上的正确性。Caffe提供了另外一个功能用于输出测试的结果。以下就是它的脚本: 

 

 

 

脚本的输出结果如下所示: 

 

 

 

除了完成测试的验证,有时大家还需要知道模型更多的运算细节,这就需要深入模型内部去观察模型产生的中间结果。使用Caffe提供的借口,每一层网络输出的中间结果都可以用可视化的方法显示出来,供大家观测、分析模型每一层的作用。其中的代码如下所示: 

  

 

 

执行上面的代码就可以生成如图2到图5这几张图像,它们各代表一个模型层的输出图像: 

 

 

    

 

 

  

 

 

 

这一组图展示了卷积神经网络是如何把一个数字转变成特征编码的。这样的方法虽然可以很好地看到模型内部的表现,比方说conv1的结果图中有的提取了数字的边界,有的明确了前景像素所在的位置,这个现象和第3章中举例的卷积效果有几分相似。但是到了conv2的结果图中,模型的输出就变得让人有些看不懂了。实际上想要真正看懂这些图像想表达的内容确实有些困难的。

6. 性能测试

除了在测试数据上的准确率,模型的运行时间也非常值得关心。如果模型的运行时间太长,甚至到了不可用的程度,那么即使它精度很高也没有实际意义。测试时间的脚本如下所示: 

 

Caffe会正常的完成前向后向的计算,并记录其中的时间。以下是使一次测试结果的时间记录: 

 

 

可以看出在性能测试的过程中,Lenet模型只需要不到1毫秒的时间就可以完成前向计算,这个速度还是很快的。当然这是在一个相对不错的GPU上运行的,那么如果在一个条件差的GPU上运行,结果如何呢? 

 

 

可以看到不同的环境对于模型运行的时间影响很大。

以上就是模型训练的一个完整过程。现在相信大家对深度学习模型的训练和使用有了基本的了解。实际上看到这里大家甚至可以扔下书去亲自实践不同模型的效果,开始深度学习的实战之旅。

最后放一张Caffe源代码的架构图,以方便大家研究Caffe源码。 

 

作者介绍冯超,毕业于中国科学院大学,现就职于猿辅导公司,从事视觉与深度学习的应用研究工作。自2016年起在知乎开设了自己的专栏——《无痛的机器学习》(https://zhuanlan.zhihu.com/hsmyy),发表一些机器学习和深度学习的文章,收到了不错的反响。 

责任编辑:庞桂玉 来源: 大数据杂谈
相关推荐

2011-06-24 13:08:34

Qt Qt 4.5.3 移植

2011-04-18 15:56:10

软件测试

2011-02-22 10:46:02

Samba配置

2010-03-17 17:20:15

Java class线

2011-08-30 18:01:20

2009-12-08 17:56:16

WCF配置

2011-01-21 17:51:52

2009-04-13 12:37:18

2011-09-06 15:38:20

QT安装

2010-06-11 13:15:07

UML软件

2010-03-01 17:01:03

Python编程技巧

2012-11-06 10:19:18

Java自定义加载Java类

2009-06-10 16:55:42

cygwin netb安装

2010-06-17 13:10:09

Linux Grub修

2010-03-10 13:24:45

Zend Debugg

2010-11-19 10:11:49

Oracle物化视图

2011-03-11 10:39:02

YUM安装LAMP

2010-07-21 14:51:19

telnet-serv

2010-06-12 10:03:20

Ubuntu Grub

2019-05-14 15:27:31

MongoDB自动备份数据库
点赞
收藏

51CTO技术栈公众号