图像识别:卷积神经网络

人工智能 算法
激活卷积操作是线性的,只能进行线性的映射,表达能力有限。因此针对非线性映射问题的处理是,需要引入非线性激活函数。对于处理不同的非线性问题,引入的激活函数也不同,常用的主要有sigmoid、tanh、relu等。

​ 本文转载自微信公众号「活在信息时代」,作者活在信息时代。转载本文请联系活在信息时代公众号。

卷积神经网络层(Convolutional Neural Network,CNN)是一种特殊的深层前馈网络,一般包括数据输入层、卷积层、激活层、下采样层和全连接层。

图片

卷积层是卷积神经网络中重要的单元,它的构成是一系列对数据进行滤波的卷积核,其本质就是图像的局部区域与卷积核的权值加权求和的线性叠加过程。图像I作为输入,使用二维的卷积核K进行卷积,则卷积过程可表示为:

图片

其中,I(i,j)为图像在(i,j)位置的值,S(i,j)为卷积运算后得到的特征图。

激活卷积操作是线性的,只能进行线性的映射,表达能力有限。因此针对非线性映射问题的处理是,需要引入非线性激活函数。对于处理不同的非线性问题,引入的激活函数也不同,常用的主要有sigmoid、tanh、relu等。

Sigmoid函数表达式为:

图片


Tanh函数表达式为:

图片


Relu函数的表达式为:

图片

下采样层又叫池化层,一般会放在几个卷积层之后,来减小特征图像的大小。池化函数使用某一位置的相邻输出的总体统计特征来代替网络在该位置的输出。一般池化层有三个功能:一是降低特征维度,池化操作相当于又进行了一次特征提取过程,可以去除冗余信息,减小下一层的数据处理量。二是为了防止过拟合,池化操作获得更为抽象的信息,提高泛化性。三是保持特征不变性,池化操作保留最重要的特征。

全连接层通常放在卷积神经网络的尾部,层与层之间所有的神经元都有权值连接。目的是将网络中学习到的特征全部映射到样本的标记空间,从而进行类别判断。Softmax函数通常用在神经网络的最后一层,作为分类器的输出,softmax函数输出的每个值的范围都在(0,1)之间。

有一些经典高效的CNN模型,例如:VGGNet、ResNet、AlexNet等,都已广泛应用于图像识别领域。

责任编辑:武晓燕 来源: 今日头条
相关推荐

2017-09-08 13:30:32

深度学习图像识别卷积神经网络

2022-10-19 07:42:41

图像识别神经网络

2018-08-28 16:45:38

图像识别神经网络人工智能

2017-04-26 09:30:53

卷积神经网络实战

2022-06-16 10:29:33

神经网络图像分类算法

2022-10-20 09:33:35

2022-04-07 09:01:52

神经网络人工智能

2017-05-04 18:30:34

大数据卷积神经网络

2018-02-05 08:58:36

Python神经网络识别图像

2019-01-05 08:40:17

VGG神经网络

2018-04-08 11:20:43

深度学习

2020-03-25 09:48:10

AI芯片神经网络

2018-01-29 00:16:16

神经网络递归卷积深度学习

2022-02-17 10:34:21

神经网络识别验证码

2019-06-06 09:00:02

卷积神经网络CNNAI

2017-11-24 11:10:39

神经网络卷积神经网络全连接神经网络

2021-06-29 09:53:06

神经网络数据图形

2018-08-27 17:05:48

tensorflow神经网络图像处理

2018-04-09 10:20:32

深度学习

2021-04-09 20:49:44

PythonOCR图像
点赞
收藏

51CTO技术栈公众号