深度学习之深度卷积神经网络详解

电子说

1.3w人已加入

描述

卷积神经网络又简称卷积网络,是一种用来处理网格状结构数据的特殊网络结构。像时序数据通常被认为是一维的数据格式,而图片则被认为是二维的数据格式,卷积神经网络在处理这种二维结构的数据上取得了巨大的成功。卷积神经网络的研究是受到1962年对猫的视觉皮层细胞研究的启发,然后提出了感受野(Receptive Field)的概念。

1982年,Fukushima在感受野概念的基础上提出的神经认知机(Neocognitron)可以看作是卷积神经网络的第一个实现版本。神经认知机将一个视觉特征分解为多个子特征,通过层层分解与组合将视觉系统模型化,使其能够在物体有位移或轻微形变的时候,也能正确识别。而早在1989年,Y.LeCun等人就提出了一个五层的卷积神经网络LeNet,完美解决了手写数字的识别,算是卷积神经网络由理论走向实际应用的一个开端,但是由于当时训练样本的匮乏和计算能力的不足,导致卷积神经网络并没有流行起来,反而是支持向量机等手工设计特征的方法在小样本集上取得了较好的效果成为了主流。沉寂多年后,随着大数据时代的来临,卷积神经网络本身的不断改进(ReLU激活函数取代Sigmoid函数,Dropout思想的提出),以及以GPU为主的并行计算的盛行。到了2012年,AlexKrizhevsky等人利用一个八层的卷积神经网络AlexNet在当年的ImageNet图像分类竞赛中取得了冠军,并远超第二名十个百分点,让卷积神经网络再次回到了人们的视线中。随后各种改进的卷积神经网络结构如雨后春笋般涌现出来,其中比较有代表性的是VGG、GoogleNet和ResNet。

卷积神经网络包含以下几个核心部分:

1.局部感知。图像的空间联系中局部的像素联系比较紧密,而距离较远的像素相关性则较弱。因此,每个神经元其实只需对局部区域进行感知,而不需要对全局图像进行感知。

全连接和局部连接

2.权值共享。在上述的局部连接中,每个神经元都对应25个参数,一共10000 个神经元,如果这10000个神经元的25个参数都是相等的,那么参数数目就变为25了。把这25个参数对应的卷积操作,看成是特征提取的方式,与图像区域的位置无关。卷积神经网络中相同的卷积核的权值和偏置值是一样的。同一种卷积核按照某种顺序对图像进行卷积操作,卷积后得到的所有神经元都是使用同一个卷积核区卷积图像的,都是共享连接参数。因此,权值共享减少了卷积神经网络的参数数量。

3.卷积,就是利用卷积核对图像进行特征提取。卷积过程就是一个减少参数数量的过程。卷积过程最重要的就是卷积核的大小步长设计和数量的选取,个数越多提取的特征越多,但网络的复杂度也在增加,易出现过拟合问题。卷积核的大小影响网络结构的识别能力,步长决定了采取图像的大小和特征个数。

卷积示意图

4.池化。在卷积神经网络中,池化层一般在卷积层后,通过池化来降低卷积层输出的特征向量维数。池化过程最大程度的降低了图像的分辨率,同时降低了图像的处理维度,但又保留了图像的有效信息,降低了后面卷积层处理复杂度,大大降低了网络对图像旋转和平移的敏感性。一般采用的池化方法有两种:平均池化(mean pooling)和最大池化(max pooling)。平均池化是指对图像目标局部区域的平均值进行计算,将其作为池化后该区域的值。最大池化则是选取图像目标区域的最大值作为池化后的值。

池化示意图

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分