×

从概念到结构、算法解析卷积神经网络

消耗积分:0 | 格式:rar | 大小:0.3 MB | 2017-12-05

分享资料个

本文是对卷积神经网络的基础进行介绍,主要内容包含卷积神经网络概念、卷积神经网络结构、卷积神经网络求解、卷积神经网络LeNet-5结构分析、卷积神经网络注意事项。
  一、卷积神经网络概念
  上世纪60年代。Hubel等人通过对猫视觉皮层细胞的研究,提出了感受野这个概念。到80年代。Fukushima在感受野概念的基础之上提出了神经认知机的概念,能够看作是卷积神经网络的第一个实现网络,神经认知机将一个视觉模式分解成很多子模式(特征),然后进入分层递阶式相连的特征平面进行处理,它试图将视觉系统模型化,使其能够在即使物体有位移或轻微变形的时候,也能完毕识别。
  卷积神经网络(Convolutional Neural Networks, CNN)是多层感知机(MLP)的变种。
  由生物学家休博尔和维瑟尔在早期关于猫视觉皮层的研究发展而来。视觉皮层的细胞存在一个复杂的构造。
  这些细胞对视觉输入空间的子区域非常敏感,我们称之为感受野,以这样的方式平铺覆盖到整个视野区域。
  这些细胞能够分为两种基本类型,简单细胞和复杂细胞。简单细胞最大程度响应来自感受野范围内的边缘刺激模式。复杂细胞有更大的接受域,它对来自确切位置的刺激具有局部不变性。
  通常神经认知机包含两类神经元,即承担特征提取的採样元和抗变形的卷积元。採样元中涉及两个重要參数,即感受野与阈值參数。前者确定输入连接的数目。后者则控制对特征子模式的反应程度。
  卷积神经网络能够看作是神经认知机的推广形式,神经认知机是卷积神经网络的一种特例。
  CNN由纽约大学的Yann LeCun于1998年提出。
  CNN本质上是一个多层感知机,其成功的原因关键在于它所採用的局部连接和共享权值的方式。一方面减少了的权值的数量使得网络易于优化。还有一方面减少了过拟合的风险。CNN是神经网络中的一种,它的权值共享网络结构使之更相似于生物神经网络。减少了网络模型的复杂度,减少了权值的数量。
  该长处在网络的输入是多维图像时表现的更为明显,使图像能够直接作为网络的输入,避免了传统识别算法中复杂的特征提取和数据重建过程。在二维图像处理上有众多优势,如网络能自行抽取图像特征包含颜色、纹理、形状及图像的拓扑结构;在处理二维图像问题上,特别是识别位移、缩放及其他形式扭曲不变性的应用上具有良好的鲁棒性和运算效率等。
  CNN本身能够採用不同的神经元和学习规则的组合形式。
  CNN具有一些传统技术所没有的长处:良好的容错能力、并行处理能力和自学习能力,可处理环境信息复杂,背景知识不清楚。推理规则不明白情况下的问题,同意样品有较大的缺损、畸变,执行速度快,自适应性能好。具有较高的分辨率。它是通过结构重组和减少权值将特征抽取功能融合进多层感知器,省略识别前复杂的图像特征抽取过程。
  CNN的泛化能力要显著优于其他方法,卷积神经网络已被应用于模式分类,物体检測和物体识别等方面。利用卷积神经网络建立模式分类器,将卷积神经网络作为通用的模式分类器,直接用于灰度图像。
  CNN是一个前溃式神经网络,能从一个二维图像中提取其拓扑结构,採用反向传播算法来优化网络结构,求解网络中的未知參数。
  CNN是一类特别设计用来处理二维数据的多层神经网络。CNN被觉得是第一个真正成功的採用多层层次结构网络的具有鲁棒性的深度学习方法。CNN通过挖掘数据中的空间上的相关性。来减少网络中的可训练參数的数量,达到改进前向传播网络的反向传播算法效率。由于CNN须要非常少的数据预处理工作。所以也被觉得是一种深度学习的方法。在CNN中。图像中的小块区域(也叫做“局部感知区域”)被当做层次结构中的底层的输入数据,信息通过前向传播经过网络中的各个层。在每一层中都由过滤器构成,以便能够获得观測数据的一些显著特征。
  由于局部感知区域能够获得一些基础的特征,比方图像中的边界和角落等。这样的方法能够提供一定程度对位移、拉伸和旋转的相对不变性。
  CNN中层次之间的紧密联系和空间信息使得其特别适用于图像的处理和理解。而且能够自己主动的从图像抽取出丰富的相关特性。
  CNN通过结合局部感知区域、共享权重、空间或者时间上的降採样来充分利用数据本身包含的局部性等特征,优化网络结构。而且保证一定程度上的位移和变形的不变性。
  CNN受视觉神经机制的启示而设计,是为识别二维或三维信号而设计的一个多层感知器,这样的网络结构对平移、缩放、倾斜等变形具有高度不变性。
  CNN能够用来识别位移、缩放及其他形式扭曲不变性的二维或三维图像。
  CNN的特征提取层參数是通过训练数据学习得到的。所以其避免了人工特征提取,而是从训练数据中进行学习。其次同一特征图的神经元共享权值,减少了网络參数,这也是卷积网络相对于全连接网络的一大优势。共享局部权值这一特殊结构更接近于真实的生物神经网络使CNN在图像处理、语音识别领域有着独特的优越性,还有一方面权值共享同一时候减少了网络的复杂性,且多维输入信号(语音、图像)能够直接输入网络的特点避免了特征提取和分类过程中数据重排的过程。
  CNN是一种特殊的深层的神经网络模型,它的特殊性体如今两个方面。一方面它的神经元的连接是非全连接的,还有一方面同一层中某些神经元之间的连接的权重是共享的(即同样的)。它的非全连接和权值共享的网络结构使之更相似于生物神经网络。减少了网络模型的复杂度(对于非常难学习的深层结构来说,这是非常重要的),减少了权值的数量。
  CNN是一种深度的监督学习下的机器学习模型,具有极强的适应性,善于挖掘数据局部特征。提取全局训练特征和分类,它的权值共享结构网络使之更相似于生物神经网络,在模式识别各个领域都取得了非常好的成果。
  稀疏连接:在BP神经网络中,每一层的神经元节点是一个线性一维排列结构,层与层各神经元节点之间是全连接的。卷积神经网络中,层与层之间的神经元节点不再是全连接形式,利用层间局部空间相关性将相邻每一层的神经元节点仅仅与和它相近的上层神经元节点连接,即局部连接。
  这样大大减少了神经网络架构的參数规模。
  权重共享:在卷积神经网络中,卷积层的每一个卷积滤波器反复的作用于整个感受野中,对输入图像进行卷积,卷积结果构成了输入图像的特征图,提取出图像的局部特征。
  每一个卷积滤波器共享同样的參数,包含同样的权重矩阵和偏置项。共享权重的长处是在对图像进行特征提取时不用考虑局部特征的位置。
  而且权重共享提供了一种有效的方式。使要学习的卷积神经网络模型參数数量大大减少。
  最大池採样:它是一种非线性降採样方法。在通过卷积获取图像特征之后是利用这些特征进行分类。能够用全部提取到的特征数据进行分类器的训练,但这一般会产生极大的计算量。所以在获取图像的卷积特征后。要通过最大池採样方法对卷积特征进行降维。将卷积特征划分为数个n*n的不相交区域,用这些区域的最大(或平均)特征来表示降维后的卷积特征。
  这些降维后的特征更easy进行分类。
  最大池採样在计算机视觉中的价值体如今两个方面:(1)、它减小了来自上层隐藏层的计算复杂度;(2)、这些池化单元具有平移不变性。即使图像有小的位移,提取到的特征依旧会保持不变。由于增强了对位移的鲁棒性。最大池採样方法是一个高效的减少数据维度的採样方法。
  Softmax回归:它是在逻辑回归的基础上扩张而来。它的目的是为了解决多分类问题。在这类问题中。训练样本的种类一般在两个以上。
  Softmax回归是有监督学习算法,它也能够与深度学习或无监督学习方法结合使用。
  CNN是一种带有卷积结构的深度神经网络,通常至少有两个非线性可训练的卷积层,两个非线性的固定卷积层(又叫Pooling Laye)和一个全连接层,一共至少5个隐含层。
  卷积神经网络中,输入就是一幅幅的图像,权值W就是卷积模板,通常是卷积层和下採样层交替。最后是全连接的神经网络。
  局部区域感知能够发现数据的一些局部特征。比方图片上的一个角,一段弧。这些基本特征是构成动物视觉的基础。
  CNN中每一层的由多个map组成,每一个map由多个神经单元组成。同一个map的全部神经单元共用一个卷积核(即权重),卷积核往往代表一个特征,比方某个卷积核代表一段弧,那么把这个卷积核在整个图片上滚一下,卷积值较大的区域就非常有可能是一段弧。注意卷积核事实上就是权重,我们并不须要单独去计算一个卷积,而是一个固定大小的权重矩阵去图像上匹配时。这个操作与卷积相似。因此我们称为卷积神经网络,实际上。BP也能够看作一种特殊的卷积神经网络。仅仅是这个卷积核就是某层的全部权重。即感知区域是整个图像。权重共享策略减少了须要训练的參数。使得训练出来的模型的泛华能力更强。
  CNN一般採用卷积层与採样层交替设置,即一层卷积层接一层採样层,採样层后接一层卷积。..这样卷积层提取出特征。再进行组合形成更抽象的特征,最后形成对图片对象的描写叙述特征,CNN后面还能够跟全连接层,全连接层跟BP一样。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !