卷积神经网络的感受野计算

电子说

1.3w人已加入

描述

在卷积神经网络中,感受野是一个非常重要的概念,今天,我们具体来看一下感受野的相关概念以及如何计算感受野。

感受野

让我们快速回顾一下如何计算感受野的大小。

为了更好地理解感受野,我们可能希望以不同的方式可视化卷积步骤。

在右边,我们查看输出神经元,也就是新的feature map,而不改变当前feature map的分辨率。我们也可以用下面的方法计算每一层新的感受野。

在现实生活中,我们打算用一个程序来实现这一点。

注:据我所知,双线性上采样和大多数其他上采样方法不会增加感受野。但是,如果我的逻辑是对的,转置卷积应该会增加感受野。很容易想象,放置在一个转置卷积之后的平均神经元通过多个途径接收输入。

有效感受野

在这篇论文中:Understanding the Effective Receptive Field in Deep Convolutional Neural Networks,作者尝试从输出映射的中心像素向网络反向传播一个梯度,并将所有其他梯度设置为零。然后,我们检查应用于输入层的梯度。

实验表明,梯度的性质是高斯的,中心像素受影响较大,离中心越远梯度信号越弱。梯度信号的衰减是指数级的,这意味着应用于感受野的大多数像素的梯度将是可忽略的(如果有的话)。因此,这使得作者创造了“有效感受野”这个术语,因为实际的感受野只占理论感受野的一小部分。这是有意义的,因为更多的中央神经元将有更多的路径来传播信息,从而将从最后一层的中心像素的梯度传播回所有可能的路径,导致了梯度有更大的幅度。

那么,还有什么影响有效感受野呢?

Relu—添加任何激活都会改变ERF的分布,因为梯度的大小现在也依赖于输入。实际上,只有Relu似乎创建了一个较少的高斯分布,因为Relu将导致我们的梯度的很大一部分为零。

添加层—正如所期望的那样,添加层使ERF成倍增长。然而,相对于我们的理论感受野,我们的ERF正在缩小。我们的有效感受野在理论感受野中所占的比例越来越小。注意,随着层数的增加,ERF / RF比值的收缩速度也会变小。此外,作者指出,stride卷积和dilated卷积都显示出可以扩展ERF,虽然他们没有提到相对于理论RF的影响。

训练—在训练过程中,ERF扩展到RF的更大部分,这是有意义的,因为网络学会适应把越来越大的权重放在我们感受野的更多外部像素上。在CamVid中,ERF从100增加到150直径,而理论RF为505 x 505。

最后,让我们看一下fast-rcnn的RPN。

我们最大的anchor应该是64*8 = 512,使用一个程序我们可以很容易地找到我们的RF是1335,这是一半以上。从之前的实验中我可以推测出ERF大约是RF的1/3。好,在RPN中负责计算512×512锚点作为对象或前景的概率的单元格只有大约445×445个输入数据的窗口,小于锚框。对于负责调整我们的建议边界框的回归部分也可以进行类似的计算。在这一点上,令人惊讶的是,我们的RPN竟然这么好!

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 相关推荐

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分