详解五种即插即用的视觉注意力模块

描述

SE注意力模块

SE注意力模块的全称是Squeeze-and-Excitation block、其中Squeeze实现全局信息嵌入、Excitation实现自适应权重矫正,合起来就是SE注意力模块。

MLP

把SE注意力模块添加到Inception Module中与ResNet的残差Module中,实现SE注意力版本的Inception与ResNet模型

MLP

SE注意力模块集成残差的四种不同结构设计

MLP

CA注意力模块

图中最右侧是CA注意力模块、左侧是SE注意力模块、中间是CBAM注意力模块、CA注意力通过坐标信息嵌入和坐标注意力生成两个步骤把通道关系和长程依赖关系精确编码。

MLP

CBAM注意力模块

MLP

该图显示了如何把一个CBAM模块集成到到一个残差模块中,实现残差CBAM模块,CBAM是集成了通道注意力与空间注意力、通道和空间注意力模块生成首先是通过平均池化和最大池化分别生成通道与空间注意力的输入,然后通过MLP与7x7卷积输出通道子模块和空间子模块。

MLP

ECA注意力模块

通过全局均值池化(GAP)获得的聚合通道特征,然后通过大小为k滤波器的快速1D卷积,然后重新构建一个维的卷积输出结果,乘以输入的每个通通道数据作为输出实现注意力机制为ECA。

MLP

GAM注意力模块

全局注意力模块基于CBAM注意力模块集成上重新设计通道与空间两个子模块实现,其中通道注意力直接使用MLP实现、空间注意力通过两个7乘7的卷积实现,最终GAM注意力添加到ResNet网络的效果相比SE注意力、CBAM注意力有明显提升。

MLP

MLP

YOLOv5 7.0 注意力加持版本

MLP






审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分