SE注意力模块
SE注意力模块的全称是Squeeze-and-Excitation block、其中Squeeze实现全局信息嵌入、Excitation实现自适应权重矫正,合起来就是SE注意力模块。
把SE注意力模块添加到Inception Module中与ResNet的残差Module中,实现SE注意力版本的Inception与ResNet模型
SE注意力模块集成残差的四种不同结构设计
CA注意力模块
图中最右侧是CA注意力模块、左侧是SE注意力模块、中间是CBAM注意力模块、CA注意力通过坐标信息嵌入和坐标注意力生成两个步骤把通道关系和长程依赖关系精确编码。
CBAM注意力模块
该图显示了如何把一个CBAM模块集成到到一个残差模块中,实现残差CBAM模块,CBAM是集成了通道注意力与空间注意力、通道和空间注意力模块生成首先是通过平均池化和最大池化分别生成通道与空间注意力的输入,然后通过MLP与7x7卷积输出通道子模块和空间子模块。
ECA注意力模块
通过全局均值池化(GAP)获得的聚合通道特征,然后通过大小为k滤波器的快速1D卷积,然后重新构建一个维的卷积输出结果,乘以输入的每个通通道数据作为输出实现注意力机制为ECA。
GAM注意力模块
全局注意力模块基于CBAM注意力模块集成上重新设计通道与空间两个子模块实现,其中通道注意力直接使用MLP实现、空间注意力通过两个7乘7的卷积实现,最终GAM注意力添加到ResNet网络的效果相比SE注意力、CBAM注意力有明显提升。
YOLOv5 7.0 注意力加持版本
审核编辑:刘清
全部0条评论
快来发表一下你的评论吧 !