【YOLOv8改进 - 注意力机制】NAM:基于归一化的注意力模块,将权重稀疏惩罚应用于注意力机制中,提高效率性能

YOLO目标检测创新改进与实战案例专栏

专栏目录: YOLO有效改进系列及项目实战目录 包含卷积,主干 注意力,检测头等创新机制 以及 各种目标检测分割项目实战案例

专栏链接: YOLO基础解析+创新改进+实战案例

介绍

image-20240630171637321

摘要

识别较不显著的特征是模型压缩的关键。然而,这在革命性的注意力机制中尚未被研究。在这项工作中,我们提出了一种新颖的基于归一化的注意力模块(NAM),该模块抑制了较不显著的权重。它对注意力模块施加了权重稀疏惩罚,从而使其在保留相似性能的同时变得更具计算效率。在Resnet和Mobilenet上与其他三种注意力机制的比较表明,我们的方法可以带来更高的准确性。本文的代码可以在https://github.com/Christian-lyc/NAM公开获取。

文章链接

论文地址:论文地址

代码地址:代码地址

基本原理

NAM (Normalization-based Attention Module)是一种新颖的注意力机制,旨在通过抑制不太显著的特征来提高模型的效率。NAM模块将权重稀疏惩罚应用于注意力机制中,以提高计算效率同时保持性能。NAM模块通过批量归一化(Batch Normalization)的缩放因子来衡量通道的重要性,避免了SE(Squeeze-and-Excitation)、BAM(Bottleneck Attention Module)和CBAM(Convolutional Block Attention Module)中使用的全连接和卷积层。这使得NAM成为一种高效的注意力机制。

NAM模块结合了通道注意力和空间注意力的子模块,利用批量归一化的缩放因子来衡量通道和像素的重要性,从而实现对特征的有效识别和利用。

  1. 通道注意力子模块:使用批量归一化的缩放因子来衡量通道的重要性,通过计算权重来获得输出特征。

image-20240630171918385

  1. 空间注意力子模块:应用像素归一化来衡量像素的重要性,得到输出特征。

NAM注意力机制是一种基于归一化注意力模块,它可以抑制不太显着的权重,从而提高计算效率并保持相似性能。下面是NAM注意力机制的详细介绍: 1. NAM注意力机制的背景和意义 在深度学习中,注意力机制是一种重要的技术,它可以帮助模型更好地关注重要的特征。然而,传统的注意力机制存在一些问题,例如计算效率低、权重不够稀疏等。因此,研究人员提出了一种新型的基于归一化注意力模块,即NAM注意力机制。 2. NAM注意力机制的原理 NAM注意力机制的核心思想是通过对注意力权重进行稀疏惩罚,抑制不太显着的权重,从而提高计算效率。具体来说,NAM注意力机制注意力权重进行归一化处理,并对其进行稀疏惩罚,使得不太显着的权重被抑制。这样可以使得注意力模块更加稀疏,从而提高计算效率。 3. NAM注意力机制的优点 与传统的注意力机制相比,NAM注意力机制具有以下优点: - 计算效率更高:通过对注意力权重进行稀疏惩罚,可以使得注意力模块更加稀疏,从而提高计算效率。 - 权重更加稀疏NAM注意力机制可以抑制不太显着的权重,使得注意力模块更加稀疏- 准确性更高:与Resnet和Mobilenet上的其他三种注意力机制的比较表明,NAM注意力机制具有更高的准确性。 下面是NAM注意力机制的代码示例: ```python # 首先进行注册 from ultralytics.nn.attention.attention import * # 定义NAM注意力模块 class NAM(nn.Module): def __init__(self, in_channels, out_channels, reduction=16): super(NAM, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.fc1 = nn.Conv2d(in_channels, out_channels // reduction, 1, bias=False) self.relu = nn.ReLU(inplace=True) self.fc2 = nn.Conv2d(out_channels // reduction, out_channels, 1, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): b, c, _, _ = x.size() y = self.avg_pool(x) y = self.fc1(y) y = self.relu(y) y = self.fc2(y) y = self.sigmoid(y) return x * y.expand_as(x) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YOLO大师

你的打赏,我的动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值