解决方案

CV中的attention机制之(cSE,sSE,scSE)

seo靠我 2023-09-24 14:50:45

CV中的attention机制之(cSE,sSE,scSE)

论文

代码

SE模块的博文链接

提出scSE模块论文的全称是:《Concurrent Spatial and Channel ‘Squeeze &SEO靠我 Excitation’ in Fully Convolutional Networks 》。这篇文章对SE模块进行了改进,提出了SE模块的三个变体cSE、sSE、scSE,并通过实验证明了了这样的模SEO靠我块可以增强有意义的特征,抑制无用特征。实验是基于两个医学上的数据集MALC Dataset和Visceral Dataset进行实验的。

语义分割模型大部分都是类似于U-Net这样的encoder-deSEO靠我coder的形式,先进行下采样,然后进行上采样到与原图一样的尺寸。其添加SE模块可以添加在每个卷积层之后,用于对feature map信息的提炼。具体方案如下图所示:

然后开始分别介绍由SE改进的三个模SEO靠我块,首先说明一下图例:

1、下面是cSE模块: 这个模块类似BAM模块里的Channel attention模块,通过观察这个图就很容易理解其实现方法,具体流程如下:

1、将feature map通过gloSEO靠我bal average pooling方法从[C, H, W]变为[C, 1, 1]

2、然后使用两个1×1×1卷积进行信息的处理,最终得到C维的向量

3、然后使用sigmoid函数进行归一化,得到对应的SEO靠我mask

4、最后通过channel-wise相乘,得到经过信息校准过的feature map

import torch import torch.nn as nnclass cSE(nnSEO靠我.Module):def __init__(self, in_channels):super().__init__()self.avgpool = nn.AdaptiveAvgPool2d(1)selSEO靠我f.Conv_Squeeze = nn.Conv2d(in_channels,in_channels // 2,kernel_size=1,bias=False)self.Conv_ExcitatioSEO靠我n = nn.Conv2d(in_channels // 2,in_channels,kernel_size=1,bias=False)self.norm = nn.Sigmoid()def forwSEO靠我ard(self, U):z = self.avgpool(U) # shape: [bs, c, h, w] to [bs, c, 1, 1]z = self.Conv_Squeeze(z) # sSEO靠我hape: [bs, c/2, 1, 1]z = self.Conv_Excitation(z) # shape: [bs, c, 1, 1]z = self.norm(z)return U * z.SEO靠我expand_as(U)if __name__ == "__main__":bs, c, h, w = 10, 3, 64, 64in_tensor = torch.ones(bs, c, h, w)SEO靠我c_se = cSE(c)print("in shape:", in_tensor.shape)out_tensor = c_se(in_tensor)print("out shape:", out_SEO靠我tensor.shape)

2、接下来是sSE模块: 上图是空间注意力机制的实现,与BAM中的实现确实有很大不同,实现过程变得很简单,具体分析如下:

1、直接对feature map使用1×1×1卷积, 从SEO靠我[C, H, W]变为[1, H, W]的features

2、然后使用sigmoid进行激活得到spatial attention map

3、然后直接施加到原始feature map中,完成空间的信息SEO靠我校准

NOTE: 这里需要注意一点,先使用1×1×1卷积,后使用sigmoid函数,这个信息无法从图中直接获取,需要理解论文。

import torch import torch.nn aSEO靠我s nnclass sSE(nn.Module):def __init__(self, in_channels):super().__init__()self.Conv1x1 = nn.Conv2d(SEO靠我in_channels, 1, kernel_size=1, bias=False)self.norm = nn.Sigmoid()def forward(self, U):q = self.ConvSEO靠我1x1(U) # U:[bs,c,h,w] to q:[bs,1,h,w]q = self.norm(q)return U * q # 广播机制if __name__ == "__main__":bsSEO靠我, c, h, w = 10, 3, 64, 64in_tensor = torch.ones(bs, c, h, w)s_se = sSE(c)print("in shape:", in_tensoSEO靠我r.shape)out_tensor = s_se(in_tensor)print("out shape:", out_tensor.shape)

3、scSe模块可见就如他的名字一样,scSE就是将sSEO靠我SE和cSE相加起来而已。

代码:

import torch import torch.nn as nnclass sSE(nn.Module):def __init__(self, inSEO靠我_channels):super().__init__()self.Conv1x1 = nn.Conv2d(in_channels, 1, kernel_size=1, bias=False)selfSEO靠我.norm = nn.Sigmoid()def forward(self, U):q = self.Conv1x1(U) # U:[bs,c,h,w] to q:[bs,1,h,w]q = self.SEO靠我norm(q)return U * q # 广播机制class cSE(nn.Module):def __init__(self, in_channels):super().__init__()selSEO靠我f.avgpool = nn.AdaptiveAvgPool2d(1)self.Conv_Squeeze = nn.Conv2d(in_channels, in_channels // 2, kernSEO靠我el_size=1, bias=False)self.Conv_Excitation = nn.Conv2d(in_channels//2, in_channels, kernel_size=1, bSEO靠我ias=False)self.norm = nn.Sigmoid()def forward(self, U):z = self.avgpool(U)# shape: [bs, c, h, w] to SEO靠我[bs, c, 1, 1]z = self.Conv_Squeeze(z) # shape: [bs, c/2]z = self.Conv_Excitation(z) # shape: [bs, c]SEO靠我z = self.norm(z)return U * z.expand_as(U)class scSE(nn.Module):def __init__(self, in_channels):superSEO靠我().__init__()self.cSE = cSE(in_channels)self.sSE = sSE(in_channels)def forward(self, U):U_sse = selfSEO靠我.sSE(U)U_cse = self.cSE(U)return U_cse+U_sseif __name__ == "__main__":bs, c, h, w = 10, 3, 64, 64in_SEO靠我tensor = torch.ones(bs, c, h, w)sc_se = scSE(c)print("in shape:",in_tensor.shape)out_tensor = sc_se(SEO靠我in_tensor)print("out shape:", out_tensor.shape)

下面是作者给出的对比结果:

参考自(GaintpandaCV)

“SEO靠我”的新闻页面文章、图片、音频、视频等稿件均为自媒体人、第三方机构发布或转载。如稿件涉及版权等问题,请与 我们联系删除或处理,客服邮箱:html5sh@163.com,稿件内容仅为传递更多信息之目的,不代表本网观点,亦不代表本网站赞同 其观点或证实其内容的真实性。

网站备案号:浙ICP备17034767号-2