URL
TL;DR
- 本文提出一种高效的
Channel Attention
算法,与SENet
相比,效果更好,参数量与计算量更低
Algorithm
网络结构
- 与
SENet
结构的区别:- 两层 FC 变成一层 FC
- FC 权重稀疏(
kernel_size = k 的 1D Conv
)
对比实验
- 本文将
ECA-Net
与以下Channel Attention Block
进行了对比,目的是:如何对 FC 稀疏可以使得模型最终效果最好SENet
:Squeeze and Excitation NetworkSE-Var1
:SE 变种 1SE-Var2
:SE 变种 2SE-Var3
:SE 变种 3SE-GC1
:SE 通道分组 1SE-GC2
:SE 通道分组 2SE-GC3
:SE 通道分组 3ECA-NS
:ECA-Net 的动态版
- 数学表示
SENet
- Channel-wise Attention Weight:,记
- 参数个数:
SE-Var
- Channel-wise Attention Weight:
SE-Var1
: 是一个 单位矩阵,参数个数:1SE-Var2
: 是一个 对角矩阵,参数个数:SE-Var3
: 是一个 普通矩阵,参数个数:
SE-GC
- 是一个 分块对角矩阵,每个块边长 ,对角线包含 个块,一共包含非零元素(参数个数): 个
SE-GC1
和SE-GC2
和SE-GC3
的区别只是 的取值不同
ECA-NS
- 是一个 阶梯状矩阵,每行连续 个非零元素,阶梯状叠加 行,参数个数:
ECA-Net
ECA-NS
中每行元素都一样的特例,参数量:
代码表示
对下游任务的提升
- ImageNet 分类
- COCO 目标检测
- COCO 实例分割
Thought
SE-Net
的简化版,但参数量与计算量都更小- 但是性能比
SE-Net
更好这个结论感觉不太 make sense