文章目录
- 注意力机制与经典 CV 网络:PyTorch 实现与实战
- 一、注意力机制
- 1.1 通道注意力(SE 模块)
- 1.2 空间注意力
- 1.3 CBAM(通道 + 空间串联)
- 1.4 非局部注意力
- 1.5 注意力机制对比
- 二、经典 CNN 网络
- 2.1 ResNet
- 2.2 DenseNet
- 2.3 FPN(特征金字塔)
- 三、综合实战:SEResNet 图像分类(CIFAR-10)
- 3.1 网络
- 3.2 数据
- 3.3 训练
- 四、实验结果
- 五、总结
- 代码链接与详细流程
购买即可解锁1000+YOLO优化文章,并且还有海量深度学习复现项目,价格仅需两杯奶茶的钱,每日更新
注意力机制与经典 CV 网络:PyTorch 实现与实战
一、注意力机制
注意力机制的核心:让模型在特征图上关注重要区域/通道,抑制不相关信息。
1.1 通道注意力(SE 模块)
Squeeze-and-Excitation(SE)通过学习通道级的权重,强化重要通道、抑制无关通道。
H×W×C 特征图 ↓ Global Avg Pooling → 1×1×C ↓ FC (C/r → C/r → C) → 1×1×C (sigmoid 权重) ↓ Scale (相乘) → H×W×C (加权输出)importtorchimporttorch.nnasnnclassSEBlock