轻量化高精度双通道注意力机制模块

Journal of Frontiers of Computer Science & Technology(2023)

引用 0|浏览8
暂无评分
摘要
目前大多数注意力机制模块在提高深度学习模型应用精度的同时也带来了模型复杂度的增加.针对这一问题,提出了一种轻量化高精度双通道注意力机制模块(EDCA).EDCA将特征图分别沿通道、宽度和高度三个方向压缩并重新排列组合,采用一维卷积获取组合后的权重信息,接着将权重信息分割并应用于对应维度以获得特征关注度.在图像分类数据集miniImageNet与目标检测数据集Pascal VOC2007上对EDCA进行充分实验,实验结果表明,与SENet、CBAM、SGE、ECA-Net、Coordinate Attention相比,EDCA所需的计算量以及参数量更少.在miniImageNet数据集上使用ResNet50+EDCA时,Top-1精度较以上方法分别提升0.0243、0.0218、0.0221、0.0225、0.0141;在Pascal VOC2007数据集上使用MobileNetV3+YOLOv4+EDCA时,AP50较SENet、CBAM、ECA-Net、Coordinate Attention分别提升0.0094、0.0046、0.0059、0.0014.
更多
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要