简要介绍
此论文解决的问题:
1.采用多级特征集成从而忽略不同特征的差距的问题。
2.随着高级特征在卷积网络的传递导致逐渐稀释的问题
提出的方法
采用了四个模块
Feature Interweaved Aggregation (FIA) modules,有效地集成低级外观特征,高级语义特征和全局上下文特征。并以有监督方式生成显著图。
Head Attention (HA) module,利用空间和通道主义来减少信息冗余并增强顶层特征
Self Refinement (SR) module,进一步细化和增强顶层特征输入特性。
Global Context Flow (GCF) module,生成不同阶段的全局上下文信息,目的是了解不同显著区域之间的关系,缓解高层次特征的稀释效应。
具体框架
四个模块的介绍
Feature Interweaved Aggregation (FIA) modules
底层特征包含更多的细节信息,例如边界信息,空间信息和纹理,但是也包含更多的噪声。高级特征可以提供抽象的语义信息从而减少噪声。同时,上下文特征可以减轻特征稀释的影响生成更完整和准确的显著图。FIA就是结合这三种特征。
这里的三个输入为:
- the high-level features from the output of the previous layer the
- low-level features from the corresponding bottom layer the global
- the global context feature generated by the GCF module
采用融合信息的方法是乘法,并且为了使乘法运算保持一致性,采用卷积层将通道数压缩到相同,即图中的conv。同时采用了镜像的方法防止显著对象信息的丢失(fhl和fth)。可以用公式描述为:
对于fgl,它利用了GCF模块的信息(具体GCF会在后面介绍),作用是融合全局上下文特征,缓解高级特征的稀释。具体运算为:
最后将这三个特征级联再通过3*3卷积层获得最终的特征
除conv2,conv3,conv4外(图中公式具体给出),每个卷积层都配备了归一化层和ReLU**函数。最后是将FIA模块输出到SR模块。
Self Refinement (SR) module
用于增强和完善特征图,通过3*3卷积层压缩为特征向量,并增加一个权值和偏置值来增强特征图。
Head Attention (HA) module
通过利用空间和通道注意机制来学习更具有选择性和代表性的特征。
输入特征图F到卷积层得到一个具有256通道的压缩特征图F’
此外,通过平均池化将输入特征F下采样为通道特征向量F,然后运用两个完全连接层,把特征向量F投影到输出向量y。最终的输出特征图由输出向量y加权获得。
Global Context Flow (GCF) module
GCF模块用于获取每个阶段的全局上下文信息来提供给FIA,可以有效地缓解高级特征在传输到低层时被稀释的问题。采用的方式如下:
最后采用的损失函数是交叉熵损失
若本文有错误,欢迎交流更正
论文和代码获取:https://github.com/JosephChenHub/GCPANet
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:显著性目标检测论文阅读——Global Context-Aware Progressive Aggregation Network for Salient Object Detection - Python技术站