本文主要是介绍RCAN简记,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
RCAN简记
文章目录
- RCAN简记
- 参考
- 问题与方案
- Residual in Residual
- Channel Attention
- RIR与CA的结合
- 实验
- RIR和CA的作用
- 与其他模型的对比
参考
- RCAN
- 源代码
- 原文
注:SR=Super-Resolution
问题与方案
- 作者提出研究问题:
- 此前的SR相关的网络大多都受限于网络深度(在CV中这是很重要的一点)
- 此前的SR相关的研究都没有引入Attention机制(CV中的Attention,类似于SENet,CBAM这种)
- 于是作者提出网络结构:
- RIR:Residual in Residual
- CA:Channel Attention
Residual in Residual
- long skip connections和short skip connections结合使用,我的理解是就是增加跳跃链接的数量用以减少网络深度增加对网络新能退化的影响。
Channel Attention
- 用的应该是SENet的Channel Attention,图重新画了一下而已
RIR与CA的结合
- 具体架构上是这么设计的, F g , b − 1 到 F g , b F_{g,b-1}到F_{g,b} Fg,b−1到Fg,b是先后经过Conv+Channel Attention然后通过short skip connection连接起来,如下所示:
实验
RIR和CA的作用
-
-
可以看到(最右边的那一列),当全部加上RIR(LSC+SSC,这俩是长短跳跃链接的缩写)与CA的时候,PSNR得分最高。
与其他模型的对比
- 确实是有效果
这篇关于RCAN简记的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!