Light-Head R-CNN解读

2024-08-24 18:08
文章标签 解读 cnn head light

本文主要是介绍Light-Head R-CNN解读,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

最近对检测很有兴趣哎,这些天写了好几个相关博客了,下一步准备写SSD和YOLO了,近段时间要把检测吃透

Light-Head R-CNN: In Defense of Two-Stage Object Detector,名字很有趣,守护two stage检测器的尊严。

Motivation

region-free的方法如YOLO,SSD,速度是很快,但是总体来说精度上还是不如两段的region-based系列的Faster rcnn(及加速版R-FCN),那我们想要精度最高速度最快,就有两个做法了,提升region-free系列的精度(这个等我再二刷SSD后再想想有木有什么思路),另一个就是提升region-based系列的速度了,本文就是后者。

首先Faster rcnn为什么还是很慢,在我上一篇博客R-FCN解读中已经提过,它的第二阶段每个proposal是不共享计算的,fc大量的参数和计算严重拖了速度(其实faster rcnn+res101已经做了努力,在res5c有个global pool到2014*1*1,不然第二阶段第一个fc参数参数更多。kaiming论文是C5作为fc6 fc7的,C5后面也依然有global pool,最后分类肯定要有一个全连接的,global pool之后参数也少很多(2048*1*1*C,不然就是2048*7*7*C))。而R-FCN就在着力于解决这个第二阶段的问题,通过生成一个k^2(C+1) channel的score map和PSRoIpooling可以去掉第二阶段的隐层fc,加速了很多。

但是R-FCN生成的score map是和C相关的,在MSCOCO上有81类需要生成7*7*81=3969个channel的score map,这个是耗时耗内存的。所以本文想生成一个thin 的feature map,这样可以显著加速还可以腾出“时间”在后面的rcnn部分做点文章提升精度。

Approach

在Resnet101 res5c后利用大的可分离卷积,生成(α * p * p)channel的feature map,α本文取10,p和其他框架一致取7,这个最终只有10*7*7=490,而且与类别数C无关,大大减少了计算量,第二阶段的rcnn 子网络,本文为了提升精度,相比R-FCN多了一个隐层fc,这是thin feature map为它省来的计算空间,所以速度依然很快。

这里写图片描述

Basic feature extractor.

两种设置,一种是ResNet101,设为L,一种是自己设计的简单的Xception网络,设为S

thin feature map

参考论文Large Kernel Matters – Improve Semantic Segmentation by Global Convolutional Network
本文设置k=15, Cmid = 64 for setting S,and Cmid = 256 for setting L

这里写图片描述

Ablation experiment

thin feature map

首先说明直接把feature map变为thin feature map有什么影响啊?
做法就是直接把R-FCN得到的feature map用1*1的卷积降维到490,然后由于channel减少和类别树无关了,不能像R-FCN直接vote了(R-FCN vote后得到(C+1)*1*1,然后可以直接softmax,而本文vote的话得到10*1*1,不能直接softmax,所以加个10*1*1*C的全连接分类,加个10*1*1*4*C的全连接回归,图中那个fc应该是cls和loc都有的)。B1是直接复现的R-FCN,B2是改了点配置(1, 图片尺度和anchor scale增多 2, 回归的loss比重扩大1倍 3, 只选前256个loss大的样本进行反向传播)
从表中可以看到,channel变少了那么多后,精度并没有损失太多,把PSRoIpooing换成roipooling情况是一样的,甚至有些提升(因为PSRoIpooing后channel变成10channel了,而RoIPooling后channel还是490,参数多了些精度有些许提升)。而且这地方channel变少后集成FPN很方便,因为fpn会在很多level的feature上通过3*3卷积生成这个(C+1)*k*k channel的feature map,十分耗内存和计算,详见我的另一篇博客FPN解读
这里写图片描述
这里写图片描述

large separable convolution

把粗暴的1*1降维换成Large separable convolution,k=15, Cmid = 256,其他和R-FCN一样

这里写图片描述

R-CNN subnet

我们在R-CNN subnet中多加了一个2048channel的隐层fc(无dropout,注意区别于前面的实验是直接加个10*1*1*C的全连接分类(对应表格第3行的数据),这里要有个10*1*1*2048的隐层fc,然后再有个2048*C的全连接分类,loc类似),这个隐层fc是2048和1024 channel都差不多,参数变化很少,精度速度影响也不大。
从表上看到最终提升了2个点左右,而且注意由于用了thin feature map,速度是比它们快的。
这里写图片描述

High Accuracy and High Speed

本文把PSRoIpooling改成和RoIalign那样的插值,然后加上和其他model的同样配置和数据增强,精度是可以达到state-of-art的

这里写图片描述

然后速度方面,把base model换成自己设计的”S”,速度也是可以秒掉SSD、YOLO等region-free以追求速度为主的model,同时精度和它们相当

这里写图片描述

这里写图片描述

下一步是不是要精度达到region-based,速度达到region-free呢,期待中(实力暂时不够,只能期待了)

部分代码

# light head
# large kernel
conv_new_1 = mx.sym.Convolution(data=relu1, kernel=(15, 1), pad=(7, 0), num_filter=256, name="conv_new_1", lr_mult=3.0)
relu_new_1 = mx.sym.Activation(data=conv_new_1, act_type='relu', name='relu1')
conv_new_2 = mx.sym.Convolution(data=relu_new_1, kernel=(1, 15), pad=(0, 7), num_filter=10*7*7, name="conv_new_2", lr_mult=3.0)
relu_new_2 = mx.sym.Activation(data=conv_new_2, act_type='relu', name='relu2')
conv_new_3 = mx.sym.Convolution(data=relu1, kernel=(1, 15), pad=(0, 7), num_filter=256, name="conv_new_3", lr_mult=3.0)
relu_new_3 = mx.sym.Activation(data=conv_new_3, act_type='relu', name='relu3')
conv_new_4 = mx.sym.Convolution(data=relu_new_3, kernel=(15, 1), pad=(7, 0), num_filter=10*7*7, name="conv_new_4", lr_mult=3.0)
relu_new_4 = mx.sym.Activation(data=conv_new_4, act_type='relu', name='relu4')
light_head = mx.symbol.broadcast_add(name='light_head', *[relu_new_2, relu_new_4])
# PSROIPooling
roi_pool = mx.contrib.sym.PSROIPooling(name='roi_pool', data=light_head, rois=rois, group_size=7, pooled_size=7, output_dim=10, spatial_scale=0.0625)
# 隐层fc
fc_new_1 = mx.symbol.FullyConnected(name='fc_new_1', data=roi_pool, num_hidden=2048)
fc_new_1_relu = mx.sym.Activation(data=fc_new_1, act_type='relu', name='fc_new_1_relu')
# 分类和回归
cls_score = mx.symbol.FullyConnected(name='cls_score', data=fc_new_1_relu, num_hidden=num_classes)
bbox_pred = mx.symbol.FullyConnected(name='bbox_pred', data=fc_new_1_relu, num_hidden=num_reg_classes * 4)

参考:
terrychenism/Deformable-ConvNets

这篇关于Light-Head R-CNN解读的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1103215

相关文章

Nacos注册中心和配置中心的底层原理全面解读

《Nacos注册中心和配置中心的底层原理全面解读》:本文主要介绍Nacos注册中心和配置中心的底层原理的全面解读,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录临时实例和永久实例为什么 Nacos 要将服务实例分为临时实例和永久实例?1.x 版本和2.x版本的区别

C++类和对象之默认成员函数的使用解读

《C++类和对象之默认成员函数的使用解读》:本文主要介绍C++类和对象之默认成员函数的使用方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、默认成员函数有哪些二、各默认成员函数详解默认构造函数析构函数拷贝构造函数拷贝赋值运算符三、默认成员函数的注意事项总结一

MySQL的ALTER TABLE命令的使用解读

《MySQL的ALTERTABLE命令的使用解读》:本文主要介绍MySQL的ALTERTABLE命令的使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、查看所建表的编China编程码格式2、修改表的编码格式3、修改列队数据类型4、添加列5、修改列的位置5.1、把列

Linux CPU飙升排查五步法解读

《LinuxCPU飙升排查五步法解读》:本文主要介绍LinuxCPU飙升排查五步法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录排查思路-五步法1. top命令定位应用进程pid2.php top-Hp[pid]定位应用进程对应的线程tid3. printf"%

解读@ConfigurationProperties和@value的区别

《解读@ConfigurationProperties和@value的区别》:本文主要介绍@ConfigurationProperties和@value的区别及说明,具有很好的参考价值,希望对大家... 目录1. 功能对比2. 使用场景对比@ConfigurationProperties@Value3. 核

Jupyter notebook安装步骤解读

《Jupyternotebook安装步骤解读》:本文主要介绍Jupyternotebook安装步骤,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、开始安装二、更改打开文件位置和快捷启动方式总结在安装Jupyter notebook 之前,确认您已安装pytho

Java中的StringUtils.isBlank()方法解读

《Java中的StringUtils.isBlank()方法解读》:本文主要介绍Java中的StringUtils.isBlank()方法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑... 目录所在库及依赖引入方法签名方法功能示例代码代码解释与其他方法的对比总结StringUtils.isBl

对Django中时区的解读

《对Django中时区的解读》:本文主要介绍对Django中时区的解读方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录背景前端数据库中存储接口返回AI的解释问题:这样设置的作用答案获取当前时间(自动带时区)转换为北京时间显示总结背景设置时区为北京时间 TIM

Java中的内部类和常用类用法解读

《Java中的内部类和常用类用法解读》:本文主要介绍Java中的内部类和常用类用法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录内部类和常用类内部类成员内部类静态内部类局部内部类匿名内部类常用类Object类包装类String类StringBuffer和Stri

JVM垃圾回收机制之GC解读

《JVM垃圾回收机制之GC解读》:本文主要介绍JVM垃圾回收机制之GC,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、死亡对象的判断算法1.1 引用计数算法1.2 可达性分析算法二、垃圾回收算法2.1 标记-清除算法2.2 复制算法2.3 标记-整理算法2.4