FasterRCNN源码解析(六)——RPN(中)Proposal的获取

2023-10-14 15:10

本文主要是介绍FasterRCNN源码解析(六)——RPN(中)Proposal的获取,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

FasterRCNN源码解析(六)——RPN(中)Proposal的获取

利用生成的anchos以及RPNHead模块得到的预测分数以及目标边界框回归参数,获取proposal,然后再经过一系列算法滤除部分proposal,得到我们RPN模块输出的proposal。

文章目录

  • FasterRCNN源码解析(六)——RPN(中)Proposal的获取
  • 一、RegionProposalNetwork
  • 二、self.filter_proposals


一、RegionProposalNetwork

怎样去实例化RPN模型呢?

rpn = RegionProposalNetwork(rpn_anchor_generator, rpn_head, # FasterRCNN源码解析(五)所提到的rpn_fg_iou_thresh, rpn_bg_iou_thresh, # rpn计算损失时,采集正负样本设置的阈值   , 在其之间直接舍去rpn_batch_size_per_image, rpn_positive_fraction, # 前者是rpn在计算损失时采用正负样本的总个数, 后者是正样本占用于计算损失所有样本rpn_pre_nms_top_n, rpn_post_nms_top_n, rpn_nms_thresh )

rpn_anchor_generator, rpn_head, : FasterRCNN源码解析(五)所提到的
rpn_fg_iou_thresh, rpn_bg_iou_thresh, : rpn计算损失时,采集正负样本设置的阈值 , 在其之间直接舍去
rpn_batch_size_per_image, rpn_positive_fraction,: 前者是rpn在计算损失时采用正负样本的总个数, 后者是正样本占用于计算损失所有样本
rpn_pre_nms_top_n,:在nms处理之前 针对每个预测特征层所保留的目标个数
rpn_post_nms_top_n,:在nms处理之后所剩余的目标个数 即RPN输出的proposal的目标个数
rpn_nms_thresh :nms处理时 所指定的一个阈值

二、self.filter_proposals

其作用为筛除小boxes框,nms处理,根据预测概率获取前post_nms_top_n个目标
传入的参数有
proposals: 预测的bbox坐标
objectness: 预测的目标概率
image_shapes: batch中每张图片的size信息
num_anchors_per_level: 每个预测特征层上预测anchors的数目
主要步骤有:

  1. 获取图片数量

  2. 对objectness变量进行resape处理,使其变为 b a t c h ∗ 预 测 的 数 值 个 数 batch*预测的数值个数 batch在这里插入图片描述

  3. 使用levels变量记录分隔不同预测特征层的索引信息(有多层预测特征层会生成多个tensor,每层tensor用该层的索引进行填充,然后进行拼接操作)目的是为了区分不同的特征层的anchor在这里插入图片描述在这里插入图片描述在这里插入图片描述

  4. 将我们的tensor(levels变量)在第一个维度上进行复制,复制batch_size分在这里插入图片描述

  5. 获取每张预测特征图上预测概率排前pre_nms_top_n的anchors索引值
    最后输出为:(每张图片只剩下8768个proposal了)
    在这里插入图片描述

  6. 根据每个预测特征层预测概率排前pre_nms_top_n的anchors索引值获取相应概率信息
    在这里插入图片描述
    在这里插入图片描述

  7. 预测概率排前pre_nms_top_n的anchors索引值获取相应bbox坐标信息
    在这里插入图片描述

  8. 遍历每张图片的相关预测信息(滤除小目标,进行nms处理,按照我们目标类别分数进行排序输出的,取前top_n个boxes和 scores)

在这里插入图片描述
在这里插入图片描述

    def filter_proposals(self, proposals, objectness, image_shapes, num_anchors_per_level):# type: (Tensor, Tensor, List[Tuple[int, int]], List[int]) -> Tuple[List[Tensor], List[Tensor]]"""筛除小boxes框,nms处理,根据预测概率获取前post_nms_top_n个目标Args:proposals: 预测的bbox坐标objectness: 预测的目标概率image_shapes: batch中每张图片的size信息num_anchors_per_level: 每个预测特征层上预测anchors的数目Returns:"""num_images = proposals.shape[0]device = proposals.device# do not backprop throught objectnessobjectness = objectness.detach()objectness = objectness.reshape(num_images, -1)# Returns a tensor of size size filled with fill_value# levels负责记录分隔不同预测特征层上的anchors索引信息levels = [torch.full((n, ), idx, dtype=torch.int64, device=device)for idx, n in enumerate(num_anchors_per_level)]levels = torch.cat(levels, 0)# Expand this tensor to the same size as objectnesslevels = levels.reshape(1, -1).expand_as(objectness)# select top_n boxes independently per level before applying nms# 获取每张预测特征图上预测概率排前pre_nms_top_n的anchors索引值top_n_idx = self._get_top_n_idx(objectness, num_anchors_per_level)image_range = torch.arange(num_images, device=device)batch_idx = image_range[:, None]  # [batch_size, 1]# 根据每个预测特征层预测概率排前pre_nms_top_n的anchors索引值获取相应概率信息objectness = objectness[batch_idx, top_n_idx]levels = levels[batch_idx, top_n_idx]# 预测概率排前pre_nms_top_n的anchors索引值获取相应bbox坐标信息proposals = proposals[batch_idx, top_n_idx]final_boxes = []final_scores = []# 遍历每张图像的相关预测信息for boxes, scores, lvl, img_shape in zip(proposals, objectness, levels, image_shapes):# 调整预测的boxes信息,将越界的坐标调整到图片边界上boxes = box_ops.clip_boxes_to_image(boxes, img_shape)# 返回boxes满足宽,高都大于min_size的索引keep = box_ops.remove_small_boxes(boxes, self.min_size)boxes, scores, lvl = boxes[keep], scores[keep], lvl[keep]# non-maximum suppression, independently done per levelkeep = box_ops.batched_nms(boxes, scores, lvl, self.nms_thresh)# keep only topk scoring predictionskeep = keep[: self.post_nms_top_n()]boxes, scores = boxes[keep], scores[keep]final_boxes.append(boxes)final_scores.append(scores)return final_boxes, final_scores

这篇关于FasterRCNN源码解析(六)——RPN(中)Proposal的获取的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/211321

相关文章

Java中Redisson 的原理深度解析

《Java中Redisson的原理深度解析》Redisson是一个高性能的Redis客户端,它通过将Redis数据结构映射为Java对象和分布式对象,实现了在Java应用中方便地使用Redis,本文... 目录前言一、核心设计理念二、核心架构与通信层1. 基于 Netty 的异步非阻塞通信2. 编解码器三、

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

Python版本信息获取方法详解与实战

《Python版本信息获取方法详解与实战》在Python开发中,获取Python版本号是调试、兼容性检查和版本控制的重要基础操作,本文详细介绍了如何使用sys和platform模块获取Python的主... 目录1. python版本号获取基础2. 使用sys模块获取版本信息2.1 sys模块概述2.1.1

一文解析C#中的StringSplitOptions枚举

《一文解析C#中的StringSplitOptions枚举》StringSplitOptions是C#中的一个枚举类型,用于控制string.Split()方法分割字符串时的行为,核心作用是处理分割后... 目录C#的StringSplitOptions枚举1.StringSplitOptions枚举的常用

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

MyBatis延迟加载与多级缓存全解析

《MyBatis延迟加载与多级缓存全解析》文章介绍MyBatis的延迟加载与多级缓存机制,延迟加载按需加载关联数据提升性能,一级缓存会话级默认开启,二级缓存工厂级支持跨会话共享,增删改操作会清空对应缓... 目录MyBATis延迟加载策略一对多示例一对多示例MyBatis框架的缓存一级缓存二级缓存MyBat

前端缓存策略的自解方案全解析

《前端缓存策略的自解方案全解析》缓存从来都是前端的一个痛点,很多前端搞不清楚缓存到底是何物,:本文主要介绍前端缓存的自解方案,文中通过代码介绍的非常详细,需要的朋友可以参考下... 目录一、为什么“清缓存”成了技术圈的梗二、先给缓存“把个脉”:浏览器到底缓存了谁?三、设计思路:把“发版”做成“自愈”四、代码

Java集合之Iterator迭代器实现代码解析

《Java集合之Iterator迭代器实现代码解析》迭代器Iterator是Java集合框架中的一个核心接口,位于java.util包下,它定义了一种标准的元素访问机制,为各种集合类型提供了一种统一的... 目录一、什么是Iterator二、Iterator的核心方法三、基本使用示例四、Iterator的工

Java发送SNMP至交换机获取交换机状态实现方式

《Java发送SNMP至交换机获取交换机状态实现方式》文章介绍使用SNMP4J库(2.7.0)通过RCF1213-MIB协议获取交换机单/多路状态,需开启SNMP支持,重点对比SNMPv1、v2c、v... 目录交换机协议SNMP库获取交换机单路状态获取交换机多路状态总结交换机协议这里使用的交换机协议为常