Apollo camera 感知部分 目标检测源码阅读分析

2024-06-19 09:08

本文主要是介绍Apollo camera 感知部分 目标检测源码阅读分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

障碍物检测分为detector transformer postprocessor tracker几个部分

kitti 基于单目的3D目标检测的预备知识点:

首先是yolo3d 3d目标检测输出结果为kitti的3D格式,(其中3d信息部分是以相机坐标系为参考坐标系的)

首先介绍下kitti 3d object detection障碍物标注的的标注文件格式

KITTI数据集,label文件解析:

Car 0.00 0 -1.84 662.20 185.85 690.21 205.03 1.48 1.36 3.51 5.35 2.56 58.84 -1.75

1个字符串:代表物体类别

'Car', 'Van', 'Truck','Pedestrian', 'Person_sitting', 'Cyclist','Tram',  'Misc' or  'DontCare'

注意:’DontCare’ 标签表示该区域没有被标注,比如由于目标物体距离激光雷达太远。为了防止在评估过程中(主要是计算precision),将本来是目标物体但是因为某些原因而没有标注的区域统计为假阳性(false positives),评估脚本会自动忽略’DontCare’ 区域的预测结果。

2个数:代表物体是否被截断,从0(非截断)到1(截断)浮动,其中truncated指离开图像边界的对象

3个数:代表物体是否被遮挡,整数0123表示被遮挡的程度

0:完全可见  1:小部分遮挡  2:大部分遮挡 3:完全遮挡(unknown

4个数:alpha,物体的观察角度,范围:-pi~pi

是在相机坐标系下,以相机原点为中心,相机原点到物体中心的连线为半径,将物体绕相机y轴旋转至相机z轴,此时物体方向与相机x轴的夹角

https://img-blog.csdnimg.cn/20181204101648283.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2N1aWNodWFuY2hlbjMzMDc=,size_16,color_FFFFFF,t_70

图1

r_y + pi/2 -theta = alpha +pi/2(即图中紫色的角是相等的)

所以alpha = r_y – theta

584个数:物体的2维边界框,左上角和右下角的像素坐标

9113个数:3维物体的尺寸,高、宽、长(单位:米)

12143个数:3维物体的位置 x,y,z(在照相机坐标系下,单位:米)

15个数:3维物体的空间方向:rotation_y,在照相机坐标系下,相对于y轴的旋转角,范围:-pi~pi

物体前进方向与相机坐标系x轴的夹角,即上面的r_y

有些有第16个数:检测的置信度 仅用于结果:浮点,p / r曲线所需,越高越好

3KITTI数据集,calib解析

https://images2018.cnblogs.com/blog/1367904/201807/1367904-20180716153028727-1432159525.png

要将Velodyne坐标中的点x投影到左侧的彩色图像中y

使用公式:y = P2 * R0_rect *Tr_velo_to_cam * x

Velodyne坐标中的点投影到右侧的彩色图像中:

使用公式:y = P3 * R0_rect *Tr_velo_to_cam * x

Tr_velo_to_cam * x    :是将Velodyne坐标中的点x投影到编号为0的相机(参考相机)坐标系中

R0_rect *Tr_velo_to_cam * x    :是将Velodyne坐标中的点x投影到编号为0的相机(参考相机)坐标系中,再修正

P2 * R0_rect *Tr_velo_to_cam * x     :是将Velodyne坐标中的点x投影到编号为0的相机(参考相机)坐标系中,再修正,然后投影到编号为2的相机(左彩色相机)

注意:所有矩阵都存储在主行中,即第一个值对应于第一行。 R0_rect包含一个3x3矩阵,需要将其扩展为4x4矩阵,方法是在右下角添加1,在其他位置添加0Tr_xxx是一个3x4矩阵(R | t),需要以相同的方式扩展到4x4矩阵!

通过使用校准文件夹中的3x4投影矩阵,可以将相机坐标系中的坐标投影到图像中,对于提供图像的左侧彩色相机,必须使用P2rotation_yalpha之间的区别在于rotation_y直接在相机坐标中给出,而alpha也会考虑从相机中心到物体中心的矢量,以计算物体相对于相机的相对方向。 例如,沿着摄像机坐标系的X轴面向的汽车,无论它位于X / Z平面(鸟瞰图)中的哪个位置,它的rotation_y都为 0,而只有当此车位于相机的Z轴上时α才为零,当此车从Z轴移开时,观察角度α将会改变。

detection:

apollo 采用的yolo3d 基于caffe变种 没有开源,网上开源的方法有 deep3dbox 

查看kitti排名可以找出许多方法,例如groomed_nms kinematic3d RTM3D(该方法可以更快落地)

http://www.cvlibs.net/datasets/kitti/eval_object.php?obj_benchmark=3d

上图是我测试后RT3D的基于单目的3d目标检测效果示意图

apollo 的yolo是基于早期的deep3dbox原理做的,因此在上述label标注元素中介绍的只有alpha是通过网络直接获得的角度,关于rotation_y 和 theta_ray角度是根据坐标转换和相机外参求得的。

transformer:

主要是如下三个处理步骤:

 // set object mapper optionsfloat theta_ray = 0.0f;SetObjMapperOptions(obj, camera_k_matrix, width_image, height_image,&obj_mapper_options, &theta_ray);// processmapper_->Solve3dBbox(obj_mapper_options, object_center, dimension_hwl,&rotation_y);// fill back resultsFillResults(object_center, dimension_hwl, rotation_y, camera2world_pose,theta_ray, obj);

其中第一个是参数配置

第二个函数需要解析的一些重点操作如下:

apollo求取这些角度的方式如下代码,思路:获得图相框底边的中心点 image_point_low_center 根据内参矩阵(camera intrinsics)camera_k_matrix得到相机坐标系下的3D坐标点 point_in_camera,然后利用图1所示的原理获得 theta_ray rotation_y 两个方位角度信息。

//multicue_obstacle_transformer.ccfloat box_cent_x = (bbox2d[0] + bbox2d[2]) / 2;Eigen::Vector3f image_point_low_center(box_cent_x, bbox2d[3], 1);Eigen::Vector3f point_in_camera =static_cast<Eigen::Matrix<float, 3, 1, 0, 3, 1>>(camera_k_matrix.inverse() * image_point_low_center);*theta_ray =static_cast<float>(atan2(point_in_camera.x(), point_in_camera.z()));float rotation_y =*theta_ray + static_cast<float>(obj->camera_supplement.alpha);

求取目标物在相机坐标系下的中心点坐标:

利用小孔成像原理:

ObjMapper::SolveCenterFromNearestVerticalEdge

该函数用于获取目标中心点在相机坐标系下的坐标,以下代码做了注释。

bool ObjMapper::SolveCenterFromNearestVerticalEdge(const float *bbox,const float *hwl, float ry,float *center,float *center_2d) const {center[0] = center[1] = center[2] = 0.0f;float height_bbox = bbox[3] - bbox[1];float width_bbox = bbox[2] - bbox[0];if (width_bbox <= 0.0f || height_bbox <= 0.0f) {AERROR << "width or height of bbox is 0";return false;}if (common::IRound(bbox[3]) >= height_ - 1) {height_bbox /= params_.occ_ratio;}
//求取目标物距离相机近的一面的在相机坐标系下的深度float f = (k_mat_[0] + k_mat_[4]) / 2;float depth = f * hwl[0] * common::IRec(height_bbox);// compensate from the nearest vertical edge to centerconst float PI = common::Constant<float>::PI();float theta_bbox = static_cast<float>(atan(hwl[1] * common::IRec(hwl[2])));float radius_bbox =common::ISqrt(common::ISqr(hwl[2] / 2) + common::ISqr(hwl[1] / 2));float abs_ry = fabsf(ry);float theta_z = std::min(abs_ry, PI - abs_ry) + theta_bbox;theta_z = std::min(theta_z, PI - theta_z);
//求目标物中心点深度 需要加上目标物长度的一半并考虑角度来计算depth += static_cast<float>(fabs(radius_bbox * sin(theta_z)));// back-project to solve center 获得中心点坐标(kitti 3d label中的那几列,利用内参投影获得)center_2d[0] = (bbox[0] + bbox[2]) / 2;center_2d[1] = (bbox[1] + bbox[3]) / 2;if (hwl[1] > params_.stable_w) {GetCenter(bbox, depth, ry, hwl, center, center_2d);} else {center[2] = depth;UpdateCenterViaBackProjectZ(bbox, hwl, center_2d, center);}return center[2] > params_.depth_min;
}

bool ObjMapper::Solve3dBboxGivenOneFullBboxDimensionOrientation(const float *bbox, const float *hwl, float *ry, float *center) {const float PI = common::Constant<float>::PI();const float PI_HALF = PI / 2;const float small_angle_diff =common::IDegreeToRadians(params_.angle_resolution_degree);float center_2d[2] = {0};bool success =SolveCenterFromNearestVerticalEdge(bbox, hwl, *ry, center, center_2d);float min_x = static_cast<float>(params_.boundary_len);float min_y = static_cast<float>(params_.boundary_len);float max_x = static_cast<float>(width_ - params_.boundary_len);float max_y = static_cast<float>(height_ - params_.boundary_len);
//截断属性 判断是否截断bool truncated = bbox[0] <= min_x || bbox[2] >= max_x || bbox[1] <= min_y ||bbox[3] >= max_y;
//判断是否超过考虑的距离 目标物过远过小float dist_rough = sqrtf(common::ISqr(center[0]) + common::ISqr(center[2]));bool ry_pred_is_not_reliable = dist_rough > params_.dist_far &&bbox[3] - bbox[1] < params_.small_bbox_height;if (ry_pred_is_not_reliable || std::abs(*ry - PI_HALF) < small_angle_diff ||std::abs(*ry + PI_HALF) < small_angle_diff) {*ry = *ry > 0.0f ? PI_HALF : -PI_HALF;}if (!truncated) {PostRefineOrientation(bbox, hwl, center, ry);success =SolveCenterFromNearestVerticalEdge(bbox, hwl, *ry, center, center_2d);PostRefineZ(bbox, hwl, center_2d, *ry, center);} else {FillRyScoreSingleBin(*ry);}return success &&GetProjectionScore(*ry, bbox, hwl, center, true) > params_.iou_suc;
}

获得相机坐标系下三维框的函数是:

bool ObjMapper::Solve3dBbox(const ObjMapperOptions &options, float center[3],float hwl[3], float *ry)

第三个函数fillresults 是吧求得的所有结果 中心点 追踪id 长宽高 角度等内容存储起来:

// fill back results
FillResults(object_center, dimension_hwl, rotation_y, camera2world_pose,theta_ray, obj);

上述分析完成后 是代码移植,移植代码到windows vs2017的开发环境

模型文件所在位置:

apollo\modules\perception\production\data\perception\camera\models\yolo_obstacle_detector\3d-r4-half

这篇关于Apollo camera 感知部分 目标检测源码阅读分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1074596

相关文章

OpenCV实现实时颜色检测的示例

《OpenCV实现实时颜色检测的示例》本文主要介绍了OpenCV实现实时颜色检测的示例,通过HSV色彩空间转换和色调范围判断实现红黄绿蓝颜色检测,包含视频捕捉、区域标记、颜色分析等功能,具有一定的参考... 目录一、引言二、系统概述三、代码解析1. 导入库2. 颜色识别函数3. 主程序循环四、HSV色彩空间

MyBatis Plus 中 update_time 字段自动填充失效的原因分析及解决方案(最新整理)

《MyBatisPlus中update_time字段自动填充失效的原因分析及解决方案(最新整理)》在使用MyBatisPlus时,通常我们会在数据库表中设置create_time和update... 目录前言一、问题现象二、原因分析三、总结:常见原因与解决方法对照表四、推荐写法前言在使用 MyBATis

Python主动抛出异常的各种用法和场景分析

《Python主动抛出异常的各种用法和场景分析》在Python中,我们不仅可以捕获和处理异常,还可以主动抛出异常,也就是以类的方式自定义错误的类型和提示信息,这在编程中非常有用,下面我将详细解释主动抛... 目录一、为什么要主动抛出异常?二、基本语法:raise关键字基本示例三、raise的多种用法1. 抛

github打不开的问题分析及解决

《github打不开的问题分析及解决》:本文主要介绍github打不开的问题分析及解决,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、找到github.com域名解析的ip地址二、找到github.global.ssl.fastly.net网址解析的ip地址三

Mysql的主从同步/复制的原理分析

《Mysql的主从同步/复制的原理分析》:本文主要介绍Mysql的主从同步/复制的原理分析,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录为什么要主从同步?mysql主从同步架构有哪些?Mysql主从复制的原理/整体流程级联复制架构为什么好?Mysql主从复制注意

java -jar命令运行 jar包时运行外部依赖jar包的场景分析

《java-jar命令运行jar包时运行外部依赖jar包的场景分析》:本文主要介绍java-jar命令运行jar包时运行外部依赖jar包的场景分析,本文给大家介绍的非常详细,对大家的学习或工作... 目录Java -jar命令运行 jar包时如何运行外部依赖jar包场景:解决:方法一、启动参数添加: -Xb

Apache 高级配置实战之从连接保持到日志分析的完整指南

《Apache高级配置实战之从连接保持到日志分析的完整指南》本文带你从连接保持优化开始,一路走到访问控制和日志管理,最后用AWStats来分析网站数据,对Apache配置日志分析相关知识感兴趣的朋友... 目录Apache 高级配置实战:从连接保持到日志分析的完整指南前言 一、Apache 连接保持 - 性

Linux中的more 和 less区别对比分析

《Linux中的more和less区别对比分析》在Linux/Unix系统中,more和less都是用于分页查看文本文件的命令,但less是more的增强版,功能更强大,:本文主要介绍Linu... 目录1. 基础功能对比2. 常用操作对比less 的操作3. 实际使用示例4. 为什么推荐 less?5.

spring-gateway filters添加自定义过滤器实现流程分析(可插拔)

《spring-gatewayfilters添加自定义过滤器实现流程分析(可插拔)》:本文主要介绍spring-gatewayfilters添加自定义过滤器实现流程分析(可插拔),本文通过实例图... 目录需求背景需求拆解设计流程及作用域逻辑处理代码逻辑需求背景公司要求,通过公司网络代理访问的请求需要做请

Java集成Onlyoffice的示例代码及场景分析

《Java集成Onlyoffice的示例代码及场景分析》:本文主要介绍Java集成Onlyoffice的示例代码及场景分析,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要... 需求场景:实现文档的在线编辑,团队协作总结:两个接口 + 前端页面 + 配置项接口1:一个接口,将o