BEVFusion代码复现实践

2023-10-17 15:40
文章标签 代码 实践 复现 bevfusion

本文主要是介绍BEVFusion代码复现实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

bevfusion代码复现环境部署

  • mit版本代码github地址
  • 本人代码仓库地址 ,求个☆^_^
  • Fast-BEV代码复现实践
  • BEVFustion-TensorRT部署
  • BEV各算法环境部署实战汇总
  • 如果觉得本文章可以,一键三连支持一波,^_^
  • 部署有问题的小伙伴欢迎留言和加Q裙-472648720

1 环境安装

  • python-3.8, torch-1.10.0, cuda-11.3
  • 不要问其他版本能不能通,小白和不想折腾环境的童鞋直接抄作业
  1. 虚拟环境
  • conda(含显卡驱动,cuda安装)构建虚拟环境参考链接
# 1 创建虚拟环境
conda create -n bevfusion python=3.8
# 2 激活虚拟环境
conda activate bevfusion
  • 后面python包都是安装在虚拟环境中
  1. torch安装

cuda与torch版本查询 我用的torch-1.10.0

pip install torch==1.10.0+cu113 torchvision==0.11.0+cu113 torchaudio==0.10.0 -f https://download.pytorch.org/whl/torch_stable.html
  1. 其他依赖安装
  • libgllibopenmpi-dev
# 安装mpi4py时依赖openmpi,不然会报错fatal error: mpi.h
sudo apt-get install wget libgl1-mesa-glx libglib2.0-0 openmpi-bin openmpi-common libopenmpi-dev libgtk2.0-dev git -y
  • openlib相关包
pip install Pillow==8.4.0 tqdm torchpack mmcv-full==1.4.0 mmdet==2.20.0 nuscenes-devkit mpi4py==3.0.3 numba==0.48.0 setuptools==56.1.0 ninja==1.11.1 numpy==1.23.4 opencv-python==4.8.0.74 opencv-python-headless==4.8.0.74 yapf==0.40.1

安装mmcv-full时,可能需要时间比较长,只要电脑没卡住,都是正常的

  1. 根据setup.py进行配置, 这里会安装mmdet3d

下载源码运行setup.py,建议直接拉取本人的仓库代码,以免作者版本更新,遇到新的问题。

  • 拉取源码
# 1 拉取官方源码
git clone https://github.com/mit-han-lab/bevfusion.git
# 本人仓库拉取
git clone https://gitee.com/linClubs/bevfusion.git
  • 运行setup.py
pip install -v -e .# -v 调试信息
# -e 可编辑模型
# . 寻找当前目录下的setup.py
  • 运行完,显示如下:
    mmdet3d版本0.0.0,不影响代码的运行
Successfully installed mmdet3d-0.0.0
  1. 查看环境
  • 查看torch,cuda相关包版本号
pip list | grep torch
  • 查看mmopenlab相关包版本号
pip list | grep mm

2 报错修改汇总

  1. mmdet3d/ops/spconv/src/indice_cuda.cu文件里面所有的4096改为256

  2. 算力更改:setup.py文件中第22行左右,只保留一行-gencode=arch=compute_86,code=sm_86"

  • 参数86就是自己显卡的算力根据实际修改, 显卡算力查询
  1. 运行报错
  • 1 错误1 运行tools/visualize.py报错No module named 'torchpack.utils.tqdm
    修改:把tools/visualize.py文件中from torchpack.utils.tqdm import tqdm改成from tqdm import tqdm,如下:
# from torchpack.utils.tqdm import tqdm
from tqdm import tqdm
  • 2 错误2
    mmdet3d/models/vtransforms/base.py中2个forward函数的参数都加上metas变量,加到**kwargs前即可,如下所示
def forward(
...
metas,
**kwargs,
):
#  3 错误3 
#  return _bootstrap._gcd_import(name[level:], package, level)
# ImportError: libGL.so.1: cannot open shared object file: No such file or directory
修改:安装opencv-python的依赖
sudo apt install libgl1-mesa-glx libglib2.0-0# 4 错误4:#raise AttributeError("module {!r} has no attribute "
#AttributeError: module 'numpy' has no attribute 'long'
修改:更新numpy的版本pip install numpy==1.23.4# 5 错误5:#text, _ = FormatCode(text, style_config=yapf_style, verify=True)
#TypeError: FormatCode() got an unexpected keyword argument 'verify'
修改:更新yapf版本
pip install yapf==0.40.1# 6 错误6:
# AttributeError: module 'distutils' has no attribute 'version'
修改:更新setuptools版本
pip install setuptools==58.4.0
  1. distributed分布式训练
  • 如果需要多卡训练,请把distributed参数设置为True,直接vs-code全局搜索找到distributed

3 运行

3.1 准备数据集

  • nuscenes-mini数据集得加上--version v1.0-mini参数,下以nuscenes-mini作代码验证

具体下载细节参考Fast-BEV代码复现实践的第2小节数据集准备内容

下载后数据集后运行create_data.py生成训练数据,

create_data.py只运行下面代码第一行nuscenes-mini即可

# nuscenes-mini
python tools/create_data.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag nuscenes --version v1.0-mini# nuscenes
python tools/create_data.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag nuscenes

原始总共4个文件夹 maps,samples,sweeps,v1.0-mini,运行create_data.py后生成3pkl文件和一个nuscenes_gt_database文件夹,目录结构如下:

data└──nuscenes├── maps├── nuscenes_dbinfos_train.pkl├── nuscenes_gt_database├── nuscenes_infos_train.pkl├── nuscenes_infos_val.pkl├── samples├── sweeps└── v1.0-mini

3.2 预训练权重

./tools/download_pretrained.sh
  • 运行后会在cd pretrained中生成7个权重文件,具体信息可以阅读./tools/download_pretrained.sh文件内容
  • 使用swint-nuimages-pretrained.pth这个预训练权重进行训练
  • 如果运行上./tools/download_pretrained.sh下载失败,可以直接在github的readme上点击下载地址
  • 加文章末尾群号, 群文件也有swint-nuimages-pretrained.pth文件

3.3 训练

根据显卡性能修改参数:

  • 只有一张显卡: -np 1
  • configs/default.yaml中修改epoch:max_epochs: 2(本人只跑2个周期测试)
  • configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml文件中,测试环境是否正确时,建议设置samples_per_gpu: 1,,后期训练根据硬件配置修改,如果使用其他配置文件,修改同理。
  • 测试环境时,configs/nuscenes/default.yamlworkers_per_gpu 参数修改为0:workers_per_gpu: 0samples_per_gpu: 1
torchpack dist-run -np 1 python tools/train.py configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml --model.encoders.camera.backbone.init_cfg.checkpoint pretrained/swint-nuimages-pretrained.pth --run-dir train_result
  • 训练完成后会在train_result目录下生成下面文件 结构如下:
└── train_result├── 20230809_203249.log├── 20230809_203249.log.json├── configs.yaml├── epoch_2.pth├── latest.pth -> epoch_2.pth├── logging└── tf_logs
  • configs.yamllatest.pth在test和可视化需要使用

    3.4 测试

# pretrained
torchpack dist-run -np 1 python tools/test.py configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml pretrained/swint-nuimages-pretrained.pth --eval bbox --out box.pkl# Custom
torchpack dist-run -np 1 python tools/test.py train_result/configs.yaml train_result/latest.pth --eval bbox --out box.pkl

运行后会生成box.pkl文档

3.5 visualize

  • 首先改错误1.2小节3.的2个错误
# Custom
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode pred --checkpoint train_result/latest.pth --bbox-score 0.2 --out-dir vis_result# gt
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode gt --checkpoint train_result/latest.pth --bbox-score 0.5 --out-dir vis_result# pretrained
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode pred --checkpoint pretrained/swint-nuimages-pretrained.pth --bbox-score 0.2 --out-dir vis_result
  • 运行后会在vis_result下生成可视化结果,如下:
└── vis_result├── camera-0├── camera-1├── camera-2├── camera-3├── camera-4├── camera-5└── lidar

运行--mode gt模式,也就是标签数据可视化,自己训练权重效果比较差(原因:钞能力有限),可视化结果如下:
请添加图片描述

小伙伴们部署时遇到问题,欢迎各位小伙伴留言,欢迎进入bev交流抠抠裙472648720,大家一起学bev!
如果觉得文章可以,一键三连支持一波,瑞思拜^-^

这篇关于BEVFusion代码复现实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/226377

相关文章

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

Django开发时如何避免频繁发送短信验证码(python图文代码)

《Django开发时如何避免频繁发送短信验证码(python图文代码)》Django开发时,为防止频繁发送验证码,后端需用Redis限制请求频率,结合管道技术提升效率,通过生产者消费者模式解耦业务逻辑... 目录避免频繁发送 验证码1. www.chinasem.cn避免频繁发送 验证码逻辑分析2. 避免频繁

精选20个好玩又实用的的Python实战项目(有图文代码)

《精选20个好玩又实用的的Python实战项目(有图文代码)》文章介绍了20个实用Python项目,涵盖游戏开发、工具应用、图像处理、机器学习等,使用Tkinter、PIL、OpenCV、Kivy等库... 目录① 猜字游戏② 闹钟③ 骰子模拟器④ 二维码⑤ 语言检测⑥ 加密和解密⑦ URL缩短⑧ 音乐播放

Spring Boot集成/输出/日志级别控制/持久化开发实践

《SpringBoot集成/输出/日志级别控制/持久化开发实践》SpringBoot默认集成Logback,支持灵活日志级别配置(INFO/DEBUG等),输出包含时间戳、级别、类名等信息,并可通过... 目录一、日志概述1.1、Spring Boot日志简介1.2、日志框架与默认配置1.3、日志的核心作用

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

破茧 JDBC:MyBatis 在 Spring Boot 中的轻量实践指南

《破茧JDBC:MyBatis在SpringBoot中的轻量实践指南》MyBatis是持久层框架,简化JDBC开发,通过接口+XML/注解实现数据访问,动态代理生成实现类,支持增删改查及参数... 目录一、什么是 MyBATis二、 MyBatis 入门2.1、创建项目2.2、配置数据库连接字符串2.3、入

Android Paging 分页加载库使用实践

《AndroidPaging分页加载库使用实践》AndroidPaging库是Jetpack组件的一部分,它提供了一套完整的解决方案来处理大型数据集的分页加载,本文将深入探讨Paging库... 目录前言一、Paging 库概述二、Paging 3 核心组件1. PagingSource2. Pager3.

在Java中使用OpenCV实践

《在Java中使用OpenCV实践》用户分享了在Java项目中集成OpenCV4.10.0的实践经验,涵盖库简介、Windows安装、依赖配置及灰度图测试,强调其在图像处理领域的多功能性,并计划后续探... 目录前言一 、OpenCV1.简介2.下载与安装3.目录说明二、在Java项目中使用三 、测试1.测

MyBatis-Plus 自动赋值实体字段最佳实践指南

《MyBatis-Plus自动赋值实体字段最佳实践指南》MyBatis-Plus通过@TableField注解与填充策略,实现时间戳、用户信息、逻辑删除等字段的自动填充,减少手动赋值,提升开发效率与... 目录1. MyBATis-Plus 自动赋值概述1.1 适用场景1.2 自动填充的原理1.3 填充策略

Olingo分析和实践之EDM 辅助序列化器详解(最佳实践)

《Olingo分析和实践之EDM辅助序列化器详解(最佳实践)》EDM辅助序列化器是ApacheOlingoOData框架中无需完整EDM模型的智能序列化工具,通过运行时类型推断实现灵活数据转换,适用... 目录概念与定义什么是 EDM 辅助序列化器?核心概念设计目标核心特点1. EDM 信息可选2. 智能类