BEVFusion代码复现实践

2023-10-17 15:40
文章标签 代码 实践 复现 bevfusion

本文主要是介绍BEVFusion代码复现实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

bevfusion代码复现环境部署

  • mit版本代码github地址
  • 本人代码仓库地址 ,求个☆^_^
  • Fast-BEV代码复现实践
  • BEVFustion-TensorRT部署
  • BEV各算法环境部署实战汇总
  • 如果觉得本文章可以,一键三连支持一波,^_^
  • 部署有问题的小伙伴欢迎留言和加Q裙-472648720

1 环境安装

  • python-3.8, torch-1.10.0, cuda-11.3
  • 不要问其他版本能不能通,小白和不想折腾环境的童鞋直接抄作业
  1. 虚拟环境
  • conda(含显卡驱动,cuda安装)构建虚拟环境参考链接
# 1 创建虚拟环境
conda create -n bevfusion python=3.8
# 2 激活虚拟环境
conda activate bevfusion
  • 后面python包都是安装在虚拟环境中
  1. torch安装

cuda与torch版本查询 我用的torch-1.10.0

pip install torch==1.10.0+cu113 torchvision==0.11.0+cu113 torchaudio==0.10.0 -f https://download.pytorch.org/whl/torch_stable.html
  1. 其他依赖安装
  • libgllibopenmpi-dev
# 安装mpi4py时依赖openmpi,不然会报错fatal error: mpi.h
sudo apt-get install wget libgl1-mesa-glx libglib2.0-0 openmpi-bin openmpi-common libopenmpi-dev libgtk2.0-dev git -y
  • openlib相关包
pip install Pillow==8.4.0 tqdm torchpack mmcv-full==1.4.0 mmdet==2.20.0 nuscenes-devkit mpi4py==3.0.3 numba==0.48.0 setuptools==56.1.0 ninja==1.11.1 numpy==1.23.4 opencv-python==4.8.0.74 opencv-python-headless==4.8.0.74 yapf==0.40.1

安装mmcv-full时,可能需要时间比较长,只要电脑没卡住,都是正常的

  1. 根据setup.py进行配置, 这里会安装mmdet3d

下载源码运行setup.py,建议直接拉取本人的仓库代码,以免作者版本更新,遇到新的问题。

  • 拉取源码
# 1 拉取官方源码
git clone https://github.com/mit-han-lab/bevfusion.git
# 本人仓库拉取
git clone https://gitee.com/linClubs/bevfusion.git
  • 运行setup.py
pip install -v -e .# -v 调试信息
# -e 可编辑模型
# . 寻找当前目录下的setup.py
  • 运行完,显示如下:
    mmdet3d版本0.0.0,不影响代码的运行
Successfully installed mmdet3d-0.0.0
  1. 查看环境
  • 查看torch,cuda相关包版本号
pip list | grep torch
  • 查看mmopenlab相关包版本号
pip list | grep mm

2 报错修改汇总

  1. mmdet3d/ops/spconv/src/indice_cuda.cu文件里面所有的4096改为256

  2. 算力更改:setup.py文件中第22行左右,只保留一行-gencode=arch=compute_86,code=sm_86"

  • 参数86就是自己显卡的算力根据实际修改, 显卡算力查询
  1. 运行报错
  • 1 错误1 运行tools/visualize.py报错No module named 'torchpack.utils.tqdm
    修改:把tools/visualize.py文件中from torchpack.utils.tqdm import tqdm改成from tqdm import tqdm,如下:
# from torchpack.utils.tqdm import tqdm
from tqdm import tqdm
  • 2 错误2
    mmdet3d/models/vtransforms/base.py中2个forward函数的参数都加上metas变量,加到**kwargs前即可,如下所示
def forward(
...
metas,
**kwargs,
):
#  3 错误3 
#  return _bootstrap._gcd_import(name[level:], package, level)
# ImportError: libGL.so.1: cannot open shared object file: No such file or directory
修改:安装opencv-python的依赖
sudo apt install libgl1-mesa-glx libglib2.0-0# 4 错误4:#raise AttributeError("module {!r} has no attribute "
#AttributeError: module 'numpy' has no attribute 'long'
修改:更新numpy的版本pip install numpy==1.23.4# 5 错误5:#text, _ = FormatCode(text, style_config=yapf_style, verify=True)
#TypeError: FormatCode() got an unexpected keyword argument 'verify'
修改:更新yapf版本
pip install yapf==0.40.1# 6 错误6:
# AttributeError: module 'distutils' has no attribute 'version'
修改:更新setuptools版本
pip install setuptools==58.4.0
  1. distributed分布式训练
  • 如果需要多卡训练,请把distributed参数设置为True,直接vs-code全局搜索找到distributed

3 运行

3.1 准备数据集

  • nuscenes-mini数据集得加上--version v1.0-mini参数,下以nuscenes-mini作代码验证

具体下载细节参考Fast-BEV代码复现实践的第2小节数据集准备内容

下载后数据集后运行create_data.py生成训练数据,

create_data.py只运行下面代码第一行nuscenes-mini即可

# nuscenes-mini
python tools/create_data.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag nuscenes --version v1.0-mini# nuscenes
python tools/create_data.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag nuscenes

原始总共4个文件夹 maps,samples,sweeps,v1.0-mini,运行create_data.py后生成3pkl文件和一个nuscenes_gt_database文件夹,目录结构如下:

data└──nuscenes├── maps├── nuscenes_dbinfos_train.pkl├── nuscenes_gt_database├── nuscenes_infos_train.pkl├── nuscenes_infos_val.pkl├── samples├── sweeps└── v1.0-mini

3.2 预训练权重

./tools/download_pretrained.sh
  • 运行后会在cd pretrained中生成7个权重文件,具体信息可以阅读./tools/download_pretrained.sh文件内容
  • 使用swint-nuimages-pretrained.pth这个预训练权重进行训练
  • 如果运行上./tools/download_pretrained.sh下载失败,可以直接在github的readme上点击下载地址
  • 加文章末尾群号, 群文件也有swint-nuimages-pretrained.pth文件

3.3 训练

根据显卡性能修改参数:

  • 只有一张显卡: -np 1
  • configs/default.yaml中修改epoch:max_epochs: 2(本人只跑2个周期测试)
  • configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml文件中,测试环境是否正确时,建议设置samples_per_gpu: 1,,后期训练根据硬件配置修改,如果使用其他配置文件,修改同理。
  • 测试环境时,configs/nuscenes/default.yamlworkers_per_gpu 参数修改为0:workers_per_gpu: 0samples_per_gpu: 1
torchpack dist-run -np 1 python tools/train.py configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml --model.encoders.camera.backbone.init_cfg.checkpoint pretrained/swint-nuimages-pretrained.pth --run-dir train_result
  • 训练完成后会在train_result目录下生成下面文件 结构如下:
└── train_result├── 20230809_203249.log├── 20230809_203249.log.json├── configs.yaml├── epoch_2.pth├── latest.pth -> epoch_2.pth├── logging└── tf_logs
  • configs.yamllatest.pth在test和可视化需要使用

    3.4 测试

# pretrained
torchpack dist-run -np 1 python tools/test.py configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml pretrained/swint-nuimages-pretrained.pth --eval bbox --out box.pkl# Custom
torchpack dist-run -np 1 python tools/test.py train_result/configs.yaml train_result/latest.pth --eval bbox --out box.pkl

运行后会生成box.pkl文档

3.5 visualize

  • 首先改错误1.2小节3.的2个错误
# Custom
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode pred --checkpoint train_result/latest.pth --bbox-score 0.2 --out-dir vis_result# gt
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode gt --checkpoint train_result/latest.pth --bbox-score 0.5 --out-dir vis_result# pretrained
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode pred --checkpoint pretrained/swint-nuimages-pretrained.pth --bbox-score 0.2 --out-dir vis_result
  • 运行后会在vis_result下生成可视化结果,如下:
└── vis_result├── camera-0├── camera-1├── camera-2├── camera-3├── camera-4├── camera-5└── lidar

运行--mode gt模式,也就是标签数据可视化,自己训练权重效果比较差(原因:钞能力有限),可视化结果如下:
请添加图片描述

小伙伴们部署时遇到问题,欢迎各位小伙伴留言,欢迎进入bev交流抠抠裙472648720,大家一起学bev!
如果觉得文章可以,一键三连支持一波,瑞思拜^-^

这篇关于BEVFusion代码复现实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/226377

相关文章

Java 的ArrayList集合底层实现与最佳实践

《Java的ArrayList集合底层实现与最佳实践》本文主要介绍了Java的ArrayList集合类的核心概念、底层实现、关键成员变量、初始化机制、容量演变、扩容机制、性能分析、核心方法源码解析、... 目录1. 核心概念与底层实现1.1 ArrayList 的本质1.1.1 底层数据结构JDK 1.7

JDK21对虚拟线程的几种用法实践指南

《JDK21对虚拟线程的几种用法实践指南》虚拟线程是Java中的一种轻量级线程,由JVM管理,特别适合于I/O密集型任务,:本文主要介绍JDK21对虚拟线程的几种用法,文中通过代码介绍的非常详细,... 目录一、参考官方文档二、什么是虚拟线程三、几种用法1、Thread.ofVirtual().start(

从基础到高级详解Go语言中错误处理的实践指南

《从基础到高级详解Go语言中错误处理的实践指南》Go语言采用了一种独特而明确的错误处理哲学,与其他主流编程语言形成鲜明对比,本文将为大家详细介绍Go语言中错误处理详细方法,希望对大家有所帮助... 目录1 Go 错误处理哲学与核心机制1.1 错误接口设计1.2 错误与异常的区别2 错误创建与检查2.1 基础

Java集合之Iterator迭代器实现代码解析

《Java集合之Iterator迭代器实现代码解析》迭代器Iterator是Java集合框架中的一个核心接口,位于java.util包下,它定义了一种标准的元素访问机制,为各种集合类型提供了一种统一的... 目录一、什么是Iterator二、Iterator的核心方法三、基本使用示例四、Iterator的工

springboot依靠security实现digest认证的实践

《springboot依靠security实现digest认证的实践》HTTP摘要认证通过加密参数(如nonce、response)验证身份,避免明文传输,但存在密码存储风险,相比基本认证更安全,却因... 目录概述参数Demopom.XML依赖Digest1Application.JavaMyPasswo

Java 线程池+分布式实现代码

《Java线程池+分布式实现代码》在Java开发中,池通过预先创建并管理一定数量的资源,避免频繁创建和销毁资源带来的性能开销,从而提高系统效率,:本文主要介绍Java线程池+分布式实现代码,需要... 目录1. 线程池1.1 自定义线程池实现1.1.1 线程池核心1.1.2 代码示例1.2 总结流程2. J

JS纯前端实现浏览器语音播报、朗读功能的完整代码

《JS纯前端实现浏览器语音播报、朗读功能的完整代码》在现代互联网的发展中,语音技术正逐渐成为改变用户体验的重要一环,下面:本文主要介绍JS纯前端实现浏览器语音播报、朗读功能的相关资料,文中通过代码... 目录一、朗读单条文本:① 语音自选参数,按钮控制语音:② 效果图:二、朗读多条文本:① 语音有默认值:②

Vue实现路由守卫的示例代码

《Vue实现路由守卫的示例代码》Vue路由守卫是控制页面导航的钩子函数,主要用于鉴权、数据预加载等场景,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着... 目录一、概念二、类型三、实战一、概念路由守卫(Navigation Guards)本质上就是 在路

uni-app小程序项目中实现前端图片压缩实现方式(附详细代码)

《uni-app小程序项目中实现前端图片压缩实现方式(附详细代码)》在uni-app开发中,文件上传和图片处理是很常见的需求,但也经常会遇到各种问题,下面:本文主要介绍uni-app小程序项目中实... 目录方式一:使用<canvas>实现图片压缩(推荐,兼容性好)示例代码(小程序平台):方式二:使用uni

分析 Java Stream 的 peek使用实践与副作用处理方案

《分析JavaStream的peek使用实践与副作用处理方案》StreamAPI的peek操作是中间操作,用于观察元素但不终止流,其副作用风险包括线程安全、顺序混乱及性能问题,合理使用场景有限... 目录一、peek 操作的本质:有状态的中间操作二、副作用的定义与风险场景1. 并行流下的线程安全问题2. 顺