BEVFusion代码复现实践

2023-10-17 15:40
文章标签 代码 实践 复现 bevfusion

本文主要是介绍BEVFusion代码复现实践,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

bevfusion代码复现环境部署

  • mit版本代码github地址
  • 本人代码仓库地址 ,求个☆^_^
  • Fast-BEV代码复现实践
  • BEVFustion-TensorRT部署
  • BEV各算法环境部署实战汇总
  • 如果觉得本文章可以,一键三连支持一波,^_^
  • 部署有问题的小伙伴欢迎留言和加Q裙-472648720

1 环境安装

  • python-3.8, torch-1.10.0, cuda-11.3
  • 不要问其他版本能不能通,小白和不想折腾环境的童鞋直接抄作业
  1. 虚拟环境
  • conda(含显卡驱动,cuda安装)构建虚拟环境参考链接
# 1 创建虚拟环境
conda create -n bevfusion python=3.8
# 2 激活虚拟环境
conda activate bevfusion
  • 后面python包都是安装在虚拟环境中
  1. torch安装

cuda与torch版本查询 我用的torch-1.10.0

pip install torch==1.10.0+cu113 torchvision==0.11.0+cu113 torchaudio==0.10.0 -f https://download.pytorch.org/whl/torch_stable.html
  1. 其他依赖安装
  • libgllibopenmpi-dev
# 安装mpi4py时依赖openmpi,不然会报错fatal error: mpi.h
sudo apt-get install wget libgl1-mesa-glx libglib2.0-0 openmpi-bin openmpi-common libopenmpi-dev libgtk2.0-dev git -y
  • openlib相关包
pip install Pillow==8.4.0 tqdm torchpack mmcv-full==1.4.0 mmdet==2.20.0 nuscenes-devkit mpi4py==3.0.3 numba==0.48.0 setuptools==56.1.0 ninja==1.11.1 numpy==1.23.4 opencv-python==4.8.0.74 opencv-python-headless==4.8.0.74 yapf==0.40.1

安装mmcv-full时,可能需要时间比较长,只要电脑没卡住,都是正常的

  1. 根据setup.py进行配置, 这里会安装mmdet3d

下载源码运行setup.py,建议直接拉取本人的仓库代码,以免作者版本更新,遇到新的问题。

  • 拉取源码
# 1 拉取官方源码
git clone https://github.com/mit-han-lab/bevfusion.git
# 本人仓库拉取
git clone https://gitee.com/linClubs/bevfusion.git
  • 运行setup.py
pip install -v -e .# -v 调试信息
# -e 可编辑模型
# . 寻找当前目录下的setup.py
  • 运行完,显示如下:
    mmdet3d版本0.0.0,不影响代码的运行
Successfully installed mmdet3d-0.0.0
  1. 查看环境
  • 查看torch,cuda相关包版本号
pip list | grep torch
  • 查看mmopenlab相关包版本号
pip list | grep mm

2 报错修改汇总

  1. mmdet3d/ops/spconv/src/indice_cuda.cu文件里面所有的4096改为256

  2. 算力更改:setup.py文件中第22行左右,只保留一行-gencode=arch=compute_86,code=sm_86"

  • 参数86就是自己显卡的算力根据实际修改, 显卡算力查询
  1. 运行报错
  • 1 错误1 运行tools/visualize.py报错No module named 'torchpack.utils.tqdm
    修改:把tools/visualize.py文件中from torchpack.utils.tqdm import tqdm改成from tqdm import tqdm,如下:
# from torchpack.utils.tqdm import tqdm
from tqdm import tqdm
  • 2 错误2
    mmdet3d/models/vtransforms/base.py中2个forward函数的参数都加上metas变量,加到**kwargs前即可,如下所示
def forward(
...
metas,
**kwargs,
):
#  3 错误3 
#  return _bootstrap._gcd_import(name[level:], package, level)
# ImportError: libGL.so.1: cannot open shared object file: No such file or directory
修改:安装opencv-python的依赖
sudo apt install libgl1-mesa-glx libglib2.0-0# 4 错误4:#raise AttributeError("module {!r} has no attribute "
#AttributeError: module 'numpy' has no attribute 'long'
修改:更新numpy的版本pip install numpy==1.23.4# 5 错误5:#text, _ = FormatCode(text, style_config=yapf_style, verify=True)
#TypeError: FormatCode() got an unexpected keyword argument 'verify'
修改:更新yapf版本
pip install yapf==0.40.1# 6 错误6:
# AttributeError: module 'distutils' has no attribute 'version'
修改:更新setuptools版本
pip install setuptools==58.4.0
  1. distributed分布式训练
  • 如果需要多卡训练,请把distributed参数设置为True,直接vs-code全局搜索找到distributed

3 运行

3.1 准备数据集

  • nuscenes-mini数据集得加上--version v1.0-mini参数,下以nuscenes-mini作代码验证

具体下载细节参考Fast-BEV代码复现实践的第2小节数据集准备内容

下载后数据集后运行create_data.py生成训练数据,

create_data.py只运行下面代码第一行nuscenes-mini即可

# nuscenes-mini
python tools/create_data.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag nuscenes --version v1.0-mini# nuscenes
python tools/create_data.py nuscenes --root-path ./data/nuscenes --out-dir ./data/nuscenes --extra-tag nuscenes

原始总共4个文件夹 maps,samples,sweeps,v1.0-mini,运行create_data.py后生成3pkl文件和一个nuscenes_gt_database文件夹,目录结构如下:

data└──nuscenes├── maps├── nuscenes_dbinfos_train.pkl├── nuscenes_gt_database├── nuscenes_infos_train.pkl├── nuscenes_infos_val.pkl├── samples├── sweeps└── v1.0-mini

3.2 预训练权重

./tools/download_pretrained.sh
  • 运行后会在cd pretrained中生成7个权重文件,具体信息可以阅读./tools/download_pretrained.sh文件内容
  • 使用swint-nuimages-pretrained.pth这个预训练权重进行训练
  • 如果运行上./tools/download_pretrained.sh下载失败,可以直接在github的readme上点击下载地址
  • 加文章末尾群号, 群文件也有swint-nuimages-pretrained.pth文件

3.3 训练

根据显卡性能修改参数:

  • 只有一张显卡: -np 1
  • configs/default.yaml中修改epoch:max_epochs: 2(本人只跑2个周期测试)
  • configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml文件中,测试环境是否正确时,建议设置samples_per_gpu: 1,,后期训练根据硬件配置修改,如果使用其他配置文件,修改同理。
  • 测试环境时,configs/nuscenes/default.yamlworkers_per_gpu 参数修改为0:workers_per_gpu: 0samples_per_gpu: 1
torchpack dist-run -np 1 python tools/train.py configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml --model.encoders.camera.backbone.init_cfg.checkpoint pretrained/swint-nuimages-pretrained.pth --run-dir train_result
  • 训练完成后会在train_result目录下生成下面文件 结构如下:
└── train_result├── 20230809_203249.log├── 20230809_203249.log.json├── configs.yaml├── epoch_2.pth├── latest.pth -> epoch_2.pth├── logging└── tf_logs
  • configs.yamllatest.pth在test和可视化需要使用

    3.4 测试

# pretrained
torchpack dist-run -np 1 python tools/test.py configs/nuscenes/det/centerhead/lssfpn/camera/256x704/swint/default.yaml pretrained/swint-nuimages-pretrained.pth --eval bbox --out box.pkl# Custom
torchpack dist-run -np 1 python tools/test.py train_result/configs.yaml train_result/latest.pth --eval bbox --out box.pkl

运行后会生成box.pkl文档

3.5 visualize

  • 首先改错误1.2小节3.的2个错误
# Custom
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode pred --checkpoint train_result/latest.pth --bbox-score 0.2 --out-dir vis_result# gt
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode gt --checkpoint train_result/latest.pth --bbox-score 0.5 --out-dir vis_result# pretrained
torchpack dist-run -np 1 python tools/visualize.py train_result/configs.yaml --mode pred --checkpoint pretrained/swint-nuimages-pretrained.pth --bbox-score 0.2 --out-dir vis_result
  • 运行后会在vis_result下生成可视化结果,如下:
└── vis_result├── camera-0├── camera-1├── camera-2├── camera-3├── camera-4├── camera-5└── lidar

运行--mode gt模式,也就是标签数据可视化,自己训练权重效果比较差(原因:钞能力有限),可视化结果如下:
请添加图片描述

小伙伴们部署时遇到问题,欢迎各位小伙伴留言,欢迎进入bev交流抠抠裙472648720,大家一起学bev!
如果觉得文章可以,一键三连支持一波,瑞思拜^-^

这篇关于BEVFusion代码复现实践的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/226377

相关文章

Python实例题之pygame开发打飞机游戏实例代码

《Python实例题之pygame开发打飞机游戏实例代码》对于python的学习者,能够写出一个飞机大战的程序代码,是不是感觉到非常的开心,:本文主要介绍Python实例题之pygame开发打飞机... 目录题目pygame-aircraft-game使用 Pygame 开发的打飞机游戏脚本代码解释初始化部

SQL中JOIN操作的条件使用总结与实践

《SQL中JOIN操作的条件使用总结与实践》在SQL查询中,JOIN操作是多表关联的核心工具,本文将从原理,场景和最佳实践三个方面总结JOIN条件的使用规则,希望可以帮助开发者精准控制查询逻辑... 目录一、ON与WHERE的本质区别二、场景化条件使用规则三、最佳实践建议1.优先使用ON条件2.WHERE用

Springboot整合Redis主从实践

《Springboot整合Redis主从实践》:本文主要介绍Springboot整合Redis主从的实例,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录前言原配置现配置测试LettuceConnectionFactory.setShareNativeConnect

Java中Map.Entry()含义及方法使用代码

《Java中Map.Entry()含义及方法使用代码》:本文主要介绍Java中Map.Entry()含义及方法使用的相关资料,Map.Entry是Java中Map的静态内部接口,用于表示键值对,其... 目录前言 Map.Entry作用核心方法常见使用场景1. 遍历 Map 的所有键值对2. 直接修改 Ma

java中Optional的核心用法和最佳实践

《java中Optional的核心用法和最佳实践》Java8中Optional用于处理可能为null的值,减少空指针异常,:本文主要介绍java中Optional核心用法和最佳实践的相关资料,文中... 目录前言1. 创建 Optional 对象1.1 常规创建方式2. 访问 Optional 中的值2.1

深入解析 Java Future 类及代码示例

《深入解析JavaFuture类及代码示例》JavaFuture是java.util.concurrent包中用于表示异步计算结果的核心接口,下面给大家介绍JavaFuture类及实例代码,感兴... 目录一、Future 类概述二、核心工作机制代码示例执行流程2. 状态机模型3. 核心方法解析行为总结:三

Nginx Location映射规则总结归纳与最佳实践

《NginxLocation映射规则总结归纳与最佳实践》Nginx的location指令是配置请求路由的核心机制,其匹配规则直接影响请求的处理流程,下面给大家介绍NginxLocation映射规则... 目录一、Location匹配规则与优先级1. 匹配模式2. 优先级顺序3. 匹配示例二、Proxy_pa

python获取cmd环境变量值的实现代码

《python获取cmd环境变量值的实现代码》:本文主要介绍在Python中获取命令行(cmd)环境变量的值,可以使用标准库中的os模块,需要的朋友可以参考下... 前言全局说明在执行py过程中,总要使用到系统环境变量一、说明1.1 环境:Windows 11 家庭版 24H2 26100.4061

MyBatis编写嵌套子查询的动态SQL实践详解

《MyBatis编写嵌套子查询的动态SQL实践详解》在Java生态中,MyBatis作为一款优秀的ORM框架,广泛应用于数据库操作,本文将深入探讨如何在MyBatis中编写嵌套子查询的动态SQL,并结... 目录一、Myhttp://www.chinasem.cnBATis动态SQL的核心优势1. 灵活性与可

pandas实现数据concat拼接的示例代码

《pandas实现数据concat拼接的示例代码》pandas.concat用于合并DataFrame或Series,本文主要介绍了pandas实现数据concat拼接的示例代码,具有一定的参考价值,... 目录语法示例:使用pandas.concat合并数据默认的concat:参数axis=0,join=