部署官方tensorflow版本EfficientDet

2023-10-30 16:10

本文主要是介绍部署官方tensorflow版本EfficientDet,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Docker部署官方tensorflow版本EfficientDet

在这里插入图片描述
官方版本EfficientDet依赖环境为tensorflow2.1.0,python版本为3;而tensorflow2.1.0gpu版本又依赖于cuda10.1,为了不对本机环境产生影响,所以采用docker部署

一、官方镜像下载

在tensorflow官方镜像地址copy下载命令,复制到host机器的终端运行
在这里插入图片描述
如果pull过程很慢,那就更换国内docker镜像源

vim /etc/docker/daemon.json

编辑daemon.json文件

{"registry-mirrors": ["https://docker.mirrors.ustc.edu.cn"]
}

下载完成之后,查看镜像

docker image ls

二、容器创建

NVIDIA Docker 支持

在docker里面运行需要cuda的支持,所以先安装nvidia的docker镜像

# Add the package repositories
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.listsudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
sudo systemctl restart docker

检查是否安装成功

#### Test nvidia-smi with the latest official CUDA image
docker run --gpus all nvidia/cuda:10.0-base nvidia-smi# Start a GPU enabled container on two GPUs
docker run --gpus 2 nvidia/cuda:10.0-base nvidia-smi# Starting a GPU enabled container on specific GPUs
docker run --gpus '"device=1,2"' nvidia/cuda:10.0-base nvidia-smi
docker run --gpus '"device=UUID-ABCDEF,1"' nvidia/cuda:10.0-base nvidia-smi# Specifying a capability (graphics, compute, ...) for my container
# Note this is rarely if ever used this way
docker run --gpus all,capabilities=utility nvidia/cuda:10.0-base nvidia-smi
运行容器

下面两种方式都可以,指定runtime是docker2的写法

docker run -itd --runtime=nvidia -e NVIDIA_VISIBLE_DEVICES=all --restart=always --shm-size 1G -p 5522:22 -v /opt:/opt -v /home:/home -v /mnt:/mnt --name lcg_tf2.0.1 tensorflow/tensorflow:2.1.0-gpu-py3 /bin/bash
docker run -itd --gpus all --restart=always --shm-size 1G -p 5522:22 -v /opt:/opt -v /home:/home -v /mnt:/mnt --name lcg_tf2.0.1 tensorflow/tensorflow:2.1.0-gpu-py3 /bin/bash

5522是端口号,将docker的22端口映射到host的5522端口上

创建容器内服务

1、创建容器内部用户

进入容器

docker attach <容器ID>

进入容器之后,默认的是root用户

#创建用户组lcg 制定组ID 1001
groupadd -g 1001 lcg
#添加一个用户到lcg组并指定id为1001
useradd lcg -g lcg -u 1001 -m -s /bin/bash
#修改用户密码
sudo passwd lcg
#安装常用的软件
apt-get update
apt-get install language-pack-zh-hans uuid-dev libtiff5-dev -y
apt-get install net-tools vim 

给lcg用户赋予root权限

apt-get install sudo
#编辑/etc/sudoers文件
vim /etc/sudoers

如下图
在这里插入图片描述

2、创建SSH服务

apt-get update
apt-get install -y openssh-server
sed 's@session\s*required\s*pam_loginuid.so@session optional pam_loginuid.so@g' -i /etc/pam.d/sshd
$ echo "export VISIBLE=now" >> /etc/profile

然后建立一个配置文件夹并进行必要的配置:

mkdir /var/run/sshd
sed -i 's/PermitRootLogin prohibit-password/PermitRootLogin yes/' /etc/ssh/sshd_config

重启SSH激活配置

service ssh restart

测试是否生效

#在host机上测试docker的端口转发
docker port <container_name> 22
#如果配置生效了,会出现0.0.0.0:5522

使用ssh链接docker

ssh lcg@192.168.xx.xx -p 5022

在这里插入图片描述

Docker常用操作

#列举出正在运行的容器
dokcer ps
#列举出所有容器
docker ps -a
#获取容器信息
docker container ls -a
#如果要删除的容器还在运行状态,那么先停止容器
docker container stop <container ID>
#找到要删除的容器的ID,进行删除
docker container rm <container ID>
#删除镜像
docker image rm <image ID>

三、测试tensorflow环境

首先进入python环境

python

在python环境下

import tensorflow as tf
tf.test.gpu_device_name()

测试环境成功,则可以进入训练代码调试了

四、准备数据

将自己标注数据整理为voc格式,EfficientDet中datasets下面有有create_pascal_tfrecord.py脚本,可以将pascal格式数据转换为tfrecord数据

voc2007格式为
在这里插入图片描述

在create_pascal_tfrecord.py脚本中转换数据的时候,会在xml文件中读取folder,filename等字段
在这里插入图片描述

但是有个问题就是,标注图片信息的时候,往往是很多人用labeImg一起标注,然后最后汇总的,所以导致folder和path跟真实存储路径是不一样的,所以在脚本中需要进行一点修改。

PYTHONPATH=".:$PYTHONPATH"
python dataset/create_pascal_tfrecord.py      --data_dir=VOCdevkit --year=VOC2012  --output_path=mytfrecord/pascal  --set=trainval

运行完成之后,会在output_path路径下生成100个tfrecord文件

五、训练

直接在EfficientDet目录下,运行mian.py文件即可,然后需要配置一些参数

python main.py \
--mode=train_and_eval \
--training_file_pattern=output_tfrecord/*.tfrecord \
--validation_file_pattern=output_tfrecord/*.tfrecord \
--val_json_file=output_tfrecord/json_output_tfrecord.json \
--model_name=efficientdet-d1 \
--model_dir=tmp/efficientdet-d1-scratch \
--ckpt=efficientdet-d1 \
--train_batch_size=4 \
--eval_batch_size=1 \
--eval_samples=512 \
--hparams="num_classes=5,moving_average_decay=0" \
--use_tpu=False

然后就开始训练

目前EfficientDet的官方版本的代码一直在更新,截止到目前(2020年5月19日),最近的一次push是20小时之前,所以每一次的命令执行显示都会有所不一样。

一个月前,代码里面的很多东西还是使用tensorflow1的API写的,但是到现在很多tf1的写法都逐渐被改成了tf2的写法。
在这里插入图片描述
在这里插入图片描述

训练的效果还算不错,但是继续训练会需要一点trick

六、测试

1、导出模型

将ckpt文件导出为pb文件,顺便还可以生成tflite

python model_inspect.py \
--runmode=saved_model \
--model_name=efficientdet-d1 \
--ckpt_path=efficientdet-d1 
--saved_model_dir=savedmodeldir \
--tflite_path=efficientdet-d1.tflite

命令运行完成之后,在savedmodeldir目录下将会得到pb文件和tflite文件

2、时间测试

完成pb模型的导出之后,可以测试一下模型的latency,这里网络推理时间测试是指的是从第一个卷积到最后一个prediction output的计算时间,不包括前处理和后处理,例如图像归一化,NMS等都不包括

python model_inspect.py \
--runmode=bm \
--model_name=efficientdet-d1 \

如果需要end2end的测试时间,可以运行一下命令

python model_inspect.py \
--runmode=saved_model_benchmark \
--saved_model_dir=/path/ientdet-d1frozen.pb \
--model_name=efficientdet-d1 \
-input_image=testdata/img1.jpg  \
--output_image_dir=/tmp/  

下面是在V100上测试的结果
在这里插入图片描述

3、测试自己的图片
python model_inspect.py --runmode=saved_model_infer \--model_name=efficientdet-d0  \--hparams="image_size=1920x1280"  \--saved_model_dir=/tmp/saved_model/efficientdet-d0_frozen.pb  \--input_image=img.png --output_image_dir=/tmp/

在这里插入图片描述

这篇关于部署官方tensorflow版本EfficientDet的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/309087

相关文章

使用jenv工具管理多个JDK版本的方法步骤

《使用jenv工具管理多个JDK版本的方法步骤》jenv是一个开源的Java环境管理工具,旨在帮助开发者在同一台机器上轻松管理和切换多个Java版本,:本文主要介绍使用jenv工具管理多个JD... 目录一、jenv到底是干啥的?二、jenv的核心功能(一)管理多个Java版本(二)支持插件扩展(三)环境隔

MySQL版本问题导致项目无法启动问题的解决方案

《MySQL版本问题导致项目无法启动问题的解决方案》本文记录了一次因MySQL版本不一致导致项目启动失败的经历,详细解析了连接错误的原因,并提供了两种解决方案:调整连接字符串禁用SSL或统一MySQL... 目录本地项目启动报错报错原因:解决方案第一个:第二种:容器启动mysql的坑两种修改时区的方法:本地

conda安装GPU版pytorch默认却是cpu版本

《conda安装GPU版pytorch默认却是cpu版本》本文主要介绍了遇到Conda安装PyTorchGPU版本却默认安装CPU的问题,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的... 目录一、问题描述二、网上解决方案罗列【此节为反面方案罗列!!!】三、发现的根本原因[独家]3.1 p

Redis指南及6.2.x版本安装过程

《Redis指南及6.2.x版本安装过程》Redis是完全开源免费的,遵守BSD协议,是一个高性能(NOSQL)的key-value数据库,Redis是一个开源的使用ANSIC语言编写、支持网络、... 目录概述Redis特点Redis应用场景缓存缓存分布式会话分布式锁社交网络最新列表Redis各版本介绍旧

IIS 7.0 及更高版本中的 FTP 状态代码

《IIS7.0及更高版本中的FTP状态代码》本文介绍IIS7.0中的FTP状态代码,方便大家在使用iis中发现ftp的问题... 简介尝试使用 FTP 访问运行 Internet Information Services (IIS) 7.0 或更高版本的服务器上的内容时,IIS 将返回指示响应状态的数字代

Web技术与Nginx网站环境部署教程

《Web技术与Nginx网站环境部署教程》:本文主要介绍Web技术与Nginx网站环境部署教程,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、Web基础1.域名系统DNS2.Hosts文件3.DNS4.域名注册二.网页与html1.网页概述2.HTML概述3.

Nginx使用Keepalived部署web集群(高可用高性能负载均衡)实战案例

《Nginx使用Keepalived部署web集群(高可用高性能负载均衡)实战案例》本文介绍Nginx+Keepalived实现Web集群高可用负载均衡的部署与测试,涵盖架构设计、环境配置、健康检查、... 目录前言一、架构设计二、环境准备三、案例部署配置 前端 Keepalived配置 前端 Nginx

ubuntu如何部署Dify以及安装Docker? Dify安装部署指南

《ubuntu如何部署Dify以及安装Docker?Dify安装部署指南》Dify是一个开源的大模型应用开发平台,允许用户快速构建和部署基于大语言模型的应用,ubuntu如何部署Dify呢?详细请... Dify是个不错的开源LLM应用开发平台,提供从 Agent 构建到 AI workflow 编排、RA

ubuntu系统使用官方操作命令升级Dify指南

《ubuntu系统使用官方操作命令升级Dify指南》Dify支持自动化执行、日志记录和结果管理,适用于数据处理、模型训练和部署等场景,今天我们就来看看ubuntu系统中使用官方操作命令升级Dify的方... Dify 是一个基于 docker 的工作流管理工具,旨在简化机器学习和数据科学领域的多步骤工作流。

ubuntu16.04如何部署dify? 在Linux上安装部署Dify的技巧

《ubuntu16.04如何部署dify?在Linux上安装部署Dify的技巧》随着云计算和容器技术的快速发展,Docker已经成为现代软件开发和部署的重要工具之一,Dify作为一款优秀的云原生应用... Dify 是一个基于 docker 的工作流管理工具,旨在简化机器学习和数据科学领域的多步骤工作流。它