[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例)

2024-04-12 14:32

本文主要是介绍[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

2.训练ssd-caffe模型:(以VOC数据集为例)

使用caffe进行目标检测,我们的需要标注了标签的图片作为训练样本,训练模型。推荐使用开源的标注工具labelimg,来对我们的图片进行标注。标注之后,会产生.xml文件,用于标识图片中物体的具体信息。

这里,我们以VOC格式的数据为示例:

VOC的数据格式,主要有三个重要的文件夹:AnnotationsImageSetsJPEGImages

  • Annotations: 存放.xml标注文件

  • ImageSets/Main: 存放train.txttest.txttrainval.txtval.txt

    • test.txt中保存的是测试所用的所有样本的名字,不过没有后缀(下同),一般测试的样本数量占总数据集的50%

    • train.txt中保存的是训练所用的样本名,样本数量通常占trainval的50%左右

    • val.txt中保存的是验证所用的样本名,数量占trainval的50%左右

    • trainval.txt中保存的是训练验证样本,是上面两个的总和,一般数量占总数据集的50%

生成上述文本的代码如下:

import os  
import random  trainval_percent = 0.66  
train_percent = 0.5  
xmlfilepath = 'Annotations'  
txtsavepath = 'ImageSets\Main'  
total_xml = os.listdir(xmlfilepath)  num=len(total_xml)  
list=range(num)  
tv=int(num*trainval_percent)  
tr=int(tv*train_percent)  
trainval= random.sample(list,tv)  
train=random.sample(trainval,tr)  ftrainval = open('ImageSets/Main/trainval.txt', 'w')  
ftest = open('ImageSets/Main/test.txt', 'w')  
ftrain = open('ImageSets/Main/train.txt', 'w')  
fval = open('ImageSets/Main/val.txt', 'w')  for i  in list:  name=total_xml[i][:-4]+'\n'  if i in trainval:  ftrainval.write(name)  if i in train:  ftrain.write(name)  else:  fval.write(name)  else:  ftest.write(name)  ftrainval.close()  
ftrain.close()  
fval.close()  
ftest .close()
print("done")

由于caffe只能处理lmdb格式的数据,如果你有自己的数据想要放在caffe上进行训练,方式如下:

  • 自定义数据和VOC数据格式相同:直接使用VOC的数据集转换的代码转换为lmdb
  • 自定义的数据和VOC的数据格式有出入:自己写代码或者修改源码src/caffe/util/io.cpp,转换为lmdb格式

训练步骤如下,以mydataset为例:

  • 分别创建examples/mydataset,data/mydataset,data/VOCdevkit/mydataset 三个文件夹:

    • data/VOCdevkit/mydataset:将刚刚生成的Annocations等几个文件夹复制进去

    • data/mydataset:将data/VOC0712下的create_list.sh,create_data.sh,labelmap_voc.prototxt三个文件拷贝到该文件夹

    • create_list.sh:根据之前生成的ImageSets/Main中的train.txt等文件,生成具体的文件路径信息等。运行该文件夹会在当前目录生成几个txt文件

      更改create_list.sh

      9QjO0K.md.png

    • create_data.sh:生成lmdb文件,运行该文件夹,会在examples/mydataset生成

      更改create_data.sh

      9QvBB6.md.png

  • 在ssd-caffe的根目录,运行如下命令:

    ./data/mydataset/create_list.sh
    ./data/mydataset/create_data.sh

    即可生成上述提到的文件。若运行两个.sh脚本文件错误,则删除刚刚生成的文件,debug后重新运行

  • 运行成功以后,在examples/mydataset即生成lmdb文件

  • 复制examples/ssd/路径下的ssd_pascal.py文件到example/mydataset下,修改相应参数:

    • 修改所有文件夹路径为自己的路径

    • 如果本机显存太小,修改batch_size为8

    • 修改标签个数num_classes为自己的种类n+1

    (1即为添加的backgroud标签,识别为背景。另外,我们的xml标签文件中不能出现编号为0的backgrouond标注,否则会报错。这个问题在ssd-caffe的issue上也有提到,至今没有解决)

    • 修改max_iter等参数,将迭代次数减小,也可以不修改使用默认
  • 在ssd-caffe根目录下运行

    python example/mydataset/ssd_pascal.py

    等待模型运行结束

  • 复制examples/ssd/路径下的score_ssd_pascal.py文件到example/mydataset下,修改相应文件路径,即可测试模型:

    python example/mydataset/score_ssd_pascal.py

3. 调用训练完成的模型,对单张图片进行测试:

我们训练完的模型应该保存在以下路径:

models/VGGNet/mydataset/SSD_300X300

.
├── deploy.prototxt
├── solver.prototxt #超参数
├── test.prototxt
├── train.prototxt
├── VGG_mydataset_SSD_300x300_iter_55.caffemodel
└── VGG_mydataset_SSD_300x300_iter_55.solverstate

example/ssd路径下的ssd_detect.py文件复制到example/mydataset下,将输入,输出的文件路径修改为自己的路径(其中包含网络定义,模型文件,标签文件,测试图片,输出图片等)

P.S. 文章不妥之处还望指正

这篇关于[Caffe] - No.3 ssd-caffe(2):训练ssd-caffe模型:(以VOC数据集为例)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/897395

相关文章

SQL Server修改数据库名及物理数据文件名操作步骤

《SQLServer修改数据库名及物理数据文件名操作步骤》在SQLServer中重命名数据库是一个常见的操作,但需要确保用户具有足够的权限来执行此操作,:本文主要介绍SQLServer修改数据... 目录一、背景介绍二、操作步骤2.1 设置为单用户模式(断开连接)2.2 修改数据库名称2.3 查找逻辑文件名

canal实现mysql数据同步的详细过程

《canal实现mysql数据同步的详细过程》:本文主要介绍canal实现mysql数据同步的详细过程,本文通过实例图文相结合给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的... 目录1、canal下载2、mysql同步用户创建和授权3、canal admin安装和启动4、canal

使用SpringBoot整合Sharding Sphere实现数据脱敏的示例

《使用SpringBoot整合ShardingSphere实现数据脱敏的示例》ApacheShardingSphere数据脱敏模块,通过SQL拦截与改写实现敏感信息加密存储,解决手动处理繁琐及系统改... 目录痛点一:痛点二:脱敏配置Quick Start——Spring 显示配置:1.引入依赖2.创建脱敏

详解如何使用Python构建从数据到文档的自动化工作流

《详解如何使用Python构建从数据到文档的自动化工作流》这篇文章将通过真实工作场景拆解,为大家展示如何用Python构建自动化工作流,让工具代替人力完成这些数字苦力活,感兴趣的小伙伴可以跟随小编一起... 目录一、Excel处理:从数据搬运工到智能分析师二、PDF处理:文档工厂的智能生产线三、邮件自动化:

Python数据分析与可视化的全面指南(从数据清洗到图表呈现)

《Python数据分析与可视化的全面指南(从数据清洗到图表呈现)》Python是数据分析与可视化领域中最受欢迎的编程语言之一,凭借其丰富的库和工具,Python能够帮助我们快速处理、分析数据并生成高质... 目录一、数据采集与初步探索二、数据清洗的七种武器1. 缺失值处理策略2. 异常值检测与修正3. 数据

pandas实现数据concat拼接的示例代码

《pandas实现数据concat拼接的示例代码》pandas.concat用于合并DataFrame或Series,本文主要介绍了pandas实现数据concat拼接的示例代码,具有一定的参考价值,... 目录语法示例:使用pandas.concat合并数据默认的concat:参数axis=0,join=

C#代码实现解析WTGPS和BD数据

《C#代码实现解析WTGPS和BD数据》在现代的导航与定位应用中,准确解析GPS和北斗(BD)等卫星定位数据至关重要,本文将使用C#语言实现解析WTGPS和BD数据,需要的可以了解下... 目录一、代码结构概览1. 核心解析方法2. 位置信息解析3. 经纬度转换方法4. 日期和时间戳解析5. 辅助方法二、L

使用Python和Matplotlib实现可视化字体轮廓(从路径数据到矢量图形)

《使用Python和Matplotlib实现可视化字体轮廓(从路径数据到矢量图形)》字体设计和矢量图形处理是编程中一个有趣且实用的领域,通过Python的matplotlib库,我们可以轻松将字体轮廓... 目录背景知识字体轮廓的表示实现步骤1. 安装依赖库2. 准备数据3. 解析路径指令4. 绘制图形关键

详解如何使用Python从零开始构建文本统计模型

《详解如何使用Python从零开始构建文本统计模型》在自然语言处理领域,词汇表构建是文本预处理的关键环节,本文通过Python代码实践,演示如何从原始文本中提取多尺度特征,并通过动态调整机制构建更精确... 目录一、项目背景与核心思想二、核心代码解析1. 数据加载与预处理2. 多尺度字符统计3. 统计结果可

解决mysql插入数据锁等待超时报错:Lock wait timeout exceeded;try restarting transaction

《解决mysql插入数据锁等待超时报错:Lockwaittimeoutexceeded;tryrestartingtransaction》:本文主要介绍解决mysql插入数据锁等待超时报... 目录报错信息解决办法1、数据库中执行如下sql2、再到 INNODB_TRX 事务表中查看总结报错信息Lock