caffe训练siamese网络(行人数据集)

2023-12-24 19:48

本文主要是介绍caffe训练siamese网络(行人数据集),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

参考博客:https://blog.csdn.net/gybheroin/article/details/54133556#commentsedit

环境:windows10 x64 ,caffe, cuda 10.1,cudnn 7.5

数据集:行人数据集

文件夹目录结构:

----------------------------------数据准备-------------------------------------

有两种准备数据的方法:

方法一:

按照上面的博客一步步做,自己写了个脚本处理图像,生成train.txt和test.txt,脚本如下:create_train_data_list.py

import osimport random
import glob
path="E:/dataset/Market-1501-v15.09.15/bounding_box_test" #测试图片路径images=glob.glob(path+"/*.jpg")
print (len(images))ft = open("./test.txt", 'w+')  #训练时修改成train.txt#-----------------下面为正样本--------------------------names=[]
for image in images:name = (image.split("\\")[-1]).split("_")[0]names.append(name)
names=set(names) #所有行人的标号,不重复for name in names:print (name)sameImgs=[image for image in images if name==(image.split("\\")[-1]).split("_")[0]]  #同一个人的图片路径集合for times in range(10):  #随机选取10对同一个人的图片i = random.randint(0, len(sameImgs)-1)j = random.randint(0, len(sameImgs)-1)if i == j:continueelse:ft.write(sameImgs[i]+" "+sameImgs[j]+"\n")#-----------------下面为负样本--------------------------for iter in range(2000):  #随机选取2000对不同的人i=random.randint(0, len(images)-1)j=random.randint(0, len(images)-1)if i==j:continueelse:iname = (images[i].split("\\")[-1]).split("_")[0]jname = (images[j].split("\\")[-1]).split("_")[0]if iname!=jname:print(iname)ft.write(images[i]+" "+images[j]+"\n")ft.close()

有了train.txt和test.txt文件,然后需要根据txt文件,生成leveldb格式文件:

遇到的问题及解决办法:

1、convertImgToSiamese.cpp文件的编译

如图,修改caffe下面的convert_imageset工程,将convert_imageset.vcxproj用notepad打开

查找里面的include这一行,表示要编译那个cpp文件,将其修改为我们自己写的convertImgToSiamese.cpp

然后打开caffe整个工程文件

打开之后,将convert_imageset工程名改为convertImgToSiamese,然后右键生成

在release文件夹下生成exe文件

将其复制到我们的文件夹,待后续使用

2、数据转换的命令,导致训练时无法生成sst文件,只生成5个中间文件(大小只有1k,这里的5k是正确生成的)

原因:数据转换的命令参数设置问题

作者这里用的是train/ 作为根目录,在convertImgToSiamese.cpp中,原始图像数据读取的部分,是这样的:

图像路径是根目录+一行中的图片相对路径,而我是这样的:

我的图片路径是完整的绝对路径,所以,我修改了cpp中的这部分代码,直接用txt中读取出来的路径作为图片的路径。

重新编译生成convertImgToSiamese.exe文件,写一个数据转换的脚本:

就可以看到了数据加载到datum中了:

最终正确生成的leveldb文件是这样的:

除了5个中间文件,还会生成最重要的sst文件,生成sst文件表示转换成功。

方法二(改进版)

这个方法是后来我看别人基于第一种方法改进的, 把标签也放到了每行的最后, 这样通用性更强一些, 不用在代码里去改true和false的范围,要不然每换一次数据集就要重新生成一次convertImgToSiamese.exe文件。改进后的生成train.txt和test.txt的脚本文件为:

红色框标出的就是修改过的,在每行末尾加上1或0。重新生成的train.txt为:

然后修改convertImgToSiamese.cpp文件:

直接从文件的每一行读取成对的文件名以及最后的label。

这样就可以直接将每一行中的label读取出来,加入到datum中。不用设置正例的数目来判断label,这样就算是后面增加或者减少了正负例的数量,也不用重新编译convertImgToSiamese.cpp文件了。

--------*******************************************************************************************************************************-------

如果想将图像对和label随机shuffle一下,则要做如下修改:

添加头文件,利用系统时钟时间生成随机数种子。

然后就可以看到,在将随机打乱的数据放入datum时,label也跟着打乱了:

----------------------------------网络结构-------------------------------------

有三种选择:

第一种是将一对输入数据,分别送入两个分支(一边一个数据),这两个分支结构完全一样(这就是孪生的由来),权重共享,然后使用对比损失

第二种是只分开一部分,在后面将两个分支进行合并

第三种是直接将一对输入数据整合成多通道,比如3通道到的RGB图像,两张堆叠在一起,构成一个6通道的图像,然后将6通道的图像输入一个网络,最后使用softmax得到分类结果。

我开始用的是caffe官网提供的训练mnist的siamese网络结构,其实就是第一种两个分支的结构,如下图所示

我在这个基础上做了简单的修改,变得复杂了点:

 

------------------------------------训练--------------------------------------

接下来可以训练了:

然后训练的solver.prototxt为:

但是训练时候的loss特别低,一直为0.00几这种,后面想想,可能是由于做数据的时候没有shuffle,因为不shuffle的话,datum中的数据都是所有正例放在一起,后面是所有负例,在读取一批进行训练时,基本整个一批都是同类数据,因此loss基本接近于0。然后我使用了方法二(改进后)重新生成了训练数据,结果是loss变成了从一开始loss0.12-0.15左右一直波动,训练很多轮还是这样,我怀疑是对比损失 contrastive loss function的问题

所以我换成了第三种网络结构(单一网络+softmax):

这时候使用方法二(改进后)重新生成的训练数据训练。结果就正常了,将训练结果可视化如图,训练loss的变化

这篇关于caffe训练siamese网络(行人数据集)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/532923

相关文章

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

C#使用iText获取PDF的trailer数据的代码示例

《C#使用iText获取PDF的trailer数据的代码示例》开发程序debug的时候,看到了PDF有个trailer数据,挺有意思,于是考虑用代码把它读出来,那么就用到我们常用的iText框架了,所... 目录引言iText 核心概念C# 代码示例步骤 1: 确保已安装 iText步骤 2: C# 代码程

Pandas处理缺失数据的方式汇总

《Pandas处理缺失数据的方式汇总》许多教程中的数据与现实世界中的数据有很大不同,现实世界中的数据很少是干净且同质的,本文我们将讨论处理缺失数据的一些常规注意事项,了解Pandas如何表示缺失数据,... 目录缺失数据约定的权衡Pandas 中的缺失数据None 作为哨兵值NaN:缺失的数值数据Panda

C++中处理文本数据char与string的终极对比指南

《C++中处理文本数据char与string的终极对比指南》在C++编程中char和string是两种用于处理字符数据的类型,但它们在使用方式和功能上有显著的不同,:本文主要介绍C++中处理文本数... 目录1. 基本定义与本质2. 内存管理3. 操作与功能4. 性能特点5. 使用场景6. 相互转换核心区别

Python实现简单封装网络请求的示例详解

《Python实现简单封装网络请求的示例详解》这篇文章主要为大家详细介绍了Python实现简单封装网络请求的相关知识,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录安装依赖核心功能说明1. 类与方法概览2.NetHelper类初始化参数3.ApiResponse类属性与方法使用实

python库pydantic数据验证和设置管理库的用途

《python库pydantic数据验证和设置管理库的用途》pydantic是一个用于数据验证和设置管理的Python库,它主要利用Python类型注解来定义数据模型的结构和验证规则,本文给大家介绍p... 目录主要特点和用途:Field数值验证参数总结pydantic 是一个让你能够 confidentl

JAVA实现亿级千万级数据顺序导出的示例代码

《JAVA实现亿级千万级数据顺序导出的示例代码》本文主要介绍了JAVA实现亿级千万级数据顺序导出的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 前提:主要考虑控制内存占用空间,避免出现同时导出,导致主程序OOM问题。实现思路:A.启用线程池

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很