caffe专题二将图像写入LMDB与读取LMDB—python实现

2023-10-20 00:48

本文主要是介绍caffe专题二将图像写入LMDB与读取LMDB—python实现,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

转自:https://blog.csdn.net/langb2014/article/details/52995349    大牛的文章啊,学习了

调用的是caffe的python接口

一:将图像写入LMDB

import os
import glob
import random
import numpy as npimport cv2import caffe
from caffe.proto import caffe_pb2
import lmdb#Size of images
IMAGE_WIDTH = 227
IMAGE_HEIGHT = 227# train_lmdb、validation_lmdb 路径
train_lmdb = '/xxxxx/train_lmdb'
validation_lmdb = '/xxxxx/validation_lmdb'# 如果存在了这个文件夹, 先删除
os.system('rm -rf  ' + train_lmdb)
os.system('rm -rf  ' + validation_lmdb)# 读取图像
train_data = [img for img in glob.glob("/xxx/*jpg")]
test_data = [img for img in glob.glob("/xxxx/*jpg")]# Shuffle train_data
# 打乱数据的顺序
random.shuffle(train_data)# 图像的变换, 直方图均衡化, 以及裁剪到 IMAGE_WIDTH x IMAGE_HEIGHT 的大小
def transform_img(img, img_width=IMAGE_WIDTH, img_height=IMAGE_HEIGHT):#Histogram Equalizationimg[:, :, 0] = cv2.equalizeHist(img[:, :, 0])img[:, :, 1] = cv2.equalizeHist(img[:, :, 1])img[:, :, 2] = cv2.equalizeHist(img[:, :, 2])#Image Resizing, 三次插值img = cv2.resize(img, (img_width, img_height), interpolation = cv2.INTER_CUBIC)return imgdef make_datum(img, label):#image is numpy.ndarray format. BGR instead of RGBreturn caffe_pb2.Datum(channels=3,width=IMAGE_WIDTH,height=IMAGE_HEIGHT,label=label,data=np.rollaxis(img, 2).tobytes()) # or .tostring() if numpy < 1.9# 打开 lmdb 环境, 生成一个数据文件,定义最大空间, 1e12 = 1000000000000.0
in_db = lmdb.open(train_lmdb, map_size=int(1e12)) 
with in_db.begin(write=True) as in_txn: # 创建操作数据库句柄for in_idx, img_path in enumerate(train_data):if in_idx %  6 == 0: # 只处理 5/6 的数据作为训练集continue         # 留下 1/6 的数据用作验证集# 读取图像. 做直方图均衡化、裁剪操作img = cv2.imread(img_path, cv2.IMREAD_COLOR)img = transform_img(img, img_width=IMAGE_WIDTH, img_height=IMAGE_HEIGHT)if 'cat' in img_path: # 组织 label, 这里是如果文件名称中有 'cat', 标签就是 0label = 0         # 如果图像名称中没有 'cat', 有的是 'dog', 标签则为 1else:                 # 这里方, label 需要自己去组织label = 1         # 每次情况可能不一样, 灵活点datum = make_datum(img, label)# '{:0>5d}'.format(in_idx):#      lmdb的每一个数据都是由键值对构成的,#      因此生成一个用递增顺序排列的定长唯一的keyin_txn.put('{:0>5d}'.format(in_idx), datum.SerializeToString()) #调用句柄,写入内存print '{:0>5d}'.format(in_idx) + ':' + img_path# 结束后记住释放资源,否则下次用的时候打不开。。。
in_db.close() # 创建验证集 lmdb 格式文件
print '\nCreating validation_lmdb'
in_db = lmdb.open(validation_lmdb, map_size=int(1e12))
with in_db.begin(write=True) as in_txn:for in_idx, img_path in enumerate(train_data):if in_idx % 6 != 0:continueimg = cv2.imread(img_path, cv2.IMREAD_COLOR)img = transform_img(img, img_width=IMAGE_WIDTH, img_height=IMAGE_HEIGHT)if 'cat' in img_path:label = 0else:label = 1datum = make_datum(img, label)in_txn.put('{:0>5d}'.format(in_idx), datum.SerializeToString())print '{:0>5d}'.format(in_idx) + ':' + img_path
in_db.close()
print '\nFinished processing all images'

二:配置文件中使用proto

layer {top: "data"top: "label"name: "data"type: "Data"data_param {source: "/xxxxx/train_lmdb"backend:LMDBbatch_size: 128}transform_param {#mean_file: "/xxxxx/mean.binaryproto"mirror: true}include: { phase: TRAIN }
}

三:读取proto数据

import caffe
from caffe.proto import caffe_pb2import lmdb
import cv2
import numpy as nplmdb_env = lmdb.open('mylmdb', readonly=True) # 打开数据文件
lmdb_txn = lmdb_env.begin() # 生成处理句柄
lmdb_cursor = lmdb_txn.cursor() # 生成迭代器指针
datum = caffe_pb2.Datum() # caffe 定义的数据类型for key, value in lmdb_cursor: # 循环获取数据datum.ParseFromString(value) # 从 value 中读取 datum 数据label = datum.labeldata = caffe.io.datum_to_array(datum)print data.shapeprint datum.channelsimage = data.transpose(1, 2, 0)cv2.imshow('cv2.png', image)cv2.waitKey(0)cv2.destroyAllWindows()
lmdb_env.close()

Caffe多标签输入常用的的方法有以下几种:
1. 修改Caffe源码使其支持多标签输入,参考CSDN博客
《caffe 实现多标签输入(multilabel、multitask)》
2. HDF5 + Slice Layer,HDF5支持多标签,但Caffe在读取HDF5时会将所有数据一次性预读进内存中,在数据量较大时就对内存有较高要求了;也可以对数据分片,通过在prototxt文件中加入Slice Layer层使Caffe依次读取每个数据分片。
3. 使用两个data输入(例如两个LMDB,一个存储图片,一个存储多标签),然后修改prototxt文件配置两个data layer。

实现第三种方法支持多标签输入。Caffe中单标签LMDB的创建可以通过自带的脚本很方便的实现,但多标签LMDB的创建并不像单标签那样简单易用,需要使用者对Caffe的Data Layer有足够的了解。

多标签的场景下,数据是 N x H x W x C 的一个4维的blob,对应的标签是 N x M x 1 x 1的一个4维的blob。

创建图片LMDB

使用下面的代码创建两个图片LMDB:
- train_data_lmdb - 用于训练的图片LMDB 
- val_data_lmdb - 用于测试的图片LMDB

# 生成训练图片列表文件,即将tarin_images_dir目录下所有图片的路径写入temp.txt文件
find tarin_images_dir -type f -exec echo {} \; > temp.txt# 在temp.txt文件中每一行后追加伪标签,伪标签起占位符作用,实际并不使用 
sed "s/$/ 0/" temp.txt > train_images.txt# 根据train_images.txt创建train_data_lmdb
$CAFFE_HOME/build/tools/convert_imageset -resize_height=256 -resize_width=256 / train_images.txt train_data_lmdb# 计算图片均值
$CAFFE_HOME/build/tools/compute_image_mean train_data_lmdb mean.binaryproto

上面的代码用来生成train_data_lmdb,接下来修改代码生成val_data_lmdb.
创建标签LMDB使用下面的代码创建两个标签LMDB:
- train_label_lmdb - 用于训练的标签LMDB 
- val_label_lmdb - 用于测试的标签LMDB读入每幅图片的多标签,生成标签LMDB,注意图片LMDB和标签LMDB中的顺序一致,创建LMDB的部分Python
代码如下:
import sys 
import numpy as np
import lmdbcaffe_root = '/caffe/' 
sys.path.insert(0, caffe_root + 'python')
import caffe# 根据多标签的位置选择从数据库、文件等中读取每幅图片的多标签,将其构造成一维的np.array类型,并追加入all_labels列表
all_labels = []
# Add your code of reading labels here !# 创建标签LMDB
key = 0
lmdb_path = "/train_label_lmdb"
env = lmdb.open(lmdb_path, map_size=map_size)
with env.begin(write=True) as txn: for labels in all_labels:datum = caffe.proto.caffe_pb2.Datum()datum.channels = labels.shape[0]datum.height = 1datum.width =  1datum.data = labels.tostring()          # or .tobytes() if numpy < 1.9 datum.label = 0key_str = '{:08}'.format(key)txn.put(key_str.encode('ascii'), datum.SerializeToString())key += 1

上面的代码用来生成train_label_lmdb,接下来修改代码生成val_label_lmdb.

修改prototxt文件

上面我们已经创建了四个数据集train_data_lmdb、val_data_lmdb、train_label_lmdb、val_label_lmdb,并且计算了图片均值mean.binaryproto。

接下来就是修改神经网络deploy.prototxt使其支持多标签训练。由于有四个数据集,我们只需要在deploy.txt中加入四个data layers,分别用来配置这四个数据集。需要注意的是在标签lmdb对应的data layer的参数transform_param中通过scaling参数对label进行缩放,该操作的作用是按照Sigmoid Cross Entropy Loss函数的要求将label范围从[0,255]正则化到[0,1](根据采用的多标签Loss函数的要求,scaling参数可以修改)。

将deploy.prototxt中原有的data layers修改为如下的四个data layers:

# ------------- 配置训练阶段的图片数据集 ----------------
layers {name: "data"type: DATAtop: "data"include {phase: TRAIN}transform_param {mirror: truecrop_size: 224mean_file: "data.binaryproto"    # 修改为你的均值文件路径}data_param {source: "train_data_lmdb"        # 修改为你的图片lmdb路径batch_size: 32backend: LMDB}
}# ------------- 配置训练阶段的标签数据集 ----------------
layers {name: "data"type: DATAtop: "label"include {phase: TRAIN}transform_param {scale: 0.00390625                 # 根据需求设置标签缩放系数mean_value: 0}data_param {source: "train_label_lmdb"        # 修改为训练集图片lmdb路径batch_size: 32backend: LMDB}
}# ------------- 配置测试阶段的图片数据集 ----------------
layers {name: "data"type: DATAtop: "data"include {phase: TEST}transform_param {mirror: falsecrop_size: 224mean_file: "mean.binaryproto"      # 修改为你的均值文件路径}data_param {source: "val_data_lmdb"            # 修改为训练阶段的图片lmdb路径batch_size: 1backend: LMDB}
}# ------------- 配置测试阶段的标签数据集 ----------------
layers {name: "data"type: DATAtop: "label"include {phase: TEST}transform_param {scale: 0.00390625                  # 根据需求设置标签缩放系数mean_value: 0}data_param {source: "val_label_lmdb"           # 修改为测试阶段的标签lmdb路径batch_size: 1backend: LMDB}
}......# ----------------- 多标签损失函数  -------------------
layers {name: "loss"type: SIGMOID_CROSS_ENTROPY_LOSSbottom: "fc8"                       # 根据需求配置bottom: "label"top: "loss"
}








这篇关于caffe专题二将图像写入LMDB与读取LMDB—python实现的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/243503

相关文章

MyBatis-Plus逻辑删除实现过程

《MyBatis-Plus逻辑删除实现过程》本文介绍了MyBatis-Plus如何实现逻辑删除功能,包括自动填充字段、配置与实现步骤、常见应用场景,并展示了如何使用remove方法进行逻辑删除,逻辑删... 目录1. 逻辑删除的必要性编程1.1 逻辑删除的定义1.2 逻辑删php除的优点1.3 适用场景2.

Python数据验证神器Pydantic库的使用和实践中的避坑指南

《Python数据验证神器Pydantic库的使用和实践中的避坑指南》Pydantic是一个用于数据验证和设置的库,可以显著简化API接口开发,文章通过一个实际案例,展示了Pydantic如何在生产环... 目录1️⃣ 崩溃时刻:当你的API接口又双叒崩了!2️⃣ 神兵天降:3行代码解决验证难题3️⃣ 深度

C#借助Spire.XLS for .NET实现在Excel中添加文档属性

《C#借助Spire.XLSfor.NET实现在Excel中添加文档属性》在日常的数据处理和项目管理中,Excel文档扮演着举足轻重的角色,本文将深入探讨如何在C#中借助强大的第三方库Spire.... 目录为什么需要程序化添加Excel文档属性使用Spire.XLS for .NET库实现文档属性管理Sp

Python+FFmpeg实现视频自动化处理的完整指南

《Python+FFmpeg实现视频自动化处理的完整指南》本文总结了一套在Python中使用subprocess.run调用FFmpeg进行视频自动化处理的解决方案,涵盖了跨平台硬件加速、中间素材处理... 目录一、 跨平台硬件加速:统一接口设计1. 核心映射逻辑2. python 实现代码二、 中间素材处

python中的flask_sqlalchemy的使用及示例详解

《python中的flask_sqlalchemy的使用及示例详解》文章主要介绍了在使用SQLAlchemy创建模型实例时,通过元类动态创建实例的方式,并说明了如何在实例化时执行__init__方法,... 目录@orm.reconstructorSQLAlchemy的回滚关联其他模型数据库基本操作将数据添

Java数组动态扩容的实现示例

《Java数组动态扩容的实现示例》本文主要介绍了Java数组动态扩容的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录1 问题2 方法3 结语1 问题实现动态的给数组添加元素效果,实现对数组扩容,原始数组使用静态分配

Python实现快速扫描目标主机的开放端口和服务

《Python实现快速扫描目标主机的开放端口和服务》这篇文章主要为大家详细介绍了如何使用Python编写一个功能强大的端口扫描器脚本,实现快速扫描目标主机的开放端口和服务,感兴趣的小伙伴可以了解下... 目录功能介绍场景应用1. 网络安全审计2. 系统管理维护3. 网络故障排查4. 合规性检查报错处理1.

Python轻松实现Word到Markdown的转换

《Python轻松实现Word到Markdown的转换》在文档管理、内容发布等场景中,将Word转换为Markdown格式是常见需求,本文将介绍如何使用FreeSpire.DocforPython实现... 目录一、工具简介二、核心转换实现1. 基础单文件转换2. 批量转换Word文件三、工具特性分析优点局

Python中4大日志记录库比较的终极PK

《Python中4大日志记录库比较的终极PK》日志记录框架是一种工具,可帮助您标准化应用程序中的日志记录过程,:本文主要介绍Python中4大日志记录库比较的相关资料,文中通过代码介绍的非常详细,... 目录一、logging库1、优点2、缺点二、LogAid库三、Loguru库四、Structlogphp

Springboot3统一返回类设计全过程(从问题到实现)

《Springboot3统一返回类设计全过程(从问题到实现)》文章介绍了如何在SpringBoot3中设计一个统一返回类,以实现前后端接口返回格式的一致性,该类包含状态码、描述信息、业务数据和时间戳,... 目录Spring Boot 3 统一返回类设计:从问题到实现一、核心需求:统一返回类要解决什么问题?