深度学习第二周 tensorflow实现彩色图片识别识别

2023-10-29 07:20

本文主要是介绍深度学习第二周 tensorflow实现彩色图片识别识别,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

  • 🍨 本文为🔗365天深度学习训练营 内部限免文章(版权归 K同学啊 所有)
  • ** 参考文章地址:🔗深度学习100例-卷积神经网络(CNN)彩色图片分类 | 第2天 **
  • 🍖 作者:K同学啊

    文章目录

    • 一、本周学习内容:
      • 1、卷积层
      • 2、池化层
    • 二、前言
    • 三、电脑环境
    • 四、前期准备
      • 1、导入相关依赖项
      • 2、设置GPU(我下载的tensorflow-gpu 默认使用GPU)
      • 3、加载数据集和展示
        • (1)、数据集加载
        • (2)、数据展示
    • 五、数据预处理
    • 六、搭建CNN网络
    • 七、绘制损失函数图像和准确度图像

一、本周学习内容:

1、卷积层

卷积层的作用为提取输入数据中的特征
假如输入图片为33,卷积核为22,不填充,步长为1,卷积效果如下
在这里插入图片描述
从左到右从上到下一次依次相乘再求和
如:19=0x0+1x1+3x2+4x3
25=1x0+2x1+4x2+5x3
加入填充层,输入图片为33,卷积核为22,填充宽高都为1,步长为1,卷积效果如下
在这里插入图片描述
在加入填充层的情况下把步长改为2,卷积效果如下:
在这里插入图片描述
注意如果当输入维度进行卷积移动时,余下的不够进行再次计算,则余下那列(或行)被舍弃,当然有时为了计算快速,则跳过一列(或一行)进行计算,如上图中,进行列移动时,就跳过了一行
卷积后宽高的计算公式
在这里插入图片描述
如:上面三个的输出维度计算分别为:
动图1:(3-2+2x0)÷1+1=2
动图2:(3-2+2x1)÷1+1=4
动图3:(3-2+2x1)÷2+1=2.5(保留整数)=2
注意:宽高要分别计算。

2、池化层

池化层对提取到的特征信息进行降维,一方面使特征图变小,简化网络计算复杂度;另一方面进行特征压缩,提取主要特征,增加平移不变性,减少过拟合风险。但其实池化更多程度上是一种计算性能的一个妥协,强硬地压缩特征的同时也损失了一部分信息,所以现在的网络比较少用池化层或者使用优化后的如SoftPool。
池化层有最大池化层和平均池化层,选择一个区域内的最大值或平均值。
如输入图片为3x3,选择的池化从尺寸为2x2的
在这里插入图片描述

二、前言

CIFAR-10数据集由6万张32*32的彩色图片组成,一共有10个类别。每个类别6000张图片。其中有5万张训练图片及1万张测试图片。它的收集者是:Alex Krizhevsky, Vinod Nair, Geoffrey Hinton。
类别包括:[ ‘airplane’, ‘automobile’, ‘bird’, ‘cat’, 'deer ’ , ’ dog ', ‘frog’, 'horse ', ‘ship’, ‘truck’]

三、电脑环境

电脑系统:Windows 10
语言环境:Python 3.8.8
编译器:Pycharm 2021.1.3
深度学习环境:TensorFlow 2.8.0,keras 2.8.0
显卡及显存:RTX 3070 8G

四、前期准备

1、导入相关依赖项

from keras.datasets import cifar10
from keras.models import *
from keras.layers import *
from tensorflow import keras
import matplotlib.pyplot as plt

2、设置GPU(我下载的tensorflow-gpu 默认使用GPU)

只使用GPU

if gpus:gpu0 = gpus[0]                                        #如果有多个GPU,仅使用第0个GPUtf.config.experimental.set_memory_growth(gpu0, True)  #设置GPU显存用量按需使用tf.config.set_visible_devices([gpu0],"GPU")

使用cpu和gpu
os.environ[“CUDA_VISIBLE_DEVICES”] = “-1”

3、加载数据集和展示

(1)、数据集加载

# 数据加载
(x_train,y_train),(x_test,y_test) = cifar10.load_data()

这里的数据集加载方式和上篇文章mnist有些区别
运行上面命令后 会在.C:\Users\用户名(此处填你自己的)\.keras\datasets中有这么一个压缩包
在这里插入图片描述
解压后里面就是相关数据集和html文件介绍
如果直接加载数据集报错,数据集下载失败的,参考第一周文章

(2)、数据展示

直接使用第一周文章代码进行展示
分别展示训练集和测试集各自的前十张图片

# 图片展示
plt.figure(figsize=(20, 5))  # 创建一个画布,画布大小为宽20、高5(单位为英寸inch)
for i, imgs in enumerate(x_train[:10]):# 将整个画布分成2行10列,绘制第i+1个子图。plt.subplot(2, 10, i+1)plt.imshow(imgs, cmap=plt.cm.binary)plt.axis('off')
for i, imgs in enumerate(x_test[:10]):# 将整个画布分成2行10列,绘制第i+11个子图。plt.subplot(2, 10, i+11)plt.imshow(imgs, cmap=plt.cm.binary)plt.axis('off')
plt.show()  #使用pycharm的需要加入这行代码才能将图像显示出来

在这里插入图片描述

五、数据预处理

我们需要将验证集和测数据数据增加一个维度,并将其像素从0-255划分到0-1之间减少计算量,我们还需要将标签集进行热编码处理

# 数据预处理
x_train,x_test=x_train/255.,x_test/255.
# 标签热编码
y_train,y_test = keras.utils.to_categorical(y_train),keras.utils.to_categorical(y_test)

六、搭建CNN网络

相关网络模型和参数与第一周

# 网络模型
model = Sequential([Conv2D(filters=32,kernel_size=3,activation='relu',input_shape=(28,28,1)),MaxPool2D((2,2)),Conv2D(filters=64,kernel_size=3,activation='relu'),MaxPool2D((2,2)),Flatten(),Dense(64,activation='relu'),Dense(10,activation='softmax')  # 输出为10类别
])
# 设置优化器相关
model.compile(optimizer=keras.optimizers.SGD(learning_rate=0.01),loss=keras.losses.binary_crossentropy,metrics=['acc'])
evaluate = model.evaluate(x_test,y_test)
print(evaluate)
Epoch 1/10
1667/1667 [==============================] - 22s 3ms/step - loss: 0.3390 - acc: 0.1615 - val_loss: 0.3214 - val_acc: 0.1835
Epoch 2/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.3158 - acc: 0.2204 - val_loss: 0.3093 - val_acc: 0.2504
Epoch 3/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.3020 - acc: 0.2741 - val_loss: 0.2947 - val_acc: 0.2989
Epoch 4/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.2918 - acc: 0.3025 - val_loss: 0.2878 - val_acc: 0.3235
Epoch 5/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.2858 - acc: 0.3235 - val_loss: 0.2819 - val_acc: 0.3452
Epoch 6/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.2796 - acc: 0.3437 - val_loss: 0.2754 - val_acc: 0.3592
Epoch 7/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.2732 - acc: 0.3641 - val_loss: 0.2696 - val_acc: 0.3739
Epoch 8/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.2667 - acc: 0.3831 - val_loss: 0.2630 - val_acc: 0.3902
Epoch 9/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.2604 - acc: 0.4003 - val_loss: 0.2573 - val_acc: 0.4097
Epoch 10/10
1667/1667 [==============================] - 5s 3ms/step - loss: 0.2549 - acc: 0.4123 - val_loss: 0.2521 - val_acc: 0.4195
313/313 [==============================] - 1s 2ms/step - loss: 0.2521 - acc: 0.4195
[0.25214818120002747, 0.4194999933242798]

七、绘制损失函数图像和准确度图像

绘制代码与第一周文章相同

# 画准确度图
acc = history.history['acc']
val_acc = history.history['val_acc']
loss = history.history['loss']
val_loss = history.history['val_loss']
epochs_range = range(10)
plt.figure(figsize=(12, 4))
plt.subplot(1, 2, 1)
plt.plot(epochs_range, acc, label='Training Accuracy')
plt.plot(epochs_range, val_acc, label='Validation Accuracy')
plt.legend(loc='lower right')
plt.title('Training and Validation Accuracy')
plt.subplot(1, 2, 2)
plt.plot(epochs_range, loss, label='Training Loss')
plt.plot(epochs_range, val_loss, label='Validation Loss')
plt.legend(loc='upper right')
plt.title('Training and Validation Loss')
plt.show()

在这里插入图片描述
以上就是我本周的学习内容
在这里插入图片描述

这篇关于深度学习第二周 tensorflow实现彩色图片识别识别的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/299128

相关文章

C++中unordered_set哈希集合的实现

《C++中unordered_set哈希集合的实现》std::unordered_set是C++标准库中的无序关联容器,基于哈希表实现,具有元素唯一性和无序性特点,本文就来详细的介绍一下unorder... 目录一、概述二、头文件与命名空间三、常用方法与示例1. 构造与析构2. 迭代器与遍历3. 容量相关4

Java中Redisson 的原理深度解析

《Java中Redisson的原理深度解析》Redisson是一个高性能的Redis客户端,它通过将Redis数据结构映射为Java对象和分布式对象,实现了在Java应用中方便地使用Redis,本文... 目录前言一、核心设计理念二、核心架构与通信层1. 基于 Netty 的异步非阻塞通信2. 编解码器三、

C++中悬垂引用(Dangling Reference) 的实现

《C++中悬垂引用(DanglingReference)的实现》C++中的悬垂引用指引用绑定的对象被销毁后引用仍存在的情况,会导致访问无效内存,下面就来详细的介绍一下产生的原因以及如何避免,感兴趣... 目录悬垂引用的产生原因1. 引用绑定到局部变量,变量超出作用域后销毁2. 引用绑定到动态分配的对象,对象

SpringBoot基于注解实现数据库字段回填的完整方案

《SpringBoot基于注解实现数据库字段回填的完整方案》这篇文章主要为大家详细介绍了SpringBoot如何基于注解实现数据库字段回填的相关方法,文中的示例代码讲解详细,感兴趣的小伙伴可以了解... 目录数据库表pom.XMLRelationFieldRelationFieldMapping基础的一些代

Java HashMap的底层实现原理深度解析

《JavaHashMap的底层实现原理深度解析》HashMap基于数组+链表+红黑树结构,通过哈希算法和扩容机制优化性能,负载因子与树化阈值平衡效率,是Java开发必备的高效数据结构,本文给大家介绍... 目录一、概述:HashMap的宏观结构二、核心数据结构解析1. 数组(桶数组)2. 链表节点(Node

Java AOP面向切面编程的概念和实现方式

《JavaAOP面向切面编程的概念和实现方式》AOP是面向切面编程,通过动态代理将横切关注点(如日志、事务)与核心业务逻辑分离,提升代码复用性和可维护性,本文给大家介绍JavaAOP面向切面编程的概... 目录一、AOP 是什么?二、AOP 的核心概念与实现方式核心概念实现方式三、Spring AOP 的关

Java 虚拟线程的创建与使用深度解析

《Java虚拟线程的创建与使用深度解析》虚拟线程是Java19中以预览特性形式引入,Java21起正式发布的轻量级线程,本文给大家介绍Java虚拟线程的创建与使用,感兴趣的朋友一起看看吧... 目录一、虚拟线程简介1.1 什么是虚拟线程?1.2 为什么需要虚拟线程?二、虚拟线程与平台线程对比代码对比示例:三

Python函数作用域与闭包举例深度解析

《Python函数作用域与闭包举例深度解析》Python函数的作用域规则和闭包是编程中的关键概念,它们决定了变量的访问和生命周期,:本文主要介绍Python函数作用域与闭包的相关资料,文中通过代码... 目录1. 基础作用域访问示例1:访问全局变量示例2:访问外层函数变量2. 闭包基础示例3:简单闭包示例4

Python实现字典转字符串的五种方法

《Python实现字典转字符串的五种方法》本文介绍了在Python中如何将字典数据结构转换为字符串格式的多种方法,首先可以通过内置的str()函数进行简单转换;其次利用ison.dumps()函数能够... 目录1、使用json模块的dumps方法:2、使用str方法:3、使用循环和字符串拼接:4、使用字符

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、