02-TensorFlow 神经网络实现鸢尾花分类

2024-03-21 11:50

本文主要是介绍02-TensorFlow 神经网络实现鸢尾花分类,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.数据集介绍

共有数据150组,每组包括花萼长、花萼宽、花瓣长、花瓣宽4个输入特征。同时给出了,这一组特征对应的鸢尾花类别。类别包括Setosa Iris(狗尾草鸢尾),Versicolour Iris(杂色鸢尾),Virginica Iris(弗吉尼亚鸢尾)三类,分别用数字0,1,2表示。
在这里插入图片描述

2.准备数据

1.数据集读入

这个数据集可以通过代码直接从网上导入

from sklearn import datasetsif __name__ == '__main__':#共有150组数据x_data = datasets.load_iris().data      #返回iris数据集所有输入特征y_data = datasets.load_iris().target    #返回iris数据集所有标签print(x_data)print(y_data)

运行结果
在这里插入图片描述

2.数据集乱序

np.random.seed(116)  # 使用相同的seed,使输入特征/标签一一对应np.random.shuffle(x_data)np.random.seed(116)np.random.shuffle(y_data)tf.random.set_seed(116)

3.划分数据集

数据集分出永不相见的训练集和测试集, 取前120组数据作为训练集, 后30组作为测试集

    #训练集x_train = x_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组y_train = y_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组#测试集x_test = x_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组y_test = y_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组

4.配成特征标签对

配成[输入特征,标签]对,每次喂入一小撮(batch)

    #特征标签配对train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)

所以数据准备操作的完整代码如下

import tensorflow as tf
from sklearn import datasets
import numpy as npif __name__ == '__main__':x_data = datasets.load_iris().data      #返回iris数据集所有输入特征, 共150组y_data = datasets.load_iris().target    #返回iris数据集所有标签np.random.seed(116)  # 使用相同的seed,使输入特征/标签一一对应np.random.shuffle(x_data)np.random.seed(116)np.random.shuffle(y_data)tf.random.set_seed(116)#训练集x_train = x_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组y_train = y_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组#测试集x_test = x_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组y_test = y_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组#注意:需要转换x的数据类型, 否则后面矩阵相乘会因数据类型不一致报错x_train = tf.cast(x_train, tf.float32)x_test = tf.cast(x_test, tf.float32)#特征标签配对train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)print(train_db)print(test_db)

在这里插入图片描述

3.搭建网络

花萼长、花萼宽、花瓣长、花瓣宽4个特征, 对应4个输入, Setosa Iris(狗尾草鸢尾),Versicolour Iris(杂色鸢尾),Virginica Iris(弗吉尼亚鸢尾)三类对应3个输出

y=wx+b
在这里插入图片描述
定义神经网路中所有可训练参数

    #4个输入3个输出w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev=0.1, seed=1))b1 = tf.Variable(tf.random.truncated_normal([3], stddev=0.1, seed=1))

4.参数优化

嵌套循环迭代,with结构更新参数,显示当前loss

  	lr = 0.1 #学习率0.1tran_loss_result = [] #将每轮的loss记录在此列表中, 为后续化loss曲线提供数据test_acc = []  #将每轮的acc记录在此列表中, 为后续化acc曲线提供数据epoch = 500 #循环500次loss_all = 0 #每轮分为4个step, loss_all记录四个step生成的4个loss的和for epoch in range(epoch):  # 数据集级别迭代for step, (x_train, y_train) in enumerate(train_db):  # batch级别迭代with tf.GradientTape() as tape:  # with结构记录梯度信息# 前向传播过程计算yy = tf.matmul(x_train, w1) + b1  # 神经网络乘加运算2y = tf.nn.softmax(y)  # 使输出y符合概率分布y_ = tf.one_hot(y_train, depth=3)loss = tf.reduce_mean(tf.square(y_-y)) #采用均方差损失函数loss_all += loss.numpy() # 计算总lossgrads = tape.gradient(loss, [w1, b1])w1.assign_sub(lr * grads[0])  # 参数自更新b1.assign_sub(lr * grads[1])print("Epoch {}, loss: {}".format(epoch, loss_all / 4))tran_loss_result.append(loss_all / 4)loss_all = 0

在这里插入图片描述

5.测试部分

a.计算当前参数前向传播后的准确率,显示当前acc

	    total_correct = 0total_number = 0for x_test, y_test in test_db:y = tf.matmul(x_test, w1) + b1  # y为预测结果y = tf.nn.softmax(y)  # 使y符合概率分布pred = tf.argmax(y, axis=1)  # 返回y中最大值的索引,即预测的分类pred = tf.cast(pred, dtype=y_test.dtype)  # 调整数据类型与标签一致correct = tf.cast(tf.equal(pred, y_test), dtype=tf.int32)correct = tf.reduce_sum(correct)  # 将每个batch的correct数加起来total_correct += int(correct)  # 将所有batch中的correct数加起来total_number += x_test.shape[0]acc = total_correct / total_numbertest_acc.append(acc)print("test_acc:", acc)

在这里插入图片描述
b.acc / loss可视化

    #绘制acc, loss曲线plt.title('Loss Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Loss')  # y轴名称plt.plot(tran_loss_result, label="$Loss$")  # 逐点画出test_acc值并连线plt.legend()plt.show()plt.title('Acc Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Acc')  # y轴名称plt.plot(test_acc, label="$Accuracy$")  # 逐点画出test_acc值并连线plt.legend()plt.show()

在这里插入图片描述
在这里插入图片描述

6.完整代码

import tensorflow as tf
from sklearn import datasets
import numpy as np
import matplotlib.pyplot as pltif __name__ == '__main__':x_data = datasets.load_iris().data      #返回iris数据集所有输入特征, 共150组y_data = datasets.load_iris().target    #返回iris数据集所有标签np.random.seed(116)  # 使用相同的seed,使输入特征/标签一一对应np.random.shuffle(x_data)np.random.seed(116)np.random.shuffle(y_data)tf.random.set_seed(116)#训练集x_train = x_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组y_train = y_data[:-30]   #取倒数第30个元素之前的所有元素, 也就是有120组#测试集x_test = x_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组y_test = y_data[-30:]    #取倒数第30个元素之后的所有元素, 也就是有30组#注意:需要转换x的数据类型, 否则后面矩阵相乘会因数据类型不一致报错x_train = tf.cast(x_train, tf.float32)x_test = tf.cast(x_test, tf.float32)#特征标签配对train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)# print(train_db)# print(test_db)#4个输入3个输出w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev=0.1, seed=1))b1 = tf.Variable(tf.random.truncated_normal([3], stddev=0.1, seed=1))lr = 0.1 #学习率0.1tran_loss_result = [] #将每轮的loss记录在此列表中, 为后续化loss曲线提供数据test_acc = []  #将每轮的acc记录在此列表中, 为后续化acc曲线提供数据epoch = 500 #循环500次loss_all = 0 #每轮分为4个step, loss_all记录四个step生成的4个loss的和for epoch in range(epoch):  # 数据集级别迭代for step, (x_train, y_train) in enumerate(train_db):  # batch级别迭代with tf.GradientTape() as tape:  # with结构记录梯度信息# 前向传播过程计算yy = tf.matmul(x_train, w1) + b1  # 神经网络乘加运算2y = tf.nn.softmax(y)  # 使输出y符合概率分布y_ = tf.one_hot(y_train, depth=3)loss = tf.reduce_mean(tf.square(y_-y)) #采用均方差损失函数loss_all += loss.numpy() # 计算总lossgrads = tape.gradient(loss, [w1, b1])w1.assign_sub(lr * grads[0])  # 参数自更新b1.assign_sub(lr * grads[1])print("Epoch {}, loss: {}".format(epoch, loss_all / 4))tran_loss_result.append(loss_all / 4)loss_all = 0total_correct = 0total_number = 0for x_test, y_test in test_db:y = tf.matmul(x_test, w1) + b1  # y为预测结果y = tf.nn.softmax(y)  # 使y符合概率分布pred = tf.argmax(y, axis=1)  # 返回y中最大值的索引,即预测的分类pred = tf.cast(pred, dtype=y_test.dtype)  # 调整数据类型与标签一致correct = tf.cast(tf.equal(pred, y_test), dtype=tf.int32)correct = tf.reduce_sum(correct)  # 将每个batch的correct数加起来total_correct += int(correct)  # 将所有batch中的correct数加起来total_number += x_test.shape[0]acc = total_correct / total_numbertest_acc.append(acc)print("test_acc:", acc)#绘制acc, loss曲线plt.title('Loss Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Loss')  # y轴名称plt.plot(tran_loss_result, label="$Loss$")  # 逐点画出test_acc值并连线plt.legend()plt.show()plt.title('Acc Curve')  # 图片标题plt.xlabel('Epoch')  # x轴名称plt.ylabel('Acc')  # y轴名称plt.plot(test_acc, label="$Accuracy$")  # 逐点画出test_acc值并连线plt.legend()plt.show()

这篇关于02-TensorFlow 神经网络实现鸢尾花分类的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/832565

相关文章

关于集合与数组转换实现方法

《关于集合与数组转换实现方法》:本文主要介绍关于集合与数组转换实现方法,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、Arrays.asList()1.1、方法作用1.2、内部实现1.3、修改元素的影响1.4、注意事项2、list.toArray()2.1、方

使用Python实现可恢复式多线程下载器

《使用Python实现可恢复式多线程下载器》在数字时代,大文件下载已成为日常操作,本文将手把手教你用Python打造专业级下载器,实现断点续传,多线程加速,速度限制等功能,感兴趣的小伙伴可以了解下... 目录一、智能续传:从崩溃边缘抢救进度二、多线程加速:榨干网络带宽三、速度控制:做网络的好邻居四、终端交互

java实现docker镜像上传到harbor仓库的方式

《java实现docker镜像上传到harbor仓库的方式》:本文主要介绍java实现docker镜像上传到harbor仓库的方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地... 目录1. 前 言2. 编写工具类2.1 引入依赖包2.2 使用当前服务器的docker环境推送镜像2.2

C++20管道运算符的实现示例

《C++20管道运算符的实现示例》本文简要介绍C++20管道运算符的使用与实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧... 目录标准库的管道运算符使用自己实现类似的管道运算符我们不打算介绍太多,因为它实际属于c++20最为重要的

Java easyExcel实现导入多sheet的Excel

《JavaeasyExcel实现导入多sheet的Excel》这篇文章主要为大家详细介绍了如何使用JavaeasyExcel实现导入多sheet的Excel,文中的示例代码讲解详细,感兴趣的小伙伴可... 目录1.官网2.Excel样式3.代码1.官网easyExcel官网2.Excel样式3.代码

python实现对数据公钥加密与私钥解密

《python实现对数据公钥加密与私钥解密》这篇文章主要为大家详细介绍了如何使用python实现对数据公钥加密与私钥解密,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录公钥私钥的生成使用公钥加密使用私钥解密公钥私钥的生成这一部分,使用python生成公钥与私钥,然后保存在两个文

浏览器插件cursor实现自动注册、续杯的详细过程

《浏览器插件cursor实现自动注册、续杯的详细过程》Cursor简易注册助手脚本通过自动化邮箱填写和验证码获取流程,大大简化了Cursor的注册过程,它不仅提高了注册效率,还通过友好的用户界面和详细... 目录前言功能概述使用方法安装脚本使用流程邮箱输入页面验证码页面实战演示技术实现核心功能实现1. 随机

Golang如何对cron进行二次封装实现指定时间执行定时任务

《Golang如何对cron进行二次封装实现指定时间执行定时任务》:本文主要介绍Golang如何对cron进行二次封装实现指定时间执行定时任务问题,具有很好的参考价值,希望对大家有所帮助,如有错误... 目录背景cron库下载代码示例【1】结构体定义【2】定时任务开启【3】使用示例【4】控制台输出总结背景

Golang如何用gorm实现分页的功能

《Golang如何用gorm实现分页的功能》:本文主要介绍Golang如何用gorm实现分页的功能方式,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录背景go库下载初始化数据【1】建表【2】插入数据【3】查看数据4、代码示例【1】gorm结构体定义【2】分页结构体

在Golang中实现定时任务的几种高效方法

《在Golang中实现定时任务的几种高效方法》本文将详细介绍在Golang中实现定时任务的几种高效方法,包括time包中的Ticker和Timer、第三方库cron的使用,以及基于channel和go... 目录背景介绍目的和范围预期读者文档结构概述术语表核心概念与联系故事引入核心概念解释核心概念之间的关系