使用BP神经网络对鸢尾花数据集分类

2024-03-21 11:50

本文主要是介绍使用BP神经网络对鸢尾花数据集分类,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

        最近认识的一位大佬搭建的人工智能学习网站,内容通俗易懂,风趣幽默,感兴趣的可以去看看:床长人工智能教程

 废话不多说,请看正文!

使用BP神经网络对鸢尾花数据集分类

from sklearn.datasets import load_iris
from pandas import DataFrame
import pandas as pdx_data = load_iris().data  # 返回iris数据集所有输入特征
y_data = load_iris().target  # 返回iris数据集所有标签
print("x_data from datasets:", x_data)
print("y_data from datasets", y_data)x_data = DataFrame(x_data, columns=['花萼长', '花萼宽', '花瓣长', '花瓣宽'])
pd.set_option('display.unicode.east_asian_width', True)  # 设置列名对齐
print(x_data)x_data['类别'] = y_data  # 新加一列,列标签‘类别’,数据为y_data
print("x_data add a column: \n", x_data)from sklearn.datasets import load_iris
from pandas import DataFrame
import pandas as pd
import numpy as np
import tensorflow as tf
from matplotlib import pyplot as pltimport os
import PySide2dirname = os.path.dirname(PySide2.__file__)
plugin_path = os.path.join(dirname, 'plugins', 'platforms')
os.environ['QT_QPA_PLATFORM_PLUGIN_PATH'] = plugin_path# 定义超参数和画图用的两个存数据的空列表
lr = 0.1
train_loss_results = []  # 将每轮的loss记录在此列表中,为后续画loss曲线提供数据
test_acc = []  # 将每轮的acc记录在此列表中,为后续画acc曲线提供数据
epoch = 300
loss_all = 0  # 每轮分为4个step(因为一共有120个训练数据,每个batch有32个样本,所以epoch迭代一次120个数据需要4个batch),loss_all记录四个step生成的4个loss的和# ____________________________数据准备______________________________
# 1.数据集的读入
x_data = load_iris().data  # 返回iris数据集所有输入特征
y_data = load_iris().target  # 返回iris数据集所有标签
# print("x_data from datasets:", x_data)
# print("y_data from datasets", y_data)# 2.数据集乱序
np.random.seed(116)  # 使用相同的种子seed,使得乱序后的数据特征和标签仍然可以对齐
np.random.shuffle(x_data)  # 打乱数据集
np.random.seed(116)
np.random.shuffle(y_data)
tf.random.set_seed(116)# 3.数据集分出永不相见的训练集和测试集
x_train = x_data[:-30]  # 前120个数据作为训练集
y_train = y_data[:-30]  # 前120个标签作为训练集标签
x_test = x_data[-30:]  # 后30个数据集作为测试集
y_test = y_data[-30:]# 转换x的数据类型,否则后面矩阵相乘时会因为数据类型不一致报错
x_train = tf.cast(x_train, tf.float32)
x_test = tf.cast(x_test, tf.float32)# 配成【输入特征, 标签】对,每次喂入一小撮(batch)(把数据集分为批次,每批次32组数据)
train_db = tf.data.Dataset.from_tensor_slices((x_train, y_train)).batch(32)
test_db = tf.data.Dataset.from_tensor_slices((x_test, y_test)).batch(32)# ____________________________定义神经网络______________________________
w1 = tf.Variable(tf.random.truncated_normal([4, 3], stddev=0.1, seed=1))  # 4表示输入的4的特征,3表示3分类
b1 = tf.Variable(tf.random.truncated_normal([3], stddev=0.1, seed=1))  # 3表示3分类# ____________________________训练部分:嵌套循环迭代_______________________
for epoch in range(epoch):  # 数据集级别迭代for step, (x_train, y_train) in enumerate(train_db):  # batch级别迭代with tf.GradientTape() as tape:  # 在with结构中计算前向传播y以及计算总损失lossy = tf.matmul(x_train, w1) + b1  # 神经网络乘加运算y = tf.nn.softmax(y)  # 使输出y符合概率分布(此操作后与独热码同量级,可以相减求loss)y_ = tf.one_hot(y_train, depth=3)  # 将标签值转换为独热码格式,方便计算loss和accloss = tf.reduce_mean(tf.square(y_ - y))  # 采用均值方差损失函数MSEloss_all += loss.numpy()  # 将每个step计算出loss累加,为后续求loss平均值提供数据# 计算loss对各个参数的梯度grads = tape.gradient(loss, [w1, b1])  # 损失函数loss分别对参数w1和b1计算偏导数# 实现梯度更新 w1 = w1 - lr * w1_grad    b = b - lr * b_gradw1.assign_sub(lr * grads[0])  # 参数w1自更新b1.assign_sub(lr * grads[1])  # 参数b1自更新# 求出每个epoch的平均损失print("Epoch {}, loss:{}".format(epoch, loss_all / 4))train_loss_results.append(loss_all / 4)  # 将4个step的loss求平均记录在此变量中loss_all = 0  # loss_all归零为记录下一个epoch的loss做准备# ____________________________测试部分:识别准确率______________________________total_correct, total_number = 0, 0for x_test, y_test in test_db:y = tf.matmul(x_test, w1) + b1  # y为预测结果y = tf.nn.softmax(y)  # y符合概率分布pred = tf.argmax(y, axis=1)  # 返回y中最大值的索引,即预测的分类pred = tf.cast(pred, dtype=y_test.dtype)  # 调整数据类型与标签一致,即为把pred预测值转换为y_test数据类型correct = tf.cast(tf.equal(pred, y_test), dtype=tf.int32)  # 如果真实值与预测值相同,就正确correct = tf.reduce_sum(correct)  # 将每个batch的correct加起来total_correct += int(correct)  # 将所有batch中的correct数加起来total_number += x_test.shape[0]# 总的准确率等于total_correct / total_numberacc = total_correct / total_numbertest_acc.append(acc)print("test_acc", acc)print("__________________________")# ____________________________acc / loss 可视化___________________________
# 绘制loss曲线
plt.title("Loss Curve")
plt.xlabel("Epoch")
plt.ylabel("Loss")
plt.plot(train_loss_results, label="$Loss$")  # 逐点画出test_acc值并连线
plt.legend()
plt.show()#  绘制Accuracy曲线
plt.title("Acc Curve")
plt.xlabel("Epoch")import graphviz
plt.ylabel("Acc")
plt.plot(test_acc, label="$Accuracy$")  # 逐点画出test_acc值并连线
plt.legend()
plt.show()

结果:

这篇关于使用BP神经网络对鸢尾花数据集分类的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/832563

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

Spring Security简介、使用与最佳实践

《SpringSecurity简介、使用与最佳实践》SpringSecurity是一个能够为基于Spring的企业应用系统提供声明式的安全访问控制解决方案的安全框架,本文给大家介绍SpringSec... 目录一、如何理解 Spring Security?—— 核心思想二、如何在 Java 项目中使用?——

springboot中使用okhttp3的小结

《springboot中使用okhttp3的小结》OkHttp3是一个JavaHTTP客户端,可以处理各种请求类型,比如GET、POST、PUT等,并且支持高效的HTTP连接池、请求和响应缓存、以及异... 在 Spring Boot 项目中使用 OkHttp3 进行 HTTP 请求是一个高效且流行的方式。

Java使用Javassist动态生成HelloWorld类

《Java使用Javassist动态生成HelloWorld类》Javassist是一个非常强大的字节码操作和定义库,它允许开发者在运行时创建新的类或者修改现有的类,本文将简单介绍如何使用Javass... 目录1. Javassist简介2. 环境准备3. 动态生成HelloWorld类3.1 创建CtC

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

Java使用jar命令配置服务器端口的完整指南

《Java使用jar命令配置服务器端口的完整指南》本文将详细介绍如何使用java-jar命令启动应用,并重点讲解如何配置服务器端口,同时提供一个实用的Web工具来简化这一过程,希望对大家有所帮助... 目录1. Java Jar文件简介1.1 什么是Jar文件1.2 创建可执行Jar文件2. 使用java

C#使用Spire.Doc for .NET实现HTML转Word的高效方案

《C#使用Spire.Docfor.NET实现HTML转Word的高效方案》在Web开发中,HTML内容的生成与处理是高频需求,然而,当用户需要将HTML页面或动态生成的HTML字符串转换为Wor... 目录引言一、html转Word的典型场景与挑战二、用 Spire.Doc 实现 HTML 转 Word1