python机器学习之降维算法PCA对手写数字数据集的降维案例

2024-01-04 07:38

本文主要是介绍python机器学习之降维算法PCA对手写数字数据集的降维案例,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

PCA对手写数字数据集的降维案例

数据集获取地址:->这里下载

导入需要的模块和库

from sklearn.decomposition import PCA
from sklearn.ensemble import RandomForestClassifier as RFC
from sklearn.model_selection import cross_val_score
import matplotlib.pyplot as plt
import pandas as pd
import numpy as np

导入数据,探索数据

data = pd.read_csv("../数据/digit recognizor.csv")
x = data.iloc[:,1:]
y = data.iloc[:,0]

查看数据维度

data.shape
x.shape

在这里插入图片描述
画累计方差贡献率曲线,找最佳降维后维度的范围

pca_line = PCA().fit(x)#实例化
plt.figure(figsize=[20,5])#创建画布
plt.plot(np.cumsum(pca_line.explained_variance_ratio_))#折线图
plt.xlabel("number of components")#x轴标题
plt.ylabel("cumulative explainec variance")#y轴标题
plt.show()#显示图像

在这里插入图片描述
降维后维度的学习曲线,继续缩小最佳维度的范围

score = []
for i in range(1,101,10):x_dr = PCA(i).fit_transform(x)once = cross_val_score(RFC(n_estimators=10,random_state=0),x_dr,y,cv = 5).mean()score.append(once)plt.figure(figsize=[20,5])
plt.plot(range(1,101,10),score)
plt.show()

在这里插入图片描述
细化学习曲线,找出降维后的最佳维度

score = []
for i in range(10,25):x_dr = PCA(i).fit_transform(x)once = cross_val_score(RFC(n_estimators=10,random_state=0),x_dr,y,cv = 5).mean()score.append(once)plt.figure(figsize=[20,5])
plt.plot(range(10,25),score)
plt.show()

在这里插入图片描述
发现在23时有最大值,所以我们选择使用23作为PCA维度.

导入找出的最佳维度进行降维,查看模型效果

x_dr = PCA(23).fit_transform(x)cross_val_score(RFC(n_estimators = 100,random_state=0),x_dr,y,cv=5).mean()

在这里插入图片描述
型的效果还好,跑出了94.55%的水平,但是还没有我们使用嵌入法特征选择后的96%高.

特征数量已经不足原来的3%,换模型怎么样,换成KNN

from sklearn.neighbors import KNeighborsClassifier as KNN
cross_val_score(KNN(),x_dr,y,cv=5).mean()

在这里插入图片描述
KNN 的K值学习曲线

score = []
for i in range(10):x_dr = PCA(23).fit_transform(x)once = cross_val_score(KNN(i+1),x_dr,y,cv = 5).mean()score.append(once)plt.figure(figsize=[20,5])
plt.plot(range(10),score)
plt.show()

在这里插入图片描述
使用交叉验证求出模型的结果

cross_val_score(KNN(4),x_dr,y,cv = 5).mean()#交叉验证求出模型的效果

在这里插入图片描述

定下超参数后,模型的效果如何,模型运行时间如何

%%timeitcross_val_score(KNN(4),x_dr,y,cv = 5).mean()#交叉验证求出模型的效果

小结:
可以发现,原本785列的特征被我们减到23列以后,用KNN跑出了目前位置这个数据集上最好的结果.
PCA为我们提供了无限的可能,再也不用担心数据量过于庞大而被迫选择复杂的模型了

这篇关于python机器学习之降维算法PCA对手写数字数据集的降维案例的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/568612

相关文章

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

MyBatis分页查询实战案例完整流程

《MyBatis分页查询实战案例完整流程》MyBatis是一个强大的Java持久层框架,支持自定义SQL和高级映射,本案例以员工工资信息管理为例,详细讲解如何在IDEA中使用MyBatis结合Page... 目录1. MyBATis框架简介2. 分页查询原理与应用场景2.1 分页查询的基本原理2.1.1 分

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函