第L1周:机器学习-数据预处理

2024-08-31 23:52

本文主要是介绍第L1周:机器学习-数据预处理,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

第L1周:机器学习-数据预处理

  • 🍨 本文为🔗365天深度学习训练营 中的学习记录博客
  • 🍖 原作者:K同学啊

学习要点: ****

  1. 学习如何处理缺损数据
  2. 尝试进行Label编码
  3. 使用train_test_split进行数据划分
  4. 学习特征标准化

在开始本周的学习任务前,需要先安装好numpy、Pandas、sklearn三个包,安装方法如下:
pip install numpy
pip install Pandas
pip install scikit-learn

🥮 代码学习
🏡 我的环境:
语言环境:Python3.10
编译器:PyCharm

第1步:导入库

import numpy  as np
import pandas as pd

第2步:导入数据集
●数据集:
![[Data.csv]]

dataset = pd.read_csv('../data/Data.csv')
print(dataset)

image.png

X = dataset.iloc[ : , :-1].values
Y = dataset.iloc[ : , 3].values
print(X)

image.png

print(Y)

image.png

第3步:处理丢失数据
SimpleImputer函数用于处理缺损值,详细介绍见文末。

# 处理丢失数据 SimpleImputer可以处理
from sklearn.impute import SimpleImputer
imputer =  SimpleImputer(strategy='mean')  # 用均值来填补丢失值
imputer = imputer.fit(X[:, 1:3])
X[:, 1:3] = imputer.transform(X[:, 1:3])
print("使用SimpleImputer处理丢失数据后的X:")
print(X)

结果如下:

array([['France', 44.0, 72000.0],['Spain', 27.0, 48000.0],['Germany', 30.0, 54000.0],['Spain', 38.0, 61000.0],['Germany', 40.0, 63777.77777777778],['France', 35.0, 58000.0],['Spain', 38.77777777777778, 52000.0],['France', 48.0, 79000.0],['Germany', 50.0, 83000.0],['France', 37.0, 67000.0]], dtype=object)

image.png
注:原来的NaN处被38.7777778和63.7777778,这个值是通过mean也就是平均值而来,手动计算一下:(44+27+30+38+40+35+48+50+37) / 9 = 38.77777777777778
image.png

第4步:进行Label编码
为什么要进行Label编码?进行Label编码的主要原因是为了将文本转换为模型可以理解的数值形式。

from sklearn.preprocessing import LabelEncoder, OneHotEncoderlabelencoder_X = LabelEncoder()
# X[:, 0]是指X的所有行中的第1列进行处理
X[ : , 0]      = labelencoder_X.fit_transform(X[ : , 0])  
print(X)

结果:

array([[0, 44.0, 72000.0],[2, 27.0, 48000.0],[1, 30.0, 54000.0],[2, 38.0, 61000.0],[1, 40.0, 63777.77777777778],[0, 35.0, 58000.0],[2, 38.77777777777778, 52000.0],[0, 48.0, 79000.0],[1, 50.0, 83000.0],[0, 37.0, 67000.0]], dtype=object)

image.png
注:根据结果可以看到,labelEncoder将原X中的"France,Germany"等等按字母顺序进行了一个编号。编码规则一定是写死的吗?

labelencoder_Y = LabelEncoder()  
Y = labelencoder_Y.fit_transform(Y)  
print("对Y进行label编码:")  
print(Y)

image.png
注:Y原来的值是:Y = dataset.iloc[ : , 3].values 即下面这一列:
image.png
很明显:No被编码成0,Yes被编码成1. 这里很奇怪,它并没有按No和Yes的字母顺序进行编码。那么它的编码规则到底是什么?labelencode的fit里进行编码规则的设定,参考:LabelEncoder 类属性类方法及用法-CSDN博客

第5步:拆分为训练集和测试集

# 拆分训练集和测试集  
from sklearn.model_selection import  train_test_split  
X_train, X_teest, Y_train, Y_test = train_test_split(X, Y, test_size=0.2, random_state= 0)

🌟 train_test_split()函数详解
train_test_split():将数据集划分为测试集与训练集。
●X:所要划分的整体数据的特征集;
●Y:所要划分的整体数据的结果;
●test_size:测试集数据量在整体数据量中的占比(可以理解为X_test与X的比值);
●random_state:
○若不填或者填0,每次生成的数据都是随机,可能不一样。
○若为整数,每次生成的数据都相同;

第6步:特征标准化
解释:
image.png

print("X_train:\n", X_train)

image.png

print("X_test:\n", X_test)

image.png

StandardScaler()是scikit-learn库中用于数据标准化处理的一个常用工具。标准化目的是将数据缩放到一个均值为 0,标准差为 1 的正太分布,消除不同特征量纲的影响,尤其是像支持向量机 (SVM)、逻辑回归、神经网络等基于梯度的模型

🍖 知识点讲解

1.SimpleImputer()处理缺损数据
sklearn.impute.SimpleImputer 是 Scikit-learn 库中的一个类,用于处理数据集中缺失值的插补。它通过替换缺失值为统计值(例如均值、中位数或众数)或指定的常数来处理缺失数据。以下是 SimpleImputer 的详细介绍:

🔎 参数详情:
●missing_values: 指定需要替换的缺失值。默认值为 np.nan,表示替换 NaN 值。
●strategy: 指定替换策略。可选值包括:
○’mean’: 用均值替换缺失值。仅适用于数值数据。
○’median’: 用中位数替换缺失值。仅适用于数值数据。
○’most_frequent’: 用众数(出现频率最高的值)替换缺失值。适用于数值和分类数据。
○’constant’: 用常数替换缺失值。需要同时指定 fill_value 参数。
●fill_value: 在 strategy=‘constant’ 时,指定替换缺失值的常数。默认值为 None。
●add_indicator: 是否添加二进制指示变量,用于指示缺失值的位置。默认值为 False。

🔎 SimpleImputer方法该要:
●fit(X, y=None): 拟合 imputer,计算用于替换缺失值的统计值。
●transform(X): 使用拟合的 imputer 替换缺失值。
●fit_transform(X, y=None): 结合 fit 和 transform,对数据集进行拟合并替换缺失值。

以下是一些使用 SimpleImputer 的示例:

👉 用均值替换缺失值

import numpy as np
from sklearn.impute import SimpleImputer
# 创建数据集,其中包含缺失值
X = [[1, 2], [np.nan, 3], [7, 6], [4, np.nan]]
# 创建 SimpleImputer 对象,指定用均值替换缺失值
imputer = SimpleImputer(strategy='mean')
# 训练 imputer 并转换数据
X_imputed = imputer.fit_transform(X)
print(X_imputed)

👉 用常数替换缺失值

# 创建 SimpleImputer 对象,指定用常数 -1 替换缺失值
imputer = SimpleImputer(strategy='constant', fill_value=-1)
# 训练 imputer 并转换数据
X_imputed = imputer.fit_transform(X)
print(X_imputed)

这篇关于第L1周:机器学习-数据预处理的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1125357

相关文章

canal实现mysql数据同步的详细过程

《canal实现mysql数据同步的详细过程》:本文主要介绍canal实现mysql数据同步的详细过程,本文通过实例图文相结合给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的... 目录1、canal下载2、mysql同步用户创建和授权3、canal admin安装和启动4、canal

使用SpringBoot整合Sharding Sphere实现数据脱敏的示例

《使用SpringBoot整合ShardingSphere实现数据脱敏的示例》ApacheShardingSphere数据脱敏模块,通过SQL拦截与改写实现敏感信息加密存储,解决手动处理繁琐及系统改... 目录痛点一:痛点二:脱敏配置Quick Start——Spring 显示配置:1.引入依赖2.创建脱敏

Go学习记录之runtime包深入解析

《Go学习记录之runtime包深入解析》Go语言runtime包管理运行时环境,涵盖goroutine调度、内存分配、垃圾回收、类型信息等核心功能,:本文主要介绍Go学习记录之runtime包的... 目录前言:一、runtime包内容学习1、作用:① Goroutine和并发控制:② 垃圾回收:③ 栈和

详解如何使用Python构建从数据到文档的自动化工作流

《详解如何使用Python构建从数据到文档的自动化工作流》这篇文章将通过真实工作场景拆解,为大家展示如何用Python构建自动化工作流,让工具代替人力完成这些数字苦力活,感兴趣的小伙伴可以跟随小编一起... 目录一、Excel处理:从数据搬运工到智能分析师二、PDF处理:文档工厂的智能生产线三、邮件自动化:

Python数据分析与可视化的全面指南(从数据清洗到图表呈现)

《Python数据分析与可视化的全面指南(从数据清洗到图表呈现)》Python是数据分析与可视化领域中最受欢迎的编程语言之一,凭借其丰富的库和工具,Python能够帮助我们快速处理、分析数据并生成高质... 目录一、数据采集与初步探索二、数据清洗的七种武器1. 缺失值处理策略2. 异常值检测与修正3. 数据

pandas实现数据concat拼接的示例代码

《pandas实现数据concat拼接的示例代码》pandas.concat用于合并DataFrame或Series,本文主要介绍了pandas实现数据concat拼接的示例代码,具有一定的参考价值,... 目录语法示例:使用pandas.concat合并数据默认的concat:参数axis=0,join=

Android学习总结之Java和kotlin区别超详细分析

《Android学习总结之Java和kotlin区别超详细分析》Java和Kotlin都是用于Android开发的编程语言,它们各自具有独特的特点和优势,:本文主要介绍Android学习总结之Ja... 目录一、空安全机制真题 1:Kotlin 如何解决 Java 的 NullPointerExceptio

C#代码实现解析WTGPS和BD数据

《C#代码实现解析WTGPS和BD数据》在现代的导航与定位应用中,准确解析GPS和北斗(BD)等卫星定位数据至关重要,本文将使用C#语言实现解析WTGPS和BD数据,需要的可以了解下... 目录一、代码结构概览1. 核心解析方法2. 位置信息解析3. 经纬度转换方法4. 日期和时间戳解析5. 辅助方法二、L

使用Python和Matplotlib实现可视化字体轮廓(从路径数据到矢量图形)

《使用Python和Matplotlib实现可视化字体轮廓(从路径数据到矢量图形)》字体设计和矢量图形处理是编程中一个有趣且实用的领域,通过Python的matplotlib库,我们可以轻松将字体轮廓... 目录背景知识字体轮廓的表示实现步骤1. 安装依赖库2. 准备数据3. 解析路径指令4. 绘制图形关键

解决mysql插入数据锁等待超时报错:Lock wait timeout exceeded;try restarting transaction

《解决mysql插入数据锁等待超时报错:Lockwaittimeoutexceeded;tryrestartingtransaction》:本文主要介绍解决mysql插入数据锁等待超时报... 目录报错信息解决办法1、数据库中执行如下sql2、再到 INNODB_TRX 事务表中查看总结报错信息Lock