【数据集划分】假如你有超百万条oracle数据库数据(成真版)

2024-06-06 01:28

本文主要是介绍【数据集划分】假如你有超百万条oracle数据库数据(成真版),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

【数据集划分】假如你有接近百万条oracle数据库数据(成真版)

  • 写在最前面
    • 小结
  • 数据集划分
    • 原因
    • 注意事项
  • 1. 留出法(Hold-out Method)
    • 原理
    • 算法复杂度
    • 代码示例
      • Scikit-learn的train_test_split
      • 分布式计算框架(如Apache Spark)
      • 优化策略回顾
    • 优缺点
      • 优点
      • 缺点
  • 2.(适用于少样本,暂不考虑)自助法(Bootstrap Method)
  • 3. 交叉验证法(Cross-Validation Method)
    • 3.1 (计算成本高,暂不考虑)K-Fold 交叉验证(K-Fold Cross-Validation)
    • 3.2 (适用于少样本,计算成本高,暂不考虑)留一法交叉验证(Leave-One-Out Cross-Validation)
    • 3.3 分层K-Fold 交叉验证(Stratified K-Fold Cross-Validation)
      • 原理
      • 算法复杂度
      • 代码示例
      • 优缺点
        • 优点
        • 缺点
    • 3.4 (适用于类别不平衡,暂不考虑)分组交叉验证(Group K-Fold Cross-Validation)
      • 算法复杂度
      • Scikit-learn代码示例
      • 优缺点
        • 优点
        • 缺点


请添加图片描述

🌈你好呀!我是 是Yu欸
🌌 2024每日百字篆刻时光,感谢你的陪伴与支持 ~
🚀 欢迎一起踏上探险之旅,挖掘无限可能,共同成长!

写在最前面

大模型,何所谓大?先从大数据开始。

假如你有超百万条oracle数据库数据,那么一直使用的代码:train_df, temp_df = train_test_split(df, test_size=0.3, random_state=42),很可能1h还没划分完数据。

刚开始时,看着电脑忙和,自己闲着,很开心。1h过去后,发现事情好像没有那么简单。于是……

重新学习数据集划分,从时间复杂度角度,重新审视这些机器学习入门知识。

在这里插入图片描述

参考:https://blog.csdn.net/Ningbo_JiaYT/article/details/136041904

小结

结论放最前面吧,免得之后不好找。

数据量大,如果类别不平衡,优先考虑分层划分or分组划分。
如果仅考虑时间复杂度,可借鉴留出法的原理,使用分布式计算框架(如Apache Spark)进行优化。

留出法是一种基础的数据集划分方法,通过生成随机数或排序来划分数据集。其时间复杂度主要依赖于数据集的大小,为O(N)。
几种留出法的具体实现及其时间复杂度分析:

  1. 生成一列随机数[0,1],为每个样本生成一个0到1之间的随机数,根据随机数的大小进行划分。随机数小于0.7的样本划分为训练集,0.7到0.9之间的样本划分为测试集,大于0.9的样本划分为验证集。算法时间复杂度:O(N)。
  2. 生成一列随机数,将数据集按随机数从大到小排序,然后根据比例进行划分。前70%的样本划分为训练集,70%到90%之间的样本划分为测试集,剩余的样本划分为验证集。算法时间复杂度:O(N log N)(由于排序操作)

数据集划分

数据集划分是机器学习中非常关键的步骤,能直接影响模型的训练效果和泛化能力。它的主要目的是为了评估模型对新数据的泛化能力,即模型在未见过的数据上能表现良好。

数据集通常被划分为三个部分:训练集(Training set)、验证集(Validation set)和测试集(Test set)。

本文中,主要示例7:2:1划分数据集为训练集、测试集、验证集。即将数据集分为70%的训练集、20%的测试集和10%的验证集。

  • 训练集用于模型的训练,
  • 验证集用于调整模型参数和选择最佳模型,
  • 测试集用于最终评估模型的性能。

原因

1.避免过拟合
过拟合(Overfitting)是机器学习和统计学中的常见问题,表现为模型在训练集上的正确率显著高于验证集。通常是模型过于复杂或训练数据量太少,导致捕捉到了数据中的噪声和异常值,而不仅仅是底层的数据分布规律。

2.模型评估
机器学习需要一种可靠的方法来评估模型的预测能力和泛化能力。其中验证集用于初步评估模型的性能,而测试集用于最终评估模型的泛化能力(即模拟真实世界的应用场景)。

3.模型选择和调参
训练集和验证集能帮助研究者在机器学习项目的开发过程中选择最佳模型和调整参数,以提高模型的性能。

注意事项

1.数据泄露
在划分数据集时,要确保测试集(有时也包括验证集)中的信息在训练阶段对模型完全不可见,避免数据泄露导致评估结果不准确。

2.数据不平衡
对于不平衡的数据集,需要特别注意采用分层抽样等技术,确保每个类别的样本在各个子集中都有合理的分布。

3.数据的代表性
数据集划分后,需要确保训练集、验证集和测试集在统计特性上都能代表整个数据集,避免由于数据划分导致的偏差。

1. 留出法(Hold-out Method)

原理,算法复杂度,代码,优缺点。

原理

留出法(Hold-out Method)是一种基础的数据集划分方法,通过将数据集分成多个互斥的子集,以便在模型训练和评估中使用。具体到7:2:1划分,即将数据集分为70%的训练集、20%的测试集和10%的验证集。训练集用于模型的训练,验证集用于调整模型参数和选择最佳模型,测试集用于最终评估模型的性能。

算法复杂度

留出法的时间复杂度主要依赖于数据集的大小。如果数据集包含N条记录,则数据划分操作的时间复杂度为O(N)。

然而,当N非常大时,这种线性时间复杂度仍然可能导致不可接受的延迟。

代码示例

Scikit-learn的train_test_split

下面是使用Scikit-learn进行7:2:1数据集划分的示例代码:

import pandas as pd
from sklearn.model_selection import train_test_split# 假设 df 是一个包含数据集的 DataFrame
df = pd.read_csv('path/to/your/data.csv')# 首先按7:3的比例将数据集划分为训练集和临时集
train_df, temp_df = train_test_split(df, test_size=0.3, random_state=42)# 然后将临时集按2:1的比例划分为测试集和验证集
test_df, val_df = train_test_split(temp_df, test_size=1/3, random_state=42)# 输出划分后的数据集大小
print(f'Training set size: {train_df.shape[0]}')
print(f'Test set size: {test_df.shape[0]}')
print(f'Validation set size: {val_df.shape[0]}')

分布式计算框架(如Apache Spark)

对于大规模数据集,可以使用分布式计算框架(如Apache Spark)进行数据集的7:2:1划分:

from pyspark.sql import SparkSession
from pyspark.sql.functions import rand# 初始化Spark会话
spark = SparkSession.builder.appName("DataSplit").getOrCreate()# 读取数据
df = spark.read.csv("path/to/your/data.csv", header=True, inferSchema=True)# 添加随机列用于划分
df = df.withColumn("rand", rand())# 按7:3划分为训练集和临时集
train_df = df.where("rand <= 0.7").drop("rand")
temp_df = df.where("rand > 0.7").drop("rand")# 再将临时集按2:1划分为测试集和验证集
temp_df = temp_df.withColumn("rand", rand())
test_df = temp_df.where("rand <= 2/3").drop("rand")
val_df = temp_df.where("rand > 2/3").drop("rand")# 转换为Pandas数据框
train_df = train_df.toPandas()
test_df = test_df.toPandas()
val_df = val_df.toPandas()# 输出划分后的数据集大小
print(f'Training set size: {train_df.shape[0]}')
print(f'Test set size: {test_df.shape[0]}')
print(f'Validation set size: {val_df.shape[0]}')

优化策略回顾

  1. 分布式计算:利用分布式计算框架,如Apache Spark,能够将任务分散到多个节点上并行执行,显著缩短处理时间。
  2. 增量式处理:将数据集划分为若干小块,逐块进行训练和验证,减少内存消耗,提高处理效率。
  3. 采样技术:在大数据集中随机抽取子集进行训练和验证,尽管可能会牺牲一定的精度,但能显著提高计算速度。

优缺点

优点

  1. 简单易用:留出法实现简单,易于理解和使用。
  2. 计算速度快:对于中小规模的数据集,留出法的计算速度非常快,能快速得到训练集、测试集和验证集。
  3. 防止过拟合:验证集可以帮助在训练过程中监控模型性能,防止过拟合。
  4. 更全面的模型评估:通过引入验证集,可以在训练过程中实时评估模型性能,帮助选择最佳的模型超参数。

缺点

  1. 数据浪费:(数据多,不在乎)部分数据仅用于验证和测试,未参与模型训练,可能导致数据集使用效率不高,尤其在数据集较小时尤为明显。
  2. 结果不稳定:由于数据集划分具有随机性,不同的划分可能导致不同的模型性能评估结果。

2.(适用于少样本,暂不考虑)自助法(Bootstrap Method)

一种有放回的抽样方法,用于从原始数据集中生成多个训练集的技术,适用于样本量不足时的模型评估。
在自助法中,我们从原始数据集中随机选择一个样本加入到训练集中,然后再把这个样本放回原始数据集,允许它被再次选中。
这个过程重复n次,n是原始数据集中的样本数量
这样,一些样本在训练集中会被重复选择,而有些则可能一次也不被选中。
未被选中的样本通常用作测试集。

优点

  • 在数据量有限的情况下,自助法可以有效地增加训练数据的多样性。
  • 对于小样本数据集,自助法可以提供更加稳定和准确的模型评估。
  • 可以用来估计样本的分布和参数的置信区间。

缺点

  • 由于采样是有放回的,可能导致训练集中的某些样本被多次选择,而有些样本则从未被选择,这可能会引入额外的方差。
  • 对于足够大的数据集,自助法可能不如其他方法,如 K-Fold 交叉验证,因为重复的样本可能导致评估效果不是很好。

3. 交叉验证法(Cross-Validation Method)

通过将数据集分成多个小子集,反复地进行训练和验证过程,以此来减少评估结果因数据划分方式不同而带来的偶然性和不确定性。

3.1 (计算成本高,暂不考虑)K-Fold 交叉验证(K-Fold Cross-Validation)

把数据集平均划分成 K个大小相等的子集,对于每一次验证,选取其中一个子集作为验证集,而其余的 K-1个子集合并作为训练集。
这个过程会重复K次,每次选择不同的子集作为验证集。
最后,通常取这K次验证结果的平均值作为最终的性能评估。
适用于数据集不是非常大的情况。

优点:减少了评估结果因数据划分不同而产生的偶然性,提高了评估的准确性和稳定性。
缺点:计算成本高,尤其是当K值较大或数据集较大时。

3.2 (适用于少样本,计算成本高,暂不考虑)留一法交叉验证(Leave-One-Out Cross-Validation)

留一法是 K-Fold 交叉验证的一个特例,其中K等于样本总数。这意味着每次只留下一个样本作为验证集,其余的样本作为训练集。
这个过程重复进行,直到每个样本都被用作过一次验证集。

优点:可以最大限度地利用数据,每次训练都使用了几乎所有的样本,这在样本量较少时尤其有价值。
缺点:计算成本非常高,尤其是对于大数据集来说,几乎是不可行的。

3.3 分层K-Fold 交叉验证(Stratified K-Fold Cross-Validation)

原理

分层K-Fold交叉验证(Stratified K-Fold Cross-Validation)是对K-Fold交叉验证的一种改进,特别适用于处理类别不平衡的数据集。
在这种方法中,每次划分数据时都会保持每个类别的样本比例,确保在每个训练集和验证集中各类的比例与整个数据集中的比例大致相同。
这样可以避免因类别不平衡而导致的模型偏差问题,提高模型的泛化能力。

算法复杂度

分层K-Fold交叉验证的时间复杂度与K-Fold交叉验证相同,为O(KN),其中N是数据集的大小,K是交叉验证的折数。
虽然在实现上稍微复杂一些,但对大多数数据集来说,额外的复杂性和计算开销是可以接受的。

代码示例

下面是一个使用Scikit-learn进行分层K-Fold交叉验证的示例代码:

import pandas as pd
from sklearn.model_selection import StratifiedKFold
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import accuracy_score# 假设 df 是一个包含数据集的 DataFrame,target 是目标变量
df = pd.read_csv('path/to/your/data.csv')
X = df.drop(columns=['target'])
y = df['target']# 创建 StratifiedKFold 对象
skf = StratifiedKFold(n_splits=5)# 进行分层交叉验证
for train_index, test_index in skf.split(X, y):X_train, X_test = X.iloc[train_index], X.iloc[test_index]y_train, y_test = y.iloc[train_index], y.iloc[test_index]# 训练模型model = RandomForestClassifier(random_state=42)model.fit(X_train, y_train)# 预测并评估y_pred = model.predict(X_test)accuracy = accuracy_score(y_test, y_pred)print(f'Fold Accuracy: {accuracy}')

优缺点

优点
  1. 保持类别比例:对于分类问题,分层K-Fold交叉验证能够保持每个类别在训练集和验证集中的比例与整个数据集中的比例相同,有助于处理类别不平衡的问题。
  2. 提高模型泛化能力:通过保持类别比例,模型能够更好地泛化到未见的数据,提高评估结果的可靠性。
  3. 减少偏差:避免因类别不平衡导致的模型偏差,使得评估结果更加稳定和准确。
缺点
  1. 实现复杂性:分层K-Fold交叉验证的实现相对复杂,需要根据数据的具体类别分布进行样本的分层抽样。
  2. 计算开销:尽管时间复杂度与K-Fold交叉验证相同,但由于需要进行分层抽样,计算开销可能略有增加。

分层K-Fold交叉验证是一种适用于处理类别不平衡数据集的有效方法。通过保持类别比例,它能够提高模型的泛化能力和评估结果的可靠性。尽管实现相对复杂,且计算开销略有增加,但其优点使得它在处理分类问题时非常有价值。

3.4 (适用于类别不平衡,暂不考虑)分组交叉验证(Group K-Fold Cross-Validation)

分组交叉验证是一种处理具有明显组结构数据的交叉验证策略。
其核心思想是确保来自同一组的数据在分割过程中不会被分散到不同的训练集或测试集中。
这种方法特别适用于数据中存在自然分组的情况,例如医学领域按病人分组的数据集。

具体来说,假设数据集中有若干个组,每个组包含多个样本。在分组交叉验证中,数据不是随机分成K个子集,而是根据组的标识来分。整个数据集被分为K个子集,但划分的依据是组而不是单个样本。每次迭代中,选定的一个或多个组整体作为测试集,其余的组作为训练集。这个过程重复进行,直到每个组都有机会作为测试集。

算法复杂度

分组交叉验证的时间复杂度主要取决于数据集的大小和组的数量。如果数据集包含N个样本和M个组,则每次划分和训练的时间复杂度为O(N)。整体复杂度也与交叉验证的次数K有关,即O(KN)。尽管整体复杂度高于简单的留出法,但通过合理选择K值和组的划分,可以有效进行模型评估。

Scikit-learn代码示例

下面是一个使用Scikit-learn进行分组交叉验证的示例代码:

import pandas as pd
from sklearn.model_selection import GroupKFold
from sklearn.ensemble import RandomForestClassifier
from sklearn.metrics import accuracy_score# 假设 df 是一个包含数据集的 DataFrame,group_col 是表示组的列名,target 是目标变量
df = pd.read_csv('path/to/your/data.csv')
X = df.drop(columns=['target', 'group_col'])
y = df['target']
groups = df['group_col']# 创建 GroupKFold 对象
gkf = GroupKFold(n_splits=5)# 进行分组交叉验证
for train_index, test_index in gkf.split(X, y, groups):X_train, X_test = X.iloc[train_index], X.iloc[test_index]y_train, y_test = y.iloc[train_index], y.iloc[test_index]# 训练模型model = RandomForestClassifier(random_state=42)model.fit(X_train, y_train)# 预测并评估y_pred = model.predict(X_test)accuracy = accuracy_score(y_test, y_pred)print(f'Fold Accuracy: {accuracy}')

优缺点

优点
  1. 避免数据泄露:确保模型评估不会受到来自同一组但不同样本的数据相似性的影响,从而更好地模拟真实场景。
  2. 更准确的泛化能力评估:通过对未见过的组进行预测,能够更准确地评估模型对新数据的处理能力。
  3. 减少过拟合风险:由于整个组作为一个单位进行划分,模型无法通过过拟合个别样本来提高评估性能。
缺点
  1. 实现复杂性:需要有明确的组标识,且在数据划分时要根据这些组标识进行操作,代码实现相对复杂。
  2. 可能的样本不均衡:如果各组的大小差异很大,可能导致训练和测试集的样本分布不均,从而影响模型的评估结果。
  3. 计算开销:由于需要进行多次模型训练和评估,计算开销相对较大,尤其在大数据集的情况下。

分组交叉验证是一种有效的模型评估方法,特别适用于具有自然分组的数据集。尽管其实现较为复杂,且可能导致样本不均衡问题,但通过合理选择组划分策略,可以有效评估模型的泛化能力,避免数据泄露,减少过拟合风险。


欢迎大家添加好友交流。

这篇关于【数据集划分】假如你有超百万条oracle数据库数据(成真版)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1034707

相关文章

Java注解之超越Javadoc的元数据利器详解

《Java注解之超越Javadoc的元数据利器详解》本文将深入探讨Java注解的定义、类型、内置注解、自定义注解、保留策略、实际应用场景及最佳实践,无论是初学者还是资深开发者,都能通过本文了解如何利用... 目录什么是注解?注解的类型内置注编程解自定义注解注解的保留策略实际用例最佳实践总结在 Java 编程

MySQL数据库约束深入详解

《MySQL数据库约束深入详解》:本文主要介绍MySQL数据库约束,在MySQL数据库中,约束是用来限制进入表中的数据类型的一种技术,通过使用约束,可以确保数据的准确性、完整性和可靠性,需要的朋友... 目录一、数据库约束的概念二、约束类型三、NOT NULL 非空约束四、DEFAULT 默认值约束五、UN

一文教你Python如何快速精准抓取网页数据

《一文教你Python如何快速精准抓取网页数据》这篇文章主要为大家详细介绍了如何利用Python实现快速精准抓取网页数据,文中的示例代码简洁易懂,具有一定的借鉴价值,有需要的小伙伴可以了解下... 目录1. 准备工作2. 基础爬虫实现3. 高级功能扩展3.1 抓取文章详情3.2 保存数据到文件4. 完整示例

使用Java将各种数据写入Excel表格的操作示例

《使用Java将各种数据写入Excel表格的操作示例》在数据处理与管理领域,Excel凭借其强大的功能和广泛的应用,成为了数据存储与展示的重要工具,在Java开发过程中,常常需要将不同类型的数据,本文... 目录前言安装免费Java库1. 写入文本、或数值到 Excel单元格2. 写入数组到 Excel表格

python处理带有时区的日期和时间数据

《python处理带有时区的日期和时间数据》这篇文章主要为大家详细介绍了如何在Python中使用pytz库处理时区信息,包括获取当前UTC时间,转换为特定时区等,有需要的小伙伴可以参考一下... 目录时区基本信息python datetime使用timezonepandas处理时区数据知识延展时区基本信息

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

SpringMVC 通过ajax 前后端数据交互的实现方法

《SpringMVC通过ajax前后端数据交互的实现方法》:本文主要介绍SpringMVC通过ajax前后端数据交互的实现方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价... 在前端的开发过程中,经常在html页面通过AJAX进行前后端数据的交互,SpringMVC的controll

Pandas统计每行数据中的空值的方法示例

《Pandas统计每行数据中的空值的方法示例》处理缺失数据(NaN值)是一个非常常见的问题,本文主要介绍了Pandas统计每行数据中的空值的方法示例,具有一定的参考价值,感兴趣的可以了解一下... 目录什么是空值?为什么要统计空值?准备工作创建示例数据统计每行空值数量进一步分析www.chinasem.cn处

如何使用 Python 读取 Excel 数据

《如何使用Python读取Excel数据》:本文主要介绍使用Python读取Excel数据的详细教程,通过pandas和openpyxl,你可以轻松读取Excel文件,并进行各种数据处理操... 目录使用 python 读取 Excel 数据的详细教程1. 安装必要的依赖2. 读取 Excel 文件3. 读

Spring 请求之传递 JSON 数据的操作方法

《Spring请求之传递JSON数据的操作方法》JSON就是一种数据格式,有自己的格式和语法,使用文本表示一个对象或数组的信息,因此JSON本质是字符串,主要负责在不同的语言中数据传递和交换,这... 目录jsON 概念JSON 语法JSON 的语法JSON 的两种结构JSON 字符串和 Java 对象互转