数学建模~~~预测方法--决策树模型

2024-08-26 08:28

本文主要是介绍数学建模~~~预测方法--决策树模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

0.直击重点

1.决策树概念

2.节点特征的选择算法

3.基尼系数的计算

4.决策树的分类

5.模型的搭建

6.模型的改进和评价

ROC曲线

参数调优

 GridSearch网格搜索

使用搜索结果重新建模


0.直击重点

这个文章,我们从三个维度进行说明介绍:

第一维度:介绍基本的概念,以及这个决策树的分类和相关的这个算法和基尼系数的计算方法,通过给定这个用户的数据预测这个用户是否会离职;

第二维度:增加数据量,通过语言评价(低,高,中)转换为真实的数据0,1,2,来评估这个用户离职的概率,通过分类准确率函数评估这个预测成功的样本数量和score函数预测这个准确率

第三维度:我们通过调优参数对于这个模型进行了改进,介绍了这个命中率和误判率的概念和基于这两者绘制的ROC曲线和AUC数值,有两个方法:

一个就是把这个参数全部传递进去,使用best_search属性去确定这个最优解;

另一个就是进行循环,格式化输出所有的AUC数值,进行比较得出来这个最优的解;

两个结果的方法可以进行验证,证明我们的模型的准确性~~~

1.决策树概念

决策树里面学习的这个根节点,内部节点和这个叶节点类似于我们的数据结构里面学习的这个二叉树的结构,两个都是树形结构,都有这个根节点,叶子结点以及这个内部节点的定义,从某种意义上面而言,这两个是可进行类比学习的;

2.节点特征的选择算法

节点特征的不同选择,这个节点的子节点的内容肯定就是不一样的,这个时候,如何进行这个节点的选择就很重要,针对于这个节点的额选择,有下面的几个算法,我们以第三个为例进行介绍;

ID3算法,C4.5算法,CART算法(利用基尼系数作为指标的算法);

3.基尼系数的计算

4.决策树的分类

我们下面的介绍以分类决策树为主:

  1. 导入对应的模块;
  2. 选择对应的数据,并以二维数组进行传入;
  3. max_depth就是这个决策树的深度,层数而已,具体的设置我们介绍优化的时候会进行说明;
  4. random_state就是保证这个过程的随机状态,没有其他的意义,这个1可以是其他的任何数字;
  5. fit函数的两个参数就是x,y变量进行模型的训练;
  6. predict函数的参数就是对应的自变量和因变量,并对于这个结果进行预测;
import pandas as pd
df = pd.read_csv("/Users/sample/员工离职数据样本.csv")# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier# 以二维结构读取"工资(k)","满意度"这两列,作为自变量x
x = df[["工资(k)","满意度"]]
# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]# TODO 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=2,random_state=1,赋值给model
model = DecisionTreeClassifier(max_depth=2,random_state=1)
# TODO 使用fit()函数训练模型
model.fit(x, y)# TODO 使用predict()函数,传入参数[[9,6]]进行预测,并赋值给y_pre
y_pre = model.predict([[9, 6]])
# TODO 输出y_pre
print(y_pre)

5.模型的搭建

  1. 和上面的这个相比较,我们的这个板块的这个信息量会更大,需要涉及到一些这个数值转换的函数的使用和这个分类准确率的函数的说明;
  2. 首先就是这个replace函数,进行这个数值转换;
  3. x,y分别代表这个模型里面的自变量和因变量;
  4. 接着就是划分测试集和训练集,构建模型初始化并且进行训练;
  5. 实际上这个输出的结果是一个10*2的矩阵,每一行的两个数据,一个表示不离职,一个表示离职,我们使用索引筛选出来第二列的离职的概率的数据;0表示的就是第一列数据,1表示的就是第二列数据
import pandas as pd 
df = pd.read_csv("/Users/e_information/员工信息表.csv")# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")
# 将"离职"列,作为因变量y
y = df["离职"]# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=3,random_state=123,赋值给model
model = DecisionTreeClassifier(max_depth=3,random_state=123)
# 使用fit()函数训练模型
model.fit(x_train, y_train)# 将x_test传入使用predict_proba()函数预测,将结果赋值给y_pred_proba
y_pred_proba = model.predict_proba(x_test)
# TODO 输出y_pred_proba的第2列数据
print(y_pred_proba[:,1])

6.模型的改进和评价

我们的这个分类决策树进行预测的结果不一定完全吻合实际,这个时候就需要计算对应的命中率(我们成功预测)和误判率(我们的预测错误)的大小

ROC曲线

这个曲线是是命中率为y坐标,误判率为x坐标进行这个绘制的图像;

这个就是在原来的基础上面,进行这个命中率和误判率和阈值(阈值的作用:预测离职概率大于等于阈值,才能被判定为离职)的计算;

最后几行进行这个函数图像的绘制,使用plot函数作图;

import pandas as pd 
df = pd.read_csv("/Users/e_information/员工信息表.csv")# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=3,random_state=123,赋值给model
model = DecisionTreeClassifier(max_depth=3,random_state=123)
# 使用fit()函数训练模型
model.fit(x_train, y_train)# 将x_test传入使用predict_proba()函数预测,将结果赋值给y_pred_proba
y_pred_proba = model.predict_proba(x_test)# 导入sklearn.metrics模块中的roc_curve函数
from sklearn.metrics import roc_curve# 将y_test和预测的离职概率传入roc_curve(),将结果依次赋值给fpr, tpr, thres
fpr, tpr, thres = roc_curve(y_test, y_pred_proba[:,1])# 输出fpr, tpr, thres
print(fpr)
print(tpr)
print(thres)# 导入matplotlib.pyplot,并使用"plt"作为该模块的简写
import matplotlib.pyplot as plt# 使用plt.plot()函数,传入fpr为x轴的值,tpr为y轴的值,绘制折线图
plt.plot(fpr, tpr)# 设置标题为ROC
plt.title('ROC')# 设置x轴名称FPR
plt.xlabel('FPR')# 设置y轴名称TPR
plt.ylabel('TPR')# 使用plt.show()函数显示图像
plt.show()

下面这个就是去调用库里面的函数计算AUC数值衡量模型的优劣;

# 导入sklearn.metrics模块中的roc_auc_score函数
from sklearn.metrics import roc_auc_score# 将y_test和预测的离职概率传入roc_auc_score(),将结果赋值给auc_score
auc_score = roc_auc_score(y_test, y_pred_proba[:,1])# 输出auc_score
print(auc_score)

参数调优

就是我们使用这个默认的参数值,都可以获得想上面的这个一样比较好的预测效果(上面的这个预测结果的AUC值是0。9左右,是很好的模型),但是我们可以改变这个默认的参数,进一步去验证我们的模型的优劣性在,这个就是参数调优;

下面我们使用的是K折交叉验证进行调优;

代码的说明:

  1. cv=5表示进行五次交叉验证,model就是我们建立的模型,第二个和第三个参数就是我们的训练集,这个顺序不重要(第二个参数和第三个参数的顺序可以换)
  2. 我们打印的是每一次交叉验证的结果;
  3. 最后使用mean函数求得这几个验证结果的平均值;
import pandas as pd 
df = pd.read_csv("/Users/e_information/员工信息表.csv")# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
# 并设置参数max_depth=3,random_state=123,赋值给model
model = DecisionTreeClassifier(max_depth=3,random_state=123)# 导入sklearn.model_selection模块中的交叉验证的函数cross_val_score
from sklearn.model_selection import cross_val_score# 使用cross_val_score()函数进行交叉验证,将结果赋值给auc_score
auc_score = cross_val_score(model, x_train, y_train, scoring = 'roc_auc',cv=5)# 输出auc_score及其平均值
print(auc_score)
print(auc_score.mean())

 GridSearch网格搜索

K折交叉验证,一方面能帮助我们更精确的评估模型;

另一方面,它经常和GridSearch网格搜索配合使用,来对模型进行参数调优。

接下来,我们一起来学习GridSearch网格搜索。

代码说明:

  1. 1,3,5,7,9就是我们选定的,可以进行这个选择的数值,从这几个里面去选最优值(深度);
  2. fit就是进行这个数据集合的训练;
  3. best_params_属性就是获得这个训练结果的最优值;
import pandas as pd 
df = pd.read_csv("/Users/e_information/员工信息表.csv")# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# 使用DecisionTreeClassifier()初始化模型
model = DecisionTreeClassifier()# 导入sklearn.model_selection模块中的GridSearchCV
from sklearn.model_selection import GridSearchCV# 指定待调优参数max_depth的候选值范围,赋值给parameters
parameters = {'max_depth': [1 ,3, 5, 7, 9]}# 使用GridSearchCV()函数进行参数调优,将结果赋值给grid_search
grid_search = GridSearchCV(model, parameters, scoring='roc_auc', cv=5)# 传入训练集进行训练
grid_search.fit(x_train, y_train)# 获取参数的最优值,并赋值给best_params
best_params = grid_search.best_params_# 输出参数的最优值
print(best_params)

使用搜索结果重新建模

我们上面的遍历已经搜索出来这个最好的深度depth就是7,但是我们之前使用的是3,因此我们调整这个参数重新建模,我们只需要把上面这个过程的depth进行修改即可;

另外,我们可以使用循环依次计算不同深度的AUC数值,选择出来最好的也是可以的;下面这个代码就是分别带入这个树的深度1,3,5,7,9得到这个最优的AUC对应的这个depth=7,和我们上面搜索的结果是一样的,验证了模型的准确性;

import pandas as pd 
df = pd.read_csv("/Users/e_information/员工信息表.csv")# 使用replace()将"工资"列的低","中","高"替换为0,1,2
df["工资"] = df["工资"].replace({'低': 0, '中': 1, '高': 2})
# 使用drop()函数删除"离职"列,剩余的数据作为自变量x
x = df.drop(columns="离职")# 以二维结构读取"离职"列,作为因变量y
y = df[["离职"]]# 导入sklearn.model_selection模块中的train_test_split函数
from sklearn.model_selection import train_test_split
# 使用train_test_split()函数划分训练集和测试集
x_train,x_test,y_train,y_test=train_test_split(x,y,test_size=0.2,random_state=123)# 导入sklearn.tree模块中的分类决策树模型DecisionTreeClassifier
from sklearn.tree import DecisionTreeClassifier
# for循环遍历列表[1,3,5,7,9]
for i in [1,3,5,7,9]:# 使用DecisionTreeClassifier()初始化模型# 并设置参数max_depth=i,random_state=123,赋值给modelmodel = DecisionTreeClassifier(max_depth=i,random_state=123)# 使用fit()函数训练模型model.fit(x_train, y_train)# 将x_test传入使用predict_proba()函数预测,将结果赋值给y_pred_probay_pred_proba = model.predict_proba(x_test)# 导入sklearn.metrics模块中的roc_auc_score函数from sklearn.metrics import roc_auc_score# 将y_test和预测的离职概率传入roc_curve(),将结果赋值给auc_scoreauc_score = roc_auc_score(y_test, y_pred_proba[:,1])# 格式化输出"max_depth={i}时,AUC值为{auc_score.round(4)}"print(f"max_depth={i}时,AUC值为{auc_score.round(4)}") 

这篇关于数学建模~~~预测方法--决策树模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1108051

相关文章

Python安装Pandas库的两种方法

《Python安装Pandas库的两种方法》本文介绍了三种安装PythonPandas库的方法,通过cmd命令行安装并解决版本冲突,手动下载whl文件安装,更换国内镜像源加速下载,最后建议用pipli... 目录方法一:cmd命令行执行pip install pandas方法二:找到pandas下载库,然后

Linux系统中查询JDK安装目录的几种常用方法

《Linux系统中查询JDK安装目录的几种常用方法》:本文主要介绍Linux系统中查询JDK安装目录的几种常用方法,方法分别是通过update-alternatives、Java命令、环境变量及目... 目录方法 1:通过update-alternatives查询(推荐)方法 2:检查所有已安装的 JDK方

SQL Server安装时候没有中文选项的解决方法

《SQLServer安装时候没有中文选项的解决方法》用户安装SQLServer时界面全英文,无中文选项,通过修改安装设置中的国家或地区为中文中国,重启安装程序后界面恢复中文,解决了问题,对SQLSe... 你是不是在安装SQL Server时候发现安装界面和别人不同,并且无论如何都没有中文选项?这个问题也

Java Thread中join方法使用举例详解

《JavaThread中join方法使用举例详解》JavaThread中join()方法主要是让调用改方法的thread完成run方法里面的东西后,在执行join()方法后面的代码,这篇文章主要介绍... 目录前言1.join()方法的定义和作用2.join()方法的三个重载版本3.join()方法的工作原

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分

Spring Boot从main方法到内嵌Tomcat的全过程(自动化流程)

《SpringBoot从main方法到内嵌Tomcat的全过程(自动化流程)》SpringBoot启动始于main方法,创建SpringApplication实例,初始化上下文,准备环境,刷新容器并... 目录1. 入口:main方法2. SpringApplication初始化2.1 构造阶段3. 运行阶

Olingo分析和实践之ODataImpl详细分析(重要方法详解)

《Olingo分析和实践之ODataImpl详细分析(重要方法详解)》ODataImpl.java是ApacheOlingoOData框架的核心工厂类,负责创建序列化器、反序列化器和处理器等组件,... 目录概述主要职责类结构与继承关系核心功能分析1. 序列化器管理2. 反序列化器管理3. 处理器管理重要方

Python错误AttributeError: 'NoneType' object has no attribute问题的彻底解决方法

《Python错误AttributeError:NoneTypeobjecthasnoattribute问题的彻底解决方法》在Python项目开发和调试过程中,经常会碰到这样一个异常信息... 目录问题背景与概述错误解读:AttributeError: 'NoneType' object has no at

postgresql使用UUID函数的方法

《postgresql使用UUID函数的方法》本文给大家介绍postgresql使用UUID函数的方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录PostgreSQL有两种生成uuid的方法。可以先通过sql查看是否已安装扩展函数,和可以安装的扩展函数

Java中Arrays类和Collections类常用方法示例详解

《Java中Arrays类和Collections类常用方法示例详解》本文总结了Java中Arrays和Collections类的常用方法,涵盖数组填充、排序、搜索、复制、列表转换等操作,帮助开发者高... 目录Arrays.fill()相关用法Arrays.toString()Arrays.sort()A