DecisionTreeClassifier重要参数、属性、接口(实现一棵树,随机性参数)

本文主要是介绍DecisionTreeClassifier重要参数、属性、接口(实现一棵树,随机性参数),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 

DecisionTreeClassifier重要参数

1.criterion

要将表格转化成一颗树,决策树需要找出最佳节点和最佳的分枝方法,对分类树来说,衡量这个“最佳”指标“叫做不纯度

criterion这个参数正是用来决定不纯度的计算方法。sklearn提供了两种选择:
1)输入”entropy“,使用信息熵
2)输入”gini“,使用基尼系数
决策树的基本流程:
直到没有更多的特征可用,或整体的不纯度已经最优,决策树就会停止生长。
建立一颗树
#######实现一棵树,随机性参数,导入需要用到的模块库
from sklearn import tree
from sklearn.datasets import load_wine  # 自带的各种数据
from sklearn.model_selection import train_test_split
# 2.观察数据的形式
wine = load_wine()   # 数据实例化 
# 特征列
wine.data
wine.data.shape  # 查看结构# 标签列
wine.target
import pandas as pd
pd.concat([pd.DataFrame(wine.data),pd.DataFrame(wine.target)],axis=1)  # 将两部分变成一个表
# 3.分训练集和测试集
Xtrain,Xtest,Ytrain,Ytest = train_test_split(wine.data,wine.target,test_size = 0.3) # 百分之三十做测试集,百分之七十做训练集
# 4.建立模型
clf = tree.DecisionTreeClassifier(criterion = 'entropy')  # 实例化参数
clf = clf.fit(Xtrain,Ytrain)   # 用训练集数据做训练模型
score = clf.score(Xtest,Ytest)  # 导入测试集,返回预测准确度accuracy
score #  查看预测准确度############5.画一颗树
import graphviz
feature_name = ['酒精','苹果酸','灰','灰的碱性','镁','总酚','类黄酮','非黄烷类酚类','花青素','颜色强度','色调','od280/od315稀释葡萄酒','脯氨酸']
# 定义决策树要画的树
dot_data = tree.export_graphviz(clf,feature_names = feature_name,class_names = ['琴酒','雪莉','贝尔摩德'],filled = True,rounded = True)
graph = graphviz.Source(dot_data)
graph
# 6.探索决策树
# 特征重要性
clf.feature_importances_[*zip(feature_name,clf.feature_importances_)]  # 将定义的特征名与特征值连起来观察

第5步已经生成一棵决策树

2、random_state & splitter

# random_state & splitter
clf = tree.DecisionTreeClassifier(criterion="entropy",random_state=30    # 用来设置分枝中的随机模式的参数
#                                   ,splitter="random"  # 用控制决策树中的随机选项,如果加上之后准确率反而降低,可以注掉)
clf = clf.fit(Xtrain, Ytrain)
score = clf.score(Xtest, Ytest)
score

可以得到准确度,然后画出一棵树

import graphviz
dot_data = tree.export_graphviz(clf,feature_names= feature_name,class_names=["琴酒","雪莉","贝尔摩德"],filled=True,rounded=True)  
graph = graphviz.Source(dot_data)
graph

此时画出的时,随机性更高,根据对random_state参数的设置,也可以解决每次画出的树都不是同一棵树的问题了。

3、剪枝参数

在不加限制的情况下,一棵决策树会生长到衡量不纯度的指标最优,或者没有更多的特征可用为止。这样的决策树
往往会过拟合,这就是说, 它会在训练集上表现很好,在测试集上却表现糟糕。 我们收集的样本数据不可能和整体
的状况完全一致,因此当一棵决策树对训练数据有了过于优秀的解释性,它找出的规则必然包含了训练样本中的噪
声,并使它对未知数据的拟合程度不足。
#我们的树对训练集的拟合程度如何?
score_train = clf.score(Xtrain, Ytrain)
score_train
max_depth
限制树的最大深度,超过设定深度的树枝全部剪掉
min_samples_leaf &min_samples_split
min_samples_leaf 限定,一个节点在分枝后的每个子节点都必须包含至少 min_samples_leaf 个训练样本,否则分
枝就不会发生,或者,分枝会朝着满足每个子节点都包含 min_samples_leaf 个样本的方向去发生
min_samples_split 限定,一个节点必须要包含至少 min_samples_split 个训练样本,这个节点才允许被分枝,否则
分枝就不会发生。
max_features & min_impurity_decrease
一般 max_depth 使用,用作树的 精修
如何确定最优的剪枝参数?
# 观察一个最优的剪枝参数
import matplotlib.pyplot as plt
test = []
for i in range(10):
    clf = tree.DecisionTreeClassifier(criterion="entropy"
                                  ,random_state=30 # 输入任意一个整数,都会让树稳定下来
                                  ,splitter="random"
                                  ,max_depth=3
#                                  ,min_samples_leaf=10 # 用来显示分支之后的叶子节点的最少个数,如果加上之后精度降低,则注掉
                                  ,min_samples_split=10 # 一个节点至少含有的节点个数,才允许被分支,如果加上之后精度降低,则注掉
                                 )
    clf = clf.fit(Xtrain,Ytrain)
    score = clf.score(Xtest,Ytest)
    test.append(score)
plt.plot(range(1,11),test,color='red',label ='max_depth')
plt.legend()
plt.show()
## 既达到测试集的拟合程度最高,又达到了节省计算空间
4、目标权重参数
class_weight & min_weight_fraction_leaf
完成样本标签平衡的参数。 使用 class_weight 参数对样本标签进行一定的均衡,给 少量的标签更多的权重,让模型更偏向少数类,向捕获少数类的方向建模。该参数默认 None ,此模式表示自动给与数据集中的所有标签相同的权重。 有了权重之后,样本量就不再是单纯地记录数目,而是受输入的权重影响了,因此这时候剪枝,就需要搭配 min_ weight_fraction_leaf 这个基于权重的剪枝参数来使用。
重要接口:
决策树最常用的接口包括 fit、score、apply、predict
#  apply 用来返回每个测试样本所在的叶子节点的索引
clf.apply(Xtest)
# predict 用来返回每个测试样本的分类/回归结果
clf.predict(Xtest)
所有接口中要求输入 X_train X_test 的部分,输入的特征矩阵必须至少是一个二维矩阵。 sklearn 不接受任何一维矩阵作为特征矩阵被输入。 如果你的数据的确只有一个特征,那必须用 reshape(-1,1) 来给 矩阵增维;如果你的数据只有一个特征和一个样本,使用reshape(1,-1) 来给你的数据增维。
属性:
属性是在模型训练之后,能够调用查看的模型的各种性质。对决策树来说,最重要的是 feature_importances_ ,能
够查看各个特征对模型的重要性。
(根据菜菜的机器学习整理)

这篇关于DecisionTreeClassifier重要参数、属性、接口(实现一棵树,随机性参数)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/155931

相关文章

使用Python实现IP地址和端口状态检测与监控

《使用Python实现IP地址和端口状态检测与监控》在网络运维和服务器管理中,IP地址和端口的可用性监控是保障业务连续性的基础需求,本文将带你用Python从零打造一个高可用IP监控系统,感兴趣的小伙... 目录概述:为什么需要IP监控系统使用步骤说明1. 环境准备2. 系统部署3. 核心功能配置系统效果展

Java controller接口出入参时间序列化转换操作方法(两种)

《Javacontroller接口出入参时间序列化转换操作方法(两种)》:本文主要介绍Javacontroller接口出入参时间序列化转换操作方法,本文给大家列举两种简单方法,感兴趣的朋友一起看... 目录方式一、使用注解方式二、统一配置场景:在controller编写的接口,在前后端交互过程中一般都会涉及

Python实现微信自动锁定工具

《Python实现微信自动锁定工具》在数字化办公时代,微信已成为职场沟通的重要工具,但临时离开时忘记锁屏可能导致敏感信息泄露,下面我们就来看看如何使用Python打造一个微信自动锁定工具吧... 目录引言:当微信隐私遇到自动化守护效果展示核心功能全景图技术亮点深度解析1. 无操作检测引擎2. 微信路径智能获

Python中pywin32 常用窗口操作的实现

《Python中pywin32常用窗口操作的实现》本文主要介绍了Python中pywin32常用窗口操作的实现,pywin32主要的作用是供Python开发者快速调用WindowsAPI的一个... 目录获取窗口句柄获取最前端窗口句柄获取指定坐标处的窗口根据窗口的完整标题匹配获取句柄根据窗口的类别匹配获取句

在 Spring Boot 中实现异常处理最佳实践

《在SpringBoot中实现异常处理最佳实践》本文介绍如何在SpringBoot中实现异常处理,涵盖核心概念、实现方法、与先前查询的集成、性能分析、常见问题和最佳实践,感兴趣的朋友一起看看吧... 目录一、Spring Boot 异常处理的背景与核心概念1.1 为什么需要异常处理?1.2 Spring B

Python位移操作和位运算的实现示例

《Python位移操作和位运算的实现示例》本文主要介绍了Python位移操作和位运算的实现示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一... 目录1. 位移操作1.1 左移操作 (<<)1.2 右移操作 (>>)注意事项:2. 位运算2.1

如何在 Spring Boot 中实现 FreeMarker 模板

《如何在SpringBoot中实现FreeMarker模板》FreeMarker是一种功能强大、轻量级的模板引擎,用于在Java应用中生成动态文本输出(如HTML、XML、邮件内容等),本文... 目录什么是 FreeMarker 模板?在 Spring Boot 中实现 FreeMarker 模板1. 环

Qt实现网络数据解析的方法总结

《Qt实现网络数据解析的方法总结》在Qt中解析网络数据通常涉及接收原始字节流,并将其转换为有意义的应用层数据,这篇文章为大家介绍了详细步骤和示例,感兴趣的小伙伴可以了解下... 目录1. 网络数据接收2. 缓冲区管理(处理粘包/拆包)3. 常见数据格式解析3.1 jsON解析3.2 XML解析3.3 自定义

SpringMVC 通过ajax 前后端数据交互的实现方法

《SpringMVC通过ajax前后端数据交互的实现方法》:本文主要介绍SpringMVC通过ajax前后端数据交互的实现方法,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价... 在前端的开发过程中,经常在html页面通过AJAX进行前后端数据的交互,SpringMVC的controll

Spring Security自定义身份认证的实现方法

《SpringSecurity自定义身份认证的实现方法》:本文主要介绍SpringSecurity自定义身份认证的实现方法,下面对SpringSecurity的这三种自定义身份认证进行详细讲解,... 目录1.内存身份认证(1)创建配置类(2)验证内存身份认证2.JDBC身份认证(1)数据准备 (2)配置依