Python 决策树与贝叶斯相关理论知识和例题

2024-04-23 23:32

本文主要是介绍Python 决策树与贝叶斯相关理论知识和例题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

    • ID3算法
      • 例题
    • 贝叶斯
      • 例1
      • 例2
    • 朴素贝叶斯
      • 例题
    • 参考

信息有顺序排列,意思明确
信息无序,意思多
描述信息的混乱度用信息熵

ID3算法

将无序的数据变得更加有序。
信息熵计算公式
在这里插入图片描述
信息增益:
在这里插入图片描述
在决策树中,设D为用类别对训练元组的划分,则D的熵表示为:
在这里插入图片描述
训练元组D按照属性A进行划分,则A对D划分的期望信息为:
在这里插入图片描述
信息增益为两者的差值:
在这里插入图片描述

例题

现有如下表格数据,描述根据天气等情况决定是否出去打羽毛球的记录。

DayWeatherTemperatureHumidityWindPlay?
1SunnyHotHightWeakNo
2CloudyHotHightWeakYes
3SunnyMildNormalStrongYes
4CloudyMildHightStrongYes
5RainyMildHightStrongNo
6RainyCoolNormalStrongNo
7RainyMildHightWeakYes
8SunnyHotHightStrongNo
9CloudyHotNormalWeakYes
10RainyMildHightStrongNo

设We、T、H、Wi、D表示Weather、Temperature、Humidity、Wind、Play?(是否打羽毛球)。下面计算各属性的信息增益:

D:5个Yes 5个No
集合(1,…,10)的信息熵:
i n f o ( D ) = − 1 2 l o g 2 1 2 − 1 2 l o g 2 1 2 = 1 info(D) = -\frac{1}{2}log_2\frac{1}{2}-\frac{1}{2}log_2\frac{1}{2}=1 info(D)=21log22121log221=1
按照属性We进行划分D,则We对D划分的期望:
Sunny 0.3 ------> 1个Yes 2个No
Cloudy 0.3 ------> 3个Yes
Rainy 0.4 --------> 1个Yes 3个No
i n f o W e ( D ) = 0.3 ∗ ( − 1 3 l o g 2 1 3 − 2 3 l o g 2 2 3 ) + 0.3 ∗ ( − 1 ∗ l o g 2 1 ) + 0.4 ∗ ( − 1 4 l o g 2 1 4 − 3 4 l o g 2 3 4 ) = 0.6 info_We(D) = 0.3 * (-\frac{1}{3}log_2\frac{1}{3}-\frac{2}{3}log_2\frac{2}{3})+0.3*(-1*log_21)+0.4*(-\frac{1}{4}log_2\frac{1}{4}-\frac{3}{4}log_2\frac{3}{4})=0.6 infoWe(D)=0.3(31log23132log232)+0.3(1log21)+0.4(41log24143log243)=0.6
利用python计算结果:
在这里插入图片描述
We的信息增益:
g a i n ( W e ) = i n f o ( D ) − i n f o W e ( D ) = 1 − 0.6 = 0.4 gain(We)=info(D)-info_We(D)=1-0.6=0.4 gain(We)=info(D)infoWe(D)=10.6=0.4

同上得到T、H、Wi的信息增益:
i n f o T ( D ) = 0.4 ∗ ( − 2 4 l o g 2 2 4 − 2 4 l o g 2 2 4 ) + 0.5 ∗ ( − 3 5 l o g 2 3 5 − 2 5 l o g 2 2 5 ) + 0 = 0.885 info_T(D)=0.4*(-\frac{2}{4}log_2\frac{2}{4}-\frac{2}{4}log_2\frac{2}{4})+0.5*(-\frac{3}{5}log_2\frac{3}{5}-\frac{2}{5}log_2\frac{2}{5})+0=0.885 infoT(D)=0.4(42log24242log242)+0.5(53log25352log252)+0=0.885
i n f o H ( D ) = 0.7 ∗ ( − 3 7 l o g 2 3 7 − 4 7 l o g 2 4 7 ) + 0.3 ∗ ( − 2 3 l o g 2 2 3 − 1 3 l o g 2 1 3 ) = 0.956 info_H(D)=0.7*(-\frac{3}{7}log_2\frac{3}{7}-\frac{4}{7}log_2\frac{4}{7})+0.3*(-\frac{2}{3}log_2\frac{2}{3}-\frac{1}{3}log_2\frac{1}{3})=0.956 infoH(D)=0.7(73log27374log274)+0.3(32log23231log231)=0.956
i n f o W i ( D ) = 0.4 ∗ ( − 3 4 l o g 2 3 4 − 1 4 l o g 2 1 4 ) + 0.6 ∗ ( − 2 4 l o g 2 2 4 − 2 4 l o g 2 2 4 ) = 0.925 info_Wi(D)=0.4*(-\frac{3}{4}log_2\frac{3}{4}-\frac{1}{4}log_2\frac{1}{4})+0.6*(-\frac{2}{4}log_2\frac{2}{4}-\frac{2}{4}log_2\frac{2}{4})=0.925 infoWi(D)=0.4(43log24341log241)+0.6(42log24242log242)=0.925
g a i n ( T ) = i n f o ( D ) − i n f o T ( D ) = 1 − 0.885 = 0.115 gain(T)=info(D)-info_T(D)=1-0.885=0.115 gain(T)=info(D)infoT(D)=10.885=0.115
g a i n ( H ) = i n f o ( D ) − i n f o H ( D ) = 1 − 0.956 = 0.044 gain(H)=info(D)-info_H(D)=1-0.956=0.044 gain(H)=info(D)infoH(D)=10.956=0.044
g a i n ( W i ) = i n f o ( D ) − i n f o W i ( D ) = 1 − 0.925 = 0.075 gain(Wi)=info(D)-info_Wi(D)=1-0.925=0.075 gain(Wi)=info(D)infoWi(D)=10.925=0.075
综上得到Weather、Temperature、Humidity、Wind的信息增益分别为0.400、0.115、0.044和0.075。
因为Weather具有最大的信息增益,所以第一次分裂选择Weather为分裂属性,第二次分裂选择Temperature为分裂属性,第三次分裂选择Wind为分裂属性,分裂后的结果如下图所示:

Sunny
Cloud
Rainy
Hot
Mild
Mild
Cool
Strong
Weak
1Yes 2No
3Yes
1Yes 3No
2No
1Yes
1Yes 2No
1No
2No
1Yes
Weather

贝叶斯

P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) P(A|B)=\frac{P(B|A)P(A)}{P(B)} P(AB)=P(B)P(BA)P(A)

例1

现分别有A、B两个容器,在容器A里分别有7个红球和3个白球,在容器B中有1个红球和9个红球。现已知从这两个容器里任意抽出了一个球,且是红球,问这个红球是来自容器A的概率是多少?
解:假设抽出红球的事件为B,选中容器A为事件A,则有:
P ( B ) = 8 20 , P ( A ) = 1 2 P(B)=\frac{8}{20},P(A)=\frac{1}{2} P(B)=208,P(A)=21
在 容 器 A 中 抽 出 红 球 的 概 率 : P ( B ∣ A ) = 7 10 在容器A中抽出红球的概率: P(B|A)=\frac{7}{10} AP(BA)=107
则 抽 出 红 球 来 自 A 容 器 的 概 率 : P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) = 7 10 ∗ 1 2 8 20 = 7 8 = 0.875 则抽出红球来自A容器的概率:P(A|B)=\frac{P(B|A)P(A)}{P(B)}=\frac{\frac{7}{10}*\frac{1}{2}}{\frac{8}{20}}=\frac{7}{8}=0.875 AP(AB)=P(B)P(BA)P(A)=20810721=87=0.875

例2

一座别墅在过去的20年里一共发生过2次被盗,别墅的主人有一条狗,狗平均每周晚上叫3次,在盗贼侵入时狗叫的概率被估计为0.9,问:在狗叫的时候发生盗贼入侵的概率是多少?
解:假设被盗的事件为A,狗叫的事件为B,则有:
P ( A ) = 2 20 ∗ 365 , P ( B ) = 3 7 , P ( B ∣ A ) = 0.9 P(A)=\frac{2}{20*365},P(B)=\frac{3}{7},P(B|A)=0.9 P(A)=203652,P(B)=73,P(BA)=0.9
则 在 狗 叫 的 时 候 盗 贼 入 侵 的 概 率 为 : P ( A ∣ B ) = P ( B ∣ A ) P ( A ) P ( B ) = 0.9 ∗ 2 20 ∗ 365 3 7 = 0.00058 则在狗叫的时候盗贼入侵的概率为:P(A|B)=\frac{P(B|A)P(A)}{P(B)}=\frac{0.9*\frac{2}{20*365}}{\frac{3}{7}}=0.00058 P(AB)=P(B)P(BA)P(A)=730.9203652=0.00058

朴素贝叶斯

朴素:独立性假设,假设各个特征之间是独立不相关的。

朴素贝叶斯的好处:在特征较多且数据少的情况下,还能计算出我们想要的结果。

例题

有一个如下表格:

帅?性格好?身高?上进?嫁与否
不好不上进不嫁
不帅上进不嫁
上进
不帅上进
不好上进不嫁
不帅不好上进不嫁
不上进
不帅上进
上进
不帅不好上进
不上进不嫁
不上进不嫁

问题:如果一对男女朋友,男生的四个特点分别是不帅,性格不好,身高矮,不上进,判断女生是嫁还是不嫁?

根据贝叶斯公式有:
P ( 嫁 | 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) P(嫁|不帅、性格不好、身高矮、不上进) P()
= P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ∣ 嫁 ) P ( 嫁 ) P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) =\frac{P(不帅、性格不好、身高矮、不上进|嫁)P(嫁)}{P(不帅、性格不好、身高矮、不上进)} =P()P()P()
给 得 数 据 无 法 计 算 P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ∣ 嫁 ) 和 给得数据无法计算P(不帅、性格不好、身高矮、不上进|嫁)和 P()

P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) P(不帅、性格不好、身高矮、不上进) P()

这时朴素贝叶斯起到作用,由于朴素贝叶斯的独立性假设,假设各个特征之间是独立不相关的,所以上面的公式就可以转化为:
P ( 嫁 | 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) = P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ∣ 嫁 ) P ( 嫁 ) P ( 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) P(嫁|不帅、性格不好、身高矮、不上进)=\frac{P(不帅、性格不好、身高矮、不上进|嫁)P(嫁)}{P(不帅、性格不好、身高矮、不上进)} P()=P()P()P()

= P ( 不 帅 | 嫁 ) ∗ P ( 性 格 不 好 ∣ 嫁 ) ∗ P ( 身 高 矮 ∣ 嫁 ) ∗ P ( 不 上 进 ∣ 嫁 ) ∗ P ( 嫁 ) P ( 不 帅 ) ∗ P ( 性 格 不 好 ) ∗ P ( 身 高 矮 ) ∗ P ( 不 上 进 ) =\frac{P(不帅|嫁)*P(性格不好|嫁)*P(身高矮|嫁)*P(不上进|嫁)*P(嫁)}{P(不帅)*P(性格不好)*P(身高矮)*P(不上进)} =P()P()P()P()P()P()P()P()P()

= 3 6 ∗ 1 6 ∗ 1 6 ∗ 1 6 ∗ 6 12 5 12 ∗ 4 12 ∗ 7 12 ∗ 4 12 = 0.043 =\frac{ \frac{3}{6} * \frac{1}{6} * \frac{1}{6} * \frac{1}{6} *\frac{6}{12} }{\frac{5}{12} * \frac{4}{12} * \frac{7}{12} * \frac{4}{12} }=0.043 =12512412712463616161126=0.043
同理计算:
P ( 不 嫁 | 不 帅 、 性 格 不 好 、 身 高 矮 、 不 上 进 ) = 0.964 P(不嫁|不帅、性格不好、身高矮、不上进)=0.964 P()=0.964
明显P(不嫁|不帅、性格不好、身高矮、不上进) > P(嫁|不帅、性格不好、身高矮、不上进),可以判断为不嫁。

参考

https://blog.csdn.net/amds123/article/details/70173402

这篇关于Python 决策树与贝叶斯相关理论知识和例题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/930193

相关文章

Python的Darts库实现时间序列预测

《Python的Darts库实现时间序列预测》Darts一个集统计、机器学习与深度学习模型于一体的Python时间序列预测库,本文主要介绍了Python的Darts库实现时间序列预测,感兴趣的可以了解... 目录目录一、什么是 Darts?二、安装与基本配置安装 Darts导入基础模块三、时间序列数据结构与

Python正则表达式匹配和替换的操作指南

《Python正则表达式匹配和替换的操作指南》正则表达式是处理文本的强大工具,Python通过re模块提供了完整的正则表达式功能,本文将通过代码示例详细介绍Python中的正则匹配和替换操作,需要的朋... 目录基础语法导入re模块基本元字符常用匹配方法1. re.match() - 从字符串开头匹配2.

Python使用FastAPI实现大文件分片上传与断点续传功能

《Python使用FastAPI实现大文件分片上传与断点续传功能》大文件直传常遇到超时、网络抖动失败、失败后只能重传的问题,分片上传+断点续传可以把大文件拆成若干小块逐个上传,并在中断后从已完成分片继... 目录一、接口设计二、服务端实现(FastAPI)2.1 运行环境2.2 目录结构建议2.3 serv

通过Docker容器部署Python环境的全流程

《通过Docker容器部署Python环境的全流程》在现代化开发流程中,Docker因其轻量化、环境隔离和跨平台一致性的特性,已成为部署Python应用的标准工具,本文将详细演示如何通过Docker容... 目录引言一、docker与python的协同优势二、核心步骤详解三、进阶配置技巧四、生产环境最佳实践

Python一次性将指定版本所有包上传PyPI镜像解决方案

《Python一次性将指定版本所有包上传PyPI镜像解决方案》本文主要介绍了一个安全、完整、可离线部署的解决方案,用于一次性准备指定Python版本的所有包,然后导出到内网环境,感兴趣的小伙伴可以跟随... 目录为什么需要这个方案完整解决方案1. 项目目录结构2. 创建智能下载脚本3. 创建包清单生成脚本4

Python实现Excel批量样式修改器(附完整代码)

《Python实现Excel批量样式修改器(附完整代码)》这篇文章主要为大家详细介绍了如何使用Python实现一个Excel批量样式修改器,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一... 目录前言功能特性核心功能界面特性系统要求安装说明使用指南基本操作流程高级功能技术实现核心技术栈关键函

python获取指定名字的程序的文件路径的两种方法

《python获取指定名字的程序的文件路径的两种方法》本文主要介绍了python获取指定名字的程序的文件路径的两种方法,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要... 最近在做项目,需要用到给定一个程序名字就可以自动获取到这个程序在Windows系统下的绝对路径,以下

使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解

《使用Python批量将.ncm格式的音频文件转换为.mp3格式的实战详解》本文详细介绍了如何使用Python通过ncmdump工具批量将.ncm音频转换为.mp3的步骤,包括安装、配置ffmpeg环... 目录1. 前言2. 安装 ncmdump3. 实现 .ncm 转 .mp34. 执行过程5. 执行结

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、

Python中 try / except / else / finally 异常处理方法详解

《Python中try/except/else/finally异常处理方法详解》:本文主要介绍Python中try/except/else/finally异常处理方法的相关资料,涵... 目录1. 基本结构2. 各部分的作用tryexceptelsefinally3. 执行流程总结4. 常见用法(1)多个e