数据挖掘与分析 个别选择题ID3Apriori算法

2024-06-23 23:12

本文主要是介绍数据挖掘与分析 个别选择题ID3Apriori算法,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

选择题

1.当不知道数据所带标签时,可以使用哪种技术促使带同类标签的数据与带其他标签的数据相分离?(聚类)

2.关于K-means算法,正确的描述是:初始值不同,最终结果可能不同

3.K-means算法中的初始中心点:直接影响算法的收敛结果

4.处理缺失值的方法包括:不处理、删除记录、插补法

5.神经网络的缺点包括:需要大量的参数,如网络拓扑结构权值和阈值的初始值等;输出的结果难以解释

6.BP神经网络的缺点是:学习过程不收敛慢;得到的网络性能差;BP算法不完备,网络学习率稳定性差。

7.数据规约的目的是:得到数据集的压缩表示

8.请选出以下关于数据规约的两种形式--属性规约和数值规约说法中错误的是:箱型图常用来实现数据规约

ID3算法

想象一下,你是一位侦探,正在解决一个神秘案件,要找出谁偷吃了厨房里的饼干。你面前有一群小动物嫌疑人,比如小狗、小猫、小兔子等,它们都有自己的特征,比如体型大小、是否喜欢甜食、是不是经常进厨房等。

ID3算法就像是你用来一步步缩小嫌疑范围,最终找到“罪犯”的方法。我们用信息熵这个概念来衡量混乱程度,就像案件开始时,因为不知道是谁干的,信息很混乱。信息熵越高,意味着不确定性越大。

第一步:收集线索(特征选择) 首先,你需要看哪些线索最有用。比如,你发现体型大的动物进厨房比较困难,这是一个很有用的线索,因为它能大大减少嫌疑对象。在ID3算法中,这就相当于计算每个特征(比如动物体型)对减少不确定性(降低信息熵)的贡献有多大,这个贡献度叫做“信息增益”。信息增益最大的特征,就是你首先要检查的线索。

第二步:根据线索分组(划分数据集) 有了最重要的线索后,你就根据这个线索来分组嫌疑人。比如,把动物们按照体型大小分成两组,一组是大动物,另一组是小动物。这样,原本混在一起的信息就变得清晰一些了。

第三步:深入调查(递归构建) 对每一组,你继续用同样的方法找下一个最好的线索来进一步缩小范围,直到最后每组只剩下一个最可能的“嫌疑人”,或者线索用完了。

第四步:做出结论(生成决策) 当所有线索都用完,或者某组里的动物特征非常明显指向同一个答案时,你就做出了决定,找到了最有可能的“饼干小偷”。

Apriori算法

1. 确定支持度(Support)

首先,我们要设定一个支持度阈值,这个阈值决定了什么样的商品组合算是“频繁出现”的。比如,如果支持度阈值设为20%,就意味着只有那些在至少20%的购物篮中同时出现的商品组合才被认为是频繁项集。

2. 寻找频繁项集(Frequent Itemsets)

第一步:创建1项集候选项
  • 我们从所有单独商品(1项集)开始,统计每个商品在所有购物篮中出现的次数。
  • 只保留那些出现次数达到或超过支持度阈值的商品,这些就是我们的初次频繁项集。
第二步:生成候选项集
  • 基于已有的频繁项集,生成更大的候选项集。比如,如果{啤酒}和{薯片}都是频繁项集,我们就尝试将它们组合成{啤酒, 薯片}作为新的候选项。
  • 但是,Apriori算法有个聪明的剪枝策略,它只考虑那些子集已经是频繁项集的组合。也就是说,如果{啤酒}和{薯片}单独都是频繁的,那么才考虑{啤酒, 薯片}。这减少了大量不必要的计算。
第三步:计数并筛选
  • 继续统计这些新候选项集在所有购物篮中的出现次数。
  • 只有支持度足够的组合才会成为新的频繁项集。
第四步:重复直到不再有新项集
  • 这个过程会一直重复,每次增加一个商品到组合中,直到无法生成新的频繁项集为止。

3. 生成关联规则并计算置信度(Confidence)

  • 对于每一个频繁项集,我们尝试从中移除一到多个商品来生成规则。比如,对于{啤酒, 薯片},我们可以生成规则:“如果买了啤酒,那么也会买薯片”。
  • 置信度是规则强度的一种度量,计算公式是:置信度 = (支持度(啤酒, 薯片) / 支持度(啤酒))。它告诉我们,一旦啤酒被购买,购买薯片的概率是多少。
  • 通常,我们还会设定一个置信度阈值,只有超过这个阈值的规则才会被视为有价值的关联规则。

这篇关于数据挖掘与分析 个别选择题ID3Apriori算法的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1088547

相关文章

Android 缓存日志Logcat导出与分析最佳实践

《Android缓存日志Logcat导出与分析最佳实践》本文全面介绍AndroidLogcat缓存日志的导出与分析方法,涵盖按进程、缓冲区类型及日志级别过滤,自动化工具使用,常见问题解决方案和最佳实... 目录android 缓存日志(Logcat)导出与分析全攻略为什么要导出缓存日志?按需过滤导出1. 按

Linux中的HTTPS协议原理分析

《Linux中的HTTPS协议原理分析》文章解释了HTTPS的必要性:HTTP明文传输易被篡改和劫持,HTTPS通过非对称加密协商对称密钥、CA证书认证和混合加密机制,有效防范中间人攻击,保障通信安全... 目录一、什么是加密和解密?二、为什么需要加密?三、常见的加密方式3.1 对称加密3.2非对称加密四、

MySQL中读写分离方案对比分析与选型建议

《MySQL中读写分离方案对比分析与选型建议》MySQL读写分离是提升数据库可用性和性能的常见手段,本文将围绕现实生产环境中常见的几种读写分离模式进行系统对比,希望对大家有所帮助... 目录一、问题背景介绍二、多种解决方案对比2.1 原生mysql主从复制2.2 Proxy层中间件:ProxySQL2.3

python使用Akshare与Streamlit实现股票估值分析教程(图文代码)

《python使用Akshare与Streamlit实现股票估值分析教程(图文代码)》入职测试中的一道题,要求:从Akshare下载某一个股票近十年的财务报表包括,资产负债表,利润表,现金流量表,保存... 目录一、前言二、核心知识点梳理1、Akshare数据获取2、Pandas数据处理3、Matplotl

python panda库从基础到高级操作分析

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据... 目录1. Pandas 概述2. 基本操作:数据读取与查看3. 索引操作:精准定位数据4. Group

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

MySQL 内存使用率常用分析语句

《MySQL内存使用率常用分析语句》用户整理了MySQL内存占用过高的分析方法,涵盖操作系统层确认及数据库层bufferpool、内存模块差值、线程状态、performance_schema性能数据... 目录一、 OS层二、 DB层1. 全局情况2. 内存占js用详情最近连续遇到mysql内存占用过高导致

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

Olingo分析和实践之EDM 辅助序列化器详解(最佳实践)

《Olingo分析和实践之EDM辅助序列化器详解(最佳实践)》EDM辅助序列化器是ApacheOlingoOData框架中无需完整EDM模型的智能序列化工具,通过运行时类型推断实现灵活数据转换,适用... 目录概念与定义什么是 EDM 辅助序列化器?核心概念设计目标核心特点1. EDM 信息可选2. 智能类

Olingo分析和实践之OData框架核心组件初始化(关键步骤)

《Olingo分析和实践之OData框架核心组件初始化(关键步骤)》ODataSpringBootService通过初始化OData实例和服务元数据,构建框架核心能力与数据模型结构,实现序列化、URI... 目录概述第一步:OData实例创建1.1 OData.newInstance() 详细分析1.1.1