西电数据挖掘实验三 关联规则挖掘 投票记录

2023-11-04 03:20

本文主要是介绍西电数据挖掘实验三 关联规则挖掘 投票记录,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1.实验内容

1、数据来源

http://archive.ics.uci.edu/ml/datasets/Congressional+Voting+Records

2、使用Apriori算法,支持度设为30%,置信度为90%,挖掘高置信度的规则。

2.实验结果

频繁项集输出(条件):支持度计数

规则输出({条件}{结论}置信度)

因gh党支持规则太多这里只截取部分

则可以得到高置信度的规则

比如基于mz党反对态度的高置信度规则有

{4, 6}, {12}, 0.9172932330827067

{12, 6}, {4}, 0.991869918699187

即如果mz党派人士对于4,6议题反对,那么也有极大可能反对12议题

如果mz党派人士对于12,6议题反对,那么也有极大可能反对4议题

3.实验代码

# -*- coding: utf-8 -*-
import pandas as pd
import numpy as npdef readData():data = pd.read_csv('house-votes-84.data', header=None)data = np.array(data)return datadef preProcessing(data, vote_y_n):'''数据预处理以按 y 或 n 寻找关联规则'''data_pre = []for data_line in data:tmp_data = []for i in range(1, len(data_line)):# 从第二列开始,将数据文件中的记录与当前的选择vote_y_n进行比较,若找到了相关记录,把下标存进去if (data_line[i] == vote_y_n):tmp_data.append(i)if (tmp_data == []):continue  # 如果当前这一条记录中没有任何一个项是vote_y_n对应的选项,那么不存储空列表,直接进行下一个记录的查找data_pre.append(tmp_data)return data_predef ppreProcessing(data, vote_y_n, party):'''数据预处理以按 y 或 n 和议员所属党派来寻找关联规则'''data_pre = []for data_line in data:tmp_data = []if data_line[0] == party:for i in range(1, len(data_line)):# 从第二列开始,将数据文件中的记录与当前的选择vote_y_n进行比较,若找到了相关记录,把下标存进去if (data_line[i] == vote_y_n):tmp_data.append(i)if (tmp_data == []):continue  # 如果当前这一条记录中没有任何一个项是vote_y_n或者这条记录不是对应party的议员对应的选项,那么不存储空列表,直接进行下一个记录的查找data_pre.append(tmp_data)return data_predef rule_mining(data, support, confidence):'''挖掘关联规则'''dic_1 = mining_first(data, support, confidence)# print(dic_1)dic_2 = mining_second(data, dic_1, support, confidence)# print(dic_2)dic_before = dic_2dic_r = []dic_r.append(dic_1)# 频繁项集产生的终止条件就是不再有新的频繁项集产生为止while (dic_before != {}):# dict_r里面存储的是频繁2-项集及之后的所有频繁项集dic_r.append(dic_before)dic_3 = mining_third(data, dic_before, support, confidence)dic_before = dic_3return dic_rpassdef mining_first(data, support, confidence):'''进行第一次挖掘挖掘候选1-项集'''dic = {}count = len(data)for data_line in data:# 对于数据集中的每一行投票数据for data_item in data_line:# 对于每一行数据中的下标(对应某个议题)if (data_item in dic):# 以键值对的形式进行存储和计数dic[data_item] += 1else:dic[data_item] = 1assert (support >= 0) and (support <= 1), 'suport must be in 0-1'# 依靠给定的支持度阈值和投票数据的总数的得到满足条件的最小支持度值val_suport = int(count * support)assert (confidence >= 0) and (confidence <= 1), 'coincidence must be in 0-1'# 如果键值对中的值大于或等于当前支持度阈值,则可以将该键值对作为频繁1-项集保留dic_1 = {}for item in dic:  # 如果对每一个议题的所选定的(y|n)进行计数,若计数总值超过了支持度所需要的计数,就把它放到下一个字典中if (dic[item] >= val_suport):dic_1[item] = dic[item]return dic_1def mining_second(data, dic_before, support, confidence):'''进行关联规则的二次挖掘挖掘出候选2-项集注:所有挖掘出来的频繁项集都是以字典的形式存储的,字典的键是频繁项集,1频繁项集用1-16个整数,表示这些议题在原数据集中的下标;多频繁集就是这些下标的一个元组隐藏含义是这些议题共同被投票为vote_y_n,字典的值就是这样的组合出现的次数'''# 每一次扩展频繁项集的时候产生一个临时dict用于保存那些通过频繁项集生成算法可以留下的项集# 但是还要对其中的结果进行支持度判断,才能确定最终留下的算法dic = {}count = len(data)count2 = 0# frq_temp={}for data_line in data:# 获取元素数量count_item = len(data_line)# 每两个组合计数for i in range(0, count_item - 1):# 外层循环,控制频繁2-项集中的第一个元素的取值for j in range(i + 1, count_item):# 内层循环,控制频繁2-项集中的第二个元素的取值if (data_line[i] in dic_before and data_line[j] in dic_before):count2 += 1tmp = (data_line[i], data_line[j])# frq_temp[tmp]=0if (tmp in dic):# 上同,使用键值对集合计数,只不过此时元素是二元的元组dic[tmp] += 1else:dic[tmp] = 1else:continue# 当两个项中有一个不是频繁1-项集,根据剪枝策略,这样组成的项不是频繁2-项集# print(dic)assert (support >= 0) and (support <= 1), 'suport must be in 0-1'assert (confidence >= 0) and (confidence <= 1), 'confidence must be in 0-1'dic_2 = {}# for item in dic:#    for data_line in data:#        tmp=item#        tmp1=data_line#        if(set(tmp).issubset(set(tmp1))):#            frq_temp[item]+=1for item in dic:count_item0 = dic_before[item[0]]count_item1 = dic_before[item[1]]# 判断 支持度 和 置信度# 判断置信度的时候对于一个无序的元组,任何一种方向的规则都有可能,都要进行比较if (dic[item] >= support * count):# and#    (dic[item] >= confidence *frq_temp[item])):dic_2[item] = dic[item]return dic_2def mining_third(data, dic_before, support, confidence):'''进行关联规则的三次挖掘挖掘出候选3-项集或者4-项集乃至n-项集'''# 频繁项集的产生使用Fk-1*Fk-1的策略frq_temp = {}dic_3 = {}for item0 in dic_before:# 外层循环控制频繁k-1项集中的某一项for item1 in dic_before:# 内层循环控制频繁k-1项集中的另一项if (item0 != item1):# print(item0,item1)item_len = len(item0)equal = Truetmp_item3 = []# 判断前n-1项是否一致for i in range(item_len - 1):tmp_item3.append(item0[i])if (item0[i] != item1[i]):equal = Falsebreakif (equal == True):# 如果两个Fk-1项具有k-2个公共前缀,那么就按照顺序,将其组合起来minitem = min(item0[-1], item1[-1])maxitem = max(item0[-1], item1[-1])tmp_item3.append(minitem)tmp_item3.append(maxitem)tmp_item3 = tuple(tmp_item3)frq_temp[tmp_item3] = 0dic_3[tmp_item3] = 0else:continue# print('dic_3:',dic_3)# 暴力统计支持度的方法,对于每一个数据项,看每个新找到的k项集是否包含在数据项中# 比较的方法,是对项的每一位进行判断,看这一位是否在数据项中for data_line in data:for item in dic_3:is_in = Truefor i in range(len(item)):if (item[i] not in data_line):is_in = False# 该候选k项集中的所有项都在数据项中,则可以将该项保留if (is_in == True):dic_3[item] += 1assert (support >= 0) and (support <= 1), 'suport must be in 0-1'assert (confidence >= 0) and (confidence <= 1), 'coincidence must be in 0-1'count = len(data)dic_3n = {}for item in dic_3:# 前一项的支持度计数,就是现在的项除去末尾的数字,通过键值对在原来的字典中查询的值count_item0 = dic_before[item[:-1]]# 判断 支持度 和 置信度if (dic_3[item] >= support * count):# and (dic_3[item] >= confidence * count_item0)):dic_3n[item] = dic_3[item]return dic_3ndef association_rules(freq_sets, min_conf):'''根据产生的频繁项集生成满足置信度要求的规则:param dict: 频繁项集的字典:param dict: 频繁项集字典中的频繁项集列表:param min_conf: 最小置信度:return: 规则列表'''rules = []max_len = len(freq_sets)for k in range(max_len - 1):for freq_set in freq_sets[k]:for i in range(k + 1, max_len):for sub_set in freq_sets[i]:if isinstance(freq_set, int):if freq_set in sub_set:conf = freq_sets[i][sub_set] / freq_sets[k][freq_set]b = list(sub_set)b.remove(freq_set)b = set(b)a = set()a.add(freq_set)rule = (a, b, conf)if conf >= min_conf:rules.append(rule)elif set(freq_set).issubset(set(sub_set)):conf = freq_sets[i][sub_set] / freq_sets[k][freq_set]rule = (set(freq_set), set(sub_set) - set(freq_set), conf)if conf >= min_conf:rules.append(rule)return rulesif (__name__ == '__main__'):data_row = readData()data_y = preProcessing(data_row, 'y')data_n = preProcessing(data_row, 'n')data_y_republican = ppreProcessing(data_row, 'y', 'republican')data_y_democrat = ppreProcessing(data_row, 'y', 'democrat')data_n_republican = ppreProcessing(data_row, 'n', 'republican')data_n_democrat = ppreProcessing(data_row, 'n', 'democrat')# 支持度support = 0.3# 置信度confidence = 0.9# 总的y规则与两个党派的y规则r_y = rule_mining(data_y, support, confidence)print('基于支持态度的全部频繁项集:\n', r_y)rule_y = association_rules(r_y, confidence)print('基于支持态度的规则:\n', rule_y)r_y_republican = rule_mining(data_y_republican, support, confidence)print('基于gh党支持态度的频繁项集:\n', r_y_republican)rule_y_republican = association_rules(r_y_republican, confidence)print('基于gh党支持态度的规则数:\n', len(rule_y_republican))print('基于gh党支持态度的规则:\n', rule_y_republican)r_y_democrat = rule_mining(data_y_democrat, support, confidence)print('基于mz党支持态度的频繁项集:\n', r_y_democrat)rule_y_democrat = association_rules(r_y_democrat, confidence)print('基于mz党支持态度的规则数:\n', len(rule_y_democrat))print('基于mz党支持态度的规则:\n', rule_y_democrat)# 总的n规则与两个党派的n规则r_n = rule_mining(data_n, support, confidence)print('基于反对态度的全部频繁项集:\n', r_n)rule_n = association_rules(r_n, confidence)print('基于反对态度的规则:\n', rule_n)r_n_republican = rule_mining(data_n_republican, support, confidence)print('基于gh党反对态度的频繁项集:\n', r_n_republican)rule_n_republican = association_rules(r_n_republican, confidence)print('基于gh党反对态度的规则数:\n', len(rule_n_republican))print('基于gh党反对态度的规则:\n', rule_n_republican)r_n_democrat = rule_mining(data_n_democrat, support, confidence)print('基于mz党反对态度的频繁项集和规则:\n', r_n_democrat)rule_n_democrat = association_rules(r_n_democrat, confidence)print('基于mz党反对态度的规则数:\n', len(rule_n_democrat))print('基于mz党反对态度的规则:\n', rule_n_democrat)

这篇关于西电数据挖掘实验三 关联规则挖掘 投票记录的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/342858

相关文章

Nginx location匹配模式与规则详解

《Nginxlocation匹配模式与规则详解》:本文主要介绍Nginxlocation匹配模式与规则,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录一、环境二、匹配模式1. 精准模式2. 前缀模式(不继续匹配正则)3. 前缀模式(继续匹配正则)4. 正则模式(大

Java使用SLF4J记录不同级别日志的示例详解

《Java使用SLF4J记录不同级别日志的示例详解》SLF4J是一个简单的日志门面,它允许在运行时选择不同的日志实现,这篇文章主要为大家详细介绍了如何使用SLF4J记录不同级别日志,感兴趣的可以了解下... 目录一、SLF4J简介二、添加依赖三、配置Logback四、记录不同级别的日志五、总结一、SLF4J

在Spring Boot中浅尝内存泄漏的实战记录

《在SpringBoot中浅尝内存泄漏的实战记录》本文给大家分享在SpringBoot中浅尝内存泄漏的实战记录,结合实例代码给大家介绍的非常详细,感兴趣的朋友一起看看吧... 目录使用静态集合持有对象引用,阻止GC回收关键点:可执行代码:验证:1,运行程序(启动时添加JVM参数限制堆大小):2,访问 htt

SQL表间关联查询实例详解

《SQL表间关联查询实例详解》本文主要讲解SQL语句中常用的表间关联查询方式,包括:左连接(leftjoin)、右连接(rightjoin)、全连接(fulljoin)、内连接(innerjoin)、... 目录简介样例准备左外连接右外连接全外连接内连接交叉连接自然连接简介本文主要讲解SQL语句中常用的表

MySQL 中查询 VARCHAR 类型 JSON 数据的问题记录

《MySQL中查询VARCHAR类型JSON数据的问题记录》在数据库设计中,有时我们会将JSON数据存储在VARCHAR或TEXT类型字段中,本文将详细介绍如何在MySQL中有效查询存储为V... 目录一、问题背景二、mysql jsON 函数2.1 常用 JSON 函数三、查询示例3.1 基本查询3.2

如何高效移除C++关联容器中的元素

《如何高效移除C++关联容器中的元素》关联容器和顺序容器有着很大不同,关联容器中的元素是按照关键字来保存和访问的,而顺序容器中的元素是按它们在容器中的位置来顺序保存和访问的,本文介绍了如何高效移除C+... 目录一、简介二、移除给定位置的元素三、移除与特定键值等价的元素四、移除满足特android定条件的元

详解nginx 中location和 proxy_pass的匹配规则

《详解nginx中location和proxy_pass的匹配规则》location是Nginx中用来匹配客户端请求URI的指令,决定如何处理特定路径的请求,它定义了请求的路由规则,后续的配置(如... 目录location 的作用语法示例:location /www.chinasem.cntestproxy

Python获取中国节假日数据记录入JSON文件

《Python获取中国节假日数据记录入JSON文件》项目系统内置的日历应用为了提升用户体验,特别设置了在调休日期显示“休”的UI图标功能,那么问题是这些调休数据从哪里来呢?我尝试一种更为智能的方法:P... 目录节假日数据获取存入jsON文件节假日数据读取封装完整代码项目系统内置的日历应用为了提升用户体验,

Spring Boot 配置文件之类型、加载顺序与最佳实践记录

《SpringBoot配置文件之类型、加载顺序与最佳实践记录》SpringBoot的配置文件是灵活且强大的工具,通过合理的配置管理,可以让应用开发和部署更加高效,无论是简单的属性配置,还是复杂... 目录Spring Boot 配置文件详解一、Spring Boot 配置文件类型1.1 applicatio

MySQL INSERT语句实现当记录不存在时插入的几种方法

《MySQLINSERT语句实现当记录不存在时插入的几种方法》MySQL的INSERT语句是用于向数据库表中插入新记录的关键命令,下面:本文主要介绍MySQLINSERT语句实现当记录不存在时... 目录使用 INSERT IGNORE使用 ON DUPLICATE KEY UPDATE使用 REPLACE