白手起家学习数据科学 ——Naive Bayes之“测试模型篇”(十)

2023-11-22 12:08

本文主要是介绍白手起家学习数据科学 ——Naive Bayes之“测试模型篇”(十),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

这有一个好的数据集 [ SpamAssassin public corpus ]。

我们使用前缀为20021010的文件(在Windows中你可能需要像7-Zip的软件用于解压它们)。

在抽取数据之后(例如,放到C:\spam中),你得到3个文件夹:spameasy_hamhard_ham,每个文件夹包含许多邮件,每个邮件包含在单独的文件中,为了让事情变得变得简单些,我们只考虑每个邮件的标题行。

那么,我们怎样识别标题行?浏览所有的文件,它们似乎所有都是以”Subject:”开始,所以我们会寻找这个:

import glob, re# modify the path with wherever you've put the files
path = r"C:\spam\*\*"data = []# glob.glob returns every filename that matches the wildcarded path
for fn in glob.glob(path):is_spam = "ham" not in fnwith open(fn,'r') as file:for line in file:if line.startswith("Subject:"):# remove the leading "Subject: " and keep what's leftsubject = re.sub(r"^Subject: ", "", line).strip()data.append((subject, is_spam))

现在我们能把数据分成训练集和测试集,然后我们准备建立分类器:

random.seed(0) # just so you get the same answers as me
train_data, test_data = split_data(data, 0.75)classifier = NaiveBayesClassifier()
classifier.train(train_data)

然后我们能检测模型的性能:

# triplets (subject, actual is_spam, predicted spam probability)
classified = [(subject, is_spam, classifier.classify(subject))for subject, is_spam in test_data]# assume that spam_probability > 0.5 corresponds to spam prediction
# and count the combinations of (actual is_spam, predicted is_spam)
counts = Counter((is_spam, spam_probability > 0.5)for _, is_spam, spam_probability in classified)

预测结果有101个 true positives(实际是spam,预测也为spam),33个 false positives(实际是nonspam,预测为spam),704 true negatives(实际是nonspam,预测为nonspam),38 false negatives(实际是spam,预测为nonspam)。这个意味着我们的精度(precision)是 101/(101+33)=75 ,我们的召回度(recall)是 101/(101+38)=73 ,对于这样一个简单的模型不算一个坏的数字。

同时也对大多数误检感兴趣:

# sort by spam_probability from smallest to largest
classified.sort(key=lambda row: row[2])# the highest predicted spam probabilities among the non-spams
spammiest_hams = filter(lambda row: not row[1], classified)[-5:]# the lowest predicted spam probabilities among the actual spams
hammiest_spams = filter(lambda row: row[1], classified)[:5]

有2个spammiest hams同时有单词”needed”(77 times likely to appear in spam),”insurance”(30 times more likely to appear in spam),以及”important”(10 times more likely to appear in spam)。

hammiest spam 是太短了而不能做出判断,第二个 hammiest 是一个信用卡询价,它的大多数单词没有出现在训练集中。

我们能看spammiest单词:

def p_spam_given_word(word_prob):"""uses bayes's theorem to compute p(spam | message contains word)"""# word_prob is one of the triplets produced by word_probabilitiesword, prob_if_spam, prob_if_not_spam = word_probreturn prob_if_spam / (prob_if_spam + prob_if_not_spam)
words = sorted(classifier.word_probs, key=p_spam_given_word)spammiest_words = words[-5:]
hammiest_words = words[:5]

spammiest单词是”money”、”systemworks”、”rates”、”sale”以及”year”,它们似乎涉及尝试让人们买东西。hammiest单词是”spambayes”、”users”、”razor”、”zzzteana”以及”sadev”,它们似乎涉及阻止垃圾邮件,足够的奇特。

我们怎样得到更好的性能?很显然的一个办法是得到更多的数据到训练模型上,也有许多方法改善模型,下面是一些可能的方法,你可以尝试一下:

  • 训练消息内容,而不只是题目行;
  • 我们的分类器考虑每个出现在训练集中的单词,甚至只出现一次。修改分类器,接受一个可选的min_count的阈值,忽略出现次数小于阈值的单词;
  • 分词器没有相似单词的概念(例如:”cheap”和”cheapest”)。修改分类器,添加一个可选的stemmer函数,把单词转换到等价层面上。例如,一个简单的stemmer函数可以是:
def drop_final_s(word):return re.sub("s$", "", word)

创建一个好的stemmer函数是难的,人们频繁的使用Porter Stemmer算法。
* 虽然我们的特征全部都是形如”包含单词 wi 的消息”,没有理由为什么就一定是这个样子的,在我们执行中,我们能添加额外的特征例如”包含一个数字的消息”。

下一章节中我们将介绍线性回归。

这篇关于白手起家学习数据科学 ——Naive Bayes之“测试模型篇”(十)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/410027

相关文章

Linux下利用select实现串口数据读取过程

《Linux下利用select实现串口数据读取过程》文章介绍Linux中使用select、poll或epoll实现串口数据读取,通过I/O多路复用机制在数据到达时触发读取,避免持续轮询,示例代码展示设... 目录示例代码(使用select实现)代码解释总结在 linux 系统里,我们可以借助 select、

C#使用iText获取PDF的trailer数据的代码示例

《C#使用iText获取PDF的trailer数据的代码示例》开发程序debug的时候,看到了PDF有个trailer数据,挺有意思,于是考虑用代码把它读出来,那么就用到我们常用的iText框架了,所... 目录引言iText 核心概念C# 代码示例步骤 1: 确保已安装 iText步骤 2: C# 代码程

Pandas处理缺失数据的方式汇总

《Pandas处理缺失数据的方式汇总》许多教程中的数据与现实世界中的数据有很大不同,现实世界中的数据很少是干净且同质的,本文我们将讨论处理缺失数据的一些常规注意事项,了解Pandas如何表示缺失数据,... 目录缺失数据约定的权衡Pandas 中的缺失数据None 作为哨兵值NaN:缺失的数值数据Panda

C++中处理文本数据char与string的终极对比指南

《C++中处理文本数据char与string的终极对比指南》在C++编程中char和string是两种用于处理字符数据的类型,但它们在使用方式和功能上有显著的不同,:本文主要介绍C++中处理文本数... 目录1. 基本定义与本质2. 内存管理3. 操作与功能4. 性能特点5. 使用场景6. 相互转换核心区别

Linux五种IO模型的使用解读

《Linux五种IO模型的使用解读》文章系统解析了Linux的五种IO模型(阻塞、非阻塞、IO复用、信号驱动、异步),重点区分同步与异步IO的本质差异,强调同步由用户发起,异步由内核触发,通过对比各模... 目录1.IO模型简介2.五种IO模型2.1 IO模型分析方法2.2 阻塞IO2.3 非阻塞IO2.4

python库pydantic数据验证和设置管理库的用途

《python库pydantic数据验证和设置管理库的用途》pydantic是一个用于数据验证和设置管理的Python库,它主要利用Python类型注解来定义数据模型的结构和验证规则,本文给大家介绍p... 目录主要特点和用途:Field数值验证参数总结pydantic 是一个让你能够 confidentl

JAVA实现亿级千万级数据顺序导出的示例代码

《JAVA实现亿级千万级数据顺序导出的示例代码》本文主要介绍了JAVA实现亿级千万级数据顺序导出的示例代码,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面... 前提:主要考虑控制内存占用空间,避免出现同时导出,导致主程序OOM问题。实现思路:A.启用线程池

SpringBoot分段处理List集合多线程批量插入数据方式

《SpringBoot分段处理List集合多线程批量插入数据方式》文章介绍如何处理大数据量List批量插入数据库的优化方案:通过拆分List并分配独立线程处理,结合Spring线程池与异步方法提升效率... 目录项目场景解决方案1.实体类2.Mapper3.spring容器注入线程池bejsan对象4.创建

PHP轻松处理千万行数据的方法详解

《PHP轻松处理千万行数据的方法详解》说到处理大数据集,PHP通常不是第一个想到的语言,但如果你曾经需要处理数百万行数据而不让服务器崩溃或内存耗尽,你就会知道PHP用对了工具有多强大,下面小编就... 目录问题的本质php 中的数据流处理:为什么必不可少生成器:内存高效的迭代方式流量控制:避免系统过载一次性

C#实现千万数据秒级导入的代码

《C#实现千万数据秒级导入的代码》在实际开发中excel导入很常见,现代社会中很容易遇到大数据处理业务,所以本文我就给大家分享一下千万数据秒级导入怎么实现,文中有详细的代码示例供大家参考,需要的朋友可... 目录前言一、数据存储二、处理逻辑优化前代码处理逻辑优化后的代码总结前言在实际开发中excel导入很