关于数据科学,书上不曾提及的三点经验

2024-02-02 15:18

本文主要是介绍关于数据科学,书上不曾提及的三点经验,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!



关于数据科学,书上不曾提及的三点经验

发表于 2015-09-10 23:33| 445次阅读| 来源 Mikio L. Braun Blog| 0 条评论| 作者 Mikio L. Braun
大数据 分布式计算 机器学习 深度学习 特征提取
width="22" height="16" src="http://hits.sinajs.cn/A1/weiboshare.html?url=http%3A%2F%2Fwww.csdn.net%2Farticle%2F2015-09-10%2F2825668&type=3&count=&appkey=&title=%E5%85%B3%E4%BA%8E%E6%95%B0%E6%8D%AE%E7%A7%91%E5%AD%A6%EF%BC%8C%E4%B9%A6%E4%B8%8A%E5%BE%88%E5%B0%91%E6%8F%90%E5%8F%8A%E7%9A%84%E4%B8%89%E7%82%B9%E7%BB%8F%E9%AA%8C%EF%BC%9A%E6%A8%A1%E5%9E%8B%E8%AF%84%E4%BB%B7%E6%96%B9%E6%B3%95%E6%98%AF%E5%85%B3%E9%94%AE%EF%BC%8C%E7%89%B9%E5%BE%81%E6%8F%90%E5%8F%96%E6%98%AF%E6%A0%B9%E6%9C%AC%EF%BC%8C%E6%A8%A1%E5%9E%8B%E9%80%89%E6%8B%A9%E8%80%8C%E9%9D%9E%E6%95%B0%E6%8D%AE%E9%9B%86%E8%A7%84%E6%A8%A1%E6%9C%80%E8%B4%B9%E6%97%B6%E9%97%B4%E3%80%82&pic=&ralateUid=&language=zh_cn&rnd=1442237263156" frameborder="0" scrolling="no" allowtransparency="true"> 摘要:关于数据科学,书上很少提及的三点经验:模型评价方法是关键,特征提取是根本,模型选择而非数据集规模最费时间。

【编者按】本文作者指出了关于数据科学书上很少提及的三点经验:模型评价方法是关键,特征提取是根本,模型选择而非数据集规模最费时间。文章指出,处理上万维的特征和几十万的样本的现代算法是愚蠢的,而特征工程理论还不完善,更像是一门艺术。

这是数据科学大行其道的时代。各类课程、博客、培训学校如雨后春笋般出现。然而,每次我浏览这些学习资料时,我发现它们过于强调一些具体的算法。理解逻辑回归或者深度学习的原理当然很酷,可是一旦从事数据相关工作,你会发现还有其它一些同样重要的事情,甚至更为重要的。

我真不应该去责备这些课程。我在大学任教机器学习课程很多年了,课堂上主要是讲解具体算法。你掌握了支持向量机(SVM)、高斯混合模型(GMM)、k均值(k-Means)聚类等算法的细枝末节,但是直到写硕士论文的时候才学会如何正确地处理数据。

那么何谓正确?最终结果难道不能验证处理方法吗?得到出色的预测效果是否意味着一切顺利呢?显然没错,但关键是确保算法在未来数据上仍旧得到出色的效果。我在别处也写过,如果仅凭着训练数据的表现就轻信自己的算法,实在是太自欺欺人了。

那么下面是我的三个主要见解,其它书本里很少提及。

1、评价方法是关键

数据分析/机器学习/数据科学(或者无论你如何称呼它)的主要目标就是搭建一套系统并且将来在测试数据上效果好。监督式学习(例如分类)和非监督式学习(例如聚类)的差异导致很难笼统地解释它,但无非都是你收集一个数据集合,在其之上搭建系统和设计算法。但最终你需要将这种算法应用于未来的数据,同时希望确保在新数据上的表现和在原始数据集上的表现几乎一样好。

初学者常犯的错误就是仅仅关注手头数据集上的表现效果,然后认为在未来数据上同样奏效。不幸的是这种情况非常稀罕。我们暂且以监督式学习为例,它的目标是根据你的输入预测输出结果,比如把邮件分为垃圾邮件和正常邮件两类。

如果你只考虑训练集数据,那么机器很容易记住整个训练集,然后返回完美的测试结果(除非数据自相矛盾)。事实上,对人来说这种情况也很正常。还记得你在学外语背单词的时候,总是把单词顺序打乱来测试吗?因为否则大脑就会凭着之前单词的顺序来回忆。

机器凭借它们存储和读取大量数据的强大能力,轻而易举地完成同类的任务。这就造成过拟合现象,还缺乏泛化能力。

因此合适的评价方法是模拟有未来数据的场景,把数据集一分为二,一部分做训练集,然后在另一部分测试集数据上做预测。通常,训练集被分得大一些,这个过程也会重复很多遍以得到一系列测试结果,来观察算法的稳定性。这整个过程就称为交叉验证。


为了模拟在未来数据上的性能,,你需要把现有的数据一分为二,一份用来训练模型,另一份仅用于模型评估。

然而,差错还是会时常发生,尤其当数据集是非静态的,也就是说,数据的分布随着时间而发生变化。现实世界的数据往往如此。一月份的销售图表和六月份的看上去会迥然不同。

或者数据点之间相关性很高,就是说若你知道一个数据点,那另一个样本数据的信息也八九不离十了。打个比方,拿股票价格来说,天与天的波动并不剧烈,那么以天为单位随机切分训练/测试数据集会导致训练集和测试集的数据高度相关。

上述情况一旦发生了,你就会得到过度优化的结果,而这个算法在真实测试数据上的表现并不尽如人意。在最坏的情况下,你费尽精力说服别人采用你的算法,而算法却失效了,因此学会正确地评估模型是关键!

2、特征提取是根本

学习一种新算法令人激动,可事实上大多数复杂算法的效果大同小异,真正造成差异的是原始数据如何转化为用以学习的特征这个步骤。

现代学习算法十分强大,处理上万维的特征和几十万的样本都是小菜一碟,然而事实却是这些算法最后来看都是愚蠢的。尤其是那些学习线性模型的算法(如逻辑回归,线性支持向量机)简直和计算器一般简陋。

它们从足够的数据样本里鉴别出有效信息的本领很强大,但如果有效信息并不被包含其中,或者不能用输入特征的线性组合所表示,它们就没有了用武之地。它们本身也无法通过“洞察”数据来完成数据精简这一环节。

换句话说,如果找到合适的特征,数据量就能被大大缩减。理想情况下,如果把所有特征缩减到只剩下你想预测的方程,那就没什么可学习的了,对吧?这就是特征提取的强大之处!

需要提醒两点:首先,你必须确保完全理解这些等价算法中的一种,然后就可以一直用下去了。因此你并不真的需要逻辑回归加上线性SVM,选一种就够了。这还包括明白哪些算法几乎是等价的,使用这些模型的关键点在哪里。深度学习有些区别,但是各种线性模型的表达能力几乎一样。尽管,训练时间、解的稀疏性等会有差别,但大多数情况下它们的预测能力是相近的。

其次,你必须完全掌握特征工程。不幸的是,这更像是一门艺术,而且因为理论不完善书本里很少提及。特征值归一化是一条捷径。有时候,特征值需要取对数计算。若是能够降低一部分自由度,也就是说去掉数据中对预测结果没影响的那部分变量,你所需要训练的数据量将会大大降低。

有时候这些转换很容易被发现。例如,如果你要做手写字符识别,只要有前景和背景的区分,那么字符的颜色对识别显然是不重要的。

我知道课本总是推销一些看起来很强大的算法,似乎只要你把数据扔给它们就万事大吉了。从理论观点和无穷的数据来源角度来说,这也许是正确的。但现实中,数据和我们的时间是有限的,寻找高信息量的特征绝对是至关重要的。

3、时间瓶颈模型选择,而非数据集规模

这是个在大数据时代你不愿大肆提及的事物,可是大多数数据集都能被完全加载到主存里。你的算法同样可能也不需要消耗太多时间计算。但你需要花费大量时间从原始数据中提取特征,通过交叉验证来比较不同特征提取方法和不同算法参数的效果差异。


在选择模型时,你尝试无数次各种参数的组合,并在相同的数据集上评价效果差异。

问题归根结底在于组合项的爆发式增长。假设现在只有两个参数,并且训练模型和在测试集上评价效果(按照上述正确的评价方式)需要大约一分钟时间。如果每个参数有5个候选值,采取5折交叉验证(把数据集分成5份,重复训练测试过程5次,每次用不同的一份数据作为测试集),这意味着你需要125轮计算来确定哪种算法效果最好,你的等待时间也将是大约2小时而不是1分钟。

一个好消息是上述过程很容易并行化,因为每轮计算都是相互独立的。特征提取也是如此,通常也是对每个数据集独立地进行相同操作(解析、提取、转换等),导致了所谓的“密集并行”(没错,这是个专业术语)。

一个坏消息主要针对大数据而言,因为所有的这些意味着对大规模实现复杂算法的需求很少,然而多数情况下目前用非分布式算法并行计算内存中的数据已经很有帮助了。

当然,也存在一些应用,比如针对广告优化的TB级日志的全局模型和百万用户级推荐系统,但常规的使用案例都是这里罗列的那些类型。

最后,拥有大量数据也不意味着你真的需要这么多。关键在于学习过程的复杂度。如果问题用简单的模型可以解决,就不要用过多的数据来训练模型参数。那样的话,随机抽样数据集的一部分就足够用了。另外如我在上文中提到的那样,有时候准确的特征表达也能大幅度削减需要的数据量。

总结

总之,知道如何正确评价结果能降低算法在未来测试数据上失败的风险。特征提取准确也许是提升效果的最佳途径,最后,大数据并不总是需要,尽管分布式计算能帮助减少训练时间。

这篇关于关于数据科学,书上不曾提及的三点经验的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/671129

相关文章

C#监听txt文档获取新数据方式

《C#监听txt文档获取新数据方式》文章介绍通过监听txt文件获取最新数据,并实现开机自启动、禁用窗口关闭按钮、阻止Ctrl+C中断及防止程序退出等功能,代码整合于主函数中,供参考学习... 目录前言一、监听txt文档增加数据二、其他功能1. 设置开机自启动2. 禁止控制台窗口关闭按钮3. 阻止Ctrl +

java如何实现高并发场景下三级缓存的数据一致性

《java如何实现高并发场景下三级缓存的数据一致性》这篇文章主要为大家详细介绍了java如何实现高并发场景下三级缓存的数据一致性,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 下面代码是一个使用Java和Redisson实现的三级缓存服务,主要功能包括:1.缓存结构:本地缓存:使

在MySQL中实现冷热数据分离的方法及使用场景底层原理解析

《在MySQL中实现冷热数据分离的方法及使用场景底层原理解析》MySQL冷热数据分离通过分表/分区策略、数据归档和索引优化,将频繁访问的热数据与冷数据分开存储,提升查询效率并降低存储成本,适用于高并发... 目录实现冷热数据分离1. 分表策略2. 使用分区表3. 数据归档与迁移在mysql中实现冷热数据分

C#解析JSON数据全攻略指南

《C#解析JSON数据全攻略指南》这篇文章主要为大家详细介绍了使用C#解析JSON数据全攻略指南,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录一、为什么jsON是C#开发必修课?二、四步搞定网络JSON数据1. 获取数据 - HttpClient最佳实践2. 动态解析 - 快速

MyBatis-Plus通用中等、大量数据分批查询和处理方法

《MyBatis-Plus通用中等、大量数据分批查询和处理方法》文章介绍MyBatis-Plus分页查询处理,通过函数式接口与Lambda表达式实现通用逻辑,方法抽象但功能强大,建议扩展分批处理及流式... 目录函数式接口获取分页数据接口数据处理接口通用逻辑工具类使用方法简单查询自定义查询方法总结函数式接口

SQL中如何添加数据(常见方法及示例)

《SQL中如何添加数据(常见方法及示例)》SQL全称为StructuredQueryLanguage,是一种用于管理关系数据库的标准编程语言,下面给大家介绍SQL中如何添加数据,感兴趣的朋友一起看看吧... 目录在mysql中,有多种方法可以添加数据。以下是一些常见的方法及其示例。1. 使用INSERT I

Python使用vllm处理多模态数据的预处理技巧

《Python使用vllm处理多模态数据的预处理技巧》本文深入探讨了在Python环境下使用vLLM处理多模态数据的预处理技巧,我们将从基础概念出发,详细讲解文本、图像、音频等多模态数据的预处理方法,... 目录1. 背景介绍1.1 目的和范围1.2 预期读者1.3 文档结构概述1.4 术语表1.4.1 核

MySQL 删除数据详解(最新整理)

《MySQL删除数据详解(最新整理)》:本文主要介绍MySQL删除数据的相关知识,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、前言二、mysql 中的三种删除方式1.DELETE语句✅ 基本语法: 示例:2.TRUNCATE语句✅ 基本语

MyBatisPlus如何优化千万级数据的CRUD

《MyBatisPlus如何优化千万级数据的CRUD》最近负责的一个项目,数据库表量级破千万,每次执行CRUD都像走钢丝,稍有不慎就引起数据库报警,本文就结合这个项目的实战经验,聊聊MyBatisPl... 目录背景一、MyBATis Plus 简介二、千万级数据的挑战三、优化 CRUD 的关键策略1. 查

python实现对数据公钥加密与私钥解密

《python实现对数据公钥加密与私钥解密》这篇文章主要为大家详细介绍了如何使用python实现对数据公钥加密与私钥解密,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录公钥私钥的生成使用公钥加密使用私钥解密公钥私钥的生成这一部分,使用python生成公钥与私钥,然后保存在两个文