关于数据科学,书上不曾提及的三点经验

2024-02-02 15:18

本文主要是介绍关于数据科学,书上不曾提及的三点经验,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!



关于数据科学,书上不曾提及的三点经验

发表于 2015-09-10 23:33| 445次阅读| 来源 Mikio L. Braun Blog| 0 条评论| 作者 Mikio L. Braun
大数据 分布式计算 机器学习 深度学习 特征提取
width="22" height="16" src="http://hits.sinajs.cn/A1/weiboshare.html?url=http%3A%2F%2Fwww.csdn.net%2Farticle%2F2015-09-10%2F2825668&type=3&count=&appkey=&title=%E5%85%B3%E4%BA%8E%E6%95%B0%E6%8D%AE%E7%A7%91%E5%AD%A6%EF%BC%8C%E4%B9%A6%E4%B8%8A%E5%BE%88%E5%B0%91%E6%8F%90%E5%8F%8A%E7%9A%84%E4%B8%89%E7%82%B9%E7%BB%8F%E9%AA%8C%EF%BC%9A%E6%A8%A1%E5%9E%8B%E8%AF%84%E4%BB%B7%E6%96%B9%E6%B3%95%E6%98%AF%E5%85%B3%E9%94%AE%EF%BC%8C%E7%89%B9%E5%BE%81%E6%8F%90%E5%8F%96%E6%98%AF%E6%A0%B9%E6%9C%AC%EF%BC%8C%E6%A8%A1%E5%9E%8B%E9%80%89%E6%8B%A9%E8%80%8C%E9%9D%9E%E6%95%B0%E6%8D%AE%E9%9B%86%E8%A7%84%E6%A8%A1%E6%9C%80%E8%B4%B9%E6%97%B6%E9%97%B4%E3%80%82&pic=&ralateUid=&language=zh_cn&rnd=1442237263156" frameborder="0" scrolling="no" allowtransparency="true"> 摘要:关于数据科学,书上很少提及的三点经验:模型评价方法是关键,特征提取是根本,模型选择而非数据集规模最费时间。

【编者按】本文作者指出了关于数据科学书上很少提及的三点经验:模型评价方法是关键,特征提取是根本,模型选择而非数据集规模最费时间。文章指出,处理上万维的特征和几十万的样本的现代算法是愚蠢的,而特征工程理论还不完善,更像是一门艺术。

这是数据科学大行其道的时代。各类课程、博客、培训学校如雨后春笋般出现。然而,每次我浏览这些学习资料时,我发现它们过于强调一些具体的算法。理解逻辑回归或者深度学习的原理当然很酷,可是一旦从事数据相关工作,你会发现还有其它一些同样重要的事情,甚至更为重要的。

我真不应该去责备这些课程。我在大学任教机器学习课程很多年了,课堂上主要是讲解具体算法。你掌握了支持向量机(SVM)、高斯混合模型(GMM)、k均值(k-Means)聚类等算法的细枝末节,但是直到写硕士论文的时候才学会如何正确地处理数据。

那么何谓正确?最终结果难道不能验证处理方法吗?得到出色的预测效果是否意味着一切顺利呢?显然没错,但关键是确保算法在未来数据上仍旧得到出色的效果。我在别处也写过,如果仅凭着训练数据的表现就轻信自己的算法,实在是太自欺欺人了。

那么下面是我的三个主要见解,其它书本里很少提及。

1、评价方法是关键

数据分析/机器学习/数据科学(或者无论你如何称呼它)的主要目标就是搭建一套系统并且将来在测试数据上效果好。监督式学习(例如分类)和非监督式学习(例如聚类)的差异导致很难笼统地解释它,但无非都是你收集一个数据集合,在其之上搭建系统和设计算法。但最终你需要将这种算法应用于未来的数据,同时希望确保在新数据上的表现和在原始数据集上的表现几乎一样好。

初学者常犯的错误就是仅仅关注手头数据集上的表现效果,然后认为在未来数据上同样奏效。不幸的是这种情况非常稀罕。我们暂且以监督式学习为例,它的目标是根据你的输入预测输出结果,比如把邮件分为垃圾邮件和正常邮件两类。

如果你只考虑训练集数据,那么机器很容易记住整个训练集,然后返回完美的测试结果(除非数据自相矛盾)。事实上,对人来说这种情况也很正常。还记得你在学外语背单词的时候,总是把单词顺序打乱来测试吗?因为否则大脑就会凭着之前单词的顺序来回忆。

机器凭借它们存储和读取大量数据的强大能力,轻而易举地完成同类的任务。这就造成过拟合现象,还缺乏泛化能力。

因此合适的评价方法是模拟有未来数据的场景,把数据集一分为二,一部分做训练集,然后在另一部分测试集数据上做预测。通常,训练集被分得大一些,这个过程也会重复很多遍以得到一系列测试结果,来观察算法的稳定性。这整个过程就称为交叉验证。


为了模拟在未来数据上的性能,,你需要把现有的数据一分为二,一份用来训练模型,另一份仅用于模型评估。

然而,差错还是会时常发生,尤其当数据集是非静态的,也就是说,数据的分布随着时间而发生变化。现实世界的数据往往如此。一月份的销售图表和六月份的看上去会迥然不同。

或者数据点之间相关性很高,就是说若你知道一个数据点,那另一个样本数据的信息也八九不离十了。打个比方,拿股票价格来说,天与天的波动并不剧烈,那么以天为单位随机切分训练/测试数据集会导致训练集和测试集的数据高度相关。

上述情况一旦发生了,你就会得到过度优化的结果,而这个算法在真实测试数据上的表现并不尽如人意。在最坏的情况下,你费尽精力说服别人采用你的算法,而算法却失效了,因此学会正确地评估模型是关键!

2、特征提取是根本

学习一种新算法令人激动,可事实上大多数复杂算法的效果大同小异,真正造成差异的是原始数据如何转化为用以学习的特征这个步骤。

现代学习算法十分强大,处理上万维的特征和几十万的样本都是小菜一碟,然而事实却是这些算法最后来看都是愚蠢的。尤其是那些学习线性模型的算法(如逻辑回归,线性支持向量机)简直和计算器一般简陋。

它们从足够的数据样本里鉴别出有效信息的本领很强大,但如果有效信息并不被包含其中,或者不能用输入特征的线性组合所表示,它们就没有了用武之地。它们本身也无法通过“洞察”数据来完成数据精简这一环节。

换句话说,如果找到合适的特征,数据量就能被大大缩减。理想情况下,如果把所有特征缩减到只剩下你想预测的方程,那就没什么可学习的了,对吧?这就是特征提取的强大之处!

需要提醒两点:首先,你必须确保完全理解这些等价算法中的一种,然后就可以一直用下去了。因此你并不真的需要逻辑回归加上线性SVM,选一种就够了。这还包括明白哪些算法几乎是等价的,使用这些模型的关键点在哪里。深度学习有些区别,但是各种线性模型的表达能力几乎一样。尽管,训练时间、解的稀疏性等会有差别,但大多数情况下它们的预测能力是相近的。

其次,你必须完全掌握特征工程。不幸的是,这更像是一门艺术,而且因为理论不完善书本里很少提及。特征值归一化是一条捷径。有时候,特征值需要取对数计算。若是能够降低一部分自由度,也就是说去掉数据中对预测结果没影响的那部分变量,你所需要训练的数据量将会大大降低。

有时候这些转换很容易被发现。例如,如果你要做手写字符识别,只要有前景和背景的区分,那么字符的颜色对识别显然是不重要的。

我知道课本总是推销一些看起来很强大的算法,似乎只要你把数据扔给它们就万事大吉了。从理论观点和无穷的数据来源角度来说,这也许是正确的。但现实中,数据和我们的时间是有限的,寻找高信息量的特征绝对是至关重要的。

3、时间瓶颈模型选择,而非数据集规模

这是个在大数据时代你不愿大肆提及的事物,可是大多数数据集都能被完全加载到主存里。你的算法同样可能也不需要消耗太多时间计算。但你需要花费大量时间从原始数据中提取特征,通过交叉验证来比较不同特征提取方法和不同算法参数的效果差异。


在选择模型时,你尝试无数次各种参数的组合,并在相同的数据集上评价效果差异。

问题归根结底在于组合项的爆发式增长。假设现在只有两个参数,并且训练模型和在测试集上评价效果(按照上述正确的评价方式)需要大约一分钟时间。如果每个参数有5个候选值,采取5折交叉验证(把数据集分成5份,重复训练测试过程5次,每次用不同的一份数据作为测试集),这意味着你需要125轮计算来确定哪种算法效果最好,你的等待时间也将是大约2小时而不是1分钟。

一个好消息是上述过程很容易并行化,因为每轮计算都是相互独立的。特征提取也是如此,通常也是对每个数据集独立地进行相同操作(解析、提取、转换等),导致了所谓的“密集并行”(没错,这是个专业术语)。

一个坏消息主要针对大数据而言,因为所有的这些意味着对大规模实现复杂算法的需求很少,然而多数情况下目前用非分布式算法并行计算内存中的数据已经很有帮助了。

当然,也存在一些应用,比如针对广告优化的TB级日志的全局模型和百万用户级推荐系统,但常规的使用案例都是这里罗列的那些类型。

最后,拥有大量数据也不意味着你真的需要这么多。关键在于学习过程的复杂度。如果问题用简单的模型可以解决,就不要用过多的数据来训练模型参数。那样的话,随机抽样数据集的一部分就足够用了。另外如我在上文中提到的那样,有时候准确的特征表达也能大幅度削减需要的数据量。

总结

总之,知道如何正确评价结果能降低算法在未来测试数据上失败的风险。特征提取准确也许是提升效果的最佳途径,最后,大数据并不总是需要,尽管分布式计算能帮助减少训练时间。

这篇关于关于数据科学,书上不曾提及的三点经验的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/671129

相关文章

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

GSON框架下将百度天气JSON数据转JavaBean

《GSON框架下将百度天气JSON数据转JavaBean》这篇文章主要为大家详细介绍了如何在GSON框架下实现将百度天气JSON数据转JavaBean,文中的示例代码讲解详细,感兴趣的小伙伴可以了解下... 目录前言一、百度天气jsON1、请求参数2、返回参数3、属性映射二、GSON属性映射实战1、类对象映

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则

Java+AI驱动实现PDF文件数据提取与解析

《Java+AI驱动实现PDF文件数据提取与解析》本文将和大家分享一套基于AI的体检报告智能评估方案,详细介绍从PDF上传、内容提取到AI分析、数据存储的全流程自动化实现方法,感兴趣的可以了解下... 目录一、核心流程:从上传到评估的完整链路二、第一步:解析 PDF,提取体检报告内容1. 引入依赖2. 封装

MySQL中查询和展示LONGBLOB类型数据的技巧总结

《MySQL中查询和展示LONGBLOB类型数据的技巧总结》在MySQL中LONGBLOB是一种二进制大对象(BLOB)数据类型,用于存储大量的二进制数据,:本文主要介绍MySQL中查询和展示LO... 目录前言1. 查询 LONGBLOB 数据的大小2. 查询并展示 LONGBLOB 数据2.1 转换为十

使用SpringBoot+InfluxDB实现高效数据存储与查询

《使用SpringBoot+InfluxDB实现高效数据存储与查询》InfluxDB是一个开源的时间序列数据库,特别适合处理带有时间戳的监控数据、指标数据等,下面详细介绍如何在SpringBoot项目... 目录1、项目介绍2、 InfluxDB 介绍3、Spring Boot 配置 InfluxDB4、I

Java整合Protocol Buffers实现高效数据序列化实践

《Java整合ProtocolBuffers实现高效数据序列化实践》ProtocolBuffers是Google开发的一种语言中立、平台中立、可扩展的结构化数据序列化机制,类似于XML但更小、更快... 目录一、Protocol Buffers简介1.1 什么是Protocol Buffers1.2 Pro

Python实现数据可视化图表生成(适合新手入门)

《Python实现数据可视化图表生成(适合新手入门)》在数据科学和数据分析的新时代,高效、直观的数据可视化工具显得尤为重要,下面:本文主要介绍Python实现数据可视化图表生成的相关资料,文中通过... 目录前言为什么需要数据可视化准备工作基本图表绘制折线图柱状图散点图使用Seaborn创建高级图表箱线图热

MySQL数据脱敏的实现方法

《MySQL数据脱敏的实现方法》本文主要介绍了MySQL数据脱敏的实现方法,包括字符替换、加密等方法,通过工具类和数据库服务整合,确保敏感信息在查询结果中被掩码处理,感兴趣的可以了解一下... 目录一. 数据脱敏的方法二. 字符替换脱敏1. 创建数据脱敏工具类三. 整合到数据库操作1. 创建服务类进行数据库

MySQL中处理数据的并发一致性的实现示例

《MySQL中处理数据的并发一致性的实现示例》在MySQL中处理数据的并发一致性是确保多个用户或应用程序同时访问和修改数据库时,不会导致数据冲突、数据丢失或数据不一致,MySQL通过事务和锁机制来管理... 目录一、事务(Transactions)1. 事务控制语句二、锁(Locks)1. 锁类型2. 锁粒