Datawhale《动手学数据分析》Task01:数据加载及探索性数据分析笔记1

本文主要是介绍Datawhale《动手学数据分析》Task01:数据加载及探索性数据分析笔记1,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

1 第一章:数据载入及初步观察

1.1 载入数据

数据集:kaggle泰坦尼克数据集

数据集下载 Titanic - Machine Learning from Disaster | Kaggle

任务一:导入numpy和pandas

import numpy as np
import pandas as pd

任务二:载入数据

相对路径需要以当前文件所处目录为基准,所以使用代码查看当前所处文件夹的绝对路径。

import os
path1 = os.path.abspath('.')   #所处文件夹的绝对路径
print(path1)
path2 = os.path.abspath('..')  #所处文件夹上一级的绝对路径
print(path2)
E:\emmmmmm\Analysis\jupyter-notebook
E:\emmmmmm\Analysis

(1) 使用相对路径载入数据

#相对路径三种方式
dftrain0 = pd.read_csv(r"..\titanic\train.csv")
dftrain01 = pd.read_csv("..\\titanic\\train.csv")
dftrain02 = pd.read_csv("../titanic/train.csv")

(2) 使用绝对路径载入数据

# 绝对路径三种方式
dftrain1 = pd.read_csv(r"E:\emmmmmm\Analysis\titanic\train.csv")
dftrain11 = pd.read_csv("E:\\emmmmmm\\Analysis\\titanic\\train.csv")
dftrain12 = pd.read_csv("E:/emmmmmm/Analysis/titanic/train.csv")

【思考】

知道数据加载的方法后,试试pd.read_csv()和pd.read_table()的不同

csv默认制表符为“,”,table默认制表符为“\t”

pd.read_csv()

pd.read_table()

 #一个举例

如果想让他们效果一样,需要怎么做?

#指定分隔符
pd.read_table('', sep=',')

了解一下'.tsv'和'.csv'的不同,如何加载这两个数据集?

.tsv使用\t作为分隔符,.csv使用,作为分隔符。

任务三:每1000行为一个数据模块,逐块读取

dftrain1000 = pd.read_csv(r"..\titanic\train.csv",chunksize=1000)
for chunk in dftrain1000:print(type(chunk))   #<class 'pandas.core.frame.DataFrame'>print(len(chunk))    #891print(chunk)#此数据集行为数不足1000

任务四:将表头改成中文,索引改为乘客ID

PassengerId => 乘客ID
Survived => 是否幸存
Pclass => 乘客等级(1/2/3等舱位)
Name => 乘客姓名
Sex => 性别
Age => 年龄
SibSp => 堂兄弟/妹个数
Parch => 父母与小孩个数
Ticket => 船票信息
Fare => 票价
Cabin => 客舱
Embarked => 登船港口

colnames=['乘客ID','是否幸存','乘客等级(1/2/3等舱位)','乘客姓名','性别','年龄','堂兄弟/妹个数','父母与小孩个数','船票信息','票价','客舱','登船港口']
dftrain = pd.read_csv(r"..\titanic\train.csv",names=colnames,index_col='乘客ID')
dftrain.head()

1.2 初步观察

导入数据后,你可能要对数据的整体结构和样例进行概览,比如说,数据大小、有多少列,各列都是什么格式的,是否包含null等

任务一:查看数据的基本信息

print(dftrain.describe())     #整体描述
print(dftrain.info())         #获取摘要
print(dftrain.columns)        #列标签
print(dftrain.shape)          #行列数

任务二:观察表格前10行的数据和后15行的数据

#观察表格前10行的数据
colnames=['乘客ID','是否幸存','乘客等级(1/2/3等舱位)','乘客姓名','性别','年龄','堂兄弟/妹个数','父母与小孩个数','船票信息','票价','客舱','登船港口']
dftrain = pd.read_csv(r"..\titanic\train.csv",names=colnames,index_col='乘客ID')
dftrain.head(10)

#观察表格后15行的数据
colnames=['乘客ID','是否幸存','乘客等级(1/2/3等舱位)','乘客姓名','性别','年龄','堂兄弟/妹个数','父母与小孩个数','船票信息','票价','客舱','登船港口']
dftrain = pd.read_csv(r"..\titanic\train.csv",names=colnames,index_col='乘客ID')
dftrain.tail(15)

任务三:判断数据是否为空,为空的地方返回True,其余地方返回False

dftrain.isnull().head()

1.3 保存数据

任务一:将你加载并做出改变的数据,在工作目录下保存为一个新文件train_chinese.csv

dftrain.to_csv("train_chinese.csv",encoding='GBK')

1.4 知道你的数据叫什么

任务一:pandas中有两个数据类型DateFrame和Series,通过查找简单了解他们。

DateFrame可理解为表格,Series为单独的行或列

#Series举例
sdata = {'Ohio': 35000, 'Texas': 71000, 'Oregon': 16000, 'Utah': 5000}
example_1 = pd.Series(sdata)
example_1

 

#DataFrame举例
data = {'state': ['Ohio', 'Ohio', 'Ohio', 'Nevada', 'Nevada', 'Nevada'],'year': [2000, 2001, 2002, 2001, 2002, 2003],'pop': [1.5, 1.7, 3.6, 2.4, 2.9, 3.2]}
example_2 = pd.DataFrame(data)
example_2

 

任务二:根据上节课的方法载入"train.csv"文件

colnames=['乘客ID','是否幸存','乘客等级(1/2/3等舱位)','乘客姓名','性别','年龄','堂兄弟/妹个数','父母与小孩个数','船票信息','票价','客舱','登船港口']
df = pd.read_csv(r"..\titanic\train.csv",names=colnames,index_col='乘客ID')

任务三:查看DataFrame数据的每列的名称

df.columns
 

 任务四:查看"Cabin"这列的所有值

print(df['Cabin'])
print(df.Cabin)

 

 

这篇关于Datawhale《动手学数据分析》Task01:数据加载及探索性数据分析笔记1的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/184700

相关文章

MySQL 删除数据详解(最新整理)

《MySQL删除数据详解(最新整理)》:本文主要介绍MySQL删除数据的相关知识,本文通过实例代码给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友参考下吧... 目录一、前言二、mysql 中的三种删除方式1.DELETE语句✅ 基本语法: 示例:2.TRUNCATE语句✅ 基本语

MyBatisPlus如何优化千万级数据的CRUD

《MyBatisPlus如何优化千万级数据的CRUD》最近负责的一个项目,数据库表量级破千万,每次执行CRUD都像走钢丝,稍有不慎就引起数据库报警,本文就结合这个项目的实战经验,聊聊MyBatisPl... 目录背景一、MyBATis Plus 简介二、千万级数据的挑战三、优化 CRUD 的关键策略1. 查

python实现对数据公钥加密与私钥解密

《python实现对数据公钥加密与私钥解密》这篇文章主要为大家详细介绍了如何使用python实现对数据公钥加密与私钥解密,文中的示例代码讲解详细,感兴趣的小伙伴可以跟随小编一起学习一下... 目录公钥私钥的生成使用公钥加密使用私钥解密公钥私钥的生成这一部分,使用python生成公钥与私钥,然后保存在两个文

mysql中的数据目录用法及说明

《mysql中的数据目录用法及说明》:本文主要介绍mysql中的数据目录用法及说明,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录1、背景2、版本3、数据目录4、总结1、背景安装mysql之后,在安装目录下会有一个data目录,我们创建的数据库、创建的表、插入的

Navicat数据表的数据添加,删除及使用sql完成数据的添加过程

《Navicat数据表的数据添加,删除及使用sql完成数据的添加过程》:本文主要介绍Navicat数据表的数据添加,删除及使用sql完成数据的添加过程,具有很好的参考价值,希望对大家有所帮助,如有... 目录Navicat数据表数据添加,删除及使用sql完成数据添加选中操作的表则出现如下界面,查看左下角从左

SpringBoot中4种数据水平分片策略

《SpringBoot中4种数据水平分片策略》数据水平分片作为一种水平扩展策略,通过将数据分散到多个物理节点上,有效解决了存储容量和性能瓶颈问题,下面小编就来和大家分享4种数据分片策略吧... 目录一、前言二、哈希分片2.1 原理2.2 SpringBoot实现2.3 优缺点分析2.4 适用场景三、范围分片

Spring如何使用注解@DependsOn控制Bean加载顺序

《Spring如何使用注解@DependsOn控制Bean加载顺序》:本文主要介绍Spring如何使用注解@DependsOn控制Bean加载顺序,具有很好的参考价值,希望对大家有所帮助,如有错误... 目录1.javascript 前言2. 代码实现总结1. 前言默认情况下,Spring加载Bean的顺

Redis分片集群、数据读写规则问题小结

《Redis分片集群、数据读写规则问题小结》本文介绍了Redis分片集群的原理,通过数据分片和哈希槽机制解决单机内存限制与写瓶颈问题,实现分布式存储和高并发处理,但存在通信开销大、维护复杂及对事务支持... 目录一、分片集群解android决的问题二、分片集群图解 分片集群特征如何解决的上述问题?(与哨兵模

浅析如何保证MySQL与Redis数据一致性

《浅析如何保证MySQL与Redis数据一致性》在互联网应用中,MySQL作为持久化存储引擎,Redis作为高性能缓存层,两者的组合能有效提升系统性能,下面我们来看看如何保证两者的数据一致性吧... 目录一、数据不一致性的根源1.1 典型不一致场景1.2 关键矛盾点二、一致性保障策略2.1 基础策略:更新数

Oracle 数据库数据操作如何精通 INSERT, UPDATE, DELETE

《Oracle数据库数据操作如何精通INSERT,UPDATE,DELETE》在Oracle数据库中,对表内数据进行增加、修改和删除操作是通过数据操作语言来完成的,下面给大家介绍Oracle数... 目录思维导图一、插入数据 (INSERT)1.1 插入单行数据,指定所有列的值语法:1.2 插入单行数据,指