Pandas操作题

2024-06-18 23:18
文章标签 pandas 操作题

本文主要是介绍Pandas操作题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Pandas操作题

1.学生数据分析

1.数据导入并展示, 文件位置位于../data/下

  • 请将文件student-info.csv中的内容读入pandas DataFrame "df_info",注意该文件的分隔符是分号,并展示前五行
  • 请将文件student-score.csv中的内容读入pandas DataFrame "df_score",注意该文件的分隔符是分号,并展示前五行

In [1]:

 

import pandas as pd
df_info = pd.read_csv("C:/Users/PycharmProjects/pythonProject/ML/Projects/课程/资料/homework/data/student-info.csv",sep = ';')
df_info.head(5)

Out[1]:

 IDschoolsexageaddressfamsizePstatusMeduFeduMjob...higherinternetromanticfamrelfreetimegooutDalcWalchealthabsences
00GPF18UGT3A44at_home...yesnono4341136
11GPF17UGT3T11at_home...yesyesno5331134
22GPF15ULE3T11at_home...yesyesno43223310
33GPF15UGT3T42health...yesyesyes3221152
44GPF16UGT3T33other...yesnono4321254

5 rows × 31 columns

In [3]:

 

 
import pandas as pd
df_score = pd.read_csv("C:/Users/PycharmProjects/pythonProject/ML/Projects/课程/资料/homework/data/student-score.csv",sep = ';')
df_score.head(5)

Out[3]:

 IDG1G2G3
00566
11556
227810
33151415
4461010

2.把两个DataFrame "df_info" 和 "df_score" 按照学生ID对齐拼接起来,结果存在一个新DataFrame "df" 中

In [55]:

 

 
# df = pd.concat([df_info,df_score], axis=1)
# df_info.merge(df_score)
df = pd.merge(df_info,df_score,on=['ID'])

3.把"df"所有的列展示出来

In [56]:

 

df

Out[56]:

 IDschoolsexageaddressfamsizePstatusMeduFeduMjob...famrelfreetimegooutDalcWalchealthabsencesG1G2G3
00GPF18UGT3A44at_home...4341136566
11GPF17UGT3T11at_home...5331134556
22GPF15ULE3T11at_home...432233107810
33GPF15UGT3T42health...3221152151415
44GPF16UGT3T33other...432125461010
..................................................................
390390MSM20ULE3A22services...55445411999
391391MSM17ULE3T31services...2453423141616
392392MSM21RGT3T11other...55333331087
393393MSM18RLE3T32services...4413450111210
394394MSM19ULE3T11other...3233355899

395 rows × 34 columns

In [16]:

 

df.columns

Out[16]:

Index(['ID', 'school', 'sex', 'age', 'address', 'famsize', 'Pstatus', 'Medu','Fedu', 'Mjob', 'Fjob', 'reason', 'guardian', 'traveltime', 'studytime','failures', 'schoolsup', 'famsup', 'paid', 'activities', 'nursery','higher', 'internet', 'romantic', 'famrel', 'freetime', 'goout', 'Dalc','Walc', 'health', 'absences', 'ID', 'G1', 'G2', 'G3'],dtype='object')

4.统计男生的平均分和女生的平均分(G1, G2, G3),使用groupby和aggregate来操作

In [59]:

 

 
group_by_sex = df.groupby('sex').agg('mean')
group_by_sex[['G1','G2','G3']]
#group_by_sex = df.groupby('sex').mean()
#group_by_sex[['G1','G2','G3']]

Out[59]:

 G1G2G3
sex   
F10.62019210.3894239.966346
M11.22994711.07486610.914439

In [60]:

 

group_by_agg = group_by_sex.aggregate('mean')
group_by_agg[['G1','G2','G3']]

Out[60]:

G1    10.925069
G2    10.732145
G3    10.440392
dtype: float64

5.统计不同年龄的学生(G1, G2, G3)的平均分,并作出柱状图展示

In [70]:

 

 
group_by_age = df.groupby('age').mean()
#group_by_age[['G1','G2','G3']]
group_by_age[['G1','G2','G3']].plot(kind='bar')

Out[70]:

<AxesSubplot:xlabel='age'>

6.统计不同学校(school一列)的学生的平均分,并作柱状图展示,要求同一科目的两个学校成绩贴在一起展示

In [88]:

 

 
group_by_school=df.groupby('school').agg('mean').transpose()
group_by_school.plot(kind='bar')
#roup_by_school.T.plot(kind='bar')

Out[88]:

<AxesSubplot:>

7.统计一下每个学校三个科目总分的前十名,然后把前十名的同学所有信息输出

In [201]:

 

 
#group_by_school=df.groupby(['school']).agg('sum').transpose()
# group_by_school['G1','G2','G3']
df["total"] = df["G1"] + df["G2"]+ df["G3"]
df.groupb
---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)
<ipython-input-201-88778c814a96> in <module>3 4 df["total"] = df["G1"] + df["G2"]+ df["G3"]
----> 5 df.groupby['school']6 # df.groupby(['school','total'])7 TypeError: 'method' object is not subscriptable

2.沃尔玛销售数据整理

1. 数据导入并展示, 文件位置位于 ../data下

  • 请将文件 stores.csv 中的内容读入pandas DataFrame "df_stores",并展示前五行以及打印df_stores的shape

In [211]:

 

 
import pandas as pd
df_stores = pd.read_csv(r"C:\Users\PycharmProjects\pythonProject\ML\Projects\课程\资料\homework\data\walmart\walmart\stores.csv")
df_stores.head(5)

Out[211]:

 StoreTypeSize
01A151315
12A202307
23B37392
34A205863
45B34875

In [212]:

 

df_stores.shape

Out[212]:

(45, 3)
  • 请将文件 features.csv 中的内容读入pandas DataFrame "df_feats",将df_feats改成只留下以下几个columns: "Store", "Date", "Temperature", "Fuel_Price", "CPI", "Unemployment", 并展示前五行以及打印df_feats的shape

In [215]:

 

 
df_feats = pd.read_csv(r"C:\Users\PycharmProjects\pythonProject\ML\Projects\课程\资料\homework\data\walmart\walmart\features.csv")
df_feats.loc[:,["Store", "Date", "Temperature", "Fuel_Price", "CPI", "Unemployment"]].head()

Out[215]:

 StoreDateTemperatureFuel_PriceCPIUnemployment
012010-02-0542.312.572211.0963588.106
112010-02-1238.512.548211.2421708.106
212010-02-1939.932.514211.2891438.106
312010-02-2646.632.561211.3196438.106
412010-03-0546.502.625211.3501438.106

In [217]:

 

df_feats.shape

Out[217]:

(8190, 12)
  • 请将文件 sales.csv 中的内容读入pandas DataFrame "df_sales",并展示前五行以及打印df_sales的shape

In [219]:

 

 
df_sales = pd.read_csv(r"C:\Users\PycharmProjects\pythonProject\ML\Projects\课程\资料\homework\data\walmart\walmart\sales.csv")
df_sales.head(5)

Out[219]:

 StoreDeptDateWeekly_SalesIsHoliday
0112010-02-0524924.50False
1112010-02-1246039.49True
2112010-02-1941595.55False
3112010-02-2619403.54False
4112010-03-0521827.90False

In [220]:

 

df_sales.shape

Out[220]:

(421570, 5)

8. 我们发现 df_sales 中每个Store有很多个Dept(department), 我们只关心整家店的销售情况,所以请把这张表格按照Store和Date来计算整店销售总额,IsHoliday这一列不必保留。结果保存在df_sales_by_store中

In [257]:

 

 
df_sales_by_store=df_sales.loc[:,["Store", "Dept", "Date", "Weekly_Sales"]].groupby(['Store','Date']).sum()
df_sales_by_store

Out[257]:

  DeptWeekly_Sales
StoreDate  
12010-02-0531841643690.90
2010-02-1231371641957.44
2010-02-1931841611968.17
2010-02-2631371409727.59
2010-03-0532151554806.68
............
452012-09-282853713173.95
2012-10-052952733455.07
2012-10-122853734464.36
2012-10-192853718125.53
2012-10-262907760281.43

6435 rows × 2 columns

9. 使用 Store 和 Date 这两列合并 df_sales_by_store 和 df_feats 两张表格,结果保存在 df_sale_feats 。

In [261]:

 

 
df_sale_feats = pd.merge(df_sales_by_store,df_feats,on=['Store','Date'])
df_sale_feats

Out[261]:

 StoreDateDeptWeekly_SalesTemperatureFuel_PriceMarkDown1MarkDown2MarkDown3MarkDown4MarkDown5CPIUnemploymentIsHoliday
012010-02-0531841643690.9042.312.572NaNNaNNaNNaNNaN211.0963588.106False
112010-02-1231371641957.4438.512.548NaNNaNNaNNaNNaN211.2421708.106True
212010-02-1931841611968.1739.932.514NaNNaNNaNNaNNaN211.2891438.106False
312010-02-2631371409727.5946.632.561NaNNaNNaNNaNNaN211.3196438.106False
412010-03-0532151554806.6846.502.625NaNNaNNaNNaNNaN211.3501438.106False
.............................................
6430452012-09-282853713173.9564.883.9974556.6120.641.501601.013288.25192.0135588.684False
6431452012-10-052952733455.0764.893.9855046.74NaN18.822253.432340.01192.1704128.667False
6432452012-10-122853734464.3654.474.0001956.28NaN7.89599.323990.54192.3272658.667False
6433452012-10-192853718125.5356.473.9692004.02NaN3.18437.731537.49192.3308548.667False
6434452012-10-262907760281.4358.853.8824018.9158.08100.00211.94858.33192.3088998.667False

6435 rows × 14 columns

10. 使用 Store 这一列合并 df_sale_feats 和 df_stores 两张表格,结果仍然保留在df_sale_feats 中。

In [266]:

 

df_sale_feats = pd.merge(df_sale_feats,df_stores,on=['Store'])
df_sale_feats

Out[266]:

 StoreDateDeptWeekly_SalesTemperatureFuel_PriceMarkDown1MarkDown2MarkDown3MarkDown4MarkDown5CPIUnemploymentIsHolidayTypeSize
012010-02-0531841643690.9042.312.572NaNNaNNaNNaNNaN211.0963588.106FalseA151315
112010-02-1231371641957.4438.512.548NaNNaNNaNNaNNaN211.2421708.106TrueA151315
212010-02-1931841611968.1739.932.514NaNNaNNaNNaNNaN211.2891438.106FalseA151315
312010-02-2631371409727.5946.632.561NaNNaNNaNNaNNaN211.3196438.106FalseA151315
412010-03-0532151554806.6846.502.625NaNNaNNaNNaNNaN211.3501438.106FalseA151315
...................................................
6430452012-09-282853713173.9564.883.9974556.6120.641.501601.013288.25192.0135588.684FalseB118221
6431452012-10-052952733455.0764.893.9855046.74NaN18.822253.432340.01192.1704128.667FalseB118221
6432452012-10-122853734464.3654.474.0001956.28NaN7.89599.323990.54192.3272658.667FalseB118221
6433452012-10-192853718125.5356.473.9692004.02NaN3.18437.731537.49192.3308548.667FalseB118221
6434452012-10-262907760281.4358.853.8824018.9158.08100.00211.94858.33192.3088998.667FalseB118221

6435 rows × 16 columns

In [ ]:

 

 

这篇关于Pandas操作题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1073334

相关文章

Pandas透视表(Pivot Table)的具体使用

《Pandas透视表(PivotTable)的具体使用》透视表用于在数据分析和处理过程中进行数据重塑和汇总,本文就来介绍一下Pandas透视表(PivotTable)的具体使用,感兴趣的可以了解一下... 目录前言什么是透视表?使用步骤1. 引入必要的库2. 读取数据3. 创建透视表4. 查看透视表总结前言

pandas中位数填充空值的实现示例

《pandas中位数填充空值的实现示例》中位数填充是一种简单而有效的方法,用于填充数据集中缺失的值,本文就来介绍一下pandas中位数填充空值的实现,具有一定的参考价值,感兴趣的可以了解一下... 目录什么是中位数填充?为什么选择中位数填充?示例数据结果分析完整代码总结在数据分析和机器学习过程中,处理缺失数

Pandas使用AdaBoost进行分类的实现

《Pandas使用AdaBoost进行分类的实现》Pandas和AdaBoost分类算法,可以高效地进行数据预处理和分类任务,本文主要介绍了Pandas使用AdaBoost进行分类的实现,具有一定的参... 目录什么是 AdaBoost?使用 AdaBoost 的步骤安装必要的库步骤一:数据准备步骤二:模型

Pandas统计每行数据中的空值的方法示例

《Pandas统计每行数据中的空值的方法示例》处理缺失数据(NaN值)是一个非常常见的问题,本文主要介绍了Pandas统计每行数据中的空值的方法示例,具有一定的参考价值,感兴趣的可以了解一下... 目录什么是空值?为什么要统计空值?准备工作创建示例数据统计每行空值数量进一步分析www.chinasem.cn处

使用Pandas进行均值填充的实现

《使用Pandas进行均值填充的实现》缺失数据(NaN值)是一个常见的问题,我们可以通过多种方法来处理缺失数据,其中一种常用的方法是均值填充,本文主要介绍了使用Pandas进行均值填充的实现,感兴趣的... 目录什么是均值填充?为什么选择均值填充?均值填充的步骤实际代码示例总结在数据分析和处理过程中,缺失数

关于pandas的read_csv方法使用解读

《关于pandas的read_csv方法使用解读》:本文主要介绍关于pandas的read_csv方法使用,具有很好的参考价值,希望对大家有所帮助,如有错误或未考虑完全的地方,望不吝赐教... 目录pandas的read_csv方法解读read_csv中的参数基本参数通用解析参数空值处理相关参数时间处理相关

Pandas使用SQLite3实战

《Pandas使用SQLite3实战》本文主要介绍了Pandas使用SQLite3实战,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学... 目录1 环境准备2 从 SQLite3VlfrWQzgt 读取数据到 DataFrame基础用法:读

Python下载Pandas包的步骤

《Python下载Pandas包的步骤》:本文主要介绍Python下载Pandas包的步骤,在python中安装pandas库,我采取的方法是用PIP的方法在Python目标位置进行安装,本文给大... 目录安装步骤1、首先找到我们安装python的目录2、使用命令行到Python安装目录下3、我们回到Py

解读Pandas和Polars的区别及说明

《解读Pandas和Polars的区别及说明》Pandas和Polars是Python中用于数据处理的两个库,Pandas适用于中小规模数据的快速原型开发和复杂数据操作,而Polars则专注于高效数据... 目录Pandas vs Polars 对比表使用场景对比Pandas 的使用场景Polars 的使用

Python使用Pandas对比两列数据取最大值的五种方法

《Python使用Pandas对比两列数据取最大值的五种方法》本文主要介绍使用Pandas对比两列数据取最大值的五种方法,包括使用max方法、apply方法结合lambda函数、函数、clip方法、w... 目录引言一、使用max方法二、使用apply方法结合lambda函数三、使用np.maximum函数