Pandas操作题

2024-06-18 23:18
文章标签 pandas 操作题

本文主要是介绍Pandas操作题,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Pandas操作题

1.学生数据分析

1.数据导入并展示, 文件位置位于../data/下

  • 请将文件student-info.csv中的内容读入pandas DataFrame "df_info",注意该文件的分隔符是分号,并展示前五行
  • 请将文件student-score.csv中的内容读入pandas DataFrame "df_score",注意该文件的分隔符是分号,并展示前五行

In [1]:

 

import pandas as pd
df_info = pd.read_csv("C:/Users/PycharmProjects/pythonProject/ML/Projects/课程/资料/homework/data/student-info.csv",sep = ';')
df_info.head(5)

Out[1]:

 IDschoolsexageaddressfamsizePstatusMeduFeduMjob...higherinternetromanticfamrelfreetimegooutDalcWalchealthabsences
00GPF18UGT3A44at_home...yesnono4341136
11GPF17UGT3T11at_home...yesyesno5331134
22GPF15ULE3T11at_home...yesyesno43223310
33GPF15UGT3T42health...yesyesyes3221152
44GPF16UGT3T33other...yesnono4321254

5 rows × 31 columns

In [3]:

 

 
import pandas as pd
df_score = pd.read_csv("C:/Users/PycharmProjects/pythonProject/ML/Projects/课程/资料/homework/data/student-score.csv",sep = ';')
df_score.head(5)

Out[3]:

 IDG1G2G3
00566
11556
227810
33151415
4461010

2.把两个DataFrame "df_info" 和 "df_score" 按照学生ID对齐拼接起来,结果存在一个新DataFrame "df" 中

In [55]:

 

 
# df = pd.concat([df_info,df_score], axis=1)
# df_info.merge(df_score)
df = pd.merge(df_info,df_score,on=['ID'])

3.把"df"所有的列展示出来

In [56]:

 

df

Out[56]:

 IDschoolsexageaddressfamsizePstatusMeduFeduMjob...famrelfreetimegooutDalcWalchealthabsencesG1G2G3
00GPF18UGT3A44at_home...4341136566
11GPF17UGT3T11at_home...5331134556
22GPF15ULE3T11at_home...432233107810
33GPF15UGT3T42health...3221152151415
44GPF16UGT3T33other...432125461010
..................................................................
390390MSM20ULE3A22services...55445411999
391391MSM17ULE3T31services...2453423141616
392392MSM21RGT3T11other...55333331087
393393MSM18RLE3T32services...4413450111210
394394MSM19ULE3T11other...3233355899

395 rows × 34 columns

In [16]:

 

df.columns

Out[16]:

Index(['ID', 'school', 'sex', 'age', 'address', 'famsize', 'Pstatus', 'Medu','Fedu', 'Mjob', 'Fjob', 'reason', 'guardian', 'traveltime', 'studytime','failures', 'schoolsup', 'famsup', 'paid', 'activities', 'nursery','higher', 'internet', 'romantic', 'famrel', 'freetime', 'goout', 'Dalc','Walc', 'health', 'absences', 'ID', 'G1', 'G2', 'G3'],dtype='object')

4.统计男生的平均分和女生的平均分(G1, G2, G3),使用groupby和aggregate来操作

In [59]:

 

 
group_by_sex = df.groupby('sex').agg('mean')
group_by_sex[['G1','G2','G3']]
#group_by_sex = df.groupby('sex').mean()
#group_by_sex[['G1','G2','G3']]

Out[59]:

 G1G2G3
sex   
F10.62019210.3894239.966346
M11.22994711.07486610.914439

In [60]:

 

group_by_agg = group_by_sex.aggregate('mean')
group_by_agg[['G1','G2','G3']]

Out[60]:

G1    10.925069
G2    10.732145
G3    10.440392
dtype: float64

5.统计不同年龄的学生(G1, G2, G3)的平均分,并作出柱状图展示

In [70]:

 

 
group_by_age = df.groupby('age').mean()
#group_by_age[['G1','G2','G3']]
group_by_age[['G1','G2','G3']].plot(kind='bar')

Out[70]:

<AxesSubplot:xlabel='age'>

6.统计不同学校(school一列)的学生的平均分,并作柱状图展示,要求同一科目的两个学校成绩贴在一起展示

In [88]:

 

 
group_by_school=df.groupby('school').agg('mean').transpose()
group_by_school.plot(kind='bar')
#roup_by_school.T.plot(kind='bar')

Out[88]:

<AxesSubplot:>

7.统计一下每个学校三个科目总分的前十名,然后把前十名的同学所有信息输出

In [201]:

 

 
#group_by_school=df.groupby(['school']).agg('sum').transpose()
# group_by_school['G1','G2','G3']
df["total"] = df["G1"] + df["G2"]+ df["G3"]
df.groupb
---------------------------------------------------------------------------
TypeError                                 Traceback (most recent call last)
<ipython-input-201-88778c814a96> in <module>3 4 df["total"] = df["G1"] + df["G2"]+ df["G3"]
----> 5 df.groupby['school']6 # df.groupby(['school','total'])7 TypeError: 'method' object is not subscriptable

2.沃尔玛销售数据整理

1. 数据导入并展示, 文件位置位于 ../data下

  • 请将文件 stores.csv 中的内容读入pandas DataFrame "df_stores",并展示前五行以及打印df_stores的shape

In [211]:

 

 
import pandas as pd
df_stores = pd.read_csv(r"C:\Users\PycharmProjects\pythonProject\ML\Projects\课程\资料\homework\data\walmart\walmart\stores.csv")
df_stores.head(5)

Out[211]:

 StoreTypeSize
01A151315
12A202307
23B37392
34A205863
45B34875

In [212]:

 

df_stores.shape

Out[212]:

(45, 3)
  • 请将文件 features.csv 中的内容读入pandas DataFrame "df_feats",将df_feats改成只留下以下几个columns: "Store", "Date", "Temperature", "Fuel_Price", "CPI", "Unemployment", 并展示前五行以及打印df_feats的shape

In [215]:

 

 
df_feats = pd.read_csv(r"C:\Users\PycharmProjects\pythonProject\ML\Projects\课程\资料\homework\data\walmart\walmart\features.csv")
df_feats.loc[:,["Store", "Date", "Temperature", "Fuel_Price", "CPI", "Unemployment"]].head()

Out[215]:

 StoreDateTemperatureFuel_PriceCPIUnemployment
012010-02-0542.312.572211.0963588.106
112010-02-1238.512.548211.2421708.106
212010-02-1939.932.514211.2891438.106
312010-02-2646.632.561211.3196438.106
412010-03-0546.502.625211.3501438.106

In [217]:

 

df_feats.shape

Out[217]:

(8190, 12)
  • 请将文件 sales.csv 中的内容读入pandas DataFrame "df_sales",并展示前五行以及打印df_sales的shape

In [219]:

 

 
df_sales = pd.read_csv(r"C:\Users\PycharmProjects\pythonProject\ML\Projects\课程\资料\homework\data\walmart\walmart\sales.csv")
df_sales.head(5)

Out[219]:

 StoreDeptDateWeekly_SalesIsHoliday
0112010-02-0524924.50False
1112010-02-1246039.49True
2112010-02-1941595.55False
3112010-02-2619403.54False
4112010-03-0521827.90False

In [220]:

 

df_sales.shape

Out[220]:

(421570, 5)

8. 我们发现 df_sales 中每个Store有很多个Dept(department), 我们只关心整家店的销售情况,所以请把这张表格按照Store和Date来计算整店销售总额,IsHoliday这一列不必保留。结果保存在df_sales_by_store中

In [257]:

 

 
df_sales_by_store=df_sales.loc[:,["Store", "Dept", "Date", "Weekly_Sales"]].groupby(['Store','Date']).sum()
df_sales_by_store

Out[257]:

  DeptWeekly_Sales
StoreDate  
12010-02-0531841643690.90
2010-02-1231371641957.44
2010-02-1931841611968.17
2010-02-2631371409727.59
2010-03-0532151554806.68
............
452012-09-282853713173.95
2012-10-052952733455.07
2012-10-122853734464.36
2012-10-192853718125.53
2012-10-262907760281.43

6435 rows × 2 columns

9. 使用 Store 和 Date 这两列合并 df_sales_by_store 和 df_feats 两张表格,结果保存在 df_sale_feats 。

In [261]:

 

 
df_sale_feats = pd.merge(df_sales_by_store,df_feats,on=['Store','Date'])
df_sale_feats

Out[261]:

 StoreDateDeptWeekly_SalesTemperatureFuel_PriceMarkDown1MarkDown2MarkDown3MarkDown4MarkDown5CPIUnemploymentIsHoliday
012010-02-0531841643690.9042.312.572NaNNaNNaNNaNNaN211.0963588.106False
112010-02-1231371641957.4438.512.548NaNNaNNaNNaNNaN211.2421708.106True
212010-02-1931841611968.1739.932.514NaNNaNNaNNaNNaN211.2891438.106False
312010-02-2631371409727.5946.632.561NaNNaNNaNNaNNaN211.3196438.106False
412010-03-0532151554806.6846.502.625NaNNaNNaNNaNNaN211.3501438.106False
.............................................
6430452012-09-282853713173.9564.883.9974556.6120.641.501601.013288.25192.0135588.684False
6431452012-10-052952733455.0764.893.9855046.74NaN18.822253.432340.01192.1704128.667False
6432452012-10-122853734464.3654.474.0001956.28NaN7.89599.323990.54192.3272658.667False
6433452012-10-192853718125.5356.473.9692004.02NaN3.18437.731537.49192.3308548.667False
6434452012-10-262907760281.4358.853.8824018.9158.08100.00211.94858.33192.3088998.667False

6435 rows × 14 columns

10. 使用 Store 这一列合并 df_sale_feats 和 df_stores 两张表格,结果仍然保留在df_sale_feats 中。

In [266]:

 

df_sale_feats = pd.merge(df_sale_feats,df_stores,on=['Store'])
df_sale_feats

Out[266]:

 StoreDateDeptWeekly_SalesTemperatureFuel_PriceMarkDown1MarkDown2MarkDown3MarkDown4MarkDown5CPIUnemploymentIsHolidayTypeSize
012010-02-0531841643690.9042.312.572NaNNaNNaNNaNNaN211.0963588.106FalseA151315
112010-02-1231371641957.4438.512.548NaNNaNNaNNaNNaN211.2421708.106TrueA151315
212010-02-1931841611968.1739.932.514NaNNaNNaNNaNNaN211.2891438.106FalseA151315
312010-02-2631371409727.5946.632.561NaNNaNNaNNaNNaN211.3196438.106FalseA151315
412010-03-0532151554806.6846.502.625NaNNaNNaNNaNNaN211.3501438.106FalseA151315
...................................................
6430452012-09-282853713173.9564.883.9974556.6120.641.501601.013288.25192.0135588.684FalseB118221
6431452012-10-052952733455.0764.893.9855046.74NaN18.822253.432340.01192.1704128.667FalseB118221
6432452012-10-122853734464.3654.474.0001956.28NaN7.89599.323990.54192.3272658.667FalseB118221
6433452012-10-192853718125.5356.473.9692004.02NaN3.18437.731537.49192.3308548.667FalseB118221
6434452012-10-262907760281.4358.853.8824018.9158.08100.00211.94858.33192.3088998.667FalseB118221

6435 rows × 16 columns

In [ ]:

 

 

这篇关于Pandas操作题的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1073334

相关文章

从基础到进阶详解Pandas时间数据处理指南

《从基础到进阶详解Pandas时间数据处理指南》Pandas构建了完整的时间数据处理生态,核心由四个基础类构成,Timestamp,DatetimeIndex,Period和Timedelta,下面我... 目录1. 时间数据类型与基础操作1.1 核心时间对象体系1.2 时间数据生成技巧2. 时间索引与数据

pandas实现数据concat拼接的示例代码

《pandas实现数据concat拼接的示例代码》pandas.concat用于合并DataFrame或Series,本文主要介绍了pandas实现数据concat拼接的示例代码,具有一定的参考价值,... 目录语法示例:使用pandas.concat合并数据默认的concat:参数axis=0,join=

Python Pandas高效处理Excel数据完整指南

《PythonPandas高效处理Excel数据完整指南》在数据驱动的时代,Excel仍是大量企业存储核心数据的工具,Python的Pandas库凭借其向量化计算、内存优化和丰富的数据处理接口,成为... 目录一、环境搭建与数据读取1.1 基础环境配置1.2 数据高效载入技巧二、数据清洗核心战术2.1 缺失

Pandas进行周期与时间戳转换的方法

《Pandas进行周期与时间戳转换的方法》本教程将深入讲解如何在pandas中使用to_period()和to_timestamp()方法,完成时间戳与周期之间的转换,并结合实际应用场景展示这些方法的... 目录to_period() 时间戳转周期基本操作应用示例to_timestamp() 周期转时间戳基

pandas DataFrame keys的使用小结

《pandasDataFramekeys的使用小结》pandas.DataFrame.keys()方法返回DataFrame的列名,类似于字典的键,本文主要介绍了pandasDataFrameke... 目录Pandas2.2 DataFrameIndexing, iterationpandas.DataF

Pandas利用主表更新子表指定列小技巧

《Pandas利用主表更新子表指定列小技巧》本文主要介绍了Pandas利用主表更新子表指定列小技巧,通过创建主表和子表的DataFrame对象,并使用映射字典进行数据关联和更新,实现了从主表到子表的同... 目录一、前言二、基本案例1. 创建主表数据2. 创建映射字典3. 创建子表数据4. 更新子表的 zb

Pandas中统计汇总可视化函数plot()的使用

《Pandas中统计汇总可视化函数plot()的使用》Pandas提供了许多强大的数据处理和分析功能,其中plot()函数就是其可视化功能的一个重要组成部分,本文主要介绍了Pandas中统计汇总可视化... 目录一、plot()函数简介二、plot()函数的基本用法三、plot()函数的参数详解四、使用pl

Pandas透视表(Pivot Table)的具体使用

《Pandas透视表(PivotTable)的具体使用》透视表用于在数据分析和处理过程中进行数据重塑和汇总,本文就来介绍一下Pandas透视表(PivotTable)的具体使用,感兴趣的可以了解一下... 目录前言什么是透视表?使用步骤1. 引入必要的库2. 读取数据3. 创建透视表4. 查看透视表总结前言

pandas中位数填充空值的实现示例

《pandas中位数填充空值的实现示例》中位数填充是一种简单而有效的方法,用于填充数据集中缺失的值,本文就来介绍一下pandas中位数填充空值的实现,具有一定的参考价值,感兴趣的可以了解一下... 目录什么是中位数填充?为什么选择中位数填充?示例数据结果分析完整代码总结在数据分析和机器学习过程中,处理缺失数

Pandas使用AdaBoost进行分类的实现

《Pandas使用AdaBoost进行分类的实现》Pandas和AdaBoost分类算法,可以高效地进行数据预处理和分类任务,本文主要介绍了Pandas使用AdaBoost进行分类的实现,具有一定的参... 目录什么是 AdaBoost?使用 AdaBoost 的步骤安装必要的库步骤一:数据准备步骤二:模型