pandas处理两表合并

2024-06-05 11:20
文章标签 处理 合并 pandas 两表

本文主要是介绍pandas处理两表合并,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

使用pandas库来处理两个Excel文件,并根据“货号”列中的数字部分合并这两个文件的数据。以下是对这段代码的详细介绍:

  1. 导入必要的库

    • import pandas as pd: 导入pandas库,并给它起一个别名pd。
  2. 读取Excel文件

    • 定义了两个文件路径file_path1file_path2,分别指向两个Excel文件。
    • 使用pd.read_excel()函数读取这两个文件,并将数据加载到两个数据框df1df2中。
  3. 定义提取数字的函数

    • 定义了一个名为extract_numbers的函数,它接受一个字符串s作为输入。
    • 函数内部使用filter()函数和str.isdigit方法来提取字符串中的所有数字,并使用''.join()将它们连接成一个新的字符串。
  4. 处理“货号”列

    • 感觉最容易忽略的就是数据类型的转换,将df1df2中的“货号”列转换为字符串类型(以防万一它们原本是数字或其他类型)。
    • 使用apply()方法和之前定义的extract_numbers函数来处理这两个数据框的“货号”列,提取其中的数字部分。
  5. 合并数据框

    • 使用pd.merge()函数根据处理后的“货号”列合并df1df2
    • on='货号'指定了合并的键。
    • how='right'表示进行右连接合并,即保留df2中的所有行,并根据匹配的“货号”将df1中的数据添加到合并后的数据框中。如果需要保留df1中的所有行,则可以使用how='left'
  6. 查看和保存合并后的数据

    • 使用print(merged_df.head())打印合并后数据框的前几行,以便查看合并结果。
    • 使用merged_df.to_excel()方法将合并后的数据框保存到一个新的Excel文件中。index=False参数表示不将索引保存到Excel文件中。
    • 最后,打印一条消息确认合并和保存操作已完成。
import pandas as pd  # 读取Excel文件  
file_path1 = r'C:\Users\admin\Desktop\施华洛世奇531.xlsx'  
file_path2 = r'C:\Users\admin\Desktop\s519.xlsx'  
df1 = pd.read_excel(file_path1)  
df2 = pd.read_excel(file_path2)  # 定义一个函数来提取字符串中的数字部分  
def extract_numbers(s):  return ''.join(filter(str.isdigit, s))  # 应用这个函数到两个数据框的“货号”列,并创建新的列来保存提取的数字  
df1['货号'] = df1['货号'].astype(str).apply(extract_numbers)  
df2['货号'] = df2['货号'].astype(str).apply(extract_numbers)  # 基于新的数字货号列合并df1和df2  
merged_df = pd.merge(df1, df2, on='货号', how='right')  # 或者使用 how='left' 根据需要调整  # 查看合并后的数据框  
print(merged_df.head())  # 保存合并后的数据到新的Excel文件  
output_file_path = r'C:\Users\admin\Desktop\s531.xlsx'  
merged_df.to_excel(output_file_path, index=False)  # 不保存索引到Excel文件中  
print("合并完成并保存到Excel文件。")

这篇关于pandas处理两表合并的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1032912

相关文章

Python实现批量CSV转Excel的高性能处理方案

《Python实现批量CSV转Excel的高性能处理方案》在日常办公中,我们经常需要将CSV格式的数据转换为Excel文件,本文将介绍一个基于Python的高性能解决方案,感兴趣的小伙伴可以跟随小编一... 目录一、场景需求二、技术方案三、核心代码四、批量处理方案五、性能优化六、使用示例完整代码七、小结一、

Python中 try / except / else / finally 异常处理方法详解

《Python中try/except/else/finally异常处理方法详解》:本文主要介绍Python中try/except/else/finally异常处理方法的相关资料,涵... 目录1. 基本结构2. 各部分的作用tryexceptelsefinally3. 执行流程总结4. 常见用法(1)多个e

C#实现一键批量合并PDF文档

《C#实现一键批量合并PDF文档》这篇文章主要为大家详细介绍了如何使用C#实现一键批量合并PDF文档功能,文中的示例代码简洁易懂,感兴趣的小伙伴可以跟随小编一起学习一下... 目录前言效果展示功能实现1、添加文件2、文件分组(书签)3、定义页码范围4、自定义显示5、定义页面尺寸6、PDF批量合并7、其他方法

PHP应用中处理限流和API节流的最佳实践

《PHP应用中处理限流和API节流的最佳实践》限流和API节流对于确保Web应用程序的可靠性、安全性和可扩展性至关重要,本文将详细介绍PHP应用中处理限流和API节流的最佳实践,下面就来和小编一起学习... 目录限流的重要性在 php 中实施限流的最佳实践使用集中式存储进行状态管理(如 Redis)采用滑动

MyBatis-plus处理存储json数据过程

《MyBatis-plus处理存储json数据过程》文章介绍MyBatis-Plus3.4.21处理对象与集合的差异:对象可用内置Handler配合autoResultMap,集合需自定义处理器继承F... 目录1、如果是对象2、如果需要转换的是List集合总结对象和集合分两种情况处理,目前我用的MP的版本

Python自动化处理PDF文档的操作完整指南

《Python自动化处理PDF文档的操作完整指南》在办公自动化中,PDF文档处理是一项常见需求,本文将介绍如何使用Python实现PDF文档的自动化处理,感兴趣的小伙伴可以跟随小编一起学习一下... 目录使用pymupdf读写PDF文件基本概念安装pymupdf提取文本内容提取图像添加水印使用pdfplum

C# LiteDB处理时间序列数据的高性能解决方案

《C#LiteDB处理时间序列数据的高性能解决方案》LiteDB作为.NET生态下的轻量级嵌入式NoSQL数据库,一直是时间序列处理的优选方案,本文将为大家大家简单介绍一下LiteDB处理时间序列数... 目录为什么选择LiteDB处理时间序列数据第一章:LiteDB时间序列数据模型设计1.1 核心设计原则

基于Redis自动过期的流处理暂停机制

《基于Redis自动过期的流处理暂停机制》基于Redis自动过期的流处理暂停机制是一种高效、可靠且易于实现的解决方案,防止延时过大的数据影响实时处理自动恢复处理,以避免积压的数据影响实时性,下面就来详... 目录核心思路代码实现1. 初始化Redis连接和键前缀2. 接收数据时检查暂停状态3. 检测到延时过

Java利用@SneakyThrows注解提升异常处理效率详解

《Java利用@SneakyThrows注解提升异常处理效率详解》这篇文章将深度剖析@SneakyThrows的原理,用法,适用场景以及隐藏的陷阱,看看它如何让Java异常处理效率飙升50%,感兴趣的... 目录前言一、检查型异常的“诅咒”:为什么Java开发者讨厌它1.1 检查型异常的痛点1.2 为什么说

Python利用PySpark和Kafka实现流处理引擎构建指南

《Python利用PySpark和Kafka实现流处理引擎构建指南》本文将深入解剖基于Python的实时处理黄金组合:Kafka(分布式消息队列)与PySpark(分布式计算引擎)的化学反应,并构建一... 目录引言:数据洪流时代的生存法则第一章 Kafka:数据世界的中央神经系统消息引擎核心设计哲学高吞吐