python panda库从基础到高级操作分析

2025-08-01 20:50

本文主要是介绍python panda库从基础到高级操作分析,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

《pythonpanda库从基础到高级操作分析》本文介绍了Pandas库的核心功能,包括处理结构化数据的Series和DataFrame数据结构,数据读取、清洗、分组聚合、合并、时间序列分析及大数据...

1. Pandas 概述

Pandas 是 python 数据科学领域的核心库,专为处理结构化数据而设计。它提供了两种核心数据结构:Series(一维数组)和DataFrame(二维表格),支持高效的数据操作、清洗和分析。Pandas 的主要优势包括:

  • 高效处理大型数据集
  • 灵活的数据清洗和转换功能
  • 强大的分组和聚合操作
  • 无缝对接其他科学计算库(如 NumPy、Matplotlib)
import pandas as pd
import numpy as np
# 创建Series(一维数据结构)
s = pd.Series([1, 3, 5, np.nan, 6, 8])
print("Series示例:")
print(s)
# 创建DataFrame(二维表格)
df = pd.DataFrame({
    'Name': ['Alice', 'Bob', 'Charlie'],
    'Age': [25, 30, 35],
    'City': ['New York', 'London', 'Paris']
})
print("\nDataFrame示例:")
print(df)

输出结果:

Series示例:
0     1.0
1     3.0
2     5.0
3     NaN
4     6.0
5     8.0
dtype: float64

DataFrame示例:
     Name  Age      City
0   Alice   25  New York
1     Bob   30    London
2  Charlie   35     Paris

2. 基本操作:数据读取与查看

Pandas 提供了丰富的接口用于读取不同格式的数据,并支持便捷的数据探查功能。

# 构造示例数据
data = {
    'Name': ['Alice', 'Bob', 'Charlieandroid', 'David', 'Eve'],
    'Age': [25, 30, 35, 28, 22],
    'City': ['New York', 'London', 'Paris', 'New York', 'Berlin'],
    'Salary': [5000, 6000, 7000, 5500, 4500]
}
df = pd.DataFrame(data)
# 保存为CSV文件
df.to_csv('sample_data.csv', index=False)
# 从CSV读取数据
df = pd.read_csv('sample_data.csv')
# 查看数据基本信息
print("数据基本信息:")
df.info()
# 查看数据前几行
print("\n数据前5行:")
print(df.head())
# 查看数据统计摘要
print("\n数据统计摘要:")
print(df.describe())
# 查看数据形状
rows, columns = df.shape
print(f"\n数据形状: {rows}行{columns}列")

输出结果:

数据基本信息:
<class 'pandas.core.frameworks.dataframe.DataFrame'>
RangeIndex: 5 entries, 0 to 4
Data columns (total 4 columns):
 #   Column  Non-Null Count  Dtype
---  ------  --------------  -----
 0   Name    5 non-null      object
 1   Age     5 non-null      int64
 2   City    5 non-null      object
 3   Salary  5 non-null      int64
dtypes: int64(2), object(2)
memory usage: 240.0+ bytes

数据前5行:
     Name  Age     City  Salary
0   Alice   25  New York    5000
1     Bob   30   London    6000
2  Charlie   35    Paris    7000
3   David   28  New York    5500
4     Eve   22   Berlin    4500

数据统计摘要:
       Age     Salary
count  5.0   5.0
mean   28.0  5600.0
std     5.0   953.9
min    22.0  4500.0
25%    25.0  5000.0
50%    28.0  5500.0
75%    30.0  6000.0
max    35.0  7000.0

数据形状: 5行4列

3. 索引操作:精准定位数据

Pandas 支持多种索引方式,包括位置索引、标签索引和布尔索引,满足不同场景的数据访问需求。

# 位置索引 (iloc)
print("第一行数据 (iloc[0]):")
print(df.iloc[0])
print("\n前两行数据 (iloc[:2]):")
print(df.iloc[:2])
# 标签索引 (loc)
df.set_index('Name', inplace=True)
print("\n以Name为索引后,查询Alice的记录 (loc['Alice']):")
print(df.loc['Alice'])
# 布尔索引
print("\n年龄大于30的记录:")
print(df[df['Age'] > 30])
# 组合索引
print("\n查询New York的高收入人群 (Salary > 5000):")
print(df[(df['City'] == 'New York') & (df['Salary'] > 5000)])

输出结果:

第一行数据 (iloc[0]):
Name         Alice
Age            25
City      New York
Salary       5000
Name: 0, dtype: object

前两行数据 (iloc[:2]):
     Name  Age     City  Salary
0   Alice   25  New York    5000
1     Bob   30   London    6000

以Name为索引后,查询Alice的记录 (loc['Alice']):
Age            25
City      New York
Salary       5000
Name: Alice, dtype: object

年龄大于30的记录:
          Age     City  Salary
Name                        
Charlie    35    Paris    7000

查询New York的高收入人群 (Salary > 5000):
          Age     City  Salary
Name                        
David      28  New York    5500

4. GroupBy 操作:分组聚合分析

GroupBy 是 Pandas 中最强大的功能之一,支持按指定列分组后进行各种聚合计算。

# 按City分组,计算平均年龄
city_age_mean = df.groupby('City')['Age'].mean()
print("各城市平均年龄:")
print(city_age_mean)
# 多列分组并应用多个聚合函数
grouped = df.groupby(['City', 'Age']).agg({
    'Salary': ['mean', 'sum']
})
print("\n按城市和年龄分组后的薪资统计:")
print(grouped)
# 分组后筛选 - 只保留平均薪资大于5500的城市
filtered_groups = df.groupby('City').filter(lambda x: x['Salary'].mean() > 5500)
print("\n平均薪资大于5500的城市记录:")
print(filtered_groups)
# 分组后应用自定义函数
def salary_range(x):
    return x.max() - x.min()
city_salary_range = df.groupby('City')['Salary'].apply(salary_range)
print("\n各城市薪资范围:")
print(city_salary_range)

输出结果:

各城市平均年龄:
City
Berlin    22.0
London    30.0
New York  26.5
Paris     35.0
Name: Age, dtype: float64

按城市和年龄分组后的薪资统计:
               Salary      
             mean   sum
City   Age               
Berlin 22.0  4500.0 4500
London 30.0  6000.0 6000
New York 25.0  5000.0 5000
       28.0  5500.0 5500
Paris  35.0  7000.0 7000

平均薪资大于5500的城市记录:
          Age     City  Salary
Name                        
Bob        30   London    6000
Charlie    35    Paris    7000

各城市薪资范围:
City
Berlin      0
London      0
New York    500
Paris       0
Name: Salary, dtype: int64

5. 数值运算:向量化计算

Pandas 支持高效的向量化运算,避免显式循环,大幅提高计算效率。

# 单列运算 - 所有年龄加1
df['Age'] = df['Age'] + 1
print("年龄加1后的数据集:")
print(df)
# 多列运算 - 添加年薪列(假设Salary是月薪)
df['Annual_Salary'] = df['Salary'] * 12
print("\n添加年薪列后的数据集:")
print(df)
# 统计函数
print("\n各城市平均年龄:")
print(df.groupby('City')['Age'].mean())
print("\n各城市平均年薪:")
print(df.groupby('City')['Annual_Salary'].mean())
# 相关系数计算
print("\nAge与Salary的相关系数:")
print(df['Age'].corr(df['Salary']))

输出结果:

年龄加1后的数据集:
          Age     City  Salary  Annual_Salary
Namewww.chinasem.cn                                    
Alice      26  New York    5000         60000
Bob        31   London    6000         72000
Charlie    36    Paris    7000         84000
David      29  New York    5500         66000
Eve        23   Berlin    4500         54000

添加年薪列后的数据集:
          Age     City  Salary  Annual_Salary
Name                                    
Alice      26  New York    5000         60000
Bob        31   London    6000         72000
Charlie    36    Paris    7000         84000
David      29  New York    5500         66000
Eve        23   Berlin    4500         54000

各城市平均年龄:
City
Berlin    23.0
London    31.0
New York  27.5
Paris     36.0
Name: Age, dtype: float64

各城市平均年薪:
City
Berlin    54000.0
London    72000.0
New York  63000.0
Paris     84000.0
Name: Annual_Salary, dtype: float64

Age与Salary的相关系数:
0.9411252628281636

6. 对象操作:数据增删改查

Pandas 提供了灵活的接口用于数据框的结构修改,包括列和行的增删改查。

# 添加新列 - 年龄段分类
df['Age_Category'] = pd.cut(df['Age'], bins=[20, 25, 30, 35, 40], 
                           labels=['Young', 'Early Career', 'Mid Career', 'Senior'])
print("添加年龄段分类后的数据集:")
print(df)
# 删除列 - 删除Age列
df.drop('Age', axis=1, inplace=True)
print("\n删除Age列后的数据集:")
print(df)
# 修改数据 - 将New York的薪资提高5%
df.loc[df['City'] == 'New York', 'Salary'] *= 1.05
print("\n调整New York薪资后的数据集:")
print(df)
# 插入行
new_row = pd.DataFrame({
    'Name': ['Frank'],
    'City': ['Sydney'],
    'Salary': [6500],
    'Annual_Salary': [6500*12],
    'Age_Category': ['Mid Career']
}, index=['Frank'])
df = pd.concat([df, new_row])
print("\n插入新行后的数据集:")
print(df)

输出结果:

添加年龄段分类后的数据集:
          Age     City  Salary  Annual_Salary Age_Category
Name                                                    
Alice      26  New York    5000         60000  Early Career
Bob        31   London    6000         72000    Mid Career
Charlie    36    Paris    7000         84000     Senior
David     &nbandroidsp;29  New York    5500         66000  Early Career
Eve        23   Berlin    4500         54000        Young

删除Age列后的数据集:
          City  Salary  Annual_Salary Age_Category
Name                                                    
Alice  New York    5000         60000  Early Career
Bob    London    6000         72000    Mid Career
Charlie   Paris    7000         84000     Senior
David  New York    5500         66000  Early Career
Eve    Berlin    4500         54000        Young

调整New York薪资后的数据集:
          City  Salary  Annual_Salary Age_Category
Name                                                    
Alice  New York    5250         63000  Early Career
Bob    London    6000         72000    Mid Career
Charlie   Paris    7000         84000     Senior
David  New York    5775         69300  Early Career
Eve    Berlin    4500         54000        Young

插入新行后的数据集:
          City  Salary  Annual_Salary Age_Category
Name                                                    
Alice  New York    5250         63000  Early Career
Bob    London    6000         72000    Mid Career
Charlie   Paris    7000         84000     Senior
David  New York    5775         69300  Early Career
Eve    Berlin    4500         54000        Young
Frank  Sydney    6500         78000    Mid Career

7. Merge 操作:数据合并

Pandas 支持多种方式合并不同的数据框,包括内连接、外连接等常见数据库操作。

# 创建第二个数据框
df2 = pd.DataFrame({
    'Name': ['Alice', 'Bob', 'Charlie', 'Frank'],
    'Department': ['Engineering', 'Marketing', 'Engineering', 'HR']
})
# 内连接 - 只保留两个数据框都有的Name
merged_inner = pd.merge(df, df2, on='Name', how='inner')
print("内连接结果:")
print(merged_inner)
# 左连接 - 保留左数据框的所有记录
merged_left = pd.merge(df, df2, on='Name', how='left')
print("\n左连接结果:")
print(merged_left)
# 右连接 - 保留右数据框的所有记录
merged_right = pd.merge(df, df2, on='Name', how='right')
print("\n右连接结果:")
print(merged_right)
# 全连接 - 保留两个数据框的所有记录
merged_outer = pd.merge(df, df2, on='Name', how='outer')
print("\n全连接结果:")
print(merged_outer)

输出结果:

内连接结果:
          City  Salary  Annual_Salary Age_Category  Department
Name                                                        
Alice  New York    5250         63000  Early Career  Engineering
Bob    London    6000         72000    Mid Career   Marketing
Charlie   Paris    7000         84000     Senior  Engineering
Frank  Sydney    6500         78000    Mid Career           HR

左连接结果:
          City  Salary  Annual_Salary Age_Category Department
Name                                                        
Alice  New York    5250         63000  Early Career  Engineering
Bob    London    6000         72000    Mid Career   Marketing
Charlie   Paris    7000         84000     Senior  Engineering
David  New York    5775         69300  Early Career        NaN
Eve    Berlin    4500         54000        Young        NaN
Frank  Sydney    6500         78000    Mid Career           HR

右连接结果:
          City  Salary  Annual_Salary Age_Category  Department
Name                                                        
Alice  New York    5250         63000  Early Career  Engineering
Bob    London    6000         72000    Mid Career   Marketing
Charlie   Paris    7000         84000     Senior  Engineering
Frank  Sydney    6500         78000    Mid Career           HR

全连接结果:
          City  Salary  Annual_Salary Age_Category  Department
Name                                                        
Alice  New York    5250         63000  Early Career  Engineering
Bob    London    6000         72000    Mid Career   Marketing
Charlie   Paris    7000         84000     Senior  Engineering
David  New York    5775         69300  Early Career        NaN
Eve    Berlin    4500         54000        Young        NaN
Frank  Sydney    6500         78000    Mid Career           HR

8. 数据透视表:多维数据分析

数据透视表是分析多维数据的强大工具,支持在行、列维度上同时进行分组和聚合。

# 创建示例数据
data = {
    'Year': [2020, 2020, 2020, 2021, 2021, 2021],
    'Month': [1, 2, 3, 1, 2, 3],
    'City': ['New York', 'New York', 'London', 'New York', 'London', 'London'],
    'Sales': [100, 120, 110, 130, 140, 150]
}
sales_df = pd.DataFrame(data)
# 创建基本数据透视表 - 按年和月分组,计算Sales总和
pivot_sales = sales_df.pivot_table(
    values='Sales', 
    index='Year', 
    columns='Month', 
    aggfunc='sum'
)
print("按年和月分组的销售数据透视表:")
print(pivot_sales)
# 多层数据透视表 - 同时按年、月和城市分组
multi_pivot = sales_df.pivot_table(
 www.chinasem.cn   values='Sales', 
    index=['Year', 'City'], 
    columns='Month', 
    aggfunc='sum'
)
print("\n按年、城市和月分组的销售数据透视表:")
print(multi_pivot)
# 应用多个聚合函数
pivot_agg = sales_df.pivot_table(
    values='Sales', 
    index='Year', 
    columns='City', 
    aggfunc=['sum', 'mean', 'count']
)
print("\n应用多个聚合函数的数据透视表:")
print(pivot_agg)

输出结果:

按年和月分组的销售数据透视表:
Month  1    2    3
Year              
2020  100  120  110
2021  130  140  150

按年、城市和月分组的销售数据透视表:
Month           1    2    3
Year City                    
2020 New York  100  120  NaN
     London   NaN  NaN  110
2021 New York  130  NaN  NaN
     London   NaN  140  150

应用多个聚合函数的数据透视表:
           sum       mean  count
City     New York London New York London New York London
Year                                          
2020        220    110     2      1      2      1
2021        130    290     1      2      1      2

9. 时间序列处理

Pandas 对时间序列数据提供了强大的支持,包括日期解析、频率转换和时间差计算。

# 创建带时间序列的数据
dates = pd.date_range(start='2023-01-01', periods=6, freq='M')
sales = [100, 120, 110, 130, 140, 150]
ts_df = pd.DataFrame({
    'Date': dates,
    'Sales': sales
})
# 转换为datetime类型
ts_df['Date'] = pd.to_datetime(ts_df['Date'])
print("时间序列数据:")
print(ts_df)
# 提取时间特征
ts_df['Year'] = ts_df['Date'].dt.year
ts_df['Month'] = ts_df['Date'].dt.month
ts_df['Quarter'] = ts_df['Date'].dt.quarter
print("\n添加时间特征后:")
print(ts_df)
# 时间序列重采样 - 按季度聚合
ts_df.set_index('Date', inplace=True)
quarterly_sales = ts_df.resample('Q').sum()
print("\n按季度聚合的销售数据:")
print(quarterly_sales)
# 计算时间差
ts_df['Previous_Sales'] = ts_df['Sales'].shift(1)
ts_df['Sales_Growth'] = ts_df['Sales'] - ts_df['Previous_Sales']
print("\n添加销售增长数据后:")
print(ts_df)

输出结果:

时间序列数据:
        Date  Sales
0 2023-01-31    100
1 2023-02-28    120
2 2023-03-31    110
3 2023-04-30    130
4 2023-05-31    140
5 2023-06-30   &jsnbsp;150

添加时间特征后:
        Date  Sales  Year  Month  Quarter
0 2023-01-31    100  2023      1        1
1 2023-02-28    120  2023      2        1
2 2023-03-31    110  2023      3        1
3 2023-04-30    130  2023      4        2
4 2023-05-31    140  2023      5        2
5 2023-06-30    150  2023      6        2

按季度聚合的销售数据:
            Sales  Year  Month  Quarter
Date                                  
2023-03-31      330  2023      3        1
2023-06-30      420  2023      6        2

添加销售增长数据后:
            Sales  Year  Month  Quarter  Previous_Sales  Sales_Growth
Date                                                                
2023-01-31    100  2023      1        1             NaN          NaN
2023-02-28    120  2023      2        1           100.0         20.0
2023-03-31    110  2023      3        1           120.0        -10.0
2023-04-30    130  2023      4        2           110.0         20.0
2023-05-31    140  2023      5        2           130.0         10.0
2023-06-30    150  2023      6        2           140.0         10.0

10. 大数据处理技巧

处理大规模数据时,Pandas 提供了多种优化方法,包括分块读取、数据类型优化和内存管理。

# 分块读取大文件示例
def process_chunk(chunk):
    """处理数据块的示例函数"""
    return chunk.groupby('City')['Salary'].mean()
# 模拟大文件分块读取
chunksize = 2
results = []
for chunk in pd.read_csv('sample_data.csv', chunksize=chunksize):
    results.append(process_chunk(chunk))
# 合并分块处理结果
final_result = pd.concat(results)
print("分块处理结果:")
print(final_result)
# 优化数据类型以减少内存占用
df['Salary'] = df['Salary'].astype('int32')  # 从int64转为int32
print("\n优化数据类型后内存使用:")
df.info()
# 使用category类型处理分类数据
df['City'] = df['City'].astype('category')
print("\n使用category类型后内存使用:")
df.info()
# 稀疏数据处理
sparse_data = pd.Series([0, 0, 0, 5, 0, 0, 10, 0], dtype='Sparse[int]')
print("\n稀疏数据示例:")
print(sparse_data)

输出结果:

分块处理结果:
City
New York    5000.0
London    6000.0
New York    5500.0
Berlin    4500.0
dtype: float64

优化数据类型后内存使用:
<class 'pandas.core.frameworks.dataframe.DataFrame'>
Index: 5 entries, Alice to Frank
Data columns (total 4 columns):
 #   Column        Non-Null Count  Dtype  
---  ------        --------------  -----  
 0   City          5 non-null      object 
 1   Salary        5 non-null      int32  
 2   Annual_Salary 5 non-null      int64  
 3   Age_Category  5 non-null      object 
dtypes: int32(1), int64(1), object(2)
memory usage: 240.0+ bytes

使用category类型后内存使用:
<class 'pandas.core.frameworks.dataframe.DataFrame'>
Index: 5 entries, Alice to Frank
Data columns (total 4 columns):
 #   Column        Non-Null Count  Dtype    
---  ------        --------------  -----    
 0   City          5 non-null      category
 1   Salary        5 non-null      int32    
 2   Annual_Salary 5 non-null      int64    
 3   Age_Category  5 non-null      object   
dtypes: category(1), int32(1), int64(1), object(1)
memory usage: 228.0+ bytes

稀疏数据示例:
0      0
1      0
2      0
3      5
4      0
5      0
6     10
7      0
dtype: Sparse[int, 0]

学习总结:Pandas 核心函数与方法

1. 数据结构创建

  • pd.Series(data):创建一维 Series 对象
  • pd.DataFrame(data):创建二维 DataFrame 对象
  • pd.read_csv(filepath):从 CSV 文件读取数据
  • pd.read_excel(filepath):从 Excel 文件读取数据
  • pd.date_range(start, periods, freq):创建日期范围

2. 数据查看与信息

  • df.info():查看数据基本信息
  • df.head(n):查看前 n 行数据
  • df.tail(n):查看后 n 行数据
  • df.describe():生成描述性统计
  • df.shape:获取数据行列数

3. 索引与筛选

  • df.iloc[]:基于位置的索引
  • df.loc[]:基于标签的索引
  • df[condition]:布尔索引
  • df.set_index(col):设置指定列为索引
  • df.reset_index():重置索引

4. 数据操作

  • df.drop(col, axis=1):删除列
  • df.assign(new_col=value):添加新列
  • df.rename(columns={}):重命名列
  • df.append(row):添加行
  • df.concat([df1, df2]):拼接数据框

5. 分组与聚合

  • df.groupby(col):按列分组
  • grouped.agg(func):应用聚合函数
  • grouped.apply(func):应用自定义函数
  • df.pivot_table():创建数据透视表
  • grouped.filter(func):分组后筛选

6. 数据合并

  • pd.merge(df1, df2, on=col):合并数据框
  • df.join(df2):按索引合并
  • pd.concat([df1, df2]):拼接数据框
  • df.append(row):添加行数据

7. 时间序列

  • pd.to_datetime(col):转换为日期时间
  • df.resample(freq):时间序列重采样
  • df.shift(n):数据位移
  • df.diff():计算差分
  • pd.date_range():生成日期范围

8. 性能优化

  • df.chunked = pd.read_csv(..., chunksize=):分块读取
  • df.astype(dtype):优化数据类型
  • df[col] = df[col].astype('category'):使用分类类型
  • pd.SparseSeries():处理稀疏数据

到此这篇关于python panda库从基础到高级操作的文章就介绍到这了,更多相关python panda库内容请搜索China编程(www.chinasem.cn)以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程China编程(www.chinasem.cn)!

这篇关于python panda库从基础到高级操作分析的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1155557

相关文章

Python pandas库自学超详细教程

《Pythonpandas库自学超详细教程》文章介绍了Pandas库的基本功能、安装方法及核心操作,涵盖数据导入(CSV/Excel等)、数据结构(Series、DataFrame)、数据清洗、转换... 目录一、什么是Pandas库(1)、Pandas 应用(2)、Pandas 功能(3)、数据结构二、安

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

Python安装Pandas库的两种方法

《Python安装Pandas库的两种方法》本文介绍了三种安装PythonPandas库的方法,通过cmd命令行安装并解决版本冲突,手动下载whl文件安装,更换国内镜像源加速下载,最后建议用pipli... 目录方法一:cmd命令行执行pip install pandas方法二:找到pandas下载库,然后

MySQL中EXISTS与IN用法使用与对比分析

《MySQL中EXISTS与IN用法使用与对比分析》在MySQL中,EXISTS和IN都用于子查询中根据另一个查询的结果来过滤主查询的记录,本文将基于工作原理、效率和应用场景进行全面对比... 目录一、基本用法详解1. IN 运算符2. EXISTS 运算符二、EXISTS 与 IN 的选择策略三、性能对比

Python实现网格交易策略的过程

《Python实现网格交易策略的过程》本文讲解Python网格交易策略,利用ccxt获取加密货币数据及backtrader回测,通过设定网格节点,低买高卖获利,适合震荡行情,下面跟我一起看看我们的第一... 网格交易是一种经典的量化交易策略,其核心思想是在价格上下预设多个“网格”,当价格触发特定网格时执行买

Python标准库之数据压缩和存档的应用详解

《Python标准库之数据压缩和存档的应用详解》在数据处理与存储领域,压缩和存档是提升效率的关键技术,Python标准库提供了一套完整的工具链,下面小编就来和大家简单介绍一下吧... 目录一、核心模块架构与设计哲学二、关键模块深度解析1.tarfile:专业级归档工具2.zipfile:跨平台归档首选3.

使用Python构建智能BAT文件生成器的完美解决方案

《使用Python构建智能BAT文件生成器的完美解决方案》这篇文章主要为大家详细介绍了如何使用wxPython构建一个智能的BAT文件生成器,它不仅能够为Python脚本生成启动脚本,还提供了完整的文... 目录引言运行效果图项目背景与需求分析核心需求技术选型核心功能实现1. 数据库设计2. 界面布局设计3

MySQL 内存使用率常用分析语句

《MySQL内存使用率常用分析语句》用户整理了MySQL内存占用过高的分析方法,涵盖操作系统层确认及数据库层bufferpool、内存模块差值、线程状态、performance_schema性能数据... 目录一、 OS层二、 DB层1. 全局情况2. 内存占js用详情最近连续遇到mysql内存占用过高导致

Python进行JSON和Excel文件转换处理指南

《Python进行JSON和Excel文件转换处理指南》在数据交换与系统集成中,JSON与Excel是两种极为常见的数据格式,本文将介绍如何使用Python实现将JSON转换为格式化的Excel文件,... 目录将 jsON 导入为格式化 Excel将 Excel 导出为结构化 JSON处理嵌套 JSON:

Python操作PDF文档的主流库使用指南

《Python操作PDF文档的主流库使用指南》PDF因其跨平台、格式固定的特性成为文档交换的标准,然而,由于其复杂的内部结构,程序化操作PDF一直是个挑战,本文主要为大家整理了Python操作PD... 目录一、 基础操作1.PyPDF2 (及其继任者 pypdf)2.PyMuPDF / fitz3.Fre