【机器学习】鸢尾花分类:机器学习领域经典入门项目实战

2024-06-14 07:52

本文主要是介绍【机器学习】鸢尾花分类:机器学习领域经典入门项目实战,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

学习机器学习,就像学习任何新技能一样,最好的方法之一就是通过实战来巩固理论知识。鸢尾花分类项目是一个经典的入门项目,它不仅简单易懂,还能帮助我们掌握机器学习的基本步骤和方法。

鸢尾花数据集(Iris Dataset)早在1936年就由英国生物学家 Ronald A. Fisher 引入。这个数据集包含了150个鸢尾花样本,每个样本有4个特征(花萼长度、花萼宽度、花瓣长度和花瓣宽度)和1个目标变量(鸢尾花的品种)。这个数据集常用于教学和练习,是机器学习领域的 “Hello World” 项目。

本项目旨在使用鸢尾花数据集,通过数据准备、数据预处理、数据分割、模型选择、模型训练、模型评估、模型优化和模型部署等步骤,全面展示机器学习的基本流程。我们将使用 Python 和 scikit-learn 库,通过实际代码演示如何完成一个完整的机器学习项目。希望这篇文章能够帮助初学者快速上手机器学习,理解和掌握关键的技术和方法。


文章目录

      • 1、项目介绍
        • 1.1、项目背景
        • 1.2、项目目标
        • 1.3、项目步骤
      • 2、项目实战
        • 2.1、数据准备
        • 2.2、数据可视化
        • 2.3、数据预处理
        • 2.4、数据分割
        • 2.5、选择模型
        • 2.6、训练模型
        • 2.7、评估模型
        • 2.8、模型优化
        • 2.9、模型部署
      • 3、项目源码


1、项目介绍

鸢尾花分类项目是机器学习领域中一个经典的入门项目,旨在通过分类算法将不同品种的鸢尾花进行分类。这个项目常用于教学和练习机器学习的基本概念。

1.1、项目背景

鸢尾花数据集(Iris Dataset)由英国生物学家和统计学家 Ronald A. Fisher 于 1936 年在他的论文《The use of multiple measurements in taxonomic problems》中首次引入。这个数据集包含了 150 个鸢尾花样本,每个样本有 4 个特征和 1 个目标变量。

  • 特征包括:花萼长度(sepal length)、花萼宽度(sepal width)、花瓣长度(petal length)和 花瓣宽度(petal width);
  • 目标变量:鸢尾花的品种(有三种类别:山鸢尾(Iris Setosa)、变色鸢尾(Iris Versicolour)以及 维吉尼亚鸢尾(Iris Virginica))。
1.2、项目目标

使用机器学习算法,根据鸢尾花的四个特征来预测其所属的品种。

1.3、项目步骤

以下是机器学习大致的基本步骤,我们后面实战部分也将是参考此步骤来进行的:

  1. 数据准备:获取并准备好数据集。在鸢尾花数据集中,这包括加载数据,了解数据的结构,检查是否有缺失值等;
  2. 数据预处理:对数据进行清洗和转换,如处理缺失值、标准化或归一化特征等;
  3. 数据分割:将数据分成训练集和测试集。训练集用于训练模型,测试集用于评估模型的性能;
  4. 选择模型:选择合适的机器学习算法来训练模型,如K近邻(KNN)、决策树、逻辑回归、支持向量机(SVM)等;
  5. 训练模型:使用训练数据来训练模型;
  6. 评估模型:使用测试数据评估模型的性能,查看模型的准确率、混淆矩阵等评估指标;
  7. 模型优化:根据评估结果调整模型参数,优化模型性能;
  8. 模型部署:将训练好的模型应用到实际问题中进行预测。

2、项目实战

2.1、数据准备

鸢尾花数据集作为机器学习领域中最著名的数据集之一,常用于入门级教学和算法验证。

我们可以通过以下地址对该数据集进行下载:https://archive.ics.uci.edu/dataset/53/iris。下载后,导入:

import pandas as pd# 指定列名
feature_names = ["sepal length (cm)","sepal width (cm)","petal length (cm)","petal width (cm)"
]# 加载数据
data = pd.read_csv('path/to/iris.data', header=None, names=feature_names + ['class'])# 查看数据
print(data.head())

或者,我们也可以使用 scikit-learn 库自带的标准数据集进行导入 from sklearn.datasets import load_iris

import pandas as pd
from sklearn.datasets import load_iris# 加载数据集
iris = load_iris()                                                              # 使用 load_iris 函数加载鸢尾花数据集,返回一个 Bunch 对象
data = pd.DataFrame(data=iris.data, columns=iris.feature_names)                 # 将数据集的特征数据转换为 pandas DataFrame,并指定列名为特征名称
data['target'] = iris.target                                                    # 在 DataFrame 中添加一列 'target',对应每个样本的目标标签
data['target_names'] = data['target'].apply(lambda x: iris.target_names[x])     # 添加一列 'target_names',通过映射 'target' 列的值来获取对应的目标名称# 查看数据
print(data.head())      # 查看数据集前五行数据
print('-')
print(data.info())      # 查看数据集的基本信息
print('-')
print(data.describe())  # 查看数据集的统计信息

打印结果:

   sepal length (cm)  sepal width (cm)  ...  target  target_names
0                5.1               3.5  ...       0        setosa
1                4.9               3.0  ...       0        setosa
2                4.7               3.2  ...       0        setosa
3                4.6               3.1  ...       0        setosa
4                5.0               3.6  ...       0        setosa[5 rows x 6 columns]
-
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 150 entries, 0 to 149
Data columns (total 6 columns):#   Column             Non-Null Count  Dtype  
---  ------             --------------  -----  0   sepal length (cm)  150 non-null    float641   sepal width (cm)   150 non-null    float642   petal length (cm)  150 non-null    float643   petal width (cm)   150 non-null    float644   target             150 non-null    int64  5   target_names       150 non-null    object 
dtypes: float64(4), int64(1), object(1)
memory usage: 7.2+ KB
None
-sepal length (cm)  sepal width (cm)  ...  petal width (cm)      target
count         150.000000        150.000000  ...        150.000000  150.000000
mean            5.843333          3.057333  ...          1.199333    1.000000
std             0.828066          0.435866  ...          0.762238    0.819232
min             4.300000          2.000000  ...          0.100000    0.000000
25%             5.100000          2.800000  ...          0.300000    0.000000
50%             5.800000          3.000000  ...          1.300000    1.000000
75%             6.400000          3.300000  ...          1.800000    2.000000
max             7.900000          4.400000  ...          2.500000    2.000000[8 rows x 5 columns]
2.2、数据可视化

通过数据可视化手段,探索数据的分布和特征之间的关系。使用 seabornpairplot 函数绘制特征之间的分布图,以便于观察数据的分布情况和不同类别之间的关系。

import seaborn as sns
import matplotlib.pyplot as plt# 绘制特征分布图
sns.pairplot(data, hue='target', markers=["o", "s", "D"])  # 使用 seaborn 库的 pairplot 函数绘制散点图矩阵,根据 'target' 列着色,并使用不同的标记
plt.show()                                                 # 显示图形

打印结果:

image-20240613150903410

2.3、数据预处理

对数据进行清洗和转换,如处理缺失值、标准化或归一化特征等。

# 检查是否有缺失值
print(data.isnull().sum())  # 打印每列的缺失值数量,以检查数据集中是否存在缺失值# 标准化特征值
scaler = StandardScaler()                                                  # 创建一个 StandardScaler 对象
data[iris.feature_names] = scaler.fit_transform(data[iris.feature_names])  # 对特征列进行标准化处理,使其均值为 0,标准差为 1# 查看标准化后的数据
print(data.head())  # 打印标准化后的数据集的前五行,查看标准化效果

打印结果:

       sepal length (cm)  sepal width (cm)  ...  petal width (cm)      target
count         150.000000        150.000000  ...        150.000000  150.000000
mean            5.843333          3.057333  ...          1.199333    1.000000
std             0.828066          0.435866  ...          0.762238    0.819232
min             4.300000          2.000000  ...          0.100000    0.000000
25%             5.100000          2.800000  ...          0.300000    0.000000
50%             5.800000          3.000000  ...          1.300000    1.000000
75%             6.400000          3.300000  ...          1.800000    2.000000
max             7.900000          4.400000  ...          2.500000    2.000000[8 rows x 5 columns]
-
sepal length (cm)    0
sepal width (cm)     0
petal length (cm)    0
petal width (cm)     0
target               0
target_names         0
dtype: int64sepal length (cm)  sepal width (cm)  ...  target  target_names
0          -0.900681          1.019004  ...       0        setosa
1          -1.143017         -0.131979  ...       0        setosa
2          -1.385353          0.328414  ...       0        setosa
3          -1.506521          0.098217  ...       0        setosa
4          -1.021849          1.249201  ...       0        setosa[5 rows x 6 columns]
2.4、数据分割

将数据分成训练集和测试集。训练集用于训练模型,测试集用于评估模型的性能。

分割数据集的主要目的是为了评估模型的性能。通过将数据集划分为训练集和测试集,我们可以在训练集上训练模型,并在测试集上评估模型的泛化能力。这有助于检测模型是否过拟合或欠拟合,并提供对模型性能的更真实的评估。

from sklearn.model_selection import train_test_split# 分割数据集
X = data[iris.feature_names]  # 特征数据,包含所有特征列
y = data['target']  # 目标数据,包含目标标签
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3,random_state=42)  # 将数据集按 70% 训练集和 30% 测试集进行分割,设置随机种子为 42 以确保可重复性# 查看分割后的数据集大小
print(f"训练集大小: {X_train.shape[0]}, 测试集大小: {X_test.shape[0]}")  # 打印训练集和测试集的大小

打印结果:

训练集大小: 105, 测试集大小: 45
2.5、选择模型

选择合适的机器学习算法来训练模型,如 K近邻(KNN)、决策树、逻辑回归、支持向量机(SVM)等。

这里选择 K 近邻(KNN)算法。

from sklearn.neighbors import KNeighborsClassifier# 初始化 KNN 分类器
knn = KNeighborsClassifier(n_neighbors=3)  # 创建一个 K 近邻分类器对象,设置近邻数为 3
2.6、训练模型

使用训练数据来训练模型。

# 训练模型
knn.fit(X_train, y_train)     # 使用训练数据训练 K 近邻分类器模型
2.7、评估模型

使用测试数据评估模型的性能,查看模型的准确率、混淆矩阵等评估指标。

评估指标解释:

  1. 准确率(Accuracy):正确预测的样本数占总样本数的比例;
  2. 分类报告(Classification Report),包括精确率、召回率、F1 分数和支持:
    • 精确率(Precision):正确预测的正样本数占预测为正样本数的比例;
    • 召回率(Recall):正确预测的正样本数占实际正样本数的比例;
    • F1 分数(F1-score):精确率和召回率的调和平均数;
    • 支持(Support):实际样本中每个类别的数量;
  3. 混淆矩阵(Confusion Matrix):显示实际标签和预测标签的分布,帮助理解分类模型的错误类型。
pfrom sklearn.metrics import accuracy_score, classification_report, confusion_matrix# 预测测试集
y_pred = knn.predict(X_test)  # 使用训练好的模型对测试数据进行预测,得到预测标签# 评估模型
print(f"Accuracy: {accuracy_score(y_test, y_pred)}")                      # 计算并打印模型在测试集上的准确率
print('-')
print("Classification Report:\n", classification_report(y_test, y_pred))  # 打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))            # 打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')

打印结果:

Accuracy: 1.0
-
Classification Report:precision    recall  f1-score   support0       1.00      1.00      1.00        191       1.00      1.00      1.00        132       1.00      1.00      1.00        13accuracy                           1.00        45macro avg       1.00      1.00      1.00        45
weighted avg       1.00      1.00      1.00        45-
Confusion Matrix:[[19  0  0][ 0 13  0][ 0  0 13]]
2.8、模型优化

根据评估结果调整模型参数,优化模型性能。例如,通过网格搜索优化 KNN 模型的参数。

PS:网格搜索是一种系统化的方法,用于调整模型的超参数以提高模型的性能。通过交叉验证和不同参数组合的评估,网格搜索可以找到最佳的参数配置,从而提高模型的预测准确性和泛化能力。

from sklearn.model_selection import GridSearchCV# 定义参数范围
param_grid = {'n_neighbors': range(1, 20)}  # 创建一个参数字典,设置 'n_neighbors' 参数的取值范围为 1 到 19# 网格搜索
grid_search = GridSearchCV(KNeighborsClassifier(), param_grid, cv=5)  # 创建一个 GridSearchCV 对象,使用 KNeighborsClassifier 和定义的参数范围,设置交叉验证折数为 5
grid_search.fit(X_train, y_train)                                     # 使用训练数据进行网格搜索,以找到最佳参数组合# 最优参数
print(f"Best parameters: {grid_search.best_params_}")  # 打印通过网格搜索找到的最优参数
print('-')# 使用最优参数训练模型
knn_best = grid_search.best_estimator_  # 获取使用最优参数训练的最佳模型
y_pred_best = knn_best.predict(X_test)  # 使用最佳模型对测试数据进行预测# 评估模型
print(f"Accuracy(best): {accuracy_score(y_test, y_pred)}")                      # (优化后)计算并打印模型在测试集上的准确率
print('-')
print("Classification Report(best):\n", classification_report(y_test, y_pred))  # (优化后)打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix(best):\n", confusion_matrix(y_test, y_pred))            # (优化后)打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')

打印结果:

Best parameters: {'n_neighbors': 1}
-
Accuracy(best): 1.0
-
Classification Report(best):precision    recall  f1-score   support0       1.00      1.00      1.00        191       1.00      1.00      1.00        132       1.00      1.00      1.00        13accuracy                           1.00        45macro avg       1.00      1.00      1.00        45
weighted avg       1.00      1.00      1.00        45-
Confusion Matrix(best):[[19  0  0][ 0 13  0][ 0  0 13]]
2.9、模型部署

将训练好的模型应用到实际问题中进行预测。例如,预测新的鸢尾花样本的类别。

PS:为什么要标准化新样本?标准化新样本是必要的步骤,因为模型在训练时使用的是标准化后的数据。如果新样本没有经过相同的标准化处理,特征值的尺度可能会与训练数据不同,从而导致预测不准确。通过使用相同的 StandardScaler 对新样本进行标准化,可以确保特征值在相同的尺度上,保证模型的预测效果。

# 新样本数据
new_samples = [[5.1, 3.5, 1.4, 0.2], [6.7, 3.0, 5.2, 2.3]]# 将新样本数据转换为 DataFrame,并指定特征名称
new_samples_df = pd.DataFrame(new_samples, columns=iris.feature_names)# 标准化新样本
new_samples_scaled = scaler.transform(new_samples_df)  # 使用之前的标准化器 scaler 对新样本进行标准化处理,使其与训练数据具有相同的尺度# 预测新样本的类别
predictions = knn_best.predict(new_samples_scaled)  # 使用最佳模型 knn_best 对标准化后的新样本进行类别预测
print(f"新样本的预测类别: {predictions}")  # 打印新样本的预测类别

打印结果:

新样本的预测类别: [0 2]

打印结果显示新样本的预测类别分别为 [0, 2],即第一个新样本被预测为类别 0,第二个新样本被预测为类别 2。结合鸢尾花数据集的类别名称,这意味着:

  • 类别 0 对应的是 Iris-setosa
  • 类别 2 对应的是 Iris-virginica

3、项目源码

import matplotlib.pyplot as plt
import pandas as pd
import seaborn as snsfrom sklearn.datasets import load_iris
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split, GridSearchCV
from sklearn.neighbors import KNeighborsClassifier
from sklearn.metrics import accuracy_score, classification_report, confusion_matrix# 加载数据集
iris = load_iris()  # 使用 load_iris 函数加载鸢尾花数据集,返回一个 Bunch 对象
data = pd.DataFrame(data=iris.data, columns=iris.feature_names)  # 将数据集的特征数据转换为 pandas DataFrame,并指定列名为特征名称
data['target'] = iris.target  # 在 DataFrame 中添加一列 'target',对应每个样本的目标标签
data['target_names'] = data['target'].apply(lambda x: iris.target_names[x])  # 添加一列 'target_names',通过映射 'target' 列的值来获取对应的目标名称# 查看数据
print(data.head())  # 查看数据集前五行数据
print('-')
print(data.info())  # 查看数据集的基本信息
print('-')
print(data.describe())  # 查看数据集的统计信息
print('-')# 绘制特征分布图
sns.pairplot(data, hue='target', markers=["o", "s", "D"])  # 使用 seaborn 库的 pairplot 函数绘制散点图矩阵,根据 'target' 列着色,并使用不同的标记
plt.show()  # 显示图形# 检查是否有缺失值
print(data.isnull().sum())  # 打印每列的缺失值数量,以检查数据集中是否存在缺失值# 标准化特征值
scaler = StandardScaler()  # 创建一个 StandardScaler 对象
data[iris.feature_names] = scaler.fit_transform(data[iris.feature_names])  # 对特征列进行标准化处理,使其均值为 0,标准差为 1# 查看标准化后的数据
print(data.head())  # 打印标准化后的数据集的前五行,查看标准化效果
print('-')# 分割数据集
X = data[iris.feature_names]  # 特征数据,包含所有特征列
y = data['target']  # 目标数据,包含目标标签
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3,random_state=42)  # 将数据集按 70% 训练集和 30% 测试集进行分割,设置随机种子为 42 以确保可重复性# 查看分割后的数据集大小
print(f"训练集大小: {X_train.shape[0]}, 测试集大小: {X_test.shape[0]}")  # 打印训练集和测试集的大小
print('-')# 初始化 KNN 分类器
knn = KNeighborsClassifier(n_neighbors=3)  # 创建一个 K 近邻分类器对象,设置近邻数为 3# 训练模型
knn.fit(X_train, y_train)     # 使用训练数据训练 K 近邻分类器模型# 预测测试集
y_pred = knn.predict(X_test)  # 使用训练好的模型对测试数据进行预测,得到预测标签# 评估模型
print(f"Accuracy: {accuracy_score(y_test, y_pred)}")                      # 计算并打印模型在测试集上的准确率
print('-')
print("Classification Report:\n", classification_report(y_test, y_pred))  # 打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix:\n", confusion_matrix(y_test, y_pred))            # 打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')# 定义参数范围
param_grid = {'n_neighbors': range(1, 20)}  # 创建一个参数字典,设置 'n_neighbors' 参数的取值范围为 1 到 19# 网格搜索
grid_search = GridSearchCV(KNeighborsClassifier(), param_grid, cv=5)  # 创建一个 GridSearchCV 对象,使用 KNeighborsClassifier 和定义的参数范围,设置交叉验证折数为 5
grid_search.fit(X_train, y_train)                                     # 使用训练数据进行网格搜索,以找到最佳参数组合# 最优参数
print(f"Best parameters: {grid_search.best_params_}")  # 打印通过网格搜索找到的最优参数
print('-')# 使用最优参数训练模型
knn_best = grid_search.best_estimator_  # 获取使用最优参数训练的最佳模型
y_pred_best = knn_best.predict(X_test)  # 使用最佳模型对测试数据进行预测# 评估模型
print(f"Accuracy(best): {accuracy_score(y_test, y_pred)}")                      # (优化后)计算并打印模型在测试集上的准确率
print('-')
print("Classification Report(best):\n", classification_report(y_test, y_pred))  # (优化后)打印分类报告,包括精确率、召回率、F1 分数等
print('-')
print("Confusion Matrix(best):\n", confusion_matrix(y_test, y_pred))            # (优化后)打印混淆矩阵,显示真实标签和预测标签之间的关系
print('-')# 新样本数据
new_samples = [[5.1, 3.5, 1.4, 0.2], [6.7, 3.0, 5.2, 2.3]]  # 定义新的样本数据,每个样本包含四个特征值# 将新样本数据转换为 DataFrame,并指定特征名称
new_samples_df = pd.DataFrame(new_samples, columns=iris.feature_names)# 标准化新样本
new_samples_scaled = scaler.transform(new_samples_df)  # 使用之前的标准化器 scaler 对新样本进行标准化处理,使其与训练数据具有相同的尺度# 预测新样本的类别
predictions = knn_best.predict(new_samples_scaled)  # 使用最佳模型 knn_best 对标准化后的新样本进行类别预测
print(f"新样本的预测类别: {predictions}")              # 打印新样本的预测类别

通过这段代码,我们展示了如何加载鸢尾花数据集、进行标准化处理、分割数据集、使用网格搜索优化 K 近邻分类器、训练模型、评估模型以及对新样本进行预测。最终的预测结果 [0, 2] 表明第一个新样本被预测为 Iris-setosa,第二个新样本被预测为 Iris-virginica,这验证了整个机器学习过程的正确性和有效性。

这篇关于【机器学习】鸢尾花分类:机器学习领域经典入门项目实战的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1059809

相关文章

vite搭建vue3项目的搭建步骤

《vite搭建vue3项目的搭建步骤》本文主要介绍了vite搭建vue3项目的搭建步骤,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学... 目录1.确保Nodejs环境2.使用vite-cli工具3.进入项目安装依赖1.确保Nodejs环境

Python版本信息获取方法详解与实战

《Python版本信息获取方法详解与实战》在Python开发中,获取Python版本号是调试、兼容性检查和版本控制的重要基础操作,本文详细介绍了如何使用sys和platform模块获取Python的主... 目录1. python版本号获取基础2. 使用sys模块获取版本信息2.1 sys模块概述2.1.1

idea+spring boot创建项目的搭建全过程

《idea+springboot创建项目的搭建全过程》SpringBoot是Spring社区发布的一个开源项目,旨在帮助开发者快速并且更简单的构建项目,:本文主要介绍idea+springb... 目录一.idea四种搭建方式1.Javaidea命名规范2JavaWebTomcat的安装一.明确tomcat

pycharm跑python项目易出错的问题总结

《pycharm跑python项目易出错的问题总结》:本文主要介绍pycharm跑python项目易出错问题的相关资料,当你在PyCharm中运行Python程序时遇到报错,可以按照以下步骤进行排... 1. 一定不要在pycharm终端里面创建环境安装别人的项目子模块等,有可能出现的问题就是你不报错都安装

Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题

《Python爬虫HTTPS使用requests,httpx,aiohttp实战中的证书异步等问题》在爬虫工程里,“HTTPS”是绕不开的话题,HTTPS为传输加密提供保护,同时也给爬虫带来证书校验、... 目录一、核心问题与优先级检查(先问三件事)二、基础示例:requests 与证书处理三、高并发选型:

uni-app小程序项目中实现前端图片压缩实现方式(附详细代码)

《uni-app小程序项目中实现前端图片压缩实现方式(附详细代码)》在uni-app开发中,文件上传和图片处理是很常见的需求,但也经常会遇到各种问题,下面:本文主要介绍uni-app小程序项目中实... 目录方式一:使用<canvas>实现图片压缩(推荐,兼容性好)示例代码(小程序平台):方式二:使用uni

MyCat分库分表的项目实践

《MyCat分库分表的项目实践》分库分表解决大数据量和高并发性能瓶颈,MyCat作为中间件支持分片、读写分离与事务处理,本文就来介绍一下MyCat分库分表的实践,感兴趣的可以了解一下... 目录一、为什么要分库分表?二、分库分表的常见方案三、MyCat简介四、MyCat分库分表深度解析1. 架构原理2. 分

Oracle Scheduler任务故障诊断方法实战指南

《OracleScheduler任务故障诊断方法实战指南》Oracle数据库作为企业级应用中最常用的关系型数据库管理系统之一,偶尔会遇到各种故障和问题,:本文主要介绍OracleSchedul... 目录前言一、故障场景:当定时任务突然“消失”二、基础环境诊断:搭建“全局视角”1. 数据库实例与PDB状态2

Git进行版本控制的实战指南

《Git进行版本控制的实战指南》Git是一种分布式版本控制系统,广泛应用于软件开发中,它可以记录和管理项目的历史修改,并支持多人协作开发,通过Git,开发者可以轻松地跟踪代码变更、合并分支、回退版本等... 目录一、Git核心概念解析二、环境搭建与配置1. 安装Git(Windows示例)2. 基础配置(必

linux查找java项目日志查找报错信息方式

《linux查找java项目日志查找报错信息方式》日志查找定位步骤:进入项目,用tail-f实时跟踪日志,tail-n1000查看末尾1000行,grep搜索关键词或时间,vim内精准查找并高亮定位,... 目录日志查找定位在当前文件里找到报错消息总结日志查找定位1.cd 进入项目2.正常日志 和错误日