深度学习Day-15:LSTM实现火灾预测

2024-05-03 18:52

本文主要是介绍深度学习Day-15:LSTM实现火灾预测,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

 🍨 本文为:[🔗365天深度学习训练营] 中的学习记录博客
 🍖 原作者:[K同学啊 | 接辅导、项目定制]

要求:

  1. 了解LSTM是什么,并使用其构建一个完整的程序;
  2. R2达到0.83;

一、 基础配置

  • 语言环境:Python3.7
  • 编译器选择:Pycharm
  • 深度学习环境:TensorFlow2.4.1
  • 数据集:私有数据集

二、 前期准备 

1.设置GPU

import tensorflow as tfgpus = tf.config.list_physical_devices("GPU")if gpus:tf.config.experimental.set_memory_growth(gpus[0], True)  #设置GPU显存用量按需使用tf.config.set_visible_devices([gpus[0]],"GPU")# 打印显卡信息,确认GPU可用
print(gpus)

根据个人设备情况,选择使用GPU/CPU进行训练,若GPU可用则输出:

[PhysicalDevice(name='/physical_device:GPU:0', device_type='GPU')]

由于在设备上安装的CUDA版本与TensorFlow版本不一致,故这里直接安装了CPU版的TensorFlow,无上述输出。

2. 导入数据

本项目所采用的数据集未收录于公开数据中,故需要自己在文件目录中导入相应数据集合,并设置对应文件目录,以供后续学习过程中使用。

运行下述代码,实现文件写入:

import  pandas as pd
import numpy as np
import matplotlib.pyplot as plt
import seaborn as snsdf_1 = pd.read_csv("./data/woodpine2.csv")

3.数据可视化 

通过运行下述代码

plt.rcParams['savefig.dpi'] = 500
plt.rcParams['figure.dpi'] = 500fig,ax = plt.subplots(1,3,constrained_layout = True , figsize = (14,3))sns.lineplot(data=df_1["Tem1"],ax=ax[0])
sns.lineplot(data=df_1["CO 1"],ax=ax[1])
sns.lineplot(data=df_1["Soot 1"],ax=ax[2])plt.show()

可以得到如下输出:

三、数据预处理

1.设置X,y

首先通过下面代码,将数据集一列的时间行去除(即保留第二列值最后一列的所有列),并按照序号的形式排列:

dataFrame = df_1.iloc[:,1:]
print(dataFrame)

得到如下输出:

       Tem1      CO 1    Soot 1
0      25.0  0.000000  0.000000
1      25.0  0.000000  0.000000
2      25.0  0.000000  0.000000
3      25.0  0.000000  0.000000
4      25.0  0.000000  0.000000
...     ...       ...       ...
5943  295.0  0.000077  0.000496
5944  294.0  0.000077  0.000494
5945  292.0  0.000077  0.000491
5946  291.0  0.000076  0.000489
5947  290.0  0.000076  0.000487[5948 rows x 3 columns]

因为需要实现:使用1-8时刻段预测9时刻段,则通过下述代码做好长度的确定:

width_X = 8
width_y = 1

接着,我们根据刚刚确定的长度,对数据进行划分:

X = []
y = []in_start = 0for _,_ in df_1.iterrows():in_end = in_start + width_Xout_end = in_end + width_yif out_end < len(dataFrame):X_ = np.array(dataFrame.iloc[in_start:in_end,])X_ = X_.reshape((len(X_)*3))y_ = np.array(dataFrame.iloc[in_end:out_end,0])X.append(X_)y.append(y_)in_start += 1X = np.array(X)
y = np.array(y)print(X.shape,y.shape)

得到如下输出: 

(5939, 24) (5939, 1)

2.归一化

from sklearn.preprocessing import MinMaxScalersc = MinMaxScaler(feature_range=(0,1))
X_scaled = sc.fit_transform(X)
print(X_scaled.shape)

得到如下输出:

(5939, 24)

通过运行下述代码:

X_scaled = X_scaled.reshape(len(X_scaled),width_X,3)
print(X_scaled.shape)

 得到如下输出:

(5939, 8, 3)

 3.划分数据集

取5000之前的数据作为训练集,5000之后的数据作为验证集:

X_train = np.array(X_scaled[:5000]).astype('float64')
y_train = np.array(y[:5000]).astype('float64')X_test = np.array(X_scaled[5000:]).astype('float64')
y_test = np.array(y[5000:]).astype('float64')print(X_train.shape)

得到如下输出:

(5000, 8, 3)

四、构建模型

from tensorflow.keras.models import Sequential
from  tensorflow.keras.layers import Dense,LSTMmodel_lstm = Sequential()
model_lstm.add(LSTM(units=64,activation='relu',return_sequences=True,input_shape=(X_train.shape[1],3)))
model_lstm.add(LSTM(units=64,activation='relu'))
model_lstm.add(Dense(width_y))

通过上述代码,构建了一个包含两个LSTM层和一个全连接层的LSTM模型。这个模型将接受形状为 (X_train.shape[1], 3) 的输入,其中 X_train.shape[1] 是时间步数,3 是每个时间步的特征数。

五、 编译模型 

通过下列示例代码:

model_lstm.compile(loss='mean_squared_error',optimizer=tf.keras.optimizers.Adam(1e-3))

六、训练模型 

通过下列示例代码:

history = model_lstm.fit(X_train,y_train,epochs = 40,batch_size = 64,validation_data=(X_test,y_test),validation_freq= 1)

运行得到如下输出: 

Epoch 1/40
79/79 [==============================] - 2s 8ms/step - loss: 17138.3194 - val_loss: 387.7700
Epoch 2/40
79/79 [==============================] - 0s 5ms/step - loss: 156.8192 - val_loss: 84.9699
Epoch 3/40
79/79 [==============================] - 0s 5ms/step - loss: 81.8648 - val_loss: 68.5054
Epoch 4/40
79/79 [==============================] - 0s 5ms/step - loss: 68.0213 - val_loss: 59.3978
Epoch 5/40
79/79 [==============================] - 0s 5ms/step - loss: 55.6423 - val_loss: 47.6963
Epoch 6/40
79/79 [==============================] - 0s 5ms/step - loss: 38.9104 - val_loss: 22.8840
Epoch 7/40
79/79 [==============================] - 0s 5ms/step - loss: 20.2978 - val_loss: 17.1035
Epoch 8/40
79/79 [==============================] - 0s 5ms/step - loss: 13.7244 - val_loss: 12.1882
Epoch 9/40
79/79 [==============================] - 0s 5ms/step - loss: 10.3110 - val_loss: 8.4652
Epoch 10/40
79/79 [==============================] - 0s 5ms/step - loss: 7.0844 - val_loss: 7.8640
Epoch 11/40
79/79 [==============================] - 0s 5ms/step - loss: 7.1910 - val_loss: 5.8354
Epoch 12/40
79/79 [==============================] - 0s 5ms/step - loss: 6.7678 - val_loss: 7.7343
Epoch 13/40
79/79 [==============================] - 0s 5ms/step - loss: 6.6999 - val_loss: 5.7382
Epoch 14/40
79/79 [==============================] - 0s 5ms/step - loss: 7.1541 - val_loss: 5.1997
Epoch 15/40
79/79 [==============================] - 0s 5ms/step - loss: 6.5144 - val_loss: 6.5061
Epoch 16/40
79/79 [==============================] - 0s 5ms/step - loss: 7.3389 - val_loss: 5.5619
Epoch 17/40
79/79 [==============================] - 0s 5ms/step - loss: 5.2598 - val_loss: 6.1282
Epoch 18/40
79/79 [==============================] - 0s 5ms/step - loss: 5.5437 - val_loss: 5.1723
Epoch 19/40
79/79 [==============================] - 0s 5ms/step - loss: 5.5292 - val_loss: 5.1508
Epoch 20/40
79/79 [==============================] - 0s 5ms/step - loss: 6.0629 - val_loss: 6.0754
Epoch 21/40
79/79 [==============================] - 0s 5ms/step - loss: 6.0709 - val_loss: 6.4894
Epoch 22/40
79/79 [==============================] - 0s 5ms/step - loss: 6.0648 - val_loss: 21.8828
Epoch 23/40
79/79 [==============================] - 0s 5ms/step - loss: 8.5592 - val_loss: 5.8904
Epoch 24/40
79/79 [==============================] - 0s 5ms/step - loss: 6.3601 - val_loss: 5.2167
Epoch 25/40
79/79 [==============================] - 0s 5ms/step - loss: 5.5161 - val_loss: 9.1012
Epoch 26/40
79/79 [==============================] - 0s 5ms/step - loss: 7.0404 - val_loss: 5.1254
Epoch 27/40
79/79 [==============================] - 0s 5ms/step - loss: 5.1161 - val_loss: 5.8873
Epoch 28/40
79/79 [==============================] - 0s 5ms/step - loss: 5.6961 - val_loss: 5.6163
Epoch 29/40
79/79 [==============================] - 0s 5ms/step - loss: 5.9653 - val_loss: 4.9996
Epoch 30/40
79/79 [==============================] - 0s 5ms/step - loss: 7.2178 - val_loss: 6.9434
Epoch 31/40
79/79 [==============================] - 0s 5ms/step - loss: 6.4113 - val_loss: 24.5538
Epoch 32/40
79/79 [==============================] - 0s 5ms/step - loss: 12.1477 - val_loss: 5.6929
Epoch 33/40
79/79 [==============================] - 0s 5ms/step - loss: 6.0340 - val_loss: 8.0783
Epoch 34/40
79/79 [==============================] - 0s 5ms/step - loss: 8.2311 - val_loss: 6.0748
Epoch 35/40
79/79 [==============================] - 0s 5ms/step - loss: 6.2481 - val_loss: 14.7295
Epoch 36/40
79/79 [==============================] - 0s 5ms/step - loss: 11.7388 - val_loss: 5.4054
Epoch 37/40
79/79 [==============================] - 0s 5ms/step - loss: 5.7323 - val_loss: 6.3847
Epoch 38/40
79/79 [==============================] - 0s 5ms/step - loss: 7.3201 - val_loss: 5.1389
Epoch 39/40
79/79 [==============================] - 0s 5ms/step - loss: 5.7554 - val_loss: 5.1562
Epoch 40/40
79/79 [==============================] - 0s 5ms/step - loss: 5.4301 - val_loss: 5.4044

模型训练结果为:loss大致回归

六、 模型评估

1.Loss与Accuracy图

import matplotlib.pyplot as pltplt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = Falseplt.figure(figsize=(5, 3),dpi=120)plt.plot(history.history['loss'],label = 'LSTM Training Loss')
plt.plot(history.history['val_loss'],label = 'LSTM Validation Loss')plt.title('Training and Validation Accuracy')
plt.legend()
plt.show()

得到的可视化结果:

2.调用模型进行预测

通过:

predicted_y_lstm = model_lstm.predict(X_test)y_tset_one = [i[0] for i in y_test]
predicted_y_lstm_one = [i[0] for i in predicted_y_lstm]plt.figure(figsize=(5,3),dpi=120)
plt.plot(y_tset_one[:1000],color = 'red', label = '真实值')
plt.plot(predicted_y_lstm_one[:1000],color = 'blue', label = '预测值')plt.title('Title')
plt.xlabel('X')
plt.ylabel('y')
plt.legend()
plt.show()

得到:

3. 查看误差

通过:

from  sklearn import metricsRMSE_lstm = metrics.mean_squared_error(predicted_y_lstm,y_test)**0.5
R2_lstm = metrics.r2_score(predicted_y_lstm,y_test)print('均方根误差:%.5f' % RMSE_lstm)
print('R2:%.5f' % R2_lstm)

得到:

均方根误差:2.32473
R2:0.99873

 可见,R2 = 0.99873,优于要求中的 0.83。

七、个人理解

本项目为通过LSTM来实现火灾的预测,需要根据给定的CSV文件来实现该目标。

  1. 本项目中,实现了对表格数据的可视化及异步预测,即通过前一段时刻得到的数据预测后续某一特定时刻的数据情况;
  2. LSTM可以理解为升级版的RNN,传统的RNN中存在着“梯度爆炸”和“短时记忆”的问题,向RNN中加入了遗忘门、输入门及输出门使得困扰RNN的问题得到了一定的解决;
  3. 关于LSTM的实现流程:(1、单输出时间步)单输入单输出、多输入单输出、多输入多输出(2、多输出时间步)单输入单输出、多输入单输出、多输入多输出;
  4. 针对本项目中的拔高要求,目前未能实现;

这篇关于深度学习Day-15:LSTM实现火灾预测的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/957408

相关文章

Python使用Tenacity一行代码实现自动重试详解

《Python使用Tenacity一行代码实现自动重试详解》tenacity是一个专为Python设计的通用重试库,它的核心理念就是用简单、清晰的方式,为任何可能失败的操作添加重试能力,下面我们就来看... 目录一切始于一个简单的 API 调用Tenacity 入门:一行代码实现优雅重试精细控制:让重试按我

深度解析Spring Security 中的 SecurityFilterChain核心功能

《深度解析SpringSecurity中的SecurityFilterChain核心功能》SecurityFilterChain通过组件化配置、类型安全路径匹配、多链协同三大特性,重构了Spri... 目录Spring Security 中的SecurityFilterChain深度解析一、Security

Redis客户端连接机制的实现方案

《Redis客户端连接机制的实现方案》本文主要介绍了Redis客户端连接机制的实现方案,包括事件驱动模型、非阻塞I/O处理、连接池应用及配置优化,具有一定的参考价值,感兴趣的可以了解一下... 目录1. Redis连接模型概述2. 连接建立过程详解2.1 连php接初始化流程2.2 关键配置参数3. 最大连

Python实现网格交易策略的过程

《Python实现网格交易策略的过程》本文讲解Python网格交易策略,利用ccxt获取加密货币数据及backtrader回测,通过设定网格节点,低买高卖获利,适合震荡行情,下面跟我一起看看我们的第一... 网格交易是一种经典的量化交易策略,其核心思想是在价格上下预设多个“网格”,当价格触发特定网格时执行买

python设置环境变量路径实现过程

《python设置环境变量路径实现过程》本文介绍设置Python路径的多种方法:临时设置(Windows用`set`,Linux/macOS用`export`)、永久设置(系统属性或shell配置文件... 目录设置python路径的方法临时设置环境变量(适用于当前会话)永久设置环境变量(Windows系统

深度解析Nginx日志分析与499状态码问题解决

《深度解析Nginx日志分析与499状态码问题解决》在Web服务器运维和性能优化过程中,Nginx日志是排查问题的重要依据,本文将围绕Nginx日志分析、499状态码的成因、排查方法及解决方案展开讨论... 目录前言1. Nginx日志基础1.1 Nginx日志存放位置1.2 Nginx日志格式2. 499

Python对接支付宝支付之使用AliPay实现的详细操作指南

《Python对接支付宝支付之使用AliPay实现的详细操作指南》支付宝没有提供PythonSDK,但是强大的github就有提供python-alipay-sdk,封装里很多复杂操作,使用这个我们就... 目录一、引言二、准备工作2.1 支付宝开放平台入驻与应用创建2.2 密钥生成与配置2.3 安装ali

Spring Security 单点登录与自动登录机制的实现原理

《SpringSecurity单点登录与自动登录机制的实现原理》本文探讨SpringSecurity实现单点登录(SSO)与自动登录机制,涵盖JWT跨系统认证、RememberMe持久化Token... 目录一、核心概念解析1.1 单点登录(SSO)1.2 自动登录(Remember Me)二、代码分析三、

PyCharm中配置PyQt的实现步骤

《PyCharm中配置PyQt的实现步骤》PyCharm是JetBrains推出的一款强大的PythonIDE,结合PyQt可以进行pythion高效开发桌面GUI应用程序,本文就来介绍一下PyCha... 目录1. 安装China编程PyQt1.PyQt 核心组件2. 基础 PyQt 应用程序结构3. 使用 Q

Python实现批量提取BLF文件时间戳

《Python实现批量提取BLF文件时间戳》BLF(BinaryLoggingFormat)作为Vector公司推出的CAN总线数据记录格式,被广泛用于存储车辆通信数据,本文将使用Python轻松提取... 目录一、为什么需要批量处理 BLF 文件二、核心代码解析:从文件遍历到数据导出1. 环境准备与依赖库