RNN深度学习案例:LSTM火灾温度预测

本文为为🔗365天深度学习训练营内部文章

原作者:K同学啊

一 前期准备数据

1.导入数据

import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.preprocessing import MinMaxScaler
from keras.layers import Dense,LSTM,Bidirectional
from keras import Input
from keras.optimizers import Adam
from keras.models import Sequential
from sklearn.metrics import mean_squared_error,r2_score
import warnings
warnings.filterwarnings('ignore')df = pd.read_csv('woodpine2.csv')
print(df)

 

2.数据可视化 

'''
可视化
'''
fig,ax = plt.subplots(1,3,constrained_layout=True,figsize=(14,3))
sns.lineplot(data=df['Tem1'],ax=ax[0])
sns.lineplot(data=df['CO 1'],ax=ax[1])
sns.lineplot(data=df['Soot 1'],ax=ax[2])
plt.show()df = df.iloc[:,1:]

二 特征工程 

1.构建特征变量和目标变量

'''
用于从一个 Pandas DataFrame 中提取时间序列数据,生成输入(x)和输出(y)数组,适合用于训练机器学习模型
'''
# 取前八个时间段的Tem、CO 1、Soot 1的数据为X,第九个数据为y
width_x = 8
width_y = 1
x = []
y = []in_start = 0for _,_ in df.iterrows():in_end = in_start + width_xout_end = in_end + width_yif out_end < len(df):X_ = np.array(df.iloc[in_start:in_end,])# 将 X_ 重塑为一维数组,长度为 len(X_) * 3。假设原始数据有多列,这样做的目的是将多列数据展开为一个长数组X_ = X_.reshape(len(X_)*3)# 0代表只提取第一列y_ = np.array(df.iloc[in_end:out_end,0])x.append(X_)y.append(y_)in_start += 1x = np.array(x)
y = np.array(y)
print(x.shape,y.shape)
(5939, 24) (5939, 1)

2.归一化

'''
归一化
'''
sc = MinMaxScaler(feature_range=(0,1))
x_scaled = sc.fit_transform(x)
# 许多机器学习模型,尤其是 RNN 和 CNN,期望输入数据具有特定的形状。
# 例如,对于 RNN,输入通常是三维的,形状为 (样本数, 时间步数, 特征数)
x_scaled = x_scaled.reshape(len(x_scaled),width_x,3)

 3.划分训练集和测试集

'''
划分训练集
'''
X_train = np.array(x_scaled[:5000]).astype('float64')
y_train = np.array(y[:5000]).astype('float64')
X_test = np.array(x_scaled[5000:]).astype('float64')
y_test = np.array(y[5000:]).astype('float64')
print(X_train.shape,X_test.shape)
(5000, 8, 3) (939, 8, 3)

三 构建模型 

'''
构建模型
'''
# 多层LSTM
model_lstm = Sequential()
# units=64: LSTM 单元的数量,决定了模型的学习能力。64 表示该层有 64 个隐藏单元。
# activation='relu': 使用 ReLU 激活函数,帮助引入非线性。虽然 LSTM 通常使用 tanh,但在这里可能是为了与后续层兼容。
# return_sequences=True: 该参数指示 LSTM 层返回每个时间步的输出,而不仅仅是最后一个时间步的输出。这对于后续 LSTM 层是必要的。
# input_shape=(X_train.shape[1], 3): 定义输入数据的形状,其中 X_train.shape[1] 是时间步数(width_x),3 是特征数。
model_lstm.add(LSTM(units=64,activation='relu',return_sequences=True,input_shape=(X_train.shape[1],3)))
# 由于没有设置 return_sequences=True,该层将只返回最后一个时间步的输出,适用于输出层
model_lstm.add(LSTM(units=64,activation='relu'))
# Dense: 添加全连接层。
# width_y: 输出层的单元数,通常与预测的目标变量数量相同。此处表示模型输出的维度。
model_lstm.add(Dense(width_y))
Model: "sequential_1"
_________________________________________________________________Layer (type)                Output Shape              Param #   
=================================================================lstm_2 (LSTM)               (None, 8, 64)             17408     lstm_3 (LSTM)               (None, 64)                33024     dense_1 (Dense)             (None, 1)                 65        =================================================================
Total params: 50,497
Trainable params: 50,497
Non-trainable params: 0
_________________________________________________________________

四 训练模型 

'''
训练
'''
# 只观测loss数值,不观测准确率,所以删去metrics
model_lstm.compile(optimizer=Adam(1e-3),loss='mean_squared_error')history_lstm = model_lstm.fit(X_train,y_train,batch_size=64,epochs=40,validation_data=(X_test,y_test),validation_freq=1)
Epoch 1/40
79/79 [==============================] - 2s 10ms/step - loss: 11291.5254 - val_loss: 4030.8381
Epoch 2/40
79/79 [==============================] - 1s 7ms/step - loss: 105.1108 - val_loss: 621.8700
Epoch 3/40
79/79 [==============================] - 1s 7ms/step - loss: 11.1059 - val_loss: 243.1555
Epoch 4/40
79/79 [==============================] - 1s 7ms/step - loss: 7.8829 - val_loss: 226.2837
Epoch 5/40
79/79 [==============================] - 1s 7ms/step - loss: 7.6028 - val_loss: 244.8176
Epoch 6/40
79/79 [==============================] - 1s 7ms/step - loss: 7.7717 - val_loss: 233.2066
Epoch 7/40
79/79 [==============================] - 1s 7ms/step - loss: 7.5230 - val_loss: 223.5901
Epoch 8/40
79/79 [==============================] - 1s 8ms/step - loss: 7.6082 - val_loss: 186.9205
Epoch 9/40
79/79 [==============================] - 1s 8ms/step - loss: 7.6405 - val_loss: 228.2400
Epoch 10/40
79/79 [==============================] - 1s 7ms/step - loss: 7.8450 - val_loss: 189.5714
Epoch 11/40
79/79 [==============================] - 1s 7ms/step - loss: 7.5957 - val_loss: 225.9814
Epoch 12/40
79/79 [==============================] - 1s 8ms/step - loss: 7.8151 - val_loss: 190.3151
Epoch 13/40
79/79 [==============================] - 1s 7ms/step - loss: 7.5514 - val_loss: 171.3298
Epoch 14/40
79/79 [==============================] - 1s 7ms/step - loss: 7.3661 - val_loss: 213.4320
Epoch 15/40
79/79 [==============================] - 1s 8ms/step - loss: 7.5439 - val_loss: 184.0517
Epoch 16/40
79/79 [==============================] - 1s 8ms/step - loss: 7.5511 - val_loss: 171.2384
Epoch 17/40
79/79 [==============================] - 1s 7ms/step - loss: 8.8873 - val_loss: 234.2241
Epoch 18/40
79/79 [==============================] - 1s 7ms/step - loss: 7.4158 - val_loss: 150.4856
Epoch 19/40
79/79 [==============================] - 1s 7ms/step - loss: 7.5648 - val_loss: 181.1954
Epoch 20/40
79/79 [==============================] - 1s 7ms/step - loss: 7.4036 - val_loss: 142.2856
Epoch 21/40
79/79 [==============================] - 1s 7ms/step - loss: 9.1357 - val_loss: 234.9497
Epoch 22/40
79/79 [==============================] - 1s 7ms/step - loss: 8.1056 - val_loss: 161.9010
Epoch 23/40
79/79 [==============================] - 1s 8ms/step - loss: 8.3753 - val_loss: 194.4306
Epoch 24/40
79/79 [==============================] - 1s 8ms/step - loss: 7.6563 - val_loss: 130.8293
Epoch 25/40
79/79 [==============================] - 1s 8ms/step - loss: 7.2591 - val_loss: 132.0350
Epoch 26/40
79/79 [==============================] - 1s 7ms/step - loss: 7.7230 - val_loss: 160.6877
Epoch 27/40
79/79 [==============================] - 1s 7ms/step - loss: 7.5739 - val_loss: 174.5122
Epoch 28/40
79/79 [==============================] - 1s 7ms/step - loss: 6.6420 - val_loss: 134.3670
Epoch 29/40
79/79 [==============================] - 1s 7ms/step - loss: 8.0128 - val_loss: 186.9790
Epoch 30/40
79/79 [==============================] - 1s 7ms/step - loss: 7.7388 - val_loss: 175.0219
Epoch 31/40
79/79 [==============================] - 1s 8ms/step - loss: 7.2826 - val_loss: 162.1556
Epoch 32/40
79/79 [==============================] - 1s 7ms/step - loss: 7.5271 - val_loss: 179.4215
Epoch 33/40
79/79 [==============================] - 1s 7ms/step - loss: 6.5252 - val_loss: 104.9447
Epoch 34/40
79/79 [==============================] - 1s 7ms/step - loss: 6.6822 - val_loss: 250.2031
Epoch 35/40
79/79 [==============================] - 1s 7ms/step - loss: 7.0211 - val_loss: 95.4579
Epoch 36/40
79/79 [==============================] - 1s 7ms/step - loss: 8.2577 - val_loss: 116.2146
Epoch 37/40
79/79 [==============================] - 1s 7ms/step - loss: 7.5878 - val_loss: 243.1991
Epoch 38/40
79/79 [==============================] - 1s 7ms/step - loss: 11.2559 - val_loss: 390.6861
Epoch 39/40
79/79 [==============================] - 1s 7ms/step - loss: 7.0651 - val_loss: 168.2283
Epoch 40/40
79/79 [==============================] - 1s 7ms/step - loss: 7.6015 - val_loss: 223.1200

五 评估模型


'''
评估
'''
# loss图
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = Falseplt.figure(figsize=(5,3))
plt.plot(history_lstm.history['loss'],label='LSTM Training Loss')
plt.plot(history_lstm.history['val_loss'],label='LSTM Testing Loss')
plt.title('Training and Testing Loss')
plt.legend()
plt.show()

 

# 调用模型预测
pred_y = model_lstm.predict(X_test)
y_test_one = [i for i in y_test]
pred_y_one = [i[0] for i in pred_y]plt.figure(figsize=(8,6))
plt.plot(y_test_one[:1000],color='red',label='真实值')
plt.plot(pred_y_one[:1000],color='blue',label='预测值')
plt.legend()
plt.show()

RMSE_lstm = mean_squared_error(pred_y,y_test) ** 0.5
R2_lstm = r2_score(pred_y,y_test)
print('均方差误差:',RMSE_lstm)
print('R2:',R2_lstm)
均方差误差: 14.93720339824608
R2: 0.5779344291884085

总结:

 捕捉时间序列中的长期依赖性

处理不规则的时间间隔和噪声

建模复杂的非线性关系

动态调整记忆和遗忘

适应性强 

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.xdnf.cn/news/16727.html

如若内容造成侵权/违法违规/事实不符,请联系一条长河网进行投诉反馈,一经查实,立即删除!

相关文章

nmap简单使用

nmap的基本功能 nmap有4个基本功能&#xff0c;分别是 端口扫描 主机探测 服务识别 系统识别 端口扫描 nmap 183.2.172.185 从图中可以看出开放了80和443端口 指定端口扫描 指定端口扫描使用-p参数&#xff0c;可以一次性扫描一个或多个或某个范围内的端口 nmap 183.…

python文件排序都有哪些方法

在python环境中提供两种排序方案&#xff1a;用库函数sorted()对字符串排序&#xff0c;它的对象是字符&#xff1b;用函数sort()对数字排序&#xff0c;它的对象是数字&#xff0c;如果读取文件的话&#xff0c;需要进行处理&#xff08;把文件后缀名‘屏蔽’&#xff09;。 …

uni-app快速入门(五)--判断运行环境及针对不同平台的条件编译

一、判断运行环境 在实际项目开发中&#xff0c;经常需要进行开发环境和生产环境的切换&#xff0c;uni-app可根据process.env.NODE_ENV判断当前运行环境是开发环境和生产环境&#xff0c;根据不同的环境调用不同的后台接口&#xff0c;具体实现方式: 在项目的static目录下建…

QT定时器

QT定时器 1.概述 这篇文章介绍如何使用定时器 2.定时器 2.1.创建项目 新建一个普通的widget类型项目&#xff0c;在widget.ui文件中添加一个label控件 2.1.QTimer 在帮助文档搜索timerEvent&#xff0c;查看QTimer Class 类提供的定时器。 该类提供了一个定时事件的函…

双指针优质算法题集

目录 一、双指针算法介绍 二、移动0 1、题目链接 2、题解 3、代码实现 &#xff08;1&#xff09;、初次实现&#xff1a; &#xff08;2&#xff09;、优化后的实现&#xff1a; 二、复写0 1、题目链接&#xff1a; 2、题解 3、代码实现 一、双指针算法介绍 这里的指…

博奥龙黑胶虫去除剂,新品来袭!

形态特征&#xff1a; 大小方面&#xff1a;黑胶虫的直径通常在 0.5~1 微米左右&#xff0c;一般比细菌要小&#xff0c;但在显微镜下仍可明显观察到。 形状方面&#xff1a;其形态不规则&#xff0c;初始呈现点状&#xff0c;随着培养时间的增加其形态可以转变为密集的小黑点…

使用Element UI实现前端分页,及el-table表格跨页选择数据,切换分页保留分页数据,限制多选数量

文章目录 一、前端分页1、模板部分 (\<template>)2、数据部分 (data)3、计算属性 (computed)4、方法 (methods) 二、跨页选择1、模板部分 (\<template>)2、数据部分 (data)3、方法 (methods) 三、限制数量1、模板部分 (\<template>)2、数据部分 (data)3、方法…

HTML5+CSS前端开发[保姆级教学]+基本文本控制标签介绍

引入&#xff1a;Hello&#xff0c;各位编程猿们&#xff01;前几篇文章介绍了软件的安装以及编写新闻文章的代码初体验&#xff0c;这一篇我们来巩固一些这些知识点&#xff0c;复习一下基本文本控制标签&#xff01;&#xff01;&#xff01; 知识点一&#xff1a;基本文本控…

《FreeRTOS任务基础知识以及任务创建相关函数》

目录 1.FreeRTOS多任务系统与传统单片机单任务系统的区别 2.FreeRTOS中的任务&#xff08;Task&#xff09;介绍 2.1 任务特性 2.2 FreeRTOS中的任务状态 2.3 FreeRTOS中的任务优先级 2.4 在任务函数中退出 2.5 任务控制块和任务堆栈 2.5.1 任务控制块 2.5.2 任务堆栈…

AdaBoost 二分类问题

代码功能 生成数据集&#xff1a; 使用 make_classification 创建一个模拟分类问题的数据集。 数据集包含 10 个特征&#xff0c;其中 5 个是有用特征&#xff0c;2 个是冗余特征。 数据集划分&#xff1a; 将数据分为训练集&#xff08;70%&#xff09;和测试集&#xff08;3…

ffmpeg自动手动编译安装

1.下载linux ndk并配置profile文件 本例以android-ndk-r10e为例 vi /etc/profile export NDK_HOME/root/ffmpeg/android-ndk-r10e export PATH P A T H : PATH: PATH:NDK_HOME source /etc/profile 2.下载x264并生成 git clone https://code.videolan.org/videolan/x264.g…

英伟达基于Mistral 7B开发新一代Embedding模型——NV-Embed-v2

我们介绍的 NV-Embed-v2 是一种通用嵌入模型&#xff0c;它在大规模文本嵌入基准&#xff08;MTEB 基准&#xff09;&#xff08;截至 2024 年 8 月 30 日&#xff09;的 56 项文本嵌入任务中以 72.31 的高分排名第一。此外&#xff0c;它还在检索子类别中排名第一&#xff08;…

Flume1.9.0自定义拦截器

需求 1、在linux日志文件/data/log/moreInfoRes.log中一直会产生如下JSON数据&#xff1a; {"id":"14943445328940974601","uid":"840717325115457536","lat":"53.530598","lnt":"-2.5620373&qu…

RadSystems 自定义页面全攻略:个性化任务管理系统的实战设计

系列文章目录 探索RadSystems&#xff1a;低代码开发的新选择&#xff08;一&#xff09;&#x1f6aa; 探索RadSystems&#xff1a;低代码开发的新选择&#xff08;二&#xff09;&#x1f6aa; 探索RadSystems&#xff1a;低代码开发的新选择&#xff08;三&#xff09;&…

【开发基础】语义化版本控制

语义化版本控制 基础三级结构主版本号次版本号修正版本号 思维导图在node包管理中的特殊规则 参考文件 基础 语义化版本控制是一套通用的包/库的版本管理规范。在各类语言的包管理中都有用到&#xff0c;一般以x.x.x的形式出现在包的命名中。 三级结构 在语义化版本控制中&a…

IDC 报告:百度智能云 VectorDB 优势数量 TOP 1

近日&#xff0c;IDC 发布了《RAG 与向量数据库市场前景预测》报告&#xff0c;深入剖析了检索增强生成&#xff08;RAG&#xff09;技术和向量数据库市场的发展趋势。报告不仅绘制了 RAG 技术的发展蓝图&#xff0c;还评估了市场上的主要厂商。在这一评估中&#xff0c;百度智…

操作系统——同步

笔记内容及图片整理自XJTUSE “操作系统” 课程ppt&#xff0c;仅供学习交流使用&#xff0c;谢谢。 背景 解决有界缓冲区问题的共享内存方法在并发变量上存在竞争条件&#xff0c;即多个并发进程访问和操作同一个共享数据&#xff0c;从而其执行结果与特定访问次序有关。这种…

IAR调试时输出文本数据到电脑(未使用串口)

说明 因为板子没引出串口引脚&#xff0c;没法接USB转TTL&#xff0c;又想要长时间运行程序并保存某些特定数据&#xff0c;所以找到了这个办法。为了写数据到本机&#xff0c;所以板子必须运行在IAR的debug模式下。 参考&#xff1a;IAR环境下变量导出方法&#xff1a;https…

基于Java Springboot美食食谱推荐系统

一、作品包含 源码数据库设计文档万字PPT全套环境和工具资源部署教程 二、项目技术 前端技术&#xff1a;Html、Css、Js、Vue、Element-ui 数据库&#xff1a;MySQL 后端技术&#xff1a;Java、Spring Boot、MyBatis 三、运行环境 开发工具&#xff1a;IDEA 数据库&…

Java集合(Collection+Map)

Java集合&#xff08;CollectionMap&#xff09; 为什么要使用集合&#xff1f;泛型 <>集合框架单列集合CollectionCollection遍历方式List&#xff1a;有序、可重复、有索引ArrayListLinkedListVector&#xff08;已经淘汰&#xff0c;不会再用&#xff09; Set&#xf…