微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

python – Keras LSTM:时间序列多步骤多特征预测 – 结果不佳

我有一个包含整年数据的时间序列数据集(日期是索引).每15分钟(全年)测量数据,这导致每天96个步骤.数据已经标准化.变量是相关的.除VAR之外的所有变量都是天气测量.

VAR在一天和一周内是季节性的(因为它在周末看起来有点不同,但每个周末更不一样). VAR值是固定的.
我想预测接下来两天(前面192步)和未来七天(未来672步)的VAR值.

以下是数据集的示例:

DateIdx               VAR       dewpt       hum         press       temp
2017-04-17 00:00:00   0.369397  0.155039    0.386792    0.196721    0.238889
2017-04-17 00:15:00   0.363214  0.147287    0.429245    0.196721    0.233333
2017-04-17 00:30:00   0.357032  0.139535    0.471698    0.196721    0.227778
2017-04-17 00:45:00   0.323029  0.127907    0.429245    0.204918    0.219444
2017-04-17 01:00:00   0.347759  0.116279    0.386792    0.213115    0.211111
2017-04-17 01:15:00   0.346213  0.127907    0.476415    0.204918    0.169444
2017-04-17 01:30:00   0.259660  0.139535    0.566038    0.196721    0.127778
2017-04-17 01:45:00   0.205564  0.073643    0.523585    0.172131    0.091667
2017-04-17 02:00:00   0.157650  0.007752    0.481132    0.147541    0.055556
2017-04-17 02:15:00   0.122101  0.003876    0.476415    0.122951    0.091667

Input dataset plot

我决定在Keras使用LSTM.有了全年的数据,我使用了过去329天的数据作为培训数据,其余的用于培训期间的验证.
train_X – >包含整个措施,包括329天的VAR
train_Y – >仅包含329天的VAR.价值向前移动了一步.
其余的时间步长转到test_X和test_Y.

这是我准备train_X和train_Y的代码

#X -> is the whole dataframe
#Y -> is a vector of VAR from whole dataframe,already shifted 1 step ahead

#329 * 96 = 31584
train_X = X[:31584]
train_X = train_X.reshape(train_X.shape[0],1,5)
train_Y = Y[:31584]  
train_Y = train_Y.reshape(train_Y.shape[0],1)

为了预测下一个VAR值,我想使用过去672个时间步(整周测量).出于这个原因,我设置了batch_size = 672,因此’fit’命令如下所示:

history = model.fit(train_X,train_Y,epochs=50,batch_size=672,validation_data=(test_X,test_Y),shuffle=False)  

这是我的网络架构:

model = models.Sequential()
model.add(layers.LSTM(672,input_shape=(None,672),return_sequences=True))
model.add(layers.Dropout(0.2))
model.add(layers.LSTM(336,return_sequences=True))
model.add(layers.Dropout(0.2))
model.add(layers.LSTM(168,return_sequences=True))
model.add(layers.Dropout(0.2))
model.add(layers.LSTM(84,return_sequences=True))
model.add(layers.Dropout(0.2))
model.add(layers.LSTM(21,return_sequences=False))
model.add(layers.Dense(1))
model.compile(loss='mae',optimizer='adam')
model.summary()

从下面的图中我们可以看到网络在50个时代之后学到了“东西”:

Plot from the learning process

为了预测的目的,我准备了一组数据,其中包含所有值的最后672个步骤和96个没有VAR值的数据 – 这应该被预测.我还使用了自回归,因此我在每次预测后更新了VAR并将其用于下一次预测.

predX数据集(用于预测)如下所示:

print(predX['VAR'][668:677])

DateIdx            VAR
2017-04-23 23:00:00    0.307573
2017-04-23 23:15:00    0.278207
2017-04-23 23:30:00    0.284390
2017-04-23 23:45:00    0.309118
2017-04-24 00:00:00         NaN
2017-04-24 00:15:00         NaN
2017-04-24 00:30:00         NaN
2017-04-24 00:45:00         NaN
2017-04-24 01:00:00         NaN
Name: VAR,dtype: float64

这是我用来预测接下来的96个步骤的代码(自动回归):

stepsAhead = 96
historySteps = 672

for i in range(0,stepsAhead):
    j = i + historySteps
    ypred = model.predict(predX.values[i:j].reshape(1,historySteps,5))
    predX['VAR'][j] = ypred

不幸的是,结果很差,远远超出预期:

A Plot with predicted data

结果与前一天相结合:

Predicted data combined with a previous day

除了“我做错了什么”这个问题,我想问几个问题:

Q1.在模型推荐期间,我将整个历史分为672个大小.这是对的吗?我该如何组织模型拟合的数据集?我有什么选择?我应该使用“滑动窗口”方法(如链接https://machinelearningmastery.com/promise-recurrent-neural-networks-time-series-forecasting/)?

Q2. 50个时代足够了吗?这里的常见做法是什么?也许网络装备不足导致预测不佳?到目前为止,我尝试了200个具有相同结果的纪元.

Q3.我应该尝试不同的架构吗?建议的网络“足够大”来处理这样的数据吗?也许一个“有状态”的网络是正确的方法吗?

Q4.我是否正确实现了自动回归?是否有任何其他方法可以预测未来的许多步骤,例如像我这样的192或672?

最佳答案
看起来对于如何组织数据来训练RNN存在困惑.所以我们来讨论这些问题:

>一旦有了2D数据集(total_samples,5),就可以使用TimeseriesGenerator创建一个滑动窗口,为您生成(batch_size,past_timesteps,5).在这种情况下,您将使用.fit_generator来训练网络.
>如果你得到相同的结果,50个时期应该没问题.您通常会根据网络的性能进行调整.但是,如果要比较两种不同的网络架构,则应该保持固定.
>建筑物非常大,因为您的目标是一次预测所有672个未来值.您可以设计网络,以便它学会一次预测一个测量.在预测时,您可以预测一个点并再次提供该点以预测下一个点,直到您获得672点.
>这与答案3相关,您可以学习一次预测一个,并在训练后将预测链接到n个预测.

单点预测模型可能如下所示:

model = Sequential()
model.add(LSTM(128,return_sequences=True,input_shape=(past_timesteps,5))
model.add(LSTM(64))
model.add(Dense(1))

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


我最近重新拾起了计算机视觉,借助Python的opencv还有face_recognition库写了个简单的图像识别demo,额外定制了一些内容,原本想打包成exe然后发给朋友,不过在这当中遇到了许多小问题,都解决了,记录一下踩过的坑。 1、Pyinstaller打包过程当中出现warning,跟d
说到Pooling,相信学习过CNN的朋友们都不会感到陌生。Pooling在中文当中的意思是“池化”,在神经网络当中非常常见,通常用的比较多的一种是Max Pooling,具体操作如下图: 结合图像理解,相信你也会大概明白其中的本意。不过Pooling并不是只可以选取2x2的窗口大小,即便是3x3,
记得大一学Python的时候,有一个题目是判断一个数是否是复数。当时觉得比较复杂不好写,就琢磨了一个偷懒的好办法,用异常处理的手段便可以大大程度帮助你简短代码(偷懒)。以下是判断整数和复数的两段小代码: 相信看到这里,你也有所顿悟,能拓展出更多有意思的方法~
文章目录 3 直方图Histogramplot1. 基本直方图的绘制 Basic histogram2. 数据分布与密度信息显示 Control rug and density on seaborn histogram3. 带箱形图的直方图 Histogram with a boxplot on t
文章目录 5 小提琴图Violinplot1. 基础小提琴图绘制 Basic violinplot2. 小提琴图样式自定义 Custom seaborn violinplot3. 小提琴图颜色自定义 Control color of seaborn violinplot4. 分组小提琴图 Group
文章目录 4 核密度图Densityplot1. 基础核密度图绘制 Basic density plot2. 核密度图的区间控制 Control bandwidth of density plot3. 多个变量的核密度图绘制 Density plot of several variables4. 边
首先 import tensorflow as tf tf.argmax(tenso,n)函数会返回tensor中参数指定的维度中的最大值的索引或者向量。当tensor为矩阵返回向量,tensor为向量返回索引号。其中n表示具体参数的维度。 以实际例子为说明: import tensorflow a
seaborn学习笔记章节 seaborn是一个基于matplotlib的Python数据可视化库。seaborn是matplotlib的高级封装,可以绘制有吸引力且信息丰富的统计图形。相对于matplotlib,seaborn语法更简洁,两者关系类似于numpy和pandas之间的关系,seabo
Python ConfigParser教程显示了如何使用ConfigParser在Python中使用配置文件。 文章目录 1 介绍1.1 Python ConfigParser读取文件1.2 Python ConfigParser中的节1.3 Python ConfigParser从字符串中读取数据
1. 处理Excel 电子表格笔记(第12章)(代码下载) 本文主要介绍openpyxl 的2.5.12版处理excel电子表格,原书是2.1.4 版,OpenPyXL 团队会经常发布新版本。不过不用担心,新版本应该在相当长的时间内向后兼容。如果你有新版本,想看看它提供了什么新功能,可以查看Open