如何解决numpy数据集而不是张量片
我正在用时间序列数据拟合我的Tensorflow RNN + LSTM模型。将数据集按60:40划分,分别获得训练和测试数据集。现在,当前我正在使用张量片来组合x_train,y_train值以及类似的x_test和y_test值。在使用张量服务托管模型时,模型需要张量数据,但是对于其他客户端,我只能发送JSON可序列化数据。 现在要实现此目标,我想通过使用numpy数组而不是张量切片来更改训练模型的方式。以下代码用于创建numpy切片。谁能建议我如何使用numpy数组来实现相同的目标?
train_data_multi = tf.data.Dataset.from_tensor_slices((x_train_multi,y_train_multi))
train_data_multi = train_data_multi.cache().shuffle(BUFFER_SIZE).batch(BATCH_SIZE).repeat()
val_data_multi = tf.data.Dataset.from_tensor_slices((x_val_multi,y_val_multi))
val_data_multi = val_data_multi.batch(BATCH_SIZE).repeat()
x_train_multi和y_train_multi的类型为:
<class 'numpy.ndarray'>
两者的形状分别为(59448,500,10)
和(59448,200)
。
以下我用来拟合模型的代码:
model_history = model.fit(train_data_multi,epochs=EPOCHS,steps_per_epoch=EVALUATION_INTERVAL,validation_data=val_data_multi,validation_steps=EVALUATION_INTERVAL,callbacks=[early_stopping])
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。