如何解决在Tensorflow中具有Conv1D前置功能的有状态LSTM
我目前在Tensorflow中有状态LSTM用于序列预测。我的模型是这样的:
model = tf.keras.Sequential()
model.add(tf.keras.Input(batch_shape=[1,None,1]))
model.add(tf.keras.layers.LSTM(256,stateful=True,return_sequences=True))
model.add(tf.keras.layers.Dropout(0.2))
model.add(tf.keras.layers.LSTM(256,return_sequences=True))
model.add(tf.keras.layers.Dropout(0.2))
model.add(tf.keras.layers.Dense(128,activation=tf.keras.activations.relu))
model.add(tf.keras.layers.Dropout(0.2))
model.add(tf.keras.layers.Dense(len(vocab)))
我想向其中添加Conv1D预处理。问题在于LSTM层是有状态的,并且在处理当前批次时会记住先前的批次,但是Conv1D层本身无法做到这一点。
如何使Conv1D图层看到上一批的结尾?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。