如何解决keras lstm如何在图形编译期间获取初始隐藏状态
我在keras中有一个lstm层,我要添加“注意”。我想获取初始隐藏状态(零张量)并将其传递给我的Attention机制。我找不到找到这种隐藏状态的方法。这是我的模型:
encoder = layers.LSTM(units=units,return_state=True)
hidden_state = None
for i in range(time_window):
atten_out = MyAttention()([hidden_state,input])
output,hidden_state,cell_state = encoder(atten_out)
我必须将hidden_state
初始化为None
,然后在MyAttention
中引起错误。我想将hidden_state
初始化为零张量,其第一维等于批处理大小(就像在图编译过程中keras模型体系结构中的所有其他输入和输出一样。
另一种方法是获取lstm的初始隐藏状态,但是在编译的这一点上,我认为隐藏状态尚未定义。这是真的吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。