如何解决RNN(pytorch) 输出和隐藏状态是如何真正计算出来的?
第一个问题
torch.rnn()
如何真正以数学方式计算输出和隐藏状态?
在全连接神经元中,输出由输入和参数之间的矩阵乘法计算得出。 但在 RNN 中如何计算。
第二个问题
为什么将输入重新整形到 rnn 会得到不同的结果?
示例:
rnn = nn.RNN(3,5)
input1 = torch.ones(1,4,3)
input2 = torch.ones(4,1,3)
out1 = rnn(input1)
out2 = rnn(input2)
为什么 out1 和 out2 输出不同?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。