微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如果我们从最后一层一次更新一个反向传播中的参数会怎样?

如何解决如果我们从最后一层一次更新一个反向传播中的参数会怎样?

假设我们有一个具有一个输入层、一个输出层和一个隐藏层的神经网络。让我们将输入到隐藏的权重称为 ?,将隐藏到输出的权重称为 ?。假设我们已经初始化了 ? 和 ?,并通过前向算法/pass 将它们运行在神经网络中。假设我们已经通过反向传播更新了?。现在不是同时更新 ?,如果我们使用新的 ? 计算梯度,然后同时更新 ? 和 ? 会怎样。然后再一次前向传递,计算梯度,更新?,计算新的梯度,同时更新?和?,依此类推。我已经这样做了,它导致成本函数的收敛速度更快。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。