微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

反向传播和梯度下降使用相同的逻辑吗?

如何解决反向传播和梯度下降使用相同的逻辑吗?

反向传播在 CNN 中用于更新随机分配的权重、偏差和过滤器。对于值的更新,我们使用链式法则从头到尾找到梯度,并使用公式,

New Value = old value - (learning Rate * gradient)

Gradient Descent 是一个优化器,用于优化损失函数。这里也计算梯度,公式为

New value = old value - (learning Rate * gradient)

如果我上面给出的解释有误,请纠正我。

我的疑问是:

  • 反向传播和梯度下降是否使用相同的逻辑?
  • 反向传播和梯度下降之间有什么关系吗?

解决方法

所以你会感到困惑,反向传播只是颠倒你移动顺序的名称,通常在正向传播中你向前移动每一层,但在反向传播中你向后移动。

您可以将传播视为神经网络的引擎,在前向传播中它向前移动,在反向传播中它向后移动。引擎不做任何计算,它只是用来定义你在哪一层,在哪一层。

在反向传播中,您有成本函数。您可以使用的一种成本函数类型称为 Gradient Descent 算法。另一种可能是 Stochastic Gradient Descent 算法。这些算法用于找到调整权重的最佳值。

我希望这能解决您的问题,如果您需要更多信息,请发表评论。如果您想了解更多有关 Gradient DescentStochastic Gradient Descent 的详细信息,我建议您查看我之前的一些回答 herehere

再见,祝你有美好的一天!

,

反向传播是神经网络的梯度下降。 梯度下降是更通用的一阶迭代优化算法来逼近可微函数。使用它来训练多层神经网络(其中每一层代表一个可微函数),我们可以为这种类型的模型推导出更专业的算法(处理我们有隐藏单元的事实)。由此产生的算法称为反向传播。

在每次训练迭代显示多少数据的特定上下文中,可以在 SGD 和 GD 之间创建一个 second distinction(请参阅 James Barnett 的回答),尽管我认为术语“小批量学习" 如果想将其与随机梯度下降进行对比,则更精确。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。