backpropagation专题提供backpropagation的最新资讯内容,帮你更好的了解backpropagation。
我为从头开始的二进制分类创建了一个简单的神经网络(灵感来自Andrew Ng的一个类的实现)。但是,我
当我尝试在我的代码中实现此功能<code>tf.train.stg(learningRate).minimize(loss)</code>以便进行反向传播时。我遇
当我尝试在我的代码中实现此功能<code>tf.train.stg(learningRate).minimize(loss)</code>以便进行反向传播时。我遇
为了优化我的神经网络中存在的权重值,我想问一下您将如何手动计算反向传播的梯度?
相对于某些参数,假设<code>J</code>是某个函数<code>f</code>的雅可比行列式。是否有有效的方法(在PyTorch或
为了确保这不是XY问题,我将描述这种情况: 我正在用keras / TensorFlow构建一个NN,我想使用的损失
我用Python编写了一个小脚本,以通过策略梯度来解决各种Gym环境。 <pre class="lang-python prettyprint-override"
我在TensorFlow中实现了卷积神经网络。但是,我没有使用卷积运算符作为卷积层,而是使用tf.gather来选择
我有两个网络。第一个网络的输出是另一个网络的输入。为了计算第二个网络的损失,我使用香草策略
当XOR问题只有一个隐藏层时,我能够计算反向传播。反向传播时,我通过将隐藏层(a2)的参数乘以输出
要在Pytorch中执行<code>backward</code>,我们可以使用可选参数<code>y.backward(v)</code>来计算Jacobian矩阵乘以<code>
我正在训练一个两层神经网络。我等了 15000 个 epoch,模型仍然没有收敛。 <pre><code>ans = [] for i in range(
我正在实现带有一些自定义模块的自定义CNN。我仅对自定义模块实施了正向传递,而将其向后传递留给
这不是直接与编程相关的问题,但老实说,我不知道还有什么要问的(如果您知道某个论坛更适合该问
我正在学习神经网络,确实实现了前向传递,但是在反向传播方面遇到了麻烦。对于我来说,很难理解
尝试运行代码时出现错误 <pre><code>ValueError: No gradients provided for any variable </code></pre> 这是我的代码
我已经编写了一个简单的神经网络,目前正在测试XOR问题(我知道我的代码可能效率不高,但是我只是
最近,我一直在尝试使用arduino图书馆构建神经网络,然后遇到了一个图书馆,这个图书馆的字面意思是
在Andrewra Ng在Coursera的deeplearning.io课程中,给出了以下渐变:<a href="https://i.stack.imgur.com/YGMFf.jpg" rel="nofollo
我试图通过简单地将样本权重添加为0或1来替换遮罩层(时间步长的遮罩)。损失的张量流文档提到,如