我在Alex的paper中发现了关于本地响应规范化的这个等式:
正如我们在上面看到的那样,在我们计算总和之后,将功率提高,将其与alpha相乘,然后在添加k之后添加.
但是,我在TensorFlow文档中看到它显示为
sqr_sum[a, b, c, d] =
sum(input[a, b, c, d - depth_radius : d + depth_radius + 1] ** 2)
output = input / (bias + alpha * sqr_sum ** beta)
测试版仅针对总和筹集.
为什么这里有差异?
另外,当我查看TensorFlow代码本身时,我看到了这个:
output[b, r, c, d] /= (
np.power(bias + alpha * np.sum(patch * patch), beta))
哪个看起来正确?
我有点困惑.有人可以纠正我吗?
解决方法:
它是在2月26日由此提交修复的:
https://github.com/tensorflow/tensorflow/commit/ab48dbd4ac2095548a5bc8505e08e751d409727f#diff-632987400e5affbcdba4533444460b0e
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。