如何解决tf.pow和torch.pow的结果不同
我正在尝试将PyTorch脚本转换为Tensorflow。 这种情况。
>>> a=np.random.rand(500,500)
>>> b=tf.pow(tf.constant(a,tf.float32),2)
>>> c=torch.pow(torch.tensor(a,dtype=torch.float32),2)
>>> np.sum(b.numpy() - c.numpy())
3.2455164e-06
我猜测,这种差异是由两个平台之间的浮点表示引起的。 (我不确定)
问题 我需要使它们彼此完全相同吗? 如果是这样,如何解决这个问题?
解决方法
正如评论已经说过的,这是一个常见问题。
float32
仅提供6位精度,这是您所看到的,因为差异小于e-06。因此,正如已经提到的评论一样,这是通常的行为,如果需要更高的精度,则可能需要使用float64
。
已经有关于这个“问题”的github issue,我从中获取了此信息的albanD对此进行了解释。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。