我最近遇到了tensorflow softmax_cross_entropy_with_logits,但我无法弄清楚实现与sigmoid_cross_entropy_with_logits相比有什么不同.
解决方法:
sigmoid和softmax之间的主要区别在于softmax函数在概率方面返回结果,这种结果更符合ML哲学. softmax的所有输出总和为1.转向告诉您网络对答案的信心.
然而,sigmoid输出是谨慎的.它的正确或不正确.你必须编写代码来自己计算概率.
就网络的性能而言. softmax通常比sigmoid提供更好的准确性.但是,它也高度依赖于其他超参数.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。