如何解决Tensorflow:如何修改 N 层中的反向传播
我需要进行一种自定义反向传播,以便在网络的任意层中我可以决定是否实际修改该层之外的权重,或者使它们保持不变。 例如:我想研究如果在训练期间我强制不更新将输入层连接到第一层的某些权重会发生什么。
是否有一种简单的方法可以“纠正”层间相交的正常反向传播?
谢谢
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。