如何解决警告:tensorflow:AutoGraph 无法转换 <function <lambda> at 0x7fca141a6d08> 并将按原样运行
我实现了图像分类TFF的代码。 TFF 版本 0.18.0, 我写这个:
iterative_process = tff.learning.build_federated_averaging_process(model_fn,server_optimizer_fn=lambda: tf.keras.optimizers.SGD(learning_rate=1.0),client_optimizer_fn=lambda: tf.keras.optimizers.SGD(learning_rate=0.001))
state = iterative_process.initialize()
但我发现这个警告:
WARNING:tensorflow:AutoGraph Could not transform <function <lambda> at 0x7fca141a6d08> and will run it as-is.
Cause: Could not parse the source code of <function <lambda> at 0x7fca141a6d08>: found multiple deFinitions with identical signatures at the location. This error may be avoided by defining each lambda on a single line and with unique argument names.
Match 0:
(lambda : tf.keras.optimizers.SGD(learning_rate=1.0))
Match 1:
(lambda : tf.keras.optimizers.SGD(learning_rate=0.001))
To silence this warning,decorate the function with @tf.autograph.experimental.do_not_convert
那么请问我该如何避免这个警告。谢谢
解决方法
首先,这个警告对我来说似乎没有问题。 TFF 需要构造优化器的函数,以防这些优化器依赖于内部变量(例如 Adagrad 和 Adam,它们是有状态的并使用变量来跟踪预处理和动量项)——TFF 需要能够捕获这些变量的构造以确保正确代码可以在设备上运行,因此不需要签名来转换这些函数——Python 函数就足够了。
第二,我认为可以消除警告的一个简单选项是为优化器 fns 使用命名函数。也就是说,如果你使用类似
def server_optimizer_fn():
return tf.keras.optimizers.SGD(learning_rate=1.)
def client_optimizer_fn():
return tf.keras.optimizers.SGD(learning_rate=0.001)
iterative_process = tff.learning.build_federated_averaging_process(
model_fn,server_optimizer_fn=server_optimizer_fn,client_optimizer_fn=client_optimizer_fn)
Autograph 不应再抱怨。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。