微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

tf-agent,QNetwork => DqnAgent,带有tfa.optimizers.CyclicalLearningRate

如何解决tf-agent,QNetwork => DqnAgent,带有tfa.optimizers.CyclicalLearningRate

是否有一种简单的本机方式来实现tfa.optimizers.CyclicalLearningRate w / QNetwork on DqnAgent

尝试避免编写自己的DqnAgent。

我想更好的问题可能是,在DqnAgent上实现回调的正确方法是什么?

解决方法

在您链接的教程中,设置优化程序的部分是

optimizer = tf.compat.v1.train.AdamOptimizer(learning_rate=learning_rate)

train_step_counter = tf.Variable(0)

agent = dqn_agent.DqnAgent(
    train_env.time_step_spec(),train_env.action_spec(),q_network=q_net,optimizer=optimizer,td_errors_loss_fn=common.element_wise_squared_loss,train_step_counter=train_step_counter)

agent.initialize()

因此,您可以使用您愿意使用的任何优化程序替换优化程序。基于documentation之类的

optimizer = tf.keras.optimizers.Adam(learning_rate=tfa.optimizers.CyclicalLearningRate)

应该有效,除非在教程中使用tf 1.0 adam引起任何潜在的兼容性问题。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。