如何解决从 <tensorflow.python.keras.optimizer_v2.learning_rate_schedule.CosineDecay> 对象获取学习率
如何获得在每个 on_train_batch_begin
处更新的学习率值?
lr_decayed_fn = tf.keras.experimental.CosineDecay(initial_lr,decay_steps)
model.compile(optimizer=tf.keras.optimizers.SGD(learning_rate=lr_decayed_fn))
我试过这种方法
def on_train_batch_begin (self,batch,logs = None):
lr = K.get_value(self.model.optimizer.lr)
但我得到 <tensorflow.python.keras.optimizer_v2.learning_rate_schedule.CosineDecay object at 0x7f ...>
解决方法
当您将函数设置为学习率或对象子类化 LearningRateScheduler
时,您需要使用当前训练步骤调用该函数(或 Callable)以获得学习率。您可以使用优化器的 iterations
属性获取当前的训练步骤。
class CustomCallback(tf.keras.callbacks.Callback):
def __init__(self) -> None:
super().__init__()
def on_train_batch_begin(self,batch,logs=None):
lr = tf.keras.backend.get_value(
self.model.optimizer.lr(self.model.optimizer.iterations)
)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。