微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何使用多元高斯的对数似然在 Keras 中进行自定义损失?

如何解决如何使用多元高斯的对数似然在 Keras 中进行自定义损失?

我正在尝试使用 Keras 复制 conditional neural processes 论文中关于函数回归的第一个实验。

因此,我使用我的观察结果的负对数似然作为损失函数。我的网络输出两个值,每个观察值的平均值和标准差。由于网络可以将可变数量的目标点作为输入,我的批次在解码器的输出端具有形状 [None,None,2](对于 [batch_size,number_of_target_points,output_size])。我目前定义自定义损失的方式如下:

def custom_loss(y_true,y_pred):
    mu,sigma = tf.split(y_pred,2,axis=-1)
    dist = tfp.distributions.MultivariatenormalDiag(loc=mu,scale_diag=sigma)
    loss = - tf.reduce_mean(K.log(dist.log_prob(y_true)))
    return loss

opt = Adam(learning_rate=1e-4)
model.compile(loss = custom_loss,optimizer = opt)

但是,我在每个时期的训练过程中都会损失 nan,就像这样

Epoch 1/10
100/100 [==============================] - 7s 57ms/step - loss: nan - val_loss: nan

有人知道我做错了什么以及我该如何解决吗?

请注意,网络末端的方差地板层确保标准偏差为正且不会太小:

def floor_variance(x):
  # Repeat r vector
  mu,log_sigma = tf.split(x,axis=-1)
  sigma = 0.1 + 0.9 * tf.nn.softplus(log_sigma)
  return K.concatenate([mu,sigma],axis=-1)

[... define the network ... ]
x = Lambda(floor_variance,name = 'Floor_variance')(x) # x shape [None,2]

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。