如何解决Keras:自动编码器的损失非常高
我正在尝试使用 Keras 实现一个用于预测多个标签的自动编码器。这是一个片段:
input = Input(shape=(768,))
hidden1 = Dense(512,activation='relu')(input)
compressed = Dense(256,activation='relu',activity_regularizer=l1(10e-6))(hidden1)
hidden2 = Dense(512,activation='relu')(compressed)
output = Dense(768,activation='sigmoid')(hidden2) # sigmoid is used because output of autoencoder is a set of probabilities
model = Model(input,output)
model.compile(optimizer='adam',loss='categorical_crossentropy') # categorical_crossentropy is used because it's prediction of multiple labels
history = model.fit(x_train,x_train,epochs=100,batch_size=50,validation_split=0.2)
我在 Jupyter Notebook (CPU) 中运行此程序,但出现丢失和验证丢失的情况:
loss: 193.8085 - val_loss: 439.7132
但是当我在 Google Colab (GPU) 中运行它时,我得到了非常高的损失和验证损失:
loss: 28383285849773932.0000 - val_loss: 26927464965996544.0000
。
这种行为的原因是什么?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。