如何解决val_loss 没有从 inf + loss:nan 训练时的错误中得到改善 建议:
我在开始训练模型时遇到了问题。 这个错误表明 val_loss 没有从 inf 和 loss: nan 中得到改善。 一开始我以为是因为学习率,但现在我不确定是什么,因为我尝试了几种不同的学习率,但没有一个对我有用。 我希望有人可以帮助我。
我的偏好 优化器 = 亚当, 学习率 = 0.01 (我已经尝试了一堆不同的学习率,例如:0.0005,0.001,0.00146,0.005,0.5,0.6,0.7,0.8 但这些都不适合我) 提前停止 = 启用 (由于没有改进,因此训练正在停止,因为第 3 阶段的 EarlyStopping 没有改进。每次模型在第 3 阶段停止训练时,我也禁用了 EarlyStopping,并让它在没有启用 EarlyStopping 的情况下进行 100 个 epoch。) ReduceLR = 禁用
关于我尝试训练我的模型的内容 我尝试在我的 GPU(EVGA RTX 3080 FTW3 ULTRA)上训练这个模型
model = Sequential()
model.add(Conv2D(32,(3,3),padding='same',kernel_initializer='he_normal',input_shape=(img_rows,img_cols,1)))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(32,1)))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
model.add(Conv2D(64,kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(64,kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(MaxPooling2D(pool_size=(2,2)))
model.add(Dropout(0.2))
model.add(Conv2D(128,kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(128,2)))
model.add(Dropout(0.2))
model.add(Conv2D(256,kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Conv2D(256,2)))
model.add(Dropout(0.2))
model.add(Flatten())
model.add(Dense(64,kernel_initializer='he_normal'))
model.add(BatchNormalization())
model.add(Dropout(0.5))
model.add(Dense(64,kernel_initializer='he_normal'))
model.add(Activation('elu'))
model.add(BatchNormalization())
model.add(Dropout(0.5))
model.add(Dense(num_classes,kernel_initializer='he_normal'))
model.add(Activation('softmax'))
print(model.summary())
from keras.optimizers import RMSprop,SGD,Adam
from keras.callbacks import ModelCheckpoint,EarlyStopping,ReduceLROnPlateau
checkpoint = ModelCheckpoint('Wave.h5',monitor='val_loss',mode='min',save_best_only=True,verbose=1)
earlystop = EarlyStopping(monitor='val_loss',min_delta=0,patience=3,verbose=1,restore_best_weights=True)
'''reduce_lr = ReduceLROnPlateau(monitor='val_loss',factor=0.2,min_delta=0.0001)'''
callbacks = [earlystop,checkpoint] #reduce_lr
model.compile(loss='categorical_crossentropy',optimizer= Adam(lr=0.01),metrics=['accuracy'])
解决方法
评论很少...
在这种情况下,最可取的是试错法。您的参数似乎在训练时出现了分歧。很多可能性可能是问题所在。此外,您似乎也在规范您的网络(辍学、BatchNorm 等)
建议:
- 标准化您的输入数据,然后再输入网络
- 注释掉/删除您根据自己的喜好使用的所有辍学(正则化)/kernel_initializer(使用默认初始化)/提前停止等,并让网络成为一个普通的 CNN 网络只是 conv 层、池化、batchnorm 和密集层。如果您看到改进,然后开始一一取消注释,您就会了解导致问题的原因。
- 尝试在密集层中使用更大的单元,例如 1000,因为密集层会提取 CNN 层压缩的所有内容(图像的特征)。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。