微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

验证损失缓慢增加且 val_acc 恒定 LSTM 模型准确率也低

如何解决验证损失缓慢增加且 val_acc 恒定 LSTM 模型准确率也低

我有这个模型。我已经注释掉了所有的 dropout 层。我的 val_loss 正在缓慢但不断地增加。我的 val_acc 也保持不变。 我什至没有得到好的 Training_acc。我有 31 个用于训练的文件和 9 个用于验证的文件数量较少,但文件大小很大。 使用 1000 个 epoch,我得到了 51.13548288941383 % 的准确率 26.544444932788608 % val_accuracy classifier.evaluate('for validation') 结果损失:7.5632 - 准确度:0.2222

训练的第一个时期是 纪元 1/1000 1/1 [==============================] - 6s 6s/步 - 损失:1.6574 - 准确度:0.2258 - val_loss :1.4020 - val_accuracy:0.2222

classifier = Sequential()classifier.add(LSTM(units=128,return_sequences=True,dropout=0.0,input_shape = (3257,715) ))classifier.add(LSTM(units=64,dropout =0.0))classifier.add(LSTM(units=32,return_sequences=False,dropout=0.0))classifier.add(Dense(32,activation='relu',kernel_regularizer=regularizers.l1_l2(l1=1e-5,l2) =1e-4),bias_regularizer=regularizers.l2(1e-4),activity_regularizer=regularizers.l2(1e-5)))classifier.add(Batchnormalization()) #classifier.add((Dropout(0.1)))classifier.add(Dense(64,activation='relu'))classifier.add(Batchnormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(128,activation='relu'))classifier.add(Batchnormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(64,activation='relu'))classifier.add(Batchnormalization()) #classifier.add((Dropout(0.9)))classifier.add(Dense(32,l2=1e-4),activity_regularizer=regularizers.l2(1e-5)))classifier.add(Batchnormalization()) #classifier.add((Dropout(0.1)))classifier.add(Dense(4,activation='softmax'))

[

plt.plot(history8.history['accuracy'],color = 'blue')
plt.plot(history8.history['loss'],color = 'red')
plt.plot(history8.history['val_accuracy'],color = 'green')
plt.plot(history8.history['val_loss'],color = 'black')

]1

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。