微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

在第一个时期后,训练误差大幅度下降

如何解决在第一个时期后,训练误差大幅度下降

我正在训练LSTM自动编码器,以重新创建由八个功能(0到1之间的浮点数)组成的输入。目前,我正在使用两个窗口大小,并且正在为50个时期训练模型。但是,在训练网络时,我观察到训练误差(均方误差)在第一个时期之后显着下降。例如,在第一个时期,训练误差为17.25。它在下一个下降至1.8,并在第七个时期后停滞不前。我想知道是否可能是由于随机初始化权重引起的,所以我又训练了一个网络并重复了相同的现象。

在第一个时期之后,我无法推断出训练错误大幅下降的原因,我们将不胜感激。我已经附上了训练误差图和模型信息,以供参考。

型号信息:

LSTM_AutoencoderModel( (编码器):编码器( (lstm1):LSTM(16,64) (lstm2):LSTM(64,16) ) (解码器):解码器( (lstm1):LSTM(16,64) (lin1):线性(in_features = 64,out_features = 16,bias = True) ) )

Training error graph

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。