如何解决L2 正则化的最佳实践?
我在 Keras 中有以下架构:
model = Sequential()
# Input shape of LSTM (layer 0) is (batch_size,time_steps,num_of_features)
model.add(LSTM(HIDDEN_NODES,input_shape=(TS,NB),return_sequences=False))
model.add(Dense(HIDDEN_NODES,activation='relu'))
model.add(Dense(HIDDEN_NODES,activation='relu'))
model.add(Dense(OP,activation='linear'))
# Error
model.compile(loss=tf.keras.losses.Huber(delta=1.0),optimizer=Adam(lr=LEARNING_RATE,clipnorm=1))
如您所见,我正在使用 LSTM 和梯度裁剪。我的问题是是否存在良好的实践手册或关于如何使用正则化的一些直觉。据我所知,大多数作品在我的问题中使用 L2 正则化,但不知道如何应用它。无论如何,我很确定过度拟合是一个问题。我的架构和 L2 正则化之间是否存在冲突?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。