微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何在随机数据实验中减少损失并提高准确性?

如何解决如何在随机数据实验中减少损失并提高准确性?

我刚刚进入深度学习领域,并做了一些小实验来学习如何调整模型以减少损失并提高准确性, 无论我尝试了多少种方法添加层,神经元等) 但仍达不到我的目标... 谁能给我一些提示和建议? 谢谢!

注意:因为我之前制作了一个非常大且丑陋的模型,并且数据无法拟合该模型(即精度没有增加),所以对学习如何调整模型进行了一些简单的测试, 顺便说一下,在这个模型中,我的数据非常类似于这个小的实验数据(股市数据,非常随机),因此请尝试使用此数据来了解更多...谢谢!

这是我的代码,非常简单:

import pandas as pd
from tensorflow.keras import layers
from sklearn.preprocessing import StandardScaler

x1 = pd.DataFrame(np.round(np.random.rand(100,2)*100,0))
y1 = pd.DataFrame(np.round(np.random.rand(100,1)*100,0))
scale = StandardScaler() #z-scaler物件
xx1 = pd.DataFrame(scale.fit_transform(x1),columns=x1.keys())
yy1 = pd.DataFrame(scale.fit_transform(y1),columns=y1.keys())
the_input =  keras.Input(shape=(2))
x = layers.Dense(500)(the_input)
for i in range(50):
    x = layers.Dense(500,activation='linear')(x)
    if i%5 ==0 : x = layers.Layernormalization(axis=1)(x)

main_output_1 = layers.Dense(1,name='mo_1')(x)
model = keras.Model(inputs=the_input,outputs=main_output_1,name='DELS_model')
model.compile(loss="mean_squared_error",optimizer='RMSprop',metrics=['accuracy'])

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。