微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

使用 Soft-Actor Critic (SAC)

如何解决使用 Soft-Actor Critic (SAC)

我目前正在训练使用来自 StableBaselines3 的 SAC 的自定义环境。我正在使用 MlpPolicy,据我所知,认情况下它是一个 2 层 256 神经元神经网络。我对评估不同神经架构的训练性能很感兴趣,但在我对如何更改神经架构进行了大量谷歌搜索后,我能想到的最好的结果显示在下面的代码片段中。

policy_kwargs = dict(net_arch=[128,128,128])
model = SAC(MlpPolicy,env1,policy_kwargs=policy_kwargs,verbose=1)

问题是我不知道如何查看已经训练好的模型的神经架构,以查看神经网络是否真的发生了变化。有没有办法可以从训练后创建的 model.zip 文件中找到使用的神经架构?在最近的一次讨论中,有人告诉我,有一种方法可以查看训练期间使用的神经元百分比,以评估模型是否需要更多训练,并决定增加/减少神经层或神经元是否有益,但我没有'无法找到有关如何在代码中实现它的任何资源。

我是 RL 培训的新手,不胜感激任何用于完成上述任务的资源或代码示例。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。