如何解决奖励与前一个状态或下一个状态有关吗?
在强化学习框架中,我对奖励以及它与状态的关系有点困惑。例如,在 Q-learning 中,我们有以下更新 Q 表的公式:
这意味着奖励是在 t+1 时刻从环境中获得的。我的意思是在应用动作 at 后,环境给出 st+1 和 rt+1。
通常情况下,奖励与前一个时间步长相关,即在上述公式中使用 rt。例如,参见 Q-learning 的 Wikipedia 页面 (https://en.wikipedia.org/wiki/Q-learning)。这是为什么?
偶然地,一些关于相同主题但使用不同语言的维基百科页面使用了 rt+1(或意外的 Rt+1)。例如,请参阅意大利语和日语页面:
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。