如何解决Open-AI Gym Hopper 观察、行动、奖励
有人可以向我解释 Hopper 环境的奖励系统是如何工作的,以及观察和动作的名称以及它们所描述的内容。如果您能分享一些文档或维基,我们将不胜感激,因为我还没有找到可以帮助我的详细信息。
有用的链接:
https://github.com/openai/gym/blob/master/gym/envs/mujoco/hopper.py#L25 https://github.com/openai/gym/blob/master/gym/envs/mujoco/assets/hopper.xml#L35
这是 Mujoco/Open-AI Gym Hopper 环境代码。
import numpy as np
from gym import utils
from gym.envs.mujoco import mujoco_env
class HopperEnv(mujoco_env.MujocoEnv,utils.EzPickle):
def __init__(self):
mujoco_env.MujocoEnv.__init__(self,'hopper.xml',4)
utils.EzPickle.__init__(self)
def step(self,a):
posbefore = self.sim.data.qpos[0]
self.do_simulation(a,self.frame_skip)
posafter,height,ang = self.sim.data.qpos[0:3]
alive_bonus = 1.0
reward = (posafter - posbefore) / self.dt
reward += alive_bonus
reward -= 1e-3 * np.square(a).sum()
s = self.state_vector()
done = not (np.isfinite(s).all() and (np.abs(s[2:]) < 100).all() and
(height > .7) and (abs(ang) < .2))
ob = self._get_obs()
return ob,reward,done,{}
def _get_obs(self):
return np.concatenate([
self.sim.data.qpos.flat[1:],np.clip(self.sim.data.qvel.flat,-10,10)
])
def reset_model(self):
qpos = self.init_qpos + self.np_random.uniform(low=-.005,high=.005,size=self.model.nq)
qvel = self.init_qvel + self.np_random.uniform(low=-.005,size=self.model.nv)
self.set_state(qpos,qvel)
return self._get_obs()
def viewer_setup(self):
self.viewer.cam.trackbodyid = 2
self.viewer.cam.distance = self.model.stat.extent * 0.75
self.viewer.cam.lookat[2] = 1.15
self.viewer.cam.elevation = -20
我知道有 11 个观察和 3 个动作。我知道如果漏斗还活着,它会获得+1。此外,每次使用 step 函数时,我相信 3 个动作的平方和乘以 0.001,所有这些都会减去奖励变量?通常,阶跃函数使用 1000 次(1000 个时间步)。
我的猜测是观察结果与 q pos(x,y,z) 和 q vel 有关。所以他们可能在描述位置和速度,我知道 Hopper 机器人有 3 个关节。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。