微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

如何实现将图像用作观测值的2D OpenAI-Gym环境?

如何解决如何实现将图像用作观测值的2D OpenAI-Gym环境?

我需要使用机器人手臂和目标点的基本模型创建2D环境。我希望手臂通过一系列离散动作(例如,向右,向左,向上和向下)到达目标,并且我需要观察空间是屏幕的RGB图像,然后将其用作DQN的输入。 / p>

我的问题是我不了解如何使用图像观察来移动机器人并获取其手臂和目标的位置(例如,根据机器人的距离创建奖励函数)。 / p>

看来,我可以从中获得灵感的唯一的Gym环境是Atari,但是我找不到单个游戏的特定代码,可能是因为它们嵌入在ROM中。

因此,如果我想在Gym中遵循Atari环境的示例并使用atari_env.py,是否意味着我还需要创建游戏及其ROM,然后将其集成到Stella中?还是有另一种方法? 总的来说,还有其他类型的环境可以将图像用作观察来启发我吗?

非常感谢

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。