微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Azure Kinect现实世界从x,y像素和深度进行坐标

如何解决Azure Kinect现实世界从x,y像素和深度进行坐标

基于this question,我正在尝试将Azure Kinect sdk给定的x和y像素转换为以毫秒为单位的真实坐标。我正在使用以下python代码

VRES = 720  # vertical resolution of the image in pixels
HRES = 1280  # horizontal resolution of the image in pixels
VFOV = 120  # vertical field of view of the camera in degrees
HFOV = 120  # horizontal field of view of the camera in degrees

def __init__(self,x,y,depth):
    self.z = depth
    self.x = int((2 * sin(pi * self.VFOV / 360) * depth * y) / self.VRES)
    self.y = int((2 * sin(pi * self.HFOV / 360) * depth * x) / self.HRES)

使用的Kinect配置为:

    self._config = pyk4a.Configuration()
    self._config.depth_mode = pyk4a.K4A_DEPTH_MODE_WFOV_2X2BINNED
    self._config.color_resolution = pyk4a.K4A_COLOR_RESOLUTION_720P
    self._config.camera_fps = pyk4a.K4A_FRAMES_PER_SECOND_30
    self._config.color_format = pyk4a.K4A_IMAGE_FORMAT_COLOR_BGRA32
    self._config.synchronized_images_only = True

here中,我发现FOV应为120°x 120°,而720p图像应为1280x720。 这种计算有什么问题?

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。