kinect专题提供kinect的最新资讯内容,帮你更好的了解kinect。
基于<a href="https://stackoverflow.com/questions/23343296/space-represented-by-a-single-kinect-pixel-at-a-given-depth">this question</a
我想使用Kinect传感器控制机器人。我得到右手关节的坐标并计算角度。该角度将应用于机器人并蹲下。
我想知道如何将数据从Azure Kinect Caputer Image转换为UE4 Texture。 <pre><code>k4a_wait_result_t get_capture_result = k4a
我正在使用Kinect Azure红外摄像机跟踪球形回射球标记,但无法准确提取其深度信息。我发现只要球与深
因此,我决定不尝试购买存储在我们存储中的Xbox 360 Kinect,而不是购买其他网络摄像头。我成功地将它
我正在使用<a href="https://rjw57.github.io/freenect2-python/#" rel="nofollow noreferrer">freenect2-python</a>从kinectv2中读取帧
如何定义自定义坐标系 kinect并根据需要进行调整 (例如,考虑臀部中心的原点等) 我想用C#来做。
我让Kinect通过电子应用程序和nodejs工作,所以我可以使用Javascript,因为这是我所熟悉的。但是,在尝试
我正在尝试将绿屏示例的校准部分实现到虚幻引擎中,但是在涉及<code>calibrate_devices</code>函数时会出现
如何获取深度框的像素大小?我在<a href="https://stackoverflow.com/questions/45183735/kinect-v2-depth-frame-pixel-size">Kine
我正在使用<code>pickle</code>保存从kinect-v2(<a href="https://github.com/OpenKinect/libfreenect2" rel="nofollow noreferrer">lib
我正在使用SDK中的InfraredBasics-D2D C ++代码从Kinectv2中获取红外图像。 我需要提要的屏幕截图,但是
我想请一个初学者的问题寻求帮助。 我想使用连接到以太网USB 3服务器(例如Windows 10上的Silex Ds-510
我从 Xbox 360 获得了 Kinect,我买了一个适配器将它插入我的笔记本电脑。问题是,我已经安装了 1.8 SDK 和
有没有在 Arch ARM 上安装和使用 Kinect 传感器(“旧的”)和 Raspberry Pi 4 的经验?多年来,我一直在旧的
我想为项目购买 Azure Kinect。 在买之前,我想知道Azure Kinect看到带深度模块的牙签的最佳距离是多
我知道这听起来很愚蠢,而且我参加聚会可能已经很晚了,但这是我想要编写手势识别应用程序(例如
我正在寻找许多使用 python 中的 kinect 相机查找深度的方法,但我没有找到任何合适的解决方案。我看到
我刚买了一个 Azure Kinect。但是我没有意识到硬件要求之一是至少要有一个 gtx 1070 gpu。有谁知道克服这个
我正在 UWP 中处理从 Kinect v2(颜色和红外)接收的帧。该程序在远程机器 (XBOX One S) 上运行。主要目标是