如何解决使用 OpenCV 将兴趣区域从 RGB 视频转换为深度视频
我最近购买了 L515 实感摄像头,它有一个 RGB 传感器和一个深度(激光雷达)传感器。我还有一个预训练的模型,它只检测 RGB 图像中的手,但我想将此感兴趣区域转换为深度图像。不幸的是,由于两个传感器之间存在偏移,图像馈送并没有完全对齐,这使得这种转换变得困难。
我编写了一个简单的 GUI 脚本,它允许我在每个图像源中选取 3 个点(白色)并计算一个仿射变换矩阵,然后可以应用该矩阵来排列图像。
然而,结果并不成功。
Affline Transformation and Translated ROI
我的猜测是这与两个相机之间的焦距差异有关。我想知道我是否可以在 OpenCV 中做任何事情来更好地对齐图像。
解决方法
到目前为止,最简单的方法是使用 librealsense API 中的“对齐”过程,示例如下:https://github.com/IntelRealSense/librealsense/blob/master/wrappers/python/examples/align-depth2color.py 重要部分:
align = rs.align(rs.stream.color)
# Streaming loop
try:
while True:
# Get frameset of color and depth
frames = pipeline.wait_for_frames()
# frames.get_depth_frame() is a 640x360 depth image
# Align the depth frame to color frame
aligned_frames = align.process(frames)
# Get aligned frames
aligned_depth_frame = aligned_frames.get_depth_frame()
color_frame = aligned_frames.get_color_frame()
一旦你这样做,颜色和深度图像将在空间上对齐并具有相同的分辨率,因此彩色图像中的 (i,j) 像素坐标将直接映射到深度图像中的 (i,j),尽管不是所有色点都有有效的深度数据。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。