如何解决在没有 PnP 的情况下在单目视觉里程计中查找相对比例
我正在实现一个标准的 VO 算法,有一些变化,即提取特征、匹配特征点、找到基本矩阵并分解以获得姿势。然而,在初始化之后,我没有对后续帧使用 3D-2D 运动估计 (PNP),而是使用相同的 2D-2D 运动估计(使用基本矩阵)。我发现 2D-2D 估计似乎比 3D-2D 更准确。 为了找到第二个姿势相对于第一个姿势的相对比例,我可以找出共同点(对两个帧对进行三角测量)。根据{{3}},可以通过求公共点对之间的相对距离的比值来求出相对尺度。
如果 f13D
和 f23D
是来自后续帧对的三角化 3D 点,我随机选择点对并计算距离,这里是相同的粗略代码片段。
indices = np.random.choice(np.arange(0,len(f23D)),size=(5 * len(f23D),2),replace=True)
indices = indices[indices[...,0]!=indices[...,1]]
num = np.linalg.norm(f13D[indices[...,0]] - f13D[indices[...,1]],axis=1).reshape((len(indices),1))
den = np.linalg.norm(f23D[indices[...,0]] - f23D[indices[...,1))
return np.median(num/den).
我也尝试用线性ransac估计器替换最后一行。然而,由于尺度三角剖分并不完美,这些值非常嘈杂,因此在使用不同的 numpy 种子时,尺度估计也有显着差异。
这是在文章中描述的在单眼 VO 中实现相对比例的正确方法吗?如果没有,最好的方法是什么(我不想使用 PNP,因为旋转似乎不太准确)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。