此问题与对象的3D跟踪有关。我的系统将已知参数(X,Y,Z)中的对象/样本投影到OpenGL,并尝试与从Kinect传感器获得的图像和深度信息进行匹配,以推断对象的3D位置。
问题:
Kinect的深度 - >流程 - >以毫米为单位值
OpenGL->深度buffer->值之间0-1
(其是非线性远近之间映射)尽管我可以使用http://www.songho.ca/opengl/gl_projectionmatrix.html上提到的方法从OpenGL恢复Z值,但这会产生非常慢的性能。
我相信这是常见的问题,所以我希望一定存在一些切肉刀解决方案。
问:
有效的方式来恢复眼睛z的OpenGL的坐标?
或者有没有其他解决上述问题的方法?
看看OpenCV。我还没有将它与OpenGL一起使用,但OpenCV几乎可以实时完成大部分操作。 – Blender
@Blender:你可以指点我的文档...我也在那里搜索,但没有运气。谢谢! – Rudi
看看[这里](http://opencv.willowgarage.com/wiki/Kinect)。 – Blender