2012-12-26 69 views
0

我在增强现实应用的引擎工作没有标记(又名marketless AR)它使用从SURF算法获得兴趣点在任何图像识别点,使用这些点作为参考借鉴的资料,但我不知道翻译的二维信息(检测到的兴趣点)的3D模型映射到三维坐标空间和渲染3D对象现场的最佳途径。任何算法来做到这一点?变换2D坐标到3D坐标空间

回答

1

这是一个非常宽泛的问题。你应该需要做计算机视觉领域的一些阅读,但简要地说,你会采取以下方法。你需要一个描述相机与世界之间关系的fully calibrated camera。这种模式可以让你的形象和在世界上的三维线点之间的转换 - 注意,你不能在不知道它的深度得到一个实际的3D ,因为图像中的单个点可以是多点的投影世界。