我正在研究使用一系列kinect相机的多视图远程呈现项目。
为了改善我们想要提取前景的视觉质量,例如,站在中间的人使用彩色图像,彩色图像而不是深度图像,因为我们想要使用更可靠的彩色图像来修复深度图像中的一些人为因素。是否有可能在背景的大部分是大屏幕(播放视频)的视频中提取前景?
现在的问题是前景物体(通常是1-2人)站在一个巨大的屏幕前方,显示远程呈现系统的另一方(它也一直在移动),并且该屏幕对于某些人来说是可见的的动物。是否仍然有可能为这些运动物提取前景,如果是这样,你能指出我正确的方向吗?
对于现有系统的一些详细信息:
我们已经拥有了系统运行的合并所有kinects的深度图,但只得到我们好远。 kinect深度传感器存在很多问题,例如干扰和传感器距离。 同样的颜色和深度传感器有轻微的偏移,所以当你映射上的网格的颜色(如质地)使用深度数据你有时地图上的人在地板重建。
所有这些问题降低了深度数据的总体质量,而不是颜色数据,因此人们可以观看彩色图像轮廓的“真正的”一个和深度一个为“破”之一。但是网格是使用深度数据构建的。所以改善深度数据等同于提高系统的质量。
现在,如果您有剪影,您可以尝试删除/修改轮廓之外的不正确的深度值和/或在
感谢您提供的每一个提示。
感谢您的回答。 我修改了我的问题以包含一些附加信息。 我认为有办法同步kinetics,但不是没有剧烈framerate下降,所以这是不可行的。 好吧,理论上我知道显示器显示的是什么,但是它是多用户立体声,所以互相顶部的4个图像和远程呈现的双方不会同步,因此不能很好地工作。 – 2013-03-09 16:42:50
感谢您的更新!这是一个有趣而棘手的问题。我更新了我的答案 - 看看它现在是否更有帮助。 – DCS 2013-03-10 21:28:19
@PiTabread:在这个问题上的任何进展? – DCS 2013-03-15 08:43:43