4

我需要通过网络从Kinect相机发送视频。我从以下两个Kinect的来源捕获视频:从Kinect相机压缩RGB-D视频

  1. 2D彩色视频(RGB )。每像素32位。 640x480 30fps。
  2. 深度数据(D)。每个像素16位,代表距离最近物体的距离,单位为毫米。 640x480 30fps。

这相当于带宽至少大约53 MB/s。 这就是为什么我需要在原点对两个视频源进行编码(压缩),然后在目标处进行解码。 RGB-D数据将由目标处的目标跟踪算法处理。

到目前为止,我发现许多论文讨论的算法来实现这一任务一样,比如这一个: RGB and depth intra-frame Cross-Compression for low bandwidth 3D video

的问题是,在这样的论文描述的算法没有公开访问实现。我知道,我可以自己实现它们,但是他们使用了许多其他复杂的图像处理算法,但我没有足够的知识(边缘检测,轮廓表征,...)。

事实上,我也发现基于使用一个离散值滤波器的一些C++库,δ-(避免发送冗余数据),和LZ4压缩: http://thebytekitchen.com/2014/03/24/data-compression-for-the-kinect/

我的问题是:是有较简单的和/或者更有效的方式来压缩来自Kinect源的RGB-D数据?

PS:我使用C++进行编码。

回答