libfreenect2

    2热度

    1回答

    我想从我的MS Kinect V2生成现实世界坐标。 我设法拼凑出pyqt + opengl散点图,并使用pylibfreenect2显示来自Kinect的深度数据。 我立即注意到深度数据与点云数据不一样。请注意我的房间的天花板是非常扭曲的(应该是什么平顶开始像曲棍球棒图)绘制深度帧 一些阅读后,通过源文件挖我管理的 结果找到一个看起来非常有前途的功能。 getPointXYZ - 建筑中的点云中

    1热度

    2回答

    我一直在我的项目中使用OpenNI + PrimeSense + NiTE和OpenCV来根据它们的距离来分割对象。不过,我打算将它部署在NVIDIA Jetson TX1板上,并且无法通过OpenCV编译OpenNI + PrimeSense + NiTE。 我结束了libfreenect。但是libfreenect提供的深度图非常非常错误。我会分享一些例子。 这里是OpenNI的工作深度图:

    0热度

    1回答

    我在Ubuntu 16.04上安装了libfreenect。然后,当我在Qt中添加它的库时,发生了以下错误。 我尝试添加的libusb-1.0。我在终端输入的那样: pkg配置的libusb-1.0 --libs --cflags -I的/ usr /包括/ libusb的-1.0 -lusb-1.0 的.pro文件: QT + =芯 QT - = GUI CONFIG + = C++ 11 TA

    6热度

    1回答

    我刚刚在OSX 10.11.5上设置了libfreenect2,我可以成功运行显示RGB /红外/深度流的Protonect演示,但我还想使用OpenNI/NITE进行骨架跟踪。 我已经按照在OpenNI回购的README文件中的指令,但是当我试图运行NiViewer我得到这个: NiViewer openDevice failed: DeviceOpen using default:

    0热度

    1回答

    我一直在试图让libfreenect2库启动并运行在我的Windows 10机器上,并且遇到了一个我无法过去的问题。我已经建立了图书馆,这是一些例子。我遇到的问题是当我去运行“Protonect”示例代码时。我得到的输出列示如下: $ ./install/bin/Protonect.exe Version: 0.2.0 Environment variables: LOGFILE=<proto

    0热度

    1回答

    我目前正在使用Kinect v2。我可以用PC做各种各样的东西。接下来我要做的是,为了在PC上获得我想要的数据,并用这些数据控制树莓派(例如,当我将头向右倾斜时,我将用电机移动Pi)。我已经整理了电机和一切,但我不知道如何使用PC上的跟踪数据来控制Pi。 我希望这个问题很有意义,我对Pi和Kinect都是非常新的。 感谢您的帮助!