2016-06-21 82 views
31

我有一个简单的Tango Unity应用程序,它使用Tango AR Camera预制件在增强现实中显示3D对象。Tango AR Camera中的遮挡

正在关注this question,我想试试TangoARScreen提供的occlusion feature

所以我有:

  • 选中 “启用遮挡” 复选框
  • 启用深度检测Tango Manager
  • 增加了Tango Point Cloud启用Update points mesh

但是,3D对象永远不会被前景真实世界的对象隐藏。我错过了什么?

是否有任何示例项目演示此“启用遮挡”功能?

回答

0

引用的实验样品这似乎已经固定在探戈SDK的最新版本更好的结果。

8

尝试查看Unity示例,名为ExperimentalMeshOcclusion

我刚刚运行它,那里的遮挡效果很好,因此您可以看到场景对象和正在使用的代码。

+1

这个例子有自己的方法来处理遮挡(基于实验网格划分),它不使用TangoARScreen的“启用遮挡”功能。 – fiddler

+0

所有的Unity3D Tango SDK例子在运行约30秒内都会崩溃,同样的情况也发生在我已经与之交谈的其他人身上。你是如何让他们工作的?你能告诉我哪个Unity版本+哪个SDK版本+你正在使用哪个设备? –

4

为了使用TnagoARScreen上的遮挡,您必须检查TangoPointCloud场景中预制的Update Points Mesh复选框。

+1

正如问题中明确提到的那样,我已经'添加了一个“Tango Point Cloud”,并且启用了“更新点网格”# – fiddler

3

没有样本,但是这里有步骤来改变现有样本来打开它。经过Phab2测试。

  1. Area Learning Example开始。
  2. 在Unity中加载场景并从您的层次结构打开“Tango Point Cloud”检查器。
  3. 勾选“Tango Point Cloud”脚本下的“更新点网格”。
  4. 打开“Tango AR相机”检查员。
  5. 在“Tango AR屏幕”脚本下勾选“启用遮挡”
  6. 运行该应用程序并确保您正在测试时将标记放置在一个尺寸不错的物体后面,并移动得足够远以便深度传感器可以看到物体。 Rendering the Point cloud data to screen可以帮助您确保您获得您期望的深度传感器的输入。

我确实觉得使用@Oren

+0

我会尝试一下,但是我没有看到与我在我的尝试和描述中有任何区别问题,有没有? – fiddler

+0

Naa你列出的步骤是相同的​​,但是你可能从一个不同的起点开始比区域学习范例?我通过自己完成了这些工作,并在Mac上工作,并且Unity 5.5.0f3和最新版本(几天前)更新了Tango。 第6步是从经验,我认为它不工作,直到我意识到我是太接近我的occluding对象的深度传感器来拿起它。只有当我转动点云的显示时,我才意识到它有多挑剔。 – Jethro

+0

这不适合我..我从一个干净的区域学习案例开始。有任何想法吗? – ShadowMan