刚看过新的iPhone X公告,前置摄像头的感应和跟踪技术是否向开发者开放?一个Snapchat面罩被全世界展示在舞台上,不知道这是否是使用ARKit新iPhone X前置摄像头深度和脸部跟踪网格API
回答
是的,它对开发者开放。
如果你现在看ARKit docs page,你会发现它被分成世界跟踪和人脸跟踪部分(加上两个共同点)。世界追踪是在WWDC上宣布的 - 通过背景照相机在您周围世界的AR内容中“穿过”您的设备。
脸部追踪AR特定于iPhone X和TrueDepth相机。正如您在这些文档中看到的那样,它使用ARFaceTrackingConfiguration
而不是其他配置类。它通过ARFaceAnchor
对象为您提供实时信息。
在脸部锚文档中,它看起来像有两种方法来获取脸部信息。 geometry
为您提供了可以显示的3D网格,或者用于将纹理映射到脸上 - 这大概是Snapchat演示用于在主题演示中制作摔跤蒙版的原因。 blendShapes
会给你一些动画参数,比如下颚张开多远,左眼是多么眯眼(还有大约50种其他更微妙的东西)......他们谈论使用它来给木偶或头像设置动画,所以这就是可能Animoji是如何工作的。
苹果也发布了a sample code project showing how to do all of these,所以你可以看看代码,得到一个想法如何自己做。 (即使没有iPhone X也无法运行代码)。
下面是使用iPhone上的X的TrueDepth相机为例:https://developer.apple.com/documentation/arkit/creating_face_based_ar_experiences
和一个全新的会话:Face Tracking with ARKit #601
创建基于脸部的AR体验
使用iPhone X上的TrueDepth相机在用户的脸部之后放置和制作3D内容并与其面部表情匹配。
此示例应用程序提供了一个简单的界面,允许您使用TrueDepth前置摄像头在设备上选择四个增强现实(AR)可视化(请参阅iOS设备兼容性参考)。
- 单独的摄像头视图,没有任何AR内容。
- ARKit提供的人脸网格,可自动估算真实世界的定向照明环境。
- 虚拟3D内容似乎附加到(并被用户的真实脸部的部分遮挡)。
- 一个简单的机器人角色,其面部表情动画以匹配用户的面部表情。
==>检查题为“对用户的面部将3D内容”为你的第二个用例的部分。
- 1. Mac上的脸部跟踪软件(内置摄像头)
- 2. 使用前置摄像头拍摄时未检测到脸部
- 3. 使用从视频文件或网络摄像头的kinect脸部跟踪
- 4. 摄像头跟踪算法
- 5. Android前置摄像头API
- 6. Kinect SDK 1.5 - 脸部跟踪:WPF色彩深度唯一跟踪器
- 7. FaceDetector未检测到带有前置摄像头的脸部
- 8. 使用前置摄像头进行脸部对焦
- 9. Android摄像头API 2自动对焦前置摄像头
- 10. 禁用Unity中SteamVR摄像头的头部跟踪?
- 11. iPhone前置摄像头 - 轻点对焦?
- 12. iphone 4.0的前置摄像头
- 13. 如何翻转iphone前置摄像头
- 14. 前脸Android摄像头默认
- 15. 同时打开android前置摄像头和后置摄像头
- 16. 切换到前置摄像头和后置摄像头Android SurfaceView
- 17. 在后置摄像头和前置摄像头之间切换
- 18. 跟踪摄像头,OpenCV和Python的眼睛瞳孔位置
- 19. ARToolKit自定义摄像头跟踪区
- 20. C#摄像头对象跟踪
- 21. iPhone摄像头API和缩放
- 22. iPhone网络摄像头Feed
- 23. 测试iPhone4上的前置摄像头或后置摄像头
- 24. iPhone - 使用AVCaptureSession和AVCaptureDevice使用前置或后置摄像头
- 25. kinect unity3d脸部跟踪
- 26. 使用Emgu.CV侦测脸部从网络摄像头(C#)
- 27. 来自iPhone 7 Plus双摄像头的深度图
- 28. 使用网络摄像头进行灯光/色彩跟踪
- 29. 使用网络摄像头进行颜色跟踪
- 30. 使用网络摄像头跟踪手势