coreml

    1热度

    1回答

    我已经将Keras模型转换为CoreML。我想确保CoreML使用半浮点数,而不是全浮点数。我怎样才能做到这一点? 更新: 如何确保网络的输出是半浮点数或至少是浮点数(或任何其他类型)而不是Double?

    1热度

    2回答

    苹果在iOS 11中有新功能,允许您使用视觉框架在没有模型的情况下执行对象检测。我尝试这些新的API,但发现来自VNDetectRectanglesRequest的结果不好。我是否正确使用API​​? 下面是一些很好的例子: 和一些不好的情况下: 这里是我的代码: func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffe

    8热度

    2回答

    与其他许多开发者一样,我也沉浸在苹果新的ARKit技术中。这很棒。 然而,对于一个特定的项目,我希望能够识别场景中的(真实)图像,或者对其进行投影(就像Vuforia对其目标图像所做的那样),或者用它来触发事件在我的应用程序。 在我的研究中,我偶然发现了Apple的Vision和CoreML框架。这看起来很有希望,尽管我还没有能够围住它。 据我所知,我应该可以通过使用Vision框架找到矩形并将它

    2热度

    2回答

    我最近一直在寻找到结合iOS开发人员专用的机器学习与发行我的应用程序。由于这是我第一次使用任何与ML相关的东西,当我开始阅读Apple提供的不同型号描述时,我非常失落。它们具有相同的目的/说明,唯一的区别是实际的文件大小。这些模型之间的区别是什么?你如何知道哪一个最适合?

    0热度

    2回答

    我有一个数据集,从link下载。 我知道coremltool(由Apple创建)。 现在的问题是: 是有可能转换斯坦福dataset到CoreML? 如果是 - 可以有人给我指令? 在此先感谢!

    2热度

    1回答

    我正在开发使用新的Core ML框架的应用程序。我试图实现如下: 1.选择一个图像,然后点击它的任何对象来绘制矩形 2.之后,跟踪该对象在多个图像刚刚运行for循环 目前我在做用下列过程 检测对象时用户TAS和存储它VNDetectedObjectObservation = VNDetectedObjectObservation(boundingBox的:convertedRect) 创建VNTr

    2热度

    2回答

    我已将模型从keras转换为coremltools,将其添加到项目并添加到目标。然后,当我在模型类的导航器中按下模型时,我得到的“模型类尚未生成”。这是什么意思?

    0热度

    1回答

    我试图从给定图像中检测对象。从研究我发现,我们能够发现并使用以下过程跟踪视频的对象: private lazy var cameraLayer: AVCaptureVideoPreviewLayer = AVCaptureVideoPreviewLayer(session: self.captureSession) private func tapGestureAction(recognize

    0热度

    1回答

    我试图保留控制台中的对象以显示为标签(classifierText)。出现“仅从主线程使用UILabel.text”的警告。什么似乎是问题,为什么项目被显示为标签? var previewLayer: AVCaptureVideoPreviewLayer! let classifierText: UILabel = { let classifier = UILabel()

    0热度

    1回答

    我使用VNImageRequestHandler和VNDetectRectanglesRequest来处理在图像中查找矩形的请求。但是由于iOS11中的Vision仅提供条形码,矩形,脸部识别,但是我想要在图像中查找汽车,应该如何更改代码以在图像中查找指定的物体?