coreml

    1热度

    1回答

    Apple的新CoreML可以与在流行框架上训练的模型一起工作。至少他们在WWDC video的18英寸处这样说,但在docs看来,关于神经网络他们只支持Caffe和Keras 1.2.2(see code),而Keras的2.0版本和Tensorflow和Theano在自己的权利。 为了得到转化率随Keras 2运行,有没有比实现转换自己一个更好的办法?在coremltools包中的Keras转

    4热度

    3回答

    我正在查看Core ML Apple iOS框架。我已经读过,安装coremltools来创建自己的模型。我已经安装python sudo python /Users/administrator/Downloads/get-pip.py 按照文档coreml installation我已经下载了coremltool文件。 ,然后尝试安装coremltools https://pypi.python

    12热度

    1回答

    Apple推出了Core ML。有许多第三方提供训练有素的模型。 但是如果我想自己创建一个模型呢?我该怎么做,我可以使用哪些工具&技术?

    3热度

    1回答

    我正在理解CoreML。对于初学者模型,我已经下载了Yahoo's Open NSFW caffemodel。您给它一张图片,它会给出一个概率分数(介于0和1之间)图片包含不适合的内容。 使用coremltools,我已经将模型转换为.mlmodel并将它带入我的应用程序。它出现在Xcode中,像这样: 在我的应用程序,我可以顺利过关的图像,输出显示为MLMultiArray。我遇到麻烦的是了解如

    3热度

    1回答

    我试图从Places205 - GoogLeNet制作核心ML模型,如Apple here所述。 我不想被苹果使用现成的模式,所以我从这个链接的原始模型:https://developer.apple.com/machine-learning/model-details/Places205-GoogLeNet.txt 按照苹果的WWDC会议上,我们可以使用Coremltools转换这一模式。在他们

    4热度

    2回答

    从VNClassificationObservation获取问题。 我的目标ID识别对象并显示弹出对象名称,我能够获取名称,但我无法获取对象坐标或框架。 这里是代码: let handler = VNImageRequestHandler(cvPixelBuffer: pixelBuffer, options: requestOptions) do { try handler.perf

    0热度

    1回答

    我最近升级我的keras从1.1.0版本1.2.2和我跑了CNN的手势分类(代码使用keras 1.1.0开发)。我保存了训练好的模型,我尝试使用coremltools将其转换为CoreML模型。是如下面的代码: import coremltools import theano from keras import backend as K K.set_image_dim_ordering('

    0热度

    1回答

    我刚开始探索CoreML,并想知道是否有方法使用它来训练二叉分类模型。 请为我提供任何参考或例子,因为我是ML noob。

    1热度

    1回答

    我正在尝试在CoreML中构建数字分类模型,并且想要使用朴素贝叶斯分类器,但无法找到如何使用它。我的算法是用朴素贝叶斯

    7热度

    1回答

    在这个框架中完成的面部识别究竟是如何完成的?该文档说明它是框架 人脸检测的一部分,承认 但是,目前尚不清楚哪些类/方法允许我们这样做。我发现的最接近的是VNFaceObservation这是缺乏重要的细节。 它更像是一个手动过程,我们必须包含我们自己的学习模型吗? - 如果是这样,怎么样?