coreml

    0热度

    2回答

    我正在为学校项目创建一个IOS应用程序,用户要求应用程序使用非对称算法加密/解密字符串。 我希望用户能够与机器“交谈”,就好像与另一个人交谈一样。例如,用户可以询问应用程序“你可以加密'你好吗?'对我来说,使用Johns公钥?“然后,应用程序将返回'你怎么样'用Johns公钥加密。 我已经观看了关于核心ML的WWDC17会议。但是我不确定它是否适用于我的用例。我应该使用Core ML还是NLP?还

    0热度

    1回答

    我为了自己的目的在python中创建了一个数据模型。是否有可能将该模型集成到我的iOS项目中以实现我的一些目的?

    1热度

    1回答

    我与应用程序扩展程序共享CoreML模型。 Xcode为模型生成swift代码。为了在扩展中使用该代码,我必须在应用程序扩展中包含相同的模型。有没有办法在应用程序中只包含一次模型,并在应用程序和扩展中使用?

    1热度

    1回答

    我已经使用Keras(2.0.4)& Tensorflow(1.1.0)进行了再培训和微调Inception_v3。当我使用coremltools将Keras模型转换为MLmodel时,我得到一个需要输入MultiArray的模型。 如果我了解它是在询问[高度,宽度,RGB] =(299,299,3),那么这是有道理的。但我不知道如何将CVPixelBuffer转换为该格式。 有人可以帮我理解什么

    3热度

    2回答

    @objc func launchCoreML() { let settings = AVCapturePhotoSettings() let previewPixelType = settings.availablePreviewPhotoPixelFormatTypes.first let previewFormat = [ kCVPixelBuffe

    -1热度

    2回答

    我正在研究与iOS11的Vision SDK有关的货币识别问题。 我在处理VNHomographicImageRegistrationRequest时遇到问题,它确定了对齐两个图像内容所需的透视扭曲矩阵。但我找不到如何发送两个图像参数到这个API,任何人都可以帮助我?

    -3热度

    2回答

    我想知道是否有可能为Xcode创建核心毫升模型,我的应用程序需要实时识别许多不同的物种,所以我需要创建一个自定义模型 我仍然begginer所以请一步一步解释我,谢谢

    0热度

    1回答

    我想要识别使用Tensorflow训练过的图像。我跟着这个steps 最后我成功地训练了我自己的数据集并给出了一个很好的预测结果。所有的代码都在python中。现在我试图在iOS项目中使用这个训练好的模型。我正在关注tutorial以在我的iOS项目中使用我训练有素的模型。但是当我遵循这些步骤时,我在我的mac终端窗口中出现错误,如 - "ERROR: /tensorflow/tensorflow

    0热度

    1回答

    我有Objective-C(成千上万行)制作的机器视觉项目。为了完成它,我需要导入我的机器My_model.mlmodel与最新的coreML库。 (因为在Python中使用coremltools创建了离题My_model.mlmodel) 我正在尝试实例化它,但没有任何工作,我无法找到任何教程或帮助解决此主题。当然,我将我的模型导入纯Swift项目,并且工作。 所以我将Swift类附加到了我的项

    0热度

    1回答

    我尝试将Keras OCR example转换为CoreML模型。 我已经可以训练我稍微修改过的模型,并且在Python中一切看起来都不错。但是现在我想将模型转换为CoreML以使用它我的iOS应用程序。 问题是,CoreML文件格式不支持Lambda层。 我不是这方面的专家,但据我所知,这里的Lambda层用于使用ctc_batch_cost()来计算损失。 图层在线464周围创建。 我想这是用