首页 文章
  • 7 votes
     answers
     views

    ARKit 可以将特定表面检测为平面吗?

    使用 iOS 11,iOS 12 和 ARKit,我们目前能够检测水平面上的平面,并且我们还可以可视化该面上的平面。 我想知道是否可以通过某种图像文件声明要在其中检测平面的特定表面? (可能忽略了 ARKit 从其他表面检测到的所有其他平面) 如果不可能,那么我们能否捕获(通过图像)检测到的平面,然后通过CoreML模型对其进行处理以识别该特定表面?
  • 0 votes
     answers
     views

    CoreML中的二进制分类模型训练

    我刚刚开始探索CoreML,并想知道是否有办法使用相同的方法训练二进制分类模型 . 请提供任何参考或示例,因为我是ML菜鸟 .
  • 7 votes
     answers
     views

    出货后不断训练CoreML模型

    在查看新的CoreML API时,我看不到在生成.mlmodel并将其捆绑到您的应用程序后继续训练模型的任何方法 . 这让我觉得我无法对用户的内容或动作进行机器学习,因为模型必须事先经过完全训练 . 发货后有没有办法将训练数据添加到我训练过的模型中? 编辑:我刚刚注意到你可以从URL初始化生成的模型类,所以也许我可以将新的训练数据发布到我的服务器,重新生成训练模型并将其下载到应用程序中?看起来它会...
  • 0 votes
     answers
     views

    CoreML模型没有返回结果

    我正在使用this CoreML模型来测试草图识别,但它没有返回任何结果 . 这是我的代码: func predict(){ guard let image = UIImage(named: "test.png") else{ print("Image not found") return } do{ ...
  • 0 votes
     answers
     views

    将XGBoost模型转换为CoreML

    我试图将以下XGBoost模型转换为CoreML文件但我收到错误 . Traceback (most recent call last): File "<stdin>", line 1, in <module> File "/usr/local/lib/python2.7/dist- packages/coremltools/convert...
  • 8 votes
     answers
     views

    将训练有素的Keras图像分类模型转换为coreml并集成到iOS11中

    使用在https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html找到的教程,我训练了一个Keras模型来识别猫和狗之间的区别 . ''' Directory structure: data/ train/ dogs/ ...
  • 3 votes
     answers
     views

    初始化CoreML转换模型时出错

    实例化转换的caffe模型时出错 . [core] MLModelAsset:加载失败并显示错误Error Domain = com.apple.CoreML Code = 0“声明网络时出错 . ” UserInfo = {NSLocalizedDescription =声明网络时出错 . } 2017-07-15 18:30:24.902963-0700如何Holo [7288:147846...
  • 0 votes
     answers
     views

    xcode CoreML模型间隔预测

    我想知道是否有可能在预测中添加间隔,例如30秒内的一个预测 . 我正在使用以下代码,有人可以在代码中帮助实现吗? 73 func detectScene(image: CIImage) { 74 guard let model = try? VNCoreMLModel(for: mymodel().model) else { 75 fatalError() 76 ...
  • 2 votes
     answers
     views

    是否可以在应用程序运行时在设备上训练CoreML模型?

    是否可以发布带有 CoreML 模型的iOS应用程序,然后让应用程序继续根据用户行为改进(训练)设备上的模型?那么,该模型将在设备上不断增长和改进,无需服务器支持......
  • 0 votes
     answers
     views

    CoreML - 论设备模型培训

    我正在创建一个hello world,以便了解CoreML和CreateML的强大功能 . 我的目标是在我的hello world项目中使用Apples data table example,以便使用给定参数(如作者,页数和 Headers )预测歌词的类型: let data: [String: MLDataValueConvertible] = [ "title":...
  • 3 votes
     answers
     views

    CoreML模型预测与培训不同

    我是Core ML的新手,但到目前为止还有很多乐趣 . 我目前正在学习如何训练模型进行面部识别,方法是在操场上创建模型并验证其结果 . 我保存.mlmodel并在我的应用程序中实现它 . 我的问题是,当我在游乐场测试它似乎具有非常高的准确度,但当我在我的应用程序环境中使用相同的图片实现相同的模型时,我得到完全不同的结果,它几乎无法使用 . 这是我从调试控制台获得的一些代码 . [<VNCla...
  • 12 votes
     answers
     views

    使用ARkit和CoreML的Vision框架

    虽然我一直在研究最佳实践并为正在进行的项目(即Vuforia中的Unity3D iOS项目进行原生集成,使用AVFoundation提取帧然后通过基于 Cloud 的图像识别传递图像)试验多个选项,但我得出的结论是想使用ARkit,Vision Framework和CoreML;让我解释 . 我想知道我将如何捕获ARFrames,使用Vision Framework来使用CoreML模型检测和跟踪...
  • 0 votes
     answers
     views

    用于CoreML图像输入的Keras Image分类器询问MultiArray而不是Image

    我是机器学习的新手,我使用https://www.pyimagesearch.com/2017/12/11/image-classification-with-keras-and-deep-learning的代码和指导 Build 了我的第一个神经网络 现在,当我尝试转换此网络生成的模型时,它会询问MultiArray输入而不是Apple引入的其他模型的图像输入 . 我在哪里失去赛道?我的培训代码...
  • 0 votes
     answers
     views

    coreML - VNCoreMLTRansform

    我制作了一个2级分类问题的caffe模型 . 并使用coreML获取caffeNet.mlmodel . 当ist被放在iphone上运行时,应用程序显示 . “无法对图像进行分类”“VNCoreMLTRansform请求失败” 我能做什么?
  • 0 votes
     answers
     views

    CoreML多输入/多分类器输出

    在SO和reddit上搜索问题后,我无法弄清楚如何在ML文本分类器上训练多输入多输出分类器 . 我可以训练单个输入,单输出文本分类器,但这不适合我的用例 . 任何帮助,将不胜感激 . 我知道没有可以发布的代码,而且这是一个“告诉我如何”的问题,但这些信息似乎不能通过搜索和其他地方获得,并且对社区有益 .
  • 1 votes
     answers
     views

    在CoreML中为循环网络定义可选输入

    我最近偶然发现了一篇关于CoreML docs网站的文章,该文章讨论了用于预测文本的循环模型的实现 . 我试图复制这个,或者至少是类似的东西,并且已经碰到了作者如何能够将模型中的“stateIn”输入定义为可选的 . 有没有人有任何可能指向我正确方向的信息?我正在使用keras构建网络,并计划在培训后转换为CoreML . 本文中使用的过程将完全适用于我的模型 . 输出最后一层的状态并将其传递回模...
  • 1 votes
     answers
     views

    使用Keras 2保存CoreML负载模型

    Apple的新CoreML可以与受欢迎框架培训的模型配合使用 . 至少他们在WWDC video的18英寸处这么说 . 但是在docs似乎关于神经网络它们只支持Caffe和Keras 1.2.2(see code),而Keras它支持2.0版本和Tensorflow和Theano非常受欢迎他们自己的权利 . 要使用Keras 2运行转换,有没有比自己实现转换更好的方法? coremltools包中...
  • 0 votes
     answers
     views

    如何在Objective-C中使用CoreML的机器学习模型

    我有一个以Objective-C(几千行)制作的Machine Vision项目 . 要完成它,我需要使用最新的coreML库导入我的机器My_model.mlmodel . (因为离题My_model.mlmodel是用Python在coremltools中创建的)我试图实例化它,但没有任何作用我找不到任何教程或帮助这个主题 . 当然,我将我的模型导入纯Swift项目,它的工作原理 . 所以我...
  • 0 votes
     answers
     views

    CoreML转换的keras模型在Xcode中请求多数组输入而不是图像

    这实际上是我在Stackoverflow上的第一篇文章,我对机器学习很新 . 我目前正在尝试使用VGG16训练卷积神经网络以进行简单的图像分类任务 . 它基于本教程:http://www.codesofinterest.com/2017/08/bottleneck-features-multi-class-classification-keras.html . 我的目标是将此模型转换为CoreML...
  • 2 votes
     answers
     views

    图像中的文本检测

    我正在使用下面的示例代码,使用coreml和vision在图像(非手写)中进行文本检测 . https://github.com/DrNeuroSurg/OCRwithVisionAndCoreML-Part2 在这里他们使用机器学习模型,它只支持大写和数字 . 在我的项目中,我想要大写,小写,数字和少数特殊字符(如:, - ) . 我没有任何python经验来进行必要的更改并使用列车数据生成所需...
  • -1 votes
     answers
     views

    iOS动态机器学习模型

    我有一个用SWIFT编写的iOS应用程序 . 它获取用户信息并将其保存在数据库中(Firebase) . 我想使用这些数据然后动态更新作为数据更新创建的机器学习模型,以便每次都提供改进的预测 . 有办法做到这一点吗? 我知道我可以单独创建我训练过的模型(例如使用TensorFlow),然后使用Core ML将其导入我的应用程序但是我该怎么做才能让模型在新数据进入时不断更新? 谢谢您的帮助!!
  • 0 votes
     answers
     views

    CoreML-模型训练时的 balancer 图像数量

    我正在使用CoreML训练我自己的动物模型 . 读Apple Docs it says 每个标签至少使用10张图像作为训练集,但更多的图像总是更好 . 另外, balancer 每个标签的图像数量 . 例如,不要为猎豹使用10张图像,为Elephant使用1000张图像 . 我正在使用python script每个数据集下载1000张图像(1000只熊,1000只猎豹,1000只大象等) . ...
  • 0 votes
     answers
     views

    在macOS中使用Vision和CoreML对图像进行分类

    我已经训练IBM Watson识别感兴趣的对象 . 由于远程执行不是必需的,我想使用提供的工具导出到.mlmodel并在macOS中运行 . 不幸的是,学习Swift和macOS开发也不是必需的 . 可以直接从命令行或脚本语言调用Vision吗?作为替代方案,任何人都知道macOS app的骨架在文件列表上运行Vision并以表格形式获得分类分数?谢谢 .
  • 2 votes
     answers
     views

    使用CoreML推断Metal Texture子区域

    我正在构建一个iOS应用程序,可以实时渲染从相机到Metal Textures的帧 . 我想使用CoreML在金属纹理的子区域上执行样式传输(将相机输出想象为2x2网格,其中4个方块中的每一个都用作样式传输网络的输入,并且输出粘贴回显示的纹理) . 我试图找出如何最好地使用MetalML内部的CoreML来填充纹理的非重叠子区域与mlmodel的输出(希望不将ml模型分解为MPSNNGraph) ...
  • 2 votes
     answers
     views

    根据CoreML预测定位SKNode

    我正在看这个CoreML and ARKit example,但是当我运行它时,源项目没有显示 SKLabelNode . 我的猜测是它们缺少一个值 position ,我想将标签放在预测对象位于屏幕的位置 . 此示例使用 Inceptionv3 ML模型 . 标签将添加到视图控制器的 view(_ view: ARSKView, nodeFor anchor: ARAnchor) ->...
  • 1 votes
     answers
     views

    错误! coreML模型预测图像是错误的,视频是正确的

    我在一个示例iOS应用程序中使用CoreML和我的自定义训练对象检测模型 . 在视频帧上使用时,该模型能够很好地执行并显示正确的类检测和边界框 . 在图像上使用时, bounding box detections are all wrong and all predictions are classified to 1 class. 两种情况下的模型设置是相同的 . the model predi...
  • 0 votes
     answers
     views

    Keras和CoreML预测conv1d层的结果是不同的

    这是python中的代码 . model1 = Sequential() model1.add(Conv1D(filters=5, kernel_size=12, padding="same", name="conv1", input_shape=(lenmax,12))) model1.add(Activation('relu')) sgd = k...
  • 0 votes
     answers
     views

    swift coreML:没有“options”参数的预测函数

    在swift documentation中,MLModel有两个预测函数 func prediction(来自:MLFeatureProvider) - > MLFeatureProvider . 根据给定的输入要素值预测输出要素值 . func prediction(来自:MLFeatureProvider,options:MLPredictionOptions) - > M...
  • 0 votes
     answers
     views

    是否可以使用CoreML和ARKit获取World对象的“SCNVector3”位置?

    我正在研究基于AR的解决方案,其中我使用SceneKit和ARKit渲染一些3D模型 . 我还集成了CoreML来识别对象并在场景中渲染相应的3D对象 . 但是现在我只是在检测到对象时将其呈现在屏幕的中心(仅用于我拥有的对象列表) . 是否有可能获得现实世界对象的位置,以便我可以在对象上方显示一些叠加? 那就是如果我有一个水瓶装扫描,我应该能够得到水瓶的位置 . 它可能在水瓶中的任何地方,但不应该...
  • 0 votes
     answers
     views

    如何在iOS(或Android)应用程序中使用keras h5模型

    我用keras retinanet 50训练了一个模型,现在我有一个h5文件,当用静态图像测试它时效果很好 . 我很想在iOS(和/或Android)应用程序中使用它,但我无法将其转换为例如coreml: import coremltools coreml_model = coremltools.converters.keras.convert(model) # => error occur...

热门问题