使用 cpu 在后台加载 coreml 模型

Loading coreml model in the background with cpu

我知道我们可以打开 "usesCPUOnly" 标志进行预测或检测,但我们如何确保模型在 cpu 上在后台加载(因为 gpu 不可用)?

从 iOS 12 开始,当您创建模型时,您可以为此传递一个选项,请参阅 MLModelConfiguration