Clarifai - 返回自定义训练模型的区域

Clarifai - Returning regions for custom trained models

文档显示只有概念被 return 用于自定义训练模型:

{
  "status": {
    "code": 10000,
    "description": "Ok"
  },
  "outputs": [
   ...,
  "created_at": "2016-11-22T16:59:23Z",
  "model": {
   ...
    },
    "model_version": {
    ...
      }
    }
  },
  "input": {
    "id": "e1cf385843b94c6791bbd9f2654db5c0",
    "data": {
      "image": {
        "url": "https://s3.amazonaws.com/clarifai-api/img/prod/b749af061d564b829fb816215f6dc832/e11c81745d6d42a78ef712236023df1c.jpeg"
      }
    }
  },
  "data": {
    "concepts": [
      {
       ...
      },

而预先训练的模型,例如人口统计和人脸 return 区域,在图像中具有 x/y 位置。

如果我想检测图像中的 WHERE,则为我的自定义模型预测概念。将图像拆分为网格并以字节形式提交是我唯一的选择吗?这似乎适得其反,因为这会导致额外的查找。

在Clarifai平台中:Demographics、Face Detections和Apparel Detections都是object detection模型。一般、旅游、美食等都是分类模型。分类和目标检测是两个不同的(虽然看起来很相似)计算机视觉任务。

例如,如果您希望将图像分类为 'sad',那么 'sadness' 具有边界框(即区域轮廓)没有意义。分类考虑了整个图像。

对象检测,查看图像的各个部分并尝试查看对象是否存在(有点像您建议的解决方法)。那么 'knife' 或任何您要查找的离散对象在哪里。

令人困惑的是,您可能有概念上的重叠,例如有 'face' 的概念。您可以让图片具有此分类,但也可能在特定位置检测到特定 'face' 对象。分类不限于抽象概念(尽管在考虑这两种方法之间的差异时考虑它们会有所帮助)。

目前所有自定义模型都是分类模型,而不是对象检测模型。我认为系统的企业级正在为此做一些工作,但我认为目前没有任何可用的东西。您正在使用的通用模型听起来像是碰巧是对象检测模型 - 因此您可以从中获得一些额外的信息!

顺便说一句:如果我理解的话,您提出的解决方法应该可行,基本上是将图像分成小图像并要求对每个图像进行分类。你说得对,这样做效率低下,但我目前不确定是否有更好的选择。