Google 视觉文本检测 returns 不必要的数据过多
Google Vision Text Detection returns too much unnecesary data
当使用 Google Vision 来检测菜单上的 运行 文本时,他们 API 的响应太大了,returns 数据太多了,我不需要。我只想要菜单中的文本,而不是响应附带的所有坐标。我在阅读过的任何文档中都找不到有关缩小响应范围的任何内容。有人知道如何指定在响应中返回哪些字段吗?
这是我的请求:
POST: https://vision.googleapis.com/v1/images:annotate?key=<MY_KEY>
BODY:
{
"requests": [
{
"image": {
"content": "...base64-encoded-image-content..."
},
"features": [
{
"type": "TEXT_DETECTION"
}
]
}
]
}
我明白了。我找不到任何关于如何执行此操作的文档,我不得不猜测大约半小时。如果有人知道这方面的任何文档,请告诉我。
无论如何,您都可以使用 "fields" 参数来缩小响应范围,如下所示:
POST: https://vision.googleapis.com/v1/images:annotate?key=<MY_KEY>&fields=responses.fullTextAnnotation.text
这只会 return 来自 Google 视觉文本检测的菜单文本 API
当使用 Google Vision 来检测菜单上的 运行 文本时,他们 API 的响应太大了,returns 数据太多了,我不需要。我只想要菜单中的文本,而不是响应附带的所有坐标。我在阅读过的任何文档中都找不到有关缩小响应范围的任何内容。有人知道如何指定在响应中返回哪些字段吗?
这是我的请求:
POST: https://vision.googleapis.com/v1/images:annotate?key=<MY_KEY>
BODY:
{
"requests": [
{
"image": {
"content": "...base64-encoded-image-content..."
},
"features": [
{
"type": "TEXT_DETECTION"
}
]
}
]
}
我明白了。我找不到任何关于如何执行此操作的文档,我不得不猜测大约半小时。如果有人知道这方面的任何文档,请告诉我。
无论如何,您都可以使用 "fields" 参数来缩小响应范围,如下所示:
POST: https://vision.googleapis.com/v1/images:annotate?key=<MY_KEY>&fields=responses.fullTextAnnotation.text
这只会 return 来自 Google 视觉文本检测的菜单文本 API