我应该为验证图像创建 json 注释吗?
should I create json annotation for validation images?
我正在尝试为我自己的数据集实现 mask rcnn,但找不到有关包含验证图像的 val 文件夹的注释的任何信息。我使用 Via 2.0.8 为我的训练集创建了 json 注释,这很有道理。但如果验证图像是稍后要测试的图像,为什么要为它们做注释。如果 val 文件夹中没有 json 文件,我将无法训练我的模块。
我尝试将训练图像的 json 注释复制到验证文件夹。 it worker 我认为但这意味着我应该在训练和 val 中拥有相同数量的具有相同名称的图像。
你可以看看this answer。基本上,您需要验证集来验证输出并衡量模型的性能。使用训练集训练模型后,验证集用于衡量模型在准确性、平均精度等方面的性能。这意味着验证集需要具有与训练集相似的注释文件(ground truth) ,以便将模型的预测结果与您定义的 true 结果进行比较。例如,模型对图像执行分割并输出一些结果。然后将此结果与验证集中的注释(预期的正确输出)进行比较,以衡量模型预测的准确性。测试集仅供您测试模型并查看其性能。然而,测试集中没有精确的测量来计算性能和准确性。
在分割的情况下,流行的测量之一是 dice score 我们需要注释(在验证集中)来计算。
我正在尝试为我自己的数据集实现 mask rcnn,但找不到有关包含验证图像的 val 文件夹的注释的任何信息。我使用 Via 2.0.8 为我的训练集创建了 json 注释,这很有道理。但如果验证图像是稍后要测试的图像,为什么要为它们做注释。如果 val 文件夹中没有 json 文件,我将无法训练我的模块。
我尝试将训练图像的 json 注释复制到验证文件夹。 it worker 我认为但这意味着我应该在训练和 val 中拥有相同数量的具有相同名称的图像。
你可以看看this answer。基本上,您需要验证集来验证输出并衡量模型的性能。使用训练集训练模型后,验证集用于衡量模型在准确性、平均精度等方面的性能。这意味着验证集需要具有与训练集相似的注释文件(ground truth) ,以便将模型的预测结果与您定义的 true 结果进行比较。例如,模型对图像执行分割并输出一些结果。然后将此结果与验证集中的注释(预期的正确输出)进行比较,以衡量模型预测的准确性。测试集仅供您测试模型并查看其性能。然而,测试集中没有精确的测量来计算性能和准确性。
在分割的情况下,流行的测量之一是 dice score 我们需要注释(在验证集中)来计算。