是否有类似于 "Not Suitable for Work"/"NSFW" 的 "Yolo DNN" 检测器版本?
Is there a "Yolo DNN" detector version similar to "Not Suitable for Work"/"NSFW"?
我查看了 Yahoo 的旧 NSFW 检测器,不禁想知道是否有一个 Yolo DNN
版本在类似(未发布的)数据集上训练,可以检测和定位图片上的人体裸体?
是否至少有一个 public 数据库,还是我必须自己收集?
最近的一项工作是为此类数据实施抓取工具。如 this article, it resulted in a 220k image dataset you can find in this repo's /raw_data
folder.
中所述
它可能已经对您有用,但该数据集具有非常通用且定义稀疏的类别,这激发了此 newer, better organized dataset。它有 159 个定义的类别,共有 158 万个 imgur URL。这些主要来自 Reddit 频道,在 Reddit 的所有分类荣耀中,这些频道有助于标签的整体放置。回购协议的 README
声称在数据清理之后 - 例如删除重复/损坏/删除的数据 - 您的总容量应该有 ~500 GB 和 ~130 万张图片。
至于预训练的 YOLO,目前还没有任何发表的工作。如果您可以接受将内容过滤委托给 Google 的 Cloud Vision API 的依赖性和成本,他们 claim to be good at classifying visual adult content。否则,由于大多数相同性质的作品似乎都是私有的,您必须自己训练。
我查看了 Yahoo 的旧 NSFW 检测器,不禁想知道是否有一个 Yolo DNN
版本在类似(未发布的)数据集上训练,可以检测和定位图片上的人体裸体?
是否至少有一个 public 数据库,还是我必须自己收集?
最近的一项工作是为此类数据实施抓取工具。如 this article, it resulted in a 220k image dataset you can find in this repo's /raw_data
folder.
它可能已经对您有用,但该数据集具有非常通用且定义稀疏的类别,这激发了此 newer, better organized dataset。它有 159 个定义的类别,共有 158 万个 imgur URL。这些主要来自 Reddit 频道,在 Reddit 的所有分类荣耀中,这些频道有助于标签的整体放置。回购协议的 README
声称在数据清理之后 - 例如删除重复/损坏/删除的数据 - 您的总容量应该有 ~500 GB 和 ~130 万张图片。
至于预训练的 YOLO,目前还没有任何发表的工作。如果您可以接受将内容过滤委托给 Google 的 Cloud Vision API 的依赖性和成本,他们 claim to be good at classifying visual adult content。否则,由于大多数相同性质的作品似乎都是私有的,您必须自己训练。