是否有类似于 "Not Suitable for Work"/"NSFW" 的 "Yolo DNN" 检测器版本?

Is there a "Yolo DNN" detector version similar to "Not Suitable for Work"/"NSFW"?

我查看了 Yahoo 的旧 NSFW 检测器,不禁想知道是否有一个 Yolo DNN 版本在类似(未发布的)数据集上训练,可以检测和定位图片上的人体裸体?

是否至少有一个 public 数据库,还是我必须自己收集?

最近的一项工作是为此类数据实施抓取工具。如 this article, it resulted in a 220k image dataset you can find in this repo's /raw_data folder.

中所述

它可能已经对您有用,但该数据集具有非常通用且定义稀疏的类别,这激发了此 newer, better organized dataset。它有 159 个定义的类别,共有 158 万个 imgur URL。这些主要来自 Reddit 频道,在 Reddit 的所有分类荣耀中,这些频道有助于标签的整体放置。回购协议的 README 声称在数据清理之后 - 例如删除重复/损坏/删除的数据 - 您的总容量应该有 ~500 GB 和 ~130 万张图片。

至于预训练的 YOLO,目前还没有任何发表的工作。如果您可以接受将内容过滤委托给 Google 的 Cloud Vision API 的依赖性和成本,他们 claim to be good at classifying visual adult content。否则,由于大多数相同性质的作品似乎都是私有的,您必须自己训练。