社交媒体应用程序中的内容审核

Content moderation in social media apps

我将部署一个允许用户共享内容的 React Native 应用程序。在应用程序中,用户可以报告“不良内容”(露骨内容、亵渎......)。

此外,每次上传内容时,我都会检测它是否有脏话,sexual/racist/medical...内容等。如果内容是非法的,它会存储在版主数据库中,有些版主会看看所有的帖子,决定是否删除。

我的问题很简单:我可以将应用程序上传到商店吗?我见过因为 NSFW 内容而被删除的应用程序,这就是我害怕的原因。

我可以在用户尝试上传可疑内容时自动删除它,但我不想这样做,我更愿意将其传递给人工版主。

此外,我还没有为那些露骨的图片实施任何过滤器(但我有一个针对文本的脏话过滤器,它可以删除脏话)。

我怎样才能让商店测试人员知道我在后端有一个内容审核系统?我的意思是,当测试人员在测试应用程序时,如果他上传露骨内容,可能需要几个小时才能删除...所以,如果发生这种情况,he/she 会自动拒绝该应用程序吗?

我知道这个问题是法律导向的,但正如我所描述的,它有 技术部分。

有什么想法吗?谢谢

这适用于 iOS 和 App Store 连接

当您将应用程序提交到 App Store 时,您可以在其中包含供审阅者评论的部分。在这里您需要详细说明您的审核过程,以便他们可以确定它是否符合他们的期望。

您还应该详细说明用户如何举报他们认为不当的内容。

您还应在此处说明如何确保用户数据的安全以符合数据隐私法。