AWS 从视频中进行实时人体检测
AWS live human detection from video
有没有 AWS api 可以检测视频中的真人?例如,一个人可以通过显示另一个人的图像来伪造人类检测。那么有没有办法克服这个问题呢?
识别首先会验证视频中是否有人。
如果不是 AWS,是否还有其他 api 或 python 库可以做到这一点?
根据预期的攻击向量,您可能有责任制定由其他身份验证构建块组成的解决方案。Amazon Rekognition 提供的功能可可用于这些任务。
根据您的用户群的预期恶意程度,一个样本数据点(图像)可能不足以可靠地确定对象是否为人类(尽管是特定的)。如果没有深度传感器、热成像等额外的数据点,就很难确定是否有人试图用模仿的面孔进行混淆。
增加此类系统稳健性的一种方法是为用户设计一个具有自定义半随机 "tests" 的多因素身份验证层,包括不会被物理攻击向量欺骗的其他信息测试.另一种提高光学系统稳健性的方法是在录制视频的同时要求人们做出一系列姿势或任务(捂住嘴巴、用手盖住右眼、伸出舌头),这些姿势或任务对真人来说很容易做到但不像这样的模仿。
Amazon Rekognition supports finding faces within an image, as well as matching a test face to faces in a collection, and can also be used to help estimate other meta-concepts like emotion (happy, sad, frown, smile, etc). Rekognition video 特别可用于检测用户从一个姿势更改为下一个姿势时的变化,以尝试自动检测不良行为者。
有没有 AWS api 可以检测视频中的真人?例如,一个人可以通过显示另一个人的图像来伪造人类检测。那么有没有办法克服这个问题呢? 识别首先会验证视频中是否有人。 如果不是 AWS,是否还有其他 api 或 python 库可以做到这一点?
根据预期的攻击向量,您可能有责任制定由其他身份验证构建块组成的解决方案。Amazon Rekognition 提供的功能可可用于这些任务。
根据您的用户群的预期恶意程度,一个样本数据点(图像)可能不足以可靠地确定对象是否为人类(尽管是特定的)。如果没有深度传感器、热成像等额外的数据点,就很难确定是否有人试图用模仿的面孔进行混淆。
增加此类系统稳健性的一种方法是为用户设计一个具有自定义半随机 "tests" 的多因素身份验证层,包括不会被物理攻击向量欺骗的其他信息测试.另一种提高光学系统稳健性的方法是在录制视频的同时要求人们做出一系列姿势或任务(捂住嘴巴、用手盖住右眼、伸出舌头),这些姿势或任务对真人来说很容易做到但不像这样的模仿。
Amazon Rekognition supports finding faces within an image, as well as matching a test face to faces in a collection, and can also be used to help estimate other meta-concepts like emotion (happy, sad, frown, smile, etc). Rekognition video 特别可用于检测用户从一个姿势更改为下一个姿势时的变化,以尝试自动检测不良行为者。