AWS rekognition可以分析视频流中的面部(情绪等)吗?

时间:2019-02-21 08:56:53

标签: amazon-web-services amazon-kinesis amazon-rekognition

我认为,到今天为止,我似乎无法(https://docs.aws.amazon.com/rekognition/latest/dg/streaming-video.html)使用这些文档。似乎对于视频流,仅支持面部检测,不支持分析。分析说,它仅适用于存储的媒体(https://docs.aws.amazon.com/rekognition/latest/dg/faces.html)。有人可以确认吗?

如果是这样,想知道在AWS上“破解”视频流分析的一种好方法是什么?使用lambda函数从亲属中读取视频,将其切成小块,写入S3,然后让面部分析器(识别)定期轮询S3来分析面部,是否有意义?我们确实需要对视频流进行情感分析...

非常感谢!

2 个答案:

答案 0 :(得分:1)

您可以发送单独的帧以进行识别,如果您要在边框上绘制带有文字的边框,则可以每n帧更新一次它们的位置和情绪,具体取决于所需的fps。

OpenCv是一个很好的选择,尽管我不知道您是否可以在lambda函数中使用它。我想您可能不需要对视频的每个帧进行分析。

答案 1 :(得分:0)

[我尚未验证此方法,但是请看一下它是否可能对您有用]

识别视频可让您检测和识别流视频中的面部。结果在Kinesis数据流中可用。您可以使用该流来识别和定位带有面部的帧。然后,您可以将这些帧作为图像检索,并将它们发送到Rekognition Image进行进一步分析,例如标记情感。