微软情感API:使用Swift和XCode识别视频中的情绪

时间:2017-03-15 05:50:09

标签: microsoft-cognitive

所以基本上我试图建立的应用程序将拥有实时视频情感API。因此,当用户拍摄他/她自己的视频时,它将基于面部表情(以JSON格式ofc)发送实时情感。使用C#看起来非常可能。我只是不知道我应该如何使用Swift和XCode。我应该援引Alamofire吗?但那我怎么会传递帧?我查看了核心视频套件,但那里绝对没有任何相关内容。有人可以帮忙吗?如果可能使用Objective C,那么也让我知道。 在此先感谢:)

0 个答案:

没有答案
相关问题