裁剪CMSampleBuffer

时间:2019-03-04 08:41:41

标签: ios swift avcapturesession core-image firebase-mlkit

我正在使用Firebase ML Kit来识别在小窗口中可见的文本。但是我想使其更高效,以帮助它不分析不必要的数据。所以我想裁剪发送到模型的图像。

Firebase ML正在使用VisionImage的{​​{1}}。 我需要的图像的唯一部分是相同的宽度,但只有大约100px高,就像这里的蓝色部分:

Image showing the used part of the image captured

我还没有找到一种很好的方法来进行此操作,还是从显示给用户的预览中获取图像然后将其转换回去更好?

我认为这应该在CMSampleBuffer的{​​{1}}函数内部完成。我的功能今天看起来像这样:

captureOutput

0 个答案:

没有答案
相关问题