在iOS

时间:2018-05-24 02:12:55

标签: ios image image-processing

在这种情况下,主持人预先批准图像是不切实际的。

我想到了两个解决方案:

- 有一个标记/报告按钮,如果每次查看该图像被报告一定次数,则会自动删除该图像。

- 使用检测图像中裸露的库。

第一种方式的问题是:a)我必须提出一个不太敏感或不够灵敏的阈值数字b)这种报告方法必然会让人看到他们报告之前的图像。

第二种方式的问题在于,从我所读到的,裸露的图像检测通常是不可靠的。

所以我想我想知道正常的做法必须是什么。应用程序商店中有如此多的应用程序,用户生成的内容必须有一个很好的方法来执行此操作。我的主要担心/问题是Apple会禁止有任何色情内容的应用,即使开发者采取了一些他可以采取的适当行动来防止这种情况发生。如果我使用这两种方法的组合,我觉得它可以接受我的应用程序,但苹果会禁止任何泄漏一点色情的应用程序?还有更好的方法吗?

1 个答案:

答案 0 :(得分:0)

由于我没有很多使用CoreML的经验,因此无法在此给出过多详细的答案,但您可以尝试将CoreML与机器学习模型一起使用以进行裸露(您应该使用它)能够免费查找),并过滤用户使用模型上传的每个图像/视频。