Firebase ML套件托管自定义模型

时间:2019-02-04 16:30:17

标签: firebase tensorflow tensorflow-lite firebase-mlkit

是否可以使用ML套件自定义模型托管进行对象检测,而不仅仅是对象分类。我在tensorflow lite示例android应用程序中对此很熟悉,但是我仍想使用Firebase,因为它具有更新模型和iOS / android支持的功能。

基本上,我不确定如何从该行开始:

int [] outputDims = {DIM_BATCH_SIZE, 由于我不仅仅在分类,所以不确定其他什么值 };

firebase模型解释器支持吗?

1 个答案:

答案 0 :(得分:0)

是的,ML Kit自定义模型解释器应支持您的对象检测TFLite模型。代码中的输入/输出尺寸应与您的TFLite模型输入/输出匹配。

由于您熟悉TFLite Android示例应用程序。让我们以TFLite Android示例应用程序和ML Kit示例应用程序为例。

在TFLite Android示例应用程序中,我们将输出尺寸定义为具有float类型的二维数组: https://github.com/tensorflow/tensorflow/blob/master/tensorflow/lite/java/demo/app/src/main/java/com/example/android/tflitecamerademo/ImageClassifierFloatInception.java#L38

在ML Kit示例应用程序中,我们还将其定义为具有浮点类型的二维数组: https://github.com/firebase/quickstart-android/blob/master/mlkit/app/src/main/java/com/google/firebase/samples/apps/mlkit/java/custommodel/CustomImageClassifier.java#L191

维表示为列表,数据类型是ML Kit中的参数。

相关问题