如何将onnx模型转换为tensorflow保存的模型?

时间:2019-11-13 10:08:51

标签: tensorflow tensorflow-serving onnx

我正在尝试使用tf-serving部署我的火炬模型。我已将我的火炬模型导出到onnx。如何生成用于tf服务的PB模型?

1 个答案:

答案 0 :(得分:6)

使用onnx/onnx-tensorflow转换器工具作为ONNX的Tensorflow后端。

  1. 安装onnx-tensorflow:pip install onnx-tf

  2. 使用命令行工具进行转换: onnx-tf convert -t tf -i /path/to/input.onnx -o /path/to/output.pb

或者,您可以通过python API进行转换。

import onnx

from onnx_tf.backend import prepare

onnx_model = onnx.load("input_path")  # load onnx model
tf_rep = prepare(onnx_model)  # prepare tf representation
tf_rep.export_graph("output_path")  # export the model