使用Tensorflow估算器export_savedmodel时清除设备

时间:2019-03-20 02:06:37

标签: tensorflow tensorflow-estimator

我有一个正在接受培训的自定义估算器。然后使用以下命令保存模型:

estimator.export_savedmodel()

我正在训练GPU实例,并希望在CPU实例上执行服务/推断。似乎使用export_savedmodel保存了设备信息,并且当我尝试在CPU实例上进行推理时,出现错误。

我做了一些研究,似乎设置clear_devices标志是解决此问题的方法。但是,我不知道在何处添加此标志。我不是手动实例化会话来运行代码,因此我在线上找到了很多解决方案(在保存或加载模型时添加此标志)对我不起作用。

我正在使用tf.contrib.predictor.from_saved_model

加载模型

是否可以在现有代码设置中使用clear_devices标志(使用estimator.export_savedmodel()保存并使用tf.contrib.predictor.from_saved_model加载)?如果是,该怎么办?

0 个答案:

没有答案
相关问题