CPU上的XLA JIT优化

时间:2019-02-14 17:24:32

标签: tensorflow tensorflow-serving tensorflow-estimator tensorflow-xla

我正在尝试获取保存的模型(或冻结图)并启用XLA JIT编译。 我使用configProto Optimization选项将其设置为L1,但它似乎对TF图的执行没有任何影响。 我读到它必须完成手动模式,而不仅仅是在会话级别。是否有任何示例,或者您可以指出一些代码指针,在这里我可以使用已经保存的模型架构(保存的模型捆绑包或冻结的图)运行xla Jit编译。

0 个答案:

没有答案
相关问题