在tensorflow中跨会话使用共享变量

时间:2018-03-21 05:09:42

标签: tensorflow

我想训练模型,同时使用模型的结果进行进一步的操作。培训可以在后台完成,但我需要预测模型始终可用。

我已经知道如何做到这一点,但不确定是否可以在tensorflow中做到这一点。因此,我正在考虑为预测和培训创建单独的线程/流程。每个进程中将运行两个不同的会话,它们将共享相同的变量。因此,训练模型可以在其自身时间内更新变量,并且预测模型可以使用最新权重来更好地预测。

有没有办法在会话之间共享变量或更好的方法来执行此操作?我听说不鼓励在tensorflow中运行多个会话。

0 个答案:

没有答案
相关问题