恢复训练的神经网络

时间:2018-06-07 14:59:12

标签: tensorflow neural-network recurrent-neural-network

我有一个带有LSTM的RNN,它使用两个占位符来训练目标向量的输入向量。培训有效,但在恢复我提供的目标占位符时会是什么?

从概念上讲,我不明白为什么需要这样做,因为在生产环境中我只有输入向量,并希望训练有素的模型提供输出。

1 个答案:

答案 0 :(得分:0)

通常,当你进行有监督的学习时,你有一个输入x和基础事实y。您的模型及其参数化提供了预测y_hat。通过使用最小化损失的优化器 - 衡量预测与实际情况的接近程度 - 您可以使模型适应数据并改善结果。

完成训练后,您不再需要y的占位符,因为您将一些x输入到模型中并获得其预测y_hat。因此,你做对象

是正确的
# load model
x = graph.get_tensor_by_name('x:0')
y_hat = graph.get_tensor_by_name('whateverOutput:0')

sess.run(y_hat, feed_dict={x:myProductionData})

所以你的结果现在存储在y_hat。