为什么我在Tensorflow中的TRAINABLE_VARIABLES如此奇怪?

时间:2017-05-03 22:27:00

标签: tensorflow neural-network

我刚刚开始了我的第一个TF项目。 我在MNIST上训练了4层香草NN。

然后我想显示学到的重量, 但奇怪的是,我得到的输出超出了我的预期。

我用过

sess.run(tf.get_collection(tf.GraphKeys.TRAINABLE_VARIABLES, "my_w1"))

我之前定义的

tf.Variable(tf.random_normal([layer_sizes[i-1], layer_sizes[i]]), name = "my_w1").

问题是,我期望形状的二维数组(784,500), 但我有一个3d形状(15,784,500)。

第一个维度是什么意思?

1 个答案:

答案 0 :(得分:0)

这是您的批量大小:每次迭代中使用的图像数量。它来自代码的这一部分:epoch_x, epoch_y = mnist.train.next_batch(batch_size)