Tensorflow维度理解

时间:2018-09-28 10:53:21

标签: python tensorflow matrix machine-learning

我对理解张量流中的线性回归过程有疑问。 以下是我的代码段:

def linearmodel(X,w,b):
    output = tf.matmul(X,w)+b
    return output

x = tf.placeholder(tf.float32,[None,4])
y_ = tf.placeholder(tf.float32,[None,3])
w = tf.Variable(tf.random_normal([4,3],mean=0.0,stddev=0.05))
b= tf.Variable(tf.zeros([3]))
y_pred = linearmodel(x,w,b)

在上面的代码中,我在训练时间传递120个4列元素,因此在这种情况下,当我尝试乘以 tf.matmul(x,w)时,我将得到一个大小为nx3的矩阵。现在,我在将其与形状为1x3的b相加时会发生矩阵相加的情况,因为它没有遵循矩阵相加规则,即只能添加相同大小的矩阵。

抱歉,这听起来很傻,但是如果有人可以帮助,我将非常感激。

0 个答案:

没有答案