从tf.distributions.category输出层创建softmax

时间:2019-03-29 13:24:56

标签: python tensorflow machine-learning neural-network softmax

我正在训练代理在离散环境中行动,我正在使用tf.distributions.Categorical输出层,然后对它进行采样以创建softmax输出以确定要采取的措施。我这样创建我的政策网络:

pi_eval, _ = self._build_anet(self.state, 'pi', reuse=True)

def _build_anet(self, state_in, name, reuse=False):
    w_reg = tf.contrib.layers.l2_regularizer(L2_REG)
    with tf.variable_scope(name, reuse=reuse):
        layer_1 = tf.layers.dense(state_in, HIDDEN_LAYER_NEURONS, tf.nn.relu, kernel_regularizer=w_reg, name="pi_l1")
        layer_2 = tf.layers.dense(layer_1, HIDDEN_LAYER_NEURONS, tf.nn.relu, kernel_regularizer=w_reg, name="pi_l2")
        a_logits = tf.layers.dense(layer_2, self.a_dim, kernel_regularizer=w_reg, name="pi_logits")
        dist = tf.distributions.Categorical(logits=a_logits)
    params = tf.get_collection(tf.GraphKeys.GLOBAL_VARIABLES, scope=name)
    return dist, params

然后使用tf.distributions.Categorical webpage中的示例,对网络进行采样并构建一个类分发输出以用作softmax输出:

n = 1e4
self.logits_action = tf.cast(tf.histogram_fixed_width(values=pi_eval.sample(int(n)), value_range=[0, 1], nbins=self.a_dim), dtype=tf.float32) / n

像这样运行:

softmax = self.sess.run([self.logits_action], {self.state: state[np.newaxis, :]})

但是输出仅具有两个非零条目:

[0.44329998 0.         0.         0.5567    ]
[0.92139995 0.         0.         0.0786    ]
[0.95699996 0.         0.         0.043     ]
[0.7051 0.     0.     0.2949]

我的直觉与documentation说的value_range有关:

  

value_range:形状2的张量与值具有相同的dtype。值<=   value_range [0]将映射到hist [0],值> = value_range 1   将被映射到hist [-1]。

但是我不确定应该使用哪个值范围?我想知道是否有人有想法吗?

1 个答案:

答案 0 :(得分:0)

确实,我怀疑这与value_range有关,我应该将操作尺寸的上限设置为

value_range=[0, self.a_dim]